Sunteți pe pagina 1din 148

Captulo 1

Fundamentos de Optimizacin Esttica

1.1 Conceptos bsicos


La teora de optimizacin clsica o programacin matemtica est constituida por un conjunto de resultados
y mtodos analticos y numricos enfocados a encontrar e identificar al mejor candidato de entre una coleccin
de alternativas, sin tener que enumerar y evaluar explcitamente todas esas alternativas. Un problema de
optimizacin es, en general, un problema de decisin.
Con el fin de ilustrar de forma adecuada la estructura y composicin de un problema de optimizacin,
introduciremos a continuacin un sencillo ejemplo.

Ejemplo 1.1 (Construccin de una caja con volumen mximo) Supongamos que queremos determinar
las dimensiones de una caja rectangular de forma que contenga un volumen mximo, pero utilizando para ello
una cantidad fija de material. El problema en forma abstracta se podra plantear en los siguientes trminos

Maximizar Volumen
s.a. rea Fija

Para resolver este problema, en primer lugar, tendremos que modelizarlo matemticamente, es decir tendremos
que expresar el problema en trminos matemticos. La forma de modelizar un problema de optimizacin es
empezar por definir las variables que estn implicadas en dicho problema y puesto que estamos tratando de
determinar las dimensiones de una caja rectangular, la opcin ms clara es considerar como variables a x, y,
z.
Con estas variables, la funcin para la que tenemos que encontrar el mejor valor, ser el volumen de la caja,
que puede expresarse fcilmente como
V (x, y, z) = xyz
A continuacin tenemos que tener en cuenta las limitaciones de material existentes. Como este material se
utiliza para construir las paredes de la caja, tendremos que tener en cuenta el rea lateral de la misma, que en
el caso de utilizar tapa para la caja sera

A (x, y, z) = 2 (xy + yz + zx)

Por ltimo, es necesario tener en cuenta que las dimensiones de la caja no pueden ser negativas y entonces el
problema puede plantearse como

Maximizar xyz
s.a. 2 (xy + yz + zx) = A
x, y, z 0

A partir de este sencillo ejemplo se observa que cada problema de optimizacin tiene tres elementos funda-
mentales:

9
10 Captulo 1. Fundamentos de Optimizacin Esttica

1. Variables de decisin: El primer elemento clave en la formulacin de problemas de optimizacin es la se-


leccin de las variables independientes que son adecuadas para caracterizar los posibles diseos candidatos
o las condiciones de funcionamiento del sistema. Hay diversos factores a considerar en la eleccin de las
variables independientes aunque una buena regla es incluir como variables aquellas que tengan un impacto
significante sobre la funcin objetivo.
En esta parte de la asignatura, representaremos las variables independientes, mediante vectores columna
de Rn , en la forma
x1

x = ...
xn
Aunque para los casos n = 1, 2 y 3, emplearemos la notacin usual de x, (x, y) y (x, y, z) respectivamente.
2. Restricciones: Una vez determinadas las variables independientes, el siguiente paso en la formulacin de
problemas de optimizacin es establecer, mediante ecuaciones o inecuaciones las relaciones existentes entre
las variables de decisin. Estas relaciones son debidas a limitaciones en el sistema, a leyes naturales o a
limitaciones tecnolgicas, entre otras. El conjunto de restricciones representa las limitaciones del sistema.
Podemos distinguir dos tipos de relaciones:

(a) Restricciones de igualdad: Son relaciones entre las variables de la forma

h (x1 , . . . , xn ) = 0

donde h : A R R, es una funcin real de variables reales.


(b) Restricciones de desigualdad: Son relaciones entre las variables de la forma

g (x1 , . . . , xn ) 0

donde g : A R R, es una funcin real de variables reales.

Observacin 1.2 Solamente se han considerado restricciones de dos tipos, h (x) = 0 y g (x) 0, puesto
que siempre es posible, mediante una simple transformacin, expresar el problema en trminos de este
tipo de restricciones, tal y como se puede apreciar en la siguiente tabla:

h (x1 , . . . , xn ) = b b
h=hb b
h (x1 , . . . , xn ) = 0

g (x1 , . . . , xn ) c gb = g c gb (x1 , . . . , xn ) 0

g (x1 , . . . , xn ) c gb = c g gb (x1 , . . . , xn ) 0

Observacin 1.3 Normalmente, dentro de este conjunto de restricciones, no se incluyen las condiciones
sobre las variables del tipo x 0 o similares.

3. Funcin objetivo: Tambin llamado ndice de rendimiento o criterio de eleccin, el ltimo elemento de un
problema de optimizacin es la eleccin adecuada del criterio sobre el que el desarrollo o diseo del sistema
puede evaluarse de manera que podamos identificar el mejor diseo para ese criterio. Por ejemplo, en
muchas aplicaciones de ingeniera se suele elegir un criterio econmico, sin embargo, hay muchas opciones
que permiten considerar dicho criterio: coste del capital total, coste anual, beneficio anual neto, tasa
coste-beneficio. Para otras aplicaciones el criterio de eleccin puede implicar factores tecnolgicos, por
ejemplo, tiempo de produccin mnimo, mxima tasa de produccin, mnima energa utilizada o mxima
carga, entre otros. Independientemente del criterio seleccionado, en el contexto de optimizacin el mejor
siempre indica el candidato del sistema que produce el mnimo o mximo valor, segn el criterio utilizado,
para la funcin objetivo elegida.
Es importante hacer notar que en este libro se utilizar un nico criterio de optimizacin para definir el
ptimo. No estamos interesados en encontrar una solucin que, por ejemplo, minimice el coste, maximice

c
SPH
1.1. Conceptos bsicos 11

la produccin y al mismo tiempo minimice la energa utilizada. Esta es una simplificacin importante,
puesto que en muchas situaciones prcticas sera deseable alcanzar una solucin que sea la mejor con
respecto a un nmero de criterios diferentes: la solucin ideal sera maximizar beneficios al mnimo coste.
No obstante una forma de tratar objetivos que chocan entre s, es seleccionar un criterio como primario
y el resto de criterios como secundarios. El criterio primario se utiliza como medida de optimizacin del
proceso, mientras que los criterios secundarios seran valores mnimos y mximos aceptables que seran
tratados como restricciones del problema. Los problemas que utilizan varios criterios de bsqueda entran
dentro de la llamada programacin multiobjetivo.

Despus de introducir los elementos bsicos de un problema de optimizacin, nuestro objetivo est ms
clarificado: A partir del valor de la funcin objetivo, diseada para cuantificar el rendimiento y medir la
calidad de la decisin, se obtienen valores para un cierto nmero de variables de decisin, de forma que stas
minimicen o maximicen dicha funcin objetivo. Por lo general, estas variables estarn relacionadas entre s
mediante expresiones matemticas o restricciones que limitan la eleccin de esos valores. De otra forma, un
problema de optimizacin consiste en buscar valores para determinadas variables de forma que, cumpliendo un
conjunto de requisitos representados en general mediante ecuaciones y/o inecuaciones algebricas, proporcionen
el mejor valor posible para una funcin que es utilizada para medir el rendimiento del sistema en estudio. Con el
mejor valor queremos indicar el mayor o el menor valor posible, segn la naturaleza del problema. Buscamos, en
resumen, valores que cumplan unas condiciones y minimicen o maximicen una funcin que caracteriza el sistema.
Con esta idea, el planteamiento en abstracto general para resolver problemas de este tipo es el siguiente
Optimizar f (x)
Sujeto a Restricciones

donde el empleo del trmino Optimizar incluye a ambos objetivos tanto de Minimizacin como de Maximi-
zacin. No obstante la mayora de los planteamientos pueden hacerse con uno de los objetivos, por ejemplo
el de minimizacin, ya que un problema con objetivo de maximizacin siempre se puede transformar en otro
equivalente con objetivo de minimizacin multiplicando para ello la funcin objetivo por (1), como podemos
comprobar en la figura 1.1. El mnimo de la funcin f (x) = x2 + 1 se alcanza en el punto x = 0. En este
punto tambin se alcanza el mximo de la funcin opuesta g (x) = f (x) = x2 1, notar que aunque el punto
buscado en ambos casos es el mismo, los valores que cada funcin toma en dicho punto son uno el opuesto del
otro:

f (x ) = f (0) = 1

g (x ) = g (0) = 1

A continuacin se incluyen dos ejemplos con esta estructura.

Ejemplo 1.4 Distancia ms corta entre dos curvas: Supongamos que queremos calcular la mnima dis-
tancia entre dos curvas de ecuaciones C1 y = f (x) y C2 y = g (x) que no se cortan entre s. El problema
se resuelve considerando un punto en cada curva y utilizando la frmula de la distancia entre dos puntos para
plantear el problema como
Minimizar d (P, Q)
s.a. P C1
Q C2
o ms concretamente como q
Minimizar (x2 x1 )2 + (y2 y1 )2
s.a. y1 = f (x1 )
y2 = g (x2 )
siendo

P = (x1 , y1 )
Q = (x2 , y2 )

c
SPH
12 Captulo 1. Fundamentos de Optimizacin Esttica

Figura 1.1: Equivalencia entre min f (x) y max g (x) = f (x), en ambos casos es x = 0.

las coordenadas de los dos puntos.


Este problema se puede extender de forma trivial a curvas en Rn .
Ejemplo 1.5 Problema lineal. Si queremos obtener el nmero de artculos que debemos fabricar de diferentes
productos con coste fijo teniendo para ello un presupuesto limitado y obteniendo a la misma vez el mximo
beneficio posible. El problema podra plantearse como:
Minimizar b1 x1 + b2 x2
Sujeto a c1 x1 + c2 x2 P
x1 0; x2 0
donde P es el presupuesto total disponible y los parmetros bj y cj j = 1, 2 son el beneficio y el coste, respecti-
vamente, para cada uno de los productos.

1.2 Definiciones
Daremos a continuacin una serie de definiciones elementales relacionadas con la teora de la optimizacin
matemtica con el objetivo de que el lector se familiarice con este tipo de problemas.
Definicin 1.6 Definiremos el problema fundamental de la optimizacin esttica o problema de programacin
no lineal ( Nonlinear Programming Problem o NLPP) al expresado en los siguientes trminos:
Optimizar f (x1 , . . . , xn )
Sujeto a hi (x1 , . . . , xn ) = 0 i = 1, . . . , m
(1.1)
gj (x1 , . . . , xn ) 0 j = 1, . . . , p
(x1 , . . . , xn ) A R
En principio las funciones implicadas en la definicin del problema fundamental no tienen porqu tener
ninguna propiedad particular, pero en nuestro caso vamos a introducir hiptesis adicionales que ayudarn a
simplificar el problema; por ejemplo, supondremos de forma general que las funciones f, hi , gj son continuas y
que en la mayora de los casos tienen derivadas primeras y segundas tambin continuas. Adems el conjunto A
ser en la mayora de los casos un conjunto convexo.
La resolucin del problema de optimizacin 1.1 consistir en primer lugar, en buscar valores para las variables
xi que resuelvan el sistema formado por las restricciones y en segundo lugar encontrar de entre estos valores aquel
o aquellos que proporcionen el mayor (maximizar) o menor (minimizar) valor para la funcin real f (x1 , . . . , xn ).

c
SPH
1.2. Definiciones 13

Definicin 1.7 Casos especiales del problema NLPP:

1. Problema sin restricciones: En este caso no hay restricciones de ningn tipo, es decir, m = p = 0. La
expresin general de estos problemas sera la siguiente:

Optimizar f (x1 , . . . , xn )
Sujeto a (x1 , . . . , xn ) A

Las nicas limitaciones vienen dadas por el conjunto A donde est definida la funcin f .
2. Problema de Lagrange o con restricciones de igualdad: En este caso, en el planteamiento del problema
solamente existen restricciones de igualdad, es decir, m 6= 0 y p = 0:

Optimizar f (x1 , . . . , xn )
Sujeto a hi (x1 , . . . , xn ) = 0 i = 1, . . . , m
(x1 , . . . , xn ) A

3. Problemas unidimensionales o univariantes: Este es un caso particular de los problemas sin restricciones
en los que solamente hay una variable, es decir, cuando n = 1, m 6= 0 y p 6= 0. La estructura sera

Optimizar f (x)
Sujeto a x I R

donde I es, en la mayora de las ocasiones, un intervalo.

Definicin 1.8 (solucin factible) Diremos que x = (x1 , . . . , xn ) A R es una solucin factible del pro-
blema 1.1 si cumple todas sus restricciones, es decir, si

hi (x1 , . . . , xn ) = 0 i = 1, . . . , m

gj (x1 , . . . , xn ) 0 j = 1, . . . , p

Definicin 1.9 (conjunto factible) Se define regin o conjunto factible del problema NLPP, que denotare-
mos en general por , al conjunto de todas sus soluciones factibles

= { xA R| x es una solucin factible}

Nuestro objetivo al intentar resolver el problema de optimizacin 1.1 es encontrar la mejor de las soluciones
factibles.

Definicin 1.10 Dado el problema NLPP de programacin no lineal descrito en la ecuacin 1.1 y sea su
conjunto factible. Diremos que x Rn es un punto de mnimo global para el problema si

x ; x 6= x ; f (x ) f (x)

El punto x ser mnimo global estricto si la desigualdad es estricta es decir si x , con x 6= x , ocurre
f (x ) < f (x).

Definicin 1.11 Dado el problema NLPP de programacin no lineal descrito en la ecuacin 1.1 y sea su
conjunto factible. Diremos que x Rn es un punto de mximo global para el problema si

x ; x 6= x ; f (x ) f (x)

El punto x ser mximo global estricto si la desigualdad es estricta es decir si x , con x 6= x , ocurre
f (x ) > f (x).

Observacin 1.12 Los mximos y mnimos globales de un problema de programacin no lineal tambin se
denominan extremos globales.

c
SPH
14 Captulo 1. Fundamentos de Optimizacin Esttica

Definicin 1.13 Dado el problema NLPP de programacin no lineal descrito en la ecuacin 1.1 y sea su
conjunto factible. Diremos que x Rn es una solucin ptima del problema si
1. Es un mnimo global y el objetivo del problema es minimizar.
2. Es un mximo global y el objetivo del problema es maximizar.
Resolver el problema de optimizacin es encontrar, si existen, sus soluciones ptimas, es decir los extremos
globales de la funcin objetivo sobre el conjunto factible. Desde el punto de vista prctico y computacional en
algunas ocasiones bastar con obtener los llamados extremos locales y que definiremos a continuacin.
Definicin 1.14 Dado el problema NLPP de programacin no lineal descrito en la ecuacin 1.1 y sea su
conjunto factible. Diremos que x Rn es un punto de mnimo local o relativo para el problema si
> 0 tal que x ; x 6= x ; kxx k < = f (x ) f (x)
El punto x ser de mnimo local estricto si la desigualdad es estricta es decir si ocurre f (x ) < f (x) cuando
kxx k < .
Definicin 1.15 Dado el problema NLPP de programacin no lineal descrito en la ecuacin 1.1 y sea su
conjunto factible. Diremos que x Rn es un punto de mximo local o relativo para el problema si
> 0 tal que x ; x 6= x ; kxx k < = f (x ) f (x)
El punto x ser de mximo local estricto si la desigualdad es estricta es decir si ocurre f (x ) > f (x)
cuando kxx k < .
Definicin 1.16 Los mximos y mnimos locales de un problema de programacin no lineal tambin se deno-
minan extremos locales o relativos.
Observacin 1.17 Los extremos locales o globales estrictos, tambin reciben el nombre de extremos fuertes,
mientras que para los no estrictos se suele emplear el trmino dbil.
La teora inicial asociada a la optimizacin est orientada a la obtencin de condiciones necesarias y suficien-
tes para que un punto sea ptimo. Como veremos en los temas correspondientes, esta teora incluye el teorema
de los multiplicadores de Lagrange y el teorema de Karush-Kuhn-Tucker. Por otra parte, tambin es interesante
conocer no slo si un punto es o no ptimo desde el punto de vista terico, sino tambin cmo encontrar esos
ptimos desde el punto de vista prctico. Teniendo esto en cuenta, al considerar problemas de optimizacin se
plantean dos cuestiones:
1. Cuestin esttica: Cmo podemos determinar si un punto x es o no la solucin ptima de un problema
de optimizacin? Qu condiciones deben cumplir las funciones f (x), hi (x) y gj (x) para que un problema
tenga solucin?
2. Cuestin dinmica: Si x no es el punto ptimo, cmo podemos encontrar una solucin que sea ptima
utilizando la informacin de la funcin en x ?
Finalmente, un problema de optimizacin o programacin matemtica puede tener o no solucin, e incluso si
hay solucin al problema, puede que no sea nica. El resultado principal utilizado para conocer si un problema
de optimizacin tiene solucin es el teorema de Weierstrass.
Teorema 1.18 (Teorema de Weierstrass) Sea f (x) una funcin continua definida sobre un conjunto com-
pacto (cerrado y acotado) K Rn , entonces siempre existe solucin al problema (tanto de minimizacin como
de maximizacin). Es decir
f xmin =min f (x)
xK
xmin , xmax K
f (xmax ) =max f (x)
xK

Este es un resultado importante a tener en cuenta para la existencia de puntos ptimos, sin embargo no
nos proporciona un mtodo para la localizacin de los mismos, solamente de su existencia en determinadas
condiciones. Desde el punto de vista de las aplicaciones, lo interesante es caracterizar los puntos solucin y
disear un mtodo efectivo para su clculo.

c
SPH
1.3. Conjuntos Convexos 15

1.3 Conjuntos Convexos


El concepto de convexidad es de gran importancia en el estudio de los problemas de optimizacin. La nocin
de convexidad es interesante desde el punto de vista de la aplicacin prctica, puesto que en algunos casos,
por ejemplo en los llamados problemas convexos, se puede garantizar que un ptimo local de un problema es
realmente un ptimo global del mismo.
Se describen en esta seccin algunos conceptos indispensables para el desarrollo de la programacin mate-
mtica. Aunque se puede definir convexidad en el mbito de cualquier espacio topolgico, se considerar el
espacio vectorial Rn .

Definicin 1.19 (segmento lineal) Dados dos puntos x, y Rn , el segmento lineal cerrado que los une es
el conjunto
[x, y] = {x+(1 )y Rn / 0 1}

de igual forma, el segmento lineal abierto que une x e y es el conjunto

(x, y) = {x+(1 )y Rn / 0 < < 1}

Definicin 1.20 (conjunto convexo) Se dice que un conjunto Rn es convexo si verifica:

x, y , [0, 1] x + (1 )y

Esta definicin se interpreta de forma que un conjunto ser convexo si el segmento lineal cerrado que une
cualquier par de puntos del conjunto tambin pertenece al conjunto. La figura 1.2 representa algunos conjuntos
convexos y no convexos de R2 .
Por convenio el conjunto vaco es convexo.

Figura 1.2: Convexidad en R2 .

Uno de los tipos ms importantes de conjunto convexo es el hiperplano.

Definicin 1.21 (hiperplano) Si a Rn ; a 6= 0, c R. El conjunto

H = {x Rn | aT x = b}

es un hiperplano de Rn . El vector a es llamado normal al hiperplano. Se puede comprobar que H es un conjunto


convexo.

c
SPH
16 Captulo 1. Fundamentos de Optimizacin Esttica

Definicin 1.22 (semiespacios) Sea a Rn con a 6= 0 y b R. Sea H el hiperplano construido con a y b,


entonces definimos semiespacios cerrados positivos y negativos, respectivamente a los conjuntos siguientes:

H+ = x Rn | aT x b

H = x Rn | aT x b

y semiespacios abiertos positivos y negativos a:



H+ = x Rn | aT x > b

H = x Rn | aT x < b

que son todos conjuntos convexos.

El siguiente lema es una consecuencia inmediata de la definicin de convexidad y establece que la interseccin
de dos conjuntos convexos es convexa y que la suma algebrica de dos conjuntos convexos tambin es convexa.
Su demostracin se deja como ejercicio.

Lema 1.23 Sean 1 y 2 conjuntos convexos de Rn . Entonces:

1. 1 2 es convexo.

2. 1 + 2 = {x + y : x 1 , y 2 } es convexo.

3. 1 2 = {x y : x 1 , y 2 } es convexo.

Teniendo en cuenta que los semiespacios de Rn son conjuntos convexos y tambin los resultados del lema
anterior se obtiene que los conjuntos de la forma

P = {x : Ax b}

donde A es una matriz m n en R y b Rm vector son conjuntos convexos puesto que son interseccines de
m semiespacios.
El conjunto S = { x| x es solucin de P }, siendo P el problema siguiente:

Minimizar cT x
P = Sujeto a Ax = b

x0

tambin es un conjunto convexo.


La siguiente proposicin indica que las aplicaciones lineales conservan la convexidad.

Proposicin 1.24 Sea f : Rn Rm , con convexo y f (x) lineal El conjunto imagen f () es un


conjunto convexo.

Demostracin: Si f (x) es una aplicacin lineal entonces cumple

f (x+y) = f (x) + f (y)

cualesquiera que sean y . Hay que comprobar que f () es un conjunto convexo.

f () = { f (x)| x }

Para ello tomamos dos elementos y1 , y2 f (), es decir



x1 tal que y1 = f x1

x2 tal que y2 = f x2

c
SPH
1.3. Conjuntos Convexos 17

Como es un conjunto convexo debe ocurrir


x1 , x2 x1 + (1 ) x2 [0, 1]
de donde
f x1 + (1 ) x2 f ()
teniendo en cuenta la propiedad de linealidad de f (x)

f x1 + (1 ) x2 = f x1 + (1 ) f x2 = y1 + (1 ) y2 f () [0, 1]
y por tanto f () es convexo.
La siguiente definicin extiende el concepto de segmento lineal (cerrado o abierto) formado por combinaciones
lineales de dos puntos al caso de ms de dos puntos.
Definicin 1.25 (combinacin lineal convexa) Sea x Rn , diremos que es combinacin lineal convexa de
los puntos x1 , . . . , xm Rn si existen m nmeros reales 1 , . . . , m R, que cumplen
j 0 j = 1, . . . , m
m
X
j = 1
j=1
m
X
x= j xj
j=1

Est claro que z Rn es combinacin lineal convexa de x, y Rn si y slo si z [x, y]


Definicin 1.26 (envoltura convexa) Sea Rn . Se define la envoltura convexa de , y la denotamos
por H(), al conjunto de todas las combinaciones lineales convexas de formadas por un nmero finito de
elementos de , es decir P
x H() x = m j=1 j x
j

Pm
j=1 j = 1

j 0, j = 1, . . . , m
donde m es un entero positivo y {x1 , . . . , xm } . Est claro que H (), puesto que si x x = 1 x
es una combinacin lineal convexa, luego x . Por construccin, H () es un conjunto convexo. Es el menor
conjunto convexo que contiene a .
Por definicin, un punto de la envoltura convexa de un conjunto se puede representar como combinacin
convexa de un nmero finito de puntos del conjunto.
Podemos observar en la figura 1.3 un conjunto no convexo y su envoltura convexa.

Figura 1.3: Envoltura convexa de un conjunto.

c
SPH
18 Captulo 1. Fundamentos de Optimizacin Esttica

Definicin 1.27 (poltopo, simplex, poliedro) La envoltura convexa de un conjunto finito de puntos de
Rn , = {x1 , . . . , xk+1 }, se denomina poltopo. Si adems el conjunto {x2 x1 , x3 x1 , . . . , xk+1 x1 }
es linealmente independiente, entonces esta envoltura convexa H () = H(x1 , . . . , xk+1 ) se llama simplex de
vrtices x1 , . . . , xk+1 . Por ltimo un poltopo acotado se denomina poliedro.

Es posible demostrar que los poltopos son la interseccin de un nmero finito de semiespacios cerrados y
equivalentemente a un conjunto de desigualdades lineales de la forma

aT1 x b1


aT2 x b2
.. Ax b
.



aTn x bn

Definicin 1.28 (punto extremo) Dado un conjunto Rn , un conjunto convexo no vaco, x . El


punto x es un vrtice o punto extremo de

x1 , x2 , [0, 1] : x =x1 + (1 )x2 = x1 = x2 = x

Es decir un punto extremo es un punto del conjunto que no puede expresarse como punto medio de ningn
par de puntos del conjunto.

Por ejemplo el conjunto convexo



= x = (x1 , x2 ) R2 0 x1 2, 0 x2 2

tiene 4 puntos extremos dados por P1 = (0, 0), P2 = (0, 2), P3 = (2, 0) y P4 = (2, 2) (ver figura 1.4).

Figura 1.4: Puntos extremos.

El conjunto de los puntos extremos de un conjunto convexo puede ser vaco, por ejemplo una bola abierta de
Rn , contener una cantidad finita de elementos, como en la figura 1.4 o tener una cantidad infinita de elementos,
como una bola cerrada de Rn .

1.4 Funciones convexas


Las funciones convexas tienen muchas propiedades especiales e importante. Por ejemplo, veremos que
cualquier mnimo local de una funcin convexa sobre un conjunto convexo es tambin un mnimo global. En
esta seccin se proporciona la definicin de funcin convexa y se presentan alguna de sus propiedades ms
importantes, que pueden utilizarse para desarrollar condiciones sobre optimizacin y esquemas computacionales
adecuados para problemas de optimizacin.

c
SPH
1.4. Funciones convexas 19

Definicin 1.29 (funcin convexa) Diremos que la funcin f : Rn R, siendo un conjunto convexo
no vaco, es convexa sobre

x, y , [0, 1] f (x + (1 )y) f (x) + (1 )f (y)

Se dice que f estrictamente convexa

x, y , [0, 1] f (x + (1 )y) < f (x) + (1 )f (y)

Definicin 1.30 (funcin cncava) Diremos que la funcin f : Rn R, con conjunto convexo no
vaco es cncava sobre g = f es convexa.

Esta definicin equivale a decir que

f (x) es cncava (x, y , [0, 1] f (x + (1 )y) f (x) + (1 )f (y))

Definicin 1.31 Se dice que f estrictamente cncava g = f es estrictamente convexa.

Observacin 1.32 Propiedades de las funciones convexas:

1. La cuerda que une dos puntos sobre la grfica de una funcin convexa siempre est por encima de la
grfica.

2. La derivada de una funcin convexa es creciente, o al menos no decreciente.

3. La segunda derivada de una funcin convexa es siempre no negativa para todos los puntos del intervalo.

4. La aproximacin lineal de una funcin convexa en cualquier punto del intervalo, siempre subestima el
verdadero valor de la funcin.

Proposicin 1.33 Si f1 (x) y f2 (x) son dos funciones convexas definidas sobre un subconjunto convexo no
vaco Rn = (f1 + f2 ) (x) es convexa sobre .

Proposicin 1.34 Si f (x) es convexa sobre Rn , con un conjunto convexo no vaco = 0, (f ) (x)
es convexa sobre .

Proposicin 1.35 Si f es convexa en Rn convexo no vaco = c = {x | f (x) c} es convexo


c R.

Proposicin 1.36 Si la familia de funciones {fk }k=1,...,m son convexas sobre convexo no vaco = Si
definimos kc como
kc = {x | fk (x) ck }
entonces el conjunto
= m k k
k=1 c = {x | x c , k}

es convexo.

La demostracin de cada una de las proposiciones anteriores se hace directamente empleando la definicin
de funcin convexa y se deja como ejercicio.
Sea Rn convexo no vaco y f : Rn R, se define el epgrafe de la funcin como el conjunto

epi (f ) = {(x,y) Rn R | f (x) y, x , y R}

Tendremos se tiene el siguiente resultado:

Proposicin 1.37 Sea Rn convexo no vaco y f : Rn R, entonces

f (x) convexa epi (f ) es un conjunto convexo

c
SPH
20 Captulo 1. Fundamentos de Optimizacin Esttica

Demostracin: Supongamos en primer lugar que f (x) es convexa en . Sean (x1 ,y1 ), (x2 ,y2 ) epi (f ), y
tomamos ahora para [0, 1] el punto

(x1 ,y1 ) + (1 ) (x2 ,y2 ) = (x1 + (1 ) x2 , y1 + (1 ) y2 )

cumple
f (x1 + (1 ) x2 ) f (x1 ) + (1 ) f (x2 ) y1 + (1 ) y2
luego
(x1 + (1 ) x2 , y1 + (1 ) y2 ) epi (f )
Para demostrar el recproco hay que tener en cuenta que si

x1 , x2 (x1 ,f (x1 )) , (x2 ,f (x2 )) epi (f )

de donde por la convexidad de epi (f ) se obtiene

(x1 ,f (x1 )) + (1 ) (x2 ,f (x2 )) = (x1 + (1 ) x2 , f (x1 ) + (1 ) f (x2 )) epi (f )

y utilizando su definicin
f (x1 + (1 ) x2 ) f (x1 ) + (1 ) f (x2 )
luego f (x) es convexa.
La caracterizacin de funciones convexas mediante su definicin es, en general, muy difcil de aplicar en la
prctica para comprobar si una funcin es o no convexa; es necesario encontrar nuevas caracterizacin ms sen-
cillas de aplicar. Los siguientes resultados proporcionan caracterizaciones para funciones convexas diferenciables
en trminos del gradiente y del Hessiano.

Proposicin 1.38 (Caracterizacin de primer orden para funciones convexas) Sea f : Rn R,


con un conjunto convexo y f (x) C 1 (), entonces:

f (x) es convexa sobre f (y) f (x) + f (x)(y x) x, y

f (x) es estrictamente convexa sobre f (y) > f (x) + f (x)(y x) x, y

Demostracin: Demostramos la doble implicacin.

= Si f (x) es convexa = [0, 1] se tiene

f (y + (1 )x) f (y) + (1 )f (x)

Si asumimos 6= 0
f (x + (y x)) f (x)
f (y) f (x) (0, 1]

y si ahora 0 y tenemos en cuenta que f C 1 () = f (x)(y x) f (y) f (x)

= Supongamos ahora que es cierta la siguiente desigualdad

f (x)(y x) f (y) f (x) x, y

entonces por ser un conjunto convexo,

x1 , x2 y [0, 1] = x = x1 + (1 )x2

Si utilizamos ahora la desigualdad para x e y = x1 por una parte y para x e y = x2 por otra obtenemos

y = x1 = f (x1 ) f (x) + f (x)(x1 x)

y = x2 = f (x2 ) f (x) + f (x)(x2 x)

c
SPH
1.4. Funciones convexas 21

Si multiplicamos por la primera desigualdad y por (1 ) la segunda y sumamos ambas expresiones, se


obtiene
f x1 f (x) + f (x)(x1 x)

(1 ) f x2 (1 )f (x) + (1 )f (x)(x2 x)

f (x1 ) + (1 )f (x2 ) f (x) + f (x)(x1 + (1 )x2 x)

f (x) = f (x1 + (1 )x2 )


lo que demuestra que f (x) es convexa .
Proposicin 1.39 (Caracterizacin de segundo orden para funciones convexas) Sea f : Rn
R, con un conjunto abierto convexo no vaco y f (x) C 2 (), entonces:
f (x) es convexa en Hf (x) es semidefinido positivo x
siendo " n #
2f
Hf (x) = (x)
xi xj i,j=1

la matriz hessiana asociada a f (x).


Demostracin: Demostramos la doble implicacin.
= Supongamos que f (x) es convexa en y sea x . Demostrar que Hf (x) es semidefinida positiva en
equivale a demostrar que x ocurre xT Hf (x )x 0.
Puesto que 6= y abierto, entonces para x Rn ,ocurre x + x , tomando || 6= 0 y suficientemente
pequeo. Si utilizamos la proposicin 1.38 de caracterizacin de primer orden de funciones convexas por
una parte y el teorema de Taylor por otra, se obtienen las siguientes expresiones:
f (x + x) f (x ) + f (x )x

f (x + x) = f (x ) + f (x )T x + 12 2 xT Hf (x )x + o()

donde o() = 2 ||x||2 (x , x).


Si se restan ambas expresiones obtenemos
1 2 T
x Hf (x )x + 2 ||x||2 (x , x) 0
2
A continuacin se divide por 2 y se toman lmites cuando 0, el resultado que se obtiene es que
xT Hf (x )x 0.
= Recprocamente si suponemos ahora que la matriz Hessiana de f (x), Hf (x), es semidefinida positiva en
cada punto de y consideramos x y x en , entonces por el teorema del valor medio obtenemos:
1
f (x) = f (x ) + f (x )T (x x ) + (x x )T Hf (x )(x x )
2
donde x = x + (1 )x con (0, 1). Como Hf (x ) semidefinida positiva, se cumple que
(x x )T Hf (x )(x x ) 0 y concluimos que

f (x + x) f (x ) + f (x )x x , x
que resulta ser la caracterizacin de primer orden para funciones convexas de la proposicin 1.38 y por tanto
f (x) es convexa en .
La matriz Hessiana de f es la generalizacin al espacio Rn del concepto de curvatura de una funcin y
de forma anloga, la definicin positiva del Hessiano es la generalizacin de curvatura positiva. Las funciones
convexas tienen curvatura positiva (o al menos no negativa) en todas las direcciones.

c
SPH
22 Captulo 1. Fundamentos de Optimizacin Esttica

1.5 Optimizacin de funciones convexas


En esta seccin consideraremos el problema de minimizar y maximizar una funcin convexa sobre un conjunto
convexo.
Debido a la correspondencia entre funciones cncavas y convexas todos los resultados se presentan de forma
equivalente para ambos tipos de funciones, por ello en cada teorema y entre corchetes se muestra el resultado
alternativo.

Teorema 1.40 Sea f : Rn R con un conjunto convexo. Si f (x) es convexa [cncava] = El conjunto
donde f (x) alcanza su mnimo [mximo] es convexo y cualquier mnimo [mximo] local de f (x) es mnimo
[mximo] global.

Demostracin: Definimos el conjunto como

= { x | f (x ) = minx f (x)}

Si = , es decir si f (x) no tiene mnimos relativos, entonces el teorema se cumple por la convexidad del
conjunto vaco.
Supngamos ahora 6= y por tanto existe x , si x es el nico elemento de , entonces es convexo
puesto que la nica combinacin con elementos de que se puede hacer [0, 1] es

x + (1 ) x = x

Supondremos, por tanto, que tiene al menos dos elementos x , y . Por la definicin de , entonces

fmin = minx f (x) = f (x ) = f (y )

Si tomamos [0, 1], por la convexidad de f (x) ocurre

f (x + (1 ) y ) f (x ) + (1 ) f (y ) = fmin + (1 ) fmin = fmin

pero como x + (1 ) y y fmin = minx f (x), tendr que ocurrir

fmin f (x + (1 ) y )

de donde
fmin f (x + (1 ) y ) fmin
y por tanto
f (x + (1 ) y ) = fmin
y se obtiene el resultado pedido.
Supongamos ahora que x es un mnimo local de f (x) y supongamos que no es un mnimo global;
es decir, que y con f (y) < f (x ). Por la convexidad de f (x) en el conjunto convexo se obtiene la
siguiente desigualdad

f (y + (1 )x ) f (y) + (1 )f (x )

para [0, 1]. Utilizando ahora el hecho de que f (y) < f (x ) y como , (1 ) 0

f (y + (1 )x ) f (x ) + (1 )f (x ) = f (x )

Para un valor de suficientemente pequeo se contradice el hecho de que x sea un mnimo relativo y llegamos
a una contradiccin que aparece al suponer que x no es un mnimo global .

Teorema 1.41 Sea f : Rn R con un conjunto convexo con f C 1 () una funcin convexa [cncava].
Supongamos que existe un x que cumple la siguiente propiedad

y f (x )T (y x ) 0 f (x )T (y x ) 0

Entonces x es un punto de mnimo [mximo] global de f en .

c
SPH
1.5. Optimizacin de funciones convexas 23

Demostracin: Como convexo, x + (y x ) con [0, 1]. Por la caracterizacin de primer orden
de funciones convexas (proposicin 1.38) y utilizando el hecho de que para x ocurre f (x )T (y x ) 0
tenemos:

f (y) f (x ) + f (x )T (y x ) f (x )

Luego x es un punto de mnimo relativo de f en y por la proposicin anterior es un mnimo global .

Proposicin 1.42 Si es un subconjunto no vaco, convexo y compacto de Rn cuyo conjunto de puntos


extremos es finito y si f : Rn R es un funcin convexa [cncava] sobre f (x) posee en un
mximo [mnimo] global y se encuentra en uno de sus puntos extremos.

Teorema 1.43 Sea f : Rn R convexa [cncava] en convexo y compacto = Si f (x) tiene mximo
[mnimo] en entonces lo alcanza en un punto extremo de .

Lema 1.44 Si x , y son dos puntos de mnimo [mximo] global de una funcin convexa [cncava] f (x), f :
Rn R con convexo = [0, 1] los puntos definidos como z () = x + (1 ) y tambin son
mnimos [mximos] globales de f (x).

Demostracin: Como f es convexa

f (z ()) = f (x + (1 ) y ) = f (x + (1 ) y ) f (x ) + (1 ) f (y )

Como x , y son mnimos globales = f (y ) = f (x ) y resulta

f (z ()) f (x )

pero como x es el mnimo global de f (x) sobre , que es un conjunto convexo, ocurre

z () f (z ()) = f (x )

Lema 1.45 Sea f : Rn R, con un conjunto convexo no vaco y f (x) convexa [cncava]. Sea x
un mnimo [mximo] local de f . Entonces, si x es un mnimo [mximo] local estricto de f (x) o si f (x) es
estrictamente convexa [cncava] sobre , entonces x es el nico mnimo [mximo] global de f (x) en .

Demostracin: Si x es un mnimo local entonces por el teorema 1.40 es un mnimo global. Si suponemos
ahora que existe otro punto z mnimo de f (x), por el lema 1.44 el mnimo tambin se alcanza en todo el
segmento que une ambos puntos x y z y esto contradice el hecho de que x sea estricto.
Supongamos ahora que x es un mnimo local de f (x) y que f (x) es estrictamente convexa. Como f (x) es
convexa, ya que es estrictamente convexa, x es un mnimo global. Si ahora suponemos que existe otro mnimo
global z , por la convexidad estricta de f obtenemos:
1 1 1 1
f ( x + z ) < f (x ) + f (z ) = f (x )
2 2 2 2
y por tanto x no sera mnimo global .

c
SPH
24 Captulo 1. Fundamentos de Optimizacin Esttica

c
SPH
Captulo 2

Optimizacin no lineal

2.1 Introduccin
En este tema estudiaremos la que hemos llamado cuestin esttica del problema de optimizacin. Trataremos
de desarrollar las condiciones necesarias y suficientes para encontrar de forma explcita la solucin de problemas
de optimizacin no lineal de tipo general.
Tal y como se introdujo en el tema anterior el problema general de la programacin no lineal (NLPP) se
puede expresar como
Optimizar f (x)
Sujeto a
(2.1)
hi (x) = 0 i = 1, . . . , m
gj (x) 0 j = 1, . . . , p
donde f, hi , gj : A R son funciones reales de varias variables y A Rn . En general A es un conjunto abierto
y adems f, hi , gj C (A), es decir, las funciones del problema son derivables.
Si es el conjunto factible del problema 2.1, resolver el problema de optimizacin NLPP es encontrar los
ptimos (mximos y/o mnimos) de la funcin f (x) no sobre todo el conjunto A donde est definida, sino sobre
el conjunto de los puntos que cumplen todas las restricciones.
Como se coment en el primer tema, si m = p = 0, entonces no hay restricciones y el problema es de
optimizacin no lineal sin restricciones
Optimizar f (x)
(2.2)
xA

En otro caso (m 6= 0 p 6= 0) el problema se dice con restricciones y a sus extremos locales o globales, se les
conoce como extremos condicionados, para distinguirlos de los extremos de los problemas sin restricciones.
Recordemos finalmente que si m 6= 0 y p = 0, es decir, solamente hay restricciones de igualdad en el
problema, entonces el problema con restricciones es un problema de Lagrange

Optimizar f (x)
Sujeto a (2.3)
hi (x) = 0 i = 1, . . . , m

El comportamiento de las restricciones de igualdad y las de desigualdad en un problema de optimizacin no


lineal es ligeramente distinto.

Definicin 2.1 (Restricciones activas) Dado el problema de optimizacin con restricciones NLPP descrito
en 2.1; diremos que una restriccin de desigualdad gj (x) 0 es activa o saturada en el punto factible x
gj (x ) = 0; en caso contrario la restriccin es inactiva o no saturada en x .

Las restricciones activas se comportan como las restricciones de igualdad, que por su propia naturaleza son
activas en cualquier punto factible.

25
26 Captulo 2. Optimizacin no lineal

Definicin 2.2 Dado el problema de optimizacin NLPP con restricciones descrito en 2.1 y sea x , un
punto factible. Se define el conjunto de actividad asociado a x , J (x ) como
J (x ) = { j {1, . . . , p}| gj (x ) = 0}
es decir, J (x ) es el conjunto de los ndices de las restricciones activas en x .
Si x es una solucin ptima del problema 2.1, las restricciones que sean no activas en l sern irrelevantes
puesto que no se alcanza la limitacin impuesta por la restriccin. Sera posible eliminar las restricciones no
saturadas de la formulacin del problema, siempre que fueran conocidas previamente pero esto, en general, no
es posible.
Definicin 2.3 (Punto regular) Dado el problema de optimizacin con restricciones 2.1. Sea x , un
punto factible. Se dice que x es regular para las restricciones si la familia de vectores
n o
{5hi (x )}i=1,...,m , {5gj (x )}jJ(x )

es linealmente independiente.
1. Caso sin restricciones (m = p = 0): En un problema sin restricciones, todos los puntos son regulares.
2. Caso con restricciones de desigualdad (m = 0, p 6= 0): El punto x tambin ser regular si no hay ninguna
restriccin activa en l, es decir, en problemas con restricciones slo de desigualdad x tambin es regular
si J (x ) = .
Definicin 2.4 (Espacio tangente) Sea x un punto factible para el problema de optimizacin 2.1. Defini-
mos el espacio tangente en x al conjunto de vectores definido como

M (x ) = d Rn | T hi (x) d = 0; T gj (x ) d = 0, i = 1, . . . , m; j J (x )
o utilizando derivadas
( n n
)
X hi X gj
n
M (x ) = dR | (x ) dk = 0, i = 1, . . . , m; (x ) dk = 0, j J (x )
xk xk
k=1 k=1

donde de nuevo J (x ) es el conjunto de actividad asociado a x .


Caso Particular: Si m = p = 0, es decir, si el problema no tiene restricciones, entonces el espacio tangente
coincide con el espacio Rn .

2.2 Condiciones de Karush-Kuhn-Tucker


Para los problemas generales de optimizacin no lineal es posible obtener condiciones necesarias que deban
cumplir sus posibles soluciones ptimas, estas condiciones son las llamadas condiciones de Karush-Kuhn-Tucker
(CKKT).
Aunque la teora es indentica en ambos casos, vamos a distinguir entre las condiciones de Karush-Kuhn-
Tucker para un problema con objetivo de minimizar y aquellas que se deben cumplir cuando el objetivo es de
maximizar.

Minimizacin
Definicin 2.5 Dado el problema
Minimizar f (x)
Sujeto a
(2.4)
hi (x) = 0 i = 1, . . . , m
gj (x) 0 j = 1, . . . , p
con f, hi , gj : A R funciones de clase C 1 (A) y A Rn un conjunto abierto. Diremos que x A es un punto
de Karush-Kuhn-Tucker o que cumple las condiciones de Karush-Kuhn-Tucker de Mnimo (CKKTMin) para el
problema si y slo si 1 ,. . . , m , 1 , . . . , p R, de forma que se cumplen las siguientes condiciones:

c
SPH
2.2. Condiciones de Karush-Kuhn-Tucker 27

1. Condicin estacionaria
m
X p
X
f (x ) + i hi (x ) + j gj (x ) = 0
i=1 j=1

2. Condicin de factibilidad

hi (x ) = 0, i = 1, . . . , m
gj (x ) 0 j = 1, . . . , p

3. Condicin de positividad
j 0, i = 1, . . . , m

4. Condicin de holgura
j gj (x ) = 0 j = 1, . . . , p

Los valores de 1 , . . . , m , 1 , . . . , p son los llamados multiplicadores. Entre estos multiplicadores podemos
distinguir los multiplicadores de Lagrange asociados a las restricciones de igualdad y los multiplicadores de
Karush-Kuhn-Tucker 1 , . . . , p , asociados a las restricciones de desigualdad.
Los puntos x A que cumplen la condicin estacionaria se dice que son puntos crticos o estacionarios,
que sern condicionados cuando en el problema haya restricciones de algn tipo. Esta condicin suele expresarse
en trminos de la llamada funcin Lagrangiana definida utilizando la funcin objetivo y las restricciones como

L (x, , ) = f (x) + 1 h1 (x) + + m hm (x) + 1 g1 (x) + + p gp (x) (2.5)

siendo
= (1 , . . . , m )

= 1 , . . . , p
y la condicin estacionaria se puede expresar como

x L (x, , ) = 0

donde el subndice indica que estamos derivando respecto a las componentes de x.

Maximizacin
Se obtienen condiciones equivalentes para un problema de maximizacin de la forma

Maximizar f (x)
Sujeto a
hi (x) = 0 i = 1, . . . , m
gj (x) 0 j = 1, . . . , p

con la idea de que maximizar una funcin es equivalente a minimizar su opuesta. Es posible comprobar,
aplicando la definicin de punto de Karush-Kuhn-Tucker al problema

Minimizar g(x) = f (x)


Sujeto a
hi (x) = 0 i = 1, . . . , m
gj (x) 0 j = 1, . . . , p

que la nica condicin que cambia es la condicin de positividad. Para mximo, esta condicin se transforma
es una condicin de negatividad. Las condiciones y definiciones correspondientes son las siguientes:

c
SPH
28 Captulo 2. Optimizacin no lineal

Definicin 2.6 A partir del problema de maximizacin

Maximizar f (x)
Sujeto a
(2.6)
hi (x) = 0 i = 1, . . . , m
gj (x) 0 j = 1, . . . , p

con f, hi , gj : A R, funciones de clase C 1 (A) y A Rn un conjunto abierto. Diremos que x A es un


punto de Karush-Kuhn-Tucker para este problema, o que cumple las condiciones de Karush-Kuhn-Tucker de
Mximo (CKKTMax) para el problema si y slo si 1 ,. . . , m , 1 , . . . , p R, de forma que se cumplen las
siguientes condiciones:

1. Condicin estacionaria
m
X p
X
f (x ) + i hi (x ) + j gj (x ) = 0
i=1 j=1

2. Condicin de factibilidad

hi (x ) = 0, i = 1, . . . , m
gj (x ) 0 j = 1, . . . , p

3. Condicin de negatividad
j 0 j = 1, . . . , p

4. Condicin de holgura
j gj (x ) = 0 j = 1, . . . , p

Cmo encontrar los puntos de KKT ?


Para la bsqueda prctica de puntos que cumplan las condiciones CKKT o puntos de Karush-Kuhn-Tucker,
ya sean de mnimo o de mximo, en primer lugar hay que resolver el sistema de ecuaciones compuesto por: la
condicin estacionaria, la condicin de fatibilidad para las restricciones de igualdad y la condicin de holgura

f h1 hm g gp
(x ) + 1 (x ) + + m (x ) + 1 (x ) + + p (x ) = 0 k = 1, . . . , n
xk xk xk xk xk

hi (x ) = 0 i = 1, . . . , m

j gj (x ) = 0 j = 1, . . . , p
Este sistema est compuesto por (n + m + p) ecuaciones y (n + m + p) incgnitas (las n coordenadas de x , los
m multiplicadores de Lagrange i y los p multiplicadores de Karush-Kuhn-Tucker j ).
La forma general de resolver el sistema es comenzar por la condicin de holgura complementaria, ya que
dichas ecuaciones nos proporcionan dos opciones

j = 0

j gj (x ) = 0

gj (x ) = 0

Hay que notar que en el caso de p restricciones de desigualdad tendramo 2p casos.


Una vez resuelto el sistema, para comprobar cul o cules de las soluciones obtenidas son puntos de KKT
hay que, por una parte comprobar que son puntos factibles (gj (x ) 0) y por otra que sus multiplicadores de
KKT asociados tienen todos el mismo signo ( 0 para puntos de mnimo, o 0 para puntos de mximo).

c
SPH
2.2. Condiciones de Karush-Kuhn-Tucker 29

Casos Particulares
Cuando en el problema no hay restricciones o solamente hay restricciones de igualdad, las condiciones KKT
tienen formas particulares que indicamos a continuacin.

Problemas sin restricciones Si el problema no tiene restricciones de ningn tipo, entonces m = p = 0.


El planteamiento del problema sera como en 2.2 y los multiplicadores no sern necesarios, ni tampoco las
condiciones relacionadas con ellos. La nica condicin utilizada es la estacionaria
f
f (x ) = 0 (x ) = 0 k = 1, . . . , n
xk
que es la misma para ambos objetivos de maximizar y minimizar.
Cabe distinguir adems el caso n = 1, es decir, en el caso de la optimizacin de una funcin real de variable
real, en el que la condicin estacionaria nos conduce a un resultado bien conocido

x es un extremo local f 0 (x) = 0

Problemas de Lagrange Si el problema slo tiene restricciones de igualdad, es decir p = 0 y m 6= 0, el


problema considerado es un problema clsico de Lagrange representado en 2.3 y las condiciones de Karush-
Kuhn-Tucker para este problema se obtienen eliminando aquellos trminos relacionados con restricciones de
desigualdad, para obtener el siguiente sistema
Pm
f (x ) + i=1 i hi (x ) = 0

hi (x ) = 0, i = 1, . . . , m

que es el resultado que proporciona el teorema clsico de los multiplicadores de Lagrange, siendo estos los valores
de los i . Se observa como en el caso anterior sin restricciones que las condiciones de KKT para ambos objetivos
de maximizar y minimizar coinciden.

Ejemplos
A continuacin se presentan algunos ejemplos de bsqueda de puntos de Karush-Kuhn-Tucker.

Ejemplo 2.7 Encuentra los puntos de Karush-Kuhn-Tucker para el problema



Optimizar x+y+z
s.a. (y 1)2 + z 2 1

x2 + (y 1)2 + z 2 3

Solucin: Utilizamos los multiplicadores correspondientes para construir la funcin Lagrangiana



L (x, y, z) = (x + y + z) + 1 (y 1)2 + z 2 1 + 2 x2 + (y 1)2 + z 2 3

y planteamos las condiciones de KKT, previamente hemos expresado las restricciones en la forma usual g (x) 0.

1. Condicin Estacionaria (x L = 0)

L
= 0 1 + 22 x = 0 (2.7)
x
L
= 0 1 + 21 (y 1) + 22 (y 1) = 0 (2.8)
y
L
= 0 1 + 21 z + 22 z = 0 (2.9)
z

c
SPH
30 Captulo 2. Optimizacin no lineal

2. Condicin de factibilidad

2
(y 1) + z 2 1 0

x2 + (y 1)2 + z 2 3 0

3. Condicin de positividad o negatividad

1 , 2 0 Para mnimo
1 , 2 0 Para mximo

4. Condicin de holgura

1 g1 (x) = 0 1 (y 1)2 + z 2 1 = 0 (2.10)

2 g2 (x) = 0 2 x2 + (y 1)2 + z 2 3 = 0 (2.11)

El sistema que hay que resolver estar formado por las ecuaciones 2.7, 2.8, 2.9, 2.10 y 2.11.

1. Tal y como se ha sugerido, empleamos en primer lugar las condiciones de holgura 2.10 y 2.11. Se distinguen
cuatro casos


2 = 0 Caso I

1 = 0 =



2 2
x + (y 1) + z 2 3 = 0 Caso II


2 = 0 Caso III



(y 1) 2
+ z 2
1 = 0 =

2
x2 + (y 1) + z 2 3 = 0 Caso IV

A continuacin resolvemos cada caso de forma independiente.


2. Caso I (1 = 0, 2 = 0): Este caso es imposible, puesto que sustituyendo en la ecuacin 2.7 obtenemos
una contradiccin.

2
3. Caso II 1 = 0, x2 + (y 1) + z 2 3 = 0 : Sustituyendo el valor de 1 = 0 en las ecuaciones del
sistema se obtiene la siguiente reduccin

1 + 22 x = 0 (2.12)

1 + 22 (y 1) = 0 (2.13)

1 + 22 z = 0 (2.14)

2
x2 + (y 1) + z 2 3 = 0 (2.15)

(a) Para encontrar la solucin restamos 2.12 y 2.13 para obtener

(1 + 22 x) (1 + 22 (y 1)) = 0 22 (x y + 1) = 0

y como 2 no puede ser cero puesto que entonces la ecuacin 2.7 nos dara 1 = 0, se llega a la
conclusin de que
xy+1=0x=y1 (2.16)

c
SPH
2.2. Condiciones de Karush-Kuhn-Tucker 31

Si ahora restamos 2.12 y 2.14, obtenemos


(1 + 22 x) (1 + 22 z) = 0 22 (x z) = 0
que nos proporciona (teniendo en cuenta de nuevo que 2 6= 0)
x=z (2.17)
Las relaciones 2.16 y 2.17 llevadas a la expresin 2.15 proporciona una ecuacin en la variable z
2
x2 + (y 1) + z 2 3 = 0 3z 2 3 = 0 z = 1
Y por tanto
x = z = 1

y=2
y = x+1

y=0
Como x 6= 0, despejamos 2 de la ecuacin 2.12 (o de 2.14)
1 1
2 = =
2x 2
En resumen, para este caso hemos obtenido 2 puntos

1
P1 = (1, 2, 1) = 0,
2

1
P2 = (1, 0, 1) = 0,
2

2
4. Caso III (y 1) + z 2 1 = 0, 2 = 0 : Este caso tambin es imposible, puesto que sustituyendo
2 = 0 en la ecuacin 2.7 del sistema volvemos a obtener una inconsistencia del tipo 1 = 0.

5. Caso IV (y 1)2 + z 2 1 = 0, x2 + (y 1)2 + z 2 3 = 0 : En este ltimo caso, el sistema que hay
que resolver es
1 + 22 x = 0 (2.18)

1 + 21 (y 1) + 22 (y 1) = 0 (2.19)

1 + 21 z + 22 z = 0 (2.20)

2
(y 1) + z 2 1 = 0 (2.21)

x2 + (y 1)2 + z 2 3 = 0 (2.22)
La operacin que debemos hacer a continuacin est muy clara, restar las ecuaciones 2.21 y 2.22 para
obtener

2 2
(y 1) + z 2 1 x2 + (y 1) + z 2 3 = 0 x2 2 = 0 x2 = 2 x = 2

Si ahora sustituimos el valor de x encontrado en 2.18 obtenemos el valor de 2


1 1 1
2 = = =
2x 2 2 2 2

c
SPH
32 Captulo 2. Optimizacin no lineal

Si ahora restamos 2.19 y 2.20

(1 + 21 (y 1) + 22 (y 1)) (1 + 21 z + 22 z) = 0

Agrupando y sacando factor comn obtenemos

21 (y 1 z) + 22 (y 1 z) = 0 2 (1 + 2 ) (y 1 z) = 0

Esta ecuacin nos proporciona 2 opciones. La primera de ellas es

1 + 2 = 0

pero utilizando la ecuacin 2.20 (o 2.19)

1 + 21 z + 22 z = 0 1 + 2z (1 + 2 ) = 0 1 = 0

que es obviamente imposible.


Nos queda solamente el segundo caso:

y1z =0y1=z

Sustituimos esta expresin en la ecuacin 2.21


1
(y 1)2 + z 2 = 1 2z 2 = 1 z =
2
mientras que y ser
1
y =1+z =1
2
Por ltimo nos queda por determinar el valor de 1 , y para ello utilizamos la ecuacin 2.20
1
1 + 21 z + 22 z = 0 1 = 2
2z
Teniendo en cuenta los distintos valores para 2 (2 valores) y z (otros 2) las posibles opciones son
1 1 1
2 = z = 1 = (2.23)
2 2 2 2 2
1 1 3
2 = z = 1 = (2.24)
2 2 2 2 2
1 1 3
2 = z = 1 = (2.25)
2 2 2 2 2
1 1 1
2 = z = 1 = (2.26)
2 2 2 2 2
Finalmente se obtienen 4 puntos

1 1 1 1
P3 = 2, 1 + , = ,
2 2 2 2 2 2

1 1 3 1
P4 = 2, 1 , = ,
2 2 2 2 2 2

1 1 3 1
P5 = 2, 1 + , = ,
2 2 2 2 2 2

1 1 1 1
P6 = 2, 1 , = ,
2 2 2 2 2 2

c
SPH
2.2. Condiciones de Karush-Kuhn-Tucker 33

Para determinar cuales de los puntos obtenidos es de KKT (de mnimo o de mximo) tenemos que comprobar
su factiblidad y el signo de los multiplicadores. Se expone a continuacin una tabla resumen con los resultados
obtenidos

x Factibilidad Positividad/Negatividad CKKT



P1 = (1, 2, 1) = 0, 12 NO - -

P2 = (0, 1, 1) = 0, 12 NO - -

P3 = 2, 1 + 1 , 1 1
= 2 , 1
SI Negatividad Mximo
2 2 2 2 2


P4 = 2, 1 1 , 1 = 3
1
, 2 SI NO -
2 2 2 2 2


P5 = 2, 1 + 1 , 1 3
= 2 , 1
SI NO -
2 2 2 2 2


P6 = 2, 1 1 , 1 = 1
1
, SI Positividad Mnimo
2 2 2 2 2 2

Los puntos P1 y P2 no son factibles ya que


2 2 2
P1 = (1, 2, 1) (y 1) + z 2 = (2 1) + (1) = 2 1

2 2 2
P2 = (0, 1, 1) (y 1) + z 2 = (0 1) + (1) = 2 1

por tanto son puntos no vlidos para el problema.


Los puntos P4 y P5 s son factibles, sin embargo no tiene multiplicadores de signo constante y por tanto
tampoco son puntos de KKT.
Los puntos P3 y P6 son los nicos que cumplen con todas las condiciones para ser puntos de KKT; en el caso
de P3 sera un punto de mximo ya que 0, mientras que P6 sera un punto de mnimo puesto que 0.

Ejemplo 2.8 Encuentra los puntos de Karush-Kuhn-Tucker del siguiente problema

Minimizar x2 + y 2
Sujeto a 2x + y 2 = 0

Solucin: En este caso m = 1 y p = 0, es decir hay solamente una restriccin de igualdad y el problema es
de Lagrange, en este caso las condiciones de Karush-Kuhn-Tucker utilizadas son la condicin estacionaria y la
condicin de factibilidad que nos proporcionan las siguientes ecuaciones

2x 2
f (x) + 1 h1 (x) = 0 + 1 =0
2y 1

h1 (x) = 0 2x + y 2 = 0

y un punto ser de KKT si es solucin del sistema

2x + 21 = 0 1 = x

2y + 1 = 0 1 = 2y

2x + y 2 = 0

c
SPH
34 Captulo 2. Optimizacin no lineal

que es lineal y cuya solucin nica es


4
1 =
5
4
x =
5
2
y =
5
por tanto el nico punto de KKT es
4 2 4
P = , 1 =
5 5 5
en este caso como el multiplicador est asociado a una restriccin de igualdad y su signo no influye en el carcter
del punto, por el momento no es posible distinguir si el punto P es un punto de KKT de mximo o de mnimo.

Ejemplo 2.9 Encuentra los puntos que cumplen las condiciones de Karush-Kuhn-Tucker para el siguiente
problema
Optimizar x2 + y 2

Sujeto a x+y =6

x2 + y 2 26

x1 0

Solucin: En primer lugar transformamos el problema en la forma usual, es decir, los trminos indepen-
dientes de las restricciones deben ser cero y las restricciones de desigualdad de la forma

x101x0

Calculamos los vectores gradiente de todas y cada una de las funciones implicadas en el problema

2x
f (x, y) = x2 y f (x, y) =
1

1
h1 (x, y) = x + y 6 h1 (x, y) =
1

2 2 2x
g1 (x, y) = x + y 26 g1 (x, y) =
2y

1
g2 (x, y) = 1 x g2 (x, y) =
0
Las condiciones de KKT para este problema seran

1. Condicin estacionaria
m
X p
X
2x 1 2x 1
f (x) + i hi (x) + j gj (x) = 0 + + 1 + 2 =0
1 1 2y 0
i=1 j=1

que en ecuaciones equivale a

2x + + 2x1 2 = 0

1 + + 2y1 = 0

c
SPH
2.2. Condiciones de Karush-Kuhn-Tucker 35

2. Condicin de factibilidad
x+y =6

1x0

(x)2 + (y)2 26

3. Condicin de positividad o negatividad.


Los multiplicadores asociados a desigualdades en los puntos de KKT deben tener el mismo signo.

j 0 j = 1, . . . , p (CKKTMin)

j 0 j = 1, . . . , p (CKKTMax )

4. Condiciones de holgura.
2 2
1 (x) + (y) 26 = 0
j gj (x) = 0


2 (1 x) = 0

El sistema que proporciona los posibles puntos de KKT sera el siguiente

2x + + 1 2x 2 = 0

1 + + 1 2y = 0

x+y = 6


1 x2 + y 2 26 = 0

2 (1 x) = 0

Como antes, resolvemos el sistema utilizando la condicin de holgura. Este anlisis produce dos opciones
por cada ecuacin, con un total de cuatro casos:


2 = 0 Caso I



1 = 0


(1 x) = 0 Caso II


2 = 0 Caso III



x2
+ y 2
26 = 0


(1 x) = 0 Caso IV

A continuacin se desarrolla cada caso individualmente.

1. Caso I: 1 = 2 = 0. El sistema para estos valores queda

2x + = 0

1 + = 0

x+y = 6

c
SPH
36 Captulo 2. Optimizacin no lineal

que tiene por solucin

= 1

1
x = =
2 2
1 13
y = 6x=6+ =
2 2
Tenemos por tanto un punto para este caso

1 13
P1 = , = 1 1 = 2 = 0
2 2

Si utilizamos las condiciones de factibilidad para comprobar si el punto obtenido pertenece al conjunto
factible, sustituyendo en las restricciones de desigualdad se obtiene
2 2
2 2 1 13 1 169
x +y = + = + 26 No se cumple
2 2 4 4

1 3
1x=1+ = 0 No se cumple
2 2
luego este punto no est en el conjunto factible y por tanto no es de KKT.

2. Caso II: 1 = 0, x = 1. Con estos datos el sistema queda

2 + 2 = 0

1 + = 0

1+y = 6

cuya solucin es

y = 5

= 1

2 = 2+=2+1=3

y obtenemos otro punto


P2 = (1, 5) = 1 1 = 0 2 = 3

Comprobamos si es un punto factible

x2 + y 2 26 = 1 + 25 26 0 S cumple la primera restriccin

1 x = 1 1 = 0 0 S cumple la segunda restriccin

como adems se cumple la condicin de positividad, P2 es un punto que cumple las condiciones de KKT
de mnimo (CKKTMin).

c
SPH
2.2. Condiciones de Karush-Kuhn-Tucker 37

3. Caso III: x2 + y 2 = 26, 2 = 0. Con estos valores el sistema es

2x + + 1 2x = 0

1 + + 1 2y = 0

x+y = 6

x2 + y 2 26 = 0

cuya solucin se obtiene fcilmente despejando una de las variables de la tercera ecuacin y sustituyendo
en la cuarta para obtener

y = 6x

2
x2 + (6 x) 26 = 0

desarrollando
2
x2 + (6 x) 26 = 0 2x2 12x + 10 = 0
ecuacin de segundo grado con soluciones

x1 = 5 y x2 = 1

A continuacin se obtiene el valor de y a partir del valor de la variable x para obtener dos puntos

P3 = (5, 1)
y
P4 = (1, 5)

Comprobamos a continuacin su factibilidad


2
5 + 12 26 = 0 0
P3 = (5, 1)

1 5 = 4 0
2
1 + 52 26 = 0 0
P4 = (1, 5)

11=00

Y por ltimo, es necesario obtener el valor de los multiplicadores para determinar si estos puntos cumplen
las condiciones de KKT de mnimo o de mximo. Utilizando las dos primeras ecuaciones, que forman un
sistema lineal en y 1 , y evaluando en cada punto obtenemos

1 + 2x 1 (P3 ) = 11 8
1 = =
2 (y x)
1 (P4 ) = 38

(P3 ) = 15
x (1 + 2y) 4
= =
xy
(P4 ) = 114

En resumen, los puntos con sus respectivos multiplicadores son:


15 11
P3 = (5, 1) = 1 = 0 2 = 0
4 8
c
SPH
38 Captulo 2. Optimizacin no lineal

y
11 3
P4 = (1, 5) = 1 = 0 2 = 0 0
4 8

de donde se obtiene que que P4 es un punto de KKT para el problema de minimizacin j 0 , mientras
que P3 cumple las condiciones de KKT para mximo (CKKTMax ).
4. Caso IV: x2 + y 2 = 6, x = 1. En este ltimo caso queda el siguiente sistema:

2 + + 21 2 = 0

1 + + 1 2y = 0

1+y = 6

1 + y 2 26 = 0

De la tercera y cuarta ecuacin tenemos el punto

P5 = (1, 5)

que es uno de los puntos encontrados en el apartado anterior y por tanto ya se ha discutido. Sin embargo,
el clculo de los multiplicadores se obtiene a partir de las dos primeras ecuaciones, en las que al sustituir
por los valores de x e y correspondientes obtenemos el sistema

2 + + 21 2 = 0

1 + + 1 10 = 0

que es lineal con ms incgnitas que ecuaciones y por tanto ser indeterminado; su solucin es

1 11 + 4
= ; = ,
10 5
Notar que si

= 1 = (0, 3)

11 3
= = ,0
4 8
que corresponden a los multiplicadores de los puntos P2 y P4 . No obstante se trata en los tres casos del
mismo punto. El hecho de que existan diversos multiplicadores para el mismo punto es debido, como
veremos posteriormente, a que ste problema es singular.

2.3 Condiciones necesarias


Las condiciones de Karush-Kuhn-Tucker que se han presentado en la seccin anterior son necesarias para la
mayora de los problemas de optimizacin no lineal, es decir, si x es un ptimo local para un problema no lineal,
entonces tendr que cumplir estas condiciones; no obstante, en ocasiones, para garantizar que un ptimo local
tiene que cumplir estas u otras condiciones, las restricciones en dicho punto tienen que cumplir determinadas
propiedades denominadas Hiptesis de Cualificacin de las Restricciones (H.C.R.). El estudio de estas hiptesis
no cae dentro del mbito de esta gua y solamente se indican algunas de ellas.

Definicin 2.10 (H.C.R. Sin Restricciones) En un problema de optimizacin no lineal sin restricciones,
todos los puntos cumplen la primera hiptesis de cualificacin de las restricciones.

c
SPH
2.3. Condiciones necesarias 39

Definicin 2.11 (H.C.R. de Karlin o de Linealidad) En un problema de optimizacin no lineal donde so-
lamente hay restricciones de tipo lineal, todos los puntos factibles cumplen la hiptesis de cualificacin de Karlin.

Definicin 2.12 (H.C.R. de Slater o de Convexidad) En un problema de optimizacin no lineal en el


que el conjunto factible, , es un conjunto convexo con interior no vaco, todos los puntos factibles cumplen la
hiptesis de cualificacin de Slater.

Definicin 2.13 (H.C.R. de Fiacco-McKormik o de Regularidad) En un problema de optimizacin no


lineal, todos los puntos factibles que sean regulares cumplen la hiptesis de cualificacin de Fiacco-McKormik.

Condiciones necesarias de primer orden


Estamos en condiciones de establecer las condiciones necesarias de primer orden que deben cumplir los
extremos locales de un problema de optimizacin.

Teorema 2.14 (Condiciones necesarias de primer orden) Dado el problema general de la optimizacin
no lineal ( NLPP)
Optimizar f (x)
Sujeto a
(2.27)
hi (x) = 0 i = 1, . . . , m
gj (x) 0 j = 1, . . . , p
donde f, hi , gj : A R son funciones de clase C 1 (A) en el conjunto abierto A Rn . Sea su conjunto factible
y x un punto donde las restricciones del problema cumplen alguna hiptesis de cualificacin ( H.C.R.) y en
el que la funcin f (x) alcanza un mnimo [mximo] relativo = x cumple las condiciones de Karush-Kuhn-
Tucker de Minimizacin [Maximizacin].

Ejemplos
Emplearemos el teorema de las condiciones necesaias de primer orden para resolver en esta seccin algunos
problemas de optimizacin con restricciones.

Ejemplo 2.15 Resuelve el problema

Minimizar xy + yz + zx
Sujeto a x + y + z = 3

Solucin: Como solamente tiene una restriccin de igualdad se trata de un problema de Lagrange; adems
dicha restriccin es lineal, luego se cumple la hiptesis de cualificacin de Karlin en todos los puntos del conjunto
factible, luego cualquier mnimo local debe cumplir las condiciones de Karush-Kuhn-Tucker. Por ser un problema
de Lagrange estas condiciones se reducen a la condicin estacionaria y a la condicin de factibilidad:

y+z 1
f (x, y, z) + h (x, y, z) = z + x + 1 = 0
x+y 1

h (x, y, z) = x + y + z 3 = 0
Ambas condiciones se transforman en el siguiente sistema lineal

y+z+=0

x+z+=0

y+x+=0

x+y+z3=0

c
SPH
40 Captulo 2. Optimizacin no lineal

cuya nica solucin es


x=y=z=1 1 = 2
y por tanto este es el nico punto que cumple las condiciones de KKT.
Notar que aunque 1 = 2 < 0 y el objetivo sea de minimizar, el punto es de KKT puesto que es un
multiplicador asociado a una restriccin de igualdad, y por tanto no est condicionado por su signo. Por otra
parte, no es posible determinar la naturaleza del punto, puesto que se cumplen las condiciones de KKT para
mnimo, pero tambin se cumplen para mximo.
Ejemplo 2.16 Aplica las condiciones necesarias de primer orden al problema

Optimizar f (x, y, z) = x + y + z
s.a. (y 1)2 + z 2 1

x2 + (y 1)2 + z 2 3
Solucin: En la seccin anterior se comprob que los nicos puntos que cumplan las condiciones de CKKT
eran
1 1 1 1
P3 = 2, 1 + , = ,
2 2 2 2 2 2
y

1 1 1 1
P6 = 2, 1 , = ,
2 2 2 2 2 2
Ahora comprobaremos que si el problema tuviera solucin (mximo y/o mnimo) entonces debera ser alguno
de los puntos anteriores. El razonamiento es el siguiente: Si el problema tiene mnimo (mximo) global,
entonces tambin ser un mnimo (mximo) local. Si adems tambin se cumpliera alguna de las hiptesis de
cualificacin, entonces este mnimo (mximo) local debera ser un punto de Karush-Kuhn-Tucker y por tanto
debera ser alguno de estos dos puntos.
Es fcil comprobar que se cumple la hiptesis de cualificacin de Slater, ya que el conjunto factible es
n o
2 2
= (x, y, z) R| (y 1) + z 2 1; x2 + (y 1) + z 2 3 = 1 2

siendo
n o
2
1 = (x, y, z) R| (y 1) + z 2 1
n o
2
2 = (x, y, z) R| x2 + (y 1) + z 2 3

Los conjuntos 1 y 2 son convexos puesto que son conjuntos de la forma


= { (x, y, z) R| g (x, y, z) k}
con g (x, y, z)una funcin convexa (porqu?).
Como es interseccin de dos conjuntos convexos, ser l mismo un conjunto convexo. Para comprobar la
condicin de Slater solamente queda por comprobar que el interior de es no vaco, pero eso es fcil ya que al
menos el punto (0, 1, 0) est en su interior.
Slo hay que comprobar que el problema tiene solucin, pero esta tambin es directo aplicando el teorema
de Weierstrass, ya que f (x, y, z) es continua y el conjunto es compacto (porqu?).
La existencia de solucin al problema implica que los puntos P3 y P6 son los extremos buscados. Para decidir
cul de ellos es el mnimo y cul el mximo, lo nico que queda evaluar la funcin objetivo en cada uno de ellos
1

1


f (P3 ) = 2 + 1+ + =1+2 2
2 2
y
1

1


f (P6 ) = 2 + 1 + =12 2
2 2
luego P3 es el mximo del problema y P6 su mnimo.
La aplicacin de las condiciones necesarias sobre este ejercicio permite descartar otros posibles candidatos a
solucin.

c
SPH
2.3. Condiciones necesarias 41

Ejemplo 2.17 Plantea y resuelve el problema de construir una caja de cartn de volumen mximo y rea fija
A.

Solucin: Si x, y, z son las dimensiones de la caja, el problema no lineal se puede expresar como

Maximizar xyz
A
Sujeto a xy + yz + zx =
2
siendo A > 0 el rea fija de la caja.
La restriccin no cumple ni la hiptesis de Karlin (la nica restriccin es no lineal), ni la de Slater (el
conjunto no es convexo). Comprobaremos que se cumple la hiptesis de regularidad en todos los puntos; para
ello calculamos el gradiente de la restriccin

y+z
h (x, y, z) = x + z
x+y

Como slo hay un vector, ste ser linealmente dependiente slo cuando sea el vector nulo, es decir si ocurre

y+z =0
x+z =0
x+y =0

El nico punto solucin del sistema anteriore es el vector nulo

x=y=z=0

Sin embargo, sustituyendo en la restriccin comprobamos facilmente que este punto es infactible
A
0 + 0 + 0 = 0 6=
2
de donde se deduce que todos los puntos de (conjunto factible) son regulares. Este resultado implica que
cualquier extremo local del problema debe cumplir las condiciones de Karush-Kuhn-Tucker, que expresamos a
continuacin:

1. Condicin estacionaria
yz + (y + z) = 0

xz + (x + z) = 0

xy + (x + y) = 0

2. Condicin de factibilidad
A
xy + yz + zx =0
2
El sistema formado por las cuatro ecuaciones anteriores tiene como nica solucin a:
r r
A A
x=y=z= =
6 24
De nuevo al ser un problema solamente con restricciones de igualdad, no podemos determinar si el punto es de
mnimo o de mximo.

Ejemplo 2.18 (Entropa) Sea X una variable aleatoria discreta que toma valores dentro del conjunto {x1 , . . . , xn },
sabiendo que el valor medio obtenido para X es x, el problema consiste en encontrar la probabilidad pj de que
X tome el valor xj de forma que la entropa sea mxima.

c
SPH
42 Captulo 2. Optimizacin no lineal

Solucin: Para una variable aleatoria discreta se define la entropa de la densidad como
m
X
= pj ln pj
j=1

mientras que la esperanza de X es


m
X
= xj pj
j=1
Pm
Si la probabilidad asociada a cada xj es pj , entonces debe cumplirse pj 0 y j=1 pj = 1. Si adems sabemos
cual es la media (x), el argumento de entropa mxima requiere que la densidad debe tomarse como aquella que
resuelve el problema
Xm
Maximizar pj ln pj
i=1

m
X
Sujeto a pj = 1
i=1

m
X
xj pj = x
j=1

pj 0
Como todas las restricciones del problema son lineales se cumple la hiptesis de Karlin, luego cualquier solucin
ptima debe cumplir las condiciones de Karush-Kuhn-Tucker. Es decir, si el problema tiene solucin, deben
existir multiplicadores 1 ,2 ,1 , . . . , n cumpliendo las siguientes condiciones:

1. Condicin estacionaria:
n
X
f (p) + 1 h1 (p) + 2 h2 (p) + j gj (p) = 0
j=1

En este caso
n
X
f (p) = pi ln pi f (p) = ( ln p1 1, . . . , ln pn 1)
i=1
n
X
h1 (p) = pi 1 h1 (p) = (1, . . . , 1)
i=1
n
X
h2 (p) = xi pi m h2 (p) = (x1 , . . . , xn )
i=1
j

z}|{
gj (p) = pj gj (p) = 0, . . . , 1 , . . . 0n j = 1, . . . , n

y las ecuaciones que tienen que cumplir los extremos son

ln pi 1 + 1 + 2 xi i = 0 i = 1, . . . , n (2.28)

2. Condicin de factibilidad:
n
X
pi = 1
i=1

c
SPH
2.3. Condiciones necesarias 43

n
X
xi pi = x
i=1

pi 0

3. Condicin de negatividad: Puesto que estamos buscando el mximo de la funcin, los multiplicadores
asociados a las restricciones de desigualdad deben ser negativos, es decir, debe ocurrir

j 0

4. Condicin de holgura:
j gj (p) = 0 j (pj ) = 0

De la condicin de holgura se deduce que


j = 0
puesto que en caso contrario, pj = 0, pero para este valor la funcin logaritmo no est definida. Por tanto todos
los multiplicadores j , asociados a las restricciones de desigualdad deben ser nulos. Sustituyendo en la familia
de ecuaciones 2.28 obtenemos

ln pj 1 + 1 + 2 xj = 0 j = 1, . . . , n

y podemos despejar pj de cada ecuacin j = 1, . . . , n

ln pj = 1 + 1 + 2 xj pj = e2 xj +(1 1)

Observemos que pj > 0.


Los valores de 1 y 2 deben seleccionarse de forma que se cumplan las 2 restricciones
X
pj = 1

X
pj xi = x

El teorema de las condiciones necesarias nos proporciona los requisitos que deberan cumplir los extremos
de un problema de optimizacin con restricciones bajo ciertas hiptesis de cualificacin, sin embargo, es posible
encontrar problemas en los que la solucin ptima no cumple estas condiciones, y tambin es posible encontrar
puntos que cumplen las condiciones de Karush-Kuhn-Tucker pero que no son extremos de la funcin. Veamos
algunos ejemplos.

Ejemplo 2.19 Consideremos el problema

Maximizar x2 + y
Sujeto a y3 = 0

El conjunto factible del problema es



= (x, y) R2 (x, 0)

y por tanto un problema equivalente al anterior viene dado por

Maximizar x2
Sujeto a xR

cuya solucin ptima podemos obtener fcilmente y es x = 0. La solucin ptima del problema incial, en R2
ser P = (0, 0).

c
SPH
44 Captulo 2. Optimizacin no lineal

Vamos a comprobar si P es un punto de Karush-Kuhn-Tucker. Como el problema solamente tiene restric-


ciones de igualdad, las condiciones de KKT suponen que debera existir un multiplicador de forma P cumplan
las siguientes ecuaciones

2x 0 0
f (P ) + h (P ) = 0 + =
1 3y 2 0

h (P ) = 0 y 3 = 0

es decir

2x = 0

1 + 3y 2 = 0

y3 = 0

Sin embargo, este sistema no tiene solucin, ya que de la ltima ecuacin necesariamente y = 0 y al sustituir
en la segunda obtenemos una contradiccin.
El punto P = (0, 0) es un mximo local (de hecho es global) para el problema de optimizacin planteado,
pero no cumple las condiciones de Karush-Kuhn-Tucker. Comprobemos que para P no se cumplen ninguna de
las hiptesis de cualificacin descritas.

1. Hiptesis sin restricciones: Est claro que esta hiptesis no se cumple por la presencia de la restriccin:
y 3 = 0.
2. Hiptesis de Karlin: Esta condicin tampoco se cumple, puesto que la nica restriccin del problema,
h (x, y) = y 3 , es no lineal.
3. Hiptesis de Slater: El conjunto factible es

= (x, y) R2 (x, 0)

es decir el eje X, que en R2 es un conjunto con interior vaco, puesto que cualquier bola de centro un
punto de tiene puntos fuera de y por tanto tampoco se cumple esta hiptesis.
4. Hiptesis de Fiacco-McKormik: En este caso tenemos que comprobar si el punto es o no regular para
las restricciones del problema, es decir, habr que comprobar si el conjunto de vectores formado por los
gradientes de las restricciones activas en P est formado por vectores linealmente independientes. Como
solamente tenemos una restriccin activa en P (por ser de igualdad), la familia de vectores estar formada
por un nico vector
0
{h (x, y)} =
3y 2

0
y al evaluar en P = obtenemos
0

0
{h (P )} =
0

0
que por ser el vector nulo, es linealmente dependiente; por tanto P = es no regular para las
0
restricciones.

Si en el problema cambiamos la restriccin y 3 = 0 por la restriccin equivalente

y=0

c
SPH
2.3. Condiciones necesarias 45

la solucin del problema es la misma, pero en este caso s se cumple la hiptesis de Karlin, ya que todas las
restricciones son lineales. Ahora tenemos que ser capaces de comprobar que el punto P = (0, 0) cumple las
condiciones de KKT. El sistema ahora es
2x = 0

1+ = 0

y = 0
que tiene por solucin
P = (0, 0)

= 1
y hemos encontrado el punto buscado y tambin su multiplicador correspondiente.
Ejemplo 2.20 Sea el problema
Maximizar f (x, y, z) = y
Sujeto a h1 (x, y, z) = (x 1)2 + y 2 1 = 0
h2 (x, y, z) = (x + 1)2 + y 2 1 = 0
El conjunto factible para este problema es

= (x, y, z) R3 (0, 0, z)
y la solucin ptima del problema es cualquier punto del conjunto , puesto que f (x, y, z)es constante en l.
Al plantear la condicin estacionaria de Karush-Kuhn-Tucker para este problema
f (x) + 1 h1 (x) + 2 h2 (x) = 0
obtenemos
0 2 (x 1) 2 (x + 1) 0
1 + 1 2y + 2 2y = 0
0 0 0 0
y los puntos crticos deben cumplir entonces el siguiente sistema de ecuaciones:
21 (x 1) + 22 (x + 1) = 0

1 + 21 y + 22 y = 0

0 = 0
sin embargo, ningn punto de la forma (0, 0, z) es solucin del sistema anterior, puesto que al sustituir estos
puntos en la segunda ecuacin obtenemos una contradiccin y ninguno de los extremos locales del problema
cumple las condiciones de KKT.
Podemos comprobar, como en el caso anterior, que ninguno de ellos cumple alguna de las hiptesis de

cualificacin. Es un problema con restricciones no lineales donde = ( es una recta), es decir, no se
cumple ninguna de las tres primeras condiciones dada. Para la condicin de regularidad (Fiacco-McKormik)
observamos que el conjunto de vectores que son gradiente de las restricciones activas (en este caso son todas
puesto que es un problema con slo igualdades) est dado por

2 (x 1) 2 (x + 1)
{h1 (x, y, z) , h2 (x, y, z)} = 2y , 2y

0 0

c
SPH
46 Captulo 2. Optimizacin no lineal

y al evaluarlo en los puntos ptimos (0, 0, z) obtenemos



2 2
0 , 0

0 0

que es una familia de vectores linealmente dependientes y por tanto ningn punto de la forma (0, 0, z) es regular.

Tambin podra suceder que un punto donde las restricciones no cumplan ninguna de las hiptesis de
cualificacin, sea un extremo local de la funcin objetivo donde s se cumplan las condiciones de Karush-Kuhn-
Tucker. Consideramos, por ejemplo, las restricciones del ejemplo anterior, pero cambiamos la funcin objetivo
por f (x, y, z) = x.
Para este caso, las condiciones de KKT sern

1 2 (x 1) 2 (x + 1) 0
0 + 1 2y + 2 2y = 0
0 0 0 0
o equivalentemente sern soluciones del sistema

1 + 21 (x 1) + 22 (x + 1) = 0

21 y + 22 y = 0

0 = 0

y teniendo en cuenta que el conjunto factible est formado por los puntos (0, 0, z), el sistema queda como

1 21 + 22 = 0

0 = 0

0 = 0

que tiene por solucin


1
1 2 =
2
Tomando ahora cualquier solucin de esta ecuacin, por ejemplo = (1 , 2 ) = (1, 1/2), vemos que todos los
puntos extremos cumplen las condiciones de Karush-Kuhn-Tucker, sin embargo, como se ha comprobado en
ninguno de ellos las restricciones cumplen alguna de las hiptesis de cualificacin.
Todos estos ejemplos son atpicos y en general suceder que los extremos locales del problema tendrn que
cumplir las condiciones de Karush-Kuhn-Tucker, pero ilustran la necesidad de comprobar adecuadamente los
resultados obtenidos.

Observacin 2.21 Es posible comprobar que en el punto (5, 1) del ejemplo 2.9 es un punto donde no se cumple
ninguna de las hiptesis de cualificacin.

Por ltimo hay que indicar que estas condiciones son necesarias, en el sentido de que bajo las hiptesis del
teorema, los extremos de un problema de optimizacin deben ser puntos de Karush-Kuhn-Tucker. Sin embargo,
las condiciones no son suficientes, ya que podemos encontrar puntos que an cumpliendo las condiciones de
Karush-Kuhn-Tucker, no son extremos, por ejemplo la funcin f (x) = x3 , tiene como nico punto estacionario
x = 0, que no es extremo puesto que la funcin es siempre creciente.

Definicin 2.22 Los puntos que cumplen la condicin estacionaria pero que no son extremos de la funcin
se denominan puntos de silla (que son condicionados si hay presencia de restricciones en el problema). Para
funciones reales de una variable a estos puntos se les conoce mejor por puntos de inflexin.

c
SPH
2.3. Condiciones necesarias 47

Condiciones necesarias de segundo orden


Si las funciones del problema son suficientemente derivables, entonces, podemos utilizar informacin relativa
a las segundas derivadas para obtener el siguiente resultado:

Teorema 2.23 (Condiciones necesarias de 2o orden) Dado el problema general de optimizacin

Optimizar f (x)
Sujeto a
hi (x) = 0 i = 1, . . . , m
gj (x) 0 j = 1, . . . , p

donde f, hi , gj : A R son funciones de clase C 2 (A) en el conjunto abierto A Rn . Sea su conjunto


factible y x un punto donde las restricciones del problema cumplen alguna hiptesis de cualificacin de las
restricciones ( H.C.R.) y en el que la funcin f (x) alcanza un mnimo [mximo] relativo condicionado = x
es un punto que cumple las condiciones de Karush-Kuhn-Tucker para el problema de minimizar [maximizar] es
decir 1 ,. . . , m , 1 , . . . , p R de forma que se cumplen las siguientes condiciones:

1. Condicin estacionaria p
m
X X
f (x ) + i hi (x ) + j gj (x ) = 0
i=1 j=1

2. Condicin de factibilidad

hi (x ) = 0, i = 1, . . . , m
gj (x ) 0 j = 1, . . . , p

3. Condicin de positividad [negatividad ]



j 0 j 0 para mximo j = 1, . . . , p

4. Condicin de holgura
j gj (x ) = 0 j = 1, . . . , p
y adems se cumple la siguiente condicin:
5. Condicin del Hessiano: La matriz HL (x , , ) definida como
m
X p
X
HL(x , , ) = Hf (x ) + i Hhi (x ) + j Hgj (x ) (2.29)
i=1 j=1

es semidefinida positiva [semidefinida negativa respectivamente] sobre el espacio tangente M (x ) en x .

Casos Particulares:

1. Caso sin restricciones y una variable (m = p = 0, n = 1): En el caso de problemas con una sola variable,
el Hessiano de la funcin f (x) es su segunda derivada y la condicin 2.29 se convierte en

f 00 (x ) 0

2. Sin restricciones y varias variables (m = p = 0): En este caso el espacio tangente es M (x ) = Rn y la


condicin necesaria que debe cumplirse es

Hf (x ) es semidefinida positiva [negativa respectivamente]

3. Problemas de Lagrange (p = 0): Para problemas que tengan solamente restricciones de igualdad la con-
dicin del Hessiano no cambia, salvo que en este caso no hay trminos asociados a restricciones de
desigualdad.

c
SPH
48 Captulo 2. Optimizacin no lineal

Ejemplo 2.24 Aplica las condiciones necesarias de segundo orden al siguiente problema:

Optimizar f (x, y, z) = x + y + z
2
s.a. (y 1) + z 2 1
2
x + (y 1) + z 2 3
2

Solucin: Recordemos que para este problema se haban obtenido dos puntos de Karush-Kuhn-Tucker.

1 1 1 1
P3 = 2, 1 + , = ,
2 2 2 2 2 2


1 1 1 1
P6 = 2, 1 , = ,
2 2 2 2 2 2
Para aplicar las condiciones de segundo orden tendremos que construir la matriz HL (Pk ) en cada punto y
evaluarlar sobre el espacio tangente correspondiente M (Pk ).
Comenzamos por definir la matriz HL

22 0 0
HL (x) = Hf (x) + 1 Hg1 (x) + 2 Hg2 (x) = 0 2 (1 + 2 ) 0
0 0 2 (1 + 2 )

Para el punto P3 tendremos


12 0 0

HL (P3 ) = 0 2 0

0 0 2
que es una matriz semidefinida negativa sobre todo R3 , puesto que es diagonal negativa. Como el espacio
tangente es un subespacio vectorial de R3 , M (P3 ) R3 , la matriz HL (P3 ) tambin ser semidefinida negativa
sobre l y por tanto se cumplen las condiciones necesarias para que P3 pueda ser un mximo.
Para el punto P6 tendremos 1
0 0
2
HL (P6 ) = 0 2 0
0 0 2
que es una matriz semidefinida positiva sobre todo R3 , puesto que es diagonal positiva. Como el espacio tangente
es un subespacio vectorial de R3 , M (P6 ) R3 , la matriz HL (P6 ) tambin ser semidefinida positiva sobre l
y por tanto se cumplen las condiciones necesarias para que P6 pueda ser un mximo.

Ejemplo 2.25 Aplica las condiciones de segundo orden al problema de la caja de la seccin anterior.

Solucin: Recordemos que el problema de optimizacin poda plantearse como

Maximizar xyz
A
Sujeto a xy + yz + zx =
2
y que habamos encontrado como nico punto de KKT el siguiente
r r r ! r
A A A 1 A
P = , , =
6 6 6 2 6

Construiremos a continuacin tanto la matriz HL como el espacio tangente en P , M (P )



0 z y 0 1 1 0 z+ y+
HL = Hf + Hh = z 0 x + 1 0 1 = z+ 0 x+
y x 0 1 1 0 y+ x+ 0

c
SPH
2.4. Condiciones suficientes 49

evaluando en P y teniendo en cuenta que x = y = z = 2


r
1 A
x + = y + = z + = =
2 6
y la matriz hessiana en P es
r 0 1 1
1 A
HL (P ) = 1 0 1
2 6 1 1 0
Mientras que el espacio tangente es
n o
d R3 h (P ) d = 0
T
M (P ) =

Utilizando el valor de P y el gradiente de h (x) tenemos


r r r ! r 1
A A A A
h , , =2 1
6 6 6 6
1
y el espacio tangente est descrito por
r
A
d1
M (P ) = (d1 , d2 , d3 ) R3 2 (1, 1, 1) d2 = 0
6
d3

= (d1 , d2 , d3 ) R3 d1 + d2 + d3 = 0


= (d1 , d2 , d3 ) R3 (d1 , d2 , (d1 + d2 ))

Si construimos la forma cuadrtica asociada a HL (P ) sobre M (P ) tendremos



0 1 1 d1

HL(P ) (d) = (d1 , d2 , (d1 + d2 )) 1 0 1 d2 =
M(P )
1 1 0 (d1 + d2 )

d1
= (d1 , d2 , (d1 + d2 )) d2
(d1 + d2 )
2
= d21 d22 (d1 + d2 )

= d21 + d22 + (d1 + d2 )2

que al ser una diferencia de cuadrados, tomar siempre valores negativos, lo que implica que HL (P ) es semi-
definida negativa sobre M (P ) y el punto P cumple las condiciones necesarias de segundo orden para ser un
mximo del problema.
Con las condiciones necesarias obtenemos condiciones que permiten eliminar aquellos puntos que no son
candidatos a extremo de la funcin, sin embargo, necesitamos unas condiciones que permitan asegurar que los
puntos encontrados son realmente las soluciones buscadas.

2.4 Condiciones suficientes


En el apartado anterior se han proporcionado condiciones necesarias de primer y segundo orden que permitan
descartar como soluciones a aquellos puntos que no las cumplieran, sin embargo, en ocasiones, en algunos
problemas, es posible encontrar puntos que cumplan tanto las primeras condiciones como las segundas, sin ser
la solucin al problema.

c
SPH
50 Captulo 2. Optimizacin no lineal

Ejemplo 2.26 Comprueba que el punto P = (0, 0) cumple las condiciones necesarias de primer y segundo
orden para el problema
Minimizar x y 2 x 3y 2

s.a. (x, y) R2
pero que no es su solucin.
Solucin: Al tratarse de un problema sin restricciones se cumple una de las hiptesis de cualificacin, por
tanto cualquier mnimo debe cumplir las condiciones de Karush-Kuhn-Tucker que en este caso se reducen a la
condicin estacionaria
2x 4y 2 0
f (x, y) = 0 =
12y 3 8xy 0
que tiene como nica solucin el punto P = (0, 0), es decir, P cumple las condiciones necesarias de primer
orden.
Las condiciones de segundo orden para problemas sin restricciones se reducen a comprobar el Hessiano de
la funcin f (x, y) en el punto en cuestin. Si calculamos la matriz Hessiana de f (x, y)

2 8y
Hf (x, y) =
8y 36y 2 8x
y evaluamos en P
2 0
Hf (P ) =
0 0
La matriz Hf (P ) es semidefinida positiva, puesto que sus valores propios son 1 = 2 0 y 2 = 0 0;
esto implica que el punto P tambin cumple las condiciones necesarias de segundo orden, concretamente las
condiciones de mnimo. Sin embargo vamos a comprobar que el punto P no es un mnimo. Por una parte el
valor de la funcin en P es nulo
f (0, 0) = 0
y por otra parte si evaluamos la funcin sobre los puntos de la curva
x = 3y 2
obtenemos
f (x, y) = f 3y 2 , y = 3y 2 y 2 3y 2 4y 2 = 2y 4 0
es decir sobre esa curva sucede
f (x, y) 0 = f (0, 0)
y (0, 0) no podra ser el mnimo, puesto que hay valores cerca de l (tomando y 0) donde el valor de la funcin
es menor.
Este tipo de problema provoca el estudio de condiciones cuyo cumplimiento garantice el hallazgo de la
solucin. Este tipo de condiciones son las llamadas suficientes.
Con el fin de dar estas condiciones de suficiencia es necesario exigir que la matriz Hessiana correspondiente
sea por una parte definida (positiva o negativa para mnimo o mximo, respectivamente) y por otra que lo sea
en un espacio mayor que el espacio tangente.
Definicin 2.27 Dado el problema general con restricciones
Minimizar [Maximizar] f (x)
Sujeto a
hi (x) = 0 i = 1, . . . , m
gj (x) 0 j = 1, . . . , p
donde f, hi , gj : A R, son funciones de clase C 1 (A) en A Rn abierto. Sea su conjunto factible y
x un punto de Karush-Kuhn-Tucker para el problema. Diremos que una restriccin de desigualdad gj (x)
es degenerada en x gj (x ) = 0 y j = 0.

c
SPH
2.4. Condiciones suficientes 51

Definicin 2.28 Definimos el conjunto de ndices de restricciones no degeneradas en un punto x de KKT


como
Je (x ) = j {1, . . . , p}| gj (x ) = 0 y j 6= 0

Notar que si en el problema no hay restricciones o son todas de igualdad entonces Je (x ) = .

Definicin 2.29 Definimos el espacio tangente ampliado como


n o
f(x ) = d Rn | T hi (x ) d = 0, i = 1, . . . , m;
M T gj (x ) d = 0, j Je (x )

Notar que en el caso de un problema sin restricciones


f(x ) = M (x ) = Rn
M

y para un problema de Lagrange


f(x ) = M (x )
M

Teorema 2.30 (Condiciones suficientes) Dado el problema general de optimizacin

Optimizar f (x)
Sujeto a
hi (x) = 0 i = 1, . . . , m
gj (x) 0 j = 1, . . . , p

donde f, hi , gj : A R son funciones de clase C 2 (A) en A Rn un conjunto abierto. Sea su conjunto


factible y x un punto donde las restricciones del problema cumplen alguna de las hiptesis de cualificacin.
Si x es un punto de Karush-Kuhn-Tucker para el problema de minimizar [maximizar], es decir 1 ,. . . , m ,
1 , . . . , p R de forma que se cumplen las siguientes condiciones:

1. Condicin estacionaria
m
X p
X
f (x ) + i hi (x ) + j gj (x ) = 0
i=1 j=1

2. Condicin de factibilidad

hi (x ) = 0, i = 1, . . . , m
gj (x ) 0 j = 1, . . . , p

3. Condicin de positividad [negatividad]



j 0 j 0 j = 1, . . . , p

4. Condicin de holgura
j gj (x ) = 0 j = 1, . . . , p

5. Condicin del Hessiano: La matriz HL (x ) definida como


m
X p
X

HL(x ) = Hf (x ) + i Hhi (x ) + j Hgj (x )
i=1 j=1

f(x ).
es definida positiva [definida negativa] sobre el espacio tangente ampliado M

Entonces en x hay un mnimo [mximo] relativo condicionado estricto de f sobre .


f(x ) entonces en x hay un punto de silla condicionado.
Si la matriz HL (x ) es indefinida sobre M
Casos Particulares:

c
SPH
52 Captulo 2. Optimizacin no lineal

1. Sin restricciones y una variable (m = p = 0, n = 1): En el caso de problemas con una sola variable, la
condicin del Hessiano se convierte en
f 00 (x ) > 0

2. Sin restricciones y varias variables (m = p = 0): En este caso M (x ) = Rn y la condicin del Hessiano
es

Si la matriz Hf (x ) es definida positiva [negativa] x es un mnimo [mximo] local estricto

Ejemplo 2.31 Resuelve el problema

Minimizar xy + yz + zx
Sujeto a x + y + z = 3

Solucin: Se comprob anteriormente que el nico punto crtico obtenido era:

x=y=z=1 1 = 2

Si ahora tratamos de emplear las condiciones suficientes descritas en la proposicin anterior, tendremos:

0 1 1
Hf (x, y, z) = 1 0 1
1 1 0

que no es ni definida positiva, ni definida negativa si consideramos todos los vectores de R3 , sin embargo si
f (x ), que por ser un problema de Lagrange
restringimos la matriz a los puntos del espacio tangente ampliado M
que continene solamente restricciones de igualdad, coincide con el espacio tangente M (x )
n o
M (x ) = d R3 hT (x ) d =0 = d R3 (1, 1, 1)|(1,1,1) d =0 =

d1
= d R3 (1, 1, 1) d2 =0 = d R3 d1 + d2 + d3 =0

d3

la forma cuadrtica asociada ser



0 1 1 d1 0 1 1 d1
|Hf (x ) (d) = (d1 , d2 , d3 ) 1 0 1 d2 = (d1 , d2 , d1 d2 ) 1 0 1 d2 =
1 1 0 d3 1 1 0 d1 d2

d1
= (d1 , d2 , d1 d2 ) d2 = d21 d22 (d1 + d2 )2 = d21 + d22 + (d1 + d2 )2 0
d1 + d2

y solamente ser 0, cuando


d1 = d2 = (d1 + d2 ) = 0
y por tanto
d = (0, 0, 0)
Por tanto la forma cuadrtica |Hf (x ) (d) asociada a la matriz Hf (x ) es definida negativa sobre el espacio
tangente M (x ) y por la proposicin anterior el punto x ser un mximo local estricto.
En el caso de los problemas convexos las condiciones necesarias de primer orden son tambin suficientes.

Teorema 2.32 (Problemas Convexos) Dado el problema

Optimizar f (x)
Sujeto a
hi (x) = 0 i = 1, . . . , m
gj (x) 0 j = 1, . . . , p

c
SPH
2.4. Condiciones suficientes 53

con f, hi , gj : A R , funciones de clase C 1 (A), con A Rn un conjunto abierto y su conjunto factible. Si


es convexo y f (x) es convexa [cncava respectivamente] sobre , entonces, si existe x y multiplicadores
1 , . . . , m , 1 , . . . , p R tales que se cumplen las condiciones necesarias de primer orden para mnimo
[mximo] local, entonces x es un mnimo [mximo] global del problema.

Proposicin 2.33 (Problemas con desigualdades) Dado el problema NLPP

Optimizar f (x)
Sujeto a
gj (x) 0 j = 1, . . . , p

con f, gj : A R , funciones de clase C 1 (A), con A Rn un conjunto abierto y su conjunto factible.


Supongamos que f (x) es convexa [cncava] sobre y supongamos tambin que g1 (x), . . ., gp (x) son funciones
convexas sobre entonces si existe un x punto CKKTMin [ CKKTMax] entonces x es solucin del
problema NLPP.
Adems si f , g1 , . . ., gp son estrictamente convexas x es la nica solucin del problema NLPP

Proposicin 2.34 (Problemas Afines Convexos) Dado el problema NLPP

Optimizar f (x)
Sujeto a
hi (x) = 0 i = 1, . . . , m
gj (x) 0 j = 1, . . . , p

con f, hi , gj : A R , funciones de clase C 1 (A), con A Rn un conjunto abierto y su conjunto factible.


Supongamos que f (x) es convexa [cncava respectivamente] sobre y supongamos tambin que h1 (x), . . .,
hm (x) son funciones afines y g1 (x), . . ., gp (x) son funciones convexas sobre entonces si existe un x
punto CKKTMin [ CKKTMax] entonces x es solucin del problema NLPP.
Una funcin h (x) es afn si es de la forma

h (x) = a1 x1 + + an xn + b

Ejemplo 2.35 Resuelve el siguiente problema NLPP

Optimizar y
s.a.
x+y+z =1
x2 + z 2 9

Solucin: Planteamos las condiciones de KKT para L (x, y, z, , ) = y + (x + y + z 1)+ x2 + z 2 9

1. Condicin Estacionaria (x L = 0)
L
= 0 + 2x = 0
x
L
= 01+=0
y
L
= 0 + 2z = 0
z

2. Condicin de factibilidad

x+y+z = 1

x2 + z 2 9

c
SPH
54 Captulo 2. Optimizacin no lineal

3. Condicin de positividad o negatividad

0 Para mnimo
0 Para mximo

4. Condicin de holgura
g (x) = 0 x2 + z 2 9 = 0

De la segunda ecuacin obtenemos directamente

= 1

Utilizando ahora la condicin de holgura obtenemos dos opciones

= 0

x2 + z 2 9 = 0

pero la primera opcin ( = 0) no es vlida, puesto que si sustituimos en la primera de las ecuaciones estacio-
narias obtenemos
=0
que es una contradiccin con el valor anterior que hemos obtenido para .
Las ecuaciones que quedan son (sustituyendo el valor de )

1 + 2x = 0

1 + 2z = 0

x+y+z = 1

x2 + z 2 9 = 0

Utilizando las dos primeras ecuaciones y puesto que no puedes ser 0 (porqu?) obtenemos

x=z

que sustituido en la ltima ecuacin


3
x2 + z 2 = 9 2x2 = 9 x =
2
El valor de y se obtiene de la tercera ecuacin

3
y = 1 x z = 1 2x = 1 2 =13 2
2
y el valor de se obtiene de la primera ecuacin
1 1 1
1 + 2x = 0 = = =
2x 3
2 2 3 2

Hemos obtenido 2 puntos



3 3 1
P = , 1 3 2, = 1 =
2 2 3 2

c
SPH
2.5. Interpretacin de los multiplicadores de KKT 55

3 3 1
Q = , 1 + 3 2, = 1 =
2 2 3 2
Para P obtenemos un valor de > 0, por tanto se cumplen las condiciones de Karush-Kuhn-Tucker de
mnimo, mientras que para Q obtenemos un valor < 0 y por tanto se cumplen las condiciones de mximo.
La funcin objetivo f (x, y, z) = y, es lineal, por tanto es cncava y convexa (por qu?). Por otra parte hay
una restriccin de igualdad que es afn (x+y +z = 1) y la otra restriccin de desigualdad es convexa (por qu?),
luego estamos en condiciones de aplicar el teorema anterior y podemos decir que P y Q son respectivamente el
mnimo y mximo globales del problema.
Aunque es posible extender las condiciones necesarias y suficientes a rdenes superiores, en la prctica la
aplicacin de estas condiciones requiere de un excesivo esfuerzo y solamente tienen una utilidad prctica en el
caso de funciones reales de variable real, es decir, cuando n = 1 y m = p = 0.

Teorema 2.36 (Condicin suficiente de ptimo local) Supongamos que, para x I, la funcin f : I
R es suficientemente derivable y verifica

f (k) (x ) = 0 k = 1, . . . , n 1
f (n) (x ) 6= 0

Donde f (k) (x) es la derivada ksima de la funcin

1. Si n es impar = x es un punto de inflexin.

2. Si n es par = x es un ptimo local. Adems

(a) Si f (n) (x ) > 0 x es un mnimo local estricto.


(b) Si f (n) (x ) < 0 x es un mximo local estricto.

2.5 Interpretacin de los multiplicadores de KKT


En esta seccin trataremos de explicar de forma no rigurosa el significado de los multiplicadores que aparecen
en las condiciones de Karush-Kuhn-Tucker para un problema con restricciones y sus aplicaciones en el anlisis
de la sensibilidad de los problemas no lineales.
Planteemos en primer lugar un problema no lineal con restricciones de igualdad y de desigualdad de la
siguiente forma
Minimizar [Maximizar] f (x)
Sujeto a
(2.30)
hi (x) = bi i = 1, . . . , m
gj (x) cj j = 1, . . . , p
donde f, hi , gj : A R, son funciones de clase C 2 (A) en A Rn abierto y b1 , . . . , bm , c1 , . . . , cp R.
Est claro que el conjunto factible del problema 2.30 depender de los valores de los vectores b = (b1 , . . . , bm )
y c = (c1 , . . . , cp ), es decir
(b, c)
y tambin es obvio que los puntos ptimos del problema, si existen, dependern de estos valores

x = x (b, c)

Supongamos que para ciertos valores de estos parmetros, (b , c ), el problema


general con restricciones
2.30
posee un ptimo en el punto x , con multiplicadores de Karush-Kuhn-Tucker 1 , . . . , m , 1 , . . . , p asociados.
Podemos definir una funcin
F : U(b ,c ) R
con U(b ,c ) un entorno de (b , c ) Rm+p , de forma que

F b, c = f x b,c b, c U(b ,c )

c
SPH
56 Captulo 2. Optimizacin no lineal

siendo x b,c el ptimo del programa para cuando se utilizan en el problema 2.30, los trminos independientes

b,c U(b ,c ) .
El siguiente teorema da una relacin entre las variaciones del trmino independiente y las variaciones que
experimenta el valor ptimo de la funcin objetivo.

Teorema 2.37 Dado el programa de optimizacin con restricciones dado en la ecuacin 2.30. Si para ciertos
valores de los parmetros b y c, (b , c ) = b1 , . . . , bm , c1 , . . . , cp , el punto x es un punto de Karush-Kuhn-
Tucker y junto con los multiplicadores asociados, 1 , . . ., m y 1 , . . ., p ; cumple las condiciones de suficiencia
para que la funcin f (x) posea en ese punto un extremo relativo sobre el conjunto (b , c ) y si no hay
restricciones de desigualdad activas degeneradas, entonces



F (b , c ) f x
b ,c
i = = i = 1, . . . , m
bi bi

F (b , c ) f xb ,c
j = = j = 1, . . . , p
cj cj

Los multiplicadores i y j , asociados a la i-sima restriccin de igualdad y a la jsima restriccin de


desigualdad respectivamente, nos mide la tasa de variacin del valor de la funcin objetivo f (x, y), en el punto
ptimo respecto a la variacin de su correspondiente trmino independiente (bi , cj ).
Notar finalmente que utilizando diferencias finitas obtenemos
m
X p
X m
X m
X
F (b , c ) = i bi j cj = i bi bi i cj cj
i=1 j=1 i=1 i=1

La ecuacin anterior nos proporciona un valor aproximado del incremento que se producir en el valor del
objetivo ptimo al variar el trmino independiente de las restricciones de (b , c ) a b, c .

2.6 Dualidad
Para cualquier problema de optimizacin NLPP

Minimizar f (x)


Sujeto a
(N LP P )
hi (x) = 0 i = 1, . . . , m


gj (x) c j = 1, . . . , p

que llamaremos problema Primal, podemos construir el llamado problema Dual. Mientras que en el problema
primal los multiplicadores se utilizan como parmetros auxiliares para resolver el problema y se minimiza sobre
las variables del problema, en el problema dual los multiplicadores seran las variables, mientras que las variables
de decisin del problema primal haran el papel de multiplicadores.

Definicin 2.38 Para el problema de optimizacin NLPP, definimos su problema dual (NLPP*) como

Maximizar (, )
Sujeto a (N LP P )

0

donde la funcin (, ) est definida por



(, ) = 1 , . . . m , 1 . . . p = inf f (x) + 1 h1 (x) + . . . + m hm (x) + 1 g1 (x) + . . . + p gp (x)
x

y siendo el conjunto factible del problema NLPP.

c
SPH
2.6. Dualidad 57

Ejercicio 2.6.1 Construye el problema dual del siguiente problema de optimizacin

x2 y 2
Minimizar f (x, y) = +
2 2
Sujeto a
x+y 4
x y 4

Solucin: La funcin Lagrangiana es

x2 y 2
L (x, y, 1 , 2 ) = + + 1 (x y + 4) + 2 (x + y 4)
2 2
Si buscamos el mnimo sobre (x, y) en

L
= x 1 2 = 0 x = 1 + 2
x
L
= y 1 + 2 = 0 y = 1 2
y

y la funcin (1 , 2 ) es
2 2
(1 + 2 ) ( 2 )
(1 , 2 ) = + 1 + 1 ( (1 + 2 ) (1 2 ) + 4) + 2 ( (1 + 2 ) + (1 2 ) 4)
2 2

= 21 22 + 41 42

El problema dual ser entonces

Maximizar (1 , 2 ) = 21 22 + 41 42
Sujeto a
1 , 2 0

Teorema 2.39 (Teorema de Dualidad) Dado el problema de optimizacin NLPP

Minimizar f (x)
Sujeto a
hi (x) = 0 i = 1, . . . , m
gj (x) c j = 1, . . . , p

con f (x), gj (x) convexas y h (x) afn. Entonces el problema primal NLPP tiene solucin si y slo s su problema
dual NLPP* tiene solucin. Adems en este caso si x es la solucin ptima del primal y ( , ) la solucin
ptima del dual se tiene
f (x ) = ( , )

Lema 2.40 (Lema de Dualidad Dbil) Dado el problema de optimizacin NLPP

Minimizar f (x)
Sujeto a
hi (x) = 0 i = 1, . . . , m
gj (x) c j = 1, . . . , p

con f (x), gj (x) y h (x) de clase C 1 (A), entonces:


1.

max { (, )| 0} min { f (x)| x }

c
SPH
58 Captulo 2. Optimizacin no lineal

2. Si ( , ) son factibles para el problema dual NLPP* y x , y si adems se cumple

f (x ) = ( , )

entonces ( , ) y x son las soluciones ptimas del problema dual y primal respectivamente. Adems

max { (, )| 0} = min { f (x)| x }

Ejemplo 2.41 Resuelve por dualidad el problema


x2 y 2
Minimizar f (x, y) = +
2 2
Sujeto a
x+y 4
x y 4
Solucin: Es sencillo comprobar que la funcin objetivo y las restricciones de desigualdad son convexas,
como en este caso no hay restricciones de igualdad podemos aplicar el teorema de dualidad para indicar que
este problema tendr solucin si y slo si la tiene su problema dual, que como vimos en el ejercicio anterior
viene dado por
Maximizar (1 , 2 ) = 21 22 + 41 42
Sujeto a
1 , 2 0
Para resolver este problema aplicaremos la teora de KKT, ya que las restricciones son lineales (y por tanto
convexas) mientras que la funcin objetivo es cncava (por qu?), en este caso un punto que cumpla las
condiciones de KKT de mximo ser la solucin. Si llamamos 1 y 2 a los multiplicadores de KKT para este
problema, el Lagrangiano vendr dado por

LD (1 , 2 , 1 , 2 ) = 21 22 + 41 42 1 1 2 2

y las condiciones de KKT seran

1. Condicin estacionaria: LD (1 , 2 , 1 , 2 )
LD
= 21 + 4 1 = 0
1
LD
= 22 4 2 = 0
2

2. Condicin de holgura:

1 1 = 0

2 2 = 0

El resto de condiciones las utilizaremos posteriormente.


De las condiciones de holgura tendremos 4 casos


2 = 0 = Caso I



1 = 0 =


2 = 0 = Caso II


2 = 0 = Caso III



= 0 =

1
2 = 0 = Caso IV
que resolvemos de forma independiente:

c
SPH
2.6. Dualidad 59

1. Caso I: 1 = 2 = 0. Sustituyendo en la primera y segunda ecuaciones, se obtiene

21 + 4 = 0 1 = 2

22 4 = 0 2 = 2

que no es un punto factible puesto que 2 < 0.


2. Caso II: 1 = 2 = 0. Sustituyendo

21 + 4 = 0 1 = 2

4 2 = 0 2 = 4

que cumples las condiciones y por tanto ser el mximo buscado.


3. Caso III: 1 = 2 = 0. En este caso

4 1 = 0 1 = 4

22 4 = 0 2 = 2

que no es factible puesto que 2 < 0.


4. Caso IV: 1 = 2 = 0

4 1 = 0 1 = 4

4 2 = 0 2 = 4

que no es un punto de KKT de Mximo, puesto que 1 > 0.

Hemos obtenido un nico punto para este problema

= (2, 0) = (0, 4)

que como hemos comentado cumle las condiciones de KKT para mximo, luego por las condiciones del problema
es la solucin buscada.
Teniendo en cuenta ahora la relacin existente entre los valores de 1 y 2 y las variables de decisin del
problema primal, podemos hallar el valor de estas ltimas

x = 1 + 2 = 2 + 0 = 2

y = 1 2 = 2 0 = 2

y comprobar que se trata de un punto factible para el problema primal.


Por ltimo es sencillo comprobar que ambos problemas coinciden en sus respectivos valores ptimos

22 22
f (x , y ) = f (2, 2) = + =4
2 2
(1 , 2 ) = (2, 0) = 22 02 + 4 2 4 0 = 4

c
SPH
60 Captulo 2. Optimizacin no lineal

c
SPH
Captulo 3

Optimizacin dinmica: mtodos


variacionales

3.1 Introduccin y ejemplos


Los problemas tratados en los temas anteriores consistan en la optimizacin (maximizacin o minimizacin)
de funciones reales de variables reales, que podan estar o no sujetas a restricciones representadas tambin por
funciones reales de variables reales. El objetivo era buscar el punto o puntos que cumpliendo las restricciones
impuestas al problema, nos proporcionaran el mejor valor (mayor o menor, dependiendo del objetivo del pro-
blema) de la funcin a optimizar. Para la mayora de todos estos problemas la solucin era puntual; por ello,
este tipo de optimizacin se suele clasificar como esttica.
En este tema se enfocar la optimizacin que hemos denominado optimizacin dinmica desde el punto
de vista variacional. El objetivo de estos problemas tambin consiste en maximizar o minimizar cierto ndice
teniendo en cuenta un conjunto de restricciones que describen el sistema, pero a diferencia de la optimizacin
esttica, las soluciones de este problema estn ahora formadas por trayectorias de puntos y no solamente
por puntos particulares. Los objetivos utilizados como ndices de rendimiento del sistema son en este caso
funciones que dependen de otras funciones (funcionales) y las restricciones que describen los sistemas son
en general ecuaciones diferenciales (problemas en tiempo continuo) o ecuaciones en diferencias (problemas en
tiempo discreto).
Se plantean por tanto, otro tipo de problemas, en el que la solucin buscada es una curva o trayectoria,
obtenida de entre todas las posibles de un sistema, y que optimiza un determinado ndice de coste.
A continuacin se presentan y desarrollan algunos ejemplos que pueden expresarse en estos trminos.

3.1.1 Problemas Geodsicos


Uno de los problemas que aparece de forma natural es el de encontrar el camino ms corto entre dos puntos.
Aunque en R3 este camino es la lnea recta, en general no es posible tomar esta ruta, debido por ejemplo a objetos
naturales, entonces es necesario considerar el problema ms complicado de encontrar la curva geodsica (es decir
la que tiene menor longitud) entre todas aquellas restringidas a una hipersuperficie dada. En particular, por
ejemplo podemos intentar caracterizar en R3 las geodsicas sobre la superficie de una esfera, de un cilindro o
de un cono.

Geodsicas en el Rn
Una curva que une dos puntos A y B en Rn puede considerarse como el rango de una funcin vectorial
Y (t) = (y1 (t) , . . . , yn (t)), t [0, 1] con componentes continuas en [0, 1], de forma que Y (0) = A e Y (1) = B
(figura 3.1). En particular, el segmento lineal que une ambos puntos,

Y0 (t) = (1 t) A + tB t [0, 1] (3.1)

ser una de esas curvas (ver figura3.1).

63
64 Captulo 3. Optimizacin dinmica: mtodos variacionales

Figura 3.1: Curvas en R3 .

Sin otra exigencia adicional la curva podra ser no rectificable, es decir, podra no tener longitud finita. Si
ahora exigimos que la funcin Y (t) tenga derivada continua en (0, 1), entonces podremos contemplar la funcin
Y0 (t) = (y10 (t) , . . . , yn0 (t)) como la velocidad en t con mdulo kY0 (t)k y por tanto la longitud de la curva
debera ser la distancia recorrida durante el movimiento y vendr dada por la siguiente integral
Z1
L (Y) = kY0 (t)k dt
0

Para garantizar la finitud de L (Y), habr que exigir que cada componente de Y0 (t) sea integrable (esta
propiedad se obtiene facilmente si cada componente es continuamente diferenciable en [0, 1]). De esta manera
el problema consistir en minimizar la longitud Y (t) sobre un determinado conjunto de funciones vectoriales
y puede expresarse como
Z1
min kY0 (t)k dt
0

s.a. YD
donde D es un conjunto de funciones definido por

D = Y : [0, 1] Rn | Y C 1 (0, 1) ; Y (0) = A; Y (1) = B

Este problema puede resolverse de forma sencilla de forma directa. Sabemos que Y0 (t) D y su derivada
es Y00 (t) = B A, por tanto si existe una curva de longitud mnima Lmin , entonces
Z1
Lmin L (Y0 (t)) = kY00 (t)k dt = kB Ak (3.2)
0

que es la distancia euclidea entre A y B.


Para comprobar la conjetura natural de que Lmin = kB Ak, solamente habr que comprobar la siguiente
desigualdad para cualquier Y (t) D
L (Y0 (t)) L (Y)
Si suponemos A 6= B (el caso A = B es trivial) y utilizamos el teorema fundamental del Clculo
Z1
B A = Y (1) Y (0) = Y0 (t) dt
0

c
SPH
3.1. Introduccin y ejemplos 65

de esta forma
Z1 Z1
2 2 0
L (Y0 (t)) = kB Ak = (B A) (B A) = (B A) Y (t) dt = [(B A) Y0 (t)] dt
0 0

Si ahora utilizamos la desigualdad de Cauchy para el producto escalar

[(B A) Y0 (t)] kB Ak kY0 (t)k

se obtiene
Z1 Z1
0
[(B A) Y (t)] dt kB Ak kY0 (t)k dt
0 0

o equivalentemente
Z1
2
kB Ak kB Ak kY0 (t)k dt = kB Ak L (Y (t))
0

Como A 6= B, se obtiene la desigualdad buscada dividiendo por kB Ak.

Geodsicas en la esfera
Para un avin es fundamental, con el objetivo de conseguir un ahorro de combustible, conocer cul es la
ruta ms corta entre dos ciudades. La Tierra no es plana, por tanto el camino ms corto entre dos puntos de su
superficie no ser la lnea recta. Para resolver este problema, es necesario encontrar las curvas geodsicas sobre
la superficie de una esfera.
Cada punto P = (x, y, z) R3 de la superficie de una esfera de radio R centrada en el origen (excepto los
polos Norte y Sur) estn determinados mediante coordenadas esfricas R, y

P = (R cos sen , R sen sen , R cos ) (3.3)

para un nico (0, ) y [0, 2) (figura 3.2).

Figura 3.2: Coordenadas esfricas.

Dados dos puntos A y B sobre la esfera, supongamos que se eligen los ejes de forma que A est en el polo
Norte ( = 0), mientras que B 6= A tiene de coordenadas esfricas (R, 0, 1 ) con 1 > 0 (figura 3.3).

c
SPH
66 Captulo 3. Optimizacin dinmica: mtodos variacionales

Figura 3.3: Geodsicas en la esfera.

Entonces cualquier curva que una A con B sobre la superficie de la esfera estar determinada en coordenadas
esfricas mediante un par de funciones ( (t) , (t)) de la siguiente forma

Y (t) = R (cos (t) sen (t) , sen (t) sen (t) , cos (t)) t [0, 1]

donde adems: (0) = 0, (1) = 0 y (1) = 1 .


Como en el caso de las geodsicas en R3 , supondremos que las funciones utilizadas son continuamente
diferenciables en (0, 1). Su derivada temporal ser

Y0 (t) = R 0 sen sen + 0 cos cos , 0 cos sen + 0 sen cos , 0 sen

donde se ha prescindido de la variable temporal t por comodidad. La longitud de esta curva vendr dada por

Z1 Z1 q
0 2 2
L (Y) = 0
kY (t)k dt = R sen + (0 )2 dt
0 0

2
Si eliminamos el trmino 0 sen2 0 dentro de la raz se obtiene

Z1 q Z1 q
0 2 2
R sen + (0 )2 dt R (0 )2 dt = R (t)|10 = R (1)
0 0

De manera que
L (Y) R1
2
para cualquier curva Y (t). La igualdad solamente se cumplir cuandor el trmino 0 sen2 = 0. Resolviendo

0 2 2 sen2 (t) = 0, t [0, 1]
sen = 0

0 (t) = 0, t [0, 1]

En el primer caso (t) = 0, con t [0, 1], luego A = B y en este caso no hay desplazamiento. Si, por el
contrario, A 6= B, entonces 0 (t) = 0, para t [0, 1], de donde (t) = cte, en todo el intervalo [0, 1]. Y por
tanto (t) = (1) = 0, que corresponde con el menor crculo mximo que conecta A y B.

c
SPH
3.1. Introduccin y ejemplos 67

Figura 3.4: Braquistcrona.

3.1.2 Problemas temporales


Si viajamos con velocidad constante, entonces la ruta geodsica determinada en cada uno de los problemas de
la seccin anterior tambin proporciona el camino ms rpido. Sin embargo, si no podemos viajar con velocidad
constante y en particular si la velocidad depende del camino elegido, entonces los problemas de mnima distancia
y mnimo tiempo se deben analizar de forma separada. A continuacin vemos alguno de estos problemas.

Braquistcrona
Al caer bajo la accin de la gravedad un objeto acelera rpidamente. La curva que proporciona el menor
tiempo de trnsito entre dos puntos distintos A y B, separados una distancia horizontal, no es ni la lnea recta,
ni tampoco un arco circular, sino la llamada braquistcrona o cicloide.
Si utilizamos el esquema indicado en la figura 3.4, en el que el punto inicial A est en el origen y las ordenadas
y positivas se toman hacia abajo. Entonces una curva que una el punto A = (0, 0) con el punto B = (X1 , Y1 )
situado ms abajo (X1 , Y1 0), puede representarse como el grafo de una funcin continua y = y (x) definida
en x [0, X1 ] con y (0) = 0 e y (X1 ) = Y1 .
Asumiendo que y (x) es suficientemente derivable, esta curva tendr una longitud finita l y el tiempo necesario
para recorrerla estar dado (por consideraciones puramente cinemticas) por

Zl
ds
T = T (y) =
v
0

donde v = ds/dt es la velocidad del objeto.


Del clculo infinitesimal obtenemos que para cada x [0, X1 ]
Zx q
2
s = s (x) = 1 + y 0 () d
0

es la longitud de arco correspondiente a la posicin horizontal x. De esta forma


q
ds (x) = 1 + y 0 (x)2 dx

y el tiempo de trnsito es q
Z1
X
1 + y 0 (x)
2
T = T (y) = dx
v (x)
0

c
SPH
68 Captulo 3. Optimizacin dinmica: mtodos variacionales

Figura 3.5: Problema de control y direccin.

siendo v = v (x) la velocidad asociada.


Podemos expresar v (x) en trminos de y (x) utilizando las leyes de Newton de la dinmica, para ello asumi-
mos que la aceleracin gravitacional g es constante durante la cada y despreciamos los efectos de otras fuerzas
(incluyendo las de friccin). La velocidada de la bola a lo largo de la trayectoria y (x) en tiempo t viene dada
por p
v (x) = 2gy (x)
De esta forma
Z1
X !1/2
2
1 1 + y 0 (x)
T = T (y) = dx
2g y (x)
0

y el problema consistir en minimizar T (y) sobre el conjunto de todas las funciones y = y (x) para las que
est definida la integral anterior. Posteriormente encontraremos la solucin a este problema mediante mtodos
analticos.

Problemas de control y direccin


Estrechamente relacionado con el problema de la braquistcrona, est el problema de encontrar la mejor
ruta de navegacin al atravesar una corriente de velocidad variable. Nos preguntamos cul ser la ruta que
proporcionar el menor tiempo de trnsito al intentar cruzar un ro de velocidad cambiante desde un punto
A hasta otro B en la orilla opuesta con un barco que navega a velocidad constante w respecto al agua. Si
suponemos que las orillas del ro son paralelas y utilizamos un determinado sistema de coordenadas, en el que el
eje y representa una orilla y la recta x = x1 la otra (siendo x1 la distancia entre las orillas), asumimos tambin
que w = 1 y que la corriente del ro r (x) est dirigida hacia abajo (figura 3.5).
Las componentes x e y de la velocidad del barco se obtienen de la siguiente manera. Si es el ngulo que
forma la direccin de movimiento del barco respecto a la corriente, entonces

vx = w cos = cos

vy = w sen + r (x) = sen + r


puesto que a la velocidad de avance del barco hay que aadirle la velocidad de la corriente.
El tiempo de trnsito entre las orillas ser
Z x1 Z x1 Z x1
dx 1
T = = d = sec d
0 vx 0 cos 0

c
SPH
3.1. Introduccin y ejemplos 69

El valor de la tangente a la curva y (x) en cada punto, es decir su derivada y 0 (x) en cada punto, se obtiene como

vy r + sen r sen
y 0 (x) = = = + = r sec + tan
vx cos cos cos

y teniendo en cuenta que


1
1 + tan2 = = sec2
cos2
podemos obtener ahora una relacin entre y 0 (x) y sec
p
y 0 (x) = r sec + tan = r sec + sec2 1 (3.4)
h i
Despejando sec de la ecuacin 3.4 en funcin de y 0 (x), teniendo en cuenta que , cos =
2 2
1
0
sec q
2 2 0
0
sec = (x) 1 + (y ) (x) ry (x)

donde
1/2
(x) = 1 r2 (x)
con 0 r (x) 1, ya que debe ser posible atravesar la corriente.
El tiempo de trnsito de un barco que cruce el ro desde el origen A hasta el punto B = (x1 , y1 ) situado
ro abajo a lo largo de un camino suave representado por la grfica de una funcin y = y (x) en [0, x1 ] vendr
entonces dado por
Zx1 q

T (y) = (x) 1 + (y 0 )2 (x) 2 ry 0 (x) dx
0

Este problema de control consistir en minimizar T (y)sobre todas las funciones y (x) que son continuamente
diferenciables en [0, x1 ] y cumplen y (0) = 0 e y (x1 ) = y1 .
Este problema se puede generalizar al caso en el que las orillas del ro estn representadas mediante curvas
y en el que los puntos de cruce varan. Tambin es posible considerar que la corriente vara respecto a y igual
que lo hace respecto a x. En 1931, Zermelo investig la versin bidimensional de este problema que podra ser
igualmente significante para pilotar un submarino o un aeroplano.

3.1.3 Problemas Isoperimtricos


Uno de los problemas ms antiguos de optimizacin de los que se tiene constancia es el de encontrar el
rea mxima que puede encerrarse mediante una curva de permetro fijo. La solucin de este problema es bien
conocida y se trata del crculo. Este tipo de problema se denomina isoperimtrico.
Para este ejemplo, la formulacin matemtica sera la siguiente. Suponemos que una curva cerrada simple
y suave de longitud L est representada paramtricamente por Y (t) = (x (t) , y (t)) para t [0, 1], con Y (0) =
Y (1) para que sta sea cerrada.
De acuerdo con el teorema de Green el rea del domino D encerrado por esta curva es
ZZ Z
A (Y) = dxdy = xdy
D D

donde D representa la frontera de D orientada positivamente por la parametrizacin de Y (figura 3.6).


Utilizando esta parametrizacin obtenemos

Z1
A (Y) = x (t) y 0 (t) dt
0

c
SPH
70 Captulo 3. Optimizacin dinmica: mtodos variacionales

Figura 3.6: rea encerrada por una curva.

Figura 3.7: Cuerda colgante (Catenaria).

Y el problema consiste en encontrar el mximo de A (Y) sobre todas las funciones Y (t) que tienen componentes
continuamente diferenciables en [0, 1] y que cumplen la condicin de clausura Y (0) = Y (1). Adems tambin
debe cumplirse la condicin isoperimtrica

Z1
L (Y) = kY0 (t)k dt = L
0

siendo L, la longitud de la cuerda, una constante.


Una versin moderna de este problema combina los problemas isoperimtricos y de direccin y consiste
en encontrar el camino cerrado que debe describir un aeroplano con velocidad constante, teniendo en cuenta
la velocidad del viento, para encerrar el rea mxima. Cuando la velocidad del viento es cero, entonces este
problema es equivalente a un problema isoperimtrico clsico.
Zenodoros tambin consider el problema anlogo en dimensin superior que consiste en maximizar el volu-
men de un solido que tiene una superficie fija.
Otro problema isoperimtrico diferente consiste en encontrar la forma que tendr un cable o cuerda inexten-
sible, con un peso por unidad de longitud W y una longitud L, bajo la accin de su propio peso, cuando est
sujeto por sus extremos a una distancia horizontal H (figura 3.7)
Sea s es la longitud de arco a lo largo del cable (que se toma como variable independiente), este problema
requiere la minimizacin de la energa potencial de la cuerda; dada, salvo constantes, por la integral centro de

c
SPH
3.1. Introduccin y ejemplos 71

Figura 3.8: Superficie de revolucin mnima.

masas
ZL
F (y) = W y (s) ds
0

sobre todas las funciones y 0 continuamente diferenciables en [0, L], con y (0) = y (L) = 0 y que cumplen la
condicin isoperimtrica
ZL
G (x) = dx (s) = H
0
siendo x (s) el desplazamiento en la direccin horizontal.
Por geometra elemental tenemos
2 2
x0 (s) + y 0 (s) = 1
de donde la funcin G (x) se puede escribir en trminos de y (s) como:
ZL q
2
G (y) = 1 y 0 (s) ds = H
0

En general, el trmino isoperimtrico se asigna a caulquier problema de optimizacin en el que la clase


funciones implicadas estn sujetas a restricciones integrales de la forma anterior.

3.1.4 Problemas de reas de superficies


Un problema anlogo al problema geodsico de la primera seccin puede plantearse para una dimensin
superior de la siguiente forma: Encontrar la superficie de rea mnima que abarcan curvas cerradas fija en R3

Superficie de revolucin mnima


Cuando las curvas consisten en una par de crculos paralelos concntricos, entonces podramos preguntar-
nos por la superficie de revolucin que uniendo ambos crculos tenga rea mnima area, o equivalentemente,
queremos encontrar la expresin para de la curva de su frontera (figura 3.8).
Utilizando un sistema de coordenadas adecuado llegamos al problema de minimizar la funcin rea de la
superficie lateral S (y)
Zb Zb q
S (y) = 2 y (x) ds (x) = 2 y (x) 1 + y 0 (x)2 dx
a a

entre todas las funciones y (x) 0, continuamente diferenciables en [a, b] y para las cuales
y (a) = a1 y y (b) = b1

c
SPH
72 Captulo 3. Optimizacin dinmica: mtodos variacionales

Donde a1 y b1 denotan los radios de cada crculo, uno de los cuales puede degenerar en un punto (y (b) = 0).

Problema del rea minimal.


Supongamos que las superficies en cuestin pueden representarse como el grafo de funciones suaves u =
u (x, y) definidas en un dominio plano comn D. Entonces el rea de la superficie asociada est dada por
Z q
S (u) = 1 + u2x + u2y dA
D

donde dA denota el elemento bidimensional de integracin sobre D; la frontera de D se denota como D y se


supone que se comporta bien de forma que la integracin Riemann de funciones continuas puede definirse sobre
D o D y sobre D.
Podramos entonces buscar el mnimo de S (u) sobre todas las funciones u que son continua en D = D D,
continuamente diferenciables dentro de D y toma valores en la frontera de forma continua y determinada

u|D = (x, y)

3.1.5 Problemas con frontera libre


La solucin que Jakob Bernouilli (1696) di a su hermano Johann acerca del problema de la braquistcrona
marcaba el comienzo de consideraciones variacionales. Sin embargo fue con los trabajos de Euler (1742) y
Lagrange (1755) cuando se estableci el clculo de variaciones tal y como se conoce actualmente.
El anlisis del problema de la braquistcrona visto anteriormente estaba dirigido a la bsqueda de soluciones
del problema de minimizar el siguiente funcional
Zb
J (y) = f (x, y (x) , y0 (x)) dx
a

sobre el conjunto de funciones D; dado por



D = y C 1 [a, b] : y (a) = a1 ; y (b) = b1

para a1 y b1 dados, este es un problema de puntos extremos (inicial y final) fijos (ver figura 3.4). Sin embargo
para Jakob Bernouilli el inters se centraba en un conjunto ms amplio

Db = y C 1 [a, b] : y (a) = a1

al describir una braquistcrona para la que se pide que descienda sobre una distancia horizontal (b a) en
el mnimo tiempo posible, sin especificar la distancia vertical que hay que cubrir. Este tipo de problemas es
llamado de punto extremo final libre (ver figura 3.9).
Del mismo modo, tambin pueden considerarse problemas sobre el conjunto

Da = y C 1 [a, b] : y (b) = b1

donde ahora el extremo final es el fijo, mientras que el extremo inicial .


Por ltimo, es posible plantear problemas con ambos puntos extremos libres (ver figura 3.10)

Dab = y C 1 [a, b]

o tambin en aquellos donde los extremos locales estn en subconjuntos arbitrarios de C 1 [a, b], por ejemplo,
un problema relacionado con las condiciones sobre puntos extremos es el que caracteriza la braquistcrona que
une dos curvas fijas dadas, llamadas transversales, lo que requiere la minimizacin de una integral con lmites
x1 y x2 variables
Zx2
J (y) = f (x, y (x) , y 0 (x)) dx
x1

c
SPH
3.1. Introduccin y ejemplos 73

Figura 3.9: Braquistcrona de extremo final libre.

sobre un conjunto
D = y C 1 [x1 , x2 ] : j (xj , y (xj )) = 0; j = 1, 2
2
donde [x1 , x2 ] R y { j (xj , y (xj ))}j=1 son funciones dadas (figura 3.11)

3.1.6 Resumen
Todos estos problemas presenta caractersticas comunes. Cada uno de ellos implica la bsqueda de una
funcin real definida sobre un determinado dominio D de funciones y , que minimiza o maximiza cierta funcin
definida por medio de una integral de la forma
Zb
J (y) = F (x, y (x) , y0 (x)) dx
a

para alguna funcin dada F (x, y, z). A este tipo de funciones cuyo valor depende de una funcin real de variable
real los hemos denominado funcionales.
La funcin y (x) puede ser escalar o vectorial, puede depender de una variable independiente o de varias.
Generalmente es continua y derivalbe en su dominio de definicin, mientras que el conjunto D consistir en
aquellas funciones de esta clase que cumplen ciertas condiciones de frontera especficas en a o b, de la forma

y (a) = a0
y (b) = b0

Adems, como en el caso de la braquistcrona, puede ser necesario imponer restricciones posteriores tales como
exigir que y 0 en [a, b].
Buscamos un elemento de D, es decir, una funcin y D, para la que

J (y) J (y ) y D

En estos problemas, pueden tambier existir restricciones integrales de igualdad (restricciones isoperimtricas)

Zb
H (y) = h (x, y (x) , y0 (x)) dx = L
a

c
SPH
74 Captulo 3. Optimizacin dinmica: mtodos variacionales

Figura 3.10: Braquistcrona de extremos libres.

o bien de desigualdades integrales


Zb
G (y) = g (x, y (x) , y0 (x)) dx M
a

o de forma Lagrangiana en las que

(x, y (x) , y 0 (x)) = 0 x (a, b)

para funciones h, g, y constantes L y M dadas.


Tambin es posible ampliar el grupo de problemas de este tipo, permitiendo la inclusin de derivadas de
orden superior, funciones de ms de una variable o condiciones de frontera variables.
La teora general para resolver este tipo de problemas, conocida como clculo de variaciones, ha sido des-
arrollada a lo largo de 300 aos.

3.2 Lemas de Lagrange y du Bois-Reymond


Los siguientes resultados son necesarios para conseguir las ecuaciones de Euler-Lagrange, que son fundamen-
tales para la resolucin de problemas variacionales.

Lema 3.1 (du Bois-Reymond) Sea h (x) C [a, b] y sea D0 el conjunto de funciones definido como

D0 = v C 1 [a, b] v (a) = v (b) = 0

entonces se cumple
Zb
Si h (x) v 0 (x) dx = 0 v D0 = h (x) = c x [a, b]
a
con c una constante.

Demostracin: Sea c R, un nmero real cualquiera y definimos la funcin v (x) como


Z x
v (x) = (h (t) c) dt
a

c
SPH
3.2. Lemas de Lagrange y du Bois-Reymond 75

Figura 3.11: Braquistcrona con condiciones transversales.

Puesto que h (x) C [a, b], la funcin v (x) estar bien definida y por el teorema fundamental del clculo integral,
v (x) C 1 [a, b] y su derivada es
v 0 (x) = h (x) c
adems v (a) = 0.
Para que v (x) est en el conjunto D0 , adems tiene que ocurrir v (b) = 0. Definimos la constante c de forma
que esto ocurra, es decir
Z b Z b
1
v (b) = (h (t) c) dt = 0 o c= h (t) dt
a ba a

2
Puesto que (h (x) c) 0
Z b
2
(h (x) c) dx 0
a
0
utilizando la expresin de v (x)
Z b Z b Z b Z b
0 (h (x) c)2 dx = (h (x) c) v 0 (x) dx = h (x) v 0 (x) dx cv 0 (x) dx
a a a a

Z b
b
= h (x) v 0 (x) dx cv (x)|a
a

Como v D0 , entonces
Rb
a
h (x) v0 (x) dx = 0

v (b) = v (a) = 0
y por tanto
Z b
(h (x) c)2 dx = 0
a

c
SPH
76 Captulo 3. Optimizacin dinmica: mtodos variacionales

de donde
2
(h (x) c) 0
es decir
h (x) = c x [a, b]
Proposicin 3.2 Sea g (x) , h (x) C [a, b] y sea D0 el conjunto de funciones definido como

D0 = v C 1 [a, b] v (a) = v (b) = 0
entonces se cumple
Zb
Si [g (x) v (x) + h (x) v 0 (x)] dx = 0 v D0 = h (x) C 1 [a, b] y h0 (x) = g (x)
a

Demostracin: Definimos en primer lugar la funcin G (x) como


Z x
G (x) = g (t) dt x [a, b]
a

Puesto que g (x) es continua en [a, b] = G (x) C 1 [a, b] y G0 (x) = g (x)


Si integramos por partes el primer trmino de la integral, obtenemos
Z b Z b
0= 0
[g (x) v (x) + h (x) v (x)] dx = [h (x) G (x)] v 0 (x) dx + G (x) v (x)|ba
a a

pero como v (x) D0 v (a) = v (b) = 0, y por tanto


Z b
0= [h (x) G (x)] v 0 (x) dx v D0
a

Podemos ahora aplicar el lema anterior, para obtener


h (x) G (x) = c R x [a, b]
Pero entonces
h (x) = G (x) + c C 1 [a, b]
y derivando
h0 (x) = G0 (x) = g (x)
Corolario 3.3 Sea g (x) C [a, b] y sea D0 el conjunto de funciones definido como

D0 = v C 1 [a, b] v (a) = v (b) = 0
entonces se cumple
Zb
Si g (x) v (x) dx = 0 v D0 = g (x) = 0 x [a, b]
a

Basta con tomar h (x) 0 en la proposicin anterior. Este resultado admite la siguiente generalizacin
Lema 3.4 (Lagrange) Sea g (x) C [a, b] y sea D0,m el conjunto definido por
n o
D0,m = v C m [a, b]| v (k) (a) = v (k) (b) = 0, k = 0, . . . , m

para algn m = 0, 1, 2, . . .
Zb
g (x) v (x) dx = 0 v D0
a

entonces g 0 en [a, b]

c
SPH
3.3. Ecuaciones de Euler-Lagrange 77

Demostracin: Supongamos que g (c) > 0 para algn c (a, b). Entonces por la hiptesis de continuidad
de g, c est contenido en un intervalo [, ] (a, b) en el que |g (x) g (c)| g (c) /2 o g (c) /2 > 0. Por otra
parte la funcin m+1
[(x ) ( x)] x [, ]
v (x) =

0 x/ [, ]
es de clase C m (R), no negativa y no identicamente igual a 0 (las m primeras derivadas se anulan en y ). Se
obtiene as que sobre [a, b] el producto gv es continuo, no negativo, y no identicamente nulo. Por tanto
Z b
0< g (x) v (x) dx
a

que contradice la hiptesis.


Similarmente, la suposicin de que g (c) < 0 (o g (c) > 0) conduce a otra contradiccin y concluimos que
g (c) = 0, c (a, b), pero puesto que g es continua, tambin debe anularse en los extremos del intervalo; es
decir g 0 sobre [a, b]

3.3 Ecuaciones de Euler-Lagrange


Con el fin de mantener una estructura similar a la empleada en la teora de control ptimo que veremos en
el siguiente tema, emplearemos t como variable independiente, mientras que x ser la variable dependiente, por
tanto tendremos
x x (t)

3.3.1 Optimizacin dinmica sin restricciones


Recordemos que el problema general del clculo de variaciones se puede plantear en trminos de la optimi-
zacin de un funcional de la forma Z t1
J (x) = F (t, x (t) , x (t)) dt
t0
0 dx(t)
donde x (t) = x (t) = dt , es la derivada de x (t) respecto a la variable independiente. Supondremos que la
integral anterior existe y que las funciones empleadas son dos veces derivables en el intervalo [t0 , t1 ], es decir
x : [t0 , t1 ] R
x (t) C 2 ((t0 , t1 ))
El problema de optimizar J (x) se denomina problema de Lagrange. Estos problemas incluyen a los llamados
problemas de Bolza que pueden expresarse en la forma de optimizar un funcional descrito por
Zt1
t
JB (x) = [ (t, x (t))]t10 + F (t, x (t) , x (t) , t) dt (3.5)
t0

donde
[ (t, x (t))]tt10 = (x (t1 ) , t1 ) (x (t0 ) , t0 )
y por tanto slo es funcin de los valores iniciales y finales, mientras que la integral de F depende de toda la
trayectoria entre t0 y t1 . Si ahora hacemos el cambio
d
Fa (t, x (t) , x (t)) = F (t, x (t) , x (t)) + (t, x (t))
dt
el funcional se puede expresar como en un problema de Lagrange
Zt1
JB (x) = Fa (t, x (t) , x (t)) dt
t0

c
SPH
78 Captulo 3. Optimizacin dinmica: mtodos variacionales

En adelante buscaremos la solucin de problemas de la forma


Z t1
min J (x) = F (t, x, x)
dt
t0

donde

x x (t)

x x (t)

Queremos encontrar una funcin x (t) D tal que el funcional J (x) alcance el mximo o mnimo sobre
ella. Esta funcin x (t) se dice que es un extremal de J (x) y se cumplir por tanto que

J (x ) J (x) x (t) D

Supongamos que x (t) es una curva extremal para J (x) y consideremos la familia de funciones descritas
por
x (t) = x (t) + v (t)
y definidas en [t0 , t1 ]. Esta familia incluye a x (t), simplemente poniendo = 0. La funcin v (t) es llamada
una variacin en x (t) y un nmero pequeo, para permitir que x (t) pertenezca al conjunto D.
Con el fin de simplificar el proceso, supondremos que las funciones x (t) deben cumplir las siguientes condi-
ciones de frontera
x (t0 ) = x0
x (t) D

x (t1 ) = x1
Con estas condiciones y la definicin de x (t) se debe cumplir

x (t0 ) = x (t0 ) v (t0 ) = 0

x (t1 ) = x (t1 ) v (t1 ) = 0

Est claro por la definicin que para = 0 y cualquiera que sea v (t) todas las curvas tienen un mnimo

x (t) = x (t)|=0

y la funcin
() = J (x + v)
tendr un mnimo en = 0, independientemente del valor de v (t). La funcin () es una funcin real de
variable real y por tanto si tiene un mnimo en = 0, debe cumplir la condicin necesaria (para mnimo o para
mximo)
0 ()|=0 = 0 0 (0) = 0
que en trminos del funcional J se expresa como

J
(x + v) =0 (3.6)
=0

mientras que la condicin para mnimo es que



2J
2
(x + v) 0
=0

independientemente de v (t), sin embargo en la mayora de problemas ocurre que si la solucin existe, entonces
es una solucin de la ecuacin 3.6.

c
SPH
3.3. Ecuaciones de Euler-Lagrange 79

Vamos ahora a ver a qu nos conduce la ecuacin estacionaria 3.6. Supongamos que la funcin x (t) minimiza
J (x) entonces
Z t1

J (x + v) = F (t, x + v, x + v,
t) dt
t0

Si ahora derivamos respecto de


t
Z1
J
(x + v) = dt
F (t, x + v, x + v)

t0

donde por simplicidad se ha eliminado el smbolo de las ecuaciones. Bajo ciertas condiciones de derivabilidad
podemos pasar la derivada dentro de la integral
Z t1

(F (t, x + v, x + v))
dt
t0

y utilizando la regla de la cadena


Z t1
J F F
(x + ) = (t, x + v, x + v)
v+ (t, x + v, x + v)
v dt
t0 x x

al evaluar en = 0 obtenemos
Z t1
J F F
(x + ) = (t, x, x)
v+ (t, x, x)
v dt (3.7)
=0 t0 x x

El segundo trmino del integrando en la ecuacin 3.7 se puede integrar por partes, considerando

F d F
U = (t, x, x)
dU = (t, x, x)
dt
x dt x

dV = vdt
V =v

de donde se obtiene
Z t1 Z t1
t1
F F d F
(t, x, x)
vdt
=v
(t, x, x) v (t, x, x)
dt
t0 x x t0 t0 dt x

Esta expresin se sustituye en 3.7 y despus de sacar factor comn v obtendremos la expresin buscada
Z t1 t1
J F d F F

(x + v) = v (t, x, x)
(t, x, x)
dt + v = 0
(t, x, x) (3.8)
=0 t0 x dt x x t0

Como esta expresin debe ser 0, independientemente del valor de v (t) , entonces
Z t1
F d F
v (t, x, x)
(t, x, x)
dt = 0 (3.9)
t0 x dt x
t1
F
v
(t, x, x) = 0 (3.10)
x t0

Como estamos considerando que tanto x (t0 ) como x (t1 ) son fijos, y por tanto esto implicaba que v (t0 ) =
v (t1 ) = 0, el trmino 3.10 se anula y la condicin que queda es
Z t1
F d F
v (t, x, x)
(t, x, x)
dt = 0
t0 x dt x

c
SPH
80 Captulo 3. Optimizacin dinmica: mtodos variacionales

expresin podemos aplicar el lema de Lagrange para obtener la condicin



F d F
(t, x, x)
(t, x, x)
=0 (3.11)
x dt x

La ecuacin 3.11 es la llamada primera ecuacin de Euler-Lagrange y nos proporciona una condicin necesaria
(de primer orden) que debe cumplir cualquier extremal x (t) del funcional J.
Si no se realiza la integracin por partes de la ecuacin 3.7 obtenemos la llamada frmulacin dbil o
variacional de las ecuaciones de Euler Lagrange
Z t1 Z t1 Z t1
J F F F F
(x + ) =0 (t, x, x)
v+ (t, x, x)
v dt = 0 v (t, x, x)
dt = v (t, x, x)
dt
=0 t0 x x
t0 x t0 x

Definicin 3.5 Cualquier funcin x C 1 (t0 , t1 ) que cumpla la primera ecuacin diferencial de Euler-Lagrange
(ecuacin 3.11) se dice que es una funcin estacionaria de J (x).

Tradicionalmente se denomina a estas funciones funciones extremales o simplemente extremales, aunque no


proporcionen ni mximo ni mnimo local para el problema.

Observacin 3.6 Es posible encontrar la ecuacin 3.11 expresada como

d
Fx Fx = 0
dt
donde
F
Fx =
x
F
Fx =
x

3.4 Condiciones Transversales


En la seccin anterior se ha deducido la ecuacin de Euler-Lagrange (ecuacin 3.11) con la condicin de que
los valores de x (t) en los puntos t0 y t1 fueran fijos. Estas condiciones de frontera sobre la funcin x (t) son
tambin llamadas condiciones transversales o de transversalidad y permiten determinar la solucin particular
del problema a partir de la solucin general de la ecuacin diferencial 3.11.
Como en el caso de la braquistcrona estas condiciones transversales pueden generalizarse de forma que
puedan ser fijas o libres. De esta forma tendremos cuatro casos.

1. Extremos inicial y final fijos


Este es el caso empleado para deducir la ecuacin de Euler Lagrange. Para determinar la solucin particular
del problema se utilizar la ecuacin 3.11 junto con las condiciones de frontera

x (t0 ) = x0

x (t1 ) = x1

2. Extremos inicial y final variables


En este caso, ninguno de los valores de x (t) en t0 y t1 est condicionados y por tanto los valores de la
variacin v (t) no tienen porqu ser cero. Sin embargo para que la condicin 3.10 sea 0, independientemente
del valor de v (t) tendr que ocurrir
t1
F
= 0
(t, x, x)
x t0

c
SPH
3.4. Condiciones Transversales 81

Figura 3.12:

y podemos emplear como condiciones de frontera las siguientes



F F

(t, x, x) = 0 (t0 , x (t0 ) , x (t0 )) = 0
x t0 x

F F

(t, x, x) = 0 (t1 , x (t1 ) , x (t1 )) = 0
x t1 x

Estas son las llamadas condiciones naturales.


3. Extremo inicial fijo y extremo final libre
En este caso mientras que x (t0 ) = x0 est fijo, el valor de x (t) en t1 es indeterminado. Las condiciones
de frontera sern las siguientes

x (t0 ) = 0

F F

(t, x, x) = 0 (t1 , x (t1 ) , x (t1 )) = 0
x t1 x

4. Extremo inicial libre y extremo final fijo


Este caso es simtrico del anterior, ahora x (t0 ) es desconocido, pero x (t1 ) es fijo. Las condiciones de
frontera sern

F F

(t, x, x) = 0 (t0 , x (t0 ) , x (t0 )) = 0
x t0 x

x (t0 ) = 0

Ejemplo 3.7 Encuentra la curva con la mnima longitud entre el punto x (0) = 0 y la lnea t1 = 2.

Solucin: Recordemos que para una curva x (t) definida en un intervalo [t0 , t1 ] su longitud viene dada por
el funcional Z t1 p
J (x) = 1 + x 2 dt
t0

El planteamiento del problema del enunciado sera


Z 2 p
min 1 + x 2 dt
0

c
SPH
82 Captulo 3. Optimizacin dinmica: mtodos variacionales

junto con las condiciones transversales


x (0) = 0

x (2) libre

Planteamos la ecuacin de Euler-Lagrange para F (t, x, x)
= 1 + x 2
F
= 0
x

F x d F d x
= =
x 1 + x2 dt x dt 1 + x 2
y se obtiene la relacin

d x d x x
0 =0 =0 =c
dt 1 + x 2 dt 1 + x 2 1 + x 2
donde c es una constante. Si ahora despejamos x,
se obtiene

x 2 1 c2 = c2

como c2 6= 1 (por qu?) se obtiene teniendo en cuenta que x 2 0

c2
x 2 = = 2 x (t) =
1 c2
Si integramos
x (t) = t +
Para calcular las constante y necesitamos utilizar las condiciones transversales. Como x (0) es fijo tenemos

x (0) = 1 0 + = 1 = 1

Sin embargo, como x (2) es variable tendremos



F
=0
x t1 =2

es decir
x (2)
q =0
1 + x (2)2
Como x (t) = para todo t [0, 2]

=0=0
1 + 2
y el extremal buscado ser
x (t) = 1
La distancia mnima ser
Z 2 q Z 2 p Z 2
2
J (x ) = 1 + (x ) dt = 1 + 02 dt = dt = 2
0 0 0

Ejemplo 3.8 Resuelve el siguiente problema variacional


R 2 1 2
min 0 2
x + xx + x + x dt

s.a. x (0) libre

x (2) libre

c
SPH
3.4. Condiciones Transversales 83

Solucin: Se trata de un problema de extremos inicial y final libres. Planteamos en primer lugar la ecuacin
= 12 x 2 + xx + x + x
de Euler-Lagrange para F (t, x, x)

F
= x + 1

x
(x + 1) (
x + x)
=0x
=1 (3.12)
F d F

= x + x + 1 =x
+ x

x dt x

Integrando la ecuacin diferencial de 3.12

x
= 1 (3.13)

x = t + (3.14)

t2
x (t) = + t + (3.15)
2
Como antes, obtendremos los valores de y utilizando las condiciones transversales; que como x (0) y x (2)
son variables en este caso sern
F F
= 0 y =0
x t0 =0 x t1 =2

es decir
x (0) + x (0) + 1 = 0 y x (2) + x (2) + 1 = 0 (3.16)

Las expresiones de x (t) y x (t) vienen dadas en 3.14 y 3.15 respectivamente

x (0) = 0 + =

02
x (0) = 2 +0+ =

x (2) = 2 +

22
x (2) = 2 + 2 + = 2 + + 2

y sustituyendo en 3.16 se obtiene un sistema lineal



++1=0 + = 1


(2 + ) + (2 + + 2) + 1 = 0 3 + = 5

que tiene por soluciones

= 2
= 1

El extremal buscado es
t2
x (t) = 2t + 1
2
y el valor mnimo del funcional en x (t) ser
Z 2
1 2 4
J (x ) = (x ) + x x + x + x dt =
0 2 3

c
SPH
84 Captulo 3. Optimizacin dinmica: mtodos variacionales

3.4.1 Casos especiales de la primera ecuacin


En general resolver la ecuacin 3.11 es bastante difcil. Sin embargo cuando una o ms variables de F no
estn presentes explcitamente, entonces es posible encontrar una primera integral de la ecuacin diferencial de
forma relativamente sencilla. Veamos tres de estos casos.
Notar en primer lugar que si x (t) C 2 [a, b], al aplicar la regla de la cadena a la ecuacin 3.11 se obtiene
2
F d F F F 2F 2F
= + x + x
=0 (3.17)
x dt x x t x x x x 2

Cuando F = F (x)

F
En este caso x = 0 y la ecuacin 3.11 se transforma en
d F
=0
dt x
o equivalentemente
F
=c
x
con c una constante.
2F 2F
En el caso particular de que x (t) C 2 [a, b], como en este caso tambin t x =0y x x = 0 la ecuacin
3.17 se transforma en
2F
x=0
x 2
De aqu se obtiene
x
=0



o




2F
x 2 = 0
Si x
= 0 entonces
x (t) = t +
con , R, y obtenemos como solucin una familia biparamtrica de rectas. Los valores de y se determinan
utilizando las condiciones transversales corresopondientes.
2
Si, en caso contario, ocurre xF2 = 0 y esta ecuacin tiene una o varias races reales x = ki , entonces
integrando
y = ki x + c
que es una familia monoparamtrica de rectas, que podemos suponer, est contenida en la familia biparamtrica
descrita con anterioridad. De esta forma, en el caso F = F (x)
las funciones estacionarias son todas lneas rectas.
Ejemplo 3.9 La longitud del arco de una curva es de la forma:
Z bp
L (x) = 1 + x 2 dx
a

= 1 + x 2 .
se trata por tanto del caso anterior, donde F (x)
La ecuacin de Euler-Lagrange para este caso particular es

d F d x
=0 =0
dt x dt 1 + x 2
y derivando respecto a t
x
1 + x 2 x
1 + x 2 1
x
=0 x
=0
1 + x 2 [1 + x 2 ]3/2
cuya nica solucin es
x
= 0 x (t) = t +

c
SPH
3.4. Condiciones Transversales 85

Cuando F = F (t, x)

F
En este caso, tambin ocurre x = 0 y la ecuacin 3.11 se reduce a

d F
=0
dt x
que tiene como primera integral
F
=c
x
con c una constante. Adems, como la ecuacin de primer orden obtenida no contiene a x, sta puede integrarse
o bien resolvindola directamente respecto a x e integrando o bien introduciendo un parmetro escogido en
forma adecuada.

Ejemplo 3.10 Como se ha visto al principio de la seccin para caracterizar las geodsicas suaves sobre una
esfera de radio R haba que minimizar el funcional
Z1 q
2 2 2
L (Y ) = R (t) sen (t) + (t) dt
0

con

(0) = 0

(1) = 0

(1) = 1

A partir de las ecuaciones paramtricas ( (t) , (t)) podemos obtener una expresin de en trminos de :
= x ( (t)) de donde por una parte

dx d (t)
(t) = = x () (t) = x () (3.18)
d dt (t)
y por otra
d (t)
(t) = (t) dt = d (3.19)
dt
por lo que el funcional se puede expresar como
v !
Z1 q Z1 u
u (t) 2 2
L (Y ) = R 2 2 2
(t) sen (t) + (t) dt = R (t) t sen (t) + 1dt
(t)
0 0

y utilizando 3.18 y 3.19 obtenemos


1 q
Z
L (y) = R 1 + (x () sen )2 d
0

Si tomamos ahora = t como variable independiente, el problema es buscar el mnimo de


Zt1 q
L (y) = R 1 + (x (t) sen t)2 dt
0

c
SPH
86 Captulo 3. Optimizacin dinmica: mtodos variacionales

sobre el conjunto

D1 = x C 1 [0, t1 ] : x (t1 ) = 0
En este caso q
2
= R 1 + x 2 sen t
F = F (t, x)
por tanto
F Rx sen2 t
=
x 1 + x 2 sen2 t
de manera que las funciones estacionarias x (t) son aquellas para las que sucede

Rx sen2 t
=c
1 + x 2 sen2 t
siendo c una constante, cuyo valor podemos determinar teniendo en cuenta que esta expresin es vlida para
todos los valores de t en el intervalo [0, t1 ] y tomando en particular t = 0

Rx sen2 t
=0
1 + x 2 sen2 t t=0

luego
c=0
De manera que tiene que cumplirse x (t) = 0 y de ah

x (t) = A

con A constante. Tal y como se dedujo en la seccin correspondiente, esta expresin de x (t) corresponde a los
crculos mximos de la esfera.

Cuando F = F (x, x)

Si F no depende explcitamente de la variable t y la funcin x (t) C 2 ([t0 , t1 ]), la ecuacin de Euler-Lagrange
3.11 se reduce a una de primer orden, ya que llamando

H (t) = F (x (t) , x (t))

al derivar respecto de x, se obtiene

d F F F
H = [H] = + x + x

dt t x x
F
y teniendo en cuenta que t = 0 y que tambin se cumple la ecuacin de Euler-Lagrange 3.11 entonces

F F d F F d F
H = x + x
= x + x
= x
x x dt x x dt x

e integrando
F
H= x + c
x
con c una constante. Como H = F se tiene la ecuacin diferencial de primer orden

F
F x = c (3.20)
x
Ejemplo 3.11 Resuelve el problema de la braquistcrona.

c
SPH
3.4. Condiciones Transversales 87

Solucin: Teniendo en cuenta en la ecuacin de la braquistcrona x era la variable independiente, mientras


que y era funcin de x, el problema consista en minimizar la expresin
Zt1
1 1 + x 2
T (y) = dt
2g x
0

sobre el conjunto de funciones


Z t1
3/2
D = 0 x (t) C 1 [0, t1 ] : x (0) = 0, x (t1 ) = x1 ; (x (t)) dt < +
0

(la ltima condicin se impone para que la integral sea convergente en 0).
En este caso
1 + x 2
=
F (x, x)
x
salvo el factor constante 1 . De aqu obtenemos
2g

F x
=
x x 1 + x 2
Y utilizando la expresin 3.20

1 + x 2 x 1 1
x = c =c=
x x 1 + x2 x 1 + x2 k

Si se eleva ambos miembros al cuadrado teniendo en cuenta adems que x > 0


r
x
x 1 + x 2 = k2 2
x = 1 (3.21)
k x
Si ahora introducimos el cambio de variable dependiente = (t) de forma que

2 k2
x () = k2 sen = (1 cos ) 0 < 2
2 2
entonces

k2 x () = k2 cos2 y x () = c2 (t) sen cos
2 2 2
Y sustituyendo ambas expresiones en la ecuacin diferencial 3.21

2 k2
k2 sen = 1 o (1 cos ) = 1
2 2
e integrando
k2
( sen ) = t C
2
con C una constante.
Si hacemos el cambio k2 /2 = K 2 se obtienen las ecuaciones paramtricas de la braquistcrona

t = K 2 ( sen ) + C

x = K 2 (1 cos )
Las constantes K y C se determinan a partir de las condiciones de contorno

x (0) = 0

x (t1 ) = x1

c
SPH
88 Captulo 3. Optimizacin dinmica: mtodos variacionales

es decir, para 0 y 1 debe ocurrir


0 = K 2 (0 sen 0 ) + C

0 = K 2 (1 cos 0 )

t1 = K 2 (1 sen 1 ) + C

x1 = K 2 (1 cos 1 )

3.4.2 La Segunda Ecuacin



Cuando F C 1 [t0 , t1 ] R2 e x es una solucin de clase C 1 ([a, b]) de la primera ecuacin Euler-Lagrange
(ecuacin 3.11) la integracin directa produce
Z t Z t Z t
d F F d F F F F
= dt = dt = dt + A (3.22)
dt x x t0 dt x t0 x x t0 x

con A una constante.


Por otra parte, si x C 2 ([a, b]) y derivamos F respecto a t, se obtiene

dF F F F F d F F F d F
= + x + x
= + x + x
= + x
dt t x x t dt x x t dt x
y por tanto
d f F
F x =
dt x t
o integrando Z t
F F
F x = dt + B
x t0 t
donde B es una constante.
Proposicin 3.12 Sea Z t1
J (x) = F (t, x, x)
dx
t0

con F C 1 [t0 , t1 ] R2 y

D = x C 1 [t0 , t1 ] : x (t0 ) = x0 ; x (t1 ) = x1
Si x0 D es una funcin extremal para J en D, entonces en [t0 , t1 ] la funcin x0 cumple la segunda ecuacin
de Euler-Lagrange Z t
F F
F x = dt + B (3.23)
x t0 t
para alguna constante B.

3.5 Condiciones de segundo orden


Para establecer la naturaleza del extremo es necesario el clculo de

2J
(x + )
2 =0

Recordemos que la primera derivada respecto a para el funcional era


Z t1
J F F
(x + ) = (t, x + v, x + v,
t) + (x + v, x + v,
t) v dt
t0 x x

c
SPH
3.5. Condiciones de segundo orden 89

y derivando otra vez respecto de


Z t1
2J F F
(x + ) = (t, x + v, x + v)
v+ (t, x + v, x + v)
v dt
2 t0 x x

metiendo la derivada dentro de la integral


Z t1
2J F F
(x + ) = (t, x + v, x + v)
v+ (t, x + v, x + v)
v dt
2 t0 x x

y utilizando de nuevo la regla de la cadena


Z t1 2
2J F 2F
(x + ) = (t, x + v, x
+ v)
v + (t, x + v, x
+ v)
v
v+
2 t0 x2 xx

2
F 2F
(t, x + v, x + v)
v+ (t, x + v, x + v) v vdt
x x x 2

y agrupando
Z t1
2F 2 2F 2F
(t, x + v, x
+ v)
v + 2 (t, x + v, x
+ v)
v v
+ v 2 dt
(t, x + v, x + v)
t0 x2 xx
x 2

y particularizando en = 0
Z t1 2
2J F 2F 2F
(x + ) = v2 + 2
(t, x, x) (t, x, x)
v v + v 2 dt
(t, x, x) (3.24)
2 x2 xx
x
2
=0 t0

Esta ecuacin puede reescribirse en notacin matricial como


2
F 2F
Z 2 v Z t1 v
2J t 1
x xx

2
(x + v) =
(v, v) dt = HF
(v, v) dt
t0 2F 2F t0
=0 v v
xx
x 2
Si la matriz HF es semidefinida positiva (o negativa) entonces x (t) podr ser mnimo (o mximo respecti-
vamente). Alternativamente podemos aplicar integracin por partes en la 3.24, concretamente en el segundo
trmino dentro de la integral. Tomando en este caso
2
2F d F 2F
U = (t, x, x)
v dV = (t, x, x)
v+ (t, x, x)
v
xx
dt xx
xx

dV = vdt
V =v

la integral queda
Z t1 Z t1 2
t1
2F 2F d F 2F
(t, x, x)
v vdt
= v2

(t, x, x) v (t, x, x)
v+ (t, x, x)
v dt
t0 xx
xx
t0 t0 dt xx
xx

t1 Z t1 2 Z t1 2
2
2 F
2 d F F
= v

(t, x, x) v (t, x, x)
dt (t, x, x)
v vdt

xx
t0 t0 dt xx
t0 xx

pasando el tercer trmino del miembro de la derecha a la izquierda


Z Z t1
t1
2F t1
d 2F 2F
2 (t, x, x)
v vdt
= v2 dt + v 2
(t, x, x)
(t, x, x)
t0 xx
t0 dt xx
xx
t0

c
SPH
90 Captulo 3. Optimizacin dinmica: mtodos variacionales

y sustituyendo en 3.24
Z t1 2 2 t1
2J F 2 d F 2F 2
2 F

(x + v) = (t, x, x)
v 2
v (t, x, x)
+ (t, x, x)
v
2
dt + v (t, x, x)

2 2 2
=0 t0 x dt xx
x xx
t0

agrupamos en v2
Z t1 2 2 2 t1
2J F d F F 2
2 F


(x + v) = (t, x, x)
(t, x, x)
2
v + (t, x, x) 2
v dt + v
(t, x, x)
2 x 2 dt xx
x2 xx

=0 t0 t0

La ecuacin se simplifica en el caso de que los extremos inicial y final sean fijos, puesto que en este caso
v (t0 ) = v (t1 ) = 0
Z t1 2 2 2
2J F d F F
(x + v) = (t, x, x)
(t, x, x)
v 2
+ (t, x, x)
v 2 dt
2 x 2 dt xx
x
2
=0 t0

Para establecer si x es un mnimo o mximo de J, la segunda condicin necesaria es que



2J
(x + v) 0
2 =0

independientemente del valor de v (t) y slo sobre x (t), es decir


2
2F d F
(t, x, x)
(t, x, x)
0
x2 dt xx

2F
(t, x, x)
0
x 2
En la mayora de los problemas slo ser necesaria la condicin de primer orden (ecuacin de Euler-Lagrange).
En otros ejemplos es posible que el integrando se 0, pero no se cumplan las condiciones anteriores, debido
probablemente a que v y v no sean independientes entre s.
Ejemplo 3.13 Aplica las condiciones de segundo orden al problema de encuentrar la curva con la mnima
longitud entre el punto x (0) = 0 y la lnea t1 = 2.
Solucin: Encontramos anteriormente que la solucin para el problema vena dada por la curva
x (t) = 1
y recordemos tambin que para este problema tenamos
F
= 0
x
F x
=
x 1 + x 2
Para aplicar las condiciones de segundo orden tendremos que derivar otra vez
2F

2
x2 = x (0) = 0 2F d F
(t, x, x)
(t, x, x)
0
2F x2 dt xx

x x = v (0) = 0

2F x 1
= =
x 2 x 1 + x 2
(1 + x 2 )3/2
que al utilizar x (t) = 1 y por tanto x (t) = 1
2F 1
2
= 3/2 = 1 > 0
x
1 + (0)2

c
SPH
3.6. Condiciones suficientes con convexidad 91

Ejemplo 3.14 Aplica las condiciones de segundo orden al problema


R 2 1
min 0
2
2x + xx + x + x dt

s.a. x (0) libre

x (2) libre

Solucin: Encontramos anteriormente que la solucin para el problema vena dada por la curva

t2
x (t) = 2t + 1
2
y recordemos tambin que para este problema tenamos

F
= x + 1
x
F
= x + x + 1
x
Para aplicar las condiciones de segundo orden tendremos que derivar otra vez
2F

=
(x + 1) = 0
x2 x 2F d 2F
(x, x,
t) (x, x,
t) = 0 0
2F x2 dt xx

x x = x (x + 1) = 1
2F
= (x + x + 1) = 1 0
x 2 x

3.6 Condiciones suficientes con convexidad


Teorema 3.15 Dado el problema
Zt1
min J (x) = F (t, x, x)
dt
t0

Entonces si x es solucin de las ecuaciones de Euler-Lagrange y adems F (t, x, x) es estricamente convexa


como funcin de R3 en R3 , en las variables x y x,
es decir, la funcin F (t, x, x)
es convexa para cada valor de
t fijo en las componentes x y x x es la nica solucin del problema variacional.

Ejemplo 3.16 Definimos el siguiente problema variacional

ZT
k (t) 2
min J (x) = x (t) f (t) x (t) dt
2
0

definido sobre el siguiente conjunto



D = x : C 1 [0, T ] x (0) = x (T ) = 0

Solucin: Las ecuaciones de Euler-Lagrange para este problema son

F
= f (t)
x

F d F
= k (t) x (t) = k (t) x (t) + k (t) x
(t)
x dt x

c
SPH
92 Captulo 3. Optimizacin dinmica: mtodos variacionales

y por tanto tenemos que resolver las siguiente ecuacin diferencial


d
(k (t) x (t)) = f (t)
dt

x (t0 ) = 0

x (t1 ) = 0

Veremos a continuacin si la solucin es nica, para ello veremos si F es convexa en las variables x y x.

Calculamos las derivadas correspondientes


2F

=0
F x2
= f (t)
x


2F
=0 0 0
x x
HF =

2F 0 k (t)

=0
F x x
= k (t) x (t)
x 2

F = k (t)

x 2
por tanto F ser convexa si k (t) > 0, t [0, T ].

1. Por ejemplo, como caso particular podemos tomar

k (t) = 1

f (t) = C

donde C es constante. En este caso


0 0
HF =
0 1
que es semidefinida positiva y por tanto una solucin de las ecuaciones de Euler-Lagrange ser una solucin
del problema de minimizar el funcional
Zt1
1 2
min J (x) = x (t) Cx (t) dt
2
t0

Recordemos que las ecuaciones de Euler-Lagrange para este problema era


d d
(k (t) x (t)) = f (t) (x (t)) = C x
(t) = C
dt dt
cuya solucin general es
C 2
x (t) = t + c1 t + c2
2
con c1 y c2 constantes. El valor de las constantes se determina utilizando las condiciones transversales

x (0) = 0 c2 = 0

C 2
x (T ) = 0 T + c1 T + c2 = 0
2
c
SPH
3.7. Optimizacin dinmica con restricciones 93

cuya solucin es
CT
c1 =
2

c2 = 0
Luego
CT 2 CT CT
x (t) = t + t= t t2
2 2 2
es la solucin buscada.
2. Por ejemplo si k = 1 y f (t) = sen (nt). En este caso la ecuacin de Euler-Lagrange es
d d
(k (t) x (t)) = f (t) (x (t)) = sen (nt)
dt dt
y tenemos que resolver el problema
x
(t) = sen (nt)

x (0) = x (1) = 0
Integrando
1
x (t) = cos (nt) + c1
n
1
x (t) = 2 sen (nt) + c1 t + c2
(n)
y aplicando las condiciones transversales
x (0) = c2 c2 = 0

x (1) = c1 + c2 c1 = 0
luego
1
u (x) = sen (nt)
(n)2

3.7 Optimizacin dinmica con restricciones


Para problemas isoperimtricos, como en el caso del problema de la catenaria, es posible establecer ecuaciones
de Euler-Lagrange similares.

3.7.1 Restricciones de igualdad


Podemos resolver el problema
Zt1
min J (x) = F (t, x, x)
dt
t0

s.a. i (t, x, x)
=0 i = 1, . . . , m

x (t0 ) = x0

x (t1 ) = x1

c
SPH
94 Captulo 3. Optimizacin dinmica: mtodos variacionales

buscando la solucin del problema modificado:

Zt1
Pm
min Ja (x) = F (t, x, x)
+ i=1 i i (t, x, x)
dt
t0

s.a.
x (t0 ) = x0

x (t1 ) = x1

3.7.2 Restricciones Integrales

En esta seccin damos las condiciones necesarias para que una funcin sea extremal de un funcional sujeto
a restricciones de tipo integral, tanto de igualdad como de desigualdad.

Teorema 3.17 Dado el problema

Zt1
min J (x) = F (t, x, x)
dt
t0

R t1
s.a. t0
hi (t, x, x)
dt = i i = 1, . . . , m

x (t0 ) = x0

x (t1 ) = x1

si 1 , . . . , m R, tal que
m
X
F (t, x, x)
= F (t, x, x)
+ i hi (t, x, x)

i=1

para cualquier t fijo. Si x es solucin del sistema de ecuaciones


es [estrictamente] convexa respecto de (x, x)

F d F
= 0
x dt x

x (t0 ) = x0

x (t1 ) = x1

Z t1
hi (t, x, x)
dt = i
t0

entonces x es solucin [la nica] del problema.

c
SPH
3.7. Optimizacin dinmica con restricciones 95

Ejemplo 3.18 Resuelve el siguiente problema

Z1
2
min J (x) = x (t) dt
0

Z1
s.a. x (t) dt = 1
0

x (0) = 0

x (1) = 1

Solucin: Construimos el coste ampliado F = F + h

F = x 2 + x

Comprobamos la convexidad de F , para ello necesitamos derivar respecto de (x, x)




2 F

=0

F x2


=



0 0
x 2 F 2 F

= = = 0 = H F =
F
x x xx

0 2
= 2x


x 2

F

2
=2
x

que es semidefinida positiva y por tanto F es convexa en (x, x)



Ahora utilizamos las ecuaciones de Euler-Lagrange para F
!
F d F d
= 0 (2x) = 0 2
x=0
x dt x dt

por tanto

x
=
2
e integrando dos veces

x = t + c1
2
2
x= t + c1 t + c2
4
Donde c1 y c2 son constantes. Los valores de estas constantes y del multiplicador los podemos calcular
utilizando las condiciones transversales y la condicin integral.

x (0) = 0 c2 = 0


x (1) = 0 + c1 + c2 = 1
4
t=1
R1 R1 2 3 c1 2 c1
0
x (t) dt = 1 0 t + c1 t + c2 dt = t + t + c2 t = + =1
4 12 2 t=0 12 2

c
SPH
96 Captulo 3. Optimizacin dinmica: mtodos variacionales

Se obtiene como solucin


c1 = 6

c2 = 0

= 24

La solucin ptima del problema es


x (t) = 6t2 + 6t

y el coste ptimo
Z Z t=1
1
2
1
2 (12t + 6)3
J (x ) = (x ) dt = (12t + 6) dt = = 12
0 0 36
t=0

Teorema 3.19 Dado el problema

Zt1
min J (x) = F (t, x, x)
dt
t0

R t1
s.a. t0
hi (t, x, x)
dt = i i = 1, . . . , m
R t1
t0
gj (t, x, x)
dt j j = 1, . . . , p

x (t0 ) = x0

x (t1 ) = x1

si 1 , . . . , p 0 R, tal que

m
X p
X
F (t, x, x)
= F (t, x, x)
+ i hi (t, x, x)
+ j gj (t, x, x)

i=1 j=1

para cualquier t fijo. Si x es solucin del sistema de ecuaciones


es [estrictamente] convexa respecto de (x, x)

F d F
= 0
x dt x

x (t0 ) = x0

x (t1 ) = x1

Z t1
hi (t, x, x)
dt = i
t0
Z t1
j gj (t, x, x)
dt j = 0
t0

entonces x es solucin [la nica] del problema.

c
SPH
3.7. Optimizacin dinmica con restricciones 97

Ejemplo 3.20 Resuelve el siguiente problema


Z1
min J (x) = x (t)2 dt
0

Z1
1
s.a. x (t) dt
3
0

x (0) = 0

x (1) = 1

Solucin: Construimos el coste ampliado F = F + h


F = x 2 + x2
Comprobamos la convexidad de F , para ello necesitamos derivar respecto de (x, x)


2 F

= 2

F x 2




= 2x

2 0
x 2 2
= F = F = 0 = H F =

x x xx


F 0 2
= 2x



x 2 F

=2
x 2

que para > 0 es definida positiva y por tanto F es estrictamente convexa (para = 0, sera semidefinida
positiva y por tanto convexa).
Ahora utilizamos las ecuaciones de Euler-Lagrange para F
!
F d F d
= 0 2x (2x) = 0 2x 2x=0
x dt x dt

por tanto
x
= x
Como estamos minimizando, interesa que 0 y por tanto distinguimos dos casos
= 0 x (t) = c1 t + c2
=0x

t
>0x
= x x (t) = c1 e + c2 e t

Para = 0 y utilizando las condiciones transversales se obtiene



x (0) = 0 c2 = 0
= x (t) = t

x (1) = 1 c1 = 1
que cumple la condicin integral, ya que
Z 1 Z t=1
2
1
2 t3 1
x (t) dt = t dt = =
0 0 3 t=0 3
El valor del funcional para esta funcin es
Z 1 Z 1
J (x) = x 2 dt = (1)2 dt = 1
0 0

c
SPH
98 Captulo 3. Optimizacin dinmica: mtodos variacionales

Para > 0 utilizamos las condiciones transversales y la condicin de holgura integral



x (0) = 0 c1 + c2 = 0





x (1) = 1 c1 e + c2 e =1


R1 R1

2 1 2 1
0
x (t) dt 3 = 0 0
x (t) dt = 3

De la primera ecuacin
c2 = c1
y de la segunda
1

c1 e + c2 e
= 1 c1 e e = 1 c1 =
2 senh
y por tanto la funcin es de la forma

senh t
t t
x (t) = c1 e e =
senh

Utilizamos ahora la condicin integral


Z Z
1
2 1 1
senh2 t 1
x dt = dt =
0 3 0 senh2 3
Z Z 1
1
senh2 t 1

2
dt =
2
(cosh (2 t) 1) dt
0 senh 2 senh 0
integrando
Z t=1
1 1
1 senh 2 t

(cosh (2 t) 1) dt = t
2 senh2 0 2 senh2 2
t=0

que nos proporciona la ecuacin


!
1 senh 2 1
1 =
2 senh2 2 3

cuya solucin se obtiene (utilizando un programa adecuado) es

=0

que es el mismo caso que en el apartado anterior.

3.8 Formulacin Variacional


Dado el funcional Z t1
J (x) = F (t, x, x)
dt
t0
supongamos que
x (t) = x (t) + v (t)
x (t) = x (t) + v (t)
Podemos emplear el desarrollo de Taylor para F
F F
F (t, x + v, x + v)
' F (t, x , x)
+ v + v
x x
c
SPH
3.9. Extensin de los mtodos variacionales 99

Si definimos
F = F (t, x + v, x + v)
F (t, x , x )
entonces Z Z
t1 t1
F F
J = (F (t, x + v, x + v)
F (t, x , x )) dt ' v + v dt
t0 t0 x x
Si definimos la variacin en x y x como
x = v

x = v
entonces podemos poner Z
t1
F F
J ' x + x dt
t0 x x
La variacin de J es Z
t1
F F
J = x + x dt
t0 x x
como para = 0 ocurre J = 0
Z t=t
t1
F d F F 1
J = xdt + x =0
t0 x dt x x t=t0
que produce las ecuaciones en variaciones siguientes

F d F
=0
x dt x
t=t
F 1
x =0
x t=t0

3.9 Extensin de los mtodos variacionales


En el apartado anterior se han desarrollado las ecuaciones de Euler-Lagrange para funcionales que dependan
de una sla variable independiente, t, y de una funcin x (t) y su primera derivada x (t), en esta seccin se
plantean si profundizar las ecuaciones de Euler-Lagrange para problemas que dependen tanto de funciones
vectoriales, como funcionales que dependen de derivadas de orden superior, como de funcioanles que dependen
de varias variables independientes.

3.9.1 Funciones Vectoriales


Dado el problema
Zt1
min J (x) = F (t, x1 , . . . , xn , x 1 , . . . , x n ) dt
t0

s.a. xk (t0 ) = xk,0 k = 1, . . . , n

x (t1 ) = xk,1 k = 1, . . . , n
las ecuaciones de Euler-Lagrange que debe cumplir una funcin vectorial x (t) = (x1 (t) , . . . , xn (t)) para ser
un extremal del funcional anterior es

F d F
= 0 k = 1, . . . , n
xk dt x k
t=t
F 1
x =0 k = 1, . . . , n
x k t=t0

c
SPH
100 Captulo 3. Optimizacin dinmica: mtodos variacionales

Ejemplo 3.21 Resuelve el siguiente problema


/2
Z
min J (x) = x 21 + x 22 + 2x1 x2 dt
0

s.a. x1 (0) = 0 x2 (0) = 0



x1 =1 x2 = 1
2 2
En este caso
F (t, x1 , x2 , x 1 , x 2 ) = x 21 + x 22 + 2x1 x2
y las ecuaciones de Euler-Lagrange son
1. Para k = 1
F
= 2x2

x1

F d F
= 0 2x2 2
x1 = 0 x2 = x
1
F d F
x1 dt x 1
= 2x 1 = 2
x1

x 1 dt x 1
2. Para k = 2
F
= 2x1

x2

F d F
= 0 2x1 2
x2 = 0 x1 = x
2
F d F
x2 dt x 2
= 2x 2 = 2
x2

x 2 dt x 2
Para encontrar los extremales hay que resolver el sistema

x1 = x2

x2 = x
1
Si derivamos dos veces en la primera ecuacin se obtiene
d4 x2
x
1 =
dt4
y al sustituir en la segunda
d4 x2
x2 =
dt4
ecuacin diferencial de cuarto orden, que se resuelve fcilmente utilizando las races de su polinomio caracterstico
(p () = 4 1) que son = 1, i y por tanto la solucin general es
x2 (t) = c1 et + c2 et + c3 cos t + c4 sen t
y como x1 = x
2 , entonces
x1 (t) = c1 et + c2 et c3 cos t c4 sen t
Los valores de ck se encuentran mediante las condiciones transversales
x1 (0) = 0 c1 + c2 + c3 = 0

x2 (0) = 0 c1 + c2 c3 = 0

x1 = 1 c1 e/2 + c2 e/2 + c4 = 1
2

x2 = 1 c1 e/2 + c2 e/2 c4 = 1
2
c
SPH
3.9. Extensin de los mtodos variacionales 101

Cuya solucin es
c1 = 0; c2 = 0; c3 = 0; c4 = 1
Ejemplo 3.22 Encuentra las ecuaciones de Euler-Lagrange para los problemas variacionales cuyo funcional es
de la forma
Zt1
min J (x) = F (x 1 , x 2 ) dt
t0

Solucin: En este caso las ecuaciones de Euler-Lagrange son para x1


F
=0

x1

F d F d F
= 0 0 =0
F d F x1 dt x 1 dt x 1


x 1 dt x 1
y derivando respecto a t

d F F F F F F
=0 + x 1 + 1 +
x x 2 + 2 = 0
x
dt x 1 t x 1 x1 x 1 x 1 x 1 x2 x 1 x 2 x 1
y teniendo en cuenta que F slo depende de x 1 y x 2 se obtiene

F F
1 +
x 2 = 0
x
x 1 x 1 x 2 x 1
del mismo modo para x2 se obtiene

F F
1 +
x 2 = 0
x
x 1 x 2 x 2 x 2
Ambas ecuaciones se pueden poner en forma matricial
2
F F
x 21 x 1 x 2 x
1 0

=
2
F F x
2 0
x 2 x 1 x 22
cuya solucin trivial es
x
1 = x
2 = 0
es decir
x1 (t) = c1 t + c2

x2 (t) = c3 t + c4
con ck R, constantes.

3.9.2 Funcionales con derivadas de orden superior


Dado el problema
Zt1

min J (x) = F t, x, x,
x, . . . , x(n) dt
t0

s.a. x(k) (t0 ) = xk,0 k = 0, . . . , n 1

x(k) (t1 ) = xk,1 k = 0, . . . , n 1

c
SPH
102 Captulo 3. Optimizacin dinmica: mtodos variacionales

las ecuaciones de Euler-Lagrange que debe cumplir una funcin x (t) para ser un extremal del funcional anterior
es
F d F d2 F n d F
+ 2 + + (1) =0
x dt x dt x dtn x(n)

Ejemplo 3.23 Resuelve el problema variacional

Z1
min J (x) = 2 dt
1+x
0

s.a. x (0) = 0 x (1) = 1

x (0) = 1 x (1) = 1

Solucin: Para este problema la ecuacin de Euler-Lagrange es la siguiente



F
=0

x





F d F F d F d2 F
x
=0
dt x
=0 + = 0 2x(4 = 0

x dt x dt2 x





2
F d F d F (4
= 2
x (3
= 2x 2 = 2x
x dt x dt x

Ecuacin de cuarto grado cuya solucin general es

t3 t2
x (t) = c1 + c2 + c3 t + c4
6 2
y utilizando las condiciones transversales obtenemos como solucin

c1 = c2 = c4 = 0

c3 = 1

Ejemplo 3.24 Resuelve el problema variacional


/2
Z
2
min J (x) = x2 + t2 dt
x
0

s.a. x (0) = 1 x (/2) = 0

x (0) = 0 x (/2) = 1

Solucin: Para este problema la ecuacin de Euler-Lagrange es la siguiente



F
= 2x

x





F d F F d F d2 F
x
=0
dt x
=0 + = 0 2x+2x(4 = 0

x dt x dt2 x





2
F d F d F (4
= 2
x (3
= 2x 2 = 2x
x
dt x dt x

c
SPH
3.9. Extensin de los mtodos variacionales 103

Ecuacin de cuarto grado cuya solucin general es


x (t) = c1 et + c2 et + c3 cos t + c4 sen t
y utilizando las condiciones transversales obtenemos como solucin
c1 = c2 = c4 = 0

c3 = 1

3.9.3 Funcionales vectoriales con derivadas de orden superior


Dado el problema
Zt1
(n ) (n ) (n )
min J = 1 , . . . , x1 1 , x2 , x 2 , x
F t, x1 , x 1 , x 2 , . . . , x2 2 , . . . , xm , x m , x
m , . . . , xm m dt
t0

(k)
s.a. xj (t0 ) = x0j,k R

(k)
xj (t1 ) = x1j,k R

las ecuaciones de Euler-Lagrange (en este tipo de problemas se llaman ecuaciones de Euler-Poisson) que debe
cumplir una funcin x (t) para ser un extremal del funcional anterior es
!
F d F d2 F nk d F
+ 2 + + (1) = 0 k = 1, . . . , m
xk dt x k dt xk dtnk x(nk )
k

3.9.4 Funcionales derivadas parciales


Dado el problema RR
min J (u) =
F (x, y, u, ux , uy ) dxdy
podemos tratar de encontrar las ecuaciondes de Euler-Lagrange para este tipo de problemas utilizando el
procedimiento realizado para el caso de una sola variable independiente. Para ello, si consideramos que u es la
solucin del problema anterior, podemos estudiar qu ocurre cerca de esa solucin y podemos definir la familia
de funciones
u = u + v (x, y)
Queremos saber cmo vara J cuando hacemos cambios en y observar qu ocurre cuando 0,
ZZ
F (x, y, u + v, ux + vx , uy + vy ) dxdy

y derivamos ahora respecto a


Z Z ZZ
J
= F (x, y, u + v, ux + vx , uy + vy ) dxdy = (F (x, y, u + v, ux + vx , uy + vy )) dxdy

utilizando la regla de la cadena y particularizando en = 0


ZZ
J F F F
= v+ vx + vy dxdy
=0 u ux uy

y para encontrar un extremal tenemos que igualar la ecuacin anterior a 0


ZZ
J F F F
= v+ vx + vy dxdy = 0 (3.25)
=0 u ux uy

c
SPH
104 Captulo 3. Optimizacin dinmica: mtodos variacionales

Ahora por una parte



F F F F F F
v = v+ vx vx = v v
x ux x ux ux ux x ux x ux
y
F F F F F F
v = v+ vy vy = v v
y uy y uy uy uy y uy y uy
y por tanto
ZZ ZZ ZZ
F F F F F F
vx + vy dxdy = v + v dxdy v+ v dxdy
ux uy x ux y uy x ux y uy

Si utilizamos el teorema de Green


ZZ Z
N M
+ dxdy = N dy M dx
x y

obtenemos

ZZ Z
F
F
F F
v + v dxdy = dy dx v = 0
x ux y uy ux uy
| {z } | {z }
N M

luego ZZ ZZ
F F F F
vx + vy dxdy = v+ v dxdy
ux uy x ux y uy

que sustituimos en 3.25


ZZ ZZ ZZ
F F F F F F
v+ vx + vy dxdy = v dxdy v+ v dxdy
u ux uy u x ux y uy

Por otra parte


d F 2F 2F 2F 2F
= + ux + 2
uxx + uxy
dx ux xux uux ux uy ux
y
d F 2F 2F 2F 2F
= + uy + 2
uyy + uxy
dy uy yuy uuy uy uy ux
la integral buscada es
ZZ ZZ
F F F F F F
v+ vx + vy dxdy = vdxdy
u ux uy u x ux y uy

y como v es arbitrario se debe cumplir la ecuacin de Euler-Ostrogradski



F F F
=0 (3.26)
u x ux y uy

En el caso de que tengamos un funcional de la forma


Z Z
F (u, u, x) dx

c
SPH
3.9. Extensin de los mtodos variacionales 105

siendo
x = (x1 , . . . , xn )

u = u (x1 , . . . , xn )

u u
u = ,...,
x1 xn
la ecuacin de Euler-Ostrogradski n dimensional es de la forma

F F F F
=0 (3.27)
u x1 ux1 x2 ux2 xn uxn
o equivalentemente y de forma simplificada

F F F
div ,..., =0
u ux1 uxn
o
F
div (u F ) = 0
u
Ejemplo 3.25 Sea un disco circular de radio 1 que tiene permisividad elctrica = 1. Supongamos tambin
que sobre dicho disco tenemos una distribucin de cargas elctricas de densidad constante = 1. Supongamos
finalmente
que el potencial sobre
la frontera de dicho crculo es constante e igual a cero, esto es, u = 0 sobre
= (x, y) R2 : x2 + y 2 = 1 . Se pide calcular la ecuacin de Euler-Lagrange asociada al funcional
ZZ

I (u) = |E|2 u dxdy
2

donde
E = u
Comprueba que
1 x2 + y 2
u (x, y) =
4
es solucin de la ecuacin.
Solucin: Con los datos del problema el funcional es de la forma
ZZ
1 2
I (u) = ux + u2y u dxdy
2

y la ecuacin de Euler-Lagrange (Euler-Ostrogradski) buscada es



F F F
=0
u x ux y uy
donde
1 2
F = ux + u2y u
2
y por tanto
F
= 1

u





F F
= ux = uxx
ux x ux 1 uxx uyy = 0






F F

= uy = uyy

uy y uy

c
SPH
106 Captulo 3. Optimizacin dinmica: mtodos variacionales

1(x2 +y2 )
Vamos a comprobar que la funcin u = 4 es solucin de la ecuacin anterior
2x 1

ux = uxx =

4 2
uxx + uyy = 1

2y 1

uy = uyy =
4 2
est claro que sobre , ocurre u = 0.

c
SPH
Captulo 4

Control ptimo de Sistemas en tiempo


Continuo

4.1 Introduccin
La filosofa de este captulo es derivar la solucin de problemas de control ptimo continuos en el caso ms
general. En el tema anterior hemos visto como los problemas de control ptimo se pueden plantear como la
bsqueda de una trayectoria que optimice cierto ndice mientras se cumplen unas determinadas restricciones
debidas a la naturaleza del sistema. En este tema vamos a plantear y resolver alguno de estos problemas de
control ptimo cuando el sistema evoluciona de forma continua con el tiempo.
El enfoque inicial del problema se hace desde el punto de vista de los mtodos variacionales clsicos, donde se
busca una funcin real definida sobre un determinado dominio de funciones, que minimice un determinado ndice
de rendimiento que estar definido en la mayora de las ocasiones por medio de una integral. Introduciremos
brevemente algunos resultados sobre el clculo de variaciones.
Abordaremos el problema desde el punto de vista de la formulacin hamiltoniana. Esta formulacin es muy
til a la hora de tratar con el principio del mnimo.
Para ilustrar las principales caractersticas del tipo de problemas de control ptimo que vamos a tratar,
presentaremos un ejemplo muy sencillo.

Ejemplo 4.1 Se plantea el problema del lanzamiento de un cohete hasta una altura x en un tiempo T . Para
controlar el movimiento del mismo en cada instante se utiliza una fuerza u(t), que es funcin del tiempo. Si
x(t) es la altura sobre el suelo en tiempo t y m es la masa del cohete, la ecuacin del movimiento nos da la
siguiente relacin.

x (t) + mg = u(t) t [0, T ]

Supongamos por otra parte que la fuerza ejercida no puede superar cierto valor b (debido entre otras cosas a las
limitaciones en la potencia de los motores, la cantidad de combustible utilizada, etc.). El objetivo del problema
podra ser gastar la menor cantidad de energa posible para lograr el objetivo de situar el cohete a una altura x
en el tiempo T . El problema podra plantearse como
RT
Minimizar 0
| u(t) | dt

Sujeto a x (t) + mg = u(t)
| u(t) | b
x(T ) = x
x(0) = 0


Si hacemos x1 = x, x2 = x, obtenemos una ecuacin diferencial de primer orden y el problema vendr dado

107
108 Captulo 4. Control ptimo de Sistemas en tiempo Continuo

como: RT
Minimizar 0
| u(t) | dt

Sujeto a x2 (t) + mg = u(t)

x1 (t) = x2 (t)
| u(t) | b
x1 (T ) = x
x1 (0) = x2 (0) = 0
donde al poner la funcin |u (t)| dentro del integrando estamos considerando el gasto de fuerza necesaria para
acelerar o decelerar el cohete.

Observando el ejemplo anterior vamos a ver a continuacin la formulacin general de los problemas de
control ptimo en tiempo continuo. En primer lugar solamente estamos interesados en la conducta de sistemas
que evolucionen segn una determinada ley determinista. En otras palabras, no se considerarn sistemas cuya
conducta sea aleatoria o estocstica.
Supondremos que la conducta relevante de los sistemas estudiados puede ser cuantificada por n variables. La
identificacin de esas variables y la descripcin del sistema en trminos de ellas es el trabajo ms complicado al
construir un modelo matemtico del sistema, este aspecto no ser tratado aqu y supondremos que este trabajo
ha sido ya realizado y la conducta del sistema estar descrita por los valores del vector de estado x, cuyas
componentes xi , i = 1, . . . , n, son las variables de estado. El sistema evoluciona con el tiempo t, por tanto las
variables de estado son funciones de t y estarn gobernadas por n ecuaciones diferenciales de primer orden, las
ecuaciones de estado, que tienen la forma general

x = f (t, x, u) (4.1)

donde el punto indica la derivada temporal. La funcin f es una funcin vectorial que tiene n componentes
fi . La ecuacin de estado depender del estado del sistema, del tiempo y de las variables de control ui , i =
1, . . . , m, que forman un vector de control u, m-dimensional. Asumiremos que esas variables de control son
funciones integrables de t. Simplificaremos el problema considerablemente si requerimos que dichos controles
sean continuos.
Definimos U como el conjunto de todas las variables de control admisibles es decir que podemos utilizar en
el sistema, junto con los requerimientos ya mencionados. En algunos problemas podemos restringir los valores
mnimo y mximo de cualquier control que pueda utilizarse; por ejemplo, podemos suponer que el control ui
est acotado entre ai y bi . En ese caso, podemos hacer un cambio lineal en la variable para reemplazar ui por
otra variable vi , definida por
1 1
ui = (ai + bi ) + (ai bi ) vi (4.2)
2 2
de manera que la nueva variable vi sea tambin admisible y verifique la siguiente relacin

1 vi (t) 1 (4.3)

para todo valor del tiempo t. Por tanto el conjunto U de todos los controles admisibles consistir en todas las
funciones integrables de t que o bien son no acotadas o acotadas por los valores extremos 1 y +1.
Dentro del conjunto de los controles acotados, hay un subconjunto importante en el que las variables de
control solamente toman los valores extremos. Cualquier cambio en el valor del control es un cambio inmediato
entre un valor extremo y el otro (funciona como un interruptor). Tales controles se denominan controles de tipo
bang-bang.
La evolucin del sistema comienza a partir de una determinada configuracin en un valor inicial t0 de t. Por
ejemplo
x (t0 ) = x0 (4.4)
donde el estado inicial x0 en el tiempo inicial t0 estn dados por el problema. En algunos casos tambin se
conoce el estado final del sistema
x (t1 ) = x1 (4.5)
Aunque aqu podemos distinguir diferentes casos. Por una parte podemos considerar el tiempo final o
terminal t1 bien fijo o bien libre. Por otra puede conocerse el estado final del sistema o puede ser que dicho

c
SPH
4.1. Introduccin 109

estado est sobre una determinada curva o superficie. Por ejemplo, se puede exigir que x1 (t1 ) tenga un valor
fijo, pero que los otros componentes de x (t1 ) no estn restringidas. En general, la condicin del estado terminal
x1 , es que est dentro de un determinado conjunto objetivo F.
El ingrediente final de este planteamiento general de un problema de control optimal concierne al coste. La
forma ms general para el coste que ser considerado tiene la forma
Zt1
J (x, u) = (x (t1 ) , t1 ) + F (t, x, u) dt (4.6)
t0

Este tipo de funciones recibe el nombre de funcional, puesto que asigna un nico nmero real a un conjunto de
funciones xi (t), uj (t). Este coste tiene 2 partes. La primera llamada coste terminal, que es una penalizacin
respecto al estado final del sistema. Por supuesto, solamente tiene efecto cuando el estado final del sistema no
est prefijado. La segunda parte depende del estado del sistema a lo largo de la trayectoria de la solucin y del
tiempo y, ms importante, de los valores del control empleados en la solucin. Un caso importante y especial,
es cuando F 1, y 0, no hay coste terminal. En este caso el coste J (x, u) es igual al tiempo necesario para
que el sistema pase del estado inicial al final. Tendremos entonces un problema de tiempo ptimo; que tiene
que ser por supuesto, un problema de tiempo terminal no fijo.
Esto completa la lista de ingredientes de un problema de control ptimo y la pregunta que hay que resolver
puede formularse de la siguiente forma. El estado del sistema puede ser conducido desde su posicin inicial
hasta su posicin final mediante la aplicacin de ciertos controles que estn en el conjunto U, mientras que la
evolucin del estado est gobernada por las ecuaciones de estado 4.1. Si no hay controles apropiados, diremos
que el sistema es no controlable desde el estado inicial hasta el conjunto objetivo F, y el problema no tiene
solucin. Si el sistema es controlable habr, en general, muchos controles apropiados y a cada uno de ellos le
corresponde un valor de la funcin de coste J (x, u), determinada por 4.6. El problema del control optimal
consiste en determinar el valor mnimo de J (x, u), el coste optimal, y el valor del vector de control u, para el
que se obtiene ese coste mnimo; en este caso u es el control optimal. Podemos tambin determinar la solucin
correspondiente a las ecuaciones de estado, que dan la trayectoria ptima, as como el valor final del tiempo, el
tiempo optimal, y el estado final, si estos no han sido prefijados.
Junto con la clasificacin de los problemas de control ptimo en continuos y discretos, tambin podemos
hacer una clasificacin segn la variable tiempo t, est o no explcitamente incluida en las ecuaciones de estado,
de esta forma tenemos problemas

1. Autnomos: la ecuacin de estado no depende explcitamente del tiempo: x= f (x, u)

2. No autnomos: La variable t est presente en la ecuacin anterior: x= f (t, x, u)

Por otra parte el conjunto U de los controles admisibles puede ser:

1. No acotado
2. Acotado
3. Bang-Bang

El tiempo final pude ser fijo o libre, mientras que el estado final del sistema puede ser fijo, completamente
libre, o parcialmente libre, dependiendo de si F es un nico punto de Rn , todo Rn , o algn subconjunto de
Rn . La funcin de coste J (x, u) puede tener o no funcin de coste terminal. Adems del caso especial del
problema de tiempo optimal, hay otro tipo de problemas importantes: si el problema tienen una nica variable
de control u, es decir m = 1, podemos suponer que F es proporcional a |u|, en este caso es un problema de coste
de combustible, puesto que las operaciones de control contribuyen al coste total independientemente del signo.
Un tercer ejemplo particular de problemas aparece cuando F es proporcional a u2 ; en este caso con este coste
cuadrtico, se puede avanzar ms rpidamente hacia la solucin general.
Para ilustrar la descripcin anterior del problema general, daremos a continuacin algunos problemas parti-
culares.
Aunque no estamos en condiciones de extraer la solucin, podemos hacer un intento en la estrategia de
control ptimo y determinar la solucin ptima.

c
SPH
110 Captulo 4. Control ptimo de Sistemas en tiempo Continuo

4.2 ndices de rendimiento


Se ha visto en los ejemplos anteriores que un ndice de rendimiento o coste es una escalar que proporciona
una medida por la cual podemos juzgar el rendimiento del sistema. Veremos a continuacin algunos de los
posibles ndices que podemos encontrarnos en un problema de control optimal.

1. Problemas de tiempo mnimo. Como ya se ha comentado anteriormente, en este caso u (t) tiene que
elegirse para transferir el sistema desde un estado inicial x0 hasta otro en el menor tiempo posible. Esto
es equivalente a minimizar el ndice de rendimiento

Zt1
J = t1 t0 = dt (4.7)
t0

donde t1 es instante inicial de tiempo en el que se alcanza el estado buscado.

2. Control terminal. En este caso el estado final xf = x (t1 ) tiene que estar lo ms cerca posible de un estado
prefijado r (t1 ). Un ndice adecuado para este tipo de problema es minimizar

eT (t1 ) Me (t1 ) (4.8)

donde e (t) = x (t) r (t) y M es una matriz n n simtrica real definida positiva

3. Esfuerzo mnimo. En este caso se pretende alcanzar el estado final utilizando la menor cantidad de energa
o esfuerzo en el control. ndices adecuados para minimizar son

Zt1 X
i |ui | dt (4.9)
t0

o
Zt1
uT Rudt (4.10)
t0

donde R es una matriz real y semidefinida positiva, i y rij son factores de ponderacin.

4. Problema del seguimiento (Tracking problem). El objetivo principal es seguir o perseguir tan cerca como
sea posible un estado deseado r (t) en el intervalo t0 t t1 . En este caso un ndice adecuado podra ser

Zt1
eT Qedt (4.11)
t0

donde Q es real, simtrica y semidefinida positiva. Introducimos el trmino servomecanismo para este
tipo de sistemas, mientras que un regulador es un caso especial cuando r (t) es constante o cero. Si las
funciones ui (t) son no acotadas entonces la minimizacin de 4.11 puede conducir a un vector de control
con componentes infinitas. Este hecho es inaceptable en problemas cotidianos, por tanto, para restringir
el esfuerzo total del control, podemos utilizar una combinacin de 4.10 y 4.11 para obtener

Zt1
T
e Qe + uT Ru dt (4.12)
t0

las expresiones de la forma 4.10, 4.11 y/o ?? se denominan ndices de coste cuadrtico.

c
SPH
4.3. Formulacin hamiltoniana 111

4.3 Formulacin hamiltoniana


La introduccin sobre los mtodos variacionales realizada en la seccin anterior tena como objetivo presentar
el problema de la optimizacin de funciones que dependa de otras funciones (los funcionales). Sin embargo, a la
hora de buscar las soluciones a los problemas de control ptimo (problemas que tienen funcionales y restricciones
particulares), utilizaremos la llamada formulacin hamiltoniana. Si el estado del sistema viene descrito por sus
variables de estado mediante la ecuacin diferencial

x (t) = f (t, x (t) , u (t)) (4.13)

con estado x (t) Rn y control u (t) Rm . Asociaremos a este sistema un ndice de rendimiento del tipo:

Zt1
J (x, u) = (t1 , x (t1 )) + F (t, x (t) , u (t)) dt (4.14)
t0

donde [t0 , t1 ] es el intervalo en el que queremos estudiar el comportamiento del sistema. La funcin peso de
coste terminal (t1 , x (t1 )) R, donde : R Rn R, depende del instante de tiempo final y del estado final
del sistema, mientras que la funcin F (t, x, u) : R Rn Rm R, depende de toda la trayectoria de estados y
de los controles utilizados en el intervalo [t0 , t1 ]. En principio tanto t0 como t1 pueden ser variables.

4.3.1 Ecuaciones de estado y co-estado


El problema de control ptimo consistir en encontrar un control u (t) definido en el intervalo [t0 , t1 ] que
conduzca el sistema 4.13 a lo largo de la trayectoria ptima x (t) , de forma que se minimice la funcin de coste
4.14 y donde adems puede ocurrir
(t1 , x (t1 )) = 0 (4.15)
para una cierta funcin vectorial : R Rn R
El papel de las funciones y no debe confundirse. La funcin (t1 , x (t1 )) es funcin del estado final y
es un valor que queremos hacer pequeo. Por otra parte (t1 , x (t1 )) es una funcin del estado final que debe
valer 0 en ese instante: es una restriccin que debe cumplir el sistema en el intante final t1 .
Para resolver el problema de control ptimo continuo haremos uso de la teora de los multiplicadores de
Lagrange para aadir las restricciones 4.13 y 4.15 al ndice de rendimiento 4.14. Puesto que se tiene que
cumplir la ecuacin 4.13 para cualquier valor de t [t0 , t1 ], necesitamos multiplicadores de Lagrange, p (t), que
sean funcin del tiempo:
p (t) : [t0 , t1 ] Rn
Sin embargo, como 4.15 se cumple solamente para un instante de tiempo (el instante final t1 ) necesitamos
multiplicadores = (1 , . . . , s ) R que no dependan del tiempo.
El ndice de rendimiento aumentado es por tanto

Zt1
T

Ja (x, u) = (t1 , x (t1 )) + (t1 , x (t1 )) + F (t, x, u) + pT (f (t, x, u) x)
dt (4.16)
t0

Definiendo la funcin Hamiltoniana o Hamiltoniano como

H (t, x, u, p) = F (t, x, u) + pT f (t, x, u) (4.17)

y que de forma abreviada indicaremos por


H = F + pT f
entonces podemos escribir la expresin 4.16 como

Zt1
T

Ja (x, u) = (t1 , x (t1 )) + (t1 , x (t1 )) + H (t, x, u, p) pT x dt (4.18)
t0

c
SPH
112 Captulo 4. Control ptimo de Sistemas en tiempo Continuo

Supongamos en primer lugar que = = 0, el funcional sera


Zt1

Ja (x, u) = H (t, x, u, p) pT x dt
t0

si buscamos extremales para Ja (x, u), entonces podemos aplicar la teora del tema anterior y aplicar las ecua-
ciones de Euler-Lagrange al funcional as definido. Teniendo en cuenta que en este caso es un funcional con
varias variables, habr que aplicar las ecuaciones de Euler-Lagrange a todas ellas
Zt1 Zt1

Ja (x, u) = H (t, x, u, p) pT x dt = G (t, x, u, p, x)
dt
t0 t0

y obtendremos p
G d G H d H
=0 (pk (t)) = 0 pk =
xk dt x k xk dt xk
G d G H d H
=0 (0) = 0 0 =
uk dt u k uk dt uk
G d G H d H
=0 x k (t) (0) = 0 x k (t) =
pk dt pk xk dt pk
Estas ecuaciones osn las condiciones de optimalidad cuando t0 , t1 , x (t0 ) y x (t1 ) son fijos y no hay ni coste
terminal, ni restriccin de estado terminal.
Recordemos que en el caso de que x (t0 ) o x (t1 ) son variables, entonces debera cumplirse adems las
condiciones
G
= 0 pk (tj ) = 0
x k t=tj
En el caso general del problema de control ptimo, donde los elementos t0 , t1 , x (t0 ) y x (t1 ) pueden ser variables
y existen funciones de coste terminal y de estado terminal, las condiciones de contorno son
T

x + Tx p dx (t1 ) + t + Tt + H dt1 = 0
t=t1 t=t1


pT dxt=t0 Hdt|t=t0 = 0
sin embargo puesto que en la mayora de problemas t0 y x (t0 ) son conocidas y fijas los valores dx (t0 ) y dt0 son
ambos cero solamente queda la primera de las ecuaciones anteriores como condicin de contorno.

Teorema 4.2 Las condiciones necesarias para que u sea un extremal de


Zt1
J (x, u) = (t1 , x (t1 )) + F (t, x (t) , u (t)) dt
t0

sujeto a
x (t) = f (t, x (t) , u (t)) t t0 , t0 fijo
(t1 , x (t1 )) = 0
x (t0 ) = x0 , fijo
siendo : R Rn R, : R Rn Rs , es que existan funciones p1 , . . . , pn : [t0 , t1 ] R, 1 , . . . , s R,
cumpliendo las ecuaciones:

1. Ecuacin de Estado
H H
Hx + p = 0 x = = f, t t0 x i = = fi , i = 1, . . . , n (4.19)
p pi

c
SPH
4.4. Ejemplos 113

2. Ecuacin de Co-estado
T
H f F H
Hp x = 0 p = = p t t1 pi = , i = 1, 2, . . . , n (4.20)
x x x xi

3. Condicin de contorno
T

x + Tx p dx (t1 ) + t + Tt + H dt1 = 0 (4.21)
t=t1 t=t1

4. Condicin estacionaria
X fj n
H H F
HuT = 0 =0 = + pj = 0, t0 t t1 , i = 1, . . . , m (4.22)
u ui ui j=1 ui

5. Condicin de estado final



T = 0 (t1 , x (t1 )) = 0 (4.23)
t=t1

Las ecuaciones de estado (ecuacin 4.19) y la ecuacin de co-estado (ecuacin 4.20, lamadas tambin ecua-
ciones adjuntas) constituyen un sistema de 2n ecuaciones diferenciales no lineales con condiciones de frontera
x (t0 ) y p (t1 ). En general no es posible alcanzar una solucin analtica de la solucin y hay que utilizar tcnicas
numricas.
La condicin de contorno 4.21 necesita de una aclaracin adicional. Hemos dicho que dx (t1 ) y dt1 no son
independientes. Por tanto, no podemos poner los coeficientes de los dos primeros trminos del miembro de la
derecha en ?? iguales a cero de forma separada. En su lugar, tenemos que poner la expresin 4.21 igual a cero
en t = t1 .
El control ptimo depende de la solucin de un problema de contorno de dos puntos, puesto que x (t0 ) est
dado y p (t1 ) est determinado por 4.21. En general es muy complicado resolver este tipo de problemas.
Realmente el valor de p (t) no es necesario, pero evidentemente su determinacin es un paso intermedio para
encontrar el control optimal u (t), que depende de p (t) a travs de las condiciones estacionarias.
Notar que la derivada del Hamiltoniano respecto al tiempo t, es:
T T
T T T
H = Ht + Hx x +Hu u + p f = Ht + Hu u + Hx + p f (4.24)

De manera que si u (t) es un control ptimo, utilizando las ecuaciones 4.20, 4.22, entonces


H (t, x , u ) = Ht (t, x , u ) (4.25)

Y en el caso de tiempo invariante, donde ni f ni F dependen explcitamente de t, y por tanto tampoco lo har
H, ocurre

H= 0 (4.26)
Por tanto, para sistemas y funciones de coste invariantes en el tiempo, el Hamiltoniano es constantes sobre la
trayectoria y el control ptimos.

4.4 Ejemplos
4.4.1 Crecimiento de plantas
Supongamos que un jardinero tiene un nmero de determinado de plantas y que desea hacerlas crecer hasta
una determinada altura en una fecha determinada. Su tasa natural de crecimiento puede acelerarse utilizando
luz artificial para reducir las horas de obscuridad cuando no hay crecimiento. Despus de una eleccin apropiada
de unidades, podemos modelar este proceso mediante una ecuacin diferencial para la altura x (t) de la planta
en tiempo t, de la forma
dx
=1+u (4.27)
dt
c
SPH
114 Captulo 4. Control ptimo de Sistemas en tiempo Continuo

donde u u (t) mide el exceso de crecimiento producido por la luz artificial. Podemos suponer que la altura
es cero al principio, y que el jardinero quiere una altura de dos unidades despus de que haya transcurrido una
unidad temporal. De esta forma, requerimos

x (0) = 0, x (1) = 2 (4.28)

El crecimiento extra producido al utilizar la luz artificial implica un coste financiero, que depende del tamao
del control; una posible funcin de coste podra tener la forma

Z1
1 2
J= u dt (4.29)
2
0

El objetivo es encontrar una variable de control u que produzca una solucin de 4.27 satisfaciendo 4.28 y al
mismo tiempo que minimice el valor de J. Construimos en primer lugar el Hamiltoniano para este problema

1 2
H (t, x, u, p) = u + p (1 + u)
2
La ecuacin de co-estado es:
H
p = =0
x
que tiene como solucin
p (t) = A
donde A es una constante. Aplicando la condicin estacionaria

H
= 0 u + p = 0 u = p = A
u
Las ecuaciones de estado se transforman en

x = 1 + u x = 1 A x = (1 A) t + C

donde las constantes A y C se calculan utilizando la condicin inicial y final impuesta al sistema

x (0) = 0 (1 A) 0 + C = 0 C = 0

x (1) = 2 (1 A) 2 + C = 2 A = 1
y la solucin que cumple las condiciones inicial y final es

x (t) = 2t, A = 1

1
El control ptimo ser por tanto u (t) = 1 para todo t y el coste ptimo es J = , tal y como encontramos
2
por mtodos elementales.

4.4.2 Llenado de un embalse


Se vaca el agua de un embalse a una tasa siempre creciente. Para compensar esta prdida de agua, se
requiere elevar el nivel del agua en el embalse por encima de su altura inicial mediante el bombeo de agua dulce.
El coste de esta operacin por unidad de tiempo es proporcional al cuadrado de la tasa de bombeo, y queremos
ajustar esta tasa para minimizar el coste. Plantearemos el problema de dos formas diferentes dependiendo del
conocimiento que tengamos del instante final t1 . En primer lugar un problema de tiempo final fijo, t1 = 1,
donde el nivel requerido debe alcanzarse en un tiempo especificado. En segundo lugar se plantea el problema
de tiempo final t1 , libre.

c
SPH
4.4. Ejemplos 115

Un conjunto de ecuaciones que pueda servir para modelar este sistema, en las unidades adecuadas, podra
ser el siguiente:
x = v + u

x (0) = 0 (4.30)

x (t1 ) = 1
junto con la siguiente funcin de coste
Zt1
1 2
J= u dt (4.31)
2
0
que mide la cantidad de energa utilizada en bombear el agua dulce.
La altura del agua por encima del nivel inicial est medida por x (t) . Segn las condiciones iniciales de la
ecuacin 4.30 queremos alcanzar la altura 1 por encima del nivel inicial en el tiempo t1 . La tasa de bombeo
est dada por u (t), mientras que v (t) es la tasa a la que el agua es vaciada. Supongamos por ejemplo que la
funcin v (t) tiene la forma:
v (t) = t.
El Hamiltoniano de este problema tiene la forma
1 2
H= u + p (t + u) (4.32)
2
Consideremos en primer lugar el tiempo final fijo igual a t1 = 1. Las ecuaciones que tienen que cumplir el
control y la trayectoria ptimas son:
H
x = = t + u
p

H (4.33)
p = =0
x
H
=u+p=0
u
En este caso puesto que tanto t1 como x (t1 ) son fijos, dt1 = 0 y dx (t1 ) = 0 y la condicin de contorno 4.21 se
cumple trivialmente.
De la segunda ecuacin de 4.33 obtenemos que
p (t) = A cte.
Mientras que de la tercera ecuacin
u (t) = p (t) = A.
Substituyendo en la primera ecuacin de 4.33 e integrando
1
x = t A = x (t) = t2 At + B
2
las condiciones que deben cumplirse son
x (0) = 0 B = 0

1 3
x (1) = 1 A = 1 A =
2 2
Por tanto la expresin de x (t) y u (t) quedan como
1 3
x (t) = t2 + t
2 2
3
u (t) =
2
c
SPH
116 Captulo 4. Control ptimo de Sistemas en tiempo Continuo

9
El valor del ndice de rendimiento ptimo se obtiene sustituyendo en 4.31 J = .
8
Si ahora consideramos a t1 libre, entonces dt1 6= 0 y la condicin de contorno que se debe cumplir es
T

x + Tx p dx (t1 ) + t + Tt + H dt1 = 0 H (t1 ) = 0
t=t1 t=t1

donde se ha tenido en cuenta que 0, 0 y dx (t1 ) = 0.


De la ecuacin anterior podemos obtener t1 , utilizando la ecuacin 4.32
1 2
u (t1 ) + p (t1 ) (t1 + u (t1 )) = 0
2
Como u (t) = p (t) = A, para t [0, t1 ]
1 2 1
A + A (t1 A) = 0 t1 = A
2 2
Esta ecuacin junto con las condiciones de contorno inicial y final

x (0) = 0 B = 0

1
x (t1 ) = 1 t21 At1 = 1
2
resuelven el problema, puesto que como t1 = 12 A A = 2t1

1 2 2 3 2 2
t1 + 2t1 = 1 t1 = 1 t1 =
2 2 3

2 2
yA= .
3
Y las expresiones de x (t) y u (t) son

1 2 2 2
x (t) = t + t
2 3

2 2
u (t) =
3
y el coste optimal tiene un valor de

Zt1 Z 3
2/ !2
1 2 1 2 2 18 2 4 2
J (u ) = (u ) dt = dt = = = 1, 08866
2 2 3 23 3 3 3
0 0

9
Este coste optimal es menor que el valor de 8 = 1.125 que se obtena cuando fijabamos el tiempo final t1 .

4.4.3 Control de temperatura en una habitacin


Se desea calentar una habitacin utilizando la menor cantidad posible de energa. Si (t) es la temperatura
de la habitacin, a la temperatura ambiente fuera de la habitacin (que suponemos constante) y u (t) la
proporcin de calor que hay que suministrar a la habitacin, la dinmica del modelo puede representarse
mediante la ecuacin
= a ( a ) + bu (4.34)
donde (t), con a y b constantes que dependen de las propiedades de la habitacin, como por ejemplo su
aislamiento. Si definimos como variable de estado del sistema la diferencia de temperatura entre el interior y el
exterior, es decir
x (t) = (t) a (4.35)

c
SPH
4.4. Ejemplos 117

podremos escribir la ecuacin de estado como


x = ax + bu (4.36)
Para controlar la temperatura dentro de un intervalo de tiempo fijo [0, t1 ] con la menor cantidad posible de
energa proporcionada, definimos el ndice de rendimiento como
Zt1
1
J (u) = u2 (t) dt (4.37)
2
0

que mide la cantidad de energa utilizada.


A continuacin planteamos y resolvemos el problema para dos objetivos distintos: estado final fijo y estado
final libre.
El Hamiltoniano para este sistema se define como
u2
H= + p (ax + bu) (4.38)
2
De acuerdo con el teorema 4.2 el control ptimo u (t) se determina resolviendo el siguiente sistema de ecuaciones
diferenciales:
H
x = = ax + bu (4.39)
p
H
p = = ap (4.40)
x
H
0= = u + bp (4.41)
u
La condicin estacionaria 4.41 nos da el control ptimo en funcin de la variable de co-estado p (t):
u (t) = bp (t) (4.42)

por tanto para determinar u (t) solamente es necesario encontrar el co-estado ptimo p (t).
Si substituimos 4.42 en 4.39 obtenemos el sistema de ecuaciones para las variables de estado y co-estado
x = ax b2 p (4.43)
p = ap (4.44)
La solucin de 4.44 es
p (t) = Aeat (4.45)
Utilizando este resultado en 4.43 obtenemos
x = ax b2 Aeat (4.46)
Si hacemos uso de la trasformada de Laplace para resolver la ecuacin anterior obtendremos:
1
sX (s) x (0) = aX (s) b2 A
sa

x (0) b2 A
X (s) = (4.47)
s + a (s + a) (s a)

x (0) b2 A 1 1
= +
s+a 2a s + a s a
utilizando la transformada inversa
b2 A at b2 A
x (t) = x (0) eat e eat = x (0) eat sinh (at) (4.48)
2a a
Para determinar el valor de la constante A distinguiremos, como se ha comentado antes, dos casos: estado
final fijo y estado final libre.

c
SPH
118 Captulo 4. Control ptimo de Sistemas en tiempo Continuo

Estado final fijo


Supongamos que la temperatura inicial de la habitacin es igual a a = 20o . Si ahora suponemos que la
temperatura en el interior coincide con la del exterior, entonces
x (0) = 0o (4.49)
o
Si, por ejemplo, nuestro objetivo es alcanzar la temperatura de 30 al cabo de un tiempo fijo de t1 segundos.
El estado final tendr un valor fijo
x (t1 ) = 10o (4.50)
Puesto que el tiempo finalm, t1 , y el estado final x (t1 ) son ambos fijos, ocurrir dt1 = 0 y dx (t1 ) = 0 y se
cumplen trivialmente las condiciones de contorno (ecuacin 4.21).
Utilizando 4.49 y 4.50 podremos determinar el valor de A
b2 A
x (0) = 0 x (t) = sinh (at)
a
b2 A 10a
x (t1 ) = 10 x (t1 ) = sinh (at1 ) = 10 A = 2
a b sinh (at1 )
y la trayectoria ptima y el control ptimo se puede expresar como:
b2 A 10 sinh (at)
x (t) = sinh (at) =
a sinh (at1 )

10aeat
u (t) = bp (t) = bAeat = (4.51)
b sinh at1
el coste ptimo ser por tanto
Zt1 Zt1 2 Zt1
1 2 1 10aeat 1 100a2 25a 2at1
J = [u (t)] dt = dt = e2at dt = e 1
2 2 b sinh at1 2 b2 sinh2 (at1 ) b2 2
sinh (at1 )
0 0 0

Estado final libre


Supongamos ahora que no es necesario que el estado final sea exactamente x (t1 ) = 10o , sino un valor cercano.
En ese caso podemos utilizar como ndice de rendimiento el siguiente
Zt1
1 2 1
J (x, u) = s (x (t1 ) 10) + u2 (t) dt (4.52)
2 2
0

para un determinado valor s. Este ndice incluye el gasto de energa utilizada, u (t), pero tambin un coste
terminal que es ms grande cuanto ms lejos de la temperatura buscada est el estado final. El factor s, es el
peso de un sumando frente al otro, por ejemplo, si s es grande, la solucin ptima tendr x (t1 ) cercano a 10o ,
puesto que solamente entonces el primer trmino tendr una pequea contribucin sobre el coste.
De acuerdo con el teorema 4.2, las ecuaciones de estado y co-estado an estn dadas por 4.43 y 4.44, y el
control ptimo por 4.42. Por tanto, 4.45 y 4.48 son vlidas an.
La condicin inicial sigue siendo 4.49, pero ahora la condicin final debe determinarse utilizando las condi-
ciones de contorno 4.21. Como en el caso anterior, estamos suponiendo que el instante de tiempo final t1 es fijo
y por tanto dt1 = 0, de ah que el segundo trmino de 4.21 es automticamente igual que 0. Puesto que ahora
x (t1 ) no est fijado, dx (t1 ) 6= 0 y las condiciones quedan de la siguiente forma:
T

x + x p
T
dx (t1 ) + t + Tt + H dt1 = 0
t=t1 t=t1

T
x + Tx p dx (t1 ) = 0
t=t1


p (t1 ) = 0
x t=t1

c
SPH
4.5. Problemas de tiempo final libre 119


p (t1 ) = = s (x (t1 ) 10) (4.53)
x t=t1
donde adems se ha utilizado que 0.
Para calcular el valor de la constante A, de las ecuaciones 4.48 y 4.45, necesitaremos la condicin inicial
x (0) = 0, junto con la ecuacin anterior y que puede ponerse como
p (t1 )
x (t1 ) = + 10 (4.54)
s
utilizando las expresiones para p (t) (ecuacin 4.45) y x (t) (ecuacin 4.48) obtenemos
b2 A b2 A
x (t1 ) = x (0) eat sinh (at1 ) = sinh (at1 )
a a
p (t1 ) = Aeat1
utilizando 4.54
b2 A Aeat1
sinh (at1 ) = + 10
a s
despejando A
10as
A=
aeat1 + sb2 sinh (at1 )
El estado y co-estado ptimos sern
10sb2
x (t) = sinh (at) (4.55)
aeat1 + sb2 sinh (at1 )
10as
p (t) = Aeat = eat (4.56)
aeat1
+ sb2 sinh (at1 )
Finalmente la ecuacin 4.42 nos proporciona el control ptimo
10abs
u (t) = bp (t) = eat (4.57)
aeat1 + sb2 sinh at1
El estado final en t = t1 es
10sb2 sinh at1
x (t1 ) = (4.58)
aeat1 + sb2 sinh at1
En este caso el valor final de x (t1 ) en 4.58 no es, en general, igual al valor deseado 10, sino que depende
del peso s asignado al estado final en el ndice de coste. Cuando s se hace grande, damos ms importancia al
trmino (x (t1 ) 10) respecto al trmino dado por u2 (t) ; es decir, damos ms importancia a que x (t1 ) est
cerca de 10 que a que u2 (t) sea pequeo en el intervalo [0, t1 ]. De hecho, cuando s , la trayectoria ptima
dada por 4.55, el co-estado ptimo dado por 4.56 y el control ptimo de la ecuacin 4.57 tienden hacia las
expresiones encontradas en el caso anterior cuando x (t1 ) era fijo. En este lmite, el estado final x (t1 ) en 4.58
se hace exactamente igual a 10o .

4.5 Problemas de tiempo final libre


En esta seccin estudiaremos con ms profundidad las condiciones de contorno generales
T

x + x p
T
dx (t1 ) + t + Tt + H dt1 = 0 (4.59)
t=t1 t=t1

Concretamente estudiaremos el caso en el que t1 , el tiempo final, es libre y por tanto dt1 6= 0.
Para resolver un problema de control ptimo utilizando las ecuaciones de la tabla 4.2 podemos a menudo
eliminar el control u (t) teniendo en cuenta la condicin estacionaria. Posteriormente, para resolver las ecuaciones
de estado y co-estado, necesitamos las n componentes del estado inicial x (t0 ) y las n condiciones finales. Tambin
hay que encontrar las s componentes del multiplicador y el tiempo final t1 . El coeficiente de dx (t1 ) en 4.59
proporciona n ecuaciones, el coeficiente de dt1 de 4.59 proporciona una ecuacin, y la condicin (t1 , x (t1 )) = 0
proporciona las restantes s ecuaciones necesarias para conseguir la solucin del problema de control ptimo
completamente.

c
SPH
120 Captulo 4. Control ptimo de Sistemas en tiempo Continuo

4.5.1 Problemas de tiempo mnimo


Como se vio en el tema anterior, una clase especial de problemas de tiempo final libre est definida mediante
el ndice de rendimiento
Zt1
J (t) = 1dt (4.60)
t0

que aparece cuando estamos interesados en minimizar el tiempo (t1 t0 ) que necesitamos para anular una
determinada funcin del estado final (t1 , x (t1 )) a partir de un estado inicial dado x (t0 ). A partir de este
ndice de coste, el Hamiltoniano es
H (t, x, u) = 1 + pT f (t, x, u) (4.61)
Un caso especial de problema de tiempo ptimo se produce cuando el estado final x (t1 ) es un determinado
valor r (t1 ) conocido, entonces dx (t1 ) = 0. Puesto que en este caso

(t1 , x (t1 )) = x (t1 ) r (t1 ) = 0 (4.62)

es independiente de t1 y puesto que (t1 , x (t1 )) = 0 en el problema de tiempo mnimo, la ecuacin 4.59 requiere
que
H (t1 ) = 0 (4.63)
Como H no es una funcin explcita de t, segn podemos comprobar en 4.61, tendr que ocurrir

H (t) = 0 (4.64)

para cualquier t [t0 , t1 ]

4.5.2 Condicin de transversalidad


Otro tipo de problema de tiempo final libre se da cuando tanto x (t1 ) como t1 son libres, pero independientes.
Entonces para que se cumpla 4.59 se ha de cumplir
T
x + x p
T
=0 (4.65)
t=t1

y

t + Tt + H =0 (4.66)
t=t1

Por otra parte si x (t1 ) y t1 son libres, pero dependientes, por ejemplo cuando el estado final x (t1 ) debe caer
sobre una curva c (t), pero por lo dems x (t1 ) y t1 son libres. En este caso

x (t1 ) = c (t1 ) (4.67)

y
dc (t1 )
dx (t1 ) = dt1 (4.68)
dt1
por tanto 4.59 se transforma en (notar que en este caso (t) 0)
dc (t1 )

(x p)T dt1 + (t + H)|t=t1 dt1 = 0 (4.69)
t=t1 dt1
puesto que dt1 6= 0
T dc (t1 )
(x (t1 ) p (t1 )) + t (t1 ) + H (t1 ) = 0 (4.70)
dt1
Por ltimo obtenemos otra clase de problemas de tiempo final libre cuando el estado final debe estar sobre
una superficie (o conjunto destino). Si la superficie est definida por

(t1 , x (t1 )) = 0 (4.71)

c
SPH
4.6. Problemas con entradas acotadas 121

entonces 4.65 y 4.66 deben ocurrir independientemente. Si nos centramos en la ltima condicin, podemos
escribir
1 (t1 )
2 (t1 )

(t1 ) = .. =0 (4.72)
.
s (t1 )
Cada componente i (t1 ) = 0 define una hipersuperficie en Rn y se requiere que el estado final est en la
interseccin de esas hipersuperficies, (t1 ) = 0.
Si escribimos 4.65 como

T1 (t1 )
" # 1
x T T
(x (t1 ) p (t1 )) = .. = 1 (t1 ) , , s (t1 ) .
.. (4.73)
. x x
T
s (t1 ) s
x
se observa que el vector (x (t1 ) p (t1 )) debe ser una combinacin lineal de los vectores gradientes i (t1 ) /x.
Este vector debe por tanto ser normal o transversal a la superficie definida por 4.71. Como caso especial, si la
funcin peso final (t1 ) es igual que cero, entonces p (t1 ) debe ser normal a la superficie (t1 ) = 0
Esta condicin 4.65/4.73 sobre el estado final se conoce como condicin de tranversalidad. Si x (t1 ) y dt1
son dependientes (i.e. la superficie est en movimiento) la condicin de transversalidad se parece a 4.70
Puesto que 4.66 es tambin una condicin sobre el co-estado final, tambin a menudo se denomina condicin
de transversalidad.

4.6 Problemas con entradas acotadas


La ley de control ptimo dada en la tabla 4.2, sobre la que se basa todo el captulo, proporciona el con-
trol como una funcin continua implcita del estado y el co-estado. Bajo ciertas asunciones de derivabilidad
en f (t, x, u) y F (t, x, u), el control es tambin una funcin derivable del tiempo. Adems, es se encuentra
resolviendo un problema de frontera . A continuacin veremos una forma diferente de leyes sobre el control.

4.6.1 Principio del mnimo de Pontryagin


El principio del mximo de Pontryagin (PMP) se aplica a una variedad de problemas de control ptimo muy
amplia. El PMP proporciona condiciones necesarias que una solucin ptima debe cumplir para que exista. Sin
embargo no tenemos, en general, garantas de que un problema dado tenga solucin.
Supongamos que el comportamiento de un sistema viene descrito por la ecuacin

x= f (t, x, u) (4.74)

y que lleva asociado un ndice de coste de la forma

Zt1
J (x, u) = (t1 , x (t1 )) + F (t, x (t) , u (t)) dt (4.75)
t0

donde el estado final debe cumplir


(t1 , x (t1 )) = 0 (4.76)
y x (t0 ) = x0 est dado.
Si el control no est restringido, el problema de control ptimo se resuelve utilizando la tabla 4.2, donde la
condicin de optimalidad es
H
=0 (4.77)
u
c
SPH
122 Captulo 4. Control ptimo de Sistemas en tiempo Continuo

con
H (t, x, u, p) = F (t, x, u) + pT f (t, x, u) (4.78)
En los problemas reales las variables de control estn sujetas a restricciones en sus magnitudes, tpicamente
de la forma |ui (t)| ki . Esto implica que el conjunto de estados finales que puede alcanzarse est restringido.
Nuestro objetivo en este tema es derivar las condiciones necesarias para la optimalidad correspondientes al
teorema 4.2 del tema anterior para el caso no acotado. Un control ser admisible si satisface las restricciones,
y consideraremos aquellas variaciones para las que u + u sea admisible y kuk sea suficientemente pequea,
de manera que el signo de

J = J (u + u) J (u ) = J (u ) + kuk (u)

est determinado por J (u ). Debido a las restricciones en u, no podemos aplicar el teorema ?? y en su lugar
la condicin necesaria para que u minimice el funcional J es

J (u , u) 0 (4.79)

El desarrollo es el mismo que el realizado para el caso anterior; introducimos multiplicadores de Lagrange
para definir Ja en 4.16 y los elegimos de forma que cumplan las ecuaciones 4.19 y 4.20. La nica diferencia es
que la expresin para Ja en ?? se substituye por
Zt1
Ja (u) = [H (t, x, u + u, p) H (t, x, u, p)] dt (4.80)
t0

Y obtenemos por tanto a partir de 4.79 que una condicin necesaria para que u = u sea un control de
mnimo es que Ja (u ) en 4.80 sea no negativo para cualquier valor admisible de u. Este hecho implica que

H (t, x , u + u, p ) H (t, x , u , p ) para cualquier u admisible (4.81)

para cualquier u admisible y cualquier t en t0 t t1 . Es decir cualquier variacin en el control ptimo que
suceda en el instante t mientras que el estado y el co-estado permanecen en sus valores ptimos en t incrementar
el valor del Hamiltoniano. Esta condicin puede escribirse como

H (t, x , u , p ) H (t, x , u, p ) , para cualquier u admisible (4.82)

La condicin de optimalidad 4.82 se denomina principio del mnimo de Pontryagin: El Hamiltoniano debe
minimizarse sobre todos los controles admisibles u para valores ptimos del estado y el co-estado.
Si la ecuacin 4.81 no se cumple en algn intervalo t2 t t3 , con t3 t2 suficientemente pequeo, entonces
eligiendo u = 0, para t fuera de este intervalo Ja (u ) se hara negativo. La ecuacin 4.81 establece que u
minimiza H, por tanto podemos establecer el siguiente resultado.

Teorema 4.3 (Principio del mnimo de Pontryagin) Las condiciones necesarias para que u minimice el
funcional J (u) descrito por la ecuacin:
Zt1
J (u) = (x (t1 ) , t1 ) + F (t, x, u) dt
t0

sujeto a

x (t) = f (t, x (t) , u (t)) t t0 , t0 fijo
(t1 , x (t1 )) = 0
x (t0 ) = x0 , fijo
siendo : R Rn R, : R Rn Rs , donde u est acotado (|ui (t)| 1, k = 1, . . . , m), es que existan
funciones p1 , . . . , pn : [t0 , t1 ] R, y valores 1 , . . . , s R, cumpliendo las ecuaciones
H
pi = i = 1, 2, . . . , n
xi

c
SPH
4.6. Problemas con entradas acotadas 123

H
xi = = fi , i = 1, . . . , n
pi
T

x + Tx p dx (t1 ) + t + Tt + H dt1 = 0
t=t1 t=t1

H (t, x , u , p , t) H (t, x , u, p ) (4.83)

siendo H (t, x, u, p) el hamiltoniano del sistema.


Con una leve diferencia en la definicin de H el principio se transformara en maximizar H, y es referido
entonces en la literatura como el principio del mximo. Notar que u puede ser ahora una funcin continua a
trozos.
En el anlisis se ha asumido que t1 es fijo y que x (t1 ) es libre; las condiciones de frontera para otra situacin
son precisamente las mismas que las dadas para el caso no acotado del tema anterior.

4.6.2 Control Bang-Bang


Discutiremos a continuacin el problema de tiempo mnimo lineal con entradas condicionadas. Para estos
problemas el sistema est descrito por la ecuacin

x= Ax + Bu (4.84)

donde A Mnn (R), B Mnm (R), x (t) Rn , u (t) Rm , junto con el ndice de coste

Zt1
J (t) = 1dt (4.85)
t0

siendo el tiempo final t, libre. Adems el control u (t) debe cumplir

|ui (t)| 1 i = 1, . . . , m (4.86)

para cualquier t [t0 , t1 ].


El problema de control ptimo es encontrar un control u (t) que minimice J (t), cumpla 4.86 para cualquier
instante de tiempo, y conduzca el sistema desde un estado inicial x (t0 ) hasta un estado final x (t1 ) cumpliendo
la ecuacin 4.76 para una funcin dada. Una condicin como 4.86 puede aparecer en muchos problemas
donde la magnitud del control est limitada por consideraciones fsicas, por ejemplo, la potencia del motor de
un vehculo.
Para el problema formulado en 4.84-4.86 el Hamiltoniano est dado por

H = F + pT f = 1 + pT (Ax + Bu) (4.87)

De acuerdo con el principio del mnimo de Pontryagin 4.83 el control ptimo u (t) debe cumplir

1 + (p )T (Ax + Bu ) 1 + (p )T (Ax + Bu)

Ahora se puede observar la importancia de tener el estado y el co-estado ptimos a ambos lados de la desigualdad,
para este caso podemos decir que para la optimalidad del control u (t) se tiene que cumplir
T T
(p ) Bu (p ) Bu (4.88)

para cualquier otro control u (t) admisible. Esta condicin permite expresar u (t) en trminos del co-estado.
Discutiremos en primer lugar el caso en el que solamente tenemos una variable de control u (t) u (t).
Para u (t) escalar, si b representa el vector de entrada. En este caso es fcil de elegir u (t) para minimizar
el valor de pT (t) bu (t). Segn la ecuacin 4.88 para este caso el control ptimo u (t) debe cumplir

(p )T bu (p )T bu

c
SPH
124 Captulo 4. Control ptimo de Sistemas en tiempo Continuo

siendo pT (t) b R.
Si pT (t) b es positivo, tendramos que seleccionar u (t) = 1 para obtener el valor negativo ms grande
posible de pT (t) bu (t). Por otra parte, si pT (t) b es negativo, habra que elegir u (t) = 1 par conseguir que
pT (t) bu (t) sea lo ms negativo posible. Si pT (t) b es cero en un instante t, entonces u (t) puede tomar
cualquier valor en ese tiempo puesto que entonces pT (t) bu (t) ser cero para todos los valores de u (t).
Esta relacin entre el control ptimo y el co-estado puede expresarse de una forma sencilla utilizando la
funcin signo: sgn (w), definida como:

1 w>0
sgn (w) = indeterminado w = 0 (4.89)

1 w<0
Entonces el control ptimo para el caso m = 1 est dado por

u (t) = sgn pT (t) b (4.90)
La cantidad pT (t) b se denomina funcin de intercambio. Cuando la funcin de intercambio cambia de signo,
el control cambia de uno de sus valores extremos a otro. Este tipo de control se llama control bang-bang, como
ya definimos en el tema de introduccin.
Si el control es un vector mdimensional, entonces de acuerdo con el principio del mnimo expresado en
4.88, necesitamos elegir u (t) para hacer pT (t) Bu (t) lo ms pequeo posible. Para ello, seleccionamos la
componente ui (t) = 1 si la componente pT (t) bi es negativa, y ui (t) = 1 si pT (t) bi es positiva, donde bi es
la isima columna de B. Esta estrategia de control hace la igualdad
m
X
T
p (t) Bu (t) = pT (t) bi ui (t) (4.91)
i=1

tan pequea como sea posible para cualquier t [t0 , t1 ].


De esta forma podemos escribir
u (t) = sgn BT p (t) (4.92)
donde hemos definido la funcin signo para un vector w como
v = sgn (w) si vi = sgn (wi ) para cada i (4.93)
donde vi , wi son las componentes de v y w.
Es posible que una componente bTi p (t) de la funcin de intercambio BT p (t) sea cero durante un intervalo
finito de cero. En este caso, la componente ui (t) del control optimal no est bien definida por 4.82. Este caso
es llamado una condicin singular. Si no sucede esto, el problema de tiempo ptimo se llama normal.

Problema de la posicin
Aplicaremos a continuacin los resultados obtenidos sobre el problema de la posicin presentado y resuelto
mediante mtodos directos en el tema anterior. Recordemos la notacin utilizada all: La variable x1 meda
el desplazamiento del objeto a su posicin deseada; mientras que x2 representaba la velocidad; y u la fuerza
que acta sobre el objeto y que podemos controlar. Queremos controlar el sistema de forma que si inicialmente
el objeto est en reposo a una distancia X del origen, alcance esta posicin en un tiempo t1 que sea mnimo
y queremos adems dejar el objeto tambin en reposo. Por tanto el estado final est dado por x1 (t1 ) = 0 y
x2 (t1 ) = 0. El sistema estaba descrito por las ecuaciones diferenciales:

x1 = x2
(4.94)
x2 = u1
Y como queremos minimizar el tiempo en alcanzar la posicin de reposo en el origen el coste elegido es igual al
tiempo t1 transcurrido hasta alcanzar el objetivo y por tanto es:
Zt1
J= 1dt (4.95)
0

c
SPH
4.6. Problemas con entradas acotadas 125

y este problema ser de tiempo libre.


El control u es una funcin continua a trozos, con lmites de 1 y +1, por tanto u1 Ub , y los estados inicial
y final son
x1 (0) = X, x2 (0) = 0
(4.96)
x1 (t1 ) = 0, x2 (t1 ) = 0
Por tanto, para este problema la funcin de estado terminal (t, x (t)) est definida como:

x1 (t)
(t, x (t)) = (4.97)
x2 (t)
de forma que
(t1 , x (t1 )) = 0
Para resolver el problema necesitamos el Hamiltoniano
H (t, x, u, p) = 1 + p1 x2 + p2 u (4.98)
donde las variables de co-estado cumplen las ecuaciones
H
p1 = =0
x1
(4.99)
H
p2 = = p1
x2
que es un sistema de ecuaciones diferenciales cuya solucin se obtienen de forma directa
p1 (t) = A
(4.100)
p2 (t) = At + B
donde A y B son constantes.
Las condiciones de contorno de este problema, teniendo en cuenta que no hay funcin de coste terminal,
(t, x (t)) 0, que la funcin de estado final est dada por 4.97, y no depende de t, y que el estado final es fijo
(dx (t1 ) = 0)
H (t1 ) = 0 1 + p1 (t1 ) x2 (t1 ) + p2 (t1 ) u (t1 ) = 0 p2 (t1 ) u (t1 ) = 1 (4.101)
Por ltimo al aplicar el principio del mnimo tendremos
H (t, x , u , p ) H (t, x , u, p ) 1 + p1 x2 + p2 u 1 + p1 x2 + p2 u
y simplificando
p2 u p2 u (4.102)
para cualquier control admisible u.
La eleccin de u (t), depende del signo de la variable de co-estado p2 (t). El contro u toma el valor 1 si
p2 es positiva, y el valor 1 cuando p2 es negativa. De esta forma tenemos un control bang-bang que cambia de

valor entre sus valores extremos cuando p2 (t) pasa por cero. Puesto que p2 (t) = At + B es una funcin lineal
de t, es decir, una recta, pueden darse los siguientes casos:
Caso 1) p2 (t) > 0 t [0, t1 ] u (t) = 1 t [0, t1 ]

Caso 2) p2 (t) < 0 t [0, t1 ] u (t) = 1 t [0, t1 ]


>0 t [0, t2 ] 1 t [0, t2 ]
Caso 3) p2 (t) = u (t) =

<0 t [t2 , t1 ] 1 t [t2 , t1 ]

>0 t [0, t2 ] 1 t [0, t2 ]
Caso 4) p2 (t) = u (t) =

<0 t [t2 , t1 ] 1 t [t2 , t1 ]

c
SPH
126 Captulo 4. Control ptimo de Sistemas en tiempo Continuo

Habra que estudiar los 4 casos y decidir cul de ellos es el consigue el objetivo de situar el objeto en reposo en
el origen y que adems lo hace en el mnimo tiempo. Suponiendo que X > 0, veremos que el nico caso posible
es el Caso 3) anterior.
Veamos que el caso 1) no puede darse: suponemos para ello que p2 (t) > 0 en todo el intervalo [0, t1 ], en ese
caso podemos simplificar p2 (t) en la ecuacin 4.102 sin que cambie el sentido de la desigualdad y tendremos

u u

para cualquier u admisible. Este objetivo se conseguir cuando tomemos u (t) = 1, para todo t [0, t1 ],
puesto que |u (t)| 1.
Si utilizamos este resultado en las ecuaciones de estado (ecuacin 4.94), tendremos

x1 = x2


x2 = 1

cuya solucin es fcil de obtener, ya que

x2 (t) = t + C

t2
x1 (t) = + Ct + D
2
Los valores de las constantes C y D, que caracterizan x1 (t) y x2 (t) , se obtienen utilizando las condiciones de
contorno dadas por 4.96. Si utilizamos las condiciones iniciales

x1 (0) = X X = C

x2 (0) = 0 D = 0

y las expresiones de x1 (t) y x2 (t) seran

x2 (t) = t

t2
x1 (t) = +X
2
Aplicando ahora las condiciones finales

x1 (t1 ) = 0 t1 = 0

t21
x2 (t1 ) = 0 +X =0X =0
2
luego el problema solamente tendr solucin si X = 0, es decir, si ya estamos en el origen de coordenadas en el
instante inicial. Como este no es el caso, ya que estamos suponiendo X > 0, llegaramos a una contradiccin,
que aparece porque hemos supuesto que p2 (t) > 0 en [0, t1 ].
Consideremos ahora el caso 3). Existe un tiempo intermedio t2 en el cual ocurre un cambio de signo para
p2 (t), que pasa de positivo a negativo. Estudiaremos el problema para los dos subintervalos [0, t2 ] y [t2 , t1 ].

1. Intervalo I1 = [0, t2 ]
En este intervalo el co-estado ptimo p2 (t) es positivo, por tanto, utilizando la ecuacin 4.102 y simplifi-
cando p2 (t), el valor de u es
u (t) = 1 t [0, t2 ]

c
SPH
4.6. Problemas con entradas acotadas 127

y las soluciones generales para las variables de estado x1 (t) y x2 (t) seran la mismas que para el caso
anterior
t2
x11 (t) = + Ct + D
2

x12 (t) = t + C
donde el superndice 1, indica que la solucin se obtiene para el intervalo I1 .
En ese intervalo se aplican las condiciones de contorno para el estado inicial
x11 (0) = X D = X

x12 (0) = 0 C = 0
y las expresiones para los estados ptimos en I1 son
t2
x11 (t) = +X
2

x12 (t) = t

2. Intervalo I2 = [t2 , t1 ]
En este intervalo el co-estado ptimo p2 (t) es negativo y por tanto utilizando de nuevo la ecuacin 4.102,
teniendo en cuenta que la simplificacin de p2 (t) implica un cambio en el sentido de la desigualdad
tendremos
u u
para cualquier control admisible, que se obtiene tomando u como
u (t) = 1 t [t2 , t1 ]
En este caso el sistema formado por las ecuaciones de estado ser

x1 = x2


x2 = 1
cuya solucin se obtiene tambin directamente como
t2
x21 (t) = + Et + F
2

x22 (t) = t + E
donde el superndice indica que estamos en I2 .
En ese intervalo se aplican las condiciones de contorno para el estado final
t21
x21 (t1 ) = 0 + Et1 + F = 0
2

x22 (t1 ) = 0 t1 + E = 0
que es un sistema con 2 ecuaciones y 3 incgnitas. Para encontrar otra ecuacin que nos permita resolver
el problema, supondremos continuidad en las soluciones en el instante de cambio t2 , es decir
t22 t2
x11 (t2 ) = x21 (t2 ) + X = 2 + Et2 + F
2 2

x12 (t2 ) = x22 (t2 ) t2 = t2 + E


que incluye una incgnita ms, pero tambin dos ecuaciones.

c
SPH
128 Captulo 4. Control ptimo de Sistemas en tiempo Continuo

La solucin del problema para este caso se obtiene resolviendo el sistema

t21
+ Et1 + F = 0 (4.103)
2

t1 + E = 0 (4.104)

t22 + Et2 + (F X) = 0 (4.105)

2t2 + E = 0 (4.106)

De 4.104 y 4.106 obtenemos


t1
t2 =
2
y utilizando el resto de ecuaciones
t1 = 2 X
Aunque ya no es necesario, podemos calcular la expresin para las variables de co-estado p1 (t) y p2 (t),
utilizando para ello la condicin de contorno 4.101 y el hecho de que en t2 el co-estado ptimo p2 (t) pasa de
positivo a negativo, es decir, se anula en t2

p2 (t1 ) = 1 At1 + B = 1

p2 (t2 ) = 0 At2 + B = 0

que tiene por solucin

1 1 1 2
A = = = =
t1 t2 t1 t1 /2 t1 /2 t1
t2
B = =1
t1 t2

4.6.3 Control Bang-O-Bang


Las funciones de coste que hemos empleado hasta ahora han estado relacionadas con el tiempo y con el
cuadrado de la variable de control de forma separada y conjunta. Adicionalmente, es posible, definir otro ndice
de rendimiento que depende del valor absoluto de la variable de control. Este ndice de coste, normalmente
se denomina coste de combustible, puesto que el combustible se consume cualquiera que sea la direccin del
empuje efectuado por un motor. Los costes de esta clase introducen una nueva caracterstica en la solucin e
incrementa la dificultad del mismo.
En esta seccin se discute el problema de mnimo combustible con entradas de control acotadas en magnitud.
El control del combustibles es importante por ejemplo en aplicaciones aerospaciales donde el combustible est
limitado y debe conservarse. Supongamos el sistema descrito por la ecuacin

x= Ax + Bu (4.107)

donde A Mnn (R), B Mnm (R), x (t) Rn , u (t) Rm .


Si se asume que el combustible en cada componente de la entrada es proporcional a la magnitud de esa
componente, podemos definir un ndice de rendimiento (o coste) de la foma

Zt1 X
m
J (u) = i |ui (t)| dt (4.108)
t0 i=1

c
SPH
4.6. Problemas con entradas acotadas 129

donde se permite la posibilidad de penalizar de forma diferente el combustible quemado en cada una de las m
componentes ui (t) de u (t) utilizando un escalar i > 0 como peso. Si se define el vector valor absoluto como

|u1 |

|u| = ... (4.109)
|um |
T
y el vector = [ 1 , 2 , . . . , m ] tenemos
Zt1
J (u) = T |u (t)| dt (4.110)
t0

Si el control es acotado, entonces podemos asumir


|u (t)| 1 (4.111)
para todo t [t0 , t1 ]
El problema consiste en encontrar un control u que minimice J (u) , que cumpla 4.111 y que lleve el sistema
desde un estado inicial x (t0 ) hasta un estado final x (t1 ). Adems el estado final puede estar restingido por una
condicin de estado final del tipo
(t1 , x (t1 )) = 0 (4.112)
para una determinada funcin .
El instante de tiempo final t1 puede ser fijo o libre, aunque hay que notar, sin embargo, que t1 debe ser al
menos tan grande como el mnimo tiempo requerido para llevar x (t0 ) hasta el estado final x (t1 ) cumpliendo
4.112.
El Hamiltoniano para este sistema es
H = T |u| + pT (Ax + Bu) (4.113)
y de acuerdo al principio del mnimo 4.82, el control optimal debe cumplir
T T
T |u | + (p ) (Ax + Bu ) T |u| + (p ) (Ax + Bu) (4.114)
para cualquier otro control u (t) admisible. Puesto que el estado y el co-estado ptimos aparecen a ambos lados
de la desigualdad, la expresin se simplifica
T T
T |u | + (p ) Bu T |u| + (p ) Bu (4.115)
para cualquier u (t) admisible.
Para traducir la ecuacin 4.115 en una regla que nos permita obtener u (t) a partir del co-estado ptimo

p (t), se asume que las m componentes del control son independientes por tanto, para cada j = 1, . . . , m se
requiere que para cualquier control admisible uj (t) se cumpla la desigualdad

(p )T bj uj (p )T bj uj
uj + |uj | + (4.116)
j j
donde bj denota la jsima columna de B. Debemos ahora demostrar cmo seleccionar las componentes del
T
control uj (t) a partir de (p ) bj
Puesto que
uj si uj 0
|uj | = (4.117)
uj si uj 0
podemos escribir la cantidad que estamos tratando de minimizar como
!

bTj p

1+ uj uj 0
bTj puj j
M
qj (t) = |uj | + = ! (4.118)
j
bTj p

1 + uj uj 0
j

c
SPH
130 Captulo 4. Control ptimo de Sistemas en tiempo Continuo

Para minimizar qj (t) de forma que 4.116 se cumpla, tendremos que seleccionar valores para uj (t) correspon-
dientes al lmite inferior de la regin sombreada de la figura. Sin embargo, si bTj p/ j = 1, entonces cualquier
valor no positivo de uj (t) har qj (t) = 0. Por otra parte, si bTj p/ j = 1, entonces cualquier valor no-negativo
para ui (t) har que qi (t) = 0. Analticamente, al minimizar la funcin qj (t) tendremos lo siguientes casos:

1. Caso I)

1 + bTj p/ j < 0 1 + bTj p/ j uj 0 uj 0
bTj p/ j < 1 qj (t) =

1 + bTj p/ j < 0 1 + bTj p/ j uj 0 uj 0

y por tanto el mnimo de qj (t) se alcanza cuando uj = 1.

2. Caso II)

0 < 1 + bTj p/ j 1 + bTj p/ j uj 0 uj 0
1 < bTj p/ j < 1 qj (t) =

1 + bTj p/ j < 0 1 + bTj p/ j uj 0 uj 0

y por tanto el mnimo de qj (t) se alcanzar cuando uj = 0

3. Caso III)

1 + bTj p/ j > 0 1 + bTj p/ j uj 0 uj 0
bTj p/ j > 1 qj (t) =

1 + bTj p/ j > 0 1 + bTj p/ j uj 0 uj 0

y por tanto el mnimo de qj (t) se alcanzar cuando uj = 1

4. caso IV)

1 + bTj p/ j = 0 0 uj 0
bTj p/ j = 1 qj (t) =

1 + bTj p/ j = 2 2uj 0 uj 0
y por tanto el mnimo de qj (t) se alcanza para cualquier valor uj 0.

5. caso V)

1 + bTj p/ j = 2 2uj uj 0
bTj p/ j = 1 qj (t) =

1 + bTj p/ j = 0 0 uj 0
y por tanto el mnimo de qj (t) se alcanza para cualquier valor uj 0.

Por tanto la ley del control de mnimo combustible expresada en trminos de las variables de co-estado es


bTj p

1 < 1

j



bTj p

no negativo = 1

j


bTj p
uj (t) = 0 1 < <1 (4.119)

j



bTj p

no positivo =1

j



bTj p


1 1<
j

c
SPH
4.6. Problemas con entradas acotadas 131

De forma general se define la funcin zona muerta (dead zone)




1 w < 1


entre 1 y 0 w = 1
dez (w) = 0 1 < w < 1 (4.120)



entre 1 y 0 w=1

1 w>1

y entonces podemos escribir el control de mnimo combustible como


!

bTj p (t)
uj (t) = dez , i = 1, . . . , m (4.121)
j

Puesto que cada componente de u (t) es saturada o igual que cero, diremos que esta es una ley de control
bang-o-bang.
bT p (t)
Si i es igual a 1 o 1 sobre un intervalo de tiempo finito no nulo, entonces el principio del mnimo
ci
bT p (t)
no define la componente ui (t). Este es llamado un intervalo singular. Si i es igual que 1 o 1 solo en
ci
un nmero finito de instantes de tiempo aislados t, el problema del mnimo combustible, se dice normal.

El problema de la posicin con coste de combustible


Como ejemplo de aplicacin prctica de un control de tipo bang-o-bang, consideraremos el problema de
la posicin visto para el control bang-bang, pero utilizando ahora una funcin de coste definida mediante la
siguiente integral
Zt1
J (u) = (k + |u|) dt (4.122)
0

donde k es una constante positiva. Ahora tenemos dos componentes para el coste, una dependiente del tiempo
y otra del combustible empleado. La constante k mide la importancia relativa entre las dos componentes. De
nuevo y sin prdida de generalidad, asumiremos que el objeto se encuentra en reposo en el instante inicial y a
una distancia X del origen y que supondremos, sin prdida de generalidad, que es positiva. El fin del problema
es situar el objeto en reposo en el origen en un tiempo t1 minimizando el ndice dado por 4.122. Con estas
hiptesis las condiciones de contorno inicial y final son:

x1 (0) = X > 0

x2 (0) = 0
(4.123)
x1 (t1 ) = 0

x2 (t1 ) = 0

Siendo x1 (t) y x2 (t) la posicin y velocidad del objeto respectivamente.


El hamiltoniano para este problema es

H (t, x, u, p) = k + |u| + p1 x2 + p2 u (4.124)

de donde se obtienen las ecuaciones de estado y co-estado


H
x1 = = x2
p1
H
x2 = =u
p2

c
SPH
132 Captulo 4. Control ptimo de Sistemas en tiempo Continuo

H
p1 = = (0)
x1
H
p2 = = (p1 )
p2
Para este sistema la funcin de coste terminal y la funcin de estado final son

0

x1 (t)
(t, x (t)) =
x2 (t)

siendo la restriccin de estado final



x1 (t1 ) 0
(t1 , x (t1 )) = =
x2 (t1 ) 0

Como el tiempo final t1 es libre, pero el estado final x (t1 ) es fijo la ecuacin de las condiciones de contorno
nos proporciona la ecuacin:

H (t1 ) = 0 k + |u (t1 )| + p1 (t1 ) x2 (t1 ) + p2 (t1 ) u (t1 ) = 0 k + |u (t1 )| + p2 (t1 ) u (t1 ) = 0 (4.125)

Integrando las ecuaciones de co-estado

p1 = A
(4.126)
p2 = B At

La diferencia respecto al problema de tiempo mnimo sin ahorro de combustible (control bang-bang) aparece
cuando aplicamos el principio del mnimo

k + |u | + p1 x2 + p2 u k + |u| + p1 x2 + p2 u

que se reduce a
|u | + p2 u |u| + p2 u
Y tendremos que elegir u , entre 1 y 1, que minimice la cantidad

(p2 + 1) u u0
q (t) = p2 u + |u| =

(p2 1) u u0

El valor asignado a u se va a obtener comparando el valor de p2 (t) con los valores 1 y 1




p2 + 1 < 0 Si (u 0) (p2 + 1) u 0



p2 < 1 u = 1



p2 1 < 2 < 0 Si (u 0) (p2 1) u 0






0 < p2 + 1 Si (u 0) (p2 + 1) u 0
1 < p2 < +1 u = 0



p2 1 < 0 Si (u 0) (p2 1) u 0







p2 + 1 > 2 > 0 Si (u 0) (p2 + 1) u 0



p > +1 u = 1
2
p2 1>0 Si (u 0) (p2 1) u 0

c
SPH
4.6. Problemas con entradas acotadas 133

Para los casos en que p2 = 1 o p2 = 1, el valor del control ptimo u est indeterminado, siendo no negativo
en el primer caso y no positivo en el segundo. Combinando esos resultados, deducimos que la variable de control
est dada por

+1 p2 < 1



u = 0 1 < p2 < +1 (4.127)





1 p2 < 1
En el control bang-bang, cuando la funcin de coste solamente depende del tiempo final, el control cambiaba
entre los valores extremos 1 y +1. Sin embargo, ahora hay tres posibles valores para el control, los valores
extremos y donde el control se apaga. Con una funcin de coste que depende de la magnitud de u, es claramente
ventajoso poner u = 0 cada vez que esto sea posible, pero est claro que el control debe emplearse durante
cierto tiempo, de lo contrario el objeto permanecera en reposo.
De nuevo la variable de co-estado p2 (t), que es la que sirve para la eleccin del control ptimo, es una funcin
lineal de t, por lo que se pueden dar los siguientes casos:

Caso 1) p2 (t) < 1 t [0, t1 ] u (t) = 1 t [0, t1 ]



p2 (t) < 1 t [0, t2 ] 1 t [0, t2 ]
Caso 2) u (t) =

1 < p2 (t) < 1 t [t2 , t1 ] 0 t [t2 , t1 ]
(4.128)

p2 (t) < 1 t [0, t2 ]
1 t [0, t2 ]




Caso 3) 1 < p2 (t) < 1 t [t2 , t3 ] u (t) = 0 t [t2 , t3 ]







p2 (t) > 1 t [t3 , t1 ] 1 t [t3 , t1 ]

1 < p2 (t) < 1 t [0, t2 ] 0 t [0, t2 ]
Caso 4) u (t) =

p2 (t) > 1 t [t2 , t1 ] 1 t [t2 , t1 ]

Caso 5) p2 (t) > 1 t [0, t1 ] u (t) = 1 t [0, t1 ]



p2 (t) > 1 t [0, t2 ] 1 t [0, t2 ]
Caso 6) u (t) =

1 < p2 (t) < 1 t [t2 , t1 ] 0 t [t2 , t1 ]


p2 (t) > 1 t [0, t2 ]
1 t [0, t2 ]




Caso 7) 1 < p2 (t) < 1 t [t2 , t3 ] u (t) = 0 t [t2 , t3 ]







p2 (t) < 1 t [t3 , t1 ] 1 t [t3 , t1 ]

1 < p2 (t) < 1 t [0, t2 ] 0 t [0, t2 ]
Caso 8) u (t) =

p2 (t) < 1 t [t2 , t1 ] 1 t [t2 , t1 ]

Caso 9) 1 < p2 (t) < 1 t [0, t1 ] u (t) = 0 t [0, t1 ]

que corresponden con las diferentes posiciones que puede tomar la recta dentro del intervalo [0, t1 ].
Con el objetivo de simplificar el problema y como en cualquier caso el control ptimo es un valor que no
depende del tiempo, vamos a obtene la solucin general del sistema

x1 = x2

c
SPH
134 Captulo 4. Control ptimo de Sistemas en tiempo Continuo


x2 =

donde el valor de puede ser 1, 0 o 1, segn el caso, de entre los anteriores nueve, que estemos tratando.
Integrando el sistema obtenemos
t2
x1 = + t +
2
(4.129)
x2 (t) = t +

donde obviamente los valores de , , dependern del valor de u .


En casos particulares solamente es necesaria una parte de estas secuencias; por ejemplo, puede ser posible
alcanzar el objetivo sin cambiar el control. Pero debido a la linealidad de p2 (t) es imposible cambiar directamente
desde 1 hasta +1 o viceversa para la solucin ptima sin utilizar el valor intermedio de u = 0. Notar que
la determinacin del control en 4.127 deja sus valores arbitrarios cuando p2 es igual a 1 o +1. En general
esto solamente ocurrir en valores discretos de t y la indeterminacin del control no afectar a la solucin. No
obstante, en el caso extremo en el que p2 fuera constante e igual a alguno de estos valores, 1 o 1, entonces u
podra tomar cualquier valor entre 0 y +1, si p2 = 1, o bien si p2 = 1, entonces u podra tomar cualquier
valor entre 1 y 0.
Con las condiciones inicial y final dadas en 4.123 est claro que no podemos comenzar con un control u = 0,
ya que en ese caso permaneceramos en el estado inicial de reposo, descartando as los casos 4, 8 y 9 de la
tabla dada en 4.128. Por razones similares tampoco podemos terminar la secuencia de controles con u = 0,
descartamos en este caso los casos 2 y 6 de esa misma tabla.
Por otra parte, cualquier control inicial positivo movera el estado fuera del objetivo (casos 1,2 y 3) y por
tanto llegamos a la conclusin de que debemos hacer que la secuencia de controles sea del tipo {1, 0, +1} o del
tipo {1}. Igual que para los casos anteriores demostraremos a continuacin de forma analtica que la secuencia
{1} no produce el comportamiento deseado del sistema, ya que pretendemos dejar el objeto en reposo cuando
ste se encuentre en el origen.
Supongamos que la secuencia de controles es del tipo {1}, en ese caso las ecuaciones 4.129 con = 1, para
t [0, t1 ] nos proporcionan las ecuaciones de estado

t2
x1 (t) = + t +
2

x2 (t) = t +

y podremos calcular y utilizando las condiciones de contorno inicial y final 4.123


x1 (0) = X = X

x2 (0) = 0 = 0

t21
x1 (t1 ) = + t1 + = 0 t21 = 2
2

x2 (t1 ) = t1 + = 0 t1 = 0
y por tanto no es una solucin vlida ya que estamos exigiendo que

0 = t1 = X > 0

y solamente habra solucin si X = 0, y en ese caso no hace falta aplicar ningn control puesto que ya se dan
las condiciones finales del problema.
Como se ha comentado antes el resto de casos, salvo el nmero 7, se puede descartar de la misma manera.
En el caso 7, la secuencia de controles es {1, 0, 1}, que se emplean en los intervalos [0, t2 ], [t2 , t3 ] y [t3 , t1 ]
respectivamente. Si estamos en un punto X > 0, situado a la derecha del origen, aplicamos un control en

c
SPH
4.6. Problemas con entradas acotadas 135

sentido contrario (u = 1) para iniciar el movimiento hacia el origen, despus se apagan los controles para
ahorrar combustible y aprovechar la inercia de movimiento, y despus se emplea un control en sentido positivo,
contrario al movimiento (u = 1) para dejar al objeto en reposo en el origen. La solucin se da a continuacin.
Existen 2 tiempos intermedios t2 y t3 en los cuales ocurren los cambios en el valor de u . Estudiamos el
problema para los 3 subintervalos [0, t2 ] , [t2 , t3 ] y [t3 , t1 ]

1. Intervalo I1 = [0, t2 ]
En este intervalo u = = 1 y las soluciones generales para las variables de estado x1 (t) y x2 (t) seran

t2
x11 (t) = + 1t + 1
2

x12 (t) = t + 1

donde el superndice en las variables de estado 1 indica que la solucin se obtiene para el intervalo I1 .
En ese intervalo se aplican las condiciones de contorno para el estado inicial

x11 (0) = X 1 = X

x12 (0) = 0 1 = 0

y las expresiones para los estados ptimos en I1 quedan como

t2
x11 (t) = +X
2

x12 (t) = t

2. Intervalo I2 = [t2 , t3 ]
En este intervalo u = = 0 y las soluciones generales para las variables de estado x1 (t) y x2 (t) en este
intervalo seran

x21 (t) = 2 t + 2

x22 (t) = 2

donde el superndice en las xj (t) indica que son la solucin para el intervalo I2 .
3. Intervalo I3 = [t3 , t1 ]
En este intervalo u = = 1 y las soluciones generales para las variables de estado x1 (t) y x2 (t) estn
ahora definidas por

t2
x31 (t) = + 3t + 3
2

x32 (t) = t + 3

donde de nuevo el superndice 3, indica que la solucin se obtiene para el intervalo I3 .


En ese intervalo se aplicarn las condiciones de contorno para el estado final del sistema

t21
x31 (t1 ) = 0 + 3 t1 + 3 = 0
2
(4.130)
x12 (t1 ) = 0 t1 + 3 = 0

c
SPH
136 Captulo 4. Control ptimo de Sistemas en tiempo Continuo

Quedan por determinar los parmetros: 2 , 3 , 2 , 3 , los instantes de cambios en el control t2 y t3 y el


instante final t1 , en total 7 incgnitas. Para encontrar los valores de estos parmetros suponemos continuidad
en las soluciones en los instantes de cambio t2 y t3 , es decir

t22
x11 (t2 ) = x21 (t2 ) + X = 2 t2 + 2
2

x12 (t2 ) = x22 (t2 ) t2 = 2

t23
x21 (t3 ) = x31 (t3 ) 2 t3 + 2 = + 3 t3 + 3
2

x22 (t3 ) = x32 (t3 ) 2 = t3 + 3

Estas cuatro ecuaciones junto con las dadas en 4.130 forman un sistema de 6 ecuaciones y 7 incgnitas. Para
encontrar la ecuacin que falta haremos uso de la condicin de contorno dada en 4.125, teniendo en cuenta que
en t1 , u (t1 ) = 1
k + |u (t1 )| + p2 (t1 ) u (t1 ) = 0 k + 1 + p2 (t1 ) = 0

y teniendo en cuenta la expresin para p2 (t)

At1 + B + k + 1 = 0

ecuacin que aporta 2 incgnitas ms A y B. Tenemos por tanto 7 ecuaciones y 9 incgnitas. Las dos ecuaciones
que faltan las proporciona el hecho de que en t2 y t3 la funcin p2 (t) pasa de ser mayor que 1 a ser menor en
t2 , mientras que en t3 pasa de ser mayor que 1 a ser menor. Por tanto como p2 (t) es lineal debe ocurrir:

p2 (t2 ) = 1 At2 + B = 1

p2 (t3 ) = 1 At3 + B = 1

que complentan el sistema con 9 ecuaciones y 9 incgnitas.


La resolucin del sistema, que reproducimos a continuacin por comodidad es sencilla :

t21
+ 3 t1 + 3 = 0 (S1-1)
2

t1 + 3 = 0 (S1-2)

t22
+ X 2 t2 2 = 0 (S1-3)
2

t2 + 2 = 0 (S1-4)

t23
2 t3 + 2 3 t3 3 = 0 (S1-5)
2

2 t3 3 = 0 (S1-6)

At1 + B + k + 1 = 0 (S1-7)

At2 + B 1 = 0 (S1-8)

At3 + B + 1 = 0 (S1-9)

De (S1-2) y (S1-3) obtenemos 3 = t1 y 2 = t2 , respectivamente, sustituyendo se obtiene el siguiente

c
SPH
4.6. Problemas con entradas acotadas 137

sistema
t21
+ 3 = 0 (S2-1)
2

t22
+ X 2 = 0 (S2-3)
2
t23
t2 t3 + 2 + t1 t3 3 = 0 (S2-5)
2

t2 t3 + t1 = 0 (S2-6)

At1 + B + k + 1 = 0 (S2-7)

At2 + B 1 = 0 (S2-8)

At3 + B + 1 = 0 (S2-9)
De (S2-1) y (S2-3) obtenemos

t21
3 =
2

t22
2 = +X
2
y se construye el nuevo sistema con 2 incgnitas menos
t22 t2 t2
t2 t3 + + X 3 + t1 t3 1 = 0 (S3-5)
2 2 2

t2 t3 + t1 = 0 (S3-6)

At1 + B + k + 1 = 0 (S3-7)

At2 + B 1 = 0 (S3-8)

At3 + B + 1 = 0 (S3-9)

Utilizando las ecuaciones (S3-8) y (S3-9) podemos expresar las incgnitas A y B en trminos de t2 y t3
2
A =
t3 t2
t3 + t2
B =
t3 t2
que sustituido en (S3-7) nos conduce al sistema de 3 ecuaciones y 3 incgnitas

t22 t2 t2
t2 t3 + + X 3 + t1 t3 1 = 0 (S4-5)
2 2 2

t2 t3 + t1 = 0 (S4-6)

2 t3 + t2
t1 + +k+1=0 (S4-7)
t3 t2 t3 t2
Ahora de (S4-6)
t3 = (t1 t2 )

c
SPH
138 Captulo 4. Control ptimo de Sistemas en tiempo Continuo

y sustituyendo en (S4-5) y (S4-7) el sistema queda como


t22 t2 t1 + X = 0 (S5-5)

t1
+ k + 1 = 0 (S5-7)
(2t2 t1 )
A partir de (S5-7) obtenemos el valor para t2 en trminos del tiempo final t1

kt1
t2 =
2 (k + 1)
que sustituido en (S5-5) nos porporciona una ecuacin de segundo grado en t1
2
kt1 kt1 4 (k + 1) X
t1 + X = 0 t21 =
2 (k + 1) 2 (k + 1) k (k + 2)
Como t1 0, nos quedamos con la raz positiva
s
4 (k + 1)2 X
t1 =
k (k + 2)
y utilizando las ecuaciones anteriores determinamos el valor del resto de incgnitas:
s s
k k 4 (k + 1)2 X kX
t2 = t1 = =
2 (k + 1) 2 (k + 1) k (k + 2) (k + 2)
r
k k (k + 2) X
t3 = t1 t2 = t1 t1 = 1 t1 =
2 (k + 1) 2 (k + 1) k
r
2 k (k + 2)
A= =
t3 t2 X
t3 + t2
B= =k+1
t3 t2
s
kX
2 = t2 =
(k + 2)
s
2
4 (k + 1) X
3 = t1 =
k (k + 2)
t22 X (3k + 4)
2 = +X =
2 2 (k + 2)
2
t21 2 (k + 1) X
3 = =
2 k (k + 2)
El ndice de rendimiento ptimo, teniendo en cuenta los valores de u en los intervalos [0, t2 ], [t2 , t3 ] y [t3 , t1 ]
se obtiene como
Zt1 Zt2 Zt3 Zt1

J (x , u ) = k + |u | dt = (k + 1) dt + (k + 0) dt + (k + 1) dt =
0 0 t2 t3

= (k + 1)t2 + k (t3 t2 ) + (k + 1) (t1 t3 ) =

= kt1 + t1 + t2 t3 = kt1 + 2t2 =

k (k + 2) p
= t1 = 4Xk (k + 2)
(k + 1)

c
SPH
4.6. Problemas con entradas acotadas 139

Notar que si hacemos k , la parte temporal de la integral se hace ms importante y el coste depende
principalmente del tiempop transcurrido en alcanzar el objetivo y en menor cantidad en el combustible gastado,
el intervalo t3 t2 = 4X/ (k (k + 1)), durante el que el motor est parado es muy corto y en ese caso t1
se aproxima al valor obtenido para el problema de la posicin sin coste de combustible resuelto en la seccin
anterior.
Si por el contrario k es pequeo el ahorro de combustible es la consideracin dominante. En el lmite cuando
k 0, entonces t1 y no habra solucin al problema, puesto que necesitamos un tiempo infinito para
alcanzar el objetivo. Si hubiramos intentado resolver el problema directamente con k = 0, entonces habramos
encontrado que el tiempo de intercambio t2 = 0, por tanto tedramos que haber comenzado con los motores
apagados. Puesto que esto implica que permanecemos en la posicin para siempre, no hay solucin ptima,
aunque podamos hacer un coste arbitrariamente pequeo. Si encendemos los2 motores
por un periodo corto

de tiempo , con u = 1, alcanzaramos la posicin x11 ( ) , x12 ( ) = + X, , entonces podemos
2 2

apagar los motores y deslizarnos en punto muerto con velocidad constante hasta alcanzar la posicin
2
respecto al origen, es decir, recorriendo una distancia igual a X 2 ; por ltimo utilizamos u = 1 durante el
resto del tiempo para alcanzar el origen. El tiempo total utilizado es

X 2 X
+ + = +

siendo el coste para esta operacin (k = 0)

+(X 2 )/ X
+
Zt1 Z Z Z

J (x, u) = |u | dt = 1dt + 0dt + 1dt =
0 0 +(X 2 )/

= + = 2

Puesto que es arbitrario, el coste puede hacerse suficientemente pequeo, aunque el tiempo transcurrido es
entonces arbitrariamente grande.

c
SPH
140 Captulo 4. Control ptimo de Sistemas en tiempo Continuo

c
SPH
Captulo 5

Control ptimo de sistemas discretos

En este captulo se obtendr la solucin general para problemas de optimizacin para sistemas en tiempo
discreto, que se aplica en particular a sistemas lineales con ndice de coste cuadrtico.

5.1 Solucin del problema de optimizacin discreta general


Supongamos que el sistema est descrito por la ecuacin dinmica general

xk+1 = f k (xk , uk ) (5.1)

junto con la condicin inicial x0 . El superndice de la funcin f indica que puede depender del tiempo. Supon-
gamos que el estado del sistema xk es un vector ndimensional y que el control uk es un vector mdimensional.
Puesto que 5.1 determina el estado del sistema en el tiempo k + 1 conociendo el control y el estado en tiempo
k, esta ser nuestra restriccin de estado. Obviamente, f k Rn .
Si consideramos el ndice de rendimiento asociado dado por la forma general
N
X 1
J (x, u) = (N, xN ) + Lk (xk , uk ) (5.2)
k=0

donde [0, N ] es el intervalo de tiempo en el que queremos estudiar el comportamiento del sistema, (N, xN )
es la funcin de coste terminal que depende del instante final N y del estado del sistema en ese instante xN ,
y Lk (xk , uk ) es una funcin que en general depende del tiempo, del estado y del control en cada instante de
tiempo intermedio k en [0, N ]. El problema del control ptimo en tiempo discreto ser entonces, encontrar el
control ptimo uk en el intervalo [0, N ] que lleva el sistema 5.1 a lo largo de una trayectoria ptima xk de forma
que sea mnimo el ndice de rendimiento 5.2.
Esta claro que la ecuacin 5.1 describe el comportamiento del sistema, mientras que el ndice de rendimiento
dado por 5.2 sirve para elegir la respuesta del sistema adecuada. Para alcanzar diferentes objetivos es necesaria
la eleccin de diferentes ndices de rendimiento.

5.1.1 Introduccin
Para aclarar el problema de formulacin, es importante indicar algunos ndices de rendimiento comunes que
pueden seleccionarse para el sistema 5.1.

Problemas de tiempo mnimo


Supongamos que queremos encontrar el control uk que conduce el sistema desde un estado inicial dado
x0 hacia un estado final xf Rn en el menor tiempo posible. Entonces podramos seleccionar el ndice de
rendimiento
N1
X
J =N = 1 (5.3)
k=0

141
142 Captulo 5. Control ptimo de sistemas discretos

y la condicin de contorno
xN = xf (5.4)
En este caso = N y L = 0, o equivalentemente = 0 y L = 1

Problemas de Mnimo combustible


Para encontrar el control uk que lleve el sistema desde el estado inicial x0 hasta el estado final xf en un
tiempo fijo N utilizando la mnima cantidad de combustible, podemos utilizar el siguiente ndice de rendimiento
N1
X
J= |uk | (5.5)
k=0

puesto que el combustible utilizado es proporcional a la magnitud del vector control. Entonces = 0 y Lk = |uk |.
Las condiciones de contorno son de nuevo xN = xf

Problemas de Energa-Mnima
Supongamos que queremos encontrar uk para minimizar la energa del estado final y todos los estados
intermedios, y tambin del control utilizado para alcanzar este estado final. Sea el instante de tiempo final N,
de nuevo fijo. Entonces podramos utilizar como ndice de rendimiento
N 1
1 T 1 X T
J = sxN xN + qxk xk + ruTk uk (5.6)
2 2
k=0

1 1 T
donde q, r y s son factores peso. Entonces = sxTN xN , y L = qxk xk + ruTk uk que son funciones
2 2
cuadrticas.
Minimizar la energa corresponde en cierto sentido a dejar el estado y el control cerca del cero. Si fuera
ms importante para nosotros que los estados intermedios sean pequeos, entonces debemos elegir q grande,
mientras que si es ms importante que la energa empleada en el control sea pequea, entonces hay que hacer
grande el valor de r. Si por el contrario queremos que el estado final sea pequeo, entonces, s debera ser grande.

5.1.2 Ecuaciones generales


Para determinar la secuencia de controles ptimos u0 , . . . uN 1 , que minimice el ndice J en el intervalo
[0, N ], procederemos como en el caso de optimizacin de funciones reales: utilizando los multiplicadores de
Lagrange. Puesto que hay una funcin restriccin f k (xk , uk ) especfica en cada instante de tiempo k dentro del
intervalo de inters [0, N ], es necesario utilizar un multiplicador de Lagrange en cada instante de tiempo: Cada
restriccin tiene un multiplicador de Lagrange asociado.
Para la restriccin 5.1

xk+1 = f k (xk , uk ) f k (xk , uk ) xk+1 = 0 k = 0, . . . , N 1
elegimos k Rn , y adjuntamos la restriccin al ndice de rendimiento 5.2 para definir un ndice de rendimiento
aumentado J 0 (x, u) definido por
1 h
N
X i
Ja (x, u) = (N, xN ) + Lk (xk , uk ) + Tk f k (xk , uk ) xk+1 (5.7)
k=0

Si definimos la funcin Hamiltoniana como


H k (xk , uk ) = Lk (xk , uk ) + Tk f k (xk , uk ) , k = 0, . . . , N 1 (5.8)
podremos escribir entonces
N
X 1 h i
Ja (x, u) = (N, xN ) + H k (xk , uk ) Tk xk+1
k=0

c
SPH
5.1. Solucin del problema de optimizacin discreta general 143

o de otra forma

Xh
N1 i
Ja (x, u) = (N, xN ) TN1 xN + H 0 (x0 , u0 ) + H k (xk , uk ) Tk1 xk (5.9)
k=1

Si examinamos el incremento en Ja debido a los incrementos en todas las variables xk , k y uk , y asumimos


que N , el tiempo final es fijo. De acuerdo con la teora de los multiplicadores de Lagrange, en un mnimo con
restricciones debe ocurrir dJa = 0, por tanto

N
X N1
X dJa N
X 1
dJa dJa
dJa = dxk + duk + dk =
dxk duk dk
k=0 k=0 k=0

N
X 1 T
0 T T
= Hx0 dx0 + Hxkk Tk1 dxk + xN N 1 dxN + (co216)
k=1

N1
X k T
Huk duk +
k=0

N1
X k T
Hk xk+1 dk
k=0

donde

H k H k H k
Hxkk = ; Hukk = ; Hkk =
xk uk k

De esta manera las condiciones necesarias para un mnimo con restricciones estn dadas por

H k
xk+1 = k = 0, . . . , N 1
k

H k H k+1
k1 = k = 1, . . . , N 1 k = , k = 0, . . . , N 2
xk xk+1

H k
0= k = 0, . . . , N 1 (5.10)
uk
T

N 1 dxN = 0
xN
T
H 0
dx0 = 0
x0

c
SPH
144 Captulo 5. Control ptimo de sistemas discretos

Si utilizamos la relacin 5.1, podremos expresar las ecuaciones anteriores en trminos de la funcin f k
Modelo del sistema:
xk+1 = f k (xk , uk )

ndice de rendimiento:
PN 1
J (x, u) = (N, xN ) + k=0 Lk (xk , uk )

Hamiltoniano
H k (xk , uk ) = Lk (xk , uk ) + Tk f k (xk , uk ) k = 0, . . . , N 1

Ecuacin de Estado
H k
xk+1 = = f k (xk , uk ) k = 0, . . . , N 1
k

Ecuacin de Co-estado
T
H k+1 Lk+1 f k+1
k = = + k+1 k = 0, . . . , N 2
xk+1 xk+1 xk+1

Condicin Estacionaria
T
H k Lk f k
0= =0= + k k = 0, . . . , N 1
uk uk uk

Condiciones de Contorno
T

0= N1 dxN
xN

T T !T
H 0 L0 f 0
0= dx0 = + 0 dx0
x0 x0 x0
Se hace notar que la ecuacin de estado es la propia ecuacin del sistema y es una ecuacin recursiva hacia
adelante en el tiempo. Mientras que la ecuacin de co-estado es una ecuacin recursiva hacia atrs en el tiempo.
De este modo los multiplicadores de Lagrange (que son artificiales) son varaibles determinadas por su propia
ecuacin dinmica. Como se ha comentado anteriormente se denomina ecuacin de co-estado del sistema y
describe el llamado sistema adjunto. Las ecuaciones de estado y co-estado son un sistema de cuaciones en
diferencias acoplado y definen un problema de valor de frontera de dos puntos, puesto que las condiciones de
contorno son el estado inicial x0 y el co-estado final N 1 . Este tipo de problemas es en general, muy difcil
de resolver.
La condicin estacionaria permite expresar al control ptimo uk en trminos del co-estado. Los valores de
k solamente nos interesan como valores intermedios para encontrar los controles ptimos.
Las condiciones de contorno son necesarias para poder resolver las ecuaciones recurrentes de estado y co-
estado. Podemos distinguir dos posibles casos para cada una de esas ecuaciones: que los estados inicial y final
sean fijos o variables.
Si el estado inicial x0 es fijo, entonces trivialmente dx0 = 0, y la ecuacin se cumple independientemente del
H 0
valor de , y en este caso la condicin de contorno se convierte en
x0
x0 = cte.
Si el estado inicial x0 es libre, entonces dx0 no es cero, y por tanto la condicin de contorno exige que
H 0
=0
x0
Generalmente el estado inicial del sistema es conocido y por tanto dx0 = 0, y no habr ninguna restriccin
H 0
sobre = 0, por tanto podemos prescindir de esta condicin de contorno.
x0

c
SPH
5.1. Solucin del problema de optimizacin discreta general 145

Las mismas dos posibilidades se pueden dar para el estado final xN , del sistema: estado final fijo y estado
final libre.
Si xN es fijo, entonces de nuevo dxN = 0, y la ecuacin de contorno correspondiente se cumple trivialmente.
En este caso la condicin de contorno que se utiliza para resolver las ecuaciones es

xN = xf

En el caso variable, dxN 6= 0, y por tanto


T

N1 = 0 N1 =
xN xN

5.1.3 Ejemplo prctico


Con el fin de aplicar las ecuaciones obtenidas en la seccin anterior, plantearemos y resolveremos el siguiente
ejemplo: Considremos el sistema dinmico lineal siguiente

xk+1 = axk + buk

donde a, b R. Supongamos la condicin inicial x0 , y supongamos que se quiere estudiar el comportamiento


del sistema en el intervalo [0, N ] de forma que se minimice el siguiente ndice de energa:
N1
r X 2
J0 = uk
2
k=0

con r R.
Estudiaremos dos casos: estado final fijo y libre.

Estado final fijo


En este caso supongamos que el sistema en el instante k = N , debe tener el estado rN , es decir

xN = rN

Para encontrar la sucesin de controles ptimos, u0 , . . . , uN1 , que conducen el sistema desde el estado inicial
x0 hasta el estado final xN = rN y minimizan J0 , utilizaremos las ecuaciones de la seccin anterior.
Calculamos en primer lugar el Hamiltoniano en cada instante, introduciendo las variables de co-estado k
r 2
H k = Lk + Tk f k = u + k (axk + buk ) k = 0, . . . , N 1
2 k
y utilizando las condiciones correspondientes:

Ecuacin de Estado
H k
xk+1 = = axk + buk k = 0, . . . , N 1
k

Ecuacin de Co-estado
H k+1
k = = ak+1 k = 0, . . . , N 2
xk+1

Condicin Estacionaria
H k
0= = ruk + bk k = 0, . . . , N 1
uk
Utilizando la condicin estacionaria podemos expresar el control en trminos de la variable de co-estado
b
uk = k k = 0, . . . , N 1
r
c
SPH
146 Captulo 5. Control ptimo de sistemas discretos

de este modo si encontramos el valor del co-estado ptimo k podremos calcular el valor del control ptimo uk .
Para encontrar este valor, sustituimos uk en la ecuacin de estado:

b2
xk+1 = axk + buk = axk k
r
y por otra parte resolvemos la ecuacin de co-estado que es una ecuacin en diferencias homognea cuya solucin
en trminos de 0 es:
2 k+1
1 1 1
k = ak+1 k+1 = k = k1 = = 0 k = 0, . . . , N 2
a a a

o bien k
1
k = 0 k = 1, . . . , N 1
a
si sustituimos en la ecuacin de estado
k
b2 1
xk+1 = axk 0
r a

definimos por comodidad el siguiente parmetro

b2 0
=
r
por lo que la ecuacin anterior se puede expresar como

xk+1 = axk ak

que es una ecuacin en diferencias no homogenea cuya solucin se puede obtener facilmente en trminos de x0

xk = axk1 a(k1)
xk = a axk2 a(k2) a(k1) xk = a2 xk2 ak a3 + a

xk1 = axk2 a(k2)

xk = a2 xk2 ak+1 a2 + a0

y recursivamente obtenemos

xk = ak x0 ak+1 a2(k1) + + a2 + a0 =

sumando la serie geomtrica de razn a2 que hay entre parntesis


2k

k k+1 1 a k b2 1 a2k
xk = a x0 a = a x0 0 ak+1
(1 a2 ) r (1 a2 )

Otra forma de resolver la ecuacin recursiva en xk es utilizar la forma general para ecuaciones en diferencias
con coeficientes constantes, es decir, obtendremos la solucin general de la ecuacin en diferencias sumando la
solucin de la ecuacin homognea y una solucin particular de la ecuacin. La ecuacin homognea es

xk+1 = axk xk+1 axk = 0

que tiene como polinomio caracterstico


P () = a
cuya nica raz es = a, y por tanto la solucin general de la homognea es de la forma

xhk = Cak

c
SPH
5.1. Solucin del problema de optimizacin discreta general 147

donde C es constante. Para encontrar ahora una solucin particular de la ecuacin, probamos con soluciones
del tipo
xpk = ak
y sustituyendo en la ecuacin

xpk+1 = axpk ak a(k+1) = aak ak

como la expresin debe ser cierta para k = 0, . . . , N 1, en particular tomamos k = 0


a
a1 = a = a2 a =
1 a2
y la solucin particular es
a k
xpk = a
1 a2
La solucin general de la ecuacin es entonces
a k
xgk = xhk + xpk = Cak a
1 a2
Para hallar el valor de C en trminos de x0 tomamos k = 0
a a
x0 = C C = x0 +
1 a2 1 a2
y la solucin es
a a k ak+1
xk = x0 + ak a xk = x0 ak 1 a2k
1 a2 1a2 1a 2

que de nuevo es la solucin buscada.


Ahora para encontrar el valor de 0 utilizaremos las condiciones de contorno. Puesto que tanto el estado
inicial x0 como el final xN son fijos, las condiciones de contorno se cumplen de forma trivial, ya que en este
caso tendremos dx0 = 0 y dxN = 0. Se utiliza en este caso las condiciones inicial y final

x0 = x0

xN = rN

Utilizando la condicin final



N b2 1 a2N N +1 N b2 1 a2N N +1
xN = a x0 a 0 rN = a x0 a 0 = aN x0 0
r (1 a2 ) r (1 a2 )

donde
b2 1 a2N N +1
= a
r (1 a2 )
y despejando 0 N
a x0 rN
0 =

Podemos ahora calcular los valores para las variables de co-estado en cada instante k
k N
1 a x0 rN
k = 0 =
a ak

y el control ptimo
b b aN x0 rN b rN aN x0 k
uk = k = = a
r r ak r

c
SPH
148 Captulo 5. Control ptimo de sistemas discretos

Calculamos el valor de la trayectoria ptima xk



k b2 1 a2k k+1 k b2 aN x0 rN 1 a2k k+1
xk = a x0 0 a = a x0 a
r (1 a2 ) r (1 a2 )
y sustituyendo
rN aN x0 1 a2 N 1k
uk= a
b (1 a2N )
N
k a x0 rN 1 a2k N k
xk = a x0 a
(1 a2N )
y el valor ptimo del ndice de rendimiento J0 ser
N1 N 1
!2
r X 2 r X b rN aN x0 k b2 N
1
2 NX
J0 = (uk ) = a = rN a x0 a2k =
2 2 r 2r 2
k=0 k=0 k=0

b2 2 1 a2N b2 2 1 a2N
= 2
rN aN x0 = rN aN
x0 a2(N 1)
2r 1 a2 2r 2 1 a2
y teniendo en cuenta el valor de

b2 N
2 1 a2N 2(N 1) 1 N
2 (N 1) r 1 a2 2
J0 = rN a x0 a = rN a x0 a = 2 rN aN x0
2r 2 1 a2 2 2b (1 a2N )

Estado final libre


En esta seccin utilizaremos otro mtodo de asegurar que el sistema est suficientemente cerca del estado
final rN en el instante N . Para ello vamos a suponer que no es necesario que suceda la igualdad entre xN y rN ,
sin embargo, ser necesario que no haya una diferencia muy grande entre ellos. Podemos conseguir este objetivo
y a la misma vez minimizar la energa utilizada, si incorporamos un trmino en el ndice de rendimiento que
represente la diferencia entre xN y rN . Un ndice que represente esta situacin tipo podra ser el siguiente
N1
1 r X 2
J1 = (xN rN )2 + uk
2 2
k=0

de esta forma el objetivo ser minimizar la energa (indicada en el sumatorio) a la misma vez que se intenta
acercar xN a rN lo mximo posible.
En este caso hay funcin de coste terminal
1 2
(N, xN ) = (xN rN )
2
sin embargo las funciones f k y Lk del problema no cambian y por tanto el Hamiltoniano sigue siendo el mismo
que para el estado final fijo visto en la seccin anterior. De esta forma las ecuaciones de estado, co-estado y
estacionarias siguen siendo las mismas:

Ecuacin de Estado
H k
xk+1 = = axk + buk k = 0, . . . , N 1
k

Ecuacin de Co-estado
H k+1
k = = ak+1 k = 0, . . . , N 2
xk+1

Condicin Estacionaria
H k
0= = ruk + bk k = 0, . . . , N 1
uk

c
SPH
5.1. Solucin del problema de optimizacin discreta general 149

Las soluciones para el sistema anterior sern pues la mismas que para el caso de tiempo final fijo salvo que
ahora cambian las condiciones de contorno. Recordemos que las soluciones de las ecuaciones en diferencias eran:

k b2 1 a2k
xk = a x0 0 ak+1 k = 0, . . . , N
r 1 a2
k
1
k = 0 k = 1, . . . , N 1
a
k
b 1
uk = 0 k = 0, . . . , N 1
r a

En este caso el valor de 0 no puede obtenerse a partir de la condicin final, puesto que xN no es conocido.
Tendremos que hacer uso de las condiciones de contorno.
Puesto que ahora xN no es fijo, ocurrir dxN 6= 0, y por tanto de acuerdo con las ecuaciones generales
T T

0= N 1 dxN N 1 = 0 N 1 =
xN xN xN

y utilizando la expresin de la funcin


N1
1
N 1 = xN rN 0 = xN rN 0 = aN 1 (xN rN )
a

y el co-estado final est ahora relacionado con el estado final xN y el estado deseado rN .
De la expresin de xk y haciendo k = N , obtenemos

N b2 1 a2N
xN = a x0 0 aN+1
r 1 a2

y sustituyendo el valor de 0 de la ecuacin anterior



N b2 1 a2N
xN = a x0 aN 1 (xN rN ) aN+1 =
r 1 a2

b2 1 a2N
= aN x0 (xN rN )
r 1 a2

podemos obtener el valor de xN


rN + aN x0
xN =
1+
donde hemos definido como
b2 1 a2N
=
r 1 a2
y por tanto
N 1 N1 rN + aN x0 aN x0 rN N 1
0 = a (xN rN ) = a rN = a
1+ 1+
y el co-estado para k es
k N
1 N1k a x0 rN
k = 0 = a
a 1+
y por tanto el control ptimo es

b b rN aN x0
uk = k = aN 1k
r r 1+

c
SPH
150 Captulo 5. Control ptimo de sistemas discretos

Para finalizar la trayectoria ptima tendr la expresin


N
k b2 1 a2k a x0 rN Nk
xk = a x0 a
r 1 a2 (1 + )

con estado final


rN + aN x0
xN =
1+
Notar que si r 0, entonces
b2 1 a2N
lim = lim =
r0 r0 r 1 a2
y por tanto
rN + aN x0
lim xN = lim = rN
r0 r0 1+
Por ltimo el valor ptimo del ndice de rendimiento
N 1 2 N1 2
1 r X 2 1 rN + aN x0 r X b rN aN x0
J1 = (xN rN )2 + (uk ) = rN + aN1k =
2 2 2 1+ 2 r 1+
k=0 k=0
2
1 aN x0 rN r b2 N
1
2 2(N1) NX
= + rN a x0 a a2k =
2 1+ 2 r2 (1 + )2
k=0
2 2
1 aN x0 rN b2 rN aN x0 a2(N 1) 1 a2N
= + =
2 1+ 2r (1 + )2 (1 a2 )
2 2
1 aN x0 rN b2 rN aN x0 1 a2N
= + 2 =
2 1+ 2r (1 + ) (1 a2 )
2 2
1 aN x0 rN rN aN x0
= + 2 =
2 1+ 2 (1 + )
1 2
= rN aN x0
2 (1 + )

Notar que el coste ptimo para el caso de estado final fijo era

r 1 a2 2 1 2
J0 = 2 2N
rN aN x0 = rN aN x0
2b (1 a ) 2

c
SPH
Captulo 6

Programacin Dinmica

6.1 Principio de optimalidad de Bellman


El propsito de este captulo es presentar una breve introduccin a la programacin dinmica, que es una
alternativa a los mtodos de control optimal discutidos en los temas precedentes.
La programacin Dinmica fue desarrollada por R.E. Bellman a finales de los aos 50 y puede utilizarse
para resolver problemas de control de sistemas no lineales y dependientes del tiempo.
La programacin dinmica est basada en el llamado principio de optimalidad de R. Bellman, segn el
cual en una trayectoria ptima que une dos puntos A y D cualquier tramo de extremos B y C es en s una
trayectoria ptima entre todas las posibles que van de B a C.
El principio de optimalidad juega un papel similar al jugado por el principio del mnimo de Pontryagin
para los mtodos variacionales de los sistemas de control. Sirve para limitar el nmero de los posibles controles
optimales que deben investigarse. Tambin implica que las estrategias control optimal pueden determinarse
hacia atrs desde el estado final.
En nuestro caso se cumple: Si u es un control ptimo en el intervalo de tiempo [t0 , t1 ] y x es la trayectoria
ptima correspondiente a u , entonces la restriccin de u a cualquier subintervalo [t, t1 ] es un control ptimo
para el estado inicial x (t)

6.2 Sistemas discretos


La aplicacin ms inmediata es en el caso de sistemas discretos. El problema se plantea como:
Dado un sistema
xk+1 = f k (xk , uk )

donde el superndice k de f indica que puede variar con el tiempo, encontrar la secuencia de entrada

{u (0) , u (1) , . . . , u (N )}

que minimiza el ndice de costo


N
X
J= F k (xk , uk )
k=0

Denominando
N
X
Ji = F k (xk , uk )
k=i

este costo ser funcin del instante inicial i, del estado inicial x (i), y de la entrada u en el intervalo [i, N ], pero
no depender de estados anteriores.

151
152 Captulo 6. Programacin Dinmica

Aplicando el principio de Bellman, el ptimo Ji para las trayectorias que en el instante i se encuentran en
el estado x (i), depender por tanto nicamente del estado inicial x (i) y del instante inicial i
(N )
X
Ji = min k
F (xk , uk ) = Ji (xi )
u
k=i

Para i = N se cumple:


JN = min F N (xN , uN )
uN


por lo que JNslo depende de N y de xN .

Si suponemos que Ji+1 slo depende de i + 1 y de xi+1 , el principio de optimalidad de Bellman implica:


Ji (xi ) = min F i (xi , ui ) + Ji+1

(xi+1 ) (6.1)
ui

y adems xi+1 slo depende de xi y de ui por lo que al minimizar respecto de ui , el coste ptimo Ji depender
nicamente de xi y de i.
La aplicacin iterativa de 6.1 desde el final hacia atrs permite calcular uk

6.2.1 Ejemplo
Supuesto el sistema
xk+1 = xk + uk

donde uk {1, 0, 1}, transferir el sistema desde el estado inicial x0 = 2 al estado final x4 = 0 minimizando el
ndice de coste
X4
2
J= xk + 2u2k
k=0

Las posibles trayectorias se indican en la figura 6.1


Se tiene
x4 = 0 u4 = 0 J4 (0) = 0

En el paso del 3 al 4 los nicos caminos posibles son:

x3 = 1 u3 = 1 x4 = 0 J3 (1) = 3
x3 = 0 u3 = 0 x4 = 0 J3 (0) = 0
x3 = 1 u3 = 1 x4 = 0 J3 (1) = 3

En el paso del 2 al 3 los nicos caminos posibles son:

x2 = 2 u2 = 1 x3 = 1 J2 (2) = 9

x2 = 1 u2 = 0 x3 = 1
x2 = 1 u2 = 1 x3 = 0 J2 (1) = 3

x2 = 0 u2 = 1 x3 = 1
x2 = 0 u2 = 0 x3 = 0 J2 (0) = 0
x2 = 0 u2 = 1 x3 = 1

obteniendo los valores de J2 a partir de la expresin



J2 (x2 ) = min x22 + 2u22 + J3 (x3 )
u2

c
SPH
6.2. Sistemas discretos 153

Figura 6.1: Sistema discreto

En el paso del 1 al 2 los nicos caminos posibles son

x1 = 3 u1 = 1 x2 = 2 J1 (3) = 20

x1 = 2 u1 = 0 x2 = 2
x1 = 2 u1 = 1 x2 = 1 J1 (2) = 9

x1 = 1 u1 = 1 x2 = 2
x1 = 1 u1 = 0 x2 = 1
x1 = 1 u1 = 1 x2 = 0 J1 (1) = 3

obteniendo los valores de J1 a partir de la expresin



J1 (x2 ) = min x21 + 2u21 + J2 (x2 )
u1

En el paso del 0 al 1 los nicos caminos posibles son

x0 = 2 u0 = 1 x1 = 3
x0 = 2 u0 = 0 x1 = 2
x0 = 2 u0 = 1 x1 = 1 J0 (2) = 9

obteniendo este valor de J0 a partir de la expresin



J0 (x0 ) = min x20 + 2u20 + J1 (x1 )
u0

c
SPH
154 Captulo 6. Programacin Dinmica

Los valores que toman el control y el estado en la trayectoria ptima son los indicados en la siguiente tabla

k 0 1 2 3 4
xk 2 1 0 0 0
uk 1 1 0 0 0

6.3 Sistemas Continuos


Podemos considerar los problemas de control optimal de un sistema continuo desde dos puntos de vista.
Podemos discretizar, resolver utilizando control optimal discreto o podemos resolver el problema de control
optimal continuo para obtener una salida continua. Estudiemos separadamente ambos casos

6.3.1 Control digital


Sea el sistema

x= f (t, x, u) (6.2)
con el ndice de coste siguiente

Zt1
J (0) = (x (t1 ) , t1 ) + F (t, x (t) , u (t)) dt (6.3)
0

Para discretizar el sistema con un periodo de segundos, podemos utilizar una aproximacin de primer
orden
(x xk )
x (k ) = k+1 (6.4)

para escribir 6.2 como
xk+1 = xk + f (k , xk , uk ) (6.5)
donde xk = x (k ), uk = u (k ). Definiendo

f k (xk , uk ) = xk + f (k , xk , uk ) (6.6)

la ecuacin puede escribirse como


xk+1 = f k (xk , uk ) (6.7)
exactamente igual que en el caso discreto.
Para discretizar el ndice de coste, podemos escribir
(k+1)
Z
N
X 1
J (0) = (x (t1 ) , t1 ) + F (t, x (t) , u (t)) dt (6.8)
k=0 k

donde
t1
N= (6.9)

Utilizando una aproximacin de primer orden para cada integral obtenemos
N
X 1
J (0) = (x (t1 ) , t1 ) + F (k , xk , uk ) (6.10)
k=0

Definiendo las siguientes funciones


J0 = J (0)
S
(N, xN ) = (x (N ) , N )
F k (xk , uk ) = F (k , xk , uk ) (6.11)

c
SPH
6.3. Sistemas Continuos 155

la ecuacin 6.10 se transforma en


N1
X
J0 = S (N, xN ) + F k (xk , uk ) (6.12)
k=0

A continuacin, podemos utilizar la programacin dinmica para calcular uk como en la seccin anterior.
El control digital que hay que aplicar al sistema actual est dado por

u (t) = uk k t < (k + 1) (6.13)

Para utilizar programacin dinmica, los valores del estado y del control deben primero ser cuantizados, es
decir, restringidos a un conjunto finito de valores admisibles. Cuanto ms fina es la cuantizacin ms preciso
ser el control digital.

6.3.2 Control continuo y la ecuacin de Hamilton-Jacobi-Bellman


Dado un sistema, en general multivariante, definido por la ecuacin diferencial

x (t) = f (t, x (t) , u (t)) (6.14)

se trata de encontrar un control u en el intervalo de tiempo [t0 , t1 ] que minimiza el ndice de costo

Zt1
J = (x (t1 ) , t1 ) + F ( , x ( ) , u ( )) d (6.15)
t0

y que conduce el sistema desde un estado inicial x (t0 ) hasta un estado final y satisfaciendo

(x (t1 ) , t1 ) = 0 (6.16)

Para una funcin dada . Veamos en primer lugar la forma que el principio de optimalidad de Bellman toma
para este problema
Supongamos que t es el instante de tiempo actual y t + t, es un instante de tiempo posterior cercano a t,
entonces el coste hasta x (t1 ) puede escribirse como:

Zt1 Z
t+t

J (t, x) = (x (t1 ) , t1 ) + F ( , x, u) d + F ( , x, u) d (6.17)


t+t t

podemos decir por tanto


Z
t+t

J (t, x) = F ( , x, u) d + J (t + t, x + x) (6.18)
t

donde x + x, es el estado en el instante t + t, cuando se utilizan el estado actual x (t) y el control actual
u (t) en la ecuacin 6.14. Notar que como aproximacin hasta el primer orden

x = f (t, x, u) t (6.19)

La ecuacin 6.18 describe todos los costes posibles para ir desde el estado en el instante t hasta el estado en t1 .
De acuerdo con el principio de optimalidad de Bellman, el nico candidato para J (t, x) son aquellos costes que
son ptimos para llevar el sistema desde t + t hasta t1 . Supongamos que el coste optimal J (t + t, x + x)
es conocido para todos los posibles estados x + x. Supongamos tambin que el control optimal ha sido
determinado en el intervalo [t + t, t1 ] para cada x + x,. Entonces solamente queda por seleccionar el control
actual en el intervalo [t, t + t]. De aqu
t+t
Z
J (t, x) = min F ( , x, u) d + J (t + t, x + x) (6.20)
u( )
t t+t t

c
SPH
156 Captulo 6. Programacin Dinmica

Este es el principio de optimalidad para sistemas continuos.


Si el integrando en la expresin 6.20 es continuo en el intervalo [t, t + t], y en particular si F y u son
continuas, se puede aplicar el teorema del valor medio del clculo integral, en virtud del cual existe un s
[t, t + t] tal que
Z
t+t

F ( , x, u) d = F (s, x (s) , u (s)) t


t

y si J es desarrollable en serie de Taylor en t, se tiene
T
J J 2
J (t + t, x + x) = J (t, x) + x + t + o (t)
x t
donde
J J (t, x) J (t, x) J (t, x)
= , ,,
x x1 x2 xn
J J (t, x (t))
=
t t
f (t, x, u) = f (t, x (t) , u (t))
con lo que la expresin 6.20 se transforma en
( T ! )
J J
2
J (t, x (t)) = min F (s, x (s) , u (s)) t + J (t, x) + x + t + o (t)
u( ) x t
t t+t

Utilizando 6.19 y como J y J /t t son independientes de u ( ), [t, t + t]


( T )
J J
2
0= t + min u
F (s, x (s) , u (s)) t + f (t, x, u) t + o (t)
t t t+t
x

y si hacemos t 0, se obtiene
( T )
J (t, x (t)) J
0= + min F (t, x, u) + f (t, x, u) (6.21)
t u(t) x

conocida como Ecuacin de Hamilton-Jacobi-Bellman (HJB). Se resuelve hacia atrs en el tiempo a partir de
t = t1 , y poniendo t0 = t1 en 6.15, la condicin de contorno es

J (t1 , x (t1 )) = (t1 , x (t1 )) sobre la hipersuperficie (t1 , x (t1 )) = 0 (6.22)

Si definimos la funcin Hamiltoniana como

H (t, x, u, p) = F (t, x, u) + pT f (t, x, u) (6.23)

la ecuacin HJB podr escribirse como


J (t, x)
+ min {H (t, x, u,Jx )} = 0 (6.24)
t u

6.3.3 Ejemplo
Dado el sistema definido por
x0 (t) = u (t)
minimizar el ndice de costo
Zt1
2
J= ax + bu2 d
t0

c
SPH
6.3. Sistemas Continuos 157

donde a y b son constantes. Se ha de cumplir la ecuacin 6.21 que aqu es



J (t, x) J (t, x)
0= + min ax2 + bu2 + u
t u(t) x

Condicin necesaria de mnimo respecto de u (t) para la expresin del segundo miembro es

J (t, x) 1 J (t, x (t))


2bu + = 0 u (t) = (6.25)
x 2b x
con lo que la ecuacin 6.21 de Hamilton-Jacobi quedar
2
J (t, x) 1 J (t, x (t))
+ ax2 =0 (6.26)
t 4b x

con la condicin de contorno


J (t1 , x (t1 )) = 0

Caso particular
Si los datos iniciales son:
t0 = 0 x (0) = 0
t1 = 5 x (5) = 1
a=0 b=1

Z5
J= u2 d
0

La ecuacin de Hamilton-Jacobi (6.26) queda en este caso particular


2
J (t, x (t)) 1 J (t, x (t))
=0 (6.27)
t 4 x

con la condicin de contorno


J (5, 1) = 0 (6.28)
Se puede ensayar
J (t, x) = (t) (x 1)2 (6.29)
Por 6.27 se debe cumplir
1
0 (t) (x 1)2 = [2 (t) (x 1)]2
4
de donde se deduce que
0 (t) = (t)2
cuyas soluciones son de la forma
1
(t) =
t+A
con A constante. Por ello la expresin 6.29 queda:
1
J (t, x) = (x 1)2
t+A
La expresin del control ptimo se puede deducir de 6.25, siendo:

1 J (t, x (t)) x (t) 1


u (t) = = (6.30)
2 x t+A

c
SPH
158 Captulo 6. Programacin Dinmica

Por la dinmica del sistema se cumple


x0 (t) = u (t)
luego cuando la entrada es u el estado, que corresponde a la trayectoria ptima, cumple la ecuacin diferencial

x (t) 1
x0 (t) =
t+A
o la equivalente
x0 (t) 1
=
x (t) 1 t+A
cuyas soluciones son de la forma
x (t) = Bt + (AB + 1) (6.31)
siendo B una constante.
Particularizando 6.31 para los valores inicial y final se obtiene

AB + 1 = 0
5B + AB + 1 = 1

de donde se deduce que


1
A = 5 B=
5
que llevadas a las expresiones 6.30 y 6.31 determinan el control ptimo y el estado del sistema en cada instante
1 t
u (t) = x (t) =
5 5

c
SPH

S-ar putea să vă placă și