Sunteți pe pagina 1din 19

Programaci on Estocastica

E. Cerda
a
, J. Moreno
b
a
Departamento Analisis Economico. UCM.
b
Departamento de Estadstica. UCM.
1 Introducci on
Tal como su nombre indica, la Programaci on Estoc astica trata problemas de Pro-
gramacion Matem atica en cuya formulaci on aparece alg un elemento estocastico.
Por tanto, mientras que en un problema determinstico de Programaci on Ma-
tematica, ya sea de Programacion Lineal, Programaci on No Lineal, Programaci on
Entera, Programaci on Mixta Lineal Entera o Programaci on Mixta No Lineal En-
tera, todos los datos (coecientes) que aparecen en su formulacion son n umeros
conocidos, en Programaci on Estocastica dichos datos (o al menos alguno de ellos)
son desconocidos, aunque para ellos se conoce o se puede estimar su distribucion
de probabilidad. Para precisar m as, veamos las dos deniciones que propone
Prekopa [29]:
Primera denici on: Programaci on Estoc astica es la ciencia que ofrece solu-
ciones para problemas formulados en conexi on con sistemas estocasticos, en los
que el problema numerico resultante a resolver es un problema de Programaci on
Matematica de tama no no trivial.
Segunda denici on: La Programaci on Estocastica trata problemas de Progra-
macion Matem atica en los que algunos de los par ametros son variables aleatorias,
bien estudiando las propiedades estadsticas del valor optimo aleatorio o de otras
variables aleatorias presentes en el problema o bien reformulando el problema
en otro de decision en el que se tiene en cuenta la distribuci on de probabilidad
conjunta de los par ametros aleatorios.
Los problemas resultantes de ambas deniciones son llamados problemas de
Programaci on Estocastica.
Rect
@
Monogr aco 2 (2004)
4 Programaci on Estoc astica
La aleatoriedad en coecientes en unos casos se debera a la falta de abilidad
en los datos recogidos, en otros casos a errores de medida, en otros a eventos
futuros a un no conocidos, etc.
Tal como indica Dantzig [11], la Programaci on Estocastica comenzo en 1955
con los trabajos de Dantzig [10] y Beale [2]. y ya en la misma decada alcanzo
con Markowitz [23] una aplicaci on muy destacada al problema de seleccion de
carteras que le llevara a la consecucion del Premio N obel. En [34] se recogen
unas 800 referencias sobre trabajos publicados entre 1955 y 1975, clasicadas en
funci on de su contenido.
En 1974 se celebro en Oxford (Inglaterra) la primera conferencia internacio-
nal en Programaci on Estoc astica, organizada por Michael Dempster. En 1981
se celebro en K oszeg (Hungra) la segunda conferencia, organizada por Andra
Prekopa. En dicho encuentro se puso en marcha el Committee on Stochastic Pro-
gramming (COSP), como una rama de la Mathematical Programming Society.
Dicho comite ha sido el responsable de organizar los sucesivas conferencias que
se han ido celebrando. La novena conferencia internacional se celebr o en Berln
(Alemania) en 2001 y la decima se celebrara los das 9 a 12 de Octubre de 2004
en Tucson, Arizona (USA).
El COSP ha puesto en funcionamiento la p agina web http// stoprog.org en la
que se puede encontrar mucha informaci on y documentaci on sobre Programaci on
Estocastica.
2 Deniciones basicas
Se considera el siguiente problema de Programaci on Estoc astica:
mn
x
g
0
_
x,

_
,
sujeto a :
g
i
_
x,

_
0, i = 1, 2, ..., m,
x D,
(1.1)
donde el conjunto D R
n
,

es un vector aleatorio denido sobre un conjunto
E R
s
.Suponemos que est an dados una familia de eventos F, formada por
subconjuntos de E y una distribuci on de probabilidad P, denida sobre F. Por
tanto, para cada A E, es A F, y la probabilidad P (A) es conocida. Ademas
suponemos que las funciones g
i
(x, ) : E R, x, i son variables aleatorias y
que la distribuci on de probabilidad P es independiente del vector de variables de
decision x.
Observese que en el problema formulado (PE) para cada realizaci on del vec-
tor aleatorio

se tiene un problema determinstico. Un vector x D puede ser
factible para una realizaci on del vector aleatorio y no serlo para otra realizaci on.
Rect
@
Monogr aco 2 (2004)
E. Cerd a, J. Moreno 5
Asmismo puede ocurrir que para una realizaci on
1
sea g
0
_
x
1
,
1
_
< g
0
_
x
2
,
1
_
y en cambio para otra realizaci on
2
del vector aleatorio

sea g
0
_
x
2
,
2
_
<
g
0
_
x
1
,
2
_
.
Un caso particular del problema (PE) es el siguiente problema de Progra-
macion Lineal Estoc astica:
mn
x
c
T
_

_
x,
sujeto a : Ax = b,
T
_

_
x h
_

_
,
x 0,
(1.2)
donde la matriz A y el vector b son determinsticos. La matriz T () y los vectores
c () y h() dependen del vector aleatorio

y por tanto son estoc asticos.
Normalmente el problema estocastico se reemplaza por un problema deter-
minstico, que se llama determinista equivalente cuya soluci on optima pasa a
considerarse la solucion optima del problema estocastico.
Fundamentalmente existen dos tipos de modelos en Programaci on Estocastica:
Modelos esperar y ver (wait and see) o modelos de programaciom
estocastica pasiva, basados en la suposici on de que el decisor es capaz de
esperar a que se produzca la realizacion de las variables aleatorias y hacer
su decision con informaci on completa de dicha realizaci on, con lo que el pro-
blema se convierte en determinstico y es posible encontrar el valor optimo
de las variables de decision con las tecnicas habituales de programaci on
matematica determinstica. En ocasiones puede tener interes el conocer
la distribuci on de probabilidad del valor objetivo optimo o algunos de sus
momentos (valor esperado o varianza) antes de conocer la realizacion de
sus variables aleatorias. Tales problemas se llaman problemas de distri-
bucion. Estos problemas se estudian en [4], [33], [29].
Modelos aqu y ahora (here and now) o modelos de programaci on es-
tocastica activa. En estos modelos el decisor toma la decision sin el conoci-
miento de la realizacion de las variables aleatorias, sin que por ello queden
afectadas las distribuciones de probabilidad de las mismas. En los siguientes
apartados veremos diferentes enfoques para resolver el problema.
3 Programaci on con restricciones probabilsticas
Se considera el problema (1.1) en el que se supone que la funci on objetivo no
contiene ninguna variable aleatoria:
Rect
@
Monogr aco 2 (2004)
6 Programaci on Estoc astica
mn
x
g
0
(x) ,
sujeto a : g
i
_
x,

_
0, i = 1, 2, ..., m,
x D,
(1.3)
El metodo de restricciones de azar (chance constrained) fue introducido
por Charnes, Cooper y Symonds en 1958. Veanse [7], [8]. La idea consiste
en transformar el problema dado en un determinista equivalente en el que se
veriquen las restricciones con, al menos, una determinada probabilidad jada
de antemano. Hay que distinguir dos casos seg un se je la probabidad para el
conjunto de las restricciones o para cada una de ellas por separado.
Restricciones de azar conjuntas:
Se considera el problema (3.1). Sea p [0, 1] dado. Se dene el determinista
equivalente:
mn
x
g
0
(x) ,
sujeto a : P
_
g
1
(x,

) 0, g
2
(x,

) 0, ..., g
m
(x,

) 0
_
p,
x D.
(1.4)
Para este problema, 1 p es el riesgo admisible para el decisor de que la
soluci on del problema sea no factible.
En el caso particular de que para cada x D las variables aleatorias
g
1
(x,

), g
2
(x,

), ..., g
m
(x,

)
sean mutuamente estadsticamente independientes, el problema equivalente de-
terminista anterior se puede expresar de la siguiente forma.
mn
x
g
0
(x)
sujeto a : P
_
g
1
(x,

) 0
_
P
_
g
2
(x,

) 0
_
...P
_
g
m
(x,

) 0
_
p,
x D.
(1.5)
Restricciones de azar separadas o individuales:
Se considera el problema (1.3). Para cada restricci on i {1, 2, ..., m} sea
p
i
[0, 1] dado. Se dene el determinista equivalente:
mn
x
g
0
(x) ,
sujeto a : P
_
g
i
(x,

) 0
_
p
i
, para i = 1, 2, ..., m,
x D.
(1.6)
Rect
@
Monogr aco 2 (2004)
E. Cerd a, J. Moreno 7
La siguiente Proposici on recoge la relacion entre los dos casos:
Proposicion 3.1. Supongamos que x es una soluci on factible del problema
(1.6) para los valores p
1
, p
2
, ..., p
m
. Entonces para p = 1 m +
m

i=1
p
i
, se verica
que x es factible para el problema (1.4).
Demostracion: Sea x soluci on factible del problema (1.4). Ello quiere decir
que se verica: P ( | g
i
( x, ) 0) p
i
, para todo i = 1, 2, ..., m. Denimos los
eventos A
i
de la siguiente forma: A
i
= { | g
i
( x, ) 0} , para i = 1, 2, ..., m.
Se verica que P (A
i
) p
i
, P
_
A
C
i
_
1 p
i
. Veamos que se verica que
P
_
m

i=1
A
i
_
p,
lo cual quiere decir que x es factible para el problema (1.4). En efecto:
Teniendo en cuenta la desigualdad de Boole: P
_

k
S
k
_

k
P (S
k
) , se tiene
que
P
_
m

i=1
A
i
_
= 1 P
_
_
_
m

i=1
A
i
_
C
_
_
= 1 P
_
m
_
i=1
(A
i
)
C
_

1
m

i=1
P
_
(A
i
)
C
_
1
m

i=1
(1 p
i
) = p.
Sean:
q(x) = P ( | g
1
(x, ) 0, g
2
(x, ) 0, ..., g
m
(x, ) 0) ,
q
i
(x) = P ( | g
i
(x, ) 0) , i = 1, 2, ..., m.
El conjunto factible del problema (1.4) lo podemos representar de la siguiente
forma: C(p) = {x D | q(x) p} .
Sea: C
i
(p
i
) = {x D | q
i
(x) p
i
} , i {1, 2, ..., m} .
El conjunto factible del Problema (1.6) lo podemos respresentar como

C (p
1
, p
2
, ..., p
m
) =
m

i=1
C
i
(p
i
) .
Sera deseable que los conjuntos C(p) y

C (p
1
, p
2
, ..., p
m
), que son los conjuntos
de soluciones factibles de los deterministas equivalentes que estamos estudiando,
fueran no vacos, cerrados y convexos. Las siguientes proposiciones tratan sobre
dichas cuestiones.
Rect
@
Monogr aco 2 (2004)
8 Programaci on Estoc astica
Proposicion 3.2 Sea C(p) el conjunto de soluciones factibles del Problema (1.4).
En dicho conjunto se verican las siguientes propiedades:
1) Si p
1
p
2
, entonces C(p
1
) C(p
2
).
2) C(0) = D.
3) C(p) es no vaco para todo p [0, 1] C(1) = .
Demostracion:
1) Sea p
1
p
2
. Si x C(p
2
), es
q(x) = P ( | g
1
(x, ) 0, g
2
(x, ) 0, ..., g
m
(x, ) 0) p
2
p
1
= x
C(p
1
).
2) C(0) = {x D | q(x) 0} = D, ya que q(x) es una probabilidad y por tanto
es mayor o igual que cero.
3) Si C(p) = , p [0, 1] =C(1) = . Por otra parte, si C(1) = =p 1,
por 1) es C(p) C(1) = .
Observese que si C(p) = , p [0, 1], entonces

C (p
1
, p
2
, ..., p
m
) = , para
todo p
1
, p
2
, ..., p
m
en [0,1].
La siguiente proposici on, cuya demostraci on se encuentra en [17, ?] da condi-
ciones que aseguran que los conjuntos que estamos considerando son cerrados.
Proposicion 3.3 Si las funciones g
i
: R
n
E R son continuas, entonces los
conjuntos factibles C(p) y

C (p
1
, p
2
, ..., p
m
) son cerrados.
A continuaci on se aborda el problema de la convexidad de los conjuntos C(p)
y

C (p
1
, p
2
, ..., p
m
) . Estos conjuntos en general no son convexos. Veamos con-
diciones en que s lo son. Las demostraciones de las proposiciones siguientes se
encuentran en [17, ?]. Vease tambien [29].
Denicion 3.1 Una medida de probabilidad P : F [0, 1] se dice que es cua-
sic oncava si S
1
, S
2
F, siendo S
1
y S
2
conjuntos convexos, y [0, 1],se
verica que P (S
1
+ (1 ) S
2
) mn{P (S
1
) , P (S
2
)} .
Denicion 3.2 Una medida de probabilidad P : F [0, 1] se dice que es log-
concava si S
1
, S
2
F, siendo S
1
y S
2
conjuntos convexos, y [0, 1],se verica
que P (S
1
+ (1 ) S
2
) [P (S
1
)]

[P (S
2
)]
1
.
Las dos proposiciones siguientes dan condiciones para que una medida de
probabilidad sea cuasi-c oncava.
Proposicion 3.3 Si P es una medida de probabilidad log-c oncava en F, entonces
P es cuasic oncava.
Proposicion 3.4 Sea P una medida de probabilidad en R
s
, de tipo continuo con
funci on de densidad asociada f. Entonces se verica:
Rect
@
Monogr aco 2 (2004)
E. Cerd a, J. Moreno 9
P es log-c oncava si y s olo si el logaritmo de f es una funci on concava.
P es cuasi-c oncava si y s olo si f
1/s
es convexa.
La siguiente proposici on da condiciones sucientes para que los conjuntos que
estamos estudiando sean convexos.
Proposicion 3.5 Si g
i
(, ) es conjuntamente convexa en (x, ), para cada i =
1, 2, ..., m y P es cuasi-c oncava , entonces C(p) es convexo para todo p [0, 1] y

C (p
1
, p
2
, ..., p
m
) es convexo, p
1
, p
2
, ..., p
m
en [0, 1].
Algunas medidas de probabilidad cuasi-c oncavas son: La uniforme kdimen-
sional, sobre un conjunto convexo S R
k
, la distribuci on exponencial en R, la
normal multivariante en R
k
, la distribuci on de Dirichlet, la beta, la distribuci on de
Wishart, la gamma para ciertos valores del par ametro, la distribuci on de Cauchy,
la distribuci on de Pareto para determinados valores etc.
El caso lineal:
Se considera el problema lineal estocastico (1.2), en el cual se supone que la
funci on objetivo no contiene ninguna variable aleatoria:
mn
x
c
T
x,
sujeto a : Ax = b,
T(

)x h(

),
x 0,
(1.7)
Para el Problema (1.7), dado el valor p [0, 1] , el programa determinista equi-
valente correspondiente al metodo de restricciones de azar tomadas en conjunto
sera:
mn
x
c
T
x,
sujeto a : Ax = b,
P
_
T(

)x h(

)
_
p,
x 0,
(1.8)
Para el mismo Problema (1.7), dados los valores p
1
, p
2
, ..., p
m
, pertenecientes
al intervalo [0, 1] , el programa determinista equivalente correspondiente al metodo
de restricciones de azar tomadas de manera separada sera:
mn
x
c
T
x,
sujeto a : Ax = b,
P
_
T
i
_

_
x h
i
_

__
p
i
, i = 1, 2, ..., m,
x 0,
(1.9)
Rect
@
Monogr aco 2 (2004)
10 Programaci on Estoc astica
Sean C(p) el conjunto factible del programa (1.8) y

C(p
1
, p
2
, ..., p
m
) el con-
junto factible de (1.9). Aunque el programa estoc astico inicial (1.7) es lineal,
los conjuntos de soluciones factibles C(p),

C(p
1
, p
2
, ..., p
m
) no tienen por que ser
convexos, como se puede observar en el siguiente ejemplo.
Se considera el siguiente programa estocastico con una sola variable de decisi on
x :
mn
x
g
0
(x),
sujetoa : Tx h
_

_
,
en donde T =
_
2
1
_
,
h
_

_
toma los valores:
_
4
0
_
, con probabilidad 1/2, y
_
10
3
_
con probabilidad 1/2.
Para este programa estocastico se tiene que, para todo p [0, 1/2] es C(p) =

C(p) = [0, 2] [3, 5], que no es convexo no conexo.


Las siguientes proposiciones recogen los principales resultados conocidos para
el tipo de problema que estamos considerando.
Proposicion 3.6 Se considera el programa estoc astico (1.7). Supongamos que

es un vector aleatorio cuya distribuci on de probabilidad es discreta y nita.Sea


P
_
=
k
_
=
k
, para k = 1, 2, ..., K. Entonces para p > 1 mn
k{1,2,...,K}

k
se verica que el conjunto factible C(p) es convexo.
La demostracion se encuentra en [17, ?]
A la vista de la proposici on anterior, se comprueba inmediatamente que si
p
j
> 1 mn
k{1,2,...,K}

k
para cada j = 1, 2, ..., m, el conjunto

C (p
1
, p
2
, ..., p
m
)
es convexo.
Proposicion 3.7 Se considera el programa estoc astico (1.7). Supongamos que
T
_

_
= T y que la probabilidad P correspondiente a h(

) =

h es cuasi-c oncava.
Entonces los conjuntos C(p) y

C (p
1
, p
2
, ..., p
m
) son cerrados y convexos.
La demostracion se puede ver en [5]
Proposicion 3.8Se considera el programa estoc astico (1.7). Sean

T
1
,

T
2
, ...,

T
m
las las respectivas de la matriz T
_

_
, h
_

_
=

h. Supongamos que

T
1
,

T
2
, ...,

T
m
,

h tienen distribuci on normal con


E
_
_

T
i
E
_

T
i
__
_

T
j
E
_

T
j
_
T
__
= r
ij
C, para i, j = 1, 2, ..., m,
Rect
@
Monogr aco 2 (2004)
E. Cerd a, J. Moreno 11
E
__

T
i
E
_

T
i
___

h E
_

h
___
= s
i
C, para i, j = 1, 2, ..., m,
donde r
ij
y s
i
son constantes para todo i, j. Entonces, C(p) es convexo para
p 0, 5.
La demostracion se puede ver en [5]
Ejemplos:
1) Se considera el programa estocastico con conjunto factible
g(x)

, (1.10)
en donde x R
n
, g(x) = (g
1
(x), g
2
(x), ..., g
m
(x))
T
no contiene ning un elemneto
aleatorio y

=
_

1
,

2
, ...,

m
_
es un vector aleatorio de dimensi on m.
En este caso para p [0, 1] se tiene que el conjunto factible del determinista
equivalente para restricciones de azar conjuntas es
C(p) = {x R
n
| P ( | g(x) ) p} =
=
_
x R
n
| F

(g(x)) p
_
,
en donde F

es la funci on de distribuci on del vectora aleatorio



.
Para p
i
[0, 1], considerando restricciones de azar individuales se tiene que
C
i
(p
i
) = {x R
n
| P (
i
| g
i
(x)
i
) p
i
} =
=
_
x R
n
| F

i
(g
i
(x)) p
i
_
= {x R
n
| g
i
(x)
i
} ,
en donde
i
= F
1

i
(p
i
) .
2) Se considera el programa estocastico lineal (1.7) y su determinista equiva-
lente (1.9) para restricciones de azar separadas. Sea la restriccion estocastica
T
i
_

_
x h
i
_

_
de la forma

t
T
x

h, siendo
_

t
T
,

h
_
T
un vector aleato-
rio con distribuci on conjunta normal de media R
n+1
, y matriz de varian-
zas y covarianzas V , de dimensi on (n + 1) (n + 1) . Calculemos su correspon-
diente restriccion en el determinista equivalente (para restricciones de azar sepa-
radas). P
_
_
t
T
, h
_
T
| t
T
x h
_
= P
_
_
t
T
, h
_
T
| x
T
t h 0
_
= P ( | (x) 0) ,
en donde (x) = x
T

h. La variable aleatoria es normal (unidimensional),


por ser combinaci on lineal de variables conjuntamente normales. Su media es
m

(x) =
n

j=1

j
x
j

n+1
, y su varianza es
2

(x) = z(x)
T
V z(x), donde z(x) =
Rect
@
Monogr aco 2 (2004)
12 Programaci on Estoc astica
(x
1
, x
2
, ..., x
n
, 1)
T
.
P ( (x) 0) p
i
P
_
(x) m

(x)


(x)

m

(x)


(x)
_
p
i
.
1 P
_
(x) m

(x)


(x)
<
m

(x)


(x)
_
p
i
1
_
m

(x)


(x)
_
p
i
,
donde es la funci on de distribuci on de la normal de media cero y varianza 1.
Por tanto, la restricci on de azar correspondiente queda como:
1
_
m

(x)


(x)
_
p
i

_
m

(x)


(x)
_
1 p
i

m

(x)


(x)

1
(1 p
i
)
1
(1 p
i
)

(x) m

(x) 0.
El conjunto de los x R
n
que verican esa condici on es convexo si y solo si

1
(1 p
i
) 0, lo cual se verica si y solo si p
i
0, 5.
Pueden encontrarse m as ejemplos en [14], [27], [28], [30], [33], [35]. En [26] se
presenta una aplicaci on muy interesante.
4 Funci on objetivo aleatoria
Consideremos el siguiente problema estocastico, en el que todas las restriccio-
nes son determinsticas y la funci on objetivo es aleatoria.
mn
x
g
0
(x,

),
sujetoa : x X
(1.11)
El conjunto factible X R
n
esta compuesto por restricciones determinsticas,
bien porque lo sean de manera natural, bien porque se haya obtenido el determi-
nista equivalente utilizando el metodo de restricciones de azar.
Se trata de transformar el objetivo estoc astico en su determinista equivalente.
Ello puede hacerse utilizando distintos criterios, que vamos a ver a continuaci on,
siguiendo el enfoque de los trabajos [6] y [27].
4.1 Algunos conceptos de soluci on
a) Criterio del valor esperado.
Se convierte la variable aleatoria g
0
(x,

) en una funci on determinstica to-
mando la esperanza matematica
E[ g
0
(x,

)].
Rect
@
Monogr aco 2 (2004)
E. Cerd a, J. Moreno 13
El determinista equivalente del problema estoc astico (1.11) sera
mn
x
E[ g
0
(x,

)],
sujeto a : x X
(1.12)
Para resolver el problema de programaci on estocastica siguiendo este criterio,
basta con conocer el valor esperado de la funci on objetivo estocastica y, por tanto,
es aplicable a un en el caso en el que se desconozca la distribucion de probabilidad
de la variable aleatoria g
0
(x,

).
En [29] se se nala que para que este criterio sea considerado apropiado se deben
cumplir dos condiciones:
1) El sistema debe repetir su realizacion de manera independiente un gran
n umero de veces, para asegurar que la media de los resultados sea bastante
pr oxima al valor esperado.
2) La magnitud de la variaci on del resultado no debe ser grande. En otro caso
nuestra poltica optima puede llevar al sistema a la bancarrota antes de que
la deseada media a largo plazo pueda ser alcanzada.
En muchas situaciones pr acticas estas condiciones no se cumplen y, por tanto,
este criterio no debera ser utilizado en tales casos.
b) Criterio de mnima varianza.
Se convierte la variable aleatoria g
0
(x,

) en una funci on determinstica to-
mando su varianza: V ar[ g
0
(x,

)] = E[( g
0
(x,

))
2
] {E[ g
0
(x,

)]}
2
.
La utilizaci on de este criterio da lugar a la eleccion de aquel vector x para
el que la variable aleatoria g
0
(x,

) esta mas concentrada alrededor de su valor
esperado, de manera que el determinista equivalente seg un el criterio de mnima
varianza puede interpretarse como una medida de error cuadr atico.
El criterio de optimizaci on es el de mnima varianza tanto si se trata de mini-
mizar la funci on objetivo (como estamos suponiendo en este trabajo) como si se
trata de maximizarlo.
Para poder utilizar este criterio es suciente con que se conozca la varianza
de la variable aleatoria g
0
(x,

). No hace falta que se conozca su distribuci on de
probabilidad.
El determinista equivalente del problema estoc astico (1.11), seg un el criterio
de mnima varianza ser a
mn
x
V ar[ g
0
(x,

)]
sujeto a : x X
(1.13)
Rect
@
Monogr aco 2 (2004)
14 Programaci on Estoc astica
c) Criterio de eciencia valor esperado desviacion estandar.
Este concepto de eciencia fue introducido por Markowitz en 1952 para resol-
ver problemas de seleccion de carteras en el campo de las nanzas. Vease [22] y
tambien [23] y [24].
Se trata de elegir una poltica x
0
que sea eciente en el sentido de Markowitz.
Expliquemos su signicado:
Sean (x) = E[ g
0
(x,

)],
2
(x) = V ar[ g
0
(x,

)].
Se tiene que vericar que no existe ning un x X para el cual se tenga que
(x) = (x
0
) y (x) < (x
0
), o bien (x) = (x
0
) y (x) < (x
0
).
El conjunto de puntos ecientes normalmente tiene innitos elementos. Por
tanto, normalmente este criterio no especica un unico punto como soluci on
optima. Si se quiere llegar a una soluci on optima habr a que a nadir otras con-
sidereciones al conjunto obtenido de puntos ecientes.
El c alculo de soluciones ecientes valor esperado desviacion estandar se tra-
duce en el calculo de soluciones ecientes del siguiente problema biobjetivo de-
terminista equivalente:
mn
x
_
E[ g
0
(x,

)], V ar[ g
0
(x,

)]
_
,
sujeto a : x X
(1.14)
d) Criterio de mnimo riesgo.
Este criterio fue introducido por Bereanu [3] con el nombre de criterio de
mnimo riesgo y por Charnes y Cooper [9] con el nombre de P-modelo.
Se trata de maximizar la probabilidad de que la funci on objetivo sea menor
o igual que cierto valor previamente establecido. Por tanto, para resolver el
problema hay que jar un nivel para la funci on objetivo estoc astica, R,
al que se denomina nivel de aspiraci on, y maximizar la probabilidad de que el
objetivo sea menor o igual que ese nivel: P
_
g
0
(x,

)
_
.
La idea del nivel de aspiraci on es que como mucho el valor objetivo sea .
El determinista equivalente del problema estoc astico (1.11), seg un el criterio
de mnimo riesgo sera
max
x
P
_
g
0
(x,

)
_
,
sujeto a : x X
(1.15)
Teniendo en cuenta que m ax
x
P
_
g
0
(x,

)
_
= max
x
_
1 P{ g
0
_
x,

_
> }
_
=
1 mn
x
P
_
g
0
(x,

) >
_
, el problema (1.15) es equivalente a
mn
x
P
_
g
0
(x,

) >
_
,
sujeto a : x X,
Rect
@
Monogr aco 2 (2004)
E. Cerd a, J. Moreno 15
y el problema puede interpretarse como la minimizaci on del riesgo de que la
funci on objetivo sobrepase el nivel de aspiraci on .
Si el problema a resolver consistiera en maximizar la funci on objetivo (en lugar
de minimizar como estamos considerando), es decir, si el problema original fuera
max
x
g
0
(x,

),
sujeto a : x X
el problema de mnimo riesgo determinista equivalente sera
max
x
P
_
g
0
(x,

)
_
,
sujeto a : x X
En este caso la idea del nivel de aspiraci on es que el valor objetivo al menos
sea .
e) Criterio de Kataoka o criterio fractil
El criterio fue introducido por Kataoka [20].
Se comienza jando por el decisor una probabilidad (0, 1) para la funci on
objetivo y se determina el menor nivel que puede alcanzar la funci on objetivo
con esa probabilidad. En concreto, el determinista equivalente del problema es-
tocastico (1.11), seg un el criterio de Kataoka
1
sera:
mn
(x
T
,)

sujeto a : P
_
g
0
_
x,

_

_
= ,
x X
Si el problema a resolver consistiera en maximizar la funci on objetivo (en lugar
de minimizar como estamos considerando), es decir, si el problema original fuera
mn
x
g
0
_
x,

_
,
sujeto a : x X
el problema de Kataoka determinista equivalente sera
mn
(x
T
,)

sujeto a : P
_
g
0
_
x,

_

_
= ,
x X
1
En trabajos posteriores al de Kataoka otros autores como Stancu-Minasian [33] plantean el
problema con restriccion probabilstica de desigualdad: P
_
g
0
_
x,

_

_
. Se demuestra
que si la variable aleatoria g
0
_
x,

_
es continua el resultado del problema es el mismo en ambos
casos.
Rect
@
Monogr aco 2 (2004)
16 Programaci on Estoc astica
Comparando los tres primeros criterios con los dos ultimos (que se llaman de
maxima probabilidad) aparecen algunas diferencias:
En el criterio de mnimo riesgo se ja el nivel de aspiraci on y en el criterio
de Kataoka se ja la probabilidad, luego ambos dependen de los valores que
se asignen a estos parametros, mientras que en los tres primeros casos no
hay que jar ning un par ametro.
En los criterios valor esperado, mnima varianza y eciencia valor esperado
desviacion estandar s olo necesita conocerse la esperanza t/o la varianza ,
no haciendo falta la distribuci on de probabilidad.
La eleccion de un criterio u otro deber a realizarse en base a las caractersticas
del rpoblema y a las preferencias del decisor. De todas formas, los cinco cri-
terios estan relacionados entre s, dado que cada uno de ellos utiliza diferentes
caractersticas de la funci on objetivo.
4.2 Relaciones entre las soluciones seg un los distintos cri-
terios
En [6] se obtienen algunos resultados para problemas estoc asticos como (1.11)
que cumplen algunas condiciones adicionales. Veamos algunos de dichos resulta-
dos.
Consideremos el problema estocastico (1.11) en el que suponemos ahora que
el conjunto de soluciones factibles X R
n
es no vaco, cerrado, acotado y con-
vexo. Suponemos tambien que

es un vector aleatorio denido sobre un con-
junto E R
s
cuyas componentes son variables aleatorias continuas y cuya distri-
buci on de probabilidad es independiente de las variables de decisi on del problema
x
1
, x
2
, ..., x
n
.
Las demostraciones de todas las proposiciones que presentamos a continuacion
se encuentran en [6].
Proposicion 4.1 Se considera el problema estoc astico (1.11) con las hip otesis
adicionales introducidas en este subapartado.
a) Si la soluci on optima del problema seg un el criterio del valor esperado es
unica, entonces es una soluci on eciente valor esperado desviaci on estandar. Si
no es unica s olo se puede asegurar que las soluciones optimas valor esperado
son soluciones debilmente ecientes valor esperado desviaci on estandar, pero no
tienen por que ser ecientes valor esperado desviaci on estandar.
b) Si la varianza de la funci on objetivo es una funci on estrictamente convexa,
el problema de varianza mnima tiene soluci on unica que es una soluci on eciente
valor esperado desviaci on estandar. Si no es unica s olo se puede asegurar que las
Rect
@
Monogr aco 2 (2004)
E. Cerd a, J. Moreno 17
soluciones optimas de mnima varianza son soluciones debilmente ecientes valor
esperado desviaci on estandar, pero no tienen por que ser ecientes valor esperado
desviaci on estandar.
La siguiente proposici on establece relacion entre las soluciones optimas seg un
los criterios de mnimo riesgo y de Kataoka.
Proposicion 4.2 Se considera el problema estoc astico (1.11) con las hip otesis
adicionales introducidas en este subapartado. Supongamos que la funci on de
distribuci on de la variable aleatoria g
0
(x,

) es estrictamente creciente. Entonces
x

es la soluci on de mnimo riesgo para el nivel de aspiraci on

si y s olo si
_
x
T
,

_
T
es la soluci on de Kataoka con probabilidad

, con

vericando
P
_
g
0
(x,

)

_
=

.
A la vista de la proposici on anterior se puede asegurar que en las condiciones
que estamos considerando en este subapartado:
Para cada nivel de aspiraci on , la soluci on de mnimo riesgo es tambien la
soluci on de Kataoka con una probabilidad igual a la m axima probabilidad
obtenida en el problema de mnimo riesgo.
Para cada valor jado, la soluci on de Kataoka es tambien solucion de
mnimo riesgo para un nivel de aspiraci on igual al valor optimo del problema
de Kataoka.
En [6] se establecen tambien relaciones entre soluciones de Kataoka y solucio-
nes ecientes valor esperado desviacion estandar para algunos tipos de programas
estocasticos lineales.
4.3 Ejemplo
Como ejemplo vamos a considerar el caso de funcion objetivo lineal con dis-
tribuci on de probabilidad normal.
Sea el programa estocastico lineal
mn
x

T
x,
sujeto a : x X
(1.16)
El conjunto factible X R
n
esta compuesto por restricciones determinsticas,
bien porque lo sean de manera natural, bien porque se haya obtenido el determi-
nista equivalente utilizando el metodo de restricciones de azar. Se supone que el
vector aleatorio

sigue una distribuci on de probabilidad normal multivariante,
con valor esperado

y matriz de varianzas y covarianzas S denida positiva.
Rect
@
Monogr aco 2 (2004)
18 Programaci on Estoc astica
En estas condiciones la variable aleatoria

T
x es normal con valor esperado

T
x y varianza x
T
Sx. Por tanto se tiene que

T
x

T
x

x
T
Sx
es una variable aleatoria
N(0, 1) (normal con valor esperado 0 y desviacion tpica 1).
A continuaci on se calcula el determinista equivalente del programa estocastico
(1.16) para cada uno de los criterios considerados en este apartado.
a) Criterio del valor esperado
mn
x

T
x,
sujeto a : x X
b) Criterio de mnima varianza
mn
x
x
T
Sx,
sujeto a : x X
c) Criterio de eciencia valor esperado desviacion estandar
mn
x
_

T
x, .

x
T
Sx
_
,
sujeto a : x X
d) Criterio de mnimo riesgo de nivel
max
x
P
_

T
x
_
,
sujeto a : x X
(1.17)
Pero
P
_

T
x
_
= P
_

T
x

T
x

x
T
Sx

T
x

x
T
Sx
_
=
_

T
x

x
T
Sx
_
, (1.18)
donde es la funci on de distribuci on de la N(0, 1), que es estrictamente creciente,
por lo que m ax
x
P
_

T
x
_
= max
x

T
x

x
T
Sx
_
=
_
max
x

T
x

x
T
Sx
_
, y el
problema (1.17) es equivalente a
max
x

T
x

x
T
Sx
sujeto a : x X.
(1.19)
Una vez resuelto este problema, la probabilidad m axima para la que se puede
asegurar que la funci on objetivo estocastica es menor o igual que el nivel de
aspiraci on jado , es:
_
max
x

T
x

x
T
Sx
_
.
Rect
@
Monogr aco 2 (2004)
E. Cerd a, J. Moreno 19
e) Criterio de Kataoka o criterio fractil
mn
(x
T
,)

sujeto a : P
_

T
x
_
= ,
x X
Teniendo en cuenta (1.18), y que la funci on de distribuci on es estricta-
mente creciente, se tiene que
_

T
x

x
T
Sx
_
=

T
x

x
T
Sx
=
1
() =

1
()

x
T
Sx +

T
x, por lo que el problema (4.11) se puede expresar:
mn
(x
T
,)

sujeto a =
1
()

x
T
Sx +

T
x,
x X
y este problema es equivalente al problema con n variables de decisi on:
mn
x

1
()

x
T
Sx +

T
x,
sujeto a : x X.
Este problema es convexo para 0, 5. Una vez resuelto este problema, el
menor nivel para el que podemos armar que la funci on objetivo no supera ese
nivel con probabilidad es = mn
x

1
()

x
T
Sx +

T
x.
5 Bibliografa
[1]

Alvarez, F., Cerd a, E. A Solution Method for a Class of Learning by Doing
Models with Multiplicative Uncertainty. Top, 7, 1, 1-23, 1999.
[2] Beale, E.M.L., On Minimizing a Convex Function Subject to Linear Ine-
qualities. Journal of the Royal Statistical Society, B 17, 173-184, 1955.
[3] Bereanu, B. Programme de Risque Minimal en Programmation Lineaire
Stochastique. C. R. Acad. Sci. Paris, 259, 981-983, 1964.
[4] Bereanu, B. The Generalized Distribution Problem of Stochastic Linear Pro-
gramming. Symposia Matematica. Academic Press, 1976.
[5] Birge, J.R., Louveaux, F.V. Introduction to Stochastic Programming. Sprin-
ger, 1997.
[6] Caballero, R., Cerd a, E., Mu noz, M.M., Rey, L. Analysis and Comparisons
of Some Solution Concepts for Stochastic Programming Problems. Top,
10(1), 101-124, 2002.
Rect
@
Monogr aco 2 (2004)
20 Programaci on Estoc astica
[7] Charnes, A., Cooper, W.W. Chance-Constrained Programming. Manage-
ment Science, 5, 73-79, 1959.
[8] Charnes, A., Cooper, W.W., Symonds, G.H. Cost Horizons and Certainty
Equivalents: An Approach to Stochastic Programming of Heating Oil. Ma-
nagement Science, 4, 235-263, 1958.
[9] Charnes, A., Cooper, W.W. Deterministic Equivalents for Optimizing and
Satisfying under Chance Constraints. Operations Research, 11, 1, 18-39,
1963.
[10] Dantzig, G.B. Linear Programming under Uncertainty. Management
Science, 1, 197-206, 1955.
[11] Dantzig, G.B. Planning under Uncertainty. Annals of Operations Research,
85, 1999.
[12] Dempster, M.A.H. Stochastic Programming. Academic Press, 1980.
[13] Diwelar, U. Optimization under Uncertainty: An Overview. SIAG/OPT
Views -and-News, 13,11-8, 2002
[14] Goicoechea, A., Hansen, D.R., Duckstein, L. Multiobjective Decision Analy-
sis with Engineering and Business Applications. John Wiley and Sons, 1982.
[15] Hammer, P.L. Stochastic Programming. State Of The Art, 1998. Annals of
Operations Research, Vol 85, 1999.
[16] Higle, J.L., Sen, S. Stochastic Decomposition. Kluwer Academic Publishers,
1996.
[17] Kall, P. Stochastic Linear Programming. Springer-Verlag, 1976.
[18] Kall, P. Stochastic Programming. European Journal of Operational Re-
search, 10, 125-130, 1982.
[19] Kall, P., Wallace, S.W. Stochastic Programming. John Wiley, 1994.
[20] Kataoka, S. A Stochastic Programming Model. Econometrica, 31, 1-2,
186-196, 1963.
[21] Kibzun, A.I., Kan, I.S. Stochastic Programming Problems with Probability
and Quantile Functions. John Wiley, 1996.
[22] Markowitz, H. Portfolio Selection. The Journal of Finance, 7, 77-91, 1952.
[23] Markowitz, H. Portfolio Selection: Ecient Diversication of Investment.
Cowles Commission Monograph 16, John Wiley and Sons, 1959.
Rect
@
Monogr aco 2 (2004)
E. Cerd a, J. Moreno 21
[24] Markowitz, H. Mean Variance Analysis in Portfolio Choice and Capital Mar-
kets. Blackwell, 1987.
[25] Marti K. (ed). Stochastic Optimization. Numerical Methods and Technical
Applications. Lecture Notes in Economics and Mathematical Systems 379.
Springer-Verlag, 1992.
[26] Medova, E. Chance Constrained Stochastic Programming for Integrated
Services Network Management. Annals of Operations Research, 81,213-
229,1998.
[27] Mu noz M.M. Programaci on Estocastica: Algunas Aportaciones Te oricas
y Computacionales. Tesis Doctoral. Universidad Complutense de Madrid,
1998.
[28] Prawda, J. Metodos y Modelos de Investigaci on de Operaciones. Vol. 2. Mo-
delos Estocasticos. Ed. Limusa, 1980.
[29] Prekopa, A. Stochastic Programming. Kluwer Academic Publishers, 1995.
[30] Ros Insua, S. Investigaci on Operativa. Optimizaci on. Editorial Centro de
Estudios Ram on Areces, S.A. Segunda Edici on, 1993.
[31] Ruszczynski, A., Shapiro, A. (ed). Stochastic Programming. Handbooks in
Operations Research and Management Science, Vol 10. Norh-Holland, 2003.
[32] Sen, S., Higle, J.L. An Introductory Tutorial on Stochastic Linear Program-
ming Models. Interfaces, 29:2, 33-61, 1999.
[33] Stancu-Minasian, I.M. Stochastic Programming with Multiple Objective
Functions. D. Reidel Publishing Company, 1984.
[34] Stancu-Minasian, I.M., Wets, M.J. A Research Bibliography in Stochastic
Programming 1955-1975. Operations Research, 24, 1078-1119, 1976.
[35] Vajda, S. Probabilistic Programming. Academic Press, 1972.
[36] Wets, R.J.B. Stochastic Programming. En NEmhauser, G.L., Rinnooy
Kan, A.H.G., Todd, M.J. (ed). Optimization. Vol. 1 North-Holland, 1989.
Rect
@
Monogr aco 2 (2004)

S-ar putea să vă placă și