Documente Academic
Documente Profesional
Documente Cultură
Investigacin de
Operaciones
Presentado por:
Beleo Carvajal Luis Fernando.
Negrette Tapia Juan Gabriel
Docente.
INTRODUCCIN
Las Cadenas de Markov reflejan claramente lo que son procesos estocsticos.
Se conoce, pues, como procesos estocsticos a aquellos en donde una variable
(el tiempo, por ejemplo) depende de la otra. En este parte entran en juego las
probabilidades, y la manera en cmo una variable depende de la otra se puede
apreciar en las diferentes Cadenas de Markov.
Las cadenas de Markov de tiempo discreto son procesos de corta memoria en el
sentido de que solo recuerdan el ultimo estado visitado para decidir cul ser el
prximo.
En procesos con larga memoria (cadenas con conexiones completas) el valor
que toma el proceso en cada paso depende de todo el pasado.
La mayor diferencia que hay entre Cadenas de Markov de Tiempo Discreto y
Cadenas de Markov de Tiempo Continuo es que las primeras saltan de un estado
a otro en tiempos enteros 1, 2, 3, y las de tiempo continuo lo hacen en tiempos
aleatorios t1, t2, t3,...
Para nuestro inters, en las continuas pginas se presentarn procesos de
Cadenas de Markov de Tiempo Continuo y resultados importantes de este tipo
de procesos. Se mostrarn ejemplos relacionados con la biologa, aunque dichos
procesos tienen muchas aplicaciones en otras reas como economa, sociologa,
fsica, etc.
OBJETIVOS.
OBJETIVOS GENERALES.
aplicacin en la industria.
Identificar procesos de cadenas de Markov de tiempo continuo como
resultado de haber asimilado los conceptos previos a este.
OBJETIVOS ESPECFICOS
Identificar las clases de estados existentes con sus respectivas variables.
Diferenciar claramente las caractersticas de las cadenas de Markov que
X (t )
Sean:
t =r , tiempo pasado
t =s , tiempo presente
t =s+t , t unidades al futuro
t =s+t
Se supone que
Ahora, sea la
Ti :
el
variable
tiempo
aleatoria
que
pasa
el proceso est en
antes de ir a otro
estado diferente. Si el proceso entra en i en el tiempo s, entonces para t> 0 , se
observa que
Ti> t
si y slo si
como la falta de memoria. Existe slo una distribucin continua con esta propiedad
(la
exponencial)
definida
por
funcin
de
distribucin
acumulada
P{Ti> t }=1eqt para t 0 donde q es el parmetro y la media es 1/q .
Con lo anterior en mente, tenemos que
La variable aleatoria Ti tiene una distribucin exponencial con media
1/ qi .
Las intensidades de transicin aqu cumplen el papel anlogo que cumplen las
transiciones de un paso en las cadenas de Markov de tiempo discreto. Las
intensidades de transicin son:
Probabilidades de estado
estable
Para cualesquiera estados i y
y nmeros no negativos t y s
j,
(0 s t),
Los
estados
i, j
se
comunican
si
existen
tiempos
t 1,t 2
Las siguientes ecuaciones de estado estable son ms til para obtener las
probabilidades de estado estable:
Ejemplo.
Un taller opera con 2 mquinas idnticas que operan continuamente excepto
cuando se descomponen.
MAQUINA 1
MAQUINA 2
El tiempo requerido para reparar una mquina tiene distribucin exponencial con
media 1/2 de da. Cuando se termina la reparacin el tiempo que transcurre hasta
la siguiente descompostura se distribuye exponencial con medio 1 da.
Nota: Las distribuciones son independientes
Definamos la variable aleatoria
X (t ) : Nmero de mquinas descompuestas en el tiempo
posibles de
(los valores
X (t ) son 0, 1,2)
en i
q ij
: Tasa de transicin hacia fuera del estado i por unidad de tiempo que pasa
: Tasa de transicin del estado i al j por unidad de tiempo que pasa en i
Estas tasas de transicin se pueden usar para calcular la tasa de transicin total
hacia fuera del estado
q2 = q21 = 2
q0 = q01 = 2
q1 = q10 + q12 = 3
Ecuaciones de Balance Tasa de salidas de un estado = Tasa de entradas a ese
estado
Y (t)
es el valor de la variable
X (t1)
(en el
q( t) .
smbolo
k
estando
en
el
bj(k )=P( vkentqt=Sj ), 1 j N ,1 k M
estado
donde:
i=P(q 1=Si) , 1 i N .
Dados
valores
apropiados
para
O=O 1O 2 OT .
{q 1, q 2, q 3, q 4, , q N }
{v 1, v 2, v 3, v 4, , v N }
={ }=P( q 1=Si) .
No Ergdicos:
En los casos en los que las matrices de transicin de los modelos ocultos de
markov pueden tener algunos valores 0, se dice que no son ergdicos. Por
ejemplo, si se tiene una matriz triangular superior, se tendra un modelo oculto
como el que se muestra a continuacin. A estos modelos se les conoce tambin
como modelos izquierda-derecha, pues la secuencia de estados producida por la
secuencia de observaciones siempre deber proceder desde el estado ms a la
izquierda, hasta el que est ms a la derecha.
Estos modelos imponen un orden temporal al modelo oculto de markov, pues los
estados con nmero menor, generan observaciones que ocurrieron antes que las
generadas por los estados con ndices mayores. La figura obedece a una matriz A
triangular superior y N= 4.
Autoregresivos:
Los modelos ocultos de Markov autoregresivos, tienen casos especiales del
parmetro B. Cuando los smbolos observables de un modelo oculto Markoviano
son vectores continuos (no son un conjunto discreto como un alfabeto), la funcin
de distribucin de probabilidad bj(k ) , es remplazada por la funcin continua
bj(x) , 1 j N donde bj ( x) dx
encuentre entre
bj(x)
Donde
cjk
jk , Ujk
son
donde
1 d D
A continuacin se mostrara Diagrama de bloques de un reconocedor de dgitos
aislados.
0
dd d
Calculo de la
probabilidad
DIGITO DESCONOCIDO
Obs. De secuencia
P(O| 0 )
1
dd d
Del procedor
final
Calculo de la
probabilidad
DIGITO RECONOCIDO
HMM para 1
P(O| 1 )
Seleccin
mxima
D*=argmax (P(O| d ))
.
1d D
.
9 .
dd d
CONCLUSIN
Calculo
Previo a los conceptos estudiados, dentro
de de
los laprocesos que se encuentran
probabilidad
BIBLIOGRAFA
Hillier Frederick S. Lieberman Gerald J. Introduccin a la investigacin de
operaciones. 9 edicin. Editorial Mc Graw Hill.
Phil Blunsom. Hidden Markov Models. Agosto 19, 2004. Disponible en:
http://www.alexu.edu.eg
Troncoso Carrre Nicols. Cadenas de Markov Ocultas. Publicacin:
Valparaso,
24
de
Noviembre
de
2005.
Disponible
en:
http://www.alumnos.inf.utfsm.cl
Investigacin operativa. Cadenas de Markov en tiempo continuo.
Disponible en http://www.dia.fi.upm.es