Documente Academic
Documente Profesional
Documente Cultură
Defina x, s y t
Xt: estado del clima en el da nmero t.
S ={das soleados(S), das nublados(N)} discreto
T ={1,2,3} da en que suceda discreto
Elabore un grafo.
Procesos estocsticos
Unidad 2. Cadenas de Markov a tiempo discreto.
0.8
0.9
0.2
0.1
Matriz de transicin.
La situacin se puede modelar como una cadena de Markov con dos
estados{das soleados, das nublados}= {S, N}.
La matriz de transicin para el orden {S,N} es:
P= 0.9 0.1
0.2 0.8
Matriz estocstica.
Estado
Clima
S
S
N
P00=0.9
P10=0.2
N
P01=0.1
P11=0.8
Distribucin inicial:
Procesos estocsticos
Unidad 2. Cadenas de Markov a tiempo discreto.
0=( 00 , 01 , 02 , )
0i =P( Xo=i)
Una cadena de Markov queda determinada si se conocen las probabilidades de
0
transicin, Pij, y la distribucin de probabilidad inicial, , entonces:
0=( 0 ( S ) , 0 ( N ) )=
( 12 , 12 )
P ( Xn= j ) = 0 ( i ) P n (i, j)
i j
= P
Calculamos la potencia 4:
)(
)(
Procesos estocsticos
Unidad 2. Cadenas de Markov a tiempo discreto.
P4 =P 2 P2= 0.83 0.17 0.83 0.17
0.34 0.66 0.34 0.66
P4 = 0.74 0.25
0.50 0.49
)(
Solucin:
La probabilidad de que al cuarto da se encuentre nublado es del 37%.
Defina Xt, S y T
discreto.
discreto.
Procesos estocsticos
Unidad 2. Cadenas de Markov a tiempo discreto.
Elabore un grafo:
La matriz de transicin:
10000
2 3
0 00
5 5
P= 0 2 0 3 0
5 5
2 3
00 0
5 5
00001
()
Distribucin inicial.
0=( 0,0,1,0,0 )
Procesos estocsticos
Unidad 2. Cadenas de Markov a tiempo discreto.
Calculamos la potencia 4 :
10000
2 3
0 00
5 5
P4 = 0 2 0 3 0
5 5
2 3
00 0
5 5
0 0 0 01
()
d como resultado.
Procesos estocsticos
Unidad 2. Cadenas de Markov a tiempo discreto.
Solucin: La probabilidad de aumentar el capital a 4 pesos es de 53%.
0 ( 0 ) p ( 0,1 ) p ( 1,1 ) p ( 1,2 ) p ( 2,3 ) p ( 3,3 ) p ( 3,4 )=( 0.2 ) ( 0.6 ) ( 0 ) ( 0.6 ) ( 0.6 ) ( 0 ) ( 0,6 )=0
La trayectoria nos d cero, lo cual es lgico dado que se observan saltos de
un estado a otro estado, volviendo al mismo, cuando se est jugando.
3. Cada familia estadounidense se clasifica segn donde vive como
urbana, rural o suburbana. Durante un ao especfico, 15% de las
familias urbanas se mudaron a una ubicacin suburbana, y 5% se
mudaron a un rea rural; tambin, 6% de las familias suburbanas
se trasladaron a un rea urbana y 4% se pasaron a una ubicacin
rural; por ltimo, 4% de las familias rurales se fueron a un rea
urbana y 6% se cambiaron a un lugar suburbano. Establezca:
Defina X t , S y T
Xt: zona de ubicacin de familias estadounidenses en aos t.
S= (U, R, S)
ubicacin
T=(0,1,2,3) aos
Elabore grafo.
Procesos estocsticos
Unidad 2. Cadenas de Markov a tiempo discreto.
0.05
0.04
0.06
0.04
0.06
Procesos estocsticos
Unidad 2. Cadenas de Markov a tiempo discreto.
)
U
0.8
0.06
0.04
U
S
R
S
0.15
0.9
0.06
R
0.05
0.4
0.9
)(
Procesos estocsticos
Unidad 2. Cadenas de Markov a tiempo discreto.
Lo cual arroja como resultado que dos aos a partir de ahora, el 31.4% de las
familias estadounidenses vivirn en un rea urbana.
Educacin Abierta y a Distancia * Ciencias Exactas, Ingenieras y
Tecnologas
Procesos estocsticos
Unidad 2. Cadenas de Markov a tiempo discreto.
4. Considere un sistema de inventarios en el que la secuencia de
sucesos durante cada perodo es como sigue:
a) Se observa el nivel de inventarios (llmelo i) al comienzo
del perodo.
b) Si i1, se pide 4-i unidades. Si i2, se piden 0 unidades. La
entrega de las unidades pedidas es inmediata.
c) Con probabilidad 1/3, la demanda durante el perodo es de
0 unidades; con probabilidad 1/3, la demanda durante el
perodo es de 1 unidad y con probabilidad 1/3, la demanda
durante el perodo es de 2 unidades.
d) Se observa el nivel de inventario al comienzo del siguiente
perodo.
Defina el estado de un perodo como el nivel de inventario
inicial del perodo.
Defina Xt, S y T:
Xt: nivel de inventario inicial en perodo t.
S={0,1,2,3,4}
T={0,1,2..}
Elabore grafo.
Procesos estocsticos
Unidad 2. Cadenas de Markov a tiempo discreto.
Estados
0
0
0
1
0
2
1/3
3
1/3
4
1/3
1/3
1/3
1/3
1/3
1/3
1/3
1/3
1/3
1/3
1/3
1/3
1/3
Procesos estocsticos
Unidad 2. Cadenas de Markov a tiempo discreto.
0
0 1 /3
0
0 1 /3
1/3 1 /3 1/3
0 1 /3 1/3
0
0 1/3
1/3
1/3
0
1/3
1/3
1/3
1/3
0
0
1/3
0
0 1/3
0
0 1/3
P3= 1/3 1/ 3 1/3
0 1/ 3 1/3
0
0 1/3
1/3
1/3
0
1/3
1/3
1 /3
1 /3
0
0
1 /3
Procesos estocsticos
Unidad 2. Cadenas de Markov a tiempo discreto.
Solucin:
La
0.2216
Defina Xt, S y T
a SS SB
a BS BB
a SS SB
a BS BB
Elabore un grafo.
Procesos estocsticos
Procesos estocsticos
Procesos estocsticos
Unidad 2. Cadenas de Markov a tiempo discreto.
P= 0.9 0.5
0.6 0.3
)
S
B
SS
0.9
0.6
0.5
0.3
SS
SB
BS
BB
0.9
0.1
0.5
0.5
SB
BS
0.6
0.4
BB
0.3
0.7
P4 .
Procesos estocsticos
Unidad 2. Cadenas de Markov a tiempo discreto.
BB SB
Fuentes de consulta:
Curso de Procesos Estocsticos, Unidad 2, Depto. de Ciencias Exactas,
Unadm,2014.
http://www.gayatlacomulco.com/tutorials/investoper2/unidad4.htm.
http://metodosunoydos.galeon.com/enlaces2221689.html
BS SS
http://investigaciondeoperaciones2markov.blogspot.mx/p/teoria-yejemplos.html
http://www.ugr.es/~bioestad/_private/cpfund10.pdf
http://es.slideshare.net/oskr2588/cadenas-de-markov-blog
http://www.youtube.com/watch?v=jk57_m_Jk28
Introduccin a la Investigacin de Operaciones/Autores: Frederick S. Hillier y
Gerald J. Lieberman/ Editorial Mc. Graw Hill/novena edicin -2010.
Procesos estocsticos
Unidad 2. Cadenas de Markov a tiempo discreto.
Hola Mara, espero te encuentres bien, te felicito por tu
empeo y determinacin para llevar a buen fin la materia
adems por tu capacidad de anlisis en la identificacin de la
distribucin inicial y la matriz de transicin de una cadena de
Markov.
7 de Noviembre de 2014
Hola Mara, espero te encuentres bien, noto una gran mejora
en tu actividad y te felicito por tu actitud y tu motivacin para
seguir adelante. Saludos