Sunteți pe pagina 1din 12

MODELO DE MARKOV

UNIVERSIDAD NACIONAL JOS FAUSTINO SNCHEZ CARRIN

INGENIERA SISTEMAS, INFORMTICA E INDUSTRIAL


ESCUELA ACADMICA PROFESIONAL DE INGENIERA INDUSTRIAL

CURSO

Investigacin de Operaciones II

TEMA

Modelo de Markov

DOCENTE

Ing. Sosa Alcibiades

CICLO

VII

INTEGRANTES

:
La Rosa Zapata, Vernica
Luna Tello, Elizabeth
Morales Sotelo, Jenny
Rojas Tuya, Jess

HUACHO-PER
2014
1

INTRODUCCIN

Las cadenas de Markov se incluyen dentro de los denominados procesos estocsticos.


Dichos estudian el comportamiento de variables aleatorias a lo largo del tiempo X (t,w). Se
definen como una coleccin de variables aleatorias {X (t,w), t I}, donde X (t,w) puede
representar por ejemplo los niveles de inventario al final de la semana t. El inters de los
procesos estocsticos es describir el comportamiento de un sistema e operacin durante
algunos periodos.
Los procesos estocsticos se pueden clasificar atendiendo a dos aspectos: si el espacio
de estados posibles de la variable aleatoria contiene valores discretos o continuos y de si
los valores del tiempo son discretos o continuos.
Las cadenas de Markov es un proceso estocstico en el que los valores del tiempo son
discretos y los estados posibles de la variable aleatoria contienen valores discretos, es
decir, es una cadena estocstica de tiempo discreto.
Las cadenas de Markov, se clasifican, adems, dentro de los procesos estocsticos de
Markov, que son aquellos en el que el estado futuro de un proceso es independiente de los
estados pasados y solamente depende del estado presente. Por lo tanto las probabilidades
de transicin entre los estados para los tiempos k-1 y k solamente depende de los estados
que la variable adquiere dichos tiempos

OBJETIVOS

OBJETIVO GENERAL
Desarrollar el modelo de Markov con un caso aplicativo

OBJETIVOS ESPECFICOS

Conocer y familiarizarnos con el modelo de markov

Interpretar y contrastar los resultados de modelo de markov.

Dar a conocer la mejor decisin basndose en los resultados ya obtenidos.

CADENA DE MARKOV
3

Las cadenas de Markov son unas herramientas para analizar el comportamiento y el


gobierno de determinados tipos de procesos estocsticos, esto es, procesos que evolucionan de
forma no deterministicas a lo largo del tiempo en torno a un conjunto de estados.
Una cadena de Markov, por lo tanto, representa un sistema de varia su estado a lo largo del
tiempo, siendo cada cambio una transicin del sistema. Dichos cambios no estn
predeterminado, aunque si lo esta la probabilidad del prximo estado en funcin de los
estados anteriores, probabilidad que es constante a lo largo del tiempo (sistema homogneo en
el tiempo). Eventualmente, en una transicin, el nuevo estado puede ser el mismo que el
anterior y es posible que exista la posibilidad de influir en las probabilidades de transicin
actuando adecuadamente sobre el sistema (decisin). (EPPEN, GOULD & SCHMIDT; 2000)
Reciben su nombre del matemtico ruso Andrei Andreevitch Markov (1856-1922), que las
introdujo en 1907
Matriz De Transicin:
Una matriz de transicin para una cadena de Markov de n estado es una matriz de n X n con
todos los registros no negativos y con la propiedad adicional de que la suma de los registros
de cada columna (o fila) es 1. (EPPEN, GOULD & SCHMIDT; 2000)
Por ejemplo: las siguientes son matrices de transicin.

Elementos de una cadena de Markov

Un conjunto finito de M estados, exhaustivos y mutuamente excluyentes (ejemplo:


estados de la enfermedad)
Ciclo de markov (paso) : periodo de tiempo que sirve de base para examinar las
transiciones entre estados (ejemplo, un mes)
Probabilidades de transicin entre estados, en un ciclo (matriz P)
Distribucin inicial del sistema entre los M estados posibles. (HAMDY A. TAHA;
2004)
Procesos estocsticos
Una sucesin de observaciones X1, X2, . . se denomina proceso estocstico
Si los valores de estas observaciones no se pueden predecir exactamente.
Pero se pueden especicar las probabilidades para los distintos valores posibles en
cualquier instante de tiempo.
x 1 : v . a que define el estadoinicial del proceso
x n : v . a que define el estado del proceso en el instante deltiempo n
Para cada posible valor del estado inicial s1 y para cada uno de los sucesivos valores sn de los
estados Xn, n = 2, 3, . . ., Especicamos:
P( x n+1=s n+1x 1=s1 , x 2=s 2,, x n =s n)

Cadenas de Markov finitas con probabilidades de transicin estacionarias

Cadena de Markov finita

Es una cadena de Markov para la que existe slo un nmero nito k de estados posibles s1, . .
. , sk y en cualquier instante de tiempo la cadena est en uno de estos k estados.

Probabilidad de transicin
Es la probabilidad condicionada
P( x n+1=s jx n=s i)

Probabilidad de transicin estacionaria


5

Una cadena de Markov tiene probabilidades de transicin estacionarias si para cualquier par
de estados si y sj existe una probabilidad de transicin pij tal que:E
P ( xn +1=s j| xn =s i )=ij para n=1, 2,..
CADENA FINITA
Estados absorbentes
Una cadena de Markov con espacio de estados finito se dice absorbente si se cumplen las dos
condiciones siguientes:
1. La cadena tiene al menos un estado absorbente.
2. De cualquier estado no absorbente se accede a algn estado absorbente.
Si denotamos como A al conjunto de todos los estados absorbentes y a su complemento
como D, tenemos los siguientes resultados:

Su matriz de transicin siempre se puede llevar a una de la forma


Donde la submatriz Q corresponde a los estados del conjunto D, I es la matriz identidad, 0
es la matriz nula y R alguna submatriz.
, esto es, no importa en donde se encuentre la cadena, eventualmente

terminar en un estado absorbente.

Estados del proceso


Eventos que disparan transiciones de un estado a otro. En muchas aplicaciones, periodos de
tiempos sucesivos.(HILLIER LIEBERMAN; 2006)
EJERCICIOS
1. La Pollera Norkys es una empresa de servicio que se encuentra ubicada en el Centro
Comercial Plaza del Sol. Se ha elaborado la siguiente matriz de transicin utilizando datos
recopilados del ao anterior y referente a la forma en que los consumidores tienden a
cambiar de un platillo a otro, semana a semana:

MATRIZ

Platillo A

Platillo B

Platillo C

Platillo A

0.3

0.4

0.3

Platillo B

0.4

0.1

0.5

Platillo C

0.1

0.3

0.6

Dnde:
Platillo A: Anticuchos
Platillo B: Parrilladas
Platillo C: Pollo a la Brasa
Con los datos anteriores, se pide:
1. Determine la matriz estacionaria.
2. Si la ltima semana 40 personas consumieron el Platillo A, 50 el Platillo B y 10 el
Platillo C. Despus de 2 semanas cuntos consumirn cada uno de estos platillos.
Solucin:
a) Pregunta 1:
S=SP

[ S1

0.3 0.4 0.3


S2 S 3 ]=[ S1 S2 S 3 ] 0.4 0.1 0.5
0.1 0.3 0.6

S 1 +S 2+ S 3=1
S 1=0.3S1 +0.4S2 +0.1S 3

S 2=0.4S1 +0.1S 2 +0.3S 3

S 3=0.3S1 +0.5S 2 +0.6S 3

Despejando:

28S 1=16S 2+ 4S3


63S 2=28S 1+ 21S3

Restando:
47S2=25S3
Aadiendo Variable K:

S 2 47k
=
S 3 25k
S 1=21k
Remplazando:
(21k )+(47k)+(25k )=1

k=

1
=0.01075269
93

Solucin:
S 1=21k=0.225806=22.58
S 2=47k=0.505376=50.54

b)

Pregunta 2:
S 0=[ 40 50 10 ]

0.3 0.4 0.3


S 1=[ 40 50 10 ] 0.4 0.1 0.5 =[ 33 24 43 ]
0.1 0.3 0.6
0.3 0.4 0.3
S 2=[ 33 24 43 ] 0.4 0.1 0.5 =[ 24 28 48 ]
0.1 0.3 0.6
Despus de dos semanas 24 comern el platillo A (anticuchos), 28 el platillo B (Churrascos),
48 el platillo C (Parrilladas); se ve una preferencia de las personas despus de las dos semanas
por el platillo C.

2. La seora Cecilia posee un stand de frutas (pltanos) en el mercado Nuevo Amanecer


ubicado en la ciudad de Barranca. En su stand posee frutas maduras y frutas por madurar
8

(verdes), sabiendo que hay algunas frutas desperdiciadas por factores ambientales y
externos. Con respecto a periodos mensuales pasados se obtuvo informacin para realizar
la siguiente matriz de transicin apropiada para este caso. La seora Cecilia desea saber
cul ser la cantidad de frutas que vender este mes, si inicia con 50 frutas verdes y 100
frutas maduras.
Los Estados Absorbentes:
A. Fruta Desperdiciada
B. Fruta Vendida
Los Estados del Proceso:
Estados del proceso
C. Fruta
Estados Absorbentes
D. Fruta

Verde
Madura

D
A
B
C
D

P=

Solucin:
Hallar la Matriz Fundamental:

Estados del proceso


Estados Absorbentes

D
A
B
C
D

N= [ I L ]

N= 0.8 0.7
0
0.9

] [

= 1.25 0.97
0
1.11

]
9

NQ

NQ=

][

][

1.25 0.97 0.1 0


0.32 0.68

=
0
1.11 0.2 0.7
0.22 0.78

[ 50 100 ] 0.32 0.68 = [38 112 ]


0.22 0.78
C
D
16

C
D
34

Conclusiones
Aplicando el Modelo de Markov se obtienen los siguientes resultados:
16 frutas verdes y 22 frutas maduras se van a desperdiciar.
34 frutas verdes y 78 frutas maduras se van a vender.

10

BIBLIOGRAFA
TAHA, Hamdy A. Investigacin de Operaciones, Una Introduccin. 1989. Ediciones
Alfaomega, S.A. Mxico. D.F. Mxico.
MONTAO, Agustn. Iniciacin al Mtodo del Camino Crtico. 1972. Editorial Trillas, S.A.
Mxico. D.F. Mxico.
MOSKOWITZ, Herbert y Gordon P. Wrigth. Investigacin de Operaciones. 1982. Prentice
Hall Hispanoamericana, S.A. Naucalpan de Jurez. Mxico.

11

S-ar putea să vă placă și