Documente Academic
Documente Profesional
Documente Cultură
OPERATIVA
71.07
CADENAS DE MARKOV
2016
PRLOGO
Los autores
CADENAS DE MARKOV
3
CAPTULO 1
PROCESOS ESTOCSTICOS
INTRODUCCIN
Los procesos dinmicos son aquellos que describen sistemas cuyo estado vara a
medida que se evoluciona sobre un parmetro t. El parmetro de evolucin ms comn en los
procesos fsico-econmicos reales en los campos de la ingeniera y de la administracin de
empresas es el tiempo.
El estado del sistema puede quedar definido por una sola variable o por una familia de
variables denominada vector de estado. Por ejemplo, el estado de un sistema de atencin al
pblico, puede quedar definido por la cantidad de personas que se encuentran esperando
recibir el servicio. El clima en un lugar geogrfico es, en cambio, un proceso cuyo estado
queda definido por una familia de variables (temperatura, velocidad de viento, humedad,
etc.).
El conjunto de todos los valores posibles que puede asumir la variable (o familia) de
estado define lo que se denomina espacio de estados del proceso y puede ser finito o infinito.
Asimismo, la naturaleza de las variables que definen el espacio de estados puede ser continua
o discreta.
La observacin del comportamiento del sistema a travs de las variables que
representan su estado puede realizarse en forma continua o discreta. Es este ltimo caso, los
puntos (o instantes) de observacin, pueden estar igualmente espaciados o no.
La evolucin de un estado i a otro estado j entre dos etapas del proceso se denomina
transicin, y tiene asociada una probabilidad1. En particular, la transicin entre dos etapas
sucesivas se llama paso.
Los procesos estocsticos son procesos dinmicos que evolucionan en forma aleatoria.
La presencia de fenmenos aleatorios hace que el sistema avance sobre el parmetro t
cambiando de estado en forma probabilstica. En otras palabras, al realizar una serie de
observaciones del proceso, en diferentes ocasiones y bajo idnticas condiciones, los
resultados observados son, en general, diferentes. Por esta razn, para describir el
comportamiento del sistema se debe definir
1
Ver terminologa en pgina 108
CADENAS DE MARKOV
4
al menos una variable aleatoria x = f(t) que represente una caracterstica mensurable
de los distintos estados que puede tomar el sistema en el instante t segn sea el
resultado del fenmeno aleatorio, y
la probabilidad asociada a dicha variable aleatoria p(x,t). Cada una de las variables
aleatorias tiene su propia funcin de distribucin de probabilidad y puede estar
vinculada o no al resto.
Luego, el proceso estocstico queda caracterizado por el conjunto
x; p(x,t) ; t (1.1)
Ejemplo 1.a
En un sistema de generacin x
de energa elctrica la potencia
elctrica horaria requerida en un
da es un proceso estocstico, en
donde:
t
x = potencia elctrica requerida
t = 0, 1, 2, , 24: horas del da 0 1 2 3 24
Para su estudio, los procesos estocsticos pueden clasificarse de diversas maneras, como
se indica a continuacin:
p x t t , t t / x t , t ; x t t1 , t t 1 ; x t t 2 , t t 2 ; x t t 3 , t t 3 ; .... (1.2)
siendo:
x t t : un estado particular en el instante t+t
x t : un estado particular en el instante t
x t t : un estado particular en el instante t-t1
1
x t t 3 x t t 2 x t t1 xt x t t
t
p x t t , t t / x t , t ; x t t1 , t t1 ; x t t 2 , t t 2 ; x t t 3 , t t 3 ;... p x t t , t t
(1.3)
b) Procesos markovianos
Son procesos en los que se cumple que:
p x t t , t t / x t , t ; x t t1 , t t1 ; x t t 2 , t t 2 ; x t t 3 , t t 3 ; ... p x t t , t t / x t , t
(1.4)
pij
pii i j pjj
pji
pki
pik pkj
Ejemplo 1.b
El siguiente es un proceso con tres variantes que permiten ejemplificar cada uno
de los procesos arriba enunciados: aleatorios, markovianos y con memoria. Dado un
bolillero con tres bolillas: 1, 2 y 3, se definen las siguientes experiencias de pruebas
repetidas:
SI, si la bolilla es 1 o 2
xt t = 1, 2, 3, .
NO, si la bolilla es 3
1/3
1/3 NO SI 2/3
2/3
1/3
0 NO SI 2/3
1
Este es un proceso con memoria, pues la probabilidad del estado xt+1= SI,
requiere del conocimiento de los estados xt y xt-1, tal como se indica en el grafo de
transiciones; y lo propio sucede para el estado xt+1= NO.
2/3
si xt-1 = SI NO SI 1/3
0 si xt-1 = NO
si xt-1 = SI
1 si xt-1 = NO
CADENAS DE MARKOV
8
1.2.2 Clasificacin de los procesos estocsticos segn la naturaleza discreta o continua de las
variables.
t continuo t continuo
t discreto t discreto
CAPTULO 2
INTRODUCCIN
a) Definicin general:
( t )
El conjunto de probabilidades de transicin p ij para todos los estados i y j
definen la matriz de probabilidades de transicin P ( t ) :
0 1 ... k ... m
0 p ( t )
p ( t )
... p ( t )
... p ( t )
V0t
t
00 01 0k 0m
( t ) ( t ) t ( t )
1 p 10 p 11 ... p 1k ... p 1m V1
... ... ... ... ... ... ... ...
P ( t ) = ( t ) ( t ) ( t ) t )
= t (2.2)
k p k 0 p k1 ... p kk ... p (km Vk
... ... ... ... ... ... ...
...
( t ) ( t ) ( t ) t ) t
m p m 0 p m1 ... p mk ... p (mm Vm
( t )
0 p ij 1 ; i, j (2.3)
p
j 0
( t )
ij 1 ; i 0, 1, ,2, ...., m (2.4)
con t = 1, 2, 3,
t 0, 1, 2, ......
p ij p (1)
ij p j, t 1 / i, t ; con i 0, 1, 2, ..., m (2.5)
j 0, 1, 2, ..., m
0 1 ... k ... m
0 p 00 p 01 ... p 0 k ... p 0 m V0
1 p10 p11 ... p1k ... p1m V1
... ... ... ... ... ... ... ...
P = = (2.6)
k pk0 p k1 ... p kk ... p km Vk
... ... ... ... ... ... ... ...
m p m 0 p m1 ... p mk ... p mm Vm
Vij [ p(i 00 ) p(i10 ) p(i 20 ) .... p(ik0 ) ... p(im0 ) ] [ pi 0 pi1 pi 2 .... pik ... pim ] (2.7)
Ejemplo 2.a:
Una mquina se puede encontrar funcionando (estado E1) o fuera de servicio
(estado E2). Se sabe que si en un da determinado la mquina est funcionando, la
probabilidad de que el da siguiente tambin se encuentre funcionando es del 50%,
mientras que si est fuera de servicio, la probabilidad de que al da siguiente la
mquina vuelva a funcionar es del 25%. Luego, la representacin grfica y la
matriz de transicin de un paso se indican a continuacin:
0,25
E1 E2
0,5 E1 E2 0,75 E1 0,5 0,5
E 2 0,25 0,75
0,5
Ejemplo 2. a.bis:
Un proceso fsico puede adoptar solamente tres estados (0, 1 y 2). Si el
proceso se encuentra en el estado 0, la probabilidad de mantenerse en el estado 0
es de 0,5, la probabilidad de pasar al estado 1 es de 0,3 y de pasar al estado 2, de
0,2. Por su parte, si el proceso se halla en el estado 1, la probabilidad de pasar al
estado 0 es de 0,1, la de mantenerse en el mismo estado 1 es de 0,6, y la de pasar
al estado 2 es de 0,3. Finalmente si el sistema se encuentra en el estado 2, la
probabilidad de pasar al estado 0 es de 0,2, de pasar al estado 1 es de 0,4 y de
mantenerse en el mismo estado 2 es de 0,4.
0 1 2
0 0,5 0,3 0,2
P = 1 0,1 0,6 0,3
2 0,2 0,4 0,4
0,5 0 1 0,6
0,1
0,2 0,3
0,2 0,4
2
0,4
t 0, 1, 2, ........
p ( 2)
ij p j, t 2 / i, t ; con i 0, 1, 2, ..., m (2.8)
j 0, 1, 2, ..., m
m
i 0, 1, 2, ..., m
p ij( 2) p ik p kj ; (2.9)
k 0 j 0, 1, 2, ..., m
t = 1 t = 1
m-1
.
.
.
i k j
.
.
.
t t +1 t +2
CADENAS DE MARKOV
15
P (C A )
P (C B k A ) P (C / B k A) P(B k A)
p ( 2)
ij P (C / A ) k 0
k 0
y por ser una cadena de Markov se cumple la ecuacin (1.4). Luego es:
P (C / B k A ) P (C / B k )
P (C / B k ) P(B k / A ) P(A ) m
p ( 2)
ij k 0
p kj p ik
P(A) k 0
Es decir:
P(2) = P P = P2 (2.11)
Ejemplo 2.b:
Supongamos que para el ejemplo 2.a se desean conocer las probabilidades de
que, luego de dos das, la mquina se encuentre en cado uno de sus dos estados: E1
(trabajando) y E2 (fuera de servicio). Este interrogante se podra responder a travs
de la teora clsica de la probabilidad de la siguiente forma:
De esta forma, hemos descrito todas las probabilidades asociadas a cada uno
de los estados del sistema luego de dos pasos. Esta informacin se puede resumir
en la matriz de transicin de dos pasos:
CADENAS DE MARKOV
17
p11
( 2) ( 2)
p12 p11 p11 p12 p 21 p11 p12 p12 p 22
( 2)
( 2)
p 21 p12 p 22 p 22
P
p 21 p (222 ) p 21 p11 p 22 p 21
0,5 0.5 0,5 0,25 0,5 0.5 0,5 0,75 0,3750 0,6255
P ( 2)
0,25 0.5 0,75 0,25 0,25 0.5 0,75 0,75 0,3125 0,6875
d) Ecuacin de Chapman-Kolmogorov:
t 0, 1, 2, ........
n 1, 2, .3, .......
p ij( n ) p j, t 1 / i, t ; con (2.12)
i 0, 1, 2, ..., m
j 0, 1, 2, ..., m
m
i 0, 1, 2, ..., m
p ij( n ) p ik( n 1) p kj ; (2.13.b)
k 0 j 0, 1, 2, ..., m
0 1 k m
0 p (n)
00 p (n)
01 ... p (0nk) ... p (0nm)
(n) (n)
1 p 10 p 11 p1( kn ) p1( mn )
... ...
P(n) = (n) (2.14)
k p k 0 p (kn1) p (kkn ) p (kmn )
... ...
(n)
m p m 0 p (mn1) p (mkn ) p (mm
n)
Es decir:
P ( n ) P P ( n 1)
P ( n ) P P ( n 1) P P P ( n 2 ) P P P P ( n 3) ....
P (n) P n (2.15)
Ejemplo 2.c
a) Definicin general
t 0, 1, 2, .......,
p(i, t ) con (2.16)
i 0, 1, 2, ..., m
0 p ( i, t ) 1 ; i (2.17)
m
p(i, t ) 1
i 0
; con i 0, 1, ,2, ....
(2.18)
t = 1
m-1
.
.
.
i j
..
.
t=0 t =1
Aplicando la ecuacin de estado (2.22) a cada uno de los elementos del vector
(2.23), queda la expresin matricial de la ecuacin de estado:
CADENAS DE MARKOV
21
n 1, 2, 3, ...,
p( j, n ) con (2.25)
j 0, 1, ..., m
Es decir:
V(n) V0 Pn (2.28)
Es decir:
V ( n ) V n 1 P (2.29)
V 0 P ( n )
V (n ) (2.30)
V n 1 P
Ejemplo 2.d
Para el ejemplo de la cadena de Markov descripta en la experiencia b del
ejemplo 1.a, en donde la matriz de transicin de un paso estaba dada por:
0 1
P =
0,333 0,667
si se parte de un estado inicial con las siguientes probabilidades:
p(0,0) 0,5
p(1,0) 0,5
es decir, V 0,5 0,5
(0)
0,333 0,667
V ( 2) V ( 0) P 2 0,5 0,5 0,278 0,722
0,222 0,778
0,222 0,778
V (3) V ( 0) P 3 0,5 0,5 0,241 0,759
0,259 0,741
0,259 0,741
V ( 4) V ( 0) P 4 0,5 0,5 0,253 0,751
0,251 0,749
Vi( n ) Vi( n 1) P
m
(2.31.a)
p(i, n ) 1
i 0
(n )
Vi( n ) Vi P
m
(2.31.b)
p(i, n ) 1
i 0
Ejemplo 2.e
En la cadena del ejemplo 2b, si se supone que el estado inicial es E1 (mquina
funcionando) tendremos que el vector de transicin en un paso es:
V1(1) 0,5 0,5
Luego, la probabilidad de que el proceso se encuentre en los estados E1 y E2, en
dos pasos (das) es:
0,5 0,5
V1( 2) V1(1) P 0,5 0,5 0,375 0,625
0,25 0,75
0,5 0,5
V1(3) V1( 2) P 0,375 0,625 0,34375 0,65625
0, 25 0,75
CADENAS DE MARKOV
24
0,375 0,625
V1(3) V1 P ( 2) 0,5 0,5 0,34375 0,65625
0,3125 0,6875
0,5 0,5
V2( 2) V2(1) P 0,25 0,75 0,3125 0,6875
0,25 0,75
0,5 0,5
V2(3) V2( 2) P 0,3125 0,6875 0,32812 0,67187
0,25 0,75
V ( 3) 0,34375 0,65625
P ( 3) P 3 1( 3)
V2 0,32812 0,67187
ij
si i j y j k i k
Ejemplo 2.f
En la cadena markoviana siguiente, en cuya matriz de transicin se indican
con una x los valores de pij > 0, el estado 6 es accesible desde el 5 en un paso y
desde el 4 en dos pasos, a travs del estado 5.
i\j 0 1 2 3 4 5 6 7
0 x
1
0 1 2 3
x
2 x x x
3 x x
7 4
4 x x x
5 x
6 x x
6 5
7 x x x
Ejemplo 2.g
1 2 3 4 5
1 2
1 x x
2 x x x
3 3 1
3 4 x x
4 5 5 1
C1 2
C 2 3, 4
C 5, 6, 7
3
Absorbentes
Comunicantes Recurrentes
No absorbentes
Transitorias
Sin retorno
Regulares
Ergdicas
Peridicas
No ergdicas Absorbentes
(o separables) Cclicas
Cadenas ergdicas:
Una cadena de Markok homognea es ergdica o irreductible cuando todos sus
estados se comunican; es decir, cuando constituyen una nica clase comunicante
recurrente.
Por ejemplo, la siguiente cadena es ergdica:
1 1 2 3 4 5 6
1 2 3
1 x x
2 x x x
3 x x
4 x x
5 x x x
4 5 6
6 x x
Los estados de una cadena irreductible son todos recurrentes. Estas cadenas se
llaman as porque forman una sola clase comunicante (se pueden reducir
nicamente a una clase).
Las cadenas ergdigas pueden ser clasificadas en regulares y peridicas.
a) Cadenas regulares
Una cadena ergdica es regular o aperidica si alguna de las potencias de su
matriz de transicin contiene slo elementos positivos; por ejemplo:
CADENAS DE MARKOV
28
x x x x
x x x
P= x x
x x x
x x
x x x x x
x x x x x
P2 = x x x x
x x x x
x x x x x
x x x x x
x x x x x
P4 = x x x x x
x x x x x
x x x x x
Un criterio para comprobar que una cadena es regular consiste en calcular las
r
sucesivas potencias de P hasta encontrar un nmero r de pasos tal que la matriz P
tiene todos sus elementos no nulos.
Ejemplo 2.h
La siguiente cadena
0,5
0,5 0 1 0,2
0,20,12
0,5 0,5
1
0,6 P = 0,2 0,2 0,6
1
2
0,50 0,50 0
b) Cadenas peridicas:
Una cadena, es peridica cuando no puede encontrarse una potencia de P para
la cual todos los elementos sean positivos. Es decir, las sucesivas potencias de la
matriz Pr denotan un patrn peridico que permite asegurar siempre la presencia de
al menos un cero en Pr. Un ejemplo de cadena peridica es la siguiente:
x x x x x x x x
x x x x x x x x
P= P =
2 P =
3
P =
4
x x x x x x x x
x x x x x x x x
Ejemplo 2.i
La siguiente cadena:
1
1 2
0,5 0,12 1
P = 0,5 0,5
1 0,5
1
0,5 0,5 1
P =2
1 ;
3
P = 0,5 0,5 ;
0,5 0,5 1
0,5 0,5 1
P =4
1 ;
5
P = 0,5 0,5 ; .
0,5 0,5 1
Cadenas no ergdicas
Ejemplo 2.j
La siguiente cadena:
0,5
0,5 0 1 0,2
C1 0, 1
C 2 2, 3
a) Cadenas absorbentes
Una cadena de Markov es absorbente si
tiene por lo menos un estado absorbente, y si
es posible acceder desde cada estado no absorbente hasta por lo menos un
estado absorbente (no necesariamente en un paso).
0,3
0,7 0 1 2
1
00,5 0 0,7 0,3
0,5
P = 1 0,5 0,5
2
2 1
3 1
b) Cadenas cclicas
Son cadenas no ergdicas en las cuales el proceso pasa de un estado a otro
cclicamente segn un cierto patrn de comportamiento. El ciclo es un camino
cerrado entre estados de una clase recurrente.
Para que una cadena sea cclica debe cumplirse que
- tenga por lo menos un ciclo, y
- sea posible entrar en el ciclo
Ejemplo 2.l:
La siguiente cadena:
0,3
0,7 0 1 2 3
3 2 0 0,4 0,6
1
1 0,2 0,3 0,5
0,6
0,5
2 1
0 1
3 0,3 0,7
0,2
0,43 3 0,3
es una cadena cclica separable en dos clases: una clase comunicante transitoria
C1 0, 1, y una clase comunicante recurrente que forma un ciclo C 2 2, 3.
CADENAS DE MARKOV
32
Tal como se defini en 2.2.4, una cadena regular es una cadena ergdica en la
cual todos sus estados pueden comunicarse simultneamente en una cantidad r de
pasos.
lim V ( n ) V ( 0 ) lim P ( n )
n n
m
y, por cumplirse que p(i,0) 1 , queda:
i 0
Las ecuaciones (2.32) y (2.33) expresan que en una cadena de Markov regular,
luego de un nmero suficientemente grande de transiciones ( n ), sus
(n)
probabilidades de transicin p ij y de estado p(j,n) se estabilizan en valores lmites
iguales para cada estado j, e independientes del estado inicial i. Este estado se
conoce como rgimen permanente o estacionario, y sus probabilidades de estado p j
representan los porcentajes de tiempo que la cadena permanece en cado estado j
luego de un perodo largo de tiempo. El vector V* se llama vector de probabilidad
invariante o distribucin estacionaria o distribucin de equilibrio.
lim P ( n ) lim P n P n
n
V* V* P
m
p
(2.34)
j 1
j 0
CADENAS DE MARKOV
34
Agrupando queda:
m
p(i) p
i j
ij p( j) (1 p jj )
p
k
jk 1 (1 p jj ) p
k j
jk
Reemplazando queda:
m m
p(i) pij p( j) p jk
i j k j
; j = 0, 1, , n (2.35)
Esta ecuacin es muy til para el planteo del sistema de ecuaciones que
permite determinar las probabilidades de estado, a partir del grfico de la cadena
markoviana.
Ejemplo 2.m
La siguiente cadena
CADENAS DE MARKOV
35
0,5 0 1 2
0,5 0 1 0,2
0 0,5 0,5
P = 1 0,2 0,2 0,6
0,20,12
2 1
1
0,6
(n )
Vemos que, a medida que aumenta n, los elementos p ij se estabilizan en
valores lmites, independientemente de su estado inicial, de manera que cada vector
Vin es igual para cada i. Es decir, para un n suficientemente grande se cumple que:
CADENAS DE MARKOV
36
0,5 0,5
p(0) p(1) p( 2) 0,2 0,2 0,6 p(0) p(1) p( 2)
1
p(0) p(1) p( 2) 1
0,5 0,2 1
A 0,5 0,8 0 ; B 0 0 1
1 1 1
0,5 0,5 1
p(0) p(1) p(2) 0,2 0,2 1 p(0) p(1) 1
1 0 1
0,5
0,5 0 1 0,2
0,20,12
1 0,6
Ejemplo 2.n
La matriz
1
P
1
es peridica, ya que
1
P2 P 4 P 6 ... P n para n par, y
1
1
P3 P P 5 ...P m para m impar.
1
Planteando el sistema de ecuaciones del producto matricial, como hemos
visto, eliminando una de estas ecuaciones y agregando la ecuacin que establece
que los estados son mutuamente excluyentes, tendremos:
1
p(1) p(2) p(1) p(2)
1
p(1) p(2) 1
De donde resulta el siguiente sistema de ecuaciones:
p(1) 0 p(2) 1 p(1)
p(1) p(2) 1
Cuya solucin es p(1) = 0,5 y p(2) = 0,5
CADENAS DE MARKOV
39
Ejemplo 2.o
0 1
0,5 0,12 1
P = 0,5 0,5
1 0,5
1
a estados n estados
a estados I 0
n estados A N
en donde:
Ejemplo 2.p
ESTADOS 0 1 2 3 4 5 6
Buenas 0 0 1 1 2 2 3
Situacin
Malas 0 1 0 1 0 1 0
CADENAS DE MARKOV
41
1
1 1 0 1 2 3 4 5 6
1
p (1 p)
p
0
1
p
1-p p 1
0 2 3 1
1-p p 1
2 3 2 p (1 p)
1-p
1-p 1 P3 1
p
4 p
5 1
4 p (1 p)
4 5
1-p 5 1
6 1
1-p 1
6 1
6
1 3 5 6 0 2 4
1
1
1
P= 1
p (1 p)
p (1 p)
p (1 p)
I
n j / i 1
I 1
N 1
.N 2 ... 1
Nn ...
al co en un en dos en n IN
mienzo paso pasos pasos
n j / i I N
1
(2.36)
Ejemplo 2.q
Dada la siguiente matriz absorbente:
0 1 2 3
1 1 0 0,50 0,50
0,5
1 1
3 P=
0,25 2 0,25 0,75
0,75
1
0 2 3 3 1
0,5
1 3 0 2
1 1
3 1
0 0,50 0,50
2 0,75 0,25
Tendremos:
0,5 0,5
A=
0,75
N=
0,25
Luego, resulta:
1 0,5 1 0,50
I-N =
1 0,25 0,25 1
0 1,1429 0,5714
(I N) 1
2 0,2857 1,1429
n I N 1
1
(2.37)
Ejemplo 2.r:
Para la cadena del ejemplo 2.q, tendremos:
Ejemplo 2.s:
0,3
0,4 0 1 0,5 0 1 2
0,2
0,12 0 0,4 0,3 0,3
P 1 0,2 0,5 0,3
0,6 0,4
0,3 0,3
2 0,6 0,4 0
2
0 1 2
0 0,4 0,3 0,3
P 1 0,2 0,5 0,3
2 1
El vector n ser:
0 2,08 1,25 1 3,33
n I N 1
1
1 0,82 2,50 1 3,33
Tiene por lo menos un ciclo (es decir, un camino cerrado entre estados de una
misma clase comunicante), y
Es posible acceder a dicho ciclo.
Ejemplo 2.t
La siguiente cadena cclica
0,5
0 0 1 2
0,2
0,3 0 0,5 0,2 0,3
P1 1
1
1 2 2 1
1
Para determinar el nmero de veces que se requieren para llegar al ciclo, se toma al
ciclo 1-2 como un estado absorbente. Luego, la matriz de transicin se transforma en:
0 1 2
0 0,50 0,50
1
1 2
y su cannica:
1 2 0
1 2 1
0,50 0,50
0
Por lo tanto:
I N 1 2
I N 1 1 2 1 2 N 0 2
Se requieren, entonces, 2 pasos en promedio para alcanzar el ciclo.
0,5 0,2 1
p(0) p(1) p(2) 1 p(0) p(1) p( 2)
1 1
CADENAS DE MARKOV
47
cuyo resultado es:
p(0) = 0
p(1) = 0,50
p(2) = 0,50
CAPTULO 3
INTRODUCCIN
a) Definicin general
La probabilidad condicional de transicin es:
t 0
t 0
p ij( t ) p j, t t / i, t ; con (3.1)
i 0, 1, 2, ..., m
j 0, 1, 2, ..., m
0 1 k m
0 p ( t )
00 p ( t )
01 ... p ( t )
0k ... p (0mt )
( t ) ( t ) ( t )
1 p 10 p 11 p 1k p1( mt )
... ...
P(t) = ( t ) ( t )
(3.2)
k p k 0 p (k1t ) p (kkt ) p km
... ...
( t )
m p m 0 p (m1t ) t )
p (mk p (mmt )
( t )
0 p ij 1 ; i, j (3.3)
m
p
j 0
( t )
ij 1 ; i 0, 1, ,2, ...., m (3.4)
con t 0
0 si i j
lim p ij( t ) (3.5) y (3.6)
t 1 si i j
p (ijt )
1
i=j
i j
0 t
Ejemplo 3.a
El siguiente es un ejemplo de matriz de probabilidades condicionales de
transicin correspondiente a una cadena de Markov homognea en parmetro
continuo con dos estados: 0 y 1.
Luego, para cada valor de t se tiene una matriz distinta, por ejemplo:
0
1 0
Para t = 0 p( 0) 1 0 1
0 1 0,12
1
0
0,12
0,88 0,12
Para t = 0,5 p ( 0, 5 ) 0,88 0 1
0,28 0,72 0,12
0,72
0,28
CADENAS DE MARKOV
51
0,30
Para t 0,70 0,30
p( ) 0,70 0 1
0,70 0,30 0,12
0,70 0,30
d p ijt
d ij (3.7)
d t t 0
d p t
d ii ii (3.8)
d t t 0
p (ijt )
1
dii p(iit )
p (ijt )
dij
t
1
CADENAS DE MARKOV
52
0 1 k m
0 d 00 d 01 ... d 0 k ... d 0 m
1 d10 d11 d 1k d 1m
... ...
D= (3.9)
k d k0 d k1 d kk d km
... ...
m d m 0 d m1 d mk d mm
m
De (3.4): p
j 0
( t )
ij 1
m
d p (ijt )
j0 t 0 =
m
d p (ijt ) m
Derivando:
dt
j0 dt
t 0
d
j 0
( t )
ij 0
Luego:
d ii d ij (3.10)
ji
Ejemplo 3.b
La matriz de tasas D correspondientes al ejemplo 3.a es:
0,3 0,3
D
0,7 0,7
c) Ecuacin de Chapman-Kolmogorov
La ecuacin de Chapman-Kolmogorov (2.13) y (2.15) es tambin
aplicable al caso continuo, expresndola en su forma algebraica:
CADENAS DE MARKOV
53
t 0
m
t 0
p (ijt ) p (ikt 1) p (kjt ) ; con (3.11)
k 0 i 0, 1, 2, ..., m
j 0, 1, 2, ..., m
o matricial:
j
( t t )
P (t)
P P ( t )
(3.12)
k
i
t
Ejemplo 3.c
Tomando la matriz de probabilidades de transicin del ejemplo 3.a:
Luego, verifica.
a) Definicin
La probabilidad incondicional:
t 0
p(i, t ) con (3.13)
i 0, 1, 2, ..., m
cumplindose:
CADENAS DE MARKOV
54
0 p ( i, t ) 1 ; i (3.15)
m
p ( i, t ) 1
i 0
; con t 0 (3.16)
y el vector de probabilidades:
V( 0) [p(0,0) p(1,0) p(2,0) .... p( k,0) ... p( m,0)] (3.18)
c) Ecuacin de estado
La ecuacin de estado (2.26) y (2.30) es tambin aplicable al caso continuo,
adoptando las siguientes formas, ya sea en cualquiera de sus expresiones
algebraicas:
m
t 0
p( j, t ) p(i,0) p (ijt ) ; con (3.19.a)
i 0 j 0, 1, ..., m
t 0
m
p( j, t ) p(i, t t ) p ( t )
ij ; con t 0 (3.19.b)
i 0 j 0, 1, ..., m
o matricial:
V0 P(t)
V(t) (3.20.)
V ( t t ) P ( t )
lim V ( t ) V ( 0 ) lim P ( t )
t t
m
y, por cumplirse que p(i,0) 1 , queda:
i 0
De igual forma que en el caso discreto, las (3.21) y (3.22) expresan que en una
cadena de Markov regular, luego de un tiempo t suficientemente grande sus
(t)
probabilidades de transicin p ij y de estado p(j,t) se estabilizan en valores lmites
similares e independientes del estado inicial y del tiempo t, definindose a este estado
como rgimen permanente o estado estacionario. Esta distribucin se puede determinar
mediante tres caminos alternativos:
lim V ( t ) lim V ( t t ) V *
t t
Luego, tendremos:
CADENAS DE MARKOV
56
V * V * P ( t )
m
p( j) 1
(3.23) y (3.24)
j0
d 00 ... d 0 j ... d 0 m
... ...
p(0) ... p(i) ... p( m) d i 0 ... d ij ... d im 0 ... 0 ... 0
... ...
d ... d mj ... d mm
m0
(3.25)
Es decir,
V* D 0
Siendo, de (3.24):
1
1
...
p(0) p(1) ... p(i) ... p( m) 1 (3.26)
1
...
1
y, de (3.10):
d ii d ij (3.27)
j i
CADENAS DE MARKOV
57
Las ecuaciones (3.25) a (3.27) tambin pueden expresarse de la siguiente forma:
p( i ) d
j 0
ij 0 i ecuaciones
m 1 ecuaciones (3.28) y (3.29)
m
p( i ) 1
i0
d 00 d 01 ... p 0 k ... 1
d 10 d 11 ... p1k ... 1
...
p(0) p(1) ... p(i) ... p(m)
d i0 d i1 ... d ik ... 1 0 0 ... 0 ... 1 (3.30)
...
V*
d m 0 d m1 ... d mk ... 1 B
d ii d ij (3.27)
j i
V* B A 1 (3.31)
y dada la estructura particular de B, V* est integrado por la ltima fila de la matriz A-1.
d jj d jk
k j
CADENAS DE MARKOV
58
0 p(i) d
i j
ij p( j) d jj p(i) d
i j
ij p( j) d jk
k j
y ordenando:
p(i) d
i j
ij p( j) d jk
k j
(3.32)
CAPTULO 4
INTRODUCCIN
Un tipo muy especial de Cadena de Markov en parmetro continuo es el llamado proceso
de nacimiento y muerte en donde:
el estado del sistema n en un instante t queda definido por su tamao, es decir por la
cantidad de unidades (o individuos) presentes en el sistema, en el instante t,
los eventos se dan en forma independiente y son solamente de dos tipos: nacimientos,
en donde la variable que representa el estado se incrementa y muertes, en donde el
estado decrece, y
la probabilidad de que se verifique ms de un evento en un intervalo de tiempo muy
pequeo (tanto como para suponer que t20) es prcticamente nula.
n-1
Un nacimiento
Ningn evento
n n
Una muerte
n+1
t t+t
En una gran cantidad de sistemas de procesos del mundo real, los procesos de
nacimiento y de muerte son de tipo Poisson. Para un proceso Poisson de parmetro , la
probabilidad de que se produzcan n eventos en un intervalo t est dada por:
( t ) n e t
p( n ) (4.2)
n!
siendo n = 0, 1, 2, y > 0.
( t )1 e t
p(1) t e t (4.4)
1!
Tomando un perodo de tiempo t suficientemente chico para que en ese intervalo no se
pueda producir ms de un evento (o de manera tal de suponer que t2 0), tendremos que:
p(0) + p(1) = 1
e t t . e t 1
e t (1 t ) 1
1
e t
1 t
Multiplicando y dividiendo el segundo trmino por (1- t):
1 t 1 t
e t 2 1 t
(1 t ).(1 t ) 1 ( t ) 2
Luego, considerando (4.3), tendremos que
p(0) 1 t
y, por lo tanto
p(1) t (4.6)
Llamando ahora:
n : Nmero promedio de ingresos al sistema por unidad de tiempo cuando el estado del
mismo es n.
n : Nmero promedio de egresos del sistema cuando el estado del mismo es n.
0 t 1 t 2 t n-1 t n t
0 1 2 3 n-1 n n+1
1 t 2 t 3 t n t n+1 t
o
Nodo 0: p(1) p(0)
1
1
Nodo 1: p( 2 ) p(1)
2
2
Nodo 2: p(3) p(2)
3
y, para un estado genrico n, la ecuacin de estado en rgimen permanente es:
n 1
Nodo n: p( n ) p( n 1) para n 1 (4.9)
n
La expresin (4.9) es una ecuacin generativa, en donde la probabilidad del estado n+1
se determina a partir del estado n.
N
p( n ) 1
n 0
(4.10)
0 1 2 n-1 n
0 1 2 3 n-1 n n+1
1 2 3 n n+1
Cabe mencionar que si el sistema est vaco la tasa esperada de egresos es nula, es decir
0 = 0.
Los sistemas en donde el espacio de estados es finito (es decir, N finito) se pueden
solucionar resolviendo el sistema de N ecuaciones simultneas, constituidas por N-1
ecuaciones (4.9) y por la ecuacin (4.10).
En los sistemas que admiten infinitos estados (es decir, N infinito) se requiere
determinar la probabilidad de que el sistema est sin unidades p(0) para poder aplicar luego
la expresin (4.9) a fin de determinar en forma generativa el resto de las probabilidades. Por
supuesto que este mtodo es tambin aplicable a sistemas de espacio de estados finitos. Para
hallar p(0), despejando la probabilidad de cada estado en funcin de p(0):
o
p(1) p(0)
1
1
p(2) p(1) 1 0 p(0)
2 2 1
CADENAS DE MARKOV
63
2
p(3) p(2) 2 1 0 p(0)
3 3 2 1
y, para un estado genrico n, la ecuacin de estado de rgimen permanente es:
n 1 n
p(n ) p(n 1) n 1 p(0) para n 1 (4.11)
n 1 n
Luego, combinando (4.9) con (4.10), se puede obtener la expresin de la probabilidad de
que el sistema se encuentre sin ninguna unidad.
1 1
p(0)
N N n
1 p( n ) 1 i1 p(0)
n 1 n 1 i 1 i (4.12)
En los sistemas en donde el espacio de estados es infinito (esto es cuando se admiten
infinitas unidades) una condicin necesaria para que exista la distribucin estacionaria es que
n
n 1
n 1 i 1 n
(4.13)
Ejemplo 4.a
Un pequeo supermercado tiene un garage para 10 automviles. Los clientes arriban,
conforme a un proceso Poisson cada 5 minutos y tardan en promedio 30 minutos en efectuar
la compra y salir del garage, tambin segn un proceso Poisson.
para 0 n 10
n
0 para n 10
0 para n 0
n
n para 1 n 10
0 1 2 3 8 9 10
2 3 9 10
1 auto autos
12
5 min h
1 auto autos
2
30 min h
tendremos:
1 p(10) 11,4823
Este valor, multiplicado por el tiempo promedio de permanencia de cada auto en el garage
(0,50 h), nos da el nmero de autos que, en promedio, se encuentran en el garage: 5,7411.
Ejemplo 4.b
A un depsito comercial con atencin permanente arriba un proveedor en promedio cada
6 horas, segn una distribucin exponencial. En cada reparto, el proveedor entrega una sola
unidad del producto en cuestin (o, dicho de otra forma, llegan al depsito 4 unidades por
da, conforme a una distribucin Poisson). El depsito tiene una capacidad mxima de
almacenamiento de 3 unidades. Si el depsito est completo en el momento del arribo de una
unidad, dicha unidad no se adquiere.
Se demanda una unidad de este producto cada 4 horas, tambin conforme a una
distribucin exponencial (o, dicho de otra forma, la demanda del producto es de 6 unidades
por da, conforme a una distribucin Poisson). Si el producto no se encuentra en existencia en
el momento de ser requerido por los compradores, la venta se pierde.
Es un proceso de nacimiento y muerte unitario. Tendremos que la tasa de llegadas del
producto al depsito para los distintos estados es:
para n 0, 1, 2
n
0 para n 3
0 para n 0
n
para n 1, 2, 3
siendo = 4 unidades/da y = 6 unidades/da.
La Cadena de Markov es:
0 1 2 3
p(1) p(0)
p ( 2) p(1)
p(3) p(2)
p(0) p(1) p(2) p(3) 1
Ejemplo 4.c
Suponiendo que el depsito del ejemplo 4.b no tiene restricciones de tamao,
tendramos:
n n
0 para n 0
n
para n 0
Aplicando (4.12) tendremos que:
p(1) p(0)
2
p( 2) p(1) p(0)
3
p(3) p(2) p(0)
y, en forma genrica:
n
p( n ) p(0) (4.14)
Adems:
CADENAS DE MARKOV
66
n
0 p(n ) 0 p(0) 1
Despejando:
1
p(0) n
n 0
Para que se verifique (4.13), la razn / de la serie geomtrica del denominador debe
ser menor a 1. Desarrollando la serie:
p(0) 1 0,3333
Ejemplo 4.d
Supondremos ahora que el proveedor del ejemplo 4.b en cada reparto entrega de a dos
unidades o ninguna (en el caso de que no haya lugar en el depsito para las dos). En este caso
el proceso de nacimiento es de tipo batch.
0 1 2 3
Este ejemplo ser resuelto balanceando, por ejemplo los nodos 0, 1 y 3 para resolver el
sistema de ecuaciones siguiente:
p(0) p(1)
p(1) ( ) p(2)
p(3) p(1)
p(0) p(1) p(2) p(3) 1
Cuya solucin es:
V* = [0,3103; 0,2069; 0,3448; 0,1379]
Los sistemas de espera, tambin llamados de cola, tales como los de prestacin de
CADENAS DE MARKOV
67
servicios a clientes de cualquier naturaleza, son sistemas que estn constituidos por canales o
servidores que prestan un servicio determinado y por clientes que pueden estar recibiendo el
servicio en los canales o bien esperando ser atendidos en una cola.
Los clientes, que generalmente provienen de una poblacin externa, pueden ingresar al
sistema, y en tal caso sern atendidos inmediatamente si hay algn canal disponible, o
tendrn que esperar a que se desocupe algn canal para poder comenzar el servicio. Cuando
un canal se libera, con algn criterio previamente determinado se selecciona a algn cliente
para atender entre todos los que estn esperando (por ejemplo, al cliente que ingres primero
al sistema). Una vez completada la atencin, los clientes se retiran (egresan) del sistema.
El estado de estos sistemas queda definido por la cantidad de clientes que se encuentra
en ellos en un momento determinado.
La capacidad del sistema, es decir el nmero mximo de clientes que puede residir en el
mismo, puede ser limitada o ilimitada.
Cuando los arribos de los clientes son procesos Poisson (es decir, cuando el intervalo
entre arribos de clientes es una variable aleatoria con distribucin exponencial) y cuando los
servicios tambin son de tipo Poisson (es decir, cuando la duracin del servicio es una
variable aleatoria con distribucin exponencial), para el rgimen permanente se pueden
aplicar las ecuaciones (4.9) y (4.10) para calcular las probabilidades de que el sistema se
encuentre en un estado determinado.
SISTEMA M
POBLACIN
n n. (4.15)
0 para n 0
n n para 1 n M (4.16)
M para n M
En estas condiciones la ecuacin (4.9) queda:
n
p( n ) p ( 0) para n < M (4.17)
n! n
n
p( n ) p ( 0) para n M (4.18)
M! n M n M
1
p ( 0) n n (4.19)
M 1
1 MM
n 0 n!
M! M M
Dado que esta probabilidad debe estar acotada en un valor comprendido entre 0 y 1, el
denominador debe tomar un valor mayor o igual a uno y finito. La primera de las series tiene
convergencia, por ser una serie finita, mientras que la segunda serie converge si se cumple
que:
1
M
Es decir:
CADENAS DE MARKOV
69
M (4.20)
En estas condiciones, desarrollando la segunda serie del denominador, la ecuacin
(4.19) queda:
1
p ( 0) n M (4.21)
M 1
1
n 0 n! ( M 1)!( M )
Luego, para los sistemas de varios canales en paralelo, la expresin (4.19) queda:
1
p ( 0) n n (4.26)
M 1
1 MM N
n 0 n!
M! M M
1
p ( 0) n M N M 1 (4.27)
M 1
1
n 0 n!
1
( M 1)!( M ) M
Para los sistemas de un solo canal, tendremos que la (4.26) se transforma en:
1
p( 0) N 1
(4.28)
1
la que, reemplazada en (4.18) permite obtener la probabilidad de cualquier estado.
Ejemplo 4.e:
Para un sistema de colas de un solo canal y que admite un solo lugar de espera, con
procesos de arribo de clientes Poisson (con media =8 cl/h) y de servicio de clientes en el
canal tambin Poisson (con media =10 cl/h), se determinarn las probabilidades de estado
en rgimen permanente.
Tendremos:
para n 0, 1
n
0 para n 2
y, dado que se trata de un sistema con un solo canal de atencin tendremos que
0 para n 0
n
para n 1, 2
Las probabilidades de que un cliente que arriba al sistema ingrese en l y de que un
cliente que se est atendiendo en el canal egrese del sistema, en un intervalo de tiempo de
tiempo t muy pequeo (tanto como para suponer que no se puede producir ms de un
evento) estn dadas, respectivamente, por:
p(ingreso) = nt
CADENAS DE MARKOV
71
p(egreso) = nt
dado que los procesos son poissonianos.
En consecuencia:
Si el sistema se encuentra en el estado 0, tendremos que:
la probabilidad de que se mantenga en el mismo estado 0 en un intervalo de
tiempo t (muy chico), correspondiente a un paso del proceso markoviano, ser
igual a la probabilidad de que no haya ningn ingreso, es decir:
p(0,0) = 1-t
mientras que
la probabilidad de que pase al estado 1 es la probabilidad de que haya un ingreso,
o sea:
p(0,1) = t.
0 1 2
0 1 t t
P 1 t 1 t t t
2 t 1 t
p(1) p(0)
2
p ( 0 ) p ( 0) p ( 0) 2 1
2
p(0) 1 2 1
CADENAS DE MARKOV
73
1
p ( 0)
2
1 2
Como hemos podido observar, los valores de t se simplifican al plantear las ecuaciones
de estado para el rgimen permanente, por lo que se podran obviar al formular los planteos
de las probabilidades de transicin.
Teniendo en cuenta las consideraciones expuestas en el captulo 2, el sistema de
ecuaciones linealmente independientes del problema pudo haberse generado directamente a
partir del producto matricial:
1 1
p(0) p(1) p(2) 1 1 p(0) p(1) 1
1
1-t-t
1-t t t
1-t
0 1 2
0,12
t t
NODO 0: p(0) p(1) p(1) p(0)
2
NODO 2: p( 2) p(1) p(2) p(1) p( 0) 2
1
SUMA: p(0) p(1) p(2) 1 p ( 0)
2
1 2
Para los datos del problema (=8 cl/h y =10 cl/h), tendremos el siguiente resultado:
1
p ( 0) 0,4098
1 0,8 0,8 2
p(1) p(0) 0,8 0,3278
/2 1A
A
0
B
2 3 n-1 n n+1
B A
A+B A+B A+B
/2
1B
p( n ) 1
0
p(0) p(n ) A B (4.38)
2
p(n) A B 1 p(0)
2
p(n) 1 p(0)
2 A B
Reemplazando esta expresin en (4.31):
p(0) p(1A) p(1B) 1 p(0) 1 (4.39)
A B
En resumen, se pueden determinar las ecuaciones de estado, entonces, resolviendo
primero el sistema de 4 ecuaciones con 4 incgnitas constituido por (4.39), y 3 ecuaciones
seleccionadas de (4.29), (4.30), (4.31) y (4.32). Luego, aplicando la ecuacin generativa de
probabilidades de estados (4.35), se calcula el resto de las probabilidades de estados.
Ejemplo 4.f
LAMBDA = 5;
MUA = 15;
MUB = 10;
p0 + p1A + P1B + LAMBDA/(MUA + MUB)*(1-P0)=1;
P1A* MUA + P1B * MUB = P0 * LAMBDA;
P1A * LAMBDA + P1B * LAMBDA = P2 *(MUA + MUB);
P1B* (LAMBDA+MUB) = P0 * LAMBDA/2 + P2 * MUA;
Para el caso de que el sistema estuviera limitado a una cantidad de clientes igual a N,
por tratarse de un sistema de una cantidad finita de estados, no es necesario hacer uso de la
ecuacin (4.34).
Ejemplo 4.g:
Suponiendo que el problema del ejemplo 4.f puede admitir un mximo de 3 clientes,
tendremos que la representacin de la cadena es:
/2 1A
A
B
0 2 3
B A
A+B
/2
1B
p(0) 0,6593407
p(1A) 0,1098901
p(1B) 0,1648352
p(2) 0,0549450
p(3) 0,0109890
1A
0
A
B
2 3 n-1 n n+1
B A
A+B A+B A+B
1B
p( n ) 1
0
p(n) (
2
A B ) p(1A) A p(1B) B
p(n) (
2
A B ) p(0)
CADENAS DE MARKOV
78
p( n ) 1 p(0)
2 A B
Luego:
p(0) p(1A) p(1B) 1 p(0) 1
A B
CADENAS DE MARKOV
79
CAPTULO 5
APLICACIONES
INTRODUCCIN
En el captulo anterior se mostraron algunos ejemplos con relacin a problemas de
colas, que constituyen una de las aplicaciones ms utilizadas de las Cadenas de Markov. En
el presente captulo se expondrn otros ejemplos en diferentes mbitos de aplicacin pero
enfocados a problemas de ingeniera industrial y ciencias empresariales.
Siguiente compra
MARCA
% que compra % que compra % que compra
ACTUAL
C A S
C 20 30 50
A 40 30 30
S 20 40 40
Resolucin:
La matriz de transicin en un paso del problema es:
CADENAS DE MARKOV
80
C A S
C 0,20 0,30 0,50
P A 0,40 0,30 0,30
S 0,20 0,40 0,40
y el grafo correspondiente:
0,2
C
0,3
0,5
0,4
0,2
0,3
A S
0,4
0,3 0,4
Luego, la probabilidad de que tenga una computadora marca A luego de dos pasos
es p 0,35 .
( 2)
C,A
4. Para hallar el nmero de compras que se requiere para que el dueo de una C
pase a una S, debemos convertir al estado S en un estado absorbente:
C A S
C 0,20 0,30 0,50
P A 0,40 0,30 0,30
S 0 0 1
Luego se formula la forma cannica de la matriz P:
S C A
S 1 0 0
P C 0,50 0,20 0,30
A 0,30 0,40 0,30
CADENAS DE MARKOV
82
En consecuencia:
1 0,2 0,3 0,8 0,3
IN
1 0,4 0,3 0,4 0,7
0,8 0,3 1 0
0,4 0,7 0 1
1 0,375 1,25 0
0 0,55 0,5 1
1 0 1,591 0,682
0 1 0,909 1,818
Luego:
1,591 0,682
I N 1
0,909 1,818
RE DE JU FA
JR 13,77% 15,55% 3% 1%
SS 12,5714% 10% 4% 2%
SE 13% 6,66% 5% 2%
AS 5% 2% 10% 3%
SO 15% 5%
Actualmente hay 103 ingenieros en la firma (45 JR, 28 SS, 15 SE, 10 AS, 5 SO), y
la poltica de la firma es tomar solamente ingenieros jnior.
1. Averiguar qu cantidad de ingenieros debern contratarse y qu cantidad
debern promoverse en cada categora para mantener los niveles estables.
2. Determinar cul es el tiempo de permanencia promedio de un empleado en la
compaa (ndice de rotacin).
3. Calcular la probabilidad de que un empleado que recin ingresa a la firma llegue
a la categora de socio, y la probabilidad de que sea despedido.
Resolucin:
1. Dado que de las causas de bajas interesa determinar solamente los empleados
que dejan la empresa por despidos, se puede agrupar a los estados de bajas solamente
en dos clases: DE (despidos) y OB (otras bajas). Estos estados son, obviamente,
absorbentes.
En primer lugar se deben calcular las probabilidades de transicin de una categora
a la superior siguiente, que llamaremos:
PSO: probabilidad de que un asociado sea promovido a socio en un ao,
PAS: probabilidad de que un senior sea ascendido a asociado en un ao,
PSE: probabilidad de que un semi-senior sea promovido a senior en un ao, y
PSS: probabilidad de que un junior sea ascendido a semi-senior en un ao.
AS
pSO
SO OB
1
0,80 0,20
Actualmente hay 5 socios. El 20% de ellos (es decir 1 socio) abandona la empresa
por ao, y el resto (80%) permanece como socio. De manera que debe promoverse 1
asociado (AS) a categora de socio por ao, es decir 1 sobre 10. Luego, pSO = 0,10.
Analizando ahora la parte de la cadena vinculada con el estado AS:
SE
pAS
0,70 0,02
AS DE
1
0,10
0,18
SO OB
1
SS
pSE
0,06
0,53
SE DE
1
0,20 0,20
AS OB
1
JR
pSS
0,10
0,4643
SS DE
1
0,25
0,1857
SE OB
1
Dado que hay 28 semi-senior, de los cuales 5,2 abandonan (18,57%), 2,8 son
despedidos (10%) y 7 son promovidos a la categora superior (25%), se deben ascender
15 ingenieros junior; es decir pSS = 0,3 3 .
Finalmente, analizando el nodo JR:
CADENAS DE MARKOV
86
0,33 0,15
JR 0,10 DE
1
0,33 0,17
0,10
SS OB
1
Es decir, 3,305 aos. Por su parte, observamos que un empleado recin promovido
a la categora de semi-senior permanecer, en promedio, 3,6105 aos, mientras que los
tiempos esperados para los ascendidos a las categoras de senior, asociado y socio,
sern 4,2858, 5 y 5 aos, respectivamente.
OB DE SO JR SS SE AS
OB 1
DE 1
SO 1
JR 0,1778 0,1556 0,3333 0,3333
SS 0,1857 0,1000 0,4643 0,2500
SE 0,2000 0,0667 0,5333 0,2000
AS 0,1800 0,02 0,1000 0,7000
0,6667 0,3333
0,5357 0,2500
I N
0,4667 0,2000
0,3000
y su inversa:
1,5000 0,9333 0,5000 0,3333
1,8667 1 0,6667
I N 1
2,1427 1,4285
3,3333
CADENAS DE MARKOV
88
d p
0 0,6
1 0,3
2 0,1
3 0
Llamaremos:
S0: ninguna unidad en stock al finalizar una semana
S1: una unidad en stock al finalizar una semana
S2: dos unidades en stock al finalizar una semana
S3: tres unidades en stock al finalizar una semana
S3 S2 S1 S0
S3 0,6 0,3 0,1
S2 0,6 0,3 0,1
P=
S1 0,6 0,4
S0 1
y la representacin grfica:
0,3
0,6 S3 S2 0,6
0,12
0,1
0,3 0,1
0,4
S1 S0 1
0,6
S3 S2 S1 S0
S 3 0,36 0,36 0,21 0,07
S2 0,36 0,36 0,28
2
P =
S1 0,36 0,64
S0 1
Luego:
p 3( 2, 0) 0,07 7%
S3 S2 S1 S0
S 3 0,13 0,26 0,29 0,32
S2 0,13 0,26 0,61
4
P =
S1 0,13 0,87
S0 1
Por lo tanto:
S0 S3 S2 S1
S0 1
S3 0,6 0,3 0,1
S 2 0,1 0,6 0,3
S 1 0,4 0,6
2,50
d) Suponiendo que cada ciclo comienza con 3 unidades y termina cuando se agotan las
tres unidades, el nmero de semanas promedio que el sistema est en el estado S3 (tres
unidades en existencias) es 2,50, en el estado S2 (dos unidades en stock), 1,875 y en el
estado S1 (1 unidad en stock) es 0,781. Luego el costo de almacenamiento por ciclo es:
Luego de cada etapa de elaboracin se efecta una inspeccin de calidad, tal como
se indica en el siguiente grfico. Los tiempos promedio del control de calidad son de
0,2 horas y 0,1 horas para los centros A y B, respectivamente, y el costo de la hora de
los inspectores es de $15.
El costo directo de cada unidad que llega al centro desde el almacn de productos
semielaborados es de $40.
De almacn
de Semielaborados
MAQ. 2%
A
Etapa
A
5% CC 3%
A
MAQ. 1%
B
Etapa
B
6% 4%
CC
B
Se desea determinar:
c. el costo directo esperado de cada pieza terminada que sale del centro productivo.
Resolucin:
SE
0,02
MA
0,05 0,98
0,03
CA
0,92
0,01 PD
MB
0,06 0,99
0,04
CB
0,90
PT
SE MA CA MB CB PD PT
SE 0 1 0 0 0 0 0
MA 0 0 0,98 0 0 0,02 0
CA 0 0,05 0 0,92 0 0,03 0
P MB 0 0 0 0 0,99 0,01 0
CB 0 0 0 0,06 0 0,04 0,90
PD 0 0 0 0 0 1 0
PT 0 0 0 0 0 0 1
Reagrupando:
PD PT SE MA CA MB CB
PD 1 0 0 0 0 0
0
PT 0 1 0 0 0 0 0
SE 0 0 0 1 0 0 0
MA 0,02 0 0 0 0.98 0 0
CA 0,03 0 0 0,05 0 0,92 0
MB 0,01 0 0 0 0 0 0,99
0
CB 0,04 0,90 0 0 0 0,06
Luego:
0 1 0 0 0
0 0 0.98 0 0
N 0 0.05 0 0.92 0
0 0 0 0 0.99
0 0 0 0.06 0
CADENAS DE MARKOV
94
1 1
1 0.98
I N 0.05 1 0.92
1 0.99
0.06 1
Por lo tanto:
0,1019 0,8981
0,1019 0,8981
I N A 0,0836
1
0,9164
0,0527 0,9473
0,0432 0,9568
1
1,1134 unidades
0,8991
El nmero esperado de unidades que deben entrar en el proceso para obtener 100 piezas
buenas es, entonces:
b) De la matriz I N se puede extraer el nmero de veces que una pieza que entra en
1
el centro productivo pasa por cada operacin (nEi). Este valor debe multiplicarse por 1,1134
para obtener el nmero de veces que pasa una pieza terminada que sale del centro (nSi).
ESTADO E0 E1 E2 E3
E2 0,4 0,6
Resolucin:
La matriz de transicin es la siguiente:
E0 E1 E2 E3
E 0 0,2 0,4 0,3 0,1
E1 0,5 0,3 0,2
P
E2 0,4 0,6
E3 1
Costo
ESTADO p(i)
diario
E0 0 0,2857 0
E 0 E1 E 2 E 3 E 3 E 0 E1 E 2
E 0 0,2 0,4 0,3 0,1 E3 1
E1 0,5 0,3 0,2 E 0 0,1 0,2 0,4 0,3
P
E2 0,4 0,6 E 1 0,2 0,5 0,3
E3 1 E 2 0,6 0,4
1,25 1 1,125
I N 1
1
2
1,66 6
El tiempo esperado de cada ciclo operativo es, entonces, igual a 3,375 das.
CREDITOS
CUENTA
DOCUMEN- MOROSOS COBRO INCOBRABLE
CORRIENTE
TADOS
CUENTA
30% 15% 15% 40%
CORRIENTE
CRDITOS
50% 10% 40%
DOCUMENTADOS
Resolucin:
La matriz de probabilidades de transicin es:
CC CD MO CO IN
CC 0,30 0,15 0,15 0,40
CD 0,50 0,10 0,40
P MO 0,20 0,60 0,20
CO 1
IN 1
Reordenando:
CO IN CC CD MO
CO 1
IN 1
CC 0,40 0,30 0,15 0,15
CD 0,40 0,50 0,10
MO 0,60 0,20 0,20
Esto significa que la probabilidad de que se cobre una factura que actualmente se
encuentra en cuentas corrientes es del 94%.
Para calcular el nmero de meses que pasan, en promedio, hasta que se liquida una
cuenta, se procede a calcular el siguiente vector:
Se observa que la cantidad de meses que transcurren hasta que se cobra una factura
en cuenta corriente es de aproximadamente 2,18, en promedio, mientras que para el
cobro de una factura documentada se requieren 2,25 meses.
FUENTE B SUMIDERO
Nmero de
Nmero de Nmero de
lneas en
Estado lneas en lneas en
mantenimiento
servicio falla
programado
1 3 0 0
2 2 1 0
3 2 0 1
4 1 2 0
5 1 1 1
6 0 3 0
7 0 2 1
y las transiciones entre los estados se pueden expresar mediante el siguiente grafo:
1 INDISPONIB. 1 1 FALLA
PROGRAMADA
3 1 MANTEN. 1 REPARAC. 2
PROGRAM.
1 FALLA
1 FALLA
1 REPARACIN
1 MANTEN.
PROGRAM. 1 REPARAC.
5 4
1 REPARACIN
1 MANTEN.
1 REPARACIN
PROGRAM.
1 FALLA 1 FALLA
7 6
- Falla
- Reparacin
- Indisponibilidad programada
- Mantenimiento
pij(t)Falla forzada = 1 e F t
CADENAS DE MARKOV
102
pij(t)Indispon. programada = 1 e P t
pij(t)Reparacin = 1 e F t
pij(t)Falla forzada = 1 e P t
De esta manera, el sistema se puede estudiar como una cadena de Markov
homognea con parmetro t continuo.
d
( 0)
dFALLA FORZADA = ( Pij F. FORZ. ) = F (5.1)
dt
d
( 0)
dINDISP. PROGRA.= ( Pij IND. P ROGR. ) = P (5.2)
dt
d
( 0)
dREPARACIN= ( Pij REP ARACIN) = F (5.3)
dt
d
(0)
dMANTENIMIENTO = ( Pij IND.P ROGR. ) = P (5.4)
dt
p1,2 = 3 Ft
p1,3 = 3 Pt
p2,4 = p3,5 = 2 Ft
p4,6 = p5,7 = Ft
p2,1 = p5,3 = Ft
p4,2 = p7,5 = 2 Ft
p6,4 = 3 Ft
3 P 1 3 F
3 P F 2
2 F 2 F
F
2 F
P
5 4
2 F P 3 F
F F
7 6
LP = 10.7;
LF = 0.4;
MP = 983.5;
CADENAS DE MARKOV
104
MF = 190.4;
p1*(3*LP + 3*LF) = P3*MP + P2*MF;
P2*(2*LF + MF) = P1*3*LF + P5*MP + P4*2*MF;
P3*(2*LF + MP) = P1*3LP + P5*MF;
P5*(LF + MP + MF) = P3*2*LF + P7*2*MF;
P6*3*MF = P4*LF;
P7*(MP + 2*MF) = P5*LF;
P0 + P1 + P2 + P3 + P4 + P5 + P6 + P7 = 1;
PTRES= P1;
PDOS = P2 + P3;
PUNA= P4 + P5;
PNINGUNA = P6 + P7;
y el resultado es el siguiente:
Variable Valor
LP 10.70000
LF 0.4000000
MP 983.5000
MF 190.4000
P1 0.9623996
P3 0.3138992 E-01
P2 0.6176048 E-02
P5 0.2138663 E-04
P4 0.1299108 E-04
P7 0.6270361 E-08
P6 0.9097398 E-08
PTRES 0.9623996
PDOS 0.3756597 E-01
PUNA 0.3437772 E-04
PNINGUNA 0.1536776 E-07
Al finalizar cada viernes la empresa puede emitir una orden de compra al proveedor
del producto cuya entrega es inmediata, ya que el lunes a la maana, antes de comenzar
la actividad, est disponible para ser vendido.
La empresa utiliza una poltica (s, S). Si el nmero de unidades en stock al finalizar
la semana es menor que s, entonces emite una orden hasta completar S. En caso
contrario, no se pide. Se considera que la demanda insatisfecha de una semana se pierde.
b) Dado que hay dos unidades en stock al finalizar una semana, cul es la
probabilidad de que haya tres unidades en stock dos semanas ms tarde y cuatro
semanas ms tarde?
Resolucin:
xt = {0, 1, 2, 3}
n 0 1 2 3 4 5 6
p(d=n) 0368 0,368 0,184 0,061 0,015 0,003 0,001
d n 1,000 0,632 0,264 0,080 0,019 0,004 0,001
Finalmente, si el stock es 3, tendremos que: p30 = 0,080, p31 = 0,184, p32 = 0,368, p33
= 0,368. Luego, la matriz de transicin es:
0 1 2 3
0 0,080 0,184 0,368 0,368
1 0,632 0,368 0 0
P
2 0,264 0,368 0,368 0
3 0,080 0,184 0,368 0,368
0 1 2 3
0 0,249 0,286 0,300 0,165
1 0,283 0,252 0,233 0,233
P2
2 0,351 0,319 0,233 0,097
3 0,249 0,286 0,300 0,165
0 1 2 3
0 0,289 0,286 0,261 0,164
1 0,282 0,285 0,268 0,166
P4
2 0,284 0,283 0,263 0,171
3 0,289 0,286 0,261 0,164
0 1 2 3
0 1 0 0 0
1 0,632 0,368 0 0
P
2 0,264 0,368 0,368 0
3 0,080 0,184 0,368 0,368
1 2 3
1 0,632 0 0
I N 2 0,368 0,632 0
3 0,184 0,368 0,632
1 1,5823 0 0
I N 1
2 0,9213 1,5823 0
3 0,9971 0,9213 1,5823
Luego n 0 / 3 3,5
Resolviendo:
TERMINOLOGA
p ij( n ) Probabilidad de que el sistema se encuentre en el estado j dado que n pasos atrs
se encontraba en el estado i (o probabilidad de transicin de i a j en n pasos).
NDICE