Documente Academic
Documente Profesional
Documente Cultură
Facultad de Ciencias
Postgrado en Modelos Aleatorios
b) suponga que todos los estados son recurrentes, muestre que son
recurrentes nulos si y solo si 1 + p1 + p1 p2 + p1 p2 p3 + · · · → ∞
c) discuta la existencia de la medida invariante
9. Considere una cadena de nacimiento y muerte con espacio de estados
0, 1, · · · , N, absorbente en los extremos y con p1 = p, qi = q, ri = r
para todo i = 1, · · · , N, es decir, si i = 1, 2 · · · , N − 1: P(i, i + 1) = p,
P(i, i) = r, P(i,i-1)=q. P(0, 0) = P(N, N) = 1
2
– caso 1: N = 10, p = 1/3, q = 2/3
– caso 2: N = 20, p = 3/8, q = 3/8, r = 1/4
10. Sea X una cadena de Markov. Cual de las siguientes son cadenas de
Markov:
a) Xm+r para r ≥ 0
b) X2m para m ≥ 0
11. Suponga que el numero de personas que acude a un dispensario en
un da n para recibir la vacuna de la ebre amarilla es una variable
aleatoria Yn . Suponga que {Yi }i≥1 son independientes e identicamente
distribuidas, y su distribucion es dada por
P(Yn = k) = yk , k = 0, 1, 2, · · ·
3
d) Calcule, en el correr del tiempo, cual es la proporcion de los
das en que hay personas que solicitan vacunas y no hay dosis
disponibles.
e) Para saber cuanto espacio hay que dejar disponible en la nevera,
calcule cual es el numero promedio (en el equilibrio) de vacunas
disponibles
12. Sea
Xn una cadena
d Markov a dos estados, con matriz de transicion
a 1−a
tal que a + b 6= 1. Demuestre que la cadena es
1−b b
Ergodica.
13. Una cadena de Markov de tres estados: 0, 1 y 2 tiene la siguiente
matriz de transicion:
0.6 0.3 0.1
0.3 0.3 0.4
0.4 0.1 0.5
Halle:
a) P(X2 = 1, X3 = 1|X1 = 0), P(X1 = 1, X2 = 1|X0 = 0).
b) Si sabemos que X0 = 1, halle P(X0 = 1, X1 = 0, X2 = 2).
c) Si la dsitribucion inicial es π(0) = π(1) = 0.5, π(2) = 0, halle
P(X0 = 1, X1 = 1, X2 = 0) y P(X1 = 1, X2 = 1, X3 = 0).
4
15. Una cadena de Markov con espacio de estados S = {1, 2, 3} distribucion
inicial π = (2/5, 1/5, 2/5) y matriz de transicion:
0 1/3 2/3
1/4 3/4 0
2/5 0 3/5