Documente Academic
Documente Profesional
Documente Cultură
asticos 1. Tarea 1
Profa. Bego
na Fern
andez Fern
andez
Ayud. Daniel Cervantes Filoteo
Instrucciones: Resuelva los siguientes problemas justificando sus respuestas. Entregue los resultados
de los ejercicios 1, 2, 6, 8, 11, 12, 14, 19, 20 y 22, por equipos de 3 a 5 integrantes, en un formato limpio
y ordenado.
1. Se lanza un dado repetidas veces. Diga cual de los siguientes procesos es una cadena de Markov y
cual es su matriz de transici
on de probabilidades.
a)
b)
c)
d)
El n
umero m
as grande obtenido hasta el lanzamiento n.
El n
umero de veces que se obtuvo seis en n lanzamientos.
El n
umero de lanzamientos efectuados desde el seis mas reciente.
Al tiempo n, el tiempo transcurrido hasta el proximo seis.
2. Una partcula se mueve en {1, 2, ..., c + d}, con c y d enteros positivos. En cada tiempo n, si la
partcula est
a en uno los primeros c estados, salta a uno de los u
ltimos d estados uniformemente (con
probabilidad 1/d), y si est
a en cualquiera de los d u
ltimos estados la partcula salta uniformemente
(con probabilidad 1/c) a cualquiera de los primeros c estados. Para cada n 1 sea Xn la posici
on de
la partcula al tiempo n. Calcule la matriz de probabilidades de transicion de la cadena de Markov
Xn , n 1.
3. Cadena de fila de espera: Consideremos la ventanilla de un banco. En este tipo de lugares la gente
llega de manera aleatoria a solicitar un servicio, y es despachada tambien de manera aleatoria, lo
que provoca la formaci
on de una fila de espera. Existen varias formas de modelar este fenomeno,
consideremos una de las m
as b
asicas.
Consideremos la medici
on del tiempo en periodos de un minuto. Supongamos que si hay gente en
la fila al inicio de un periodo entonces se atiende a una persona durante el mismo. Si no hay gente
en la fila al inicio del periodo, nadie sera atendido durante este. Sea n el n
umero de clientes que
llegan durante el n-esimo periodo. Supongamos que 1 , 2 , ... son variables aleatorias i.i.d. que toman
valores en Z+ .
Supongamos que X0 denota el n
umero de clientes en la fila al inicio, y sea Xn el n
umero de clientes
presentes en la fila al final del n-esimo periodo. Cual es el espacio de estados de esta cadena?,
Muestra la matriz de probabilidades de trancision del modelo. Justifica tu respuesta.
4. Sea {Xn }n0 una cadena de Markov con probabilidades de transicion Pi,j . Sea m > 0 un entero fijo. Demuestre que los siguientes procesos son cadenas de Markov y encuentre su funci
on de
probabilidades de transici
on.
a) Yn = Xn+m
b) Zn = Xnm
5. Considere un experimento donde inicialmente se tienen 2 cajas y 2d bolas, d bolas de color negro
y d bolas de color blanco, en la caja 1 hay d bolas (no necesariamente del mismo color) y en la
segunda caja las restantes. Tomaremos aleatoriamente una bola de cada caja y se colocar
an en la
caja opuesta de donde se tomaron. Realizaremos estos ensayos varias veces consecutivas. Denotamos
por Xn al n
umero de bolas negras en la caja 1 despues del ensayo n.
Demuestre que Xn es una cadena de Markov y encuentre su matriz de probabilidades de transici
on.
1
6. Una partcula se mueve en {0, 1, 2, . . . , k}, del siguiente modo: si se encuentra en el estado k, entonces
pasa, con distribuci
on uniforme a alg
un estado del conjunto {0, 1, 2, . . . , k 1}. Se detendr
a cuando
llegue al estado 0. Encuentre el n
umero esperado de pasos en los que la partcula alcanza el estado
0 iniciando en k.
7. Considera la cadena Markov con espacio de estados E
0.4 0.3
0.3 0.2
P=
0.7 0
0.3
0.5
0.3
Calcule:
a) P [X2 = 0, X1 = 0|X0 = 1]
b) P [X3 = 0, X2 = 0|X0 = 1]
c) P [X3 = 0
o X3 = 1|X0 = 0]
d ) P [X4 = 0] considera una distribucion inicial uniforme.
8. Considera la cadena Markov con espacio de estados E = {0, 1, 2, 3, 4, 5} con matriz de transici
on:
P=
1/2
1/3
0
1/4
0
0
1/2 0
0
2/3 0
0
0 1/8 0
1/4 0
0
0 3/4 0
1/5 0 1/5
0
0
0
0
7/8 0
1/4 1/4
1/4 0
1/5 2/5
0 0 0
1
0
0
0
0
0
0
0
P= 0 1 0
0 0 0
0 1/2 0 1/2
0 0 0
0 1/2 1/2 0
0 0 0
0
0 1/2 1/2
10. Considere un cadena de Ehrenfest con N = 3. Encuentre:
a) Pi (T0 = n), 1 n 3, para cualquier i en el conjunto de estados.
b) P, P2 y P3 .
c) 1 , 2 y 3 , suponga 0 =
1 1 1 1
, , ,
.
4 4 4 4
q0 p o 0
q1 0 p 1
P = 0 q2 0
0 0 q3
0 0 0 ...
0 0 0 ...
p2 0 0 ...
0 p3 0 ...
..
.
1
0
0
0
0 1/2 1/2 0
0
0
0
0
0
0
0 1/2
1
1/2
si {n > 0|Xn C} =
6 ,
en otro caso .
Calcule C (2) = P (Tc < |X0 = 2) para cada conjunto cerrado irreducible C del inciso
anterior.
14. Cadena de Rachas: Considera una cadena de Markov con espacio de estados E = {0, 1, ...}. Si la
cadena est
a en el estado i, puede ir al estdo i+1 con probabilidad p o al estado cero con probabilidad
1 p.
a) Calcula P0 [T0 = n].
b) Demuestra que la cadena es irreducible y recurrente.
15. Sea {Xn }n0 una cadena de Markov con espacio de estados E, un subconjunto de los naturales, y
con funcion de transici
on de probabilidades P , que cumple:
X
jPi,j = Ai + B;
iE
16. Sea {Xn }n0 una cadena de ramificacion con variable asociada u y con E[u] = . Demuestre que:
Ei [Xn ] = in
Ayuda: Use el ejercicio anterior
17. Sea {Xn }n0 una cadena de ramificacion con variable asociada u de varianza finita, con V ar[u] = 2
y E[u] = . Demuestre que:
2 |X = i] = i 2 + i2 2
a) E[Xn+1
n
2 ] = in 2 + 2 E [X 2 ]
b) Ei [Xn+1
i
n
1 n
2
n1
si 6= 1
i
1
V ar[Xn ] =
in 2
si = 1
Ayuda: Use el ejercicio anterior
18. Si i,j = Pi [Tj < ], verifica las siguientes identidades:
P
a) Pi [Tj n + 1] = Pij + k6=j Pk [Tj n] Pi,k
P
b) i,j = Pi,j + k6=j k,j Pi,k
19. Sea {Xn }1n es una cadena de Markov con espacio de estados E = {0, 1, 2, ..., d} con funci
on de
transicion P tal que:
d
X
jPij = i;
iE
j=0
23. Sea {Xn }n0 una cadena de Markov con espacio de estados E y i, j E. Demuestre que:
n > 0 para alguna n 1.
a) i,j > 0 si y s
olo si Pi,j