Documente Academic
Documente Profesional
Documente Cultură
Procesos Estocásticos
Universidad de La Serena
0
20 40 60 80 100
Tiempo (en minutos)
1. En un lote de autos usados, el 25% son de la marca Ford, el 45% son Chevrolet y el 30% son
Chrysler, de los cuales, 2 de cada 8 autos Ford son estándar, 1 de cada 10 autos Chevrolet son
estándar y 2 de cada 10 autos Chrysler son también estándar, un cliente compra un auto de este
lote,
a. ¿cuál es la probabilidad de que el auto seleccionado por el cliente sea estándar?
b. ¿cuál es la probabilidad de que haya seleccionado un auto Chevrolet estándar?
c. ¿cuál es la probabilidad de que el auto seleccionado sea Ford o Chrysler automático?
S 2/8
Ford
A 6/8
25%
S 1/10
A 9/10
30% S 2/10
Chrysler
A 8/10
a. Probabilidad de seleccionar auto estándar
Entonces: i i j
pij p (1 p) j
j
La probabilidad condicional P(Xn+1 = j | Xn = i), de que la cadena estará en el estado j
en el tiempo n + 1 si está en el estado i en el tiempo n se conoce como una
probabilidad de transición. Si para una cadena de Markov esta probabilidad de
transición tiene el mismo valor para todo los tiempos n (n = 1, 2, 3, ... ) decimos que la
cadena tiene probabilidades de transición estacionarias.
F(i,i) 1 y IE(T(i,i))
Un estado se dice recurrente nulo ssi :
F(i,i) 1 y IE(T(i,i))
Nota: Sea IE(T(i,i)) k 1k Fk (i,i) , el valor esperado de el número de
etapas que le toma al proceso volver al estado i por primera vez, partiendo del
estado i.
•Un estado j se dice accesible desde el estado i si para algún n:
pij( n ) IP( X n j / X 0 i) 0
•Si tanto el estado i es accesible desde j como viceversa decimos que los
estados i y j se comunican.
•Se dice que una cadena es irreducible si hay una sola clase de estados.
Para mayor claridad, veamos un ejemplo:
Estamos interesados en cómo la distribución de una población entre estados puede cambiar
durante un período de tiempo.
Supongamos que la población de un país, está clasificada de acuerdo con los ingresos en
Estado 1: pobre
Estado 2: ingresos medios
Estado 3: rico
Además en cada período de 20 años tenemos los siguientes datos para la población y su
descendencia:
OBSERVACIONES:
IP( X 0 1)
IP( X 2)
f
0 0 f n = PT f n-1 = (PT)n f 0
IP( X 0 M )
El conocimiento del proceso estocástico {Xn}n=0,1,2,..., consiste en
poder determinar la distribución de probabilidad en cada etapa, es
decir calcular IP (Xn = j) para cada n 1 y estado j= 1,2,.....,M.
pij IP( X n 1 i )
i
Sea {Xn}n=0,1,2 una cadena de Markov irreducible con estados recurrentes
positivos aperiódicos, entonces existe una distribución estacionaria , tal
que > 0 y que se obtiene como la solución única del sistema:
P T
Matricialmente esto equivale a tener:
f n = PT f n-1 = (PT)n f 0
También es posible obtener las probabilidades de transición de un estado a
otro al cabo de k etapas, que denotamos por :
p (k )
ij IP( X n k j / X n i) IP( X k j / X 0 i)
Que resumidas en una matriz (para el caso de un número finito de estados).
1 2
↺
4 3
b. Estados a largo plazo:
1= π1 + π2 +π3 +π4
π1 = 0.2451
π2 = 0.2011
π3 =.02940
π4 = 0.2598
Suponga que toda la industria de gaseosas produce solo 2 colas: Coca-Cola
y Pepsi. Cuando una persona ha comprado CC hay una posibilidad de 90%
de que siga comprándola la vez siguiente; si una persona compró Pepsi, hay
80% de que repita la vez siguiente.
a) Si una persona actualmente es comprador de Pepsi ¿cuál es la
probabilidad de que compre CC pasadas 2 compras a partir de hoy?
b) Si en la actualidad una persona es comprador de CC ¿cuál es la
probabilidad de que compre CC pasadas 3 compras a partir de hoy?
c) Supongamos que el 60% de toda la gente toma hoy CC y el 40% Pepsi,
a 3 compras a partir de ahora, ¿qué fracción de los compradores estará
tomando CC?
d) Determine el estado estable del mercado.
Un fabricante de grabadoras está tan seguro de su calidad que está
ofreciendo garantía de reposición total si el aparato falla en dos años.
Basándose en datos compilados la compañía ha notado que solo el 1 % de
las grabadoras falla durante el primer año y 5 % durante el segundo. La
garantía no cubre grabadoras ya reemplazadas.
Modele el sistema como una cadena de Markov.
Solución: