Documente Academic
Documente Profesional
Documente Cultură
Definicin
Una cadena de Markov es una sucesin de ensayos similares u
observaciones en la cual cada ensayo tiene el mismo nmero finito de
resultados posibles y en donde la probabilidad de cada resultado para un
ensayo dado depende slo del resultado del ensayo inmediatamente
precedente y no de cualquier resultado previo.
Para cada posible valor del estado inicial s1 y para cada uno de los
sucesivos
valores sn de los estados Xn, n = 2, 3, . . ., especificamos:
Procesos estocsticos
{X(t), t e T}
Es decir,
Para n = 1, 2, . . . y
Para cualquier sucesin de estados s1, . . . , sn+1
CADENAS DE MARKOV
MATRIZDE TRANSICION
Los elementos que forman la Matriz de transicin representan las
probabilidades dadas de que en las prximas observaciones el estado
del sistema indicado a la izquierda de la matriz cambie al estado del
partido indicado arriba de la matriz.
Una cadena de Markow (A, T,G y C) son una secuencia aleatoria para el
patrn de nucletidos en una secuencia gnica. Podra Ser una
aproximacin: las probabilidades para el nucletido en la posicin j+1
dependen del nucletido en la posicin j.
La ecuacin de Chapman-Kolmogorov
Es una de las relaciones ms importantes en las cadenas de Markov
Para estudiar las propiedades a largo plazo de las cadenas de Markov nos
basamos especficamente en las cadenas de Markov ergdicas. Recordemos
que una C.M ergdica es aperidica, recurrente y no nula (si hay estados
absorbentes no es una cadena ergdica). En este tipo de cadenas se puede ir
de un estado i a un estado j en n pasos, aunque no exista un arco dirigido de
un estado i a un estado j, es decir, tiene la libertad de ir de un estado a
cualquier otro en n pasos. Esto nos lleva a afirmar que hay una evidencia de
que existen condiciones de estado estable, por lo tanto, las probabilidades
cada vez que avance el tiempo van a tender a converger en cierto punto, como
se desarroll en la clase y lo recordaremos a continuacin.
Lo anterior se resuelve cuando aplicamos las ecuaciones de ChapmanKolmogorov. Para tener una idea ms clara de ello, podemos remitirnos al
ejemplo realizado en clase, donde para n pasos las probabilidades se repetan.
Estados absorbentes
EJEMPLO
Ejemplo.
Sea N(t), t 0, un proceso de Poisson con tasa , y sea Yn una
cadena de
Markov discreta con probabilidad de transicin, digamos, u(i, j).
Entonces el proceso definido como Xt = YN(t) es una cadena de
Markov en tiempo
continuo, es decir, Xt realiza un salto de acuerdo a u(i, j) en cada
llegada de N(t).
Esto se sigue de manera intuitiva de la falta de memoria de la
distribucin exponencial. Si Xn = i, entonces, independientemente
de lo que ocurriese en el pasado, el tiempo hasta el siguiente salto
se distribuye de manera exponencial con tasa , de modo que la
cadena ir al estado j con probabilidad u(i, j).
En las cadenas discretas, se tena la matriz de transicin y de
modo paralelo, aqu, se tiene la probabilidad de transicin para t >
0 definida como
pt (i, j) = P (Xt = j | X0 = i)
que en el ejemplo, como N(t) se distribuye como una Poisson con
media t, tiene la forma
t<t0 para cualquier t0 > 0, entonces se sabe para todo t.Se puede
demostrar que las probabilidades de transicin pt se pueden
determinar a partir de las derivadas en 0 de las propias pt(i, j):