Documente Academic
Documente Profesional
Documente Cultură
Resumen: Una cadena de Markov es una serie de eventos, en la cual la probabilidad de que ocurra un
evento depende del evento inmediato anterior. En efecto, las cadenas de este tipo tienen memoria.
“Recuerdan” el último evento y esto condiciona las posibilidades de los eventos futuros. Esta dependencia
del evento anterior distingue a las cadenas de Markov de las series de eventos independientes, como tirar
una moneda al aire o un dado. En los negocios, las cadenas de Markov se han utilizado para analizar los
patrones de compra de los deudores morosos, para planear las necesidades de personal y para analizar el
reemplazo de equipo. El análisis de Markov, llamado así en honor de un matemático ruso que desarrollo el
método en 1907, permite encontrar la probabilidad de que un sistema se encuentre en un estado en
particular en un momento dado. Algo más importante aún, es que permite encontrar el promedio a la larga
o las probabilidades de estado estable para cada estado. Con esta información se puede predecir el
comportamiento del sistema a través del tiempo.
Abstract: A Markov chain is a series of events, in which the probability of an event depends on the preceding
event. Indeed, this type chains have memory. "Remember" the last event and this affects the possibilities
for future events. This dependence of the previous event distinguishes Markov chains series of independent
events, such as a coin toss or a dice. In business, Markov chains have been used to analyze the buying
patterns of defaulting debtors to plan staffing needs and to discuss the replacement of equipment. Markov
analysis, named in honor of a Russian mathematician who developed the method in 1907, to find the
probability that a system is in a particular state at a given time. Something more important is to find the
average in the long run or steady-state probabilities for each state. With this information you can predict the
behavior of the system over time.
de existir, ¿dependerá del estado inicial del Teorema. En una clase aperiódica positiva
sistema? recurrente con estados i=0, 1,2.... Se tiene que:
Bajo condiciones de “regularidad” la distribución Limn Piin i inf
k 0 k ; k o k 1
inf
(1)
asintótica existe y bajo estas condiciones la
distribución en el límite será independiente de la Cualquier conjunto i que satisfaga (1) se llama
distribución inicial. probabilidad de distribución estacionaria de la
cadena de Markov.
Observe que si Pij es la matriz de transición Pregunta interesante: ¿Existe una probabilidad
asociada a una clase recurrente ergódica límite de que el sistema se encuentre en el
positiva, entonces la ecuación estado j, después de muchas transiciones, y que
i inf
k 0 kP kj k
llevada a su forma esta probabilidad sea independiente del estado
inicial?
matricial: Afirmación: Si P es la matriz de transición de una
Cadena de Markov que tiene los estados
{1,2,...k}, entonces, para j=1,2,.., k:
lim n Pi ,( nj) j
Escrito de otra forma:
1 2 . . . k
1 2 . . . k
lim lim P n . . ... ...
n
.. ... ...
Establece claramente que (1 2 3.....t es un auto
vector (a la derecha) de la matriz Pij asociado al 1 2 ...k