Sunteți pe pagina 1din 9

Estado Estable 1era pte.

2da Parte. Probabilidades de estado estable. En el estudio del ejemplo de cola (ejemplo 4), se encontr que despus de un largo tiempo, la probabilidad de que la siguiente vez que una persona compre bebida de cola sea cola 1 se aproxima a .67 y.33 de que sera cola 2 (vase la tabla 2). Estas probabilidades no dependen de si la persona tomaba cola 1 o cola 2.en esta seccin, se analiza el concepto importante de probabilidades de estado estable, que se pueden usar para describir el comportamiento a largo plazo de una cadena de Markov. El siguiente resultado es vital para comprender las probabilidades de estado estable y el comportamiento a largo plazo de las cadenas de Markov. TEOREMA 1

Sea P la matriz de transicin de una cadena ergdico de estado estable. Entonces existe un vector tal que

Recuerde que el 2/-esimo elemento de Pn es Pij(n) El teorema 1 establece que para cualquier estado inicial i,

Observe que para Pn grande, tiende a una matriz con renglones idnticos. Esto significa que despus de un largo tiempo, la cadena de Markov se estabiliza, e (independientemente del estado inicial 2) hay una probabilidad j de que se est en el estado j.

El vector

se llama distribucin de estado estable o distribucin

de equilibrio, para la cadena de Markov. Para una cadena determinada con matriz de transicin P, Cmo se puede hallar la distribucin de probabilidad de estado estable? A partir del teorema 1, se observa que para n grande y toda i,

Puesto que Pij (n +1)= (rengln i de pn) (columna j de P), se podra escribir

Si n es grande, sustituyendo la ecuacin (6) en la (7), se obtiene

En forma de matriz, (8) se podra escribir como

Infortunadamente, el sistema de ecuaciones especificado en (8) tiene un nmero infinito de soluciones, debido a que el rango de la matriz P siempre resulta ser s - 1. Para obtener los valores nicos de la probabilidad de estado estable, observe que para cualquier n y cualquier i,

As, despus de sustituir cualquiera de las ecuaciones en (8) con (10), se puede usar la ecuacin (8) para resolver las probabilidades de estado estable. Para ilustrar como encontrar las probabilidades de estado estable, se determinan las probabilidades de estado estable para el ejemplo 4, el ejemplo de la bebida de cola. Recuerde que la matriz de transicin para el ejemplo 4 fue,

Entonces con la ecuacin (8) o la ecuacin (8), se obtine

Sustituyendo la segunda ecuacin con la ecuacin sistema:

, se obtiene el

Resolviendo para

, se obtiene

Por consiguiente,

despus de un largo tiempo, hay una probabilidad de que 2/3 de que una persona determinada compre cola 1 una probabilidad 1/3 de que un apersona especifica compre cola 2. Anlisis transitorio Un vistazo a la tabla 2 muestra que para el ejemplo 4, el estado estable se alcanza (a dos decimales) Despus de diez transiciones. Ninguna regla general se puede expresar acerca de que tan rpido una cadena de Markov alcanza el estado estable, pero si P contiene muy pocos elementos que estn cerca de 0 o cerca de 1, por lo general el estado estable se alcanza muy rpido. El comportamiento de una cadena de Markov antes de alcanzar el estado estable se llama comportamiento transitorio (o de corrida corta). Para estudiar el comportamiento transitorio de una cadena de Markov, simplemente se utilizan las formulas para Pij dadas en (4) y (5). Sin embargo, es bueno saber que para n grande, las

probabilidades de estado estable describen con precisin la probabilidad de estar en cualquier estado. Interpretacin intuitiva de las probabilidades de estado estable. Se puede dar una interpretacin intuitiva a las ecuaciones de probabilidad de estado estable (8). Restando obtiene: de ambos lados de la ecuacin (8), se

La ecuacin (11) establece que en el estado estable, Probabilidad de que una transicin particular deje el estado J = probabilidad de que una transicin particular entre al estado J (12) Recuerde que en el estado estable, la probabilidad de que el sistema este en el estado / es . De esta observacin, se deduce que,

Probabilidad de que una transicin particular deje el estado J = (probabilidad de que el periodo actual comience en J) X "(probabilidad de que la transicin actual deje o salga de J)

Y Probabilidad de que una transicin particular entre al estado J Probabilidad de que el periodo actual comience en KJ) x "(probabilidad de que la transicin actual llegue a J) La ecuacin (11) es razonable; si para cualquier estado se violara la ecuacin (11), entonces para algn estado J, el lado derecho de (11) seria mayor que el lado izquierdo de (11). Esto dara como resultado la probabilidad de aplicar en el

estado J, y no existira una distribucin de probabilidad de estado estable. Se podra considerar que el estado estable la ecuacin (11) establece que el flujo de probabilidad hacia cado estado debe ser igual al flujo de probabilidad que sale de cada estado. Esto explica porque las probabilidades de estado estable suelen llamarse probabilidades de equilibrios. (Winston, 2004) y (Hamdy, 2004) Fuentes.

Hamdy, T. (2004). Investigacin de Operaciones (7a. ed.). Pearson. Winston, W. L. (2004). Investigacin de operaciones aplicaciones y algoritmos (4ta ed.). Thomson.

S-ar putea să vă placă și