Documente Academic
Documente Profesional
Documente Cultură
serie de eventos, en la cual la probabilidad de que ocurra un evento depende del evento
inmediato anterior. En efecto, las cadenas de este tipo tienen memoria. “ Recuerdan” el
último evento y esto condiciona las posibilidades de los eventos futuros. Esta dependencia
del evento anterior distingue a las cadenas de Markov de las series de eventos
independientes, como tirar una moneda al aire o un dado.
En los negocios, las cadenas de Markov se han utilizado para analizar los patrones de
compra de los deudores morosos, para planear las necesidades de personal y para analizar
el reemplazo de equipo.
Una cadena de Markov es una secuencia X1, X2, X3, … de variables aleatorias. El rango
de estas variables, es llamado espacio estado, el valor de Xn es el estado del proceso en el
tiempo n. Si la distribución de probabilidad condicional de Xn+1 en estados pasados es una
función de Xn por sí sola, entonces:
Una cadena de Markov es una serie de eventos, en la cual la probabilidad de que ocurra un
evento depende del evento inmediato anterior. En efecto, las cadenas de este tipo tienen
memoria. “ Recuerdan” el último evento y esto condiciona las posibilidades de los eventos
futuros. Esta dependencia del evento anterior distingue a las cadenas de Markov de las
series de eventos independientes, como tirar una moneda al aire o un dado.
En los negocios, las cadenas de Markov se han utilizado para analizar los patrones de
compra de los deudores morosos, para planear las necesidades de personal y para analizar
el reemplazo de equipo.
La tarea más difícil es reconocer cuándo puede aplicarse. La caracteristica más importante
que hay que buscar en la memoria de un evento a otro.
Una cadena de Markov es una serie de eventos, en la cual la probabilidad de que ocurra un
evento depende del evento inmediato anterior. En efecto, las cadenas de este tipo tienen
memoria. “ Recuerdan” el último evento y esto condiciona las posibilidades de los eventos
futuros. Esta dependencia del evento anterior distingue a las cadenas de Markov de las
series de eventos independientes, como tirar una moneda al aire o un dado.
En la figura 4.1.1 se muestra el proceso para formular una cadena de Markov. El generador
de Markov produce uno de n eventos posibles, Ej , donde j = 1, 2, . . . , n, a intervalos
discretos de tiempo (que no tiene que ser iguales ). Las probabilidades de ocurrencia para
cada uno de estos eventos depende del estado del generador. Este estado se describe por el
último evento generado. En la figura 4.1.1, el último evento generado fue Ej , de manera
que el generador se encuentra en el estado Mj .
Probabilidades de transición.
Una forma de describir una cadena de Markov es con un diagrama de estados, como el que
se muestra en la figura 4.1.2. En ésta se ilustra un sistema de Markov con cuatro estados
posibles : M1, M2 , M3 y M4 . La probabilidad condicional o de transición de moverse de
un estado a otro se indica en el diagrama
Otro método para exhibir las probabilidades de transición es usar una matriz de transición. .
La matriz de transición para el ejemplo del diagrama de estados se muestra en la tabla 4.1.1
.
Otro método para exhibir las probabilidades de transición es usar una matriz de transición. .
Para n = 0, 1, 2, ….
Procesos estocásticos.
sucesión i, j , K0 , K1 , . . , Ki-1 .
Entonces se dice que las probabilidades de transición (de un paso) son estacionarias y por
lo general se denotan por pij . Así, tener probabilidades de transición estacionarias implican
que las probabilidades de transición no cambian con el tiempo. La existencia de
probabilidades de transición (de un paso) estacionarias también implica que, para cada i, j y
n (n = 0, 1, 2,…),
P Xt+n = j = pXn = j ,
Ejemplo :
Una tienda de cámaras tiene en almacén un modelo especial de cámara que se puede
ordenar cada semana. Sean D1, D2, … las demandas de esta cámara durante la primera,
segunda, … , semana, respectivamente. Se supone que las Di son variables aleatorias
independientes e idénticamente distribuidas que tienen una distribución de probabilidad
conocida. Sea X0 el número de cámaras que se tiene en el momento de iniciar el proceso,
X1 el número de cámaras que se tienen al final de la semana uno, X2 el número de cámaras
al final de la semana dos, etc. Suponga que X0 = 3 . El sábado en la noche la tienda hace un
pedido que le entregan el lunes en el momento de abrir la tienda. La tienda hace un pedido
que le entregan el lunes en el momento de abrir la tienda. La tienda usa la siguiente política
( s, S)1 para ordenar : si el número de cámaras en inventario al final de la semana es menor
que s =1 (no hay cámaras en la tienda), ordenar (hasta) S=3. De otra manera, no coloca la
orden (si se cuenta con una o más cámaras en el almacén, no se hace el pedido). Se supone
que las ventas se pierden cuando la demanda excede el inventario. Entonces, {X1} para t =
0, 1, .. es un proceso estocástico de la forma que se acaba de describir. Los estados posibles
del proceso son los enteros 0, 1, 2, 3 que representan el número posible de cámaras en
inventario al final de la semana.
Para obtener es necesario evaluar . Si , Entonces . Por lo tanto, significa que la demanda
durante la semana fue de tres o más cámaras. Así, , la probabilidad de que una variable
aleatoria Poisson con parámetro tome el valor de 3 o más; y se puede obtener de una
manera parecida. Si , entonces . Para obtener , la demanda durante la semana debe ser 1 o
más. Por esto, . Para encontrar , observe que si . En consecuencia, si , entonces la demanda
durante la semana tiene que ser exactamente 1. por ende, . Los elementos restantes se
obtienen en forma similar, lo que lleva a la siguiente a la siguiente matriz de transición ( de
un paso):
Note que las son los elementos de la matriz P(2) , pero también debe de observarse que
estos elementos, se obtienen multiplicando la matriz de transición de un paso por sí misma;
esto es , P(2) = P * P = P2 .
En términos más generales, se concluye que la matriz de probabilidades de transición de n
pasos se puede obtener de la expresión : P(n) = P * P …. P = Pn = PPn−1 = Pn-1 P.
Ejemplo :
Una tienda de cámaras tiene en almacén un modelo especial de cámara que se puede
ordenar cada semana. Sean D1, D2, … las demandas de esta cámara durante la primera,
segunda, … , semana, respectivamente. Se supone que las Di son variables aleatorias
independientes e idénticamente distribuidas que tienen una distribución de probabilidad
conocida. Sea X0 el número de cámaras que se tiene en el momento de iniciar el proceso,
X1 el número de cámaras que se tienen al final de la semana uno, X2 el número de cámaras
al final de la semana dos, etc. Suponga que X0 = 3 . El sábado en la noche la tienda hace un
pedido que le entregan el lunes en el momento de abrir la tienda. La tienda hace un pedido
que le entregan el lunes en el momento de abrir la tienda. La tienda usa la siguiente política
( s, S)1 para ordenar : si el número de cámaras en inventario al final de la semana es menor
que s =1 (no hay cámaras en la tienda), ordenar (hasta) S=3. De otra manera, no coloca la
orden (si se cuenta con una o más cámaras en el almacén, no se hace el pedido). Se supone
que las ventas se pierden cuando la demanda excede el inventario. Entonces, {X1} para t =
0, 1, .. es un proceso estocástico de la forma que se acaba de describir. Los estados posibles
del proceso son los enteros 0, 1, 2, 3 que representan el número posible de cámaras en
inventario al final de la semana.
Así, dado que tiene una cámara al final de una semana, la probabilidad de que no haya
cámaras en inventario dos semanas después es 0.283; es decir, De igual manera, dado que
se tienen dos cámaras al final de una semana, la probabilidad de que haya tres cámaras en el
almacén dos semanas después es 0.097; esto es,
Así, dado que queda una cámara al final de una semana, 0.282 es la probabilidad de que no
haya cámaras en inventario 4 semanas más tarde; es decir, De igual manera, dado que
quedan dos cámaras en el almacén final de una semana, se tiene una probabilidad de 0.171
de que haya tres cámaras en el almacén 4 semanas después; esto es,
Teorema
Sea P la matriz de transición de una cadena de M estados . Existe entonces un vector tal que
(2)
Ejemplo :
Suponga que toda la industria de refrescos produce dos colas. Cuando una persona ha
comprado la cola 1, hay una probabilidad de 90 % de que su siguiente compra se de cola 1.
Si una persona compró cola 2, hay un 80 % de probabilidades que su próxima compra sea
de cola 2.
Entonces :
obtenemos el sistema
Al despejar resulta que Por lo tanto, después de largo tiempo, hay probabilidad 2/3 de que
una persona dada compre cola 1 y 1/3 de probabilidad de que una persona compre cola 2.
Una tienda de cámaras tiene en almacén un modelo especial de cámara que se puede
ordenar cada semana. Sean D1, D2, … las demandas de esta cámara durante la primera,
segunda, … , semana, respectivamente. Se supone que las Di son variables aleatorias
independientes e idénticamente distribuidas que tienen una distribución de probabilidad
conocida. Sea X0 el número de cámaras que se tiene en el momento de iniciar el proceso,
X1 el número de cámaras que se tienen al final de la semana uno, X2 el número de cámaras
al final de la semana dos, etc. Suponga que X0 = 3 . El sábado en la noche la tienda hace un
pedido que le entregan el lunes en el momento de abrir la tienda. La tienda hace un pedido
que le entregan el lunes en el momento de abrir la tienda. La tienda usa la siguiente política
( s, S)1 para ordenar : si el número de cámaras en inventario al final de la semana es menor
que s =1 (no hay cámaras en la tienda), ordenar (hasta) S=3. De otra manera, no coloca la
orden (si se cuenta con una o más cámaras en el almacén, no se hace el pedido). Se supone
que las ventas se pierden cuando la demanda excede el inventario. Entonces, {X1} para t =
0, 1, .. es un proceso estocástico de la forma que se acaba de describir. Los estados posibles
del proceso son los enteros 0, 1, 2, 3 que representan el número posible de cámaras en
inventario al final de la semana.
En este caso, el tiempo de primer paso para ir al estado 3 al estado 1 es dde 2 semanas, el
tiempo de primer paso para ir del estado 3 al estado 0 es de 3 semanas y el tiempo de
recurrencia del estado 3 es de 4 semanas.
En general, los tiempos de primer paso son variables aleatorias y, por lo tanto, tienen una
distribución de probabilidad asociada a ellos. Estas distribuciones de probabilidad
dependen de las probabilidades de transición del proceso. En particular, denota la
probabilidad de que el tiempo de primer paso del estado i al j sea igual a n. Se puede
demostrar que estas probabilidades satisfacen las siguientes relaciones recursivas:
Entonces se puede calcular la probabilidad de un tiempo de primer paso del estado i al j en
n pasos, de manera recursiva, a partir de las probabilidades de transición de un paso. En el
ejemplo, la distribución de probabilidad de los tiempos de primer paso del estado 3 al
estado 0 se obtiene como sigue:
Esta suma puede ser menor que 1, lo que significa que un proceso que el iniciar se
encuentra en el estado i puede no llegar nunca al estado j . Cuando la suma es igual a 1, las
pueden considerarse como una distribución de probabilidad para la variable aleatoria, el
tiempo de primer paso.
Para obtener el tiempo esperado de primer paso del estado i al estado j. Sea , que se define
como:
Al aplicarlo al ejemplo del inventario, estas ecuaciones se pueden usar para calcular el
tiempo esperado hasta que ya no se tengan cámaras en el almacén, suponiendo que el
proceso inicia cuando se tienen tres cámaras; es decir, se puede obtener el tiempo esperado
de primer paso . Como todos los estados son recurrentes, el sistema de ecuaciones conduce
a las expresiones
De manera que el tiempo esperado hasta que la tienda se queda sin cámaras es de 3.50
semanas.
Caso de Aplicación.
El anális de transición puede ser útil al planear satisfacer las necesidades de personal.
Muchas firmas emplean trabajadores de diferentes niveles de clasificación dentro de la
misma categoría de trabajo. Esto es común para personal de confianza, oficinistas, obreros
calificados, no calificados y personal profesional. La firma debe tener el número de
empleados en cada nivel de clasificación para proporcionar la oportunidad de promoción
adecuada, cumplir con las habilidades necesarias para el trabajo y controlar la nómina. Una
planeación de personal a largo plazo apropiada requiere que se considere el movimiento de
personas tanto hacia arriba en el escalafón de clasificación como hacia afuera de la
organización. El análisis de Markov puede ayudar en este esfuerzo de planeación.
Las transiciones del grado 1 al grado 2 y del grado 2 al grado 3 representan promociones.
Como transiciones de probabilidad, están controladas por la firma, puede establecerse el
nivel que la firma determine que es necesario para cumplir sus objetivos. Como ejemplo,
supóngase que la firma tiene en este momento 30 empleados del 3, 90 empleados del grado
2 y 300 empleados del grado 1 y que desea mantener este nivel de empleados durante el
próximo año. Por experiencia, se espera que salgan el 30 % de los empleados de grado 1 al
año, el 20 % de los empleados de grado 2 y el 10 % de aquellos que están en el grado 3. Si
la política es contratar sólo en los niveles de clasificación más bajos, cuántos se deben
contratar y cuántos se deben promover el siguiente año para mantener estables los niveles ?.
Este problema puede resolverse sin el análisis de Markov, pero el modelo es útil para
ayudar a conceptualizar el problema. Como se trata sólo de un ciclo, se usa el análisis de
transición. El análisis comienza con el graado más alto. No se hacen promociones pero el
10 %, o sea, 3, sale. Todos ellos deben de reemplazarse por promociones del grado 2. En el
nivel de clasificación, el 20 % sale y se deben promover 3, con una pérdida de 21. Esto se
debe compensar por promoción del grado 1. Al pasar al grado 1, el 30 % sale y 21 deben
promoverse, lo cual una pérdida total de 111. Por tanto, el siguiente año se deben contratar
111 empleados del nivel 1.
Las cadenas de markov son modelos probabilísticos que se usan para predecir la evolución
y el comportamiento a corto y a largo plazo de determinados sistemas.
Una cadena de Márkov, es una serie de eventos, en la cual la probabilidad de que ocurra
un evento depende del evento inmediato anterior. En efecto, las cadenas de este tipo tienen
memoria. "Recuerdan" el último evento y esto condiciona las posibilidades de los eventos
futuros. Esta dependencia del evento anterior distingue a las cadenas de Márkov de las
series de eventos independientes, como tirar una moneda al aire o un dado. Las cadenas de
Markov son procesos de corta memoria en el sentido de que solo ´recuerdan' el último
estado visitado para decidir cual será el próximo.
Este tipo de proceso, que recibe su nombre del matemático ruso Andrei Andreevitch
Markov (1856-1922), introducido por su autor en un artículo publicado en 1907, presenta
una forma de dependencia simple, pero muy útil en muchos modelos, entre las variables
aleatorias que forman un proceso estocástico.
En los negocios, las cadenas de Márkov se han utilizado para analizar los patrones de
compra de los deudores morosos, para planear las necesidades de personal y para analizar
el reemplazo de equipo.
Markov chains are probabilistic models that are used to predict the evolution and behavior
in the short and long term in certain systems.
This type of process, which takes its name from the Andreevitch Russian mathematician
Andrei Markov (1856-1922), introduced by the author in an article published in 1907,
presents a simple form of dependence, but very useful in many models, among the random
variables forming a stochastic process.
In business, Markov chains were used to analyze the buying patterns from defaulting
debtors to plan staffing requirements and to discuss the replacement of equipment.
Cadena de Markov
De Wikipedia, la enciclopedia libre
Reciben su nombre del matemático ruso Andrei Andreevitch Markov (1856-1922), que las
introdujo en 1907.1
Estos modelos muestran una estructura de dependencia simple, pero muy útil en muchas
aplicaciones.
Contenido
[ocultar]
1 Definición formal
2 Notación útil
o 2.1 Cadenas homogéneas y no homogéneas
o 2.2 Probabilidades de transición y matriz de transición
o 2.3 Vector de probabilidad invariante
o 2.4 Clases de comunicación
o 2.5 Tiempos de entrada
o 2.6 Recurrencia
o 2.7 Periodicidad
3 Tipos de cadenas de Markov
o 3.1 Cadenas irreducibles
o 3.2 Cadenas positivo-recurrentes
o 3.3 Cadenas regulares
o 3.4 Cadenas absorbentes
o 3.5 Cadenas de Markov en tiempo continuo
4 Aplicaciones
o 4.1 Física
o 4.2 Meteorología
o 4.3 Modelos epidemiológicos
o 4.4 Internet
o 4.5 Simulación
o 4.6 Juegos de azar
o 4.7 Economía y Finanzas
o 4.8 Música
5 Referencias
6 Bibliografía
7 Enlaces externos
Una cadena de Márkov es una secuencia X1, X2, X3,... de variables aleatorias. El rango de
estas variables, es llamado espacio estado, el valor de Xn es el estado del proceso en el
tiempo n. Si la distribución de probabilidad condicional de Xn+1 en estados pasados es una
función de Xn por sí sola, entonces:
Si para alguna pareja de estados y para algún tiempo n la propiedad antes mencionada no se
cumple diremos que la cadena de Markov es no homogénea.
, donde .
Diremos que un vector de probabilidad (finito o infinito numerable) es invariante para una
cadena de Markov si
La propiedad "↔" es una relación de equivalencia. Esta relación induce una partición en el
espacio de estados. A estas clases de equivalencia las llamaremos clases de comunicación.
Diremos que un subconjunto C del espacio de estados (al que denotaremos E) es cerrado
esto es, denota la primera vez que la cadena entra al conjunto de estados C.
[editar] Recurrencia
x es estado recurrente si .
x es transitorio si
x es absorbente si
Una clase de comunicación es clase recurrente si todos sus estados son recurrentes.
x es cero-recurrente si
x es positivo-recurrente si
[editar] Periodicidad
El periodo de un estado x∈E se define como:
Una cadena de Markov se dice aperiódica si todos sus estados son aperiódicos.
Una cadena de Markov se dice positivo-recurrente si todos sus estados son positivo-
recurrentes. Si la cadena es además irreducible es posible demostrar que existe un único
vector de probabilidad invariante y está dado por:
Una cadena de Markov se dice regular (también primitiva o ergódica) si existe alguna
potencia positiva de la matriz de transición cuyas entradas sean todas estrictamente
mayores que cero.
Una cadena de Markov con espacio de estados finito se dice absorbente si se cumplen las
dos condiciones siguientes:
Si en lugar de considerar una secuencia discreta X1, X2,..., Xi,.. con i indexado en el
conjunto de números naturales, se consideran las variables aleatorias Xt con t que varía en
un intervalo continuo del conjunto de números reales, tendremos una cadena en tiempo
continuo. Para este tipo de cadenas en tiempo continuo la propiedad de Márkov se expresa
de la siguiente manera:
tal que
Para una cadena de Markov continua con un número finitod de estados puede definirse una
matriz estocástica dada por:
La cadena se denomina homogénea si . Para una cadena de
Markov en tiempo continuo homogénea y con un número finito de estados puede definirse
el llamado generador infinitesimal como:2
[editar] Aplicaciones
[editar] Física
[editar] Meteorología
Si consideramos el clima de una región a través de distintos días, es claro que el estado
actual solo depende del último estado y no de toda la historia en sí, de modo que se pueden
usar cadenas de Markov para formular modelos climatológicos básicos.
Internet
El pagerank de una página web (usado por Google en sus motores de búsqueda) se define a
través de una cadena de Markov, donde la posición que tendrá una página en el buscador
será determinada por su peso en la distribución estacionaria de la cadena.
Simulación
Las cadenas de Markov son utilizadas para proveer una solución analítica a ciertos
problemas de simulación tales como el Modelo M/M/1.3
[editar] Juegos de azar
Son muchos los juegos de azar que se pueden modelar a través de una cadena de Markov.
El modelo de la ruina del jugador, que establece la probabilidad de que una persona que
apuesta en un juego de azar finalmente termine sin dinero, es una de las aplicaciones de las
cadenas de Markov en este rubro.
Proceso estocástico
De Wikipedia, la enciclopedia libre
1 Ejemplos
2 Definición matemática
o 2.1 Casos especiales
3 Referencias
[editar] Ejemplos
Los siguientes son ejemplos dentro del amplio grupo de las series temporales:
o Señales de telecomunicación
o Señales biomédicas (electrocardiograma, encefalograma, etc.)
o Señales sísmicas
o El número de manchas solares año tras año
o El índice de la bolsa segundo a segundo
o La evolución de la población de un municipio año tras año
o El tiempo de espera en cola de cada uno de los usuarios que van llegando a una
ventanilla
o El clima es un gigantesco cúmulo de procesos estocásticos interrelacionados
(velocidad del viento, humedad del aire, etc) que evolucionan en el espacio y en el
tiempo.
o Los procesos estocásticos de orden mayor a uno, como el caso de una serie de
tiempo de orden 2 y una correlación de cero con las demás observaciones.
En los procesos estocásticos se pueden usar las matrices para definir el número de evento,
ya que no necesitan la historia para "predecir", sino de los hechos que están presentes se
"predice" un comportamiento cadenas de Markov.1
puede ser continuo si es un intervalo (el número de sus valores es ilimitado) o discreto si
es numerable (solamente puede asumir determinados valores). Las variables aleatorias
toman valores en un conjunto que se denomina espacio probabilístico. Sea un
espacio probabilístico. En una muestra aleatoria de tamaño se observa un suceso
compuesto formado por sucesos elementales :
, de manera que .