Sunteți pe pagina 1din 3

4/10/2017 ~ CADENAS DE MARKOV

Mircoles, Octubre 04, 2017

CADENAS DE
MARKOV
INICIO ANDRI MRKOV MATEMTICA BSICA PRINCIPIOS BASICOS CADENAS DE MARKOV CADENAS ABSORBENTES

martes, 15 de marzo de 2011

CONCEPTO DE CADENA DE MARKOV: Search


Las cadenas de Markov son una herramientas para analizar el comportamiento y el gobierno de determinados
tipos de procesos estocsticos, esto es, procesos que evolucionan de forma no deterministicas a lo largo del
PGINAS
tiempo en torno a un conjunto de estados.
Una cadena de Markov, por lo tanto, representa un sistema de varia su estado a lo largo del tiempo, siendo cada Pgina principal
cambio una transicin del sistema. Dichos cambios no estn predeterminado, aunque si lo esta la probabilidad del
TEORIA Y EJEMPLOS
prximo estado en funcin de los estados anteriores, probabilidad que es constante a lo largo del tiempo (sistema
homogneo en el tiempo). Eventualmente, en una transicin, el nuevo estado puede ser el mismo que el anterior y EJERCICIOS PROPUESTOS
es posible que exista la posibilidad de influir en las probabilidades de transicin actuando adecuadamente sobre el EJERCICIOS RESUELTOS
sistema (decisin).
Fuente: http://www.edicionsupc.es/ftppublic/pdfmostra/OE03502M.pdf
MATRIZ DE TRANSICION: CONTENIDO
Una matriz de transicin para una cadena de Markov de n estado es una matriz de n X n con todos los registros
no negativos y con la propiedad adicional de que la suma de los registros de cada columna (o fila) es 1. 2011 (1)
marzo (1)
El comportamiento de cambio de marca de los consumidores a sido modelado como una cadena de Markov, para CONCEPTO DE CADENA DE MARKOV:Las
ayudar a desarrollar las estrategias de mercadotecnia. A manera de ejemplo, obsrvese el siguiente cadenas de Markov...
comportamiento de cambio de marca descrito en la siguiente tabla para una muestra de 250consumidores de un
producto.

POLL

Esta encuesta no existe (o se ha


suprimido).
El primer rengln indica que, de 80 personas
que compraron la marca 1 en la semana 6, 72 volvieron a adquirirla en la semana 7, 4 prefirieron la marca 2 y 4 la
marca 3. Sin embargo, ntese que 12 personas cambiaron la marca 2 por la marca 1 y 2 personas cambiaron la
marca 3 por la marca 1. A si pues, para la marca 1, la perdida de 8 clientes se compens con creces por la
conquista de 14 clientes. Entre la sexta y la sptima semanas, la marca 1 aument su participacin en el mercado
de 32%(80/250) a 34,4% (86/250).
La matriz de probabilidades de transicin para la tabla de contingencia es P:

INICIO

GENERAL

CONCEPTOS BASICOS CADENAS DE


MARKOV

EJERCICIOS

La matriz P es una estimacin de la matriz verdadera, pues solamente representa el comportamiento de una SIMULADOR
muestra de 250 consumidores, durante a un periodo de dos semanas. Los elementos P11, P22 y P33 de la
matriz P son medidas del poder de retencin de las tres marcas; los restantes elementos Pij reflejan el poder de
atraccin de la marca j, suponiendo que la compra anterior haya sido a favor de la marca i. Los elementos de DATOS PERSONALES
cada fila reflejan la probabilidad de que una marca retenga a sus clientes o los pierda frente a otras marcas. Los
elementos de cada columna resumen la probabilidad de que una marca retenga a sus clientes o conquiste a otros I N G . EMILI O TO R R E S
a costa de cada marca de la competencia. V E R TODO M I P E RF I L
Suponiendo que la participacin en los mercados que tienen la tres marcas del ejemplo son 30%, 38% y 32&,

http://investigaciondeoperaciones2markov.blogspot.com/2011/03/concepto-de-cadena-de-markov-las.html 1/3
4/10/2017 ~ CADENAS DE MARKOV
respectivamente, durante la sptima semana. Si la matriz de transicin P (maestral), se considera una buena
estimacin de la verdadera matriz de transicin (poblacional), es posible predecir las participaciones de mercado
SEGUIDORES
esperada en la octava semana por medio de la multiplicacin de matrices. As entonces: Seguidores (4)

Seguir

Con la tecnologa de Blogger.

Las participaciones en el mercado predichas durante la octava semana son 32,08%, 37,64% y 30,28%,
respectivamente para la tres marcas.
Generalizando, podemos decir que si un proceso de Markov donde el sistema puede encontrarse en cualquiera
de m estados posibles, las probabilidades pueden escribirse por medio del vector X=(x1 x2..xm) donde xj
representa probabilidad de que el sistema se halle en el estado j. En los estados actuales de un proceso de
Markov Xk, los estados despus del siguiente experimento (transicin) pueden calcularse mediante la
multiplicacin con de matrices.
XK+1 = X K P
Con base en la ecuacin anterior se puede afirmar que: BIOGRAFIA DE ANDREI MARKOV

mas informacion en cada pestaa de este blog

Publicado por Ing. Emilio Torres en 15:53

N O H AY C O M E N TA R I O S :

P U B L I C A R U N C O M E N TA R I O

Introduce tu comentario...

Comentar como: Seleccionar pe

Publicar Vista previa

Suscribirse a: Enviar comentarios (Atom)

Copyright 2011 CADENAS DE MARKOV | Powered by Blogger

Design by Free WordPress Themes | Bloggerized by Lasantha - Premium Blogger Themes | Best CD Rates

http://investigaciondeoperaciones2markov.blogspot.com/2011/03/concepto-de-cadena-de-markov-las.html 2/3
4/10/2017 ~ CADENAS DE MARKOV

http://investigaciondeoperaciones2markov.blogspot.com/2011/03/concepto-de-cadena-de-markov-las.html 3/3

S-ar putea să vă placă și