Sunteți pe pagina 1din 4

Metodos de Cadenas de Markov Montecarlo

Shirle Aragn Coaguila1,* Escuela de Ingeniera e Informtica, Universidad Nacional de Moquegua Ilo, Moquegua *shirlearagon@gmail.com

Resumen

Los procesos estocsticos son sucesiones de eventos regidos por leyes probabilsticas. Varios investigadores han estudiado las caractersticas y el comportamiento de estas sucesiones, para aplicarlos a los procesos estocsticos en fsica, ingeniera, biologa, medicina y otras disciplinas as como tambin en otras ramas de la matemtica y han establecido sus teoras y propiedades[1]. Palabras clave: procesos estocsticos, Markov, mtodo Montecarlo. mtodo

Probabilidades de transicin entre estados, en un ciclo (matriz P) Distribucin inicial del sistema entre los M estados posibles

Propiedad markoviana: Un proceso estocstico tiene la propiedad markoviana si las probabilidades de transicin en un paso slo dependen del estado del sistema en el perodo anterior (memoria limitada)[4].

I. Introduccin Las cadenas de Markov son modelos probabilsticos que se usan para predecir la evolucin y el comportamiento a corto y a largo plazo de determinados sistemas[2][3]. Ejemplos: reparto del mercado entre marcas; dinmica de las averas de mquinas para decidir poltica de mantenimiento; evolucin de una enfermedad, Una Cadena de Markov (CM) es: Un proceso estocstico Con un nmero finito de estados (M) Con probabilidades de transicin estacionarias Que tiene la propiedad markoviana

Elementos de una Cadena de Markov: Un conjunto finito de M estados, exhaustivos y mutuamente excluyentes (ejemplo: estados de la enfermedad) Ciclo de markov (paso) : periodo de tiempo que sirve de base para examinar las transiciones entre estados (ejemplo, un mes)

Tipos de modelos de Markov: Procesos de Markov (Modelos semimarkovianos): Las probabilidades de transicin entre estados pueden variar a medida que transcurren ms ciclos. Ejemplo: para modelizar la esperanza de vida, el riesgo de muerte aumenta con la edad Cadenas de Markov: Las probabilidades de transicin se suponen constantes a lo largo del tiempo. Tipos de Estado de Cadenas de Markov:

II.

Mtodo de simulacin de Montecarlo o cadenas de Markov

a.

Mtodo de Montecarlo: El mtodo de Montecarlo consiste en generar series aleatoria de eventos, n este caso condiciones hidrolgicas con las cuales se simula la operacin del SIC durante un perodo de hasta 15 aos. Cada serie cubre un perodo igual al del estudio y est compuesta por un conjunto de aos hidrolgicos elegidos al azar de la estadstica disponible de 40 aos. Para cada una de ellas se conoce el comportamiento ptimo del SIC en funcin del nivel inicial del embalse, pues este fue determinado (y almacenado en matrices > durante la etapa de optimizacin. Partiendo de una cota conocida a principios del primer ao, es posible determinar el valor que toman las siguientes variables en cada ao del estudio: cota final del lago Laja, costo de generacin, costo de falla, costos marginales trimestrales, consumo de combustible, generacin de cada central trmica, generacin de Abanico, El Toro y Antuco, energa fallada y rebases. La figura siguiente muestra grficamente el proceso de simulacin de Montecarlo: Con un numero de secuencias hidrolgicas de simulacin relativamente

elevado (entre 1000 y 2000), se obtiene la distribucin de probabilidades de cada una de estas variables en cada ano. El programa entrega el valor esperado y la desviacin estndar de todas estas variables para cada ao y la distribucin de probabilidad de cotas finales y de una cualquiera de las otras seleccionada previamente[1]. b. Mtodo de Markov: Una forma alternativa de estudiar el comportamiento de un sistema es el denominado mtodo de Cadenas de Markov. Mediante el es posible analizar el estado de un sistema que evoluciona en el tiempo y cuyo comportamiento depende de condiciones aleatorias. Como resultado se obtienen las distribuciones de probabilidad del estado del sistema en los distintos perodos considerados y, en general, distribuciones de probabilidad para variables que son funcin del estado del sistema. Las condiciones en las cuales se utiliza este mtodo son: i) En cada perodo, el estado del sistema, y las variables que son funcin de el, deben ser discretas. ii) La condicin del sistema en un perodo cualquiera depende slo del estado del sistema en un perodo anterior y de la ocurrencia de eventos durante el perodo. La actual versin del modelo utiliza el mtodo de Markov slo para estudiar el comportamiento de las cotas en el lago Laja y de los consumos de carbn. El mtodo de Markov constituye una alternativa al mtodo de simulacin de Montecarlo, por lo que ambos deberan entregar resultados idnticos[1]. Ello, sin embargo, puede no ocurrir debido a: - El mtodo de Montecarlo converge a los verdaderos valores de la distribucin de probabilidades slo si el nmero de tiradas tiende a infinito. En la medida que dicho valor no sea suficientemente grande, existirn errores en la estimacin de probabilidades y de los estadgrafos asociados. - En el mtodo de Markov existe una prdida de informacin, ya que para los efectos de clculo,

las variables continuas deben ser discretizadas, por lo cual todos los valores son asignados al centro de la clase a la cual pertenecen. Adicionalmente , la clase correspondiente al extremo superior del dominio de definicin es semiabierta e incluye todos los valores superiores a su lmite inferior. En todo caso, ambos mtodos entregaran resultados parecidos en la medida en que aumenten tanto el nmero de tiradas en el mtodo de Montecarlo como el nmero de clases de equivalencia en el mtodo de Markov[1]. El mtodo de Monte Carlo es una tcnica numrica para calcular probabilidades y otras cantidades relacionadas, utilizando secuencias de nmeros aleatorios[5]. Formalmente un clculo MC no es otra cosa que una integracin. En general, para integrales unidimensionales pueden usarse otros mtodos numricos ms optimizados. El mtdo MC es, sin Embargo muy til para integraciones multidimensionales[5][6]. Monte Carlo va cadenas de Markov: Una cadena de Markov es un modelo matemtico de sistemas estocsticos donde los estados dependen de probabilidades de transicin. El estado actual solo depende del estado anterior. El mtodo de Monte Carlo es un mtodo no determinstico o estadstico numrico usado para aproximar expresiones matemticas complejas y costosas de evaluar con exactitud[7]. Las tcnicas de Monte Carlo va cadenas de Markov permiten generar, de manera iterativa, observaciones de distribuciones multivariadas que difcilmente podran simularse utilizando mtodos directos. La idea bsica es muy simple: construir una cadena de Markov que sea fcil de simular y cuya distribucin de equilibrio corresponda a la distribucin final que nos interesa. Smith y Roberts (1993) presentan una discusin general de este tipo de mtodos[8]. III. Referencias Bibliogrficas

[1] Metodos de Cadenas de Markov Monte Carlo - Google Acadmico. [En lnea]. Disponible en: http://scholar.google.com/scholar?start=10&q =Metodos+de+Cadenas+de+Markov+Monte +Carlo&hl=es&as_sdt=0,5. [Accedido: 06ago-2013].

[2] metodo de montecarlo - Buscar con Google. [En lnea]. Disponible en: https://www.google.com.pe/#bav=on.2,or.r_q f.&fp=89feaee616532cfa&q=metodo+de+mo ntecarlo. [Accedido: 06-ago-2013]. [3] A. Moreno Daz, Modelos multivariantes para variables ordinales: Aplicaciones en estudios de calidad de servicio, phd, Facultad de Informtica (UPM), 2001. [4] bea_cadenas_marko.ppt. . [5] swp0000.dvi - cpfund10.pdf. [En lnea]. Disponible en: http://www.ugr.es/~bioestad/_private/cpfund 10.pdf. [Accedido: 06-ago-2013]. [6] R. Ruiz Crdenas, Modelagem da distribuio espao-temporal da broca do

caf (Hypothenemus hampaei Ferrari) em uma cultura da regio central colombiana., 07-jun-2013. [En lnea]. Disponible en: http://www.teses.usp.br/teses/disponiveis/11/ 11134/tde-19092003-144713/pt-br.php. [Accedido: 06-ago-2013]. [7] La_inferencia_bayesiana_en_la_admini straci_n_de_riesgos.pdf. [En lnea]. Disponible en: http://sistemas.fciencias.unam.mx/~cvrc/files/ La_inferencia_bayesiana_en_la_administraci _n_de_riesgos.pdf. [Accedido: 06-ago-2013]. [8] Inicio - Dropbox. [En lnea]. Disponible en: https://www.dropbox.com/home. [Accedido: 06-ago-2013].

S-ar putea să vă placă și