Sunteți pe pagina 1din 27

Sistemas de Eventos Discretos

Redes de Petri
2 Sistemas de Eventos Discretos. Redes de Petri
Sistemas de Eventos Discretos. Redes de Petri 3

1.- MTODOS FORMALES.

1.1.- Sistemas de Eventos Discretos

Un Sistema de Eventos Discretos, SED, es un sistema de estados discretos dirigido por


eventos, es decir, su evolucin de estados depende nicamente de la ocurrencia de eventos discretos
asncronos en el tiempo. Las caractersticas tpicas de los SED incluyen concurrencia,
comportamiento asncrono, seleccin no determinista, exclusin mutua, y restricciones de tiempo real.

Figura 1.Sistema de eventos discretos.

1.2.- Modelado y especificacin

Un modelo es una representacin inteligible (abstracta y consistente) de un sistema. Cuando


dos modelos representan la misma realidad a diferentes niveles de detalle o fidelidad, el modelo
menos detallado se dice que es el modelo ms abstracto. Los modelos se pueden clasificar desde
distintos puntos vista. Por ejemplo, se pueden clasificar segn su capacidad replicativa, su capacidad
de prediccin y su validez estructural, o segn cuatro dimensiones ortogonales que caracterizan la
representacin del modelo, el objetivo del estudio, su naturaleza temporal y la solucin tcnica.

Figura 2. Dimensiones de los modelos.

Los requisitos de un sistema se pueden especificar segn relaciones entrada/salida, ejemplos


representativos o mediante modelos.

Los trminos modelo y especificacin no son equivalentes: la especificacin puede realizarse


sin la utilizacin de modelos. Un modelo puede ser utilizado para representar una especificacin, un
diseo, o incluso, para describir el mismo proceso de desarrollo del software.
4 Sistemas de Eventos Discretos. Redes de Petri

Una especificacin se compone de una serie de requisitos funcionales, que pueden ser descritos
formalmente, y no funcionales, que suelen ser ms difcil especificar formalmente. Segn la notacin
se distinguen especificaciones operacionales (forma grfica, textual o mixta con diferentes grados de
formalidad) y declarativas.

Los requisitos especificados formalmente se pueden verificar y validar. La verificacin es


una prueba de que la semntica interna del modelo es correcta, independientemente de sistema
modelado (consistencia interna). La validacin establece que el producto final es conforme a la
especificacin.

Figura 3. Verificacin y validacin.

1.3.- Formalismos

Un formalismo proporciona un conjunto de convenciones para especificar una clase de


objetos con precisin y sin ambigedades. En la literatura podemos encontrar numerosos formalismos
(DEVS, Statecharts, ACD, Redes de Petri, TTM/RTTL, CCS, ).

Figura 4. Formalismos.

En la prctica, un nico formalismo no suele satisfacer todas las necesidades del desarrollo,
por lo que suele ser necesario elaborar entornos eclcticos que incorporan varios formalismos.

Formalismos basados en la teora general de sistemas

Algunos de los mtodos y metodologas para modelar SED tienen su origen en la Teora
General de Sistemas. Segn esta teora, los sistemas reales obedecen a las mismas leyes y muestran
patrones similares de comportamiento incluso aunque no sean semejantes fsicamente. Dos mtodos
basados en la Teora General de Sistemas son el formalismo DEVS (Discrete Event Systems
Specification) y el SES (System Entity Structure).

DEVS (Discrete Event Systems Specification) utiliza un enfoque jerrquico y modular que
integra nociones de programacin orientada a objetos. Esencialmente, este formalismo considera
modelos atmicos y modelos acoplados que conectan varios modelos atmicos. Un modelo atmico se
describe mediante un conjunto de estados, un conjunto de puertos de entrada y salida, y una serie de
funciones que gobiernan el comportamiento del modelo (Figura 5). El comportamiento dinmico del
modelo se describe mediante eventos de entrada y eventos internos planificables en el tiempo.
Sistemas de Eventos Discretos. Redes de Petri 5

Figura 5. Modelo atmico DEVS

SES (System Entity Structure) es un rbol etiquetado para describir conjuntos de objetos
estructurados jerrquicamente y sus relaciones mutuas (Figura 6). Este mtodo establece el modelo
del sistema en trminos de descomposicin, taxonoma y relaciones de acoplamiento.

Figura 6. SES.

Formalismos basados en estados y transiciones

Un autmata finito es un sistema de transiciones compuesto de un nmero finito de estados y


de transiciones etiquetadas entre los estados (Figura 7). Una etiqueta se construye a partir de un
alfabeto y se asocia a cada transicin. Permite describir un sistema donde el estado evoluciona a lo
largo del tiempo. Por ejemplo, dos herramientas de modelado basado en autmatas finitos son los
diagramas de Huffmann (tiene en cuenta todas las evoluciones posibles de los estados) y los
diagramas reducidos (slo tiene en cuenta las evoluciones que aportan informacin pertinente posible
y no redundante). La mayora de los mtodos basados en mquinas de estados son grficos y disponen
de gran cantidad de herramientas de desarrollo.

Figura 7. Autmata finito.


6 Sistemas de Eventos Discretos. Redes de Petri

El modelado mediante autmatas finitos puede conducir a diagramas de un tamao intratable,


representa con dificultad el paralelismo y no dispone de mecanismos para representar jerarquas. Para
paliar estas dificultades han surgido herramientas como las Redes de Petri o los Statecharts.

ACD (Activity Cycle Diagram) es un formalismo que consta de entidades, atributos,


actividades, eventos, colas, conjuntos y estados. La representacin alterna estados pasivos y
actividades (Figura 8). Los ACD proporcionan una descripcin grosera del comportamiento del
sistema.

Figura 8. ACD.

Bajo el trmino SA/RT (Structured Analysis/Real-Time) se agrupan un gran nmero de


mtodos, todos ellos basados en el anlisis orientado a flujo de datos de DeMarco y Yourdon. En el
modelo se utilizan Diagramas de Flujo de Datos (Data Flow Diagram, DFD) estructurados de forma
jerrquica. Por ejemplo, los mtodos Ward/Mellor y Hatley/Pirbhai.

Figura 9. Herramientas Ward/Mellor.

El mtodo de Ward/Mellor consiste en elaborar un modelo esencial y un modelo de


implementacin (ambos modelos que utilizan el mismo conjunto de tcnicas grficas, vase Figura 9).
El mtodo de Hatley/Pirbhai separa el esquema de transformacin en dos partes, una relativa al
control y otra a los datos. Incorpora la posibilidad de expresar requisitos temporales cuantitativos
desde el punto de vista de la entrada y salida del sistema mediante las especificaciones de tiempo de
respuesta (Response Time Specification, RTS).

Un grafo de eventos es un grado dirigido que describe la interrelacin de los eventos (Figura
10). Este tipo de grafos se aplican generalmente a planificacin (scheduling).
Sistemas de Eventos Discretos. Redes de Petri 7

Figura 10. Grafo de Eventos.

Los diagramas de estado (Statecharts) son diagramas de transicin de estados desarrollados


por D. Harel donde cada estado se puede descomponer en otros subestados (estados XOR y AND) que
representan un menor nivel de abstraccin (Figura 11).

Figura 11. Statecharts.

Se ha desarrollado una herramienta comercial denominada Statemate, que soporta la


especificacin, anlisis, simulacin y generacin de cdigo de un sistema utilizando diagramas de
estado (Figura 12).

Figura 12. Statemate.

La definicin inicial no incorpora la posibilidad de representar aspectos temporales


cuantitativos, pero se han desarrollado extensiones, entre estas, las TTM (Timed Transition
Machines) que incluyen transiciones que describen la ocurrencia de ticks (paso de tiempo de un reloj
externo).

Las HMS (Hierarchical Multi-state Machines) son autmatas de alto nivel, que permiten que
en cualquier momento pueden estar activos varios estados y que se puedan disparar varias transiciones
simultneamente (Figura 13). Existe mtodos de anlisis para probar propiedades del modelo.
8 Sistemas de Eventos Discretos. Redes de Petri

Figura 13. HMS.

Las redes de Petri son un formalismo que permite modelar la concurrencia, el no


determinismo y la causalidad de las conexiones entre eventos. Se dispone de una profunda base
terica desarrollada y, adems, permiten una representacin grfica (Figura 14), lo cual hace que las
especificaciones formuladas mediante redes de Petri sean bastante intuitivas.

Figura 14. Red de Petri.

Formalismos basados en la lgica

La lgica temporal permite especificar fcilmente de forma declarativa como cambiar un


sistema a lo largo del tiempo. Fue aplicada por primera vez en la especificacin y el razonamiento
sobre sistemas reactivos por A. Pnueli en 1977 y, desde entonces, se han desarrollado numerosas
versiones que se pueden clasificar en lgicas temporales ramificadas y lgicas temporales lineales.
Por ejemplo, Lamport define la TLA (Temporal Logic of Actions) basada en los operadores
temporales "siempre" y "a veces".

RTTL (Real-Time Temporal Logic) es una lgica de primer orden que incluye cuantificacin
explcita sobre la variable tiempo. Esta lgica es utilizada junto con modelos TTM (Timed Transition
Models). Se ha desarrollado el entorno StateClock/SteP (Figura 15). StateClock es un entorno para
modelado, descripcin y especificacin mediante Clockcharts (extensin de los Statecharts que
incluyen relojes y temporizadores incrementales o decrementales que pueden iniciar, contar y/o
finalizar la medida del nmero de ticks).y LTL (Linear Temporal Logic). SteP (Stanford Temporal
Prover) es una herramienta de anlisis y verificacin basado en FTS (Fair Transition System) y LTL.
Sistemas de Eventos Discretos. Redes de Petri 9

Figura 15. StateClock/STeP.

lgebras de procesos

Los lenguajes algebraicos se basan en la descripcin de las operaciones que se efectan sobre
los procesos, a diferencia de los lenguajes orientados a modelos que describen las operaciones sobre
los modelos definiendo como afectan a estos. Para tiempo real los lenguajes algebraicos se denominan
lgebras de procesos. Por ejemplo, CSP (Comunicating Sequential Processes), basado en el lenguaje
Occam, y CCS (Calculus for Communicating Systems). Estos formalismos no disponen de una
representacin grfica estndar, aunque se est trabajando en la creacin de entornos para la
descripcin de los sistemas. Se han desarrollado numerosas extensiones que incorporar el tiempo.
(TCSP, TCCS, etc.)

2.- REDES DE PETRI

En este apartado se revisarn algunos de los principales conceptos, tcnicas y aplicaciones de


las Redes de Petri y se introducirn sus posibilidades como herramienta para el modelado y anlisis de
sistemas. Todos estos aspectos no se desarrollan con el rigor que exige un tratamiento formal sino que
son introducidos de forma intuitiva y se incluyen las referencias bibliogrficas necesarias.

Carl Adams Petri en 1962 formul una teora para sistemas paralelos incluyendo el concepto
de concurrencia: las Redes de Petri, RdP. Una RdP es una herramienta matemtica y grfica para
modelar y analizar sistemas.

Las RdP han demostrado su utilidad para modelar sistemas de eventos discretos y, en general,
su idoneidad para representar el comportamiento de sistemas concurrentes, asncronos, distribuidos,
paralelos, no deterministas y/o estocsticos. Destaca su representacin grfica fcil, clara y sin
ambigedades.

Una Red de Petri, RdP, es una clase particular de grfico dirigido, con un estado inicial
denominado marcado inicial, M0. Bsicamente, consta de dos clases de nodos, denominados lugares, p, y
transiciones, t, y de arcos dirigidos, f, que conectan lugares con transiciones (Figura 16).

Cada arco, f, tiene asociado un nmero entero positivo w(f), que representa el peso del arco y que
pueden interpretarse como un conjunto de arcos paralelos de peso unidad.

La capacidad de un lugar, p, representa el nmero mximo de marcas o tokens que puede


contener. As, se pueden definir RdP de capacidad infinita y de capacidad finita. Un marcado asigna a
cada lugar un entero no negativo, k.
10 Sistemas de Eventos Discretos. Redes de Petri

El comportamiento dinmico de un sistema se describe en funcin de sus cambios de


marcado. En una RdP el marcado cambia segn tres reglas bsicas:

Una transicin est habilitada si todos sus lugares de entrada estn marcados, es decir, los
lugares poseen un nmero mayor e igual de marcas que el peso de los arcos que los unen a
la transicin.

Una transicin habilitada puede o no dispararse dependiendo del tipo de transicin (segn el
sistema que represente) y de la ocurrencia del evento asociado.

El disparo de una transicin habilitada consiste en quitar marcas de cada uno de los lugares de
entrada (tantas como el peso de los arcos correspondientes) y aadir marcas a cada uno de
los lugares de salida (tantas como el peso de los arcos correspondientes).

Figura 16. Red de Petri.

Permiten representar conflictos y jerarquas, y relacionar propiedades dinmico estructurales


(viveza, limitacin, etc.) con criterios de funcionamiento.

La literatura define una red de Petri marcada como una 5-trupla R= P, T, , , M0


donde: P es un conjunto finito de lugares, T es un conjunto finito de transiciones., :PxT es una
funcin de entrada o de incidencia previa, :TxP es una funcin de salida o incidencia posterior
(PT=), y M0 es un marcado inicial.

La ecuacin de estado de una red de Petri pura ( t T / t t = ) es:

M k = M k 1 + C U k

donde C es la matriz de incidencia, Mk es el marcado obtenido al realizar el k-simo disparo, y


Uk es un vector de disparos cuyas componentes son nulas salvo la i-sima si ti es la transicin
disparada en k-simo lugar: U k (i ) = 1 , U k ( j ) = 0 , j i .

2.1.- Propiedades

Las propiedades de las redes de Petri se pueden clasificar en dos grandes grupos:
propiedades dinmicas o dependientes del marcado inicial y propiedades estructurales o
independientes del marcado inicial (Tabla 1).
Sistemas de Eventos Discretos. Redes de Petri 11

PROPIEDADES DINMICAS PROPIEDADES ESTRUCTURALES


Alcance Controlable
Limitacin Estructuralmente limitada
Viveza Estructuralmente viva
Reversibilidad Conservativa
Cobertura Repetitiva
Persistencia Consistente
Distancia de sincronizacin Estructuralmente equitativa
Equidad
Tabla 1. Propiedades.

Se dice que una RdP est k-limitada o simplemente limitada si el nmero de marcas en cada
lugar no excede un nmero finito k para cualquier marcado alcanzable a partir del marcado inicial M0.

Se dice que una red est viva si es posible siempre disparar alguna transicin de la red, sin
importar que marcado se haya alcanzado ni cual sea la secuencia de disparo futura.

2.2.- Posibilidades de modelado

Mediante redes de Petri se pueden modelar una gran variedad de sistemas. Estas redes son
idneas para representar aquellos sistemas que tienen un comportamiento asncrono, distribuido,
paralelo y/o no deterministas. Las redes de Petri permiten reflejar la ejecucin concurrente de
distintos procesos, representar la disponibilidad de recursos, representar la imposicin de restricciones
de acceso a zonas compartidas, representar la evolucin dinmica del sistema, representar la
causalidad, los conflictos, las confusiones, etc. (Figura 17)

(c) (d)
12 Sistemas de Eventos Discretos. Redes de Petri

Figura 17. (a) Concurrencia, (b) disponibilidad o dependencia de recursos, (c)


recurso compartido, (d) ejecucin secuencial, (e) conflicto y
(f) confusin.

2.3.- Redes de Petri interpretadas

Para que una red de Petri pueda representar un sistema hace falta asociarle una interpretacin,
es decir, establecer un convenio por el que se define un significado fsico a las condiciones necesarias
para el disparo de una transicin y a las acciones generadas por la evolucin del marcado (Tabla 2).
LUGARES DE ENTRADA TRANSICIONES LUGARES DE SALIDA
Condiciones previas Eventos Consecuencias
Datos de entrada Pasos de computacin Datos de salida
Seales de entrada Procesamiento de seales Seales de Salida
Recursos necesitados Tarea o trabajo Recursos liberados
Condiciones booleanas Reglas lgicas Conclusiones
Buffer Procesamiento Buffer
Tabla 2. Interpretaciones.

2.4.- Posibilidades de anlisis

Se han propuesto diversos mtodos de anlisis: anlisis por bsqueda exhaustiva, anlisis
estructural, anlisis por reduccin y simulacin.

El anlisis por bsqueda exhaustiva est basado en la generacin de un grfico de


marcados. Est mtodo est limitado a sistemas relativamente simples debido a la explosin
combinatoria.

El anlisis estructural esta basado en la ecuacin fundamental. Entre las tcnicas de anlisis
estructural destacan las basadas en invariantes. Las invariantes son propiedades de la estructura lgica
de una RdP que caracterizan, de alguna manera, todos los posibles comportamientos de disparo y que
son las soluciones enteras de las ecuaciones:

CT x = 0
C y=0

Un vector x se dice que es un invariante de lugar si C T x = 0 . Un vector y se dice que es


invariante de transicin si C y = 0.

El anlisis por reduccin est basado en la simplificacin de la red preservando las


propiedades que se desean analizar.
Sistemas de Eventos Discretos. Redes de Petri 13

2.5.- Extensiones, subclases y generalizaciones

Para superar las limitaciones de la redes de Petri clsicas se han propuesto extensiones,
subclases y generalizaciones. Las extensiones aumentan la capacidad de representacin del modelo,
pero disminuyen, en general, sus posibilidades de anlisis (RdP con arcos inhibidores, con extensin
temporal, con prioridades, etc.). Las subclases imponen restricciones en la relacin entre los distintos
elementos del modelo de Petri para aumentar las posibilidades analticas (mquinas de estados, grafos
marcados, sistemas P, sistemas T, libre eleccin, libre eleccin extendida, etc.). Las generalizaciones
no modifican ni la capacidad de modelizacin ni las posibilidades de anlisis, pero permiten obtener
descripciones ms condensadas y ms potentes (RdP coloreadas, etc.)

2.6.- Redes de Petri coloreadas

Las RdP coloreadas tienen idntica potencia descriptiva que el modelo bsico de RdP, pero
permiten construir especificaciones ms concisas. Estas redes tienen buena aceptacin debido a la
disponibilidad de software de modelado, evaluacin y anlisis: Design/CPN, CPNTools y otras.

2.7.- Estructura de prioridades

La disponibilidad de diferentes niveles de prioridad en las redes de Petri incrementa la


potencia descriptiva de los modelos: permite dividir las transiciones en clases que representan
acciones a diferentes niveles lgicos y permite introducir la posibilidad de especificar un criterio
determinista para resolver conflictos.

En una RdP con prioridades se introduce una funcin de prioridad que asigna a cada
transicin un nmero natural correspondiente a su nivel de prioridad.

2.8.- Extensiones temporales

La integracin del tiempo cambia considerablemente el comportamiento de una red de Petri,


de manera que muchas de las propiedades que se verifican para una red original no se corresponden
con las de la red con extensin temporal. El tiempo se puede especificar de forma determinista o
estocstica.

Las Redes de Petri con Tiempos asocian a cada transicin un intervalo de tiempo y las
Redes de Petri Temporizadas, TPN, asocian un tiempo de retraso a las transiciones. Las redes con
tiempos son ms generales que las temporizadas.

Una red de Petri estocstica, SPN, se obtiene asociando a cada transicin una variable
aleatoria que representa el retardo de disparo. Durante los ltimos aos se han propuesto diversas
clases de SPN con diferentes potencias de modelado, debido principalmente a la equivalencia de su
proceso de marcado, para ciertas distribuciones, a procesos de Markov o procesos semimarkovianos
con espacio de estado discreto (Apndice A).

La clase ms comn de SPN es aquella en que los retardos de disparo siguen una distribucin
exponencial: RdP estocsticas exponenciales, eXPN.
14 Sistemas de Eventos Discretos. Redes de Petri

Figura 18. Clases de SPN

Estas redes son isomrficas a cadenas de Markov de tiempo continuo, CTMC, debido a que
las distribuciones exponenciales asociadas a los retardos de disparo no guardan memoria de la
evolucin previa del sistema.

Las CTMC se puede obtener aplicando las siguientes reglas:

El espacio de estado S={si} de la CTMC se corresponde con el conjunto alcanzable desde un


marcado inicial M0 , RS(M0) de la red de Petri no temporizada asociada a la SPN (Mi si)

La tasa de transicin de un estado si a otro sj se obtiene como la suma de las tasas de disparo
de las transiciones que estn habilitadas en Mi y cuyo disparo genera el marcado Mj.

Considerando las reglas anteriores y partiendo de una SPN, es posible obtener algoritmos para
la construccin automtica del generador infinitesimal, Q, tambin llamado matriz de tasa de
transicin de estado, de la CTMC isomrfica.

Si denominamos wk a la tasa de disparo de la transicin tk, el conjunto de transiciones cuyo


disparo lleva a la red desde el marcado Mi al marcado Mj es:

E j ( M i ) = {t h E ( M i ) : M i [t h M j }

donde E(Mi) corresponde al conjunto de transiciones habilitadas en el marcado Mi, con lo que los
componentes del generador infinitesimal son:

 i j
  wk
qij = k:Tk E j ( M i )
 qi i= j

Sistemas de Eventos Discretos. Redes de Petri 15

donde:

qi = w k
k :Tk E ( M i )

Una SPN k-limitada se dice que es ergdica si genera un CTMC ergdico.

Si denominamos al vector de distribucin de probabilidad en estado estacionario de los


marcados de la red de Petri, la resolucin del siguiente sistema lineal expresado en forma matricial:

 Q = 0


 1T = 1


nos proporciona la probabilidad en estacionario de los marcados Mi de la red i = (Mi).

El tiempo de permanencia, SJi, en un determinado marcado Mi est exponencialmente


distribuido con tasa qi. La probabilidad de disparo de una transicin tk habilitada en Mi, (tk E(Mi)),
es:

P{Tk M i } =
wk
qi

y el valor medio o esperanza del tiempo de permanencia viene dado por:

E [SJ i ] =
1
qi

En relacin al comportamiento de los temporizadores de las transiciones que no se disparan


cuando se dispara una transicin, se pueden considerar dos mecanismos bsicos de memoria:
continuacin (el temporizador mantiene su valor actual y podr continuar posteriormente su cuenta
atrs) y reinicio (el temporizador se reinicia).

As, destacan tres alternativas: el remuestreo, en que a todos y cada uno de los disparos de
transiciones se aplican mecanismo de reinicio, la memoria de habilitacin, en que se reinician los
temporizadores de todas las transiciones temporizadas que queden inhabilitadas, mientras que los
temporizadores de todas las transiciones temporizadas que no se inhabilitan mantienen su valor actual,
y la memoria de edad, en que en cada disparo de transicin, los temporizadores de todas las
transiciones temporizadas mantienen su valor actual, se inhabiliten o no.

Las redes de Petri estocsticas exponenciales, eSPN, tienen buena aceptacin debido a la
disponibilidad de software para su evaluacin automatizada. Sin embargo, en muchos casos la
propiedad markoviana no es realista y puede producir errores significativas en los clculos.

Las RdP estocsticas generalizadas, GSPN, incorporan dos tipos de transiciones:


exponenciales e inmediatas. Aquellos marcados en que slo estn sensibilizadas transiciones
exponenciales se denominan marcados tangibles, en cualquier otro caso se denominan marcados
fugaces. En los marcados fugaces los cambios lgicos se producen inmediatamente. En estas redes las
16 Sistemas de Eventos Discretos. Redes de Petri

transiciones inmediatas tienen prioridad de disparo sobre las transiciones temporizadas que se hallen
habilitadas en un instante dado.

Figura 19 GSPN.

Las transiciones inmediatas de la red se dividen en particiones o clases de equivalencia, ECS


de tal forma que las transiciones del mismo conjunto pueden estar en conflicto entre s, mientras que
transiciones de conjuntos distintos se comportan concurrentemente.

En este tipo de redes es posible definir parmetros dependientes de marcado. Los parmetros
dependientes de marcado se van a especificar como el producto de una tasa nominal (o peso en el caso
de transiciones inmediatas) y de una funcin de dependencia definida en trminos del marcado de los
lugares que estn conectados a una transicin mediante sus funciones de entrada e inhibicin.

Las RdP estocsticas extendidas, ESPN, son una extensin de las GSPN que incorporan
transiciones temporizadas no exponenciales. El proceso de marcado de una ESPN es un proceso
semimarkoviano siempre que todas las transiciones concurrentes tengan asociados tiempos de disparo
exponenciales y que en todas las transiciones competitivas se siga una poltica sin memoria. A las
transiciones exclusivas y competitivas se les puede asociar tiempos de disparo no exponenciales.

Las RdP deterministas y estocsticas, DSPN, son una extensin de las GSPN que aaden
retardos de disparo deterministas. El anlisis de una DSPN depende de la poltica de disparo. La
DSPN puede analizarse como una cadena de Markov embebida si en cada marcado hay una nica
transicin determinista.

Figura 20. DSPN.


Sistemas de Eventos Discretos. Redes de Petri 17

Las RdP estocsticas y deterministas extendidas, eDSPN, denominadas tambin SPN


regenerativas de Markov, permiten retardos de disparo que siguen distribuciones expolinomiales. Las
distribuciones expolinominales pueden se definidas por trozos mediante polinomios exponenciales.

Las Redes estocsticas bien formadas, SWN, son una extensin de las redes de Petri
regulares y de la redes bien formadas, WN.

2.9.- Herramientas

Existen numerosas herramientas para modelado y anlisis de sistemas mediante redes de Petri.
Algunas de estas herramientas son: TimeNET, GreatSPN y PESIM.

TimeNET es un software desarrollado para modelar y analizar SPN: GSPN, DSPN, eDSPN y
cDSPN. Dispone de editor grfico y mtodos de anlisis para DSPN y eDSPN, mtodos aproximados
para eDSPN y mtodos de simulacin para SPN arbitrarias. El anlisis estructural se basa en
invariantes de lugar, ECS, confusin y anlisis de grafo de alcance..

GreatSPN es un software desarrollado para modelar, validar y evaluar prestaciones de


sistema con GSPN, SWN y sus extensiones coloreadas bien formadas. Incorpora un editor grfico y
un simulador conducido por eventos interactivo. Permite analizar las propiedades estructurales,
calcular invariantes de lugar y transicin, calcular el grafo de alcanzabilidad que se usa para construir
la cadena de Markov embebida asociada, y analizar prestaciones.

PESIM es un software desarrollado para modelar y analizar redes lugar/transicin con arcos
inhibidores, grafos marcado y GSPN. Dispone de un interfaz grfico desarrollado para MS-Windows,
que incluye un editor grfico y textual y un simulador etapa por etapa. El anlisis se efecta mediante
el rbol de alcance, invariantes de lugar y de transicin y mediante tcnicas reducidas para grafos
marcados. Permite el anlisis de prestaciones estacionarias (probabilidades de estado, probabilidades
de marca, funcin de densidad para cada lugar, nmero medio de marcas en un conjunto de lugares,
etc.).
18 Sistemas de Eventos Discretos. Redes de Petri

3.- PROCESOS ESTOCSTICOS.

Introduccin

En este apndice se introducen algunos conceptos sobre procesos estocsticos, haciendo


hincapi en las cadenas de Markov. Se incluye un apartado dedicado a los procesos de Poisson y otro
a los procesos semimarkovianos.

En la prctica, la mayora de los sistemas operan en entornos llenos de incertidumbre. Esto es


especialmente verdad cuando nos ocupamos de Sistemas de Eventos Discretos (SED), que por su
naturaleza, implican fallos en las mquinas o dispositivos y acciones humanas impredecibles.

La teora de las cadenas de Markov es la base fundamental de muchos de los paradigmas de


modelado. Las cadenas de Markov constituyen el modelo estocstico bsico de los SED [Cass93].

Procesos estocsticos

En la prctica, la mayora de los sistemas operan en entornos llenos de incertidumbre. Esto es


especialmente verdad cuando nos ocupamos de SED, que por su naturaleza, implican fallos en las
mquinas o dispositivos y acciones humanas impredecibles.

La teora de las cadenas de Markov (Markov chains) es la base fundamental de muchos de


los paradigmas de modelado. Las cadenas de Markov constituyen el modelo estocstico bsico de los
SED [Cass93].

Un proceso estocstico se define como una familia de variables aleatorias {X (t ), t T } ,


donde X (t ) es una variable aleatoria para cada valor t del espacio paramtrico T. El conjunto de
valores posibles de X (t ) forman el espacio de estados S.

As, el espacio de estados, S, es el conjunto de valores posibles que puede tomar X (t ) y el


espacio paramtrico, T, es el conjunto de valores posibles que puede tomar t.

En funcin del espacio de estados, S, los procesos estocsticos se pueden clasificar en dos
grupos:

Procesos estocsticos de estado discreto, si el espacio de estados es contable. En este caso los
procesos se denominan cadenas. Los SED se caracterizan por espacios de estados discretos.

Procesos estocsticos de estado continuo.

En funcin del espacio paramtrico, T, los procesos estocsticos se pueden clasificar en dos
grupos:

Procesos estocsticos de tiempo discreto, si el espacio paramtrico es discreto.

Procesos estocsticos de tiempo continuo.


Sistemas de Eventos Discretos. Redes de Petri 19

En el mbito de los sistemas de eventos discretos, el parmetro t representa el tiempo. As, un


proceso estocstico se puede definir como un sistema que sufre cambios en el tiempo debido al azar
{X (t ), t 0} .
Procesos de Poisson

Los procesos de Poisson son procesos estocsticos de tiempo continuo con espacio de estados
discreto que tienen una serie de propiedades que les hacen interesantes para modelar algunos aspectos
en el contexto de la fabricacin.

Dado un proceso estocstico {X (t ), t 0} se denomina proceso contador si X (t ) representa


el nmero total de eventos que ocurren en el instante t.

Un proceso contador {X (t ), t 0} se dice que tiene incrementos independientes si las


variables aleatorias que representan el nmero de eventos en distintos intervalos son mutuamente
independientes.

Un proceso contador {X (t ), t 0} se dice que tiene incrementos estacionarios si el nmero


de llegadas en un intervalo (t , t + h ] , dadas por X (t + h ) X (t ) es independiente del instante t del
intervalo.

Un proceso contador {X (t ), t 0} se dice que es un proceso de Poisson [Cass93] si:

 X ( 0) = 0 .

 Los procesos tienen incrementos independientes.

 Los procesos tienen incrementos estacionarios.

 La probabilidad de dos o ms llegadas en un intervalo de longitud h tiende a 0 cuando h


tiende a 0.

Para un proceso de Poisson el nmero de llegadas durante un intervalo de longitud t es una


variable aleatoria de Poisson de media t donde , denominada razn del proceso de Poisson, viene
dada por la expresin:

= lim
1
h 0 h
[P{X ( s + h ) X ( s ) = 1}] para a lg n s > 0

Si Tn representa el intervalo entre la (n-1)-sima llegada y la n-sima llegada, entonces los Tn


para n=1,2,3,... son variables aleatorias exponenciales distribuidas idntica e independientemente con
razn .

Las propiedades principales de los procesos de Poisson son la de superposicin y la de


descomposicin:
20 Sistemas de Eventos Discretos. Redes de Petri

Superposicin: Si 1 , 2 ,..., n son las razones de procesos de Poisson independientes,


entonces la superposicin de estos procesos de Poisson es tambin un proceso de Poisson,
cuya razn es
i .
i

Descomposicin: Si un proceso de Poisson de razn se descompone en n procesos con


distribucin de probabilidad independiente ( p1 , p 2 ,..., p n con p1 + p 2 + ... + p n = 1 ),
entonces cada uno de estos procesos son procesos de Poisson con razones
p1 , p 2 ,..., pn , respectivamente.

Los procesos de Poisson se han utilizado para modelar la llegada de partes a un sistema de
fabricacin, la llegada de llamadas telefnicas a un centro de conmutacin, la llegada de mensajes a
transmitir en una red de rea local, etc.

Cadenas de Markov

En los procesos estocsticos de situaciones reales, las variables aleatorias


X (t1 ), X (t 2 ),..., X (t n ) , donde t1 , t 2 ...., t n T , exhiben algn tipo de dependencia. El tipo ms
simple de dependencia, es la dependencia de primer orden.

Sea un proceso estocstico {X (t ), t T } donde T es un conjunto finito (o infinito contable)


tal que t0 < t1 < ... < tn y t i T , si la distribucin condicional de X(t) para valores dados de
X (t0 ), X (t1 ),..., X (t n ) slo depende del valor del proceso ms reciente conocido, se dice que las
variables aleatorias X (t0 ), X (t1 ),..., X (t n ) exhiben una dependencia de Markov.
Aquellos procesos estocsticos {X (t ), t T } con esta dependencia se denominan
procesos de Markov. Intuitivamente, en un proceso de Markov la probabilidad de
comportamiento futuro, est totalmente definido si se conoce el estado actual.

Sean X 0 , X 1 ,..., X n los valores correspondientes de X(t) para los t i T , si X i = j ( j S ),


se dice que j es el estado del proceso estocstico en el instante tn. Los valores que puede tomar Xi se
conocen como estados y sus cambios de valor se llaman transicin.
As, en un proceso de Markov se cumple que:

P{X t +1 = j | X t = i , X t 1 ,..., X 0 } = P{X t +1 = j | X t = i} para todo t 0 ; i, j S .


Para estos procesos la funcin de probabilidad de transicin que da la probabilidad de
alcanzar un cierto estado en un instante futuro conocido el estado en el instante actual, se
puede definir como:
P( j, t; i, s ) = P{X (t ) = j | X ( s ) = i} ts
En el caso de que se trate de procesos estocsticos de estado discreto se les conoce
como Cadenas de Markov.
Para las cadenas de Markov se puede definir una matriz de probabilidad de transicin:
pij ( s, t ) = P{X (t ) = X j | X ( s ) = X i } ts
donde pij es la probabilidad de alcanzar el estado j en el instante t, estando el sistema en el
estado i en el instante s.
Sistemas de Eventos Discretos. Redes de Petri 21

Ecuacin de Chapman-Kolmogorov

La ecuacin de Chapman-Kolmogorov permite obtener las probabilidades de transicin entre


estados en un intervalo de tiempo dado, a travs de las probabilidades de transicin de los posibles
estados intermedios. Esta ecuacin se puede expresar como:

pij ( s, t ) = P{X (t ) = X
todo r
j | X (u ) = X r , X ( s ) = X i } P{X (u) = X r | X ( s) = X i } sut

Considerando que se trata de un proceso de Markov:

P{X (t ) = X j | X (u ) = X r , X ( s ) = X i }= P{X (t ) = X j | X (u ) = X r }= p rj (u, t ) sut

P{X (u ) = X r | X ( s ) = X i }= pir ( s, u ) su

Se llega a otra de las formas de la ecuacin de C-K:

pij ( s, t ) =
todo r
pir ( s, u ) p rj (u, t ) sut

Cadenas de Markov de tiempo discreto

Consideremos un sistema que evoluciona aleatoriamente en el tiempo y supongamos que se


observa en instantes discretos de tiempo. Sea Xt el estado del sistema en el instante t. Supongamos que
para todo t 0 , X t es una variable aleatoria que toma valores del espacio de estados S. Entonces
{X t , t 0} es un proceso estocstico de tiempo discreto con espacio de estados S [ABCDF96].

Si un valor fijo de t se denomina presente, entonces X t se denomina estado presente del


sistema, {X t +1 , X t + 2 ,...} se denomina futuro del sistema y {X 0 , X 1 ,..., X t 1 } se denomina pasado del
sistema. As, la propiedad de Markov se puede expresar como que la probabilidad del comportamiento
futuro {X t +1 , X t + 2 ,...} est totalmente definida si se conoce el estado presente X t y no se altera por el
conocimiento adicional del pasado {X 0 , X 1 ,..., X t 1 }.

Si un proceso estocstico de tiempo discreto {X t , t 0} se usa para describir un sistema con


la propiedad de Markov, entonces se denomina una Cadena de Markov de Tiempo Discreto
(Discrete-Time Markov Chain, DTMC).

Cuando el espacio de estados es contable, se puede definir formalmente un DTMC de la


siguiente forma:

Un proceso estocstico {X t , t 0} se llama Cadena de Markov de Tiempo Discreto, DTMC,


en el espacio de estados S, si:

1. Para todo t 0 X t S con probabilidad 1.

2. P{X t +1 = j | X t = i , X t 1 ,..., X 0 } = P{X t +1 = j | X t = i} para todo t 0 ; i, j S .


22 Sistemas de Eventos Discretos. Redes de Petri

Sean Pij ( t ) = P{X t +1 = j | X t = i} las probabilidades de que el proceso pase del estado Xt al
estado Xt+1 cuando el parmetro pasa de t a t+1.

Una DTMC se denomina homognea si las probabilidades condicionales


Pij (t ) = P{X t +1 = j | X t = i} son independientes de t para todo i S :

Pij (t ) = Pij para todo t 0 ; i, j S .

Sea P = Pij [ ] la matriz de probabilidades condicionales Pij denominada matriz de


probabilidades de transicin en una etapa de la DTMC (one-step transition probability matrix of
the DTMC) .

Sea i (t ) la probabilidad (marginal) que tiene el proceso en el estado i en el instante t


(tambin denominada probabilidad de estado). Sea i (0) la distribucin inicial. Formalmente
tenemos que:

i (0) = P{X 0 = i} i S

i (t ) = P{X t = i} = P{X t = i | X 0 = k }P{X 0 = k } = P{X t = i | X 0 = k } k (0)


kS kS

Se puede calcular la distribucin marginal de Xt si conocemos como evolucionan las


probabilidades condicionales en la etapa t.

Pij = P{X t = j | X 0 = i} i, j S
[t ]

Es posible mostrar que:

[t ] [k ] [t k ]
Pij = Pir Prj i, j S y 0 k t
rS

que es una de las formas de la ecuacin de Chapman-Kolmogorov.

Adems, es posible mostrar que la matriz de probabilidad de transicin en la t-sima etapa de


la DTMC se puede poner como su matriz de transicin de la primera etapa, de la siguiente forma:

[t ] = Pij[ [ ]]=
t t

donde t es la t-sima potencia de la matriz .


H
Si por (t ) se representa la distribucin de la DTMC para la etapa t:
H
(t ) = { 1 (t ), 2 (t ),...} (tambin denominado vector de probabilidades de estado), entonces:
H H
1. (t ) = (t 1)

H H
2. (t ) = (0) t
Sistemas de Eventos Discretos. Redes de Petri 23

Una DTMC es ergdica si para cada estado A S la cadena puede visitar cualquier otro
estado infinitamente a menudo, y de una manera tal que el tiempo previsto entre dos visitas
consecutivas al mismo estado sea finito.
H H
Si una DTMC es ergdica entonces existe una distribucin: = lim (t ) que se puede
t
obtener (independientemente de la distribucin inicial) resolviendo el siguiente sistema de ecuaciones
lineales:

H H
 =
 i = 1
 iS

La solucin = { i , i S } se denomina distribucin limitada de la cadena o distribucin


en el estacionario. En particular, si la distribucin inicial de la DTMC cumple que
P{X 0 = j} = j , j S entonces P{X t = j} = j , t 1 . Por esta razn = { i , i S } se llama
tambin distribucin estacionaria de la DTMC.

Para estudiar el comportamiento estacionario de una cadena de Markov se pueden clasificar


los estados en base a los conceptos de estado alcanzable, absorbente, transente, recurrente, peridico
y aperidico.

Un estado se dice que es alcanzable para un estado i si pij( n ) > 0 para algn n=1,2,
Un estado se dice que es absorbente si p jj = 1 .

Sea f j( n ) la probabilidad de que el primer retorno al estado j se produzca en n etapas, y



f j = f j( n ) . Un estado j se dice que es transente si f j < 1 y recurrente si f j = 1 . Un estado
n =1
absorbente es recurrente.

Se define el periodo de un estado j, dj, como el mximo comn divisor de todos los posibles
enteros positivos n tal que sea posible alcanzar el estado j a partir del estado j en n etapas. Un estado
recurrente se dice que es peridico con periodo dj si d j > 1 y aperidico si d j = 1

Para un estado recurrente j se define el tiempo de recurrencia medio, Mj como:



M j = n f j( n )
n =1

El estado recurrente para el que M j < se denomina recurrente no nulo, y para el que
M j = se denomina recurrente nulo. En una DTMC finita los estados recurrentes no pueden ser
nulos.

Un subconjunto A del espacio de estados S se dice que es cerrado si no es posible ninguna


transicin entre los estados de A y los estados del subconjunto complementario de A, A :

p
iA jA
ij =0
24 Sistemas de Eventos Discretos. Redes de Petri

Una DTMC se dice que es irreducible si ningn subconjunto de S es cerrado, es decir, que
cada estado de la cadena se puede alcanzar a partir de cualquier otro. Todos los estados de una DTMC
finita e irreducible son recurrentes. Adems, o todos los estados son aperidicos o tienen el mismo
periodo d. En el primer caso la DTMC se dice que es aperidica y en el segundo que es peridica.

Las cadenas de Markov irreducibles aperidicas poseen una serie de propiedades


particularmente atractivas en el anlisis estacionario.

A partir de las definiciones anteriores se puede clasificar los estados de una cadena de
Markov. Como muestra la figura siguiente, un estado i es recurrente si la probabilidad fi de retornar a i
es 1, en otro caso se tratara de un estado transente. Un estado recurrente i es recurrente no nulo si el
tiempo de recurrencia medio Mi es finito. Un estado recurrente no nulo i es aperidico si el periodo di
de las etapas requeridas para retornar al estado i es 1, en otro caso se tratara de un estado peridico.

Figura 21. Clasificacin de estados.

Cadenas de Markov de tiempo continuo

Consideremos un sistema que evoluciona aleatoriamente en el tiempo en un espacio de


estados contable. Supongamos que el sistema entra en el estado i en el instante t ( t 0 ), permanece
en el estado i una cantidad de tiempo aleatoria, denominada tiempo de permanencia, que est
distribuida exponencialmente con parmetro qi ( qi 0 ) y entonces salta a un nuevo estado j con
probabilidad pij

Si el tiempo de permanencia y el nuevo estado slo depende del estado i y no de t, entonces se


dice que el sistema es homogneo en el tiempo.

Por otra parte, el tiempo de permanencia y el nuevo estado no dependen de la historia del
sistema previa al instante t y son independientes entre s.

Sea X (t ) el estado del sistema en el instante t. Sea n el tiempo de la n-sima transicin (salto
de un estado a otro) y n = n n 1 el n-simo tiempo de permanencia (con n 1 y 0 = 0 ).
Adems, sea X 0 = X (0) el estado inicial y X n = X ( n + ) el estado del sistema inmediatamente
despus de la n-sima transicin, cumplindose que X ( n + ) = X ( n ) .
Sistemas de Eventos Discretos. Redes de Petri 25

Se define una Cadena de Markov de Tiempo Continuo (Continuous-Time Markov Chain,


CTMC) de la siguiente forma [ABCDF96]:

Un proceso estocstico {X (t ), t 0} se llama Cadena de Markov de Tiempo Continuo en el


espacio de estados contable S, si:

1. Para todo t 0 X (t ) S con probabilidad 1.

2. P{X (t ) = j | X (t n ) = i, X (t n 1 ),..., X (t 0 )} = P{X (t ) = j | X (t n ) = i} para todo


t > t n > t n 1 > ... > t 0 ; i, j S .

En un CTMC para cada para de estados (i, j ) i j tenemos un evento Eij Supuesto que
cuando la cadena entra en el estado i en el instante t el evento Eij se planifica para que se produzca en
el instante t + ij donde ij es una instancia de una variable aleatoria exponencial negativa con
parmetro rij , y que se cumplen las siguientes condiciones:

{
P E ij se produce en (t, t + ] | X (t ) = i} = P{X (t + ) = j | X (t ) = i} = rij + o( )

Suponiendo las siguientes condiciones:

P{Eij se produce en (t , t + ] | X (t ) = i} =

= P{ X (t + ) = j | X (t ) = i} = rij + o( )

P{ no se producen eventos en (t , t + ] | X (t ) = i} =

= P{ X (t + ) = i | X (t ) = i} = (1 r ) + o( )
j i
ij

P{ se producen mltiples eventos en (t , t + ] | X (t ) = i} = o( )

Entonces si i (t ) = P{ X (t ) = i} y i (0) = P{ X (0) = i} t 0, i S tenemos que:

i (t + ) = j (t ) rij + i (t )(1 rij ) + o( ) =


j i j i

 
= i (t ) +  j (t )rij i (t ) rij  + o( )
 j i j i 

En notacin matricial tenemos:


H
(t + ) = ( t ) R ( ) + o( )
H
donde (t ) = { i (t ), 2 (t ),...} es la distribucin marginal de los procesos en el instante t y
R ( ) = I + Q . La matriz Q se denomina generador infinitesimal de la CTMC y se define de la
siguiente forma:
26 Sistemas de Eventos Discretos. Redes de Petri

 rij i j
Q = [qij ] qij =  r
 ik i= j
k i

Continuando con la derivacin, tenemos que:

i ( t + ) i (t ) o( )
= j (t ) qij +
jS

tomando el lmite cuando 0 tenemos:

d i ( t )
= j (t ) qij
dt jS

En notacin matricial:

d ( t ) H
= (t )Q
dt

resolviendo la ecuacin diferencial tenemos:


H H
(t ) = (0)H (t ) donde H (t ) = e Qt

En el caso de que la cadena sea ergdica, existe una distribucin limitada:


H H
= lim (t )
t

que puede ser calculada resolviendo el sistema de ecuaciones lineales siguiente:

H
 0 = Q

 =1

iS
i

H
La distribucin se denomina distribucin estable o estacionaria de la CTMC.

Procesos semimarkovianos

Si examinamos la evolucin de una CTMC {X (t ), t 0} slo en los instantes en que se


producen los cambios de estado, obtenemos un proceso estocstico {X n , n } donde X 0 es el
estado inicial, X 1 es el estado que se obtiene despus de la primera transicin y as sucesivamente. El
proceso estocstico {X n , n } as obtenido, es una DTMC.

Dada una CTMC {X (t ), t 0}, el proceso estocstico {X n , n }, donde X n es el estado


del proceso en el instante de la n-sima transicin se denomina cadena de Markov embebida
(embedded Markov chain, EMC).
Sistemas de Eventos Discretos. Redes de Petri 27

Un proceso semimarkoviano es un proceso estocstico de tiempo continuo {X (t ), t 0} tal


que:

1. El proceso estocstico de tiempo discreto embebido {X n , n }, donde X n es el estado


del proceso en el instante de la n-sima transicin, es una cadena de Markov embebida.

2. El tiempo de permanencia en cada estado de proceso es una variable aleatoria continua o


con una duracin determinista, y los tiempos de permanencia son independientes entre s.

Si todos los tiempos de permanencia son variables aleatorias exponenciales, entonces los
procesos semimarkovianos se conviertes en CTMC.

S-ar putea să vă placă și