Documente Academic
Documente Profesional
Documente Cultură
SU SIMULACION
Director de Tesis:
Dedicatoria V
Agradecimientos VII
Introducción IX
1. Proceso de Poisson 1
1.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2. Distribuciones de Poisson y Exponencial . . . . . . . . . . . . 1
1.3. Procesos estocásticos . . . . . . . . . . . . . . . . . . . . . . . 5
1.4. Proceso de Poisson . . . . . . . . . . . . . . . . . . . . . . . . 7
1.4.1. Una caracterización del proceso de Poisson . . . . . . 8
1.4.2. Análisis del tiempo de espera . . . . . . . . . . . . . . 12
3. Colas Poissonianas 35
3.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.2. De…niciones básicas y notación . . . . . . . . . . . . . . . . . 35
3.3. Sistema de espera MjMj1 . . . . . . . . . . . . . . . . . . . . 38
3.3.1. Caso Estacionario . . . . . . . . . . . . . . . . . . . . 39
3.4. Sistema de espera MjMjc . . . . . . . . . . . . . . . . . . . . 44
3.4.1. Caso estacionario . . . . . . . . . . . . . . . . . . . . . 45
iii
iv
A. Simulaciones 49
A.1. Simulación del tamaño de la cola . . . . . . . . . . . . . . . . 49
A.1.1. Diagrama de ‡ujo . . . . . . . . . . . . . . . . . . . . 51
A.1.2. Grá…cas . . . . . . . . . . . . . . . . . . . . . . . . . . 52
A.2. Tiempo de espera del cliente . . . . . . . . . . . . . . . . . . 55
A.3. Estimación en estado estacionario . . . . . . . . . . . . . . . . 56
Dedicatoria
Con especial dedicatoria a todas las personas que han tenido que ver en
mi carrera y en mi formación. Toda esa gente que me ha impulsado con su
ejemplo a continuar hasta concluir esta bonita carrera.
v
vi
Agradecimientos
vii
viii
Introducción
ix
x Introducción
Proceso de Poisson
1.1. Introducción
El proceso de Poisson es un proceso estocástico a tiempo continuo que
modela el número de veces que ocurre un evento especí…co a través del
tiempo. Por ejemplo, los clientes que llegan a un supermercado, las llamadas
que entran a un conmutador, las fallas registradas en un circuito eléctrico,
entre otros.
1
2 CAPÍTULO 1. PROCESO DE POISSON
X1 + X2 + ::: + Xn (n; ):
f (h)
lm = 0;
h!0 h
4 CAPÍTULO 1. PROCESO DE POISSON
f (h)
jhj < implica <"
h
f (h) hr
= = hr 1
!0 cuando h ! 0,
h h
f (h) hr
= = hr 1
9 0 cuando h ! 0.
h h
1
X 1
X
( x)n ( x)n
f (x) = =1 x+ =1 x + R2 (x),
n! n!
n=0 n=2
1 1
R2 (h) X ( 1)n (h)n X ( 1)n
= = (h)n 1
! 0 cuando h ! 0;
h (h)n! n!
n=2 n=2
h
P [X > h] = e =1 h + o(h):
X(t) : ! R:
b) El hecho de que X(t) sea una v.a. implica que el proceso estocástico se
puede ver como una colección de funciones reales de…nidas sobre T ,
X( ; ) : T !R
que satisfacen:
X(t) = Xt ;
( t)n e t
P [N (t + s) N (s) = n] = ; n = 0; 1; 2:::
n!
En particular N (t) P oisson( t):
E [N (t + s) N (s)] = t (1.2)
y
V ar [N (t + s) N (s)] = t: (1.3)
c) De (1.2)
E [N (t + s) N (s)]
=
t
eventos que ocurren en promedio en (s; t + s]
= :
t
De aquí, podemos interpretar a como el número promedio de veces que
ocurre un evento particular por unidad de tiempo. Esto justi…ca el nombre
de intensidad media.
2 2
= h h + o(h)
= h + o(h);
( h)0 h h h
= 1 e + he =1 (1 + h)e
0!
= 1 (1 + h) [1 ( h) + o(h)]
2 2
= 1 1 h + o(h) + h h + ho(h)
2 2
= 1 1 h + o(h) = o(h):
lo cual implica
t
e Pn0 (t) + Pn (t) = e t Pn 1 (t):
De aquí,
d h t i
e Pn (t) = e t Pn 1 (t). (1.8)
dt
Tomando n = 1, y usando (1.6),
d h t i
t
e P1 (t) = si, y solo si P1 (t) = ( t + c)e :
dt
Como P1 (0) = 0 tenemos que c = 0; lo cual implica P1 (t) = te t =
P [N (t) = 1] :
Demostraremos ahora por inducción matemática que
( t)n t
Pn (t) = e ; n = 1; 2; :::
n!
Supongamos que se cumple para n 1. Entonces por (1.8)
d h t i ( t)n 1 ( t)n 1
e Pn (t) = e t Pn 1 (t) = e
t
e t
= :
dt (n 1)! (n 1)!
Por lo tanto,
n n
t
e t Pn (t) = +c
n!
Como Pn (0) = 0 obtenemos
( t)n
Pn (t) = e t ; n = 1; 2; :::
n!
Por lo anterior, para concluir la demostración, es su…ciente con demostrar
que P0 (t) y Pn (t) satisfacen las ecuaciones diferenciales (1.5) y (1.7), respec-
tivamente.
1.4. PROCESO DE POISSON 11
P0 (t + h) = P [N (t + h) = 0] = P [N (t) = 0; N (t + h) N (t) = 0]
= P0 (t) (1 P [N (h) 1] )
= P0 (t)(1 h + o(h)):
Cabe señalar que la última igualdad se sigue de las condiciones (ii) y (iii).
De aquí tenemos que
n
X
Pn (t + h) = P [N (t + h) = n] = P [N (t + h) N (t) = j; N (t) = n j]
j=0
= P [N (t + h) N (t) = 0; N (t) = n]
+P [N (t + h) N (t) = 1; N (t) = n 1]
n
X
+ P [N (t + h) N (t) = j; N (t) = n j]
j=2
12 CAPÍTULO 1. PROCESO DE POISSON
Pn (t + h) = P [N (t) = n] P [N (t + h) N (t) = 0] +
P [N (t) = n 1] P [N (t + h) N (t) = 1] + o(h) (inc.ind)
De aquí
f 2j 1
(tjs) = exp( t); t 0;
con lo cual obtenemos
14 CAPÍTULO 1. PROCESO DE POISSON
Z 1
f 2 (t) = f 2j 1
(tjs)f 1 (s)ds
0
Z 1
= exp( t)f 1 (s)ds
0
Z 1
= exp( t) f 1 (s)ds
0
= exp( t)
(t) := tN (t)+1 t;
es decir, (t) representa el tiempo entre t y el próximo arribo que ocurre.
0
n exp( ) para n 2
Además, por la proposicion (1.4.1), 01 = (t) exp ( ) independiente-
mente del número de arribos que ocurren antes de s , es decir, independien-
temente de los valores de N (t0 ) para t0 s.
Entonces,
donde la última igualdad se debe a que los tiempos entre arribos de ambos
procesos X y X 0 tienen la misma distribución exponencial.De aquí y por la
de…nición de probabilidad condicional obtenemos
tn t tn+1 ;
= P ftn tg P ftn+1 tg
t
P fN (t) = 0g = P ( 1 > t) = e ;
Z t n Z t n+1
P fN (t) = ng = xn 1
e x
dx xn e x
dx
0 (n 1)! 0 (n)!
e t( t)n
= ; n = 1; 2; ::::
n!
1.4. PROCESO DE POISSON 17
P fN (t) N (s) = ng = P fN (t s) = ng
(t s) ( (t s))n
= e ; n = 0; 1; :::;
n!
con lo cual concluye la demostración del teorema.
18 CAPÍTULO 1. PROCESO DE POISSON
Capítulo 2
Cadenas de Markov a
Tiempo Continuo
2.1. Introducción
Los procesos de Markov constituyen una de las clases de procesos es-
tocásticos más estudiados. La característica que los distingue es la llamada
propiedad de Markov la cual establece, en términos generales, que dado
el estado presente del sistema, la distribución de probabilidad del proceso
en un tiempo futuro es independiente del pasado. Con esta propiedad, los
procesos de Markov nos permiten modelar sistemas dinámicos estocásticos
que evolucionan en el tiempo los cuales aparecen en diferentes áreas como
economía, biología, ciencias computacionales, investigación de operaciones,
etc.
19
20 CAPÍTULO 2. CADENAS DE MARKOV A TIEMPO CONTINUO
1
X
= P fX(t + s) = j; X(s) = kjX(0) = ig
k=0
1
X
= P fX(s) = kjX(0) = ig P fX(t + s) = jjX(0) = i; X(s) = kg
k=0
1
X
= Pik (s)P fX(t + s) = jjX(s) = kg por (2.2) y (2.1)
k=0
1
X
= Pik (s)Pkj (t):
k=0
= P [N (tn+1 ) N (tn ) = j i]
22 CAPÍTULO 2. CADENAS DE MARKOV A TIEMPO CONTINUO
P [N (tn+1 ) = j; N (tn ) = i]
P [N (tn+1 ) = jjN (tn ) = i] =
P [N (tn ) = i]
P [N (tn ) = i; N (tn+1 ) N (tn ) = j i]
=
P [N (tn ) = i]
P [N (tn ) = i] P [N (tn+1 ) N (tn ) = j i]
=
P [N (tn ) = i]
= P [N (tn+1 ) N (tn ) = j i]
e t( t)j i
= ; para todo t; s 0; j i:
(j i)!
y
Pj (t) = P fX(t) = jg ; j = 0; 1; :::;
denotará la distribución de X(t):
Es decir,
1
(a) qij = lm Pij (t) para i 6= j (2.7)
t
t!0+
1
(b) qii = l m (Pii (t) 1) .
t!0 t
+
Estas expresiones nos dicen que, cuando t ! 0+ , las probabilidades Pij (t) y
1 Pii (t) son, excepto por términos o(t), proporcionales a t, con constantes
de proporcionalidad qij y qi , respectivamente.
qi = qii =
qi;i+1 =
qi;j = 0 para j 6= i; i + 1:
m
X
Pij0 (t + s) = 0
Pik (s)Pkj (t)
k=0
Entonces,
m
X m
X
Pij0 (t) = 0
Pik (0)Pkj (t) = qik Pkj (t)
k=0 k=0
X
= qii Pij (t) + qik Pkj (t)
k6=i
m
X
Pij0 (s) = 0
Pik (s)Pkj (0)
k=0
X
= Pij (s)qj + Pik (s)qkj
k6=j
f k; k = 0; 1; 2; :::g
es decir, X
k qk = j qjk ; k = 0; 1; ::: (2.16)
j6=k
Por lo tanto, si se sabe que los límites k en (2.14) existen, entonces sus
valores pueden determinarse a partir del sistema de ecuaciones (2.16).
con 0 = 0:
la cual nos dice que las probabilidades in…nitesimales desde un estado dado
i solo pueden ocurrir hacia sus vecinos inmediatos (i 1; i + 1). De aquí, a
los parámetros i = qi;i+1 se les llama tasas (o intensidades) de nacimiento,
mientras que a los parámetros i = qi;i 1 se les llaman tasas (o intensidades)
de muerte.
2 3
0 0 0 0 0 :::::
6 ( + 1) 0 0 ::::: 7
6 1 1 1 7
Q=6
6 0 2 ( 2 + 2) 2 0 ::::: 7
7
4 0 0 3 ( 3+ 3) 3 ::::: 5
:::::::: ::::::: ::::::: :::::
32 CAPÍTULO 2. CADENAS DE MARKOV A TIEMPO CONTINUO
y para j = 0:
0= 0 0 + 1 1: (2.23)
2 2 = 1( 1 + 1) 0 0
0
= 0 ( 1 + 1) 0 0
1
0
= 0 1 + 0 0 0 0
1
0 1
= 0
1
o bien,
0 1
2 =( 0:
1 2
0 1 ::: j 1
j =( ) 0; j = 1; 2; ::: (2.24)
1 2 :::: j
2.6. PROCESOS DE NACIMIENTO Y MUERTE 33
Sin embargo,
Ppara que f j g sea una distribución de probabilidad, debe sat-
1
isfacer que j=0 j = 1, es decir,
0 1
1
X 0 1 ::: j 1A
0 @1 + = 1;
j=1 1 2 :::: j
Colas Poissonianas
3.1. Introducción
En este capítulo estudiamos sistemas de espera para los cuales el tiempo
entre arribos de clientes consecutivos y el tiempo de servicio tienen dis-
tribución exponencial, o equivalentemente, están modelados por procesos
de Poisson. Estos sistemas se comportan como un proceso de nacimiento y
muerte donde la llegada de un cliente al sistema representa un nacimiento,
mientras que la salida de un cliente después de ser servido representa una
muerte. Gran parte del material presentado en los capítulos anteriores será
aplicado para estudiar dicha clase de sistemas de espera.
35
36 CAPÍTULO 3. COLAS POISSONIANAS
AjSjcjKjF jd
M : Distribución exponencial;
D : los tiempos entre arribos o de servicio son constantes o de-
terminísticos;
G : distribución general.
c = Número de servidores.
d = disciplina de servicio.
Esta a su vez se especi…ca de la siguiente manera:
n = tn tn 1; n = 1; 2; :::
Por otro lado, supondremos que los servidores son idénticos y denotaremos
por s a la v.a. que representa el tiempo de servicio.
Observemos que
N (t) = Nq (t) + Ns (t); 8t 0: (3.1)
38 CAPÍTULO 3. COLAS POISSONIANAS
t
B(t) = P fs tg = 1 e ; t 0:
Supondremos que los tiempos de servicio son independientes de los tiem-
pos de arribo.
j=1
1
X j
1+ =
( )
j=1
0 = =1 : (3.3)
donde
E(s)
= = .
E( )
= P [N > 0] :
tenemos que
L = Lq + Ls : (3.7)
40 CAPÍTULO 3. COLAS POISSONIANAS
w = q + s;
lo cual implica
W = Wq + Ws ; (3.8)
donde
1
W = E [w] ; Wq = E [q] ; Ws = E [s] = : (3.9)
o sea,
L= si = < 1: (3.10)
1
Para ello usaremos las siguientes fórmulas demostradas por Little en [8].
Cabe señalar que omitiremos su demostración ya que no está al alcance del
presente trabajo.
3.3. SISTEMA DE ESPERA MjMj1 41
L= W (3.11)
y
Lq = Wq (3.12)
L 1
W = = = = : (3.13)
(1 ) (1 ) ( )
Además, de (3.8),
E(s)
Wq = W Ws = W E(s) = ; (3.14)
(1 )
Fw (t) = P fw tg
y
Fq (t) = P fq tg :
P fq = 0g = P fN = 0g = 0 =1 : (3.17)
= P fq tjN > 0g
1
X P fN = ng P fq tjN = ng
=
P fN > 0g
n=1
1
X
= nP fq tjN = ng ; (3.18)
n=1
ya que n = P fN = ng 8n 2 N:
Por otro lado, si tenemos N = n clientes, el próximo cliente deberá
esperar n tiempos de servicio para ser atendido, y éstos están distribuidos
exponencialmente con parámetro . En otras palabras, la distribución condi-
cional de q dado N = n se puede escribir como la distribución de una suma
de v.a. i.i.d. exponencialmente distribuidas con parámetro , es decir, como
una distribución Gama con parámetros n y , cuya densidad está dada por
(ver Proposición 1.2.2)
n tn 1 e t
fq (t) = :
(n 1)!
1
X
P f0 < q tg = nP fq tjN = ng
n=1
1
X n Z t
= (1 ) rn 1
e r
dr
(n 1)! 0
n=1
Z t 1
X
r ( r)n 1
= (1 ) e dr
0 (n 1)!
n=1
Z t
( )r
= (1 ) e dr
0
(1 )t t=W
= (1 e ) = (1 e ); (3.19)
t=W
Fq (t) = 1 + (1 e )
t=W
= 1 + e
t=W
= 1 e ;
1
X
Fw (t) = P fN = ng P fw tjN = ng
n=0
X1
= nP fw tjN = ng :
n=0
Z t n+1 r n e r
P fw tjN = ng = dr:
0 n!
44 CAPÍTULO 3. COLAS POISSONIANAS
Luego,
1
X Z t n+1 tn e t
Fw (t) = n
0 n!
n=0
Z t 1
X
r ( r)n
= (1 ) e dr
0 n!
n=0
Z t
r r
= (1 ) e e dr
0
(1 )t
= 1 e
t=W
= 1 e ;
donde la última desigualdad se sigue de (3.13).
n = ; n = 0; 1; 2; :::;
8
< n si n = 0; 1; :::; c
n = :
:
c si n c
3.4. SISTEMA DE ESPERA MjMjC 45
c 1
X n 1
X c
= + ( )un
n! c!
n=0 n=0
1
con 0 = :
C
Ahora calcularemos las cantidades Lq (número esperado de clientes en
la cola), L (número esperado de clientes en el sistema), W (tiempo esperado
en el sistema) y Wq (tiempo esperado en la cola).
1
X 1
nun 1
= : (3.21)
(1 u)2
n=1
Entonces,
1
X
Lq = (n c) n
n=c
1
X
= n n+c
n=0
c 1
X
= ( 0 ) nun ya que u =
c! c
n=1
1
c u X n 1
= ( 0 ) nu :
c!
n=1
c u
Lq = 0 ;
c!(1 u)2
c
0
P [N c] = ;
c!(1 u)
si u < 1:
3.4. SISTEMA DE ESPERA MjMjC 47
c 1
X
0 n c
=
c! n=c
c
c 1
X
0
= un
c!
n=0
c
0
= :
c!(1 u)
L= W
y
Lq
Wq = ; (3.22)
donde
1
W = Wq + E(s) = Wq + :
Además, denotando
c
0
E(c; ) = ;
c!(1 u)
de (3.20) obtenemos,
E(c; )u
Lq = (3.23)
1 u
y de (3.22)
E(c; )u E(c; )E(s)
Wq = = : (3.24)
(1 u) c(1 u)
48 CAPÍTULO 3. COLAS POISSONIANAS
Apéndice A
Simulaciones
1
X= log u; donde u u(0; 1)
1
llega = log u
1
sale = log u2
49
50 APÉNDICE A. SIMULACIONES
t = llega
1
llega = log u (generamos el siguiente tiempo entre llegadas )
1
si clientes = 1; sale = t + log u2 (como solo hay un cliente,
hay que generar su tiempo de servicio y sumárselo al tiempo actual)
t = sale
si clientes = 0 sale = 1
1
si no sale = t + log u2 (generamos el tiempo del siguiente
servicio y lo sumamos al tiempo actual)
A.1.2. Grá…cas
4
=
5
1
=
5
Como la es muy pequeña vemos que la cola casi siempre esta vacía, es
decir, los clientes son atendidos de inmediato.
54 APÉNDICE A. SIMULACIONES
14
=
5
q : Tiempo en la cola
N : clientes en la cola
wi = ( W ) log(1 u)
(1 u)
qi = ( W ) log
log(1 u)
ni =
log
Resultados:
58 APÉNDICE A. SIMULACIONES
Bibliografía
[1] R.N. Bhattacharya, E.c. Waymire (1990) Stochastic Processes with Ap-
plications, Wiley, New York.
[7] D.G. Kendall (1953) Stochastic processes occuring in the theory of queues
and their analysis by the method of imbedded Markov chains. Annals of
Mathematical Statistics, 24, pp. 338-354.
59