Sunteți pe pagina 1din 133

Resumen de Modelos y Simulacion

Illbele Maximiliano illbelemaxi@gmail.com


8 de julio de 2014

Indice
1. Repaso de Probabilidad 6
1.1. Espacio Muestral, Eventos . . . . . . . . . . . . . . . . . . . . . . 6
1.2. Axiomas de Probabilidad . . . . . . . . . . . . . . . . . . . . . . 6
1.3. Probabilidad condicional e independencia . . . . . . . . . . . . . 6
1.4. Teorema de Bayes . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.5. Variables aleatorias . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.5.1. Clasicacion de las variables aleatorias . . . . . . . . . . . 8
1.5.2. Propiedades de una variable aleatoria discreta . . . . . . . 8
1.6. Propiedades de una variable aleatoria continua X . . . . . . . . . 9
1.7. Distribucion conjunta . . . . . . . . . . . . . . . . . . . . . . . . 10
1.7.1. Distribuciones Marginales . . . . . . . . . . . . . . . . . . 10
1.7.2. Distribucion Condicional . . . . . . . . . . . . . . . . . . . 10
1.7.3. Independencia y Distribucion Conjunta . . . . . . . . . . 11
1.8. Valor esperado y Varianza . . . . . . . . . . . . . . . . . . . . . . 12
1.8.1. Valor esperado de una variable aleatoria discreta . . . . . 12
1.8.2. Varianza de una variable aleatoria discreta . . . . . . . . 12
1.8.3. Propiedades de la varianza y la esperanza de una V.A.
discreta . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.8.4. Esperanza y varianza de una variable aleatoria continua . 12
1.8.5. Covarianza . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.8.6. Propiedades de la covarianza . . . . . . . . . . . . . . . . 13
1.9. Desigualdad de Markov . . . . . . . . . . . . . . . . . . . . . . . 14
1.10. Desigualdad de Chebyshev . . . . . . . . . . . . . . . . . . . . . . 14
1.11. Leyes de los grandes n umeros . . . . . . . . . . . . . . . . . . . . 14
2. Variables Aleatorias 15
2.1. Variables Aleatorias Discretas . . . . . . . . . . . . . . . . . . . . 15
2.1.1. Bernoulli(p) . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.1.2. Uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.1.3. Distribucion Binomial . . . . . . . . . . . . . . . . . . . . 15
2.1.4. Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.1.5. Hipergeometrica . . . . . . . . . . . . . . . . . . . . . . . 19
1
2.1.6. Distribucion binomial negativa . . . . . . . . . . . . . . . 20
2.1.7. Distribucion Geometrica . . . . . . . . . . . . . . . . . . . 20
2.2. Variables Aleatorias Continuas . . . . . . . . . . . . . . . . . . . 22
2.2.1. Distribucion uniforme . . . . . . . . . . . . . . . . . . . . 22
2.2.2. Distribucion Normal . . . . . . . . . . . . . . . . . . . . . 23
2.2.3. Distribucion exponencial . . . . . . . . . . . . . . . . . . . 24
2.2.4. Distribucion de Mnimo de Exponenciales . . . . . . . . . 25
3. Teorema Central del lmite 25
4. Esperanza condicional y Varianza Condicional 27
5. Procesos de Poisson 29
5.1. Homogeneos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
5.1.1. Proceso de Poisson, No Homogeneo . . . . . . . . . . . . . 33
5.1.2. Valor medio del P.P. no Homogeneo . . . . . . . . . . . . 34
5.2. Poisson Homogeneo y Poisson no Homogeneo . . . . . . . . . . . 34
6. Generadores de N umeros Aleatorios 35
6.1. Inconvenientes de metodos fsicos . . . . . . . . . . . . . . . . . . 35
6.2. Propiedades deseables de un generador . . . . . . . . . . . . . . . 36
6.3. Principios generales de un buen generador . . . . . . . . . . . . . 36
6.4. Generador congruencial lineal . . . . . . . . . . . . . . . . . . . . 37
6.4.1. Eleccion de a, c y M . . . . . . . . . . . . . . . . . . . . . 37
6.4.2. Generadores Mixtos (c = 0) . . . . . . . . . . . . . . . . . 37
6.4.3. Generadores multiplicativos . . . . . . . . . . . . . . . . . 38
6.4.4. Modulo potencia de 2 . . . . . . . . . . . . . . . . . . . . 38
6.4.5. Generadores Portables . . . . . . . . . . . . . . . . . . . . 39
6.5. Shuing . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
6.5.1. El generador ran
1
. . . . . . . . . . . . . . . . . . . . . . 41
6.6. Combinacion de generadores . . . . . . . . . . . . . . . . . . . . . 41
6.6.1. Combinacion de congruenciales . . . . . . . . . . . . . . . 42
6.6.2. El generador ran
2
. . . . . . . . . . . . . . . . . . . . . . 42
6.6.3. El generador ran
3
. . . . . . . . . . . . . . . . . . . . . . 42
6.7. Marsaglia - Zaman . . . . . . . . . . . . . . . . . . . . . . . . . . 43
6.8. El generador mzran() . . . . . . . . . . . . . . . . . . . . . . . . 44
6.9. El generador mzran13() . . . . . . . . . . . . . . . . . . . . . . . 44
6.9.1. Codigo de mzran13() . . . . . . . . . . . . . . . . . . . . 45
7. Integracion por el metodo de Monte Carlo 46
7.1. Integracion en (0,1) . . . . . . . . . . . . . . . . . . . . . . . . . . 46
7.2. Integracion en (a,b) . . . . . . . . . . . . . . . . . . . . . . . . . 49
7.3. Integracion en (0, ) . . . . . . . . . . . . . . . . . . . . . . . . . 51
7.4. Integracion en (, ) . . . . . . . . . . . . . . . . . . . . . . . 52
7.5. Integrales M ultiples . . . . . . . . . . . . . . . . . . . . . . . . . 52
7.5.1. Calculo aproximado del valor de . . . . . . . . . . . . . 54
2
7.5.2. La aguja de Buon . . . . . . . . . . . . . . . . . . . . . . 55
8. Generacion de Variables aleatorias Discretas 57
8.1. Metodo de la transformada inversa . . . . . . . . . . . . . . . . . 57
8.1.1. Orden decreciente de p
i
. . . . . . . . . . . . . . . . . . . 59
8.1.2. Generacion de una Uniforme Discreta . . . . . . . . . . . 59
8.2. Generacion de una permutacion aleatoria . . . . . . . . . . . . . 60
8.2.1. Subconjuntos aleatorios . . . . . . . . . . . . . . . . . . . 61
8.2.2. Metodo alternativo de permutacion aleatoria . . . . . . . 61
8.3. Calculo de promedio . . . . . . . . . . . . . . . . . . . . . . . . . 61
8.4. V.A. Geometrica . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
8.5. V.A. Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
8.6. V.A. B(n,p) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
8.7. Metodo de aceptacion y Rechazo . . . . . . . . . . . . . . . . . . 67
8.7.1. Validez del metodo de Aceptacion y Rechazo . . . . . . . 67
8.7.2. Casos particulares . . . . . . . . . . . . . . . . . . . . . . 69
8.8. Metodo de composicion . . . . . . . . . . . . . . . . . . . . . . . 69
8.9. Metodo de la urna . . . . . . . . . . . . . . . . . . . . . . . . . . 71
8.10. Metodo de tablas . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
9. Generacion de variables aleatorias continuas 73
9.1. Metodo de la transformada inversa . . . . . . . . . . . . . . . . . 73
9.1.1. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
9.1.2. Maximos y mnimos de V.A. independientes . . . . . . . . 75
9.1.3. Exponencial . . . . . . . . . . . . . . . . . . . . . . . . . . 76
9.1.4. Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
9.1.5. Gamma . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
9.1.6. Exponenciales a partir de una Gamma . . . . . . . . . . . 77
9.2. Metodo de Rechazo . . . . . . . . . . . . . . . . . . . . . . . . . . 78
9.2.1. Gamma . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
9.2.2. Exponencial . . . . . . . . . . . . . . . . . . . . . . . . . . 81
9.2.3. Normal . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
9.3. Metodo polar para generar V.A.normales . . . . . . . . . . . . . 82
9.4. Generacion de eventos en un proceso de Poisson . . . . . . . . . . 84
9.4.1. Homogeneo . . . . . . . . . . . . . . . . . . . . . . . . . . 84
9.4.2. Proceso de Poisson, No Homogeneo . . . . . . . . . . . . . 85
9.5. Algoritmo de adelgazamiento . . . . . . . . . . . . . . . . . . . . 86
9.5.1. Algoritmo mejorado . . . . . . . . . . . . . . . . . . . . . 86
10.Seleccion de distribuciones de probabilidad 89
10.1. Simulacion a partir de los datos . . . . . . . . . . . . . . . . . . . 89
10.2. Distribucion de probabilidad mas utilizada . . . . . . . . . . . . . 90
10.2.1. Uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
10.2.2. Exponencial . . . . . . . . . . . . . . . . . . . . . . . . . . 91
10.2.3. Gamma . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
10.2.4. Weibull . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
3
10.2.5. Normal . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
10.2.6. Distribucion lognormal . . . . . . . . . . . . . . . . . . . . 92
10.2.7. Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
10.2.8. Uniforme Discreta . . . . . . . . . . . . . . . . . . . . . . 92
10.2.9. Geometrica . . . . . . . . . . . . . . . . . . . . . . . . . . 92
10.2.10.Binomial Negativa . . . . . . . . . . . . . . . . . . . . . . 92
10.2.11.Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
10.3. Distribucion Emprica . . . . . . . . . . . . . . . . . . . . . . . . 92
10.4. Tecnicas de prueba de independencia . . . . . . . . . . . . . . . . 93
10.5. Inferencia estadstica de un modelo . . . . . . . . . . . . . . . . . 93
11.Analisis estadstico de datos simulados 94
11.1. Estimadores puntuales . . . . . . . . . . . . . . . . . . . . . . . . 94
11.1.1. Estimacion de parametros . . . . . . . . . . . . . . . . . . 94
11.1.2. Metodo de maxima verosimilitud . . . . . . . . . . . . . . 95
11.2. Error cuadratico medio . . . . . . . . . . . . . . . . . . . . . . . . 98
11.2.1. El ECM de la medio muestral, con respecto a la media . . 98
11.3. Varianza muestral . . . . . . . . . . . . . . . . . . . . . . . . . . 99
11.3.1. Calculo recursivo de x(n) y S
2
(n) . . . . . . . . . . . . . 100
11.3.2. Estimacion de una proporcion . . . . . . . . . . . . . . . . 100
11.3.3. Metodo de los momentos . . . . . . . . . . . . . . . . . . 101
11.4. Estimadores por intervalos . . . . . . . . . . . . . . . . . . . . . . 101
11.4.1. Estimador por intervalo de la media poblacional . . . . . 101
11.4.2. Varianza . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
11.5. Distribuciones derivadas de la normal . . . . . . . . . . . . . . . 102
11.5.1.
2
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
11.5.2. t
k
de Student . . . . . . . . . . . . . . . . . . . . . . . . . 102
11.5.3. Intervalos de conanza para las proporciones . . . . . . . 102
11.6. Longitud del intervalos de conanza . . . . . . . . . . . . . . . . 103
11.7. Cuando parar una simulacion para estimar la media . . . . . . . 103
12.Bootstrap 104
12.1. Distribucion emprica de un grupo de datos jos . . . . . . . . . 104
12.2. Tecnica Bootstrap . . . . . . . . . . . . . . . . . . . . . . . . . . 106
12.3. Bootstrap y Montecarlo . . . . . . . . . . . . . . . . . . . . . . . 108
12.3.1. Aproximaci on Bootstrap para ECM(S
2
,
2
) = V ar(S
2
) . 108
12.4. Aproximacion bootstrap por ECM(x(n), ) . . . . . . . . . . . . 109
13.Bondad de Ajuste 113
13.1. Test de Chi cuadrado . . . . . . . . . . . . . . . . . . . . . . . . 113
13.2. Implementacion . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
13.2.1. Simulacion del p-valor . . . . . . . . . . . . . . . . . . . . 116
13.2.2. Implementacion en el caso discreto . . . . . . . . . . . . . 117
13.2.3. Implementacion para el caso continuo . . . . . . . . . . . 117
13.3. Test de Kolmogorov-Smirnov . . . . . . . . . . . . . . . . . . . . 118
13.3.1. Estimacion del p valor . . . . . . . . . . . . . . . . . . . 120
4
13.3.2. Valor p con parametros estimados . . . . . . . . . . . . . 120
13.3.3. Kolmogorov-Smirnov si hay parametros no especicados . 121
14.Test de suma de rangos 123
14.1. El problema de las dos muestras . . . . . . . . . . . . . . . . . . 123
14.2. Problema de m ultiples muestras . . . . . . . . . . . . . . . . . . . 128
15.Validacion de hipotesis de un proceso de Poisson no homogeneo129
15.1. Proceso de Poisson no homogeneo . . . . . . . . . . . . . . . . . 129
15.1.1. La funcion de intensidad . . . . . . . . . . . . . . . . . . . 132
15.2. Proceso de Poisson homogeneo . . . . . . . . . . . . . . . . . . . 132
15.3. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133
5
1. Repaso de Probabilidad
1.1. Espacio Muestral, Eventos
El espacio muestral S es el conjunto de todos los resultados posibles.
Ejemplo: en una carrera de 3 caballos, se considera el orden de llegada a la
meta:
S =
_
(1, 2, 3), (1, 3, 2), (2, 1, 3), (2, 3, 1), (3, 1, 2), (3, 2, 1)
_
Un evento es alg un subconjunto del espacio muestral.
Sea A = resultados en los que el caballo 1 sale ultimo
A =
_
(2, 3, 1), (3, 2, 1)
_
1.2. Axiomas de Probabilidad
La funcion de probabilidad
Es una funcion P: a [0, 1] que satisface las siguientes condiciones:
1. 0 P(A) 1 A a
2. P(S) = 1
3. {A
i
}

i=1
: A
i
a y sean eventos disjuntos, id est: (A
i
A
j
= i = j)
Entonces P
_

i=1
A
i
_
=

i=1
P(A
i
).
P(A
c
) = 1 P(A)
A B P(A) P(B)
P(A B) = P(A) +P(B) P(A B)
Ejemplo: supongamos que cualquier resultado de la carrera es igualmente
posible. Entonces:
1 = P(1, 2, 3) +P(1, 3, 2) +P(2, 1, 3) +P(2, 3, 1) +P(3, 1, 2) +P(3, 2, 1)
= 6 P(1, 2, 3)
Por lo cual todos los puntos tienen la probabilidad: 1/6.
1.3. Probabilidad condicional e independencia
P
B
(A)
Def
= P(A|B) =
P(AB)
P(B)
A a
6
Denicion: A y B se dicen independientes si P(A|B) = P(A).
En tal caso: P(A B) = P(A) P(B)
Ejemplo: supongamos que un urna tiene 4 bolas rojas numeradas del 1 al 4
y 3 bolas negras numeradas del 1 al 3. Si elegimos una bola al azar y es roja.
Cual es la probabilidad de que tenga el n umero 1?
P(1|R) =
P(1 R)
P(R)
=
1
7
4
7
=
1
4
Supongamos que una urna tiene 3 bolas rojas indistinguibles etre si y una
azul. Si elegimos dos bolas al azar en forma consecutiva sin reponerlas en la
urna. Cual es la probabilidad de que ambas sean rojas?
P(R
1
R
2
) = P(R
2
|R
1
) P(R
1
) =
2
3

3
4
=
1
2
1.4. Teorema de Bayes
Sean A
1
, . . . , A
n
eventos disjuntos en a : S =
n

i=1
A
i
y sea B a entonces:
P(A
i
|B) =
P(A
i
B)
P(B)
=
P(A
i
).P(B|A
i
)
n

j=1
P(A
j
).P(B|A
j
)
i, j : 1 i, j n
Ejemplo: un director de personal dispone de dos listas de solicitantes a un
empleo. La lista 1 incluye 3 hombres y 4 mujeres, mientras que la lista 2 incluye
los nombres de 7 hombres y 3 mujeres.
Se selecciona al azar un nombre de la lista 1 y se pasa a la lista 2, y de la
lista 2 (ya aumentada) se selecciona al azar otro nombre. Si el nombre elegido
nalmente es el de un hombre Cual es la probabilidad de que el primer nombre
elegido haya sido mujer?
Sea H
2
: sacar un hombre en la segunda (Aumentada)
Sea M
1
: sacar una mujer en la primera extraccion de la lista 1.
P(M
1
|H
2
) =
P(M
1
H
2
)
P(H
2
)
=
P(H
2
|M
1
)P(M
1
)
P(H
2
M
1
) +P(H
2
H
1
)
=
P(H
2
|M
1
)P(M
1
)
P(H
2
|M
1
) P(M
1
) +P(H
2
|H
1
) P(H
1
)
=
7
11

4
7
7
11

4
7
+
8
11

3
7
7
1.5. Variables aleatorias
Denicion: dado (S, a, p) un modelo probabilstico llamaremos variable
aleatoria (V.A.) a cualquier funcion:
X : S R : [X x] = {w S : X(w) x} a x R
1.5.1. Clasicacion de las variables aleatorias
Diremos que X es una variable aleatoria discreta si toma un conjunto nito
o innito numerable de valores posibles con probabilidad positiva.
Diremos que X es una variable aleatoria Bernoulli si solo toma dos valores:
1 o 0.
Diremos que X es una variable aleatoria continua si sus valores posibles
consisten en un todo intervalo en la recta numerica.
Llamaremos funcion de distribucion acumulada de X a la funcion
F : R [0, 1] dada por F(x) = P (X x) x R
1.5.2. Propiedades de una variable aleatoria discreta

X
P(x) = 1
La funcion es monotona creciente, id est si x
1
< x
2
F(x
1
) < F(x
2
)
La graca de F es escalonada y tiene discontinuidades en los distintos
valores que toma la variable aleatoria.
lm
x
F(x) = 0
lm
x
F(x) = 1
P(x) = P(X = x) = F(x) lm
tx

F(t) x R
Denicion: diremos que X es una variable aleatoria continua si:
P(X = x) = 0 x R
Ejemplo: tirar un dado hasta que salga un 6, dar la funcion de frecuencia
discreta y la acumulada.
P(X = k) =
_
5
6
_
k1

_
1
6
_
8

K=1
P(X = k)
?
= 1

K=1
P(X = k) =

k=1
_
5
6
_
k1

_
1
6
_
=
1
6

k=0
_
5
6
_
k
=
1
6

1
1
5
6
= 1
F
x
(x)
?
=
_
5
6
_
[x]
F
x
(x) = P[X x] = 1 P[X > x]
= 1

k=1
P(X = [x] +k)
=

k=1
_
5
6
_
[x]+k1

1
6
=
1
6

_
5
6
_
[x]1

k=1
_
5
6
_
[k]
=
_
5
6
_
[x]
1.6. Propiedades de una variable aleatoria continua X
P(a X b) = F(b) F(a)
P(a X b)

= P(a < X b)

= P(a X < b)
P(X > c) = 1 P(X c) = 1 F(c)

= P(x c)
Denicion: se llama funcion de densidad de probabilidad a toda funcion
f : R R
0
:

f(t) dt = 1
Propiedad: sea X una variable aleatoria continua entonces:
f(t) =
_
F

(t) en donde exista


0 en caso contrario
9
1.7. Distribucion conjunta
Sea X e Y variables aleatorias.
Funcion de distribucion acumulada conjunta de X e Y
F(a, b) = P(X a, Y b)
Si X e Y son V.A. discretas
p(a, b) = P(X = a, Y = b)
X e Y continuas son conjuntamente continuas con densidad si existe
una funcion no negativa f tal que para todo C, D
P(X C, Y D) =
_
xC
_
yD
f(x, y) dxdy
1.7.1. Distribuciones Marginales
Si F es funcion de distribucion conjunta de X e Y .
F
x
(a) = P(x a) = F(a, ) es la distribucion marginal de x
Si X es discreta:
P
x
(a) =

b
p(a, b)
Si (x, y) admite densidad:
F
x
(a) =
a
_

f(x, y) dydx =
a
_

f
x
(x)dx
F
y
(b) = P(Y b) = F(, b) distribucion marginal de Y
La distribucion conjunta permite obtener las distrib. marginales de X e Y .
La recproca no es cierta.
1.7.2. Distribucion Condicional
Sean X e Y discretas:
P(x, y) = P
x|y
(x|y) P
y
(y)
P
x|y
(x|y) = P(X = x|Y = y)
=
P(X = x Y = y)
P(Y = y)
=
p(x, y)
p
y
(y)
10
P(X x|Y = y) =

aix
P
x|y
(a
i
|y)
Sean X e Y conjuntamente continuas con densidad
f
x|y
(x|y) =
f(x, y)
f
y
(y)
=
f
y|x
(y|x)f
x
(x)
f
y
(y)
P(X x|Y = y) =
x
_

f
x|y
(s|y)ds
Ejemplo
Tiro un dado una vez y luego una mode tantas veces como el n umero que
salio en el dado. Sea X el n umero que sale en el dado. Y el n umero de caras de
la tirada de la moneda.
Sea X el n umero que sale en el dado.
Sea Y el n umero de caras de la tirada de la moneda.
P[X = 6, Y = 3] = P
y|x
(3|6) P
x
(6) =
_
6
3
_
_
1
2
_
3
_
1
2
_
3
1
6
P[X = n, Y = k] = P
y|x
(k|n) P
x
(n) =
_
n
k
_
_
1
2
_
k
_
1
2
_
nk
1
6
1.7.3. Independencia y Distribucion Conjunta
Sean X e Y independientes si:
P(X C, Y D) = P(X C) P(Y D)
{X C}, {Y D} son eventos independientes.
X e Y discretas:
P(X = a, Y = b) = P(X = a)P(Y = B) P(a, b) = P
x
(a) P
y
(b)
X e Y conjuntamente continuas con densidad f(x, y) = f
x
(x)f
y
(y)
Es decir si X e Y son independientes, la distribucion conunta se obtiene a
partir de las distribuciones de X e Y .
11
1.8. Valor esperado y Varianza
1.8.1. Valor esperado de una variable aleatoria discreta
Denicion: sea X una variable aleatoria discreta con funcion de distribucion
de probabilidad P(x), si

iI
|x
i
|.P(x
i
) < . Con Im(x) = {x
i
}
iI
llamaremos
valor esperado o valor muestral o esperanza de X a:
E(x) =

i I
x
i
.P(x
i
) =
Propiedad: sea X una variable aleatoria discreta con funcion de distribucion
de probabilidad P(x) y sea w = h(x) entonces si

iI
|h(x
i
)|.P(x
i
) <
Denimos: E (h(x)) =

iI
h(x
i
).P(x
i
) : Im(x) = {x
i
}
iI
1.8.2. Varianza de una variable aleatoria discreta
Denicion: sea X una variable aleatoria discreta con funcion de distribucion
de probabilidad P(x) llamaremos varianza de X a:

2
= V (x) = E(x )
2
: = E(x)
Denicion: sea X una variable aleatoria discreta con funcion de distribucion
de probabilidad P(x) llamaremos desvo estandar de x a:
=
_
V (x)
1.8.3. Propiedades de la varianza y la esperanza de una V.A. discreta
E(a.x +b) = a.E(x) +b a, b R
V (x) 0 (Por denicion)
V (x) = E(x
2
)
2
= E(x
2
) E(x)
2
V (a.x +b) = a
2
.V (x) a, b R
1.8.4. Esperanza y varianza de una variable aleatoria continua
Sea X una variable aleatoria continua con funcion de densidad de proba-
bilidad f. Se dene el valor esperado o valor medio o esperanza de X al valor
medio.
Notacion: E(x) =
Proposicion: sea X una variable aleatoria continua con funcion de densidad
f y sea h una funcion entonces: E (h(x)) =

h(x).f(x) dx siempre que exista.


Denicion: llamaremos varianza de X a E(x )
2
, siempre que exista donde
12
= E(x) que denotaremos como V (x) =
2
y la desviacion estandar de X
como
_
V (x).
Proposicion: sea X una variable aleatoria con funcion de densidad f
V (x) = E(x
2
) E(x)
2
E(a.x +b) = a.E(x) +b a, b R
V (a.x +b) = a
2
.V (x) a, b R
1.8.5. Covarianza
Sean X e Y variables aleatorias sobre S entonces llamamos covarianza entre
X e Y, Cov(X, Y ) al valor:
Cov(x, y) = E ((x
x
).(y
y
)) :
x
= E(x) y
y
= E(y)
Proposicion
Cov(x, y) = E(x.y)
x
.
y
:
x
= E(x) y
y
= E(y)
Demostracion con X e Y variables aleatorias discretas
Cov(x, y) =

Y
(x
x
).(y
y
)
. .
h(x,y)
.p(x, y)
=

Y
x.y.P(x, y)
. .
=E(x.y)

X
x

Y
P(x, y)
. .
Px(x)
. .
E(x)=x

Y
y

x
P(x, y)
. .
Py(y)
. .
E(y)=y
+
x
.
y

Y
P(x, y)
. .
=1
= E(x.y)
y

x

x

y
+
x

y
= E(x.y)
x

y
1.8.6. Propiedades de la covarianza
1. Cov(x, y) = E(x.y)
x
.
y
2. Cov(x, x) = V (x)
3. Cov(a.x +b, c.y +d) = a.c.Cov(x, y) a, b, c, d R
4. V (a.x +b.y) = a
2
.V (x) +b
2
.V (y) + 2.a.b.Cov(x, y)
13
Proposicion
Sean X e Y variables aleatorias sobre S independientes entonces:
E(x.y) = E(x).E(y)
Demostracion:
E(x.y) =

Y
(x.y).P(x, y)
ind
=

Y
x.y.P
x
(x).P
y
(y)
=

X
x.P
x
(x)

Y
y.P
y
(y)
= E(x).E(y)
1.9. Desigualdad de Markov
Si X solo toma valores no negativos, entonces para cualquier valor a > 0 :
P[x a]
E[X]
a
1.10. Desigualdad de Chebyshev
Si X es una variable aleatoria con media y varianza
2
entonces para
cualquier valor k > 0:
P
_
|x | k
_

1
k
2
1.11. Leyes de los grandes n umeros
Si X
1
, X
2
, . . . , X
n
son V.A. independientes e identicamente distribuidas con
media
Ley debil de los grandes n umeros:
P
_

X
1
+X
2
+. . . +X
n
n

>
_

n
0
Ler fuerte de los grandes n umeros, con probabilidad 1 se cumple que:
lm
n
X
1
+. . . +X
n
n
=
14
2. Variables Aleatorias
2.1. Variables Aleatorias Discretas
2.1.1. Bernoulli(p)
Sea X una Bernoulli(p) tenemos que:
P(0) = P(X = 0) = 1 p P(1) = P(X = 1) = p
E(x) = 0.(1 p) + 1.p = p E(x
2
) = 0
2
.(1 p) + 1
2
.p = p
V (x) = E(x
2
) E(x)
2
= p p
2
= p.(1 p) = p.q
2.1.2. Uniforme
Diremos que un experimento es Uniforme si cumple las siguientes condi-
ciones:
Tiene n valores igualmente probables.
Rango: {1 . . . n}
1. Funcion de masa: P[X = i] =
1
n
2. Valor esperado: E[X] =
n+1
2
3. Varianza: V [X] =
n
2
1
12
2.1.3. Distribucion Binomial
Denicion: diremos que un experimento es binomial si cumple las siguientes
condiciones:
Consta de n ensayos identicos.
Cada ensayo tiene solo dos resultados posibles E = exito o F = fracaso.
Los ensayos son independientes uno de otro.
La P(E) = p para cada uno de los ensayos.
Denicion: sea X la variable que cuenta el n umero de exitos en un ex-
perimento binomial. Entonces diremos que X tiene distribucion binomial de
parametros n y p.
Notacion: X B(n, p)
15
E(x) =
n

k=0
k.P(k)
=
n

k=0
k.
_
n
k
_
.p
k
.(1 p)
nk
(1)
=
n

k=1
k.
_
n
k
_
.p
k
.(1 p)
nk
(2)
= n.
n

k=1
_
n1
k1
_
.p
k
.(1 p)
nk
(3)
= n.p.
n

k=1
_
n1
k1
_
.p
k1
.(1 p)
(n1)(k1)
= n.p.
n1

j=0
_
n1
j
_
.p
j
.(1 p)
n1j
(4)
= n.p.(p + (1 p))
n1
(5)
= n.p
(1) Denicion de P(k).
(2) k = 0 = 0.
(3) k.
_
n
k
_
=
k.n!
k!(nk)!
=
n.(n1)!
(k1)!((n1)(k1))!
= n.
_
n1
k1
_
.
(4) Hacemos un cambio de variable llamando a: j = k + 1.
(5) Por binomio de Newton (a +b)
m
=
m

r=0
_
m
r
_
.a
r
.b
mr
.
16
Para calcular V(x) primero despejaremos la E(x
2
)
E(x
2
) =
n

k=0
k
2
.P(k)
=
n

k=0
k
2
.
_
n
k
_
.p
k
.(1 p)
nk
(6)
=
n

k=1
k
2
.
_
n
k
_
.p
k
.(1 p)
nk
(7)
=
n

k=1
k.(k 1).
_
n
k
_
.p
k
.(1 p)
nk
+
n

k=1
k.P(k)
. .
E(x)=n.p
(8)
=
n

k=1
k.(k 1).
_
n
k
_
.p
k
.(1 p)
nk
+n.p
=
n

k=2
k.(k 1).
_
n
k
_
.p
k
.(1 p)
nk
+n.p (9)
=
n

k=2
k.(k 1).
n!
k!(n k)!
.p
k
.(1 p)
nk
+n.p
= n.(n 1)
n

k=2
(n 2)!
(k 2)!((n 2) (k 2))!
.p
k
.(1 p)
nk
+n.p
= n.(n 1).p
2
n

k=2
_
n2
k2
_
.p
k2
.(1 p)
nk
+n.p
= n.(n 1).p
2
n2

j=0
_
n2
j
_
.p
j
.(1 p)
n2j
. .
=1
+n.p (10)
= n.p.((n 1).p + 1)
(6) Denicion de P(k).
(7) k = 0 = 0.
(8) Reescribimos k
2
= (k. ((k 1) + 1)).
(9) k = 1 = 0.
(10) Hago un cambio de variables llamando j = k 2.
17
Finalmente puedo calcular la varianza de una binomial:
V (x) = E(x
2
) E(x)
2
= n.p.((n 1).p + 1 n.p)
= n.p.(1 p)
= n.p.q = n.P(E).P(F)
En sntesis sea X B(n, p)
P(k) =
_
n
k
_
.p
k
.(1 p)
nk
k Im(x)
E(x) = n.p
V (x) = n.p.(1 p) = n.p.q = n.P(E).P(F)
Formula recursiva: P
i+1
=
ni
i+1

p
(1p)
P
i
2.1.4. Poisson
E(x) =

k=0
k.P(k)
=

k=1
k.P(k) (11)
=

k=1
k.e

k
k!
=

k=1
e

.

k
(k 1)!
=

k=1
e

.
.
k1
(k 1)!
= e

..

k=1

k1
(k 1)!
= e

..

k=1

k1
(k 1)!
. .
e

=
(11) k = 0 = 0
18
E(x
2
) =

k=0
k
2
.P(k)
=

k=1
k
2
.P(k) (12)
=
n

k=1
k.(k 1).P(k) +
n

k=1
k.P(k)
. .
E(x)=
(13)
=
_
n

k=1
k.(k 1).e

k
k!
_
+
= e

.
_
n

k=2

k
(k 2)!
_
+ (14)
= e

.
_
n

k=2

2
.
k2
(k 2)!
_
+
= e

.
2
.
_
n

k=2

k2
(k 2)!
_
. .
e

+
=
2
+
(12) k = 0 = 0.
(13) Reescribimos k
2
= (k. ((k 1) + 1)).
(14) k = 1 = 0
. Ahora termino calculando la varianza de una Poisson
V (x) = E(x
2
) E(x)
2
=
2
+
2
=
En sntesis sea: X P()
P(k) = P(X = k) = e

k
k!
k Z
0
.
E(x) = V (x) = .
Formula recursiva: P
k+1
=

k+1
P
k
2.1.5. Hipergeometrica
P(k) = P(X = k) =
_
M
k
_
.
_
NM
nk
_
_
N
n
_ : 0 k < m y 0 n k < N M
max{0, n N +m} k mn{M, n}
19
E(x) = n.
M
N
V (x) = n.
M
N
..
p
.
_
1
M
N
_
. .
q
.
_
N n
N 1
_
. .
correccion
2.1.6. Distribucion binomial negativa
Dado un experimento que cumpla:
Los ensayos se realizan de forma independiente.
Cada ensayo tiene dos resultados posibles (E) o (F) y P(E) = p para cada
ensayo.
Los ensayos se contin uan hasta obtener r exitos con r N jo
Entonces la variable aleatoria X que cuenta el n umero de fracasos que prece-
den al r-esimo exito se llama binomial negativa de parametros r y p.
Notacion: X B

(r, p) : Im(x) = Z
0
Denimos la funcion de probabilidad:
P(k) = P(X = k) = p
r
.(1 p)
k
.
_
k+r1
k
_
Proposicion
Sea X B

(r, p) entonces:
E(x) = r.
(1p)
p
V (x) = r.
(1p)
p
2
2.1.7. Distribucion Geometrica
Es un caso particular de la binomial negativa con r = 1 por lo que nos queda:
E(x) =
(1p)
p
V (x) =
(1p)
p
2
Denimos X = n umero de bateras que deben ser probadas hasta obtener
la primera que cumpla las condiciones de calidad
Luego la funcion de distribucion de probabilidad nos queda:
P(x) =
_
p.(1 p)
x1
x N
0 en caso contrario
20
Se pide hallar su esperanza y su varianza:
E(x) =

i=1
i.P(i) =

i=1
i.p.(1 p)
i1
= p.

i=1
i.(1 p)
i1
= p.
d
dp
.(1).
__

i=1
(1 p)
i
+ 1
_
1
_
= p.
d
dp
.(1).
_
_

i=0
(1 p)
i
_
1
_
= p.
d
dp
.(1).
_
1
1 (1 p)
1
_
= p.
d
dp
.(1).
_
1
p
1
_
= (1).p.
1
p
2
=
1
p
21
Para calcular la varianza necesitamos saber la E(x
2
):
E(x
2
) =

i=0
i
2
.P(i) =

i=1
i
2
.P(i)
=

i=2
i.(i 1).P(i) +

i=0
i.P(i)
. .
E(x)
=
2.(1 p)
p
2
+
1
p
(15)
=
2 p
p
2
(15)

i=2
i.(i 1).P(i) = p.(1 p).

i=2
i.(i 1)(1 p)
i2
= p.(1 p).
d
2
dp
2
_

i=2
(1 p)
i
_
= p.(1 p).
d
2
dp
2
_
_

i=0
(1 p)
i
_
(1 p) 1
_
= p.(1 p).
d
2
dp
2
_
1
p
2 +p
_
= p.(1 p).
d
dp
_
1
p
2
+ 1
_
= p.(1 p).
_
2
p
3
_
=
2.(1 p)
p
2
V (x) = E(x
2
) E(x)
2
=
1 p
p
2
2.2. Variables Aleatorias Continuas
2.2.1. Distribucion uniforme
Una variable aleatoria X sera uniforme si su funcion de distribucion acumu-
lada esta dada por:
F(x) =
_
_
_
0 si x a
xa
ba
si x (a, b)
1 si x b
con a < b
22
Proposicion
a < b sea Y = (b a).X +a con X U(0, 1) entonces:
Y U(a, b)
E(Y ) =
_
a+b
2
_
V (Y ) =
(ba)
2
12
2.2.2. Distribucion Normal
f(x) =
1

2
e
(x)
2
2
2
: x R
E(x) =

((t ) +) .f(t) dt (16)


=

(t ).f(t) dt +

.f(t) dt
=

(t )
1

2
2
e
(
t

)
2
1
2
dt +.

f(t) dt
=
1

_
t

_
.e
(
t

)
2
1
2
dt + (17)
= (18)
(16) Sumo y resto
(17) Ya que

f(t) dt = 1
(18)
1

_
t

_
e
(
t

)
2
1
2
dt = 0
23
V (x) =
2
V (x) = E(x )
2
=

_
x

_
2
.

2

2..
2
.e
(
x

)
2
1/2
dx
=

y
2

2

2.
.e

y
2
2
dy (19)
=

2

2.

y
2
.e

y
2
2
dy
=

2

2.
_
_
y.e

y
2
2
|

y
2
2
dy
_
_
=
2
_
_
1

2.

y
2
2
_
_
(20)
=
2
(19) Tomo y =
x


dy
dx
=
1

(20) y.e

y
2
2
|

= lm
y
y
e
y
2
2
+ lm
y
y
e
y
2
2
= 0
2.2.3. Distribucion exponencial
1. f

(x) = e
x
2. E(x) =
1

y la V (x) =
1

2
3. F(x) = P[X x] =
+
_

f(t) dt
Si x 0 F(x) = 0
Si x > 0 F(x) =
x
_
0
.e
.t
dt
= e
.t
|
x
0
= e
.x
+ 1
Luego F(x) =
_
1 e
.x
si x > 0
0 en caso contrario
24
4. Propiedad de falta de memoria
P(x t +t
0
|x t
0
) = P(x t)
P(x t +t
0
|x t
0
) =
P ((x t +t
0
) (x t
0
))
P(x t
0
)
=
P(x t +t
0
)
P(x t
0
)
=
1 F(t +t
0
)
1 F(t
0
)
=
1 (1 e
(t+t0)
)
1 (1 e
.t0
)
=
e
(t+t0)
e
.t0
= e
.t
= 1 (1 e
.t
)
= P(x t)
2.2.4. Distribucion de Mnimo de Exponenciales
Sean X
1
, . . . , X
n
V.A. independientes con funcion de distribucion acumulada
F
1
, . . . F
n
y sea M = mn
1in
{X
1
, X
2
, . . . , X
n
}.
1 F
M
= P(M > x)
= (1 F
1
(x)) (1 F
2
(x)) . . . (1 F
n
(x))
Si X
i
(
i
) entonces:
1 F
x
(x) = e
1x
e
2x
. . . e
nx
= e

_
n

i=1
i
_
x
M (
1
+. . . +
n
)
3. Teorema Central del lmite
Sean X
1
, . . . , X
n
variables aleatorias identicamente distribuidas, con media
y varianza
2
entonces:
lm
n
P
_
x
1
+. . . +x
n
n

n
< x
_
= (x)
25
Ejemplo: supongamos que un programa suma n umeros aproximando cada
sumando al entero mas proximo. Si todos los errores son independientes entre
s y estan distribuidos uniformemente entre (0,5; 0,5) y se suman 1500 n umeros
A lo sumo cuantos n umeros pueden sumarse juntos para que la magnitud del
error total se mantenga menor que 10 con probabilidad 0,9?
Cada error cometido es una variable aleatoria
k
U[0,5; 0,5]
E(
k
) =
0,5+0,5
2
= 0
V (
k
) =
_
0,5(0,5)
_
2
12
=
1
12
Denamos S
n
=
n

k=1

k
, entonces deseamos encontrar el n mas grande para
el cual:
0,9 = P
_
|S
n
| < 10
_
Usando el T.C.L Sabemos que
[S1500nE[]]

nV ar()
N(0, 1)
P
_
|S
n
| < 10
_
= P
_
10 nE()
_
(nV ar()

S
n
nE()
_
(nV ar()

10 nE()
_
(nV ar())
_
= P
_
10
_
n
12
Z
10
_
n
12
_
= 1 2 P
_
Z
10
_
n
12
_
P
_
Z
10
_
n
12
_
= 0,05

10
_
n
12
= 1,65 n =
10
2
12
(1,65)
2
= 440,7
Ejemplo
Suponga que se tienen 100 lamparas de un cierto tipo, cuya duracion puede
modelarse como una variable aleatoria exponencial de parametro = 0,002.
Si la duracion de cada lampara es independiente de la duracion de las otras,
encuentre la probabilidad de que el promedio muestral:
T =
T
1
+. . . +T
100
100
se encuentre entre 400 y 550 horas.
Como n es 100 podemos suponerlo sucientemente grande y aproximar la
distribucion del promedo por una normal.
Entonces la esperanza y la varianza de S
n
= T
1
+. . . +T
n
son:
E(S
n
) = E(T
1
+. . . +T
100
) = 100E(T
1
) =
100
0, 002
= 50000
26
V ar(S
n
) = V ar(T
1
+. . . +T
100
) = 100V ar(T
1
) =
100
0, 002
2
P
_
400
T
1
+. . . +T
100
100
550
_
= P
_
40000 T
1
+. . . +T
100
55000
_

_
55000 E(S
n
)
_
V ar(S
n
)
_

_
40000 E(S
n
)
_
V ar(S
n
)
_
=
_
55000 50000
5000
_

_
40000 50000
5000
_
= (1) (2)
= 0,8413 0,0228 = 0,8185
4. Esperanza condicional y Varianza Condicional
E[x|Y = y] =

x
x P{X = x|Y = y}
=

x
x P{X = x, Y = y}
P{Y = y}
Similar si X es una V.A. Continua
E[x|Y = y] =
_
x
x f(x, y)dx
_
x
f(x, y)dx
Propiedades:
E
_
E
_
x|y

_
= E[x]
Denicion: sean X e Y V.A. se dene la varianza condicional de X dado
el valor de y como:
V
_
x|y

= E
_
_
x E[x|y]
_
2
|y
_
V
_
x|y

= E(x
2
|y) (E(x|y))
2
V ar(x) = E[V ar(x|y)] +V ar(E(x|y))
V ar(E(x|y)) = E[(E(x|y))
2
] + (E(x|y))
2
E(V ar(x|y)) = E[x
2
] E[(E(x|y))
2
]
27
Ejemplo: una rata esta encerrada en el centro de un laberinto con 3 posibles
salidas o corredores, A, B, C que llevan al interior del laberinto donde hay una
celda con comida. La rata tiende a elegir la puerta de su derecha (A) la mitad de
las veces. Mientras que la otra mitad de las veces elige B o C sin distinguirlas.
Ahora, si elige la puerta A tarda 2 minutos en encontrar la celda con comida, si
elige la puerta B tarda 3 minutos y si elige la puerta C da vuelta por el laberinto
durante 5 minutos.
Sea T el tiempo en que tarda la rata en encontrar su comida.
Encuentre la esperanza de T.
Sea exito elegir la salida A o B y sea

C la variable aleatoria que mide la
cantidad de veces que se elige la salida C hasta que por n se elige A o B.
Entonces

C es geometrica de parametro
3
4
Sea T el tiempo que tarda en encontrar la salida.
T =
_
2 + 5

C si se elige

C veces la puerta C y luego la A
3 + 5

C si se elige

C veces la puerta C y luego la B
Sea D la variable aleatoria que es 1 si se eligio la puerta A, 0 si se eligio la
puerta B.
E(T) = E
_
E(T|D)
_
= E(T|D = 0) P(D = 0) +E(T|D = 1) P(D = 1)
=
_
2 + 5 E(

C)
_

2
3
+
_
3 + 5 E(

C)
_

1
3
= 4
28
5. Procesos de Poisson
Procesos estocasticos
Un proceso estocasctico es una sucesion de variables aleatorias observadas
sobre el mismo espacio muestral.
Ejemplo: supongamos tener una pieza de materia radioactivo, el experimento
consiste en observar, cuantas partculas se desintegran en un intervalo de tiempo,
y el tiempo que tarda en desintegrarse cada partcula. El n umero de partculas
que se desintegran en [0, t] es una variable aleatoria N(t) y el tiempo en que
se desintegra la n-esima partcula D
n
tambien es una variable aleatoria. La
coleccion de variables forman procesos estocasticos relacionados.
Ejemplo: consideremos llamadas telefonicas que llegan a una central telefonica
y sea D
n
el tiempo en que la n-esima llamada ingresa a la central y N(t) el
n umero de llamadas que ingresan en un intervalo de tiempo [0, t].
5.1. Homogeneos
Supongamos que ocurren ciertos eventos en instantes aleatorios y sea N(t)
el n umero de eventos que ocurren en el intervalo de tiempo [0, t]. Estos eventos
constituyen un proceso de Poisson homogeneo con razon : > 0 si:
1. Para cada t, N(t) es una variable aleatoria discreta que toma valores
enteros positivos.
2. N(0) = 0 (El proceso comienza en 0).
3. Incrementos Independientes: para cada n 1 y cada particion
0 t
0
< t
1
< . . . < t
n
N(t
0
), N(t
1
) N(t
0
), . . . , N(t
n
) N(t
n1
)
son variables aleatorias independientes. Es decir el n umero de eventos que
ocurren en intervalos de tiempo distintos son independientes.
4. Incrementos Estacionarios: para cada t 0, s > 0 se cumple que la
distribucion de N(t +s) N(t) es igual a la de N(s). Es decir, la distribu-
cion de eventos que ocurren en un intervalo dado dependen solamente de
la longitud del intervalo y no de su posicion.
5. lm
h0
P[N(h)=1]
h
= si tomo un intervalo sucientemente peque no la proba-
bilidad de ver ese evento es .
6. lm
h0
P[N(h)2]
h
= 0 si tomo un intervalo sucientemente peque no la proba-
bilidad de ver 2 o mas eventos es 0.
29
Incrementos Independientes
N(t
1
) : n umero de llegadas hasta t = t
1
.
N(t
n
) N(t
n1
) : n umero de llegadas entre t
n1
y t
n
.
Quiere decir que en dos intervalos de tiempo disjuntos, las variables n umero
de llegadas son independientes.
Incrementos Estacionarios
La distribucion del n umero de llegadas depende solo de la longitud del
intervalo.
N(s) N(t +s) N(t), s < t.
1. N(t) P( t)
Supongamos que N(t) es el n umero de llegadas en el intervalo [0, t], que
forma un proceso de Poisson de tasa . Entonces, la distribucion de cada
N(t) es Poisson de tasa t.
Demostracion:
Para probarlo, dividamos el intervalo en n pedazos, cada uno de largo
t
n
, continuos y disjuntos.
30
Contemos cuantos de estos subintervalos contienen un evento.
Por hipotesis de ser un proceso de Poisson:
El n umero de eventos que ocurre en cada subintervalo es inde-
pendiente.
El n umero de eventos solo depende del largo del intervalo.
Por lo tanto en cada subintervalo, el n umero de llegadas en una V.A.
Bernoulli, con p =
t
n
.
En n umero total de llegadas en [0, t] es el n umero de subintervalos
que contienen una llegada.
La independencia de los subintervalos implica que el n umero total de
llegadas: N(t) es una V.A. binomial de parametros
_
n, p =
t
n
_
Proposicion
Como la B(n, p) converge a la Poisson cuando n entonces tenemos
una Poisson con media t.
Prueba:
Cuando n tiende a innito, tenemos que:
P
N(t)
(k) lm
n
_
n
k
_
_
t
n
_
k
_
1
t
n
_
nk
= lm
n
n(n 1) . . . (n k + 1)
k!
_
t
n
_
k
_
1
t
n
_
nk
= lm
n
(t)
k
k!
_
1
t
n
_
n

n(n 1) . . . (n k + 1)
n
k
_
1
t
n
_
k
=
(t)
k
k!
lm
n
_
1
t
n
_
n
_
1
t
n
_
k
_
1
1
n
__
1
2
n
_
. . .
_
1
k 1
n
_
Observando que:
lm
n
_
1
t
n
_
n
= e
t
31
y que los otros terminos a la derecha del limite, tienen limite 1, se obtiene
que:
P
N(t)
(k) =
(t)
k
k!
e
t
Donde t, es la constante que supusimos que existe, es la tasa de llegadas
en el intervalo [0, t].
N(t) P(t)
2. X
n
el tiempo entre el registro del n-esimo evento y el anterior, es expo-
nencial de tasa .
D
n
: tiempo en que ocurre el evento n-esimo.
X
1
: tiempo transcurrido hasta el primer evento.
X
j
= D
j
D
j1
: tiempo transcurrido entre el (j 1)-esimo evento
y el j-esimo, para j > 1.
{X
j
} es la sucesion de tiempos entre llegadas
Proposicion: las variables aleatorias X
1
, X
2
, . . . son V.A. independientes
igualmente distribuidas, con distribucion exponencial de parametro .
X
i
() : i = 1, 2, . . .
Para probar esto veamos que:
X
1
es una variable aleatoria exponencial de parametro
P(X
1
> t) = P(N(t) = 0) = e
t
P(X
2
> t|X
1
= S)
?
=
P(X
2
> t|X
1
= S) = P
_
0 eventos en (s, s +t]|X
1
= s
_
= P
_
0 eventos en (s, s +t])
= e
t
X
2
() y es independiente de X
1
32
Sea s = s
1
+. . . +s
j1
: tiempo hasta el evento j 1.
P
_
0 eventos en (s, s +t]|X
1
= s
1
, . . . X
j1
= s
j1
_
= P(0 eventos en (s, s +t])
(21)
= e
t
(22)
(21) Por ser incrementos independientes.
(22) Por tener incrementos estacionarios.
Por lo cual la distribucion de cada una de las X
k
es exponencial y son
independientes.
3. D
n
(n, )
El tiempo hasta el n-esimo evento es D
n
=
n

j=1
X
j
, una suma de exponen-
ciales independientes de parametro , por lo cual tiene densidad:
f
n
(t) = e
t
(t)
n1
(n 1)!
es una Gamma de parametros (n, ).
5.1.1. Proceso de Poisson, No Homogeneo
N(t), t 0 es un proceso de Poisson no Homogeneo con funcion de intensidad
(t), t 0 si:
N(0) = 0
Para cada n 1 ycada particion 0 t
0
< t
1
< . . . < t
n
. Se tiene
que N(t
0
), N(t
1
) N(t
0
), . . . , N(t
n
) N(t
n1
) son variables aleatorias
independientes. Es decir, los n umeros de eventos que ocurren en intervalos
de tiempos ajenos son independientes.
lm
h0
P[exactamente un evento en[t,t+h]]
h
= lm
h0
P
_
[N(t+h)N(t)]=1
_
h
= (t)
lm
h0
P[dos o mas eventos entre t y t+h]
h
= lm
h0
P
_
[N(t+h)N(t)]2
_
h
= 0
33
5.1.2. Valor medio del P.P. no Homogeneo
Proposicion: para cada t 0 y s > 0 se tiene que N(t + s) N(t) es una
variable aleatoria Poisson con media:
m(t +s) m(t) =
t+s
_
t
(x)dx
Corolario: Si (t) = (es constante), N(t+s)N(t) es una variable aleatoria
Poisson con media t.
5.2. Poisson Homogeneo y Poisson no Homogeneo
Supongamos que:
Existe eventos del tipo A y eventos del tipo B.
Independientemente de lo que ocurrio antes, si ocurre un evento del tipo
A entoces ocurre uno del tipo B con probabilida p(t).
N(t) = n umero de eventos del tipo A en [0, t].
M(t) = n umero de eventos del tipo B en [0, t].
Proposicion: Si N(t)
t0
es un Proceso de Poisson homogeneo con razon >
0 entonces M(t)
t0
es un proceso de poisson no homogeneo con funcion de
intensidad (t) = p(t) t > 0.
El proceso M(t) cumple con las condiciones de comenzar en el cero, tener
incrementos independientes y probabilidad nula de observar instantaneamente
mas de un evento.
Para ver la tasa instantanea de observar un evento.
P(1 evento del tipo B en [t,t+h]) = P(1 evento y es de tipo B)
+P(dos o mas eventos y exactamente uno es de tipo B)
hp(t)
34
6. Generadores de N umeros Aleatorios
Para que se utilizan?
Simulacion.
Muestreo.
Analisis numerico.
Testeo de programas.
Juegos de azar.
Toma de decisiones.
Secuencias de n umeros aleatorios
En simulacion las secuencias con distribucion uniforme en [0, 1] se utilizan:
En forma directa.
Para generar distribuciones discretas y continuas.
Para generar valores de variables aleatorias dependientes.
Antes de las computadoras, existieron diferentes metodos para generar se-
cuencias de n umeros aleatorios:
Procedimientos fsicos (monedas, dados, bolilleros, . . . ).
(1927) Tipett: tabla de 40000 dgitos aleatorios (no resultaron con dis-
tribucion uniforme).
(1939) Kendall y Babbington: dispositivo mecanico. Tabla de 100.000
n umeros aleatorios.
(1955) Rand Corporation: ruido electronico. Tabla de 1 millon de n umeros
aleatorios.
6.1. Inconvenientes de metodos fsicos
1. No puede repetirse una misma secuencia.
2. No hay velocidad computacional.
3. Incorporar una tabla a la computadora implica gran costo de almace-
namiento en relacion a la cantidad de n umeros.
Con la aparicion de las computadoras, surgen metodos de generacion de
secuencias de n umeros aleatorios.
35
6.2. Propiedades deseables de un generador
Aleatorio: Distribucion uniforme
Un generador de n umeros aleatorios razonable debe cumplir:
1. Repetibilidad: al repetir los parametros del generador, se repite la se-
cuencia.
2. Portabilidad: la secuencia no debe depender del lenguaje computacional
ni de la computadora utilizada.
3. Velocidad computacional: puede ser conveniente utilizar lenguajes de
bajo o medio nivel.
6.3. Principios generales de un buen generador
La secuencia generada debe ser intuitivamente aleatoria.
Esa aleatoriedad debe ser establecida teoricamente o, al menos, debe pasar
ciertos tests de aleatoriedad.
Debe conocerse algo sobre las propiedades teoricas del generador.
Secuencia de von Neumann (1946):
1. X
0
: n umero de 5 dgitos. (03001)
2. X
2
i
: escrito con diez dgitos. (0009006001)
3. X
i+1
: 5 dgitos centrales. (09006)
4. Volver a 2.
3001, 9006, 81108, 78507, 63349, 13095, 71479, 92474, 5144021000, 41000, 81000, 61000, 21000...
Con 4 dgitos: 3792, 3792, 3792, 3792, . . .
Desventajas del Gen. de von Neuman
1. No se conocen propiedades teoricas del generador: (semilla conveniente,
n umero de dgitos en cada termino).
2. Forsythe: (con 4 dgitos) De 16 semillas, 12 degeneraban en 6100, 2100,
4100, 6100,.... y 4 degeneraban en 0.
3. Metropolis: secuencias de 20 bits degeneran en uno de 13 ciclos, con lon-
gitud maxima 142.
4. En algunos casos el primer tramo es satisfactoriamente aleatorio y luego
degenera.
36
6.4. Generador congruencial lineal
y
i
= ay
i1
+c mod M : i 1
x
i
=
yi
M
Secuencia en el [0, 1).
y
0
: semilla.
a: multiplicador.
M: modulo.
c: incremento.
generador mixto: c = 0.
generador multiplicativo: c = 0.
Ejemplo:
Y
i
= 5Y
i1
+ 1 mod 16 : y
0
= 0
Propiedades:
El menor n umero k tal que y
n+k
= y
n
es el perodo de la secuencia.
Todo generador congruencial genera secuencias de perodo nito.
El perodo de una secuencia esta acotado por M.
Repetibilidad y Portabilidad!
6.4.1. Eleccion de a, c y M
Las buenas propiedades dependen de una eleccion apropiada de a, c y M, y
en algunos casos y
0
.
La eleccion de M se relaciona con: longitud de la secuencia y velocidad
computacional.
La eleccion de a y c, en funcion de M, se relacionan con la aleatoriedad.
6.4.2. Generadores Mixtos (c = 0)
y
i+1
= ay
i
+c mod M, c = 0
Tiene perodo M si y solo si
1. m.c.d.(c, M) = 1.
2. a 1 mod p, para cualquier factor primo p de M.
3. Si 4|M, entonces a 1 mod 4.
Corolario: Si M es primo, el perodo maximo ocurre solo si a = 1.
37
6.4.3. Generadores multiplicativos
a es raz primitiva de M si a
(M1)/p
1 mod (M) para cualquier factor
primo p de M 1.
Ejemplo: M = 7.
a = 2 a = 3
2
1
2 mod 7 3
1
3 mod 7
2
2
4 mod 7 3
2
2 mod 7
2
3
1 mod 7 3
3
6 mod 7
2
4
2 mod 7 3
4
4 mod 7
2
5
4 mod 7 3
5
5 mod 7
2
6
1 mod 7 3
6
1 mod 7
2
7
2 mod 7 3
7
3 mod 7
Para un generador multiplicativo y
i+1
= ay
i
mod M, la longitud K de la
secuencia verica:
Si K = M 1 entonces M es primo.
K divide a M 1.
K = M 1 si y solo si a es raz primitiva de M.
Problema: Encontrar races primitivas.
Propiedad util: Si a es raz primitiva y (k, M 1) = 1, entonces a
k
es raz
primitiva.
Un ejemplo con M primo: M = 2
31
1, a = 16807
M 1 = 2
31
2 = 2 3
2
7 11 31 151 331
M: es un primo de Mersenne.
7: raz primitiva, (5, M1) = 1, implica que 7
5
= 16807 es raz primitiva.
Secuencia de longitud maxima: M 1 = 2147483646.
6.4.4. Modulo potencia de 2
Si M = 2
k
, c = 0, tomar modulo es computacionalmente sencillo.
y
j
= a
j
y
0
mod (2
k
)
Secuencia de longitud maxima = 2k 2 , para a raz primitiva.
Facilita calculos (desplazamiento de bits).
Fenomeno de no aleatoriedad en bits menos signicativos.
RANDU: M = 2
31
, a = 2
16
+ 3 = 65539.
38
Desventaja de un generador congruencial
En una secuencia y
1
, y
2
, . . . dada por un generador congruencial cualquiera,
los puntos: (y
j
, y
j+1
, . . . , y
j+k1
), j = 0, 1, 2, . . . estan ubicados en no mas de
(k!M)
1/k
hiperplanos paralelos.
Cota maxima: (k!M)
1/k
: estructura de red.
Generador RANDU: ternas ubicadas en 15 planos paralelos.
6.4.5. Generadores Portables
a = 7
5
= 16807
M = 2
31
1 = 2147483647
Buen generador.
Las multiplicaciones superan el rango de 32 bits.
Algoritmo de Schrage
M = aq +r
q = [M/a], r = M mod a
Si r < q y 0 < z < M 1 se puede probar que para todo z, 0 < z < M:
0 a(z mod q) M 1
39
0 r[z/q] M 1
az mod M =
_
a(z mod q) r[z/q] si es 0
a(z mod q) r[z/q] +M c.c.
El generador ran
0
y
j+1
= ay
j
mod M
a = 7
5
= 16807, M = 2
31
1 = 2147483647
Schrage: se utiliza q = 127773 y r = 2836
Desventajas:
40
Sucesiones de n umeros muy peque nos.
Inconvenientes en el plano: (y
i
, y
i+1
): el test
2
falla para N O(10
7
)
M 2
6.5. Shuing
Se almacenan los ultimos valores generados en una tabla, y la salida se
obtiene eligiendo aleatoriamente un elemento de dicha tabla y reponiendolo por
un nuevo valor generado.
6.5.1. El generador ran
1
a = 7
5
= 16807, M = 2
31
1 = 2147483647
Tabla de 32 posiciones.
Figura 1: ran
1
6.6. Combinaci on de generadores
Teorema
Sean W
1
, W
2
, . . . , W
n
variables aleatorias discretas, tales que:
W
i
U([0, d 1]) W =
_
n

j=1
W
j
_
mod (d)
es una v.a. uniforme discreta en [0, d 1].
Ejemplo: tirar 2 dados, y sumar modulo 6.
41
6.6.1. Combinacion de congruenciales
Combinar secuencias de generadores congruenciales.
Sugerencia: restar.
Se obtiene un generador de v.a. uniformes.
La longitud de la secuencia es mayor = mnimo com un m ultiplo de los gen-
eradores.
x
n
= 40014x
n1
mod 2
31
85
y
n
= 40692y
n1
mod 2
31
249
El 2 es el unico factor com un.
Perodo 2 3 10
18
6.6.2. El generador ran
2
Utiliza 2 generadores congruenciales de enteros de 32 bits.
Tabla de 32 posiciones: shuing.
Salida = combinacion de x e y .
G
1
x
n
= 40014x
n1
mod 2
31
85
G
2
y
n
= 40692y
n1
mod 2
31
249
6.6.3. El generador ran
3
Ver en Knuth, Seminumerical Algorithms, seccion 3.2.1.
Se construye inicialmente una tabla de 55 posiciones, con n umeros aleatorios.
i y j recorren cclicamente la tabla, separados por 24 posiciones.
Salida: diferencia entre los elementos i y j, que reemplaza a su vez el lugar
i.
El ciclo que se obtiene es de longitud 2
32
.
42
Figura 2: ran
2
Figura 3: ran
3
6.7. Marsaglia - Zaman
Some portable very-long-period random number generators, George Marsaglia
and Arif Zaman.
Sugerencias sobre otros generadores.
Fibonacci.
Resta con prestamo.
Suma con acarreo.
El generador mzran2
Consideraciones sobre ran
2
La combinacion de generadores produce mejoras. Sin embargo, conviene com-
binar estructuras diferentes.
Utilizar modulo 32 bits en lugar de 31 bits.
43
Utilizar primos seguros (safeprimes), con a = 2
k
+.
2
31
69
2
32
1409
2
31
535
2
32
209
Por que no un rango de enteros?
La subrutina iran
2
()
UNI() = ,5 +,232830E 9 iran2()
V NI() = ,4656613E 9 iran2()
Algunos ejemplos
Modulo Secuencia Perodo
2
32
x
n
= 69069x
n1
+impar 2
32
2
32
x
n
= x
n1
x
n2
2
31
2
32
x
n
= x
n1
+x
n2
+C 2
58
2
31
69 x
n
= x
n3
x
n1
2
62
2
32
18 x
n
= x
n2
x
n3
C 2
95
6.8. El generador mzran()
Combina los generadores:
x
n
= 69069x
n1
+ 1013904243 mod 2
32
Perodo: 2
32
x
n
= x
n3
x
n1
mod 2
31
69
Perodo: 2
94
El perodo es mayor a 2
94
, o 10
28
.
6.9. El generador mzran13()
Combina los generadores:
x
n
= 69069x
n1
+ 1013904243 mod 2
32
Perodo: 2
32
x
n
= x
n2
x
n3
c

mod 2
32
18
Perodo: 2
9
5
El perodo es del orden de 2
125
, o 10
36
.
44
6.9.1. Codigo de mzran13()
1 typedef unsigned long i nt unl ong ;
2
3 unl ong x=521288629 , y=362436069 , z =16163801 , c=1, n=1131199209;
4
5 unl ong mzran13 ( void) {
6 long i nt s ;
7 i f ( y>x+c ) {
8 s=y(x+c ) ;
9 c =0;
10 }
11 el se {
12 s=y(x+c ) 18;
13 c =1;
14 }
15 x=y ;
16 y=z ;
17 return ( z=s ) + ( n=69069n+1013904243) ;
18 }
19
20 void r an13s et ( unl ong xx , unl ong yy , unl ong zz , long nn) {
21 x=xx ;
22 y=yy ;
23 z=zz ;
24 n=nn ;
25 c=y>z ;
26 }
45
7. Integraci on por el metodo de Monte Carlo
El metodo de Monte Carlo es un procedimiento general para seleccionar
muestras aleatorias de una poblacion utilizando n umero aleatorios.
La denominacion Monte Carlo fue popularizada por los cientcos Stanislaw
Ulam, Enrico Fermi, John Von Neumann y Nicholas Metropolis, entre otros,
quienes ya trabajaban sobre muestre estadstico.
Hace referencia al casino de MonteCarlo en Monaco.
Aplicacion en calculos matematicos
Este metodo se utiliza para calcular numericamente expresiones matematica-
mente complejas y difciles evaluar con exactitud, o que no pueden resolverse
analticamente.
Algunos ejemplos son:
Calculo de integrales denidas.
Aproximaciones al valor de .
Calculo de integrales denidas
Se tienen en cuenta los siguiente resultados:
Si X es una variable aleatoria con densidad f y g : R R es una funcion,
entonces el valor esperado de la variables aleatoria g(x) es:
E[g(x)] =

g(x)f(x)dx
Ley fuerte de los grandes n umeros: si X
1
, X
2
, . . . es una sucesion de Vari-
ables aleatorias independientes identicamente distribuidas, todas con me-
dia entonces:
lm
n
X
1
+X
2
+. . . +X
n
n
=
7.1. Integraci on en (0,1)
Sea g(x) queremos calcular : =
1
_
0
g(x)dx
Observar que si U esta uniformemente distribuida (0, 1) = E[g(U))]
Si U
1
, . . . , U
k
son V.A. independientes identicamente distribuidas uniformes
en (0, 1) g(U
1
), . . . , g(U
k
) son V.A. independientes con media
Por la ley fuerte de los grande n umeros se tiene con probabilidad 1.
k

i=1
g(U
i
)
k

k
E
_
g(U)

=
Podemos aproximar generando k uniformes en el (0, 1), evaluandolas en
g, y sacando su promedio.
46
g(x) = (1 x
2
)
3/2
Figura 4: n = 20,

Area=0.5019617835
Figura 5: n = 100,

Area= 0.4946866190
Analticamente queremos calcular:
=
1
_
0
g(x)dx =
1
_
0
(1 x
2
)
3/2
dx
Comenzamos usando la sustitucion:
x = sen()
dx = cos()d
47
Figura 6: n = 300,

Area=0.6067846103
1
_
0
(1 x
2
)
3/2
dx =
1
_
0
(1 (sin()
2
)
3/2
cos()d
=
1
_
0
(cos()
2
)
3/2
cos()d
=
1
_
0
(cos())
4
d
Aplicando las formulas trigonometricas:
cos()
2
=
1+cos(2)
2
(1)
cos(2)
2
=
1+cos(4)
2
(2)
Se puede reducir la integral a intregrales de terminos constantes y terminos
de cosenos.
_
cos()
4
d =
_
_
1 + cos(2)
2
_
2
=
_
1
4
d +
_
1
4
cos(2)
2
+
_
1
2
cos(2)d
Se vuelve a aplicar la relacion trigonometrica (2) al segundo termino, las
otras dos son inmediatas.
_
cos(2)
2
=
_
1 + cos(4)
2
d
48
Nos queda:
_
cos()
4
d =
_
1
4
d +
_
1
4
_
1 + cos(4)
2
_
d +
_
1
2
cos(2)d
Las cuales son inmediatas aplicando que:
_
cos(a)d =
sen(a)
a
Analticamente:
1
_
0
g(x)dx =
3
8

2
+
1
4
sen() +
1
32
sen(2)
=
3
16
0,5890486226
Por Monte Carlo:
n Aproximacion
20 0.5019617835
100 0.4946866190
300 0.6067846103
1000 0.5959810476
10000 0.5895682376
7.2. Integraci on en (a,b)
Sea g(x) queremos calcular : =
b
_
a
g(x)dx : a < b
Entonces al hacer la sustitucion y =
(xa)
(ba)
dy =
dx
ba
vemos que:
=
b
_
a
g(x)dx
=
1
_
0
g
_
a + [b a] y
_
(b a)dy
=
1
_
0
h(y)dy
Donde h(y) = (b a) g(a + [b a] y)
49
Figura 7: g(x) = e
x+x
2
en (-1,1)
Figura 8: g(x) = sen(x) en (0, 2)
Figura 9: g(x) = cos(x) en (, 3)
50
7.3. Integraci on en (0, )
Sea g(x) queremos calcular : =

_
0
g(x)dx
Entonces al hacer la sustitucion y =
1
(x+1)
dy =
dx
(x+1)
2
= y
2
dx
Vemos que: =
1
_
0
h(y)dy donde h(y) =
g(
1
y
)1
y
2
Si usamos el siguiente cambio de variables:
y = 1
1
x + 1
dy = (y 1)
2
entonces la tranformacion esta dada por una funcion creciente y : [0, ] [0, 1).
Se tiene entonces los siguientes gracos:
Figura 10: g(x) = e
x
Figura 11: g(x) =
1
2+x
2
51
Figura 12: g(x) =
x
(1+x
2
)
2
7.4. Integraci on en (, )
Para resolverla tenemos que identicar la paridad de la funcion
1. Si la funcion es par, la integral en el rango (, ) es dos veces la
integran el (0, )

f(x)dx = 2

_
0
f(x)dx
2. Si la funcion no es par, entonces debo partir el rango en:
(0, ) y hacer el cambio de variables al [0, 1]
(, 0) por ejemplo mandar al (0, ) usando el negatico de la fun-
cion y luego mandarla al [0, 1] con un cambio de variables:
0
_

f(x)dx =

_
0
f(x)dx =
1
_
0
f((
1
x
1))
x
2
dx =
1
_
0
f(1
1
x
)
x
2
dx
7.5. Integrales M ultiples
El metodo de Monte Carlo para el calculo de integrales en una variable no
es muy eciente, comparado con otros metodos numericos que convergen mas
rapidamente al valor de la integral.
Pero s cobra importancia en el caso del calculo numerico de integrales m ulti-
ples:
=
1
_
0
. . .
1
_
0
g(x
1
, . . . , x
n
)dx
1
, . . . , dx
n
52
Utilizamos el hecho de que:
= E[g(U
1
, . . . , U
l
)]
con U
1
, . . . , U
l
independientes y uniformes en (0, 1)
Si:
U
1
1
, . . . , U
1
l
U
2
1
, . . . , U
2
l
.
.
.
U
n
1
, . . . , U
n
l
Son n muestras independientes de estas l variables. Podemos estimar:

n

i=1
g(U
i
1
, . . . , U
i
l
)
n
Figura 13: g(x, y) = e
(x+y)
en (0, 1) (0, 1)
53
7.5.1. Calculo aproximado del valor de
Una aplicacion a las integrales m ultiples es el calculo del valor de .
Recordemos que el area de un crculo de radio r es r
2
y por lo tanto
esta dada por la integral:
1
_
0
1
_
0
I
{x
2
+y
2
<1}
(x, y)dxdy
Si X e Y son V.A.i.i.d en (1, 1) ambas con densidad: f(x) =
1
2
en (1, 1)
entonces su densidad conjunta sera:
f(x, y) = f(x) f(y) =
1
4
en (0, 1) (0, 1)
Por lo tanto (x, y) es un vector uniforme en (0, 1) (0, 1).
Si U
1
, U
2
U(0, 1) X = 2U
1
1, Y = 2U
2
1 verican x, y U(1, 1)
I =
_
1 Si x
2
+y
2
1
0 c.c.
E[I] = P(x
2
+y
2
1) =

4
1 GenerarPi ( ) {
2 Pi = 0;
3 for ( i =0 to n do) {
4 U = Uniforme ( ) ;
5 V = Uniforme ( ) ;
6 x = 2 U 1;
7 y = 2 V 1;
8 i f (x
2
+y
2
1) {
9 Pi++:
10 }
11 }
12 Pi = 4 Pi / n ;
13 return Pi ;
14 }
54
Figura 14: Simulacion del valor de
7.5.2. La aguja de Buon
Un problema planteado en el s. XVIII por Georges Louis Leclerc, conde de
Buon, fue la siguiente:
Se tienen rectas paralelas equidistantes entre s, y se arroja una aguja de
longitud mayor o igual a la distancia entre dos rectas.
Cual es la probabilidad que una aguja corte a una de las rectas?
55
t: la distancia entre las rectas.
l: la longitud de la aguja.
: la longitud del angulo agudo entre la aguja (o su prolongacion) y una
de las rectas.
x: es la distancia entre el punto medio de la aguja y la recta mas cercana.
x y son V.A. uniformes con distribucion f(x) y g()
f(x) =
2
t
, g() =
2

Una aguja cortara la recta si y solo si la distancia de su centro a una de las


rectas es menor que
l
2
sen() es decir x <
l
2
sen().
P(la aguja corte la recta) =
/2
_
0
l
2
sen()
_
0
2
t
2

dxd
P(la aguja corte la recta) =
2l
t
Tomando l = t obtenemos un aproximacion a
2

.
56
8. Generaci on de Variables aleatorias Discretas
Existen diversos metodos para generar v.a. discretas:
Transformada Inversa.
De aceptacion-rechazo, o metodo de rechazo.
De composicion.
Metodos mejorados seg un la distribucion.
8.1. Metodo de la transformada inversa
Supongamos que queremos generar una V.A. discreta X con probabilidad
de masa
P[X = x
j
] = p
j
: j = 0, 1, . . . , :

jJ
p
j
= 1
Para esto generamos un n umero aleatorio U en (0, 1) entonces:
Metodo de la transformada inversa
X =
_

_
x
0
si U < p
0
x
1
si p
0
U < p
0
+p
1
.
.
.
.
.
.
x
j
si
j1

i=1
p
i
U <
j

i=1
p
i
.
.
.
P(X = x
j
) = P(p
0
+. . . +p
j1
U < p
0
+. . . +p
j1
+p
j
) = p
j
F(x) = P(X x) : Funcion de distribucion acumulada
F es una funcion creciente, escalonada, que toma valores entre 0 y 1.
Si se ordenan los valores de la variable en forma creciente:
x
0
< x
1
< . . . < x
n
< . . .
Entonces:
F(x
j
) =
j

k=0
p
k
= p
0
+p
1
+. . . +p
j
57
Si la v.a. toma un n umero nito de valores, el algoritmo es el siguiente:
1 U = Uniforme ( ) ;
2 i f (U < p
0
) {
3 return x
0
4 }
5
6 i f (U < p
0
+p
1
) {
7 return x
1
8 }
9
10 i f (U < p
0
+p
1
+p
2
) {
11 return x
2
12 }
13
14
.
.
.
Si x
0
< x
1
< x
2
< . . . , entonces F(x
j
) =
j

i=0
p
i
, y por lo tanto
X = x
0
si U < p
0
= F(x
0
)
X = x
j
si F(x
j1
) U < F(x
j
)
58
Se trata de hallar el intervalo [F(x
j1
), F(x
j
)) donde se ubica U:
U [F(x
j1
), F(x
j
)) Transformada Inversa
Ejemplo: X = {1, 2, 3, 4}
p
1
= 0, 2
p
2
= 0, 15
p
3
= 0, 25
p
4
= 0, 4
1 i nt
2 Generar X ( ) {
3 U = Uniforme ( ) ;
4 i f (U < 0. 2) {
5 return 1;
6 }
7 i f (U < 0. 2 + 0. 15) {
8 return 2;
9 }
10 i f (U < 0. 2 + 0. 15 + 0. 25) {
11 return 3;
12 }
13 return 4;
14 }
8.1.1. Orden decreciente de p
i
Si se ordenan de manera decreciente las probabilidades de masa p
0
, p
1
, . . . ,
se puede obtener un algoritmo mas eciente:
1 i nt
2 Generar X ( ) {
3 U = Uniforme ( ) ;
4 i f (U < 0. 4) {
5 return 4;
6 }
7 i f (U < 0. 6) {
8 return 3;
9 }
10
11 i f (U < 0. 85) {
12 return 1;
13 }
14 return 2;
15 }
8.1.2. Generacion de una Uniforme Discreta
Si X U[1, n], entonces p
1
= p
2
= . . . = p
n
=
1
n
59
X = j si
j 1
n
U <
j
n
j 1 nU < j
X = nU + 1
siendo x la parte entera (inferior) de x.
Ejemplo
Generar una variable aleatoria discreta X , con distribucion uniforme en
[5, 15].
El intervalo [5, 15] contiene 11 n umeros enteros.
11 U es un entero en [0, 10]
11 U + 5 es un entero en [5, 15]
1 i nt
2 Generar X ( ) {
3 U = Uniforme ( ) ;
4 X = 11 U + 5 ;
5 return X
6 }
8.2. Generaci on de una permutacion aleatoria
Aplicacion: Generacion de permutaciones aleatorias equiprobables de un
conjunto de n elementos.
Tenemos un arreglo [1 . . . n]. Queremos lograr una de las n! permutaciones
al azar. Entonces aplicamos el siguiente algoritmo.
Elijo un n umero al azar de los n y lo sit uo en la posicion n.
Elijo un n umero al azar de los n 1 y lo sit uo en la posicion n 1.
Hasta que n = 0
Sea P
1
, P
2
, . . . , P
n
una permutacion de 1, 2, . . . , n.
1 // Permutacion aleatoria de P
1
, . . . , Pn
2 k = n ;
3 while ( k > 1) {
4 U = Uniforme ( ) ;
5 I = k U + 1 ;
6 i nt er cambi ar l o s val or e s de P
I
y P
k
;
7 k = k 1;
8 }
Ejemplo
Conjunto de 5 elementos: a, b, c, d, e.
k recorre el vector, de la posicion n = 5 hasta 2.
I: selecciona un elemento entre las posiciones 1 y k para intercambiar.
60
8.2.1. Subconjuntos aleatorios
Si el algoritmo anterior se ejecuta para k = n, n1, ..., n(r 1), se obtiene
un subconjunto aleatorio de cardinal r .
Si r > n/2, conviene tomar el complemento de un subconjunto aleatorio de
nr elementos.
Aplicaciones:
Tecnica del doble ciego.
Simulacion: Problema de las dos muestras.
8.2.2. Metodo alternativo de permutacion aleatoria
Otro metodo para generar una permutacion aleatoria de un conjunto de
tama no n consiste en:
1. Generar n n umeros aleatorios U
1
, U
2
, . . . , U
n
2. Ordenarlos: U
i1
< U
i2
< . . . < U
in
3. Utilizar los ndices de los valores ordenados para hacer la permutacion.
Ejemplo
Obtener una permutacion aleatoria de (a, b, c, d).
1. U
1
= 0, 4 ; U
2
= 0, 1 ; U
3
= 0, 8; U
4
= 0, 7.
2. Ordernarlos: U
2
< U
1
< U
4
< U
3
.
3. La permutacion es (b, a, d, c).
Desventaja: se requieren O(nlog(n)) comparaciones.
8.3. Calculo de promedio
Aproximaxion al valor de:
a =
n

i=1
a(i)
n
siendo que n >> 1.
61
Tomamos X uniforme en [1, n].
a(x) es una V.A. con media:
E[a(x)] =
n

i=1
a(i) P[x = i]
=
n

i=1
a(i)
n
= a
Generamos U
1
, U
2
, . . . , U
k
aleatorios en (0, 1), X
i
= nU
i
+ 1
Ley fuerte de los grandes n umeros:
a
k

i=1
a(X
i
)
k
: k grande
Ejemplo: Utilizar 100 n umeros aleatorios para aproximar:
S =
10000

i=1
e
i
10000
1 f l oat Promedio ( ) {
2 S = 0;
3 for ( i = 1 to 100) {
4 U = Uniforme ( ) ;
5 I = 10000 U + 1 ;
6 S = S + exp ( I /10000)
7 }
8 // En S t engo e l c al c ul o aproximado de l promedio
9 // l o mul t i pl i c o por 100 y t engo una estimacion de S
10 S = S 100;
11 return S ;
12 }
8.4. V.A. Geometrica
X es una V.A. geometrica con parametro p si
P[x = i] = p q
i1
: i 1, q = (1 p)
Tenemos que: F(j 1) = P(X j 1) = 1 P(X > j 1) = 1 q
j1
.
Usando metodo del a transformada inversa:
x = j si 1 q
j1
U < 1 q
j
q
j
< 1 U q
j1
62
Esto equivale a encontrar el menor j tal que q
j
< 1 U
X = mn{j : q
j
< 1 U}
Propiedades:
El logaritmo es una funcion creciente.
log(q) es negativo.
V = 1 U tambien es uniforme en (0, 1)
X = mn{j : q
j
< 1 U}
= mn{j : j log(q) < log(1 U)}
= mn
_
j : j >
log(1 U)
log(q)
_
=
_
log(1 U)
log(q)
_
+ 1
X =
_
log(V )
log(q)
_
+ 1
Generando U uniforme en (0,1) tenemos que X de la siguiente forma tambien
es geometrica de parametro p.
1 i nt
2 Geometri ca ( f l oat p) {
3 U = Uniforme ( ) ;
4 q = 1 p ;
5 X =

log(U)
log(q)

+ 1
6 return X ;
7 }
63
8.5. V.A. Poisson
X Poisson() p
i
= P(X = i) = e

i
i!
: i = 0, 1, . . .
Usando la fomula recursiva sabemos que:
P
i+1
=

i + 1
P
i
: i 0
Y se calcula usando la transformada inversa
1 i nt
2 Poi sson ( f l oat ) {
3 U = Uniforme ( ) ;
4 i = 0;
5 p = e

;
6 F = p ;
7 while (U F ) {
8 p =
p)
(i+1)
;
9 F = F + p ;
10 i = i + 1;
11 }
12 X = i ;
13 return X;
14 }
Inconvenientes del Algoritmo 1
El algoritmo chequea desde 0 en adelante hasta obtener el valor deseado.
El n umero de comparaciones es 1 mas que el valor generado.
El valor generado esperado es . Luego, el promedio de comparaciones es
+ 1.
Si >> 1 el algoritmo anterior realiza muchas comparaciones.
Para mejorar el algoritmo se utilizan las siguientes propiedades de la dis-
tribucion de Poisson:
Mejora al algoritmo 1
Usando la fomula recursiva sabemos que: P
i+1
=

i+1
P
i
: i 0
p
i+1
p
i
si y solo si

i+1
1, es decir, i + 1 .
El valor maximo de p
i
es p

, es decir, valores de i cercanos a .


64
1 i nt
2 Poi sson ( f l oat ) {
3 I = ;
4 Cal cul ar F ( I ) usando l a denicion r e c ur s i va de p
i
;
5 Generar U U(0, 1) ;
6 i f (U F ( I ) ) {
7 gener ar X haci endo b usqueda descendente .
8 }
9 i f (U > F ( I ) ) {
10 gener ar X haci endo b usqueda ascendente .
11 }
12 return X;
13 }
Algoritmo Mejorado
El promedio de b usquedas es
1 +E[|X |]
Si >> 1, X aproxima a una normal N(,

.
X

N(0, 1)
Promedio de b usquedas:
1 +

E
_
|X |

_
= 1 +

E[|Z|]
= 1 + 0,798

65
8.6. V.A. B(n,p)
p
i
= P(X = i) =
n!
i!(n i)!
p
i
(1 p)
ni
: i = 0, 1, . . . , n
Caso similar al de generacion de una v. a. Poisson. Conviene utilizar la
formula recursiva:
p
i+1
=
n i
i + 1
p
1 p
p
i
: 0 i < n
1 i nt
2 Bi nomi al ( i nt n , f l oat p) {
3 U = Uniforme ( )
4 C =
p
1p
5 i = 0
6 PR = (1 p)
n
7 F = PR
8 while (U F) {
9 PR = [
c(ni)
i+1
] PR
10 F = F + PR;
11 i = i + 1;
12 }
13 X = i ;
14 return X;
15 }
Inconvenientes del algoritmo
El algoritmo chequea desde 0 en adelante hasta obtener el valor deseado.
El n umero de comparaciones es 1 mas que el valor generado.
El promedio de comparaciones es np + 1.
Existen metodos alternativos mas ecientes:
Si p > 1/2, generar nB(n, 1p). (menor n umero de comparaciones).
Generar U
1
, . . . , U
n
, y contabilizar cuantas son menores que p. Es
menos eciente pues requiere n comparaciones.
Utilizar la sugerencia analoga para Poisson. (menor n umero de com-
paraciones).
Valor mas probable: i = np .
Promedio de b usquedas: 1 +
_
np(1 p)0,798.
66
8.7. Metodo de aceptaci on y Rechazo
Se desea simular una v. a. X discreta, con probabilidad de masa p
j
=
P(X = j), j = 0, 1, 2, . . .
Hipotesis: Se conoce un metodo eciente para generar una v.a. Y, con
probabilidad de masa q
j
= P(Y = j), j = 0, 1, 2, . . . , que verica
Si p
j
= 0 q
j
= 0
Existe una constante c (c > 1) tal que:
p
j
q
j
c para todo j tal que p
j
> 0
1 Aceptaci on y Rechazo ( ) {
2 do{
3 Si mul ar Y , con pr obabi l i dad de masa q
Y
;
4 U = Uniforme ( ) ;
5 }while ( U < p
Y
/cq
Y
) ;
6 X = Y
7 return X
8 }
8.7.1. Validez del metodo de Aceptacion y Rechazo
Teorema:
El algoritmo de aceptacion y rechazo genera una variable aleatoria X a
valores enteros no negativos tal que
P(X = j) = p
j
, j = 0, 1, . . .
Ademas, el n umero de iteraciones requeridas para obtener X es una v.a. ge-
ometrica con media c.
Demostracion
Sea X el valor generado por el algoritmo 1. Quiero ver que
P(X = j) = p
j
Observemos que
67
(X = j) (Y = j) y el algoritmo lo acepta en alguna iteracion:
P(X = j) =

k1
P(j es aceptado en la iteracion k)
(j es aceptado en la iteracion k) signica que hay k iteraciones donde:
1. en las k 1 primeras el algoritmo rechaza.
2. En la ultima, la k-esima, Y genera j y el algoritmo lo acepta.
P(j aceptado en la iteracion k) = P(algoritmo rechaza k 1 veces)P((Y = j) j es aceptado en la k)
= P(algoritmo rechaza)
k1
P((Y = j) j es aceptado)
(23)
(23) Por la independencia de las iteraciones
En una iteracion ja
Probabilidad de que el algoritmo acepte el valor j
P((Y = j) j es aceptado) = P(j es aceptado|(Y = j))P(Y = j)
=
p
j
cq
j
q
j
=
p
j
c
Probabilidad de que el algoritmo acepte en una iteracion
P( el algoritmo acepte) =

j
P((Y = j) j es aceptado) =

j
p
j
c
=
1
c
P( el algoritmo rechace) = 1
1
c
G es la variable que mira el n umero de iteraciones necesarias, entonces G es
geometrica de parametro 1/c.
P(X = j) = P(j sea aceptado en alguna iteracion)
=

k=1
P(j sea aceptado en la iteracion k)
=

k=1
P(el algoritmo rechaza)
k1
P((Y = j) j es aceptado)
=

k=1
_
1
1
c
_
k1
p
j
c
= p
j
68
Ejemplo:
Generar una v.a. X con valores en {1, 2, ..., 10} y probabilidades 0.11, 0.12,
0.09, 0.08, 0.12, 0.10, 0.09, 0.09, 0.10, 0.10 .
Metodo de la transformada inversa: implica una media (mnima) de 5, 04
iteraciones.
Metodo de aceptacion y rechazo: c = 1,2 . La media de iteraciones es 1, 2.
8.7.2. Casos particulares
Si Y U[1, n]
c = max
j
{np
j
}
1 // Y Uniforme en [ 1 , n]
2 do{
3 V = Uniforme ( ) ;
4 Y = nV ;
5 U = Uniforme ( ) ;
6 }while (U < npy /c ) ;
7 X = Y
Si X es condicional a Y n
c = 1/P(Y n)
1 // P(X = j) = P(Y = j|Y n)
2 do{
3 s i mul ar Y
4 }while (Y n) ;
5 X = Y
8.8. Metodo de composicion
Se tienen metodos ecientes para generar valores de v. a. X
1
y X
2
, con
funciones de probabilidad de masa:
X
1
: {p
j
: j = 0, 1, . . .} X
2
: {q
j
: j = 0, 1, . . .}
El metodo de composicion permite generar una v.a. X con funcion de
probabilidad de masa
P(X = j) = p
j
+ (1 )q
j
j = 0, 1, . . . , 0 < < 1
X =
_
X
1
con probabilidad
X
2
con probabilidad 1
69
1 //Metodo de composicion para dos V.A.
2 U = Uniforme ( ) ;
3 i f (U < ) {
4 X = X
1
;
5 } el se {
6 X = X
2
;
7 }
8 return X;
P(X = j) = P(U < , X
1
= j) +P( < U < 1, X
2
= j)
= P(U < )P(X
1
= j) +P( < U < 1)P(X
2
= j)
= p
j
+ (1 )q
j
Ejemplo:
p
j
= P(X = j) =
_
0,05 para j = 1, 2, 3, 4, 5
0,15 para j = 6, 7, 8, 9, 10
Viendo que:
(0, 05) 5 = 0, 25 y (0, 15) 5 = 0, 75
1 U = Uniforme ( ) ;
2 i f (U < 0 , 75) {
3 V = Uniforme ( ) ;
4 X = 5V + 6;
5 } el se {
6 V = Uniforme ( ) ;
7 X = 5V + 1;
8 }
9 return X;
Otra solucion:
Viendo que: (0, 05) 10 = 0, 5 y (0, 10) 5 = 0, 5
1 U = Uniforme ( ) ;
2 i f (U < 0 , 5) {
3 V = Uniforme ( ) ;
4 X = 10V + 1;
5 } el se {
6 V = Uniforme ( ) ;
7 X = 5V + 6;
8 }
9 return X;
70
Algoritmo de Transformada Inversa
X : x
0
, x
1
, . . ., con P(X = x
i
) = p
i
1 F = p
0
;
2 i = 0;
3 U = Uniforme ( ) ;
4 while ( U > F) {
5 i = i +1;
6 F = F + P
i
7 }
8 X = x
i
El algoritmo recorre desde un valor en adelante.
Para una v.a. discreta en general, realiza muchas b usquedas.
Veamos algunas alternativas
8.9. Metodo de la urna
X toma un n umero nito de valores: {x
1
, x
2
, . . . , x
n
} Cada p
i
= k
i
10
q
,
con k
i
entero y q jo. Esto es:
n

i=1
k
i
= 10
q
q: es el n umero maximo de dgitos decimales.
v: es un vectorde tama no 10
q
que contiene k
i
veces cada elemento x
i
.
v = x
1
. . . x
1
. .
k1
x
2
. . . x
2
. .
k2
. . . x
n
. . . x
n
. .
kn
1 // var i ant e A
2 U = Uniforme ( ) ;
3 J =10
q
U + 1;
4 X = v
J
Ejemplo:
X toma valores x
1
= 8, x
2
= 9, x
3
= 10 y x
4
= 11,
con probabilidades p
1
= 0.2, p
2
= 0.1, p
3
= 0.4 y p
4
= 0.3.
q = 1
p
1
= 2 10
1
, p
2
= 1 10
1
, p
3
= 4 10
1
, p
4
= 3 10
1
.
v= 8 8 9 10 10 10 10 11 11 11
71
U = 0.378 J = 4 X = 10
Por que funciona?
P(X = j) = P(k
1
+. . . +k
j1
< 10
q
U k
1
+. . . +k
j1
+k
j
)
=
k
j
10
q
= p
j
Desventaja: Necesita 10
q
lugares de almacenamiento.
Advertencia: si se redondean los datos para utilizar un q mas chico, recor-
dar que

k
i
debe resultar 1.
8.10. Metodo de tablas
Marsaglia (1963) propone la siguiente mejora al metodo de la urna.
Se utiliza un vector v
k
, para cada posicion decimal: k = 1, 2, . . . , q.
En v
k
se almacena x
i
tantas veces como indique su posicion decimal k-
esima.
Se calcula d
k
la probabilidad de ocurrencia del dgito de orden k :
d
k
=
suma de los dgitos de orden k en las probabilidades
10
k
Ejemplo
Sea X con distribucion p(1) = 0,15, p(2) = 0,20, p(3) = 0,43, p(4) = 0,22.
v = 1 2 2 3 3 3 3 4 4 m = 9
w = 1 1 1 1 1 3 3 3 4 4 n = 9
d
1
=
1 + 2 + 4 + 2
10
= 0,9
d
2
=
5 + 0 + 3 + 2
100
= 0,1
1 Ej empl o t abl as ( i nt n , i nt w, i nt m, i nt n) {
2 U = Uniforme ( ) ;
3 i f (U < 0. 9) {
4 V = Uniforme ( ) ;
5 J = mV ;
6 X = v [ J ] ;
7 } el se {
8 V = Uniforme ( ) ;
9 J = nV ;
10 X = w[ J ] :
11 }
12 return X;
13 }
72
Por que funciona?
P(X = 3) = P(X = 3| elegir decenas)P(elegir decenas) +P(X = 3|elegir centenas)P(elegir centenas)
=
4
9
0,9 +
3
10
0, 1
= 0,43
Ventaja sobre el anterior: mucho menor costo de almacenamiento. (19 lugares
en lugar de 100).
Desventaja: mayor tiempo de ejecucion.
9. Generaci on de variables aleatorias continuas
9.1. Metodo de la transformada inversa
Decimos que X es una V.A. continua con densidad. Si existe f : R R
positiva tal que:
F(x) = P[X x] =
x
_

f(t)dt
F(x) es continua.
F(x) es no decreciente.
0 F(x) 1.
lm
x
F(x) = 0
lm
x
F(x) = 1
Teorema
Si F es una funcion de distribucion continua, inversible y U U(0, 1) en-
tonces:
X = F
1
(U) es una V.A. con distibucion: F
P(X a) = P(F
1
(U) a) (24)
= P
_
F(F
1
(U)) F(a)
_
(Por ser inversible) (25)
= P[U F(a)] (26)
= F(a) (27)
Es suciente que F tenga inversa en (0,1).
Problemas:
73
La inversa de F involucra funciones costosas: (
n
_
F(x), log (x)), . . .
La inversa de F no puede ser calculada explcitamente (por ejemplo,
en la distribucion normal o en una gamma).
Para ciertas distribuciones F, pueden utilizarse otras estrategias, por ejem-
plo expresando a F como:
Distribucion del mnimo y/o maximo de V.A. independientes.
Distribucion de suma de V.A. independientes.
Distribucion de una V.A. condicional a otra.
O existen metodos especcos por ejemplo para la distribucion normal.
9.1.1. Ejemplos
Escribir un metodo para generar el valor de una variable aleatoria X con
funcion de densisdad:
f(x) =
x
2
+ 1 : 0 x 2
F(x) =
x
2
4
+x : 0 x 2
F no es inversible sobre R pero solo nos interesa encontrar
F
1
: (0, 1) (0, 2)

x
2
4
+x = U x =
_
_
_
x = 2 + 2

1 U
o
x = 2 2

1 U
1 Al gori tmo ( ) {
2 U = Uniforme ( ) ;
3 X = 2 2

U ;
4 return X;
5 }
Escribir un metodo para generar el valor de una V.A. X con funcion de
densidad dada por :
f(x) =
_
_
_
1/4 0 x 2
1/2 2 < x < 3
0 En caso contrario
F(x) =
_

_
0 x 0
x/4 0 x 2
x1
2
2 < x < 3
1 x 3
74
1 Al gori tmo ( ) {
2 U = Uniforme ( ) ;
3 i f (U < 1/2) {
4 X = 4 U;
5 } el se {
6 X = 2 U + 1;
7 }
8 return X;
9 }
9.1.2. Maximos y mnimos de V.A. independientes
Consideremos X
1
, X
2
, . . . , X
n
V.A. independentes con funciones de distribu-
cion F
1
, F
2
, . . . F
n
respectivamente.
F
i
(a) = P(X
i
a)
X = max
_
X
1
, X
2
, . . . , X
n
_
F
x
(a) = F
1
(a) F
2
(a) . . . F
n
(a)
Y = mn
_
X
1
, X
2
, . . . , X
n
_
1 F
y
(a) = (1 F
1
(a)) (1 F
2
(a)) . . . (1 F
n
(a))
Si X es tal que:
F
x
(x) =
_
x
n
0 x 1
0 En caso contrario
F
x
(x) = x . . . x
. .
n
Entonces X = max
_
U
1
, U
2
, . . . , U
n
_
con U
1
, . . . , U
n
V.A. independientes,
identicamente distribuidas, uniformes en (0,1).
Para generar: X : F
x
(t) = t
n
1 Al gori tmo ( i nt n) {
2 l i s t a = [ ] ;
3 for ( i nt i =0; i < n ; i ++){
4 l i s t a . append ( Uniforme ( ) ) ;
5 }
6 X = Max( l i s t a ) ;
7 return X;
8 }
No se requiere calculo de la raz enesima.
Se genera n 1 uniformes adicionales.
Se requiere de n 1 comparaciones.
75
9.1.3. Exponencial
Si X () entonces c X tambien es exponencial.
c.X (

c
)
Calculamos la inversa de la funcion de distribucion. Si X (1)
F
x
(x) = 1 e
x
U = 1 e
x
1 U = e
x
x = log(1 U)
1 Exponenci al ( f l oat ) {
2 U = Uniforme ( ) ;
3 X =
1

l og (U) ;
4 return X;
5 }
9.1.4. Poisson
Para generar una variable Poisson vamos a usar informacion sobre una es-
tructura mas compleja, el proceso de Poisson.
Recordemos que:
En un proceso de Poisson Homogeneo de parametro
Los tiempos de llegada entre eventos son V.A. expoenciales de media
1

El n umero de eventos en un intervalo de tiempo de longitud t es una


V.A. Poisson con media t.
N(t) es una Variable Aleatoria Poisson con media
N(1) = max
_
n|X
1
+X
2
+. . . +X
n
1
_
Entonces toda variable aleatoria Poisson de parametro puede pensarse
como la realizacion N(1) de un proceso de Poisson con media
Empleando V.A. uniformes para generar las exponenciales tenemos que:
N(1) = max
_
n|X
1
+X
2
+. . . +X
n
1
_
= max
_
n|
1

(log(U
1
) +. . . + log(U
n
)) 1
_
= max
_
n| log(U
1
. . . U
n
)
_
= max
_
n|U
1
. . . U
n

_
N(1) = mn
_
n|U
1
. . . U
n
<

_
1
76
1 Poi sson ( f l oat ) {
2 i nt X = 0;
3 Prod = 1;
4 while ( 1) {
5 U = Uniforme ( ) ;
6 Prod = Prod U;
7 i f ( Prod < e

) {
8 return X;
9 }
10 X++;
11 }
12 }
9.1.5. Gamma
Si X
1
, . . . , X
n
son V.A. exponenciales independientes X
i
() entonces
X = X
1
+. . . +X
n
es una V.A. gamma de parametro (n, ).
F
x
(x) = P(X
1
+. . . +X
n
X)
= P
_

log(U
1
. . . U
n
) X
_
Por lo cual X (n, )
1 Gamma( i nt n , f l oat ) {
2 f l oat prod = 1
3 for ( i nt i = 0; i < n ; i ++){
4 prod = prod Uniforme ( ) ;
5 }
6 X =
1

log( prod ) ;
7
8 return X;
9 }
Emplea n Uniformes.
Calcula un unico logaritmo.
9.1.6. Exponenciales a partir de una Gamma
Teorema: Si X, Y () independientes f
x|x+y
(x|t) =
1
t (0,t)
(x), es decir, X
condicional a X +Y = t es uniforme en (0, t).
Para generar X, Y exponenciales independientes de parametro podemos
aplicar el siguiente algoritmo.
1 dos e xpone nc i al e s ( f l oat ) {
2 U
1
, U
2
= Uniforme ( ) , Uniforme ( ) ;
3 t =
1

log(U
1
U
2
)
4 U
3
= Uniforme ( ) ;
5 X = t U
3
;
6 Y = t X;
7 return (X, Y) ;
8 }
77
Calcula un unico logaritmo.
Emplea una uniforme adicional.
Para generar n exponenciales se puede extender el metodo anterior generan-
do
Una V.A. gamma de parametros (n, ).
n 1 V.A. uniformes adicionales.
1 nexponenci al es ( i nt n , f l oat ) {
2 f l oat Exponenci al es [ n ] ;
3 f l oat Uni f ormes [ n ] ;
4 prod = 1;
5 for ( i nt i = 0; i < n ; i ++){
6 Uni f ormes [ i ] = Uniforme ( ) ;
7 prod = prod Uni f ormes [ i ] ;
8 }
9 t = 1
1

log(prod) ;
10 Var i abl es [ n1] ;
11 for ( i nt i = 0; i < n ; i ++){
12 Var i abl es [ i ] = Uniforme ( ) ;
13 }
14 Sort ( Var i abl es ) ;
15 Exponenci al es [ 0 ] = t Var i abl es [ 0 ] ;
16 for ( i nt i = 1; i < ( n1) ; i ++){
17 Exponenci al es [ i ] = t Var i abl es [ i +1] Exponenci al es [ i 1]
18 }
19 Exponenci al es [ n1] = t t Exponenci al es [ n2] ;
20 return Exponenci al es ;
21 }
9.2. Metodo de Rechazo
Sea X una V.A: con densidad f : F(X) = P[X x] =
x
_

f(t)dt
Supongamos que se tiene un metodo para generar y, con densidad g tal que:
f(y)
g(y)
C para todo y R tal que f(y) = 0
El metodo de rechazo para generar X a partir de y tiene el siguiente algo-
ritmo.
1 do {
2 Generar Y con densi dad g ;
3 U = Uniforme ( ) ;
4 }while (U <
f(y)
cg(y)
)
5 x = y
Teorema:
1. La V.A. generada por el metodo de rechazo tiene densidad f.
78
2. El n umero de iteraciones del algoritmo es una variable aleatoria geometrica
con media c.
Calcula de la cota c
h(x) =
f(x)
g(x)
c
Es h acotada superiormente? Existe un maximo de h?
Determinar puntos crticos de h.
Un punto crtico x
0
es un maximo local de h si en un entorno (a, b) de x
0
ocurre:
h

(x) > 0 para x < x


0
y h(x) < 0 para x > x
0
h

(x
0
) < 0
Evaluar h en los extremos del invervalo.
9.2.1. Gamma
Utilizar el metodo de rechazo para generar una variable aleatoria con funcion
de densidad dada por:
f(x) = 20x(1 x)
3
: 0 < x < 1
f(x) =
( +)
()()
x
1
(1 x)
1
(0,1)
(x)
Sea X una V.A. Gamma (2,4)
Esta acotada en (0,1).
Se puede aplicar el metodo de rechazo con g(x) = 1 : 0 < x < 1
Quiero hallar c tal que:
f(x)
g(x)
=
f(x)
1
c
h(x) = f(x) = 20 x (1 x)
3
: 0 < x < 1
h(x) = 20 (1 x)
2
(1 4 x)
Puntos crticos x = 1 y x =
1
4
.
h(0) = h(1) = 0 luego 0 y 1, los extremos del intervalo no son maximos.
h(
1
4
) =
135
64
> 0 por lo cual x =
1
4
es un maximo.
h(
1
4
) = f(
1
4
) =
135
64
es el valor maximo de h.
c =
135
64
2,11
f(x)
c g(x)
=
f(x)
135/64
=
256
27
x (1 x)
3
79
1 do {
2 V = Uniforme ( ) ;
3 U = Uniforme ( ) ;
4 }while (U <
256
27
V (1 V )
3
)
5 x = V
El promedio de n umero de ciclos es c =
135
64
2,11
Ejemplo
Generar una V.A. con densidad
_
3
2
, 1
_
f(x) = k x
1/2
e
x
: x > 0
Con k =
1
(3/2)
=
2

Recordando que si X (, ) =

()
e
x
x
1
E(X) =

X toma valores reales no negativos.


En el ejemplo la media es 3/2
Es razonable rechazar con una exponencial de igual media. Pero podemos
despues vericar sino podemos hacer un algoritmo mejor
Y (
2
3
)
g(x) =
2
3
e
2
3
x
: x > 0
h(x) =
f(x)
g(x)
=
3k
2
x
1/2
e
x/3
C = 3
_
3
2e
_
1/2
h(x) =
f(x)
g(x)
= CTE x
1/2
e
x/3
: x > 0
h

(x) = CTE
_
1
2
x
1/2
e
x/3
+x
1/2
1
3
e
x/3
_
0 =
1
2
x
1/2
e
x/3
+x
1/2
1
3
e
x/3
|x| =
3
2
Puntos crticos:
3
2
cuando x > 0
h(0) < h(
3
2
) y h(2) < h(
3
2
)
0, extremo del intervalo, no es maximo y h(
3
2
) es el maximo.
h(
3
2
) = 3
_
3
2e
_
1/2
por lo cual c = 3
_
3
2e
_
1/2
Sabemos que para generar una exp() calculo x =
1

log(Uniforme())
80
1 / Al gori tmo para generar una (
3
2
, 1)/
2 do {
3 V = Uniforme ( ) ;
4 Y =
3
2
log(V ) ;
5 U = Uniforme ( ) ;
6 }while (U < (
2e
3
)
1/2
y
1/2
e
y/3
)
7 x = Y
Es cierto que es razonable rechazar con una exponencial de igual media que
la ?
Tomamos g(x) = e
x
, exponencial con razon y media
1

Obtenemos:
h(x) =
f(x)
g(x)
=
k x
1/2
e
(1)x

: 0 < < x
Maximo en x =
1
2(1)
: 0 < 1
Valor maximo: c =
k

(2(1 ))
1/2
e
1/2
=
2
3
minimiza el valor de e.
9.2.2. Exponencial
Sabemos que para generar una exp() calculo x =
1

log(Uniforme())
9.2.3. Normal
Generar una V.A: normal estandar es decir, Z con densidad:
f(x) =
1

2
e

x
2
2
|z| tiene densidad f
|z|
(x) =
2

2
e

x
2
2
: 0 < x <
Si sabemos generar |z|, generamos z por composicion.
Tomamos: g(x) = e
x
: 0 < x <
Resulta c =
_
2e

C 1,32
f(x)
c g(x)
= exp{
(x 1)
2
2
}
1 Generar | Z| ( ) {
2 do{
3 V = Uniforme ( ) ;
4 Y = log(V ) ; // Genero ( = 1)
5 U = Uniforme ( ) ;
6 }while ( U < exp

(y1)
2
2 )
7 | Z| = y
8 }
81
U < exp

(y1)
2
2
log(U) >
(y1)
2
2
y
2
= log(U) exp(1)
1 Generar | Z| ( ) {
2 do{
3 Y
1
= Exponenci al ( = 1) ;
4 Y
2
= Exponenci al ( = 1) ;
5 }while ( Y
2
>
(Y
1
1)
2
2
)
6 | Z| = Y
1
7 }
Si Y
2
>
(Y11)
2
2
X = Y
2
(Y
1
1)
2
es exponencial con media 1 por la
propiedad de falta de memoria.
Luego podemos generar la normal y tambien una exponencial.
1 Normal y Exponenci al ( ) {
2 Do{
3 Y
1
= Exponenci al ( = 1) ;
4 Y
2
= Exponenci al ( = 1) ;
5 }while ( Y
2
>
(Y
1
1)
2
2
)
6 exponenci al = Y
2

(Y
1
1)
2
2
7 U = Uniforme ( ) ;
8 i f (U < 0. 5) {
9 Z = Y
1
;
10 } el se {
11 Z = Y
1
;
12 }
13 return (Z, exponenci al ) ;
14 }
Observaciones:
C 1,32
Para generar una secuencia de normales, se puede utilizar la X como la
siguiente exponencial.
En promedio se necesitan generar 1,64 exponenciales y calcular 1,32 cuadra-
dos.
9.3. Metodo polar para generar V.A.normales
Con este metodo se generan dos variables normales independientes.
Si X e Y son normales estandar independientes entonces:
R
2
= X
2
+Y
2
: tan() =
Y
X
determinan variables R
2
y independientes.
82
f(x, y) =
1
2
exp
(
x
2
+y
2
2
)
f(d, ) =
1
2
1
2
exp

d
2
: 0 < d < , 0 < < 2
R
2
y resultan independientes con R
2
exp(
1
2
) y U(0, 2)
1 U
1
= Uniforme ( ) ;
2 U
2
= Uniforme ( ) ;
3 R
2
= 2 log(U
1
) ;
4 = 2 U
2
;
5 X = Rcos()
6 Y = Rsen()
7 return (X, Y) ;
Transformaciones de Box-Muller
X =
_
2 log(U
1
) cos(2 U
2
)
Y =
_
2 log(U
1
) sen(2 U
2
)
Como el calculo de funciones lo hace poco eciente, se puede mejorar generan-
do uniformes V
1
y V
2
en el crculo unitario, para evitar el calculo directo del
seno y del coseno.
Generar un par (V
1
,V
2
) uniformemente distribuido en el crculo unitario.
Si U U(0, 1) 2U U(0, 2) y 2U 1 U(1, 1)
V
1
= 2U
1
1, V
2
= 2U
2
1 , rechazo hasta que entre en el crculo.
R
2
= V
2
1
+V
2
2
resulta unifore en (0, 1)
= arc tg(
V2
V1
) es uniforme en (0, 2)
sen() =
V2
R
cos() =
V1
R
x = (2 log(U))
1/2 V1
(V
2
1
+V
2
2
)
1/2
y = (2 log(U))
1/2 V1
(V
2
1
+V
2
2
)
1/2
Como S = V
2
1
+V
2
2
y son independientes entonces podemos tomar:
U = S = V
2
1
+V
2
2
1 do{
2 V
1
= 2 Uniforme ( ) 1 ;
3 V
2
= 2 Uniforme ( ) 1 ;
4 S = V
2
1
+ V
2
2
;
5 }while ( S<1) ;
6 x =

2 log(S)
S
V
1
7 y =

2 log(S)
S
V
2
8 return ( x , y)
83
9.4. Generaci on de eventos en un proceso de Poisson
9.4.1. Homogeneo
Supongamos N(t) es el n umero de llegadas en el invervalo de tiempo [0, t]
que forma un proceso de Poisson de tasa .
Entonces, la distribucion de cada N(t) es poisson de tasa t.
{X
j
}, la sucesion de tiempos entre llegadas, son V.A. independientes, igual-
mente distribuidas con distribucion exponencial de parametro .
X
i
exp() : i = 1, 2, . . .
S
n
el tiempo hasta la n-esima llegada es gamma de parametros (n, ).
Para generar los primeros n eventos de un Proceso de Poisson homogeneo,
generando exponenciales: X
i
exp() : 1 i n
Primer evento: al tiempo X
1
j-esimo evento: al tiempo X
1
+X
2
+. . . +X
j
para 1 j n
Para generar los eventos en las primeras T unidades de tiempo, generamos
eventos hasta que j + 1 excede a T.
1 ProcPoi sson ( double T) { //Primer metodo
2 t = 0;
3 i = 0;
4 while ( true ) {
5 U = Uni f or e ( ) ;
6 i f ( t
1

log(U) > T) {
7 break
8 } el se {
9 t = t
1

log(u)
10 i = i + 1;
11 S [ i ] = t ;
12 }
13 }
14 }
i = n umero de eventos.
S[i] = tiempo en el que ocurre el evento i.
S[1], S[2], . . . esta ordenado en orden creciente
Supongamos que quiero generar los primeros tiempos de arribo hasta t = T
La variable N(t) es el n umero de eventos hasta el tiempo T, con distribu-
cion Poisson T.
Dado N(T), la distribucion de los tiempo de arribo es un proceso de
Poisson homogeneo de razon es uniforme (0, t).
Luego, para generar lo eventos hasta el tiempo T.
84
Generar una V.A. Poisson con media T y tomar n = N(T)
Generar n V.A. uniformes U
1
, U
2
, . . . , U
n
Los tiempos de arribo son TU
1
, TU
2
, . . . , TU
n
. Notar que deben ordenarse
los tiempos de arribo.
9.4.2. Proceso de Poisson, No Homogeneo
N(t), t 0 es un proceso de Poisson no Homogeneo con funcion de intensidad
(t), t 0 si:
N(0) = 0
Para cada n 1 y cada particion 0 t
0
< t
1
< . . . < t
n
. Se tiene
que N(t
0
), N(t
1
) N(t
0
), . . . , N(t
n
) N(t
n1
) son variables aleatorias
independientes.
lm
h0
P(N(t+h)N(t)=1)
h
= (t)
lm
h0
P(N(t+h)N(t)2)
h
= 0
Proposicion: para cada t 0 y s > 0 se tiene que N(t + s) N(t) es una
variable aleatoria Poisson con media:
m(t +s) m(t) =
t+s
_
t
(x)dx
Corolario: Si (t) = (es constante), N(t+s)N(t) es una variable aleatoria
Poisson con media t.
Poisson Homogeneo y Poisson no Homogeneo
Supongamos que:
Existen eventos del tipo A y eventos del tipo B.
Independientemente de lo que ocurrio antes, si ocurre un evento del tipo
A entonces ocurre uno del tipo B con probabilidad p(t).
N(t) = n umero de eventos del tipo A en [0, t].
M(t) = n umero de eventos del tipo B en [0, t].
Proposicion: Si N(t)
t0
es un Proceso de Poisson homogeneo con razon >
0 entonces M(t)
t0
es un proceso de poisson no homogeneo con funcion de
intensidad (t) = p(t) t > 0.
El proceso M(t) cumple con las condiciones de comenzar en el cero, tener
incrementos independientes y probabilidad nula de observar instantaneamente
mas de un evento.
85
Para ver la tasa instantanea de observar un evento.
P(1 evento del tipo B en [t,t+h]) = P(1 evento y es de tipo B)
+P(dos o mas eventos y exactamente uno es de tipo B)
hp(t)
9.5. Algoritmo de adelgazamiento
En un proceso de Poisson no homogeneo, con intensidad (t), los incrementos
no son estacionarios.
La intensidad (t) indica la tasa de ocurrencia de los eventos.
Si (t) entonces (t) = p(t) con p(t) =
(t)

< 1
Podemos considerar p(t) =
(t)

como la probabilidad de ocurrencia de un


cierto evento de un proceso de Poisson Homogeneo de razon , y adelgazar el
proceso homogeneo para obtener el proceso no homogeneo de intensidad p(t)
1 Adel gazami ento ( ) {
2 // es mas e f i c i e n t e mi ent ras mas cerca este de (t)
3 t = 0;
4 i = 0; // n umero de eventos
5 while ( true ) {
6 U = Uniforme ( ) ;
7 i f ( t
1

log(U) > T) {
8 break ;
9 } el se {
10 t = t
1

log(U) ;
11 V = Uniforme ( ) ;
12 i f (V <
(t)

) {
13 i = i +1:
14 S [ i ] = t // Tiempos de event os
15 }
16 }
17 }
18
19 }
9.5.1. Algoritmo mejorado
Una mejora consiste en particionar el invervalo (0, T) en subintervalos, y
aplicar el algoritmo anterior en cada una de ellas:
0 = t
0
< t
1
< t
2
< . . . < t
k
< t
k+1
= T
(S) =
j
si j 1 S < j
86
1 t = 0;
2 j = 1;
3 i = 0;
4 while ( true ) {
5 U = Uniforme ( ) ;
6 X =
1

j
log(U) ;
7 while ( t +x > t
j
) {
8 i f ( j == k+1){
9 break
10 }
11 x = ( x t
j
+ t )

j

j+1
12 t = t
j
;
13 j = j +1;
14 }
15 t = t + x ;
16 V = Uniforme ( ) ;
17 i f ( V <
(t)

j
) {
18 i = i +1;
19 S [ i ] = t ;
20 }
21
22 }
Otra mejora sobre este algoritmo es considerar el mnimo de (s) en cada
subintervalo.
Por ejemplo en un intervalo (t
i+1
, t
i
)

min
= mn
_
(S) : s (t
i1
, t
i
)
_
En ese intervalo los eventos ocurren con intensidad ((S)
min
) +
min
Generar eventos de un P.P. homogeneo con razon
min
.
Intercalar con eventos de un P.P. no homogeneo con intensidad

(S) = (S)
min
Ventaja: disminuye el n umero promedio de uniformes.
Ejemplo
Sea (S) = 10 +S : 0 < S < 1
Adelgazamiento con = 11 tiene una media de 11 eventos que pueden ser
aceptados o no.
10 = mn
_
(S) : S (0, 1)
_
Generar eventos de un P.P. homogeneo con razon 10.
Intercalar con eventos de un P.P. no homogeneo con intensidad:

(S) = (S) 10 = S
Reduce de 11 a 1 el n umero de uniformes necesarias.
Otro metodo: consiste en generar directamente los sucesivos tiempos de even-
tos.
87
S
1
, S
2
, . . . sucesivos tiempos de eventos.
Estos tiempos de eventos no son independientes.
Para generar S
i
utilizamos el valor generado S
i
.
Dado que ha ocurrido un evento en t = S
i
, el tiempo hasta el proximo
evento es una V.A. con la siguiente distribucion.
F
s
(x) = P{Ocurra un evento en (S, S +X)}
= 1 P{ 0 eventos en (S, S +X)}
= 1 exp
_

s+x
_
s
(y)dy
_
= 1 exp
_

x
_
o
(s +y)dy
_
Ejemplo
Describir un algoritmo para la generacion de eventos de un P.P. no homogeneo
con funcion de intensidad (t) =
1
t+3
: t 0
x
_
0
(s +y) =
x
_
0
1
s +y + 3
dy = log
_
x +s + 3
s + 3
_
F
s
(x) = 1
s + 3
x +s 1
=
x
x +s + 3
Si U = F
s
(x) x =
U(s + 3)
1 U
F
1
s
(U) = (s + 3)
u
1 u
Los sucesivos tiempos de eventos son entonces:
S
1
=
3U
1
1 U
1
S
2
=
3U
1
1 U
1
.
.
. =
S
j
= . . .
88
1 //Generacion de event os usando e l metodo de l a t ransf ormada i nver s a
2 i= 0;
3 S [ 0 ] = 0
4 while ( true ) {
5 U = Uniforme ( ) ;
6 i f (
S[i]+3U
1U
> t ) {
7 break ;
8 } el se {
9 i = i +1;
10 S [ i ] =
S[i1]+3U
1U
11 }
12 }
10. Seleccion de distribuciones de probabilidad
Los sistemas reales tienen una fuente de aleatoriedad
Tipo de sistema Fuente de aleatoriedad
Tiempos de Procesamiento
Fabricacion Tiempos de falla
Tiempos de reparacion de maquinas
Tempos de arribo
Defensa Errores de lanzamiento
Tiempos entre llegadas de mensajes
Comunicaciones Longitudes de mensajes
Tiempos de embarque
Transporte Tiempos entre arribos
10.1. Simulaci on a partir de los datos
Para simular un sistema real es necesario:
Representar cada fuente de aleatoriedad de acuerdo a una distribucion de
probabilidad.
Elegir adecuadamente la distribucion para no afectar los resultados de la
simulacion.
Como elegir una distribucion? Como simular un sistema a partir de un
conjunto de observaciones?
Utilizando los datos directamente.
Realizando un muestreo a partir de la distribucion emprica de los datos.
Utilizando tecnicas de inferencia estadstica.
Eleccion de la distribcion teorica.
89
Estimacion de parametros.
Tests de bondad de Ajuste.
Simulacion a partir de la distribucion teorica.
Utilizar los datos directamente
Solo reproduce datos historicos.
En general es una informacion insuciente para realizar simulaciones.
Es util para comparar dos sistemas, para hacer una validacion del
modelo existente con el simulado.
Distribucion Emprica
Reproduce datos intermedios (datos continuos).
Es recomendable si no se pueden ajustar los datos a una distribucion
teorica.
Inferencia estadstica Vs Distribucion emprica
Las distribuciones empricas pueden tener irregularidades si hay pocos
datos, una distribucion teorica suaviza los datos.
Puede obtenerse informacion a un fuera del rango de los datos observados.
Puede ser necesario imponer un determinado tipo de distribucion, por el
tipo de modelo que se desea simular.
No es necesario almacenar datos observados ni las correspondientes prob-
abilidades acumuladas.
Es facil modicar los parametros.
Puede no existir una distribucion adecuada.
Generacion de valores extremos no deseados.
10.2. Distribucion de probabilidad mas utilizada
10.2.1. Uniforme
Para cantidades que varan aleatoriamente entre valor a y b que no se conocen
mas datos.
f(x) =
1
ba
(a,b)
(x)
a: posicion.
b a: escala.
Rango: a < x < b
Media:
a+b
2
Varianza:
(ba)
2
12
90
10.2.2. Exponencial
Tiempos entre llegadas de clientes a un sistema y que ocurren a una tasa
constante. Tiempos de falla de maquinas.
10.2.3. Gamma
f(x) =

x
1
exp
(x/)
()
Forma:
Escala: .
Rango: x > 0.
Media:
Varianza:
2
= 1 Exponencial.
10.2.4. Weibull
f(x) =

x
1
exp
(x/)

Forma:
Escala: .
Rango: x > 0.
Media:

_
1

_
10.2.5. Normal
Errores, sumas grandes, T.C.L
f(x) =
1

2
exp
_
(x)
2
2
2
_
Posicion: .
Escala: .
Rango: R.
Media: .
Varianza:
2
.
91
10.2.6. Distribucion lognormal
f(x) =
1
x

2
exp
_
(log(x))
2
2
2
_
Forma: .
Escala: .
Rango: x > 0.
Media: exp
+
2
2
Varianza: exp
2+
exp

2
1
10.2.7. Bernoulli
10.2.8. Uniforme Discreta
10.2.9. Geometrica
N umero de observaciones hasta detectar el primer error.
10.2.10. Binomial Negativa
N umero de observaciones hasta detectar el n-esimo error.
10.2.11. Poisson
N umero de eventos en un intervalo de tiempos si ocurren a tasa constante
10.3. Distribucion Emprica
Supongamos que se tienen disponibles datos observados:
Y
1
= y
1
, Y
2
= y
2
, . . . , Y
n
= y
n
Y
1
, Y
2
, . . . , Y
n
se dene la distribucion emprica de la muestra a la funcion:
F
e
(x) =
#{i : Y
i
x}
n
F
e
(x): proporcion de valores observados menores o iguales a x.
Si se ordena los datos en forma creciente: Y
(j)
= j-esimo valor mas peque no.
Y
(1)
< Y
(2)
< . . . < Y
(n)
Distribucion emprica F
e
(x) =
_

_
0 x < Y
(1)
1
n
Y
(1)
x < Y
(2)
.
.
.
.
.
.
j
n
Y
(j)
x < Y
(j+1)
1 x Y
(n)
92
10.4. Tecnicas de prueba de independencia
Para ciertos tests, es necesario asumir independencia de los datos observados,
ejemplos de No independencia
Datos de temperatura a lo largo de un da.
Tiempos de demora en una cola de espera.
Tecnica
Gracos de correlacion: P
j
.
Diagramas de dispersion (scattering): (x
i
, x
i+1
)
Test no parametricos.
10.5. Inferencia estadstica de un modelo
1. Elegir una o mas distribuciones apropiadas.
2. Estimacion de parametros de la distribucion elegida.
3. Prueba (tests) de bondad de ajuste
Hipotesis nula: F
e
(x) es cercana a F(x).
Estadstico de Kolmogorov-Smirnov
D = max
x
|F
e
(x) F(x)| : < x <
4. Si es necesario corregir la distribucion adoptada.
Elegir una distribucion:
Conocer el origen de los datos.
Estimar algunas medidas a traves de los datos.
Histograma
Q-cuantiles, diagramas de caja (box-plots)
q-q plots y p-p plots.
93
Parametro Estimador Estima
Min, Max X
(1)
, X
(n)
Rango
Media X
(n)
Tendencia central
Mediana m =
_
x
(n+1)/2
1
2
(x
n/2
+x
(n+1)/2
)
tendencia central
Varianza S
2
(n) Variabilidad
CV =

CV =

S
2
(n)
X
(n)
Variabilidad
T

T =
S
2
(n)
X
(n)
Variabilidad
Asimetra =
E[(x)
3
]
(
2
)
(3/2)
(n) =

i
(x
i
x(n))
3
n
(S
2
(n))
3/2
Simetra
11. Analisis estadstico de datos simulados
11.1. Estimadores puntuales
Modelizacion estadstica
Elegir una distribucion en base a los datos observados.
Estimar los parametros de la distribucion (EMV).
Pruebas de bondad de Ajuste.
11.1.1. Estimacion de parametros
Estimador puntual.
Varianza del estimador. var(

)
Error cuadratico medio del estimador: E[(

)
2
]
Estimadores por intervalo e invervalos de conanza
Dada una muesta de n datos observados, se llama estimador

del parametro
a cualquier funcion de los datos observados.
Propiedades de un buen estimador puntual
Insesgabilidad: se dice que el estimador es insesgado si: E(

) =
Consistencia: si al aumentar la muestra, el estimador se aproxima al parametro.
Eciencia: se calcula comparando su varianza con la de otro estimador.
Suciencia: utiliza toda la informacion obtenida de la muestra.
94
Media muestral
Dadas n observaciones x
1
, x
2
, . . . , x
n
con una misma distribucion, la media
muestral se dene como:
x(n) =
x
1
+. . . +x
n
n
La media muestral se utilza como un estimador de la media , es decir de
= E[x
i
] si la media es nita.
Estimador insesgado:
E[x(n)] = E
_
n

i=1
x
i
n
_
=
n

i=1
E[x
i
]
n
=
n
n
=
Estimador consistente
lm
n
[x(n)] = por la ley de los grandes n umeros.
Si suponemos ademas varianza nita:
z =
_
x(n)
_

n
Estimador asintoticamente normal
lm
n
[F
z
(n)(x)] = (x) por el T.C.L
11.1.2. Metodo de maxima verosimilitud
Si la distribucion es discreta para los datos observados, y se desconoce un
parametro .
Sea P

(x) la probabilidad de masa para dicha distribucion.


Dado que se han observado datos x
1
, x
2
, . . . , x
n
se dene la funcion de maxi-
ma verosimilitud L() de la siguiente manera:
L() = P

(x
1
)P

(x
2
) . . . P

(x
n
)
El estimador de maxima verosimilitud es el valor

que maximiza L(): id
est L(

) L() : valor posible


Si la distribucion es continua y la f

(x) es la densidad para dicha distribu-


cion.
L() = P

(x
1
)P

(x
2
) . . . P

(x
n
)
El estimador de maxima verosimilitud tiene en general las siguientes propiedades:
95
1. Es unico L(

) > L() para cualquier valor de .


2. La distribucion asintotica de

tiene media .
3. Es invariante = h()

= h(

)
4. La distribucion asintotica es la normal.
5. Es fuertermente consistente: lm
n

=
Exponencial
Para la distribucion exponencial =
1

: > 0 y f

(x) = e
x
: x 0
L() = (e
x1
))(e
x2
)) . . . (e
xn
))
=
n
exp(
n

i=1
x
i
)
log(L()) = log(
n
exp(
n

i=1
x
i
))
= nlog()
n

i=1
x
i
d
d
log(L()) =
n

i=1
x
i
= 0

=
1
1
n
n

i=1
x
i
=
1
x(n)

=
1

=
1
n
n

i=1
x
i
= x(n) = media muestral
96
Distribucion geometrica
= p y P
p
(x) = p(1 p)
x1
para x = 1, . . .
L(p) = p(1 p)
x11
. . . p(1 p)
xn1
= p
n
(1 p)
n

i=1
(xi1)
= p
n
(1 p)
n

i=1
(xi)
(1 p)
n
=
_
p
1 p
_
n
(1 p)
n

i=1
(xi)
log(L(p)) = nlog(
p
1 p
) + log(1 p)
n

i=1
x
i
= nlog(p) nlog(1 p) + log(1 p)
n

i=1
x
i
d
dp
log(L(p)) =
d
dp
_
nlog(p) nlog(1 p) + log(1 p)
n

i=1
x
i

=
n
p

1
1 p
_
n

i=1
x
i
n
_
= 0
n
p
=
1
1 p
_
n

i=1
x
i
_
n
1 p = p
_
1
n

x
i
1
_
1 = p +p(
1
n

x
i
) p
p =
n
n

i=1
x
i
Uniforme:
a = mn{x
i
} ,

b = max{x
i
}
Exponencial:

= x(n)
Normal:
= x(n)
=
_
n 1
n
S
2
(n)
_
1/2
=
_
1
n
n

i=1
(x
i
x)
2
_
1/2
97
LogNormal
=
n

i=1
log(x
i
)
n
=
_
n

i=1
(log(x
i
) )
2
n
_
1/2
Binomial(t, p) si t es conocido p =
x(n)
t
Bernoulli: Binomial con t = 1.
Binomial negativa(s,p): si s es conocido p =
S
x(n)
Poisson:

= x(n)
11.2. Error cuadratico medio

del parametro de una distribucion F.


Se dene el error cuadratico medio (ECM) de con respecto al parametro
como:
ECM(

, ) = E[(

)
2
]
= E[(

E(

) +E(

) )
2
]
= V ar(

) + (E(

) )
2
El error cuadratico medio de un estimador es igual a su varianza mas el sesgo
al cuadrado.
Si es estimador es insesgado, si ECM es igual a la varianza
11.2.1. El ECM de la medio muestral, con respecto a la media
Tengo una muestra de X, x
1
, x
2
, . . . , x
n
: E[x
i
] =
ECM(x(n), ) = E[(x(n) )
2
]
= V ar(x(n))
=
1
n
2
n

i=1
V ar(x
i
)
=

2
n
La media muestral es un buen estimador de E[x] si

n
es peque no.
El ECM depende de la distribucion de x
i
y del tama no de la muestra.
TCL. si Z N(0, 1) y n es grande.
P
_
x(n)
/

n
> c
_
P(|z| > c)
98
11.3. Varianza muestral
El indicador

2
n
como estimacion de error en la media muestral tiene el
inconveniente que en general es desconocida.
Para estimar la varianza se utiliza el estimador:
S
2
(n) =
n

i=1
(x
i
x(n))
2
n 1
Estimador insesgado de la varianza.
E[S
2
(n)] = V ar(x)
n

i=1
(x
i
x(n))
2
=
n

i=1
x
2
i
nx
2
(n)
E[x
2
i
] = V ar(x
i
) + (E[x
i
])
2
=
2
+
2
E(x
2
(n)) =

2
n
+
2
(n 1)E[S
2
(n)] = nE[x
2
i
] nE[x
2
(n)]
= n(
2
+
2
) n(

2
n
+
2
)
E[S
2
(n)] =
2
Utilizaremos S(n) =
_
S
2
(n) como estimador de la desviacion estandar.
Error del estimador x(n) =

2
n
Simulacion de datos: si el objetivo es estimar la media, para disminuir el
error deben generarse de tama no n (grande).
1. Elegir un valor aceptable d para la desviacion estandar del estimador.
2. Generar n datos hasta que

n
< d o
s

n
< d
3. Conviene generar al menos 100 datos para:
Asegurar normalidad de los datos de la distribucion x(n)
Disminuir la varianza de S.
4. La estimacion de estara dada por el ultimo valor de x(n)
El algoritmo implica calcular en cada paso x(n) y S(n).
Es posible calcularlo recursivamente
99
11.3.1. Calculo recursivo de x(n) y S
2
(n)
x(1) = x
1
S
2
(1) = 0
x(j + 1) = x(j) +
x(j + 1) x(j)
j + 1
S
2
(j + 1) = (1
1
j
)S
2
(j) + (j + 1)
_
x(j + 1) x(j)
_
2
1 //Estimar l a media de X con error d
2 M = Generar x ( ) ;
3 S
2
= 0;
4 for ( i = 1 ; i <100; i ++){
5 x = Generar x ( ) ;
6 A = M;
7 M = M
(xM)
j
;
8 S
2
= (1
1
j
)S
2
(j) + (j)(M A)
2
9 }
10 j = 100
11 while (

S
2
j
> d) {
12 j ++;
13 x = Generar x ( ) ;
14 A = M;
15 M = M
(xM)
j
;
16 S
2
= (1
1
j
)S
2
(j) + (j)(M A)
2
17 }
18 return M;
11.3.2. Estimacion de una proporcion
El estimador x(n) puede utilizarse tambien para estimar la proporcion de
casos en una poblacion.
x
i
=
_
1 probabilidad p
0 probabilidad 1 p
x(n) es un estimador insesgado de p.
E[(x(n) p)
2
] = V ar[x(n)] =
p(1p)
n
En este caso se estima la varianza del estimador x(n) por
V ar(x(n)) =
x(n)(1 x(n))
n
100
1 X = Generar x ( ) ;
2 P = x ;
3 for ( i =0; i < 100; i ++){
4 X = Generar x ( ) ;
5 p = p +
(xp)
j
;
6 }
7 j = 100;
8 while (

p(1p)
j
> d) {
9 j ++;
10 X = Generar x ( ) ;
11 p = p +
(xp)
j
;
12 }
13 return p
11.3.3. Metodo de los momentos
11.4. Estimadores por intervalos
Un estimador por intervalo es un parametro es un intervalo aleatorio con
una probabilidad de cobertura para el parametro.
Sean x
1
, x
2
, . . . , x
n
independientes e identicamente distribuidas F() quiero
encontrar L(x
1
, . . . , x
n
), R(x
1
, . . . , x
n
) tal que:
P(L(x
1
, . . . , x
n
) R(x
1
, . . . , x
n
)) = 1
La conanza que se da al intervalo es la probabilidad de que el intervalo
contenga al parametro, usualmente 1 .
11.4.1. Estimador por intervalo de la media poblacional
Sea x
1
, . . . , x
n
independientes identicamente distribudos con media .
Quiero encontrar L(x
1
, . . . , x
n
), R(x
1
, . . . , x
n
) tal que :
P(L(x
1
, . . . , x
n
) R(x
1
, . . . , x
n
)) = 1
Sabemos que:
x(n) es un estimador puntual de la media basado en x
1
, . . . , x
n
.
Si la poblacion es normal con media y desvo estandar
x(n)
/

n
Z = N(0, 1)
Supongamos 1 = 0,95
Entonces P
_
|x(n)|
/

n
1,96
_
= 0,95
Este es un intervalo posible, el de menor ancho con probabilidad ja, 1
y es simetrico.
101
El intervalo con extremos
_
x(n) 1,96

n
, x(n) + 1,96

Se dice que es un estimador por intervalo con un 95 % de conanza para


la media .
Si x es el valor observado de x(n), el intervalo con extremos:
_
x 1,96

n
, x + 1,96

n
_
es el valor estimado del estimador por intervalo de , con un 95 % de conanza.
11.4.2. Varianza
Si la varianza
2
es desconocida, utilizaremos el estimador S
2
(n).
Para determinar un intervalo de conanza, es necesario conocer la distribu-
cion del estadstico

n
x(n)
S(n)
.
11.5. Distribuciones derivadas de la normal
11.5.1.
2

2
de Pearson con k grados de libertad: si Z
1
, . . . , Z
k
son V.A. N(0,1) inde-
pendietes entonces:

2
k
= Z
2
1
+. . . +Z
2
k
11.5.2. t
k
de Student
t
k
=
Z
_

2
/k
Si x
1
, . . . , x
k
son V.A. N(,
2
) independientes, el estadstico S
2
tiene dis-
tribucion T
n1
:

n
X(n)
S(n)
T
n1
Sea T

tal que P(|T


n1
> T

|) = 1
P
_
x(n) t
/2
S(n)

n
P(x(n) +t
/2
S(n)

n
_
= 1
Para n > 120 puede usarse la distribucion normal es decir t

Z
a
11.5.3. Intervalos de conanza para las proporciones
Sean x
1
, . . . , x
n
Bernoulli independientes, con probabilidad p de exito.
Para n sucientemente grande tal que np y np(1 p) es mayor que 5.
X
1
+. . . +X
n
= B
i
(n, p) N(np, np(1 p))
102
Si p es desconocido, podemos estimar p con la media muestral:
p = x(n) , V ar( p) =
p(1 p)
n
Intervalos de conanza del 100(1 ) %
_
p Z
/2
_
p(1 p)
n
, p +Z
/2
_
p(1 p)
n
_
11.6. Longitud del intervalos de conanza
Para la media: 2 Z
/2

n
Valor observado para la varianza muestral 2 Z
/2
S(n)

n
Para la proporcion 2 Z
/2
_
p(1 p)
n
La longitud del intervalo de conanza del 100(1 ) % depende del tama no de
la muestra.
11.7. Cuando parar una simulaci on para estimar la media
Denir y d para el nivel de conanza y el de la Varianza.
Generar al menos 30 datos
Continuar generando datos hasta que k, el n umero de datos generados pro-
duzca:
2 Z
/2

n
d
Si es desconocido S(k) debe ser calculado en cada paso y detenerse cuando:
2 Z
/2
S(k)

n
d
103
12. Bootstrap
Bootstrap: levantarse tirando de las propias correas de las botas.
Metodo autosuciente.
Fue dise nado para aproximar la precision de un estimador a partir de un
conjunto x
1
, x
2
, . . . , x
n
de datos u observaciones.
Determinar la precision de muchos estimadores suele ser algebraicamente
complicado, o imposible, si no se conoce la distribucion de los datos.
El metodo bootstrap permite obtener una buena aproximacion del ECM
(error cuadratico medio), del desvo y el de la varianza de un estimador, a partir
de la muestra, a un sin conocer la distribucion de donde provienen los datos.
La idea central de este metodo es simple.
Dada una muestra aleatoria con n observaciones, dicha muestra es tratada
como si fuera toda la poblacion de la cual se extraeran B muestras con reposi-
cion.
Para cada una de las b nuevas muestras, se realizara una estimacion del
parametro de interes.
Su usaran los B valores bootstrap estimados para aproximar la distribucion
del estimador del parametro, y funciones derivadas de dicha distribucion (como
la precision).
Si la muestra original es una mala representacion de la poblacion en general,
a pesar de ser una muestra aleatoria bien tomada, la simulacion bootstrap va a
generar una estimacion pobre de la precision.
La estadstica no mejora un dise no pobre.
Los modelos deben ser elegidos con conocimiento general del problema, y
luego ajustados con los datos recolectados para tal n.
12.1. Distribucion emprica de un grupo de datos jos
Recordemos que si tenemos un grupo de datos observados, x
1
, . . . , x
n
disponibles
se dene la distribucion acumulada emprica F
e
del grupo de datos.
Ordenando los datos de menor a mayor: x
(1)
, . . . , x
(n)
Deniendo F
e
(x) como:
F
e
(x) =
_
_
_
0 x < x
(1)
i/n x
(i)
x < x
(i+1)
: 1 i n
1 x
(n)
x
F
e
(x
(i)
) =
i
n
proporcion de x, menores a x
(i)
Consideraciones estadsticas
Si el grupo de datos observados x
1
, . . . , x
n
es una realizacion de una muestra
aleatoria x
1
, . . . , x
n
, esto es V.A. independientes con la misma distribucon F:
F(x) = P[X x] entonces los parametros = E[X
i
],
2
= V ar(x
i
) dependen
de la distribucion F.
104
Supongamos que el grupo de datos observados x
1
, . . . , x
n
es una realizacion
de una muestra aleatoria X
1
, . . . , X
n
esto es, V.A. independientes con la misma
distribucion F.
La variable discreta X
e
que toma los valores de la muestra x
1
, . . . , x
n
con
igual probabilidad
1
n
. Combinando los pesos si los X
i
son todos distintos, tiene
distribucion acumulada F
e
.

Fe
= E
Fe
[X
e
] =
n

i=1
x
i
P[x
e
= x
i
]
=
n

i=1
x
i
n
=
n

i=1
x
i
n
= x

2
Fe
= V ar
Fe
(x
e
) = E
Fe
[(x
e

Fe
)
2
]
=
n

i=1
(x
i

Fe
)
2
P[x
e
= x
i
]
=
n

i=1
(x
i

Fe
)
2
n
=
1
n
n

i=1
(x
i
x)
2
=
n 1
n
S
2
Estimaciones Si X
1
, . . . , X
n
son V.A. independientes con distribucion com un
F, tal que E[x] = , V ar(x) = E[(x )
2
] =
2
, E[(x )
4
] =
4
La media muestral y la la varianza muestral se dene como:
x(n) =
1
n
n

i=1
x
i
S
2
(n) =
1
n 1
n

i=1
(x
i
x(n))
2
x(n) y S
2
(n) son estimadores insesgados de y
2
La varianza del estimador esta dada por: V ar(x(n)) =

2
n
La varianza del estimador S
2
(n) esta dada por: V ar(S
2
(n)) =
4
n

(n3)
4
n(n1)
105
Distribucion F Distribucion F
e
E[x(n)] = E
Fe
[x(n)] =
Fe
E[S
2
(n)] =
2
E
Fe
[S
2
(n)] =
2
Fe
V ar[x(n)] =

2
n
V ar[x(n)] =

2
Fe
n

Fe
=
1
n
n

i=1
x
i

2
Fe
=
1
n
n

i=1
(x
i

Fe
)
2
12.2. Tecnica Bootstrap
As como X(n) y S
2
(n), pueden denirse otros estimadores para un deter-
minado parametro .
Si

= g(x
1
, . . . , x
n
) es un estimador para un parametro interesa conocer:
V ar(

) y ECM(

, ) = E[(

)
2
]
Estos valores suelen ser difcles de calcular algebraicamente o numerica-
mente, mas a un si no se conoce la distribucion.
La tecnica de bootstsrap propone aproximar esta estimacion utilizando la
distribucion emprica.
Si n es sucientemente grande, suele ser cierto que:
(Glivenko-Cantelli): F
e
converge uniformemente en X a F con probabili-
dad 1.
Puede suponerse que los parametros (F
e
) de F
e
se aproximan a los
parametros de F de manera continua.
Entonces por ejemplo: el error cuadratico medio del estimador:

= g(x
1
, . . . , x
n
)
ECM(

, ) =
_
. . .
_
(g(x
1
, . . . , x
n
)
2
)f(x
1
) . . . f(x
n
)dx
1
. . . dx
n
Podra aproximarse por:
ECM
e
(

, ) = E
Fe
[(g(x
1
, . . . , x
n
) (F
e
))
2
]
ECM
e
(

, ): aproximacion boostrap al ECM.


Una aproximacion Boostrap requiere una suma de n
n
terminos, si la muestra
es de n observaciones.
Cualquier sea el estimador = g(x
1
, . . . , x
n
) de un parametro , la esti-
macion bootstrap de ECM( ).

1i1n
. . .

1inn
(g(x
i1
, . . . , x
in
) (F
e
))
2
n
n
Por ejemplo, para la aproximacion de ECM(S
2
(n)) se debera calcular:
106

Fe
una vez
V ar
Fe
una vez
Por cada una de las muestras calcular el promedio x(n) y la varianza
muestral S
2
(n) y hacer:
_
S
2
(n) V ar
Fe
_
2
Ejemplo
A partir de las 2 observaciones: x
1
= 1 , x
2
= 3.
Calcular la aproximacion Bootstrap del ECM(x, ) y ECM(S
2
,
2
).
Siendo x =
1
2
(x
1
+x
2
) y S
2
=
1
21
n

i=1
(x
i
x)
2
Dado que x y S
2
son estimadores insesgados de la media y de la varianza
respectivamente, se tiene que el error cuadratico medio con respecto a estos
parametros es igual a la varianza.
ECM(x, ) = V ar(x) = E[(x E[x])
2
]
ECM(S
2
,
2
) = V ar(S
2
) = E[(S
2
E[S
2
])
2
]
Para la aproximacion bootstrap utilizamos la distribucion emprica que da
probabilidad: p
1
= p
2
=
1
2
Varianza de la media muestral: V ar(x)
V ar
Fe
(x) = E
Fe
[(x E
Fe
[x])
2
] =
n
n

i=1
(x
Fe
)
2
n
n
Observaciones originales: x
1
= 1 y x
2
= 3
E
Fe
[x] =
Fe
=
1 + 3
2
= 2
x
1
x
2
x (x 2)
2
1 1 1 1
1 3 2 0
3 1 2 0
3 3 3 1
V ar
Fe
(x) =
1
4
1 +
1
4
0 +
1
4
0 +
1
4
1 =
1
2
Varianza de la varianza muestral: V ar(S
2
)
V ar
Fe
(S
2
) = E
Fe
[(S
2
E
Fe
[S
2
])
2
] =
n
n

i=1
(S
2
i

2
Fe
)
2
n
n
107
Observaciones originales: x
1
= 1, x
2
= 3
E
Fe
[S
2
] =
2
Fe
=
(1 2)
2
+ (3 2)
2
2
= 1
x
1
x
2
x S
2
(S
2
1)
2
1 1 1 0 1
1 3 2 2 1
3 1 2 2 1
3 3 3 0 1
V ar
Fe
(S
2
) =
1
4
1 +
1
4
1 +
1
4
1 +
1
4
1 = 1
12.3. Bootstrap y Montecarlo
Montecarlo: este promedio puede aproximarse con un promedio de B termi-
nos, tomando B muestras aleatorias (x
j
1
, x
j
2
, . . . , x
j
n
) : 1 j B
Y
1
=
_
g(x
j
1
, x
j
2
, . . . , x
j
n
) (F
e
)
_
2
.
.
.
Y
b
=
_
g(x
B
1
, x
B
2
, . . . , x
B
n
) (F
e
)
_
2
ECM
e
( )
B

j=1
Y
j
B
12.3.1. Aproximacion Bootstrap para ECM(S
2
,
2
) = V ar(S
2
)
1. Obtener una muestra x
1
, . . . , x
n
(datos observados).
2. F
e
le asigna la probabilidad 1/n a cada uno de estos datos, (sumando
pesos si no son todos distintos).
3. Utilizar la distribucion emprica para calcular:
E
Fe
[(S
2
(n)) E
Fe
[S
2
(n)])
2
] = E
Fe
[(S
2
(n) V ar
Fe
(x))
2
]
Siendo
Fe
=
1
n
(x
1
+. . . +x
n
)
V ar
Fe
(x) =
1
n
_
(x
1

Fe
)
2
+. . . + (x
n

Fe
)
2
_
108
Ejemplo
A partir de las siguientes 15 observaciones:
5, 4, 9, 6, 21, 17, 11, 20, 7, 10, 21, 15, 13, 16, 8
Calcular la aproximacion bootstrap de V ar(S
2
) = V ar(S
2
(15))
La distribucion emprica da peso P(21) =
2
15
y p(x) =
1
15
a los restantes 13
valores.

Fe
= 12,2
V ar
Fe
(x) = 32,03
Por cada una de las 15
15
muestras y
1
, . . . , y
15
calcular
y =
1
15
15

i=1
y
i
S
2
(n) =
1
14
15

i=1
(y
i
y)
2
(S
2
(n) 32,02)
2
Promediar
1 // X con d i s t r i b Fe
2 for ( i = 1 to nb) {
3 U = Uniforme ( )
4 I = n u +1;
5 x = X[ I ]
6 }
Heurstica con B = 100 simulaciones se obtiene una buena aproximacion del
ECM
e
Esta aproximacion bootstrap es a su vez una aproximacion del ECM
12.4. Aproximaci on bootstrap por ECM(x(n), )
El calculo del ECM(x(n), ) es muy eciente usando el valor observado de
S
2
n
ya que:
ECM(x(n), ) = V ar(x(n)) =

2
n
= E
_
S
2
n
_
Pero veamos como se aproxima via Bootstrap.
Si tnemos una muestra x
1
, . . . , x
n
de datos observados y F
e
le asigna prob-
abilidad 1/n a cada uno de estos datos.
El ECM estimado via Bootstrap resulta:
ECM(x(n),
Fe
) = E
Fe
[(x(n)
Fe
)
2
]
109
E
Fe
(x(n)) =
Fe
V ar
Fe
(x(n)) =

Fe
n
ECM(x(n),
Fe
) = E
Fe
[(x(n)
Fe
)
2
]
= E
Fe
[(x(n) E
Fe
(x(n)))
2
]
= var
Fe
(x(n))
=

Fe
n
=
1
n
2
n

i=1
(x
i

Fe
)
2
Valor observado de
S
2
n
=
1
n(n1)
n

i=1
(x
i

Fe
)
2
Ejemplo
Si se quiere estimar el tiempo promedio que un cliente pasa en un sistema
debido a:
Tiempo de espera en la cola.
Tiempo(s) de servicio.
W
i
= tiempo que permanece el iesimo cliente en el sistema
Se quiere calcular:
= lm
n
w
1
+. . . +w
n
n
Notar: los tiempos w
i
no son independienes ni identicamente distribudos.
En un caso simple de un solo servidor, en el que los clientes son atendidos
por orden de llegada.
A
i
: tiempo de arribo del cliente i.
S
i
: tiempo de servicio del cliente i.
V
i
: tiempo de salida del cliente i.
V
i
= max{A
i
, V
i1
} +S
i
: V
0
= 0
W
i
= tiempo que pasa el cliente i en el sistema.
W
i
= V
i
A
i
= max{A
i
, V
i1
} +S
i
A
i
N
i
= n umero de clientes el da i.
110
D
i
= suma te tiempos que permanecen los clientes el da i.
D
1
= W
1
+. . . W
n1
D
2
= W
n1+1
+. . . W
n1+n2
.
.
.
D
i
= W
n1+...+ni1+1
+. . . W
n1+...+ni
Notar: los tiempos D
i
u los n umeros N
i
son independientes e identicamente
distribudos.
Caracterizacion de
Por la ley de los grandes n umeros:
= lm
n
w
1
. . . w
n
n
= lm
m
D
1
. . . D
m
N
1
+. . . +N
m
= lm
m
[D
1
. . . D
m
]/m
[N
1
+. . . +N
m
]/m
=
E[D]
E[N]
Donde E[N] es el n umero esperado de cliente que llegan en un da. E[D] es
el tiempo total esperado que esos clientes pasan en el sistema.
Simular el sistema k das.
Estimar E[D] con D =
D1+...+D
k
k
Estimar E[N] con N =
N1+...+N
k
k
Estimar con =
D
N
Para estimar ECM
_
D
N
_
= E
_
(

i
Di

i
Ni
)
2

Usamos el metodo de Bootstrap.


Observar valores d
i
, n
i
: 1 i k
Distribucion emprica: P
Fe
(D = d
i
, N = n) =
1
k
E
Fe
(D) = D =
k

i=1
di
k
E
Fe
(N) = N =
k

i=1
ni
k

Fe
=
D
N
ECM
Fe
D
N
=
1
k
k

i1,...,i
k
_
di
1
+...+di
k
ni
1
+...+ni
k

d
n
_
2
111
Este promedio puede aproximarse con un promedio de B terminos, tomando
B muestras aleatorias (D
j
i
, N
j
i
) : 1 i k, 1 j B
Y
1
=
_
k

i=1
D
1
i
k

i=1
N
1
i

d
n
_
2
.
.
.
Y
B
=
_
k

i=1
D
B
i
k

i=1
N
B
i

d
n
_
2
ECM
e
( )
B

j=1
Y
j
B
112
13. Bondad de Ajuste
Dado un conjunto de observaciones de que distribucion provienen o cual es
la distribucion que mejor ajusta los datos?
Si se realiza una simulacion de datos por computadora Podemos asegurar
que responden a la distribucion deseada?
Para responder estas preguntas, existen tecnicas de validacion estadstica.
Tecnica: prueba de hipotesis:
H
0
) Hipotesis nula: los datos provienen de la distribucion F.
H
a
) Hipotesis alternativa: los datos no provienen de la distribucion F.
13.1. Test de Chi cuadrado
No se utilizan los valores de las observaciones sino las frecuencias. Se com-
para la distribucion de las frecuencias de los datos observados con las frecuencias
seg un la distribucion teorica supuesta.
f
0
: frecuencia observada.
f
e
: frecuencia esperada.
T =

(f
0
f
e
)
2
f
e
p valor = P(T > T
obs
) < : se rechaza la hipotesis nula.
Equivalentemente, si el valor observado es mayor que el valor crtico se rec-
haza h
0
.
Si no. no hay evidencias para rechazar H
0
.
13.2. Implementaci on
P
j
si

f o p son la f.d.p o f.p.m a ajustar.
p
j
=
Y j
_
Yj1

f(x)dx
p
j
=

Yj1xiyj
p(x
i
)
np
j
: es la frecuecia esperada
H
0
: N
j
= np
j
Estadstico: T =
k

j=1
(Njnpj)
2
npj
113
Si t es el valor del estadstico, se calcula:
p valor = P
H0
(T t)
Que permite decidir si la hipotesis nula se rechaza o no.
Si el nivel de signicacion del test es .
P < se rechaza la hipotesis nula.
P > NO se rechaza la hipotesis nula.
p valor proximo a se optimiza el calculo del p valor mediante
simulacion.
El pvalor esta relacionado con los valores crticos y el nivel de signicacion
del test de la siguiente manera.
Para valores de n grandes, el estadstico:
T =
k

j=1
(N
j
np
j
)
2
np
j
tiene aproximadamente una distribucion
2
.
Si se conocen todos los parametros de la distribucion, el n umero de grados
de libertad es k 1.
Si se estiman m parametros, el n umero de grados de libertad es (k 1) m
Para estimar el p valor puede utilizarse:
p valor = P
H0
(T t) P(
2
k1m
t)
Se toma como punto crtico
2
km1,1
P(
2
km1

2
km1,1
) =
Si el valor observado cae en la zona de rechazo, se rechaza la hipotesis
nula.
p valor < se rechaza la hipotesis nula.
p valor no hay evidencias para rechazar H
0
.
Ejemplo
Se tiene el registro de n = 219 tiempos entre arribos, y se utiliza la prueba
chi-cuadrado para ajustar a una distribucion exponencial.

F(x) = 1 e
x/0,3999
: x 0
Se han construido k = 10 intervalos con p = 0,1
np
j
= 21,9 : 5
H
0
) los datos provienen de una distribucion exponencial con media 0,399
114
H
1
) los datos NO provienen de una distribucion exponencial con media
0,399
j intervalo N
j
np
j
(Njnpj)
2
npj
1 [0, 0.042) 19 21.9 0.384
2 [0.042,0.089) 28 21.9 1.699
3 [0.089,0.142) 26 21.9 0.768
4 [0.142,0.204) 12 21.9 4.475
5 [0.204,0.277) 23 21.9 0.439
6 [0.277,0.3666) 14 21.9 2.850
7 [0.3666,0.480) 22 21.9 0
8 [0.480,0.62) 29 21.9 2.302
9 [0.62,0.911) 20 21.9 0.165
10 [0,911, ) 24 21.9 0.201
T = 13,282
Dado que los parametros son todos conocidos, se utiliza una
2
con 9 = 101
grados de libertad.

2
9,0,90
= 14, 684
Es mayor que 13,283 no se rechaza la hipotesis al nivel = 0,10
Equivalentemente: p valor (
2
9
> 13,283) 0,2
p valor > 0,10 : no se rechaza la hipotesis
Pero tomando = 0,25

2
9,0,75
= 11,389 es menor que 12,389 se rechaza la hipotesis.
Cantidades de Demanda
Se tienen registros de cantidades de demanda de un producto, y se quiere
testear el ajuste de estos datos a una distribucion geometrica con p = 0,346
P[X x] = 1 (0,654)
x
: x = 1, 2, . . .
Se han construido k intervalos.
Como la distribucion es discreta, los intervalos son esencialmente subcon-
juntos de valores de la variable.
En este caso se han elegido.
{1}
{2, 3}
{x 4}
H
0
) los datos provienen de una distribucion geometrica con p = 0,346
115
j intervalo N
j
np
j
(Njnpj)
2
npj
1 {1} 59 53.966 0.471
2 {2,3} 50 58.392 1.203
3 {4,5,. . . } 47 43.658 0.256
T = 1,930
Los parametros de la distribucion son conocidos.
Se utiliza una
2
con 2 = 3 1 grados de libertad.

2
2,0,90
= 4,605 no se rechaza la hipotesis nula a un nivel = 0,10.
Equivalentemente p = P(x
2
2
1,930) 0,10
p valor > 0,10 no se rechaza la hipotesis nula.
Ejemplo
Una V.A. puede tomar los valores 1,2,3,4,5. Testear la hipotesis de que estos
valores son equiprobables.
H
0
)p
i
= 0, 2 para i {1, 2, 3, 4, 5}
Se toma una muestra de tama no n = 50
Se obteiene los siguientes valores:
N
1
= 12
N
2
= 5
N
3
= 19
N
4
= 7
N
5
= 7
np
i
= 50 0, 2 = 10 para cada i {1, 2, 3, 4, 5}
Estadstico:
T =
(12 10)
2
+ (5 10)
2
+ (19 10)
2
+ (7 10)
2
+ (7 10)
2
10
= 12,8
p valor P(
2
4
> 12,8) = 0, 0122
Para este valor de p se rechaza la hipotesis de que todos los valores son
equiprobables.
13.2.1. Simulacion del p-valor
Si el valor p es proximo a signica que el valor observado t es proximo al
valor crtico.
Se rechaza o no se rechaza?
Es conveniente tener una estimacion mas exacta para p.
116
13.2.2. Implementacion en el caso discreto
H
0
: P(Y = y
j
) = p
j
j = 1, . . . , k
Generan n. V.A. independientes con probabilidad de masa p
i
: 1 i k
Evaluar el estadstico T.
Repetir el procedimiento r veces y calcular la proporcion de valores mayores
a t.
Generar Y
(1)
1
, Y
(1)
2
, . . . , Y
(1)
n
independientes, que tomen los valores 1, 2, . . . , k
con probabilidad de masa.
P(Y
(1)
1
= j) = p
j
N
(1)
j
= #{i|Y
(1)
i
= j}
Evaluar el estadstico T para este conjunto de valores:
T
(1)
=
k

i=1
(N
(1)
i
np
i
)
2
np
i
Repetir el procedimiento r veces, para obtener
T
(1)
, T
(2)
, . . . , T
(r)
p valor = P
H0
(T t)
#{i : T
i
t}
r
13.2.3. Implementacion para el caso continuo
H
0
: las V.A. Y
1
, . . . , Y
n
tienen distribucion continua F.
Particionar el rango de Y = Y
j
en k intervalos distintos
[y
0
, y
1
), [y
1
, y
2
), . . . [y
k1
, y
k
)
Considerar las n V.A. discretizadas Y
d
1
, Y
d
2
, . . . , Y
d
n
dadas por:
Y
d
j
= i si Y
i
[Y
j1
, Y
j
)
La hipotesis nula entonces es:
H
0
)P(Y
d
j
= i] = F(y
i
) F(yi 1) : i = 1, . . . , k
Proceder ahroa como en el caso discreto.
117
13.3. Test de Kolmogorov-Smirnov
Compara las funciones de distribucion emprica de la muestra y la que se
desea contratar:
Es aplicable a funciones continuas.
Para distribuciones discretas, los valores crticos no estan tabulados.
Para distribuciones continuas, los valores crticos estan tabulados para:
Distribuciones con parametros especicados.
Algunas distribuciones con parametros no especcos (normal, weibull,
gamma, exponencial).
Observar: Y
1
, . . . , Y
n
y considerar la distribucion emprica:
F
e
(x) =
#{i : Y
i
x}
n
F
e
(x) : proporcion de valores observadors menores iguales a X.
Hipotesis nula: F
e
(x) es cercana a F(x).
Estadstico de Kolmogorov-Smirnov.
D = max
x
|F
e
(x) F(x)| : < x <
Ordenar los datos observados: Y
1
= y
1
, . . . , Y
n
= y
n
en orden creciente.
Y (j) = j-esimo valor m as peque no.
Y (1) < . . . < Y (n)
Por ejemplo: y
1
= 3, y
2
= 5, y
3
= 1 y n = 3 entonces:
y
(1)
= 1, y
(2)
= 3, y
(3)
= 5
Distribucion emprica F
e
(x) =
_

_
0 x < y
(1)
1/n y
(1)
x < y
(2)
.
.
.
j/n y
(j)
x < y
(j+1)
.
.
.
1 x y
(n)
D sup
<x<
|F
e
(x) F(x)|
Podemos considerar la diferencia F
e
(x) F(x) y F(x) F
e
(x) y analizar sus
valores maximos (supremos).
D
+
= sup
<x<
|F
e
(x) F(x)|
118
D

= sup
<x<
|F(x) F
e
(x)|
F
e
(Y (n)) = 1 . Por lo tanto D
+
0
F
e
(x) = 0 si x < Y
(1)
por lo que D

0
D = max{D
+
, D

}
Notemos que:
D
+
se alcanza en el lmite inferior de alg un intervalo, ya que F(x) es
creciente y F
e
(x) es constante en [Y
(j1)
, y
(j)
]
D
+
= max
1jn
_
F
e
(Y
(j)
F(Y
(j)
)
_
= max
1jn
__
j
n
_
F(Y
(j)
)
_
D

es el lmite por izquierda calculado en el extremo derecho de alg un


intervalo, ya que F
e
(x) es discontinua en tal punto.
F
e
(Y
(j)
) =
j
n
= F
e
(y(j) ) +
1
n
: peque no
D

= max
1jn
_
F(Y
j
) F
e
(Y
j1
)
_
= max
1jn
_
F(Y
j
)
j 1
n
_
Estadstico de K-S
D = max
1jn
_
j
n
F(Y
(j)
), F(Y
(j)
)
j 1
n
_
Elegir un grado de signicacion (nivel de rechazo) .
Tomar la muestra y ordenar los datos observados.
Calcular el estadstico D en los datos observados.
Valor observado: D = d.
Calcular el p valor = P
F
(D d)
p valor < se rechaza H
0
p valor > no se rechaza H
0
:
Como se calcula el p valor?
Cual es la distribucion del estadstico D?
119
13.3.1. Estimacion del p valor
P
F
(D d) no depende de la distribucion F.
El estadstico D depende de las n observaciones Y
1
, . . . , Y
n
D = sup
x
|F
e
(x) F(x)|
= sup
x
|
#{i : Y
i
x}
n
F(x)|
Si y tiene distribucion F F(y) U(0, 1)
Como F es una funcion creciente entonces:
Y
i
x F(y
i
) F(x)
D = sup
x
|
#{i : F(Y
i
) F(x)}
n
F(x)|
13.3.2. Valor p con parametros estimados
La hipotesis nula no especica completamente la distribucion.
El procedimiento es similar al caso anterior, pero los parametros deben
estimarse nuevamente en cada simulacion.
El modelo
H
0
) Los datos de la muestra Y
1
, Y
2
, . . . , Y
n
provienen de una distribucion
determinada, salvo por un conjunto de parametros desconocidos
1
, . . . ,
m
.
Primer paso

j
: estimacion de
j
a partir de la muestra, j = 1, 2, . . . , m.
p
j
: si la distribucion tiene parametros

1
, . . . ,

m
.
Estadstico T:
T =
k

j=1
(N
j
n p
j
)
2
n p
j
t valor observado del estadstico T.
Simulacion
Objetivo: estimar el valor p.

F : distribucion propuesta en H
0
, con los parametros estimados seg un la
muestra.
El procedimiento consiste en repetir r veces los siguientes pasos:
1. Generar Y
1
, . . . , Y
n


F
2. Calcular N
j
= #{i : Y
i
I
j
}, j = 1, . . . , k
120
3.

1,sim
, . . . ,

m,sim
: estimaciones de los parametros a partir de los valores
Y
i
generados.
4. p
j
(sim) : probabilidades si la distribucion tiene parametros:

1,sim
, . . . ,

m,sim
.
5. Calcular T

:
T

=
k

j=1
(N
j
n p
j
)
2
n p
j
Luego de r pasos se han obtenido r valores para T

:
T
1
, T
2
, . . . , T

r
valor p
#{j|T

j
t}
r
Ejemplo
Parametro estimado: = 2,9.
Valor del estadstico seg un la muestra: t = 19,887
Simulacion:
1. Generar 30 v.a. Poisson con media 2.9.
2.

sim
: estimacion de seg un esta muestra.
3. p

i
: Probabilidad de tomar el valor i seg un una Poisson(

sim
).
4. Calcular T

.
5. valor p: proporcion de valores de T

mayores a 19,887.
13.3.3. Kolmogorov-Smirnov si hay parametros no especicados
Caso continuo:
H0): Las v. a. Y
1
, . . . , Y
n
provienen de una distribucion F con parametros
desconocidos
1
, . . . ,
m
.
Tomar una muestra Y
1
, . . . , Y
n
.
Estimar los parametros a partir de la muestra:

= (

1
, . . . ,

m
).
Calcular el estadstico a partir de la distribucion con parametros estima-
dos:
D = sup
x
|F
e
(x) F

(x)|
d valor de D observado.
valor p P
F

(D d) = P
U
(D d).
Este valor sobreestima el valor de p.
121
Si p < se rechaza la hipotesis nula.
Si esta proximo o es mayor que , se optimiza la estimacion del valor p.
Optimizacion: luego de calcular d, a partir de la muestra:
1. Generar Y
1
, . . . , Y
n
seg un la distribucion F

.
2.

sim
= (

1,sim
, . . . ,

m,sim
): estimacion de los parametros seg un los
datos simulados.
3. F
e,sim
: distribuci on emprica de los datos simulados.
4. Calcular el estadstico D

:
D

= sup
x
|F
e,sim
(x) F

sim
(x)|
Repetir el procedimiento r veces, para obtener D

1
, . . . , D

r
:
valor p
#{j:D

d}
r
122
14. Test de suma de rangos
Bondad de ajuste
Se tiene una muestra de datos y se quiere contrastar la hipotesis H
0
) Los
datos provienen de la distribucion F .
Test chi-cuadrado y test de Kolmogorov Smirnov.
Se tienen dos muestras de datos: H
0
) Los datos de las dos muestras
provienen de una misma distribucion.
Test de suma de rangos (Mann-Whitney o de Wilcoxon).
Se tienen k muestras, k 2, H
0
) Los datos de todas las muestras provienen
de una misma distribucion.
Test de Kruskal-Wallis.
14.1. El problema de las dos muestras
Se han observado m datos: Y
1
, . . . , Y
m
. Por ejemplo, tiempos de permanencia
de clientes en un sistema a lo largo de un da.
Se establece un modelo matematico para estos datos, asumiendo que las Y
i
son independientes e igualmente distribuidas.
Se realiza una simulacion de datos X
1
, . . . , X
n
de acuerdo a este modelo
matematico.
Se puede asegurar que Y
1
, . . . , Y
m
, X
1
, . . . , X
n
son independientes e igual-
mente distribuidas?
Metodo Muestra 1: X
1
, . . . , X
n
Muestra 2: Y
1
, . . . , Y
m
Nota: cualquiera de las dos muestras puede elegirse como primera.
Se ordenan los n +m valores, que asumimos todos distintos.
R(x
i
): rango de x
i
, i-esimo elemento de la muestra 1, entre los n + m
valores.
R: Suma de los rangos de la muestra 1.
R =
n

i=1
R(x
i
)
Ejemplo
Muestra 1: 1, 7, 5, 4.
Muestra 2: 3, 2, 9.
Ordenamiento: 1, 2, 3, 4, 5, 7, 9.
123
R = 1 + 4 + 5 + 6 = 16
R = suma de los rangos de la primera muestra. Estadstico
Un valor grande de R indica que los datos de la primera muestra son en
general mayores que los de la segunda.
Un valor chico de R indica que los datos de la primera muestra son en
general menores que los de la segunda.
Si el valor observado es R = r , se rechaza H
0
si son peque nas algunas de
las probabilidades:
P
H0
(R r) o P
H0
(R r).
Ejemplo
Se observaron durante 5 das los siguientes valores:
342, 448, 504, 361, 453
y la simulacion del modelo matematico propuesto para el sistema arrojo los
siguientes valores:
186, 220, 225, 456, 276, 199, 371, 426, 242, 311.
Test de suma de rangos:
186, 199, 220, 225, 242, 276, 311, 342, 361, 371, 426, 448, 453, 456, 504
R = 8 + 12 + 15 + 9 + 13 = 57
Calculo de P
H0
(R r)
Si n y m son valores peque nos, puede utilizarse una formula recursiva para
el calculo de P
H0
(R r).
Si n y m son valores grandes ( 8), conviene utilizar distribucion de R, o
simulacion.
Muestras chicas P
n,m
(r): probabilidad que de dos conjuntos de datos igual-
mente distribuidos, de tama nos n y m respectivamente, la suma de los rangos
de los datos del primer conjunto sea menor o igual a r .
Notacion: P
n,m
(r) = P
H0
(R r)
R = r : valor observado del rango de la primera muestra (de tama no n).
Si el mayor valor es de la primera muestra:
r = r (m+n) + (m+n)
r (m+n): suma de los rangos de los n 1 restantes.
124
m+n: rango del mayor.
P(R r| el mayor esta en la 1ra. muestra) = P
n1,m
(r mn)
Si el mayor valor corresponde a la segunda muestra, se tiene
P(R r| el mayor esta en la 2da. muestra) = P
n,m1
(r)
Las probabilidades que un elemento de la primera (segunda, respectiva-
mente) muestra sea el mayor son:
n
m+n
y
m
m+n
Denicion recursiva de P
n,m
(r):
P
n,m
(r) =
n
n +m
P
n1,m
(r n m) +
m
m+n
P
n,m1
(r)
Condiciones iniciales:
P
1,k
=
_
0 k 0
1 k > 0
P
0,k
=
_
0 k < 0
1 k 0
Calculo recursivo del valor p
El valor p esta dado por
2 mn{P
H0
(R r), P
H0
(R r)}
P
H0
(R r) = 1 P
H0
(R r 1).
Calculo del valor p por recursion:
valor p = 2 mn
_
P
n,m
(r), 1 P
n,m
(r 1)
_
Desventajas del metodo recursivo
Para n = m = 20, 1+2+. . . +40 = 820, por lo que el rango de la muestra
de menor rango podra alcanzar el valor 410.
En tal caso, sera necesario calcular 2020410 = 164000 valores de P
n,m
(r).
Distribucion del estadstico R
H
0
: Las dos muestras estan igualmente distribuidas.
Bajo la hipotesis H
0
, todos los ordenamientos de los n + m valores son
igualmente probables.
125
Notacion:
N = n +m.
x
1
, . . . , xn: elementos de la primera muestra.
R(x
i
): rango del elemento x
i
, i = 1, . . . , n.
R = R(x
1
) +. . . +R(x
n
) tiene una distribucion aproximadamente normal:
R E[R]
_
V ar(R)
N(0, 1)
Parametros de la distribucion de R.
E[R(x
i
)] =
N

j=1
j
1
N
=
N + 1
2
E[R] =
n

i=1
E[R(x
i
)] = n
N + 1
2
V ar[R(x
i
)] =
(N 1)(N + 1)
12
Cov(R(x
i
), R(x
j
)) =
N + 1
2
V ar(R) = nm
N + 1
12
Bajo la hipotesis H
0
y para n y m grandes:
W =
R n
N+1
2
_
nm
N+1
12
N(0, 1)
Si r E[W], entonces P(W r) P(W r).
Si r E[W], entonces P(W r) P(W r).
r

=
rn
N+1
2

nm
N+1
12
valor p
_
2P(Z < r

) si r n
N+1
2
2P(Z > r

) caso contrario
Ejemplo:
Los siguientes valores corresponden a observaciones de un sistema durante
5 das:
132, 104, 162, 171, 129
126
La simulacion seg un el modelo matematico propuesto para el sistema arroja
los siguientes valores:
107, 94, 136, 99, 114, 122, 108, 130, 106, 88.
El rango de la primera muestra resulta
12 + 4 + 14 + 15 + 10 = 55.
Valor p usando recursion? Ross: 0,0752579.
Valor p por aproximacion normal:
E[R] = 5
5 + 10 + 1
2
= 40, 55 > 40
valor p = 2P
_
_
Z
55 40
_
5016
12
_
_
= 2P(Z 1,8371) = 0,066
Respuesta exacta: 0,0752579.
Aproximacion mediante simulacion
H
0
: si los n + m datos son distintos, todos los ordenamientos son igual-
mente probables.
Simulacion:
Generar un subconjunto de tama no n del conjunto 1, 2, . . . , n +m.
Determinar R: suma de los elementos generados.
Comparar R con el valor observado r.
R r
R r
Repetir los pasos anteriores k veces.
Se habran obtenido los valores R
1
, . . . , R
k
.
Estimar:
P(R r) =
#{i:Rir}
k
P(R r) =
#{i:Rir}
k
Caso de datos repetidos
Si las muestras tienen datos repetidos, se utiliza como rango el promedio de
los rangos de dichos valores.
Ejemplo:
Muestra 1: 2, 3, 4
Muestra 2: 3, 5, 7.
Ordenamiento: 2, 3, 3 , 4, 5, 7
R = 1 + 2,5 + 4 = 7,5.
127
14.2. Problema de m ultiples muestras
Se tienen m muestras de tama nos n
1
, n
2
, . . . , n
m
.
R
i
: rango de la i-esima muestra.
n = n
1
+. . . +n
m
: n umero total de datos u observaciones.
H
0
: todas las muestras estan igualmente distribuidas todos los orde-
namientos de los n datos son igualmente probables.
E[R
i
] = n
i
n+1
2
Estadstico:
R =
12
n(n + 1)
m

i=1
_
R
i
n
i
(n + 1)/2
_
2
n
i
Valores chicos de R no indicaran que haya que rechazar H
0
.
Si se observa R = y , entonces
valor p = P
H0
(R y).
Si los tama nos de las muestras son grandes, R puede aproximarse por una dis-
tribucion chi-cuadrado con m1 grados de libertad:
valor p P(
2
m1
y).
Puede usarse simulacion.
La aproximacion chi-cuadrado tambien puede utilizarse si hay datos repeti-
dos.
128
15. Validacion de hipotesis de un proceso de
Poisson no homogeneo
15.1. Proceso de Poisson no homogeneo
H
0
) Las llegadas diarias a un sistema ocurren de acuerdo a un Proceso de
Poisson no homogeneo.
El n umero de llegadas en un perodo (t, t + s) es una variable aleatoria
Poisson:
E[N(t +s) N(t)] =
s+t
_
s
(x)dx
(x) es la funcion de intensidad.
El n umero de llegadas diarias es una v. a. Poisson, con media

=
T
_
0
(x)dx,
T : long. del da.
Si las llegadas diarias durante r das fueron N
1
, . . . , N
r
, puede utilizarse un
test de bondad de ajuste para validar la hipotesis que son v. a. Poisson con la
misma media.
Metodo alternativo
En una variable aleatoria Poisson X , la media es igual a la varianza:
E[X] = V ar(X) = .
Esto implica en particular:
V ar(X)
E[X]
= 1
Si las observaciones del n umero de llegadas durante r das son respectivamente:
N
1
, N
2
, . . . , N
r
la hipotesis nula establece que E[N
i
] = V ar[N
i
], i = 1, . . . , r .
Podemos estimar la media y la varianza con la media muestral N y la vari-
anza muestral S
2
:
N =
r

i=1
Ni
r
S
2
=
r

i=1
(NiN)
2
r1
Si H
0
es cierta, N y S
2
deberan ser aproximadamente iguales.
Estadstico del test:
T =
S
2
N
129
Valores grandes o peque nos de T indicaran que la hipotesis no es correcta.
valor p = 2 mn
_
P
H0
(T t), P
H0
(T t)
_
.
Notar que H
0
no especica la media de la distribucion (), por lo tanto debe
ser estimada.
Sea m la estimacion de la media: N = m.
Denotamos P
m
(A) como la probabilidad bajo H
0
, suponiendo que la media
es m:
valor p = 2 mn
_
P
m
(T t), P
m
(T t)
_
.
El valor p puede calcularse mediante simulacion
1. Generar r V.A. Poisson con media m.
2. Calcular T y comparar con el valor observado t.
3. Repetir k veces.
Estimar:
P(T t) =
#{i:Tit}
k
P(T t) =
#{i:Tit}
k
Si el valor p es peque no se rechaza la hipotesis que el n umero de llegadas
diarias sea una v.a. Poisson.
Si no se rechaza la hipotesis, hay evidencias que los tiempos de llegadas de
un da y otro correspondan a una misma funcion de intensidad?
Se han observado N
i
tiempos de llegada el da i-esimo:
X
i,1
, X
i,2
, . . . , X
i,Ni
, i = 1, . . . , r.
Si los tiempos de llegada corresponden a un P.P. no homogeneo, entonces
cada conjunto {X
i,1
, X
i,2
, . . . , X
i,Ni
} es una muestra de una misma distribucion.
Bajo la hipotesis nula, todos los X
i,j
son independientes y estan igualmente
distribuidos.
En particular, se tienen r muestras de v.a. independientes, con la misma
distribucion.
Validacion: utilizar la prueba de Kruskal-Wallis (varias muestras).
N = N
1
+. . . +N
r
: n umero total de llegadas.
R
i
: rango de la i-esima muestra (da).
R =
12
n(n + 1)
m

i=1
_
R
i
n
i
(n + 1)/2
_
2
n
i
Si H
0
es cierta:
R
2
r1
130
Valor observado de R = y:
valor p = 2 mn
_
P
H0
(R y), P
H0
(R y)
_
= 2 mn
_
P(
2
r1
y), P(
2
r1
y)
_
Dos colas: se esta testeando homogeneidad e independencia.
Para calcular el valor p tambien se puede utilizar simulacion.
Ejemplo
Se han observado durante 5 das los tiempos de entrega y los n umeros de
entregas diarias.
Das 1 2 3 4 5 Total
N umeros de entrega 18 24 16 19 25 102
Si se ordenan los tiempos de entrega, la suma R
i
de los rangos de entregas
de cada da son:
i 1 2 3 4 5
R
i
1010 960 1180 985 1118
Paso 1: validar la hipotesis que el n umero de entregas proviene de una misma
distribucion de Poisson.
N =
102
5
= 20,4
S
2
= 15,3
T = 0,75
valor p: mediante simulacion.
Generar M muestras de 5 v. a. Poisson independientes con media m = 20,4.
Calcular T =
S
2
N
.
valor p 0,84: no se rechaza la hipotesis que los n umeros de entrega sean
v.a. independientes con una distribucion de Poisson.
131
Paso 2: Validar la hipotesis de un P. P. no homogeneo:
R =
12
n(n + 1)
m

i=1
_
R
i
n
i
(n + 1)/2
_
2
n
i
= 14,425
Prueba chi-cuadrado:
P(
2
4
14,425) = 0,006
Se rechaza la hipotesis que los tiempos de llegada provienen de un Proceso
de Poisson no homogeneo.
15.1.1. La funcion de intensidad
Si no se rechaza la hipotesis de un proceso de Poisson no homogeneo, como
se estima la funcion de intensidad (t)?
Estimacion de (t)
Ordenar los N tiempos de llegada
y
0
< y
1
< . . . < y
N
.
En el tiempo (y
j1
, y
j
) ocurrio una llegada en el total de r das, por lo que
se estima que en un da hay un promedio de 1/r llegadas.
Si

(t) es la f. de intensidad, :
E[N(y
j
) N(y
j1
)] =
yj
_
yj1

(t)dt =
1
r
Se puede elegir:

(t) =
1
(y
j
y
j1
)r
: y
j1
< t < y
j
15.2. Proceso de Poisson homogeneo
Si el P. Poisson se supone homogeneo, N
1
, N
2
, . . . , N
r
tambien deben ser v.
a. Poisson.
Paso 1: validar la hipotesis que los n umeros de llegada diarias son v. a.
Poisson. Igual que para no homogeneos.
Paso 2: validar que los tiempos de llegada son v. a. con una misma distribu-
cion. Se puede mejorar este paso.
En un proceso de Poisson homogeneos, dado el n umero de llegadas en un
da, los tiempos de llegada estan uniformemente distribuidos.
Para validar que esta hipotesis, puede utilizarse el Test de Kolmogorov-
Smirnov.
132
Test de Kolmogorov-Smirnov
Dados los tiempos de llegada en los r das:
X
1,1
, X
1,2
, . . . , X
1,N1
X
2,1
, X
2,2
, . . . , X
2,N2
.
.
.
X
r,1
, X
r,2
, . . . , X
r,Nr
Ordenar los tiempos X
i,j
, i = 1, . . . , r , j = 1, . . . , N
i
.
N = N
1
+N
2
+. . . +N
r
: n umero total de llegadas, valor conocido.
H
0
) Los N tiempos de llegada estan uniformemente distribuidos en un da
(o intervalo (0, T).)
Denir la distribucion emprica:
F
e
(x) =
#{(i, j)|X
i,j
x}
N
Estadstico de Kolmogorov-Smirnov:
D = max
0xT
|F
e
(x)
x
T
|
Calcular el valor p mediante simulacion.
15.3. Ejercicios
Plantear la resolucion de los siguientes ejercicios:
Se han registrado el siguiente n umero de arribos diarios durante 8 das:
122, 118, 120, 116, 125, 119, 124, 130.
Puede decirse que los arribos diarios provienen de un proceso de Poisson
no homogeneo?
Durante un intervalo de tiempo de longitud 100, se han producido 18
llegadas en los siguientes instantes:
12, 20, 33, 44, 55, 56, 61, 63, 66, 70, 73, 75, 78, 80, 82, 85, 87, 90.
Aproximar el p-valor de la muestra bajo la hipotesis: El proceso de llegada
es de Poisson homogeneo.
133

S-ar putea să vă placă și