Sunteți pe pagina 1din 13

|E(X)| r ≤r E[|X| r ], Que es válido para r ≥ 1 ya que la función

g(x) = |x| r es convexa para r ≥ 1.

A este punto, vamos a introducir un método rápido y conveniente


para los valores esperados escrito. Dada una variable aleatoria X con
función de distribución F, escribiremos

es decir, E [h (X)] es la integral de h (x) con respecto a la función


de distribución F. Por ejemplo, si escribimos h (x) = I (x ≤ t),
entonces E [h (X)] = P (X ≤ t) = F (t) y por lo

De un punto de vista matemático, esta integral se puede interpretar


como una Riemann-Stieltjes integral o (más útil) como un
Lebesgue- Stieltjes integral; precisas de fi niciones de estas
integrales se pueden encontrar en Rudin (1976). Si F es una función
de distribución discreta entonces la integral anterior se interpreta
como una suma mientras que si F es una función de distribución
continua con una función de densidad de la integral se interpreta
como la integral de Riemann de cálculo.
Esta representación integral puede ser manipulado de manera
útil como el siguiente ejemplo sugiere.

Ejemplo 1.27: Supongamos que X es una variable aleatoria


positiva con función de distribución F y establecer γ = E [w (X)] <∞
para algunos
función no negativa w (x). Dada F y γ, podemos definir una nueva
función de distribución por G

·
do 2000 por Chapman & Hall / CRC 50
G a veces se llama la selección sesgada distribución de F. Una
variable aleatoria con G distribución podría surgir de la siguiente
manera. Supongamos que X es una variable aleatoria discreta
distribuidos uniformemente sobre la
conjunto S = {a1, ··· , unnorte} donde la unayo > 0 para i = 1, ···, n. Más
bien
que el muestreo uniforme de S, que muestra de manera que la
probabilidad
ai que se selecciona es proporcional a la IA (esto se denomina
longitud de muestreo sesgado); es decir, nos muestra una variable
aleatoria discreta Y por lo que P (Y = ai) = kai por alguna constante
k. Es fácil ver que para Y tener una distribución de probabilidad
válida, debemos tener

los distribución función de Y tiene un saltar de ai/[nE(X)] a un ai


(para i = 1, ···, n) y por lo tanto se puede escribir como

donde F es la función de distribución de X. Volviendo al caso


general, es bastante fácil ver que, tt dado y la función de w, es
posible determinar F y por lo tanto evaluar E [h (X)] para cualquier
la función h. Por ejemplo, en el caso de longitud de muestreo
sesgado (w (x) = x), podemos determinar μ = E (X) señalando que

Sustituyendo g (y) = 1 /y anterior, obtenemos

y así μ = [E (1 / Y)]-1. ✸

·
do 2000 por Chapman & Hall / CRC 51
FUNCIÓN DE VARIANZA Y GENERADORA DE
MOMENTOS
DEFINICIÓN. Sea X una variable aleatoria con μ = E (X).
A continuación, la varianza de X, Var (X), se define como
Var (X) = E [(X - μ)2].
Si E (X2) <∞ entonces Var (X) <∞; si E (X2) = ∞ a continuación,
vamos a de fi nir Var (X) = ∞ (incluso si E (X) no es finito o no está
definida).
Dada σ2 = Var (X), que puede de fi nir la desviación típica de X
ser
SD (X) = σ = V Var (X).
También podemos obtener las siguientes propiedades de la varianza
y la desviación típica de una variable aleatoria.
• Var (X) ≥ 0 y Var (X) = 0 si, y sólo si, P (X = μ) = 1, donde
μ = E (X).
• Var (X) = E (X2) - μ 2.
• Para cualquier constantes a y b, Var (aX + b) = a2Var (X) y así se
deduce que SD (aX + b) = | a | SD (X).
La última propiedad anteriormente es particularmente
importante, ya que indica que tanto la varianza y la desviación
estándar de alguna manera miden la cantidad de "dispersión" en la
distribución de una variable aleatoria y son ff UNA reflejada por los
cambios en el "localización" de una variable aleatoria (desde Var ( X
+ b) = Var (X)). La desviación estándar tiene las mismas unidades
de medida como la propia variable aleatoria y por lo tanto tiene una
interpretación más natural que la varianza (cuyas unidades son el
cuadrado de las unidades originales). Sin embargo, como veremos
más adelante, la varianza tiene muy buena algebraicas y
propiedades computacionales. Es importante tener en cuenta que
no hay nada especial en concreto la varianza y la desviación
estándar como medidas de dispersión; Un problema es el hecho de
que ambos pueden estar distorsionados por pequeñas cantidades de
probabilidad que se producen en las "colas" de la distribución.

Ejemplo 1.28: Supongamos que X tiene una distribución uniforme


sobre [a, b]. Entonces

·
do 2000 por Chapman & Hall / CRC 52
Por lo tanto Var (X) = E (X2 ) - [EX)]2 = (b - a)2/12. ✸
Ejemplo 1.29: Supongamos que X tiene una distribución binomial
con parámetros n y θ. Para calcular la varianza de X, es conveniente
introducir la fórmula
Var (X) = E [X (X - 1)] + E (X) - [E (X)]2,
que se deriva de la identidad Var (X) = E (X2) - [E (X)] 2. Ahora
tenemos

Usando el hecho de que E (X) = nθ (como se muestra en el Ejemplo


1.25), se deduce que Var (X) = nθ (1 - θ). ✸
Ejemplo 1.30: Supongamos que X tiene una distribución normal
estándar. Puesto que la densidad de X es simétrica alrededor de 0,
se deduce que E (X) = 0, por supuesto siempre que la integral es
bien definida. Ya que

·
do 2000 por Chapman & Hall / CRC 53
es finito, E (X) está bien definida y es igual a 0. Para calcular la
varianza de X, tenga en cuenta que Var (X) = E (X2) y por lo
¸ ∞ . .
Var (X) = √1 2
x 2 exp -x /2 dx
2π -∞
¸ ∞ . .
2 2 2

Si Y = μ + sx entonces Y ~ N (μ, σ2) y se deduce que E (Y) =


μ + σ E (X) = μ y Var (Y) = σ2Var (X) = σ2. ✸
Una herramienta útil para medios de cálculo y varianzas es el
momento en la generación de la función, que, cuando existe, se
caracteriza de forma única una distribución de probabilidad.
DEFINICIÓN. Sea X una multa al azar variable y de
m(T) = E [exp (tX)].
Si m (t) <∞ para | t | ≤ b> 0, entonces m(t) se llama la función
generadora de momentos de X.

·
do 2000 por Chapman & Hall / CRC 54
Es importante tener en cuenta que la función generadora de
momentos no se define para todas las variables aleatorias y, cuando
lo es, m (t) no es necesariamente finita para todo t. Sin embargo, si
la función generadora de momentos m (t) está bien definida
entonces se determina esencialmente la distribución de
probabilidad de la variable aleatoria.
Teorema 1.9 Suponer que x y Y son variables aleatorias tal que
metrox(T) = E [exp (tX)] = E [exp (TY)] = m Y (T)
para todos |t| ≤b> 0. Entonces X e Y tienen la misma distribución
de probabilidad; es decir,

PAG (X ≤ x) = P (Y ≤ x)
para
todos x.
La demostración del Teorema 1.9 es bastante culto di fi, no se
llevará a cabo aquí. Sin embargo, la prueba se basa en un resultado
paralelo a la dada aquí: Si definimos la función característica de X
ser el complejidad valorado la función φ (t) = E [exp (ITX)], donde
exp (es) = cos (s ) + i sen (s), entonces φ (t) especi fi ca la
distribución de probabilidad en el sentido de que la igualdad de las
funciones características implica la igualdad de las funciones de
distribución. Se puede demostrar que, bajo la hipótesis del Teorema
1.9, se obtiene la igualdad de las funciones características de X e Y y
por lo tanto la igualdad en la distribución. Cabe señalar que la
función característica de una variable aleatoria es siempre bien
definido.

Ejemplo 1.31: Supongamos que X es una variable aleatoria


exponencial con el parámetro λ. La función generadora de
momentos (si existe) se define por

Tenga en cuenta que la integral de fi nir m (t) es infinito si, y sólo


si, λ- t> 0 o, equivalentemente, si t <λ. Desde λ> 0, entonces
tenemos m (t) <∞
para t en una zona alrededor de 0, y por lo tanto existe la función
generadora de momentos. Integración simple da
λ
m(T) =
λ-t
·
do 2000 por Chapman & Hall / CRC 55
para t <λ.
Ejemplo 1.32: Supongamos que X tiene una distribución
binomial con parámetros n y θ. La función generadora de
momentos está dada por

donde la línea final sigue por el teorema del binomio. Tenga en


cuenta que m(T) <∞ para todo t. ✸

Ejemplo 1.33: Supongamos que X tiene una distribución de


Poisson con parámetro λ> 0 (X ~ Pois (λ)); esto es una distribución
discreta con
función de frecuencia

exp (-λ) λx para x = 0, 1, 2, ·· ·.


f (x) =
x!
La función generadora de momentos de X es
∞ x

·
do 2000 por Chapman & Hall / CRC 56
Ejemplo 1.34: Supongamos que X tiene una distribución
normal estándar. La función generadora de momentos de X
es

Si Y = μ + sx de manera que Y se distribuye normalmente con media


μ y σ2 varianza entonces la función generadora de momentos de Y es
mY (T) = exp (mT + σ2t2/2). ✸
La función generadora de momentos no tiene ninguna
interpretación de utilidad real; se utiliza casi exclusivamente como
un dispositivo técnico para com- Puting ciertos valores esperados y
como dispositivo para la demostración de teoremas límite para las
secuencias de funciones de distribución. Además se ha dado el
momento en función de una variable aleatoria que genera, es posible
invertir el momento en la generación de función (o la característica
de función) para obtener la distribución o función de densidad; Sin
embargo, el uso de estas fórmulas de inversión puede implicar
algunas técnicas analíticas y numéricas muy delicados.
Como su nombre indica, de momento la generación de funciones
son útiles para calcular los momentos de una variable aleatoria. Los
momentos de
x se definen como los valores esperados E (X), E (X2), E (X3), ·· ·.
E(Xk) se define como el momento de orden k-th de X.

·
do 2000 por Chapman & Hall / CRC 57
Teorema 1.10 Suponer que x es una variable aleatoria con la
función generadora de momentos metro(T). Entonces para |
cualquier r> 0, E (| X r) <
∞ y mi(X) = mt(0), E (X2 ) = mtt(0) y, en general E (Xk ) =
metro(k)(0) en donde m(k)(T) denota la derivada k-ésima de m en t.
Prueba. Si X tiene la función generadora de momentos continuación,
| X | tiene un momento r
función de generación de m * (t). A continuación, para cualquier t>
0, tenemos | x| ≤
exp (t | x |) para | x | su fi cientemente grande (por ejemplo, para | x
| ≥ c). entonces tenemos
rr

·
do 2000 por Chapman & Hall / CRC 58
(Se puede demostrar en este caso que la toma de las expectativas en
el interior de la suma fi nito es válido; sin embargo, esto no es cierto
en general.) Di ff ∞
erentiating con respecto at, obtenemos
∞ k-1
ktk-1 mi(X k ) t mi(X k)
.
metrot(T) = = E (X) + .
k!
k= 1 k= 2 (K - 1)!
y el establecimiento de t = 0, se deduce que E (X) = 0.
repetidamente di ff erentiating, obtenemos
∞ j-k
t mi(Xj )
.
metro(k)(T) = E (J - k)!
(Xk) +
j=k+1

y así m (k) (0) = E (Xk). (De nuevo, en este caso, estamos justificado
en erentiating di ff en el interior de la fi suma infinita aunque esto
no es cierto en general.)

Ejemplo 1.35: Supongamos que X es una variable aleatoria


exponencial con parámetro λ poder. En el Ejemplo 1.31,
encontramos el momento género función erating sea m (t) = λ / (λ -
t) (para t <λ). Di ff erentiating obtenemos

Por lo tanto, el establecimiento de t = 0, obtenemos E (Xk) = k


λ-k!; en particular, E (X) =
λ-1 y Var (X) = E (X2 ) - [EX)]2 = λ-2. ✸
Ejemplo 1.36: Supongamos que X ~ Geom (θ) (Ejemplo 1.12);
Recordamos que la función de frecuencia de esta variable aleatoria
F (x) = θ(1 - θ)x para x = 0, 1, 2, ·· ·.
Así, la función generadora de momentos está dada por

·
do 2000 por Chapman & Hall / CRC 59
La serie infinita de arriba converge si, y sólo si, | (1-θ) exp (t) | <1
o (ya que (1-θ) exp (t)> 0) para t <- ln (1-θ). Desde - ln (1-θ)> 0,
la función generadora de momentos de X es
θ
metro(T) =
1 - (1 - θ) exp (t)

·
do 2000 por Chapman & Hall / CRC 60
para t <- ln (1 - θ) (que incluye una zona de 0) y
di ff erentiating, obtenemos
θ(1 - θ) exp (t)
metrot(T) =
(1 (1 θ) exp (t))2
- -
θ(1 - θ) exp (t) (1 - exp (t) θ (1 - θ))
y metrott(t) = .
(1 - (1 - θ) exp (t))3
Obtenemos E (X) = (1 - θ) / θ y Var (X) = (1 - θ) / θ2 configurando
t = 0. ✸

Lo contrario al teorema 1.10 no es cierto; es decir, la fi niteness de


E (Xk) para todo k> 0 no implica la existencia del momento en
función de la generación X. El siguiente ejemplo ilustra esto.

Ejemplo 1.37: De fi ne X sea una variable aleatoria continua tal


que ln (X) tiene una distribución normal estándar; la densidad de
x es .
2
.
F (x) √ exp -(Ln (x)) /2 para x> 0
= 1
x 2π
(X se dice que tiene una distribución log-normal). Desde Y = ln (x) es
una variable aleatoria normal estándar, se deduce que

mi(Xk) = E [exp (KY)] = exp (k2/2)


(Usando el momento en función de la distribución normal estándar
generación) y así E (Xk) <∞ para cualquier k real. Sin embargo, X
hace
no tiene una función generadora de momentos. Para ver esto, tenga
en cuenta que
¸ ∞ . .
1 -1 2
mi [Exp (tX)] √ exp (tx) exp -(Ln (x)) / 2 dx
= 2π 0 x
1 ¸∞ . .
= √ exp t exp (y) - y 2 /2 dy;
2π -∞

para t> 0, la integral es infinito desde t exp (y) - y2/2 → ∞ como y →


∞ (para t> 0). Por lo tanto E [exp (tX)] = ∞ para t> 0 y por lo tanto
el momento en función de X generando no lo haceexiste. ✸
Tomado juntos, Teoremas 1.9 y 1.10 implica que si X e Y son dos
variables aleatorias tal que E (Xk) = E (Y k) para k = 1, 2, 3, ···
y X tiene una función de generación de momento entonces X e Y
tienen la misma distribución. Sin embargo, el hecho de que X e Y
tienen momento generar funciones similares no significa que X e Y
lo hará
·
do 2000 por Chapman & Hall / CRC 61
tienen distribuciones similares; por ejemplo, McCullagh (1994) da
un ejemplo de dos funciones de momento la generación que son
prácticamente
indistinguibles (que di ff er por un máximo de 3 × 10-9) sino que
corresponden
a las distribuciones Erent di ff mismos (véase también Waller,
1995). Además, la igualdad de E (Xk) y E (Y k) (para k = 1, 2, ·· ·) no
implica
No existen funciones de generación de igualdad ifmoment
ofdistributions como ilustra el siguiente ejemplo.

Ejemplo 1.38: Supongamos que X e Y son variables aleatorias


continuas con funciones de densidad de
1 . .
Fx (x) = √ exp -(Ln (x))2 /2 para x> 0
x 2π
y
1 . .
FY (X) √ exp -(Ln (x))2 /2 (1 + sen (2π ln (x))) para x> 0.
=
x 2π
(X tiene la distribución logarítmica normal del ejemplo 1.37.) Para
cualquier
k = 1, 2, 3, ·· ·, tenemos
mi(Y k) = E (Xk) .
. (Ln (x))
2
1 ¸∞
+√ xk-1 exp sin (2π ln (x))) dx
2π 0
-
2
y haciendo que la sustitución y = ln (x) - k, tenemos
¸ ∞ . .
xk-1 exp -(Ln (x))2 /2 sen (2π ln (x))) dx
0
. .
¸ ∞
= exp k 2 + ky - (y + k)2 /2 sen (2π (y + k)) dy
-∞ . .¸ ∞ . .
= exp k 2 /2 exp y2 /2 sen (2πy) dy
-
-∞
=0
. .
ya que la exp integrando -y2 /2 sen (2πy) es una función impar. Por
lo tanto E (Xk ) = E (Y k) para k = 1, 2, 3, ··· a pesar de que X e Y
tienen di ff Erent distribuciones. ✸

·
do 2000 por Chapman & Hall / CRC 62

S-ar putea să vă placă și