Documente Academic
Documente Profesional
Documente Cultură
·
do 2000 por Chapman & Hall / CRC 50
G a veces se llama la selección sesgada distribución de F. Una
variable aleatoria con G distribución podría surgir de la siguiente
manera. Supongamos que X es una variable aleatoria discreta
distribuidos uniformemente sobre la
conjunto S = {a1, ··· , unnorte} donde la unayo > 0 para i = 1, ···, n. Más
bien
que el muestreo uniforme de S, que muestra de manera que la
probabilidad
ai que se selecciona es proporcional a la IA (esto se denomina
longitud de muestreo sesgado); es decir, nos muestra una variable
aleatoria discreta Y por lo que P (Y = ai) = kai por alguna constante
k. Es fácil ver que para Y tener una distribución de probabilidad
válida, debemos tener
y así μ = [E (1 / Y)]-1. ✸
·
do 2000 por Chapman & Hall / CRC 51
FUNCIÓN DE VARIANZA Y GENERADORA DE
MOMENTOS
DEFINICIÓN. Sea X una variable aleatoria con μ = E (X).
A continuación, la varianza de X, Var (X), se define como
Var (X) = E [(X - μ)2].
Si E (X2) <∞ entonces Var (X) <∞; si E (X2) = ∞ a continuación,
vamos a de fi nir Var (X) = ∞ (incluso si E (X) no es finito o no está
definida).
Dada σ2 = Var (X), que puede de fi nir la desviación típica de X
ser
SD (X) = σ = V Var (X).
También podemos obtener las siguientes propiedades de la varianza
y la desviación típica de una variable aleatoria.
• Var (X) ≥ 0 y Var (X) = 0 si, y sólo si, P (X = μ) = 1, donde
μ = E (X).
• Var (X) = E (X2) - μ 2.
• Para cualquier constantes a y b, Var (aX + b) = a2Var (X) y así se
deduce que SD (aX + b) = | a | SD (X).
La última propiedad anteriormente es particularmente
importante, ya que indica que tanto la varianza y la desviación
estándar de alguna manera miden la cantidad de "dispersión" en la
distribución de una variable aleatoria y son ff UNA reflejada por los
cambios en el "localización" de una variable aleatoria (desde Var ( X
+ b) = Var (X)). La desviación estándar tiene las mismas unidades
de medida como la propia variable aleatoria y por lo tanto tiene una
interpretación más natural que la varianza (cuyas unidades son el
cuadrado de las unidades originales). Sin embargo, como veremos
más adelante, la varianza tiene muy buena algebraicas y
propiedades computacionales. Es importante tener en cuenta que
no hay nada especial en concreto la varianza y la desviación
estándar como medidas de dispersión; Un problema es el hecho de
que ambos pueden estar distorsionados por pequeñas cantidades de
probabilidad que se producen en las "colas" de la distribución.
·
do 2000 por Chapman & Hall / CRC 52
Por lo tanto Var (X) = E (X2 ) - [EX)]2 = (b - a)2/12. ✸
Ejemplo 1.29: Supongamos que X tiene una distribución binomial
con parámetros n y θ. Para calcular la varianza de X, es conveniente
introducir la fórmula
Var (X) = E [X (X - 1)] + E (X) - [E (X)]2,
que se deriva de la identidad Var (X) = E (X2) - [E (X)] 2. Ahora
tenemos
·
do 2000 por Chapman & Hall / CRC 53
es finito, E (X) está bien definida y es igual a 0. Para calcular la
varianza de X, tenga en cuenta que Var (X) = E (X2) y por lo
¸ ∞ . .
Var (X) = √1 2
x 2 exp -x /2 dx
2π -∞
¸ ∞ . .
2 2 2
·
do 2000 por Chapman & Hall / CRC 54
Es importante tener en cuenta que la función generadora de
momentos no se define para todas las variables aleatorias y, cuando
lo es, m (t) no es necesariamente finita para todo t. Sin embargo, si
la función generadora de momentos m (t) está bien definida
entonces se determina esencialmente la distribución de
probabilidad de la variable aleatoria.
Teorema 1.9 Suponer que x y Y son variables aleatorias tal que
metrox(T) = E [exp (tX)] = E [exp (TY)] = m Y (T)
para todos |t| ≤b> 0. Entonces X e Y tienen la misma distribución
de probabilidad; es decir,
PAG (X ≤ x) = P (Y ≤ x)
para
todos x.
La demostración del Teorema 1.9 es bastante culto di fi, no se
llevará a cabo aquí. Sin embargo, la prueba se basa en un resultado
paralelo a la dada aquí: Si definimos la función característica de X
ser el complejidad valorado la función φ (t) = E [exp (ITX)], donde
exp (es) = cos (s ) + i sen (s), entonces φ (t) especi fi ca la
distribución de probabilidad en el sentido de que la igualdad de las
funciones características implica la igualdad de las funciones de
distribución. Se puede demostrar que, bajo la hipótesis del Teorema
1.9, se obtiene la igualdad de las funciones características de X e Y y
por lo tanto la igualdad en la distribución. Cabe señalar que la
función característica de una variable aleatoria es siempre bien
definido.
·
do 2000 por Chapman & Hall / CRC 56
Ejemplo 1.34: Supongamos que X tiene una distribución
normal estándar. La función generadora de momentos de X
es
·
do 2000 por Chapman & Hall / CRC 57
Teorema 1.10 Suponer que x es una variable aleatoria con la
función generadora de momentos metro(T). Entonces para |
cualquier r> 0, E (| X r) <
∞ y mi(X) = mt(0), E (X2 ) = mtt(0) y, en general E (Xk ) =
metro(k)(0) en donde m(k)(T) denota la derivada k-ésima de m en t.
Prueba. Si X tiene la función generadora de momentos continuación,
| X | tiene un momento r
función de generación de m * (t). A continuación, para cualquier t>
0, tenemos | x| ≤
exp (t | x |) para | x | su fi cientemente grande (por ejemplo, para | x
| ≥ c). entonces tenemos
rr
·
do 2000 por Chapman & Hall / CRC 58
(Se puede demostrar en este caso que la toma de las expectativas en
el interior de la suma fi nito es válido; sin embargo, esto no es cierto
en general.) Di ff ∞
erentiating con respecto at, obtenemos
∞ k-1
ktk-1 mi(X k ) t mi(X k)
.
metrot(T) = = E (X) + .
k!
k= 1 k= 2 (K - 1)!
y el establecimiento de t = 0, se deduce que E (X) = 0.
repetidamente di ff erentiating, obtenemos
∞ j-k
t mi(Xj )
.
metro(k)(T) = E (J - k)!
(Xk) +
j=k+1
y así m (k) (0) = E (Xk). (De nuevo, en este caso, estamos justificado
en erentiating di ff en el interior de la fi suma infinita aunque esto
no es cierto en general.)
·
do 2000 por Chapman & Hall / CRC 59
La serie infinita de arriba converge si, y sólo si, | (1-θ) exp (t) | <1
o (ya que (1-θ) exp (t)> 0) para t <- ln (1-θ). Desde - ln (1-θ)> 0,
la función generadora de momentos de X es
θ
metro(T) =
1 - (1 - θ) exp (t)
·
do 2000 por Chapman & Hall / CRC 60
para t <- ln (1 - θ) (que incluye una zona de 0) y
di ff erentiating, obtenemos
θ(1 - θ) exp (t)
metrot(T) =
(1 (1 θ) exp (t))2
- -
θ(1 - θ) exp (t) (1 - exp (t) θ (1 - θ))
y metrott(t) = .
(1 - (1 - θ) exp (t))3
Obtenemos E (X) = (1 - θ) / θ y Var (X) = (1 - θ) / θ2 configurando
t = 0. ✸
·
do 2000 por Chapman & Hall / CRC 62