Sunteți pe pagina 1din 6

DISTRIBUCIONES MUESTRALES

El objetivo de la inferencia estadística es obtener conclusiones acerca de una


población usando una muestra de la misma. La mayoría de los métodos estadísticos suponen el
uso de una muestra aleatoria. Una inferencia estadística hace uso de cantidades calculadas con
las observaciones de una muestra, las cuales reciben el nombre de estadígrafos o estadísticos, y
permiten resumir la información que contiene la muestra respecto de las características globales
de la población, es decir, de los parámetros poblacionales. Debido a lo aleatorio de las muestras,
los estadísticos son variables aleatorias y por lo tanto, tienen asociados distribuciones de
probabilidades, las cuales reciben el nombre de distribuciones muestrales. Es el conocimiento
más profundo (sus propiedades y relaciones) de estas distribuciones de probabilidades asociadas a
los estadísticos, lo que permite realizar inferencias estadísticas en donde se cuantifique los grados
de confianza o incertidumbre involucrados en tales generalizaciones.

Algunos de los conceptos mencionados anteriormente pueden ser precisados en los


siguientes términos:

Sea X una variable aleatoria con distribución fX. Diremos que X1, X2, X3, . . . , Xn es
una muestra aleatoria de tamaño n de la población con distribución fX, si las variables
aleatorias Xi son independientes e idénticamente distribuidas de acuerdo con fX, es decir, si
i.i.d .
Xi fX .
~
Diremos que una función de la muestra aleatoria T = h(X1, X2, X3, . . . , Xn) es un
estadístico, si tal función no depende de parámetro desconocidos, es decir, un estadístico se
define como cualquier función calculable a partir de las observaciones muestrales.

Ejemplo: La media muestral, la varianza, la mediana, etcétera.

Los estadísticos pueden ser usados como estimadores puntuales de los parámetros
poblacionales. Para medir la precisión de estas estimaciones se utiliza el error estándar del
estadístico que corresponde a la desviación estándar del estadístico. La calidad de un estadístico

-1-
T como estimador puntual de un parámetro θ, también suele medirse mediante el llamado Error
Cuadrático Medio que se define como E[(T - θ)²]. Esta medida a su vez puede ser expresada
como la suma del sesgo al cuadrado bT2 = (E[T] - θ)², y la varianza V(T) del estadístico T, este

resultado da origen a los conceptos de estimador insesgado, es decir, E[T] = θ y de estimador de


mínima varianza. Otras propiedades deseables para un buen estimador puntual son las llamadas
propiedades de suficiencia y consistencia.

Para comprender mejor lo anteriormente expresado sobre estimación puntual, al igual


que la estimación de parámetros poblacionales usando dos estadísticos o límites aleatorios, es
decir, mediante los llamados intervalos de confianza; y la metodología llamada prueba estadística
de hipótesis, es necesario conocer algunos de los resultados de la estadística matemática o de la
teoría estadística. En particular aquellos resultados que están relacionados con la media y la
varianza muestral.

Teorema 1. Si X1, X2, X3, . . . , Xn una muestra aleatoria de tamaño n de una población infinita
con media µ = E[Xi] y varianza σ² = V(Xi) , entonces E[X] = µ , V(X) = σ²/n y E[S²] = σ².

Observaciones. El teorema anterior indica que la media muestral es un estimador puntual


insesgado de la media poblacional, que la varianza de la media muestral disminuye a medida que
aumenta el tamaño muestral (propiedad de consistencia en el caso de los estimadores insesgados)
y que el error estándar deX está dado por σ/√n. Además se concluye que la varianza muestral S²
es un estimador insesgado de la varianza poblacional σ².

En el caso particular de una población finita de tamaño N, bajo las condiciones


σ 2  N − n
anteriores se concluye que V ( X ) =  .
n  N − 1

Teorema 2. Si X1, X2, X3, . . . , Xn una muestra aleatoria de tamaño n de una población con
i.i. d .
distribución normal con media µ = E[Xi] y varianza σ² = V(Xi), es decir, X i N(µ , σ²),
~
entonces X ~ N(µ , σ²/n).

-2-
X −µ
Corolario. Bajo las condiciones del teorema anterior Z = ~ N(0, 1). Lo que también
σ
n
n

∑X
i =1
i − nµ
puede expresarse de la forma: Z = ~ N(0, 1).
σ n

Observación. Nótese que bajo las condiciones anteriores, es decir, si X1, X2, X3, . . . , Xn es una
muestra aleatoria de tamaño n de una población con distribución normal con media µ = E[Xi] y
i.i.d . n
varianza σ² = V(Xi), es decir, X i N ( µ , σ 2 ) entonces T = ∑ X i ~ N (nµ , nσ 2 ) . Un
~ i =1

resultado más general, se resume en el siguiente lema.

Lema 1. Sean X1, X2, X3, . . . , Xn , n variables aleatorias independientes con distribución normal
indep.
con media µi = E[Xi] y varianza σi² = V(Xi), es decir, X i N ( µ i , σ i2 ), I = 1, 2, ... , n . Si se
~
n
define Y = ∑ a i X i ,donde ai son constantes reales arbitrarias, entonces Y tiene distribución
i =1

n n
normal con media µ Y = ∑ ai µ i y varianza σ = ∑ ai2 σ i2 ,
2
Y es decir,
i =1 i =1

n n n
Y = ∑ ai X i
i =1
~ N (∑ a µ , ∑ a σ
i =1
i i
i =1
2
i
2
i ).

Teorema 3. Teorema Central del Límite. Si X1, X2, X3, . . . , Xn una muestra aleatoria de
tamaño n de una población con media µ = E[Xi] y varianza σ² = V(Xi) finita, entonces la
n

X −µ
∑X
i =1
i − nµ
distribución FZn de la variable aleatoria Z n = = converge a la distribución
σ σ n
n
→ φ .
normal estándar cuando el tamaño muestral n tiende a infinito, es decir, FZn n
→∞

Observación. En el caso en que X1, X2, X3, . . . , Xn es una muestra aleatoria de tamaño n de una
población Bernoulli con media µ = E[Xi] = p y varianza σ² = V(Xi) = pq, entonces la distribución

-3-
n

∑X
i =1
i − np
FZn de la variable aleatoria Z n = converge a la distribución normal estándar cuando
npq

el tamaño muestral n tiende a infinito, este resultado indica que la distribución binomial, que es la
n
distribución exacta de T = ∑ X i , puede ser aproximada mediante la distribución normal si el
i =1

tamaño de n es suficientemente grande (con n > 100 se obtiene buenas aproximaciones).

Lema 2. Si Z1, Z2, Z3, . . . , Zn es una muestra aleatoria de tamaño n de una población con
n
distribución normal estándar, entonces la variable aleatoria Y = ∑ Z i2 es una variable aleatoria
i =1

con distribución chi-cuadrado con ν = n grados de libertad.

Lema 3. Si X1, X2, X3, . . . , Xn son variables aleatorias independientes con distribución chi-
cuadrado con ν1, ν2, ν3, . . . , νn grados de libertad, respectivamente, entonces la variable aleatoria
n n
Y = ∑ X i tiene distribución chi-cuadrado con ∑ν i grados de libertad.
i =1 i =1

Lema 4. Sean X1 y X2 variables aleatorias independientes. Si X1 tiene distribución chi-cuadrado


con ν1, grados de libertad y Y = X1 + X2 tiene distribución chi-cuadrado con ν grados de libertad,
ν > ν1 , entonces la variable aleatoria X2 tiene distribución chi-cuadrado con ν - ν1 grados de
libertad.

Teorema 4. Si X1, X2, X3, . . . , Xn es una muestra aleatoria de tamaño n de una población con
i.i.d .
distribución normal con media µ = E[Xi] y varianza σ² = V(Xi), es decir, X i N (µ ,σ 2 ) ,
~
entonces X y S2 son estadísticos independientes y la variable aleatoria
n

(n − 1) S 2
∑(X i − X )2
V= ~ χ 2 (n − 1) , es decir, la variable V = i =1
tiene distribución Chi-
σ2 σ2
cuadrado con ν = n - 1 grados de libertad.

-4-
Lema 5. Si Z es una variable aleatoria con distribución normal estándar, independiente de la
variable aleatoria V que tiene distribución chi-cuadrado con ν grados de libertad, entonces la
Z
variable aleatoria T definida por T = , es una variable aleatoria con distribución t de
V ν

Student con ν grados de libertad.

Teorema 5. Si X1, X2, X3, . . . , Xn es una muestra aleatoria de tamaño n de una población con
i.i.d .
distribución normal con media µ = E[Xi] y varianza σ² = V(Xi), es decir, X i N (µ ,σ 2 ) ,
~
X −µ
entonces la variable aleatoria T = ~ t (n − 1) , es decir, la variable aleatoria T definida
S
n
anteriormente tiene distribución t de Student con ν = n - 1 grados de libertad.

Teorema 6. Si X1, X2, X3, . . . , Xn1 es una muestra aleatoria de tamaño n1 de una población con
i.i.d .
distribución normal con media µ1 = E[Xi] y varianza σ1² = V(Xi), es decir, X i N ( µ1 , σ 12 ) , y
~
si Y1, Y2, Y3, . . . , Yn2 es una muestra aleatoria de tamaño n2 de una población con distribución
i.i.d .
normal con media µ2 = E[Yj] y varianza σ2² = V(Yj), es decir, Y j N ( µ 2 , σ 22 ) , y las dos
~
X − Y − ( µ1 − µ 2 )
poblaciones son independientes, entonces la variable aleatoria Z = ~ N (0,1) .
σ 12 σ 22
+
n1 n2

Teorema 7. Si X1, X2, X3, . . . , Xn1 es una muestra aleatoria de tamaño n1 de una población con
i.i.d .
distribución normal con media µ1 = E[Xi] y varianza σ1² = V(Xi), es decir, X i N ( µ1 , σ 12 ) , y
~
si Y1, Y2, Y3, . . . , Yn2 es una muestra aleatoria de tamaño n2 de una población con distribución
i.i.d .
normal con media µ2 = E[Yj] y varianza σ2² = V(Yj), es decir, Y j N ( µ 2 , σ 22 ) , y las dos
~
poblaciones son independientes, sus varianzas son desconocidas pero supuestamente iguales,

-5-
X − Y − ( µ1 − µ 2 )
entonces la variable aleatoria T= ~ t (n1 + n 2 − 2) , donde
1 1
Sp +
n1 n 2

(n1 − 1) S12 + (n2 − 1) S22


S p2 = , es la llamada varianza ponderada que estima puntualmente la
n1 + n2 − 2

varianza común.

Lema 6. Sean V1 y V2 variables aleatorias independientes. Si V1 tiene distribución chi-cuadrado


con ν1, grados de libertad y V2 tiene distribución chi-cuadrado con ν2 grados de libertad, entonces
V1 ν 1
la variable aleatoria F = tiene distribución de probabilidades F (de Fisher o de Snedecor)
V2 ν 2

con ν1 grados de libertad en el numerador y ν2 grados de libertad en el denominador.

Teorema 8. Si X1, X2, X3, . . . , Xn1 es una muestra aleatoria de tamaño n1 de una población con
i.i.d .
distribución normal con media µ1 = E[Xi] y varianza σ1² = V(Xi), es decir, X i N ( µ1 , σ 12 ) , y
~
si Y1, Y2, Y3, . . . , Yn2 es una muestra aleatoria de tamaño n2 de una población con distribución
i.i.d .
normal con media µ2 = E[Yj] y varianza σ2² = V(Yj), es decir, Y j N ( µ 2 , σ 22 ) , y las dos
~
S12 σ 12
poblaciones son independientes, entonces la variable aleatoria F = 2 2 ~ f (n1 − 1, n 2 − 1) , es
S2 σ 2

decir, esta variable tiene distribución f de Fisher (o de Snedecor) con ν1 = n1 - 1 grados de libertad
en el numerador y con ν2 = n2 - 1 grados de libertad en el denominado.

Corolario. Si bajo las condiciones del teorema anterior se supone además homocedasticidad u
homogeneidad de varianza, es decir, σ1² = σ2², entonces el cuociente de las varianzas muestrales
S12
tiene distribución f de Fisher, o sea, F = 2 ~ f (n1 − 1, n2 − 1) .
S2

-6-

S-ar putea să vă placă și