Documente Academic
Documente Profesional
Documente Cultură
NIETO BARAJAS
Con el fin de conocer todos los posibles valores que puede tomar una
estadística, se tendría que examinar cada posible muestra y calcular el valor
de la estadística. La distribución de frecuencias de todos los posibles
valores que toma una estadística se le conoce como distribución de
muestreo.
µ X = 2.4 y σ 2X = 0.44
Se desea estimar µX, para ello se toma una muestra de tamaño 2 con
reemplazo de la población anterior y se calcula el valor de X .
Si se observara (2,3) ⇒ X = 2.5 (no esta mal!), pero
si se observara (1,2) ⇒ X = 1.5 (no está tan bien!).
( ) N 2
E S2 = σ
N − 1
N−n
Nota: es conocido como factor de corrección por población finita
N −1
→ 0 si n→N, y
→ 1 si n→1 ó N→∞
( )
P θˆ − θ ≤ B = 1 − α
COMENTARIOS:
La distribución muestral de X se puede aproximar por una distribución
normal no importando como se distribuye la variable de interés Xi.
Si la variable de interés Xi tiene una distribución normal, la distribución de
muestreo de X es normal sin importar el tamaño de muestra.
¿Qué tan “grande” debe de ser n? Depende de que tan no normal sea la
distribución original Xi. Un número de referencia es n≥30.
1
= 1 − 2P Z ≥
4 n
1 1
⇒ P Z ≥ = 0.05 ⇔ z 0.05 = 1.645 = ⇔ n = 44
4 n 4 n
p(1 − p )
p̂ = X ≈ N p,
n
Nota: Esta aproximación es buena si n≥30, np≥5 y n(1−p)≥5.
(n − 1)S2X
2
n
X − X
JX = = ∑ i ∼ χ (2n −1)
σ 2X i =1 σX
(
Notación: χ (2n −1),α es tal que P J X ≥ χ (2n −1),α = α )
Chi-Square Distribution
0.16 d.f.
5
10
0.12
20
density
0.08
0.04
0
0 10 20 30 40 50 60
x
Distribución t-Student:
X − µX
T= ∼ t ( n −1)
SX n
Student's t Distribution
0.4 d.f.
1
5
0.3
50
density
0.2
0.1
0
-7 -4 -1 2 5 8
x
n −1
Propiedades: E(T ) = 0 para n > 2, Var(T ) = para n > 3.
n −3
Notación: t ( n −1),α es tal que P(T ≥ t ( n −1),α ) = α
Distribución F:
S2X σ 2X
F = 2 2 ∼ F( n −1,m−1)
SY σ Y
2(n − 1) (m + n − 4 )
2
n −1
Propiedades: E(F) = para n>3, Var(F) = para n>5.
n −3 (m − 1)(n − 3)2 (n − 5)
Notación: F( n −1,m−1),α es tal que P(F ≥ F( n −1,m−1),α ) = α , además
1
F( n −1,m−1),1−α =
F( m−1,n −1),α
0.6
0.4
0.2
0
0 1 2 3 4 5
x
Algunas definiciones:
ESTIMADOR: Un estimador puntual de θ es una estadística cuyos valores
serán usados para aproximar el verdadero valor de θ. Se denota como θ̂ .
ESTIMACIÓN: Es el valor que toma el estimador para una muestra dada.
1 n r
M'r = ∑ X i = r-ésimo momento muestral (no central)
n i=1
donde r = 1,2,...
Ejemplo 12: Sea X1,X2,...,Xn una m.a. de una población N(µ,σ2).
1 n
µ'1 = E(X ) = µ M '1 = ∑ X i = X
n i=1
( )
µ' 2 = E X 2 = σ 2 + µ 2 M'2 =
1 n 2
∑ Xi
n i=1
1 n
⇒ µˆ = X y σ̂ 2 = M '2 − X 2 = ∑ (X i − X )2 .
n i=1
( ) (
L µ, σ 2 x = 2πσ 2 )−n / 2 1 n 2
exp− 2 ∑ (x i − µ )
2σ i=1
1 n
⇒ µˆ = X y σˆ 2 = ∑ (X i − X )2 .
n i=1
1 n
µˆ = X = ∑ X i
n i=1
1 n
σˆ 2 = S2 = ∑ (X i − X )2 ¿por qué n−1 y no n?
n − 1 i=1
En el caso particular de que Xi ∼ Ber(p) ⇒ µ = E(X) = p, entonces
1 n
p̂ = X = ∑ X i
n i=1
σˆ XY
∑ X i Yi − nXY
i =1
ρˆ = r = = ,
σˆ X σˆ Y n 2 n
∑ X i − nX 2 ∑ Yi2 − nY 2
i=1 i=1
− 1 ≤ r ≤ 1.
ESTIMADORES.
Sesgo(θˆ ) = E(θˆ ) − θ
Var (θˆ 1 )
Ef (θˆ 1 , θˆ 2 ) =
Var (θˆ 2 )
{ }
ECM (θˆ ) = E (θˆ − θ) = Var (θˆ ) + {Sesgo(θˆ )}
2 2
EJEMPLO 14. Sea X1,X2,...,Xn una m.a. de una población con media µ =
E(X) y varianza σ 2 = Var(X). Sean µˆ = X y σˆ 2 = S2 .
1 n 1 n 1 n
E(µˆ ) = E(X ) = E ∑ X i = ∑ E(X i ) = ∑ µ = µ
n i=1 n i=1 n i=1
1 n 1 n 1 n 2 σ2
Var(µˆ ) = Var(X ) = Var ∑ X i = 2 ∑ Var (X i ) = 2 ∑ σ =
n i=1 n i=1 n i=1 n
se puede demostrar que µˆ = X es eficiente.
Para calcular el valor esperado de S2 usaremos la siguiente desigualdad,
n n
∑ (X i − X ) = ∑ (X i − µ ) − n (X − µ ) .
2 2 2
i =1 i =1
Entonces,
( ) ( )
2 1 n
E σˆ = E S = E 2
∑
2
(X i − X ) = 1 n 2 2
E ∑ (X i − µ ) − E n (X − µ ) { }
n − 1 i=1 n − 1 i=1
=
1 n
∑
n − 1 i=1
{ } { 2
E (X i − µ ) − nE (X − µ )
2
}
1 n 1 n 2 σ 2
∑ Var(X i ) − nVar (X ) = ∑ σ − n = σ
2
=
n − 1 i=1 n − 1 i=1 n
Algunas definiciones:
NIVEL DE CONFIANZA: es el grado de seguridad que se tiene sobre la
veracidad de una afirmación sobre el parámetro de interés. Se denota como
1−α., donde α es una constante entre 0 y 1.
INTERVALO DE CONFIANZA: es un rango de valores en el cual se encuentra
el verdadero valor del parámetro θ, con un determinado nivel de confianza
1−α.
ERROR DE ESTIMACIÓN: grado de precisión de la estimación (por intervalo).
θˆ − θ ≤ B ⇔ − B ≤ θˆ − θ ≤ B ⇔ θˆ − B ≤ θ ≤ θˆ + B
X −µ
⇔ P − z α / 2 < < z α / 2 = 1 − α
σ n Pivotear
(
⇔ P X − zα / 2 σ n < µ < X + zα / 2 σ )
n =1− α
Al observar la muestra, la estadística X toma el valor de x , por lo tanto
(
µ ∈ x ± zα / 2 σ n )
con (1−α)100% de confianza.
o NOTA: el intervalo de confianza anterior para µ es válido para cualquier
población si n es grande.
o RELACIÓN ENTRE LONGITUD DEL INTERVALO, NIVEL DE CONFIANZA Y
I.C. para σ 2X σ 2Y :
σ 2X S2X 1 S2X
, 1
∈
σ Y SY ( n −1,m−1),α / 2 SY ( n −1,m−1),1−α / 2
2 2
F 2
F
( )
p ∈ 0.35 ± 1.645 (0.35)(0.65) 30 = (0.206, 0.493) con 90% de confianza
(
µ ∈ 250 ± 2.04 (40) )
30 = (235.1, 264.9 ) con 95% de confianza
(29)(40) 2 (29)(40) 2
σ∈ , = (31.9, 53.8) con 95% de confianza
45 .72 16.04
∴ con un 95% de confianza se recomendaría cerrar la fábrica por no
cumplir con los requerimientos en la desviación estándar.
(z α / 2 )2 σ 2
n=
B2
Para la proporción:
P( p̂ − p ≤ B) = 1 − α . Igual que para el caso anterior, se puede demostrar
que B = L/2, donde L es la longitud del intervalo de confianza para p con
1−α de confianza. Entonces, B = z α / 2 p̂(1 − p̂ ) n , por lo tanto
(z α / 2 )2 p̂(1 − p̂ )
n=
B2
Tamaños de muestra
12000
9604
10000
8000
6000
n
4000
2401
2000 1068
601 385 267 196 151 119 97
0
0 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09 0.1 0.11
B
Algunas definiciones:
HIPÓTESIS: es una aseveración acerca de un fenómeno particular y que
únicamente puede ser verdadera o falsa.
HIPÓTESIS ESTADÍSTICA: aseveración sobre el valor de algún parámetro de
interés.
C c = {X ≤ k} .
(
β = P(ET2) = P(no rechazar H0 | H1) = P X ∈ C c H1 )
Una manera de medir qué tan buena es una prueba es mediante la función
potencia, denotada por π. Se define como la probabilidad de rechazar H0
cuando debe de ser rechazada porque H0 es falsa, i.e.,
α pequeño ⇔ α ≤ 0.10
95
80 ¡Normal!
50
20
5
1
0.1
-3.2 -2.2 -1.2 -0.2 0.8 1.8 2.8
X
H0 H1 C
θ = θ0 θ > θ0 W ≥ wα
θ = θ0 θ < θ0 W ≤ w 1−α
θ = θ0 θ ≠ θ0 W ≤ w 1−α / 2 o W ≥ w α / 2
S2p =
(n − 1)S2X + (m − 1)S2Y
n+m−2
Si n y m son grandes,
TX − nm 2 H0
Procedimiento: C = {Z ≥ z α / 2 }, Z = ∼ N(0,1)
nm(n + m + 1) 12
S2X H0
F = 2 ∼ F( n −1,m−1)
SY
Prueba no paramétrica.“Variante de Mann-Whitney” (Supuestos: Ninguno)
Hipótesis: H0: σ2X = σ2Y vs. H1: σ2X ≠ σ2Y
Procedimiento: Tomar U i = X i − X y Vj = Yj − Y y seguir el
p̂ X − p̂ Y − p 0 H0
Procedimiento: C = {Z ≥ z α / 2 }, Z = ∼ N(0,1)
p̂ X (1 − p̂ X ) p̂ Y (1 − p̂ Y )
+
n m
( )
H0
T+ = # Dif . pos. X − Y ∼ Bin n * ,1 2 , n* = {# Dif. ≠ 0}
Si valor-p ≤ α ⇒ se rechaza H0
Si valor-p > α ⇒ no se rechaza H0
X = Calificación de la campaña A
Y = Calificación de la campaña B
t-test
------
Null hypothesis: mean = 0.0
Alternative: not equal
sign test
---------
Null hypothesis: median = 0.0
Alternative: not equal