Sunteți pe pagina 1din 3

Unidad I Departamento de Estadística, UAA

1 Estadística descriptiva 2 Teoría de eventos

Dada una muestra {x1 , x2 , . . . , xn }, se definen Conmutatividad Distributividad


A∪B =B∪A A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C)
Frecuencias A∩B =B∩A A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C)
absolutas ni
ni Leyes de Morgan Asociatividad
relativas fi =
n (A ∪ B)c = Ac ∩ B c (A ∪ B) ∪ C = A ∪ (B ∪ C)
porcentajes pi = fi × 100 c c c
X (A ∩ B) = A ∪ B (A ∩ B) ∩ C = A ∩ (B ∩ C)
absolutas acumuladas Ni = nk
Complementario
k≤i
Ni A ∩ Ac = ∅ ∅c = Ω
relativas acumuladas Fi = c
n A∪A =Ω (Ac )c = A
n r Ωc = ∅ A − B = A ∩ Bc
X X
xi xk nk
i=1 k=1
Media x̄ = = 3 Probabilidad
n n

 x( n+1 ) n impar Axiomas de Kolmogorov
2
Mediana x
e=
 x( 2 ) + x( 2 +1)
n n
n par • P (A) ≥ 0
2
• P (Ω) = 1
Varianza
n r
X X • Si A y B son excluyentes
(xi − x̄)2 (xk − x̄)2 nk
i=1 k=1 P (A ∪ B) = P (A) + P (B)
Sn2 = =
n n
n r
X X Probabilidad condicional
(xi − x̄)2 (xk − x̄)2 nk P (A ∩ B)
i=1 k=1
P (A|B) = , si P (B) > 0
2
Sn−1 = = P (B)
n−1 n−1
Regla del producto
Rango R = x(n) − x(1) P (A ∩ B) = P (A|B)P (B)

Leyes de suma
Cuantiles Cp , 0 ≤ p ≤ 1
Cp = (1 − 4 r) + 4
r)x( rx(
r +1) • P (Ac ) = 1 − P (A)
donde r = p(n − 1) + 1, • P (A − B) = P (A) − P (A ∩ B)
r=parte decimal, 
4 r=parte entera
• P (A ∪ B) = P (A) + P (B) − P (A ∩ B)

• Cuartiles Qk = C k , k = 1, 2, 3 Probabilidad total


4

• Deciles Dk = C k , k = 1, 2, . . . , 9 • P (B) = P (B|A)P (A) + P (B|Ac )P (Ac )


10
k
X
• Percentiles Pk = C k , k = 1, 2, . . . , 99 • P (B) = P (B|Ai )P (Ai ) donde {A1 , A2 , . . . , Ak }
100
i=1
forman una partición de Ω
Rango intercuartilico RIQ = Q3 − Q1
Regla de Bayes
M3 P (B|A)P (A)
Coeficiente de simetría α3 = • P (A|B) =
Sn3 P (B)
n
1 X
con M3 = (xi − x̄)3 • P (A|B) =
P (B|A)P (A)
n i=1 P (B|A)P (A) + P (B|Ac )P (Ac )
P (B|Ai )P (Ai )
M4 • P (Ai |B) = Pk
Coeficiente de curtosis α4 = j=1 P (B|Aj )P (Aj )
Sn4
n
1X Independencia
con M4 = (xi − x̄)4
n i=1 A y B son independientes sí y sólo si

• P (A|B) = P (A)
Diagrama de caja y brazos
CIi =, Q1 − 1.5 × RIQ • P (B|A) = P (B)
CIs = Q3 + 1.5 × RIQ • P (A ∩ B) = P (A)P (B)

© 2016 JAGDL
Unidad II Departamento de Estadística, UAA

1 Distribuciones discretas

En las propiedades, X ∼ f = fX y Y ∼ fy y c ∈ R
Función de distribución
f (x) ≥ 0
X
f (x) = 1
x
Si X ∼ f , P (X = x) = f (x)

Función de distribución acumulada


X
F (x) = P (X ≤ x) = f (y)
y≤x

• 0 ≤ F (x) ≤ 1
• Si x ≤ y entonces F (x) ≤ F (y)

Valor esperado
X
E[X] = xf (x)
x

• E[c] = c
• E[cX] = cE[X]
• E[X + c] = E[X] + c
• E[X + Y ] = E[X] + E[Y ]
X
E[g(X)] = g(x)f (x)
x

Varianza
V [X] = E[(X − E[X])2 ]
X
= (x − E[X])2 f (x)
x

• V [c] = 0
• V [cX] = c2 V [X]
• V [X + c] = V [X]
• Si X y Y son independientes, V [X +Y ] = V [X]+V [Y ]
p
SD[X] = V [X]

Momentos
X
mr = E[X r ] = xr f (x)
x

• m1 = E[X]
• m2 = V [X] + E[X]2
• V [X] = m2 − m21

Función generadora de momentos


X tx
MX (t) = E[etX ] = e f (x)
x

dk M (t)

• mk =
dtk t=0
• Si Y = cX, MY (t) = MX (ct)
• Si Y = X + c, MY (t) = ect MX (t)
Xn
• Si Y = Xi ,
i=1
MY (t) = MX1 (t) · · · MXn (t)
• Si X y Y son dos variables tales que MX (t) = MY (t),
entonces fX (x) = fY (x)

© 2016 JAGDL
Unidad III Departamento de Estadística, UAA

1 Distribuciones continuas Momentos Z


mk = E[X k ] = xk f (x)dx
En las propiedades, X ∼ f = fX , Y ∼ fy y c ∈ R
• m1 = E[X]
Función de densidad • m2 = V [X] + E[X]2
fZ (x) ≥ 0
• V [X] = m2 − m21
f (x)dx = 1
Z b Función generadora deZ momentos
P (a < X < b) = f (x)dx
a MX (t) = E[etX ] = etx f (x)dx

Función de distribución Zacumulada


dk M (t)

x
F (x) = P (X ≤ x) = f (y)dy • mk =
−∞
dtk t=0
• Si Y = cX, MY (t) = MX (ct)
• 0 ≤ F (x) ≤ 1
• Si Y = X + c, MY (t) = ect MX (t)
• Si x ≤ y entonces F (x) ≤ F (y) n
X
• F 0 (x) = f (x) • Si Y = Xi ,
i=1
MY (t) = MX1 (t) · · · MXn (t)
Valor esperado
Z
E[X] = f (x)dx • Si MX (t) = MY (t), entonces fX (x) = fY (x)

• E[c] = c 2 Distribucions conjuntas


• E[cX] = cE[X]
Propiedades
• E[X + c] = E[X] + c

• E[X + Y ] = E[X] + E[Y ] • fX,Y (x, y) ≥ 0


Z Z
• fX,Y (x, y)dydx = 1
Z
E[g(X)] = g(x)f (x)dx
Valor esperado
Varianza
2
Z Z
V [X] = E[(X
Z − E[X]) ] • E[g(X, Y )] = g(X, Y )fX,Y (x, y)dydx
= (x − E[X])2 f (x)dx
Acumulada Z a Z b
• V [c] = 0 F (a, b) = f (x, y)dydx
−∞ −∞
• V [cX] = c V [X]
2
Marginales
• V [X + c] = V [X] Z
• fX (x) = fX,Y (x, y)dy
• Si X y Y son independientes, V [X +Y ] = V [X]+V [Y ]
Z
p • fY (y) = fX,Y (x, y)dx
SD[X] = V [X]
Condicionales
Covarianza
Cov[X, Y ] = E[(X − E[X])(Y − E[Y ])] fX,Y (x, y)
• fX|Y =y (x) =
fY (y)
• Cov[X, Y ] = E[XY ] − E[X]E[Y ] fX,Y (x, y)
• fY |X=x (y) =
fX (x)
• V [X + Y ] = V [X] + V [Y ] + 2Cov[X, Y ]

Función gamma

• Γ(x) = (x − 1)Γ(x − 1)

• Γ(n) = (n − 1)! si n ∈ N
1 √ 1 1
• Γ( ) = π, Γ( ) = 2.6789, Γ( ) = 3.6256
2 3 4
Estandarización
X −µ
• Z= ∼ N (0, 1),
σ

donde µ = E[X] y σ = V [X]


p

© 2016 JAGDL

S-ar putea să vă placă și