Sunteți pe pagina 1din 13

FB10

ESTADÍSTICA DESCRIPTIVA
Elaborado por: Franchesca Barzola
Teléfono: 0991881756
Material de Apoyo 1er y 2do Parcial
Teoría

1. Organización de los datos. Tabulación y diagramas estadísticos.

Estadístico de Orden
𝑋(#) , 𝑋(&) , … , 𝑋(()

𝑋(#) , 𝑉𝑎𝑙𝑜𝑟 𝑚í𝑛𝑖𝑚𝑜 𝑑𝑒 𝑙𝑜𝑠 𝑒𝑙𝑒𝑚𝑒𝑛𝑡𝑜𝑠 𝑑𝑒 𝑙𝑎 𝑚𝑢𝑒𝑠𝑡𝑟𝑎


𝑋(() , 𝑉𝑎𝑙𝑜𝑟 𝑚á𝑥𝑖𝑚𝑜 𝑑𝑒 𝑙𝑜𝑠 𝑒𝑙𝑒𝑚𝑒𝑛𝑡𝑜𝑠 𝑑𝑒 𝑙𝑎 𝑚𝑢𝑒𝑠𝑡𝑟𝑎

Conjunto A: Intervalo cerrado de números reales que incluye todos los datos de la muestra

𝑨 = 𝑥 ∈ ℝ 𝑎# ≤ 𝑥 ≤ 𝑎?@#

Clase: Son intervalos de igual longitud que deben ser exhaustivos y mutuamente excluyentes en la muestra,
que:
a) Deben tener la misma longitud
b) Su unión debe ser igual al conjunto A
c) Su intersección debe ser el vacío

AB(CD EáF GEH(


Ancho del intervalo: =
? ?

Por lo general se trabaja con un valor de k = 7 clases

Tablas de frecuencia

Marca de Frecuencia Frecuencia Frecuencia Absoluta Frecuencia


Ordinal Clase Clase absoluta Relativa Acumulada Relativa
Acumulada
1 𝑎# ,𝑎& 𝑎# + 𝑎& 𝑓# 𝑓# 𝑓# 𝑓#
2 𝑛 𝑛

2 𝑎& ,𝑎L 𝑎& + 𝑎L 𝑓& 𝑓& 𝑓# + 𝑓& 𝑓# + 𝑓&


2 𝑛 𝑛

. . . . . . .
. . . . . . .
. . . . . . .
k 𝑎? ,𝑎?@# 𝑎? + 𝑎?@# 𝑓? 𝑓? 𝑓# + 𝑓& + ⋯ + 𝑓? = 𝑛 𝑛
=1
2 𝑛 𝑛

𝑛 1
FB10

Histograma Polígono de Frecuencia Distribución de Frecuencia


Acumulada (Ojiva)

Cuantiles

Los Cuantiles son valores numéricos que dividen la muestra y no necesariamente pertenecen a ésta.

Primer Cuartil ( 𝑸𝟏 ) Valor de X tal que el 25% de las observaciones en la muestra ordenada toman valores
menores o iguales que 𝑄#

Segundo Cuartil (𝑸𝟐 ) Valor de X tal que el 50% de las observaciones en la muestra ordenada toman valores
menores o iguales que 𝑄&

Tercer Cuartil (𝑸𝟑 ) Valor de X tal que el 75% de las observaciones en la muestra ordenada toman valores
menores o iguales que 𝑄L

Así como se definieron tres Cuartiles, también es posible definir nueve Deciles y noventa y nueve Percentiles
de la Muestra.

Los Deciles se denotan como 𝐷# 𝐷& … 𝐷U (𝐷# → 10%, 𝐷& → 20% … )

Los Percentiles se denotan como 𝑃# 𝑃& 𝑃L … 𝑃UU (𝑃# → 1% , 𝑃& → 2% … )

Datos agrupados

La agrupación de datos se da en k clases, donde llamaremos 𝑌H a la i-ésima Marca de clase y 𝑓H a la frecuencia


absoluta de cada clase, de tal forma la media y varianza de estos datos agrupados se denotan de la siguiente
manera:

?
𝑓H 𝑌H
𝑋=
𝑛
H[#

?
&
1
𝑆 = 𝑓H (𝑌H − 𝑥)&
𝑛−1
H[#
FB10

Diagrama de caja

𝑅𝐼 = 𝑄L − 𝑄#

Un valor observado 𝑥H se constituye en un presunto valor aberrante, si:


a. Toma un valor menor que max (𝑋 # , 𝑄# − 1.5𝑅𝐼), ó, si
b. Toma un valor mayor que min (𝑋 ( , 𝑄L + 1.5𝑅𝐼)

2. Medidas de tendencia central y de dispersión

(
Media aritmética 𝑥H 𝑥# + 𝑥& + ⋯ + 𝑥(
𝑋= =
𝑛 𝑛
H[#

Media Ponderada 𝑀h = 𝑥# 𝑤# + 𝑥& 𝑤& + ⋯ + 𝑥( 𝑤(

Media geométrica 𝑀𝐺 = l
𝑥# ∙ 𝑥& ∙ … ∙ 𝑥(

( (
Varianza 1 1
&
𝑆 = &
(𝑥H − 𝑥) = 𝑥H& − 𝑛 𝑥 &
𝑛−1 𝑛−1
H[# H[#

Desviación Estándar (
(𝑥H − 𝑥)&
𝑆=
𝑛−1
H[#

Coeficiente de 𝑆
𝐶𝑉 =
Variación 𝑥

( (
Covarianza 1 1
𝑆Fn = (𝑥H − 𝑥) (𝑦H − 𝑦) = 𝑥H 𝑦H − 𝑛 𝑥 𝑦
𝑛−1 𝑛−1
H[# H[#

Coeficiente de 𝑆Fn
Correlación 𝑟F,n =
𝑆F 𝑆n

Matriz de Varianzas y Covarianzas

Dado el vector triviado 𝑋 p = 𝑥# 𝑥& 𝑥L , la matriz de varianzas y covarianzas asociada tiene la forma:

𝑆F&q 𝑐𝑜𝑣(𝑥# , 𝑥& ) 𝑐𝑜𝑣(𝑥# , 𝑥L )


= 𝑐𝑜𝑣(𝑥& , 𝑥# ) 𝑆F&t 𝑐𝑜𝑣(𝑥& , 𝑥L )
𝑐𝑜𝑣(𝑥L , 𝑥# ) 𝑐𝑜𝑣(𝑥L , 𝑥& ) 𝑆F&u
FB10

3. Teoría combinatoria: Permutaciones y Combinaciones. Probabilidad

Regla multiplicativa

𝑘: 𝑇𝑎𝑟𝑒𝑎𝑠
𝑛H : # 𝑑𝑒 𝐹𝑜𝑟𝑚𝑎𝑠 𝑑𝑒 𝑒𝑗𝑒𝑐𝑢𝑡𝑎𝑟 𝑙𝑎 𝑡𝑎𝑟𝑒𝑎 𝑖
?

𝑛H = 𝑛# ∙ 𝑛& ∙ 𝑛L ∙ ⋯ ∙ 𝑛?
H[#

Combinaciones
No importa el orden
𝑛 𝑛!
𝑘 ≤ 𝑛 ; =
𝑘 𝑘! 𝑛 − 𝑘 !
Propiedades:
( (
• ?
= (G?

( (
• ~
= (
=1

( (
• #
= (G#
=𝑛

Permutaciones
Importa el orden, Para recordar: “Permutación… Posición”

𝑛!
𝑃?( =
𝑛−𝑘 !
Espacio muestral de un experimento
Se denomina así al par (Ω, 𝜑), donde:
a) Ω , es el conjunto de todos los resultados posibles del experimento
b) 𝜑 , es el conjunto potencia de Ω

Función de Probabilidades
Una función P, tal que 𝑃: 𝜑 → 0,1 es una función de probabilidades, si y solamente si:
a) 𝑃 Ω = 1
b) 0 ≤ 𝑃 𝐸 ≤ 1, ∀𝐸 ∈ 𝜑
c) 𝑃 𝐸# ∪ 𝐸& = 𝑃 𝐸# + 𝑃 𝐸& , 𝑠𝑖𝑒𝑚𝑝𝑟𝑒 𝑞𝑢𝑒 𝐸# ∩ 𝐸& ≠ ∅

Probabilidad
La probabilidad de que un evento “E” ocurra, se obtiene del cociente entre el número de elementos del
evento E y el número de elementos de todos los posibles resultados del experimento.

𝑁(𝐸)
𝑃 𝐸 =
𝑁(Ω)
Probabilidad condicional.
Dado un experimento estadístico, consideremos dos eventos uno 𝐸# , y otro 𝐸& , tales que el primero ha
ocurrido mientras que el segundo, 𝐸& , está por ocurrir. La probabilidad de que ocurra 𝐸& dado que ha
ocurrido 𝐸# se la denota y define como:
𝑃(𝐸# ∩ 𝐸& )
𝑃 𝐸& 𝐸# = , 𝑠𝑖𝑒𝑚𝑝𝑟𝑒 𝑞𝑢𝑒 𝐸# ≠ ∅
𝑃(E# )
FB10

Independencia estocástica de eventos


Sea 𝐸# y 𝐸& , eventos de un mismo Espacio Muestral (Ω, 𝜑), diremos que el Evento 𝐸# es
estocásticamente independiente del Evento 𝐸& cuando y solo cuando:

𝑃 𝐸& 𝐸# = 𝑃 𝐸&
𝑃 𝐸# 𝐸& = 𝑃 𝐸#

Definición de Exhaustivo y mutuamente excluyente

Exhaustivo: La unión de todos los eventos es el conjunto de todos los resultados posibles del
experimento, es decir:
?

𝐸H = Ω
H[#

Mutuamente La intersección entre eventos debe ser el vacío, es decir: 𝐸H ∩ 𝐸‹ = ∅, 𝑝𝑎𝑟𝑎 𝑖 ≠ 𝑗


Excluyente:

Regla de la Probabilidad Total


En un evento estadístico, supongamos que el conjunto de los resultados posibles Ω , es particionado1
en k eventos, a los que denominaremos 𝐸# , 𝐸& , … , 𝐸? . Supóngase además que A es un evento cualquiera
en (Ω, 𝜑). Siendo nuestro propósito, bajo estas condiciones, encontrar 𝑃 𝐴 , para lo cual debemos
expresar al evento A como la unión de k Eventos Mutuamente Excluyentes, lo que conseguimos de la
siguiente manera:
?

𝐴 = 𝐴 ∩ 𝐸# ∪ 𝐴 ∩ 𝐸& ∪ … ∪ 𝐴 ∩ 𝐸? = 𝐸H
H[#

La probabilidad de esta unión de eventos, es igual a la suma de sus correspondientes probabilidades:


?

𝑃 𝐴 = 𝑃 𝐴 ∩ 𝐸# + 𝑃 𝐴 ∩ 𝐸& + ⋯ + 𝑃 𝐴 ∩ 𝐸? = 𝑃(𝐴 ∩ 𝐸H )
H[#
Por definición de Probabilidad condicional:
𝑃 𝐴 ∩ 𝐸H = 𝑃 𝐴 𝐸H 𝑃(𝐸H )

Por lo que:
?

𝑃 𝐴 = 𝑃 𝐴 𝐸H 𝑃(𝐸H )
H[#

Este resultado es conocido como Regla de Probabilidad Total.


1
Particionado, significa que los k eventos son Exhaustivos y Mutuamente Excluyentes.
FB10

Teorema de Bayes
Sea (Ω, 𝜑) el espacio muestral de un experimento estadístico, sean 𝐸# , 𝐸& , … , 𝐸? , k eventos exhaustivos
y mutuamente excluyentes en dicho espacio muestral, y además sea A un evento cualquiera que resulta
en el experimento, entonces:

𝑃 𝐴 𝐸• 𝑃(𝐸• )
𝑃 𝐸• 𝐴 = ?
H[# 𝑃 𝐴 𝐸H 𝑃(𝐸H )

Donde, r es un entero positivo no mayor a k.

Demostración:

Por definición de Probabilidad condicional:


𝑃 𝐴 ∩ 𝐸•
𝑃 𝐸• 𝐴 =
𝑃(𝐴)

𝑃 𝐴 𝐸• 𝑃(𝐸• )
𝑃 𝐸• 𝐴 =
𝑃(𝐴)
Por Regla de Probabilidad Total:
?

𝑃 𝐴 = 𝑃 𝐴 𝐸H 𝑃(𝐸H )
H[#

𝑃 𝐴 𝐸• 𝑃(𝐸• )
⇒ 𝑃 𝐸• 𝐴 = ?
H[# 𝑃 𝐴 𝐸H 𝑃(𝐸H )

4. Variables aleatorias discretas y continuas

Variable aleatoria discreta

Función de Distribución 𝑷 𝑿 = 𝒙 = 𝒇(𝒙)


de Probabilidad
Distribución Acumulada 𝐹 𝑎 =𝑃 𝑋≤𝑎 = 𝑓(𝑥)
F“B

Valor Esperado 𝐸 𝑢 𝑥 = 𝑢(𝑥)𝑃(𝑋 = 𝑥)


F∈”

Generadora de 𝑀F 𝑡 = 𝐸 𝑒 Fp = 𝑒 Fp 𝑃(𝑋 = 𝑥)
momentos
F∈”

Media 𝜇 = 𝐸 𝑥 = 𝑥 𝑃(𝑋 = 𝑥)
F∈”

Varianza 𝜎& = 𝐸 𝑥 − 𝑢 &


= 𝐸 𝑥 & − 𝜇 &
FB10

Histograma de Probabilidades y Distribución Acumulada de X

Ilustración 2 Histograma de Probabilidades


Ilustración 1 Distribución Acumulada de x

Variable Soporte Distribución de Probabilidades Media Varianza


Aleatoria
Uniforme 𝑆 = 1,2, … , 𝑁 1 𝑁+1 𝑁& − 1
𝑃 𝑋=𝑥 = 𝜇= 𝜎& =
𝑁 2 12

Binomial 𝑆 = 0,1,2, … , 𝑛 𝑛 F (GF 𝜇 = 𝑛𝑝 𝜎 & = 𝑛𝑝(1 − 𝑝)


𝑃 𝑋=𝑥 = 𝑝 1−𝑝
𝑥

Binomial 𝑆 = 𝑟, 𝑟 + 1, … 𝑥−1 • 𝑟 𝑟(1 − 𝑝)


𝑃 𝑋=𝑥 = 𝑝 1−𝑝 FG• 𝜇= 𝜎& =
Negativa (BN) 𝑟−1 𝑝 𝑝&

Geométrica 𝑆 = 1,2, … 𝑃 𝑋 =𝑥 =𝑝 1−𝑝 FG# 1 1−𝑝


𝜇=
𝑝
𝜎& =
(BN con r=1) 𝑝&

Hipergeométrica 𝑆 = 0,1,2, … , 𝑘 B ™GB 𝑎𝑛 𝜎&


F (GF 𝜇=
𝑘 = min {𝑎; 𝑛} 𝑃 𝑋=𝑥 = ™ 𝑁 𝑎𝑛 𝑁 − 𝑎 (𝑁 − 𝑛)
( =
𝑁 & (𝑁 − 1)
Poisson 𝑆 = 0,1,2, … 𝑒 Gš 𝜆F 𝜇=𝜆 𝜎& = 𝜆
𝑃 𝑋=𝑥 =
𝑥!
FB10

Variable aleatoria Continua

• Para la variable continua x asociamos una función 𝑓(𝑥) , a la que se denomina función de
densidad.
• El soporte de una variable aleatoria continua x con densidad 𝑓 𝑥 es un subconjunto S en ℝ,
tal que: 𝑆 = 𝑥 ∈ ℝ /𝑓 𝑥 > 0

Propiedades de 𝑓(𝑥) para que sea una función de densidad:

1. 𝑓(𝑥) ≥ 0
Ÿ
2. GŸ
𝑓 𝑥 𝑑𝑥 = 1

¢
3. 𝑃 𝑎≤𝑥≤𝑏 =𝑃 𝑎<𝑥<𝑏 = B
𝑓 𝑥 𝑑𝑥

𝒙
Distribución
Acumulada 𝑭 𝒙 =𝑷 𝑿≤𝒙 = 𝒇 𝒕 𝒅𝒕

Ÿ
Valor Esperado
𝐸 𝑢 𝑥 = 𝑢 𝑥 𝑓 𝑥 𝑑𝑥

Ÿ
Generadora de
Fp
momentos 𝑀F 𝑡 = 𝐸 𝑒 = 𝑒 Fp 𝑓 𝑥 𝑑𝑥

Ÿ
Media
𝜇=𝐸 𝑥 = 𝑥 𝑓 𝑥 𝑑𝑥

Ÿ
Varianza
& &
𝜎 =𝐸 𝑥−𝑢 = 𝑥 − 𝑢 & 𝑓 𝑥 𝑑𝑥

FB10

Distribuciones usuales de variables aleatorias continuas

Variable Función Densidad Media Varianza Generadora de


Aleatoria Momentos
1
𝑓 𝑥 = 𝛼+𝛽 &
Uniforme β−α 𝛽−𝛼 𝑒 ®p − 𝑒 ¯p
𝜇= 𝜎& = 𝑀F 𝑡 =
𝑿~𝑼(𝜶, 𝜷) 2 12 𝛽−𝛼 𝑡
α<x<β

Normal 1 # FGµ t
Parámetro Parámetro ¶t p t
𝑓 𝑥 = 𝑒 G& ¶
conocido conocido 𝑀F 𝑡 = 𝑒 µp@ &
𝑿~𝑵(𝝁, 𝝈𝟐 ) σ 2𝜋
∀ 𝑥 𝜖 ℝ

pt
1 # 2 𝜇=0 & 𝑀» 𝑡 = 𝑒 &
Normal Estándar 𝑓 𝑥 = 𝑒 G & 𝑧 𝜎 =1
𝒁~𝑵(𝟎, 𝟏) 2𝜋

1 F G¯
¯G# G® 𝜇 = 𝛼𝛽 𝜎 & = 𝛼𝛽 & 𝑀F 𝑡 = 1 − 𝛽𝑡
𝑓 𝑥 = 𝑥 𝑒
Gamma Γ α β¾
1
𝑿~𝑮(𝜶, 𝜷) ∀ 𝑡 <
𝛽
∀ 𝑥 > 0, 𝛼 > 0, 𝛽>0

1 G®F
𝑓 𝑥 = 𝑒 𝜇=𝛽 𝜎 & = 𝛽& 𝑀F 𝑡 = 1 − 𝛽𝑡 G#
Exponencial β
𝑿~𝑮(𝟏, 𝜷) 1
∀ 𝑥 > 0, 𝛽>0 ∀ 𝑡 <
𝛽

1 F
G
𝑓 𝑥 = À
𝑥(G# 𝑒 ® 𝜇 = 𝑛𝛽 𝜎 & = 𝑛𝛽 & 𝑀F 𝑡 = 1 − 𝛽𝑡 G(
Erlang Γ n β
𝑿~𝑮(𝒏, 𝜷) 1
∀ 𝑥 > 0 ∀ 𝑡 <
𝛽

1 ( F (
Ji-Cuadrado 𝑓 𝑥 = 𝑥 & G# 𝑒G& 𝑀F 𝑡 = 1 − 2𝑡 G
&
𝒏 n À& 𝜇=𝑛 𝜎 & = 2𝑛
𝑿~𝑮 ,𝟐 Γ 2
𝟐 2 1
∀ 𝑡 <
2
∀ 𝑥 > 0

Beta Γ 𝛼 + 𝛽 ¯G#
𝑓 𝑥 = 𝑥 1−𝑥 ®G#
𝜇=
𝛼
𝜎& =
𝛼𝛽
𝑀F 𝑡 = 𝐸[𝑒 Fp ]
𝑿~𝑩 𝜶, 𝜷 Γ α Γ 𝛽 𝛼+𝛽 𝛼+𝛽 & 𝛼+𝛽+1

0≤x≤1
FB10

5. Distribuciones conjuntas

Distribuciones de probabilidad bivariadas

𝑿, 𝒀 𝑫𝒊𝒔𝒄𝒓𝒆𝒕𝒂𝒔 𝑿, 𝒀 𝑪𝒐𝒏𝒕𝒊𝒏𝒖𝒂𝒔
Ÿ Ÿ
Propiedad de 𝑃 𝑋 = 𝑥, 𝑌 = 𝑦 = 1
Distribución de 𝑓(𝑥, 𝑦) 𝑑𝑥 𝑑𝑦 = 1
ÏDÐB F ÏDÐB n
Probabilidades GŸ GŸ

Ÿ Ÿ
Valor Esperado 𝐸 𝑢(𝑥, 𝑦) = 𝑢(𝑥, 𝑦)𝑃 𝑥, 𝑦
𝐸 𝑢(𝑥, 𝑦) = 𝑢(𝑥, 𝑦)𝑓(𝑥, 𝑦) 𝑑𝑥𝑑𝑦
F ∈ ” n ∈ ”
GŸ GŸ
Ÿ
Marginal de X 𝑃# 𝑋 = 𝑥 = 𝑃 𝑥, 𝑦
𝑓# 𝑥 = 𝑓(𝑥, 𝑦) 𝑑𝑦
n ∈ ”

Ÿ
Marginal de Y 𝑃& 𝑌 = 𝑦 = 𝑃 𝑥, 𝑦
𝑓& 𝑦 = 𝑓(𝑥, 𝑦) 𝑑𝑥
F ∈ ”

Distribuciones de probabilidad y densidad condicional

Variables aleatorias Discretas Variables Aleatorias Continuas


𝑓 𝑥, 𝑦
𝑃(𝑋 = 𝑎, 𝑌 = 𝑏) 𝑓 𝑥 𝑦 = 𝑦D F =
𝑃 𝑋 = 𝑎 𝑌 = 𝑏 = 𝑓& (𝑦~ )
𝑃(𝑥 = 𝑏)
𝑓 𝑥~ , 𝑦
𝑓 𝑦 𝑥 = 𝑥D n =
𝑓# (𝑥~ )

Independencia de variables aleatorias

• Para x, y Discretas:
X y Y son independientes ⇔ 𝑃 𝑋 = 𝑥, 𝑌 = 𝑦 = 𝑃# 𝑋 = 𝑥 𝑃& 𝑌 = 𝑦
• Para x, y Continuas:
X y Y son independientes ⇔ 𝑓 𝑥, 𝑦 = 𝑓# 𝑥 𝑓& (𝑦)
• Para el valor esperado:
Si x, y son independientes entonces 𝐸 𝑢# 𝑥 𝑢& (𝑥)) = 𝐸 𝑢# 𝑥 ] 𝐸[𝑢& (𝑥)
• Para correlaciones:
Si x, y son independientes entonces 𝑐𝑜𝑣 𝑥, 𝑦 = 0
FB10

Media, varianza, covarianza y correlaciones

Distribuciones conjuntas (2 variables X y Y)

Media Si 𝑢 𝑥, 𝑦 = 𝑥 → 𝐸 𝑢 𝑥, 𝑦 = 𝐸 𝑥 = 𝜇F

Si 𝑢 𝑥, 𝑦 = 𝑦 → 𝐸 𝑢 𝑥, 𝑦 = 𝐸 𝑦 = 𝜇n

&
Varianza Si 𝑢 𝑥, 𝑦 = 𝑥 − 𝜇F → 𝐸 𝑢 𝑥, 𝑦 = 𝜎F&
&
Si 𝑢 𝑥, 𝑦 = 𝑦 − 𝜇n → 𝐸 𝑢 𝑥, 𝑦 = 𝜎n&

Covarianza 𝜎Fn = 𝑐𝑜𝑣 𝑥, 𝑦 = 𝐸 𝑥 − 𝜇F 𝑦 − 𝜇n = 𝐸 𝑥𝑦 − 𝜇F 𝜇n

Propiedades:

• 𝑐𝑜𝑣 𝑥, 𝑥 = 𝜎F&
• 𝑐𝑜𝑣 𝑥, 𝑦 = 𝑐𝑜𝑣 𝑦, 𝑥
• 𝑐𝑜𝑣 𝑎𝑥, 𝑏𝑦 = 𝑎𝑏 𝑐𝑜𝑣 𝑥, 𝑦
• 𝑐𝑜𝑣 𝑥, 𝑎 = 0

𝜎Fn
𝜌Fn =
Coeficiente de 𝜎F 𝜎n
correlación
−1 < 𝜌Fn < 1

Combinación lineal
𝑛 𝑚
𝐷𝑎𝑑𝑜 𝑙𝑜𝑠 𝑣𝑒𝑐𝑡𝑜𝑟𝑒𝑠 𝑈 = 𝑎𝑖 𝑥𝑖 𝑦 𝑉 = 𝑏𝑗 𝑦𝑗
𝑖=1 𝑗=1

( Ø

Media: 𝜇Ô = 𝑎 H 𝜇 FÕ 𝜇Ö = 𝑏‹ 𝜇n×
H[# ‹[#

( Ø

Varianza: 𝜎Ô& = 𝑎H& 𝜎F&Õ +2 𝑎H 𝑎‹ 𝑐𝑜𝑣(𝑥H , 𝑥‹ ) 𝜎Ô& = 𝑏‹& 𝜎n&× + 2 𝑏H 𝑏‹ 𝑐𝑜𝑣(𝑦H , 𝑦‹ )


H[# HÙ‹ ‹[# HÙ‹

( Ø

Covarianza: 𝑐𝑜𝑣 𝑈, 𝑉 = 𝑎H 𝑏‹ 𝑐𝑜𝑣 𝑥H , 𝑦H


H[# ‹[#
FB10

6. Distribuciones muestrales

Teorema del Límite Central (TLC)

“Sea 𝑥# , 𝑥& , … , 𝑥( una sucesión de variables aleatorias que son independientes e idénticamente
distribuidas, y 𝐸 𝑥H = 𝜇 y 𝑣𝑎𝑟 𝑥H = 𝜎 & existen y son finitas, se define la media muestral
( FÕ F G µ
como 𝑥 = H[# ( y 𝑧( = , bajo estas condiciones, se dice que 𝑧( converge en distribución
¶/ (

a una variable normal estándar.”

Es decir, La distribución de la media de una variable aleatoria cualquiera (Normal, Beta, Gamma,
Exponencial, etc.) converge a una variable normal estándar mediante la siguiente
F G µ
estandarización: 𝑧( =
¶/ (

Condiciones para aplicar el TLC:


1. 𝑇𝑎𝑚𝑎ñ𝑜 𝑑𝑒 𝑙𝑎 𝑚𝑢𝑒𝑠𝑡𝑟𝑎 𝑚𝑎𝑦𝑜𝑟 𝑎 30 𝑛 ≥ 30
2. 𝑉𝑎𝑟𝑖𝑎𝑛𝑧𝑎 𝜎 & 𝑐𝑜𝑛𝑜𝑐𝑖𝑑𝑎

Aproximación Normal a Binomial

Para aproximar una variable aleatoria Binomial (Discreta) a una variable aleatoria Normal (Continua),
debe cumplir las siguientes condiciones:

a) 𝑛 ≥ 30
b) 𝑛𝑝 ≥ 5 (Media de v.a. Binomial)
c) 𝑛 1 − 𝑝 ≥ 5 (Varianza de v.a. Binomial)

Binomial (Discreta) Normal (Continua)

𝑃 𝑥 ≤ 𝑎 ≅ 𝑃(𝑦 ≤ 𝑎 + 0.5)

𝑃 𝑥 ≥ 𝑎 ≅ 𝑃(𝑦 ≥ 𝑎 − 0.5)

𝑃 𝑥 < 𝑎 ≅ 𝑃(𝑦 < 𝑎 − 0.5)

𝑃 𝑥 > 𝑎 ≅ 𝑃(𝑦 > 𝑎 + 0.5)


FB10

S-ar putea să vă placă și