Documente Academic
Documente Profesional
Documente Cultură
Los juegos de azar tienen una antigüedad de más de 40000 años; así por
ejemplo, los dados se utilizaron tanto en el juego como en ceremonias religiosas. Las
civilizaciones antiguas explicaban el azar mediante la voluntad divina. En el
Renacimiento el abandono progresivo de explicaciones teológicas conduce a una
reconsideración de los experimentos aleatorios.
2.- INTRODUCCIÓN
Aunque desde sus orígenes siempre han estado ligadas, es cierto que existe un
cierto paralelismo entre la estadística descriptiva y el cálculo de probabilidades, como
se puede apreciar en la siguiente tabla:
ESTADÍSTICA PROBABILIDAD
fi, Fi Probabilidad
o Dos sucesos se dice que son iguales, cuando todo suceso elemental de uno está
en el otro, y viceversa.
o Suceso imposible.- Es el que no tiene ningún elemento del espacio muestral (E),
y por tanto no ocurrirá nunca, y se representa como ∅. Ejemplo: En el
lanzamiento del dado no puede darse el 7.
Introducción al cálculo de probabilidades 5
E A B
a
b c d e
A⊂ B ⇒ B⊄A
A, B / A ⊂ B ⇒ B⊂ A ⇒ A = B
A ⊂ B⎫
⎬⇔ A=B
B ⊂ A⎭
Luego A = B.
A∩ B =φ .
Ā = E – A.
Ejemplo: E = {1,2,3,4,5,6}
A = {1,2} → A = {3,4,5,6}
B = {2,4,6} → B = {1,3,5}
C = {3,5} → C = {1,2,4,6}
UNION INTERSECCION
1. Asociativa (AUB)UC=AU(BUC) (A∩B)∩C=A∩(B∩C)
2. Conmutativa AUB=BUA A∩B=B∩A
3. Idempotente AUA=A A∩A=A
4. Simplificativa AU(B∩A)=A
A∩(BUA)=A
5. Distributiva AU(B∩C)=(AUB)∩(AUC)
A∩(BUC)=(A∩B)U(A∩C)
_
Todo suceso A del espacio de sucesos tiene otro llamado contrario, A tal
que: _ _
AUA=E A∩A=φ
i) AUφ=A , A∩φ=φ
ii) A∩E=A, AUE=E _____ _ _ _____ _ _
iii) Leyes de Morgan: A ∩ B = A U B, A U B = A ∩ B.
A = {par}
B = {impar}
C = {múltiplo de 3}
Calcular:
a ) A U B = {1,2,3,4,5,6} = E
b) A U C = {1,3,4,6}
c) B U C = {1,3,5,6}
d ) A U B = {1,2,3,4,5,6} = E
e) A ∩ B = 0/
f ) A ∩ C = {6}
g ) B ∩ C = {3}
h) B − C = B ∩ C = {1,5}
i ) ( A U B ) ∩ C = {3,6}
f a (A)
f r (A) =
n
Como hemos venido observando los sucesos los consideremos como conjuntos,
siendo válido para los sucesos todo lo estudiado en la teoría de conjuntos. Para llegar a
la construcción axiomática del Cálculo de Probabilidades, necesitamos dar unas
estructuras algebraicas básicas construidas sobre los sucesos de la misma manera que
con construían sobre los conjuntos.
Todo fenómeno aleatorio lleva asociado un espacio muestral. Para medir el grado de
ocurrencia de los sucesos, definimos el Álgebra de Boole, álgebra de sucesos o sigma
álgebra, que verifica siguientes condiciones:
2.- Si tenemos una serie de sucesos finitos (A1, A2,…..An) infinitos numerables,
que pertenecen al Ą, la unión de todos ellos tiene que pertenecer a Ą.
P[E ] = 1.
Axioma 3: Sea A1 .... An sucesos tales que son disjuntos dos a dos (es
decir, la intersección es Ø) Ai ∩ Aj = φ , la probabilidad es la suma
de todas las probabilidades de sucesos.
P (∪ Ai ) = ∑ P ( Ai ).
Introducción al cálculo de probabilidades 11
Ejemplo: Calcula P ( A ∩ B ).
La solución es:
P( A) = {1,3,5}
P( B ) = {2,3,4,6}
P(1,3,5) + P (2,3,4,6) − P (3)
Ejemplo: Sea un experimento aleatorio que consiste en lanzar al aire los dados que no
están cargados, y se considera espacio muestral el resultado de la suma de los valores
obtenidos, calcular:
1
2.- La probabilidad del suceso A = {2} P ( A) =
11
6
3.- La probabilidad del suceso B = {par} P(B ) =
11
3
4.- La probabilidad del suceso C = {10,11,12} P(C ) =
11
4
5.- La probabilidad del suceso D = {4,5,6,7} P (D ) =
11
6.- P ( A U B ) = {2,4,6,8,10,12} = 6 / 11
1_Apuntes de Estadística II 12
7.- P ( A U C ) = {2,10,11,12} = 4 / 11
8.- P ( D U C ) = {2,3,8,9,10,11,12} = 7 / 11
9.- P ( B U D ) = {3,4,5,6,7,9,11} = 7 / 11
10.- P ( A ∩ B ) = P ( A U B ) = {3,4,5,6,7,8,9,10,11,12} = 10 / 11
11.- P ( B U C ) = {2,3,4,5,6,7,8,9,10,11,12} = 10 / 11
12.- P ( B ∩ D ) = {4,6} = 2 / 11 .
Prob [O] = 0
Prob [A] ≤ 1.
generalmente sí. A partir de esta idea surge la idea de probabilidad condicionada, que se
define:
P( A ∩ B)
P(B/A)= si P(B) ≠ O.
P( A)
P ( A ∩ B)
P(A/B)= si P(A) ≠ O.
P( B)
o P(A∩B)=P(A) · P(B/A)
o P(A∩B)=P(B) · P(A/B)
P( A / B) P( A)
o =
P( B / A) P( B)
o P ( A / A) = 1 .
Ejemplo: De una urna que contiene 9 bolas rojas y 5 negras, se extraen sucesivamente 2
bolas. Calcular la probabilidad de los siguientes sucesos:
a) Que las dos sean negras
b) Que las dos sean rojas
c) Que la primera se roja y la segunda negra
d) Que la segunda se roja sabiendo que la primera fue negra
1
P( A ∩ B) 1 1 3
P( A ∩ B) = = 6= P ( A) = {2} = P (B ) = {2,4,6} =
P( B) 3 3 6 6
6
P ( A1 ∩ A2 ∩ ... ∩ An ) = P( A1 ) ⋅ P( A2 ) ⋅ ... ⋅ P( An ) .
Introducción al cálculo de probabilidades 15
Ejemplo: Sea un experimento aleatorio que consiste en lanzar un tetraedro regular cuyas
caras están numeradas del 1 al 4, y se definen los sucesos:
A = {1 ó 2}
B = {2 ó 3}
C = {2 ó 4}
Calcular:
a ) P ( A) = 2 = 1
4 2
b) P ( B ) = 2 = 1
4 2
c) P(C ) = 2 = 1
4 2
d) Probabilidad de obtener un 2
P ( 2) = P ( A ∩ B ) = P ( A ∩ C ) = P ( B ∩ C ) = 1 / 4
P ( A ∩ B ) = P ( A) ∗ P ( B ) = 1 / 2 ∗ 1 / 2 = 1 / 4
P ( A ∩ C ) = P ( A) ∗ P (C ) = 1 / 2 ∗ 1 / 2 = 1 / 4
P ( B ∩ C ) = P ( B ) ∗ P (C ) = 1 / 2 ∗ 1 / 2 = 1 / 4
P ( A ∩ B ∩ C ) = P ( A) ∗ P ( B ) ∗ P (C )
P ( A ∩ B ∩ C ) = P ( 2) = 1 / 4
P( A) ∗ P( B) ∗ P(C ) = 1 / 2 ∗ 1 / 2 ∗ 1 / 2 = 1 / 8
Luego, 1 / 4 =/ 1 / 8
1_Apuntes de Estadística II 16
No se cumple la anterior condición, por lo que A, B y C no son independientes
entre sí, son independientes dos a dos.
Ejemplo: En una baraja de cartas hemos suprimido varias de ellas, entre los que quedan
se verifican las siguientes probabilidades:
- Probabilidad de obtener un rey: 0,15
- Probabilidad de obtener una carta que sea bastos: 0,30
- Probabilidad de obtener una carta que no sea ni rey ni bastos: 0,6
Calcular:
- ¿Está entre ellas el rey de bastos?, caso afirmativo indicar su probabilidad.-
- ¿Cuántas cartas hay en la baraja?
( )
P (ni Rey ni Bastos)= P Re y ∩ Bastos = 0,6 ⇒
P (Re y U Bastos ) = 1 − 0,6 = 0,4
P(Re y U Bastos) = P(Re y ) + P(Bastos ) − P(Re y I Bastos ) ⇒
0,4 = 0,15 + 0,3 − P(Re y ∩ Bastos) ⇒
P(Re y ∩ Bastos ) = 0,15 + 0,3 − 0,4 = 0,05
Por lo que al ser mayor que cero, indica que está el rey de bastos, con una
probabilidad de 0,05.-
5 1
0,05 = =
100 20
Lo que indica que si la probabilidad de sacar una carta (el rey de bastos) es de 1
entre 20, quiere decir que el número total de cartas en la baraja es de 20 (por la
definición de Laplace).
n
P(B ) = ∑ P( A i ) • P(B / A i ) .
i =1
Figura: Si A1 , A2 , A3 , A4 , A5 forman un
P [B ∩ Ai ] , o lo que es lo mismo,
P[B / Ai ] ⋅ P[Ai ]
B = B ∪ E = B ∩ ( A1 ∪ A2 ∪ A3 ∪ ... ∪ An ),
que aplicando las propiedades de los sucesos es fácil ver que todo esto es igual a
B = (B ∩ A1 ) ∪ (B ∩ A2 ) ∪ (B ∩ A3 ) ∪ ... ∪ (B ∩ An ) .
ya que al ser un sistema completo, las intersecciones son vacías. Además, como
sabemos que
P( A ∩ B )
P( A / B ) = ⇒ P ( A ∩ B ) = P ( A / B ) ⋅ P (B ),
P (B )
Ejemplo 1: Se tienen dos urnas, la nº1 tiene 3 bolas blancas y 2 negras, la nº2 tiene 2
bolas blancas y 3 negras. Se elige una urna al azar y de ella se extrae una bola. Calcular
la probabilidad de que sea blanca.
P(B) = P(A1) · P(B/A1) + P(A2) · P(B/A2) = 1/2 · 3/5 + 1/2 · 2/5 = 1/2.
Ejercicio 2: Una compañía dedicada al transporte público explota tres líneas de una
ciudad, de forma que el 60% de los autobuses cubre el servicio de la primero línea, el
30% cubre la segunda y el 10% cubre el servicio de la tercera línea. Se sabe que la
probabilidad de que, diariamente, un autobús se averíe es del 2%, 4% y 1%,
respectivamente, para cada línea. Determina la probabilidad de que, en un día, un
autobús sufra una avería.
Solución:
Para obtener la solución definimos el suceso "sufrir una avería" (Av) puede producirse
en las tres líneas, (L1, L2, L3). Según el teorema de la probabilidad total y teniendo en
cuenta las probabilidades del diagrama de árbol adjunto, tenemos:
Ejercicio 3: Una empresa del ramo de la alimentación elabora sus productos en cuatro
factorías: F1, F2, F3 y F4. El porcentaje de producción total que se fabrica en cada
factoría es del 40%, 30%, 20% y 10%, respectivamente, y además el porcentaje de
envasado incorrecto en cada factoría es del 1%, 2%, 7% y 4%. Tomamos un producto
de la empresa al azar. ¿Cuál es la probabilidad de que se encuentre defectuosamente
envasado?
Solución:
Llamando M = "el producto está defectuosamente envasado", se tiene que este producto
puede proceder de cada una de las cuatro factorías y, por tanto, según el teorema de la
probabilidad total y teniendo en cuenta las probabilidades del diagrama de árbol
adjunto, tenemos:
Introducción al cálculo de probabilidades 19
⎛ 2 5 ⎞ ⎛ 2 3 ⎞ ⎛ 1 1 ⎞ 10 6 1
P ( azul ) = ⎜ ∗ ⎟ + ⎜ ∗ ⎟ + ⎜ ∗ ⎟ = + + = 0,25 + 0,24 + 0,06 = 0,55
⎝ 5 8 ⎠ ⎝ 5 5 ⎠ ⎝ 5 3 ⎠ 40 25 15
P(azul) =
P(A)*P(azul/A)+P(A)*P(azul/A)+P(B)*P(azul/B)+P(B)*P(azul/B)+P(C)*P(azul/C)
1_Apuntes de Estadística II 20
⎛1 5⎞ ⎛1 5⎞ ⎛1 3⎞ ⎛1 3⎞ ⎛1 1⎞ 5 5 3 3 1
P (azul ) = ⎜ ∗ ⎟ + ⎜ ∗ ⎟ + ⎜ ∗ ⎟ + ⎜ ∗ ⎟ + ⎜ ∗ ⎟ = + + + + = 0,55
⎝ 5 8 ⎠ ⎝ 5 8 ⎠ ⎝ 5 5 ⎠ ⎝ 5 5 ⎠ ⎝ 5 3 ⎠ 40 40 25 25 15
P ( A i ) • P (B / A i ) P ( P ( A i ) • P (B / A i )
P( A i / B) = n
= ,i = 1,2,..., n
P( B)
∑ P ( A ) • P (B / A )
i =1
i i
Demostración :
P(A i ) • P(B / A i )
P(A i / B) = , i = 1,..., n
P( B)
y por el teorema de la probabilidad total :
P(A i ) • P(B / A i )
P(A i / B) = n , i = 1,..., n
∑ P(A ) • P(B / A )
i=1
i i
1
P(A 1 ) • P(B / A 1 ) • 53
2 3
P(A 1 / B) = = 1 2 = .
2 • + 2 • 5
1 3
P(A 1 ) • P(B / A 1 ) + P(A 2 ) • P(B / A 2 ) 5 5
Ejercicio: Tenemos tres urnas: A con 3 bolas rojas y 5 negras, B con 2 bolas rojas y 1
negra y C con 2 bolas rojas y 3 negras. Escogemos una urna al azar y extraemos una
bola. Si la bola ha sido roja, ¿cuál es la probabilidad de haber sido extraída de la urna
A?
Solución:
Introducción al cálculo de probabilidades 21
Para obtener la solución, llamamos R= "sacar bola roja" y N= "sacar bola negra". En el
diagrama de árbol adjunto pueden verse las distintas probabilidades de ocurrencia de los
sucesos R o N para cada una de las tres urnas.
Sabíamos que
10 6 1
P ( azul ) = + + = 0,25 + 0,24 + 0,06 = 0,55
40 25 15
entonces,
1 1
∗
P(C ) ∗ P(azul C ) 5 3 = 0,10
P(C azul ) = =
P( A) ∗ P(azul A) + P( B) ∗ P(azul B) + P(C ) ∗ P(azul C ) 0,55
8.- COMBINATORIA
Ejemplo: Sea un conjunto formado por las letras a, b, c. ¿Cuántos grupos de 2 letras se
puede obtener, sin repetir los elementos, teniendo en cuenta el orden?
V32 = 3 ∗ (3 − 2 + 1) = 3 ∗ 2 = 6
{a, b, c} → (a, b), (b, c ), (b, a ), (c, b), (c, a ), (a, c ) → 6
VR mn = n m
V32 = 3 2 = 9
{a, b, c} → (a, b), (b, c ), (b, a ), (c, b), (c, a ), (a, c ), (a, a ), (b, b), (c, c ) → 9
P n = V nn = n!
P3 = 3! = 3 ∗ 2 ∗ 1 = 6
Introducción al cálculo de probabilidades 23
⎛n⎞ n!
C mn = ⎜⎜ ⎟⎟ =
⎝ m⎠ m! ( n − m)!
⎛3⎞ 3! 3 ∗ 2 ∗1 6
C = ⎜⎜ ⎟⎟ =
2
= = =3
⎝ 2 ⎠ 2!∗(3 − 2 )! 2 ∗ 1 ∗ 1 2
3
⎛ n + m − 1⎞ (n + m − 1)!
CR mn = ⎜⎜ ⎟⎟ =
⎝ m ⎠ m! (n − 1)!
⎛ 3+ 2 −1 ⎞ (3 + 2 − 1)! 4! 4 ∗ 3 ∗ 2 ∗ 1 24
C 32 = ⎜ − ⎟ = = = = =6
⎝ 2 ⎠ 2!∗(3 − 1)! 2!∗2! 2 ∗ 1 ∗ 2 ∗ 1 4
1.- INTRODUCCIÓN
El estudio que se hará en este tema será análogo al que se hace con las variables
estadísticas en descriptiva. Así retomaremos el concepto de distribución y las
características numéricas, como la media y varianza. El papel que allí jugaba la
frecuencia relativa lo juega ahora la probabilidad. Esto va a proporcionar aspectos y
propiedades referentes a fenómenos aleatorios que permitirán modelos muy estudiados
en la actualidad.
0/ X ≤0
(X,X,X) 0 ≤ X ≤1
X (S) ≤ X (C,C,C)(X,C,X)(X,X,C) 1≤ X ≤ 2
(C,C,X)(C,X,C)(X,C,C) 2≤ X ≤3
(C,C,C) X ≥3
Sea un espacio probabilístico y sea X una variable aleatoria discreta que toma
como posibles valores x1,x2,.....xn, se define la distribución de probabilidad de X como
el conjunto de pares (xi, pi) que a cada valor de la variable le asocia una probabilidad,
donde pi= P(X=xi), tal que la suma de todas las probabilidades es igual a la unidad.
∀Α Ρ (Χ ∈ Α ) = ∫ f ( x )dx .
F(x) ó Fx
o CASO DISCRETO
(0 caras, 1/8); (1 cara, 3/8); (2 caras, 3/8); (3caras, 1/8), Calcula la probabilidad de
obtener menos dos caras?.
A) F ( −∞ ) = 0; F (+ ∞ ) = 1
B) Ρ[(a , b )] = F (b) − F (a )
x1 , x 2 x1 < x 2 ⇒ F ( x1 ) ≤ F ( x 2 ) .
o CASO CONTINUO:
Sea X una variable aleatoria continua con función de densidad f(x), se define la
función de distribución, F(x), como:
∞
( ) = Ρ[x ≤ X ] = ∫ f ( x )dx .
F x
−∞
A) F ( x) ≥ 0;
∞
B) ∫ f ( x)dx = 1
−∞
b
C) P[a ≤ x ≤ b] = ∫ f ( x)dx = F (b) − F (a)
a
X/2 0≤x≤2
f (x )=
0 en otro caso
Ε[x] = ∑i =1 xi Ρ( X = xi ) = ∑i =1 xi Ρi .
n n
3
1 3 3 1 12 3
El resultado será: E[ X ] = ∑ xi pi = 0· + 1· + 2· + 3· = = .
i =0 8 8 8 8 8 2
2_Apuntes de Estadística II 30
6.2.- Esperanza matemática para una variable aleatoria continua
Sea X una variable aleatoria continua con función de densidad f(x), se define la
esperanza matemática de esa variable aleatoria como:
+∞
Ε[x ] = ∫ xf ( x)dx = μ.
−∞
Tanto para el caso discreto como para el caso continuo, la esperanza matemática
presenta las siguientes propiedades:
n n
o Discreta: V [x ] = ( x − E ( x)) 2 = ∑ ( xi − μ ) 2 =∑ xi2 Pi − μ 2
i =1 i =1
+∞ 2
o Continua: V [ x ] = ∫ ( x − μ ) f ( x )dx
−∞
El resultado será:
2
3
⎡ 1 3 3 1⎤ ⎡ 3⎤
V [ X ] = σ = ∑ x pi − μ = ⎢0 2 · + 12 · + 2 2 · + 3 2 · ⎥ − ⎢ ⎥ = 0,75.
2 2
i
2
i =0 ⎣ 8 8 8 8⎦ ⎣ 2⎦
o V [Y ]= a 2 V [ Xx ]
o Si X e Y son independientes, entonces E[XY ] = E[X ]E[Y ] .
6.4.- Covarianza
Sean X e Y dos variables aleatorias, se define la covarianza entre estas dos
variables como,
Cov = E[ XY ] − E[ X ]E[Y ] ,
donde el cálculo de las esperanzas dependerá de si las variables son discretas o
continuas. De esta definición surge el siguiente resultado. Cuando X, Y son
independientes la covarianza es igual a 0.
E[ X ·Y ] = E[ X ]E[Y ] , entonces
Cov = E[ XY ] − E[ X ]E[Y ] = E[ X ]·E[Y ] − E[ X ]·E[Y ] = 0.
μ k = E[( X − μ ) k ]
α k = E[ X K ]
[ ⎛
ΡX = x =⎜n
i ⎜x
] ⎞ xi
⎟ p (1 − p )n − xi
⎟
x = 1,2,..., n .
⎝ i ⎠
Además, es fácil de comprobar que se verifica que E[x] = np y que
V [x] = np(1 − p) = npq .
∑ ( )p
n
F(x)= n
xi
xi
(1 − p ) n − xi 0≤ x≤n
I =1
1 x>n
E[Y ] = p y V [Y ] =
pq
.
n
λx
P[ X = xi ] = e
i
−λ
.
xi !
En esta distribución λ representa el número promedio de ocurrencias en un
intervalo de tiempo o en un espacio. Por lo tanto, para esta distribución se verifica que
su esperanza y su varianza son:
E[x ] = λ ,
V [x ] = λ .
y su función de distribución:
3_Apuntes de Estadística II 36
0 x<0
n
λx
∑ e −λ
i
F(x)= x>0
i =1 xi
Ejemplo: Una central telefónica recibe una media de 480 llamadas por hora. Si el
número de llamadas se distribuye según una Poisson y la central tiene una capacidad
para atender a lo sumo 12 llamadas por minuto, ¿cuál es la probabilidad de que en un
minuto determinado no sea posible dar línea a todos los clientes?
X → U ( a, b);
siempre se verifica que su función de densidad viene dada por la expresión:
1
f(x)= a≤ x≤b
b−a
0 ________
0 x<a
x−a
F(x)= a≤ x≤b
b−a
1 x ≥b
Las ventajas teóricas de este modelo hacen que su uso se generalice en las
aplicaciones reales.
Sea X una variable aleatoria continua, se dice que se distribuye como una
normal
X → N ( μ , σ ); μ∈R σ >0
3_Apuntes de Estadística II 38
donde se verifica que − ∞ < x < +∞, μ es el valor medio de la distribución y es
precisamente donde se sitúa el centro de la curva (de la campana de Gauss), y σ es
cualquier valor entre –∞ y +∞, si su función de densidad viene dada por:
−
(x−μ )
1
f (x ) = e 2σ 2
2πσ
Cuando la media de la distribución es 0 y la varianza es 1, se denomina "normal
tipificada", y su ventaja reside en que hay tablas, o rutinas de cálculo que permiten
obtener esos mismos valores, donde se recoge la probabilidad acumulada para cada
punto de la curva de esta distribución. Es se verá con más detalle en el siguiente
apartado.
Propiedades:
• Tiene un parámetro que es la media
E[X ] = μ .
• Tiene otro parámetro que nos da la dispersión.
V [X ] = σ 2 .
• La media, la moda y la mediana coinciden.
• Es una función simétrica respecto a la media, como se puede ver en el gráfico.
Y → N ( μ1 + μ 2 , σ 12 + σ 22 ).
2π
Propiedades:
• E(x)=0.
• V(x)=1.
Propiedades:
• Es una función asimétrica.
• E(x)= n.
• V(x)=2n.
• Sean dos variables aleatorias chi-cuadrado que se distribuyen X 1 → χ n2 y
X 2 → χ m2 , se define una nueva variable de la forma Y = X1 + X2, entonces
esta nueva variable se distribuye como:
Y → χ n2+ m
• Cuando el número de variables aleatorias es muy grande, es decir, cuando
n → ∞ , la variable se puede aproximar por una normal.
⎧ −
n +1
⎪ Γ( n2+1 ) ⎛ t2 ⎞ 2
⎜⎜1 + ⎟⎟
⎪ − ∞ < x < +∞
f ( x) = ⎨ nπ Γ( 2 ) ⎝ n ⎠
n
⎪
⎪ 0 −−−−−
⎩
Esta distribución es muy utilizada, que se construye a partir de una normal y un
chi-cuadrado. Veamos una gráfica comparativa con una distribución normal y
algunas de las propiedades que verifica.
Propiedades:
• Es simétrica, está centrada en el punto (0,0)
• Mo = Me =0
• E [T] = 0 si n>1
• V [T] = n/n-2 si n>2.
• Cuando el número de variables aleatorias es muy grande, es decir, cuando
n → ∞ , la variable se puede aproximar por una normal.
⎧ ⎛ n + m ⎞ n2 m2
⎪ Γ⎜ ⎟n m (n −2 )
⎪ ⎝ 2 ⎠
n+m
x 2 (nx + m ) 2
−
⎪ x>0
f ( x) = ⎨ Γ⎛⎜ 1 ⎞⎟ ⋅ Γ⎛⎜ ⎞⎟
n n2
⎪ ⎝2⎠ ⎝ 2 ⎠
⎪
⎪
⎩ 0 x≤0
Veamos algunas de las propiedades que verifican las variables aleatorias que
siguen esta distribución y su representación gráfica.
Propiedades:
n
• E[ F ] = , si m > 2.
m−2
m 2 (2n + 2m − 4)
• V [F ] = , si m > 4.
n(m − 2) 2 (m − 4)
1
• Si X → Fn ,m entonces la distribución → Fm ,n .
X
x1-1 xi x1+1
Los valores que adopta una Binomial o Poisson, son enteros positivos (0,1, 2, ...,
k..). Cualquier rectángulo centrado en un valor k, será de la forma: k-1/2, k+1/2; de
manera que determinar la probabilidad de P(X=x) en una Binomial o Poisson, será
equivalente a determinar la probabilidad en el intervalo (x-0.5; x+0.5) utilizando la
función de distribución de la normal.
Por tanto, para calcular la P(X=xi) se adopta el criterio de calcular:
1.- INTRODUCCIÓN
Puntual
Estimación
Estadística
Descriptiva Intervalos
INFERENCIA
Probabilidad y
Contraste
modelos
Por tanto, algunos de los objetivos que se persiguen en este tema son:
Inferencia, estimación y contraste de hipótesis 46
• Calcular los parámetros de la distribución de medias o proporciones muestrales
de tamaño n, extraídas de una población de media y varianza conocidas.
• Estimar la media o la proporción de una población a partir de la media o
proporción muestral.
• Utilizar distintos tamaños muestrales para controlar la confianza y el error
admitido.
• Contrastar los resultados obtenidos a partir de muestras.
• Visualizar gráficamente, mediante las respectivas curvas normales, las
estimaciones realizadas.
En definitiva, la idea es, a partir de una población se extrae una muestra por
algunos de los métodos existentes, con la que se generan datos numéricos que se van a
utilizar para generar estadísticos con los que realizar estimaciones o contrastes
poblacionales.
El estudio muestral no es un tema que entre a formar parte de este tema, pero si
necesitaremos una serie de conceptos necesarios para el desarrollo del tema, y que se
detallan a continuación.
- La media poblacional: X
- Total poblacional: X
- Proporción: P
ESTIMACIÓN: Este término indica que a partir de lo observado en una muestra (un
resumen estadístico con las medidas que conocemos de Descriptiva) se extrapola o
generaliza dicho resultado muestral a la población total, de modo que lo estimado es el
valor generalizado a la población. Consiste en la búsqueda del valor de los parámetros
poblacionales objeto de estudio. Puede ser puntual o por intervalo de confianza:
1
Todas las variables aleatorias que forman la muestra verifican que son independientes entre sí, que
E[ X i ] = μ y que su V [ X i ] = σ 2 .
Apuntes de Estadística II 49
o Total: t = Σ n xi .
i =1
MEDIA MUESTRAL: Sea X1.....Xn, una m.a.s. con media μ o con E(x)= μ y con
σ2
varianza muestral V [ X ] = , entonces la media muestra se distribuye como una
n
normal de parámetros:
σ
X → N (μ , ).
n
VARIANZA MUESTRAL: Sea X1.....Xn, una m.a.s. independientes e idénticamente
distribuidas, definimos el estadístico muestral para la varianza como la cuasivarianza
muestral s 2 =
1
n −1
( 2
)
∑1n=1 x1 − x , entonces se verifica que:
(n − 1)s 2 → χ n2−1
σ 2
TOTAL MUESTRAL: Sea X1......Xn, una m.a.s. con E(t)= n μ y con V(t)= nσ 2 ,
entonces se distribuye como una normal:
(
t → N nμ ; nσ 2 . )
El intervalo de confianza está determinado por dos valores dentro de los cuales
afirmamos que está el verdadero parámetro con cierta probabilidad. Son unos límites o
margen de variabilidad que damos al valor estimado, para poder afirmar, bajo un
criterio de probabilidad, que el verdadero valor no los rebasará. Es una expresión del
tipo [θ1, θ2] ó θ1 ≤ θ ≤ θ2, donde θ es el parámetro a estimar. Este intervalo contiene al
parámetro estimado con una determinada certeza o nivel de confianza.
⎡ ⎤
• BILATERAL: P ⎢z α < X < z α ⎥ .
⎣⎢ 2 2 ⎥
⎦
Sea X una variable aleatoria que se distribuye como X Æ N(μ , σ), si utilizamos
σ
la media muestral ( X ) como estimador, entonces X → N ( μ , ).
n
⎡ x−μ ⎤ ⎡ σ σ ⎤
P ⎢− z α < < z α ⎥ = P ⎢− z α . < x − μ < zα ⎥=
⎢⎣ 2 σ / n ⎥
2 ⎦ ⎢
⎣ 2 n 2 n ⎥⎦
Apuntes de Estadística II 53
⎡ σ σ ⎤
P ⎢− x − z α . < −μ < − x + z α . ⎥
⎣ 2 n 2 n⎦
σ σ
P [ x + z α /2 > μ > x - z α /2 ] = (1- α).
n n
Ordenando la información:
σ σ
P [ x - z α /2 < μ < x + zα /2 ] = (1- α ).
n n
Sabemos que para cualquier distribución, por el Teorema Central del Límite, si
tiene un tamaño de muestra grande, se puede aproximar o se distribuye como una
Normal de parámetros:
s
X → N (μ , ),
n
siendo s la cuasidesviación típica muestral. En consecuencia,
x−μ
Z= → N (0;1) ,
s/ n
y procediendo de forma análoga a la anterior llegamos a que el intervalo de confianza
que buscamos es
⎡ s s ⎤
⎢x − zα ; x + zα ⎥.
⎣ 2 n 2 n⎦
x−μ
→ t n −1 .
s/ n
⎡ s s ⎤
I .C .⎢ x − t α ;x + t α ⎥.
⎢⎣ n −1;
2 n n −1;
2 n ⎥⎦
⎡ pq pq ⎤
⎢ p − zα ; p + zα ; ⎥.
⎣ 2
n 2
n ⎦
Apuntes de Estadística II 55
⎡
P⎢χ 2 α <
(n − 1)s 2 < χ 2 ⎤ = 1 − α .
α ⎥
⎢⎣ n −1;1− 2 σ2 n −1;
2 ⎥
⎦
⎡ ⎤ ⎡ ⎤
⎢ 1 σ2 1 ⎥ ⎢ (n − 1)s 2 (n − 1)s 2 ⎥
P⎢ 2 > > 2 ⎥= P⎢ 2 >σ >
2
⎥ = 1 − α.
χ
⎢ n −1;1− α
(n − 1)s χ n −1;α
2
⎥
χ
⎢ n −1;1− α χ 2
n −1;
α ⎥
⎣ 2 2 ⎦ ⎣ 2 2 ⎦
⎡ ⎤
⎢ (n − 1)s 2 (n − 1)s 2 ⎥
⎢ χ2 ; 2 ⎥.
⎢ n −1; α χ α ⎥
n −1;1−
⎣ 2 2 ⎦
Es una regla de decisión que nos dice cuando aceptar y rechazar las hipótesis,
con esto vemos si los datos de una muestra son compatibles o no con los de la
población.
Aquella hipótesis que se desea contrastar se llama hipótesis nula (Ho), por tanto,
la que se acepta o rechaza como conclusión del contraste. La hipótesis nula suele ser
una estrategia o medio del que se sirve el investigador para probar la alternativa. Suele
ir acompañada por la hipótesis alternativa o hipótesis experimental, simbolizada por H1.
Apuntes de Estadística II 57
A su vez, al plantear una hipótesis, esta puede ser simple o compuesta. Una
hipótesis es simple si se especifica exactamente el valor del parámetro. Una hipótesis es
compuesta, si contiene dos ó más valores del parámetro. La hipótesis nula (Ho) por ser
más concreta suele ser simple y la alternativa, compuesta. Es frecuente plantearlas como
complementarias.
5.2.- Supuestos
Las suposiciones que podemos hacer dependiendo del tipo de contraste que
necesitemos son:
a) Supuestos acerca de las características ó de los datos que se van a manipular,
como puede ser la independencia de la observaciones, nivel de medida
utilizada, etc.
b) Supuestos acerca de la forma de distribución de partida: Normal, Binomial,
etc.
• Muestras independientes.
Este criterio consiste en dividir tal espacio en dos zonas mutuamente excluyentes
y exhaustivas: la zona de rechazo o región crítica y la zona de aceptación. La zona de
rechazo está constituida por aquellos valores del estadístico de contraste que se alejan
mucho de Ho, por lo tanto es muy poco probable que ocurran si Ho es verdadera. Por
ejemplo, a continuación se pueden ver dos ejemplos de contrastes, uno unilateral y otro
bilateral, aunque se pueden crear muchos más.
Si la distribución, bajo la H1, sólo puede estar a la derecha será más potente si
colocamos a la derecha toda la región crítica.
Apuntes de Estadística II 59
Los contrastes unilaterales suelen ser mejores que los contrates bilaterales. La
elección de uno u otro, está condicionada al planteamiento de la hipótesis alternativa.
Ejemplo:
Si Ho ≤ 0.50 ⇒ H1 > 0.50 Es unilateral.
- Error tipo II (β): Es el error que se comete en la decisión del contraste cuando
se acepta la hipótesis nula (Ho), siendo falsa.
Inferencia, estimación y contraste de hipótesis 60
En la siguiente tabla se puede ver de forma más concreta:
Verdadera Falsa
(1- α) β
Acertar
Decisión correcta Error tipo II
α (1-β)
Rechazar
Error tipo I Decisión Correcta
Así, las probabilidades asociadas a los tipos dos tipos de Error vienen dadas por
las siguientes expresiones:
que se obtiene al relacionar los posibles valores de H1 con los correspondientes (1-β), se
llama curva de potencia o función de potencia.
Carencia de Sesgo:
Consistencia:
[ ]
p = P Z > z exp .
El p-valor puede considerarse como el valor límite para que un contraste sea
significativo, es decir, elegido un nivel de significación α, se rechazará H0 si p ≤ α.
Apuntes de Estadística II 63
H 0 : μ ≤ μ0 x − μ0
B) RECHAZO H0 si > zα
H1 : μ > μ0 s/ n
H 0 : μ ≥ μ0 x − μ0
C) RECHAZO H0 si < − zα
H1 : μ < μ0 s/ n
En caso contrario se acepta la hipótesis nula.
x−μ
→t
s/ n n −1
H 0 : μ = μ0 x − μ0
A) RECHAZO H0 si >t α
H1 : μ ≠ μ0 s/ n n −1;
2
H 0 : μ ≤ μ0 x − μ0
B) RECHAZO H0 si > t n −1;α
H1 : μ > μ0 s/ n
H 0 : μ ≥ μ0 x − μ0
C) RECHAZO H0 si < −t n−1;α
H1 : μ < μ0 s/ n
p − P0
→ N (0;1) .
p0 q0
n
H 0 : P = P0 p − P0
A) RECHAZO H0 si > zα
H 1 : P ≠ P0 p0 q0 2
n
Inferencia, estimación y contraste de hipótesis 66
H 0 : P ≤ P0 p − P0
B) RECHAZO H0 si > zα
H 1 : P > P0 p0 q0
n
H 0 : P ≥ P0 p − P0
C) RECHAZO H0 si < − zα
H 1 : P < P0 p0 q0
n
En caso contrario se acepta la hipótesis nula.
H 0 : σ 2 = σ 02 (n − 1)s 2 ∉ ⎛⎜ χ 2 ; χ 2 ⎞
A) RECHAZO H0 si ⎟
σ ⎜ α α ⎟
H 1 : σ 2 ≠ σ 02
2 1−
0 ⎝ 2 2 ⎠
H 0 : σ 2 ≤ σ 02 (n − 1)s 2
B) RECHAZO H0 si > χ α2
H1 : σ > σ
2 2
0
σ 2
0
H 0 : σ 2 ≥ σ 02 (n − 1)s 2 < χ 2
C) RECHAZO H0 si 1−α
H 1 : σ 2 < σ 02 σ02