Sunteți pe pagina 1din 94

Distribución Conjunta y
Marginal

1 © Ast urias Corporación Universitaria


Distribución Conjunta y Marginal

Índice

1 Introducción ............................................................................................................................................................ 3
2 Conceptos Básicos (Rincón, 2010) ............................................................................................................. 3
2.1 Variables Aleatorias ................................................................................................................. 3
2.2 Variable Aleatoria Discreta .................................................................................................. 3
2.3 Variable Aleatoria Continua................................................................................................. 4
2.4 Función de Probabilidad para una Variable Discreta (Rincón, 2010) .......... 4
2.5 Función de Densidad para una Variable Continua ................................................ 4
3 Distribución Conjunta ........................................................................................................................................ 4
3.1 Función de Densidad para una Variable Continua ................................................ 5
3.2 Densidad Conjunta ................................................................................................................... 5
3.3 Variables Aleatorias Bidimensionales Discretas ..................................................... 5
3.4 Función Masa o de Densidad Probabilidad Conjunta .......................................... 5
3.5 Variables Aleatorias Bidimensionales Continuas................................................... 6
4 Distribución Marginal ......................................................................................................................................... 7
4.1 Función de Distribución Marginal ................................................................................... 8
4.2 Función de Densidad Marginal ........................................................................................ 8
5 Resumen .................................................................................................................................................................. 9
6 Referencias Bibliográficas ........................................................................................................................... 10

02 ASTURIAS CORPORACIÓN UNIVERSITARIA®


Not a Técnica preparada por Ast urias Corporación Universit aria. Su dif usión, reproducción o uso t ot al
o parcial para cual quier ot ro propósit o queda prohibida. Todos l os derechos reservados.
Distribución Conjunta y Marginal

Objetivos
 Objetivo 1: Conocer los conceptos básicos de la teoría de variables aleatorias.

 Objetivo 2: Estudiar las variables aleatorias bidimensionales.

1 Introducción
Iniciamos esta unidad de aprendizaje con un repaso por los conceptos básicos de la
teoría de variables aleatorias, con el fin de enlazar los contenidos de la última unidad de
aprendizaje vista en el curso de Estadística I.

Siguiendo con la orientación objeto del curso, nuestro interés ahora se centrará en
determinar la forma en cómo se estudian variables aleatorias bidimensionales y la
interacción que consigo lleva su medición. También es de interés final medir el grado,
intensidad y el sentido de asociación entre las características de interés.

2 Conceptos Básicos (Rincón, 2010)

2.1 Variables Aleatorias

Definido un experimento aleatorio de interés, por ejemplo el lanzamiento de un dado, los


posibles resultados, los números del uno al seis, son en consecuencia valores numéricos. Sin
embargo, se podrían asignar a los valores pares un criterio de éxito denotado por un número,
digamos uno y en caso contrario un cero.
Este tipo de asignación de los valores numéricos a los sucesos de un experimento aleatorio
“En una variable aleatoria se puede ver una determina la base sobre la cual se define una variable aleatoria. Así una variable aleatoria se
aplicación 𝑋 del espacio de resultados Ω al puede ver una aplicación 𝑿 del espacio de resultados 𝛀 al conjunto de números reales, esto
conjunto de números reales”
es,
𝑋: Ω → ℝ

A menudo se escribe simplemente 𝑣. 𝑎. en lugar del término variable aleatoria para


efectos de notación.
En general, las variables aleatorias se denotan usando las últimas letras del alfabeto en
mayúsculas, 𝑈, 𝑉, 𝑊, 𝑋, 𝑌, 𝑍 y para un valor cualquiera de ellas se usa la misma letra pero
en minúscula.

2.2 Variable Aleatoria Discreta

Decimos que una variable aleatoria es discreta, cuando toma un valor particular y este
“Una variable aleatoria es discreta cuando resulta de ser un valor entero.
oma un valor particular y este resulta ser
un valor entero” Ejemplo:

03 ASTURIAS CORPORACIÓN UNIVERSITARIA®


Not a Técnica preparada por Ast urias Corporación Universit aria. Su dif usión, reproducción o uso t ot al
o parcial para cual quier ot ro propósit o queda prohibida. Todos l os derechos reservados.
Distribución Conjunta y Marginal

Una variable aleatoria discreta puede ser la edad, debido a que toma valores en el
conjunto {0, 1, 2,….., n} que es un conjunto discreto porque es finito.

2.3 Variable Aleatoria Continua

Decimos que una variable aleatoria es continua cuando toma todos los valores dentro
“Una variable aleatoria es continua de un intervalo (a, b) ⊆ ℝ. Esta clasificación de variables aleatorias es limitada ya que
cuando toma todo los valores dentro de
existen variables aleatorias que no son absolutamente continuas o absolutamente
un intervalo”
discretas, es decir, pueden tomar valores de ambos conjuntos numéricos.

2.4 Función de Probabilidad para una Variable Discreta (Rincón, 2010)

Dada una variable aleatoria 𝑋 discreta que toma los valores en un conjunto finito o
numerable y con probabilidades no nulas. La función de probabilidad de la variable 𝑋
denotada por 𝑓(𝑥) ∶ 𝑅 → [0, ∞) se define como sigue:
𝑃(𝑋 = 𝑥) 𝑠𝑖, 𝑥 = 𝑥1 , 𝑥2 , …
𝑓(𝑥) = {
0 𝑐. 𝑜. 𝑐

Acorde con la definición, tenemos ahora las siguientes propiedades de la función de


densidad de probabilidad:

 0 ≤ 𝑓(𝑥) ≤ 1

 ∑∞
𝑖=1 𝑓(𝑥𝑖 ) = 1

2.5 Función de Densidad para una Variable Continua

Dada una variable aleatoria 𝑋 continua. Decimos que la función integrable y no negativa
𝑓(𝑥) ∶ ℝ → [0, ∞), es la función de densidad de 𝑋 si para cualquier intervalo (𝑎, 𝑏) de ℝ
se cumple la igualdad
𝑏
𝑃(𝑋 ∈ (𝑎, 𝑏)) = ∫ 𝑓(𝑥) 𝑑𝑥
𝑎

Acorde con la definición, tenemos ahora las siguientes propiedades de la función de


densidad de probabilidad:

 𝑓(𝑥) ≥ 0, para toda 𝑥 ∈ ℝ.



 ∫−∞ 𝑓(𝑥) 𝑑𝑥 = 1.

3 Distribución Conjunta
Como extensión natural del caso univariado, todo par de variables aleatorias induce una
medida de probabilidad. Esta medida de probabilidad puede analizarse, de igual forma que

04 ASTURIAS CORPORACIÓN UNIVERSITARIA®


Not a Técnica preparada por Ast urias Corporación Universit aria. Su dif usión, reproducción o uso t ot al
o parcial para cual quier ot ro propósit o queda prohibida. Todos l os derechos reservados.
Distribución Conjunta y Marginal

en el caso de estudio de una sola variable, mediante la función de distribución conjunta


definida como sigue:

3.1 Función de Densidad para una Variable Continua

La función de distribución conjunta de un par de variables aleatorias dado (𝑋, 𝑌),


“Propiedadesde la función de densidad denotada por 𝑭(𝑥, 𝑦), se define como sigue
para una variable continua”
𝑭(𝑥, 𝑦) = 𝑷(𝑿 ≤ 𝑥, 𝒀 ≤ 𝑦).

El número 𝑭(𝒙, 𝒚) no es más que la probabilidad de que la variable bidimensional tome


valores en los intervalos cruzados (−∞, 𝒙] × (−∞, 𝒚]. A 𝑭(𝒙, 𝒚) se le suele conocer también
como función de distribución bidimensional de 𝑿 e 𝒀.
Las funciones de distribución bidimensionales cumplen propiedades similares a los
escenarios presentados en la teoría univariada, se muestran a continuación algunas de estas
propiedades.
 𝐥𝐢𝐦𝒙,𝒚→∞ 𝑭(𝒙, 𝒚) = 𝟏, ambas variables
 𝐥𝐢𝐦𝒙,𝒚→−∞ 𝑭(𝒙, 𝒚) = 𝟎, alguna de las variables.
 𝑭(𝒙, 𝒚) es no decreciente en cada variable.
 𝑭(𝒙, 𝒚) es continua por la derecha en cada variable.
 Si 𝒂𝟏 < 𝒃𝟏 𝒚 𝒂𝟐 < 𝒃𝟐 , entonces 𝑭(𝒃𝟏 , 𝒃𝟐 ) − 𝑭(𝒂𝟏, 𝒃𝟐 ) − 𝑭(𝒃𝟏 , 𝒂𝟐 ) + 𝑭(𝒂𝟏 , 𝒂𝟐 ) ≥ 𝟎.

3.2 Densidad Conjunta

Como en el caso univariado, existen variables aleatorias bidimensionales asociadas a otra


función llamada, función de densidad o masa de probabilidad, y que consigo lleva una
interpretación de la medición de dos características a un mismo individuo ya sea de manera
separada o como las componentes de un vector en este caso bivariado.

3.3 Variables Aleatorias Bidimensionales Discretas

Un par de variables aleatorias dado (𝑿, 𝒀) se le dice absolutamente discreta si sus


componentes 𝑿 y 𝒀 son variables aleatorias discretas. Entonces al suponer que 𝑿 y 𝒀 tomen
valores 𝒙𝒊 y 𝒚𝒋 con (𝒊, 𝒋 = 𝟏, 𝟐, 𝟑, … ) con sus respectivas probabilidades inducidas por
naturaleza 𝑷(𝑿 = 𝒙𝒊 ) y 𝑷(𝒀 = 𝒚𝒋 ), se podrá definir su función asociada, función masa o de
densidad conjunta para esta variable.

3.4 Función Masa o de Densidad Probabilidad Conjunta

La función masa o de densidad de probabilidad conjunta de un par de variables aleatorias


dado (𝑿, 𝒀), denotada por 𝒇(𝒙, 𝒚), viene dada por:
𝑓(𝑥, 𝑦) = 𝑃(𝑋 = 𝑥, 𝑌 = 𝑦)

Es de notar que al ser función de probabilidad para una variable aleatoria bidimensional de
tipo discreto debe cumplir las siguientes propiedades:

05 ASTURIAS CORPORACIÓN UNIVERSITARIA®


Not a Técnica preparada por Ast urias Corporación Universit aria. Su dif usión, reproducción o uso t ot al
o parcial para cual quier ot ro propósit o queda prohibida. Todos l os derechos reservados.
Distribución Conjunta y Marginal

 𝑓(𝑥, 𝑦) ≥ 0.

 ∑𝑥,𝑦 𝑓(𝑥, 𝑦) = 1.

Ejemplo 1: Considere el par de variables aleatorias dado (𝑿, 𝒀), con función de densidad dada
por la siguiente tabla.

𝑥/𝑦 0 1

−1 0.2 0.1

1 0.5 0.2

Tabla 1: ejemplo 1

De la tabla se deduce que la variable 𝑋 toma valores del conjunto {−1,1}, mientras que 𝑌
toma valores en {0,1}. Además las probabilidades conjuntas están dadas por las entradas de
la tabla.

Ejemplo: 𝑃(𝑋 = −1, 𝑌 = 0) = 0.2, esto es, la probabilidad de que 𝑋 tome el valor de −1 y al
mismo tiempo 𝑌 tome el valor 0 es 0.2. El resto de la información puede escribirse de la
siguiente manera.
0.2 𝑆𝑖 𝑥 = −1, 𝑦 = 0,
0.1 𝑆𝑖 𝑥 = −1, 𝑦 = 1,
𝑓(𝑥, 𝑦) = 𝑃(𝑋 = 𝑥, 𝑌 = 𝑦) = 0.5 𝑆𝑖 𝑥 = 1, 𝑦 = 0,
0.2 𝑆𝑖 𝑥 = 1, 𝑦 = 1,
{ 0 𝑜𝑡𝑟𝑜 𝑐𝑎𝑠𝑜

Como todos estos valores son probabilidades, naturalmente son no negativos, y todos ellos
suman uno.

3.5 Variables Aleatorias Bidimensionales Continuas

Un par de variables aleatorias dadas (𝑿, 𝒀) se le dice absolutamente continua si existe una
función no negativa e integrable 𝒇(𝒙, 𝒚), tal que, para todo (𝒙, 𝒚) ∈ ℝ𝟐 la función de
distribución conjunta del par de variables aleatorias (𝑿, 𝒀) puede expresarse de la siguiente
manera
𝑥 𝑦

𝐹(𝑥, 𝑦) = ∫ ∫ 𝑓(𝑢, 𝑣) 𝑑𝑢 𝑑𝑣
−∞ −∞

En consecuencia la función 𝒇(𝒙, 𝒚), se le llama función masa o de densidad conjunta de 𝑿 y


𝒀.
Luego al determinar la función masa o de densidad de probabilidad del par de variables
aleatorias (𝑿, 𝒀), esta debe cumplir las siguientes propiedades:

06 ASTURIAS CORPORACIÓN UNIVERSITARIA®


Not a Técnica preparada por Ast urias Corporación Universit aria. Su dif usión, reproducción o uso t ot al
o parcial para cual quier ot ro propósit o queda prohibida. Todos l os derechos reservados.
Distribución Conjunta y Marginal

 𝑓(𝑥, 𝑦) ≥ 0.
∞ ∞
 ∫−∞ ∫−∞ 𝑓(𝑥, 𝑦) 𝑑𝑥 𝑑𝑦 = 1.

Ejemplo 2: Dado el par de variables aleatorias (𝑿, 𝒀), con función de densidad conjunta dada
por:
𝑥𝑦
𝑘( + 1) 𝑆𝑖 0 < 𝑥 < 1, −1 < 𝑦 < 1.
𝑓(𝑥, 𝑦) = { 2
0 𝐶𝑢𝑎𝑙𝑞𝑢𝑖𝑒𝑟 𝑐𝑎𝑠𝑜

Calculemos 𝒌 de tal forma que 𝒇(𝒙, 𝒚) sea función de masa o de densidad de probabilidad,
entonces tenemos que verificar que:

 𝑓(𝑥, 𝑦) ≥ 0, si y sólo si 𝑘 ≥ 0.
∞ ∞
 Como ∫−∞ ∫−∞ 𝑓(𝑥, 𝑦) 𝑑𝑥 𝑑𝑦 = 1.

Así veamos que:


1 1
𝑥𝑦
𝑘∫ ∫ ( + 1) 𝑑𝑦
0 −1 2
1 1 1
𝑦
= 𝑘 ∫ [𝑥 ∫ 𝑑𝑦 + ∫ 𝑑𝑦 ] 𝑑𝑥
0 −1 2 −1
1
𝑦2 1
= 𝑘 ∫ [𝑥 | + 𝑦|1−1 ] 𝑑𝑥
0 4 −1
1 1 1
𝑥 𝑥
= 𝑘 ∫ [ (12 − (−1)2 ) + (1 − (−1))] 𝑑𝑥 = 𝑘 ∫ [ ∙ (0) + (2)] 𝑑𝑥 = 𝑘 ∫ 2𝑑𝑥
0 4 0 4 0
1
= 𝑘 [2 ∫ 𝑑𝑥] = 𝑘[2𝑥|10 ] = 𝑘[2(1 − 0)] = 2𝑘 = 1
0

Por tanto 𝒌 = 𝟏/𝟐 y la función de masa o de densidad conjunta viene dada por:
𝑥𝑦 + 2
𝑆𝑖 0 < 𝑥 < 1, −1 < 𝑦 < 1.
𝑓(𝑥, 𝑦) = { 4
0 𝐶𝑢𝑎𝑙𝑞𝑢𝑖𝑒𝑟 𝑐𝑎𝑠𝑜

4 Distribución Marginal
En los escenarios donde la función de distribución F(x,y) del par de variables aleatorias (X,Y),
“Si la función de distribución F(x, y) es
es dada, se hace posible obtener la función de distribución de cada una de las variables
dada, es posible obtener la función de
aleatorias independientes, de la siguiente manera.
distribución de cada una de las
variables aleatorias independientes”

07 ASTURIAS CORPORACIÓN UNIVERSITARIA®


Not a Técnica preparada por Ast urias Corporación Universit aria. Su dif usión, reproducción o uso t ot al
o parcial para cual quier ot ro propósit o queda prohibida. Todos l os derechos reservados.
Distribución Conjunta y Marginal

4.1 Función de Distribución Marginal

Dado el par de variables aleatorias (𝑿, 𝒀), con función de distribución 𝑭(𝒙, 𝒚). Entonces la
función:
𝐹(𝑥) = lim 𝐹(𝑥, 𝑦).
𝑦→∞

Se le llama función de distribución marginal de 𝑿. De igual forma es posible definir la función


de distribución marginal de 𝒀 como sigue:

𝐹(𝑦) = lim 𝐹(𝑥, 𝑦).


𝑥→∞

4.2 Función de Densidad Marginal

Dado el par de variables aleatorias (𝑿, 𝒀), absolutamente continuas con función masa o de
densidad de probabilidad 𝒇(𝒙, 𝒚). Entonces la función:

𝑓(𝑥) = ∫−∞ 𝑓(𝑥, 𝑦) 𝑑𝑦.

Se llama función de densidad marginal de 𝑿. De igual forma es posible definir la función de


densidad marginal de 𝒀 como sigue:

𝑓(𝑦) = ∫−∞ 𝑓(𝑥, 𝑦) 𝑑𝑥.

Nota: Si el vector es de tipo discreto solo basta con reemplazar las integrales con términos de
sumatorias para que las definiciones cobren sentido para tal caso.
Ejemplo 3: Para los datos de la tabla del ejemplo 1, tenemos que la marginal de 𝑿 vendría
dada por:

𝑥 1 1

𝑃(𝑋 = 𝑥) 0.3 0.7

Tabla 2: Marginal de 𝑥

De manera similar, la marginal de 𝒀 vendría dada por:

𝑦 0 1

𝑃(𝑌 = 𝑦) 0.7 0.3

Tabla 3: Marginal de 𝑦

Ejemplo 4: En concordancia con los datos del ejemplo 2 y a partir de su función masa o de
densidad de probabilidad se tiene que la marginal de 𝑿 vendría dada por:

08 ASTURIAS CORPORACIÓN UNIVERSITARIA®


Not a Técnica preparada por Ast urias Corporación Universit aria. Su dif usión, reproducción o uso t ot al
o parcial para cual quier ot ro propósit o queda prohibida. Todos l os derechos reservados.
Distribución Conjunta y Marginal

1
𝑥𝑦 1 𝑥 1 1 1 𝑥 1
𝑓1 (𝑥) = ∫ ( + ) 𝑑𝑦 = ∫ 𝑦𝑑𝑦 + ∫ 𝑑𝑦 = 𝑦 2 |1−1 + 𝑦|1−1
−1 4 2 4 −1 2 −1 8 2
𝑥 1 𝑥 1
= (12 − (−1)2 ) + (1 − (−1)) = ∙ (0) + ∙ (2) = 1
8 2 8 2

Para valores de 𝑿 dentro de su campo de definición. Análogamente para la marginal de 𝒀


tenemos que:
𝑓2 (𝑦)
1
𝑥𝑦 1
=∫ ( + ) 𝑑𝑥
0 4 2
𝑦 1 1 1 𝑦 1 𝑦 1 𝑦 1 𝑦 4
= ∫ 𝑥𝑑𝑥 + ∫ 𝑑𝑥 = 𝑥 2 |10 + 𝑥|10 = (1 − 0) + (1 − 0) = + = +
4 0 2 0 8 2 8 2 8 2 8 8
𝑦+4
=
8

Para valores de 𝒀 dentro de su campo de definición.

5 Resumen
 La asignación de los valores numéricos a los sucesos de un experimento
aleatorios determina la base sobre la cual se define una variable aleatoria.

 Decimos que una 𝑣. 𝑎. es discreta cuando toma un valor particular y este resulta
ser un valor entero.

 Decimos que una variable aleatoria es continua cuando toma todos los valores
dentro de un intervalo (a, b) ⊆ ℝ.

 La función de probabilidad de la variable 𝑋 denotada por 𝑓(𝑥) ∶ 𝑅 → [0, ∞) se


define como sigue

𝑓(𝑥) = { 𝑃(𝑋 = 𝑥) 𝑠𝑖, 𝑥 = 𝑥1 , 𝑥2 , …


0 𝑐. 𝑜. 𝑐

 Decimos que la función integrable y no negativa 𝑓(𝑥) ∶ ℝ → [0, ∞), es la función


de densidad de 𝑋 si para cualquier intervalo (𝑎, 𝑏) de ℝ se cumple la igualdad
𝑏
𝑃(𝑋 ∈ (𝑎, 𝑏)) = ∫ 𝑓(𝑥) 𝑑𝑥
𝑎

09 ASTURIAS CORPORACIÓN UNIVERSITARIA®


Not a Técnica preparada por Ast urias Corporación Universit aria. Su dif usión, reproducción o uso t ot al
o parcial para cual quier ot ro propósit o queda prohibida. Todos l os derechos reservados.
Distribución Conjunta y Marginal

6 Referencias Bibliográficas
 Miranda, I. E., Palacín, F., Sánchez, M. L., Márquez, M., Chía, A. R., Navas, A. S., y
otros. (3ra. Edición 2006). Estadística Descriptiva y Probabilidad. Cádiz: Servicio de
Publicaciones de la Universidad de Cádiz.

 Montgomery, D., & R., R. (2da. Edición 2008). Probabilidad y Estadística Aplicada a la
Ingeniería. México: Limusa Wiley.

 Rincón, L. (2010). Curso elemental de Probabilidad y Estadística. México: Circuito


Exterior de CU.

 Walpole, R., Myers, R., & Myers, S. y. (2007). Probabilidad y Estadística para
Ingeniería y Ciencias. México: Pearson.

010 ASTURIAS CORPORACIÓN UNIVERSITARIA®


Not a Técnica preparada por Ast urias Corporación Universit aria. Su dif usión, reproducción o uso t ot al
o parcial para cual quier ot ro propósit o queda prohibida. Todos l os derechos reservados.

Independencia y
Estadísticas de
Asociación

1 © Ast urias Corporación Universitaria


Independencia y Estadísticas de Asociación

Índice

1 Independencia....................................................................................................................................................... 3
1.1 Independencia de un par de Variables Aleatorias................................................. 3
2 Estadísticos de Asociación ............................................................................................................................. 3
2.1 Covarianza ..................................................................................................................................... 3
2.2 Coeficiente de Correlación .................................................................................................. 5
3 Resumen .................................................................................................................................................................. 6
4 Referencias Bibliográficas .............................................................................................................................. 7

02 ASTURIAS CORPORACIÓN UNIVERSITARIA®


Not a Técnica preparada por Ast urias Corporación Universit aria. Su dif usión, reproducción o uso t ot al
o parcial para cual quier ot ro propósit o queda prohibida. Todos l os derechos reservados.
Independencia y Estadísticas de Asociación

Objetivos
 Objetivo 1: Conocer el concepto de independencia de dos variables aleatorias.

 Objetivo 2: Estudiar dos de las estadísticas más importantes para el estudio de


variables aleatorias de tipo bidimensional.

1 Independencia
Dado que el interés se centra en el estudio de la relación existente entre dos variables
aleatorias, se hace pertinente el definir el concepto de independencia de dos variables
aleatorias con las herramientas teóricas vistas hasta aquí.

1.1 Independencia de un par de Variables Aleatorias

Se puede afirmar que en un par de variables aleatorias dado (𝐗, 𝐘), las variables aleatorias 𝐗
“Se puede afirmar que en un par de variables e 𝐘 son independientes si cumple que:
aleatorias dado (X, Y), las variables aleatorias
X e Y son independientes si: f(x, y) = f(x)f(y) ” f(x, y) = f(x)f(y).

Independencia heredada estrictamente de la independencia de los eventos que dan lugar a


los valores que toma la variable en su función ya sea de densidad o de distribución.
Ejemplo 5: Para determinar la independencia del par de variables aleatorias dado (𝐗, 𝐘) en el
ejemplo 2, basta con verificar lo siguiente:
xy + 2 y+4
f(x, y) = ≠ f1 (x)f2 (y) = 1 ∙
4 8

Con lo que se concluye que X y Y no son independientes.

2 Estadísticos de Asociación
Ahora veamos dos de las estadísticas más importantes en el estudio de variables aleatorias
de tipo bidimensional, una interpretación y sentido al número que arrojan como resultado.

2.1 Covarianza

La covarianza para el par de variables aleatorias dado (𝐗, 𝐘), denotada por 𝐂𝐨𝐯(𝐗, 𝐘), es el
número:
Cov(X, Y) = E[(X − E(X))(Y − E(Y))].

Siendo las esperanzas 𝐄(𝐗), 𝐄(𝐘) y 𝐄(𝐗𝐘) finitas, es decir, que existan para las variables
aleatorias 𝐗 e 𝐘.

03 ASTURIAS CORPORACIÓN UNIVERSITARIA®


Not a Técnica preparada por Ast urias Corporación Universit aria. Su dif usión, reproducción o uso t ot al
o parcial para cual quier ot ro propósit o queda prohibida. Todos l os derechos reservados.
Independencia y Estadísticas de Asociación

La covarianza es útil para detectar si existe relación de tipo lineal entre las variables y su
“La covarianza es útil para detectar si existe sentido, pero presenta inconvenientes en el escenario donde no exista algún tipo de
relación de tipo lineal entre las variables y
relación entre las variables en mención, además de que se deja influenciar por el efecto de
su sentido”
las medidas en que son tomadas las variables y también por el tamaño de muestra que es
tomado por cada una de las variables.
Como consecuencia inmediata de la definición se listan a continuación las propiedades de
“Propiedades de la covarianza” esta importante estadística.

 Cov(X, Y) = E(XY) − E(X)E(Y).

 Cov(X, Y) = Cov(Y, X).

 Cov(X, X) = Var(X).

 Cov(c, Y) = 0.

 Cov(cX, Y) = cCov(X, Y).

 Cov(X1 + X2 , Y) = Cov(X1 , Y) + Cov(X2 , Y).

 Si X e Y son independientes Cov(X, Y) = 0.

En general, Cov(X, Y) = 0 no implica Independencia entre X y Y.

Ejemplo 6: Para determinar la covarianza del par de variables aleatorias dado (𝐗, 𝐘) en el
ejemplo 2, se emplea el siguiente procedimiento:
 Se calculan los momentos de primer orden con respecto al origen, es decir, los valores
esperados para cada variable:

1 1 1 x2y
E(X) = ∫ ∫ ( + x) dy dx
2 0 −1 2
1 1 x2 1 1
= ∫ [ ∫ ydy + x ∫ dy] dx
2 0 2 −1 −1

1 1 x2
= ∫ [ y 2 |1−1 + xy|1−1 ] dx
2 0 4
1 1 x2
= ∫ [ (12 − (−1)2 ) + x(1 − (−1))] dx
2 0 4
1 1 x2 1 1 1
1 1 1
= ∫ [ ∙ (0) + x ∙ (2)] dx = ∫ 2x dx = ∫ xdx = x 2 |10 = (12 − 02 ) =
2 0 4 2 0 0 2 2 2

04 ASTURIAS CORPORACIÓN UNIVERSITARIA®


Not a Técnica preparada por Ast urias Corporación Universit aria. Su dif usión, reproducción o uso t ot al
o parcial para cual quier ot ro propósit o queda prohibida. Todos l os derechos reservados.
Independencia y Estadísticas de Asociación

E(Y)
1 1 1 xy 2
= ∫ ∫ ( + y) dy dx
2 0 −1 2
1 1 x 1 1
= ∫ [ ∫ y 2 dy + ∫ ydy] dx
2 0 2 −1 −1

1 1 x 1
= ∫ [ y 3 |1−1 + y 2 |1−1 ] dx
2 0 6 2
1 1 x 1
= ∫ [ (13 − (−1)3 ) + (12 − (−1)2 )] dx
2 0 6 2
1 1 x 1 1 1 x 1 1 1 x2 1 1 2 1
= ∫ [ ∙ (2) + ∙ (0)] dx = ∫ [ ] dx = ∫ xdx = |0 = (1 − 02 ) =
2 0 6 2 2 0 3 6 0 62 12 12

 De manera similar se calculan los momentos de segundo orden, que vienen dados por:
1 1
E(X 2 ) = E(Y 2 ) =
3 3

 Por último se calcula el producto cruzado de las variables aleatorias del par:
E(XY)
1 1 1 x2y2 1 1 x2 1 1
= ∫ ∫ ( + xy) dy dx = ∫ [ ∫ y 2 dy + x ∫ ydy] dx
2 0 −1 2 2 0 2 −1 −1

1 1 x2 x 1 1 x2 x
= ∫ [ y 3 |1−1 + y 2 |1−1 ] dx = ∫ [ (13 − (−1)3 ) + (12 − (−1)2 )] dx
2 0 6 2 2 0 2 2
1 1 x2 x 1 1 1 x3 1 1 3 1
= ∫ [ ∙ (2) + ∙ (0)] dx = ∫ x 2 dx = |0 = (1 − 03 ) =
2 0 2 2 2 0 63 18 18

 Así, aplicando una de las propiedades de la covarianza se tiene que


1 1 1 1
Cov = E(XY) − E(X)E(Y) = −( ∙ ) =
18 2 12 72

2.2 Coeficiente de Correlación

El coeficiente de correlación entre el par de variables aleatorias dado (X, Y), denotado por
ρ(X, Y), es el número:

𝐶𝑜𝑣(𝑋, 𝑌)
𝜌(𝑋, 𝑌) =
√𝑉𝑎𝑟(𝑋)𝑉𝑎𝑟(𝑌)

05 ASTURIAS CORPORACIÓN UNIVERSITARIA®


Not a Técnica preparada por Ast urias Corporación Universit aria. Su dif usión, reproducción o uso t ot al
o parcial para cual quier ot ro propósit o queda prohibida. Todos l os derechos reservados.
Independencia y Estadísticas de Asociación

El coeficiente de correlación al ser una medida de asociación en el mismo sentido que la


“El coeficiente de correlación se encarga de covarianza se encarga de medir el grado de dependencia lineal entre el par de variables
medir el grado de dependencia lineal entre el aleatorias dado (𝑿, 𝒀), pero al tratarse su fórmula de una estandarización corrige las
par de variables aleatorias”
falencias de la covarianza en términos de unidades de variables y tamaño de muestra.
Además es preciso notar que cuando 𝝆(𝑿, 𝒀) = 𝟎 se dice que el par de variables aleatorias
dado (𝑿, 𝒀), están incorrelacionados, cuando |𝝆(𝑿, 𝒀)| = 𝟏 se dice que el par de variables
aleatorias dado (𝑿, 𝒀), están perfectamente correlacionados positiva o negativamente
según el sentido de la relación.
Como consecuencia inmediata de la definición se listan a continuación las propiedades de
“Propiedades del coeficiente de esta importante estadística:
correlación”
 𝜌(𝑋, 𝑌) es un número que está entre [−1,1]

 |𝜌(𝑋, 𝑌)| = 1 si y sólo si, 𝑌 = 𝑎𝑋 + 𝑏, con probabilidad uno.

 Si 𝑋 y 𝑌 son independientes, entonces 𝜌(𝑋, 𝑌) = 0.

 En general, 𝜌(𝑋, 𝑌) = 0. No implica que 𝑋 y 𝑌 son independientes.

 (𝑋, 𝑌) se distribuyen normal, 𝜌(𝑋, 𝑌) = 0. Implica que 𝑋 y 𝑌 son independientes

Ejemplo 7: Finalmente para determinar el coeficiente de correlación del par de variables


aleatorias dado (𝑿, 𝒀) en el ejemplo 2, se tiene que:
1⁄
𝜌(𝑋, 𝑌) = 72 = 0.0842
√1⁄12 √47⁄144

3 Resumen
 Se puede afirmar que en un par de variables aleatorias dado (𝐗, 𝐘), las variables
aleatorias 𝐗 y 𝐘 son independientes si cumple que 𝐟(𝐱, 𝐲) = 𝐟(𝐱)𝐟(𝐲).
 La covarianza para el par de variables aleatorias dado (𝐗, 𝐘), denotada por
𝐂𝐨𝐯(𝐗, 𝐘), es el número:

Cov(X, Y) = E[(X − E(X))(Y − E(Y))].

 El coeficiente de correlación entre el par de variables aleatorias dado (𝑿, 𝒀),


denotado por 𝝆(𝑿, 𝒀), es el número:
𝐶𝑜𝑣(𝑋, 𝑌)
𝜌(𝑋, 𝑌) =
√𝑉𝑎𝑟(𝑋)𝑉𝑎𝑟(𝑌)

06 ASTURIAS CORPORACIÓN UNIVERSITARIA®


Not a Técnica preparada por Ast urias Corporación Universit aria. Su dif usión, reproducción o uso t ot al
o parcial para cual quier ot ro propósit o queda prohibida. Todos l os derechos reservados.
Independencia y Estadísticas de Asociación

4 Referencias Bibliográficas
 Miranda, I. E., Palacín, F., Sánchez, M. L., Márquez, M., Chía, A. R., Navas, A. S., y
otros. (3ra. Edición 2006). Estadística Descriptiva y Probabilidad. Cádiz: Servicio de
Publicaciones de la Universidad de Cádiz.

 Montgomery, D., & R., R. (2da. Edición 2008). Probabilidad y Estadística Aplicada a la
Ingeniería. México: Limusa Wiley.

 Rincón, L. (2010). Curso elemental de Probabilidad y Estadística. México: Circuito


Exterior de CU.

 Walpole, R., Myers, R., & Myers, S. y. (2007). Probabilidad y Estadística para
Ingeniería y Ciencias. México: Pearson.

07 ASTURIAS CORPORACIÓN UNIVERSITARIA®


Not a Técnica preparada por Ast urias Corporación Universit aria. Su dif usión, reproducción o uso t ot al
o parcial para cual quier ot ro propósit o queda prohibida. Todos l os derechos reservados.

Teoría del Muestreo, sus


Implicaciones e
Importancia

1 © Ast urias Corporación Universitaria


Teoría del Muestreo, sus Implicaciones e Importancia

Índice

1 Introducción ............................................................................................................................................................ 3
2 Conceptos Básicos ............................................................................................................................................. 3
2.1 Características y Parámetros de Interés ...................................................................... 3
2.2 Muestra Aleatoria ...................................................................................................................... 4
2.3 Muestras Probabilísticas ....................................................................................................... 5
2.4 Diseño Muestral ......................................................................................................................... 5
2.5 Mecanismo de Selección .................................................................................................... 6
2.6 Probabilidades de Inclusión ............................................................................................... 6
2.7 Estadística y Estimador ........................................................................................................ 7
3 Muestreo Aleatoria Simple Sin Reemplazo (MAS) ........................................................................... 7
3.1 Estadística y Estimador .......................................................................................................... 7
3.2 Mecanismo de Selección ..................................................................................................... 7
3.3 Estimación para el Total de Y y su Varianza en el MAS .................................... 9
3.4 Estimación para el Promedio de Y y su varianza en el MAS ......................... 11
4 Resumen ................................................................................................................................................................. 11
5 Referencias Bibliográficas ............................................................................................................................ 12

02 ASTURIAS CORPORACIÓN UNIVERSITARIA®


Not a Técnica preparada por Ast urias Corporación Universit aria. Su dif usión, reproducción o uso t ot al
o parcial para cual quier ot ro propósit o queda prohibida. Todos l os derechos reservados.
Teoría del Muestreo, sus Implicaciones e Importancia

Objetivos
 Objetivo 1: Conocer la base de la teoría de la inferencia estadística, el estudio
de recolección de muestras y la estimación de parámetros por el muestreo.

 Objetivo 2: Estudiar las muestras aleatorias simples.

1 Introducción
En esta unidad centraremos nuestro interés en la base de la teoría de la inferencia
estadística, el estudio de recolección de muestras y estimación de parámetros por el
muestreo. Es preciso mencionar que solo se hará un breve repaso de una extensa y
cuidadosa teoría, debido a la complejidad y pertinencia de algunos de sus conceptos.
Siendo el caso de las muestras aleatorias simples el eje sobre el cual desarrollaremos
los contenidos temáticos, en busca de su utilidad final, la estimación de parámetros
poblacionales.

2 Conceptos Básicos
Conocida una población o universo de nuestro interés, el cual está conformado por 𝑁
elementos y que notaremos como 𝑈 etiquetado como sigue 𝑈 = {1,2, … , 𝑁}, se define
entonces una característica de interés 𝑦 la cual tiene como naturaleza ser una
observación medida directamente en 𝑈 y no una realización de una 𝑣. 𝑎 como en
unidades anteriores, tomará entonces 𝑦 el valor 𝑦𝑘 en el 𝑘-ésimo elemento.

El objetivo de hacer muestreo será el de estimar una característica de interés


“El objetivo del muestreo es estimar una determinada en un parámetro poblacional a partir de la observación de un subconjunto
característica de interés determinada en un con ciertas características de los elementos del universo. A continuación mostraremos
parámetro poblacional”
los parámetros más comúnmente conocidos y de mayor interés.

2.1 Características y Parámetros de Interés

 El total poblacional: Determina el valor total de una característica de interés en una


población, se denota por 𝒕𝒚 y se define como sigue:
𝑁

𝑡𝑦 = ∑ 𝑦𝑘
𝑘=1

 El promedio poblacional: Determina el valor promedio de una de una característica de


̅ 𝑼 y se define como sigue:
interés en una población, se denota por 𝒚
𝑁
1 𝑡𝑦
𝑦̅𝑈 = ∑ 𝑦𝑘 =
𝑁 𝑁
𝑘=1

03 ASTURIAS CORPORACIÓN UNIVERSITARIA®


Not a Técnica preparada por Ast urias Corporación Universit aria. Su dif usión, reproducción o uso t ot al
o parcial para cual quier ot ro propósit o queda prohibida. Todos l os derechos reservados.
Teoría del Muestreo, sus Implicaciones e Importancia

 La varianza poblacional: Determina la dispersión de los valores observados de la


característica de interés con respecto a su valor medio, determinando la variabilidad
existente en la población, se denota por 𝑺𝟐𝒚𝑼 y se define como sigue:

2
∑𝑁 ̅𝑈 )2
𝑘=1(𝑦𝑘 − 𝑦
𝑆𝑦𝑈 =
𝑁−1

Ejemplo 1: Suponga que se tiene una población 𝑼 tal que está etiquetada de la siguiente
manera 𝑼 = {𝟏, 𝟐, 𝟑, 𝟒, 𝟓} y se quiere estimar una variable de interés 𝒚 para cada elemento
en el universo entonces:

U yk

1 35

2 36

3 40

4 23

5 37

Tabla 1: Tabla ejemplo 1

 Para el total tenemos que:


𝑁

𝑡𝑦 = ∑ 𝑦𝑘 = 35 + 36 + 40 + 23 + 37 = 171
𝑘=1

 Para el promedio tenemos que:


𝑁
1 𝑡𝑦 171
𝑦̅𝑈 = ∑ 𝑦𝑘 = = = 34.2
𝑁 𝑁 5
𝑘=1

 Para la varianza tenemos que:

2
∑𝑁 ̅𝑈 )2 [(35 − 34.2)2 + ⋯ + (37 − 34.2)2 ]
𝑘=1(𝑦𝑘 − 𝑦
𝑆𝑦𝑈 = = = 34.16
𝑁−1 4

2.2 Muestra Aleatoria

Es un subconjunto del universo que se extrae mediante un modelo estadístico de selección,


se denotara por 𝑺 y llamaremos 𝒔 a una instancia o realización de ella y queda definida de la
siguiente forma:
𝑠 = {1, … , 𝑘, … , 𝑛(𝑠)}

04 ASTURIAS CORPORACIÓN UNIVERSITARIA®


Not a Técnica preparada por Ast urias Corporación Universit aria. Su dif usión, reproducción o uso t ot al
o parcial para cual quier ot ro propósit o queda prohibida. Todos l os derechos reservados.
Teoría del Muestreo, sus Implicaciones e Importancia

“El número de elementos en el modelo El número de elementos en 𝒔 es llamado tamaño de muestra y existen casos particulares
estadístico de selección es llamado donde no es fijado de antemano, en consecuencia se hace variable.
tamaño de la muestra”  Muestra aleatoria sin reemplazo
Se dice que una muestra aleatoria es sin reemplazo si la selección de los elementos que
“Sin reemplazo: si la selección de los han sido seleccionados no vuelven a ser parte de la población.
elementos que han sido
 Muestra aleatoria con reemplazo
seleccionados no vuelven a ser parte
Se dice que una muestra aleatoria es con reemplazo si la selección de los elementos que
de la población”
han sido seleccionados vuelven a ser parte de la población, es decir, un elemento puede
“Con reemplazo: si la selección de los ser seleccionado más de una vez.
elementos que han sido seleccionados
vuelven a ser parte de la población”
2.3 Muestras Probabilísticas

No toda muestra aleatoria es de tipo probabilística, dando lugar a distintos tipos de muestreo
que dada su metodología de recolección o desconocimiento de los modelos probabilísticos
que garanticen su validez se convierten en mecanismos sin ninguna significancia a la hora
de hacer estimaciones. A continuación se mencionan los requerimientos que hacen a una
muestra aleatoria una muestra probabilística.
Una muestra es probabilística cuando:
 Se puede definir el conjunto de todas las posibles muestras derivadas del proceso
de selección.
 Es posible conocer de antemano la probabilidad de selección de todas y cada una
de las posibles muestras anteriormente mencionadas.
 El proceso de selección garantiza la existencia de una probabilidad mayor a cero
para cada uno de los elementos del universo.
 El mecanismo aleatorio de selección que se utilice garantiza la igualdad de
probabilidades de selección para cada muestra en el conjunto de todas las
posibles muestras.

2.4 Diseño Muestral

Los componentes básicos de un estudio de muestreo son en primera instancia las


“Los componentes básicos de un estudio probabilidades de selección asignadas a todas y cada una de las muestras posibles en
de muestreo son las probabilidades de el universo y en segunda instancia el procedimiento con el cual se miden los datos una
selección y el procedimiento con el cual se
vez observados. Así el primer componente se refiere a un diseño de muestreo y el
miden los datos”
segundo a un estimador concepto que veremos con más detalle a lo largo de este
curso.

 Diseño de muestreo
Desde un punto de vista teórico estricto, un diseño de muestreo es una función 𝒑(𝒔), que a
cada muestra posible le asigna una probabilidad de selección.
 Diseño de muestreo sin reemplazo
Un diseño de muestreo se dice sin reemplazo, si todas las muestras en el conjunto de todas
las posibles muestras son sin reemplazo.
 Diseño de muestreo con reemplazo
Un diseño de muestreo se dice con reemplazo, si todas las muestras en el conjunto de
todas las posibles muestras son con reemplazo.

05 ASTURIAS CORPORACIÓN UNIVERSITARIA®


Not a Técnica preparada por Ast urias Corporación Universit aria. Su dif usión, reproducción o uso t ot al
o parcial para cual quier ot ro propósit o queda prohibida. Todos l os derechos reservados.
Teoría del Muestreo, sus Implicaciones e Importancia

 Diseños de muestreo con tamaño de muestra fijo


Un diseño de muestreo se dice de tamaño de muestra fijo, si todas las muestras en el
conjunto de todas las posibles muestras tienen el mismo tamaño de muestra.

2.5 Mecanismo de Selección

Son procedimientos secuenciales ordenados que se utilizan para seleccionar muestras


“Un mecanismo de selección es un probabilísticas.
procedimiento secuencial ordenado que
se utiliza para seleccionar muestras
probabilísticas”
2.6 Probabilidades de Inclusión

Las probabilidades de inclusión de primer orden llamadas 𝝅𝒌 para el elemento 𝒌 se definen


como la suma de las probabilidades de selección que contienen al elemento 𝒌 en particular
y de manera análoga se definen las probabilidades de inclusión de segundo orden para los
elementos 𝒌 y 𝒍 en muestras que los contienen simultáneamente.
Ejemplo 2: Suponga que se tiene un diseño de muestreo genérico 𝒑(∙) tal que a la población
𝑼 mostrada en el ejemplo 1 asigna probabilidades de selección a muestras de tamaño 2
como sigue: (Nota: Cuando a un diseño de muestreo se le cita de forma genérica la
notación utilizada es 𝒑(∙), es decir, el (∙) indica un diseño de muestreo cualquiera aplicado a
una muestra 𝒔 en particular):
Muestra de tamaño 2 𝒑(𝒔)

0.13
1-2
0.20
1-3
0.15
1-4
0.10
1-5
0.15
2-3
0.04
2-4
0.02
2-5
0.06
3-4
0.07
3-5
0.08
4-5

Tabla 2: Tabla ejemplo 2

Nuestro interés es el de obtener la probabilidad de que el elemento 𝐤 = 𝟏 sea incluido en la


muestra, es decir, 𝛑𝟏 entonces será igual a la suma de las probabilidades de selección de
las muestras que contienen a elemento 𝐤 = 𝟏.
𝜋1 = 0.13 + 0.20 + 0.15 + 0.10 = 0.58

06 ASTURIAS CORPORACIÓN UNIVERSITARIA®


Not a Técnica preparada por Ast urias Corporación Universit aria. Su dif usión, reproducción o uso t ot al
o parcial para cual quier ot ro propósit o queda prohibida. Todos l os derechos reservados.
Teoría del Muestreo, sus Implicaciones e Importancia

2.7 Estadística y Estimador


“Estadística: función que varía en
consecuencia de los resultados de un
Se llama estadística a una función que varía en consecuencia de los resultados de un
experimento aleatorio” experimento aleatorio. Cuando es utilizada para estimar a un parámetro recibe el nombre de
estimador y los valores que toman se les llama por estimaciones.
“Estimador: una estadística que se utiliza
para estimar un parámetro”

3 Muestreo Aleatoria Simple Sin Reemplazo (MAS)


En este apartado veremos la forma más simple de hacer muestreo, el muestreo aleatorio
simple tiene como característica el suponer que el comportamiento de la característica de
interés es similar en todos los individuos de la población, es decir, supone homogeneidad
en la población.
Debido a esto el diseño asigna probabilidades de inclusión idénticas a todos y cada uno de
los elementos de la población haciendo de esta su característica principal.

3.1 Estadística y Estimador

Se dice un muestreo aleatorio simple sin reemplazo a aquel diseño cuyas posibles muestras
de tamaño 𝒏 fijado de antemano tienen la misma probabilidad de ser seleccionadas. Así:
1
𝑠𝑖 # 𝑠 = 𝑛
𝑝(𝑠) = {(𝑁)
𝑛
0 𝑐 𝑐.

3.2 Mecanismo de Selección

Con el avanzado estado de las máquinas computadoras el proceso de extracción de una


muestra se hizo algo determinante a la hora de un estudio por muestreo, agilizando cálculos
y garantizando los resultados, los mecanismos de selección se convirtieron en parte
inherente del plan de muestreo.
A continuación mostramos dos de las más conocidos y utilizados en a la hora de extraer una
muestra aleatoria simple.
 Método del coordinado negativo
El método se resume en los siguientes pasos
- Genere 𝑵 números aleatorios 𝝃𝒌 de una 𝒗. 𝒂 distribuida Uniforme (𝟎, 𝟏).
- Asignar cada 𝝃𝒌 a cada elemento de la población.
- Ordenar ascendente o descendentemente con respecto a cada 𝝃𝒌.
- A continuación seleccione los 𝒏 primero o últimos según el ordenamiento del
paso anterior y esta selección se convierte en su muestra.

07 ASTURIAS CORPORACIÓN UNIVERSITARIA®


Not a Técnica preparada por Ast urias Corporación Universit aria. Su dif usión, reproducción o uso t ot al
o parcial para cual quier ot ro propósit o queda prohibida. Todos l os derechos reservados.
Teoría del Muestreo, sus Implicaciones e Importancia

Ejemplo 3: Para la población 𝑼 que estamos siguiendo en los ejemplos anteriores,


seleccionemos una muestra de tamaño 2 con el método del coordinado negativo.
- Se generan 5 números aleatorios 𝝃𝒌 debido a que en nuestro universo
𝑵 = 𝟓.
𝜉1 = 0.28691106, 𝜉2 = 0.97110167, 𝜉3 = 0.86655545,

𝜉4 = 0.71795016, 𝜉5 = 0.95200564

- Se asigna 𝜉𝑘 a cada elemento de la población.

𝜉𝑘
𝑈
0.28691106
1
0.97110167
2
0.86655545
3
0.71795016
4
0.95200564
5

Tabla 3: Ejemplo 3 (a)

- Se ordenan los 𝑘 elementos de 𝑈 en este caso descendentemente con


respecto a 𝜉𝑘 .

𝜉𝑘
𝑈
0.28691106
1
0.71795016
4
0.86655545
3
0.95200564
5
0.97110167
2

Tabla 4: Tabla ejemplo 3 (b)

- Así nuestra muestra de tamaño 2 está conformada como sigue:


𝑠1 = {1,4}

 Método de selección y rechazo


El método se resume en los siguientes pasos:
- Realizar 𝝃𝒌 distribuido uniforme (𝟎, 𝟏)
- Calcular:
𝑛 − 𝑛𝑘
𝑐𝑘 =
𝑁−𝑘+1

Donde 𝒏𝒌 es la cantidad de objetos seleccionados en los 𝒌 − 𝟏 ensayos anteriores.

08 ASTURIAS CORPORACIÓN UNIVERSITARIA®


Not a Técnica preparada por Ast urias Corporación Universit aria. Su dif usión, reproducción o uso t ot al
o parcial para cual quier ot ro propósit o queda prohibida. Todos l os derechos reservados.
Teoría del Muestreo, sus Implicaciones e Importancia

- Si 𝝃𝒌 < 𝒄𝒌 , entonces el elemento 𝒌 pertenece a la muestra.


- Detener el proceso cuando 𝒏 = 𝒏𝒌
Ejemplo 4: Se dese extraer una muestra de tamaño 𝒏 = 𝟒 de una población 𝑼 cualquiera de
𝑵 = 𝟏𝟎 , con el mecanismo de selección y rechazo, el proceso se muestra como sigue en la
siguiente tabla:

k Numerador Denominador 𝐶𝑘 𝜉𝑘 Decisión

1 4 10 0,4 0,70554751 0

2 4 9 0,44444444 0,53342402 0

3 4 8 0,5 0,57951862 0

4 4 7 0,57142857 0,28956246 1

5 3 6 0,5 0,30194801 1

6 2 5 0,4 0,7747401 0

7 2 4 0,5 0,01401764 1

8 1 3 0,33333333 0,76072359 0

9 1 2 0,5 0,81449002 0

10 1 1 1 0,7090379 1

Tabla 5: Tabla ejemplo 4


Luego la muestra aleatoria está conformada por los elementos:
𝑠1 = {4,5,7,10}

Nótese que como se dio en este ejemplo el método garantiza que los 𝒏 elementos siempre
sean seleccionados, es decir, el método siempre converge.

3.3 Estimación para el Total de Y y su Varianza en el MAS

Las expresiones para la estimación del total y su varianza en el muestreo aleatorio simple
vienen dadas por:
𝑁
𝑡̂𝑦 = ∑ 𝑦𝑘
𝑛
𝑠

𝑁2 𝑛 2
𝑉𝑎𝑟(𝑡̂𝑦 ) = (1 − ) 𝑆𝑦𝑈
𝑛 𝑁

09 ASTURIAS CORPORACIÓN UNIVERSITARIA®


Not a Técnica preparada por Ast urias Corporación Universit aria. Su dif usión, reproducción o uso t ot al
o parcial para cual quier ot ro propósit o queda prohibida. Todos l os derechos reservados.
Teoría del Muestreo, sus Implicaciones e Importancia

𝑁2 𝑛 2
̂ (𝑡̂𝑦 ) =
𝑉𝑎𝑟 (1 − ) 𝑆𝑦𝑆
𝑛 𝑁

Con 𝑺𝟐𝒚𝑺 y 𝑺𝟐𝒚𝑼 las varianzas muestral y poblacional respectivamente.


Ejemplo 5: Supongamos que para la muestra extraída en el ejemplo 4 tomamos las
mediciones de una variable 𝒚 continua con los valores como sigue:

𝒌 𝒚𝒌

19
4
56
5
70
7
60
10

Tabla 6: Tabla ejemplo 5

Entonces nuestro interés será el de estimar el total y con su respectiva varianza estimada.
 El total vendría dado por:
𝑁 10
𝑡̂𝑦 = ∑ 𝑦𝑘 = ∙ (19 + 56 + 70 + 60) = 512.5
𝑛 4
𝑠

 Para estimar la varianza del estimador tenemos que como se muestra en ecuación,
esta depende de la varianza muestral que se calcula como sigue:

2
∑𝑘∈𝑆(𝑦𝑘 − 𝑦̅𝑠 )2
𝑆𝑦𝑆 = = 496.92
𝑛−1

Con lo que:

𝑁2 𝑛 2 102 4
̂ (𝑡̂𝑦 ) =
𝑉𝑎𝑟 (1 − ) 𝑆𝑦𝑆 = (1 − ) ∙ (496.92) = 7453.75
𝑛 𝑁 4 10

 Es necesario brindar una medida del error para determinar la calidad de las
estimaciones, para ello se utiliza el coeficiente de variación estimado 𝒄𝒗𝒆 como
sigue:

̂ (𝑡̂𝑦 )
√𝑉𝑎𝑟
√7453.75
𝑐𝑣𝑒 = × 100% = × 100% ≅ 17%
𝑡̂𝑦 512.5

Lo que puede considerarse como una pobre estimación debido a que 𝒄𝒗𝒆 > 𝟓% se
consideran estimaciones de baja calidad, esto puede ser al poco número de elementos de
la población con tamaño de muestra pequeño.

010 ASTURIAS CORPORACIÓN UNIVERSITARIA®


Not a Técnica preparada por Ast urias Corporación Universit aria. Su dif usión, reproducción o uso t ot al
o parcial para cual quier ot ro propósit o queda prohibida. Todos l os derechos reservados.
Teoría del Muestreo, sus Implicaciones e Importancia

3.4 Estimación para el Promedio de Y y su varianza en el MAS

Las expresiones para la estimación del promedio y su varianza en el muestreo aleatorio


simple vienen dadas por:
𝑡̂𝑦 ∑𝑆 𝑦𝑘
𝑦̂̅ = = = 𝑦̅𝑆
𝑁 𝑛

1 1 𝑛 2
𝑉𝑎𝑟(𝑦̂̅) = 𝑉𝑎𝑟(𝑡̂𝑦 ) = (1 − ) 𝑆𝑦𝑈
𝑁2 𝑛 𝑁
1 1 𝑛 2
̂ (𝑦̅̂) =
𝑉𝑎𝑟 ̂ (𝑡̂𝑦 ) = (1 − ) 𝑆𝑦𝑆
𝑉𝑎𝑟
𝑁2 𝑛 𝑁

Ejemplo 6: Considerando los datos del ejemplo anterior, damos estimaciones para la media
y la varianza estimada de la variable de interés 𝒚.
𝑡̂𝑦 512.5
𝑦̂̅ = = = 𝑦̅𝑆 = 51.25
𝑁 4

̅ 𝑺 es el soporte de toda la inferencia


Con lo que queda demostrado que el estimador (MAS) 𝒚
estadística vista desde un punto clásico.
Para la estimación de la varianza tenemos que:
1 1 𝑛 2 1 1 4
̂
𝑉𝑎𝑟(𝑦̅̂) = ̂ (𝑡̂𝑦 ) = (1 − ) 𝑆𝑦𝑆
𝑉𝑎𝑟 = 2 ∙ (7453.75) = (1 − ) (496.92)
𝑁 2 𝑛 𝑁 10 4 10
= 74.5375

Con igual medida de calidad para el caso del total, debido a que se trata de los mismos
valores.

4 Resumen
 El objetivo de hacer muestreo será el de estimar una característica de interés
determinada en un parámetro poblacional a partir de la observación de un
subconjunto con ciertas características de los elementos del universo.

 El muestreo aleatorio simple tiene como característica el suponer que el


comportamiento de la característica de interés es similar en todos los individuos de la
población, es decir, supone homogeneidad en la población. Debido a esto el diseño
asigna probabilidades de inclusión idénticas a todos y cada uno de los elementos de
la población haciendo de esta su característica principal.

011 ASTURIAS CORPORACIÓN UNIVERSITARIA®


Not a Técnica preparada por Ast urias Corporación Universit aria. Su dif usión, reproducción o uso t ot al
o parcial para cual quier ot ro propósit o queda prohibida. Todos l os derechos reservados.
Teoría del Muestreo, sus Implicaciones e Importancia

5 Referencias Bibliográficas
 Miranda, I. E., Palacín, F., Sánchez, M. L., Márquez, M., Chía, A. R., Navas, A. S., y otros.
(3ra. Edición 2006). Estadística Descriptiva y Probabilidad. Cádiz: Servicio de
Publicaciones de la Universidad de Cádiz.

 Montgomery, D., & R., R. (2da. Edición 2008). Probabilidad y Estadística Aplicada a la
Ingeniería. México: Limusa Wiley.

 Walpole, R., Myers, R., & Myers, S. y. (2007). Probabilidad y Estadística para Ingeniería
y Ciencias. México: Pearson.

012 ASTURIAS CORPORACIÓN UNIVERSITARIA®


Not a Técnica preparada por Ast urias Corporación Universit aria. Su dif usión, reproducción o uso t ot al
o parcial para cual quier ot ro propósit o queda prohibida. Todos l os derechos reservados.

Intervalos de Confianza y
Tamaño de Muestra.
Tipos de Muestreo

1 © Ast urias Corporación Universitaria


Intervalos de Confianza y Tamaño de Muestra. Tipos de Muestreo

Índice

1 Intervalos de Confianza y Tamaño de Muestra ................................................................................. 3


1.1 Intervalos de Confianza ......................................................................................................... 3
1.2 Tamaño de Muestra ................................................................................................................. 3
2 Muestreo Estratificado...................................................................................................................................... 5
2.1 Conceptos Básicos ................................................................................................................... 5
3 Muestreo Aleatorio Simple Estratificado ............................................................................................... 5
3.1 Estimaciones para el Total de Y ....................................................................................... 5
3.2 Estimaciones para el Promedio de Y............................................................................ 6
4 Resumen .................................................................................................................................................................. 6
5 Referencias Bibliográficas .............................................................................................................................. 7

02 ASTURIAS CORPORACIÓN UNIVERSITARIA®


Not a Técnica preparada por Ast urias Corporación Universit aria. Su dif usión, reproducción o uso t ot al
o parcial para cual quier ot ro propósit o queda prohibida. Todos l os derechos reservados.
Intervalos de Confianza y Tamaño de Muestra. Tipos de Muestreo

Objetivos
 Objetivo 1: Entender los conceptos de intervalos de confianza y tamaño de
muestra.

 Objetivo 2: Conocer el muestreo estratificado y el muestreo aleatorio simple


estratificado.

1 Intervalos de Confianza y Tamaño de Muestra


“Fórmulas para el intervalo de confianza y
el tamaño de la muestra”
1.1 Intervalos de Confianza

Bajo el muestreo aleatorio simple sin reemplazo, un intervalo de confianza para la media
viene dado por:

𝑛 𝑆𝑦𝑈 𝑛 𝑆𝑦𝑈
[𝑦̅𝑆 − 𝑧1−𝛼 √(1 − ) , 𝑦̅𝑆 + 𝑧1−𝛼 √(1 − ) ]
2 𝑁 √𝑛 2 𝑁 √𝑛

Con lo que se debe estimar a 𝑺𝒚𝑼 por medio de 𝑺𝒚𝑺 dado que lo normal es que no se
conozca.

1.2 Tamaño de Muestra

La fórmula general para el cálculo del tamaño de muestra viene dada por
n0
n≥ n
1− 0
N
z1−α/2 S2
Donde n0 = , c es la precisión deseada y z1−α/2 es el valor tabulado de la
c2

distribución normal para el nivel de confianza requerido.

En ciertos casos donde la precisión requerida es de carácter relativo, es decir, dada en


porcentajes se tiene que para proporciones el tamaño de muestra se calcula según:
k0
n≥
k
1 − N0

z1−α/2 PQ
Donde k 0 = , c es la precisión deseada, P es la proporción, Q su complemento y
c2
z1−α/2 es el valor tabulado de la distribución normal para el nivel de confianza requerido.

Ejemplo 7:

Para efectos de la planeación socio-económica en una gran ciudad del país, es


necesario estimar entre 2.200 hatos, el número de ganado lechero por hato, con una
precisión del 8% y nivel de confianza del 95.5%.

03 ASTURIAS CORPORACIÓN UNIVERSITARIA®


Not a Técnica preparada por Ast urias Corporación Universit aria. Su dif usión, reproducción o uso t ot al
o parcial para cual quier ot ro propósit o queda prohibida. Todos l os derechos reservados.
Intervalos de Confianza y Tamaño de Muestra. Tipos de Muestreo

De una muestra piloto de tamaño n = 40 se obtuvieron los siguientes resultados,


promedio de ganado por hato, 46; desviación estándar, 40. El interés se centra en
obtener el tamaño de muestra mínimo para la precisión dada.

Así tenemos que:


2
c = 0.08(46) = 3.68; SyS = 1600; α = 95.5%; z1−α = 2; SyS = 40;
2

N = 2.200; n = 40

Entonces:

22 ∙ (1.600) 2
k 0 = [( ) − (1 + )] = 496.22
3.682 40

Por tanto:
496.22
n= ≅ 405
496.22
1 + 2.200

Ejemplo 8:
Una empresa dedicada al transporte permite que ciertos gastos de sus afiliados se hagan
mediante la utilización de la tarjeta de crédito expedida para pagos en las bombas de
gasolina locales.
La empresa ha expedido 10.050 tarjetas de créditos. Con el objetivo de realizar una
investigación sobre la utilización de la tarjeta y otras características, se toma una muestra
piloto de 90 tarjetas y se encontró que 63 de ellas fueron utilizadas para cargar servicios
durante el mes de referencia.
Por otra parte, el total de los gastos cancelados con las tarjetas es fue de 2.390.000 y la
desviación estándar de 4000, se desea estimar el tamaño de la muestra, con un error de 2%
y un nivel de confianza de 95% para estimar proporción de afiliados que utilizan la tarjeta.
Entonces de los datos dados en el enunciado tenemos que:
63
P= = 0.7; Q = 0.3; z1−α/2 ; c = 0.02
90

1.962 (0.7)(0.3) 2
n0 = [( 2
) (1 + )] = 2.061,21
0.02 90

2.061,21
n= ≅ 1.711
2.061,2
1+
10.050

Luego se necesitan n = 1.711 tarjetas o afiliados.

04 ASTURIAS CORPORACIÓN UNIVERSITARIA®


Not a Técnica preparada por Ast urias Corporación Universit aria. Su dif usión, reproducción o uso t ot al
o parcial para cual quier ot ro propósit o queda prohibida. Todos l os derechos reservados.
Intervalos de Confianza y Tamaño de Muestra. Tipos de Muestreo

2 Muestreo Estratificado
Por razones de la naturaleza de la población, la característica de interés tiende a tomar
valores promedios en distintos subgrupos poblacionales. Esto junto con un interés particular
de investigador, de obtener estimaciones por grupos disyuntos de la población, además de
las razones de costo y comodidad en la recolección, hacen necesaria la división de la
población en subconjuntos llamados estratos que permitan obtener valores homogéneos y
de interés inherentes a la característica del muestreo aleatorio simple sin reemplazo, caso
de nuestro interés.

2.1 Conceptos Básicos

Se divide la población o universo 𝑼 en 𝑯 subgrupos poblacionales llamados estratos, así se


tienen 𝑼𝒉 estratos separados con 𝒉 = 𝟏, 𝟐, … , 𝑯, son tales que:
 La unión de los estratos es 𝑼, es decir ∪𝑯𝒉=𝟏 𝑼𝒉 = 𝑼
 La intersección de los estratos es vacía 𝑼𝒉 ∩ 𝑼𝒊 = ∅, 𝒉 ≠ 𝒊
Los tamaños de los estratos vienen dados por 𝑵𝑯 así:
𝐻

∑ 𝑁ℎ = 𝑁
ℎ=1

Hecha la división de los estratos nuestro interés se centrara en estimar:


 El total poblacional
𝐻 𝐻

𝑡𝑦 = ∑ 𝑦𝑘 = ∑ ∑ 𝑦𝑘 = ∑ 𝑡𝑦ℎ
𝑘∈𝑈 ℎ=1 𝑘∈𝑈ℎ ℎ=1

Donde 𝑡𝑦ℎ = ∑𝑘∈𝑈ℎ 𝑦𝑘

 La media poblacional
𝐻 𝐻
∑𝑘∈𝑈ℎ 𝑦𝑘 1 1
𝑦̅ = = ∑ ∑ 𝑦𝑘 = ∑ 𝑁ℎ 𝑦̅ℎ
𝑁 𝑁 𝑁
ℎ= 𝑘∈𝑈ℎ ℎ=1

1
Donde 𝑦̅ℎ = ∑𝑘∈𝑈ℎ 𝑦𝑘
𝑁ℎ

3 Muestreo Aleatorio Simple Estratificado

3.1 Estimaciones para el Total de Y

Para un diseño de muestreo aleatorio estratificado las expresiones para la estimación del
total y su varianza vienen dadas por:

05 ASTURIAS CORPORACIÓN UNIVERSITARIA®


Not a Técnica preparada por Ast urias Corporación Universit aria. Su dif usión, reproducción o uso t ot al
o parcial para cual quier ot ro propósit o queda prohibida. Todos l os derechos reservados.
Intervalos de Confianza y Tamaño de Muestra. Tipos de Muestreo

𝐻 𝐻
𝑁ℎ
𝑡̂𝑦 = ∑ 𝑡̂𝑦ℎ = ∑ ∑ 𝑦𝑘
𝑛ℎ
ℎ=1 ℎ=1 𝑘∈𝑆ℎ

𝐻
𝑁ℎ2 𝑛ℎ 2
𝑉𝑎𝑟(𝑡̂𝑦 ) = ∑ (1 − ) 𝑆𝑦𝑈
𝑛ℎ 𝑁ℎ ℎ
ℎ=1

𝐻
𝑁ℎ2 𝑛ℎ 2
̂ (𝑡̂𝑦 ) = ∑
𝑉𝑎𝑟 (1 − ) 𝑆𝑦𝑆
𝑛ℎ 𝑁ℎ ℎ
ℎ=1

3.2 Estimaciones para el Promedio de Y

Para un diseño de muestreo aleatorio estratificado, las expresiones para la estimación del
promedio de 𝒚 y su varianza vienen dadas por:
1
𝑦̂̅𝑈ℎ = = ∑ 𝑦𝑘
𝑛ℎ
𝑘∈𝑆ℎ

1 𝑛ℎ 2
𝑉𝑎𝑟(𝑦̂̅𝑈ℎ ) = (1 − ) 𝑆𝑦𝑈ℎ
𝑛ℎ 𝑁ℎ

1 𝑛ℎ 2
̂ (𝑦̂̅𝑈ℎ ) =
𝑉𝑎𝑟 (1 − ) 𝑆𝑦𝑆ℎ
𝑛ℎ 𝑁ℎ

4 Resumen
 Bajo el muestreo aleatorio simple sin reemplazo, un intervalo de confianza para la
media viene dado por:
𝑛 𝑆𝑦𝑈 𝑛 𝑆𝑦𝑈
[𝑦̅𝑆 − 𝑧1−𝛼 √(1 − ) , 𝑦̅𝑆 + 𝑧1−𝛼 √(1 − ) ]
2 𝑁 √𝑛 2 𝑁 √𝑛

Con lo que se debe estimar a 𝑺𝒚𝑼 por medio de 𝑺𝒚𝑺 dado que lo normal es que no
se conozca.
 La fórmula general para el cálculo del tamaño de muestra viene dada por
n0
n≥ n
1 − N0

z1−α/2 S2
Donde n0 = , c es la precisión deseada y z1−α/2 es el valor tabulado de la
c2

distribución normal para el nivel de confianza requerido.

06 ASTURIAS CORPORACIÓN UNIVERSITARIA®


Not a Técnica preparada por Ast urias Corporación Universit aria. Su dif usión, reproducción o uso t ot al
o parcial para cual quier ot ro propósit o queda prohibida. Todos l os derechos reservados.
Intervalos de Confianza y Tamaño de Muestra. Tipos de Muestreo

 Por razones de la naturaleza de la población, la característica de interés tiende


a tomar valores promedios en distintos subgrupos poblacionales. Esto hace
necesaria la división de la población en subconjuntos llamados estratos que
permitan obtener valores homogéneos y de interés inherente a la característica
del muestreo aleatorio simple sin reemplazo.

5 Referencias Bibliográficas
 Miranda, I. E., Palacín, F., Sánchez, M. L., Márquez, M., Chía, A. R., Navas, A. S., y
otros. (3ra. Edición 2006). Estadística Descriptiva y Probabilidad. Cádiz: Servicio de
Publicaciones de la Universidad de Cádiz.

 Montgomery, D., & R., R. (2da. Edición 2008). Probabilidad y Estadística Aplicada a la
Ingeniería. México: Limusa Wiley.

 Walpole, R., Myers, R., & Myers, S. y. (2007). Probabilidad y Estadística para
Ingeniería y Ciencias. México: Pearson.

07 ASTURIAS CORPORACIÓN UNIVERSITARIA®


Not a Técnica preparada por Ast urias Corporación Universit aria. Su dif usión, reproducción o uso t ot al
o parcial para cual quier ot ro propósit o queda prohibida. Todos l os derechos reservados.

Teoría de la Estimación
Puntual y Métodos de
Estimación

1 © Ast urias Corporación Universitaria


Teoría de la Estimación Puntual y Métodos de Estimación

Índice

1 Introducción ............................................................................................................................................................ 3
2 Conceptos Básicos ............................................................................................................................................. 3
2.1 Muestra Aleatoria ...................................................................................................................... 3
2.2 Parámetro ...................................................................................................................................... 3
2.3 Estadística...................................................................................................................................... 3
2.4 Estimador ....................................................................................................................................... 4
3 Métodos de Estimación ................................................................................................................................... 4
3.1 Método de los Momentos .................................................................................................... 4
3.2 Método de Máxima Verosimilitud.................................................................................... 5
3.3 Método por Analogía ............................................................................................................. 6
4 Resumen ................................................................................................................................................................... 7
5 Referencias Bibliográficas .............................................................................................................................. 7

02 ASTURIAS CORPORACIÓN UNIVERSITARIA®


Not a Técnica preparada por Ast urias Corporación Universit aria. Su dif usión, reproducción o uso t ot al
o parcial para cual quier ot ro propósit o queda prohibida. Todos l os derechos reservados.
Teoría de la Estimación Puntual y Métodos de Estimación

Objetivos
 Objetivo 1: Ser capaz de sacar conclusiones a partir de la aplicación de
estadísticas a muestras aleatorias.

 Objetivo 2: Acercar valores estimados a los valores reales de los parámetros


poblacionales a través de métodos de estimación.

1 Introducción
En esta unidad de aprendizaje trataremos el estudio de la rama de la estadística que se
encarga de sacar conclusiones a partir de la aplicación de estadísticas a muestras
aleatorias, las cuales siguen una distribución de probabilidad con parámetros
desconocidos.

Entonces nuestro interés se centra en este caso, en acercar valores estimados a los
valores reales de los parámetros poblacionales por medio de métodos de estimación,
teniendo en cuenta las propiedades de esos en cuanto a calidad y errores se refiere.

2 Conceptos Básicos

2.1 Muestra Aleatoria

Sea 𝑥1 , 𝑥2 , … , 𝑥𝑛 𝑣. 𝑎 independientes con la misma función de densidad de probabilidad


“Se define 𝑥1 , 𝑥2 , … , 𝑥𝑛 como una muestra 𝑓𝑋 (𝑥), se define 𝑥1 , 𝑥2 , … , 𝑥𝑛 como una muestra aleatoria de tamaño 𝑛.
aleatoria de tamaño n” Nótese que según esta definición la muestra aleatoria está tomando como realizaciones
de una 𝑣. 𝑎 y no como datos observados de la población como en el caso del muestreo.

2.2 Parámetro

Es un valor poblacional que caracteriza a una distribución o a una población y por lo


“El parámetro es un valor poblacional general es desconocido. Los parámetros más usados son:
generalmente desconocido”  𝜇 : Media poblacional
 𝜎 2 : Varianza poblacional
 𝜌 : Proporción poblacional
 𝜏 :Total poblacional
 𝑚á𝑥(𝑥𝑗 ): Máximo poblacional
 min(𝑥𝑗 ): Mínimo poblacional

2.3 Estadística

Es una función de 𝑣. 𝑎 observables que no contienen parámetros desconocidos.


“La estadística no contiene parámetros Ejemplo1: Sea 𝑥1 , 𝑥2 , … , 𝑥𝑛 una muestra aleatoria de tamaño 𝑛. Entonces:
desconocidos”

03 ASTURIAS CORPORACIÓN UNIVERSITARIA®


Not a Técnica preparada por Ast urias Corporación Universit aria. Su dif usión, reproducción o uso t ot al
o parcial para cual quier ot ro propósit o queda prohibida. Todos l os derechos reservados.
Teoría de la Estimación Puntual y Métodos de Estimación

 La función
𝑛
1
𝑥̅ = ∑ 𝑥𝑖
𝑛
𝑖=1

Es una estadística.
 La función 𝑥̅ + 𝜎 2 no es una estadística, si 𝜎 2 es desconocido.

2.4 Estimador

Es un estadístico de valores muestrales, que se usa para estimar parámetros


“El estimador es un estadístico de valores poblacionales. Los estimadores más usados son:
muestrales que se usa para estimar  𝜇̂ = 𝑥̅ : Media muestral
parámetros poblacionales”
 𝜎̂ 2 = 𝑆 2 : Varianza muestral
 𝜌̂: Proporción muestral
 𝜏̂ :Total muestral
̂ (𝑥𝑗 ): Máximo muestral
 𝑚á𝑥
̂ (𝑥𝑗 ): Mínimo muestral
 𝑚í𝑛
Ejemplo 2: Sea 𝑥1 , 𝑥2 , … , 𝑥𝑛 una muestra aleatoria de tamaño 𝑛 perteneciente a una
distribución normal con media desconocida 𝜇 y varianza 𝜎 2 .
Entonces si 𝑥1 = 2.1, 𝑥2 = 2.5, 𝑥3 = 3.1, 𝑥4 = 4.1 , 𝑥5 = 2.8 el valor de 𝑥̅ = 2.92 es una
estimación de 𝜇.

3 Métodos de Estimación

3.1 Método de los Momentos

Sea 𝑥1 , 𝑥2 , … , 𝑥𝑛 una muestra aleatoria de tamaño 𝑛 de una población con distribución


“Consiste en igualar los momentos
𝑓(𝑥, 𝜃̂), donde 𝜃̂ = (𝜃1 , 𝜃2 , … , 𝜃𝑘 ) es un vector de parámetros.
poblacionales respecto al origen” Entonces consiste en igualar los momentos poblacionales respecto al origen, con los
correspondientes momentos muestrales, esto es:
𝑛
1
𝐸(𝑥) = 𝜇1 (𝜃1 , 𝜃2 , … , 𝜃𝑘 ) = ∑ 𝑥𝑖
𝑛
𝑖=1
𝑛
1
𝐸(𝑥 2 ) = 𝜇2 (𝜃1 , 𝜃2 , … , 𝜃𝑘 ) = ∑ 𝑥𝑖2
𝑛
𝑖=1

𝑛
1
𝐸(𝑥 𝑘 ) = 𝜇𝑘 (𝜃1 , 𝜃2 , … , 𝜃𝑘 ) = ∑ 𝑥𝑖𝑘
𝑛
𝑖=1

̂ = (𝜽𝟏, 𝜽𝟐 , … , 𝜽𝒌 )
Y se resuelve el sistema para hallar 𝜽

04 ASTURIAS CORPORACIÓN UNIVERSITARIA®


Not a Técnica preparada por Ast urias Corporación Universit aria. Su dif usión, reproducción o uso t ot al
o parcial para cual quier ot ro propósit o queda prohibida. Todos l os derechos reservados.
Teoría de la Estimación Puntual y Métodos de Estimación

Ejemplo 3: Sea 𝒙𝟏 , 𝒙𝟐 , … , 𝒙𝒏 una muestra aleatoria de tamaño 𝒏 de una población con


distribución normal con media 𝝁 y varianza 𝝈𝟐 hallemos el estimador de 𝝁 por el método de
los momentos. Entonces:
𝑿~𝑵(𝝁, 𝝈𝟐 ), después 𝑬(𝑿) = 𝝁 y 𝑽𝒂𝒓(𝑿) = 𝝈𝟐 además 𝑽𝒂𝒓(𝑿) = 𝑬(𝑿𝟐 ) − [𝑬(𝑿)]𝟐, así
𝑬(𝑿𝟐 ) = 𝝁𝟐 + 𝝈𝟐 , ahora usando el método de los momentos tenemos que:
𝑛
1
𝐸(𝑋) = 𝜇 = ∑ 𝑥𝑖
𝑛
𝑖=1
𝑛
1
𝐸(𝑋 2)
= 𝜇 + 𝜎 = ∑ 𝑥𝑖2
2 2
𝑛
𝑖=1

Luego
𝑛
1
𝜇̂ = ∑ 𝑥𝑖
𝑛
𝑖=1
𝑛
1
𝜇̂ + 𝜎̂ = ∑ 𝑥𝑖2
2 2
𝑛
𝑖=1

3.2 Método de Máxima Verosimilitud

Sea 𝑥1 , 𝑥2 , … , 𝑥𝑛 , 𝑛 variables aleatorias, la función de verosimilitud se define como


“La función de verosimilitud se define 𝑓𝑥1… ,𝑥𝑛 (𝑥1 , 𝑥2 , … , 𝑥𝑛 ) de las 𝑛 variables aleatorias que dependen del parámetro 𝜃. En
como 𝑓𝑥1 … ,𝑥𝑛 (𝑥1 , 𝑥2 , … , 𝑥𝑛 ) ” particular si 𝑥1 , 𝑥2 , … , 𝑥𝑛 es una muestra aleatoria de tamaño 𝑛 la función de
verosimilitud, notada 𝐿(𝜃, 𝑥̂) se puede escribir como:
𝑛

𝐿(𝜃, 𝑥̂) = 𝑓𝑥1… ,𝑥𝑛 (𝑥1 , 𝑥2 , … , 𝑥𝑛 ) = 𝑓𝑥1 (𝑥1 ) ∙ 𝑓𝑥2 (𝑥2 ) ∙ ⋯ ∙ 𝑓𝑥3 (𝑥3 ) = ∏ 𝑓𝑥𝑖 (𝜃, 𝑥𝑖 )
𝑖=1

Si se tiene una muestra aleatoria 𝑥1 , 𝑥2 , … , 𝑥𝑛 ; el valor de 𝜃̂ que maximiza la función de


verosimilitud. 𝐿(𝜃, 𝑥̂) se denomina estimador máximo verosímil de 𝜃.
El estimador máximo verosímil de 𝜃, es la solución de:
𝜕𝐿(𝜃, 𝑥̂)
=0
𝜕𝜃

Ejemplo 4: Sea 𝑥1 , 𝑥2 , … , 𝑥𝑛 una muestra aleatoria de una población geométrica de


parámetro 𝑝 hallemos el estimador máximo verosímil de 𝑝. Entonces 𝑋~𝑔𝑒𝑜(𝑝) así:
𝑝𝑞 𝑥 ; 𝑥 = 0,1,2, …
𝑓𝑥 (𝑝, 𝑥) = {
0 𝑐. 𝑐

Entonces la función de verosimilitud viene dada por:


𝑛 𝑛

𝐿(𝑝, 𝑥) = ∏ 𝑓𝑥𝑖 (𝑝, 𝑥𝑖 ) = ∏ 𝑝𝑞 𝑥 = 𝑝𝑞 𝑥1 ∙ 𝑝𝑞 𝑥2 ∙ ⋯ ∙ 𝑝𝑞 𝑥𝑛


𝑖=1 𝑖=1

05 ASTURIAS CORPORACIÓN UNIVERSITARIA®


Not a Técnica preparada por Ast urias Corporación Universit aria. Su dif usión, reproducción o uso t ot al
o parcial para cual quier ot ro propósit o queda prohibida. Todos l os derechos reservados.
Teoría de la Estimación Puntual y Métodos de Estimación

Así:
𝑛
𝐿(𝑝, 𝑥) = 𝑝 𝑛 𝑞∑𝑖=1 𝑥𝑖

Tomando oportunamente el logaritmo natural tenemos que:


𝑛

ln 𝐿(𝑝, 𝑥) = 𝑛 ∙ ln 𝑝 + ∑ 𝑥𝑖 ln 𝑞
𝑖=1

Derivando con respecto a cero tenemos que:


𝜕 ln 𝐿(𝑝, 𝑥) 𝑛 ∑𝑛𝑖=1 𝑥𝑖
= −
𝜕𝑝 𝑝 1−𝑝

Por tanto la solución vendría dada por:


𝑛
𝜕 ln 𝐿(𝑝, 𝑥) 𝑛 ∑𝑛 𝑥𝑖 𝑛 ∑𝑛 𝑥𝑖
= 0 ⇔ − 𝑖=1 = 0 ⇔ = 𝑖=1 ⇔ 𝑛 − 𝑛𝑝̂ = ∑ 𝑥𝑖
𝜕𝑝 𝑝 1−𝑝 𝑝 1−𝑝
𝑖=1
𝑛
𝑛
⇔ 𝑝̂ [𝑛 + ∑ 𝑥𝑖 ] = 𝑛 ⇔ 𝑝̂ =
𝑛 + 𝑛𝑖=1 𝑥𝑖

𝑖=1

Finalmente multiplicando por 1⁄𝑛 se sigue que:


1
𝑝̂ =
1 + 𝑥̅

3.3 Método por Analogía

Consta en elegir, luego de indagar, el papel que cumplen los componentes del
“El método por analogía deriva una parámetro dentro del modelo; derivando una estadística que de manera similar o
estadística que de manera análoga recibe análoga realice las mismas funciones en la función empírica.
las mismas funciones en la función
empírica” Ejemplo 5: Se tiene una muestra aleatoria 𝑥1 , 𝑥2 , … , 𝑥𝑛 de tamaño 𝑛 con función de
densidad:
−𝑥𝜃
𝑓𝑥 (𝑥, 𝜃) = {𝜃𝑒 ; 𝑥 > 0; 𝜃 > 0.
0 𝑐. 𝑐

Determinemos 𝜃̂ usando el método por analogía. Entonces tenemos que


1 1
𝐸(𝑋) = 𝜃 ⇒ 𝜃 = 𝐸(𝑋); Nótese que el parámetro 𝜃 es el recíproco del valor esperado, por

tanto su estimador debe ser una función análoga; usando el método por analogía el
estimador viene dado por:

1
𝜃̂𝐴 =
𝑥̅

06 ASTURIAS CORPORACIÓN UNIVERSITARIA®


Not a Técnica preparada por Ast urias Corporación Universit aria. Su dif usión, reproducción o uso t ot al
o parcial para cual quier ot ro propósit o queda prohibida. Todos l os derechos reservados.
Teoría de la Estimación Puntual y Métodos de Estimación

4 Resumen
 Sea 𝑥1 , 𝑥2 , … , 𝑥𝑛 𝑣. 𝑎 independientes con la misma función de densidad de
probabilidad 𝑓𝑋 (𝑥), se define 𝑥1 , 𝑥2 , … , 𝑥𝑛 como una muestra aleatoria de tamaño
𝑛.

 El parámetro es un valor poblacional que caracteriza a una distribución o a una


población y por lo general es desconocido.

 La estadística es una función de 𝑣. 𝑎 observables que no contienen parámetros


desconocidos.

 El estimador es un estadístico de valores muestrales, que se usa para estimar


parámetros poblacionales.

 Dentro de los métodos de estimación encontramos e método de los


momentos, el método de máxima verosimilitud y el método por analogía.

5 Referencias Bibliográficas
 Miranda, I. E., Palacín, F., Sánchez, M. L., Márquez, M., Chía, A. R., Navas, A. S., y
otros. (3ra. Edición 2006). Estadística Descriptiva y Probabilidad. Cádiz: Servicio de
Publicaciones de la Universidad de Cádiz.

 Montgomery, D., & R., R. (2da. Edición 2008). Probabilidad y Estadística Aplicada a la
Ingeniería. México: Limusa Wiley.

 Walpole, R., Myers, R., & Myers, S. y. (2007). Probabilidad y Estadística para
Ingeniería y Ciencias. México: Pearson.

07 ASTURIAS CORPORACIÓN UNIVERSITARIA®


Not a Técnica preparada por Ast urias Corporación Universit aria. Su dif usión, reproducción o uso t ot al
o parcial para cual quier ot ro propósit o queda prohibida. Todos l os derechos reservados.

Propiedades de los
Estimadores Puntuales y
Distribuciones de
Muestrales

1 © Ast urias Corporación Universitaria


Propiedades de los Estimadores Puntuales y Distribuciones de Muestrales

Índice

1 Propiedades de los Estimadores Puntuales ........................................................................................ 3


1.1 Insesgamiento ............................................................................................................................. 3
1.2 Consistencia ................................................................................................................................. 3
1.3 Suficiencia ..................................................................................................................................... 4
1.4 Eficiencia ........................................................................................................................................ 4
2 Distribuciones de Muestrales ....................................................................................................................... 4
2.1 Distribución de la Media Muestral ................................................................................... 4
2.2 Distribución de la Varianza Muestral ............................................................................. 5
2.3 Distribución de la Proporción Muestral ........................................................................ 5
3 Resumen ................................................................................................................................................................... 5
4 Referencias Bibliográficas ............................................................................................................................. 6

02 ASTURIAS CORPORACIÓN UNIVERSITARIA®


Not a Técnica preparada por Ast urias Corporación Universit aria. Su dif usión, reproducción o uso t ot al
o parcial para cual quier ot ro propósit o queda prohibida. Todos l os derechos reservados.
Propiedades de los Estimadores Puntuales y Distribuciones de Muestrales

Objetivos
 Objetivo 1: Conocer las distintas propiedades de los estimadores puntuales.

 Objetivo 2: Conocer la distribución asintótica de las estadísticas muestrales.

1 Propiedades de los Estimadores Puntuales

1.1 Insesgamiento

Un escenario ideal en la estimación puntual es que su estimador en promedio sea muy


“En la estimación puntual el estimador en parecido al parámetro, luego un estimador se dice insesgado si y solo si se cumple que:
promedio debería ser muy parecido al
parámetro” 𝐸(𝜃̂) = 𝜃

Observación: Si el valor esperado del estimador no es el parámetro, es decir, 𝐸(𝜃̂) ≠ 𝜃,


el estimador no es insesgado o se dice que tiene sesgo.
El sesgo se define como sigue:

𝐵(𝜃̂) = 𝐸(𝜃̂) − 𝜃

De donde también se define una estadística de error muy importante, el error cuadrático
medio, notado como 𝑀𝑆𝐸𝜃 y escrito de la siguiente manera:
2
𝑀𝑆𝐸𝜃 = 𝑉(𝜃̂) + [𝐵(𝜃̂)]

Ejemplo 6: El promedio muestral es un estimador insesgado para la media poblacional


de cualquier distribución con media 𝜇. Entones veamos que 𝐸(𝑥̅ ) = 𝜇, en efecto:
𝑛 𝑛 𝑛
1 1 1 1
𝐸(𝑥̅ ) = 𝐸 [ ∑ 𝑥𝑖 ] = ∑ 𝐸(𝑥𝑖 ) = ∑ 𝜇 = 𝑛𝜇 = 𝜇
𝑛 𝑛 𝑛 𝑛
𝑖=1 𝑖=1 𝑖=1

1.2 Consistencia

Cuando el estimador no es insesgado en primera medida, lo que sería lo idóneo, se


requiere al menos que su valor oscile cerca del valor del parámetro para tamaños de
muestra grandes, es decir, un estimador es consistente cuando:
 lim𝑛→∞ 𝐸(𝜃̂) = 𝜃
 lim𝑛→∞ 𝑉(𝜃̂) = 0

Ejemplo 7: Sea 𝑥1 , 𝑥2 , … , 𝑥𝑛 una muestra aleatoria de una población 𝑁(𝜇, 𝜎 2 ), se define la


1
media muestral 𝑥̅ = ∑𝑛𝑖=1 𝑥𝑖 mostremos que este es un estimador consiste para la
𝑛
media 𝜇. Entonces veamos que lim𝑛→∞ 𝐸(𝑥̅ − 𝜇)2 = 0, en efecto:

𝐸(𝑥̅ − 𝜇)2 = 𝐸(𝑥̅ 2 − 2𝑥̅ 𝜇 + 𝜇2 ) = 𝐸(𝑥̅ 2 ) − 2𝜇𝐸(𝑥̅ ) + 𝜇2

Pero

03 ASTURIAS CORPORACIÓN UNIVERSITARIA®


Not a Técnica preparada por Ast urias Corporación Universit aria. Su dif usión, reproducción o uso t ot al
o parcial para cual quier ot ro propósit o queda prohibida. Todos l os derechos reservados.
Propiedades de los Estimadores Puntuales y Distribuciones de Muestrales

𝑉(𝑥̅ ) = 𝐸 2 (𝑥̅ ) − 𝐸(𝑥̅ 2 ) ⇒ 𝐸(𝑥̅ − 𝜇)2 = 𝑉(𝑥̅ ) + 𝐸 2 (𝑥̅ ) − 2𝜇𝐸(𝑥̅ ) + 𝜇2

Luego
𝜎2 𝜎2
𝐸(𝑥̅ − 𝜇)2 = 𝑉(𝑥̅ ) + 𝐸 2 (𝑥̅ ) − 2𝜇𝐸(𝑥̅ ) + 𝜇2 = + 𝜇2 − 2𝜇2 + 𝜇2 =
𝑛 𝑛

Ahora bien

𝜎2
lim 𝐸(𝑥̅ − 𝜇)2 = lim =0
𝑛→∞ 𝑛→∞ 𝑛

1.3 Suficiencia

Intuitivamente hablando un estimador es suficiente para un parámetro si toda la


“Un estimador es suficiente si la información información acerca del parámetro está contenida en la muestra.
acerca del parámetro está contenida en la Formalmente sería: una estadística 𝜃̂ se dice suficiente para 𝜃 basada en una muestra
muestra”
aleatoria 𝑥1 , 𝑥2 , … , 𝑥𝑛 de una población con función masa o de densidad de probabilidad
𝑓𝑥 (𝑥, 𝜃). Si la distribución condicional de las variables aleatorias 𝑥1 , 𝑥2 , … , 𝑥𝑛 dado 𝜃̂ no
depende del parámetro 𝜃, es decir, 𝜃̂ es un estimador suficiente de 𝜃 si:

𝑓𝑥 (𝑥1 , 𝑥2 , … , 𝑥𝑛 |𝜃̂ = 𝜃) = 𝑔(𝑥̂);

Donde 𝑔(𝑥̂) = (𝑥1 , 𝑥2 , … , 𝑥𝑛 ).

1.4 Eficiencia

La eficiencia es un requisito de precisión, esto es, es más preciso aquel estimador que
“El estimador más preciso será aquel que
tenga menor varianza ya que tiene la capacidad de producir estimaciones más
tenga menor varianza” centradas.
Así sean 𝜃̂ y 𝜃̂′ dos estimadores insesgados para 𝜃, estimadores basados en una
muestra aleatoria 𝑥1 , 𝑥2 , … , 𝑥𝑛 de una población con función masa o de densidad de
probabilidad 𝑓𝑥 (𝑥, 𝜃), se dice que 𝜃̂ es estimador uniformemente mejor que 𝜃̂′ si:

𝑉(𝜃̂) ≤ 𝑉(𝜃̂ ′ )

2 Distribuciones de Muestrales
Es de interés conocer la distribución asintótica de las estadísticas muéstrales para fines de
“Permiten estimaciones con mayor calidad estimaciones de mayor calidad y precisión.
y precisión”
A continuación se muestran algunas de estas, las más comunes e importantes.

2.1 Distribución de la Media Muestral

Sea 𝑥̅ la media muestral proveniente de una muestra aleatoria 𝑥1 , 𝑥2 , … , 𝑥𝑛 de tamaño 𝑛


entonces para tamaños de muestra grandes:

04 ASTURIAS CORPORACIÓN UNIVERSITARIA®


Not a Técnica preparada por Ast urias Corporación Universit aria. Su dif usión, reproducción o uso t ot al
o parcial para cual quier ot ro propósit o queda prohibida. Todos l os derechos reservados.
Propiedades de los Estimadores Puntuales y Distribuciones de Muestrales

𝑋~𝑁(𝜇, 𝜎 2 /√𝑛).

Este resultado se deduce del teorema del límite central, además de que por ser
combinaciones lineales de normales se hereda la normalidad.

2.2 Distribución de la Varianza Muestral

Sea 𝑥̅ y 𝑆 2 la media y varianza muestral respectivamente, provenientes de una muestra


aleatoria 𝑥1 , 𝑥2 , … , 𝑥𝑛 de tamaño 𝑛, entonces para tamaños de muestra grandes:
𝑛−1 2 2(𝑛 − 1) 4
𝐸(𝑆 2 ) = 𝜎 ; 𝑉(𝑆 2 ) = 𝜎
𝑛 𝑛2

De donde se deduce que (omitiendo las demostraciones no pertinentes a este curso):

(𝑛 − 1)𝑆 2 2
~𝜒(𝑛−1)
𝜎2

2.3 Distribución de la Proporción Muestral

Utilizando las mismas conclusiones a partir del teorema del límite central, como es de
saber para tamaños de muestra considerados grandes, para una población con función
de densidad masa 𝐵𝑒𝑟(𝑝), se tiene que la distribución de la proporción muestral se
puede aproximar mediante una normal, tal que:
𝑝𝑞
𝑝̂ ~𝑁 (𝑝, √ )
𝑛

3 Resumen
 Las propiedades de los estimadores puntuales son: el insesgamiento, la
consistencia, la suficiencia y la eficiencia.

 La distribución asintótica permite realizar estimaciones de mayor calidad y


precisión.

 Las distribuciones de muestrales más comunes son: la distribución de la media


muestral, la distribución de la varianza muestral y la distribución de la
proporción muestral.

05 ASTURIAS CORPORACIÓN UNIVERSITARIA®


Not a Técnica preparada por Ast urias Corporación Universit aria. Su dif usión, reproducción o uso t ot al
o parcial para cual quier ot ro propósit o queda prohibida. Todos l os derechos reservados.
Propiedades de los Estimadores Puntuales y Distribuciones de Muestrales

4 Referencias Bibliográficas
 Miranda, I. E., Palacín, F., Sánchez, M. L., Márquez, M., Chía, A. R., Navas, A. S., y
otros. (3ra. Edición 2006). Estadística Descriptiva y Probabilidad. Cádiz: Servicio de
Publicaciones de la Universidad de Cádiz.

 Montgomery, D., & R., R. (2da. Edición 2008). Probabilidad y Estadística Aplicada a la
Ingeniería. México: Limusa Wiley.

 Walpole, R., Myers, R., & Myers, S. y. (2007). Probabilidad y Estadística para
Ingeniería y Ciencias. México: Pearson.

06 ASTURIAS CORPORACIÓN UNIVERSITARIA®


Not a Técnica preparada por Ast urias Corporación Universit aria. Su dif usión, reproducción o uso t ot al
o parcial para cual quier ot ro propósit o queda prohibida. Todos l os derechos reservados.

Método de Estimación
por Intervalos de
Confianza

1 © Ast urias Corporación Universitaria


Método de Estimación por Intervalos de Confianza

Índice

1 Introducción ............................................................................................................................................................ 3
2 Método de la Variable Pivotal ...................................................................................................................... 3
2.1 Intervalo Aleatorio..................................................................................................................... 3
2.2 Intervalo de Confianza (1 – α) ............................................................................................. 3
2.3 Límites del Intervalo ................................................................................................................ 3
2.4 Variable Aleatoria Pivotal...................................................................................................... 4
2.5 Método de la Variable Pivotal ............................................................................................ 4
3 Intervalos de Confianza en Poblaciones Normales ......................................................................... 4
3.1 Intervalo de Confianza para la Media, Conocida la Varianza .......................... 5
3.2 Intervalo de Confianza para la Media, Desconocida la Varianza................... 5
3.3 Intervalo de Confianza para la Varianza, Conocida la Media ......................... 6
3.4 Intervalo de Confianza para la Varianza, Desconocida la Media .................. 7
3.5 Intervalo de Confianza para la Diferencia de Medias de Muestras
Pareadas ......................................................................................................................................... 7
3.6 Intervalo de Confianza para la Diferencia de Medias de Muestras
Independientes.......................................................................................................................... 8
4 Resumen .................................................................................................................................................................. 9
5 Referencias Bibliográficas ........................................................................................................................... 10

02 ASTURIAS CORPORACIÓN UNIVERSITARIA®


Not a Técnica preparada por Ast urias Corporación Universit aria. Su dif usión, reproducción o uso t ot al
o parcial para cual quier ot ro propósit o queda prohibida. Todos l os derechos reservados.
Método de Estimación por Intervalos de Confianza

Objetivos
 Objetivo 1: Estudiar los intervalos de confianza.

 Objetivo 2: Aprender cómo se hace inferencia sobre los parámetros más


conocidos y comunes.

1 Introducción
En esta unidad de aprendizaje estudiaremos uno de los métodos de estimación que
está tomando mayor importancia en el ámbito de la estadística aplicada.

Nos referimos a los intervalos de confianza, éstos presentan ventajas sobre otros
métodos de estimación que veremos más adelante, debido a que estos aportan mayor
información en magnitud y precisión de las estimaciones, permitiendo una mejor
interpretación de las estimaciones hechas sobre ellas.

Veremos cómo se hace inferencia sobre los parámetros más conocidos y comunes, así
como también las distintas interpretaciones que se presentan en cada caso

2 Método de la Variable Pivotal


Dada una muestra aleatoria simple proveniente de una variable aleatoria 𝑿 con función de
“Es un método para calcular intervalos densidad o masa de probabilidad 𝒇𝑿 (𝒙; 𝜽), el interés se centrará entonces en encontrar un
de confianza a partir de una función de
método para calcular intervalos de confianza a partir de una función de valores muestrales
valores muestrales que contenga bajo
que contenga bajo un nivel de confianza dado al parámetro, con la condición de que su
un nivel de confianza dado al parámetro”
distribución no contenga al parámetro.

2.1 Intervalo Aleatorio

Es un intervalo tal que al menos uno de sus extremos es una variable aleatoria.
“En el intervalo aleatorio, al menos uno
de sus extremos es una variable
2.2 Intervalo de Confianza (1 – α)
aleatoria”

Dada una muestra aleatoria simple proveniente de una variable aleatoria 𝑋 con función
de densidad o masa de probabilidad 𝑓𝑋 (𝑥; 𝜃), en la cual dicha distribución depende de
un parámetro desconocido 𝜃, dadas las estadísticas 𝜃(𝑥) y 𝜃 ′ (𝑥) el intervalo de
confianza de nivel (1 − 𝛼)100%, es tal que:
𝑃[𝜃(𝑥) ≤ 𝜃 ≤ 𝜃 ′ (𝑥)] ≥ 1 − 𝛼

2.3 Límites del Intervalo

En un intervalo aleatorio las estadísticas 𝜃(𝑥) y 𝜃 ′ (𝑥) se denominan limite confidencial


“Los límites del intervalo: límite inferior y limite confidencial superior respectivamente.
confidencial inferior y límite confidencial
superior”

03 ASTURIAS CORPORACIÓN UNIVERSITARIA®


Not a Técnica preparada por Ast urias Corporación Universit aria. Su dif usión, reproducción o uso t ot al
o parcial para cual quier ot ro propósit o queda prohibida. Todos l os derechos reservados.
Método de Estimación por Intervalos de Confianza

2.4 Variable Aleatoria Pivotal

Dada una muestra aleatoria 𝑥1 , 𝑥2 , … , 𝑥𝑛 de una variable aleatoria 𝑋 con función de


densidad o masa de probabilidad 𝑓𝑋 (𝑥; 𝜃), Sea 𝑄𝑥 = 𝑞(𝜃, 𝑥1 , 𝑥2 , … , 𝑥𝑛 ) una función de
variables aleatoria de valores muestrales y del parámetro 𝜃. 𝑄𝑥
Se denomina variable aleatoria pivotal para el parámetro 𝜃, si la distribución de 𝑄𝑥 no
depende de 𝜃.
Ejemplo 1: Sea 𝑥1 , 𝑥2 , … , 𝑥𝑛 una muestra aleatoria de una población normal 𝑁(𝜇, 𝜎 2 ) la
𝑥̅ −𝜇
variable aleatoria 𝑧 = 𝜎 2 es una cantidad pivotal si 𝜎 2 es conocido, entonces tenemos

que efectivamente: √𝑛

𝑥̅ − 𝜇
𝑧= ~𝑁(0,1)
𝜎 2⁄
√𝑛

𝜎 2 Es conocido.
Ejemplo 2: Sea 𝑥1 , 𝑥2 , … , 𝑥𝑛 una muestra aleatoria de una población normal 𝑁(𝜇, 𝜎 2 ); 𝜎 2
𝑥̅ −𝜇
conocido, la variable aleatoria 𝑡 = 𝑆 es una cantidad pivotal, entonces tenemos que

√𝑛
efectivamente, la variable aleatoria 𝑡 depende de los valores 𝑥1 , 𝑥2 , … , 𝑥𝑛 a través de 𝑥̅ y
𝑆 2 . Además está en función del parámetro 𝜇, entonces:
𝑥̅ − 𝜇
𝑡= ~𝑡(𝑛−1)
𝑆⁄
√𝑛

2.5 Método de la Variable Pivotal

Sea 𝑄𝑥 una variable pivotal de 𝜃 de una cierta población con función densidad o masa
de probabilidad entonces para un cierto nivel de confianza 1 − 𝛼 ∈ (0,1), existen
constantes 𝑞1 ∧ 𝑞2 que dependen de un nivel de confianza 1 − 𝛼 tal que 𝑃𝜃 [𝑞1 ≤ 𝑄𝑥 ≤
𝑞2 ] = 1 − 𝛼, si para cada valor muestral 𝑥1 , 𝑥2 , … , 𝑥𝑛 ; 𝑞1 ≤ 𝑄𝑥 (𝑥1 , 𝑥2 , … , 𝑥𝑛 ) ≤ 𝑞2 , si y solo si
(1) (2)
𝑃[𝜃̂1 < 𝜃̂2 ] = 1 luego el intervalo (𝜃̂𝑛 , 𝜃̂𝑛 ) es un intervalo de confianza para (1 −
𝛼)100%.

3 Intervalos de Confianza en Poblaciones Normales


Acorde con los objetivos de esta unidad de aprendizaje abordamos ahora el estudio de la
“Para la obtención de los intervalos de obtención de intervalos de confianza en poblacionales normales debido a la trascendencia
confianza tomamos como base el método que tiene esta distribución de probabilidad en el estudio y aplicación de la estadística
de cantidades pivótales” clásica.
Se toma como base el método de cantidades pivótales para la obtención de los intervalos,
como vimos anteriormente, por su facilidad de cálculo tanto en el caso de una o dos
poblaciones que por simplicidad se estudiaran en conjunto.

04 ASTURIAS CORPORACIÓN UNIVERSITARIA®


Not a Técnica preparada por Ast urias Corporación Universit aria. Su dif usión, reproducción o uso t ot al
o parcial para cual quier ot ro propósit o queda prohibida. Todos l os derechos reservados.
Método de Estimación por Intervalos de Confianza

3.1 Intervalo de Confianza para la Media, Conocida la Varianza

Tomando la siguiente cantidad pivotal:


𝑥̅ − 𝜇
𝑧= ~𝑁(0,1)
𝜎 2⁄
√𝑛

Para cualquier valor de 𝛼 ∈ (0, 1) podemos encontrar un valor 𝑍𝛼/2 en tablas de


probabilidad normal estándar, véase Gráfico 1.
Así, tenemos que un intervalo de confianza para la media 𝜇 de una distribución normal
“Un intervalo de confianza para la media con varianza conocida 𝜎 2 está dado por la siguiente expresión:
µ de una distribución normal con 𝜎 𝜎
varianza conocida está dada por la 𝑃 (𝑥̅ − 𝑍1−𝛼 < 𝜇 < 𝑥̅ + 𝑍1−𝛼 )=1−𝛼
2 √𝑛 2 √𝑛
expresión que se indica”

Gráfico 1: Valores 𝑍𝛼
2
Ejemplo 3. Suponga que la vida promedio útil, medida en horas, de focos de 100 watts
producidos por cierta compañía, puede ser modelada mediante una variable aleatoria
con distribución normal de media 𝜇 y varianza 𝜎 2 .
Suponga que la desviación estándar 𝜎 es conocida y es igual a 30 horas.
El objetivo es encontrar un intervalo de confianza para la vida promedio útil 𝜇 de los
focos producidos por esta compañía. Para ello se toma una muestra de 20 focos y
mediante pruebas de laboratorio se determina la vida útil de cada uno de ellos. Los
resultados 𝑥1 , . . . , 𝑥20 arrojan una media muestral 𝑥̅ de 1050 horas.
Si consideramos un nivel de confianza del 95%, es decir, 𝛼 = 0.05, de la tabla de
“A un nivel de confianza 95% z=1,96” probabilidad normal se encuentra que 𝑍𝛼/2 = 𝑍0.025 = 1.96, y entonces puede ahora
calcularse el intervalo:
𝜎 𝜎 30 30
(𝑥̅ − 𝑍𝛼/2 , 𝑥̅ − 𝑍𝛼/2 ) = (1050 − 1.96 ∙ , 1050 + 1.96 ∙ )
√𝑛 √𝑛 20 20
= (1050 − 13.148, 1050 + 13.148) = (1036.852, 1063.148)

3.2 Intervalo de Confianza para la Media, Desconocida la Varianza

Tomando la siguiente cantidad pivotal:

05 ASTURIAS CORPORACIÓN UNIVERSITARIA®


Not a Técnica preparada por Ast urias Corporación Universit aria. Su dif usión, reproducción o uso t ot al
o parcial para cual quier ot ro propósit o queda prohibida. Todos l os derechos reservados.
Método de Estimación por Intervalos de Confianza

𝑥̅ − 𝜇
𝑡= ~𝑡(𝑛−1)
𝑆⁄
√𝑛

Para cualquier valor de 𝛼 ∈ (0, 1) podemos encontrar un valor 𝑡𝛼/2


“Un intervalo de confianza para la media
en tablas de probabilidad de la distribución 𝑡 de 𝑛 − 1 grados de libertad, véase Gráfico
µ de una distribución normal con 2. Así tenemos que un intervalo de confianza para la media 𝜇 de una distribución normal
varianza desconocida está dada por la con varianza desconocida 𝜎 2 está dado por la siguiente expresión:
expresión que se indica”
𝑆 𝑆
𝑃 (𝑥̅ − 𝑡𝛼/2 < 𝜇 < 𝑥̅ + 𝑡𝛼/2 )= 1−𝛼
√𝑛 √𝑛

Gráfico 2: Valores 𝑡𝛼/2


Ejemplo 4. Un importante empresario de la ciudad desea comprar una empresa de
trasportes de limosinas. La decisión depende si el rendimiento del auto en
consideración es de por lo menos 27.5 millas por galón de gasolina.
Los 36 autos que prueba la compañía del empresario reportan una media de 26.5 millas
por galón de gasolina con una desviación estándar de 3.5 millas por galón de gasolina
a un nivel de confianza del 99%, ¿Qué le aconsejaría al empresario?
Entonces, el intervalo se calcula de la siguiente manera:
3.5
𝐼𝛼/2 = (26.5 ± (2.58) ∙ ) = (24.10, 27.11)
√36

Puede estar un 99% seguro que las millas por galón promedio del auto es menor que el
mínimo de 27.5. Se le aconseja que busque otro modelo.

3.3 Intervalo de Confianza para la Varianza, Conocida la Media

Tomando la siguiente cantidad pivotal:


𝑛
𝑥𝑖 − 𝜇 2
𝑡 = ∑( ) ~𝜒𝑛2
𝜎
𝑖=1

Tenemos que un intervalo de confianza para la varianza 𝜎 2 de una distribución normal


“Un intervalo de confianza para la varianza con media 𝜇 conocida, está dado por la siguiente expresión:
de una distribución normal con media µ
conocida está dada por la expresión que
se indica”

06 ASTURIAS CORPORACIÓN UNIVERSITARIA®


Not a Técnica preparada por Ast urias Corporación Universit aria. Su dif usión, reproducción o uso t ot al
o parcial para cual quier ot ro propósit o queda prohibida. Todos l os derechos reservados.
Método de Estimación por Intervalos de Confianza

𝑛𝑆 2 𝑛𝑆 2
𝑃( 2 < 𝜎2 < 2 )= 1−𝛼
𝜒𝑛;1−𝛼/2 𝜒𝑛;𝛼/2

3.4 Intervalo de Confianza para la Varianza, Desconocida la Media

Tomando la siguiente cantidad pivotal:


𝑛
𝑥𝑖 − 𝑥̅ 2 2
𝑡 = ∑( ) ~𝜒(𝑛−1)
𝜎
𝑖=1

Tenemos que un intervalo de confianza para la varianza 𝜎 2 de una distribución normal


“Un intervalo de confianza para la con media 𝜇 desconocida, está dado por la siguiente expresión:
varianza de una distribución normal con
𝑛𝑆 2 𝑛𝑆 2
media µ desconocida está dada por la
𝑃( 2 < 𝜎2 < 2 )= 1−𝛼
expresión que se indica” 𝜒𝑛−1;1−𝛼/2 𝜒𝑛−1;𝛼/2

Ejemplo 5. Se sabe que el peso por comprimido de un cierto preparado farmacéutico se


distribuye según una Normal. Con el objeto de estudiar la varianza de la distribución, se
extrae una muestra aleatoria simple de 6 artículos.
Sabiendo que la varianza muestral es igual a 40, se pretende estimar la varianza
poblacional mediante un intervalo de confianza al 90%.
Donde 𝛼 = 0.01. 𝑛 = 6. 𝑆 2 = 40.
2 2
Así: 𝜒5,0.95 = 11.07; 𝜒5,0.05 = 1.145,
Entonces,
6 ∙ 40 6 ∙ 40
𝐼0.90 = ( , ) = (21.68, 209.61 )
11.07 1.145

3.5 Intervalo de Confianza para la Diferencia de Medias de Muestras Pareadas

Se dice que dos variables aleatorias 𝑋 y 𝑌 son pareadas cuando los datos son tomados
“Dos variables aleatorias son pareadas por parejas de un solo individuo.
cuando los datos son tomados por parejas En los casos de muestras apareadas, el modo de proceder para obtener un intervalo de
de un solo individuo”
confianza para la diferencia de medias es considerar una única muestra formada por la
diferencia de los pares de valores, 𝐷𝑖 = 𝑌𝑖 − 𝑋𝑖 reduciendo así el problema a encontrar
un intervalo de confianza para la media de una población
𝑆 𝑆
̅ −𝑡1−𝛼/2
𝑃 (𝐷 ̅ −𝑡1−𝛼/2
< 𝜇2 − 𝜇1 < 𝐷 )= 1−𝛼
√𝑛 √𝑛

07 ASTURIAS CORPORACIÓN UNIVERSITARIA®


Not a Técnica preparada por Ast urias Corporación Universit aria. Su dif usión, reproducción o uso t ot al
o parcial para cual quier ot ro propósit o queda prohibida. Todos l os derechos reservados.
Método de Estimación por Intervalos de Confianza

3.6 Intervalo de Confianza para la Diferencia de Medias de Muestras


Independientes

Si 𝑋 y 𝑌 son dos muestras aleatorias independientes, es decir, provienen de dos


“Dos muestras aleatorias son independientes poblaciones normales distintas, tomando como cantidad pivote
cuando provienen de dos poblaciones
normales distintas” 𝑆12 𝑆22
𝑡 = (𝑛1 − 1) + (𝑛2 − 1) ~𝜒 2
𝜎12 𝜎22 (𝑛1+𝑛2 −2)

Se puede llegar a las siguientes conclusiones representadas en intervalos de confianza que


se derivan de la cantidad pivotal y se toman como subtemas para un mejor desarrollo de la
teoría y se describen a continuación:

 Intervalo de confianza cuando las varianzas son conocidas


Tomando la siguiente cantidad pivotal:
𝑥̅ − 𝑦̅ − (𝜇2 − 𝜇1 )
~𝑁(0,1)
𝜎2 𝜎22
√ 1 +
𝑛1 𝑛2

Tenemos que un intervalo de confianza para la diferencia de medias (𝜇2 − 𝜇1 ) de dos


poblaciones con distribución normal con varianzas 𝜎12 , 𝜎22 conocidas, está dado por la
siguiente expresión:

𝜎12 𝜎22 𝜎12 𝜎22


𝑃 (𝑥̅ − 𝑦̅ − 𝑧1−𝛼 √ + ≤ 𝜇2 − 𝜇1 ≤ 𝑥̅ − 𝑦̅ + 𝑧1−𝛼 √ + ) = 1 − 𝛼
2 𝑛1 𝑛2 2 𝑛1 𝑛2

Ejemplo 6. Se quiere estudiar la diferencia de las vidas medias de dos tipos de


lámparas. Para ello, se toma una muestra de 150 lámparas de tipo H y otra,
independiente de la anterior, de 200 lámparas de tipo. N, obteniéndose que las de tipo
H tienen una vida media de 1400 horas y una desviación típica de 120, y que las de tipo
N tienen una vida media de 1200 horas y desviación típica 80.

Para estimar la diferencia de medias se construye un intervalo de confianza al 95 %, que


viene dado por:

1202 802
𝐼0.95 (1400 − 1200 ± 1.96√ + ) = (177.8,222.2)
150 200

 Intervalo de confianza cuando las varianzas son desconocidas e iguales


Tomando la siguiente cantidad pivotal:

08 ASTURIAS CORPORACIÓN UNIVERSITARIA®


Not a Técnica preparada por Ast urias Corporación Universit aria. Su dif usión, reproducción o uso t ot al
o parcial para cual quier ot ro propósit o queda prohibida. Todos l os derechos reservados.
Método de Estimación por Intervalos de Confianza

−1
𝑥̅ − 𝑦̅ − (𝜇2 − 𝜇1 ) 1 1
𝜎 (√𝑛 + 𝑛 )
1 2
~𝑡(𝑛1 +𝑛2−2)
(𝑛 − 1)𝑆 2 + (𝑛2 − 1)𝑆22
√ 1 2 1
𝜎 (𝑛1 + 𝑛2 − 2)

Tenemos que un intervalo de confianza para la diferencia de medias (𝜇2 − 𝜇1 ) de dos


poblaciones con distribución normal con varianzas 𝜎12 , 𝜎22 desconocidas e iguales, está
dado por la siguiente expresión:

(𝑛1 )𝑆12 + (𝑛2 )𝑆22 1 1


𝐼1−𝛼/2 = (𝑥̅ − 𝑦̅ ± 𝑡(𝑛 𝛼 √ ( + ))
1 +𝑛2 −2, 1− 2 ) (𝑛1 + 𝑛2 − 2) 𝑛1 𝑛2

 Intervalo de confianza cuando las varianzas son desconocidas y distintas


Luego de algunos cálculos no concernientes al desarrollo de este curso y utilizando la
aproximación de Welch. Tenemos que se encuentra la siguiente cantidad:
𝑥̅ − 𝑦̅ − (𝜇2 − 𝜇1 )
~𝑡(𝑎,1−𝛼 )
2
𝑆2 𝑆22
√ 1
𝑛1 + 𝑛2

Con factor de corrección 𝑎 tomado como sigue:


2
𝑆12 𝑆22
( + )
𝑛1 𝑛2
𝑎= 2 2 −2
1 𝑆12 1 𝑆22
(
𝑛1 + 1 𝑛1 ) + 𝑛2 + 1 𝑛2 )
(

Tenemos que un intervalo de confianza para la diferencia de medias (𝜇2 − 𝜇1 ) de dos


poblaciones con distribución normal con varianzas 𝜎12 , 𝜎22 desconocidas y distintas, está
dado por la siguiente expresión:

𝑆12 𝑆22
𝐼1−𝛼/2 (𝜇2 − 𝜇1 ) = (𝑥̅ − 𝑦̅ ± 𝑡(𝑎, 𝛼 √( + ))
1− )
2 𝑛1 𝑛2

4 Resumen
 Dada una muestra aleatoria simple proveniente de una variable aleatoria 𝑿 con
función de densidad o masa de probabilidad 𝒇𝑿 (𝒙; 𝜽), el interés se centrará en
encontrar un método para calcular intervalos de confianza a partir de una función
de valores muestrales que contenga bajo un nivel de confianza dado, al parámetro,
con la condición de que su distribución no contenga al parámetro.

09 ASTURIAS CORPORACIÓN UNIVERSITARIA®


Not a Técnica preparada por Ast urias Corporación Universit aria. Su dif usión, reproducción o uso t ot al
o parcial para cual quier ot ro propósit o queda prohibida. Todos l os derechos reservados.
Método de Estimación por Intervalos de Confianza

 Se toma como base el método de cantidades pivótales para la obtención de los


intervalos por su facilidad de cálculo tanto en el caso de una o dos poblaciones
que por simplicidad se estudiaran en conjunto.

5 Referencias Bibliográficas
 Miranda, I. E., Palacín, F., Sánchez, M. L., Márquez, M., Chía, A. R., Navas, A. S., y
otros. (3ra. Edición 2006). Estadística Descriptiva y Probabilidad. Cádiz: Servicio de
Publicaciones de la Universidad de Cádiz.

 Montgomery, D., & R., R. (2da. Edición 2008). Probabilidad y Estadística Aplicada a la
Ingeniería. México: Limusa Wiley.

 Walpole, R., Myers, R., & Myers, S. y. (2007). Probabilidad y Estadística para
Ingeniería y Ciencias. México: Pearson.

010 ASTURIAS CORPORACIÓN UNIVERSITARIA®


Not a Técnica preparada por Ast urias Corporación Universit aria. Su dif usión, reproducción o uso t ot al
o parcial para cual quier ot ro propósit o queda prohibida. Todos l os derechos reservados.

Intervalos de Confianza
para la Proporción e
Intervalo Aproximado
para la Media de una
Distribución Cualquiera

1 © Ast urias Corporación Universitaria


Intervalos de Confianza para la Proporción e Intervalo Aproximado para la
Media de una Distribución Cualquiera

Índice

1 Intervalos de Confianza para la Proporción ......................................................................................... 3


1.1 Intervalos de Confianza para la Proporción ............................................................... 3
1.2 Intervalo de Confianza para la Diferencia de Proporciones ............................. 4
2 Intervalo Aproximado para la Media de una Distribución Cualquiera .................................. 4
3 Resumen ................................................................................................................................................................... 5
4 Referencias Bibliográficas .............................................................................................................................. 5

02 ASTURIAS CORPORACIÓN UNIVERSITARIA®


Not a Técnica preparada por Ast urias Corporación Universit aria. Su dif usión, reproducción o uso t ot al
o parcial para cual quier ot ro propósit o queda prohibida. Todos l os derechos reservados.
Intervalos de Confianza para la Proporción e Intervalo Aproximado para la
Media de una Distribución Cualquiera

Objetivos
 Aprender a usar el método asintótico para la consecución de intervalos de
confianza para la media.

1 Intervalos de Confianza para la Proporción


En este apartado se hace uso del método asintótico para la consecución de intervalos de
confianza para la media, lo cual implica la aproximación de la distribución de interés a la
normal mediante el resultado que dicta del teorema del límite central, es decir, para
tamaños de muestra grandes cuando se busca un intervalo para la media de una población,
̅.
el estimador natural es la media muestral 𝒙
Cabe resaltar que los intervalos de confianza que presentan los textos básicos de
estadística, construidos con base en la aproximación mediante la normal, tienen un
desempeño pobre, pueden resultar intervalos que no tienen sentido o intervalos con
probabilidad de cobertura por debajo del nivel de confianza nominal, especialmente
cuando las muestras no son muy grandes.
Sin embargo se muestran a continuación algunos de ellos con fines didácticos.

1.1 Intervalos de Confianza para la Proporción

Considérese una muestra aleatoria simple 𝑋 extraída de una población definida por una
variable aleatoria 𝑋, distribuida según una Bernoulli de parámetro 𝑝.
Si la variable aleatoria toma valores 0 y 1, el estimador de máxima verosimilitud del
“Si la variable aleatoria toma valores 0 y 1, el parámetro 𝑝 es:
estimador de máxima verosimilitud del 𝑛
1
parámetro p es: 𝑝̂ = ∑𝑛𝑖=1 𝑥𝑖 = 𝑥̅ ” 1
𝑛 𝑝̂ = ∑ 𝑥𝑖 = 𝑥̅
𝑛
𝑖=1

Con los supuestos distribucionales adecuados y utilizando una variación del Teorema
de Levy tenemos que:
𝑝̂ − 𝑝 𝑑
𝜋= → 𝑁(0,1)
√𝑝(1 − 𝑝)
𝑛

Lo que indica que esa cantidad 𝜋 converge en distribución a una normal estándar,
luego de este resultado se puede deducir un intervalo de confianza a través de una
aproximación y el resultado es como sigue:
𝑍1−𝛼
2
𝐼(1−𝛼/2) (𝑝̂ ) = (𝑝̂ ± √𝑝̂ (1 − 𝑝̂ ))
√𝑛

03 ASTURIAS CORPORACIÓN UNIVERSITARIA®


Not a Técnica preparada por Ast urias Corporación Universit aria. Su dif usión, reproducción o uso t ot al
o parcial para cual quier ot ro propósit o queda prohibida. Todos l os derechos reservados.
Intervalos de Confianza para la Proporción e Intervalo Aproximado para la
Media de una Distribución Cualquiera

Ejemplo 7. Un gerente de un canal de televisión debe estimar que porcentaje de


hogares tienen más de un televisor. Una muestra aleatoria de 500 hogares revela que
275 de ellos tiene 2 o más televisores.
¿Cuál es el intervalo de confianza a un nivel de confianza del 90% para estimar la
proporción de hogares que tienen 2 o más televisores? Entonces tenemos que:

𝑝(1 − 𝑝) (0.55) ∙ (0.45)


√ =√ = 0.022
𝑛 500

Ahora el intervalo vendría dado por:

𝐼0.90 = (0.55 ± (1.65) ∙ (0.022)) = (0.55 ± 0.036) = (0.514,0.586)

1.2 Intervalo de Confianza para la Diferencia de Proporciones

Se consideran ahora dos muestras aleatorias simples 𝑋 y 𝑌 de tamaños 𝑛1 y 𝑛2


“A diferencia del epígrafe anterior en este respectivamente. Además supongamos que son independientes e idénticamente
caso tenemos dos variables aleatorias” distribuidas Bernoulli de parámetros 𝑝1 ; 𝑝2 .

El interés se centra ahora en encontrar un intervalo de confianza para la diferencia de las


proporciones. Haciendo uso de los supuestos distribucionales y de resultados anteriores se
llega a que:

𝑑 𝑝1 (1 − 𝑝1 ) 𝑝2 (1 − 𝑝2 )
𝑝̂1 − 𝑝̂ 2 → 𝑁 (𝑝1 − 𝑝2 , √ + )
𝑛1 𝑛2

De donde se deduce el intervalo de confianza desead como sigue:

𝑝̂1 (1 − 𝑝̂1 ) 𝑝̂ 2 (1 − 𝑝̂ 2 )
𝐼(1−𝛼/2) (𝑝1 − 𝑝2 ) = (𝑝̂1 − 𝑝̂ 2 ± 𝑍1−𝛼/2 √ + )
𝑛1 𝑛2

2 Intervalo Aproximado para la Media de una Distribución


Cualquiera
Sea 𝑿 una muestra aleatoria simple de una distribución cualquiera con media 𝝁, además
“En este caso la muestra aleatoria simple
supongamos que el tamaño de dicha muestra se considera grande para su población en
tiene una distribución cualquiera” particular, entonces aplicando el teorema del límite central, tenemos que:
𝑥̅ − 𝜇
𝑍=𝑠 ~𝑁(0,1)
⁄ 𝑛

Entonces para cualquier valor 𝜶 ∈ (𝟎, 𝟏) podemos encontrar un valor 𝒁𝜶/𝟐 en la tabla de la
normal tal que:

04 ASTURIAS CORPORACIÓN UNIVERSITARIA®


Not a Técnica preparada por Ast urias Corporación Universit aria. Su dif usión, reproducción o uso t ot al
o parcial para cual quier ot ro propósit o queda prohibida. Todos l os derechos reservados.
Intervalos de Confianza para la Proporción e Intervalo Aproximado para la
Media de una Distribución Cualquiera

𝑥̅ − 𝜇
𝑃 (−𝑍𝛼/2 < 𝑠 < 𝑍𝛼/2 ) = 1 − 𝛼
⁄ 𝑛

Así, despejando a 𝝁 conocido, tenemos que:


𝑆 𝑆
𝑃 (𝑥̅ − 𝑍𝛼/2 < 𝜇 < 𝑥̅ + 𝑍𝛼/2 )= 1−𝛼
√𝑛 √𝑛

Es un intervalo de confianza aproximado para el parámetro desconocido 𝝁 pues contiene a


dicho parámetro con probabilidad 𝟏 − 𝜶.

3 Resumen
 Los intervalos de confianza que presentan los textos básicos de estadística,
construidos con base en la aproximación mediante la normal, tienen un
desempeño pobre, pueden resultar intervalos que no tienen sentido o
intervalos con probabilidad de cobertura por debajo del nivel de confianza
nominal, especialmente cuando las muestras no son muy grandes.

 Dentro de los intervalos de confianza para la proporción nos encontramos con


intervalos de confianza para la proporción e intervalos de confianza para la
diferencia de proporciones.

 También debemos tener en cuenta el intervalo aproximado para la media de


una distribución cualquiera, para cuando una muestra aleatoria simple siga una
distribución cualquiera con media µ.

4 Referencias Bibliográficas
 Miranda, I. E., Palacín, F., Sánchez, M. L., Márquez, M., Chía, A. R., Navas, A. S., y
otros. (3ra. Edición 2006). Estadística Descriptiva y Probabilidad. Cádiz: Servicio de
Publicaciones de la Universidad de Cádiz.

 Montgomery, D., & R., R. (2da. Edición 2008). Probabilidad y Estadística Aplicada a la
Ingeniería. México: Limusa Wiley.

 Walpole, R., Myers, R., & Myers, S. y. (2007). Probabilidad y Estadística para
Ingeniería y Ciencias. México: Pearson.

05 ASTURIAS CORPORACIÓN UNIVERSITARIA®


Not a Técnica preparada por Ast urias Corporación Universit aria. Su dif usión, reproducción o uso t ot al
o parcial para cual quier ot ro propósit o queda prohibida. Todos l os derechos reservados.

Hipótesis Estadística

1 © Ast urias Corporación Universitaria


Hipótesis Estadística

Índice

1 Introducción ............................................................................................................................................................ 3
2 Conceptos Básicos ............................................................................................................................................. 3
2.1 Hipótesis Estadística................................................................................................................ 3
2.2 Tipos de Hipótesis .................................................................................................................... 3
2.2.1 Hipótesis simple ......................................................................................................... 3
2.2.2 Hipótesis compuesta............................................................................................... 4
2.3 Prueba de Hipótesis ................................................................................................................ 4
2.4 Tipos de Errores ......................................................................................................................... 4
2.5 Región Crítica y Nivel de Significación ......................................................................... 5
3 Pruebas para la Media de una Distribución Normal........................................................................ 5
3.1 Prueba de Dos Colas para µ .............................................................................................. 6
3.2 Pruebas de Una Cola para µ ............................................................................................... 7
4 Resumen .................................................................................................................................................................. 8
5 Referencias Bibliográficas ............................................................................................................................. 8

02 ASTURIAS CORPORACIÓN UNIVERSITARIA®


Not a Técnica preparada por Ast urias Corporación Universit aria. Su dif usión, reproducción o uso t ot al
o parcial para cual quier ot ro propósit o queda prohibida. Todos l os derechos reservados.
Hipótesis Estadística

Objetivos
 Objetivo 1: Analizar el mínimo nivel de incertidumbre.

 Objetivo 2: Construir estadísticas de pruebas pertenecientes a una determinada


distribución para poder concluir si se rechaza o no cierta hipótesis de interés.

1 Introducción
En esta unidad de aprendizaje analizaremos uno de los objetivos fundamentales en un
estudio estadístico para determinar el mínimo nivel de incertidumbre a través de los
conceptos básicos y aplicación de pruebas de hipótesis.

Esto se hace con el fin de encontrar herramientas útiles a la hora de tomar decisiones
acerca de una sospecha o duda razonable que se tenga en un estudio de investigación.
Nuestro interés se centrará entonces en la construcción de estadísticas de prueba
pertenecientes a una determinada distribución para luego compararla con valores de la
tabla en una distribución conocida y mirar si se rechaza o no cierta hipótesis de interés.

2 Conceptos Básicos
En casos donde se tengan experimentos con múltiples resultados basados en eventos
“Cuando se tengan experimentos con aleatorios y la finalidad sea la toma de una decisión, es de mayor interés el buen
múltiples resultados basados en eventos planteamiento de una hipótesis. Con base a esto, la estrategia natural es decidirse por uno
aleatorios y la finalidad sea la toma de
de los experimentos en cuestión. Así el establecimiento de la regla de decisión delimitara la
una decisión, conviene el planteamiento
de una hipótesis”
región de rechazo y con ello las probabilidades de errores a la hora de la toma de
decisiones.

A continuación veremos los conceptos básicos involucrados en el estudio de las


pruebas de hipótesis para entender mejor la aplicación de esta técnica de inferencia
estadística.

2.1 Hipótesis Estadística

Una hipótesis estadística es una afirmación o conjetura acerca de una distribución de


“Se trata de una afirmación o conjetura una o más variables aleatorias.
acerca de una distribución de una o más
Ejemplo 1: Si 𝑋 sigue una distribución exponencial de parámetro 𝜆 una hipótesis podría
variables aleatorias”
ser la afirmación “𝜆 = 0.3”, análogamente si 𝑋 sigue una distribución 𝑁(𝜇, 𝜎 2 ) una
hipótesis podría ser la afirmación “𝜇 > 1”.

2.2 Tipos de Hipótesis

2.2.1 Hipótesis simple

Una hipótesis se dice simple si se especifica por completo la probabilidad en cuestión.

03 ASTURIAS CORPORACIÓN UNIVERSITARIA®


Not a Técnica preparada por Ast urias Corporación Universit aria. Su dif usión, reproducción o uso t ot al
o parcial para cual quier ot ro propósit o queda prohibida. Todos l os derechos reservados.
Hipótesis Estadística

2.2.2 Hipótesis compuesta

Una hipótesis se dice compuesta si no se especifica por completo la probabilidad en


cuestión.
Ejemplo 2: Si 𝑋 sigue una distribución exponencial de parámetro 𝜆 una hipótesis podría
ser la afirmación “𝜆 = 0.3” es una hipótesis simple, en contraste si 𝑋 sigue una
distribución 𝑁(𝜇, 𝜎 2 ) una hipótesis podría ser la afirmación “𝜇 > 1” se trata de una
hipótesis compuesta.

En general para la teoría de las pruebas de hipótesis se maneja el siguiente esquema:

“Esquema para la teoría de las pruebas 𝐻0: Hipótesis nula vs 𝐻1: Hipótesis Alternativa
de hipótesis”
En donde las hipótesis nula y alternativa pueden ser simples o compuestas.

2.3 Prueba de Hipótesis

Una prueba de hipótesis es una regla para decidir si no se rechaza la hipótesis nula o se
“La prueba de hipótesis ayuda a decidir
rechaza en favor de la hipótesis alternativa.
si no se rechaza la hipótesis nula o si se
Nótese que no está bien afirmar “se acepta la hipótesis nula” debido a que se hace es
rechaza en favor de la hipótesis
alternativa” una conclusión con base a la información que se extrae de la muestra, en consecuencia
lo que se tiene es que la muestra seleccionada no arroja información suficiente para
rechazar la hipótesis nula, teniendo en cuenta que todo depende de la calidad de la
muestra y de los errores de muestreo.

2.4 Tipos de Errores

Al realizar una prueba de hipótesis se pueden cometer errores.

 Al rechazo de la hipótesis nula cuando ésta es verdadera se le conoce como


error tipo I , y a la probabilidad de cometer este primer tipo de error se le denota
por la letra 𝛼.

 En cambio, al no rechazo de la hipótesis nula cuando ésta es falsa recibe el


nombre de error tipo II , y a la probabilidad de cometer este segundo tipo de
error se le denota por la letra 𝛽.

Estas definiciones de errores se resumen en la siguiente tabla:

𝐻0 Cierta 𝐻0 Falsa

Error tipo I Decisión


Rechazar
con correcta
𝐻0
probabilidad 𝛼
Decisión Error tipo II
No
correcta con
rechazar 𝐻0
probabilidad 𝛽

Tabla 1: Tipos de errores

04 ASTURIAS CORPORACIÓN UNIVERSITARIA®


Not a Técnica preparada por Ast urias Corporación Universit aria. Su dif usión, reproducción o uso t ot al
o parcial para cual quier ot ro propósit o queda prohibida. Todos l os derechos reservados.
Hipótesis Estadística

2.5 Región Crítica y Nivel de Significación

Se le llama región critica a la región de rechazo de 𝐻0, y a la probabilidad de cometer el


“Región crítica es la región de rechazo error tipo I , esto es 𝛼, se le llama tamaño de la región critica. A esta probabilidad se le
de 𝐻0 y el tamaño de la región crítica es conoce también con el nombre de nivel de significancia.
la probabilidad de cometer el error tipo I”

3 Pruebas para la Media de una Distribución Normal


Sea 𝒙𝟏 , 𝒙𝟐 , … , 𝒙𝒏 una muestra aleatoria de población media 𝝁 desconocida y varianza 𝝈𝟐
𝝈𝟐
conocida. Sabemos que 𝒙 ̅ tiene distribución 𝑵(𝝁, ) por tanto:
√𝒏
𝑥̅ − 𝜇
~𝑁(0,1)
𝜎 2⁄
√𝑛

Sea 𝝁𝟎 un número real particular. Deseamos probar las hipótesis 𝑯𝟎 : 𝝁 = 𝝁𝟎 contra 𝑯𝟏 : 𝝁 ≠


𝝁𝟎 El problema es encontrar una regla para decidir cuándo rechazar 𝑯𝟎 en favor de 𝑯𝟏 con
base en los datos de la muestra 𝒙𝟏 , 𝒙𝟐 , … , 𝒙𝒏 . Cuando 𝑯𝟎 es cierta, esto es, cuando 𝝁 es
𝝈𝟐
efectivamente 𝝁𝟎 , tenemos que 𝑿~𝑵(𝝁𝟎 , ) y por lo tanto:
√𝒏
𝑥̅ − 𝜇0
~𝑁(0,1)
𝜎 2⁄
√𝑛
𝒙
̅−𝝁
La estadística 𝒁 = 𝝈𝟐 𝟎 es una medida natural de la distancia entre 𝒙 ̅ ,un estimador de 𝝁, y

su valor esperado 𝝁𝟎 cuando 𝑯𝟎 es cierta. Es entonces razonable rechazar 𝑯𝟎 cuando la
√𝒏

variable 𝒁 sea grande. Es por ello que tomamos como criterio de decisión rechazar 𝑯𝟎
cuando |𝒁| ≥ 𝒌, para cierta constante 𝒌.
¿Cómo encontramos el número 𝒌? En una tabla de la distribución normal podemos
encontrar un valor 𝒛𝜶/𝟐 tal que 𝑷(|𝒁| ≥ 𝒛𝜶/𝟐 ) = 𝜶, en donde 𝜶 lo determina la persona que
lleva a cabo la prueba de hipótesis, típicamente 𝜶 = 𝟎. 𝟏. Véase el Gráfico 1. Este valor 𝒛𝜶/𝟐
es precisamente la constante 𝒌 buscada pues con ello se logra que la región de rechazo
sea de tamaño 𝜶.
A la variable aleatoria 𝒁 se le llama la estadística de la prueba, y la prueba se denomina
prueba de dos colas pues la región de rechazo consta de las dos colas de la distribución
normal que se muestran en el Gráfico 1.
Llevar a cabo esta prueba de hipótesis consiste en usar los datos de la muestra para
encontrar el valor de 𝒁, |𝒁| ≥ 𝒛𝜶/𝟐, entonces se rechaza 𝑯𝟎, en caso contrario no se rechaza
𝑯𝟎. Similarmente se definen las pruebas a cola inferior y superior para valores extremos.

05 ASTURIAS CORPORACIÓN UNIVERSITARIA®


Not a Técnica preparada por Ast urias Corporación Universit aria. Su dif usión, reproducción o uso t ot al
o parcial para cual quier ot ro propósit o queda prohibida. Todos l os derechos reservados.
Hipótesis Estadística

Gráfico 1: Región de rechazo a dos colas

Gráfico 2: Región de rechazo a cola inferior

Gráfico 3: Región de rechazo a cola superior

3.1 Prueba de Dos Colas para µ

Para probar esta hipótesis en primera instancia se tiene en cuenta que existen dos
“Suponemos dos zonas de rechazo para zonas de rechazo en ambas colas como se muestra en el Gráfico 1 y en segunda
probar esta hipótesis”
instancia se calcula el estadístico de prueba 𝑍 y se compara con los valores críticos 𝑍
en la tabla, así tenemos que el valor en mención viene dado por:
𝑥̅ − 𝜇𝐻
𝑍= 𝜎
⁄ 𝑛

06 ASTURIAS CORPORACIÓN UNIVERSITARIA®


Not a Técnica preparada por Ast urias Corporación Universit aria. Su dif usión, reproducción o uso t ot al
o parcial para cual quier ot ro propósit o queda prohibida. Todos l os derechos reservados.
Hipótesis Estadística

En donde 𝑥̅ es el valor de la media muestral, 𝜇𝐻 es el valor de la media poblacional bajo


la hipótesis nula y 𝜎 2 /√𝑛 es el error estándar de la distribución muestral.
Cuando se desconoce 𝜎 se utiliza su respectiva estimación, la desviación estándar
muestral 𝑠 y 𝑍 se vuelve:
𝑥̅ − 𝜇𝐻
𝑍= 𝑠
⁄ 𝑛

Ejemplo 3: Se supone que una empresa embotelladora de bebidas gaseosas de que la


media poblacional es de 16 onzas y seleccionan un nivel de significancia del 5%. Debido
al planteamiento del problema el conjunto de hipótesis queda como sigue:
𝐻0 : 𝜇 = 16
𝐻1 : 𝜇 ≠ 16
Si la empresa embotelladora toma una muestra de 𝑛 = 50 botellas con una media de
𝑥̅ = 16.357 onzas y una desviación estándar de 𝑠 = 0.866 onzas, tenemos que
16.357 − 16
𝑍= = 2.91
0.866
√50

Ahora comparando 𝑍 con los valores críticos de 𝑧 de la tabla que son ±1.96. La regla de
decisión sería: no se rechaza la hipótesis nula sí −1.96 ≤ 𝑍 ≤ 1.96. Se rechaza si 𝑍 <
−1.96 o 𝑍 > 1.96.

Luego como 𝑍 = 2.91 > 1.96 se rechaza la hipótesis nula a un nivel de significancia del
5% en favor de la hipótesis alternativa.

3.2 Pruebas de Una Cola para µ

En contraste con el anterior caso, en este solo se está interesado en una de las dos
colas de la distribución. Como se muestra en los Gráficos 2 y 3 respectivamente.
Ejemplo 4: En una reunión informativa para una oficina corporativa, el gerente de un
importante hotel, reporto que el número promedio de habitaciones alquiladas por
noche es de por lo menos 212. Uno de los funcionarios corporativos cree que esta cifra
puede estar sobreestimada. Una muestra de 150 noches produce una media de 201.3
habitaciones y una desviación estándar de 45.5 habitaciones. Si estos resultados
sugieren que el gerente ha inflado su reporte, será amonestado severamente. A un
nivel del 1% ¿Cuál es el destino del gerente?
La afirmación del gerente de que 𝜇 ≥ 212 lleva el signo igual y por tanto se toma la
siguiente hipótesis nula

𝐻0 : 𝜇 ≥ 212 vs 𝐻1 : 𝜇 < 212

Luego
201.3 − 212
𝑍= = −2.88
45.5
√150

07 ASTURIAS CORPORACIÓN UNIVERSITARIA®


Not a Técnica preparada por Ast urias Corporación Universit aria. Su dif usión, reproducción o uso t ot al
o parcial para cual quier ot ro propósit o queda prohibida. Todos l os derechos reservados.
Hipótesis Estadística

La regla de decisión es: No rechazar 𝐻0 sí 𝑍 ≥ −2.33. Rechazar sí 𝑍 < −2.33. Entonces el


valor 𝑍 = −2.88 claramente está en la zona de rechazo lo que indica que el gerente
podría estar en serios problemas.

4 Resumen
 En casos donde se tengan experimentos con múltiples resultados basados en
eventos aleatorios y la finalidad sea la toma de una decisión, es de mayor
interés, el buen planteamiento de una hipótesis.

 Los conceptos básicos involucrados en el estudio de las pruebas de hipótesis


son: la hipótesis estadística, los tipos de hipótesis, la prueba de hipótesis, los
tipos de errores y la región crítica y nivel de significancia.

5 Referencias Bibliográficas
 Miranda, I. E., Palacín, F., Sánchez, M. L., Márquez, M., Chía, A. R., Navas, A. S., y
otros. (3ra. Edición 2006). Estadística Descriptiva y Probabilidad. Cádiz: Servicio de
Publicaciones de la Universidad de Cádiz.

 Montgomery, D., & R., R. (2da. Edición 2008). Probabilidad y Estadística Aplicada a la
Ingeniería. México: Limusa Wiley.

 Walpole, R., Myers, R., & Myers, S. y. (2007). Probabilidad y Estadística para
Ingeniería y Ciencias. México: Pearson.

08 ASTURIAS CORPORACIÓN UNIVERSITARIA®


Not a Técnica preparada por Ast urias Corporación Universit aria. Su dif usión, reproducción o uso t ot al
o parcial para cual quier ot ro propósit o queda prohibida. Todos l os derechos reservados.

Interpretación de
P.Valores y Estudio de
Hipótesis en Dos
Poblaciones

1 © Ast urias Corporación Universitaria


Interpretación de P.Valores y Estudio de Hipótesis en Dos Poblaciones

Índice

1 P Valores y su Interpretación........................................................................................................................ 3
2 Pruebas para Muestras consideradas Pequeñas .............................................................................. 3
3 Pruebas para la Proporción ........................................................................................................................... 4
4 Prueba de Hipótesis en Dos Poblaciones ............................................................................................. 5
4.1 Prueba de Hipótesis para la Diferencia de Medias ............................................... 5
4.2 Pruebas con Muestras consideras Pequeñas .......................................................... 5
4.3 Pruebas de Hipótesis para Muestras Pareadas ....................................................... 5
4.4 Prueba de Diferencias para Dos Proporciones ....................................................... 6
5 Resumen ................................................................................................................................................................... 7
6 Referencias Bibliográficas .............................................................................................................................. 7

02 ASTURIAS CORPORACIÓN UNIVERSITARIA®


Not a Técnica preparada por Ast urias Corporación Universit aria. Su dif usión, reproducción o uso t ot al
o parcial para cual quier ot ro propósit o queda prohibida. Todos l os derechos reservados.
Interpretación de P.Valores y Estudio de Hipótesis en Dos Poblaciones

Objetivos
 Objetivo 1: Conocer la interpretación de p valores.

 Objetivo 2: Estudiar las distintas pruebas de hipótesis en dos poblaciones.

1 P Valores y su Interpretación
El p valor para una prueba es la probabilidad de obtener resultados muestrales a lo menos
tan extremos como los que se obtuvieron dado que la hipótesis nula es verdadera. Se
encuentra de la misma manera que el área de la cola, que va más allá de valor del
estadístico para la muestra.
En la practica el p valor es el nivel más bajo de significancia al cual se puede rechazar la
“El p valor es el nivel más bajo de hipótesis nula. Es el área en la cola que está más allá del valor del estadístico para la prueba.
significancia al cual se puede rechazar a Ejemplo 5: Un jefe de personal a partir de un breve análisis de los registros de los
hipótesis nula”
empleados, cree que puede afirmar que los empleados tienen un promedio de más de
31000 dólares americanos en sus cuentas de pensión. Al tomar una muestra de 100
empleados, el jefe de personal encuentra una media de 31366, con una desviación estándar
de 1894. Luego el contraste viene dado por:
𝐻0 : 𝜇 ≤ 31000 vs 𝐻1 : 𝜇 > 31000

Entonces tenemos que:


31366 − 31000
𝑍= = 1.93
1894
√100

Luego calculando el p valor como sigue:


1 − 𝑃(𝑍 ≤ 1.93) = 0.0268

En conclusión
 Si se tomara un nivel de significancia 𝜶 = 𝟎. 𝟎𝟓 , se tiene que 𝟎. 𝟎𝟐𝟔𝟖 < 𝟎. 𝟎𝟓 lo que
indica que cae en zona de rechazo de la hipótesis nula.
 Si se tomara un nivel de significancia 𝜶 = 𝟎. 𝟎𝟏 , se tiene que 𝟎. 𝟎𝟐𝟔𝟖 > 𝟎. 𝟎𝟏 lo que
indica que cae en zona de no rechazo de la hipótesis nula.

2 Pruebas para Muestras consideradas Pequeñas


Análogo al caso de intervalos de confianza donde las muestras pequeñas de poblaciones
consideradas normales, puede utilizarse la distribución 𝒕, en casos en que supone 𝒏 < 𝟑𝟎. El
estadístico de prueba viene dado por:
𝑥̅ − 𝜇
𝑡= 𝑠 ~𝑡(𝑛−1)
√𝑛

03 ASTURIAS CORPORACIÓN UNIVERSITARIA®


Not a Técnica preparada por Ast urias Corporación Universit aria. Su dif usión, reproducción o uso t ot al
o parcial para cual quier ot ro propósit o queda prohibida. Todos l os derechos reservados.
Interpretación de P.Valores y Estudio de Hipótesis en Dos Poblaciones

Así, la comparación ahora se hace con un valor 𝒕(𝒏−𝟏) de la tabla a un nivel de significancia 𝜶
deseado con la misma regla de decisión.

3 Pruebas para la Proporción


Ahora nuestro interés se centra en la estadística que arroja proporciones o términos de
“Nuestro interés se centra en la porcentajes, que son de la mayor importancia en la mayoría de estudios estadísticos.
estadística que arroje proporciones o
De manera análoga a los procedimientos anteriores para la proporción toman forma la
términos de porcentajes”
construcción del estadístico de prueba, su cálculo, la comparación con el valor de la tabla y
su respectiva conclusión.
Así, tenemos para este caso entonces:
𝑝 − 𝜋𝐻
𝑍=
𝜎𝑝

En donde 𝒑 es la proporción muestral de las observaciones que se consideran éxitos, 𝝅𝑯 es


el valor planteado como hipótesis para la proporción poblacional, 𝝈𝒑 es el error estándar de
la proporción muestral.
Ejemplo 6: El director de mercadeo de una pyme, considera que el 𝟔𝟎% de los clientes de
la firma se han graduado de la universidad, además le interesa establecer una política
respecto a la estructura de precios sobre esta proporción. Una muestra de 𝟖𝟎𝟎 clientes
revela que 492 clientes tienen grado universitario, lo que indica una proporción muestral del
𝒑 = 𝟎. 𝟔𝟏𝟓. A un nivel del 𝟓% ¿Qué puede concluir acerca de la proporción de todos los
clientes que se han graduado de la universidad?
𝐻𝑜 : 𝜋 = 0.60 Vs 𝐻1 : 𝜋 ≠ 0.60

El error estándar es

0.60(1 − 0.60)
𝜎𝑝 = √ = 0.017
800

Entonces,
0.615 − 0.60
𝑍= = 0.88
0.017

Luego el 𝒁 = 𝟎. 𝟖𝟖 < 𝟏. 𝟗𝟔 indica que cae en la zona de no rechazo o utilizando el p valor de


𝟎. 𝟑𝟕𝟖𝟖 < 𝟎. 𝟎𝟓 lo que es claramente menor que 𝜶, esto indica que no se pude rechazar la
hipótesis nula. En conclusión hay que capacitar a una mayor cantidad de trabajadores.

04 ASTURIAS CORPORACIÓN UNIVERSITARIA®


Not a Técnica preparada por Ast urias Corporación Universit aria. Su dif usión, reproducción o uso t ot al
o parcial para cual quier ot ro propósit o queda prohibida. Todos l os derechos reservados.
Interpretación de P.Valores y Estudio de Hipótesis en Dos Poblaciones

4 Prueba de Hipótesis en Dos Poblaciones

4.1 Prueba de Hipótesis para la Diferencia de Medias

Es de interés particular el saber si las medias de las poblaciones son estadísticamente


“Nos interesa saber si las medias de las iguales, lo que sería equivalente a probar a que las muestras provienen de la misma
poblaciones son estadísticamente población.
iguales”
Acorde con lo anterior, el procedimiento de prueba de hipótesis mostramos el
estadístico de prueba como sigue:
(𝑥̅1 − 𝑥̅ 2 )(𝜇1 − 𝜇2 )
𝑍=
𝑠𝑥̅1 −𝑥̅2

En donde 𝑠𝑥̅1−𝑥̅2 es el error estándar estimado para las diferencias de medias en las
medias muestrales.

Así la regla de decisión es: No rechazar si 𝒁 está entre ±𝟏. 𝟗𝟔. Rechazar si 𝒁 es menor que
𝟏. 𝟗𝟔 o más que 𝟏. 𝟗𝟔.

4.2 Pruebas con Muestras consideras Pequeñas

Análogamente al caso anterior se presentan los estadísticos para las pruebas, en el


caso de que las muestras sean consideradas pequeñas generalmente 𝑛 ≤ 30, con la
respectiva aproximación a la distribución 𝑡 mostrada para una población.
(𝑥̅1 − 𝑥̅ 2 ) − (𝜇1 − 𝜇2 )
𝑍=
𝑆𝑝2 𝑆𝑝2
√ +
𝑛1 𝑛2

En este caso 𝜎12 = 𝜎22 son desconocidas pero iguales. Además tenemos
(𝑥̅1 − 𝑥̅ 2 ) − (𝜇1 − 𝜇2 )
𝑍=
𝑆12 𝑆22

𝑛1 + 𝑛2

En este caso 𝝈𝟐𝟏 ≠ 𝝈𝟐𝟐 son desconocidas pero diferentes y la regla de decisión es: No
rechazar si 𝒕 esta entre ±𝟐. 𝟓𝟐𝟖. En otro caso se rechaza.

4.3 Pruebas de Hipótesis para Muestras Pareadas

Para las muestras tomadas de a pares por individuo, se tiene que al igual que en el caso
de una población se calculan las diferencias y se tiene el siguiente estadístico de
prueba:

05 ASTURIAS CORPORACIÓN UNIVERSITARIA®


Not a Técnica preparada por Ast urias Corporación Universit aria. Su dif usión, reproducción o uso t ot al
o parcial para cual quier ot ro propósit o queda prohibida. Todos l os derechos reservados.
Interpretación de P.Valores y Estudio de Hipótesis en Dos Poblaciones

𝑑̅ − (𝜇1 − 𝜇2 )
𝑡=
𝑆𝑑
√𝑛

En donde 𝑑̅ es la media de las diferencias de las observaciones pareadas y 𝑆𝑑 es el


error estándar de dichas diferencias.
La decisión es: No rechazar si 𝑡 esta entre ±2.145. En otro caso se rechaza.

4.4 Prueba de Diferencias para Dos Proporciones

Como hemos visto a través del desarrollo de la unidad de aprendizaje es de sumo interés el
“Es de sumo interés el cálculo de una cálculo de una proporción. De manera similar es de gran interés el estadístico que dicte, si
proporción” existe o no diferencia entre algún par de ellas.
Así siguiendo la lógica de desarrollo de los cálculos en una población, se hace el cálculo
ahora para dos poblaciones tomando como base en el siguiente estadístico de prueba:
(𝑝1 − 𝑝2 ) − (𝜋1 − 𝜋2 )
𝑍=
𝑆𝑝1−𝑝2

En donde 𝑝1 , 𝑝2 son proporciones de éxitos en las respectivas muestras y 𝑆𝑝1 −𝑝2 es el


error estándar de las diferencias.
La decisión es: No rechazar si 𝑍 está entre ±2.58 . Rechazar en otro caso.
Ejemplo 7: La gerencia de un reconocido club de golf de la ciudad desea ver si el
tiempo promedio que requieren las mujeres para jugar los 18 hoyos del campo es
diferente al de los hombres se mide el tiempo de 50 partidos dobles de hombre y 45 de
mujeres dando como resultado la siguiente tabla:

Hombres Mujeres

𝑥̅ = 4.9 ℎ
𝑥̅ = 3.5 ℎ
𝑠 = 1.5 ℎ
𝑠 = 0.9 ℎ

Tabla 1: Tabla ejemplo 7

Entonces tenemos que

(0.9)2 (1.5)2
𝑆𝑥̅1−𝑥̅2 = √ + = 0.257
50 45

Luego
(3.5 − 4.9) − 0
𝑍= = −5.45
0.257

Debido a que 𝒁 = −𝟓. 𝟒𝟓 < −𝟏. 𝟗𝟔 a un nivel 𝜶 = 𝟎. 𝟎𝟓. Se rechaza la hipótesis nula.
Ejemplo 8: Un comerciante de menudeo quiere probar la hipótesis de que sus clientes
hombres, quienes compran a crédito, son iguales en proporción a las mujeres que también

06 ASTURIAS CORPORACIÓN UNIVERSITARIA®


Not a Técnica preparada por Ast urias Corporación Universit aria. Su dif usión, reproducción o uso t ot al
o parcial para cual quier ot ro propósit o queda prohibida. Todos l os derechos reservados.
Interpretación de P.Valores y Estudio de Hipótesis en Dos Poblaciones

compran a crédito. Selecciona una muestra de 100 hombres y encuentra que 57 de ellos
compran a crédito, en contraste solo 52 de las 110 mujeres seleccionadas compran por
medio del crédito. Entonces de acuerdo a lo anterior tenemos que:

(0.57)(0.43) (0.527)(0.473)
𝑆𝑝1−𝑝2 = √ + = 0.069
100 110

Ahora tenemos que:


(0.57 − 0.473) − 0
𝑍= = 1.41
0.069

Con lo que se concluye que, debido a que 𝒁 está entre ±𝟐. 𝟓𝟖 no se puede rechazar la
hipótesis nula con un nivel 𝜶 = 𝟎. 𝟎𝟏 y por tanto el minorista no puede concluir que las
proporciones de compras entre mujeres y hombres son diferentes.

5 Resumen
 El p valor para una prueba es la probabilidad de obtener resultados muestrales
a lo menos tan extremos como los que se obtuvieron dado que la hipótesis
nula es verdadera.

 Análogo al caso de intervalos de confianza donde las muestras pequeñas de


poblaciones consideradas normales, puede utilizarse la distribución 𝑡, en casos
en que supone 𝑛 < 30.

 En las pruebas para la proporción, nuestro interés se centra en la estadística que


arroja proporciones o términos de porcentajes, que son de la mayor importancia en
la mayoría de estudios estadísticos.
 Dentro de la prueba de hipótesis en dos poblaciones debemos distinguir entre:
prueba de hipótesis para la diferencia de medias, pruebas con muestras
consideradas pequeñas, Pruebas de hipótesis para muestras pareadas y Prueba de
diferencias para dos proporciones.

6 Referencias Bibliográficas
 Miranda, I. E., Palacín, F., Sánchez, M. L., Márquez, M., Chía, A. R., Navas, A. S., y
otros. (3ra. Edición 2006). Estadística Descriptiva y Probabilidad. Cádiz: Servicio de
Publicaciones de la Universidad de Cádiz.

 Montgomery, D., & R., R. (2da. Edición 2008). Probabilidad y Estadística Aplicada a la
Ingeniería. México: Limusa Wiley.

 Walpole, R., Myers, R., & Myers, S. y. (2007). Probabilidad y Estadística para
Ingeniería y Ciencias. México: Pearson.

07 ASTURIAS CORPORACIÓN UNIVERSITARIA®


Not a Técnica preparada por Ast urias Corporación Universit aria. Su dif usión, reproducción o uso t ot al
o parcial para cual quier ot ro propósit o queda prohibida. Todos l os derechos reservados.

Análisis de Varianza

1 © Ast urias Corporación Universitaria


Análisis de Varianza

Índice

1 Introducción ............................................................................................................................................................ 3
2 Conceptos Básicos ............................................................................................................................................. 3
2.1 Unidad Experimental............................................................................................................... 3
2.2 Tratamientos ................................................................................................................................ 3
2.3 Factor ............................................................................................................................................... 3
2.4 Nivel del factor ........................................................................................................................... 3
2.5 Replicación.................................................................................................................................... 4
2.6 Modelo Asociado a los Datos ............................................................................................ 4
2.7 Modelo de Efectos Fijos ....................................................................................................... 4
2.8 Modelo de Efectos Aleatorios ........................................................................................... 4
3 Análisis del Modelo de Efectos Fijos ....................................................................................................... 4
3.1 Análisis de Varianza de un Solo Factor ........................................................................ 5
3.2 Descomposición de las Sumas de Cuadrados Total........................................... 6
3.3 Análisis Estadístico: Diseño Completamente Aleatorizado (DCA) ................ 7
4 Resumen ................................................................................................................................................................ 10
5 Referencias Bibliográficas ........................................................................................................................... 10

02 ASTURIAS CORPORACIÓN UNIVERSITARIA®


Not a Técnica preparada por Ast urias Corporación Universit aria. Su dif usión, reproducción o uso t ot al
o parcial para cual quier ot ro propósit o queda prohibida. Todos l os derechos reservados.
Análisis de Varianza

Objetivos
 Objetivo 1: Aplicación de la estadística a un número de poblaciones objeto mayor
a dos.

 Objetivo 2: Aplicación de técnicas de descomposición de la variabilidad.

 Objetivo 3: Determinar la existencia o ausencia de diferencias entre las medias de


las poblaciones a través de la metodología del análisis de varianza.

1 Introducción
En las anteriores unidades de aprendizaje observamos los distintos métodos de
estimación en el caso que se tuvieran dos poblaciones. Esta inferencia basada tanto en
los intervalos de confianza como en las pruebas de hipótesis se limita al estudio de
máximo dos poblaciones.

Sin embargo en la mayoría de los estudios el número de poblaciones objeto es mayor


“Hasta ahora hemos visto la estadística a la cantidad mencionada. Esto hace necesario la aplicación de técnicas de
aplicada a un máximo de dos
descomposición de la variabilidad en función del interés que existe en sus diferencias.
poblaciones, no obstante en la mayoría
de estudios el número de poblaciones
Dicho esto es lógico pretender determinar la existencia o ausencia de diferencias entre
es mayor” las medias de las poblaciones a través de la metodología del análisis de varianza.

2 Conceptos Básicos

2.1 Unidad Experimental

Son los elementos sobre los cuales se hacen las mediciones y a los cuales un
tratamiento puede ser asignado.

2.2 Tratamientos

Son el conjunto de circunstancias creadas para el experimento en respuesta a la


hipótesis de investigación y son el centro de la misma.

2.3 Factor

Es una variable experimental que posee la cualidad de ser controlable y que se cree
influyente en la respuesta.

2.4 Nivel del factor

Es un valor específico de un factor.

03 ASTURIAS CORPORACIÓN UNIVERSITARIA®


Not a Técnica preparada por Ast urias Corporación Universit aria. Su dif usión, reproducción o uso t ot al
o parcial para cual quier ot ro propósit o queda prohibida. Todos l os derechos reservados.
Análisis de Varianza

2.5 Replicación

Es la repetición total o parcial de un experimento en dos o más conjuntos de


condiciones.

2.6 Modelo Asociado a los Datos

Para efectos didácticos y de eficacia a la hora de describir el modelo se presenta la


siguiente forma de modelo:
𝑖 = 1,2, … , 𝑎
𝑦𝑖𝑗 = 𝜇 + 𝜏𝑖 + 𝜀𝑖 {
𝑗 = 1, 2, … , 𝑛

Donde 𝑦𝑖𝑗 es la 𝑖𝑗 − é𝑠𝑖𝑚𝑎 observación, 𝜇 es la media general asociada a todas las


observaciones del diseño, 𝜏𝑖 se considera el efecto del 𝑖 − é𝑠𝑖𝑚𝑜 tratamiento y 𝜀𝑖 un
componente de error aleatorio.

2.7 Modelo de Efectos Fijos

Es aquel en el cual los tratamientos son fijados de antemano para el estudio de interés.
“En el modelo de efectos fijos los
tratamientos son fijados de antemano
2.8 Modelo de Efectos Aleatorios
mientras que en el modelo de efectos
aleatorios los tratamientos son escogidos
Es aquel en el cual los tratamientos son escogidos de manera aleatoria para el estudio
de manera aleatoria”
de interés.

3 Análisis del Modelo de Efectos Fijos


Como notamos en la sección anterior, el análisis de varianza contiene sus bases en un
modelo de regresión donde la variable explicativa es de tipo dicótoma, es decir, esta
variable indica la pertenencia o no pertenencia de la observación al nivel del factor o
tratamiento.
Dicho esto, nuestro interés se centrará entonces no en la estimación de los parámetros del
“El interés se centra en la existencia de modelo, sino más bien, en la existencia de diferencias significativas entre estas
diferencias significativas entre estimaciones. Siendo el modelo de efectos fijos el más utilizado, su estudio nos permitirá la
estimaciones”
fácil compresión y aplicación de los siguientes conceptos.

2.1. Descripción de los Componentes del Modelo

Como hemos visto, estos modelos de análisis de varianza se utilizan con el interés de
evidenciar las diferencias entre niveles de un factor. Así, para un modelo de efectos fijos:
𝑦𝑖𝑗 = 𝜇 + 𝜏𝑖 + 𝜀𝑖

Con 𝑖 = 1,2,3 y 𝑗 = 1,2, … , 𝑛 reescribimos el modelo como sigue:

𝑦𝑖 = 𝜇 + 𝜏1 𝑥𝑖1 + 𝜏2 𝑥𝑖2 + 𝜏3 𝑥𝑖3 + 𝜀𝑖

04 ASTURIAS CORPORACIÓN UNIVERSITARIA®


Not a Técnica preparada por Ast urias Corporación Universit aria. Su dif usión, reproducción o uso t ot al
o parcial para cual quier ot ro propósit o queda prohibida. Todos l os derechos reservados.
Análisis de Varianza

Donde las 𝑥′𝑠 se definen de la siguiente manera


1 𝑠𝑖 𝑒𝑙 𝑖𝑛𝑑𝑖𝑣𝑖𝑑𝑢𝑜 𝑗 𝑒𝑠𝑡á 𝑒𝑛 𝑒𝑙 𝑖 − é𝑠𝑖𝑚𝑜 𝑓𝑎𝑐𝑡𝑜𝑟,
𝑥𝑖𝑗 = {
0 𝑒𝑛 𝑜𝑡𝑟𝑜 𝑐𝑎𝑠𝑜

Ejemplo 1: Suponga que un investigador está interesado en el efecto del nivel de


formación académica en la inversión que hacen los integrantes cabezas de familia de
un hogar en productos tecnológicos. Veamos cómo queda evidenciado el modelo con
base en la siguiente tabla.

Nivel de formación

Bachillerato Pregrado Posgrado

𝑦11 𝑦21 𝑦31

𝑦12 𝑦22

𝑦12

Tabla 1: Tabla ejemplo 1

Entonces el modelo se puede escribir como:


𝑦11 = 𝜇 + 𝜏1 (1) + 𝜏2 (0) + 𝜏3 (0) + 𝜀11
𝑦12 = 𝜇 + 𝜏1 (1) + 𝜏2 (0) + 𝜏3 (0) + 𝜀12
𝑦13 = 𝜇 + 𝜏1 (1) + 𝜏2 (0) + 𝜏3 (0) + 𝜀13
𝑦21 = 𝜇 + 𝜏1 (0) + 𝜏2 (1) + 𝜏3 (0) + 𝜀21
𝑦22 = 𝜇 + 𝜏1 (0) + 𝜏2 (1) + 𝜏3 (0) + 𝜀22
𝑦31 = 𝜇 + 𝜏1 (0) + 𝜏2 (0) + 𝜏3 (1) + 𝜀31

Donde los unos y ceros son los valores de la variable dicótoma que indica la pertenecía o
no al nivel del factor de la observación.

3.1 Análisis de Varianza de un Solo Factor

El objetivo es comparar los efectos medios de los 𝑎 niveles de los tratamientos sobre las
“El objetivo del análisis de varianza de un
𝑛 observaciones de una variable, como se muestra en la siguiente tabla:
solo factor es comparar los efectos medios
de los α niveles de tratamientos sobre las n
observaciones de una variable”

05 ASTURIAS CORPORACIÓN UNIVERSITARIA®


Not a Técnica preparada por Ast urias Corporación Universit aria. Su dif usión, reproducción o uso t ot al
o parcial para cual quier ot ro propósit o queda prohibida. Todos l os derechos reservados.
Análisis de Varianza

Tratamiento
Observaciones Totales Medias
(Nivel)

𝑦11 𝑦12 ⋯ 𝑦1𝑛 𝑦1. 𝑦̅𝑖.


1
𝑦21 𝑦22 ⋯ 𝑦2𝑛 𝑦2. 𝑦̅𝑖.
2
⋮ ⋮ ⋱ ⋮ ⋮ ⋮

𝑦𝑖1 𝑦𝑖2 ⋯ 𝑦𝑖𝑛 𝑦𝑖. 𝑦̅𝑖.
𝑛
𝑦.. 𝑦̅..

Tabla 2: Tabla de diseño

Ahora se pueden definir las cantidades del arreglo correspondiente al diseño para la
elaboración de una ANAVA (Análisis de varianza), entonces veamos que:
𝑛

𝑦𝑖. = ∑ 𝑦𝑖𝑗
𝑗=1

Representa el total de las observaciones bajo el 𝑖 − é𝑠𝑖𝑚𝑜 tratamiento. Además se


definen como:
𝑦𝑖.
𝑦̅𝑖. =
𝑛

Que representa el promedio de las observaciones bajo el 𝑖 − é𝑠𝑖𝑚𝑜 tratamiento y


finalmente
𝑎 𝑛
𝑦..
𝑦.. = ∑ ∑ 𝑦𝑖𝑗 ; 𝑦̅.. =
𝑁
𝑖=1 𝑗=1

Donde 𝑦̅.. representa el gran promedio de todas las observaciones o la llamada media
general común a todos los datos en la muestra y 𝑁 = 𝑎𝑛.
El interés se centra entonces en probar la siguiente hipótesis
𝐻0 : 𝜇1 = 𝜇2 = ⋯ = 𝜇𝑛

𝐻1 : 𝜇𝑖 ≠ 𝜇𝑗 Para algún par (𝑖 ≠ 𝑗)

3.2 Descomposición de las Sumas de Cuadrados Total

El nombre de análisis de varianza, viene del origen etimológico de análisis, que es soltar
o descomponer las cosas para ver cómo funcionan.
Para un mejor entendimiento de cada componente de varianza se examinan por
separado, ya que esta se puede descomponer por tener grupos de observaciones
pertenecientes a cada tratamiento, lo que da lugar a las diferencias entre los tratamientos y
dentro de los tratamientos como veremos entonces la descomposición de la
variabilidad total queda como sigue.

06 ASTURIAS CORPORACIÓN UNIVERSITARIA®


Not a Técnica preparada por Ast urias Corporación Universit aria. Su dif usión, reproducción o uso t ot al
o parcial para cual quier ot ro propósit o queda prohibida. Todos l os derechos reservados.
Análisis de Varianza

𝑆𝑆𝑇𝑜𝑡𝑎𝑙 = 𝑆𝑆𝑇𝑟𝑎𝑡𝑎𝑚𝑖𝑒𝑛𝑡𝑜𝑠 + 𝑆𝑆𝐸𝑟𝑟𝑜𝑟

Donde 𝑆𝑆𝑇𝑟𝑎𝑡𝑎𝑚𝑖𝑒𝑛𝑡𝑜𝑠 se le llama comúnmente sumas de cuadrados debido a los


tratamientos y a 𝑆𝑆𝐸𝑟𝑟𝑜𝑟 sumas de cuadrados debido al error. Además estas sumas se
definen como
𝑎 𝑛
2
𝑆𝑆𝑇𝑜𝑡𝑎𝑙 = ∑ ∑(𝑦𝑖𝑗 − 𝑦̅.. )
𝑖=1 𝑗=1

Que se usa como medida de la variabilidad total de las observaciones.


𝑎 𝑛
2
𝑆𝑆𝐸𝑟𝑟𝑜𝑟 = ∑ ∑(𝑦𝑖𝑗 − 𝑦̅𝑖. )
𝑖=1 𝑗=1

Que se usa como medida de la variabilidad debida a los errores y determina así mismo
la cantidad de información que no explica el modelo.
𝑎

𝑆𝑆𝑇𝑟𝑎𝑡𝑎𝑚𝑖𝑒𝑛𝑡𝑜𝑠 = 𝑛 ∑(𝑦̅𝑖. − 𝑦̅.. )2


𝑖=1

Que se usa como medida de la variabilidad debida a los tratamientos y determina así
mismo la cantidad de información que es explicada por el modelo.

3.3 Análisis Estadístico: Diseño Completamente Aleatorizado (DCA)

A continuación el proceso da un paso hacia la investigación de cómo se puede


efectivamente probar la hipótesis de interés 𝐻0 : 𝜇1 = 𝜇2 = ⋯ = 𝜇𝑎 . Teniendo en cuenta
las propiedades distribucionales de las sumas de cuadrados, se construye el estadístico
de prueba con base en los datos de la Tabla ANAVA para la partición de sumas de
cuadrados.

07 ASTURIAS CORPORACIÓN UNIVERSITARIA®


Not a Técnica preparada por Ast urias Corporación Universit aria. Su dif usión, reproducción o uso t ot al
o parcial para cual quier ot ro propósit o queda prohibida. Todos l os derechos reservados.
Análisis de Varianza

Grados

De Suma de Cuadrados
Fuente de variación F calculado
libertad Cuadrados Medios

a-1 𝑆𝑆𝑇𝑟𝑎𝑡𝑎𝑚𝑖𝑒𝑛𝑡𝑜𝑠 𝑀𝑆𝑇𝑟𝑎𝑡𝑎𝑚𝑖𝑒𝑛𝑡𝑜𝑠 𝐹0


Entre los tratamientos 𝑀𝑆𝑇𝑡𝑜𝑠
N-a
𝑆𝑆𝐸 𝑀𝑆𝐸 =
Error (Dentro de los 𝑀𝑆𝐸
Tratamientos) 𝑆𝑆𝑇𝑜𝑡𝑎𝑙
Total

Tabla 3: Tabla ANAVA para el modelo con un factor del modelo de efectos fijos

Donde
𝑆𝑆𝑇𝑟𝑎𝑡𝑎𝑚𝑖𝑒𝑛𝑡𝑜𝑠
𝑀𝑆𝑇𝑟𝑎𝑡𝑎𝑚𝑖𝑒𝑛𝑡𝑜𝑠 =
𝑎−1

Y
𝑆𝑆𝐸
𝑀𝑆𝐸 =
𝑁−𝑎

Se les llama cuadrados medios. Ahora bajo el supuesto de que la hipótesis nula es
cierta, el cociente:
𝑆𝑆𝑇𝑟𝑎𝑡𝑎𝑚𝑖𝑒𝑛𝑡𝑜𝑠 /(𝑎 − 1)
𝐹0 =
𝑆𝑆𝐸 /(𝑁 − 𝑎)

Se distribuye 𝐹 con 𝑎 − 1 y 𝑁 − 𝑎 grados de libertad y es el llamado estadístico de


prueba para la hipótesis de que no existen diferencias significativas en las medias de los
tratamientos. Esta es una prueba a una cola superior y la decisión es 𝐻0 deberá
rechazarse y concluirse que hay diferencias en las medias de los tratamientos si:

𝐹0 > 𝐹𝛼,𝑎−1,𝑁−𝑎

De manera alternativa como se mostró en la anterior unidad de aprendizaje podrá


utilizarse el criterio del 𝑃- valor para la toma de una decisión.
Nota: El cálculo de la tabla ANAVA y sus respectivos valores están programados en
paquetes de software estadísticos y muestran la partición relacionada en la Tabla 3. Se
recomienda que se estudien algunos de estos software y su salida ya que para
verdaderos estudios el cálculo a mano de estos se hace bastante tedioso y complicado.
Ejemplo 2: Se quiere determinar si cuatro temperaturas específicas de horneado
afectan la densidad de cierto tipo de ladrillo. Los datos del experimento se muestran en
la siguiente tabla.

08 ASTURIAS CORPORACIÓN UNIVERSITARIA®


Not a Técnica preparada por Ast urias Corporación Universit aria. Su dif usión, reproducción o uso t ot al
o parcial para cual quier ot ro propósit o queda prohibida. Todos l os derechos reservados.
Análisis de Varianza

Temperatura Densidad

21.8 21.9 21.7 21.6


100
21.7 21.4 21.5 21.4
125
21.9 21.8 21.8 21.6
150
21.9 21.7 21.8 21.4
175

Tabla 4: Tabla ejemplo 2

¿Afecta la temperatura de horneado la densidad del ladrillo?


Entonces reescribiendo las expresiones como sigue y haciendo los respectivos cálculos
tenemos que:
Suma de cuadrados total:
𝑎 𝑛
2
𝑦..2 346.92
𝑆𝑆𝑇 = ∑ ∑ 𝑦𝑖𝑗 − = 7521.71 − = 0.884375
𝑁 16
𝑖=1 𝑗=1

Suma de cuadrados de los tratamientos


𝑎
𝑦𝑖2 𝑦..2 346.92
𝑆𝑆𝑇𝑡𝑜𝑠 = ∑ − = 7521.4125 − = 0.186875
𝑛 𝑁 16
𝑖=𝑎

Suma de cuadrados del error


𝑆𝑆𝐸 = 𝑆𝑆𝑇 − 𝑆𝑆𝑇𝑡𝑜𝑠 = 0.2975

Luego podemos calcular la tabla ANAVA como sigue:

Grados Suma de Cuadrados


Fuente de variación F calculado
De libertad Cuadrados Medios

Temperaturas 3 0.186875 0.6229 𝐹0 = 2.51

Error 12 0.2975 0.02479

Total 15 0.484375

Tabla 5: Tabla ANAVA para el ejemplo 2

Ahora 𝑭𝟎 = 𝟐. 𝟓𝟏 < 𝟓. 𝟗𝟓 = 𝑭(𝟎.𝟎𝟏,𝟑,𝟏𝟐) luego la decisión es que no se puede rechazar 𝑯𝟎 en


favor de 𝑯𝟏.

09 ASTURIAS CORPORACIÓN UNIVERSITARIA®


Not a Técnica preparada por Ast urias Corporación Universit aria. Su dif usión, reproducción o uso t ot al
o parcial para cual quier ot ro propósit o queda prohibida. Todos l os derechos reservados.
Análisis de Varianza

4 Resumen
 Es lógico pretender determinar la existencia o ausencia de diferencias entre las
medias de las poblaciones a través de la metodología del análisis de varianza.

 Los conceptos básicos involucrados en este estudio son: la unidad experimental,


los tratamientos, el factor, el nivel del factor, la replicación, el modelo asociados a
los datos, el modelo de efectos fijos y el modelo de efectos aleatorios.

 El análisis de varianza contiene sus bases en un modelo de regresión donde la


variable explicativa es de tipo dicótoma, es decir, esta variable indica la
pertenencia o no pertenecía de la observación al nivel del factor o tratamiento.

5 Referencias Bibliográficas
 Miranda, I. E., Palacín, F., Sánchez, M. L., Márquez, M., Chía, A. R., Navas, A. S., y
otros. (3ra. Edición 2006). Estadística Descriptiva y Probabilidad. Cádiz: Servicio de
Publicaciones de la Universidad de Cádiz.

 Montgomery, D., & R., R. (2da. Edición 2008). Probabilidad y Estadística Aplicada a la
Ingeniería. México: Limusa Wiley.

 Walpole, R., Myers, R., & Myers, S. y. (2007). Probabilidad y Estadística para
Ingeniería y Ciencias. México: Pearson.

010 ASTURIAS CORPORACIÓN UNIVERSITARIA®


Not a Técnica preparada por Ast urias Corporación Universit aria. Su dif usión, reproducción o uso t ot al
o parcial para cual quier ot ro propósit o queda prohibida. Todos l os derechos reservados.

Diseños con Datos No


Balanceados

1 © Ast urias Corporación Universitaria


Diseños con Datos No Balanceados

Índice

1 Diseños con Datos No Balanceados ........................................................................................................ 3


2 Los Supuestos del Modelo ............................................................................................................................ 3
2.1 Supuestos de Normalidad ................................................................................................... 4
2.2 Homogeneidad de Varianza ............................................................................................... 4
2.3 Autocorrelación .......................................................................................................................... 4
3 Resumen ................................................................................................................................................................... 5
4 Referencias Bibliográficas .............................................................................................................................. 5

02 ASTURIAS CORPORACIÓN UNIVERSITARIA®


Not a Técnica preparada por Ast urias Corporación Universit aria. Su dif usión, reproducción o uso t ot al
o parcial para cual quier ot ro propósit o queda prohibida. Todos l os derechos reservados.
Diseños con Datos No Balanceados

Objetivos
 Objetivo 1: Comprender el significado de los datos no balanceados.

 Objetivo 2: Entender que las variables escogidas son las que tienen que estar
en el modelo, además de los supuestos de normalidad homogeneidad de
varianza y autocorrelación de los errores.

1 Diseños con Datos No Balanceados


Existen algunos casos en que los experimentos con un solo factor contienen distinto
“Diseño no balanceado es cuando nos número de observaciones por cada nivel del factor. Se dice entonces de un diseño no
encontramos con un solo factor que
balanceado.
contiene distintos números de
observaciones por cada nivel de factor” Entonces es posible aplicar toda la teoría mostrada anteriormente, teniendo en cuenta el
hecho de que existen tamaños de muestra distintos por grupos, las fórmulas para las sumas
de cuadrado queda como sigue. Sea que se hagan 𝒏𝒊 observaciones bajo el tratamiento 𝒊
con (𝒊 = 𝟏, 𝟐, … , 𝒂) y que 𝑵 = ∑𝒂𝒊=𝟏 𝒏𝒊
𝑎 𝑛𝑖
2
𝑦..2
𝑆𝑆𝑇 = ∑ ∑ 𝑦𝑖𝑗 −
𝑁
𝑖=1 𝑗=1

Y
𝑎
𝑦𝑖.2 𝑦..2
𝑆𝑆𝑇𝑟𝑎𝑡𝑎𝑚𝑖𝑒𝑛𝑡𝑜𝑠 = ∑ −
𝑛𝑖 𝑁
𝑖=1

Luego de esto, no se requieren más cambios en el análisis de varianza.

2 Los Supuestos del Modelo


Debido a que la teoría del análisis de varianza se basa en el planteamiento de un modelo de
“El modelo contiene las variables que regresión lineal, el hecho de que la descomposición de la varianza por grupos, dentro y
deben estar en el modelo, sin que sobren o entre los tratamientos, explique la variabilidad de las medias de los tratamientos, depende
falten”
enteramente de que el modelo asociado al diseño cumpla con unos supuestos, en especial
el de que el modelo describe bien a las observaciones del experimento, es decir, que las
variables escogidas son las que tienen que estar en el modelo y no sobran o faltan, además
de los supuestos de normalidad, homogeneidad de varianza y autocorrelación de los
errores.

03 ASTURIAS CORPORACIÓN UNIVERSITARIA®


Not a Técnica preparada por Ast urias Corporación Universit aria. Su dif usión, reproducción o uso t ot al
o parcial para cual quier ot ro propósit o queda prohibida. Todos l os derechos reservados.
Diseños con Datos No Balanceados

2.1 Supuestos de Normalidad

El supuesto de normalidad para los errores, como su nombre lo indica, es el hecho de


“El supuesto de normalidad es el hecho de asumir que los 𝜀𝑖 ~𝑁(𝜇, 𝜎 2 ). Esto implica la herencia del supuesto de normalidad a la
asumir que 𝜀𝑖 ~𝑁(𝜇, 𝜎 2)” variable respuesta por propiedad de linealidad. A continuación veremos algunos
procedimientos para verificar este supuesto.
 Un procedimiento es hacer una gráfica para verificar las desviaciones de la
normal con el llamado 𝑄 − 𝑄 plot, que lo que hace es graficar los cuantiles de la
distribución teórica contra los residuales ordenados. Si se denota una tendencia
lineal, se podría entonces asumir normalidad.

 Otro procedimiento son unas pruebas formales acogidas como estándar para la
verificación del supuesto. Estas pruebas ya vienen programadas en paquetes de
software estadístico, sin embargo existen textos guías que anexan sus valores
tabulados. Debido a la no pertinencia de su aplicación a éste por ser de tipo
introductorio, solo se mencionaran sus nombres. Las pruebas más conocidas son:
Prueba de Kolmogorov Smirnof y la Prueba de Shapiro Wilks.

2.2 Homogeneidad de Varianza

El supuesto de homogeneidad de varianza indica que la varianza es constante en todos


“El supuesto de homogeneidad de varianza los errores o lo que es lo mismo que es igual para todos, esto es 𝑉(𝜀𝑖 ) = 𝜎 2 . Como en el
indica que la varianza es constante en todos caso anterior, para la normalidad se listan algunos procedimientos para la verificación
los errores” del supuesto, haciendo la salvedad de que para su aplicación lo mejor es recurrir a un
paquete estadístico ya que sus cálculos implican algún grado de dificultad.
 Gráficos se pueden graficar los 𝜀̂ contra los 𝑦̂ para verificar una dispersión
aleatoria arriba y debajo de la línea 𝜀̂ = 0, otro grafico puede ser 𝜀̂ contra
𝑋𝑖 y análogamente al anterior cualquier diferencia en la magnitud de la
dispersión alrededor de cero sugiere varianzas heterogéneans.

 Existen varias pruebas formales que ayudan según su aplicación bajo ciertas
características a la detección de heterocedasticidad en la varianza algunas de
ellas son: Prueba de Bartlett, Prueba de Goldfeld – Quandt, Prueba de Breusch
– Pagan y la Prueba de White.

2.3 Autocorrelación

El supuesto de autocorrelación indica que los errores deben ser incorrelacionados o no


“El supuesto de autocorrelación indica que correlacionados entre sí, esto es 𝑪𝒐𝒗(𝜺𝒊, 𝜺𝒋 ) = 𝟎.
los errores deben ser incorrelacionados o Existen procedimientos en la teoría de las series temporales que ayudan a determinar el
no correlacionados entre sí”
supuesto de correlación serial pero la más conocida y de mayor aplicación, es la Prueba de
Durbin Watson, sin embargo, al igual que en los anteriores casos, depende de una buena
percepción del problema y se recomienda el uso de un paquete de software estadístico.

04 ASTURIAS CORPORACIÓN UNIVERSITARIA®


Not a Técnica preparada por Ast urias Corporación Universit aria. Su dif usión, reproducción o uso t ot al
o parcial para cual quier ot ro propósit o queda prohibida. Todos l os derechos reservados.
Diseños con Datos No Balanceados

3 Resumen
 Existen algunos casos en que los experimentos con un solo factor contienen
distinto número de observaciones por cada nivel del factor. Se dice entonces de
un diseño no balanceado.

 El hecho de que la descomposición de la varianza por grupos explique la


variabilidad de las medias de los tratamientos, depende enteramente de que el
modelo asociado al diseño cumpla con unos supuestos, en especial el de que el
modelo describe bien a las observaciones del experimento, es decir, que las
variables escogidas son las que tienen que estar en el modelo y no sobran o
faltan, además de los supuestos de normalidad, homogeneidad de varianza y
autocorrelación de los errores.

4 Referencias Bibliográficas
 Miranda, I. E., Palacín, F., Sánchez, M. L., Márquez, M., Chía, A. R., Navas, A. S., y
otros. (3ra. Edición 2006). Estadística Descriptiva y Probabilidad. Cádiz: Servicio de
Publicaciones de la Universidad de Cádiz.

 Montgomery, D., & R., R. (2da. Edición 2008). Probabilidad y Estadística Aplicada a la
Ingeniería. México: Limusa Wiley.

 Walpole, R., Myers, R., & Myers, S. y. (2007). Probabilidad y Estadística para
Ingeniería y Ciencias. México: Pearson.

05 ASTURIAS CORPORACIÓN UNIVERSITARIA®


Not a Técnica preparada por Ast urias Corporación Universit aria. Su dif usión, reproducción o uso t ot al
o parcial para cual quier ot ro propósit o queda prohibida. Todos l os derechos reservados.

S-ar putea să vă placă și