Documente Academic
Documente Profesional
Documente Cultură
Distribución Conjunta y
Marginal
—
Índice
1 Introducción ............................................................................................................................................................ 3
2 Conceptos Básicos (Rincón, 2010) ............................................................................................................. 3
2.1 Variables Aleatorias ................................................................................................................. 3
2.2 Variable Aleatoria Discreta .................................................................................................. 3
2.3 Variable Aleatoria Continua................................................................................................. 4
2.4 Función de Probabilidad para una Variable Discreta (Rincón, 2010) .......... 4
2.5 Función de Densidad para una Variable Continua ................................................ 4
3 Distribución Conjunta ........................................................................................................................................ 4
3.1 Función de Densidad para una Variable Continua ................................................ 5
3.2 Densidad Conjunta ................................................................................................................... 5
3.3 Variables Aleatorias Bidimensionales Discretas ..................................................... 5
3.4 Función Masa o de Densidad Probabilidad Conjunta .......................................... 5
3.5 Variables Aleatorias Bidimensionales Continuas................................................... 6
4 Distribución Marginal ......................................................................................................................................... 7
4.1 Función de Distribución Marginal ................................................................................... 8
4.2 Función de Densidad Marginal ........................................................................................ 8
5 Resumen .................................................................................................................................................................. 9
6 Referencias Bibliográficas ........................................................................................................................... 10
Objetivos
Objetivo 1: Conocer los conceptos básicos de la teoría de variables aleatorias.
1 Introducción
Iniciamos esta unidad de aprendizaje con un repaso por los conceptos básicos de la
teoría de variables aleatorias, con el fin de enlazar los contenidos de la última unidad de
aprendizaje vista en el curso de Estadística I.
Siguiendo con la orientación objeto del curso, nuestro interés ahora se centrará en
determinar la forma en cómo se estudian variables aleatorias bidimensionales y la
interacción que consigo lleva su medición. También es de interés final medir el grado,
intensidad y el sentido de asociación entre las características de interés.
Decimos que una variable aleatoria es discreta, cuando toma un valor particular y este
“Una variable aleatoria es discreta cuando resulta de ser un valor entero.
oma un valor particular y este resulta ser
un valor entero” Ejemplo:
Una variable aleatoria discreta puede ser la edad, debido a que toma valores en el
conjunto {0, 1, 2,….., n} que es un conjunto discreto porque es finito.
Decimos que una variable aleatoria es continua cuando toma todos los valores dentro
“Una variable aleatoria es continua de un intervalo (a, b) ⊆ ℝ. Esta clasificación de variables aleatorias es limitada ya que
cuando toma todo los valores dentro de
existen variables aleatorias que no son absolutamente continuas o absolutamente
un intervalo”
discretas, es decir, pueden tomar valores de ambos conjuntos numéricos.
Dada una variable aleatoria 𝑋 discreta que toma los valores en un conjunto finito o
numerable y con probabilidades no nulas. La función de probabilidad de la variable 𝑋
denotada por 𝑓(𝑥) ∶ 𝑅 → [0, ∞) se define como sigue:
𝑃(𝑋 = 𝑥) 𝑠𝑖, 𝑥 = 𝑥1 , 𝑥2 , …
𝑓(𝑥) = {
0 𝑐. 𝑜. 𝑐
0 ≤ 𝑓(𝑥) ≤ 1
∑∞
𝑖=1 𝑓(𝑥𝑖 ) = 1
Dada una variable aleatoria 𝑋 continua. Decimos que la función integrable y no negativa
𝑓(𝑥) ∶ ℝ → [0, ∞), es la función de densidad de 𝑋 si para cualquier intervalo (𝑎, 𝑏) de ℝ
se cumple la igualdad
𝑏
𝑃(𝑋 ∈ (𝑎, 𝑏)) = ∫ 𝑓(𝑥) 𝑑𝑥
𝑎
3 Distribución Conjunta
Como extensión natural del caso univariado, todo par de variables aleatorias induce una
medida de probabilidad. Esta medida de probabilidad puede analizarse, de igual forma que
Es de notar que al ser función de probabilidad para una variable aleatoria bidimensional de
tipo discreto debe cumplir las siguientes propiedades:
𝑓(𝑥, 𝑦) ≥ 0.
∑𝑥,𝑦 𝑓(𝑥, 𝑦) = 1.
Ejemplo 1: Considere el par de variables aleatorias dado (𝑿, 𝒀), con función de densidad dada
por la siguiente tabla.
𝑥/𝑦 0 1
−1 0.2 0.1
1 0.5 0.2
Tabla 1: ejemplo 1
De la tabla se deduce que la variable 𝑋 toma valores del conjunto {−1,1}, mientras que 𝑌
toma valores en {0,1}. Además las probabilidades conjuntas están dadas por las entradas de
la tabla.
Ejemplo: 𝑃(𝑋 = −1, 𝑌 = 0) = 0.2, esto es, la probabilidad de que 𝑋 tome el valor de −1 y al
mismo tiempo 𝑌 tome el valor 0 es 0.2. El resto de la información puede escribirse de la
siguiente manera.
0.2 𝑆𝑖 𝑥 = −1, 𝑦 = 0,
0.1 𝑆𝑖 𝑥 = −1, 𝑦 = 1,
𝑓(𝑥, 𝑦) = 𝑃(𝑋 = 𝑥, 𝑌 = 𝑦) = 0.5 𝑆𝑖 𝑥 = 1, 𝑦 = 0,
0.2 𝑆𝑖 𝑥 = 1, 𝑦 = 1,
{ 0 𝑜𝑡𝑟𝑜 𝑐𝑎𝑠𝑜
Como todos estos valores son probabilidades, naturalmente son no negativos, y todos ellos
suman uno.
Un par de variables aleatorias dadas (𝑿, 𝒀) se le dice absolutamente continua si existe una
función no negativa e integrable 𝒇(𝒙, 𝒚), tal que, para todo (𝒙, 𝒚) ∈ ℝ𝟐 la función de
distribución conjunta del par de variables aleatorias (𝑿, 𝒀) puede expresarse de la siguiente
manera
𝑥 𝑦
𝐹(𝑥, 𝑦) = ∫ ∫ 𝑓(𝑢, 𝑣) 𝑑𝑢 𝑑𝑣
−∞ −∞
𝑓(𝑥, 𝑦) ≥ 0.
∞ ∞
∫−∞ ∫−∞ 𝑓(𝑥, 𝑦) 𝑑𝑥 𝑑𝑦 = 1.
Ejemplo 2: Dado el par de variables aleatorias (𝑿, 𝒀), con función de densidad conjunta dada
por:
𝑥𝑦
𝑘( + 1) 𝑆𝑖 0 < 𝑥 < 1, −1 < 𝑦 < 1.
𝑓(𝑥, 𝑦) = { 2
0 𝐶𝑢𝑎𝑙𝑞𝑢𝑖𝑒𝑟 𝑐𝑎𝑠𝑜
Calculemos 𝒌 de tal forma que 𝒇(𝒙, 𝒚) sea función de masa o de densidad de probabilidad,
entonces tenemos que verificar que:
𝑓(𝑥, 𝑦) ≥ 0, si y sólo si 𝑘 ≥ 0.
∞ ∞
Como ∫−∞ ∫−∞ 𝑓(𝑥, 𝑦) 𝑑𝑥 𝑑𝑦 = 1.
Por tanto 𝒌 = 𝟏/𝟐 y la función de masa o de densidad conjunta viene dada por:
𝑥𝑦 + 2
𝑆𝑖 0 < 𝑥 < 1, −1 < 𝑦 < 1.
𝑓(𝑥, 𝑦) = { 4
0 𝐶𝑢𝑎𝑙𝑞𝑢𝑖𝑒𝑟 𝑐𝑎𝑠𝑜
4 Distribución Marginal
En los escenarios donde la función de distribución F(x,y) del par de variables aleatorias (X,Y),
“Si la función de distribución F(x, y) es
es dada, se hace posible obtener la función de distribución de cada una de las variables
dada, es posible obtener la función de
aleatorias independientes, de la siguiente manera.
distribución de cada una de las
variables aleatorias independientes”
Dado el par de variables aleatorias (𝑿, 𝒀), con función de distribución 𝑭(𝒙, 𝒚). Entonces la
función:
𝐹(𝑥) = lim 𝐹(𝑥, 𝑦).
𝑦→∞
Dado el par de variables aleatorias (𝑿, 𝒀), absolutamente continuas con función masa o de
densidad de probabilidad 𝒇(𝒙, 𝒚). Entonces la función:
∞
𝑓(𝑥) = ∫−∞ 𝑓(𝑥, 𝑦) 𝑑𝑦.
Nota: Si el vector es de tipo discreto solo basta con reemplazar las integrales con términos de
sumatorias para que las definiciones cobren sentido para tal caso.
Ejemplo 3: Para los datos de la tabla del ejemplo 1, tenemos que la marginal de 𝑿 vendría
dada por:
𝑥 1 1
Tabla 2: Marginal de 𝑥
𝑦 0 1
Tabla 3: Marginal de 𝑦
Ejemplo 4: En concordancia con los datos del ejemplo 2 y a partir de su función masa o de
densidad de probabilidad se tiene que la marginal de 𝑿 vendría dada por:
1
𝑥𝑦 1 𝑥 1 1 1 𝑥 1
𝑓1 (𝑥) = ∫ ( + ) 𝑑𝑦 = ∫ 𝑦𝑑𝑦 + ∫ 𝑑𝑦 = 𝑦 2 |1−1 + 𝑦|1−1
−1 4 2 4 −1 2 −1 8 2
𝑥 1 𝑥 1
= (12 − (−1)2 ) + (1 − (−1)) = ∙ (0) + ∙ (2) = 1
8 2 8 2
5 Resumen
La asignación de los valores numéricos a los sucesos de un experimento
aleatorios determina la base sobre la cual se define una variable aleatoria.
Decimos que una 𝑣. 𝑎. es discreta cuando toma un valor particular y este resulta
ser un valor entero.
Decimos que una variable aleatoria es continua cuando toma todos los valores
dentro de un intervalo (a, b) ⊆ ℝ.
6 Referencias Bibliográficas
Miranda, I. E., Palacín, F., Sánchez, M. L., Márquez, M., Chía, A. R., Navas, A. S., y
otros. (3ra. Edición 2006). Estadística Descriptiva y Probabilidad. Cádiz: Servicio de
Publicaciones de la Universidad de Cádiz.
Montgomery, D., & R., R. (2da. Edición 2008). Probabilidad y Estadística Aplicada a la
Ingeniería. México: Limusa Wiley.
Walpole, R., Myers, R., & Myers, S. y. (2007). Probabilidad y Estadística para
Ingeniería y Ciencias. México: Pearson.
Independencia y
Estadísticas de
Asociación
—
Índice
1 Independencia....................................................................................................................................................... 3
1.1 Independencia de un par de Variables Aleatorias................................................. 3
2 Estadísticos de Asociación ............................................................................................................................. 3
2.1 Covarianza ..................................................................................................................................... 3
2.2 Coeficiente de Correlación .................................................................................................. 5
3 Resumen .................................................................................................................................................................. 6
4 Referencias Bibliográficas .............................................................................................................................. 7
Objetivos
Objetivo 1: Conocer el concepto de independencia de dos variables aleatorias.
1 Independencia
Dado que el interés se centra en el estudio de la relación existente entre dos variables
aleatorias, se hace pertinente el definir el concepto de independencia de dos variables
aleatorias con las herramientas teóricas vistas hasta aquí.
Se puede afirmar que en un par de variables aleatorias dado (𝐗, 𝐘), las variables aleatorias 𝐗
“Se puede afirmar que en un par de variables e 𝐘 son independientes si cumple que:
aleatorias dado (X, Y), las variables aleatorias
X e Y son independientes si: f(x, y) = f(x)f(y) ” f(x, y) = f(x)f(y).
2 Estadísticos de Asociación
Ahora veamos dos de las estadísticas más importantes en el estudio de variables aleatorias
de tipo bidimensional, una interpretación y sentido al número que arrojan como resultado.
2.1 Covarianza
La covarianza para el par de variables aleatorias dado (𝐗, 𝐘), denotada por 𝐂𝐨𝐯(𝐗, 𝐘), es el
número:
Cov(X, Y) = E[(X − E(X))(Y − E(Y))].
Siendo las esperanzas 𝐄(𝐗), 𝐄(𝐘) y 𝐄(𝐗𝐘) finitas, es decir, que existan para las variables
aleatorias 𝐗 e 𝐘.
La covarianza es útil para detectar si existe relación de tipo lineal entre las variables y su
“La covarianza es útil para detectar si existe sentido, pero presenta inconvenientes en el escenario donde no exista algún tipo de
relación de tipo lineal entre las variables y
relación entre las variables en mención, además de que se deja influenciar por el efecto de
su sentido”
las medidas en que son tomadas las variables y también por el tamaño de muestra que es
tomado por cada una de las variables.
Como consecuencia inmediata de la definición se listan a continuación las propiedades de
“Propiedades de la covarianza” esta importante estadística.
Cov(X, X) = Var(X).
Cov(c, Y) = 0.
Ejemplo 6: Para determinar la covarianza del par de variables aleatorias dado (𝐗, 𝐘) en el
ejemplo 2, se emplea el siguiente procedimiento:
Se calculan los momentos de primer orden con respecto al origen, es decir, los valores
esperados para cada variable:
1 1 1 x2y
E(X) = ∫ ∫ ( + x) dy dx
2 0 −1 2
1 1 x2 1 1
= ∫ [ ∫ ydy + x ∫ dy] dx
2 0 2 −1 −1
1 1 x2
= ∫ [ y 2 |1−1 + xy|1−1 ] dx
2 0 4
1 1 x2
= ∫ [ (12 − (−1)2 ) + x(1 − (−1))] dx
2 0 4
1 1 x2 1 1 1
1 1 1
= ∫ [ ∙ (0) + x ∙ (2)] dx = ∫ 2x dx = ∫ xdx = x 2 |10 = (12 − 02 ) =
2 0 4 2 0 0 2 2 2
E(Y)
1 1 1 xy 2
= ∫ ∫ ( + y) dy dx
2 0 −1 2
1 1 x 1 1
= ∫ [ ∫ y 2 dy + ∫ ydy] dx
2 0 2 −1 −1
1 1 x 1
= ∫ [ y 3 |1−1 + y 2 |1−1 ] dx
2 0 6 2
1 1 x 1
= ∫ [ (13 − (−1)3 ) + (12 − (−1)2 )] dx
2 0 6 2
1 1 x 1 1 1 x 1 1 1 x2 1 1 2 1
= ∫ [ ∙ (2) + ∙ (0)] dx = ∫ [ ] dx = ∫ xdx = |0 = (1 − 02 ) =
2 0 6 2 2 0 3 6 0 62 12 12
De manera similar se calculan los momentos de segundo orden, que vienen dados por:
1 1
E(X 2 ) = E(Y 2 ) =
3 3
Por último se calcula el producto cruzado de las variables aleatorias del par:
E(XY)
1 1 1 x2y2 1 1 x2 1 1
= ∫ ∫ ( + xy) dy dx = ∫ [ ∫ y 2 dy + x ∫ ydy] dx
2 0 −1 2 2 0 2 −1 −1
1 1 x2 x 1 1 x2 x
= ∫ [ y 3 |1−1 + y 2 |1−1 ] dx = ∫ [ (13 − (−1)3 ) + (12 − (−1)2 )] dx
2 0 6 2 2 0 2 2
1 1 x2 x 1 1 1 x3 1 1 3 1
= ∫ [ ∙ (2) + ∙ (0)] dx = ∫ x 2 dx = |0 = (1 − 03 ) =
2 0 2 2 2 0 63 18 18
El coeficiente de correlación entre el par de variables aleatorias dado (X, Y), denotado por
ρ(X, Y), es el número:
𝐶𝑜𝑣(𝑋, 𝑌)
𝜌(𝑋, 𝑌) =
√𝑉𝑎𝑟(𝑋)𝑉𝑎𝑟(𝑌)
3 Resumen
Se puede afirmar que en un par de variables aleatorias dado (𝐗, 𝐘), las variables
aleatorias 𝐗 y 𝐘 son independientes si cumple que 𝐟(𝐱, 𝐲) = 𝐟(𝐱)𝐟(𝐲).
La covarianza para el par de variables aleatorias dado (𝐗, 𝐘), denotada por
𝐂𝐨𝐯(𝐗, 𝐘), es el número:
4 Referencias Bibliográficas
Miranda, I. E., Palacín, F., Sánchez, M. L., Márquez, M., Chía, A. R., Navas, A. S., y
otros. (3ra. Edición 2006). Estadística Descriptiva y Probabilidad. Cádiz: Servicio de
Publicaciones de la Universidad de Cádiz.
Montgomery, D., & R., R. (2da. Edición 2008). Probabilidad y Estadística Aplicada a la
Ingeniería. México: Limusa Wiley.
Walpole, R., Myers, R., & Myers, S. y. (2007). Probabilidad y Estadística para
Ingeniería y Ciencias. México: Pearson.
Índice
1 Introducción ............................................................................................................................................................ 3
2 Conceptos Básicos ............................................................................................................................................. 3
2.1 Características y Parámetros de Interés ...................................................................... 3
2.2 Muestra Aleatoria ...................................................................................................................... 4
2.3 Muestras Probabilísticas ....................................................................................................... 5
2.4 Diseño Muestral ......................................................................................................................... 5
2.5 Mecanismo de Selección .................................................................................................... 6
2.6 Probabilidades de Inclusión ............................................................................................... 6
2.7 Estadística y Estimador ........................................................................................................ 7
3 Muestreo Aleatoria Simple Sin Reemplazo (MAS) ........................................................................... 7
3.1 Estadística y Estimador .......................................................................................................... 7
3.2 Mecanismo de Selección ..................................................................................................... 7
3.3 Estimación para el Total de Y y su Varianza en el MAS .................................... 9
3.4 Estimación para el Promedio de Y y su varianza en el MAS ......................... 11
4 Resumen ................................................................................................................................................................. 11
5 Referencias Bibliográficas ............................................................................................................................ 12
Objetivos
Objetivo 1: Conocer la base de la teoría de la inferencia estadística, el estudio
de recolección de muestras y la estimación de parámetros por el muestreo.
1 Introducción
En esta unidad centraremos nuestro interés en la base de la teoría de la inferencia
estadística, el estudio de recolección de muestras y estimación de parámetros por el
muestreo. Es preciso mencionar que solo se hará un breve repaso de una extensa y
cuidadosa teoría, debido a la complejidad y pertinencia de algunos de sus conceptos.
Siendo el caso de las muestras aleatorias simples el eje sobre el cual desarrollaremos
los contenidos temáticos, en busca de su utilidad final, la estimación de parámetros
poblacionales.
2 Conceptos Básicos
Conocida una población o universo de nuestro interés, el cual está conformado por 𝑁
elementos y que notaremos como 𝑈 etiquetado como sigue 𝑈 = {1,2, … , 𝑁}, se define
entonces una característica de interés 𝑦 la cual tiene como naturaleza ser una
observación medida directamente en 𝑈 y no una realización de una 𝑣. 𝑎 como en
unidades anteriores, tomará entonces 𝑦 el valor 𝑦𝑘 en el 𝑘-ésimo elemento.
𝑡𝑦 = ∑ 𝑦𝑘
𝑘=1
2
∑𝑁 ̅𝑈 )2
𝑘=1(𝑦𝑘 − 𝑦
𝑆𝑦𝑈 =
𝑁−1
Ejemplo 1: Suponga que se tiene una población 𝑼 tal que está etiquetada de la siguiente
manera 𝑼 = {𝟏, 𝟐, 𝟑, 𝟒, 𝟓} y se quiere estimar una variable de interés 𝒚 para cada elemento
en el universo entonces:
U yk
1 35
2 36
3 40
4 23
5 37
𝑡𝑦 = ∑ 𝑦𝑘 = 35 + 36 + 40 + 23 + 37 = 171
𝑘=1
2
∑𝑁 ̅𝑈 )2 [(35 − 34.2)2 + ⋯ + (37 − 34.2)2 ]
𝑘=1(𝑦𝑘 − 𝑦
𝑆𝑦𝑈 = = = 34.16
𝑁−1 4
“El número de elementos en el modelo El número de elementos en 𝒔 es llamado tamaño de muestra y existen casos particulares
estadístico de selección es llamado donde no es fijado de antemano, en consecuencia se hace variable.
tamaño de la muestra” Muestra aleatoria sin reemplazo
Se dice que una muestra aleatoria es sin reemplazo si la selección de los elementos que
“Sin reemplazo: si la selección de los han sido seleccionados no vuelven a ser parte de la población.
elementos que han sido
Muestra aleatoria con reemplazo
seleccionados no vuelven a ser parte
Se dice que una muestra aleatoria es con reemplazo si la selección de los elementos que
de la población”
han sido seleccionados vuelven a ser parte de la población, es decir, un elemento puede
“Con reemplazo: si la selección de los ser seleccionado más de una vez.
elementos que han sido seleccionados
vuelven a ser parte de la población”
2.3 Muestras Probabilísticas
No toda muestra aleatoria es de tipo probabilística, dando lugar a distintos tipos de muestreo
que dada su metodología de recolección o desconocimiento de los modelos probabilísticos
que garanticen su validez se convierten en mecanismos sin ninguna significancia a la hora
de hacer estimaciones. A continuación se mencionan los requerimientos que hacen a una
muestra aleatoria una muestra probabilística.
Una muestra es probabilística cuando:
Se puede definir el conjunto de todas las posibles muestras derivadas del proceso
de selección.
Es posible conocer de antemano la probabilidad de selección de todas y cada una
de las posibles muestras anteriormente mencionadas.
El proceso de selección garantiza la existencia de una probabilidad mayor a cero
para cada uno de los elementos del universo.
El mecanismo aleatorio de selección que se utilice garantiza la igualdad de
probabilidades de selección para cada muestra en el conjunto de todas las
posibles muestras.
Diseño de muestreo
Desde un punto de vista teórico estricto, un diseño de muestreo es una función 𝒑(𝒔), que a
cada muestra posible le asigna una probabilidad de selección.
Diseño de muestreo sin reemplazo
Un diseño de muestreo se dice sin reemplazo, si todas las muestras en el conjunto de todas
las posibles muestras son sin reemplazo.
Diseño de muestreo con reemplazo
Un diseño de muestreo se dice con reemplazo, si todas las muestras en el conjunto de
todas las posibles muestras son con reemplazo.
0.13
1-2
0.20
1-3
0.15
1-4
0.10
1-5
0.15
2-3
0.04
2-4
0.02
2-5
0.06
3-4
0.07
3-5
0.08
4-5
Se dice un muestreo aleatorio simple sin reemplazo a aquel diseño cuyas posibles muestras
de tamaño 𝒏 fijado de antemano tienen la misma probabilidad de ser seleccionadas. Así:
1
𝑠𝑖 # 𝑠 = 𝑛
𝑝(𝑠) = {(𝑁)
𝑛
0 𝑐 𝑐.
𝜉4 = 0.71795016, 𝜉5 = 0.95200564
𝜉𝑘
𝑈
0.28691106
1
0.97110167
2
0.86655545
3
0.71795016
4
0.95200564
5
𝜉𝑘
𝑈
0.28691106
1
0.71795016
4
0.86655545
3
0.95200564
5
0.97110167
2
1 4 10 0,4 0,70554751 0
2 4 9 0,44444444 0,53342402 0
3 4 8 0,5 0,57951862 0
4 4 7 0,57142857 0,28956246 1
5 3 6 0,5 0,30194801 1
6 2 5 0,4 0,7747401 0
7 2 4 0,5 0,01401764 1
8 1 3 0,33333333 0,76072359 0
9 1 2 0,5 0,81449002 0
10 1 1 1 0,7090379 1
Nótese que como se dio en este ejemplo el método garantiza que los 𝒏 elementos siempre
sean seleccionados, es decir, el método siempre converge.
Las expresiones para la estimación del total y su varianza en el muestreo aleatorio simple
vienen dadas por:
𝑁
𝑡̂𝑦 = ∑ 𝑦𝑘
𝑛
𝑠
𝑁2 𝑛 2
𝑉𝑎𝑟(𝑡̂𝑦 ) = (1 − ) 𝑆𝑦𝑈
𝑛 𝑁
𝑁2 𝑛 2
̂ (𝑡̂𝑦 ) =
𝑉𝑎𝑟 (1 − ) 𝑆𝑦𝑆
𝑛 𝑁
𝒌 𝒚𝒌
19
4
56
5
70
7
60
10
Entonces nuestro interés será el de estimar el total y con su respectiva varianza estimada.
El total vendría dado por:
𝑁 10
𝑡̂𝑦 = ∑ 𝑦𝑘 = ∙ (19 + 56 + 70 + 60) = 512.5
𝑛 4
𝑠
Para estimar la varianza del estimador tenemos que como se muestra en ecuación,
esta depende de la varianza muestral que se calcula como sigue:
2
∑𝑘∈𝑆(𝑦𝑘 − 𝑦̅𝑠 )2
𝑆𝑦𝑆 = = 496.92
𝑛−1
Con lo que:
𝑁2 𝑛 2 102 4
̂ (𝑡̂𝑦 ) =
𝑉𝑎𝑟 (1 − ) 𝑆𝑦𝑆 = (1 − ) ∙ (496.92) = 7453.75
𝑛 𝑁 4 10
Es necesario brindar una medida del error para determinar la calidad de las
estimaciones, para ello se utiliza el coeficiente de variación estimado 𝒄𝒗𝒆 como
sigue:
̂ (𝑡̂𝑦 )
√𝑉𝑎𝑟
√7453.75
𝑐𝑣𝑒 = × 100% = × 100% ≅ 17%
𝑡̂𝑦 512.5
Lo que puede considerarse como una pobre estimación debido a que 𝒄𝒗𝒆 > 𝟓% se
consideran estimaciones de baja calidad, esto puede ser al poco número de elementos de
la población con tamaño de muestra pequeño.
1 1 𝑛 2
𝑉𝑎𝑟(𝑦̂̅) = 𝑉𝑎𝑟(𝑡̂𝑦 ) = (1 − ) 𝑆𝑦𝑈
𝑁2 𝑛 𝑁
1 1 𝑛 2
̂ (𝑦̅̂) =
𝑉𝑎𝑟 ̂ (𝑡̂𝑦 ) = (1 − ) 𝑆𝑦𝑆
𝑉𝑎𝑟
𝑁2 𝑛 𝑁
Ejemplo 6: Considerando los datos del ejemplo anterior, damos estimaciones para la media
y la varianza estimada de la variable de interés 𝒚.
𝑡̂𝑦 512.5
𝑦̂̅ = = = 𝑦̅𝑆 = 51.25
𝑁 4
Con igual medida de calidad para el caso del total, debido a que se trata de los mismos
valores.
4 Resumen
El objetivo de hacer muestreo será el de estimar una característica de interés
determinada en un parámetro poblacional a partir de la observación de un
subconjunto con ciertas características de los elementos del universo.
5 Referencias Bibliográficas
Miranda, I. E., Palacín, F., Sánchez, M. L., Márquez, M., Chía, A. R., Navas, A. S., y otros.
(3ra. Edición 2006). Estadística Descriptiva y Probabilidad. Cádiz: Servicio de
Publicaciones de la Universidad de Cádiz.
Montgomery, D., & R., R. (2da. Edición 2008). Probabilidad y Estadística Aplicada a la
Ingeniería. México: Limusa Wiley.
Walpole, R., Myers, R., & Myers, S. y. (2007). Probabilidad y Estadística para Ingeniería
y Ciencias. México: Pearson.
Intervalos de Confianza y
Tamaño de Muestra.
Tipos de Muestreo
—
Índice
Objetivos
Objetivo 1: Entender los conceptos de intervalos de confianza y tamaño de
muestra.
Bajo el muestreo aleatorio simple sin reemplazo, un intervalo de confianza para la media
viene dado por:
𝑛 𝑆𝑦𝑈 𝑛 𝑆𝑦𝑈
[𝑦̅𝑆 − 𝑧1−𝛼 √(1 − ) , 𝑦̅𝑆 + 𝑧1−𝛼 √(1 − ) ]
2 𝑁 √𝑛 2 𝑁 √𝑛
Con lo que se debe estimar a 𝑺𝒚𝑼 por medio de 𝑺𝒚𝑺 dado que lo normal es que no se
conozca.
La fórmula general para el cálculo del tamaño de muestra viene dada por
n0
n≥ n
1− 0
N
z1−α/2 S2
Donde n0 = , c es la precisión deseada y z1−α/2 es el valor tabulado de la
c2
z1−α/2 PQ
Donde k 0 = , c es la precisión deseada, P es la proporción, Q su complemento y
c2
z1−α/2 es el valor tabulado de la distribución normal para el nivel de confianza requerido.
Ejemplo 7:
N = 2.200; n = 40
Entonces:
22 ∙ (1.600) 2
k 0 = [( ) − (1 + )] = 496.22
3.682 40
Por tanto:
496.22
n= ≅ 405
496.22
1 + 2.200
Ejemplo 8:
Una empresa dedicada al transporte permite que ciertos gastos de sus afiliados se hagan
mediante la utilización de la tarjeta de crédito expedida para pagos en las bombas de
gasolina locales.
La empresa ha expedido 10.050 tarjetas de créditos. Con el objetivo de realizar una
investigación sobre la utilización de la tarjeta y otras características, se toma una muestra
piloto de 90 tarjetas y se encontró que 63 de ellas fueron utilizadas para cargar servicios
durante el mes de referencia.
Por otra parte, el total de los gastos cancelados con las tarjetas es fue de 2.390.000 y la
desviación estándar de 4000, se desea estimar el tamaño de la muestra, con un error de 2%
y un nivel de confianza de 95% para estimar proporción de afiliados que utilizan la tarjeta.
Entonces de los datos dados en el enunciado tenemos que:
63
P= = 0.7; Q = 0.3; z1−α/2 ; c = 0.02
90
1.962 (0.7)(0.3) 2
n0 = [( 2
) (1 + )] = 2.061,21
0.02 90
2.061,21
n= ≅ 1.711
2.061,2
1+
10.050
2 Muestreo Estratificado
Por razones de la naturaleza de la población, la característica de interés tiende a tomar
valores promedios en distintos subgrupos poblacionales. Esto junto con un interés particular
de investigador, de obtener estimaciones por grupos disyuntos de la población, además de
las razones de costo y comodidad en la recolección, hacen necesaria la división de la
población en subconjuntos llamados estratos que permitan obtener valores homogéneos y
de interés inherentes a la característica del muestreo aleatorio simple sin reemplazo, caso
de nuestro interés.
∑ 𝑁ℎ = 𝑁
ℎ=1
𝑡𝑦 = ∑ 𝑦𝑘 = ∑ ∑ 𝑦𝑘 = ∑ 𝑡𝑦ℎ
𝑘∈𝑈 ℎ=1 𝑘∈𝑈ℎ ℎ=1
La media poblacional
𝐻 𝐻
∑𝑘∈𝑈ℎ 𝑦𝑘 1 1
𝑦̅ = = ∑ ∑ 𝑦𝑘 = ∑ 𝑁ℎ 𝑦̅ℎ
𝑁 𝑁 𝑁
ℎ= 𝑘∈𝑈ℎ ℎ=1
1
Donde 𝑦̅ℎ = ∑𝑘∈𝑈ℎ 𝑦𝑘
𝑁ℎ
Para un diseño de muestreo aleatorio estratificado las expresiones para la estimación del
total y su varianza vienen dadas por:
𝐻 𝐻
𝑁ℎ
𝑡̂𝑦 = ∑ 𝑡̂𝑦ℎ = ∑ ∑ 𝑦𝑘
𝑛ℎ
ℎ=1 ℎ=1 𝑘∈𝑆ℎ
𝐻
𝑁ℎ2 𝑛ℎ 2
𝑉𝑎𝑟(𝑡̂𝑦 ) = ∑ (1 − ) 𝑆𝑦𝑈
𝑛ℎ 𝑁ℎ ℎ
ℎ=1
𝐻
𝑁ℎ2 𝑛ℎ 2
̂ (𝑡̂𝑦 ) = ∑
𝑉𝑎𝑟 (1 − ) 𝑆𝑦𝑆
𝑛ℎ 𝑁ℎ ℎ
ℎ=1
Para un diseño de muestreo aleatorio estratificado, las expresiones para la estimación del
promedio de 𝒚 y su varianza vienen dadas por:
1
𝑦̂̅𝑈ℎ = = ∑ 𝑦𝑘
𝑛ℎ
𝑘∈𝑆ℎ
1 𝑛ℎ 2
𝑉𝑎𝑟(𝑦̂̅𝑈ℎ ) = (1 − ) 𝑆𝑦𝑈ℎ
𝑛ℎ 𝑁ℎ
1 𝑛ℎ 2
̂ (𝑦̂̅𝑈ℎ ) =
𝑉𝑎𝑟 (1 − ) 𝑆𝑦𝑆ℎ
𝑛ℎ 𝑁ℎ
4 Resumen
Bajo el muestreo aleatorio simple sin reemplazo, un intervalo de confianza para la
media viene dado por:
𝑛 𝑆𝑦𝑈 𝑛 𝑆𝑦𝑈
[𝑦̅𝑆 − 𝑧1−𝛼 √(1 − ) , 𝑦̅𝑆 + 𝑧1−𝛼 √(1 − ) ]
2 𝑁 √𝑛 2 𝑁 √𝑛
Con lo que se debe estimar a 𝑺𝒚𝑼 por medio de 𝑺𝒚𝑺 dado que lo normal es que no
se conozca.
La fórmula general para el cálculo del tamaño de muestra viene dada por
n0
n≥ n
1 − N0
z1−α/2 S2
Donde n0 = , c es la precisión deseada y z1−α/2 es el valor tabulado de la
c2
5 Referencias Bibliográficas
Miranda, I. E., Palacín, F., Sánchez, M. L., Márquez, M., Chía, A. R., Navas, A. S., y
otros. (3ra. Edición 2006). Estadística Descriptiva y Probabilidad. Cádiz: Servicio de
Publicaciones de la Universidad de Cádiz.
Montgomery, D., & R., R. (2da. Edición 2008). Probabilidad y Estadística Aplicada a la
Ingeniería. México: Limusa Wiley.
Walpole, R., Myers, R., & Myers, S. y. (2007). Probabilidad y Estadística para
Ingeniería y Ciencias. México: Pearson.
Teoría de la Estimación
Puntual y Métodos de
Estimación
—
Índice
1 Introducción ............................................................................................................................................................ 3
2 Conceptos Básicos ............................................................................................................................................. 3
2.1 Muestra Aleatoria ...................................................................................................................... 3
2.2 Parámetro ...................................................................................................................................... 3
2.3 Estadística...................................................................................................................................... 3
2.4 Estimador ....................................................................................................................................... 4
3 Métodos de Estimación ................................................................................................................................... 4
3.1 Método de los Momentos .................................................................................................... 4
3.2 Método de Máxima Verosimilitud.................................................................................... 5
3.3 Método por Analogía ............................................................................................................. 6
4 Resumen ................................................................................................................................................................... 7
5 Referencias Bibliográficas .............................................................................................................................. 7
Objetivos
Objetivo 1: Ser capaz de sacar conclusiones a partir de la aplicación de
estadísticas a muestras aleatorias.
1 Introducción
En esta unidad de aprendizaje trataremos el estudio de la rama de la estadística que se
encarga de sacar conclusiones a partir de la aplicación de estadísticas a muestras
aleatorias, las cuales siguen una distribución de probabilidad con parámetros
desconocidos.
Entonces nuestro interés se centra en este caso, en acercar valores estimados a los
valores reales de los parámetros poblacionales por medio de métodos de estimación,
teniendo en cuenta las propiedades de esos en cuanto a calidad y errores se refiere.
2 Conceptos Básicos
2.2 Parámetro
2.3 Estadística
La función
𝑛
1
𝑥̅ = ∑ 𝑥𝑖
𝑛
𝑖=1
Es una estadística.
La función 𝑥̅ + 𝜎 2 no es una estadística, si 𝜎 2 es desconocido.
2.4 Estimador
3 Métodos de Estimación
̂ = (𝜽𝟏, 𝜽𝟐 , … , 𝜽𝒌 )
Y se resuelve el sistema para hallar 𝜽
Luego
𝑛
1
𝜇̂ = ∑ 𝑥𝑖
𝑛
𝑖=1
𝑛
1
𝜇̂ + 𝜎̂ = ∑ 𝑥𝑖2
2 2
𝑛
𝑖=1
𝐿(𝜃, 𝑥̂) = 𝑓𝑥1… ,𝑥𝑛 (𝑥1 , 𝑥2 , … , 𝑥𝑛 ) = 𝑓𝑥1 (𝑥1 ) ∙ 𝑓𝑥2 (𝑥2 ) ∙ ⋯ ∙ 𝑓𝑥3 (𝑥3 ) = ∏ 𝑓𝑥𝑖 (𝜃, 𝑥𝑖 )
𝑖=1
Así:
𝑛
𝐿(𝑝, 𝑥) = 𝑝 𝑛 𝑞∑𝑖=1 𝑥𝑖
ln 𝐿(𝑝, 𝑥) = 𝑛 ∙ ln 𝑝 + ∑ 𝑥𝑖 ln 𝑞
𝑖=1
Consta en elegir, luego de indagar, el papel que cumplen los componentes del
“El método por analogía deriva una parámetro dentro del modelo; derivando una estadística que de manera similar o
estadística que de manera análoga recibe análoga realice las mismas funciones en la función empírica.
las mismas funciones en la función
empírica” Ejemplo 5: Se tiene una muestra aleatoria 𝑥1 , 𝑥2 , … , 𝑥𝑛 de tamaño 𝑛 con función de
densidad:
−𝑥𝜃
𝑓𝑥 (𝑥, 𝜃) = {𝜃𝑒 ; 𝑥 > 0; 𝜃 > 0.
0 𝑐. 𝑐
tanto su estimador debe ser una función análoga; usando el método por analogía el
estimador viene dado por:
1
𝜃̂𝐴 =
𝑥̅
4 Resumen
Sea 𝑥1 , 𝑥2 , … , 𝑥𝑛 𝑣. 𝑎 independientes con la misma función de densidad de
probabilidad 𝑓𝑋 (𝑥), se define 𝑥1 , 𝑥2 , … , 𝑥𝑛 como una muestra aleatoria de tamaño
𝑛.
5 Referencias Bibliográficas
Miranda, I. E., Palacín, F., Sánchez, M. L., Márquez, M., Chía, A. R., Navas, A. S., y
otros. (3ra. Edición 2006). Estadística Descriptiva y Probabilidad. Cádiz: Servicio de
Publicaciones de la Universidad de Cádiz.
Montgomery, D., & R., R. (2da. Edición 2008). Probabilidad y Estadística Aplicada a la
Ingeniería. México: Limusa Wiley.
Walpole, R., Myers, R., & Myers, S. y. (2007). Probabilidad y Estadística para
Ingeniería y Ciencias. México: Pearson.
Propiedades de los
Estimadores Puntuales y
Distribuciones de
Muestrales
—
Índice
Objetivos
Objetivo 1: Conocer las distintas propiedades de los estimadores puntuales.
1.1 Insesgamiento
𝐵(𝜃̂) = 𝐸(𝜃̂) − 𝜃
De donde también se define una estadística de error muy importante, el error cuadrático
medio, notado como 𝑀𝑆𝐸𝜃 y escrito de la siguiente manera:
2
𝑀𝑆𝐸𝜃 = 𝑉(𝜃̂) + [𝐵(𝜃̂)]
1.2 Consistencia
Pero
Luego
𝜎2 𝜎2
𝐸(𝑥̅ − 𝜇)2 = 𝑉(𝑥̅ ) + 𝐸 2 (𝑥̅ ) − 2𝜇𝐸(𝑥̅ ) + 𝜇2 = + 𝜇2 − 2𝜇2 + 𝜇2 =
𝑛 𝑛
Ahora bien
𝜎2
lim 𝐸(𝑥̅ − 𝜇)2 = lim =0
𝑛→∞ 𝑛→∞ 𝑛
1.3 Suficiencia
1.4 Eficiencia
La eficiencia es un requisito de precisión, esto es, es más preciso aquel estimador que
“El estimador más preciso será aquel que
tenga menor varianza ya que tiene la capacidad de producir estimaciones más
tenga menor varianza” centradas.
Así sean 𝜃̂ y 𝜃̂′ dos estimadores insesgados para 𝜃, estimadores basados en una
muestra aleatoria 𝑥1 , 𝑥2 , … , 𝑥𝑛 de una población con función masa o de densidad de
probabilidad 𝑓𝑥 (𝑥, 𝜃), se dice que 𝜃̂ es estimador uniformemente mejor que 𝜃̂′ si:
𝑉(𝜃̂) ≤ 𝑉(𝜃̂ ′ )
2 Distribuciones de Muestrales
Es de interés conocer la distribución asintótica de las estadísticas muéstrales para fines de
“Permiten estimaciones con mayor calidad estimaciones de mayor calidad y precisión.
y precisión”
A continuación se muestran algunas de estas, las más comunes e importantes.
𝑋~𝑁(𝜇, 𝜎 2 /√𝑛).
Este resultado se deduce del teorema del límite central, además de que por ser
combinaciones lineales de normales se hereda la normalidad.
(𝑛 − 1)𝑆 2 2
~𝜒(𝑛−1)
𝜎2
Utilizando las mismas conclusiones a partir del teorema del límite central, como es de
saber para tamaños de muestra considerados grandes, para una población con función
de densidad masa 𝐵𝑒𝑟(𝑝), se tiene que la distribución de la proporción muestral se
puede aproximar mediante una normal, tal que:
𝑝𝑞
𝑝̂ ~𝑁 (𝑝, √ )
𝑛
3 Resumen
Las propiedades de los estimadores puntuales son: el insesgamiento, la
consistencia, la suficiencia y la eficiencia.
4 Referencias Bibliográficas
Miranda, I. E., Palacín, F., Sánchez, M. L., Márquez, M., Chía, A. R., Navas, A. S., y
otros. (3ra. Edición 2006). Estadística Descriptiva y Probabilidad. Cádiz: Servicio de
Publicaciones de la Universidad de Cádiz.
Montgomery, D., & R., R. (2da. Edición 2008). Probabilidad y Estadística Aplicada a la
Ingeniería. México: Limusa Wiley.
Walpole, R., Myers, R., & Myers, S. y. (2007). Probabilidad y Estadística para
Ingeniería y Ciencias. México: Pearson.
Método de Estimación
por Intervalos de
Confianza
—
Índice
1 Introducción ............................................................................................................................................................ 3
2 Método de la Variable Pivotal ...................................................................................................................... 3
2.1 Intervalo Aleatorio..................................................................................................................... 3
2.2 Intervalo de Confianza (1 – α) ............................................................................................. 3
2.3 Límites del Intervalo ................................................................................................................ 3
2.4 Variable Aleatoria Pivotal...................................................................................................... 4
2.5 Método de la Variable Pivotal ............................................................................................ 4
3 Intervalos de Confianza en Poblaciones Normales ......................................................................... 4
3.1 Intervalo de Confianza para la Media, Conocida la Varianza .......................... 5
3.2 Intervalo de Confianza para la Media, Desconocida la Varianza................... 5
3.3 Intervalo de Confianza para la Varianza, Conocida la Media ......................... 6
3.4 Intervalo de Confianza para la Varianza, Desconocida la Media .................. 7
3.5 Intervalo de Confianza para la Diferencia de Medias de Muestras
Pareadas ......................................................................................................................................... 7
3.6 Intervalo de Confianza para la Diferencia de Medias de Muestras
Independientes.......................................................................................................................... 8
4 Resumen .................................................................................................................................................................. 9
5 Referencias Bibliográficas ........................................................................................................................... 10
Objetivos
Objetivo 1: Estudiar los intervalos de confianza.
1 Introducción
En esta unidad de aprendizaje estudiaremos uno de los métodos de estimación que
está tomando mayor importancia en el ámbito de la estadística aplicada.
Nos referimos a los intervalos de confianza, éstos presentan ventajas sobre otros
métodos de estimación que veremos más adelante, debido a que estos aportan mayor
información en magnitud y precisión de las estimaciones, permitiendo una mejor
interpretación de las estimaciones hechas sobre ellas.
Veremos cómo se hace inferencia sobre los parámetros más conocidos y comunes, así
como también las distintas interpretaciones que se presentan en cada caso
Es un intervalo tal que al menos uno de sus extremos es una variable aleatoria.
“En el intervalo aleatorio, al menos uno
de sus extremos es una variable
2.2 Intervalo de Confianza (1 – α)
aleatoria”
Dada una muestra aleatoria simple proveniente de una variable aleatoria 𝑋 con función
de densidad o masa de probabilidad 𝑓𝑋 (𝑥; 𝜃), en la cual dicha distribución depende de
un parámetro desconocido 𝜃, dadas las estadísticas 𝜃(𝑥) y 𝜃 ′ (𝑥) el intervalo de
confianza de nivel (1 − 𝛼)100%, es tal que:
𝑃[𝜃(𝑥) ≤ 𝜃 ≤ 𝜃 ′ (𝑥)] ≥ 1 − 𝛼
𝑥̅ − 𝜇
𝑧= ~𝑁(0,1)
𝜎 2⁄
√𝑛
𝜎 2 Es conocido.
Ejemplo 2: Sea 𝑥1 , 𝑥2 , … , 𝑥𝑛 una muestra aleatoria de una población normal 𝑁(𝜇, 𝜎 2 ); 𝜎 2
𝑥̅ −𝜇
conocido, la variable aleatoria 𝑡 = 𝑆 es una cantidad pivotal, entonces tenemos que
⁄
√𝑛
efectivamente, la variable aleatoria 𝑡 depende de los valores 𝑥1 , 𝑥2 , … , 𝑥𝑛 a través de 𝑥̅ y
𝑆 2 . Además está en función del parámetro 𝜇, entonces:
𝑥̅ − 𝜇
𝑡= ~𝑡(𝑛−1)
𝑆⁄
√𝑛
Sea 𝑄𝑥 una variable pivotal de 𝜃 de una cierta población con función densidad o masa
de probabilidad entonces para un cierto nivel de confianza 1 − 𝛼 ∈ (0,1), existen
constantes 𝑞1 ∧ 𝑞2 que dependen de un nivel de confianza 1 − 𝛼 tal que 𝑃𝜃 [𝑞1 ≤ 𝑄𝑥 ≤
𝑞2 ] = 1 − 𝛼, si para cada valor muestral 𝑥1 , 𝑥2 , … , 𝑥𝑛 ; 𝑞1 ≤ 𝑄𝑥 (𝑥1 , 𝑥2 , … , 𝑥𝑛 ) ≤ 𝑞2 , si y solo si
(1) (2)
𝑃[𝜃̂1 < 𝜃̂2 ] = 1 luego el intervalo (𝜃̂𝑛 , 𝜃̂𝑛 ) es un intervalo de confianza para (1 −
𝛼)100%.
Gráfico 1: Valores 𝑍𝛼
2
Ejemplo 3. Suponga que la vida promedio útil, medida en horas, de focos de 100 watts
producidos por cierta compañía, puede ser modelada mediante una variable aleatoria
con distribución normal de media 𝜇 y varianza 𝜎 2 .
Suponga que la desviación estándar 𝜎 es conocida y es igual a 30 horas.
El objetivo es encontrar un intervalo de confianza para la vida promedio útil 𝜇 de los
focos producidos por esta compañía. Para ello se toma una muestra de 20 focos y
mediante pruebas de laboratorio se determina la vida útil de cada uno de ellos. Los
resultados 𝑥1 , . . . , 𝑥20 arrojan una media muestral 𝑥̅ de 1050 horas.
Si consideramos un nivel de confianza del 95%, es decir, 𝛼 = 0.05, de la tabla de
“A un nivel de confianza 95% z=1,96” probabilidad normal se encuentra que 𝑍𝛼/2 = 𝑍0.025 = 1.96, y entonces puede ahora
calcularse el intervalo:
𝜎 𝜎 30 30
(𝑥̅ − 𝑍𝛼/2 , 𝑥̅ − 𝑍𝛼/2 ) = (1050 − 1.96 ∙ , 1050 + 1.96 ∙ )
√𝑛 √𝑛 20 20
= (1050 − 13.148, 1050 + 13.148) = (1036.852, 1063.148)
𝑥̅ − 𝜇
𝑡= ~𝑡(𝑛−1)
𝑆⁄
√𝑛
Puede estar un 99% seguro que las millas por galón promedio del auto es menor que el
mínimo de 27.5. Se le aconseja que busque otro modelo.
𝑛𝑆 2 𝑛𝑆 2
𝑃( 2 < 𝜎2 < 2 )= 1−𝛼
𝜒𝑛;1−𝛼/2 𝜒𝑛;𝛼/2
Se dice que dos variables aleatorias 𝑋 y 𝑌 son pareadas cuando los datos son tomados
“Dos variables aleatorias son pareadas por parejas de un solo individuo.
cuando los datos son tomados por parejas En los casos de muestras apareadas, el modo de proceder para obtener un intervalo de
de un solo individuo”
confianza para la diferencia de medias es considerar una única muestra formada por la
diferencia de los pares de valores, 𝐷𝑖 = 𝑌𝑖 − 𝑋𝑖 reduciendo así el problema a encontrar
un intervalo de confianza para la media de una población
𝑆 𝑆
̅ −𝑡1−𝛼/2
𝑃 (𝐷 ̅ −𝑡1−𝛼/2
< 𝜇2 − 𝜇1 < 𝐷 )= 1−𝛼
√𝑛 √𝑛
1202 802
𝐼0.95 (1400 − 1200 ± 1.96√ + ) = (177.8,222.2)
150 200
−1
𝑥̅ − 𝑦̅ − (𝜇2 − 𝜇1 ) 1 1
𝜎 (√𝑛 + 𝑛 )
1 2
~𝑡(𝑛1 +𝑛2−2)
(𝑛 − 1)𝑆 2 + (𝑛2 − 1)𝑆22
√ 1 2 1
𝜎 (𝑛1 + 𝑛2 − 2)
𝑆12 𝑆22
𝐼1−𝛼/2 (𝜇2 − 𝜇1 ) = (𝑥̅ − 𝑦̅ ± 𝑡(𝑎, 𝛼 √( + ))
1− )
2 𝑛1 𝑛2
4 Resumen
Dada una muestra aleatoria simple proveniente de una variable aleatoria 𝑿 con
función de densidad o masa de probabilidad 𝒇𝑿 (𝒙; 𝜽), el interés se centrará en
encontrar un método para calcular intervalos de confianza a partir de una función
de valores muestrales que contenga bajo un nivel de confianza dado, al parámetro,
con la condición de que su distribución no contenga al parámetro.
5 Referencias Bibliográficas
Miranda, I. E., Palacín, F., Sánchez, M. L., Márquez, M., Chía, A. R., Navas, A. S., y
otros. (3ra. Edición 2006). Estadística Descriptiva y Probabilidad. Cádiz: Servicio de
Publicaciones de la Universidad de Cádiz.
Montgomery, D., & R., R. (2da. Edición 2008). Probabilidad y Estadística Aplicada a la
Ingeniería. México: Limusa Wiley.
Walpole, R., Myers, R., & Myers, S. y. (2007). Probabilidad y Estadística para
Ingeniería y Ciencias. México: Pearson.
Intervalos de Confianza
para la Proporción e
Intervalo Aproximado
para la Media de una
Distribución Cualquiera
—
Índice
Objetivos
Aprender a usar el método asintótico para la consecución de intervalos de
confianza para la media.
Considérese una muestra aleatoria simple 𝑋 extraída de una población definida por una
variable aleatoria 𝑋, distribuida según una Bernoulli de parámetro 𝑝.
Si la variable aleatoria toma valores 0 y 1, el estimador de máxima verosimilitud del
“Si la variable aleatoria toma valores 0 y 1, el parámetro 𝑝 es:
estimador de máxima verosimilitud del 𝑛
1
parámetro p es: 𝑝̂ = ∑𝑛𝑖=1 𝑥𝑖 = 𝑥̅ ” 1
𝑛 𝑝̂ = ∑ 𝑥𝑖 = 𝑥̅
𝑛
𝑖=1
Con los supuestos distribucionales adecuados y utilizando una variación del Teorema
de Levy tenemos que:
𝑝̂ − 𝑝 𝑑
𝜋= → 𝑁(0,1)
√𝑝(1 − 𝑝)
𝑛
Lo que indica que esa cantidad 𝜋 converge en distribución a una normal estándar,
luego de este resultado se puede deducir un intervalo de confianza a través de una
aproximación y el resultado es como sigue:
𝑍1−𝛼
2
𝐼(1−𝛼/2) (𝑝̂ ) = (𝑝̂ ± √𝑝̂ (1 − 𝑝̂ ))
√𝑛
𝑑 𝑝1 (1 − 𝑝1 ) 𝑝2 (1 − 𝑝2 )
𝑝̂1 − 𝑝̂ 2 → 𝑁 (𝑝1 − 𝑝2 , √ + )
𝑛1 𝑛2
𝑝̂1 (1 − 𝑝̂1 ) 𝑝̂ 2 (1 − 𝑝̂ 2 )
𝐼(1−𝛼/2) (𝑝1 − 𝑝2 ) = (𝑝̂1 − 𝑝̂ 2 ± 𝑍1−𝛼/2 √ + )
𝑛1 𝑛2
Entonces para cualquier valor 𝜶 ∈ (𝟎, 𝟏) podemos encontrar un valor 𝒁𝜶/𝟐 en la tabla de la
normal tal que:
𝑥̅ − 𝜇
𝑃 (−𝑍𝛼/2 < 𝑠 < 𝑍𝛼/2 ) = 1 − 𝛼
⁄ 𝑛
√
3 Resumen
Los intervalos de confianza que presentan los textos básicos de estadística,
construidos con base en la aproximación mediante la normal, tienen un
desempeño pobre, pueden resultar intervalos que no tienen sentido o
intervalos con probabilidad de cobertura por debajo del nivel de confianza
nominal, especialmente cuando las muestras no son muy grandes.
4 Referencias Bibliográficas
Miranda, I. E., Palacín, F., Sánchez, M. L., Márquez, M., Chía, A. R., Navas, A. S., y
otros. (3ra. Edición 2006). Estadística Descriptiva y Probabilidad. Cádiz: Servicio de
Publicaciones de la Universidad de Cádiz.
Montgomery, D., & R., R. (2da. Edición 2008). Probabilidad y Estadística Aplicada a la
Ingeniería. México: Limusa Wiley.
Walpole, R., Myers, R., & Myers, S. y. (2007). Probabilidad y Estadística para
Ingeniería y Ciencias. México: Pearson.
Hipótesis Estadística
—
Índice
1 Introducción ............................................................................................................................................................ 3
2 Conceptos Básicos ............................................................................................................................................. 3
2.1 Hipótesis Estadística................................................................................................................ 3
2.2 Tipos de Hipótesis .................................................................................................................... 3
2.2.1 Hipótesis simple ......................................................................................................... 3
2.2.2 Hipótesis compuesta............................................................................................... 4
2.3 Prueba de Hipótesis ................................................................................................................ 4
2.4 Tipos de Errores ......................................................................................................................... 4
2.5 Región Crítica y Nivel de Significación ......................................................................... 5
3 Pruebas para la Media de una Distribución Normal........................................................................ 5
3.1 Prueba de Dos Colas para µ .............................................................................................. 6
3.2 Pruebas de Una Cola para µ ............................................................................................... 7
4 Resumen .................................................................................................................................................................. 8
5 Referencias Bibliográficas ............................................................................................................................. 8
Objetivos
Objetivo 1: Analizar el mínimo nivel de incertidumbre.
1 Introducción
En esta unidad de aprendizaje analizaremos uno de los objetivos fundamentales en un
estudio estadístico para determinar el mínimo nivel de incertidumbre a través de los
conceptos básicos y aplicación de pruebas de hipótesis.
Esto se hace con el fin de encontrar herramientas útiles a la hora de tomar decisiones
acerca de una sospecha o duda razonable que se tenga en un estudio de investigación.
Nuestro interés se centrará entonces en la construcción de estadísticas de prueba
pertenecientes a una determinada distribución para luego compararla con valores de la
tabla en una distribución conocida y mirar si se rechaza o no cierta hipótesis de interés.
2 Conceptos Básicos
En casos donde se tengan experimentos con múltiples resultados basados en eventos
“Cuando se tengan experimentos con aleatorios y la finalidad sea la toma de una decisión, es de mayor interés el buen
múltiples resultados basados en eventos planteamiento de una hipótesis. Con base a esto, la estrategia natural es decidirse por uno
aleatorios y la finalidad sea la toma de
de los experimentos en cuestión. Así el establecimiento de la regla de decisión delimitara la
una decisión, conviene el planteamiento
de una hipótesis”
región de rechazo y con ello las probabilidades de errores a la hora de la toma de
decisiones.
“Esquema para la teoría de las pruebas 𝐻0: Hipótesis nula vs 𝐻1: Hipótesis Alternativa
de hipótesis”
En donde las hipótesis nula y alternativa pueden ser simples o compuestas.
Una prueba de hipótesis es una regla para decidir si no se rechaza la hipótesis nula o se
“La prueba de hipótesis ayuda a decidir
rechaza en favor de la hipótesis alternativa.
si no se rechaza la hipótesis nula o si se
Nótese que no está bien afirmar “se acepta la hipótesis nula” debido a que se hace es
rechaza en favor de la hipótesis
alternativa” una conclusión con base a la información que se extrae de la muestra, en consecuencia
lo que se tiene es que la muestra seleccionada no arroja información suficiente para
rechazar la hipótesis nula, teniendo en cuenta que todo depende de la calidad de la
muestra y de los errores de muestreo.
𝐻0 Cierta 𝐻0 Falsa
variable 𝒁 sea grande. Es por ello que tomamos como criterio de decisión rechazar 𝑯𝟎
cuando |𝒁| ≥ 𝒌, para cierta constante 𝒌.
¿Cómo encontramos el número 𝒌? En una tabla de la distribución normal podemos
encontrar un valor 𝒛𝜶/𝟐 tal que 𝑷(|𝒁| ≥ 𝒛𝜶/𝟐 ) = 𝜶, en donde 𝜶 lo determina la persona que
lleva a cabo la prueba de hipótesis, típicamente 𝜶 = 𝟎. 𝟏. Véase el Gráfico 1. Este valor 𝒛𝜶/𝟐
es precisamente la constante 𝒌 buscada pues con ello se logra que la región de rechazo
sea de tamaño 𝜶.
A la variable aleatoria 𝒁 se le llama la estadística de la prueba, y la prueba se denomina
prueba de dos colas pues la región de rechazo consta de las dos colas de la distribución
normal que se muestran en el Gráfico 1.
Llevar a cabo esta prueba de hipótesis consiste en usar los datos de la muestra para
encontrar el valor de 𝒁, |𝒁| ≥ 𝒛𝜶/𝟐, entonces se rechaza 𝑯𝟎, en caso contrario no se rechaza
𝑯𝟎. Similarmente se definen las pruebas a cola inferior y superior para valores extremos.
Para probar esta hipótesis en primera instancia se tiene en cuenta que existen dos
“Suponemos dos zonas de rechazo para zonas de rechazo en ambas colas como se muestra en el Gráfico 1 y en segunda
probar esta hipótesis”
instancia se calcula el estadístico de prueba 𝑍 y se compara con los valores críticos 𝑍
en la tabla, así tenemos que el valor en mención viene dado por:
𝑥̅ − 𝜇𝐻
𝑍= 𝜎
⁄ 𝑛
√
Ahora comparando 𝑍 con los valores críticos de 𝑧 de la tabla que son ±1.96. La regla de
decisión sería: no se rechaza la hipótesis nula sí −1.96 ≤ 𝑍 ≤ 1.96. Se rechaza si 𝑍 <
−1.96 o 𝑍 > 1.96.
Luego como 𝑍 = 2.91 > 1.96 se rechaza la hipótesis nula a un nivel de significancia del
5% en favor de la hipótesis alternativa.
En contraste con el anterior caso, en este solo se está interesado en una de las dos
colas de la distribución. Como se muestra en los Gráficos 2 y 3 respectivamente.
Ejemplo 4: En una reunión informativa para una oficina corporativa, el gerente de un
importante hotel, reporto que el número promedio de habitaciones alquiladas por
noche es de por lo menos 212. Uno de los funcionarios corporativos cree que esta cifra
puede estar sobreestimada. Una muestra de 150 noches produce una media de 201.3
habitaciones y una desviación estándar de 45.5 habitaciones. Si estos resultados
sugieren que el gerente ha inflado su reporte, será amonestado severamente. A un
nivel del 1% ¿Cuál es el destino del gerente?
La afirmación del gerente de que 𝜇 ≥ 212 lleva el signo igual y por tanto se toma la
siguiente hipótesis nula
Luego
201.3 − 212
𝑍= = −2.88
45.5
√150
4 Resumen
En casos donde se tengan experimentos con múltiples resultados basados en
eventos aleatorios y la finalidad sea la toma de una decisión, es de mayor
interés, el buen planteamiento de una hipótesis.
5 Referencias Bibliográficas
Miranda, I. E., Palacín, F., Sánchez, M. L., Márquez, M., Chía, A. R., Navas, A. S., y
otros. (3ra. Edición 2006). Estadística Descriptiva y Probabilidad. Cádiz: Servicio de
Publicaciones de la Universidad de Cádiz.
Montgomery, D., & R., R. (2da. Edición 2008). Probabilidad y Estadística Aplicada a la
Ingeniería. México: Limusa Wiley.
Walpole, R., Myers, R., & Myers, S. y. (2007). Probabilidad y Estadística para
Ingeniería y Ciencias. México: Pearson.
Interpretación de
P.Valores y Estudio de
Hipótesis en Dos
Poblaciones
—
Índice
1 P Valores y su Interpretación........................................................................................................................ 3
2 Pruebas para Muestras consideradas Pequeñas .............................................................................. 3
3 Pruebas para la Proporción ........................................................................................................................... 4
4 Prueba de Hipótesis en Dos Poblaciones ............................................................................................. 5
4.1 Prueba de Hipótesis para la Diferencia de Medias ............................................... 5
4.2 Pruebas con Muestras consideras Pequeñas .......................................................... 5
4.3 Pruebas de Hipótesis para Muestras Pareadas ....................................................... 5
4.4 Prueba de Diferencias para Dos Proporciones ....................................................... 6
5 Resumen ................................................................................................................................................................... 7
6 Referencias Bibliográficas .............................................................................................................................. 7
Objetivos
Objetivo 1: Conocer la interpretación de p valores.
1 P Valores y su Interpretación
El p valor para una prueba es la probabilidad de obtener resultados muestrales a lo menos
tan extremos como los que se obtuvieron dado que la hipótesis nula es verdadera. Se
encuentra de la misma manera que el área de la cola, que va más allá de valor del
estadístico para la muestra.
En la practica el p valor es el nivel más bajo de significancia al cual se puede rechazar la
“El p valor es el nivel más bajo de hipótesis nula. Es el área en la cola que está más allá del valor del estadístico para la prueba.
significancia al cual se puede rechazar a Ejemplo 5: Un jefe de personal a partir de un breve análisis de los registros de los
hipótesis nula”
empleados, cree que puede afirmar que los empleados tienen un promedio de más de
31000 dólares americanos en sus cuentas de pensión. Al tomar una muestra de 100
empleados, el jefe de personal encuentra una media de 31366, con una desviación estándar
de 1894. Luego el contraste viene dado por:
𝐻0 : 𝜇 ≤ 31000 vs 𝐻1 : 𝜇 > 31000
En conclusión
Si se tomara un nivel de significancia 𝜶 = 𝟎. 𝟎𝟓 , se tiene que 𝟎. 𝟎𝟐𝟔𝟖 < 𝟎. 𝟎𝟓 lo que
indica que cae en zona de rechazo de la hipótesis nula.
Si se tomara un nivel de significancia 𝜶 = 𝟎. 𝟎𝟏 , se tiene que 𝟎. 𝟎𝟐𝟔𝟖 > 𝟎. 𝟎𝟏 lo que
indica que cae en zona de no rechazo de la hipótesis nula.
Así, la comparación ahora se hace con un valor 𝒕(𝒏−𝟏) de la tabla a un nivel de significancia 𝜶
deseado con la misma regla de decisión.
El error estándar es
0.60(1 − 0.60)
𝜎𝑝 = √ = 0.017
800
Entonces,
0.615 − 0.60
𝑍= = 0.88
0.017
En donde 𝑠𝑥̅1−𝑥̅2 es el error estándar estimado para las diferencias de medias en las
medias muestrales.
Así la regla de decisión es: No rechazar si 𝒁 está entre ±𝟏. 𝟗𝟔. Rechazar si 𝒁 es menor que
𝟏. 𝟗𝟔 o más que 𝟏. 𝟗𝟔.
En este caso 𝜎12 = 𝜎22 son desconocidas pero iguales. Además tenemos
(𝑥̅1 − 𝑥̅ 2 ) − (𝜇1 − 𝜇2 )
𝑍=
𝑆12 𝑆22
√
𝑛1 + 𝑛2
En este caso 𝝈𝟐𝟏 ≠ 𝝈𝟐𝟐 son desconocidas pero diferentes y la regla de decisión es: No
rechazar si 𝒕 esta entre ±𝟐. 𝟓𝟐𝟖. En otro caso se rechaza.
Para las muestras tomadas de a pares por individuo, se tiene que al igual que en el caso
de una población se calculan las diferencias y se tiene el siguiente estadístico de
prueba:
𝑑̅ − (𝜇1 − 𝜇2 )
𝑡=
𝑆𝑑
√𝑛
Como hemos visto a través del desarrollo de la unidad de aprendizaje es de sumo interés el
“Es de sumo interés el cálculo de una cálculo de una proporción. De manera similar es de gran interés el estadístico que dicte, si
proporción” existe o no diferencia entre algún par de ellas.
Así siguiendo la lógica de desarrollo de los cálculos en una población, se hace el cálculo
ahora para dos poblaciones tomando como base en el siguiente estadístico de prueba:
(𝑝1 − 𝑝2 ) − (𝜋1 − 𝜋2 )
𝑍=
𝑆𝑝1−𝑝2
Hombres Mujeres
𝑥̅ = 4.9 ℎ
𝑥̅ = 3.5 ℎ
𝑠 = 1.5 ℎ
𝑠 = 0.9 ℎ
(0.9)2 (1.5)2
𝑆𝑥̅1−𝑥̅2 = √ + = 0.257
50 45
Luego
(3.5 − 4.9) − 0
𝑍= = −5.45
0.257
Debido a que 𝒁 = −𝟓. 𝟒𝟓 < −𝟏. 𝟗𝟔 a un nivel 𝜶 = 𝟎. 𝟎𝟓. Se rechaza la hipótesis nula.
Ejemplo 8: Un comerciante de menudeo quiere probar la hipótesis de que sus clientes
hombres, quienes compran a crédito, son iguales en proporción a las mujeres que también
compran a crédito. Selecciona una muestra de 100 hombres y encuentra que 57 de ellos
compran a crédito, en contraste solo 52 de las 110 mujeres seleccionadas compran por
medio del crédito. Entonces de acuerdo a lo anterior tenemos que:
(0.57)(0.43) (0.527)(0.473)
𝑆𝑝1−𝑝2 = √ + = 0.069
100 110
Con lo que se concluye que, debido a que 𝒁 está entre ±𝟐. 𝟓𝟖 no se puede rechazar la
hipótesis nula con un nivel 𝜶 = 𝟎. 𝟎𝟏 y por tanto el minorista no puede concluir que las
proporciones de compras entre mujeres y hombres son diferentes.
5 Resumen
El p valor para una prueba es la probabilidad de obtener resultados muestrales
a lo menos tan extremos como los que se obtuvieron dado que la hipótesis
nula es verdadera.
6 Referencias Bibliográficas
Miranda, I. E., Palacín, F., Sánchez, M. L., Márquez, M., Chía, A. R., Navas, A. S., y
otros. (3ra. Edición 2006). Estadística Descriptiva y Probabilidad. Cádiz: Servicio de
Publicaciones de la Universidad de Cádiz.
Montgomery, D., & R., R. (2da. Edición 2008). Probabilidad y Estadística Aplicada a la
Ingeniería. México: Limusa Wiley.
Walpole, R., Myers, R., & Myers, S. y. (2007). Probabilidad y Estadística para
Ingeniería y Ciencias. México: Pearson.
Análisis de Varianza
—
Índice
1 Introducción ............................................................................................................................................................ 3
2 Conceptos Básicos ............................................................................................................................................. 3
2.1 Unidad Experimental............................................................................................................... 3
2.2 Tratamientos ................................................................................................................................ 3
2.3 Factor ............................................................................................................................................... 3
2.4 Nivel del factor ........................................................................................................................... 3
2.5 Replicación.................................................................................................................................... 4
2.6 Modelo Asociado a los Datos ............................................................................................ 4
2.7 Modelo de Efectos Fijos ....................................................................................................... 4
2.8 Modelo de Efectos Aleatorios ........................................................................................... 4
3 Análisis del Modelo de Efectos Fijos ....................................................................................................... 4
3.1 Análisis de Varianza de un Solo Factor ........................................................................ 5
3.2 Descomposición de las Sumas de Cuadrados Total........................................... 6
3.3 Análisis Estadístico: Diseño Completamente Aleatorizado (DCA) ................ 7
4 Resumen ................................................................................................................................................................ 10
5 Referencias Bibliográficas ........................................................................................................................... 10
Objetivos
Objetivo 1: Aplicación de la estadística a un número de poblaciones objeto mayor
a dos.
1 Introducción
En las anteriores unidades de aprendizaje observamos los distintos métodos de
estimación en el caso que se tuvieran dos poblaciones. Esta inferencia basada tanto en
los intervalos de confianza como en las pruebas de hipótesis se limita al estudio de
máximo dos poblaciones.
2 Conceptos Básicos
Son los elementos sobre los cuales se hacen las mediciones y a los cuales un
tratamiento puede ser asignado.
2.2 Tratamientos
2.3 Factor
Es una variable experimental que posee la cualidad de ser controlable y que se cree
influyente en la respuesta.
2.5 Replicación
Es aquel en el cual los tratamientos son fijados de antemano para el estudio de interés.
“En el modelo de efectos fijos los
tratamientos son fijados de antemano
2.8 Modelo de Efectos Aleatorios
mientras que en el modelo de efectos
aleatorios los tratamientos son escogidos
Es aquel en el cual los tratamientos son escogidos de manera aleatoria para el estudio
de manera aleatoria”
de interés.
Como hemos visto, estos modelos de análisis de varianza se utilizan con el interés de
evidenciar las diferencias entre niveles de un factor. Así, para un modelo de efectos fijos:
𝑦𝑖𝑗 = 𝜇 + 𝜏𝑖 + 𝜀𝑖
Nivel de formación
𝑦12 𝑦22
𝑦12
Donde los unos y ceros son los valores de la variable dicótoma que indica la pertenecía o
no al nivel del factor de la observación.
El objetivo es comparar los efectos medios de los 𝑎 niveles de los tratamientos sobre las
“El objetivo del análisis de varianza de un
𝑛 observaciones de una variable, como se muestra en la siguiente tabla:
solo factor es comparar los efectos medios
de los α niveles de tratamientos sobre las n
observaciones de una variable”
Tratamiento
Observaciones Totales Medias
(Nivel)
Ahora se pueden definir las cantidades del arreglo correspondiente al diseño para la
elaboración de una ANAVA (Análisis de varianza), entonces veamos que:
𝑛
𝑦𝑖. = ∑ 𝑦𝑖𝑗
𝑗=1
Donde 𝑦̅.. representa el gran promedio de todas las observaciones o la llamada media
general común a todos los datos en la muestra y 𝑁 = 𝑎𝑛.
El interés se centra entonces en probar la siguiente hipótesis
𝐻0 : 𝜇1 = 𝜇2 = ⋯ = 𝜇𝑛
El nombre de análisis de varianza, viene del origen etimológico de análisis, que es soltar
o descomponer las cosas para ver cómo funcionan.
Para un mejor entendimiento de cada componente de varianza se examinan por
separado, ya que esta se puede descomponer por tener grupos de observaciones
pertenecientes a cada tratamiento, lo que da lugar a las diferencias entre los tratamientos y
dentro de los tratamientos como veremos entonces la descomposición de la
variabilidad total queda como sigue.
Que se usa como medida de la variabilidad debida a los errores y determina así mismo
la cantidad de información que no explica el modelo.
𝑎
Que se usa como medida de la variabilidad debida a los tratamientos y determina así
mismo la cantidad de información que es explicada por el modelo.
Grados
De Suma de Cuadrados
Fuente de variación F calculado
libertad Cuadrados Medios
Tabla 3: Tabla ANAVA para el modelo con un factor del modelo de efectos fijos
Donde
𝑆𝑆𝑇𝑟𝑎𝑡𝑎𝑚𝑖𝑒𝑛𝑡𝑜𝑠
𝑀𝑆𝑇𝑟𝑎𝑡𝑎𝑚𝑖𝑒𝑛𝑡𝑜𝑠 =
𝑎−1
Y
𝑆𝑆𝐸
𝑀𝑆𝐸 =
𝑁−𝑎
Se les llama cuadrados medios. Ahora bajo el supuesto de que la hipótesis nula es
cierta, el cociente:
𝑆𝑆𝑇𝑟𝑎𝑡𝑎𝑚𝑖𝑒𝑛𝑡𝑜𝑠 /(𝑎 − 1)
𝐹0 =
𝑆𝑆𝐸 /(𝑁 − 𝑎)
𝐹0 > 𝐹𝛼,𝑎−1,𝑁−𝑎
Temperatura Densidad
Total 15 0.484375
4 Resumen
Es lógico pretender determinar la existencia o ausencia de diferencias entre las
medias de las poblaciones a través de la metodología del análisis de varianza.
5 Referencias Bibliográficas
Miranda, I. E., Palacín, F., Sánchez, M. L., Márquez, M., Chía, A. R., Navas, A. S., y
otros. (3ra. Edición 2006). Estadística Descriptiva y Probabilidad. Cádiz: Servicio de
Publicaciones de la Universidad de Cádiz.
Montgomery, D., & R., R. (2da. Edición 2008). Probabilidad y Estadística Aplicada a la
Ingeniería. México: Limusa Wiley.
Walpole, R., Myers, R., & Myers, S. y. (2007). Probabilidad y Estadística para
Ingeniería y Ciencias. México: Pearson.
Índice
Objetivos
Objetivo 1: Comprender el significado de los datos no balanceados.
Objetivo 2: Entender que las variables escogidas son las que tienen que estar
en el modelo, además de los supuestos de normalidad homogeneidad de
varianza y autocorrelación de los errores.
Y
𝑎
𝑦𝑖.2 𝑦..2
𝑆𝑆𝑇𝑟𝑎𝑡𝑎𝑚𝑖𝑒𝑛𝑡𝑜𝑠 = ∑ −
𝑛𝑖 𝑁
𝑖=1
Otro procedimiento son unas pruebas formales acogidas como estándar para la
verificación del supuesto. Estas pruebas ya vienen programadas en paquetes de
software estadístico, sin embargo existen textos guías que anexan sus valores
tabulados. Debido a la no pertinencia de su aplicación a éste por ser de tipo
introductorio, solo se mencionaran sus nombres. Las pruebas más conocidas son:
Prueba de Kolmogorov Smirnof y la Prueba de Shapiro Wilks.
Existen varias pruebas formales que ayudan según su aplicación bajo ciertas
características a la detección de heterocedasticidad en la varianza algunas de
ellas son: Prueba de Bartlett, Prueba de Goldfeld – Quandt, Prueba de Breusch
– Pagan y la Prueba de White.
2.3 Autocorrelación
3 Resumen
Existen algunos casos en que los experimentos con un solo factor contienen
distinto número de observaciones por cada nivel del factor. Se dice entonces de
un diseño no balanceado.
4 Referencias Bibliográficas
Miranda, I. E., Palacín, F., Sánchez, M. L., Márquez, M., Chía, A. R., Navas, A. S., y
otros. (3ra. Edición 2006). Estadística Descriptiva y Probabilidad. Cádiz: Servicio de
Publicaciones de la Universidad de Cádiz.
Montgomery, D., & R., R. (2da. Edición 2008). Probabilidad y Estadística Aplicada a la
Ingeniería. México: Limusa Wiley.
Walpole, R., Myers, R., & Myers, S. y. (2007). Probabilidad y Estadística para
Ingeniería y Ciencias. México: Pearson.