Sunteți pe pagina 1din 186

Introduccion a la

Inferencia Estadstica
Parte I
Por: Bulmaro Juarez Hernandez
Oto no de 2012
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 1 / 48
CONTENIDO DEL CURSO: ESTAD

ISTICA I

0. INTRODUCCI

ON

1. MUESTREO Y DISTRIBUCIONES MUESTRALES

1.1 Inferencia inductiva

1.2 Poblacion y muestra

1.3 Distribucion muestral

1.4 Estadsticas y momentos muestrales

1.5 Distribucion de la media muestral

1.6 Teorema Central del Lmite

1.7 Muestreo de la distribucion Normal

1.7.1 Papel de la distribuci on Normal en la Estadstica

1.7.2 La media muestral

1.7.3 La distribuci on ji-cuadrada

1.7.4 La distribuci on F de Snedecor

1.7.5 La distribuci on t de Student

1.8 Estadsticas de orden y su distribucion


Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 2 / 48

2. ESTIMACI

ON PARAM

ETRICA PUNTUAL

2.1 Inferencia Parametrica Clasica

2.2 Estimacion Puntual

2.2.1 Estimadores Consistentes

2.2.2 Estimadores Sucientes

2.2.3 Propiedad de Completes

2.2.4 Estimadores Ecientes

2.3 Metodos para Obtener Estimadores

2.3.1 Metodo de Momentos

2.3.2 Metodo de Maxima Verosimilitud


Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 3 / 48

3. ESTIMACI

ON POR INTERVALO

3.1 Metodo de la Cantidad Pivotal

3.1.1 Aplicaci on a Poblaciones Normales

3.1.1.1 Intervalos de Conanza para

3.1.1.2 Diferencia de Medias

3.1.1.3 Intervalo de Conanza para


2

3.1.1.4 Cocientes de Varianza

3.1.2 Intervalos para la Proporcion p

3.2 Metodo Estadstico


Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 4 / 48

4. PRUEBAS DE HIP

OTESIS

4.1 Hipotesis Nula y Alternativa

4.2 Hipotesis Simples y Compuestas

4.3 Tipo de Errores

4.4 Regiones Crticas. Tipo de Regiones Crticas

4.5 Mejores Pruebas. Pruebas Uniformemente Mas Potentes

4.6 Caso General

4.7 El valor .
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 5 / 48
BIBLIOGRAF

IA
1.- Canavos, George. Probabilidad y Estadstica; Mc. Graw-Hill Mexico,
D.F., 2da. Edicion, 1988.
2.- DeGroot, M. H. Probabilidad y Estadstica. Addison-Wesley
Iberoamericana, 1988.
3.- Dudewics, E. J. and Mishra, S. N. Modern Mathematical Statistics.
John Wiley & Sons, 1988.
4.- Kalbeisch J.G. Probability and Statistical Inference, Vol.II, Spriger
Verlag New York, 2nd. Edition, 1979.
5.- Mendenhall William, Scheaer Richard L., Wackely, D.D. Estadstica
Matematica con aplicaciones, Iberoamericana. 2da. Edicion, Mexico, D.F.,
1986.
6.- Meyer, Paul. Probabilidad y aplicaciones estadsticas; Fondo Editorial
Iberoamericana, Mexico, D.F., 1ra. Edicion, 1973.
7.- Navidi, William. Estadstica para Ingenieros; Mc Graw Hill;2006.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 6 / 48
0. INTRODUCCION
En estas notas se revisan de manera breve conceptos basicos sobre
inferencia estadstica, tales como, estimacion puntual, estimacion por
intervalo y pruebas de hipotesis estadsticas.
Comunmente, al termino estadstica se le relaciona con el calculo de
promedios, porcentajes, etc., y con la presentacion de datos en forma
tabular y graca.
Aunque las tecnicas para resumir y presentar los datos son importantes,
estas comprenden solo una parte de la estadstica, la Estadstica
Descriptiva;
la otra parte la constituye la inferencia estadstica, la cual se encarga de
analizar, y posteriormente inducir alg un conocimiento sobre una poblacion,
de la cual, los datos analizados son solo un subconjunto o muestra; esto es
el proceso va de lo parcial a lo general.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 7 / 48
0. INTRODUCCION
En estas notas se revisan de manera breve conceptos basicos sobre
inferencia estadstica, tales como, estimacion puntual, estimacion por
intervalo y pruebas de hipotesis estadsticas.
Comunmente, al termino estadstica se le relaciona con el calculo de
promedios, porcentajes, etc., y con la presentacion de datos en forma
tabular y graca.
Aunque las tecnicas para resumir y presentar los datos son importantes,
estas comprenden solo una parte de la estadstica, la Estadstica
Descriptiva;
la otra parte la constituye la inferencia estadstica, la cual se encarga de
analizar, y posteriormente inducir alg un conocimiento sobre una poblacion,
de la cual, los datos analizados son solo un subconjunto o muestra; esto es
el proceso va de lo parcial a lo general.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 7 / 48
0. INTRODUCCION
En estas notas se revisan de manera breve conceptos basicos sobre
inferencia estadstica, tales como, estimacion puntual, estimacion por
intervalo y pruebas de hipotesis estadsticas.
Comunmente, al termino estadstica se le relaciona con el calculo de
promedios, porcentajes, etc., y con la presentacion de datos en forma
tabular y graca.
Aunque las tecnicas para resumir y presentar los datos son importantes,
estas comprenden solo una parte de la estadstica, la Estadstica
Descriptiva;
la otra parte la constituye la inferencia estadstica, la cual se encarga de
analizar, y posteriormente inducir alg un conocimiento sobre una poblacion,
de la cual, los datos analizados son solo un subconjunto o muestra; esto es
el proceso va de lo parcial a lo general.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 7 / 48
0. INTRODUCCION
En estas notas se revisan de manera breve conceptos basicos sobre
inferencia estadstica, tales como, estimacion puntual, estimacion por
intervalo y pruebas de hipotesis estadsticas.
Comunmente, al termino estadstica se le relaciona con el calculo de
promedios, porcentajes, etc., y con la presentacion de datos en forma
tabular y graca.
Aunque las tecnicas para resumir y presentar los datos son importantes,
estas comprenden solo una parte de la estadstica, la Estadstica
Descriptiva;
la otra parte la constituye la inferencia estadstica, la cual se encarga de
analizar, y posteriormente inducir alg un conocimiento sobre una poblacion,
de la cual, los datos analizados son solo un subconjunto o muestra; esto es
el proceso va de lo parcial a lo general.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 7 / 48
La estadstica es una herramienta ampliamente utilizada en la
investigacion cientca. Se emplea en instituciones gubernamentales y
educativas, en los negocios y en la industria.
El empleo juicioso de las tecnicas estadsticas permite obtener conclusiones
utiles a partir de datos numericos.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 8 / 48
La estadstica es una herramienta ampliamente utilizada en la
investigacion cientca. Se emplea en instituciones gubernamentales y
educativas, en los negocios y en la industria.
El empleo juicioso de las tecnicas estadsticas permite obtener conclusiones
utiles a partir de datos numericos.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 8 / 48
1. MUESTREO Y DISTRIBUCIONES MUESTRALES
1.1 Inferencia Inductiva
El estudio del muestreo nos lleva a la teora de la estadstica propiamente
dicha, por lo que ahora se tratara de manera breve una rama importante
de la teora estadstica y de sus relaciones con el muestreo.
En esta epoca es claro que el progreso cientco esta estrechamente unido
a la experimentacion: as, el investigador realiza un experimento y obtiene
varios datos; sobre la base de estos datos se sacan ciertas conclusiones, y
estas conclusiones generalmente van mas alla de los materiales y
operaciones del experimento particular realizado. Es decir, puede ser que el
cientco generalice ciertas conclusiones del experimento particular a todas
las clase de experimentos semejantes.
Tal tipo de extension de lo particular a lo general se denomina
inferencia inductiva, y es un procedimiento para hallar nuevo
conocimiento cientco.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 9 / 48
1. MUESTREO Y DISTRIBUCIONES MUESTRALES
1.1 Inferencia Inductiva
El estudio del muestreo nos lleva a la teora de la estadstica propiamente
dicha, por lo que ahora se tratara de manera breve una rama importante
de la teora estadstica y de sus relaciones con el muestreo.
En esta epoca es claro que el progreso cientco esta estrechamente unido
a la experimentacion: as, el investigador realiza un experimento y obtiene
varios datos; sobre la base de estos datos se sacan ciertas conclusiones, y
estas conclusiones generalmente van mas alla de los materiales y
operaciones del experimento particular realizado. Es decir, puede ser que el
cientco generalice ciertas conclusiones del experimento particular a todas
las clase de experimentos semejantes.
Tal tipo de extension de lo particular a lo general se denomina
inferencia inductiva, y es un procedimiento para hallar nuevo
conocimiento cientco.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 9 / 48
1. MUESTREO Y DISTRIBUCIONES MUESTRALES
1.1 Inferencia Inductiva
El estudio del muestreo nos lleva a la teora de la estadstica propiamente
dicha, por lo que ahora se tratara de manera breve una rama importante
de la teora estadstica y de sus relaciones con el muestreo.
En esta epoca es claro que el progreso cientco esta estrechamente unido
a la experimentacion: as, el investigador realiza un experimento y obtiene
varios datos; sobre la base de estos datos se sacan ciertas conclusiones, y
estas conclusiones generalmente van mas alla de los materiales y
operaciones del experimento particular realizado. Es decir, puede ser que el
cientco generalice ciertas conclusiones del experimento particular a todas
las clase de experimentos semejantes.
Tal tipo de extension de lo particular a lo general se denomina
inferencia inductiva, y es un procedimiento para hallar nuevo
conocimiento cientco.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 9 / 48
1. MUESTREO Y DISTRIBUCIONES MUESTRALES
1.1 Inferencia Inductiva
El estudio del muestreo nos lleva a la teora de la estadstica propiamente
dicha, por lo que ahora se tratara de manera breve una rama importante
de la teora estadstica y de sus relaciones con el muestreo.
En esta epoca es claro que el progreso cientco esta estrechamente unido
a la experimentacion: as, el investigador realiza un experimento y obtiene
varios datos; sobre la base de estos datos se sacan ciertas conclusiones, y
estas conclusiones generalmente van mas alla de los materiales y
operaciones del experimento particular realizado. Es decir, puede ser que el
cientco generalice ciertas conclusiones del experimento particular a todas
las clase de experimentos semejantes.
Tal tipo de extension de lo particular a lo general se denomina
inferencia inductiva, y es un procedimiento para hallar nuevo
conocimiento cientco.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 9 / 48
1. MUESTREO Y DISTRIBUCIONES MUESTRALES
1.1 Inferencia Inductiva
El estudio del muestreo nos lleva a la teora de la estadstica propiamente
dicha, por lo que ahora se tratara de manera breve una rama importante
de la teora estadstica y de sus relaciones con el muestreo.
En esta epoca es claro que el progreso cientco esta estrechamente unido
a la experimentacion: as, el investigador realiza un experimento y obtiene
varios datos; sobre la base de estos datos se sacan ciertas conclusiones, y
estas conclusiones generalmente van mas alla de los materiales y
operaciones del experimento particular realizado. Es decir, puede ser que el
cientco generalice ciertas conclusiones del experimento particular a todas
las clase de experimentos semejantes.
Tal tipo de extension de lo particular a lo general se denomina
inferencia inductiva, y es un procedimiento para hallar nuevo
conocimiento cientco.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 9 / 48
Es bien sabido que la inferencia inductiva constituye un proceso
arriesgado, ya que, es un teorema de logica que toda inferencia inductiva
exacta es imposible.
Una generalizacion perfectamente valida no puede hacerse; sin embargo,
s cabe hacer inferencias inseguras, en las que el grado de incertidumbre es
susceptible de medicion si el experimento ha sido realizado de acuerdo a
determinados principios.
Una de las misiones de la estadstica consiste en obtener tecnicas para
efectuar inferencias inductivas y para medir el grado de incertidumbre de
tales inferencias.
La medida de la incertidumbre se expresa en terminos de probabilidad,
siendo esta la razon por la que se ha dedicado tanto tiempo al estudio y
comprension de la probabilidad.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 10 / 48
Es bien sabido que la inferencia inductiva constituye un proceso
arriesgado, ya que, es un teorema de logica que toda inferencia inductiva
exacta es imposible.
Una generalizacion perfectamente valida no puede hacerse; sin embargo,
s cabe hacer inferencias inseguras, en las que el grado de incertidumbre es
susceptible de medicion si el experimento ha sido realizado de acuerdo a
determinados principios.
Una de las misiones de la estadstica consiste en obtener tecnicas para
efectuar inferencias inductivas y para medir el grado de incertidumbre de
tales inferencias.
La medida de la incertidumbre se expresa en terminos de probabilidad,
siendo esta la razon por la que se ha dedicado tanto tiempo al estudio y
comprension de la probabilidad.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 10 / 48
Es bien sabido que la inferencia inductiva constituye un proceso
arriesgado, ya que, es un teorema de logica que toda inferencia inductiva
exacta es imposible.
Una generalizacion perfectamente valida no puede hacerse; sin embargo,
s cabe hacer inferencias inseguras, en las que el grado de incertidumbre es
susceptible de medicion si el experimento ha sido realizado de acuerdo a
determinados principios.
Una de las misiones de la estadstica consiste en obtener tecnicas para
efectuar inferencias inductivas y para medir el grado de incertidumbre de
tales inferencias.
La medida de la incertidumbre se expresa en terminos de probabilidad,
siendo esta la razon por la que se ha dedicado tanto tiempo al estudio y
comprension de la probabilidad.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 10 / 48
Es bien sabido que la inferencia inductiva constituye un proceso
arriesgado, ya que, es un teorema de logica que toda inferencia inductiva
exacta es imposible.
Una generalizacion perfectamente valida no puede hacerse; sin embargo,
s cabe hacer inferencias inseguras, en las que el grado de incertidumbre es
susceptible de medicion si el experimento ha sido realizado de acuerdo a
determinados principios.
Una de las misiones de la estadstica consiste en obtener tecnicas para
efectuar inferencias inductivas y para medir el grado de incertidumbre de
tales inferencias.
La medida de la incertidumbre se expresa en terminos de probabilidad,
siendo esta la razon por la que se ha dedicado tanto tiempo al estudio y
comprension de la probabilidad.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 10 / 48
Inferencia Deductiva
Mientras que las conclusiones obtenidas por inferencia inductiva son solo
probables, las obtenidas por inferencia deductiva son concluyentes.
Para dar un ejemplo de inferencia deductiva, consideremos las dos
siguientes armaciones:
1. Uno de los angulos interiores de todo triangulo rectangulo es igual a 90

.
2. El triangulo A es un triangulo rectangulo.
Si aceptamos estas armaciones, llegamos necesariamente a la conclusion:
3. Uno de los angulos del triangulo A es igual a 90

.
Este es un ejemplo de inferencia deductiva, la cual puede describirse como
un metodo de deducir informacion (armacion 3) a partir de hechos
aceptados (armaciones 1 y 2). A la armacion 1, se le llama premisa
mayor; a la armacion 2, premisa menor, y a la armacion 3, conclusion.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 11 / 48
Inferencia Deductiva
Mientras que las conclusiones obtenidas por inferencia inductiva son solo
probables, las obtenidas por inferencia deductiva son concluyentes.
Para dar un ejemplo de inferencia deductiva, consideremos las dos
siguientes armaciones:
1. Uno de los angulos interiores de todo triangulo rectangulo es igual a 90

.
2. El triangulo A es un triangulo rectangulo.
Si aceptamos estas armaciones, llegamos necesariamente a la conclusion:
3. Uno de los angulos del triangulo A es igual a 90

.
Este es un ejemplo de inferencia deductiva, la cual puede describirse como
un metodo de deducir informacion (armacion 3) a partir de hechos
aceptados (armaciones 1 y 2). A la armacion 1, se le llama premisa
mayor; a la armacion 2, premisa menor, y a la armacion 3, conclusion.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 11 / 48
Inferencia Deductiva
Mientras que las conclusiones obtenidas por inferencia inductiva son solo
probables, las obtenidas por inferencia deductiva son concluyentes.
Para dar un ejemplo de inferencia deductiva, consideremos las dos
siguientes armaciones:
1. Uno de los angulos interiores de todo triangulo rectangulo es igual a 90

.
2. El triangulo A es un triangulo rectangulo.
Si aceptamos estas armaciones, llegamos necesariamente a la conclusion:
3. Uno de los angulos del triangulo A es igual a 90

.
Este es un ejemplo de inferencia deductiva, la cual puede describirse como
un metodo de deducir informacion (armacion 3) a partir de hechos
aceptados (armaciones 1 y 2). A la armacion 1, se le llama premisa
mayor; a la armacion 2, premisa menor, y a la armacion 3, conclusion.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 11 / 48
Inferencia Deductiva
Mientras que las conclusiones obtenidas por inferencia inductiva son solo
probables, las obtenidas por inferencia deductiva son concluyentes.
Para dar un ejemplo de inferencia deductiva, consideremos las dos
siguientes armaciones:
1. Uno de los angulos interiores de todo triangulo rectangulo es igual a 90

.
2. El triangulo A es un triangulo rectangulo.
Si aceptamos estas armaciones, llegamos necesariamente a la conclusion:
3. Uno de los angulos del triangulo A es igual a 90

.
Este es un ejemplo de inferencia deductiva, la cual puede describirse como
un metodo de deducir informacion (armacion 3) a partir de hechos
aceptados (armaciones 1 y 2). A la armacion 1, se le llama premisa
mayor; a la armacion 2, premisa menor, y a la armacion 3, conclusion.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 11 / 48
Inferencia Deductiva
Mientras que las conclusiones obtenidas por inferencia inductiva son solo
probables, las obtenidas por inferencia deductiva son concluyentes.
Para dar un ejemplo de inferencia deductiva, consideremos las dos
siguientes armaciones:
1. Uno de los angulos interiores de todo triangulo rectangulo es igual a 90

.
2. El triangulo A es un triangulo rectangulo.
Si aceptamos estas armaciones, llegamos necesariamente a la conclusion:
3. Uno de los angulos del triangulo A es igual a 90

.
Este es un ejemplo de inferencia deductiva, la cual puede describirse como
un metodo de deducir informacion (armacion 3) a partir de hechos
aceptados (armaciones 1 y 2). A la armacion 1, se le llama premisa
mayor; a la armacion 2, premisa menor, y a la armacion 3, conclusion.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 11 / 48
Inferencia Deductiva
Mientras que las conclusiones obtenidas por inferencia inductiva son solo
probables, las obtenidas por inferencia deductiva son concluyentes.
Para dar un ejemplo de inferencia deductiva, consideremos las dos
siguientes armaciones:
1. Uno de los angulos interiores de todo triangulo rectangulo es igual a 90

.
2. El triangulo A es un triangulo rectangulo.
Si aceptamos estas armaciones, llegamos necesariamente a la conclusion:
3. Uno de los angulos del triangulo A es igual a 90

.
Este es un ejemplo de inferencia deductiva, la cual puede describirse como
un metodo de deducir informacion (armacion 3) a partir de hechos
aceptados (armaciones 1 y 2). A la armacion 1, se le llama premisa
mayor; a la armacion 2, premisa menor, y a la armacion 3, conclusion.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 11 / 48
Inferencia Deductiva
Mientras que las conclusiones obtenidas por inferencia inductiva son solo
probables, las obtenidas por inferencia deductiva son concluyentes.
Para dar un ejemplo de inferencia deductiva, consideremos las dos
siguientes armaciones:
1. Uno de los angulos interiores de todo triangulo rectangulo es igual a 90

.
2. El triangulo A es un triangulo rectangulo.
Si aceptamos estas armaciones, llegamos necesariamente a la conclusion:
3. Uno de los angulos del triangulo A es igual a 90

.
Este es un ejemplo de inferencia deductiva, la cual puede describirse como
un metodo de deducir informacion (armacion 3) a partir de hechos
aceptados (armaciones 1 y 2). A la armacion 1, se le llama premisa
mayor; a la armacion 2, premisa menor, y a la armacion 3, conclusion.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 11 / 48
Inferencia Deductiva
Mientras que las conclusiones obtenidas por inferencia inductiva son solo
probables, las obtenidas por inferencia deductiva son concluyentes.
Para dar un ejemplo de inferencia deductiva, consideremos las dos
siguientes armaciones:
1. Uno de los angulos interiores de todo triangulo rectangulo es igual a 90

.
2. El triangulo A es un triangulo rectangulo.
Si aceptamos estas armaciones, llegamos necesariamente a la conclusion:
3. Uno de los angulos del triangulo A es igual a 90

.
Este es un ejemplo de inferencia deductiva, la cual puede describirse como
un metodo de deducir informacion (armacion 3) a partir de hechos
aceptados (armaciones 1 y 2). A la armacion 1, se le llama premisa
mayor; a la armacion 2, premisa menor, y a la armacion 3, conclusion.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 11 / 48
Aunque la inferencia deductiva es extremadamente importante, muchos de
los nuevos conocimientos del mundo real se han adquirido por el proceso
de inferencia inductiva.
En las ciencias matematicas, por ejemplo, la inferencia deductiva se utiliza
para demostrar teoremas, mientras que en las ciencias empricas se emplea
la inferencia inductiva para hallar nuevos conocimientos.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 12 / 48
Aunque la inferencia deductiva es extremadamente importante, muchos de
los nuevos conocimientos del mundo real se han adquirido por el proceso
de inferencia inductiva.
En las ciencias matematicas, por ejemplo, la inferencia deductiva se utiliza
para demostrar teoremas, mientras que en las ciencias empricas se emplea
la inferencia inductiva para hallar nuevos conocimientos.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 12 / 48
Ilustraremos la inferencia inductiva con un ejemplo.
Imaginemos un almacen que contiene 10 millones de semillas, las cuales
sabemos que producen plantas con ores blancas o rojas.
La informacion que se desea obtener es:
Cuantas de estos 10 millones de semillas (o que porcentaje) produciran
ores blancas?
La unica manera de estar seguros de dar una respuesta correcta a esta
pregunta es plantar todas las semillas y observar el n umero de las que
producen ores blancas.
Sin embargo, esto no es posible, pues se desea vender las semillas; a un
cuando no se quisiera vender las semillas, se preferira obtener una
respuesta sin invertir tanto esfuerzo, naturalmente, sin plantar todas las
semillas y observar el color de la or producida por cada una, no podemos
conocer con certeza el n umero de semillas que producen ores blancas.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 13 / 48
Ilustraremos la inferencia inductiva con un ejemplo.
Imaginemos un almacen que contiene 10 millones de semillas, las cuales
sabemos que producen plantas con ores blancas o rojas.
La informacion que se desea obtener es:
Cuantas de estos 10 millones de semillas (o que porcentaje) produciran
ores blancas?
La unica manera de estar seguros de dar una respuesta correcta a esta
pregunta es plantar todas las semillas y observar el n umero de las que
producen ores blancas.
Sin embargo, esto no es posible, pues se desea vender las semillas; a un
cuando no se quisiera vender las semillas, se preferira obtener una
respuesta sin invertir tanto esfuerzo, naturalmente, sin plantar todas las
semillas y observar el color de la or producida por cada una, no podemos
conocer con certeza el n umero de semillas que producen ores blancas.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 13 / 48
Ilustraremos la inferencia inductiva con un ejemplo.
Imaginemos un almacen que contiene 10 millones de semillas, las cuales
sabemos que producen plantas con ores blancas o rojas.
La informacion que se desea obtener es:
Cuantas de estos 10 millones de semillas (o que porcentaje) produciran
ores blancas?
La unica manera de estar seguros de dar una respuesta correcta a esta
pregunta es plantar todas las semillas y observar el n umero de las que
producen ores blancas.
Sin embargo, esto no es posible, pues se desea vender las semillas; a un
cuando no se quisiera vender las semillas, se preferira obtener una
respuesta sin invertir tanto esfuerzo, naturalmente, sin plantar todas las
semillas y observar el color de la or producida por cada una, no podemos
conocer con certeza el n umero de semillas que producen ores blancas.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 13 / 48
Ilustraremos la inferencia inductiva con un ejemplo.
Imaginemos un almacen que contiene 10 millones de semillas, las cuales
sabemos que producen plantas con ores blancas o rojas.
La informacion que se desea obtener es:
Cuantas de estos 10 millones de semillas (o que porcentaje) produciran
ores blancas?
La unica manera de estar seguros de dar una respuesta correcta a esta
pregunta es plantar todas las semillas y observar el n umero de las que
producen ores blancas.
Sin embargo, esto no es posible, pues se desea vender las semillas; a un
cuando no se quisiera vender las semillas, se preferira obtener una
respuesta sin invertir tanto esfuerzo, naturalmente, sin plantar todas las
semillas y observar el color de la or producida por cada una, no podemos
conocer con certeza el n umero de semillas que producen ores blancas.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 13 / 48
Ilustraremos la inferencia inductiva con un ejemplo.
Imaginemos un almacen que contiene 10 millones de semillas, las cuales
sabemos que producen plantas con ores blancas o rojas.
La informacion que se desea obtener es:
Cuantas de estos 10 millones de semillas (o que porcentaje) produciran
ores blancas?
La unica manera de estar seguros de dar una respuesta correcta a esta
pregunta es plantar todas las semillas y observar el n umero de las que
producen ores blancas.
Sin embargo, esto no es posible, pues se desea vender las semillas; a un
cuando no se quisiera vender las semillas, se preferira obtener una
respuesta sin invertir tanto esfuerzo, naturalmente, sin plantar todas las
semillas y observar el color de la or producida por cada una, no podemos
conocer con certeza el n umero de semillas que producen ores blancas.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 13 / 48
Ilustraremos la inferencia inductiva con un ejemplo.
Imaginemos un almacen que contiene 10 millones de semillas, las cuales
sabemos que producen plantas con ores blancas o rojas.
La informacion que se desea obtener es:
Cuantas de estos 10 millones de semillas (o que porcentaje) produciran
ores blancas?
La unica manera de estar seguros de dar una respuesta correcta a esta
pregunta es plantar todas las semillas y observar el n umero de las que
producen ores blancas.
Sin embargo, esto no es posible, pues se desea vender las semillas; a un
cuando no se quisiera vender las semillas, se preferira obtener una
respuesta sin invertir tanto esfuerzo, naturalmente, sin plantar todas las
semillas y observar el color de la or producida por cada una, no podemos
conocer con certeza el n umero de semillas que producen ores blancas.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 13 / 48
Otra idea es: Podemos plantar unas pocas semillas y, basandonos en los
colores de las ores de las plantas producidas, hacer una armacion sobre
el n umero de semillas de los 10 millones que produciran ores blancas?
La respuesta es que no es posible hacer una prediccion exacta acerca de
cuantas plantas con ores blancas produciran las semillas, pero s es
posible hacer una armacion probabilstica si se seleccionan esas pocas
semillas de cierta manera adecuada.
Esto es, inferencia inductiva: Seleccionamos unas pocas de los 10 millones
de semillas, las plantamos y se observa el n umero de las que producen
ores blancas y, basandose en estas pocas semillas, se hace una prediccion
sobre cuantas de los 10 millones de semillas produciran ores blancas.
Esto es, a partir del conocimiento del color producido por unas pocas
semillas, se generaliza al total de los 10 millones.
No podemos estar seguros de nuestra respuesta, pero s es posible, tener
conanza en ella en el sentido de la relacion entre frecuencia y
probabilidad.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 14 / 48
Otra idea es: Podemos plantar unas pocas semillas y, basandonos en los
colores de las ores de las plantas producidas, hacer una armacion sobre
el n umero de semillas de los 10 millones que produciran ores blancas?
La respuesta es que no es posible hacer una prediccion exacta acerca de
cuantas plantas con ores blancas produciran las semillas, pero s es
posible hacer una armacion probabilstica si se seleccionan esas pocas
semillas de cierta manera adecuada.
Esto es, inferencia inductiva: Seleccionamos unas pocas de los 10 millones
de semillas, las plantamos y se observa el n umero de las que producen
ores blancas y, basandose en estas pocas semillas, se hace una prediccion
sobre cuantas de los 10 millones de semillas produciran ores blancas.
Esto es, a partir del conocimiento del color producido por unas pocas
semillas, se generaliza al total de los 10 millones.
No podemos estar seguros de nuestra respuesta, pero s es posible, tener
conanza en ella en el sentido de la relacion entre frecuencia y
probabilidad.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 14 / 48
Otra idea es: Podemos plantar unas pocas semillas y, basandonos en los
colores de las ores de las plantas producidas, hacer una armacion sobre
el n umero de semillas de los 10 millones que produciran ores blancas?
La respuesta es que no es posible hacer una prediccion exacta acerca de
cuantas plantas con ores blancas produciran las semillas, pero s es
posible hacer una armacion probabilstica si se seleccionan esas pocas
semillas de cierta manera adecuada.
Esto es, inferencia inductiva: Seleccionamos unas pocas de los 10 millones
de semillas, las plantamos y se observa el n umero de las que producen
ores blancas y, basandose en estas pocas semillas, se hace una prediccion
sobre cuantas de los 10 millones de semillas produciran ores blancas.
Esto es, a partir del conocimiento del color producido por unas pocas
semillas, se generaliza al total de los 10 millones.
No podemos estar seguros de nuestra respuesta, pero s es posible, tener
conanza en ella en el sentido de la relacion entre frecuencia y
probabilidad.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 14 / 48
Otra idea es: Podemos plantar unas pocas semillas y, basandonos en los
colores de las ores de las plantas producidas, hacer una armacion sobre
el n umero de semillas de los 10 millones que produciran ores blancas?
La respuesta es que no es posible hacer una prediccion exacta acerca de
cuantas plantas con ores blancas produciran las semillas, pero s es
posible hacer una armacion probabilstica si se seleccionan esas pocas
semillas de cierta manera adecuada.
Esto es, inferencia inductiva: Seleccionamos unas pocas de los 10 millones
de semillas, las plantamos y se observa el n umero de las que producen
ores blancas y, basandose en estas pocas semillas, se hace una prediccion
sobre cuantas de los 10 millones de semillas produciran ores blancas.
Esto es, a partir del conocimiento del color producido por unas pocas
semillas, se generaliza al total de los 10 millones.
No podemos estar seguros de nuestra respuesta, pero s es posible, tener
conanza en ella en el sentido de la relacion entre frecuencia y
probabilidad.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 14 / 48
Otra idea es: Podemos plantar unas pocas semillas y, basandonos en los
colores de las ores de las plantas producidas, hacer una armacion sobre
el n umero de semillas de los 10 millones que produciran ores blancas?
La respuesta es que no es posible hacer una prediccion exacta acerca de
cuantas plantas con ores blancas produciran las semillas, pero s es
posible hacer una armacion probabilstica si se seleccionan esas pocas
semillas de cierta manera adecuada.
Esto es, inferencia inductiva: Seleccionamos unas pocas de los 10 millones
de semillas, las plantamos y se observa el n umero de las que producen
ores blancas y, basandose en estas pocas semillas, se hace una prediccion
sobre cuantas de los 10 millones de semillas produciran ores blancas.
Esto es, a partir del conocimiento del color producido por unas pocas
semillas, se generaliza al total de los 10 millones.
No podemos estar seguros de nuestra respuesta, pero s es posible, tener
conanza en ella en el sentido de la relacion entre frecuencia y
probabilidad.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 14 / 48
1.2 Poblacion y Muestra
Se ha visto que un problema central en el descubrimiento de nuevos
conocimientos acerca del mundo real consiste en observar unos pocos de
los elementos bajo discusion y, en base a estos, hacer una armacion
referente a la totalidad de los mismos. Con mas detalle tenemos.
Denicion 1 (Poblacion Objetivo). La totalidad de los elementos en
discusion y acerca de los cuales se desea informacion, se
denominara Poblacion Objetivo.
En el ejemplo anterior, los 10 millones de semillas del almacen forman la
poblacion objetivo. Lo importante es que la poblacion objetivo sea
susceptible de ser denida con absoluta precision; por lo demas, puede ser
real o hipotetica.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 15 / 48
1.2 Poblacion y Muestra
Se ha visto que un problema central en el descubrimiento de nuevos
conocimientos acerca del mundo real consiste en observar unos pocos de
los elementos bajo discusion y, en base a estos, hacer una armacion
referente a la totalidad de los mismos. Con mas detalle tenemos.
Denicion 1 (Poblacion Objetivo). La totalidad de los elementos en
discusion y acerca de los cuales se desea informacion, se
denominara Poblacion Objetivo.
En el ejemplo anterior, los 10 millones de semillas del almacen forman la
poblacion objetivo. Lo importante es que la poblacion objetivo sea
susceptible de ser denida con absoluta precision; por lo demas, puede ser
real o hipotetica.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 15 / 48
1.2 Poblacion y Muestra
Se ha visto que un problema central en el descubrimiento de nuevos
conocimientos acerca del mundo real consiste en observar unos pocos de
los elementos bajo discusion y, en base a estos, hacer una armacion
referente a la totalidad de los mismos. Con mas detalle tenemos.
Denicion 1 (Poblacion Objetivo). La totalidad de los elementos en
discusion y acerca de los cuales se desea informacion, se
denominara Poblacion Objetivo.
En el ejemplo anterior, los 10 millones de semillas del almacen forman la
poblacion objetivo. Lo importante es que la poblacion objetivo sea
susceptible de ser denida con absoluta precision; por lo demas, puede ser
real o hipotetica.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 15 / 48
1.2 Poblacion y Muestra
Se ha visto que un problema central en el descubrimiento de nuevos
conocimientos acerca del mundo real consiste en observar unos pocos de
los elementos bajo discusion y, en base a estos, hacer una armacion
referente a la totalidad de los mismos. Con mas detalle tenemos.
Denicion 1 (Poblacion Objetivo). La totalidad de los elementos en
discusion y acerca de los cuales se desea informacion, se
denominara Poblacion Objetivo.
En el ejemplo anterior, los 10 millones de semillas del almacen forman la
poblacion objetivo. Lo importante es que la poblacion objetivo sea
susceptible de ser denida con absoluta precision; por lo demas, puede ser
real o hipotetica.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 15 / 48
Desde el punto de vista de la estadstica, el problema de la inferencia
inductiva se trata del siguiente modo:
El objeto de un experimento es averiguar algo sobre una determinada
poblacion. Es imposible o impracticable examinar la poblacion completa,
pero puede examinarse una parte o muestra de la misma, y sobre la base de
esta investigacion limitada hacer inferencias relativas a la poblacion total.
As, surge de manera inmediata el problema de como debe seleccionarse la
muestra de la poblacion. Se ha dicho, que se podran hacer armaciones
probabilsticas acerca de la poblacion si la muestra se selecciona de manera
apropiada.
Para hacer la seleccion apropiada, el caso de una muestra aleatoria simple,
llamada a veces muestra aleatoria, es de particular importancia. Su
denicion se da a continuacion.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 16 / 48
Desde el punto de vista de la estadstica, el problema de la inferencia
inductiva se trata del siguiente modo:
El objeto de un experimento es averiguar algo sobre una determinada
poblacion. Es imposible o impracticable examinar la poblacion completa,
pero puede examinarse una parte o muestra de la misma, y sobre la base de
esta investigacion limitada hacer inferencias relativas a la poblacion total.
As, surge de manera inmediata el problema de como debe seleccionarse la
muestra de la poblacion. Se ha dicho, que se podran hacer armaciones
probabilsticas acerca de la poblacion si la muestra se selecciona de manera
apropiada.
Para hacer la seleccion apropiada, el caso de una muestra aleatoria simple,
llamada a veces muestra aleatoria, es de particular importancia. Su
denicion se da a continuacion.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 16 / 48
Desde el punto de vista de la estadstica, el problema de la inferencia
inductiva se trata del siguiente modo:
El objeto de un experimento es averiguar algo sobre una determinada
poblacion. Es imposible o impracticable examinar la poblacion completa,
pero puede examinarse una parte o muestra de la misma, y sobre la base de
esta investigacion limitada hacer inferencias relativas a la poblacion total.
As, surge de manera inmediata el problema de como debe seleccionarse la
muestra de la poblacion. Se ha dicho, que se podran hacer armaciones
probabilsticas acerca de la poblacion si la muestra se selecciona de manera
apropiada.
Para hacer la seleccion apropiada, el caso de una muestra aleatoria simple,
llamada a veces muestra aleatoria, es de particular importancia. Su
denicion se da a continuacion.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 16 / 48
Desde el punto de vista de la estadstica, el problema de la inferencia
inductiva se trata del siguiente modo:
El objeto de un experimento es averiguar algo sobre una determinada
poblacion. Es imposible o impracticable examinar la poblacion completa,
pero puede examinarse una parte o muestra de la misma, y sobre la base de
esta investigacion limitada hacer inferencias relativas a la poblacion total.
As, surge de manera inmediata el problema de como debe seleccionarse la
muestra de la poblacion. Se ha dicho, que se podran hacer armaciones
probabilsticas acerca de la poblacion si la muestra se selecciona de manera
apropiada.
Para hacer la seleccion apropiada, el caso de una muestra aleatoria simple,
llamada a veces muestra aleatoria, es de particular importancia. Su
denicion se da a continuacion.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 16 / 48
Para hacer la inferencia, estamos interesados en una muestra que sea
representativa de la poblacion, la cual se logra tomando una muestra
aleatoria de tal poblacion. Es decir, queremos una muestra en donde todos
los elementos de la poblacion tengan la misma probabilidad de ser elegidos.
Denicion 2 (Muestra Aleatoria). Se dice que X
1
, ..., X
n
, es una muestra
aleatoria (m.a.) de una poblacion con densidad f (), si X
1
, ..., X
n
son v.a.s
independientes e identicamente distribuidas (iid).
Es decir, X
1
, ..., X
n
, es una muestra aleatoria si, su funcion de densidad
conjunta satisface lo siguiente:
f
X
1
,...,X
N
(x
1
, ..., x
n
) = f (x
1
) f (x
n
).
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 17 / 48
Para hacer la inferencia, estamos interesados en una muestra que sea
representativa de la poblacion, la cual se logra tomando una muestra
aleatoria de tal poblacion. Es decir, queremos una muestra en donde todos
los elementos de la poblacion tengan la misma probabilidad de ser elegidos.
Denicion 2 (Muestra Aleatoria). Se dice que X
1
, ..., X
n
, es una muestra
aleatoria (m.a.) de una poblacion con densidad f (), si X
1
, ..., X
n
son v.a.s
independientes e identicamente distribuidas (iid).
Es decir, X
1
, ..., X
n
, es una muestra aleatoria si, su funcion de densidad
conjunta satisface lo siguiente:
f
X
1
,...,X
N
(x
1
, ..., x
n
) = f (x
1
) f (x
n
).
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 17 / 48
Para hacer la inferencia, estamos interesados en una muestra que sea
representativa de la poblacion, la cual se logra tomando una muestra
aleatoria de tal poblacion. Es decir, queremos una muestra en donde todos
los elementos de la poblacion tengan la misma probabilidad de ser elegidos.
Denicion 2 (Muestra Aleatoria). Se dice que X
1
, ..., X
n
, es una muestra
aleatoria (m.a.) de una poblacion con densidad f (), si X
1
, ..., X
n
son v.a.s
independientes e identicamente distribuidas (iid).
Es decir, X
1
, ..., X
n
, es una muestra aleatoria si, su funcion de densidad
conjunta satisface lo siguiente:
f
X
1
,...,X
N
(x
1
, ..., x
n
) = f (x
1
) f (x
n
).
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 17 / 48
En el ejemplo que se ha venido tratando, los 10 millones de semillas en el
almacen forman la poblacion (objetivo) de la cual se pretende extraer la
muestra.
Cada semilla es un elemento de la poblacion y producira ores blancas o
ores rojas, de tal forma que, estrictamente hablando, no existe un valor
numerico asociado con cada elemento de esta poblacion.
Sin embargo, si asociamos al n umero 1 con la semilla que produce ores
blancas y, al 0 con la semilla que produce ores rojas, entonces existe un
valor numerico asociado con cada elemento de la poblacion, y podemos
discutir si una muestra particular es aleatoria o no.
As, la v.a. X
i
tomara elvalor de 1 o 0, dependiendo de si la i-esima semilla
produce una or blanca o una or roja, con i = 1, , n.
Ahora, si la muestra de semillas es tomada de tal forma que las v.a.s sean
independientes y tengan la misma densidad, entonces, de acuerdo a la
Denicion 2, la muestra se dice ser aleatoria.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 18 / 48
En el ejemplo que se ha venido tratando, los 10 millones de semillas en el
almacen forman la poblacion (objetivo) de la cual se pretende extraer la
muestra.
Cada semilla es un elemento de la poblacion y producira ores blancas o
ores rojas, de tal forma que, estrictamente hablando, no existe un valor
numerico asociado con cada elemento de esta poblaci on.
Sin embargo, si asociamos al n umero 1 con la semilla que produce ores
blancas y, al 0 con la semilla que produce ores rojas, entonces existe un
valor numerico asociado con cada elemento de la poblacion, y podemos
discutir si una muestra particular es aleatoria o no.
As, la v.a. X
i
tomara elvalor de 1 o 0, dependiendo de si la i-esima semilla
produce una or blanca o una or roja, con i = 1, , n.
Ahora, si la muestra de semillas es tomada de tal forma que las v.a.s sean
independientes y tengan la misma densidad, entonces, de acuerdo a la
Denicion 2, la muestra se dice ser aleatoria.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 18 / 48
En el ejemplo que se ha venido tratando, los 10 millones de semillas en el
almacen forman la poblacion (objetivo) de la cual se pretende extraer la
muestra.
Cada semilla es un elemento de la poblacion y producira ores blancas o
ores rojas, de tal forma que, estrictamente hablando, no existe un valor
numerico asociado con cada elemento de esta poblaci on.
Sin embargo, si asociamos al n umero 1 con la semilla que produce ores
blancas y, al 0 con la semilla que produce ores rojas, entonces existe un
valor numerico asociado con cada elemento de la poblacion, y podemos
discutir si una muestra particular es aleatoria o no.
As, la v.a. X
i
tomara elvalor de 1 o 0, dependiendo de si la i-esima semilla
produce una or blanca o una or roja, con i = 1, , n.
Ahora, si la muestra de semillas es tomada de tal forma que las v.a.s sean
independientes y tengan la misma densidad, entonces, de acuerdo a la
Denicion 2, la muestra se dice ser aleatoria.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 18 / 48
En el ejemplo que se ha venido tratando, los 10 millones de semillas en el
almacen forman la poblacion (objetivo) de la cual se pretende extraer la
muestra.
Cada semilla es un elemento de la poblacion y producira ores blancas o
ores rojas, de tal forma que, estrictamente hablando, no existe un valor
numerico asociado con cada elemento de esta poblaci on.
Sin embargo, si asociamos al n umero 1 con la semilla que produce ores
blancas y, al 0 con la semilla que produce ores rojas, entonces existe un
valor numerico asociado con cada elemento de la poblacion, y podemos
discutir si una muestra particular es aleatoria o no.
As, la v.a. X
i
tomara elvalor de 1 o 0, dependiendo de si la i-esima semilla
produce una or blanca o una or roja, con i = 1, , n.
Ahora, si la muestra de semillas es tomada de tal forma que las v.a.s sean
independientes y tengan la misma densidad, entonces, de acuerdo a la
Denicion 2, la muestra se dice ser aleatoria.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 18 / 48
En el ejemplo que se ha venido tratando, los 10 millones de semillas en el
almacen forman la poblacion (objetivo) de la cual se pretende extraer la
muestra.
Cada semilla es un elemento de la poblacion y producira ores blancas o
ores rojas, de tal forma que, estrictamente hablando, no existe un valor
numerico asociado con cada elemento de esta poblaci on.
Sin embargo, si asociamos al n umero 1 con la semilla que produce ores
blancas y, al 0 con la semilla que produce ores rojas, entonces existe un
valor numerico asociado con cada elemento de la poblacion, y podemos
discutir si una muestra particular es aleatoria o no.
As, la v.a. X
i
tomara elvalor de 1 o 0, dependiendo de si la i-esima semilla
produce una or blanca o una or roja, con i = 1, , n.
Ahora, si la muestra de semillas es tomada de tal forma que las v.a.s sean
independientes y tengan la misma densidad, entonces, de acuerdo a la
Denicion 2, la muestra se dice ser aleatoria.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 18 / 48
Una parte importante de la denicion de m.a. es el signicado de las v.a.s
X
1
, ..., X
n
. La v.a. X
i
es una representacion del valor numerico que
asumira el i-esimo elemento muestreado.
Despues la muestra es observada, los valores reales de X
1
, ..., X
n
son
conocidos, denotando estos valores observados por x
1
, ..., x
n
.
Algunas veces las observaciones x
1
, ..., x
n
se dice que son una m.a., si
x
1
, ..., x
n
son los valores de X
1
, ..., X
n
, donde X
1
, ..., X
n
es una m.a.
Con mucha frecuencia no es posible seleccionar una m.a. de la poblacion
objetivo, pero puede ser seleccionada una m.a. de alguna poblacion
relacionada. Para distinguir las dos poblaciones, se dene el concepto de
Poblacion Muestreada.
Denicion 3 (Poblacion Muestreada). Sea X
1
, ..., X
n
una m.a. de una
poblacion con densidad f (); entonces, esta poblacion es llamada la
Poblacion Muestreada.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 19 / 48
Una parte importante de la denicion de m.a. es el signicado de las v.a.s
X
1
, ..., X
n
. La v.a. X
i
es una representacion del valor numerico que
asumira el i-esimo elemento muestreado.
Despues la muestra es observada, los valores reales de X
1
, ..., X
n
son
conocidos, denotando estos valores observados por x
1
, ..., x
n
.
Algunas veces las observaciones x
1
, ..., x
n
se dice que son una m.a., si
x
1
, ..., x
n
son los valores de X
1
, ..., X
n
, donde X
1
, ..., X
n
es una m.a.
Con mucha frecuencia no es posible seleccionar una m.a. de la poblacion
objetivo, pero puede ser seleccionada una m.a. de alguna poblacion
relacionada. Para distinguir las dos poblaciones, se dene el concepto de
Poblacion Muestreada.
Denicion 3 (Poblacion Muestreada). Sea X
1
, ..., X
n
una m.a. de una
poblacion con densidad f (); entonces, esta poblacion es llamada la
Poblacion Muestreada.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 19 / 48
Una parte importante de la denicion de m.a. es el signicado de las v.a.s
X
1
, ..., X
n
. La v.a. X
i
es una representacion del valor numerico que
asumira el i-esimo elemento muestreado.
Despues la muestra es observada, los valores reales de X
1
, ..., X
n
son
conocidos, denotando estos valores observados por x
1
, ..., x
n
.
Algunas veces las observaciones x
1
, ..., x
n
se dice que son una m.a., si
x
1
, ..., x
n
son los valores de X
1
, ..., X
n
, donde X
1
, ..., X
n
es una m.a.
Con mucha frecuencia no es posible seleccionar una m.a. de la poblacion
objetivo, pero puede ser seleccionada una m.a. de alguna poblacion
relacionada. Para distinguir las dos poblaciones, se dene el concepto de
Poblacion Muestreada.
Denicion 3 (Poblacion Muestreada). Sea X
1
, ..., X
n
una m.a. de una
poblacion con densidad f (); entonces, esta poblacion es llamada la
Poblacion Muestreada.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 19 / 48
Una parte importante de la denicion de m.a. es el signicado de las v.a.s
X
1
, ..., X
n
. La v.a. X
i
es una representacion del valor numerico que
asumira el i-esimo elemento muestreado.
Despues la muestra es observada, los valores reales de X
1
, ..., X
n
son
conocidos, denotando estos valores observados por x
1
, ..., x
n
.
Algunas veces las observaciones x
1
, ..., x
n
se dice que son una m.a., si
x
1
, ..., x
n
son los valores de X
1
, ..., X
n
, donde X
1
, ..., X
n
es una m.a.
Con mucha frecuencia no es posible seleccionar una m.a. de la poblacion
objetivo, pero puede ser seleccionada una m.a. de alguna poblacion
relacionada. Para distinguir las dos poblaciones, se dene el concepto de
Poblacion Muestreada.
Denicion 3 (Poblacion Muestreada). Sea X
1
, ..., X
n
una m.a. de una
poblacion con densidad f (); entonces, esta poblacion es llamada la
Poblacion Muestreada.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 19 / 48
Una parte importante de la denicion de m.a. es el signicado de las v.a.s
X
1
, ..., X
n
. La v.a. X
i
es una representacion del valor numerico que
asumira el i-esimo elemento muestreado.
Despues la muestra es observada, los valores reales de X
1
, ..., X
n
son
conocidos, denotando estos valores observados por x
1
, ..., x
n
.
Algunas veces las observaciones x
1
, ..., x
n
se dice que son una m.a., si
x
1
, ..., x
n
son los valores de X
1
, ..., X
n
, donde X
1
, ..., X
n
es una m.a.
Con mucha frecuencia no es posible seleccionar una m.a. de la poblacion
objetivo, pero puede ser seleccionada una m.a. de alguna poblacion
relacionada. Para distinguir las dos poblaciones, se dene el concepto de
Poblacion Muestreada.
Denicion 3 (Poblacion Muestreada). Sea X
1
, ..., X
n
una m.a. de una
poblacion con densidad f (); entonces, esta poblacion es llamada la
Poblacion Muestreada.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 19 / 48
Pueden hacerse armaciones probabilsticas validas, acerca de poblaciones
muestreadas, sobre la base de m.a.s, pero las armaciones relativas a las
poblaciones objetivo, basadas en la relacion entre probabilidad y frecuencia
relativa, no son validas, salvo en el caso en el que la poblacion objetivo sea
tambien la poblacion muestreada. Algunos ejemplos aclararan la diferencia
entre poblacion muestreada y poblacion objetivo.
Ejemplo 1: Supongase que un sociologo desea estudiar las costumbres
religiosas de los varones de veinte a nos en Mexico. Para hacer su estudio,
extrae una muestra de varones de veinte a nos de una de las grandes
ciudades de la Republica Mexicana. En este caso la poblacion objetivo
esta formada por los varones de veinte a nos de Mexico, y la poblacion
muestreada es la de los varones de veinte a nos de la ciudad que muestreo.
En este caso, el sociologo puede sacar conclusiones probabilsticas validas
para la poblacion muestreada, pero tendra que usar su juicio personal para
extrapolar sus resultados a la poblacion objetivo, y la conabilidad de la
extrapolacion no puede medirse en terminos de probabilidad.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 20 / 48
Pueden hacerse armaciones probabilsticas validas, acerca de poblaciones
muestreadas, sobre la base de m.a.s, pero las armaciones relativas a las
poblaciones objetivo, basadas en la relacion entre probabilidad y frecuencia
relativa, no son validas, salvo en el caso en el que la poblacion objetivo sea
tambien la poblacion muestreada. Algunos ejemplos aclararan la diferencia
entre poblacion muestreada y poblacion objetivo.
Ejemplo 1: Supongase que un sociologo desea estudiar las costumbres
religiosas de los varones de veinte a nos en Mexico. Para hacer su estudio,
extrae una muestra de varones de veinte a nos de una de las grandes
ciudades de la Republica Mexicana. En este caso la poblacion objetivo
esta formada por los varones de veinte a nos de Mexico, y la poblacion
muestreada es la de los varones de veinte a nos de la ciudad que muestreo.
En este caso, el sociologo puede sacar conclusiones probabilsticas validas
para la poblacion muestreada, pero tendra que usar su juicio personal para
extrapolar sus resultados a la poblacion objetivo, y la conabilidad de la
extrapolacion no puede medirse en terminos de probabilidad.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 20 / 48
Pueden hacerse armaciones probabilsticas validas, acerca de poblaciones
muestreadas, sobre la base de m.a.s, pero las armaciones relativas a las
poblaciones objetivo, basadas en la relacion entre probabilidad y frecuencia
relativa, no son validas, salvo en el caso en el que la poblacion objetivo sea
tambien la poblacion muestreada. Algunos ejemplos aclararan la diferencia
entre poblacion muestreada y poblacion objetivo.
Ejemplo 1: Supongase que un sociologo desea estudiar las costumbres
religiosas de los varones de veinte a nos en Mexico. Para hacer su estudio,
extrae una muestra de varones de veinte a nos de una de las grandes
ciudades de la Republica Mexicana. En este caso la poblacion objetivo
esta formada por los varones de veinte a nos de Mexico, y la poblacion
muestreada es la de los varones de veinte a nos de la ciudad que muestreo.
En este caso, el sociologo puede sacar conclusiones probabilsticas validas
para la poblacion muestreada, pero tendra que usar su juicio personal para
extrapolar sus resultados a la poblacion objetivo, y la conabilidad de la
extrapolacion no puede medirse en terminos de probabilidad.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 20 / 48
Ejemplo 2: Un investigador esta estudiando el rendimiento de cierta
variedad de trigo en el estado de Cohuila. Este investigador tiene a su
disposicion cinco ranchos diseminados por dicho estado, en los cuales
planta el trigo y observa el rendimiento. En este caso, la poblacion
muestreada esta formada por los rendimientos de estos cinco ranchos,
mientras que la poblacion objetivo la forman los rendimientos de esta
variedad de trigo en todos los ranchos de dicho estado.
Aqu se estudiara el problema de seleccionar (o extraer) una muestra de
una poblacion muestreada con densidad f (x) y, sobre la base de estas
observaciones muestrales, se haran armaciones probabilsticas acerca de
f (x), o inferencias acerca de f (x). Con esto en mente desarrollaremos las
ideas de muestreo.
Nota: Algunas veces usamos la declaracion poblacion f () queriendo
indicar una poblacion con densidad f (). Cuando usemos la palabra
poblacion sin los adjetivos objetivo o muestreada, siempre
estara indicando a la poblacion muestreada.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 21 / 48
Ejemplo 2: Un investigador esta estudiando el rendimiento de cierta
variedad de trigo en el estado de Cohuila. Este investigador tiene a su
disposicion cinco ranchos diseminados por dicho estado, en los cuales
planta el trigo y observa el rendimiento. En este caso, la poblacion
muestreada esta formada por los rendimientos de estos cinco ranchos,
mientras que la poblacion objetivo la forman los rendimientos de esta
variedad de trigo en todos los ranchos de dicho estado.
Aqu se estudiara el problema de seleccionar (o extraer) una muestra de
una poblacion muestreada con densidad f (x) y, sobre la base de estas
observaciones muestrales, se haran armaciones probabilsticas acerca de
f (x), o inferencias acerca de f (x). Con esto en mente desarrollaremos las
ideas de muestreo.
Nota: Algunas veces usamos la declaracion poblacion f () queriendo
indicar una poblacion con densidad f (). Cuando usemos la palabra
poblacion sin los adjetivos objetivo o muestreada, siempre
estara indicando a la poblacion muestreada.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 21 / 48
Ejemplo 2: Un investigador esta estudiando el rendimiento de cierta
variedad de trigo en el estado de Cohuila. Este investigador tiene a su
disposicion cinco ranchos diseminados por dicho estado, en los cuales
planta el trigo y observa el rendimiento. En este caso, la poblacion
muestreada esta formada por los rendimientos de estos cinco ranchos,
mientras que la poblacion objetivo la forman los rendimientos de esta
variedad de trigo en todos los ranchos de dicho estado.
Aqu se estudiara el problema de seleccionar (o extraer) una muestra de
una poblacion muestreada con densidad f (x) y, sobre la base de estas
observaciones muestrales, se haran armaciones probabilsticas acerca de
f (x), o inferencias acerca de f (x). Con esto en mente desarrollaremos las
ideas de muestreo.
Nota: Algunas veces usamos la declaracion poblacion f () queriendo
indicar una poblacion con densidad f (). Cuando usemos la palabra
poblacion sin los adjetivos objetivo o muestreada, siempre
estara indicando a la poblacion muestreada.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 21 / 48
1.3 Distribucion Muestral
Denicion 4 (Distribucion Muestral). Si X
1
, ..., X
n
, es una muestra de
tama no n. La distribucion de la muestra X
1
, ..., X
n
se dene como la
distribucion conjunta de X
1
, ..., X
n
.
Supongase que una v.a. X tiene densidad f (x) en alguna poblacion, y
supongase que se extrae aleatoriamente una muestra de dos valores de X,
x
1
y x
2
,; x
1
se dice ser la primera observacion y x
2
la segunda observacion.
Este par de n umeros (x
1
, x
2
) determina un punto en el plano, y la
poblacion de todos los posibles pares de n umeros que pueden obtenerse
forman una poblacion bivariada.
Lo que nos interesa es hallar la distribucion de esta poblacion bivariada
basandonos en la distribucion original con densidad f (x). El par de
n umeros (x
1
, x
2
) es un valor de la v.a. conjunta (X
1
, X
2
), y X
1
, X
2
es una
m.a. de tama no 2 de la disribucion con densidad f (x). Por denicion de
m.a., la distribucion conjunta de X
1
y X
2
, que le llamaremos la distribucion
de nuestra m.a. de tama no 2, esta dada por f
X
1
,X
2
(x
1
, x
2
) = f (x
1
)f (x
2
).
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 22 / 48
1.3 Distribucion Muestral
Denicion 4 (Distribucion Muestral). Si X
1
, ..., X
n
, es una muestra de
tama no n. La distribucion de la muestra X
1
, ..., X
n
se dene como la
distribucion conjunta de X
1
, ..., X
n
.
Supongase que una v.a. X tiene densidad f (x) en alguna poblacion, y
supongase que se extrae aleatoriamente una muestra de dos valores de X,
x
1
y x
2
,; x
1
se dice ser la primera observacion y x
2
la segunda observacion.
Este par de n umeros (x
1
, x
2
) determina un punto en el plano, y la
poblacion de todos los posibles pares de n umeros que pueden obtenerse
forman una poblacion bivariada.
Lo que nos interesa es hallar la distribucion de esta poblacion bivariada
basandonos en la distribucion original con densidad f (x). El par de
n umeros (x
1
, x
2
) es un valor de la v.a. conjunta (X
1
, X
2
), y X
1
, X
2
es una
m.a. de tama no 2 de la disribucion con densidad f (x). Por denicion de
m.a., la distribucion conjunta de X
1
y X
2
, que le llamaremos la distribucion
de nuestra m.a. de tama no 2, esta dada por f
X
1
,X
2
(x
1
, x
2
) = f (x
1
)f (x
2
).
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 22 / 48
1.3 Distribucion Muestral
Denicion 4 (Distribucion Muestral). Si X
1
, ..., X
n
, es una muestra de
tama no n. La distribucion de la muestra X
1
, ..., X
n
se dene como la
distribucion conjunta de X
1
, ..., X
n
.
Sup ongase que una v.a. X tiene densidad f (x) en alguna poblacion, y
supongase que se extrae aleatoriamente una muestra de dos valores de X,
x
1
y x
2
,; x
1
se dice ser la primera observacion y x
2
la segunda observacion.
Este par de n umeros (x
1
, x
2
) determina un punto en el plano, y la
poblacion de todos los posibles pares de n umeros que pueden obtenerse
forman una poblacion bivariada.
Lo que nos interesa es hallar la distribucion de esta poblacion bivariada
basandonos en la distribucion original con densidad f (x). El par de
n umeros (x
1
, x
2
) es un valor de la v.a. conjunta (X
1
, X
2
), y X
1
, X
2
es una
m.a. de tama no 2 de la disribucion con densidad f (x). Por denicion de
m.a., la distribucion conjunta de X
1
y X
2
, que le llamaremos la distribucion
de nuestra m.a. de tama no 2, esta dada por f
X
1
,X
2
(x
1
, x
2
) = f (x
1
)f (x
2
).
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 22 / 48
1.3 Distribucion Muestral
Denicion 4 (Distribucion Muestral). Si X
1
, ..., X
n
, es una muestra de
tama no n. La distribucion de la muestra X
1
, ..., X
n
se dene como la
distribucion conjunta de X
1
, ..., X
n
.
Sup ongase que una v.a. X tiene densidad f (x) en alguna poblacion, y
supongase que se extrae aleatoriamente una muestra de dos valores de X,
x
1
y x
2
,; x
1
se dice ser la primera observacion y x
2
la segunda observacion.
Este par de n umeros (x
1
, x
2
) determina un punto en el plano, y la
poblacion de todos los posibles pares de n umeros que pueden obtenerse
forman una poblacion bivariada.
Lo que nos interesa es hallar la distribucion de esta poblacion bivariada
basandonos en la distribucion original con densidad f (x). El par de
n umeros (x
1
, x
2
) es un valor de la v.a. conjunta (X
1
, X
2
), y X
1
, X
2
es una
m.a. de tama no 2 de la disribucion con densidad f (x). Por denicion de
m.a., la distribucion conjunta de X
1
y X
2
, que le llamaremos la distribucion
de nuestra m.a. de tama no 2, esta dada por f
X
1
,X
2
(x
1
, x
2
) = f (x
1
)f (x
2
).
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 22 / 48
Se presenta el siguiente ejemplo, supongase que la v.a. solo puede tomar
los valores, 0 y 1, con probabilidades respectivas, q = 1 p y p. Esto es,
X Ber (p), cuya densidad esta dada por:
f (x) = p
x
q
1x
I
{0,1}
(x) (1)
La densidad conjunta para una m.a. de dos valores de f () es
f
X
1
,X
2
(x
1
, x
2
) = f (x
1
)f (x
2
) = p
x
1
+x
2
q
2x
1
x
2
I
{0,1}
(x
1
)I
{0,1}
(x
1
) (2)
Debe notarse que f
X
1
,X
2
(x
1
, x
2
) nos proporciona la distribucion de la
muestra en el orden de extraccion. Por ejemplo en la Ecuacion (2),
f
X
1
,X
2
(0, 1) = pq hace referencia a la probabilidad de extraer primero un 0
y luego un 1.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 23 / 48
Se presenta el siguiente ejemplo, supongase que la v.a. solo puede tomar
los valores, 0 y 1, con probabilidades respectivas, q = 1 p y p. Esto es,
X Ber (p), cuya densidad esta dada por:
f (x) = p
x
q
1x
I
{0,1}
(x) (1)
La densidad conjunta para una m.a. de dos valores de f () es
f
X
1
,X
2
(x
1
, x
2
) = f (x
1
)f (x
2
) = p
x
1
+x
2
q
2x
1
x
2
I
{0,1}
(x
1
)I
{0,1}
(x
1
) (2)
Debe notarse que f
X
1
,X
2
(x
1
, x
2
) nos proporciona la distribucion de la
muestra en el orden de extraccion. Por ejemplo en la Ecuacion (2),
f
X
1
,X
2
(0, 1) = pq hace referencia a la probabilidad de extraer primero un 0
y luego un 1.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 23 / 48
Se presenta el siguiente ejemplo, supongase que la v.a. solo puede tomar
los valores, 0 y 1, con probabilidades respectivas, q = 1 p y p. Esto es,
X Ber (p), cuya densidad esta dada por:
f (x) = p
x
q
1x
I
{0,1}
(x) (1)
La densidad conjunta para una m.a. de dos valores de f () es
f
X
1
,X
2
(x
1
, x
2
) = f (x
1
)f (x
2
) = p
x
1
+x
2
q
2x
1
x
2
I
{0,1}
(x
1
)I
{0,1}
(x
1
) (2)
Debe notarse que f
X
1
,X
2
(x
1
, x
2
) nos proporciona la distribucion de la
muestra en el orden de extraccion. Por ejemplo en la Ecuacion (2),
f
X
1
,X
2
(0, 1) = pq hace referencia a la probabilidad de extraer primero un 0
y luego un 1.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 23 / 48
Se presenta el siguiente ejemplo, supongase que la v.a. solo puede tomar
los valores, 0 y 1, con probabilidades respectivas, q = 1 p y p. Esto es,
X Ber (p), cuya densidad esta dada por:
f (x) = p
x
q
1x
I
{0,1}
(x) (1)
La densidad conjunta para una m.a. de dos valores de f () es
f
X
1
,X
2
(x
1
, x
2
) = f (x
1
)f (x
2
) = p
x
1
+x
2
q
2x
1
x
2
I
{0,1}
(x
1
)I
{0,1}
(x
1
) (2)
Debe notarse que f
X
1
,X
2
(x
1
, x
2
) nos proporciona la distribucion de la
muestra en el orden de extraccion. Por ejemplo en la Ecuacion (2),
f
X
1
,X
2
(0, 1) = pq hace referencia a la probabilidad de extraer primero un 0
y luego un 1.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 23 / 48
Se presenta el siguiente ejemplo, supongase que la v.a. solo puede tomar
los valores, 0 y 1, con probabilidades respectivas, q = 1 p y p. Esto es,
X Ber (p), cuya densidad esta dada por:
f (x) = p
x
q
1x
I
{0,1}
(x) (1)
La densidad conjunta para una m.a. de dos valores de f () es
f
X
1
,X
2
(x
1
, x
2
) = f (x
1
)f (x
2
) = p
x
1
+x
2
q
2x
1
x
2
I
{0,1}
(x
1
)I
{0,1}
(x
1
) (2)
Debe notarse que f
X
1
,X
2
(x
1
, x
2
) nos proporciona la distribucion de la
muestra en el orden de extraccion. Por ejemplo en la Ecuacion (2),
f
X
1
,X
2
(0, 1) = pq hace referencia a la probabilidad de extraer primero un 0
y luego un 1.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 23 / 48
Se presenta el siguiente ejemplo, supongase que la v.a. solo puede tomar
los valores, 0 y 1, con probabilidades respectivas, q = 1 p y p. Esto es,
X Ber (p), cuya densidad esta dada por:
f (x) = p
x
q
1x
I
{0,1}
(x) (1)
La densidad conjunta para una m.a. de dos valores de f () es
f
X
1
,X
2
(x
1
, x
2
) = f (x
1
)f (x
2
) = p
x
1
+x
2
q
2x
1
x
2
I
{0,1}
(x
1
)I
{0,1}
(x
1
) (2)
Debe notarse que f
X
1
,X
2
(x
1
, x
2
) nos proporciona la distribucion de la
muestra en el orden de extraccion. Por ejemplo en la Ecuacion (2),
f
X
1
,X
2
(0, 1) = pq hace referencia a la probabilidad de extraer primero un 0
y luego un 1.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 23 / 48
Nuestros comentarios para m.a.s de tama no 2 se generalizan a m.a.s de
tama no n, como se resalta en la siguiente observacion.
Observacion Si X
1
, X
2
, . . . , X
n
es una m.a. de tama no n de f (),
entonces la distribucion de la m.a. X
1
, X
2
, . . . , X
n
, denida como la
distribucion conjunta de X
1
, X
2
, . . . , X
n
, esta dada por
f
X
1
,...,X
n
(x
1
, . . . , x
n
) = f (x
1
) f (x
n
).
Observese que esta nuevamente da la distribucion de la muestra en el
orden de extraccion. Tambien, note que si X
1
, X
2
, . . . , X
n
es una m.a.,
entonces X
1
, X
2
, . . . , X
n
son estocasticamente independientes.
Ademas, podemos observar que nuestra denicion de muestreo aleatorio
elimina automaticamente el muestreo sin reemplazamiento de una
poblacion nita puesto que, los resultados de las extracciones, en este
caso, no seran independientes. Por consiguiente solo nos acuparemos del
muestreo en poblaciones continuas y del muestreo con reemplazamiento en
poblaciones nitas.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 24 / 48
Nuestros comentarios para m.a.s de tama no 2 se generalizan a m.a.s de
tama no n, como se resalta en la siguiente observacion.
Observacion Si X
1
, X
2
, . . . , X
n
es una m.a. de tama no n de f (),
entonces la distribucion de la m.a. X
1
, X
2
, . . . , X
n
, denida como la
distribucion conjunta de X
1
, X
2
, . . . , X
n
, esta dada por
f
X
1
,...,X
n
(x
1
, . . . , x
n
) = f (x
1
) f (x
n
).
Observese que esta nuevamente da la distribucion de la muestra en el
orden de extraccion. Tambien, note que si X
1
, X
2
, . . . , X
n
es una m.a.,
entonces X
1
, X
2
, . . . , X
n
son estocasticamente independientes.
Ademas, podemos observar que nuestra denicion de muestreo aleatorio
elimina automaticamente el muestreo sin reemplazamiento de una
poblacion nita puesto que, los resultados de las extracciones, en este
caso, no seran independientes. Por consiguiente solo nos acuparemos del
muestreo en poblaciones continuas y del muestreo con reemplazamiento en
poblaciones nitas.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 24 / 48
Nuestros comentarios para m.a.s de tama no 2 se generalizan a m.a.s de
tama no n, como se resalta en la siguiente observacion.
Observacion Si X
1
, X
2
, . . . , X
n
es una m.a. de tama no n de f (),
entonces la distribucion de la m.a. X
1
, X
2
, . . . , X
n
, denida como la
distribucion conjunta de X
1
, X
2
, . . . , X
n
, esta dada por
f
X
1
,...,X
n
(x
1
, . . . , x
n
) = f (x
1
) f (x
n
).
Observese que esta nuevamente da la distribucion de la muestra en el
orden de extraccion. Tambien, note que si X
1
, X
2
, . . . , X
n
es una m.a.,
entonces X
1
, X
2
, . . . , X
n
son estocasticamente independientes.
Ademas, podemos observar que nuestra denicion de muestreo aleatorio
elimina automaticamente el muestreo sin reemplazamiento de una
poblacion nita puesto que, los resultados de las extracciones, en este
caso, no seran independientes. Por consiguiente solo nos acuparemos del
muestreo en poblaciones continuas y del muestreo con reemplazamiento en
poblaciones nitas.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 24 / 48
Nuestros comentarios para m.a.s de tama no 2 se generalizan a m.a.s de
tama no n, como se resalta en la siguiente observacion.
Observacion Si X
1
, X
2
, . . . , X
n
es una m.a. de tama no n de f (),
entonces la distribucion de la m.a. X
1
, X
2
, . . . , X
n
, denida como la
distribucion conjunta de X
1
, X
2
, . . . , X
n
, esta dada por
f
X
1
,...,X
n
(x
1
, . . . , x
n
) = f (x
1
) f (x
n
).
Observese que esta nuevamente da la distribucion de la muestra en el
orden de extraccion. Tambien, note que si X
1
, X
2
, . . . , X
n
es una m.a.,
entonces X
1
, X
2
, . . . , X
n
son estocasticamente independientes.
Ademas, podemos observar que nuestra denicion de muestreo aleatorio
elimina automaticamente el muestreo sin reemplazamiento de una
poblacion nita puesto que, los resultados de las extracciones, en este
caso, no seran independientes. Por consiguiente solo nos acuparemos del
muestreo en poblaciones continuas y del muestreo con reemplazamiento en
poblaciones nitas.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 24 / 48
1.4 Estadsticas y Momentos Muestrales
Uno de los problemas centrales de la estadstica es el siguiente:
Se desea estudiar una poblacion que tiene densidad f (; ), cuya forma es
conocida, pero que contiene un parametro desconocido (si es
conocido, la funcion de densidad esta completamente especicada y nada
hay que hacer).
El procedimiento es tomar una m.a. X
1
, X
2
, . . . , X
n
de tama no n de esta
distribucion y tomar el valor de una funcion, digamos t(x
1
, x
2
, . . . , x
n
) que
represente o estime el parametro desconocido .
El problema consiste en determinar que funcion sera la mejor para estimar
. Problema que sera estudiado con detalle mas adelante.
Ahora, examinaremos ciertas funciones de las m.a.s, llamadas momentos
muestrales. Sin embargo, primero deniremos lo que se entiende por una
estadstica (o estadstico).
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 25 / 48
1.4 Estadsticas y Momentos Muestrales
Uno de los problemas centrales de la estadstica es el siguiente:
Se desea estudiar una poblacion que tiene densidad f (; ), cuya forma es
conocida, pero que contiene un parametro desconocido (si es
conocido, la funcion de densidad esta completamente especicada y nada
hay que hacer).
El procedimiento es tomar una m.a. X
1
, X
2
, . . . , X
n
de tama no n de esta
distribucion y tomar el valor de una funcion, digamos t(x
1
, x
2
, . . . , x
n
) que
represente o estime el parametro desconocido .
El problema consiste en determinar que funcion sera la mejor para estimar
. Problema que sera estudiado con detalle mas adelante.
Ahora, examinaremos ciertas funciones de las m.a.s, llamadas momentos
muestrales. Sin embargo, primero deniremos lo que se entiende por una
estadstica (o estadstico).
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 25 / 48
1.4 Estadsticas y Momentos Muestrales
Uno de los problemas centrales de la estadstica es el siguiente:
Se desea estudiar una poblacion que tiene densidad f (; ), cuya forma es
conocida, pero que contiene un parametro desconocido (si es
conocido, la funcion de densidad esta completamente especicada y nada
hay que hacer).
El procedimiento es tomar una m.a. X
1
, X
2
, . . . , X
n
de tama no n de esta
distribucion y tomar el valor de una funcion, digamos t(x
1
, x
2
, . . . , x
n
) que
represente o estime el parametro desconocido .
El problema consiste en determinar que funcion sera la mejor para estimar
. Problema que sera estudiado con detalle mas adelante.
Ahora, examinaremos ciertas funciones de las m.a.s, llamadas momentos
muestrales. Sin embargo, primero deniremos lo que se entiende por una
estadstica (o estadstico).
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 25 / 48
1.4 Estadsticas y Momentos Muestrales
Uno de los problemas centrales de la estadstica es el siguiente:
Se desea estudiar una poblacion que tiene densidad f (; ), cuya forma es
conocida, pero que contiene un parametro desconocido (si es
conocido, la funcion de densidad esta completamente especicada y nada
hay que hacer).
El procedimiento es tomar una m.a. X
1
, X
2
, . . . , X
n
de tama no n de esta
distribucion y tomar el valor de una funcion, digamos t(x
1
, x
2
, . . . , x
n
) que
represente o estime el parametro desconocido .
El problema consiste en determinar que funcion sera la mejor para estimar
. Problema que sera estudiado con detalle mas adelante.
Ahora, examinaremos ciertas funciones de las m.a.s, llamadas momentos
muestrales. Sin embargo, primero deniremos lo que se entiende por una
estadstica (o estadstico).
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 25 / 48
1.4 Estadsticas y Momentos Muestrales
Uno de los problemas centrales de la estadstica es el siguiente:
Se desea estudiar una poblacion que tiene densidad f (; ), cuya forma es
conocida, pero que contiene un parametro desconocido (si es
conocido, la funcion de densidad esta completamente especicada y nada
hay que hacer).
El procedimiento es tomar una m.a. X
1
, X
2
, . . . , X
n
de tama no n de esta
distribucion y tomar el valor de una funcion, digamos t(x
1
, x
2
, . . . , x
n
) que
represente o estime el parametro desconocido .
El problema consiste en determinar que funcion sera la mejor para estimar
. Problema que sera estudiado con detalle mas adelante.
Ahora, examinaremos ciertas funciones de las m.a.s, llamadas momentos
muestrales. Sin embargo, primero deniremos lo que se entiende por una
estadstica (o estadstico).
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 25 / 48
1.4 Estadsticas y Momentos Muestrales
Uno de los problemas centrales de la estadstica es el siguiente:
Se desea estudiar una poblacion que tiene densidad f (; ), cuya forma es
conocida, pero que contiene un parametro desconocido (si es
conocido, la funcion de densidad esta completamente especicada y nada
hay que hacer).
El procedimiento es tomar una m.a. X
1
, X
2
, . . . , X
n
de tama no n de esta
distribucion y tomar el valor de una funcion, digamos t(x
1
, x
2
, . . . , x
n
) que
represente o estime el parametro desconocido .
El problema consiste en determinar que funcion sera la mejor para estimar
. Problema que sera estudiado con detalle mas adelante.
Ahora, examinaremos ciertas funciones de las m.a.s, llamadas momentos
muestrales. Sin embargo, primero deniremos lo que se entiende por una
estadstica (o estadstico).
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 25 / 48
Denicion 5 (Estadstico). Un estadstico es una funcion de v.a.s
observables, la cual es una v.a. observable en si misma, la cual no
contiene ning un parametro desconocido.
La restriccion impuesta por la palabra observable es requerida debido a
la forma en que intentamos usar una estadstica. (Observable signica
que podemos observar los valores de las v.a.s) Intentamos usar una
estadstica para realizar inferencia acerca de la densidad de las v.a.s, y si
las v.a.s no fueran observables, ellas no podran usarse para hacer
inferencias.
Por ejemplo, si la v.a. X (,
2
), donde y
2
son desconocidas,
entonces X no es una estadstica; tampoco lo es
X

(puesto que tales


funciones no solo dependen de la v.a. observable X, sino que dependen de
parametros desconocidos), pero X
2
, 2X +5, y X
3
+e
X
2
s son estadsticas.
En la formulacion anterior, uno de los problemas centrales de la estadstica
es encontrar una estadstica apropiada (funcion de las v.a.s
X
1
, X
2
, . . . , X
n
para representar a .
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 26 / 48
Denicion 5 (Estadstico). Un estadstico es una funcion de v.a.s
observables, la cual es una v.a. observable en si misma, la cual no
contiene ning un parametro desconocido.
La restriccion impuesta por la palabra observable es requerida debido a
la forma en que intentamos usar una estadstica. (Observable signica
que podemos observar los valores de las v.a.s) Intentamos usar una
estadstica para realizar inferencia acerca de la densidad de las v.a.s, y si
las v.a.s no fueran observables, ellas no podran usarse para hacer
inferencias.
Por ejemplo, si la v.a. X (,
2
), donde y
2
son desconocidas,
entonces X no es una estadstica; tampoco lo es
X

(puesto que tales


funciones no solo dependen de la v.a. observable X, sino que dependen de
parametros desconocidos), pero X
2
, 2X +5, y X
3
+e
X
2
s son estadsticas.
En la formulacion anterior, uno de los problemas centrales de la estadstica
es encontrar una estadstica apropiada (funcion de las v.a.s
X
1
, X
2
, . . . , X
n
para representar a .
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 26 / 48
Denicion 5 (Estadstico). Un estadstico es una funcion de v.a.s
observables, la cual es una v.a. observable en si misma, la cual no
contiene ning un parametro desconocido.
La restriccion impuesta por la palabra observable es requerida debido a
la forma en que intentamos usar una estadstica. (Observable signica
que podemos observar los valores de las v.a.s) Intentamos usar una
estadstica para realizar inferencia acerca de la densidad de las v.a.s, y si
las v.a.s no fueran observables, ellas no podran usarse para hacer
inferencias.
Por ejemplo, si la v.a. X (,
2
), donde y
2
son desconocidas,
entonces X no es una estadstica; tampoco lo es
X

(puesto que tales


funciones no solo dependen de la v.a. observable X, sino que dependen de
parametros desconocidos), pero X
2
, 2X +5, y X
3
+e
X
2
s son estadsticas.
En la formulacion anterior, uno de los problemas centrales de la estadstica
es encontrar una estadstica apropiada (funcion de las v.a.s
X
1
, X
2
, . . . , X
n
para representar a .
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 26 / 48
Denicion 5 (Estadstico). Un estadstico es una funcion de v.a.s
observables, la cual es una v.a. observable en si misma, la cual no
contiene ning un parametro desconocido.
La restriccion impuesta por la palabra observable es requerida debido a
la forma en que intentamos usar una estadstica. (Observable signica
que podemos observar los valores de las v.a.s) Intentamos usar una
estadstica para realizar inferencia acerca de la densidad de las v.a.s, y si
las v.a.s no fueran observables, ellas no podran usarse para hacer
inferencias.
Por ejemplo, si la v.a. X (,
2
), donde y
2
son desconocidas,
entonces X no es una estadstica; tampoco lo es
X

(puesto que tales


funciones no solo dependen de la v.a. observable X, sino que dependen de
parametros desconocidos), pero X
2
, 2X +5, y X
3
+e
X
2
s son estadsticas.
En la formulacion anterior, uno de los problemas centrales de la estadstica
es encontrar una estadstica apropiada (funcion de las v.a.s
X
1
, X
2
, . . . , X
n
para representar a .
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 26 / 48
Ejemplo 3 Si X
1
, X
2
, . . . , X
n
es una m.a. de una distribucion con
densidad f (; ), entonces (a condicion de que f (; ) sean v.a.s
observables). Las siguientes estadsticas son de interes en la estimacion de
parametros:
1. X =
_
1
n
_

n
i =1
X
i
, ( Promedio Muestral ).
2. S
2
=

n
i =1
(X
i
X)
2
(n1)
, ( Varianza Muestral ).
3. K = min {X
1
, ..., X
n
}, ( Mnimo de la Muestra ).
4. M = max {X
1
, ..., X
n
}, ( Maximo de la Muestra ).
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 27 / 48
Ejemplo 3 Si X
1
, X
2
, . . . , X
n
es una m.a. de una distribucion con
densidad f (; ), entonces (a condicion de que f (; ) sean v.a.s
observables). Las siguientes estadsticas son de interes en la estimacion de
parametros:
1. X =
_
1
n
_

n
i =1
X
i
, ( Promedio Muestral ).
2. S
2
=

n
i =1
(X
i
X)
2
(n1)
, ( Varianza Muestral ).
3. K = min {X
1
, ..., X
n
}, ( Mnimo de la Muestra ).
4. M = max {X
1
, ..., X
n
}, ( Maximo de la Muestra ).
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 27 / 48
Ejemplo 3 Si X
1
, X
2
, . . . , X
n
es una m.a. de una distribucion con
densidad f (; ), entonces (a condicion de que f (; ) sean v.a.s
observables). Las siguientes estadsticas son de interes en la estimacion de
parametros:
1. X =
_
1
n
_

n
i =1
X
i
, ( Promedio Muestral ).
2. S
2
=

n
i =1
(X
i
X)
2
(n1)
, ( Varianza Muestral ).
3. K = min {X
1
, ..., X
n
}, ( Mnimo de la Muestra ).
4. M = max {X
1
, ..., X
n
}, ( Maximo de la Muestra ).
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 27 / 48
Ejemplo 3 Si X
1
, X
2
, . . . , X
n
es una m.a. de una distribucion con
densidad f (; ), entonces (a condicion de que f (; ) sean v.a.s
observables). Las siguientes estadsticas son de interes en la estimacion de
parametros:
1. X =
_
1
n
_

n
i =1
X
i
, ( Promedio Muestral ).
2. S
2
=

n
i =1
(X
i
X)
2
(n1)
, ( Varianza Muestral ).
3. K = min {X
1
, ..., X
n
}, ( Mnimo de la Muestra ).
4. M = max {X
1
, ..., X
n
}, ( Maximo de la Muestra ).
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 27 / 48
Ejemplo 3 Si X
1
, X
2
, . . . , X
n
es una m.a. de una distribucion con
densidad f (; ), entonces (a condicion de que f (; ) sean v.a.s
observables). Las siguientes estadsticas son de interes en la estimacion de
parametros:
1. X =
_
1
n
_

n
i =1
X
i
, ( Promedio Muestral ).
2. S
2
=

n
i =1
(X
i
X)
2
(n1)
, ( Varianza Muestral ).
3. K = min {X
1
, ..., X
n
}, ( Mnimo de la Muestra ).
4. M = max {X
1
, ..., X
n
}, ( Maximo de la Muestra ).
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 27 / 48
En seguida denimos, discutimos y analizamos ciertos e importantes
estadsticos:
los Momentos Muestrales.
Denicion 6 (Momentos Muestrales). Sea X
1
, X
2
, . . . , X
n
una m.a. de
una distribucion con densidad f (). Entonces el r-esimo momento muestral
alrededor de 0, denotado por M

r
, se dene como
M

r
=
1
n
n

i =1
X
r
i
(3)
En particular, si r = 1, obtenemos la media muestral, la cual generalmenta
la denotaremos por X o X
n
; esto es,
X =
1
n
n

i =1
X
i
(4)
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 28 / 48
En seguida denimos, discutimos y analizamos ciertos e importantes
estadsticos: los Momentos Muestrales.
Denicion 6 (Momentos Muestrales). Sea X
1
, X
2
, . . . , X
n
una m.a. de
una distribucion con densidad f (). Entonces el r-esimo momento muestral
alrededor de 0, denotado por M

r
, se dene como
M

r
=
1
n
n

i =1
X
r
i
(3)
En particular, si r = 1, obtenemos la media muestral, la cual generalmenta
la denotaremos por X o X
n
; esto es,
X =
1
n
n

i =1
X
i
(4)
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 28 / 48
En seguida denimos, discutimos y analizamos ciertos e importantes
estadsticos: los Momentos Muestrales.
Denicion 6 (Momentos Muestrales). Sea X
1
, X
2
, . . . , X
n
una m.a. de
una distribucion con densidad f (). Entonces el r-esimo momento muestral
alrededor de 0, denotado por M

r
, se dene como
M

r
=
1
n
n

i =1
X
r
i
(3)
En particular, si r = 1, obtenemos la media muestral, la cual generalmenta
la denotaremos por X o X
n
; esto es,
X =
1
n
n

i =1
X
i
(4)
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 28 / 48
En seguida denimos, discutimos y analizamos ciertos e importantes
estadsticos: los Momentos Muestrales.
Denicion 6 (Momentos Muestrales). Sea X
1
, X
2
, . . . , X
n
una m.a. de
una distribucion con densidad f (). Entonces el r-esimo momento muestral
alrededor de 0, denotado por M

r
, se dene como
M

r
=
1
n
n

i =1
X
r
i
(3)
En particular, si r = 1, obtenemos la media muestral, la cual generalmenta
la denotaremos por X o X
n
; esto es,
X =
1
n
n

i =1
X
i
(4)
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 28 / 48
En seguida denimos, discutimos y analizamos ciertos e importantes
estadsticos: los Momentos Muestrales.
Denicion 6 (Momentos Muestrales). Sea X
1
, X
2
, . . . , X
n
una m.a. de
una distribucion con densidad f (). Entonces el r-esimo momento muestral
alrededor de 0, denotado por M

r
, se dene como
M

r
=
1
n
n

i =1
X
r
i
(3)
En particular, si r = 1, obtenemos la media muestral, la cual generalmenta
la denotaremos por X o X
n
; esto es,
X =
1
n
n

i =1
X
i
(4)
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 28 / 48
En seguida denimos, discutimos y analizamos ciertos e importantes
estadsticos: los Momentos Muestrales.
Denicion 6 (Momentos Muestrales). Sea X
1
, X
2
, . . . , X
n
una m.a. de
una distribucion con densidad f (). Entonces el r-esimo momento muestral
alrededor de 0, denotado por M

r
, se dene como
M

r
=
1
n
n

i =1
X
r
i
(3)
En particular, si r = 1, obtenemos la media muestral, la cual generalmenta
la denotaremos por X o X
n
; esto es,
X =
1
n
n

i =1
X
i
(4)
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 28 / 48
Tambien, el r-esimo momento muestral alrededor de X
n
, denotado por M
r
,
se dene como
M
r
=
1
n
n

i =1
_
X
i
X
n
_
r
(5)
En el curso de probabilidad se ha visto que el r-esimo momento de una
v.a. X, o el r-esimo momento de su correspondiente densidad f
X
(),
esta denido como

r
= E[X
r
]. As, podriamos decir que E[X
r
] es el
r-esimo momento poblacional de la poblacion con densidad
f (x) = f
X
(x).
Veremos que los momentos muestrales reejan los momentos
poblacionales en el sentido de que los valores esperados de los
momentos muestrales coinciden con los momentos de la poblacion.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 29 / 48
Tambien, el r-esimo momento muestral alrededor de X
n
, denotado por M
r
,
se dene como
M
r
=
1
n
n

i =1
_
X
i
X
n
_
r
(5)
En el curso de probabilidad se ha visto que el r-esimo momento de una
v.a. X, o el r-esimo momento de su correspondiente densidad f
X
(),
esta denido como

r
= E[X
r
]. As, podriamos decir que E[X
r
] es el
r-esimo momento poblacional de la poblacion con densidad
f (x) = f
X
(x).
Veremos que los momentos muestrales reejan los momentos
poblacionales en el sentido de que los valores esperados de los
momentos muestrales coinciden con los momentos de la poblacion.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 29 / 48
Tambien, el r-esimo momento muestral alrededor de X
n
, denotado por M
r
,
se dene como
M
r
=
1
n
n

i =1
_
X
i
X
n
_
r
(5)
En el curso de probabilidad se ha visto que el r-esimo momento de una
v.a. X, o el r-esimo momento de su correspondiente densidad f
X
(),
esta denido como

r
= E[X
r
]. As, podriamos decir que E[X
r
] es el
r-esimo momento poblacional de la poblacion con densidad
f (x) = f
X
(x).
Veremos que los momentos muestrales reejan los momentos
poblacionales en el sentido de que los valores esperados de los
momentos muestrales coinciden con los momentos de la poblacion.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 29 / 48
Tambien, el r-esimo momento muestral alrededor de X
n
, denotado por M
r
,
se dene como
M
r
=
1
n
n

i =1
_
X
i
X
n
_
r
(5)
En el curso de probabilidad se ha visto que el r-esimo momento de una
v.a. X, o el r-esimo momento de su correspondiente densidad f
X
(),
esta denido como

r
= E[X
r
]. As, podriamos decir que E[X
r
] es el
r-esimo momento poblacional de la poblacion con densidad
f (x) = f
X
(x).
Veremos que los momentos muestrales reejan los
momentos
poblacionales en el sentido de que los valores esperados de los
momentos muestrales coinciden con los momentos de la poblacion.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 29 / 48
Tambien, el r-esimo momento muestral alrededor de X
n
, denotado por M
r
,
se dene como
M
r
=
1
n
n

i =1
_
X
i
X
n
_
r
(5)
En el curso de probabilidad se ha visto que el r-esimo momento de una
v.a. X, o el r-esimo momento de su correspondiente densidad f
X
(),
esta denido como

r
= E[X
r
]. As, podriamos decir que E[X
r
] es el
r-esimo momento poblacional de la poblacion con densidad
f (x) = f
X
(x).
Veremos que los momentos muestrales reejan los momentos
poblacionales
en el sentido de que los valores esperados de los
momentos muestrales coinciden con los momentos de la poblacion.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 29 / 48
Tambien, el r-esimo momento muestral alrededor de X
n
, denotado por M
r
,
se dene como
M
r
=
1
n
n

i =1
_
X
i
X
n
_
r
(5)
En el curso de probabilidad se ha visto que el r-esimo momento de una
v.a. X, o el r-esimo momento de su correspondiente densidad f
X
(),
esta denido como

r
= E[X
r
]. As, podriamos decir que E[X
r
] es el
r-esimo momento poblacional de la poblacion con densidad
f (x) = f
X
(x).
Veremos que los momentos muestrales reejan los momentos
poblacionales en el sentido de que los valores esperados de los
momentos muestrales coinciden con los momentos de la poblacion.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 29 / 48
Tambien, la varianza de un momento muestral se mostrara que es igual a
1
n
veces alguna funcion de momentos poblacionales.
La implicacion es que para una poblacion dada los valores que los
momentos muestrales asumen tienden a ser mas concentrados alrededor
del correspondiente momento poblacional para muestras grandes de
tama no n que para muestras peque nas.
As, un momento muestral puede usarse para estimar el corrrespondiente
momento poblacional (siempre que los momentos poblacionales existan).
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 30 / 48
Tambien, la varianza de un momento muestral se mostrara que es igual a
1
n
veces alguna funcion de momentos poblacionales.
La implicacion es que para una poblacion dada los valores que los
momentos muestrales asumen tienden a ser mas concentrados alrededor
del correspondiente momento poblacional para muestras grandes de
tama no n que para muestras peque nas.
As, un momento muestral puede usarse para estimar el corrrespondiente
momento poblacional (siempre que los momentos poblacionales existan).
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 30 / 48
Tambien, la varianza de un momento muestral se mostrara que es igual a
1
n
veces alguna funcion de momentos poblacionales.
La implicacion es que para una poblacion dada los valores que los
momentos muestrales asumen tienden a ser mas concentrados alrededor
del correspondiente momento poblacional para muestras grandes de
tama no n que para muestras peque nas.
As, un momento muestral puede usarse para estimar el corrrespondiente
momento poblacional (siempre que los momentos poblacionales existan).
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 30 / 48
Teorema 1. Sea X
1
, X
2
, . . . , X
n
una m.a. de una poblacion cuya
distribucion tiene densidad f (). El valor esperado del i-esimo momento
(alrededor de 0) es igual al r-esimo momento poblacional; esto es,
E
_
M

r
_
=

r
, ( si

r
existe ) (6)
Ademas,
Var
_
M

r
_
=
1
n
_
E
_
X
2r

(E [X
r
])
2
_
=
1
n
_

2r
(

r
)
2
_
( si

2r
existe ) (7)
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 31 / 48
Teorema 1. Sea X
1
, X
2
, . . . , X
n
una m.a. de una poblacion cuya
distribucion tiene densidad f (). El valor esperado del i-esimo momento
(alrededor de 0) es igual al r-esimo momento poblacional; esto es,
E
_
M

r
_
=

r
, ( si

r
existe ) (6)
Ademas,
Var
_
M

r
_
=
1
n
_
E
_
X
2r

(E [X
r
])
2
_
=
1
n
_

2r
(

r
)
2
_
( si

2r
existe ) (7)
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 31 / 48
Teorema 1. Sea X
1
, X
2
, . . . , X
n
una m.a. de una poblacion cuya
distribucion tiene densidad f (). El valor esperado del i-esimo momento
(alrededor de 0) es igual al r-esimo momento poblacional; esto es,
E
_
M

r
_
=

r
, ( si

r
existe ) (6)
Ademas,
Var
_
M

r
_
=
1
n
_
E
_
X
2r

(E [X
r
])
2
_
=
1
n
_

2r
(

r
)
2
_
( si

2r
existe ) (7)
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 31 / 48
Teorema 1. Sea X
1
, X
2
, . . . , X
n
una m.a. de una poblacion cuya
distribucion tiene densidad f (). El valor esperado del i-esimo momento
(alrededor de 0) es igual al r-esimo momento poblacional; esto es,
E
_
M

r
_
=

r
, ( si

r
existe ) (6)
Ademas,
Var
_
M

r
_
=
1
n
_
E
_
X
2r

(E [X
r
])
2
_
=
1
n
_

2r
(

r
)
2
_
( si

2r
existe ) (7)
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 31 / 48
Demostracion:
E
_
M

r
_
= E
_
1
n
n

1
X
r
i
_
=
1
n
E
_
n

1
X
r
i
_
=
1
n
n

1
E [X
r
i
] =
1
n
n

r
=

r
.
Var
_
M

r
_
= Var
_
1
n
n

1
X
r
i
_
=
_
1
n
_
2
Var
_
n

1
X
r
i
_
=
_
1
n
_
2
n

1
Var [X
r
i
] =
_
1
n
_
2
n

1
_
E
_
X
2r
i

(E [X
r
i
])
2
_
=
1
n
_
E
_
X
2r

(E [X
r
])
2
_
=
1
n
_

2r
(

r
)
2
.
_
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 32 / 48
Demostracion:
E
_
M

r
_
= E
_
1
n
n

1
X
r
i
_
=
1
n
E
_
n

1
X
r
i
_
=
1
n
n

1
E [X
r
i
] =
1
n
n

r
=

r
.
Var
_
M

r
_
= Var
_
1
n
n

1
X
r
i
_
=
_
1
n
_
2
Var
_
n

1
X
r
i
_
=
_
1
n
_
2
n

1
Var [X
r
i
] =
_
1
n
_
2
n

1
_
E
_
X
2r
i

(E [X
r
i
])
2
_
=
1
n
_
E
_
X
2r

(E [X
r
])
2
_
=
1
n
_

2r
(

r
)
2
.
_
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 32 / 48
Demostracion:
E
_
M

r
_
= E
_
1
n
n

1
X
r
i
_
=
1
n
E
_
n

1
X
r
i
_
=
1
n
n

1
E [X
r
i
] =
1
n
n

r
=

r
.
Var
_
M

r
_
= Var
_
1
n
n

1
X
r
i
_
=
_
1
n
_
2
Var
_
n

1
X
r
i
_
=
_
1
n
_
2
n

1
Var [X
r
i
] =
_
1
n
_
2
n

1
_
E
_
X
2r
i

(E [X
r
i
])
2
_
=
1
n
_
E
_
X
2r

(E [X
r
])
2
_
=
1
n
_

2r
(

r
)
2
.
_
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 32 / 48
Demostracion:
E
_
M

r
_
= E
_
1
n
n

1
X
r
i
_
=
1
n
E
_
n

1
X
r
i
_
=
1
n
n

1
E [X
r
i
] =
1
n
n

r
=

r
.
Var
_
M

r
_
= Var
_
1
n
n

1
X
r
i
_
=
_
1
n
_
2
Var
_
n

1
X
r
i
_
=
_
1
n
_
2
n

1
Var [X
r
i
] =
_
1
n
_
2
n

1
_
E
_
X
2r
i

(E [X
r
i
])
2
_
=
1
n
_
E
_
X
2r

(E [X
r
])
2
_
=
1
n
_

2r
(

r
)
2
.
_
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 32 / 48
Demostracion:
E
_
M

r
_
= E
_
1
n
n

1
X
r
i
_
=
1
n
E
_
n

1
X
r
i
_
=
1
n
n

1
E [X
r
i
] =
1
n
n

r
=

r
.
Var
_
M

r
_
= Var
_
1
n
n

1
X
r
i
_
=
_
1
n
_
2
Var
_
n

1
X
r
i
_
=
_
1
n
_
2
n

1
Var [X
r
i
] =
_
1
n
_
2
n

1
_
E
_
X
2r
i

(E [X
r
i
])
2
_
=
1
n
_
E
_
X
2r

(E [X
r
])
2
_
=
1
n
_

2r
(

r
)
2
.
_
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 32 / 48
Demostracion:
E
_
M

r
_
= E
_
1
n
n

1
X
r
i
_
=
1
n
E
_
n

1
X
r
i
_
=
1
n
n

1
E [X
r
i
] =
1
n
n

r
=

r
.
Var
_
M

r
_
= Var
_
1
n
n

1
X
r
i
_
=
_
1
n
_
2
Var
_
n

1
X
r
i
_
=
_
1
n
_
2
n

1
Var [X
r
i
] =
_
1
n
_
2
n

1
_
E
_
X
2r
i

(E [X
r
i
])
2
_
=
1
n
_
E
_
X
2r

(E [X
r
])
2
_
=
1
n
_

2r
(

r
)
2
.
_
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 32 / 48
En particular, si r = 1 obtenemos el siguiente corolario.
Corolario. Sea X
1
, X
2
, . . . , X
n
una m.a. de una poblacion cuya distribucion
tiene densidad f (), y sea X
n
=
1
n

n
1
X
i
la media muestral. Entonces,
E
_
X
n

= y Var
_
X
n

=
1
n

2
, (8)
Donde y
2
son la media y la varianza de f ().
El Teorema 1, proporciona la media y la varianza en terminos de los
momentos poblacionales del r-esimo momento muestral alrededor de 0. De
forma semejante, a un cuando mas complicado, pueden encontrarse la
media y la varianza del r-esimo momento muestral alrededor de la media
muestral.
Nos conformaremos con tratar el caso partcular r = 2, esto es, con
M
2
=
1
n

n
1
_
X
i


X
_
2
. Algunas veces M
2
es llamada la varianza muestral,
a un cuando en general se preere la siguiente denicion.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 33 / 48
En particular, si r = 1 obtenemos el siguiente corolario.
Corolario. Sea X
1
, X
2
, . . . , X
n
una m.a. de una poblacion cuya distribucion
tiene densidad f (), y sea X
n
=
1
n

n
1
X
i
la media muestral. Entonces,
E
_
X
n

= y Var
_
X
n

=
1
n

2
, (8)
Donde y
2
son la media y la varianza de f ().
El Teorema 1, proporciona la media y la varianza en terminos de los
momentos poblacionales del r-esimo momento muestral alrededor de 0. De
forma semejante, a un cuando mas complicado, pueden encontrarse la
media y la varianza del r-esimo momento muestral alrededor de la media
muestral.
Nos conformaremos con tratar el caso partcular r = 2, esto es, con
M
2
=
1
n

n
1
_
X
i


X
_
2
. Algunas veces M
2
es llamada la varianza muestral,
a un cuando en general se preere la siguiente denicion.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 33 / 48
En particular, si r = 1 obtenemos el siguiente corolario.
Corolario. Sea X
1
, X
2
, . . . , X
n
una m.a. de una poblacion cuya distribucion
tiene densidad f (), y sea X
n
=
1
n

n
1
X
i
la media muestral. Entonces,
E
_
X
n

= y Var
_
X
n

=
1
n

2
, (8)
Donde y
2
son la media y la varianza de f ().
El Teorema 1, proporciona la media y la varianza en terminos de los
momentos poblacionales del r-esimo momento muestral alrededor de 0. De
forma semejante, a un cuando mas complicado, pueden encontrarse la
media y la varianza del r-esimo momento muestral alrededor de la media
muestral.
Nos conformaremos con tratar el caso partcular r = 2, esto es, con
M
2
=
1
n

n
1
_
X
i


X
_
2
. Algunas veces M
2
es llamada la varianza muestral,
a un cuando en general se preere la siguiente denicion.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 33 / 48
En particular, si r = 1 obtenemos el siguiente corolario.
Corolario. Sea X
1
, X
2
, . . . , X
n
una m.a. de una poblacion cuya distribucion
tiene densidad f (), y sea X
n
=
1
n

n
1
X
i
la media muestral. Entonces,
E
_
X
n

= y Var
_
X
n

=
1
n

2
, (8)
Donde y
2
son la media y la varianza de f ().
El Teorema 1, proporciona la media y la varianza en terminos de los
momentos poblacionales del r-esimo momento muestral alrededor de 0. De
forma semejante, a un cuando mas complicado, pueden encontrarse la
media y la varianza del r-esimo momento muestral alrededor de la media
muestral.
Nos conformaremos con tratar el caso partcular r = 2, esto es, con
M
2
=
1
n

n
1
_
X
i


X
_
2
. Algunas veces M
2
es llamada la varianza muestral,
a un cuando en general se preere la siguiente denicion.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 33 / 48
En particular, si r = 1 obtenemos el siguiente corolario.
Corolario. Sea X
1
, X
2
, . . . , X
n
una m.a. de una poblacion cuya distribucion
tiene densidad f (), y sea X
n
=
1
n

n
1
X
i
la media muestral. Entonces,
E
_
X
n

= y Var
_
X
n

=
1
n

2
, (8)
Donde y
2
son la media y la varianza de f ().
El Teorema 1, proporciona la media y la varianza en terminos de los
momentos poblacionales del r-esimo momento muestral alrededor de 0. De
forma semejante, a un cuando mas complicado, pueden encontrarse la
media y la varianza del r-esimo momento muestral alrededor de la media
muestral.
Nos conformaremos con tratar el caso partcular r = 2, esto es, con
M
2
=
1
n

n
1
_
X
i


X
_
2
. Algunas veces M
2
es llamada la varianza muestral,
a un cuando en general se preere la siguiente denicion.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 33 / 48
En particular, si r = 1 obtenemos el siguiente corolario.
Corolario. Sea X
1
, X
2
, . . . , X
n
una m.a. de una poblacion cuya distribucion
tiene densidad f (), y sea X
n
=
1
n

n
1
X
i
la media muestral. Entonces,
E
_
X
n

= y Var
_
X
n

=
1
n

2
, (8)
Donde y
2
son la media y la varianza de f ().
El Teorema 1, proporciona la media y la varianza en terminos de los
momentos poblacionales del r-esimo momento muestral alrededor de 0. De
forma semejante, a un cuando mas complicado, pueden encontrarse la
media y la varianza del r-esimo momento muestral alrededor de la media
muestral.
Nos conformaremos con tratar el caso partcular r = 2, esto es, con
M
2
=
1
n

n
1
_
X
i


X
_
2
. Algunas veces M
2
es llamada la varianza muestral,
a un cuando en general se preere la siguiente denicion.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 33 / 48
Denicion 7 (Varianza Muestral). Sea X
1
, X
2
, . . . , X
n
una m.a. de una
poblacion cuya distribucion tiene densidad f (). Entonces
S
2
n
= S
2
=
1
n 1
n

1
_
X
i


X
_
2
, para n > 1 (9)
se dene como la varianza muestral.
La razon de tomar S
2
mas que M
2
como denicion de varianza muestral
(a un cuando ambas miden la dispersion en la muestra) es que el valor
esperado de S
2
es igual a la varianza poblacional.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 34 / 48
Denicion 7 (Varianza Muestral). Sea X
1
, X
2
, . . . , X
n
una m.a. de una
poblacion cuya distribucion tiene densidad f (). Entonces
S
2
n
= S
2
=
1
n 1
n

1
_
X
i


X
_
2
, para n > 1 (9)
se dene como la varianza muestral.
La razon de tomar S
2
mas que M
2
como denicion de varianza muestral
(a un cuando ambas miden la dispersion en la muestra) es que el valor
esperado de S
2
es igual a la varianza poblacional.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 34 / 48
Denicion 7 (Varianza Muestral). Sea X
1
, X
2
, . . . , X
n
una m.a. de una
poblacion cuya distribucion tiene densidad f (). Entonces
S
2
n
= S
2
=
1
n 1
n

1
_
X
i


X
_
2
, para n > 1 (9)
se dene como la varianza muestral.
La razon de tomar S
2
mas que M
2
como denicion de varianza muestral
(a un cuando ambas miden la dispersion en la muestra) es que el valor
esperado de S
2
es igual a la varianza poblacional.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 34 / 48
Denicion 7 (Varianza Muestral). Sea X
1
, X
2
, . . . , X
n
una m.a. de una
poblacion cuya distribucion tiene densidad f (). Entonces
S
2
n
= S
2
=
1
n 1
n

1
_
X
i


X
_
2
, para n > 1 (9)
se dene como la varianza muestral.
La razon de tomar S
2
mas que M
2
como denicion de varianza muestral
(a un cuando ambas miden la dispersion en la muestra) es que el valor
esperado de S
2
es igual a la varianza poblacional.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 34 / 48
Teorema 2. Sea X
1
, X
2
, . . . , X
n
una m.a. de una poblacion cuya
distribucion tiene densidad f (), sea
S
2
=
1
n 1
n

1
_
X
i


X
_
2
.
Entonces,
E
_
S
2

=
2
y Var
_
S
2

=
1
n
_

4

n 3
n 1

4
_
para n > 1. (10)
Demostracion: Recuerdese que
2
= E[(X )
2
] y
r
= E[(X )
r
].
Iniciaremos probando la siguiente igualdad:
n

1
(X
i
)
2
=
n

1
_
X
i
X
_
2
+ n(X )
2
(11)
puesto que,
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 35 / 48
Teorema 2. Sea X
1
, X
2
, . . . , X
n
una m.a. de una poblacion cuya
distribucion tiene densidad f (), sea
S
2
=
1
n 1
n

1
_
X
i


X
_
2
.
Entonces,
E
_
S
2

=
2
y Var
_
S
2

=
1
n
_

4

n 3
n 1

4
_
para n > 1. (10)
Demostracion: Recuerdese que
2
= E[(X )
2
] y
r
= E[(X )
r
].
Iniciaremos probando la siguiente igualdad:
n

1
(X
i
)
2
=
n

1
_
X
i
X
_
2
+ n(X )
2
(11)
puesto que,
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 35 / 48
Teorema 2. Sea X
1
, X
2
, . . . , X
n
una m.a. de una poblacion cuya
distribucion tiene densidad f (), sea
S
2
=
1
n 1
n

1
_
X
i


X
_
2
.
Entonces,
E
_
S
2

=
2
y Var
_
S
2

=
1
n
_

4

n 3
n 1

4
_
para n > 1. (10)
Demostracion: Recuerdese que
2
= E[(X )
2
] y
r
= E[(X )
r
].
Iniciaremos probando la siguiente igualdad:
n

1
(X
i
)
2
=
n

1
_
X
i
X
_
2
+ n(X )
2
(11)
puesto que,
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 35 / 48
Teorema 2. Sea X
1
, X
2
, . . . , X
n
una m.a. de una poblacion cuya
distribucion tiene densidad f (), sea
S
2
=
1
n 1
n

1
_
X
i


X
_
2
.
Entonces,
E
_
S
2

=
2
y Var
_
S
2

=
1
n
_

4

n 3
n 1

4
_
para n > 1. (10)
Demostracion: Recuerdese que
2
= E[(X )
2
] y
r
= E[(X )
r
].
Iniciaremos probando la siguiente igualdad:
n

1
(X
i
)
2
=
n

1
_
X
i
X
_
2
+ n(X )
2
(11)
puesto que,
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 35 / 48
Teorema 2. Sea X
1
, X
2
, . . . , X
n
una m.a. de una poblacion cuya
distribucion tiene densidad f (), sea
S
2
=
1
n 1
n

1
_
X
i


X
_
2
.
Entonces,
E
_
S
2

=
2
y Var
_
S
2

=
1
n
_

4

n 3
n 1

4
_
para n > 1. (10)
Demostracion: Recuerdese que
2
= E[(X )
2
] y
r
= E[(X )
r
].
Iniciaremos probando la siguiente igualdad:
n

1
(X
i
)
2
=
n

1
_
X
i
X
_
2
+ n(X )
2
(11)
puesto que,
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 35 / 48
n

i =1
[X
i
]
2
=
n

i =1
(X
i
X + X )
2
=
n

i =1
[(X
i
X) + (X )]
2
=
n

i =1
[(X
i
X)
2
+ 2(X
i
X)(X ) + (X )
2
]
=
n

i =1
(X
i
X)
2
+ 2(X )
n

i =1
(X
i
X) + n(X )
2
=
n

i =1
(X
i
X)
2
+ n(X )
2
.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 36 / 48
n

i =1
[X
i
]
2
=
n

i =1
(X
i
X + X )
2
=
n

i =1
[(X
i
X) + (X )]
2
=
n

i =1
[(X
i
X)
2
+ 2(X
i
X)(X ) + (X )
2
]
=
n

i =1
(X
i
X)
2
+ 2(X )
n

i =1
(X
i
X) + n(X )
2
=
n

i =1
(X
i
X)
2
+ n(X )
2
.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 36 / 48
n

i =1
[X
i
]
2
=
n

i =1
(X
i
X + X )
2
=
n

i =1
[(X
i
X) + (X )]
2
=
n

i =1
[(X
i
X)
2
+ 2(X
i
X)(X ) + (X )
2
]
=
n

i =1
(X
i
X)
2
+ 2(X )
n

i =1
(X
i
X) + n(X )
2
=
n

i =1
(X
i
X)
2
+ n(X )
2
.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 36 / 48
n

i =1
[X
i
]
2
=
n

i =1
(X
i
X + X )
2
=
n

i =1
[(X
i
X) + (X )]
2
=
n

i =1
[(X
i
X)
2
+ 2(X
i
X)(X ) + (X )
2
]
=
n

i =1
(X
i
X)
2
+ 2(X )
n

i =1
(X
i
X) + n(X )
2
=
n

i =1
(X
i
X)
2
+ n(X )
2
.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 36 / 48
Usando la Ecuacion (11), se obtiene.
E[S
2
] = E
_
1
n 1
n

i =1
(X
i
X)
2
_
=
_
1
n 1
_
E
_
n

i =1
(X
i
)
2
n(X )
2
_
=
_
1
n 1
_
_
n

i =1
E
_
(X
i
)
2

nE
_
(X )
2

_
=
_
1
n 1
_
_
n

i =1

2
nVar [X]
_
=
_
1
n 1
__
n
2
n

2
n
_
=
2
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 37 / 48
Usando la Ecuacion (11), se obtiene.
E[S
2
] = E
_
1
n 1
n

i =1
(X
i
X)
2
_
=
_
1
n 1
_
E
_
n

i =1
(X
i
)
2
n(X )
2
_
=
_
1
n 1
_
_
n

i =1
E
_
(X
i
)
2

nE
_
(X )
2

_
=
_
1
n 1
_
_
n

i =1

2
nVar [X]
_
=
_
1
n 1
__
n
2
n

2
n
_
=
2
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 37 / 48
Usando la Ecuacion (11), se obtiene.
E[S
2
] = E
_
1
n 1
n

i =1
(X
i
X)
2
_
=
_
1
n 1
_
E
_
n

i =1
(X
i
)
2
n(X )
2
_
=
_
1
n 1
_
_
n

i =1
E
_
(X
i
)
2

nE
_
(X )
2

_
=
_
1
n 1
_
_
n

i =1

2
nVar [X]
_
=
_
1
n 1
__
n
2
n

2
n
_
=
2
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 37 / 48
Usando la Ecuacion (11), se obtiene.
E[S
2
] = E
_
1
n 1
n

i =1
(X
i
X)
2
_
=
_
1
n 1
_
E
_
n

i =1
(X
i
)
2
n(X )
2
_
=
_
1
n 1
_
_
n

i =1
E
_
(X
i
)
2

nE
_
(X )
2

_
=
_
1
n 1
_
_
n

i =1

2
nVar [X]
_
=
_
1
n 1
__
n
2
n

2
n
_
=
2
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 37 / 48
Usando la Ecuacion (11), se obtiene.
E[S
2
] = E
_
1
n 1
n

i =1
(X
i
X)
2
_
=
_
1
n 1
_
E
_
n

i =1
(X
i
)
2
n(X )
2
_
=
_
1
n 1
_
_
n

i =1
E
_
(X
i
)
2

nE
_
(X )
2

_
=
_
1
n 1
_
_
n

i =1

2
nVar [X]
_
=
_
1
n 1
__
n
2
n

2
n
_
=
2
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 37 / 48
Los momentos muestrales son ejemplos de estadsticas que pueden usarse
para estimar sus contrapartes poblacionales.
Por ejemplo, M

r
es un estimador de

r
, X estima a , y S
2
estima a
2
.
En cada caso estamos tomando una funcion de la muestra, la cual puede
observarse, y usamos el valor de esta funcion de la muestra para estimar al
parametro poblacional desconocido.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 38 / 48
Los momentos muestrales son ejemplos de estadsticas que pueden usarse
para estimar sus contrapartes poblacionales.
Por ejemplo, M

r
es un estimador de

r
, X estima a , y S
2
estima a
2
.
En cada caso estamos tomando una funcion de la muestra, la cual puede
observarse, y usamos el valor de esta funcion de la muestra para estimar al
parametro poblacional desconocido.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 38 / 48
Los momentos muestrales son ejemplos de estadsticas que pueden usarse
para estimar sus contrapartes poblacionales.
Por ejemplo, M

r
es un estimador de

r
, X estima a , y S
2
estima a
2
.
En cada caso estamos tomando una funcion de la muestra, la cual puede
observarse, y usamos el valor de esta funcion de la muestra para estimar al
parametro poblacional desconocido.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 38 / 48
1.5 Distribucion de la media muestral
El primer momento muestral (M

1
) es la media muestral, esto es,
X = X
n
= M

1
=
_
1
n
_
n

i =1
X
i
,
donde X
1
, X
2
, . . . , X
n
es una m.a. de una poblacion cuya distribucion tiene
densidad f ().
X es una funcion de las v.a.s X
1
, X
2
, . . . , X
n
, por lo que teoricamente
puede encontrarse la distribucion de X .
En general, uno sospechara que la distribucion de X depende de la
densidad f () de donde se ha extrado la muestra, pero realmente esto no
es as.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 39 / 48
1.5 Distribucion de la media muestral
El primer momento muestral (M

1
) es la media muestral, esto es,
X = X
n
= M

1
=
_
1
n
_
n

i =1
X
i
,
donde X
1
, X
2
, . . . , X
n
es una m.a. de una poblacion cuya distribucion tiene
densidad f ().
X es una funcion de las v.a.s X
1
, X
2
, . . . , X
n
, por lo que teoricamente
puede encontrarse la distribucion de X .
En general, uno sospechara que la distribucion de X depende de la
densidad f () de donde se ha extrado la muestra, pero realmente esto no
es as.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 39 / 48
1.5 Distribucion de la media muestral
El primer momento muestral (M

1
) es la media muestral, esto es,
X = X
n
= M

1
=
_
1
n
_
n

i =1
X
i
,
donde X
1
, X
2
, . . . , X
n
es una m.a. de una poblacion cuya distribucion tiene
densidad f ().
X es una funcion de las v.a.s X
1
, X
2
, . . . , X
n
, por lo que teoricamente
puede encontrarse la distribucion de X .
En general, uno sospechara que la distribucion de X depende de la
densidad f () de donde se ha extrado la muestra, pero realmente esto no
es as.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 39 / 48
1.5 Distribucion de la media muestral
El primer momento muestral (M

1
) es la media muestral, esto es,
X = X
n
= M

1
=
_
1
n
_
n

i =1
X
i
,
donde X
1
, X
2
, . . . , X
n
es una m.a. de una poblacion cuya distribucion tiene
densidad f ().
X es una funcion de las v.a.s X
1
, X
2
, . . . , X
n
, por lo que teoricamente
puede encontrarse la distribucion de X .
En general, uno sospechara que la distribucion de X depende de la
densidad f () de donde se ha extrado la muestra, pero realmente esto no
es as.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 39 / 48
Dos caractersticas de la distribucion de X, son su media y su varianza, y
estas no dependen por si mismas de la densidad f (), sino que dependen
solo de dos caractersticas de la densidad f ().
La lectura de esta seccion puede ayudarnos a pensar a la media muestral
X como un estimador de la media de la distribucion con densidad f (),
de donde se ha obtenido la muestra. As, podemos pensar que un
proposito al tomar la muestra es estimar con X.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 40 / 48
Dos caractersticas de la distribucion de X, son su media y su varianza, y
estas no dependen por si mismas de la densidad f (), sino que dependen
solo de dos caractersticas de la densidad f ().
La lectura de esta seccion puede ayudarnos a pensar a la media muestral
X como un estimador de la media de la distribucion con densidad f (),
de donde se ha obtenido la muestra. As, podemos pensar que un
proposito al tomar la muestra es estimar con X.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 40 / 48
Teorema 3. Sea X
1
, X
2
, . . . , X
n
una m.a. de una poblacion cuya
distribucion tiene densidad f (), la cual tiene media y varianza
2
, y sea
X =
_
1
n
_

n
i =1
X
i
. Entonces,
E
_
X

=
X
y Var
_
X

=
2
X
=
_
1
n
_

2
. (12)
En la perspectiva de usar un valor de X para estimar , vamos a analizar
lo que el Teorema dice.
E
_
X

= , dice que en promedio X es igual al parametro que se esta


estimando o bien que la distribucion de X esta centrada alrededor de .
Var
_
X

=
_
1
n
_

2
, dice que la dispersion de los valores de X alredor de
es peque na para muestras grandes comparada con tama nos de muestra
peque nos.
Por ejemplo, la varianza de la distribucion de X para una muestra de
tama no 20, es la mitad, de la varianza de la distribucion de X para una
muestra de tama no 10.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 41 / 48
Teorema 3. Sea X
1
, X
2
, . . . , X
n
una m.a. de una poblacion cuya
distribucion tiene densidad f (), la cual tiene media y varianza
2
, y sea
X =
_
1
n
_

n
i =1
X
i
. Entonces,
E
_
X

=
X
y Var
_
X

=
2
X
=
_
1
n
_

2
. (12)
En la perspectiva de usar un valor de X para estimar , vamos a analizar
lo que el Teorema dice.
E
_
X

= , dice que en promedio X es igual al parametro que se esta


estimando o bien que la distribucion de X esta centrada alrededor de .
Var
_
X

=
_
1
n
_

2
, dice que la dispersion de los valores de X alredor de
es peque na para muestras grandes comparada con tama nos de muestra
peque nos.
Por ejemplo, la varianza de la distribucion de X para una muestra de
tama no 20, es la mitad, de la varianza de la distribucion de X para una
muestra de tama no 10.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 41 / 48
Teorema 3. Sea X
1
, X
2
, . . . , X
n
una m.a. de una poblacion cuya
distribucion tiene densidad f (), la cual tiene media y varianza
2
, y sea
X =
_
1
n
_

n
i =1
X
i
. Entonces,
E
_
X

=
X
y Var
_
X

=
2
X
=
_
1
n
_

2
. (12)
En la perspectiva de usar un valor de X para estimar , vamos a analizar
lo que el Teorema dice.
E
_
X

= , dice que en promedio X es igual al parametro que se esta


estimando o bien que la distribucion de X esta centrada alrededor de .
Var
_
X

=
_
1
n
_

2
, dice que la dispersion de los valores de X alredor de
es peque na para muestras grandes comparada con tama nos de muestra
peque nos.
Por ejemplo, la varianza de la distribucion de X para una muestra de
tama no 20, es la mitad, de la varianza de la distribucion de X para una
muestra de tama no 10.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 41 / 48
Teorema 3. Sea X
1
, X
2
, . . . , X
n
una m.a. de una poblacion cuya
distribucion tiene densidad f (), la cual tiene media y varianza
2
, y sea
X =
_
1
n
_

n
i =1
X
i
. Entonces,
E
_
X

=
X
y Var
_
X

=
2
X
=
_
1
n
_

2
. (12)
En la perspectiva de usar un valor de X para estimar , vamos a analizar
lo que el Teorema dice.
E
_
X

= , dice que en promedio X es igual al parametro que se esta


estimando o bien que la distribucion de X esta centrada alrededor de .
Var
_
X

=
_
1
n
_

2
, dice que la dispersion de los valores de X alredor de
es peque na para muestras grandes comparada con tama nos de muestra
peque nos.
Por ejemplo, la varianza de la distribucion de X para una muestra de
tama no 20, es la mitad, de la varianza de la distribucion de X para una
muestra de tama no 10.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 41 / 48
Teorema 3. Sea X
1
, X
2
, . . . , X
n
una m.a. de una poblacion cuya
distribucion tiene densidad f (), la cual tiene media y varianza
2
, y sea
X =
_
1
n
_

n
i =1
X
i
. Entonces,
E
_
X

=
X
y Var
_
X

=
2
X
=
_
1
n
_

2
. (12)
En la perspectiva de usar un valor de X para estimar , vamos a analizar
lo que el Teorema dice.
E
_
X

= , dice que en promedio X es igual al parametro que se esta


estimando o bien que la distribucion de X esta centrada alrededor de .
Var
_
X

=
_
1
n
_

2
, dice que la dispersion de los valores de X alredor de
es peque na para muestras grandes comparada con tama nos de muestra
peque nos.
Por ejemplo, la varianza de la distribucion de X para una muestra de
tama no 20, es la mitad, de la varianza de la distribucion de X para una
muestra de tama no 10.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 41 / 48
As, el valor de X (como estimacion de ) tiende a estar mas concentrado
alrededor de para muestras grandes que para muestras peque nas.
Sea f (; ) la densidad de una v.a. X. Si denota a la E[X] para la
densidad f (; ). Nuestro problema sera estimar . En un sentido exible,
E[X] es el promedio de un n umero innito de valores de la v.a. X.
En cualquier problema del mundo real solo podemos observar un n umero
nito de valores de la v.a. X. As, una situacion crucial es: usando solo un
n umero nito de valores de X (una m.a. de tama no n), puede hacerse
alguna inferencia conable acerca de E[X], que es el promedio de un
n umero innito de valores de X?
La respuesta es armativa, ya que si se pueden hacer inferencias conables
acerca de E[X], usando solo una m.a. nita; esto se demostrara, probando
la ley debil de los n umeros grandes.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 42 / 48
As, el valor de X (como estimacion de ) tiende a estar mas concentrado
alrededor de para muestras grandes que para muestras peque nas.
Sea f (; ) la densidad de una v.a. X. Si denota a la E[X] para la
densidad f (; ). Nuestro problema sera estimar . En un sentido exible,
E[X] es el promedio de un n umero innito de valores de la v.a. X.
En cualquier problema del mundo real solo podemos observar un n umero
nito de valores de la v.a. X. As, una situacion crucial es: usando solo un
n umero nito de valores de X (una m.a. de tama no n), puede hacerse
alguna inferencia conable acerca de E[X], que es el promedio de un
n umero innito de valores de X?
La respuesta es armativa, ya que si se pueden hacer inferencias conables
acerca de E[X], usando solo una m.a. nita; esto se demostrara, probando
la ley debil de los n umeros grandes.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 42 / 48
As, el valor de X (como estimacion de ) tiende a estar mas concentrado
alrededor de para muestras grandes que para muestras peque nas.
Sea f (; ) la densidad de una v.a. X. Si denota a la E[X] para la
densidad f (; ). Nuestro problema sera estimar . En un sentido exible,
E[X] es el promedio de un n umero innito de valores de la v.a. X.
En cualquier problema del mundo real solo podemos observar un n umero
nito de valores de la v.a. X. As, una situacion crucial es: usando solo un
n umero nito de valores de X (una m.a. de tama no n), puede hacerse
alguna inferencia conable acerca de E[X], que es el promedio de un
n umero innito de valores de X?
La respuesta es armativa, ya que si se pueden hacer inferencias conables
acerca de E[X], usando solo una m.a. nita; esto se demostrara, probando
la ley debil de los n umeros grandes.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 42 / 48
As, el valor de X (como estimacion de ) tiende a estar mas concentrado
alrededor de para muestras grandes que para muestras peque nas.
Sea f (; ) la densidad de una v.a. X. Si denota a la E[X] para la
densidad f (; ). Nuestro problema sera estimar . En un sentido exible,
E[X] es el promedio de un n umero innito de valores de la v.a. X.
En cualquier problema del mundo real solo podemos observar un n umero
nito de valores de la v.a. X. As, una situacion crucial es: usando solo un
n umero nito de valores de X (una m.a. de tama no n), puede hacerse
alguna inferencia conable acerca de E[X], que es el promedio de un
n umero innito de valores de X?
La respuesta es armativa, ya que si se pueden hacer inferencias conables
acerca de E[X], usando solo una m.a. nita; esto se demostrara, probando
la ley debil de los n umeros grandes.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 42 / 48
La ley arma lo siguiente:
Puede determinarse un entero positivo n tal que si se toma una m.a. de
tama no mayor o igual a n de una poblacion con densidad f () (con
E[X] = ), la probabilidad puede hacerse tan proxima a 1 como se desee
de tal forma que la media muestral X se desve de en menos de una
cantidad especicada arbitrariamente peque na.
De manera mas precisa, la ley debil de los grandes n umeros arma que
para cualesquiera dos n umeros peque nos arbitrariamente elegidos y ,
donde > 0 y 0 < < 1, existe un entero n tal que si se obtiene una m.a.
de tama no mayor o igual a n de la poblacion con densidad f () y la media
muestral X
n
es calculada, entonces, la probabilidad de que X
n
se desve de
por menos de es mayor que 1 . De manera formal enunciamos este
resultado en el siguiente teorema.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 43 / 48
La ley arma lo siguiente:
Puede determinarse un entero positivo n tal que si se toma una m.a. de
tama no mayor o igual a n de una poblacion con densidad f () (con
E[X] = ), la probabilidad puede hacerse tan proxima a 1 como se desee
de tal forma que la media muestral X se desve de en menos de una
cantidad especicada arbitrariamente peque na.
De manera mas precisa, la ley debil de los grandes n umeros arma que
para cualesquiera dos n umeros peque nos arbitrariamente elegidos y ,
donde > 0 y 0 < < 1, existe un entero n tal que si se obtiene una m.a.
de tama no mayor o igual a n de la poblacion con densidad f () y la media
muestral X
n
es calculada, entonces, la probabilidad de que X
n
se desve de
por menos de es mayor que 1 . De manera formal enunciamos este
resultado en el siguiente teorema.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 43 / 48
Teorema 4. Ley debil de los grandes n umeros Sea f () una densidad con
media y varianza
2
nitas, y sea X
n
la media muestral de una m.a. de
tama no n de la densidad f (). Sean y cualesquiera dos n umeros
especicados que satisfacen que > 0 y 0 < < 1. Si n es cualquier
entero mayor que

2

, entonces
P
_

X
m

1 . (13)
O de forma equivalente,
P
_

X
m

>

< . (13

)
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 44 / 48
Teorema 4. Ley debil de los grandes n umeros Sea f () una densidad con
media y varianza
2
nitas, y sea X
n
la media muestral de una m.a. de
tama no n de la densidad f (). Sean y cualesquiera dos n umeros
especicados que satisfacen que > 0 y 0 < < 1. Si n es cualquier
entero mayor que

2

, entonces
P
_

X
m

1 . (13)
O de forma equivalente,
P
_

X
m

>

< . (13

)
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 44 / 48
Teorema 4. Ley debil de los grandes n umeros Sea f () una densidad con
media y varianza
2
nitas, y sea X
n
la media muestral de una m.a. de
tama no n de la densidad f (). Sean y cualesquiera dos n umeros
especicados que satisfacen que > 0 y 0 < < 1. Si n es cualquier
entero mayor que

2

, entonces
P
_

X
m

1 . (13)
O de forma equivalente,
P
_

X
m

>

< . (13

)
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 44 / 48
Teorema 4. Ley debil de los grandes n umeros Sea f () una densidad con
media y varianza
2
nitas, y sea X
n
la media muestral de una m.a. de
tama no n de la densidad f (). Sean y cualesquiera dos n umeros
especicados que satisfacen que > 0 y 0 < < 1. Si n es cualquier
entero mayor que

2

, entonces
P
_

X
m

1 . (13)
O de forma equivalente,
P
_

X
m

>

< . (13

)
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 44 / 48
Demostracion. Para demostrar el teorema usaremos la siguiente
desigualdad
P [g(X) k]
E [g(X)]
k
, para cualquier k > 0,
v.a. X, y la funcion no negativa g().
o equivalentemente,
P [g(X) < k] 1
E [g(X)]
k
.
Tomemos a g(X) =
_

X
_
2
y k =
2
. As, sustituyendo en la
desigualdad anterior, se tiene:
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 45 / 48
Demostracion. Para demostrar el teorema usaremos la siguiente
desigualdad
P [g(X) k]
E [g(X)]
k
, para cualquier k > 0,
v.a. X, y la funcion no negativa g().
o equivalentemente,
P [g(X) < k] 1
E [g(X)]
k
.
Tomemos a g(X) =
_

X
_
2
y k =
2
. As, sustituyendo en la
desigualdad anterior, se tiene:
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 45 / 48
Demostracion. Para demostrar el teorema usaremos la siguiente
desigualdad
P [g(X) k]
E [g(X)]
k
, para cualquier k > 0,
v.a. X, y la funcion no negativa g().
o equivalentemente,
P [g(X) < k] 1
E [g(X)]
k
.
Tomemos a g(X) =
_

X
_
2
y k =
2
. As, sustituyendo en la
desigualdad anterior, se tiene:
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 45 / 48
Demostracion. Para demostrar el teorema usaremos la siguiente
desigualdad
P [g(X) k]
E [g(X)]
k
, para cualquier k > 0,
v.a. X, y la funcion no negativa g().
o equivalentemente,
P [g(X) < k] 1
E [g(X)]
k
.
Tomemos a g(X) =
_

X
_
2
y k =
2
. As, sustituyendo en la
desigualdad anterior, se tiene:
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 45 / 48
Demostracion. Para demostrar el teorema usaremos la siguiente
desigualdad
P [g(X) k]
E [g(X)]
k
, para cualquier k > 0,
v.a. X, y la funcion no negativa g().
o equivalentemente,
P [g(X) < k] 1
E [g(X)]
k
.
Tomemos a g(X) =
_

X
_
2
y k =
2
. As, sustituyendo en la
desigualdad anterior, se tiene:
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 45 / 48
P[ <

X < ] = P
_

X
n
| < ]
= P
_

X
n
|
2
<
2
] 1
E[(

X
n
)
2
]

2
= 1
(1/n)
2

2
1 .
para >

2
n
2
o bien n >

2

Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 46 / 48
Ejemplo Supongase que cierta poblacion con media desconocida tiene
varianza igual a 1. Que tan grande debe tomarse una m.a. para que la
probabilidad de que la media muestral diera de la media poblacional en
menos de 0.5 sea al menos de 0.95.?
Observese que:

2
= 1, = 0,5, y = 0,05
As, usando la ultima parte de la demostracion anterior, se tiene que,
n >

2

2
=
1
0,05(0,5)
2
= 80.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 47 / 48
Ejemplo Supongase que cierta poblacion con media desconocida tiene
varianza igual a 1. Que tan grande debe tomarse una m.a. para que la
probabilidad de que la media muestral diera de la media poblacional en
menos de 0.5 sea al menos de 0.95.?
Observese que:

2
= 1, = 0,5, y = 0,05
As, usando la ultima parte de la demostracion anterior, se tiene que,
n >

2

2
=
1
0,05(0,5)
2
= 80.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 47 / 48
Ejemplo Supongase que cierta poblacion con media desconocida tiene
varianza igual a 1. Que tan grande debe tomarse una m.a. para que la
probabilidad de que la media muestral diera de la media poblacional en
menos de 0.5 sea al menos de 0.95.?
Observese que:

2
= 1, = 0,5, y = 0,05
As, usando la ultima parte de la demostracion anterior, se tiene que,
n >

2

2
=
1
0,05(0,5)
2
= 80.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 47 / 48
Ejemplo Supongase que cierta poblacion con media desconocida tiene
varianza igual a 1. Que tan grande debe tomarse una m.a. para que la
probabilidad de que la media muestral diera de la media poblacional en
menos de 0.5 sea al menos de 0.95.?
Observese que:

2
= 1, = 0,5, y = 0,05
As, usando la ultima parte de la demostracion anterior, se tiene que,
n >

2

2
=
1
0,05(0,5)
2
= 80.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 47 / 48
Ejemplo Que tan grande debe tomarse una m.a. para que usted tenga el
99 % de certeza de que la media muestral diera de la media poblacional
en menos de 0,5 de ?
Observese nuevamente que:
= 0,5, y = 0,01
As,
n >

2

2
=

2
0,01(0,5)
2

2
= 400.
Se ha mostrado que usando una m.a. podemos hacer inferencia inductiva
sobre la poblacion y la conabilidad de la inferencia puede medirse en
terminos de probabilidad.
As, en el penultimo ejemplo, la probabilidad de que la media muestral
diera de la media poblacional (desconocida) en menos de 0.5 es al menos
de 0.95 si la muestra que se toma es de tama no mayor o igual a 80.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 48 / 48
Ejemplo Que tan grande debe tomarse una m.a. para que usted tenga el
99 % de certeza de que la media muestral diera de la media poblacional
en menos de 0,5 de ?
Observese nuevamente que:
= 0,5, y = 0,01
As,
n >

2

2
=

2
0,01(0,5)
2

2
= 400.
Se ha mostrado que usando una m.a. podemos hacer inferencia inductiva
sobre la poblacion y la conabilidad de la inferencia puede medirse en
terminos de probabilidad.
As, en el penultimo ejemplo, la probabilidad de que la media muestral
diera de la media poblacional (desconocida) en menos de 0.5 es al menos
de 0.95 si la muestra que se toma es de tama no mayor o igual a 80.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 48 / 48
Ejemplo Que tan grande debe tomarse una m.a. para que usted tenga el
99 % de certeza de que la media muestral diera de la media poblacional
en menos de 0,5 de ?
Observese nuevamente que:
= 0,5, y = 0,01
As,
n >

2

2
=

2
0,01(0,5)
2

2
= 400.
Se ha mostrado que usando una m.a. podemos hacer inferencia inductiva
sobre la poblacion y la conabilidad de la inferencia puede medirse en
terminos de probabilidad.
As, en el penultimo ejemplo, la probabilidad de que la media muestral
diera de la media poblacional (desconocida) en menos de 0.5 es al menos
de 0.95 si la muestra que se toma es de tama no mayor o igual a 80.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 48 / 48
Ejemplo Que tan grande debe tomarse una m.a. para que usted tenga el
99 % de certeza de que la media muestral diera de la media poblacional
en menos de 0,5 de ?
Observese nuevamente que:
= 0,5, y = 0,01
As,
n >

2

2
=

2
0,01(0,5)
2

2
= 400.
Se ha mostrado que usando una m.a. podemos hacer inferencia inductiva
sobre la poblacion y la conabilidad de la inferencia puede medirse en
terminos de probabilidad.
As, en el penultimo ejemplo, la probabilidad de que la media muestral
diera de la media poblacional (desconocida) en menos de 0.5 es al menos
de 0.95 si la muestra que se toma es de tama no mayor o igual a 80.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 48 / 48
Ejemplo Que tan grande debe tomarse una m.a. para que usted tenga el
99 % de certeza de que la media muestral diera de la media poblacional
en menos de 0,5 de ?
Observese nuevamente que:
= 0,5, y = 0,01
As,
n >

2

2
=

2
0,01(0,5)
2

2
= 400.
Se ha mostrado que usando una m.a. podemos hacer inferencia inductiva
sobre la poblacion y la conabilidad de la inferencia puede medirse en
terminos de probabilidad.
As, en el penultimo ejemplo, la probabilidad de que la media muestral
diera de la media poblacional (desconocida) en menos de 0.5 es al menos
de 0.95 si la muestra que se toma es de tama no mayor o igual a 80.
Por: Bulmaro Juarez Hernandez () Introduccion a la Inferencia Estadstica [3 mm] Parte I Oto no de 2012 48 / 48

S-ar putea să vă placă și