Sunteți pe pagina 1din 6

Muestro aleatorio

El muestro aleatorio nos dice que el resultado de un experimento


estadístico lo podemos registrar como una representación descriptiva.
Por ejemplo una representación descriptiva podría ser cuando se nos
hacen unos análisis de sangre el cual aquí lo que queremos saber es
que tipo de sangre es y en esta ocasión sería más útil una
representación descriptiva que una numérica ya que los tipos de sangre
son de 8 tipos diferentes y con un signo más o uno menos podrían ser
AB, A, B u O.
Población y muestras
La población es la totalidad de las observaciones en las que estamos
interesados. Un ejemplo seria que en una escuela queremos saber
cuántos alumnos miden 1.70 cm todos los alumnos que midan dicha
estatura será una población y siempre estos tiene que ser un número
finito. Cada observación en una población es un valor de una variable
aleatoria X que tiene alguna distribución de probabilidad f(x). Por
ejemplo si se inspeccionan el número de pelotas de una fábrica que
salen defectuosas cada observación podría ser de 0 o 1 de la variable
aleatoria de Bernoulli X con distribución de probabilidad.
Muestra
La muestra es un subconjunto de la población. Por ejemplo se quiere
saber un promedio de cuantos alumnos de ingeniería industrial tienen
un promedio mayor a noventa y se selecciona un salón de ingenieros
de 3 salones que hay y se saca el promedio del salón, esto sería una
muestra ya que solamente se seleccionó una parte de toda la población.
Algunos estadísticos importantes
Nos dice que el principal propósito al seleccionar de manera aleatoria
consiste en encontrar parámetros desconocidos de una población. Un
ejemplo seria que si nosotros queremos saber acerca de una marca
leche que consume la gente seria imposible que le preguntáramos a
cada vendedor de leche cual prefiera la gente. Así que se selecciona
una gran cantidad de personas y se les pregunta así se calcula una
proporción y de ahí se llega a una conclusión de cuantas personas
consumen esta leche.
Presentación de datos y métodos gráficos
La presentación de datos nos ayuda a presentar la información de
propiedades de un conjunto de datos. Básicamente se trata de darnos
al observador una imagen de la simetría y otras propiedades de los
datos. Esto se puede encontrar en los diagramas de tallo que es un
buen ejemplo acerca de la presentación de datos. La información gráfica
se puede obtener con diagramas de tallo y hojas y los histogramas de
frecuencias. Básicamente esto se usa para representar la información
de una muestra, de una población, por medio de diferentes métodos. Ya
sean diagramas o algunas graficas que nos den una mejor perspectiva
acerca de la información.

Grafica de caja y extensión o grafica de caja


Esta presentación es muy importante ya que nos prolonga extensiones.
Las cuales pueden ser el centro de localización, la variabilidad y el grado
de asimetría .Además la gráfica de caja nos puede brindar información
acerca de valores extremos los cuales estos son observaciones que se
consideran inusualmente alejadas de la masa de datos. Las gráficas de
caja y extensión se dice que son una herramienta de diagnóstico.

Grafica de cuantiles
Un cuantil de una muestra, q(f), es un valor para el que una fracción
específica f de los valores de los datos es menor que o igual a q(f). Un
cuantil nos presenta una estimación de una característica de una
población o, más bien, la distribución teórica.
Una gráfica de cuantiles simplemente grafica los valores de los datos
en el eje vertical contra una evaluación empírica de la fracción de
observaciones excedidas por los valores de los datos. A diferencia de
la gráfica de caja y extensión, la gráfica de cuantiles realmente muestra
todas las observaciones. Todos los cuantiles, incluidos la mediana y los
cuantiles superior e inferior, se pueden aproximar de forma visual
Detección de desviaciones de la normalidad
Esto puede ser una herramienta muy importante para el analista de
datos porque para el lector la detención de un conjunto de datos viene
de una distribución normal y esto puede ser de mucha utilidad. Como
indicamos anteriormente en esta sección, con frecuencia hacemos la
suposición de que la totalidad o subconjuntos de las observaciones en
un conjunto de datos son realizaciones de variables aleatorias normales
independientes e idénticamente distribuidas.

Distribuciones muéstrales
Estas son aquellas que se muestran de forma muy pequeña pero finita.
Son una muestra de la población. Un ejemplo seria que si se quiere
saber la votación de las personas por su nuevo presidente de su ciudad
y se les pregunta a un total de 100 personas y de ahí se saca un
porcentaje de las personas que votan por cierto candidato. Ha eso se le
llama muestra, la cual se saca de una población.

Distribuciones muéstrales de medias


La primera distribución muestral importante que se debe considerar es
la de la media. Suponga que una muestra aleatoria de n observaciones
se toma de una población normal con media μ y varianza σ2. Cada
observación Xi, i = 1, 2,. . ., n, de la muestra aleatoria tendrá entonces
la misma distribución normal que la población que se muestrea.
Si tomamos muestras de una población con distribución desconocida,
ya sea finita o infinita, la distribución muestral de aún será
aproximadamente normal con media μ y varianza σ2/n siempre que el
tamaño de la muestra sea grande. Este resultado asombroso es una
consecuencia inmediata del siguiente teorema, que se conoce como
teorema del límite central.
Teorema de límite central

Este teorema nos habla acerca de La aproximación normal para, por lo


general, será buena si n ≥ 30. Si n < 30, la aproximación es buena sólo
si la población no es muy diferente de una distribución normal y, como
se estableció antes, si se sabe que la población es normal, la
distribución muestral de seguirá una distribución normal exacta, no
importa qué tan pequeño sea el tamaño de las muestras.

Grados de libertad como medición de la información muestral

El lector debe recordar que el término grados de libertad, que se utiliza


en este contexto idéntico. Hay 1 grado de libertad menos, o se pierde
un grado de libertad en la estimación de μ (es decir, cuando μ se
reemplaza por). En otras palabras, hay n grados de libertad o piezas de
información independientes en la muestra aleatoria de la distribución
normal. Cuando los datos (los valores en la muestra) se utilizan para
calcular la media, hay 1 grado de libertad menos en la información que
se utiliza para estimar σ2.
Distribución T
Esta distribución nos dice que sus aplicaciones giran alrededor de las
inferencias sobre una media de la población o la diferencia entre dos
medias de la población. El uso del teorema del límite central y la
distribución normal es evidentemente útil en este contexto. Sin
embargo, se supuso que se conoce la desviación estándar de la
población. Esta suposición quizá sea razonable en situaciones donde el
ingeniero esté bastante familiarizado con el sistema o proceso. No
obstante, en muchos escenarios experimentales el conocimiento de σ
ciertamente no es más razonable que el conocimiento de la media de la
población μ.

Para que se utiliza la distribución t


La distribución t se usa de manera extensa en problemas que tienen
que ver con inferencia acerca de la media de la población o en
problemas que implican muestras comparativas (es decir, en casos
donde se trata de determinar si las medias de dos muestras son
significativamente diferentes). El uso de la distribución t y la
consideración del tamaño de la muestra no se relacionan con el teorema
del límite central. El uso de la distribución normal estándar en vez de T
para n ≥ 30 solamente implica, en este caso, que S es un estimador
suficientemente bueno de σ. En los siguientes Capítulos la distribución
t encuentra un uso extenso.
A que se parece la distribución t
La distribución de T es similar a la distribución de Z en que ambas son
simétricas alrededor de una media de cero. Ambas distribuciones tienen
forma de campana; pero a distribución t es más variable, debido al
hecho de que los valores T dependen de las actuaciones de dos
cantidades, X ¯ y S2; mientras que los valores Z dependen sólo de los
cambios de una muestra a otra. La distribución de T difiere de la de Zen
que la varianza de T depende del tamaño de la muestra n y siempre es
mayor que 1.Únicamente cuando el tamaño de la muestran n → ∞ las
dos distribuciones serán las mismas.
Distribución F
Motivamos la distribución t en parte sobre la base de la aplicación a
problemas en los que hay muestreo comparativo (es decir, comparación
entre dos medias muéstrales).Algunos de nuestros ejemplos en los
siguientes capítulos brindarán el formalismo. Un ingeniero químico
reúne datos de dos catalizadores. Un biólogo colecta datos sobre dos
medias de crecimiento. Un químico reúne datos sobre dos métodos de
recubrimiento de material para prevenir la corrosión. Aunque es de
interés que la información muestral arroje luz sobre dos medias de
poblaciones, es frecuente el caso en que una comparación, en algún
sentido, de la variabilidad sea igualmente importante, si no es que más.
La distribución F encuentra enorme aplicación en la comparación de
varianzas muéstrales. Las aplicaciones de la distribución F se
encuentran en problemas que implican dos o más muestras.

Para que se utiliza la distribución f


La distribución F se usa en situaciones de dos muestras para realizar
inferencias acerca de las varianzas de población, lo cual implica la
aplicación del resultado del teorema 8.8.Sin embargo, la distribución F
se aplica a muchos otros tipos de problemas en los cuales están
relacionadas las varianzas muéstrales. De hecho, la distribución F se
llama distribución de razón de varianzas.

S-ar putea să vă placă și