Sunteți pe pagina 1din 18

INTRODUCCION

La estadística inferencial es el proceso de usar la información de una muestra para describir el


estado de una población. Sin embargo es frecuente que usemos la información de una
muestra para probar un reclamo o conjetura sobre la población. El reclamo o conjetura se
refiere a una hipótesis. El proceso que corrobora si la información de una muestra sostiene o
refuta el reclamo se llama prueba de hipótesis.

Se hará referencia sobre el muestreo estadístico, técnicas, niveles y tipos fundamentales de


un muestreo; se describen conceptos básicos que explican lo que esto se refiere al igual se
aprecia cómo y qué tipo de técnicas se pueden utilizar para poner en practica la realización de
una auditoria con la finalidad de obtener una información determinada para lograr
un objetivo especifico.
El muestreo estadístico es un procedimiento por el que se ingresan los valores verdaderos de
una población a través de la experiencia obtenida con una muestra
El muestreo como herramienta de la investigación científica arroja resultados que se pueden
utilizar para concluir un determinado estudio X de población, al igual las técnicas selectivas
que se requieren para dicho estudio de acuerdo a lo que se va a evaluar.
El muestreo permite una reducción considerable de los costos materiales del estudio, una
mayor rapidez en la obtención de la información y el logro de resultados con máxima calidad.
TEORIAL DEL MUESTREO
Concepto importancia
Es la actividad por la cual se toman ciertas muestras de una población de elementos de los
cuales vamos a tomar ciertos criterios de decisión, el muestreo es importante porque a través
de él podemos hacer análisis de situaciones de una empresa o de algún campo de
la sociedad.
Terminología básica para el muestreo
Los nuevos términos, los cuales son frecuentemente usados en inferencia estadística son:
Estadístico:
Un estadístico es una medida usada para describir alguna característica de una muestra , tal
como una media aritmética, una mediana o una desviación estándar de una muestra.
Parámetro:
Una parámetro es una medida usada para describir alguna característica de una población, tal
como una media aritmética, una mediana o una desviación estándar de una población.
Cuando los dos nuevos términos de arriba son usados, por ejemplo, el proceso de estimación
en inferencia estadística puede ser descrito como le proceso de estimar un parámetro a partir
del estadístico correspondiente, tal como usar una media muestral ( un estadístico para
estimar la media de la población (un parámetro).
Los símbolos usados para representar los estadísticos y los parámetros, en éste y los
siguientes capítulos, son resumidos en la tabla siguiente:
Tabla 1
Símbolos para estadísticos y parámetros correspondientes
Medida Símbolo para el estadístico Símbolo para el parámetro
(muestra) (Población)
Media X µ
Desviación estándar s
Número de elementos n N
Proporción p P
Distribución en el muestreo:
Cuando el tamaño de la muestra (n) es más pequeño que el tamaño de la población (N), dos o
más muestras pueden ser extraídas de la misma población. Un cierto estadístico puede ser
calculado para cada una de las muestras posibles extraídas de la población.
Una distribución del estadístico obtenida de las muestras es llamada la distribución en el
muestreo del estadístico.
Por ejemplo, si la muestra es de tamaño 2 y la población de tamaño 3 (elementos A, B, C), es
posible extraer 3 muestras ( AB, BC Y AC) de la población. Podemos calcular la media para
cada muestra. Por lo tanto, tenemos 3 medias muéstrales para las 3 muestras. Las 3 medias
muéstrales forman una distribución. La distribución de las medias es llamada la distribución de
las medias muéstrales, o la distribución en el muestreo de la media. De la misma manera, la
distribución de las proporciones (o porcentajes) obtenida de todas las muestras posibles del
mismo tamaño, extraídas de una población, es llamada la distribución en el muestreo de la
proporción.
Error Estándar:
La desviación estándar de una distribución, en el muestreo de un estadístico, es
frecuentemente llamada el error estándar del estadístico. Por ejemplo, la desviación estándar
de las medias de todas la muestras posibles del mismo tamaño, extraídas de una población,
es llamada el error estándar de la media. De la misma manera, la desviación estándar de las
proporciones de todas las muestras posibles del mismo tamaño, extraídas de una población,
es llamada el error estándar de la proporción. La diferencia entre los términos “desviación
estándar” y “error de estándar” es que la primera se refiere a los valores originales, mientras
que la última está relacionada con valores calculados. Un estadístico es un valor calculado,
obtenido con los elementos incluidos en una muestra.
Error muestral o error de muestreo
La diferencia entre el resultado obtenido de una muestra (un estadístico) y el resultado el cual
deberíamos haber obtenido de la población (el parámetro correspondiente) se llama el error
muestral o error de muestreo. Un error de muestreo usualmente ocurre cuando no se lleva a
cabo la encuesta completa de la población, sino que se toma una muestra para estimar las
características de la población. El error muestral es medido por el error estadístico, en
términos de probabilidad, bajo la curva normal. El resultado de la media indica la precisión de
la estimación de la población basada en el estudio de la muestra. Mientras más pequeño el
error muestras, mayor es la precisión de la estimación. Deberá hacerse notar que los errores
cometidos en una encuesta por muestreo, tales como respuestas inconsistentes, incompletas
o no determinadas, no son considerados como errores muéstrales. Los errores no muéstrales
pueden también ocurrir en una encuesta completa de la población.

DISTRIBUCIONES MUESTRALES

DISTRIBUCIONES MUESTRALES PARA UNA POBLACIÓN NORMAL

De todas las posibles distribuciones básicas es ,sin duda ,la distribución normal la más
importante por el gran número de poblaciones que se distribuyen así, real o asintóticamente
,(en virtud de los Teoremas Límite).

Así pues ,en los subapartados siguientes ,consideraremos que conocemos la distribución de
la población y que ‚ ésta , es normal . Consideraremos igualmente muestreo aleatorio simple
(m.a.s.)

DISTRIBUCIÓN DE LA MEDIA MUESTRAL

Si la población se distribuye N[m ;s ] entonces


en efecto si y dado que siendo independientes pues
realizamos m.a.s. y en aplicación del teorema fundamental de las distribuciones normales

obtendremos

DISTRIBUCIÓN DE LA VARIANZA MUESTRAL

En lugar de obtener la distribución muestral del estadístico varianza muestral

L [S2] que nos llevaría a conclusiones próximas a las anteriormente descritas en el apartado
en el que la población no era normal, es más conveniente la utilización de la variable

aleatoria que recordemos , no es un estadístico , y que contiene en su expresión a la


varianza muestral y a la poblacional , de ahí su utilidad dado que ambas quedan relacionadas
con una distribución conocida ; la jhi-dos.

No demostramos la relación pero la recordamos dada su importancia posterior.

DISTRIBUCIÓN DE LA MEDIA MUESTRAL CON VARIANZA DESCONOCIDA

En apartados anteriores estudiamos el comportamiento de la media muestral y vimos que ésta


dependía tanto del valor de la media poblacional , como de la varianza poblacional , parece
lógico pensar que si nuestro interés radica en inferir comportamientos de la población
partiendo de la muestra parece ilógico pensar que conozcamos la varianza . De ahí la
importancia de establecer una distribución para la media muestral que la relacione únicamente
con la poblacional , lo que hará que conocida la muestral concreta podamos aventurar el
comportamiento de la poblacional.

Así tendríamos :

lo que da lugar a :

hemos visto sin demostrar que


conocemos que luego simplificando
tendríamos

expresión que relaciona ambas medias y la varianza muestral con una


distribución conocida

INTERVALO DE CONFIANZA PARA UNA POBLACION


Un intervalo de confianza es un rango de valores, derivado de los estadísticos de la muestra,
que posiblemente incluya el valor de un parámetro de población desconocido. Debido a su
naturaleza aleatoria, es poco probable que dos muestras de una población en particular
produzcan intervalos de confianza idénticos. Sin embargo, si usted repitiera muchas veces su
muestra, un determinado porcentaje de los intervalos de confianza resultantes incluiría el

parámetro de población desconocido.

En este caso, la línea negra horizontal representa el valor fijo de la media desconocida de la
población, µ. Los intervalos de confianza azules verticales que se sobreponen a la línea
horizontal contienen el valor de la media de la población. El intervalo de confianza rojo que
está completamente por debajo de la línea horizontal no lo contiene. Un intervalo de confianza
de 95% indica que 19 de 20 muestras (95%) de la misma población producirán intervalos de
confianza que contendrán el parámetro de población.

Utilice el intervalo de confianza para evaluar la estimación del parámetro de población. Por
ejemplo, un fabricante desea saber si la longitud media de los lápices que produce es
diferente de la longitud objetivo. El fabricante toma una muestra aleatoria de lápices y
determina que la longitud media de la muestra es 52 milímetros y el intervalo de confianza de
95% es (50,54). Por lo tanto, usted puede estar 95% seguro de que la longitud media de todos
los lápices se encuentra entre 50 y 54 milímetros.

El intervalo de confianza se determina calculando una estimación de punto y luego


determinando su margen de error.
Estimación de punto
Este valor individual estima un parámetro de población usando los datos de la muestra.

Margen de error
Cuando usted utiliza estadísticos para estimar un valor, es importante recordar que, sin
importar lo bien que esté diseñado su estudio, su estimación está sujeta a error de
muestreo aleatorio. El margen de error cuantifica este error e indica la precisión de la
estimación.

Usted probablemente ya entiende el margen de error, porque está relacionado con los
resultados de las encuestas. Por ejemplo, una encuesta política podría indicar que el
nivel de popularidad de un candidato es de 55% con un margen de error de 5%. Esto
significa que el nivel de popularidad real es +/- 5% y, por lo tanto, se ubica entre 50% y
60%.

Para un intervalo de confianza bilateral, el margen de error es la distancia desde el


estadístico estimado hasta cada el valor del intervalo de confianza. Cuando un intervalo
de confianza es simétrico, el margen de error es la mitad del ancho del intervalo de
confianza. Por ejemplo, la longitud media estimada de un árbol de levas es 600 mm y el
intervalo de confianza oscila entre 599 y 601. El margen de error es 1.

Mientras mayor sea el margen de error, más ancho será el intervalo y menos seguro
podrá estar usted del valor de la estimación de punto.

Desde el punto de vista didáctico hemos de considerar dos posibilidades sobre la desviación
típica de la variable: que sea conocida o que sea desconocida y tengamos que estimarla a
partir de la muestra. El caso de σ conocida, ya comentado anteriormente, no pasa de ser un
caso académico con poca aplicación en la práctica, sin embargo es útil desde del punto de
vista didáctico.

Caso de varianza conocida

Dada una muestra X1, ..., Xn, el estadístico

se distribuye según una Normal estándar. Por tanto, aplicando el método del pivote podemos
construir la expresión

donde zα/2 es el valor de una distribución Normal estándar que deja a su derecha una
probabilidad de α/2, de la que se deduce el intervalo de confianza
Puede repasarse la construcción más detallada.

INTERVALO PARA MEDIA CON MUESTRA GRANDE

Bajo ciertas condiciones de regularidad, es posible construir intervalos de confianza


asintóticos de una manera bastante general.

Si suponemos que un parámetro θ tiene una estimación máximo verosímil θ*, la distribución
asintótica del estimador, bajo condiciones generales de regularidad, es Normal, de media el
valor verdadero del parámetro θ y varianza igual a la cota de Cramér-Rao σ2(θ*).

Bajo las suposiciones anteriores, es posible construir un intervalo de confianza asintótico y


con nivel de confianza (1 − α) · 100 % a partir de

donde los valores de zα/2 se calculan a partir de la distribución N(0, 1) de forma que P(|Z|
> zα/2) = α.

Es decir, se utiliza como estadístico pivote

El intervalo de confianza aproximado que resulta es:


INTERVALO PARA MEDIA CON MUESTRA PEQUEÑA

Las circunstancias específicas para la construcción de este intervalo son las siguientes :

Intervalo para m
desconocida s ( o la varianza )dado que n es pequeña no podemos tomar S como s
Distribución poblacional normal.
Nivel de confianza dado 1-a
Tamaño muestral desconocido luego nos colocamos en el peor de los casos , es decir
pequeño.

Del estudio de las distribuciones muestrales conocemos que :

Como la distribución de t de student es una distribución simétrica , unimodal y centrada en 0 ,


de todos los intervalos que verifiquen que : P(t Î IN) = 1 - a el de menor amplitud
será:

donde es el
correspondiente valor de la variable t para n - 1 grados
de libertad y nivel de significación a . Dicho intervalo
quedaría :

para un nivel de
confianza
prefijado y despejando tendríamos como
intervalo

recuérdese que en el caso de muestreo irrestricto sería de aplicación el antes nombrado factor
corrector de poblaciones finitas.

ejemplo 3
Las ventas diarias de cierta oficina comercial se supone que siguen una distribución normal.
Para estimar el volumen medio de ventas por día se realiza una muestra de 10 días escogidos
al azar ,resultando que la media de las ventas de esos 10 días es 100 u.m. con una
desviación típica de 4 u.m. Dar un intervalo de estimación para el volumen medio de ventas
por día con una confianza del 95 % . (ir a script de realización)

conocemos que según la información que poseemos, estamos ante:

normal ; n=10 (muestra pequeña) ; S=4(poblacional desconocida) ; media


muestral=100 ;

1-a =0.95 luego a =0.05 con lo que (según tabla)(ir a tabla de la t)

y dado que el intervalo a utilizar (nada dicen de irrestricto ; luego m.a.s) será

resultando :

µ Î [96'99;103'01] con el 95 % de confianza

2.4-Intervalo de confianza para la diferencia de medias con poblaciones normales y


varianzas conocidas .

Las circunstancias específicas para la construcción de este intervalo son las siguientes :

Intervalo para

Conocidas ó desconocidas con tamaños muestrales grandes

Distribuciones poblacionales normales.

Nivel de confianza dado 1-a

Tamaños muestrales desconocidos


luego nos colocamos en el peor de los casos , es decir pequeño.

Conocemos que
luego la tipificando tendremos :

para un nivel de confianza dado 1-a que genera los valores extremos de un intervalo

centrado en dicha N[0 ;1] ; como ya vimos tendríamos :

despejando :

Evidentemente y como en los casos anteriores se ha supuesto m.a.s. , en caso de


irrestricto se aplicaría el f.c.p.f..

Si la varianza no fuera conocida pero la muestra fuera grande (superior a treinta , cada una)
tomaríamos como varianza poblacional su homónima muestral. (ir a script de
realización de este tipo de intervalo)

INTERVALO PAA PROPORCION

Dada una variable aleatoria con distribución Binomial B(n, p), el objetivo es la construcción
de un intervalo de confianza para el parámetro p, basada en una observación de la variable
que ha dado como valor x. El mismo caso se aplica si estudiamos una Binomial B(1, p) y
consideramos el número de veces que ocurre el suceso que define la variable al repetir el
experimento n veces en condiciones de independencia.

Existen dos alternativas a la hora de construir un intervalo de confianza para p:

 Considerar la aproximación asintótica de la distribución Binomial en la distribución


Normal.

 Utilizar un método exacto.

Aproximación asintótica

Tiene la ventaja de la simplicidad en la expresión y en los cálculos, y es la más referenciada


en la mayoría de textos de estadística. Se basa en la aproximación
que, trasladada a la frecuencia relativa, resulta

Tomando como estadístico pivote

que sigue una distribución N(0, 1), y añadiendo una corrección por continuidad al pasar de
una variable discreta a una continua, se obtiene el intervalo de confianza asintótico:

donde zα/2 es el valor de una distribución Normal estándar que deja a su derecha una
probabilidad de α/2 para un intervalo de confianza de (1 − α) · 100 %. Las condiciones
generalmente aceptadas para considerar válida la aproximación asintótica anterior son:

El intervalo obtenido es un intervalo asintótico y por tanto condicionado a la validez de la


aproximación utilizada. Una información más general sobre los intervalos de confianza
asintóticos puede encontrase aquí.

Intervalo exacto

Aun cuando las condiciones anteriores no se verifiquen, es posible la construcción de un


intervalo exacto, válido siempre pero algo más complicado en los cálculos. Es posible
demostrar que un intervalo exacto para el parámetro p viene dado por los valores siguientes:
donde Fα/2,a,b es el valor de una distribución F de Fisher-Snedecor con a y b grados de libertad
que deja a su derecha una probabilidad de α/2 para un intervalo de confianza de (1 − α) · 100
%.

INTERVALO PARA VARIANZA

Dada una variable aleatoria con distribución Normal N(μ; σ), el objetivo es la construcción de
un intervalo de confianza para el parámetro σ, basado en una muestra de tamaño n de la
variable.

A partir del estadístico

la fórmula para el intervalo de confianza, con nivel de confianza 1 − α es la siguiente

Donde χ2α/2 es el valor de una distribución ji-cuadrado con n − 1 grados de libertad que deja a
su derecha una probabilidad de α/2.

Por ejemplo, dados los datos siguientes:

 Distribución poblacional: Normal

 Tamaño de muestra: 10

 Confianza deseada para el intervalo: 95 %

 Varianza muestral corregida: 38,5

Un intervalo de confianza al 95 % para la varianza de la distribución viene dado por:

que resulta, finalmente


ENSAYOS DE HIPOTESIS
Es cualquier enunciado, teoría, conjetura, tentativo, afirmación que se haga sobre una o más
características poblacionales como un parámetro, la distribución de probabilidad de una
población, etc.
Nunca se sabe con absoluta certeza la verdad o falsedad de una hipótesis estadística, a no
ser que se examine toda la población. Esto, por supuesto, sería impráctico en la mayoría de
las situaciones. En su lugar, se toma una muestra aleatoria de la población de interés y se
utilizan los datos que contiene tal muestra para proporcionar evidencias que confirmen o no la
hipótesis.
La evidencia de la muestra que es inconsistente con la hipótesis planteada conduce a un
rechazo de la misma, mientras que la evidencia que apoya la hipótesis conduce a su
aceptación. De ahí que el aspecto principal de la prueba de hipótesis sea determinar si la
diferencia entre un valor propuesto de un parámetro poblacional y el valor estadístico de la
muestra se debe razonablemente a la variabilidad del muestreo. O si la discrepancia es
demasiado grande para ser considerada de esa manera, lo cual en el argot estadístico es
conocido como que la diferencia es significativo.

Requisitos para la elaboración de hipótesis:


La formulación de hipótesis es una tarea que se logra cuando se cumple con algunos
requisitos, entre ellos:
a. Formularse en términos claros, es decir, emplear palabras precisas que no den lugar a
múltiples interpretaciones. La claridad con que se formulen es fundamental, debido a que
constituyen una guía para la investigación.
b. Tener un referente empírico, ello hace que pueda ser comprobable. Una hipótesis sin
referente empírico se transforma en un juicio de valor al no poder ser comprobable,
verificable, carece de validez para la ciencia.

Evaluación de la Hipótesis:
Existe algunos criterios que sirven de guía para determinar si la hipótesis cumple con algunos
requisitos Mc Güigan (1971: 67) afirma:
a. Permite ser comprobada, es decir, establece claramente su referente empírico.
b. Está en correlación y armonía con el conjunto de las hipótesis del proyecto de la
investigación
c. Responde en términos claros y precisos al problema planteado, es decir, señala la relación
que se espera de las variables.
d. Son susceptibles de ser cuantificadas.

Dificultades en la Elaboración de la Hipótesis:


La hipótesis resulta una tarea ardua, de difícil elaboración, esta dificultad generalmente
proviene de circunstancias tales como:
a. Un planteamiento poco claro del problema a investigar
b. Falta de conocimiento del marco teórico de la investigación como consecuencia de la poca
claridad que se tiene del problema que se desea resolver.
c. Carencia de habilidad para desarrollar y utilizar el referente teórico – conceptual.

En general, por el desconocimiento de los procesos de la ciencia y la investigación, por lo


tanto ausencia de criterios para la elaboración de hipótesis y selección de técnicas de
investigación adecuadas al problema que se investiga.
HIPOTESIS NULA
En estadística, una hipótesis nula es una hipótesis construida para anular o refutar, con el
objetivo de apoyar una hipótesis alternativa. Cuando se utiliza, la hipótesis nula se presume
verdadera hasta que una prueba estadística en la forma de una prueba empírica de la
hipótesis indique lo contrario. Si la hipótesis nula no es rechazada, esto no quiere decir que
sea verdadera.
Las hipótesis nulas se simbolizan H1, y son, en un sentido, el reverso de las hipótesis de
investigación. También constituyen proposiciones acerca de la relación entre variables
solamente que sirven para refutar o negar lo que afirma la hipótesis de investigación. Por
ejemplo, si la hipótesis de investigación propone: “Los adolescentes le atribuyen más impor-
tancia al atractivo físico en sus relaciones heterosexuales que las mujeres”, la nula postularía:
“Los jóvenes no le atribuyen más importancia al atractivo físico en sus relaciones
heterosexuales que las adolescentes”.

Debido a que este tipo de hipótesis resulta la contrapartida de la hipótesis de investigación,


hay prácticamente tantas clases de hipótesis nulas como de investigación.

Es decir, la clasificación de hipótesis nulas es similar a la tipología de la hipótesis de


investigación: hipótesis nulas descriptivas de una variable que se va a observar en un
contexto, hipótesis que niegan o contradicen la relación entre dos o más variables, hipótesis
que niegan que haya diferencia entre grupos que se comparan —es decir afirmar que los
grupos son iguales— e hipótesis que niegan la relación de causalidad entre dos o más
variables (en todas sus formas). Las hipótesis nulas se simbolizan como Ho.

HIPÓTESIS ALTERNATIVA.

Como su nombre lo indica, son posibilidades alternativas - ante las hipótesis de investigación
y nula. Ofrecen otra descripción o explicación distintas a las que proporcionan estos tipos de
hipótesis. Por ejemplo, si la hipótesis de investigación establece: “Esta silla es roja”, la nula
afirmará: “Esta silla no es roja”, y podrían formularse una o más hipótesis alternativas: “Esta
silla es azul”, “Esta silla es verde”, “Esta silla es amarilla”, etc. Cada una constituye una
descripción distinta a las que proporcionan las hipótesis de investigación y nula.

Las hipótesis alternativas se simbolizan como H1 y sólo pueden formularse cuando


efectivamente hay otras posibilidades adicionales a las hipótesis de investigación y nula. De
ser así, no pueden existir.
NIVEL DE SIGNIFICANCIA
Se denomina nivel de significación de un contraste a la probabilidad de cometer un error tipo I.
Fijar el nivel de significación equivale a decidir de antemano la probabilidad máxima que se
está dispuesto a asumir de rechazar la hipótesis nula cuando es cierta.
El nivel de significación lo elige el experimentador y tiene por ello la ventaja de tomarlo tan
pequeño como desee (normalmente se toma = 0'05, 0'01 o0'001).
El nivel de significación α es la probabilidad de que en una muestra aleatoria, el estadístico de
contraste alcance un valor que se encuentra incluido en la región de rechazo. Por tanto, α es
una probabilidad atribuida a la región de rechazo, o lo que es igual, al valor crítico: la
probabilidad de que el estadístico de contraste asuma el valor crítico o un valor más extremo
que éste.
Del mismo modo, podemos atribuir una probabilidad al valor observado para el estadístico de
contraste. Esta sería la probabilidad de que el estadístico de contraste asuma el valor
observado o un valor más extremo que éste. A esta probabilidad se le denomina grado de
significación y viene expresada por la letra minúscula p.
Si en un contraste de hipótesis el valor observado V o entra en la región de rechazo, podemos
asegurar que el valor observado se encuentra a la derecha del valor crítico Vc. En
consecuencia, la probabilidad de encontrar valores más extremos que el valor observado (p)
será menor que la probabilidad de encontrar valores más extremos que el valor crítico (α).
Tanto a α como a p, por ser probabilidades, corresponden áreas bajo la curva de la
distribución muestral del estadístico de contraste. Por tanto, si el valor observado entra en la
región de rechazo, el área correspondiente a p será menor que el área correspondiente a α.
Por todo lo dicho anteriormente, la decisión estadística también puede tomarse a partir de la
comparación entre las probabilidades p (grado de significación) y a (nivel de significación).
A cada valor del estadístico de contraste se asocia una probabilidad p, a partir de la cual
podremos decidir sobre la hipótesis nula de acuerdo con el siguiente criterio:
Si p < α, rechazamos la hipótesis nula H0
Si p > α, mantenemos la hipótesis nula H0

ERROR TIPO I Y TIPO II


Si sólo se dispone de una muestra de la población, entonces el parámetro poblacional no se
conocerá con exactitud. Por consiguiente, no se puede saber con seguridad si la hipótesis
nula es cierta o falsa. Por tanto, cualquier regla de decisión adoptada tiene cierta probabilidad
de llegar a una conclusión errónea sobre el parámetro poblacional de interés.
Existen dos tipos de errores que son inherentes al proceso de contraste de hipótesis:

• Error Tipo I: Consiste en rechazar la hipótesis nula (H0) cuando realmente es cierta
• Error Tipo II: Consiste en aceptar la hipótesis nula (H0) cuando realmente es falsa
Debe tenerse en cuenta que sólo se puede cometer uno de los dos tipos de error y, en la
mayoría de las situaciones, se desea controlar la probabilidad de cometer un error de tipo I.
Como las pruebas de hipótesis se basan en información de muestra, debemos considerar la
posibilidad de errores.

es cierta es cierta

Se escogió No hay error Error de tipo II

Se escogió Error de tipo I No hay error

Esta tabla muestra los dos tipos de errores que se pueden cometer en la prueba de hipótesis.
El primer renglón muestra lo que puede suceder cuando la conclusión es aceptar H0. Si H0 es
verdadera, esta conclusión es correcta.
Sin embargo, si Ha es verdadera, hemos cometido un error de tipo II, es decir, hemos
aceptado H0 siendo falsa. El segundo renglón muestra lo que puede suceder cuando la
conclusión es rechazar H0. Si H0 es verdadera, hemos cometido un error de tipo I, es decir,
rechazar H0 cuando es verdadera. Sin embargo, si Ha es verdadera, es correcto rechazar H0.
Si bien no se puede eliminar la posibilidad de errores en la prueba de hipótesis, sí podemos
considerar la probabilidad de su ocurrencia. Se usa la siguiente notación estadística normal
para indicar las probabilidades de cometer esos errores:
= probabilidad de cometer un error de tipo I.
= probabilidad de cometer un error de tipo II.
CONCLUSIONES
En conclusión tenemos que el muestreo es una técnica que se desprende de la
estadística, el cual es muy útil en varios ámbitos de actividades que desarrolla el ser
humano. Gracias al muestreo podemos conocer a ciertas poblaciones sin importar su
tamaño ya que esta técnica solo toma una muestra y en base a ello se obtienen
conclusiones dando como un beneficio directo bajo costo y resultados en menor costo.
El muestreo es muy útil para las empresas, el gobierno, las industrias, etc. Ya que
gracias a esta técnica pueden conocer a las poblaciones de personas y así utilizarla
información obtenida para sus distintos fines.
El muestreo parece ser un método muy fácil de utilizar y comprender pero esto no es
verdad, ya que como hemos mencionado en este ensayo, existen ciertos conceptos
que exigen cierto nivel de conocimiento ya que sin ellos no se podría realizar y apreciar
un estudio de esta magnitud. Parece ser muy exagerado que la técnica de muestreo
tenga tantos conceptos pero hay que recordar que gracias a ellos podemos interpretar
con mayor precisión los resultados y cuando emitamos uno del mismo, podamos
afirmar que nuestro margen de error sea muy pequeño y nuestras predicciones son
correctas.
BIBLIOGRAFÍA.

 Curso y ejercicios de Estadística

Ed. Alambra Univerdisad

Autor: V. Quesada y otros

 Introducción a la estadística para las Ciencias Sociales

Ed. McGraw-Hill

 Fundamentos de Inferencia Estadística

Ed. AC

Autor: Luis Ruiz-Maya y otros

 Estadística para la administración y economía

Ed. Anderson Sweeney Williams

 Estadística aplicada a la administración y economía

Ed. Addison-Wesley

Autor: Hildebrand y otros.

 Stevenson, W. (1981) Estadística para Administración y Economía. México, D.F.: Harla


 Newbold, P. (1998) Estadística para los Negocios y la Economía. Madrid: Prentice Hall.
 http://www.monografias.com/trabajos30/prueba-de-hipotesis/prueba-de-
hipotesis.shtml#ixzz2szQYq9Rk
 http://www.monografias.com/trabajos15/hipotesis/hipotesis.shtml#ixzz2t5Rtoo1i
 http://www.monografias.com/trabajos11/tebas/tebas.shtml
 https://www.uv.es/ceaces/tex1t/3%20infemues/dnormal.htm
 http://www.angelfire.com/sc/matasc/EyD/bioesta/muestreo.htm

S-ar putea să vă placă și