Sunteți pe pagina 1din 7

1. qué es una prueba de hipótesis estadística?

na hipótesis estadística es una afirmación respecto a alguna característica de una


población. Contrastar una hipótesis es comparar las predicciones con la realidad que
observamos. Si dentro del margen de error que nos permitimos admitir, hay
coincidencia, aceptaremos la hipótesis y en caso contrario la rechazaremos.

La hipótesis emitida se suele designar por Ho y se llama Hipótesis nula porque parte
del supuesto que la diferencias entre el valor verdadero del parámetro y su valor
hipotético es debida al azar, es decir no hay diferencia.

La hipótesis contraria se designa por H1 y se llama Hipótesis alternativa

Los contrastes pueden ser unilaterales o bilaterales (también llamados de una o dos
colas) según establezcamos las hipótesis, si las definimos en términos de igual y distinto
estamos ante una hipótesis unilateral, si suponemos una dirección (en términos de
mayor o menor) estamos ante uno unilateral.

Se trata pues, de extraer conclusiones a partir de una muestra aleatoria y significativa,


que permitan aceptar o rechazar una hipótesis previamente emitida, sobre el valor de
un parámetro desconocido de la población. El método que seguiremos es el siguiente:

Enunciar la hipótesis

Elegir un nivel de significación a y construir la zona de aceptación, intervalo fuera del


cual sólo se encuentran el a100% de los casos más raros. A la zona de rechazo la
llamaremos región crítica, y su área es el nivel de significación.

Verificar la hipótesis extrayendo una muestra cuyo tamaño se ha decidido en el paso


anterior y obteniendo de ella el correspondiente estadístico (media o proporción en
nuestro caso).

Decidir. Si el valor calculado en la muestra cae dentro de la zona de aceptación se acepta


la hipótesis y si no se rechaza.

Aquí nos vamos a limitar a estudiar hipótesis sobre la media y sobre la proporción en
una población. En cada caso se trabaja con un contraste bilateral y otro unilateral. Los
contrastes unilaterales son de distinta dirección en cada ejemplo, pero el método a
seguir es análogo para ambos. Pulsa ahora sobre el primer enlace para continuar.

PASOS DE LA PRUEBA DE HIPÓTESIS


1. Expresar la hipótesis nula
2. Expresar la hipótesis alternativa
3. Especificar el nivel de significancía
4. Determinar el tamaño de la muestra

La Hipótesis Nula:

Nivel de Significancia, se denota como α y es el tamaño de la región de rechazo El


complemento de la región de rechazo es 1−α y es conocido como el Coeficiente de
Confianza En una prueba de Hipótesis de dos colas la región de no rechazo corresponde a
un intervalo de confianza para el parámetro en cuestión

denotada como H0 siempre especifica un solo valor del parámetro de la población si la


hipótesis es simple o un conjunto de valores si es compuesta (es lo que queremos
desacreditar)

H0 :µ = µ0 H0 :µ " µ0 ! H0 :µ " µ0

La Hipótesis Alternativa:

Nivel de Significancia, se denota como α y es el tamaño de la región de rechazo El


complemento de la región de rechazo es 1−α y es conocido como el Coeficiente de
Confianza En una prueba de Hipótesis de dos colas la región de no rechazo corresponde a
un intervalo de confianza para el parámetro en cuestión

denotada como H1 es la que responde nuestra pregunta, la que se establece en base a la


evidencia que tenemos. Puede tener cuatro formas:

Como las conclusiones a las que lleguemos se basan en una muestra, hay posibilidades de
que nos equivoquemo

La Región de Rechazo: es el conjunto de valores tales que si la prueba estadística cae dentro
de este rango, decidimos rechazar la Hipótesis Nula Su localización depende de la forma de
la Hipótesis Alternativa: Si 0 H : µ > entonces la región se encuentra en la cola derecha de la
distribución de la estadística de prueba.

Nivel de Significancia, se denota como α y es el tamaño de la región de rechazo El


complemento de la región de rechazo es 1−α y es conocido como el Coeficiente de Confianza
En una prueba de Hipótesis de dos colas la región de no rechazo corresponde a un intervalo
de confianza para el parámetro en cuestión

2. ¿Como decide el investigador si debe de rechazar o aceptar H0?

que es el que se produce cuando se rechaza la hipótesis nula y en


realidad es cierta. La probabilidad de cometer este error se fija de
antemano por el investigador cuando sitúa el nivel de rechazo,
habitualmente 0.05.Si no se rechaza la hipótesis nula, cuando elvalor de
probabilidad es inferior al nivel fijado, también se corre el riesgo de
cometer un error que se denomina error tipo II o error beta ß. Ahora las
cosas no son tan sencillas, la probabilidad de cometer un error tipo II no
es un valor único como la que corresponde al error tipo I. La probabilidad
de un error tipo I se calcula suponiendo que la hipótesis nula (no existen
diferencias) es correcta, mientras que la probabilidad de un error tipo II
se tiene que calcular cuando ésta es falsa, es decir cuando existen
diferencias entre los tratamientos. Pero la magnitud D de esa diferencia
puede tomar en principio cualquier valor y la probabilidad de error
dependerá de esa magnitud. Hay que fijar pues la diferencia para
la que se desea acotar ese error. Habitualmente se utilizará un valor a
partir del cual se puede considerar como diferencia relevante en términos
del proceso en estudio

Decisiones y Tipos de Error

Cuando llevamos a cabo un contraste de hipótesis sólo existen dos


decisiones posibles:

•• Rechazar H0, (y por tanto aceptar H1).

Como ya se ha indicado, la decisión a tomar se basa en los datos de una


muestra. Ahora
bien, cuando tomamos la decisión, podemos cometer dos errores:

• Rechazar H0 cuando realmente es cierta (Error Tipo I → ¡¡Muy


peligroso!!)

P (Error Tipo I) = P (Rechazar H0| H0 es cierta) = α

• Aceptar H0 cuando realmente es falsa (Error Tipo II → No tan peligroso)

P (Error Tipo II) = P (Aceptar H0| H0 es falsa) = β

3. ¿A qué se le conoce como error tipo I?


Error de tipo I : Si usted rechaza la hipótesis nula cuando es
verdadera, comete un error de tipo I. La probabilidad de cometer
un error de tipo I es α, que es el nivel de significancia que usted
establece para su prueba de hipótesis. Un α de 0.05 indica que
usted está dispuesto a aceptar una probabilidad de 5% de estar
equivocado al rechazar la hipótesis nula. Para reducir este riesgo,
debe utilizar un valor menor para α. Sin embargo, usar un valor
menor para alfa significa que usted tendrá menos probabilidad de
detectar una diferencia si esta realmente existe.

4. Cuáles son las condiciones que se deben presentar para realizar una
prueba de hipótesis para la media? ¿para la proporción? ¿para la
diferencia de medias? ¿para la diferencia de proporciones?

hipótesis para la media poblacional en el caso de varianza conocida Si los


datos provienen de una distribución normal con varianza conocida y
podemos afi rmar que se han seleccionado de forma que nos garantice
que son independientes entre sí, la media muestral sigue también una
distribución normal, con la misma esperanza σ que los datos y desviación
típica . n En esta situación podemos plantear los siguientes contrastes
dependiendo de la hipótesis alternativa que utilicemos:

DIFERENCIA DE PROPORCIONES
Si se consideran las proporciones como medias y se aplica la prueba t utilizada para comparar medias

poblacionales los resultados no son fiables ya que la estimación del error típico que realiza el programa no
coincide con la del estadístico de prueba. Para resolver el problema con el programa SPSS se deberá cruzar la
variable analizada con la que define los grupos (obtener la tabla de contingencia) y realizar el contraste de

independencia Chi-cuadrado.

El estadístico de prueba Chi-cuadrado se define:

y presenta una distribución Chi-cuadrado con (I-1)(J-1) grados de libertad. Las Eij se calculan multiplicando

las frecuencias marginales y dividendo el producto por n. Estas Eij son estimaciones de las frecuencias
absolutas que cabría esperar en cada casilla bajo el supuesto de que la proporción de éxitos es la obtenida a
partir del total de observaciones muestrales sin considerar diferencias entre los dos grupos.

La secuencia es:

Analizar

Estadísticos Descriptivos

Tablas de contingencia

En el cuadro de diálogo se indica la variable que se quiere contrastar (filas), la variable que define los dos
grupos (columnas) y se selecciona la opción Chi-cuadrado en Estadísticos.

5. ¿Cómo se determina las regiones de rechazo de una prueba de


hipótesis?
La región de rechazo puede considerarse como el conjunto de valores de la
estadística de prueba que no tienen posibilidad de presentarse si la hipótesis nula
es verdadera.
La región de rechazo puede considerarse como el conjunto de valores de
la estadística de prueba que no tienen posibilidad de presentarse si la
hipótesis nula es verdadera. Por otro lado, estos valores no son tan
improbables de presentarse si la hipótesis nula es falsa. El valor crítico
separa la región de no rechazo de la de rechazo.

La Región de Rechazo: es el conjunto de valores tales que si la prueba


estadística cae dentro de este rango, decidimos rechazar la Hipótesis Nula
Su localización depende de la forma de la Hipótesis Alternativa: Si 0 H :
µ > entonces la región se encuentra en la cola derecha de la distribución
de la estadística de prueba.

Nivel de Significancia, se denota como α y es el tamaño de la región de


rechazo El complemento de la región de rechazo es 1−α y es conocido
como el Coeficiente de Confianza En una prueba de Hipótesis de dos colas
la región de no rechazo corresponde a un intervalo de confianza para el
parámetro en cuestión

6. Definición y características principales del análisis de varianza

El análisis de varianza (ANOVA), se refiere en general a un conjunto de situaciones


experimentales y procedimientos estadísticos para el análisis de respuestas cuantitativas
de unidades experimentales. El problema más sencillo de ANOVA se conoce como el análisis
de varianza de un solo factor o diseño completamente al azar, éste se utiliza para comparar
dos o más tratamientos, dado que sólo consideran dos fuentes de variabilidad, los
tratamientos y el error aleatorio. En este todas las corridas experimentales se deben de
realizar en un orden aleatorio. De esta manera, si durante el estudio se hacen 𝑁 pruebas,
éstas se corren al azar, de manera que los posibles efectos ambientales y temporales se
vayan repartiendo equitativamente entre los tratamientos. Vamos a suponer que se tienen
𝑘 poblaciones o tratamientos, independientes y con medias desconocidas 𝜇1, 𝜇2, . . . , 𝜇𝑘,
así como varianzas también desconocidas, pero que se supone que son iguales 𝜎1 2 = 𝜎2 2
= . . . = 𝜎𝑘 2 = 𝜎2. Las poblaciones pueden ser 𝑘 métodos de producción, 𝑘 tratamientos, 𝑘
grupos, etc., y sus medias se refieren o son medidas en términos de la variable de respuesta
CARACTERÍSTICAS PRINCIPALES
1. Es aplicable sólo cuando las unidades experimentales son
homogéneas (verificar si existe tal homogeneidad de los datos,
todos provienen de la misma distribución y no hay datos atípicos).

2. Los tratamientos pueden tener igual o diferente número de


unidades experimentales.

3. La distribución de los tratamientos es al azar en las unidades


experimentales. El número de tratamientos está en función del
número de unidades experimentales que se dispone. Es
conveniente tener pocos tratamientos y más unidades
experimentales que muchos tratamientos con pocas unidades
experimentales.

7. ¿Cuándo y cómo aplicar un análisis de varianza?

usamos ANOVA de un factor cuando queremos saber si las medias de una


variable son diferentes entre los niveles o grupos de otra variable. Por
ejemplo, si comparamos el número de hijos entre los grupos o niveles de clase
social: los que son clase baja, clase trabajadora, clase media-baja, clase media-
alta y clase alta. Es decir, vamos a comprobar mediante ANOVA si la variable
“número de hijos” está relacionada con la variable “clase social”. Concretamente,
se analizará si la media del número de hijos varía según el nivel de clase social a
la que pertenece la persona.

8. ¿Es útil aplicar análisis de varianza a la problemática de estudio? -


Explique por qué

S-ar putea să vă placă și