Sunteți pe pagina 1din 16

ANALISIS DE

VARIANZA DE UNA
VIA

DEFINICIN

Se utiliza para contrastar la igualdad de medias de mas de dos


poblaciones normales e independientes, para detectar posibles
diferencias significativas entre ellas en cuanto a una variable o
caracterstica:
H0 : 1 = 2 = .... = I
H1 : Alguna distinta.
El anlisis de la varianza es un procedimiento creado por Fisher en
1925 para descomponer la variabilidad de un experimento en
componentes independientes que puedan asignarse a causas
distintas.
El problema general que vamos a estudiar es el siguiente: disponemos
de n elementos que se diferencian en un factor: por ejemplo, alumnos
de distintas clases (factor clase), coches de distintas marcas (factor
marca), etc. En cada elemento observamos una caracterstica
continua (X) que vara aleatoriamente de un individuo a otro: notas de
Estadstica de los alumnos, consumo de gasolina, tiempo de vida, etc

El objetivo es conocer si existe o no relacin entre


la variable respuesta y el factor: habr
diferencias en las notas de los distintos grupos de
Estadstica?, tendrn coches similares de
distintas marcas el mismo consumo de gasolina?
Requisitos de una prueba paramtrica
1.- Variable numrica
2.- Distribucin Normal
3.- Homogeneidad de varianzas

En resumen: la variable respuesta en cada grupo sigue una


distribucin Normal, la varianza es la misma en todos los grupos
y los grupos son independientes.

EJERCICIO

Hemos medido la autoestima en 4 escuelas profesionales de la


universidad (3 individuos en cada una). El objetivo de ANOVA es ver
si las diferencias entre estas medias muestrales son compatibles
con que las poblaciones sean iguales o mas bien sugieren que hay
diferencias entre las medias poblacionales.

enfermera psicologa
12
21
8
17
13
19
promedio
11
19
suma de cuadrados
14
8
varianza
7
4
desviacion
2.65
2.00
error estandar
1.53
1.15

Psicologa
Enfermera

derecho ing civil


8
16
7
21
9
17

8
18
=
( )2
2
14
=1
1
7
1.00
2.65 =

0.58
1.53

Ing. civil

Derecho

PASO 1. Suma de cuadrados y media cuadrada INTRA grupos


SUMA DE CUADRADOS INTRA, SCD = 38 (14+8+2+14)=38. Esta es mayor cuanto mayor
es la dispersin de los valores individuales respecto a la media de su grupo
GRADOS DE LIBERTAD INTRA, glD = 8 es la suma de los tamaos de todos los grupos
menos el numero de tratamientos: glD =12-4=8. Tambin se obtiene como la suma de
los tamaos de cada grupo menos 1:gl=2+2+2+2=8
MEDIA CUADRADA INTRA, MCD= SCD/glD =38/8 =4.75. Mide la dispersin de los valores
de la variable intra grupo. Cuando los grupos son del mismos tamao se puede calcular
como el promedio de las cuasivarianzas muestrales, 2 , en los K grupos (K=4 carreras
profesionales)
MCD = (7+4+1+7) / 4=19 / 4 = 4.75

PASO 2. Suma de cuadrados y media cuadrada ENTRE grupos


SUMA DE CUADRADOS ENTRE, = 258 es la suma de cuadrados entre las medias
de los grupos multiplicada por el tamao de ellos, si todos son de igual tamao. En este
ejemplo las medias muestrales son 11, 19, 8 y 18. la media de las 4 medias es 14 y la
suma de cuadrados entre las medias es:
(11 14)2 +(19 14)2 +(8 14)2 + (18 14)2 = 86
Multiplicando por 3, que es el tamao de los grupos, se obtiene =86 * 3 = 258
GRADOS DE LIBERTAD ENTRE, = 3 es el numero de grupos menos 1 : 4 - 1 = 3

MEDIA CUADRADA ENTRE, = / = 258 / 3 = 86. Mide las diferencias entre


las medias muestrales: es cero cuando todas son iguales y es mayor cuanto mas
difieren entre si dichas medias. Los datos son mas difcilmente compatibles con la 0
cuanto mas diferentes son las medias muestrales, es decir, cuanto mayor es la . La
idea bsica es:
- Medias muestrales parecidas, implica pequea, esto es, datos compatibles con
la 0 , que no constituyen evidencia contra ella
- Medias muestrales muy diferentes, implica grande, esto es, datos difcilmente
compatibles con la 0 , que constituyen evidencia contra ella 0 , que constituyen
evidencia contra ella
Cuan grande tiene que ser la para que sea fuerte evidencia contra la 0 ?
Depende de cuan dispersa sea la variable estudiada. Un mismo valor de es mas
indicativo de que hay diferencias entre las medias poblacionales, si la variable es poco
dispersa ( pequea) que si es una variable muy dispersa( grande)

PASO 3. La razn de medias cuadradas o razn F y el valor P


En la evidencia contra la 0 , lo relevante no es el valor absoluto de la , sino cuanto
supera a la . La relacin entre y se cuantifica por su cociente, llamando
Razn de Medias Cuadradas, Razn de Varianza o valor F.
= /
El valor de es 18.1; ahora calcularemos el , debemos calcular los grados
de libertad del numerador y del denominador.
Del numerador es = 4 1 = 3. Del denominador es = 4 3 1 = 8 y con
un nivel de significancia de 0.05. Entonces el valor de es de 4.07
Como es mayor que , entonces se rechaza la 0 . Si existen diferencias
significativas entre los 4 grupos

Los programas informticos producen como salida esta tabla


SC

gl

MC

ENTRE

SCE = 258

86

INTRA

SCD = 38

4.75

18.1

0.0006

HOMOGENEIDAD DE
VARIANZAS

En teora, el valor P del ANOVA solamente coincide con el P


verdadero si se cumplen, las mismas condiciones que en la
comparacin de dos medias: Normalidad y Homogeneidad
de varianzas.
El supuesto de homogeneidad de varianza se verifica con el
test de Levene
Si el valor p del test es mayor que 0,05 entonces
aceptamos la hiptesis nula y decimos que se cumple el
supuesto de homocedasticidad. Si el valor p fuera menor de
0,05 y entonces no se cumple el supuesto de homogeneidad
de varianza. En este caso ya no podremos usar el test F de
ANOVA para comparar las medias o tratamientos. Existe un
test de comparacin de medias que toma en cuenta este
problema y se llama el test de Welch.

CASO

No hay varianzas
homogneas

NORMALIDAD

Esto implica un problema slo si se considera que las poblaciones tienen distribuciones
marcadamente asimtricas y en direcciones opuestas.
PRUEBAS PARA DETERMINAR NORMALIDAD
El test de Kolmogorov-Smirnov es un test clsico y conocido. El test de Shapiro-Wilk es ms
nuevo y recomendado para tamaos muestrales mayores a 50. En todo caso, se espera
que las conclusiones con cualquiera de los dos test sean las mismas.
0 = Las muestras son normales
1 = Las muestras son diferentes
Por lo tanto si el valor p del correspondiente test es mayor que 0,05 aceptamos la
hiptesis nula y concluimos que se cumple el supuesto de Normalidad. Note que en este
caso especial la hiptesis de inters es la hiptesis
CASO nula.

No hay distribucin
normal

PRUEBAS POS OC

El mtodo de Tukey es casi siempre bueno


- Si se tienen muchos tratamientos y poca
planificacin (muchas preguntas) Scheffe es el
ms seguro, pero ms
exigente
Si se tiene un grupo control con el cual se
quieren comprar los tratamientos, existe la
prueba de Dunnet

S-ar putea să vă placă și