Sunteți pe pagina 1din 211

Introduccin al Anlisis de Varianza

Pedro Morales Vallejo Universidad Pontificia Comillas Facultad de Ciencias Humanas y Sociales (ltima revisin 28 de Febrero de 2009)

INDICE
1. Finalidad del anlisis de varianza.......................................................................... 2. Por qu utilizamos el anlisis de varianza en vez de la t de Student..................... 3. Qu comprobamos mediante el anlisis de varianza: relacin entre la diferencia entre varianzas y la diferencia entre medias .............. 4. Conceptos y trminos propios del anlisis de varianza......................................... 5. Cmo podemos analizar (o descomponer) la varianza total.................................. 6. Qu comprobamos con el anlisis de varianza...................................................... 7. Cmo comparamos dos varianzas: la razn F ....................................................... 8. Explicacin alternativa: relacin entre variables cualitativas o criterios de clasificacin (variable independiente) y variables cuantitativas (variable dependiente).......................................................................................................... 9. Diversos modelos de anlisis de varianza ............................................................ 10. Cuestiones metodolgicas previas....................................................................... 10.1. Requisitos previos para utilizar el anlisis de varianza ............................... 10.2. Tamao de los grupos y prdida de sujetos ................................................. 10.3. Tipos de categoras de clasificacin ............................................................ 11. Referencias bibliogrficas ................................................................................... 3 4 5 9 10 13 14

16 18 20 20 22 23 25

Introduccin al Anlisis de Varianza

1. Finalidad del anlisis de varianza El anlisis de varianza lo vamos a utilizar para verificar si hay diferencias estadsticamente significativas entre medias cuando tenemos ms de dos muestras o grupos en el mismo planteamiento. En estos casos no utilizamos la t de Student que solamente es un procedimiento vlido cuando comparamos nicamente las medias de dos muestras. Como explicaremos ms adelante, cuando tenemos ms de dos muestras y comparamos las medias de dos en dos suben las probabilidades de error al rechazar la hiptesis de no diferencia porque queda suficientemente explicada por factores aleatorios (error muestral). En primer lugar recordamos qu es la varianza y qu nos cuantifica. La frmula de la varianza ya nos es conocida; es la desviacin tpica elevada al cuadrado: 2 = (X M)2 N [1]

Utilizamos el smbolo X para designar las puntuaciones individuales, y el smbolo M para designar la media aritmtica de la muestra; va a ser el smbolo de la desviacin tpica de la muestra si no se indica expresamente que se trata del smbolo de la desviacin tpica de la poblacin1. El denominador ser N-1 si queremos obtener una estimacin de la varianza de la poblacin. Esto es lo que haremos habitualmente en el clculo de las varianzas propias del anlisis de varianza. Una varianza grande indica que hay mucha variacin entre los sujetos, que hay mayores diferencias individuales con respecto a la media; una varianza pequea nos indica poca variabilidad entre los sujetos, diferencias menores entre los sujetos. La varianza cuantifica todo lo que hay de diferente entre los sujetos u observaciones. Como iremos viendo la varianza se puede descomponer en varianzas parciales y a este descomponer la varianza le denominamos anlisis de varianza. La varianza expresa variacin, y si podemos descomponer la varianza, podemos aislar fuentes de variacin. Cuando de los sujetos tenemos varios tipos de informacin, el anlisis de varianza nos va a responder a esta pregunta De dnde vienen las diferencias?

1 Utilizamos M como smbolo de la media aritmtica (no X ) y (y no s) como smbolo de la desviacin tpica de la muestra (dividiendo por N, no por N -1); por razones de simplicidad y as lo vemos adems en otros autores (como Guilford y Fruchter, 1978, que reconocen la falta de una prctica comn en el uso de estos smbolos). Es por otra parte frecuente referirse a la desviacin tpica como sigma, el nombre del smbolo. En muchas calculadoras con programacin estadstica de uso frecuente se utilizan los smbolos n y n-1 para referirse a la desviacin tpica de la muestra (dividiendo por N) y de la poblacin (dividiendo por N - 1) respectivamente y son posiblemente los smbolos ms claros. Otros autores (como Spatz, 1993) prefieren S (mayscula) para designar la desviacin tpica de la muestra y s (minscula) para la desviacin tpica de la poblacin; otros en cambio (Rosenthal, 1987, 1991; Rosenthal y Rosnow, 1991) utilizan S para la poblacin y para la muestra. Los smbolos para la desviacin tpica de la poblacin y s para la de la muestra (la prctica ms comn) son originarios de William S. Gossett (Pearson y Kendall, Eds., 1978) al que debemos tambin la distribucin de la t de Student. Algn autor prescinde casi de todo tipo de smbolos (Guguen, 1997). En nuestro caso el smbolo () no se presta a confusin porque prcticamente siempre se trata de la desviacin tpica de la muestra a no ser que indiquemos expresamente que se trata de la desviacin tpica de la poblacin; en este caso tambin utilizaremos ocasionalmente el smbolo n-1 para referirnos a la desviacin tpica de la poblacin y n para designar la desviacin tpica de la muestra.

Introduccin al Anlisis de Varianza

El anlisis de varianza2 no constituye un mtodo o procedimiento nico; segn los diseos y datos disponibles existen diversos modelos de anlisis de varianza. En esta introduccin nos referiremos al anlisis de varianza para varias muestras independientes, y ms concretamente al anlisis de varianza para slo dos muestras independientes (aunque en este caso solemos utilizar la t de Student) porque es de comprensin ms sencilla. La misma explicacin bsica se puede extrapolar a otras situaciones (ms de dos muestras independientes, ms de dos muestras relacionadas, diseos factoriales, etc., que iremos viendo ms adelante). 2. Por qu utilizamos el anlisis de varianza en vez de la t de Student Cuando tenemos dos muestras y queremos comprobar si difieren significativamente (si proceden de la misma poblacin con una nica media) utilizamos la t de Student. Cuando tenemos ms de dos grupos utilizamos el anlisis de varianza: No podramos comparar todos los grupos de dos en dos con la t de Student? A primera vista parecera lo ms lgico, sin embargo no se hace as por una serie de razones que exponemos a continuacin. 1 La razn ms importante (y suficiente) para no utilizar la t de Student con ms de dos grupos es que, al hacer muchas comparaciones de dos en dos, aumenta la probabilidad de que algunas diferencias resulten significativas por azar y entonces cabe la posibilidad de afirmar que hay una diferencia (de no aceptar la hiptesis nula) cuando realmente no la hay. Si por ejemplo tenemos tres grupos podramos hacer tres comparaciones: entre el 1 y el 2, entre el 1 y el 3 y entre el 2 y el 3. Operando con un nivel de confianza de = .05, la probabilidad de encontrar al menos una diferencia significativa por azar es de hecho del 9.75% y no del 5% (no es importante el entender ahora el por qu, algo aclaramos en el anexo I). 2 Otra razn adicional es que una prueba estadstica basada en todos los datos utilizados simultneamente, es ms estable que la prueba o anlisis que parcializa los datos y no los examina todos juntos. El error tpico (oscilaciones aleatorias) es menor cuando el nmero de sujetos es mayor, como sucede cuando se analizan todos los datos de todos los grupos simultneamente. En principio es preferible utilizar un mtodo de anlisis global que abarque todos los datos que se quieren examinar. Aun as, si se tiene como hiptesis previa a la recogida de datos que dos de los grupos difieren estadsticamente, es legtimo utilizar en ese caso y para esos dos grupos la t de Student. Pero lo normal es que el anlisis de varianza implique hiptesis relativas a todos los datos tomados simultneamente, en un nico planteamiento. 3 El ahorro de tiempo es otra razn que a veces se aduce, aunque en s misma no es una razn vlida3. El nmero de comparaciones de dos en dos de k elementos es igual a k (k-1)/2; con seis grupos habra que hacer 15 comparaciones y con 10 grupos subiran a 45. El anlisis de varianza nos dice de entrada si hay o no hay diferencias significativas entre pares de medias, y si no las hay no necesitamos hacer ms anlisis. En cualquier caso no sera legtimo comparar todas las medias de dos en dos, en un mismo planteamiento, por las razones dichas antes.

2 Tambin denominado ANOVA; del ingls ANalysis Of VAriance, y ANVA en espaol. 3 Adems la importancia que podra suponer el trabajo extra es nula utilizando programas de ordenador.

Introduccin al Anlisis de Varianza

3. Qu comprobamos mediante el anlisis de varianza: relacin entre la diferencia entre varianzas y la diferencia entre medias Con la t de Student comprobamos si existe una diferencia estadsticamente significativa entre las medias de dos muestras o grupos; es decir, comprobamos si las dos medias difieren ms de lo que consideramos normal cuando las muestras proceden de la misma poblacin o, lo que es lo mismo, si las medias no difieren entre s ms de lo que normal que difieran los sujetos entre s. Con el anlisis de varianza comprobamos si existen diferencias estadsticamente significativas entre ms de dos grupos, es decir, comprobamos si las diversas muestras podemos considerarlas muestras aleatorias de la misma poblacin. Es el mtodo apropiado cuando tenemos ms de dos grupos en el mismo planteamiento; en vez de comparar las medias de dos en dos, utilizamos el anlisis de varianza (y ya veremos por qu). Cuando tenemos solamente dos muestras tambin podemos utilizar el anlisis de varianza para comparar dos muestras en vez de la t de Student, pero con slo dos muestras es ms cmodo utilizar los procedimientos tradicionales del contraste de medias (t de Student). Lo que directamente comprobamos en el anlisis de varianza es si entre dos o ms varianzas existen diferencias estadsticamente significativas, pero lo que realmente deseamos comprobar es si hay diferencias entre una serie de medias. Lo primero que hay que comprender, al menos de una manera simple e intuitiva, es que al comprobar si hay diferencia entre dos varianzas (enseguida veremos de qu dos varianzas estamos hablando), llegamos a una conclusin sobre si hay diferencias entre las medias. Vamos a verlo en un ejemplo sencillo, con slo dos muestras de seis sujetos cada una, representadas en la figura 1.

Media de A: 4

Media Total: 6.5

Media de B: 9

10 8

10 8

10 8

5 3

5 3

5 3

Muestra A

Muestra B

Figura 1 En la figura 1 tenemos representados dos grupos o muestras, muestra A y muestra B, cada una con su media. La media del grupo A es Ma = 4 y la media del grupo B es Mb = 9. Si consideramos a todos los sujetos como pertenecientes a un nico grupo, A+B, tenemos que la media total es Ma+b= (Ma + Mb)/2 = 6.5.

Introduccin al Anlisis de Varianza

Este considerar a todos los sujetos como hipotticamente pertenecientes a una nica muestra es importante para entender el procedimiento de anlisis de varianza; porque es esta varianza del grupo total la que vamos a analizar o descomponer. En la figura 2 tenemos la representacin de los mismos sujetos de los dos grupos de la figura 1, pero ahora unidos grficamente en un solo grupo.

10B 8B 8B

10B

10B 8B

5A 3A

5A 3A

5A 3A

muestra A y muestra B unidas en un solo grupo

Figura 2 Cuando pensamos en trminos del anlisis de varianza la imagen de la figura 1 debera ser la de la figura 2, donde tenemos un solo grupo integrado por los dos grupos iniciales: es la varianza de este nuevo grupo la que vamos a analizar o descomponer. De cada sujeto conservamos la informacin sobre su grupo inicial de pertenencia (A o B). Observando las diferencias entre los sujetos de este grupo total podemos preguntarnos: De dnde vienen las diferencias en este grupo total formado por las muestras A y B? De que los sujetos son muy distintos entre s dentro de cada grupo? No, en este ejemplo los sujetos dentro de cada grupo tienen un grado semejante de homogeneidad o variabilidad: dentro de cada grupo las diferencias entre sujetos (las varianzas) son iguales (si nos fijamos en la figura 1, vemos que en ambos grupos las diferencias entre cualquier par de sujetos o son igual a 0 o son igual a 2). Lo que sucede es que las medias son distintas: las medias de los grupos difieren entre s ms que los sujetos entre s dentro de cada grupo. Si calculamos la varianza dentro de cada uno de los dos grupos (representados en las figuras 1 y 2), veremos que su valor es igual a 1; en cambio si calculamos la varianza entre los grupos (utilizando las dos medias como si se tratara de datos de dos sujetos, o utilizando los datos de todos los sujetos, pero asignando a cada uno la media de su grupo) veremos que la varianza es igual a 6.25: es mayor la varianza (diferencias entre) de los grupos que la de los sujetos. La media total ((4+9)/2) es de 6.5; las medias de cada grupo se apartan ms de la media total que los sujetos de su propia media. Y sta ser la conclusin importante: Si las medias entre s difieren ms que los sujetos entre s, podemos concluir que las medias son distintas. Dicho de otra manera, si las medias difieren entre s ms que los sujetos entre s, concluiremos que las medias pertenecen a muestras que proceden de poblaciones distintas con distinta media; hay una variabilidad mayor entre las medias que entre los sujetos.
Introduccin al Anlisis de Varianza

En la figura 3 tenemos un caso distinto, con otros dos grupos de seis sujetos. Los dos grupos tienen idntica media, no difieren en cuanto grupos, pero entre los sujetos, dentro de cada grupo, s hay diferencias.
Media de A: 6 8 7 6 5 4 4 4 6 6 6 Media Total: 6 Media de B: 6 8 8

Muestra A

Muestra B

Figura 3 Uniendo ambos grupos, podramos calcular la varianza total, y preguntarnos de nuevo: De dnde viene esa varianza (esas diferencias)? De que los grupos son distintos, con media distinta, como en el caso anterior? O las diferencias en el grupo total vienen simplemente de que los sujetos dentro de cada grupo son distintos? En este caso las diferencias no vienen de diferencias entre los grupos, que tienen idntica media, sino de que los sujetos dentro de cada grupo son muy distintos. Vamos a suponer que estas puntuaciones son de autoestima, y que los dos grupos pertenecen a dos aulas distintas de alumnos. Si comprobamos que la varianza o diversidad dentro de los grupos es mayor, o ms o menos igual, que la varianza o diversidad entre los grupos, nuestra conclusin sera que, por lo que respecta a la autoestima, estamos ante un nico grupo, o ante dos muestras que representan a la misma poblacin. La hiptesis de dos grupos, o de dos muestras procedentes de poblaciones distintas con distinta media en autoestima, no se sostendra. Podemos imaginar un ejemplo todava ms sencillo: tenemos dos grupos, uno de enanos y otro de gigantes: Cada grupo tiene su media en altura; la media de los gigantes es mayor que la media de los enanos. Dentro de cada grupo hay tambin diferencias; no todos los enanos son igualmente bajitos ni todos los gigantes son igualmente altos. Pero cul sera nuestra conclusin si comprobamos que la diferencia entre las medias de los gigantes y de los enanos es ms o menos igual a las diferencias que podemos encontrar entre los sujetos dentro de cada grupo? Pues sencillamente que no tenemos ni enanos ni gigantes, la hiptesis es falsa, y por lo que respecta a estatura, podemos considerar que todos pertenecen al mismo grupo (o hablando con ms propiedad, que todos pertenecen a la misma poblacin por lo que respecta a la altura). El razonamiento para explicar el anlisis de varianza (consideramos que dos grupos son distintos cuando la variabilidad entre los grupos, entre las medias, es mayor que la variabilidad dentro de los grupos) es sencillo y adems aplicable a otras situaciones al margen del anlisis estadstico. Dentro de grupos oficialmente distintos en la percepcin social (distintos en estatutos, ideario o cualquier otra variable) puede haber diferencias
Introduccin al Anlisis de Varianza

mayores o iguales que las diferencias que se dan por ciertas entre los grupos; la nica diferencia puede estar en el cartel utilizado para designarlos, sin base real para afirmar que en una determinada caracterstica esos grupos tienen medias distintas y constituyen poblaciones distintas. El trmino poblacin se presta a cierta equivocidad en este contexto, sobre todo cuando hablamos de poblaciones distintas. En este caso llamamos poblaciones distintas a aquellas poblaciones (tal como nos vienen representadas por muestras concretas) cuyas medias difieren entre s mas que los sujetos entre s, aunque hablemos de poblaciones distintas con otros criterios meramente conceptuales o hipotticos (por ejemplo los alumnos de la facultad A y los alumnos de la facultad B). Estos ejemplos reflejan una situacin sencilla porque se trata solamente de dos grupos; los grupos podran ser tres o ms. Lo que importa ahora es ver que al analizar varianzas podemos llegar a conclusiones sobre si hay o no hay diferencias superiores a lo normal entre las medias de varias muestras, considerando como diferencias normales las que podemos encontrar entre los sujetos del mismo grupo. Otra manera de representar grficamente lo que analizamos mediante el anlisis de varianza la tenemos en la figura 4. Tenemos representados dos grupos: En un caso (caso A) las medias difieren entre s ms o menos lo mismo que los sujetos entre s; podramos concluir que ambas muestras proceden de la misma poblacin. En el otro caso (caso B) las medias difieren entre s ms que los sujetos entre s; en cambio en ambos grupos las diferencias entre los sujetos son de magnitud semejante; dentro de cada grupo la varianza es ms o menos igual. Nuestra conclusin sera que los grupos son distintos, proceden de poblaciones con media distinta.

media media

media

media

Caso A Las medias no difieren entre s ms de lo que los sujetos difieren entre s; la varianza entre los grupos es ms o menos igual a la varianza dentro de los grupos.

Caso B Las medias difieren entre s ms de lo que los sujet difieren entre s; la varianza entre los grupos es mu mayor que la varianza dentro de los grupos.

Figura 4 Expresado de otra manera: la diversidad o variacin que encontramos dentro de los grupos (expresada por la varianza dentro de los grupos) es la diversidad normal, aleatoria; lo normal es que no todos los sujetos de una muestra sean idnticos en una determinada caracterstica. Si las medias difieren entre s (varianza entre grupos) ms de lo que se puede esperar por azar (varianza dentro de los grupos), afirmaremos que las medias son distintas o, lo que es lo mismo (expresado en trminos ms formales), que las muestras proceden de poblaciones distintas con distinta media.

Introduccin al Anlisis de Varianza

Bsicamente vamos a hacer esto: la varianza total (del gran grupo; el que resultara si unimos a todos los sujetos en un nico grupo) la vamos a descomponer en dos varianzas; a) Una varianza nos va a expresar las diferencias entre las medias (entre los grupos) b) Otra varianza nos va a expresar las diferencias o variabilidad entre los sujetos, dentro de los grupos (y que consideramos que es la variabilidad normal) Si la diversidad entre las medias (los grupos) es mayor que la diversidad entre los sujetos dentro de los grupos, es cuando afirmaremos que entre las medias hay diferencias superiores a lo que podemos encontrar por azar (que es lo que sucede dentro de los grupos). El anlisis de varianza, analizando varios grupos simultneamente, nos dir si entre las medias de los grupos hay o no hay diferencias significativas (superiores a la variabilidad normal dentro de los grupos), pero en el caso de que haya diferencias entre los grupos, el mero anlisis de varianza no dice directamente entre qu grupos est la diferencia; habr despus que comparar los grupos de dos en dos mediante procedimientos anlogos (hay varios) a la t de Student, denominados contrastes posteriores. 4. Conceptos y trminos propios del anlisis de varianza Una dificultad inicial que suele presentar el estudio del anlisis de varianza es el uso de trminos nuevos, por eso es til familiarizarse con estos trminos ya desde el principio. Realmente los conceptos no son nuevos, solamente pueden resultar relativamente nuevos los trminos para designarlos. Cuando se cae en la cuenta de que se trata de lo que ya sabemos, desaparece la dificultad. Recordamos la frmula de la varianza: =
2

(X - M)2 N -1

Es decir, se trata de una razn o quebrado con un numerador y un denominador (que ahora es N-1, y no N simplemente, porque se trata de una estimacin de la varianza de la poblacin). A este numerador y denominador de la varianza nos vamos a ir refiriendo por separado utilizando los nuevos trminos, que por otra parte no son arbitrarios y nos ayudarn a entender cmo se analiza o descompone la varianza.
El numerador de la varianza o suma de cuadrados

La suma de las diferencias de todos los datos con respecto a la media, elevadas previamente al cuadrado [(X-M)2] es el numerador de la varianza. A este numerador se le denomina Suma de Cuadrados y su smbolo habitual es SC. No es raro encontrarse con el smbolo SS, que significa lo mismo pero en ingls (Sum of Squares). La expresin (X-M)2 tambin suele simbolizarse x2 (la equis minscula, x, es smbolo frecuente de X- M), y tambin se utiliza a veces d2 (d = diferencia con respecto a la media). Como la varianza de la muestra es =
2

(X - M)2 N

podemos tambin expresar, y calcular, la suma de cuadrados [(X-M)2] de esta forma (despejndola de la frmula precedente):

Introduccin al Anlisis de Varianza

10

Numerador de la varianza o Suma de Cuadrados:

(X-M)2 = N2

Esta expresin del numerador de la varianza o suma de cuadrados (N2) es muy importante porque, como ya hemos indicado, facilita mucho el clculo de la suma de cuadrados cuando se dispone de una calculadora con programacin estadstica que nos da directamente el valor de la desviacin tpica (), como iremos viendo al explicar los diversos mtodos4. La Suma de Cuadrados, o numerador de la varianza, se puede por lo tanto expresar o simbolizar de estas maneras: N2 Numerador de la varianza o Suma de Cuadrados = SC = (X-M)2 = x2 = d2 =
El denominador de la varianza o grados de libertad

El denominador de la varianza es el nmero de sujetos menos uno, o, segn los casos, el nmero de grupos o nmero de criterios de clasificacin, menos uno (N-1, k-1, etc.). Restamos una unidad porque se trata de estimaciones de la varianza en la poblacin. El trmino habitual de este denominador es grados de libertad y ya nos resulta conocido. El smbolo habitual de los grados de libertad es gl (en ingls encontraremos el trmino degrees of freedom simbolizado como df).
La varianza o cuadrados medios

La varianza es la razn entre la suma de cuadrados (numerador) y los grados de libertad (denominador). La varianza suele denominarse, en este contexto del anlisis de varianza, Cuadrados Medios5, y se simboliza como CM (y a veces MS o Mean Squares en ingls). Utilizando los diversos smbolos y expresiones habituales, tendremos por lo tanto: Varianza: 2 =
(X -M) 2 Suma de Cuadrados SC = Cuadrados Medios = = CM = N -1 Grados de Libertad gl

5. Cmo podemos analizar (o descomponer) la varianza total

La varianza tiene una propiedad que la hace muy til: puede descomponerse y esto permite numerosos anlisis. En el ejemplo de dos (o ms) muestras, la varianza total (uniendo las dos muestras en una sola) puede descomponerse en dos varianzas: 1) Una varianza que indica la variabilidad dentro de los grupos 2) Otra varianza que expresa la variabilidad (diferencias) entre los grupos (entre las medias).

4 Por otra parte el valor de la desviacin tpica, y otros datos, podemos encontrarlo ya calculado y no tenemos necesidad de conocer todos los datos de todos los sujetos para hacer un anlisis de varianza; sobre esto mismo insistiremos en otras ocasiones porque el caer en la cuenta de esta posibilidad es sumamente prctico. Si disponemos solamente de estos datos, N, M y (y puede ser un caso frecuente) no podemos hacer un anlisis de varianza con los programas habituales de ordenador (como el SPSS) y s podemos hacerlo con una simple calculadora y en algunos programas de Internet que slo requieren esos datos. 5 En EXCEL a la varianza o Cuadrados Medios se le denomina Promedio de los Cuadrados.

Introduccin al Anlisis de Varianza

11

El que la varianza puede descomponerse podemos captarlo en un sencillo ejemplo grfico. Es muy til entenderlo aunque slo sea de manera intuitiva y observando con detencin la figura 5, para poder comprender toda la informacin que nos da el anlisis de varianza. En la figura 5 tenemos representados esquemticamente (y de manera muy exagerada para hacer ms claro el esquema): 1. Dos grupos o muestras, cada uno con su media (M1 y M2), 2. El grupo formado por las dos muestras con la media del total de ambos grupos (MT), 3. La puntuacin (X) de un sujeto del primer grupo.

Los puntos indicados en la figura 5 representan las dos medias, la media total y la puntuacin X de un sujeto concreto del grupo 1 (y podra hacerse la misma representacin con todos los sujetos de todos los grupos).
M1 media del grupo 1 MT media total

M2 media del grupo 2

X=
puntuacin de un sujeto del grupo 1

X - MT = X - MT =

X (X - M1) + (M1 - MT)

MT

Figura 5 Si vamos a calcular la varianza del grupo total (el que resultara al unir a todos los sujetos en un solo grupo) con media MT, sta ser la frmula:
2 total

[X - M total ]2 = N -1

En el numerador: (X - MT)2 (suma de cuadrados) donde X representa a todas y cada una de las puntuaciones pertenecientes a las dos (o ms) muestras.

La contribucin a la varianza total de la puntuacin del sujeto X sealado en la figura 5 y perteneciente al grupo 1, ser: X- MT Esta diferencia de X con respecto a MT puede descomponerse en dos diferencias (tal como puede apreciarse grficamente en la figura 5): X- MT = (X- M1) + (M1 - MT) La diferencia de cada sujeto con respecto a la media total es igual a:
la diferencia entre esta puntuacin y la media de su grupo (X- M1) ms la diferencia entre la media de su grupo y la media total (M1 - MT)

Observando la figura 5 se ve con facilidad cmo una diferencia se ha descompuesto en la suma de dos diferencias que expresan dos variabilidades: La variabilidad que hay dentro de los grupos: (X - M1) (M1 - MT) La variabilidad que hay entre los grupos:

Introduccin al Anlisis de Varianza

12

Esta operacin la extendemos a todos los sujetos de todos los grupos, as por ejemplo: para un sujeto del grupo 1: para un sujeto del grupo 2: X - MT = (X- M1) + (M1 - MT); X - MT = (X- M2) + (M2 - MT);

Para todos los sujetos tendramos lo mismo, tal como se indica en la figura 6.
Suma de Cuadrados total Suma de Cuadrados dentro de los grupos Suma de Cuadrados entre los grupos

[X - MT]

[X - Mn]

[Mn - MT]

variabilidad total diferencias de los sujetos con respecto a la media total

variabilidad dentro de los grupos diferencias de cada sujeto con respecto a la media de su grupo

variabilidad entre los grupos diferencias de cada media con respecto a la media total

Figura 6: cmo descomponemos la suma de cuadrados o numerador de la varianza Es decir, la suma de cuadrados, o numerador de la varianza, la hemos descompuesto en dos sumas de cuadrados: Una suma de cuadrados expresa las diferencias dentro de los grupos Otra suma de cuadrados expresa las diferencias entre los grupos. Algo que conviene tener claro es que la varianza, o la variabilidad, dentro de los grupos es independiente de las diferencias o la variabilidad entre las medias: Si un sujeto del grupo 1 tiene una puntuacin de X = 7 y la media de su grupo es M1 = 5, su contribucin a la varianza o diversidad dentro de los grupos va a ser 7-5 = 2; Si un sujeto del grupo 2 tiene una puntuacin de X = 15 y la media de su grupo es M2 = 13, su contribucin a la varianza o diversidad dentro de los grupos va a ser 15-13 = 2. Es decir, ambos sujetos contribuyen en idntica cantidad a la varianza dentro de los grupos, aunque las medias de sus grupos respectivos sean muy distintas. Esto es lo ms importante (conceptualmente) de la varianza; son estas distancias las que cuantifican la diversidad expresada por la varianza; el denominador lo necesitamos porque en definitiva se trata de medias, para que unas sumas de cuadrados sean comparables con otras.
En el denominador, con los grados de libertad, sucede lo mismo; los grados de libertad de la varianza total (N -1) se pueden descomponer en grados de libertad dentro de los grupos y grados de libertad entre los grupos, tal como est resumido en la figura 7.

Introduccin al Anlisis de Varianza

13

grados de libertad de la varianza total N -1 N = suma de todos los sujetos (n si n es el tamao de cada grupo)

grados de libertad de la varianza dentro de los grupos (N - k)


k = nmero de grupos
En cada grupo los grados de libertad son n 1 (n = nmero de sujetos en cada grupo); si se trata de tres grupos, los grados de libertad son: (n1 -1)+(n2 -1)+(n3-1) o lo que es lo mismo, N- 3

grados de libertad de la varianza entre los grupos (k - 1) o nmero de grupos menos uno

Figura 7: cmo descomponemos los grados de libertad o denominador de la varianza Si tenemos tres grupos de 10 sujetos cada uno (N=30), los grados de libertad de la varianza total sern gl = (30-1) = [30-3] + [3-1] = 29: [30-3]: grados de libertad dentro de los grupos = (10-1) + (10-1) + (10-1) (n-1 son los grados de libertad de cada grupo). [3-1]: grados de libertad entre los grupos: nmero de grupos menos uno. Esta explicacin es literalmente vlida para un anlisis de varianza hecho con varias muestras independientes (dos o ms de dos grupos de sujetos fsicamente distintos), pero de manera anloga se puede aplicar a otros modelos de anlisis de varianza.
6. Qu comprobamos con el anlisis de varianza

Refirindonos al anlisis de dos o ms muestras independientes (y de manera anloga hacemos lo mismo en otros planteamientos), en la Hiptesis Nula se afirma que todas las muestras proceden de la misma poblacin, y que por lo tanto sus medias no difieren significativamente; sus diferencias se explican adecuadamente por el error muestral (la variabilidad normal que podemos encontrar en cualquier grupo). Para comprobar esta hiptesis calculamos dos estimaciones de la varianza de esa supuesta misma poblacin, siguiendo caminos distintos e independientes. Si realmente todas las muestras proceden de la misma poblacin, y por lo tanto sus medias no difieren significativamente entre s, ambos caminos nos llevarn al mismo resultado. Las dos estimaciones de la varianza (o variabilidad, 2) de la poblacin ya las hemos visto: 1 A partir de las medias de los grupos, de su variabilidad con respecto a la media total; como si asignramos a cada sujeto la media de su grupo, prescindiendo de las diferencias individuales dentro de cada grupo. Es lo que denominamos varianza entre grupos; expresa lo que difieren unos grupos de otros. 2 A partir de las puntuaciones individuales con respecto a sus medias respectivas, dentro de cada grupo. Es lo que llamamos varianza dentro de los grupos; indica lo que difieren los sujetos entre s dentro de cada grupo, prescindiendo de las diferencias entre medias, como ya hemos visto. Estas dos varianzas (entre y dentro de los grupos), o Cuadrados Medios, las calcularemos dividiendo en cada caso la Suma de Cuadrados por los Grados de Libertad. Si ambas estimaciones de la varianza son iguales o muy parecidas, podremos afirmar que todas las muestras proceden de la misma poblacin (aceptamos, o no rechazamos, la Hiptesis Nula), y que por lo tanto no difieren significativamente entre s.
Introduccin al Anlisis de Varianza

14

Si por el contrario ambas estimaciones son muy diferentes, y la varianza entre los grupos es mayor que la varianza dentro de los grupos (es mayor la diferencia entre los grupos que la que encontramos entre los sujetos) podremos inferir que las muestras proceden de poblaciones distintas con distinta media. Dicho en trminos ms simples, se trata de verificar si las medias de los grupos difieren entre s ms que los sujetos entre s.
7. Cmo comparamos dos varianzas: la razn F

Para comparar dos varianzas no restamos una de la otra (como hacemos cuando comparamos dos medias) sino que dividimos una por la otra calculando la razn F de Snedecor:6 F=
2 mayor menor
2

[2]

o segn los trminos convencionales del anlisis de varianza, CM entre [3] F= CM dentro donde CM = Cuadrados Medios, o varianza. Para entender mejor lo que hacemos mediante la razn F del anlisis de varianza podemos pensar en una analoga con la t de Student7. Con muestras de idntico tamao sta es la frmula que utilizamos: M1 M 2 t= [4] 2 + 2 1 2 1 En el numerador tenemos la diferencia entre las medias de dos muestras. En el denominador vemos las varianzas de los dos grupos, un indicador de las diferencias dentro de los grupos8; es lo mismo que vemos en la frmula [3], diferencias entre medias en el numerador y diferencias entre sujetos en el denominador. Podemos ver sin mayor dificultad que obtendremos un valor de t estadsticamente significativo (el cociente ser mayor) en la medida en que la diferencia entre las dos medias (numerador) sea mayor y las diferencias dentro de los grupos expresadas en las varianzas del denominador sean ms pequeas. No es algo muy distinto a lo que hacemos en el anlisis de varianza: verificar si las medias difieren entre s ms que los sujetos entre s. De hecho, y en el caso de dos muestras, ya veremos que ambos anlisis, contraste de medias y anlisis de varianza, nos llevan a los mismos resultados y a las mismas conclusiones (F, el estadstico propio del anlisis de varianza, es igual a t2).

6 Las tablas de la distribucin de F son de Snedecor (y por eso se llaman tablas de la F de Snedecor) pero se bas en un trabajo previo de Sir Ronald Aymer Fisher (1890-1962), y en su honor denomin F a este cociente. El anlisis de varianza se lo debemos fundamentalmente a Fisher. George Waddle Snedecor (1881-1974) fue el primero en fundar en EE.UU. un departamento de estadstica en Iowa State University. 7 Tomamos esta analoga de McGuigan (1994). 8 En trminos propios, el denominador de la t de Student es el error tpico de la diferencia entre medias.

Introduccin al Anlisis de Varianza

15

Qu varianza se pone en el numerador y qu varianza se pone en el denominador?

a) Cuando se comparan (o contrastan) dos varianzas mediante la razn F, la norma general es colocar en el numerador la varianza mayor y en el denominador la varianza menor, como se indica en la frmula [2]. b) En el anlisis de varianza al calcular la razn F colocamos en el denominador la varianza considerada en cada caso como normal o aleatoria, aunque no sea la ms pequea (aunque casi siempre es la ms pequea), como se indica en la frmula [3]. Cuando comparamos varias muestras independientes, esta varianza aleatoria (que expresa la diversidad o variabilidad normal) es la varianza dentro de los grupos, como ya hemos indicado. En otros planteamientos (muestras relacionadas, diseos factoriales, etc.) cul es la varianza que va en el denominador (la varianza aleatoria, el trmino de comparacin) se indica expresamente en cada caso. En estos planteamientos puede haber ms de un razn F pues comparamos varias varianzas (o fuentes, orgenes de diversidad) con la varianza aleatoria o diversidad normal. En la terminologa para designar el denominador de la razn F cabe cierta confusin porque se emplean indistintamente distintos trminos: Varianza (o cuadrados medios) dentro de los grupos (que es lo que es realmente) Varianza del trmino del error (error es aqu lo mismo que diferencias aleatorias, normales las que hay en cualquier grupo de sujetos u objetos), Varianza residual (la que nos queda cuando eliminamos otras fuentes sistemticas de variabilidad como puede ser la pertenencia a uno u otro grupo).
La varianza que colocamos en el numerador es la que nos interesa comparar con la que consideramos normal o aleatoria. Nuestro inters est en comprobar si la varianza del numerador (que expresa las diferencias entre los grupos) difiere de la varianza del denominador (que expresa las diferencias dentro de los grupos), que es el trmino de la comparacin porque expresa la variabilidad normal.

c) Si la varianza del denominador es mayor que la del numerador, no es necesario calcular la razn F; el cociente va a ser inferior a 1 y la diferencia entre las dos varianzas no va a ser estadsticamente significativa. Se puede calcular y poner el dato en su lugar, pero no hace falta consultar las tablas. En lugar de poner p<.05 p<.01, pondremos p> .05 (si nuestro nivel de confianza es = .05) o simplemente no significativo. d) En cualquier caso, al consultar las tablas, donde dice grados de libertad del cuadrado mayor hay que entender grados de libertad de la varianza del numerador y donde dice grados de libertad del cuadrado menor hay que entender grados de libertad de la varianza del denominador. e) Si la razn F es igual a 1, las dos varianzas son iguales. En la medida en que la varianza del numerador sea mayor que la del denominador, el cociente ir siendo mayor que 1. Si los sujetos pertenecen a la misma poblacin y el pertenecer a un grupo u otro no tiene nada que ver con la variable dependiente, es muy improbable obtener valores de F muy grandes. La probabilidad de obtener un cociente F por azar es lo que consultamos en las tablas de Snedecor. Si nuestra F es muy poco probable (p < .05) en el caso de que no

Introduccin al Anlisis de Varianza

16

haya deferencias entre los grupos, nuestra conclusin ser que s hay diferencias. El razonamiento es el mismo que nos hacemos en el contraste de medias. Normalmente vienen en las tablas dos valores; el primero es el valor que se dara por azar el 5% de las veces (p = .05) y el segundo el 1% de las veces (p = .01); si se superan estos valores lo expresamos as: p<.05 p<.01. En estos casos consideramos que la probabilidad de que la diferencia entre las dos varianzas haya sido una casualidad es muy pequea, y por eso afirmamos que las varianzas son distintas, o que el valor de F es estadsticamente significativo. Algunos textos traen tablas con otros valores, pero .05 y .01 son las probabilidades que utilizamos habitualmente para aceptar la decisin de no diferencia, como es usual en la investigacin experimental en las ciencias sociales. En programas de ordenador (y de Internet) nos viene la probabilidad exacta, y si disponemos de esta informacin, es la que deberamos utilizar y comunicar. El ejemplo explicado corresponde al planteamiento ms sencillo, en el que se comparan varias muestras independientes. Si el valor de F es estadsticamente significativo, e indica por lo tanto que la varianza que corresponde al numerador (diferencias entre los grupos) es mayor que lo que podramos esperar por puro azar; pasamos ya a comprobar qu pares de medias difieren significativamente, y segn los casos, podemos hacer tambin otros clculos adicionales.
8. Explicacin alternativa: relacin entre variables cualitativas o criterios de clasificacin (variable independiente) y variables cuantitativas (variable dependiente)

Otra manera de presentar lo que hacemos con el anlisis de varianza, y que ya hemos enunciado antes brevemente, es ver de qu tipos de datos disponemos y qu informacin buscamos que nos relaciona los distintos tipos de datos. Esta manera de presentar el anlisis de varianza es equivalente a la explicada en el apartado anterior, pero puede ayudar a una comprensin ms cabal del procedimiento. I. Siempre que hacemos un anlisis de la varianza tenemos dos tipos de informacin o dos tipos de datos: a) Informacin cuantitativa. Los datos en la variable dependiente; son los datos que hemos obtenido y tabulado: la medida de una actitud, una medida de rendimiento acadmico, etc.; estos son los datos cuya varianza o diversidad analizamos. b) Informacin cualitativa. Tenemos adems otra informacin sobre los sujetos: los criterios o categoras que hemos utilizado para clasificar a los sujetos (variable independiente), como pueden ser (en los planteamientos ms comunes del anlisis de varianza): 1. La pertenencia a un grupo u otro, utilizando como nico criterio de clasificacin el grupo al que pertenecen (en el anlisis de varianza para muestras independientes); 2. Las preguntas a las que han respondido, experiencias o condiciones por las que han pasado, etc. (anlisis de varianza para muestras relacionadas, los sujetos son los mismos en las diversas condiciones o columnas); 3. Los dos o ms criterios que nos han servido para clasificarlos, para organizar a los sujetos al disponer la tabla de datos, como en el anlisis de varianza de

Introduccin al Anlisis de Varianza

17

diseos factoriales (tablas de doble entrada); con dos o ms criterios de clasificacin, en los que cada criterio est dividido en dos o ms niveles, as el criterio sexo tiene dos niveles, hombre-mujer, etc.

II. Mediante el anlisis de varianza podemos relacionar los dos tipos de informacin: La informacin cuantitativa, que son los datos obtenidos y tabulados (variable dependiente) La informacin cualitativa, que son los criterios para clasificar a los sujetos, como el pertenecer a uno u otro grupo (variable independiente). 1 Nos hacemos estas preguntas, que son equivalentes: La varianza, la diversidad que encontramos en la variable dependiente (la variable medida y tabulada) Est influida por, tiene que ver con los criterios de clasificacin?; El criterio de clasificacin (pertenecer a un grupo u otro, etc.) Tiene que ver con las diferencias que encontramos en la variable dependiente? Este criterio de clasificacin, Es una fuente de varianza, de diversidad en la variable dependiente? (los criterios de clasificacin Son orgenes o causas hipotticas de varianza o diversidad en la variable dependiente?). Son los sujetos distintos en la variable dependiente, en la variable medida, porque tambin son distintos en el criterio de clasificacin (unos han seguido el mtodo A, otros el mtodo B, etc.)? 2 Respondemos a estas preguntas mediante la razn F: Si la razn F es significativa (o lo que es lo mismo, si la varianza del numerador, y que corresponde a los criterios de clasificacin, es superior a la varianza aleatoria o normal que hemos puesto en el denominador) entonces podemos concluir que los sujetos son distintos en la variable dependiente (la que hemos medido y tabulado) porque tambin (siendo prudentes en la interpretacin causal) son distintos en la variable o variables que nos ha servido para clasificarlos y cuya varianza est puesta en el numerador de la razn F. O si se quiere expresar lo mismo de una manera ms cauta, podemos decir que una F significativa indica diferencias sistemticas y coherentes o simultneas en los dos tipos de informacin, en la variable dependiente que hemos medido y en el criterio de clasificacin puesto en el numerador de la razn F: difieren en la variable dependiente (la que hemos medido) y adems pertenecen a grupos o clasificaciones distintas (existe una relacin de hecho, cualquiera que sea su explicacin, entre los criterios de clasificacin y la variable dependiente).
Una razn F significativa nos indica por lo tanto que hay una relacin superior a lo aleatorio (o normal) entre a) la variable que corresponde al numerador de la razn F y b) la variable en la que hemos medido a los sujetos.

Hay diferencias entre los sujetos en la variable medida porque tambin son diferentes en el criterio de clasificacin (o lo que est puesto en el numerador de la razn

Introduccin al Anlisis de Varianza

18

F: la varianza correspondiente a un criterio de clasificacin o la varianza correspondiente a la relacin entre dos o ms criterios). Cuando decimos que hay diferencias en la variable medida porque tambin las hay en el criterio de clasificacin no estamos implicando una relacin causal; podramos decir con ms propiedad (o de manera ms descriptiva) que si la razn F es significativa, las diferencias en la variable medida estn asociadas de hecho a pertenecer a un grupo u otro9. III. Una razn F significativa nos permite afirmar que la varianza o diversidad del numerador de la razn F (el pertenecer a un grupo a otro) est relacionada con la varianza o diversidad en la variable medida. Pero nos falta todava informacin para interpretar bien los resultados. a) Podemos comprobar entre qu grupos hay una diferencia significativa cuando sea apropiado; la razn F nos dice que hay diferencias entre las medias, pero no entre qu grupos se da esa diferencia. b) Podemos cuantificar la magnitud de los resultados mediante los clculos apropiados (coeficientes de fiabilidad en el caso de muestras relacionadas, y otros coeficientes de asociacin en otros planteamientos que iremos viendo). Esta cuantificacin (de 0 a 1) nos ayuda a interpretar los resultados, o a comparar dos F significativas y valorar su importancia. Una razn F (o un valor de t o su equivalente) no cuantifica la diferencia; simplemente nos permite afirmar que hay diferencias por encima de lo aleatorio, sin responder de manera clara al mucho o poco de la diferencia. Sin embargo disponemos de anlisis adicionales para apreciar la magnitud de las diferencias (de la misma manera que en el contraste de medias disponemos del tamao del efecto, concepto que tambin es aplicable aqu). c) Siempre hace falta una valoracin conceptual, lgica, de los resultados, en funcin del diseo, de otros datos que ya conocemos, etc., y con frecuencia nuestras conclusiones nos sugerirn otras hiptesis, otros diseos, o una repeticin del experimento, con otras muestras o en otras circunstancias, para confirmar los resultados.
9. Diversos modelos de anlisis de varianza

En esta explicacin introductoria nos estamos refiriendo al planteamiento ms sencillo y fcil de entender, el referido a varias muestras independientes, pero el anlisis de varianza admite gran variedad de planteamientos distintos y es el mtodo adecuado para plantear y analizar muchos diseos experimentales y cuasi-experimentales, y tambin estudios exploratorios. Los que vamos a exponer son los siguientes: 1 Para varias muestras independientes 2 Para varias muestras relacionadas 3 Para diseos factoriales (tablas de doble entrada) 4 Para verificar tendencias a creer o decrecer 5 Algunas variantes de los diseos factoriales

9 Para inferir causalidad tenemos que poder excluir otras explicaciones, y esto lo intentamos a travs del muestreo aleatorio y del control de otras variables con un diseo apropiado.

Introduccin al Anlisis de Varianza

19

Los textos bsicos de estadstica e investigacin suelen traer al menos los dos primeros (para ms de dos muestras independientes o relacionadas); en ambos modelos encajan muchos posibles diseos de investigacin. Tambin es frecuente encontrar el modelo ms comn de anlisis de varianza para diseos factoriales; menos frecuente es encontrar en textos bsicos el anlisis de varianza para verificar tendencias (muy til en investigacin sociolgica, educacional y psicolgica) y las diversas variantes de los diseos factoriales. Hay otros muchos modelos de anlisis de varianza que se pueden resolver con facilidad (o al menos entender) mediante procedimientos anlogos a los explicados aqu. El tener a la vista, y con ejemplos resueltos, varios modelos de anlisis de varianza es til por varias razones que se complementan entre s. 1. El qu hacemos, o qu planteamos, en una investigacin depende en buena medida de qu sabemos hacer. Si sabemos de qu anlisis disponemos, podemos pensar en planteamientos que nunca se nos haban ocurrido. Por otra parte el qu sabemos hacer no es exacto: nos basta saber qu podemos aprender o qu podemos buscar o repasar si ha habido un estudio previo; en definitiva lo que importa es saber qu anlisis tenemos de alguna manera disponibles. 2. Muchos posibles anlisis de varianza coinciden con diseos experimentales o cuasi-experimentales especficos. A veces podemos pensar en diseos, estudiados a veces de un modo ms terico y abstracto pero sin referencia a planteamientos y modos de anlisis especficos. Esto puede llevar despus a diseos mal planteados o inabordables, en definitiva a un aprendizaje inoperante. Una manera de abordar el aprendizaje de los diseos es ver y aprender simultneamente cmo se pueden analizar los datos en cada diseo. Lo mismo sucede con el control de determinadas variables, que puede verse tambin incorporado en el planteamiento de algunos modelos de anlisis de varianza. 3. Con frecuencia se nos ocurren preguntas de investigacin a las que despus no sabemos dar respuesta. Puede ser interesante examinar primero posibles repuestas y pensar despus qu preguntas queremos (o podemos) hacernos Los anlisis estadsticos nos brindan respuestas a posibles preguntas: si tenemos un repertorio amplio de posibles respuestas, pensaremos con ms facilidad en preguntas de inters. 4. En definitiva, y como ya se ha indicado, en el anlisis de varianza disponemos de dos tipos de datos: a) Datos en la variable dependiente (qu medimos, qu preguntamos, qu observamos en los sujetos) y b) Cmo estn clasificados en categoras Lo que hacemos con el anlisis de varianza es comprobar si los datos de la variable dependiente tienen que ver con cmo estn seleccionados y clasificados los sujetos (u objetos). En buena medida los modelos de anlisis de varianza que vamos a exponer no son otra cosa que modos de clasificar a los sujetos, que a su vez nos pueden sugerir numerosas preguntas y planteamientos de investigacin.

Introduccin al Anlisis de Varianza

20

10. Cuestiones metodolgicas previas 10.1. Requisitos previos para utilizar el anlisis de varianza

En los modelos tericos en los que se basa el anlisis de varianza se hacen tres suposiciones; 1) escalas de intervalo, 2) distribucin normal y 3) homogeneidad de varianzas, pero las tres suposiciones son de importancia muy desigual. 1) En la variable dependiente (en la que medimos a los sujetos) tenemos unidades de intervalo, (y observaciones independientes) La primera suposicin es que utilizamos escalas de intervalo, con una unidad en sentido propio. Esto no suele ser lo habitual en los instrumentos de medicin educacional y psicolgica (tests, escalas de diverso tipo, preguntas con respuestas graduadas, etc.), pero la mayora de los autores coinciden en afirmar que con estos instrumentos el anlisis de varianza, como otros muchos anlisis, son seguros, y as lo confirma la prctica ms habitual10 2) La variable dependiente (la que medimos) sigue la distribucin normal; Sobre el presupuesto de normalidad en la variable dependiente (la que medimos), una abundante investigacin confirma que en general la violacin de estos presupuestos no invalida de manera apreciable los resultados del anlisis de varianza. La violacin de la normalidad es menos importante (prcticamente irrelevante, Glass y Stanley, 1974:373), como est confirmado por numerosos estudios; de hecho las medias tienden a la distribucin normal aunque las poblaciones de donde proceden no sean normales (Guilford y Fruchter, 1973: 277). 3) Las varianzas de las distintas poblaciones representadas en las muestras no difieren significativamente entre s. La condicin previa de homogeneidad de varianzas (denominada homoestacidad) es sin duda la ms importante, aunque la distorsin en los resultados (en relacin al error Tipo I)11 es pequea si el nmero de sujetos es idntico en todas las muestras o submuestras. Qu sucede cuando las varianzas son muy desiguales? Al menos hacemos dos observaciones: a) Las probabilidades que sealan las tablas de la F no son las reales; una probabilidad de .05 puede corresponder realmente a un valor menor o mayor, aunque la diferencia entre la probabilidad sealada en las tablas y la real suele ser pequea.12 b) Con grupos de tamao desigual y varianzas desiguales el que la probabilidad real sea mayor o menor que la indicada por las tablas depende del tamao de los grupos:

10 Los mtodos habituales de obtencin de datos (como escalas tipo-Likert, etc.) se aproximan suficientemente a las escalas de intervalo y las distorsiones que se pueden introducir son pequeas; es ms lo que se gana que lo se pierde con estos mtodos que dan por hecho que se da una unidad aproximada (Guilford, 1954; Nunnally, 1978 y muchos otros). Este punto lo tratamos con ms detalle en Morales (2006), cap. 1, apartado 2.3 11 Recordamos cul es el error Tipo I: aceptar la diferencia cuando realmente no la hay (rechazar, o no aceptar, la Hiptesis Nula cuando es verdadera). Es el tipo de error que en principio nos interesa evitar., no equivocarnos al afirmar que hay diferencias superiores a lo normal entre los grupos. 12 Si las varianzas son muy desiguales puede suceder que un valor de F tenga una probabilidad de .05 en las tablas y realmente est entre .04 y .07 (Guilford y Fruchter, 1973:277) o entre .07 y .09 (Linton, Gallo y Logan, 1975, que no recomiendan la comprobacin previa de estos requisitos).

Introduccin al Anlisis de Varianza

21

Cuando el grupo mayor tiene tambin la varianza mayor el valor de F es conservador: la probabilidad de que la diferencia entre varianzas sea aleatoria es todava menor de lo que sealan las tablas. Cuando el grupo ms pequeo tiene la varianza mayor, el valor de F es liberal: las probabilidades de que las varianzas difieran son mayores de lo que sealan las tablas13. En consecuencia el problema es menor cuando coinciden la muestra mayor y la varianza mayor (aunque podemos quedarnos sin demostrar nuestra hiptesis). Los programas de ordenador verifican rutinariamente si se cumplen los requisitos de normalidad en la distribucin y de homogeneidad de varianzas. Tres pruebas populares para verificar la homogeneidad de varianzas son la de Bartlett y Levene (para muestras de tamao distinto)14 y la de Hartley (para muestras de idntico tamao).15 El test de Hartley es muy sencillo; consiste en calcular la razn F con las dos varianzas extremas, dividiendo la varianza mayor de todas por la ms pequea: si vemos en las tablas que la razn F no es significativa ya sabemos que se cumple la condicin de homogeneidad de varianzas (utiliza sus propias tablas, no las convencionales de la razn F). Otra prueba muy utilizada es la de Levene, menos sensible a la no normalidad de las muestras y una buena alternativa a la de Bartlett16. Todas estas pruebas previas son sin embargo problemticas por diversas razones; son muy sensibles a la no normalidad (menos la de Levene) y con frecuencia tienen poca potencia (no controlan bien el error Tipo I) cuando se utilizan como control previo al anlisis de varianza.17 Sobre qu hacer en la prctica se pueden dar unas orientaciones generales que podemos ver en diversos autores. Aunque los programas de anlisis estadstico como el SPSS suelen dar los dos resultados (lo mismo que cuando se hace un contraste de medias) suponiendo varianzas iguales suponiendo varianzas desiguales conviene tener en cuenta estas orientaciones. a) Las varianzas desiguales no deben preocuparnos si las muestras son de idntico tamao18; por varianzas desiguales podemos entender que la mayor no es ms de tres veces mayor que la varianza ms pequea.

13 Lix, Keselman y Keselman (1996), Jaccard (1998: 81); sobre este punto puede verse tambin Hernndez, Borges y Ramrez (1996). 14 El test de Bartlett se basa en el ji cuadrado y se encuentra programado en Internet (Homogeneity of Multivariances: The Bartlett's Test http://home.ubalt.edu/ntsbarsh/Business-stat/otherapplets/BartletTest.htm, basta introducir de cada muestra el nmero de sujetos y las varianzas (no las desviaciones tpicas) y si p > .05 podemos aceptar la homogeneidad de varianzas. Esta direccin se encuentra en la Home Page de Hossein Arsham http://home.ubalt.edu/ntsbarsh/Business-stat/home.html en JavaScript E-labs Learning Objects (Equality of Multvariances) 15 Estas pruebas se encuentran en numerosos textos; una explicacin muy clara puede verse en Escotet (1980). Mtodos para verificar la homogeneidad de varianzas hay muchos; en Zhang, Shuqiang (1998) se encuentra una exposicin crtica de 14 de estas pruebas. 16 El test de Levene est bien explicado en NIST/SEMATECH e-Handbook of Statistical Methods, http://www.itl.nist.gov/div898/handbook/ Levene Test for Equality of variances http://www.itl.nist.gov/div898/handbook/eda/section3/eda35a.htm (consultado 7, Oct., 2007). 17 Pueden verse numerosas investigaciones citadas por Jaccard, (1998:82). 18 Por ejemplo Hays (1981:347), Kirk (1995:101) y muchos otros autores de autoridad reconocida. Para Myers (1972:72-73) aun cuando las varianzas difieran en una proporcin de 4 a 1 (o de 3 a 1, Jaccard, 1998:81), la distorsin en los resultados (en relacin al error Tipo I) es pequea pero solamente si el nmero de sujetos es idntico en cada

Introduccin al Anlisis de Varianza

22

b) Tampoco deben preocuparnos las varianzas desiguales si las muestras son de distinto tamao con tal de que 1) los tamaos de las muestras no difieran mucho y 2) las muestras no tengan menos de 20 sujetos (Jaccard, 1998:81). c) Por otra parte ya veremos en su lugar que cuando no se cumplen las condiciones previas del anlisis de varianza, hay contrastes posteriores muy seguros (como el de Scheff) y al menos hay un contraste posterior especfico para cuando los tamaos de las muestras son distintos y las varianzas son desiguales.19 d) En algunos casos de varianzas muy desiguales (mucho mayores que las dems) podemos examinar si en alguna muestra hay sujetos atpicos con puntuaciones muy extremas (outliers). Si hay sujetos muy atpicos, podemos considerar el eliminar de la muestra a estos sujetos (responsables de una varianza mucho mayor). En estos casos habr que comprobar si estos sujetos tienen alguna caracterstica comn para no generalizar los resultados a ese tipo de sujetos. Por ejemplo, podemos encontrarnos con que un subgrupo de sujetos con puntuaciones muy atpicas tienen tambin una edad muy distinta a la de la mayora, o una procedencia distinta, etc. e) Cuando las varianzas son notablemente distintas, y sobre todo si los grupos son de tamao distinto, hay otras alternativas al anlisis de varianza menos conocidas20 Con grupos pequeos, de tamao desigual y con varianzas muy distintas, siempre tenemos las alternativas no paramtricas.21 Las violaciones de estos presupuestos afectan al anlisis de varianza cuando se trata en sentido propio de estadstica inferencial, es decir, de llegar a conclusiones acerca de las poblaciones representadas por las muestras (como es lo habitual). Si con el anlisis de varianza se pretende llegar a un resumen descriptivo de lo que est sucediendo en las muestras analizadas, estos supuestos dejan de ser importantes.22
10.2. Tamao de los grupos y prdida de sujetos

El nmero de sujetos en cada grupo (necesario o conveniente) lo tratamos en el anexo VI, junto con los criterios para determinar el tamao de la muestra. Aqu tratamos sobre el tamao igual o desigual de las muestras y sobre la prdida de sujetos. Cuando tenemos varias muestras independientes y vamos a verificar si entre las medias existen diferencias significativas: 1 Los grupos pueden ser de tamao distinto; el procedimiento es el mismo (con alguna variante menor que indicaremos en su lugar; es ms sencillo cuando los grupos son de idntico tamao). Ya veremos tambin que la mayora de los contrastes posteriores suponen el mismo tamao en los grupos, pero tambin disponemos de contrastes apropiados cuando los grupos son de distinto tamao.

muestra; en todos estos autores (y en otros como Glass y Stanley, 1974:371) se citan muchas investigaciones que apoyan lo mismo. 19 Se trata del contraste de Games y Howell, para muestras de tamao desigual y varianzas desiguales. 20 Pueden verse expuestas y evaluadas en Lix, Keselman y Keselman, (1996). Estos autores presentan el estado de la cuestin y aportan un meta-anlisis sobre los efectos de las violaciones en el anlisis de varianza, con conclusiones que aconsejan cautela cuando las varianzas son muy desiguales. 21 La prueba de Kruskal-Wallis para el caso de varias muestras independientes, o de Friedman para muestras relacionadas; son las alternativas no paramtricas ms conocidas y populares del anlisis de varianza, pero hay ms que reseamos en el anexo VII. 22 Lix, Keselman y Keselman (1996: 582).

Introduccin al Anlisis de Varianza

23

2 En principio es preferible utilizar muestras de idntico tamao por dos razones: 1 Ya hemos visto que con muestras de idntico tamao el anlisis de varianza tolera mejor el que no se cumplan los requisitos previos (sobre todo el de homogeneidad de varianzas). 2 Con muestras iguales tenemos disponible un repertorio ms amplio de contrastes posteriores, y en muchas ocasiones los ms aconsejables requieren muestras de idntico tamao. An as, cuando se trata de varias muestras independientes, es muy frecuente que los grupos sean de hecho de distinto tamao, sobre todo cuando comparamos grupos naturales (como los alumnos de diversas clases, Facultades, etc.). Esta recomendacin (muestras de idntico tamao) es ms pertinente en diseos experimentales en sentido propio; en estos casos suele ser ms viable disponer de grupos de idntico tamao. En planteamientos experimentales, hechos frecuentemente con grupos muy pequeos, podemos con ms facilidad disponer de grupos con idntico nmero de sujetos, bien porque los escogemos as, o bien porque descartamos sujetos aleatoriamente. Lo que sucede a veces es que en el proceso de la investigacin perdemos sujetos (sobre todo si hay medidas repetidas en diversos tiempos) y al llegar al anlisis nos encontremos con grupos desiguales. Si los grupos son muy pequeos (pongamos por ejemplo n < 10) el descartar sujetos supone una prdida importante en el tamao de la muestra. En estos casos lo que suele aconsejarse (por ejemplo Denenberg, 1976) es 1 substituir la puntuacin que nos falta por la media del grupo pero solamente si nos falta una observacin o sujeto y adems 2 descontar un grado de libertad en el trmino del error (el denominador de la razn F). En los diseos factoriales (tablas o cuadros de doble entrada) es ms importante disponer del mismo nmero de sujetos en cada clasificacin, como tratamos en el lugar correspondiente.
10.3. Tipos de categoras de clasificacin

Las categoras de clasificacin (variable independiente) pueden ser de tres tipos: fijas, aleatorias y mixtas, como explicamos enseguida. En el caso de varias muestras independientes las categoras slo pueden ser o fijas o aleatorias; las mixtas se dan cuando hay ms de un criterio de clasificacin, como en los diseos factoriales (cuando disponemos los datos en tablas de doble entrada) que veremos ms adelante. 1 Categoras fijas Son categoras fijas las escogidas arbitrariamente por el investigador, y es posiblemente el caso ms frecuente; como ejemplos podemos pensar en: a) Alternativas obvias y con frecuencia las nicas disponibles: sexo, pertenencia a un grupo, etc. b) Variables cuantitativas, como tiempo dedicado a una tarea (una hora, dos horas, etc.), nmero de experiencias, nota media previa, edad (agrupndolas en varios niveles), etc.

Introduccin al Anlisis de Varianza

24

En estos casos suelen escogerse como criterios de clasificacin algunas categorastipo entre todas las posibles, pero no por azar (aleatoriamente) sino con algn criterio lgico. Si, por ejemplo, una categora es el tiempo dedicado a una actividad, y el mximo tiempo posible es hora y media, se pueden clasificar los sujetos segn dediquen a la actividad media hora, una hora o una hora y media. El nmero de niveles o subcategoras puede ser tan grande como se estime oportuno. c) Diversas variantes de un mtodo, condicin, etc.
Categoras fijas son en definitiva cualquier criterio de clasificacin que siga un criterio lgico como base para la clasificacin (mtodo, modalidad, grupo, etc.). Las categoras fijas se definen quizs mejor por lo que no son: no son niveles o categoras de clasificacin seleccionadas aleatoriamente entre otras semejantes de la misma poblacin, como explicamos a continuacin.

2 Categoras aleatorias Son las escogidas aleatoriamente entre una poblacin mayor. Un ejemplo puede ser ste: Se desea comprobar, por ejemplo, si el rendimiento escolar depende del tipo de centro o del tipo de profesor. Las categoras de clasificacin van a ser en estos casos profesor y centro escolar, pero son muchos los posibles centros y los posibles profesores en una zona dada. Si en este caso escogemos profesores y centros aleatoriamente, tenemos categoras aleatorias, y las conclusiones podremos generalizarlas a las poblaciones de centros o de profesores. Un ejemplo clsico de categoras aleatorias se da en las investigaciones en las que se pretende comprobar si el orden con que se presentan las preguntas de un cuestionario influye en cmo se responde a estas preguntas. En un cuestionario de seis preguntas se pueden hacer 720 combinaciones alterando el orden. Evidentemente son demasiadas posibilidades. El investigador puede escoger un nmero limitado de versiones del mismo cuestionario, por ejemplo cinco o seis, a cada versin responde una muestra de sujetos y las conclusiones pueden extrapolarse entonces con ms seguridad a la poblacin de posibles maneras de ordenar las preguntas23. 3 Categoras mixtas. Cuando tenemos ms de una categora de clasificacin, una categora puede ser fija y la otra aleatoria; por ejemplo mtodos didcticos escogidos con un criterio lgico (o simplemente los mtodos disponibles) y centros escolares escogidos aleatoriamente en los que se van a aplicar los diversos mtodos. Las categoras de clasificacin ms frecuentes (y ms fciles al planificar una investigacin) son las categoras fijas. En la prctica las repercusiones del tipo de categoras son dos: a) La posibilidad de extrapolar las conclusiones a la poblacin de categoras (de centros, de profesores, etc.) cuando estas han sido seleccionadas aleatoriamente.

23 Este ejemplo, y algunas variantes del mismo, puede verse bien explicado en Iversen y Norpoth (1987)

Introduccin al Anlisis de Varianza

25

b) Algunas peculiaridades metodolgicas que iremos viendo en su lugar; en algunos casos (como en los diseos factoriales) el denominador de la razn F va a variar en funcin del tipo de categoras.
11. Referencias bibliogrficas

DENENBERG, VICTOR H., (1976). Statistics and Experimental Design for Behavioral and Biological Researchers. New York: John Wiley & Sons, GLASS, GENE V. y STANLEY, JULIAN C., (1974). Mtodos Estadsticos Aplicados a las Ciencias Sociales. Madrid, Prentice-Hall Internacional. GUGUEN, NICOLAS (1997). Manuel de Statistique pour Psychologues. Paris: Dunod. GUILFORD, J. P. y FRUCHTER, B., (1984). Estadstica aplicada a la psicologa y la educacin, Mxico: McGraw-Hill. [En Ingls: Fundamental Statistics in Psychology and Education, 1973. New York: McGraw-Hill]. HAYS, WILLIAM L. (1981). Statistics. Third Edition. New York: Holt, Rinehart and Wilson. 713 pp. HERNNDEZ, JUAN A.; BORGES, FRICA y RAMREZ, GUSTAVO (1996). Anlisis de la robustez del ANOVA en el caso de tamaos muestrales distintos y no proporcionales frente a los contrastes de aleatorizacin. Psicolgica, 17, 127-141. JACCARD, JAMES (1998). Interaction Effecs in Factorial Analysis of Variance, Sage University Paper Series on Quantitative Applications in the Social Sciences. Thousand Oaks: Sage. KIRK, ROGER E., (1995). Experimental Design, Procedures for the Behavioral Sciences. Boston: Brooks/Cole. LINTON, MARIGOLD, GALLO JR., PHILLIP S. and LOGAN, CHERYL A., (1975). The Practical Statistician, Simplified Handbook of Statistics. Monterey: Brooks/Cole. LIX, LISA M., KESELMAN, JOANNE C. and KESELMAN, H.J., (1996). Consequences of Assumption Violations Revisited: A Quantitative Review of Alternatives to the OneWay Analysis of Variance F Test. Review of Educational Research, 66 (4) 579-619. MCGUIGAN, F. J., (1994) Experimental Psychology, Methods of Research. Sixth edition. Englewood Cliffs, N.J.: Prentice Hall. MORALES, VALLEJO, PEDRO (1996). Medicin de actitudes en Psicologa y Educacin. 3 edicin. Madrid: Universidad Pontificia Comillas. MYERS, JEROME L., (1972). Fundamentals of Experimental Designs. Boston: Allyn and Bacon. NUNNALLY, JUM C. (1978). Psychometric Theory. New York: McGraw-Hill. PEARSON, E. S. and KENDALL, MAURICE, (1978). Studies in the History of Statistics and Probability, Volume I. London: Griffin & Co. Limited. ROSENTHAL, ROBERT and ROSNOW, RALPH L. (1991). Essentials of Behavioral Research, Methods and Data Analysis. Boston: McGraw-Hill. ROSENTHAL, ROBERT, (1987). Judgment Studies, Design, analysis and meta-analysis. Cambridge: Cambridge University Press. ROSENTHAL, ROBERT, (1991). Meta-analysis procedures for social research. Beverly Hills, CA: Sage. SPATZ, CHRIS (1993). Basic Statistics: Tales of Distributions, 5th Edit. Pacific Grove, CA: Brooks/Cole ZHANG, SHUQIANG (1998). Fourteen Homogeneity of Variance Tests: When and How to Use Them. Paper presented at the Annual Meeting of the American Educational Research Association, San Diego, California.

Introduccin al Anlisis de Varianza

Anlisis de varianza con dos criterios de clasificacin (diseos factoriales)


Pedro Morales Vallejo Universidad Pontificia Comillas Facultad de Ciencias Humanas y Sociales (ltima revisin: 2 de Diciembre, 2009)

ndice
1. Planteamiento general y conceptos previos......................................................... 1.1. Clasificacin de los sujetos en dos categoras ............................................. 1.2. Qu pretendemos comprobar........................................................................ 1.3. Importancia de la interaccin....................................................................... 1.4. Caractersticas de la muestra ....................................................................... 1.5. Nmero de sujetos en cada clasificacin...................................................... 1.5.1. Nmero idntico de sujetos en cada clasificacin.............................. 1.5.2. El nmero de sujetos en trminos absolutos ...................................... 1.6. Importancia del tipo de categoras de clasificacin..................................... 2. Mtodo................................................................................................................. 2.1. Disposicin de los datos ............................................................................... 2.2. Visin global del proceso ............................................................................. 2.3. Clculos previos............................................................................................ 2.4. Clculos propios del anlisis de varianza ..................................................... 2.4.1. Sumas de Cuadrados ........................................................................... 2.4.2. Grados de libertad ............................................................................... 2.4.3. Varianzas o Cuadrados Medios........................................................... 2.4.4. Comparacin o contraste de varianzas (razn F) ................................ 2.4.5. Resultados finales: tabla de resultados................................................ 2.4.6. Interpretacin ...................................................................................... 2.4.7. Resumen del procedimiento ................................................................ 3. Anlisis adicionales ............................................................................................. 3.1. Coeficientes de asociacin............................................................................ 3.1.1. Coeficiente 2 ..................................................................................... 3.1.2. Coeficiente 2 ...................................................................................... 3.2. Contrastes posteriores ................................................................................... 3.2.1. Contraste entre las medias de niveles del mismo factor ...................... 3.2.2. Contraste entre las medias dentro del mismo nivel de un factor (cuando la interaccin es significativa)................................................. 3.3. El tamao del efecto en los diseos factoriales ............................................ 3.3.1. Cuando el factor secundario es una variable manipulada..................... 3.3.2. Cuando el factor secundario es una caracterstica natural de la poblacin .................................................................................... 4. La representacin grfica de los resultados como ayuda a la interpretacin en los diseos factoriales ....................................................... 5. Anlisis de varianza para diseos factoriales en EXCEL y SPSS ....................... 6. Referencias bibliogrficas .................................................................................... Anexo. Anlisis de Varianza (diseos factoriales) en Internet ................................ 3 3 3 4 5 5 6 7 7 8 8 9 10 11 11 12 12 13 14 14 15 15 16 16 17 18 19 22 24 24 24 26 28 29 29

1. Planteamiento general y conceptos previos 1. 1. Clasificacin de los sujetos en dos categoras La disposicin de los datos al clasificar a los sujetos es importante, no slo como ilustracin, sino porque contribuye a entender lo que estamos haciendo. Se clasifican los sujetos segn dos variables o categoras de clasificacin (que suelen denominarse factores) en un cuadro de doble entrada. En el ejemplo sugerido en la tabla 1 los factores son a) actividades didcticas y b) la duracin de estas actividades. La variable dependiente (la que medimos a los sujetos) sera en este caso nivel de aprendizaje. Los factores o criterios de clasificacin pueden ser ms de dos, pero en la presentacin del mtodo nos limitamos a dos nada ms1. Cada uno de los dos factores est dividido en dos o ms niveles o subcategoras. Dada la disposicin de los datos, tambin suele hablarse de filas y columnas (en este caso hay tantas filas y columnas cuantos niveles tengan los factores). Un ejemplo tpico podra ser el puesto en la tabla 1; clasificamos a los sujetos segn dos criterios: a) Factor A: segn hayan participado en una determinada actividad. Este factor tiene dos niveles; suponemos que se trata de dos actividades distintas, o dos variantes de la misma actividad. b) Factor B: segn el tiempo que haya durado esta actividad; en este factor de duracin suponemos tres niveles o duraciones distintas. Factor A (actividades) A1 A2 Factor B (duracin) 20 minutos B1 40 minutos B2 una hora B3 Tabla 1 En cada clasificacin tenemos el mismo nmero de sujetos. Con esta misma disposicin de los datos se pueden visualizar muchos posibles diseos experimentales utilizando otros criterios de clasificacin. 1.2. Qu pretendemos comprobar Lo que pretendemos comprobar es en qu grado las diferencias que encontremos en la variable dependiente (la que hemos medido, en este caso puede ser rendimiento escolar) se explican por las diferencias entre las actividades, o por las diferencias entre los tiempos, o por alguna combinacin actividad-duracin. Analizamos por lo tanto tres posibles fuentes de diferencias:

1 Con slo dos criterios de clasificacin, el planteamiento ms frecuente, el mtodo que proponemos es muy sencillo, sin ms ayuda que una calculadora con la media y desviacin tpica programadas; adems en procesos de aprendizaje ayuda a entender lo que estamos haciendo. Con ms de dos criterios de clasificacin se puede adaptar y utilizar el mismo procedimiento pero es preferible acudir directamente a programas de ordenador; los resultados son fciles de interpretar si se ha aprendido antes a resolver e interpretar el planteamiento con dos criterios de clasificacin. El anlisis de varianza factorial se puede tambin hacer con EXCEL, SPSS y programas disponibles en Internet (mencionamos algunos en el Anexo).

Anlisis de varianza con dos criterios de clasificacin (diseos factoriales)

a) Una actividad puede ser ms eficaz que otra, independientemente de su duracin, b) Una duracin puede ser ms eficaz que otra en cualquier actividad, c) Una actividad puede ser ms eficaz que otra, pero solamente si dura en determinado tiempo. Podemos formular por lo tanto tres Hiptesis Nulas (formuladas en referencia al caso planteado en la tabla 1): 1 Las dos muestras que han seguido actividades distintas proceden de la misma poblacin (no hay diferencia significativa entre las actividades; no se aprende ms con una que con otra). 2 Las tres muestras que han trabajado durante tiempos de distinta duracin proceden de la misma poblacin (no hay diferencia significativa entre las duraciones). 3 Las seis muestras que han trabajado en actividades distintas y con duraciones distintas proceden de la misma poblacin (no hay diferencias significativas entre los diversos subgrupos en los que se combinan actividad-duracin). Tendremos que calcular tres varianzas que corresponden a las tres fuentes de diferencias, y una cuarta varianza que expresa la variabilidad normal o aleatoria, y que nos servir como trmino de comparacin de las otras varianzas (denominador de la razn F). Consecuentemente al final del proceso tendremos tres razones F que nos permitirn aceptar o no aceptar las tres Hiptesis Nulas. Como en el anlisis de varianza en general, lo que verificamos es la relacin que puede haber entre la variable dependiente (la caracterstica de los sujetos que hemos medido) y los criterios que nos han servido para clasificar a los sujetos. Una manera posible de analizar estos datos sera considerar que tenemos 6 grupos de muestras independientes y utilizar un anlisis de varianza de una clasificacin simple para varias muestras independientes. Pero en este caso, si obtuvisemos una F significativa que nos indicara que hay diferencias entre los grupos, no sabramos si atribuirla a que las actividades son distintas, o a que las distintas duraciones producen resultados distintos, o a que determinadas combinaciones actividad-duracin son ms eficaces que otras. Los resultados podran ser ambiguos o difciles de interpretar con precisin. 1.3. Importancia de la interaccin Otra manera de enfocar la solucin es hacer dos anlisis de varianza: uno para comparar las dos actividades (nos bastara en este ejemplo un simple contraste de medias ya que se trata solamente de dos actividades) y otro para comparar las tres duraciones. Pero nos quedaramos sin saber la importancia de la relacin actividad-duracin. Esta relacin es la que denominamos genricamente interaccin. En nuestro ejemplo puede ser que una actividad sea preferible, produzca mejores resultados, pero solamente si tiene una duracin ptima. En general en la investigacin educacional o psicolgica la interaccin puede tener mucha importancia. Con frecuencia lo que tenemos es: 1. Un factor denominado principal que es el objeto principal de nuestro estudio (en nuestro ejemplo distintas actividades); 2. Otro factor cuyos niveles suelen ser circunstancias o condiciones que pueden afectar a los niveles del factor principal; por ejemplo duraciones distintas, con o sin alguna
Anlisis de varianza con dos criterios de clasificacin (diseos factoriales)

circunstancia, distintas variantes, tipos de sujetos, dosis; tambin puede tratarse de agrupaciones naturales de lo sujetos (por ejemplo gnero, lugar de procedencia, grupo tnico, etc.). Un mtodo (experiencia, actividad, terapia, etc.) puede ser mejor en unas circunstancias, pero en otras puede ser tan bueno o malo como los dems (circunstancias posibles que pueden modificar los resultados en la evaluacin de unas actividades: medios auxiliares, tiempo dedicado, hora del da o poca del ao, etc.). Podemos pensar que de manera anloga algunas medicinas son mejores para unos pacientes que para otros, o pueden estar contraindicadas en determinadas personas, o pueden ser incompatibles con otros medicamentos se trata tambin de interacciones: los efectos de un tratamiento pueden depender del nivel de una segunda variable. Podemos pensar en semillas de una planta: una variedad puede producir una mayor produccin pero solamente en un determinado tipo de suelo, o con un determinado fertilizante, o una determinada cantidad de riego o de exposicin solar, etc.2 Es fcil ver que este planteamiento tiene una especial utilidad precisamente porque permite analizar las interacciones. Tambin es verdad que cuando la interaccin es significativa la interpretacin puede ser menos simple; hay que matizar ms las conclusiones. 1.4. Caractersticas de la muestra a) En este planteamiento todos los sujetos son distintos Se trata por lo tanto de muestras independientes; no hay sujetos repetidos en ms de un grupo (otras variantes de este mismo modelo, con los sujetos clasificados en dos o ms factores, son vlidas para muestras relacionadas, pero no es ste el caso que presentamos ahora). b) En un diseo experimental en sentido propio los sujetos deben ser asignados aleatoriamente a las distintas condiciones experimentales para poder controlar otras variables. Los sujetos, por ejemplo alumnos, han sido asignados aleatoriamente a cada uno de los subgrupos para poder generalizar los resultados (controlamos de esta manera otras variables extraas que pueden influir en la variable dependiente que hemos medido). Si no hay asignacin aleatoria no se trata de un diseo experimental en sentido propio. La aleatoriedad permitir generalizar las conclusiones (validez externa) a otros sujetos de la misma poblacin (representados por esta muestra) con una mayor seguridad. Si no hay asignacin aleatoria de los sujetos a los grupos, caben otros modos de controlar variables con otros diseos (con sujetos igualados en variables importantes, o utilizando diseos ms complejos). En muchas investigaciones (o simplemente en estudios experimentales) la no aleatoriedad es casi la norma (por su facilidad: se trabaja con grupos hechos o disponibles). Estos anlisis (que no responden a un diseo experimental en sentido propio) son tambin tiles, pero hay que preguntarse siempre qu otras cosas pueden estar influyendo en la variable dependiente, y tener ms cautela en la interpretacin y sobre todo en la extrapolacin de los resultados. 1.5. Nmero de sujetos en cada clasificacin Con respecto al nmero de sujetos hay que distinguir dos cuestiones distintas, a) la conveniencia de disponer de un nmero idntico de sujetos en cada clasificacin, y b) el nmero de sujetos en trminos absolutos en cada clasificacin (en cada celda).
2 Precisamente este tipo de diseos tuvieron su origen en la investigacin en el campo de experimentacin agrcola y de la biologa en general.

Anlisis de varianza con dos criterios de clasificacin (diseos factoriales)

1.5.1. Nmero idntico de sujetos en cada clasificacin En este modelo de anlisis de varianza debe de haber el mismo nmero de sujetos en cada clasificacin; el mtodo es as ms potente aunque no se cumplan los presupuestos de normalidad en la poblacin y de homogeneidad de varianzas. El mtodo resulta adems mucho ms sencillo y tal como lo explicamos aqu suponemos siempre que el nmero de sujetos es el mismo. El distinto nmero de sujetos en cada clasificacin deja de ser problemtico cuando las frecuencias en cada clasificacin son proporcionales. Nmeros proporcionales quiere decir lo mismo que las frecuencias tericas o esperadas en los planteamientos de ji cuadrado (aun as advertimos que el procedimiento que expondremos supone un idntico nmero de sujetos en cada clasificacin; con grupos de idntico tamao el procedimiento es adems ms sencillo). Cuando el nmero de sujetos es desigual, los procedimientos sugeridos para igualar el nmero de sujetos son varios: 1 Descartar sujetos aleatoriamente. Con muestras razonablemente grandes la recomendacin habitual es descartar aleatoriamente datos para obtener frecuencias iguales3 (tambin se pueden descartar observaciones para conseguir frecuencias proporcionales). Esta recomendacin es aplicable en principio a cualquier planteamiento de anlisis de varianza porque, como ya hemos indicado, con un nmero idntico de sujetos en cada grupo pierde importancia la violacin de normalidad y de homogeneidad de varianzas. El desechar sujetos debe hacerse de manera estrictamente aleatoria; la condicin que indican los autores mencionados es que el nmero mnimo de sujetos por celda no sea inferior a 10, ms o menos. 2 Estimar las puntuaciones que faltan. Si en algn caso falta algn sujeto en una celda (es normal la prdida de sujetos en planteamientos experimentales) se pueden estimar las puntuaciones que faltan (missing scores) poniendo en su lugar la media de la celda; esta prctica no afecta apenas a los resultados si los sujetos por celda son al menos 10. Con este procedimiento se pueden estimar entre un 10 y un 25% de los datos.4 3 Utilizar las medias Si utilizamos las medias de cada subgrupo en vez de las puntuaciones individuales, tendremos en cada clasificacin n = 1, y tambin se puede llevar a cabo este anlisis de varianza (diseos factoriales) con un solo sujeto en cada clasificacin. En principio este tipo de solucin no es deseable porque supone mucha prdida de informacin, pero tampoco conviene descartar esta posibilidad porque puede tener su inters en s misma. Al tratar de las variantes de los diseos factoriales trataremos este caso especfico en el que podemos utilizar medias (y consecuentemente, n = 1 en cada celda) en vez de puntuaciones individuales. En este caso el procedimiento viene a ser el mismo que el anlisis de vainas para muestrs relacionadas.

3 Por ejemplo Glass y Stanley (1974:439); Escotet (1980:84-85); Linton, Gallo y Logan (1975:131). 4 Linton, Gallo y Logan (1975:131). Cuando los dos factores tienen idntico nmero de niveles (como en el diseo denominado cuadrado latino que no explicamos aqu) hay una frmula especfica para estimar el valor de las puntuaciones que nos faltan; puede verse en Tejedor (1984:236).

Anlisis de varianza con dos criterios de clasificacin (diseos factoriales)

1.5.2. Nmero de sujetos en trminos absolutos El nmero de sujetos necesario (o conveniente) en cada clasificacin depende de varias variables. Nos referimos a tablas nxn (dos criterios de clasificacin). En trminos generales necesitaremos ms sujetos a) cuando los niveles de cada factor son menos (necesitamos ms sujetos en tablas 2x2 que en tablas 4x4) y b) la magnitud de las diferencias en la que estamos interesados; si queremos detectar diferencias pequeas nos harn falta muchos ms sujetos que si slo estamos interesados en diferencias grandes. Como criterio orientador, y si se trata de detectar diferencias entre moderadas y grandes (ciertamente no pequeas) podemos pensar en el nmero de sujetos en cada clasificacin que figura en la tabla 2. Magnitud de la tabla 2x2 2x3 2x4 3x3 3x4 4x4 Tabla 2 Para detectar con seguridad diferencias pequeas (y por lo general de menor inters) son necesarios muchos ms sujetos5. 1.6. Importancia del tipo de categoras de clasificacin Tratando de diseos factoriales es importante recordar que las categoras de clasificacin (variables independientes) pueden ser: a) Fijas (escogidas segn criterio del investigador), b) Aleatorias (escogidas aleatoriamente de una poblacin mayor); c) Mixtas (una categora fija y otra aleatoria). Del hecho de que las categoras sean fijas o aleatorias: 1. No depende el mtodo que vamos a seguir, que es el mismo; 2. S depende la generalizacin de las conclusiones, que ser mayor con categoras aleatorias. Con categoras fijas, las conclusiones son aplicables en principio a las categoras empleadas. 3. S va a depender el denominador de la razn F empleado en cada caso, como veremos despus (en la tabla 4). En el caso de categoras fijas (el ms frecuente) el denominador va a ser siempre el mismo que ya hemos visto en el anlisis de varianza para varias muestras independientes (es decir, los cuadrados medios dentro de los grupos), por lo que esta distincin entre tipos de categoras no es en principio especialmente importante. Se trata sin embargo de conceptos que conviene recordar y que a la vez sugieren posibilidades de investigacin. En investigacin educacional (y de otro tipo) podemos tener categoras aleatorias si tenemos, como factor o Nmero de sujetos entre 13 y 32 entre 11 y 26 entre 9 y 22 entre 7 y 18 entre 6 y 15 entre 5 y 12

5 El nmero de sujetos en cada clasificacin lo tratamos en el anexo VI y tambin en el documento Tamao de la muestra: Cuntos sujetos necesitamos? http://www.upco.es/personal/peter/investigacion/Tama%F1oMuestra.pdf. Estos criterios orientadores estn adaptados de las extensas tablas de Kirk (1995:401 y tabla E.15).

Anlisis de varianza con dos criterios de clasificacin (diseos factoriales)

categora de clasificacin, centros, aulas, profesores, etc., seleccionados aleatoriamente de una poblacin mayor. Es importante caer en la cuenta que son las categoras de clasificacin, y no los sujetos, las que pueden ser o no ser escogidas aleatoriamente. Los sujetos, cuyos resultados (variable dependiente) se van a analizar, deben asignarse aleatoriamente a los diversos subgrupos si se pretende que el diseo se aproxime ms a lo experimental. Con muestras aleatorias es ms legtimo generalizar las conclusiones a la poblacin porque as se controlan otras variables desconocidas que podran contaminar o explicar los resultados. 2. Mtodo 2.1. Disposicin de los datos En el ejemplo que nos va a servir para exponer el mtodo6 tenemos dos factores (tabla 3): 1. Factor A (mtodos) dividido en tres niveles (tres variantes metodolgicas). 2. Factor B (profesores) dividido en cuatro niveles (cuatro profesores). En la tabla 3 aparecen los datos de los sujetos segn pertenezcan a un profesor (B1, B2, B3 y B4) y a un mtodo determinado (A1, A2 y A3). En este hipottico caso consideramos que ambas categoras son fijas: los mtodos han sido escogidos con criterios lgicos y los profesores suponemos que son simplemente los que estaban disponibles para participar en una investigacin; no han sido escogidos aleatoriamente de una poblacin mayor de profesores. Tenemos por lo tanto 12 combinaciones profesor-mtodo. En cada combinacin hay cinco alumnos Es conveniente disponer los datos con claridad, en un cuadro de doble entrada segn los dos criterios de clasificacin, en el que aparezcan las puntuaciones directas de todos los sujetos, tal como aparece en la tabla 3. Incluso haciendo todos los clculos con un programa de ordenador, es til tener in mente, en ste y otros modelos de anlisis de varianza, cmo se disponen los datos.

6 Los datos los tomamos del ejemplo que presentan Guilford y Fruchter (1973) para explicar este modelo de anlisis de varianza (el procedimiento que seguimos aqu es distinto, semejante a los ya vistos); modificamos la designacin de las variables para utilizar trminos que nos resultan ms familiares (mtodos y profesores).

Anlisis de varianza con dos criterios de clasificacin (diseos factoriales)

profesores (factor B) Profesor B1 Media desviacin

A1 6 4 2 6 2 MA1B1 = 4 1.789 8 3 7 5 2 MA1B2 = 5 2.280 7 6 9 8 5 MA1B3 = 7 1.414 9 6 8 8 9 MA1B4 = 8 1.095 MA1 = 6

Profesor B2 Media desviacin

Profesor B3 Media desviacin

Profesor B4 Media desviacin Medias de los mtodos (A)

mtodos (factor A) A2 4 1 5 2 3 MA2B1 = 3 1.414 6 6 2 3 8 MA2B2 = 5 2.191 9 4 8 4 5 MA2B3 = 6 2.098 7 8 4 7 4 MA2B4 = 6 1.673 MA2 = 5

A3 4 2 2 1 1 MA3B1 = 2 1.095 3 1 1 2 3 MA3B2 = 2 .894 6 4 3 8 4 MA3B3 = 5 1.789 6 5 7 9 8 MA3B4 = 7 1.414 MA3 = 4

Medias de B

MB1 = 3

MB2= 4

MB3 = 6

MB4 = 7

Media y total Mt = 5 t = 2.4966

Tabla 3 2.2. Visin global del proceso Los clculos que vamos a hacer los dividimos en tres tipos: clculos previos, anlisis de varianza en sentido propio y anlisis complementarios. 1 Clculos previos Van a ser los mismos que en otros procedimientos anlogos (medias, desviaciones, varianza de medias) El clculo de las desviaciones tpicas de las medias puede parecer poco usual, pero ya hemos visto que simplifica mucho las operaciones y ahorra tiempo si no se utiliza directamente un programa de ordenador. Ya hemos indicado adems en otra ocasin que propiamente no se trata de calcular desviaciones o varianzas de medias, sino de todos los sujetos, pero asignndoles como puntuacin individual la media de su grupo; como los grupos son de idntico tamao basta calcular la desviacin de las medias. Estos clculos se hacen con rapidez con una calculadora corriente con programacin estadstica o utilizando una hoja de clculo.

Anlisis de varianza con dos criterios de clasificacin (diseos factoriales)

10

2 Clculos especficos del anlisis de varianza. A partir de los clculos precedentes (desviaciones tpicas de medias) se calculan con facilidad las Sumas de Cuadrados, que suele ser lo ms laborioso en el anlisis de varianza, y el resto de las operaciones. 3 Anlisis complementarios. Frecuentemente van a ser coeficientes de asociacin para ver la importancia relativa de las distintas fuentes de varianza; tambin podemos hacer los contrastes posteriores que resulten de inters (con sus correspondientes tamaos del efecto). Desde el comienzo debemos tener a la vista la tabla de resultados (tabla 5), que es semejante a las que encontramos en otros modelos de anlisis de varianza. Ms adelante presentamos un resumen de todo el procedimiento de anlisis (tabla 6), y puede resultar til verlo desde el principio, ya que es semejante a otros procedimientos de anlisis de varianza con los que ya estamos familiarizados. Aunque vamos a explicar el proceso de manera muy pormenorizada, se puede ver de un golpe de vista observando la tabla 4 (datos y clculos previos ya hechos) y la tabla 6 (tabla de resultados con las frmulas incluidas); estas dos tablas pueden ser suficientes, como referencia, para llevar a cabo todo el proceso. El proceso completo, lo que vamos a hacer o podemos hacer, lo sintetizamos de esta manera: 1. Anlisis de varianza propiamente dicho, que nos va decir qu fuentes de variacin son estadsticamente significativas (razones F). 2. Coeficientes del tipo 2 o 2 que nos van a permitir apreciar la relevancia e importancia prctica de los resultados. 3. Representacin grfica de los resultados como ayuda a la interpretacin; ya veremos cmo hacerla. 4. Contrastes posteriores en el caso de que sean necesarios o nos parezcan convenientes, y el tamao del efecto al comparar dos medias entre s.. 5. Interpretacin global de los resultados, incluyendo valoraciones e interpretaciones cualitativas, conclusiones, etc. 2.3. Clculos previos Estos clculos previos facilitan los clculos de las Sumas de Cuadrados. Se trata simplemente del clculo de medias y desviaciones tpicas (suponemos que estos clculos se hacen al menos con calculadora programada. 1 Clculo de medias y desviaciones En la tabla 3 tenemos ya calculadas estas medias y desviaciones: 1) Media y desviacin de cada uno de los subgrupos (de las 12 combinaciones AB) 2) Media de cada columna (tres medias; mtodos, factor A) 3) Media de cada fila (cuatro medias; profesores, factor B) 4) Media y desviacin de los totales (de los 60 datos)

Anlisis de varianza con dos criterios de clasificacin (diseos factoriales)

11

La desviacin tpica de todos los datos (de N) en realidad no nos es necesaria; es til para calcular la suma de cuadrados total, que es igual a la suma de las otras sumas de cuadrados. Esta suma de cuadrados total nos permite comprobar que las otra sumas de cuadrados estn bien hechas. La media total (de N = 60; media de las medias de A o de B) tampoco nos es necesaria; es til si vamos a calcular la desviacin tpica de los totales siguiendo el procedimiento explicado en el Anexo III. 2 Clculo de varianzas de medias Estas varianzas (calculadas dividiendo por N, no por N-1) nos van a simplificar el clculo de las sumas de cuadrados (en realidad ya sabemos que se trata de varianzas calculadas en toda la muestra, pero asignando a cada sujeto no la puntuacin obtenida sino la media de su grupo; al tratarse de grupos de idntico tamao nos basta calcular las varianzas de las medias). 1) Varianza de las medias de los niveles del factor A 2 = .8162= MA (mtodos, tres medias): 2) Varianza de las medias de los niveles del factor B 2 = 1.5812 = MB (profesores, cuatro medias): 0.8858 2.50

3) Varianza de las medias de todas las combinaciones AxB 2 = 1.8712 = 3.50 MAxB (doce medias) Si tenemos desde el principio una visin global del proceso, podemos ir directamente al clculo de las Sumas de Cuadrados, que veremos enseguida. Los resultados se pueden ir poniendo directamente en la tabla de resultados (tabla 5). En casi todos los casos se trata de multiplicar las varianzas de las series de medias por el nmero total (N) de sujetos. 2.4. Clculos propios del anlisis de varianza 2.4.1. Sumas de Cuadrados (SC) A partir de los datos que ya tenemos vamos a hacer todos los clculos del anlisis de varianza que aparecern en la tabla 5 (tabla de resultados), pero que iremos presentando por partes. En la prctica, y segn vamos calculando las varianzas necesarias, podemos ir directamente a la tabla de resultados, pues las operaciones que vamos a hacer son muy sencillas (resumidas en la tabla 6). Para calcular las diversas varianzas (o Cuadrados Medios, CM) necesitamos calcular el numerador (o Suma de Cuadrados) y el denominador (o Grados de Libertad, gl). Las Sumas de Cuadrados las calculamos multiplicando las varianzas (las desviaciones ya calculadas elevadas al cuadrado) por el nmero total de sujetos, ya que todos ellos contribuyen a todas las varianzas (en este caso N = 60): Sumas de Cuadrados (o numerador) correspondiente a la varianza de: 1. El total 2. Factor A (mtodos) 3. Factor B (profesores) SCt = N t
2

= (60)(2.4966)2 = = (60)(.816)2 = = (60)(1.581)2 =

374 40 150

SCA= N 2 A SCB = N 2 B

Anlisis de varianza con dos criterios de clasificacin (diseos factoriales)

12

4. Interaccin entre los dos factores, o variabilidad (diferencias en los resultados) debida a las diversas combinaciones entre profesores y mtodos y que simbolizamos como AxB, SCAxB = N AxB - (SCA+ SCB)
2

= (60)(1.871)2 - (150 + 40) =

20

5. Dentro de los grupos, o residual; variabilidad dentro de los 12 subgrupos una vez eliminada la variabilidad debida a los mtodos, a los profesores y a la interaccin entre mtodos y profesores. Esta varianza residual es la varianza dentro de los grupos (de todas las combinaciones AB). Podemos calcularla de dos maneras: 1) A partir de la suma de cuadrados del total SCdentro = SCt - (SCA + SCB + SCAxB) = 374 - (150 + 40 + 20) = 164 2) Esta suma de cuadrados dentro de los grupos tambin se puede calcular directamente, y puede servir de comprobacin, a partir de las varianzas dentro de los grupos (12 en este ejemplo) si las hemos calculado previamente7: se suman y se multiplica esta suma por el nmero de sujetos que hay en cada grupo:
2 SCdentro= n(1 + 2 + 2 ) 2 n

Las frmulas para calcular las Sumas de Cuadrados (o numeradores de las varianzas) estn puestas tambin en la tabla 6. Podemos comprobar que la suma de las sumas de cuadrados parciales es igual a la suma de cuadrados total; simplemente hemos descompuesto el numerador de la varianza total.
2.4.2. Grados de libertad (gl)

Los grados de libertad van a ser el denominador de cada varianza. El determinar los grados de libertad que corresponden a cada varianza es muy sencillo: 1. Del factor A (mtodos) 2. Del factor B (profesores) 3. De la interaccin (AxB) 4. Dentro de los grupos 5. Del total A-1 = B-1 = (A-1)(B-1) = N -k = N-1= (3-1) = (4-1) = (3-1)(4-1) = (60 12) = (60-1) = 2 3 6 48 59

Podemos verificar que los grados de libertad del total es igual a la suma de todos los dems.
2.4.3. Varianzas o Cuadrados Medios (CM)

Dividiendo la Suma de Cuadrados por los Grados de Libertad tenemos las diversas varianzas en las que hemos descompuesto la varianza total, tal como estn ya calculadas en la

7 Recordamos que la suma de las varianzas se calcula con rapidez introduciendo en la calculadora (con programacin estadstica) todas las desviaciones tpicas; la suma de las varianzas la obtenemos en la funcin x2

Anlisis de varianza con dos criterios de clasificacin (diseos factoriales)

13

tabla 5, y que muestra los resultados finales del anlisis de varianza. Normalmente es la nica tabla que se presenta pues all estn los datos que permitirn interpretar las conclusiones. Como en el caso de varias muestras independientes, si hubiramos calculado en los 12 subgrupos las desviaciones tpicas dividiendo por N-1, los cuadrados medios dentro de los grupos (denominador de la razn F) es simplemente la varianza media de los grupos ( 2 /k) . n-1
2.4.4. Comparacin o contraste de varianzas (razn F)

Finalmente comparamos las varianzas de inters (las de los factores y su interaccin) con la varianza que podemos considerar como aleatoria, para comprobar qu fuentes de varianza podemos considerar significativas o superiores a lo que se puede esperar por azar. En estos planteamientos tenemos tres fuentes de varianza que nos interesa examinar: 1) La varianza debida al factor A (mtodos) 2) La varianza debida al factor B (profesores) 3) La varianza debida a la interaccin entre los dos factores (A x B). Es decir, deseamos calibrar cul es el influjo de las dos variables que hemos utilizado para clasificar a los sujetos (y que genricamente llamamos aqu factor A y factor B, en este caso mtodos y profesores), y tambin el influjo de la relacin entre las dos variables. En una palabra: entre los sujetos tenemos diferencias (varianza, expresada en la varianza total), y nos preguntamos Cules de estas tres fuentes de diferencias son importantes, por encima de lo puramente casual? Estas tres varianzas van a ser el numerador de otros tantos clculos de la razn F. El denominador ser el trmino de comparacin. Compararemos cada una de las tres varianzas con la varianza que podamos considerar como aleatoria, la que hubiramos encontrado de no existir lo especfico de los mtodos, los profesores y su interaccin que es precisamente lo que estamos investigando. sta es la varianza que hemos denominado antes dentro de los grupos, y que quizs con ms propiedad puede denominarse varianza residual. Sin embargo esto no es siempre as, el trmino apropiado de comparacin va a depender de que las categoras de clasificacin sean fijas, aleatorias o mixtas. En la tabla 4 exponemos cual debe ser el denominador de la razn F8. En nuestro ejemplo se trata de un modelo de categoras fijas, por lo que en todos los casos el denominador o trmino de comparacin ser CMdentro o la varianza (Cuadrados Medios) dentro de los grupos o residual. Si en este ejemplo los profesores hubieran sido escogidos aleatoriamente de un conjunto mayor, el factor B sera una categora aleatoria, pero suponemos que se trata de los profesores que estaban disponibles para hacer esta investigacin.

8 La justificacin puede verse en Guilford y Fruchter (1973:257)

Anlisis de varianza con dos criterios de clasificacin (diseos factoriales)

14

Numerador, o varianza cuya significacin deseamos comprobar

Denominador (varianza aleatoria), o trmino de comparacin del numerador

Modelo de categoras fijas

CMA............................................................................ CMB ............................................................................ CMdentro en todos los casos CMAxB ....................................................................... CMA ................................................. CMAxB CMB ................................................. CMAxB CMAxB ............................................. CMdentro CM de la categora aleatoria ............ CMdentro CM de la categora fija .................... CMAxB CMAxB .............................................. CMdentro

Modelo de categoras aleatorias

Modelo de categoras mixtas

Tabla 4, denominador de la razn F


2.4.5. Resultados finales: tabla de resultados

Los resultados finales del anlisis de varianza se ponen en una tabla, tal como lo hacemos ahora en la tabla 5.
Origen de la variacin Factor A (mtodos) factor B (profesores) interaccin AxB dentro de los grupos total SC numerador 40 150 20 164 374 gl denominador 2 3 6 48 59 CM = 2 =
40 2
SC gl

F=
20 3.42

2
2

p < .01 < .01 no sign.

= 20 = 50

= 5.85 = 14.50 = .97

150 3 20

50

6 164 48

= 3.32 = 3.42

3.42 3.32

3.42

Tabla 5
2.4.6. Interpretacin

1. La varianza debida a la combinacin profesor-mtodo es prcticamente nula; la variabilidad (diferencias) en los resultados no se debe a determinadas combinaciones profesor-mtodo (no hay profesores que funcionen especialmente mejor o peor que los dems con un determinado mtodo). 2. Las varianzas originadas tanto por los profesores como por los mtodos son ambas significativas; si hay diferencias es porque los profesores son distintos y tambin porque los mtodos son distintos. Hay profesores ms eficaces (con cualquier mtodo) y mtodos ms eficaces (con cualquier profesor). 3. La mayor variabilidad se debe con mucho a los profesores (factor B), independientemente del mtodo que utilicen. Sin embargo si lo que se deseaba probar era que los mtodos son distintos en eficacia, que no da lo mismo uno que otro, esto puede darse por
Anlisis de varianza con dos criterios de clasificacin (diseos factoriales)

15

probado, porque la varianza de los mtodos (factor A) es significativamente superior a cero (hemos obtenido una F= 5.85 y el valor necesario que vemos en las tablas de la F es 5.08). Aun as el peso de los profesores, en los resultados finales, parece mayor que el de los mtodos. Para analizar e interpretar mejor los resultados haremos despus algn clculo adicional.
2.4.7. Resumen del procedimiento

El procedimiento puede parecer a primera vista un tanto complejo, pero si se examina paso a paso se advierte enseguida su simplicidad. La tabla 6 puede ser una referencia de uso cmodo para hacer todos los clculos con rapidez, si estamos familiarizados con los smbolos : N= n= 2 = MA 2 = MB
2 MAxB

Nmero total de sujetos Nmero de sujetos en cada grupo Varianza de las medias del factor A (medias de las tres columnas)
Varianza de las medias del factor B (medias de las cuatro filas) Varianza de las medias de todos los subgrupos (medias de los doce subgrupos) Suma de las varianzas de todos los subgrupos Varianza de los totales (de todos los sujetos como si se tratara de un solo grupo)
Grados de libertad Cuadrados Razn F Medios

2 = dentro 2 t =

tabla de resultados:
Origen de la variabilidad Factor A Factor B
Suma de Cuadrados p

SCA = N 2 = MA SCB = N 2 = MB

A-1= B-1= (A-1)(B-1) = N-k= N-1= Tabla 6

AxB SCAxB = N 2 - (SCA + SCB) = MAB (interaccin AxB) error, dentro de los grupos

SCdentro = n 2 = dentro
2

Variabilidad total SCtotal = N t =

3. Anlisis adicionales

Vamos a distinguir dos tipos de anlisis complementarios: 1 Coeficientes de asociacin, 2 Contrastes entre medias, con sus correspondientes tamaos del efecto Veremos adems cmo hacer una representacin grfica de los resultados, que es muy til como ayuda a la interpretacin y para comunicar los resultados. No hay que hacer siempre todo lo que es posible hacer, sino lo que aporte en cada planteamiento informacin til.

Anlisis de varianza con dos criterios de clasificacin (diseos factoriales)

16

3.1. Coeficientes de asociacin

Una razn F significativa nos indica que una determinada fuente de varianza (que corresponde a la variable puesta en el numerador de la razn F) se relaciona con las diferencias en la variable dependiente (la que hemos medido en los sujetos) ms de lo que cabra esperar por azar: la variabilidad observada en la variable dependiente se puede atribuir a las variables del numerador de la razn F. Sin embargo no es fcil comparar entre s dos F significativas; aunque sus valores sean muy distintos tambin lo son los grados de libertad. Con frecuencia es suficiente comprobar la proporcin de varianza atribuible a cada variable (o a su interaccin si resulta significativa). Esto nos lo indica el coeficiente 2 o el coeficiente 2 (sus valores oscilan entre 0 y 1).
3.1.1. Coeficiente 2

Las frmulas del coeficiente 2 estn indicadas en la tabla 7, junto con los resultados correspondientes a este ejemplo (podemos observar que el denominador es siempre el mismo).
Estimacin de la proporcin de varianza atribuible a:

Valor del coeficiente 2


2 = SC A - (A - 1)(CM dentro ) CM dentro + SC total SC B - (B- 1)(CM dentro ) CM dentro + SC total

Resultados (en este ejemplo) [1] [2]


2 = 40 ( 2)(3.42) 3.42 + 374 150 (3)(3.42) 3.42 + 374

Factor A (mtodos) Factor B (profesores) La interaccin (AxB)

= .088 = .370

2 =

2 =

2 =

SC AxB - (A -1)(B -1)(CM dentro ) [3] CM dentro + SC total

2 = 20( 2)(3)(3.42) =-.001 3.42+374

Tabla 7 Si algn valor de 2 es negativo se interpreta como cero. Estas frmulas son apropiadas solamente cuando: 1 El nmero de sujetos es el mismo en cada clasificacin 2 Se trata de muestras independientes 3 En diseos o anlisis de categoras fijas (como suele ser frecuente). En este ejemplo podemos ver que una proporcin apreciable de la varianza del factor B (los profesores) est asociada a la variable dependiente (las puntuaciones analizadas). La proporcin de varianza correspondiente al factor A (mtodos) es muy pequea. Estas proporciones se comparan entre s y se interpretan mejor que si slo disponemos de los valores de la razn F. Si este ejemplo fuera real concluiramos que la fuente importante de varianza (de las diferencias en lo que hayamos medido) est sobre todo en los profesores, no tanto en los diversos mtodos. Ahora podramos simplemente fijarnos en las medias de los distintos profesores (o de los mtodos si fuera se el caso). La proporcin de varianza que se puede atribuir a la interaccin puede considerarse igual a cero, ya que su F correspondiente no llega a 1.

Anlisis de varianza con dos criterios de clasificacin (diseos factoriales)

17

Este coeficiente 2 no es extrapolable; solamente se refiere a los datos analizados, y slo puede utilizarse con las categoras fijas. Si se trata de categoras aleatorias (y si una de ellas es aleatoria tambin lo es la interaccin a estos efectos) las frmulas que se utilizan son las mismas del anlisis de varianza para varias muestras relacionadas.
3.1.2. Coeficiente 2

Tambin puede utilizarse el coeficiente 2

2 = SC x SC total

[4]

SCx simboliza cualquier suma de cuadrados (de los factores y de la interaccin). El valor de 2 tiene un sesgo positivo y suele ser bastante mayor que el de 2 por lo que no son comparables entre s. En nuestro ejemplo tenemos: 2 (A) = 2 (B) = 2 (AxB) =
40 = .106 374 150 = .40 374

20 = .053 374

Una variante de inters de este coeficiente es eta al cuadrado parcial, que nos indica la proporcin de varianza asociada a un factor (o a la interaccin) neutralizando la varianza debida a otras fuentes (otros factores o su interaccin)9: 2 parcial =

SC x SC x + SC dentro

[5]

Si deseamos conocer la proporcin de varianza asociada al factor B (profesores) prescindiendo del influjo del mtodo, tenemos: 2 (B) parcial= 150 = .477 150 + 164

Observamos que ahora 2 correspondiente a B (profesores) es ligeramente mayor si neutralizamos el efecto del mtodo (como si todos fueran igualmente eficaces). Estos coeficientes (2 o 2) se deberan utilizar rutinariamente como complemento al anlisis de varianza. Resultados (valores de F) estadsticamente significativos son compatibles con una relacin muy baja entre la variable independiente y la variable dependiente. Si la variable independiente explica menos del 5% de la varianza de la variable dependiente, se trata de una relacin muy baja aunque sea real (no casual). Para valorar las magnitudes de estos coeficientes ya se dieron algunas indicaciones a propsito del anlisis de varianza para varias muestras independientes; en cualquier caso siempre se pueden comparar entre s los coeficientes dentro de un mismo planteamiento. Resultados significativos pero que explican una proporcin de varianza muy baja, pueden indicar que quizs habra que refinar la metodologa (si se trata de un diseo experimental); o

9 Jaccard (1998:38). En el mismo lugar pueden verse otros coeficientes.

Anlisis de varianza con dos criterios de clasificacin (diseos factoriales)

18

quizs haya que redefinir los conceptos o ajustarlos ms. La proporcin de varianza explicada en un estudio dado est afectada por la variabilidad (varianza) no controlada, debida a variables extraas. Por esta razn ms que buscar valores absolutos altos, es ms til comparar unos coeficientes con otros y comprobar cul es la importancia relativa de estas fuentes de varianza.
3.2. Contrastes posteriores

Es frecuente limitarse a calcular los distintos coeficientes de asociacin (2, 2), pero tambin podemos hacer los contrastes posteriores que sean de inters10. Vamos a distinguir dos situaciones: 1) En tablas 2x2, cuando los criterios de clasificacin son solamente dos y cada uno est dividido en dos niveles; 2) En tablas nxn, cuando al menos uno de los dos factores est dividido en ms de dos categoras. 1 En tablas 2x2, con slo dos niveles en cada categora. En estos casos los contrastes posteriores son innecesarios. Si por ejemplo la razn F del factor A es estadsticamente, habr una diferencia clara entre sus dos niveles A1 y A2. Lo mismo sucede con el otro factor. Si la interaccin es significativa, esto quiere decir que uno de los dos niveles de un factor es mayor que el otro. En todos estos casos slo interesa comparar dos medias entre s, y si la razn F es significativa, ya sabemos que una media es significativamente mayor que la otra sin hacer ms contrastes (s nos puede interesar aadir el tamao del efecto). 2 En tablas nxn, cuando tenemos al menos un criterio de clasificacin (o factor) dividido en ms de dos niveles. En estos casos s pueden hacernos falta los contrastes posteriores apropiados. En algunos casos son estos contrastes los que permiten llegar a conclusiones ms interpretables: cuando tenemos ms de dos niveles en alguno de los factores y la varianza correspondiente a alguno de ellos o la de la interaccin es significativa, tendremos ms de dos medias y ser importante ver dnde est la diferencia. En este cuadro tenemos el planteamiento clsico de un anlisis de varianza, con dos factores principales (A y B); el factor A est dividido en tres niveles y el factor B en dos (tabla 8). A1 A1B1 A1B2 A1 Factor A A2 A2B1 A2B2 A2 Tabla 8 A3 A3B1 A3B2 A3
medias de B B1 B2

Factor B

B1 B2 medias de A

Con este planteamiento obtenemos cuatro varianzas o cuadrados medios (de los dos factores principales, A y B, de la interaccin, AxB, y del trmino del error o varianza dentro

10 Pueden verse en monografas ms especializadas, como Toothaker (1993).

Anlisis de varianza con dos criterios de clasificacin (diseos factoriales)

19

de los grupos) y tres razones F al dividir las varianzas de A, B y AB por la varianza del trmino del error (dentro de los grupos, aleatoria). Estas razones F nos dirn si son significativas las diferencias debidas a A, a B y a AxB (o a una combinacin entre niveles de factores). Los contrastes posteriores que nos pueden interesar son entre dos tipos de medias: a) Entre distintos niveles del mismo factor b) Entre las medias del mismo nivel de un factor. 1. Diferencias entre los diversos niveles de A o de B; es decir, diferencias entre niveles del mismo factor. En el esquema anterior podramos comparar A1 con A2 , etc. A veces estas comparaciones pueden ser innecesarias cuando slo tenemos dos medias que contrastar. Si en el esquema anterior la razn F correspondiente al factor B es significativa, esto quiere decir, sin necesidad de ms contrastes, que entre las dos medias correspondientes a B, B1 y B2 , existe una diferencia estadsticamente significativa, porque slo tenemos dos medias. En cambio si la razn F correspondiente al factor A es significativa, podemos encontrar diferencias entre A1 y A2 , entre A1 y A 3 , y entre A 2 y A 3 . En este caso s necesitaremos hacer los contrastes posteriores si nos interesa saber entre qu niveles de A hay una diferencia estadsticamente significativa. 2 Si la varianza (cuadrados medios) correspondiente a la interaccin es estadsticamente significativa, nos puede interesar comparar entre s diversas combinaciones de AB. Tenemos 6 combinaciones distintas de AB, de donde nos salen 15 posibles comparaciones [(6 x 5)/2], aunque ya veremos que en este caso nos interesa hacer menos comparaciones de las que es posible hacer.
3.2.1. Contraste entre las medias de niveles del mismo factor

Cuando la razn F correspondiente a uno o a los dos factores es estadsticamente significativa nos puede interesar comparar los diversos niveles de A entre s ( A1 , A2 , etc.). El procedimiento que exponemos es el adecuado para hacer estas comparaciones, pero no lo es para comparar una media de un nivel de A con otra de otro nivel B (y tampoco suele ser de especial inters). Hay que advertir que si la interaccin es estadsticamente significativa, estas comparaciones pueden no interesar. Concluir con un este mtodo es mejor que otro sin aadir pero slo en esta condicin o con este grupo, no es decir mucho, e incluso puede inducir a error. Y es eso lo que quiere decir que la interaccin es significativa: que entre los niveles de un factor hay diferencias (por ejemplo entre A1 y A2), pero no en general, sino en un nivel del otro factor (por ejemplo, A1 y A2 difieren en B2 pero no en B1). Para comparar entre s las medias de los distintos niveles de un factor tenemos los mismos procedimientos ya vistos para varias muestras independientes (Scheff, Tukey, etc.), pues estamos en ese caso. Posiblemente el contraste ms comn es el de Tukey, y es el que recomiendan algunos autores en esta situacin (Toothaker, 1990):

Anlisis de varianza con dos criterios de clasificacin (diseos factoriales)

20

q=

M1 -M 2 CM dentro n

[6]

Podemos tambin calcular la Diferencia Estadsticamente Significativa (DHS), despejando la diferencia entre las medias en la frmula [6]. a) n es el nmero de datos (o de sujetos) que sumamos para calcular cada media y no el nmero de sujetos que hay en cada clasificacin. Naturalmente en las dos medias que contrastamos el nmero de sujetos es el mismo. En estos planteamientos de anlisis de varianza (diseos factoriales, dos o ms criterios de clasificacin) el nmero de sujetos en cada clasificacin es el mismo. Si en este ejemplo tuviramos cuatro sujetos en cada clasificacin (cuatro en A1B1 y cuatro en A1B2), el n de la frmula [6] sera ocho (si estamos comparando A1 con A 2 ). b) El valor de q resultante lo consultamos en las tablas de q (rango estudentizado) teniendo en cuenta cul es el nmero de medias (k) y cuntos son los grados de libertad aqu. 1 El nmero de medias (k) es el nmero de niveles del factor correspondiente. Si estamos en este ejemplo comparando entre s las medias de A, k = 3, porque tenemos tres medias en el factor A. 2 CMdentro es, como siempre en estos casos, el valor de los cuadrados medios del error o dentro de los grupos; lo que es distinto son los grados de libertad para consultar las tablas de q. Los grados de libertad para consultar las tablas de q son igual a N-ab N: ayb es el nmero total de sujetos. Si en cada clasificacin tenemos cuatro sujetos, como tenemos seis clasificaciones, aqu tendramos N = 4 x 6 = 24 sujetos son el nmero de niveles (o subdivisiones) de los factores A y B. En este caso a = 3 y b = 2. Si tuviramos N = 24, los grados de libertad seran 24 - (2x3) = 18. En las tablas buscaremos 18 grados de libertad (si no figuran en las tablas estos grados de libertad, buscamos el nmero inmediatamente inferior que encontremos). En realidad, y como en otros casos semejantes, los grados de libertad son (n-1) o N - k (k nmero de grupos; ab es el nmero de grupos). Vamos a verlo con un ejemplo. En el ejemplo que nos ha servido para explicar este modelo de anlisis de varianza (tabla 3) hemos visto que la F correspondiente a los mtodos (factor A) es estadsticamente significativa. Tenemos tres medias de A y entre estas tres medias habr diferencias estadsticamente significativas. Vamos a comparar la media de A1 (= 6) con la media de A3 (= 4). q= 64 M A1 - MA2 = = 4.83 CM dentro 3.42 20 n

3.42 son los cuadrados medios dentro (tabla 5) y 20 es el nmero de sujetos utilizados para calcular estas medias.

Anlisis de varianza con dos criterios de clasificacin (diseos factoriales)

21

En las tablas buscaremos el valor que corresponde a k = 3 (porque tenemos tres medias de A) y grados de libertad = 48 [N-ab = 60- (3x4)]. En los tablas no aparecen los 48 grados de libertad; nos quedamos con el nmero inmediatamente inferior, 40. Para k = 3 y 40 grados de libertad vemos estos valores de q: 3.44 (.05) y 4.37 (.01); en nuestro caso con q = 4.83 tenemos que p <.01, por lo que podemos afirmar la diferencia entre estas medias con mucha seguridad; el que la diferencia sea grande es una cuestin distinta (ms adelante tratamos del tamao del efecto). Si comparamos A1 con A2 o A2 con A3 tendremos que q = 2.42 y p > .05.
Una observacin sobre procedimientos alternativos.

En textos y manuales de estadstica aparecen a veces frmulas aparentemente distintas pero que son equivalentes y nos pueden confundir. Por ejemplo, para este mismo contraste de medias podemos encontrar esta frmula (Toothaker, 1993): M1 - M2 t' = [7] CM dentro x2 n

Aqu se calcula un valor de t'; la diferencia con la frmula de q [6] es ese "x 2" que aparece en el denominador de [7]. En este caso tendramos que calcular los valores crticos de t', como en ocasiones semejantes, y que son: q Valores crticos de t' = [8] 2 El valor de q es el que venga en las tablas (para = .05 y gl = N - ab, como antes). 6- 4 = 3.42 Aplicando los datos anteriores tenemos que t' = 3.42 x2 20 Ahora tenemos que hallar los valores crticos de t: para p = .05, t=
3.44 = 2.43 2

para p = .01, t =

4.37 = 3.09 2

Con t= 3.42, nuestra conclusin es la misma (p<.01). Posiblemente es ms cmodo calcular directamente el valor de q y consultar las tablas. Tambin podemos calcular directamente el valor de la diferencia necesaria (diferencia crtica) para rechazar la Hiptesis Nula; la que Tukey denomina diferencia honestamente significativa. Para esto, en la frmula de q, nos basta despejar la diferencia del numerador y sustituir q por el valor que venga en las tablas:
Diferencia crtica = q
CM dentro n

[9]

En este caso, para localizar el valor de q en las tablas, tanto el valor de k (nmero de grupos o de medias) como el de los grados de libertad son los indicados anteriormente.

Anlisis de varianza con dos criterios de clasificacin (diseos factoriales)

22

3.2.2. Contraste entre las medias dentro del mismo nivel de un factor (cuando la interaccin es significativa)

Lo expuesto hasta ahora es el procedimiento para verificar si hay diferencias significativas entre las medias de los distintos niveles (medias de columnas entre s y medias de filas entre s). Pero tambin nos pueden interesar otras comparaciones. El comparar entre s las distintas medias que encontramos en los diversos niveles de cualquier factor nos interesa cuando la interaccin es significativa: un mtodo puede ser superior a otro, pero solamente con una determinada duracin, o un medicamento puede ser superior a otro, pero solamente en una determinada dosis o una determinada etapa de la enfermedad, etc. Vamos a suponer que A1, A2 y A3 son tres grupos de alumnos divididos segn la edad (tres edades o cursos distintos) y B1 y B2 son dos actividades didcticas (tabla 9, idntica a la tabla 8):
1 (A1) A1B1 A1B2
Factor A (cursos) 2 (A2) 3 (A3) A2B1 A3B1 A2B2 A3B2 medias de los mtodos (B)

Factor B mtodo 1 (B1) (mtodos) mtodo 2 (B2) medias de los cursos (A)

mtodo 1 ( B1 ) mtodo 2 ( B2 )

A1

A2 Tabla 9

A3

Supongamos que llegamos a esta conclusin: la razn F correspondiente al factor B (mtodo o actividad) es significativa. Esto puede querer decir que un mtodo, por ejemplo B2, es mejor que el otro, B1. Si la interaccin no es significativa, la interpretacin es que B2 es mejor independientemente del curso (edad) de los alumnos. Suponemos ahora que adems del factor mtodos (B) tambin la interaccin es significativa: en este caso el concluir simplemente que B2 es mejor que B1 no es decir mucho: es mejor pero segn con qu alumnos. En este caso nos interesar contrastar las tres medias de B2 entre s para ver en qu grupo o grupos es mejor el mtodo B2 pues B2 est implicado en los tres niveles de A: A1, A2 y A3.
Qu comparaciones interesa hacer cuando la interaccin es significativa.

Como primer paso podemos inspeccionar la representacin grfica de los resultados (explicada en un apartado posterior) que nos aclarar la interpretacin de manera intuitiva y nos dir dnde pueden estar las comparaciones de inters. Cuando la interaccin es significativa, los textos de nivel bsico o intermedio suelen limitarse a recomendar la inspeccin estas representaciones grficas (Oshima y McCarty, 2000)11. En el esquema que nos sirve de ejemplo (A con tres niveles y B con dos), si queremos comparar entre s todas las posibles combinaciones AB, como tenemos 6 grupos distintos tendremos (6x5)/2 = 15 comparaciones posibles. Con cuatro niveles en un factor y tres en el otro tendramos 12 grupos distintos y (12x11)/2 = 66 contrastes posibles. Es claro que son muchas comparaciones y que posiblemente muchas no tienen especial inters.

11 Oshima y McCarty (2000) reconocen la falta de consenso entre autores sobre cmo hacer estos contrastes cuando la interaccin es significativa y exponen diversos enfoques.

Anlisis de varianza con dos criterios de clasificacin (diseos factoriales)

23

Por lo general no nos interesan todas las comparaciones posibles; lo que s puede tener inters, y es lo que tratamos aqu, es comparar solamente las medias dentro de un mismo nivel: por ejemplo las comparaciones entre las tres B2. Dicho de otra manera, las comparaciones que interesan son entre medias que pertenecen a la misma fila o a la misma columna (filas y columnas son aqu los distintos niveles o subclasificaciones de cada factor). Estas medias se denominan no confundidas (unconfounded) porque las diferencias entre ellas se deben solamente a un factor. Si por ejemplo hay diferencias entre las medias de A1B1, A2B1, y A3B1, estas diferencias se debern solamente a diferencias en A, porque mantenemos constante B1. En el mtodo expuesto aqu para hacer estas comparaciones suponemos que: a) Hay un idntico nmero de sujetos en cada posible clasificacin; b) Slo se van a comparar entre s medias que pertenecen al mismo nivel de un factor. El procedimiento va ser el mismo visto antes, pero van a ser distintos el valor de n que entra en la frmula y el nmero de medias (k) para consultar las tablas (propiamente lo que cambia es el valor de k, que, como veremos, no va ser igual al nmero de medias, aunque nmero de medias suele ser la expresin que viene en las tablas).
Frmulas:

Como antes, podemos hallar el valor de q y consultar las tablas de q, o podemos calcular el valor de t', y ya sabemos que los valores crticos de t' son igual a q/ 2 , donde q es el valor que venga en las tablas segn el nmero de grupos (k) y los grados de libertad correspondientes. Las frmulas para comparar los subgrupos de dos en dos ya las hemos visto: M1 -M 2 los valores crticos de q los consultamos en [6] q= las tablas de la manera indicada ms adelante CM dentro (tabla 10) n t' = M1 - M 2 CM dentro x2 n [7] los valores crticos de t' son =
q 2

Una observacin importante para estas dos frmulas: n es el nmero de sujetos o de observaciones que sumamos para calcular cada media. Si en cada subclasificacin hay cuatro sujetos, entonces n = 4. El principio es el mismo visto antes para contrastar las medias de los niveles entre s (all n era igual al nmero de sujetos que entran en la media de cada nivel). Para consultar las tablas de q, el nmero de medias, como hemos indicado, no es exactamente el nmero de medias; el valor de k va a estar en funcin del tamao de la tabla. En la prctica basta consultar la tabla 10 que hemos confeccionado para estos casos12.

12 La justificacin de esta tabla la incluimos en el anexo V, que nos puede servir para ampliar la tabla si es necesario.

Anlisis de varianza con dos criterios de clasificacin (diseos factoriales)

24

Tamao de la tabla Valor de k para de dos factores consultar las tablas de q 2 x 2 ............................... 3 2 x 3 ............................... 5 2 x 4 ............................... 6 2 x 5 ............................... 8 3 x 3 ............................... 7 3 x 4 ............................... 8 3 x 5 ............................... 10 4 x 4 ............................... 10 4 x 5 ............................... 12 5 x 5 ............................... 15 Tabla 10
3.3. El tamao del efecto en los diseos factoriales

Adems de verificar entre qu medias tenemos una diferencia estadsticamente significativa, podemos calcular el tamao del efecto para apreciar mejor la magnitud de la diferencia, como hacemos en otros planteamientos. Cuando solamente tenemos dos niveles en un factor y ste es significativo, ya sabemos que entre los dos niveles existe una diferencia estadsticamente significativa, y sin hacer ningn contraste adicional podemos pasar directamente al tamao del efecto. Nos vamos a fijar en el tamao del efecto cuando comparamos dos niveles del mismo factor; nos referimos fundamentalmente al factor que consideramos principal o de mayor inters13. La cuestin es qu desviacin tpica podemos poner en el denominador. Podemos distinguir dos situaciones.
3.3.1. Cuando el factor secundario es una variable manipulada

Cuando el factor secundario o no principal es una variable manipulada, introducida, etc. por el investigador (como pueden ser modalidades, duraciones, circunstancias, etc.). En estos casos podemos utilizar en el denominador del tamao del efecto la raz cuadrada de los cuadrados medios dentro de los grupos de la tabla de resultados (tabla 5). Esa desviacin tpica (recordemos que los cuadrados medios son varianzas y su raz cuadrada una desviacin tpica) no contiene la variabilidad producida por ese factor secundario cuya influencia en la variable dependiente mantenemos as constante. Este factor, en s mismo, no suele tener un inters terico especial.
3.3.2. Cuando el factor secundario es una caracterstica natural de la poblacin

Otras veces el factor secundario o no principal es una caracterstica natural de la poblacin a la cual queremos generalizar los resultados; quizs el caso ms frecuente sea el gnero (o grupo tnico, o tipo de muestra, como clase social, etc.). En estos casos la desviacin tpica del denominador del tamao del efecto s debe incluir la variabilidad que se da naturalmente en ese factor. No debemos utilizar los cuadrados medios dentro de los grupos de la tabla de resultados (tabla 5) porque sa es la

13 Un tratamiento ms amplio del tamao del efecto en el contexto del anlisis de varianza puede verse en Cortina y Nouri (2000).

Anlisis de varianza con dos criterios de clasificacin (diseos factoriales)

25

varianza residual, la que queda una vez eliminado el influjo de los dos factores y de su interaccin y nosotros queremos incluir el influjo del factor secundario. Siempre que no queramos prescindir de la variabilidad producida por el factor secundario debemos utilizar la raz cuadrada de los cuadrados medios dentro de los grupos pero la que hubiremos obtenido haciendo un anlisis de varianza unifactorial solamente con el factor principal. Esta desviacin tpica ser mayor que en el caso anterior y el tamao del efecto no quedar sobrestimado (en cualquier caso este procedimiento es ms conservador y en caso de duda puede ser preferible). Para obtener estos cuadrados medios dentro de los grupos (luego utilizaremos la raz cuadrada) tenemos dos caminos. 1 Hacer un anlisis de varianza unifactorial con slo el factor principal. Como solamente nos interesan los cuadrados medios dentro, realmente no necesitamos hacer el anlisis de varianza completo, podemos calcularlos directamente. Con muestras de idntico tamao la frmula es sta: n 2 Cuadrados Medios dentro = Nk n es el nmero de sujetos en cada nivel del factor es la desviacin tpica de cada nivel del factor k es el nmero de grupos (de niveles)

Lo vamos a ver utilizando los datos de la tabla 3; nos interesa calcular el tamao del efecto al comparar las medias de los tres mtodos. Los datos los tenemos en la tabla 11. n Media A1 A2 20 20 6 5 2.3237 2.236 Tabla 11 A3 20 4 2.5099

Si comparamos estos datos con los de la tabla 3, lo nico que hemos tenido que hacer es calcular las desviaciones tpicas de los tres niveles de A (de las columnas), y adems caer en la cuenta de que n = 20 (nmero de sujetos en cada mtodo). Aplicamos la frmula de los cuadrados medios dentro: CM dentro = 20(2.3237 2 + 2.236 2 + 5.099 2 ) = 5.859, y = 60 3 5.859 = 2.42

sta es la desviacin tpica que utilizaremos en el denominador del tamao del efecto; entre A1 y A3 tendremos d = (6-4)/2.42 = .826 (diferencia que podemos considerar grande). 2 Clculo a partir de la tabla de resultados del anlisis de varianza Los cuadrados medios dentro de un anlisis unifactorial hecho con los niveles del factor principal (que es lo que nos interesa) podemos rescatarlos de la tabla de resultados del diseo factorial que ya tenemos (tabla 5). Nos basta calcular los cuadrados medios sumando todas las sumas de cuadrados y todos los grados de libertad excepto los correspondientes al factor principal (A); la frmula es por lo tanto:

Anlisis de varianza con dos criterios de clasificacin (diseos factoriales)

26

CM dentro =

SC B + SC AxB + SC dentro 150 + 20 + 164 = = 5.859 gl B + gl AxB + gl dentro 3 + 6 + 48

Llegamos al mismo resultado con los dos procedimientos; ste segundo puede resultar ms cmodo, pero es til verificar que los dos son equivalentes.
4. La representacin grfica de los resultados como ayuda a la interpretacin en los diseos factoriales

En un diseo factorial con dos factores principales tenemos tres posibles fuentes de variacin sistemtica: los dos factores principales, A y B, y su interaccin. Adems de interpretar directamente los valores de F, un sencillo grfico nos puede ayudar en la interpretacin de lo que est sucediendo y a comunicarlo con ms claridad. Vamos verlo con unos ejemplos hipotticos. Suponemos que los dos factores principales son: A1 Factor A: mtodo: trabajo en grupo con dos niveles o variantes: A1 con trabajo individual antes de la discusin en grupo B1 A2 sin tarea individual antes de la tarea grupal Factor B: tiempo, duracin: B1 media hora B2 una hora B2 A1B1 A1B2 A2 A2B1 A2B2

La variable dependiente (la que hemos medido despus de las actividades) puede ser satisfaccin por la tarea (o nivel de participacin o de aprendizaje, etc.). En los grficos puestos a continuacin el eje de las abcisas (X) corresponde a uno de los dos factores principales; en este caso situamos en este eje los dos niveles del factor B (suficientemente distanciados para que el grfico quede ms claro). El eje vertical de las ordenadas (Y) corresponde a la variable dependiente (la que hemos medido). En este eje podemos situar algunos valores representativos (en este ejemplo ficticio ponemos de 1 a 8). En este espacio situamos los valores del otro factor principal, el factor A en este caso: situamos las medias de A1 y A2 correspondientes a B1 y B2 y unimos con una recta las medias de cada nivel (una recta representa a A1 y la otra a A2). Por razones de claridad slo ponemos dos niveles en cada factor; naturalmente podran ser ms. Si hubiera tres valores de A (tres niveles), tendramos tres rectas. Si tuviramos adems tres niveles de B las rectas correspondientes a los niveles de A seran probablemente quebradas. En cualquier caso estos grficos aaden claridad informativa y ayudan a la interpretacin, sobre todo cuando la interaccin es significativa. En cada extremo de las lneas que representan los dos niveles de A podramos poner sus medias exactas, pero suele ser suficiente situar los valores en el eje vertical. Tambin se puede prescindir de los nmeros, que se supone que adems figuran en otro lugar. En estos ejemplos vemos:

Anlisis de varianza con dos criterios de clasificacin (diseos factoriales)

27

8 7 6 5 4 3 2 1

A1 con tarea individual

A2 sin tarea individual

B1
media hora

B2
una hora

Figura 1
Figura 1. Claramente el mtodo A1 es superior al mtodo A2, cualquiera que sea la duracin (factor B). Cuando las lneas son paralelas (o casi paralelas) es claro que la interaccin no es significativa. Va a ser significativa la razn F correspondiente al factor A (A1 es claramente mayor que A2). En cambio la razn F correspondiente al factor B no es estadsticamente significativo; B1 y B2 no difieren entre s; sus medias van a ser muy parecidas.
8 7 6 5 4 3 2 1

A1 con tarea individual

A2 sin tarea individual

B1
media hora

B2
una hora

Figura 2
Figura 2. En este caso tendramos que apenas hay diferencia entre los mtodos (factor A), pero s las hay en el factor B, duracin de la actividad. B2 es superior a B1 independientemente de la actividad: una hora produce mejores resultados que media hora.

8 7 6 5 4 3 2 1

A1 con tarea individual

A2 sin tarea individual

B1
media hora

B2
una hora

Figura 3
Figura 3. Los dos mtodos son parecidos en B1, pero con una mayor duracin (B2) uno de los mtodos, A1, es claramente superior. Aqu la interaccin es significativa: hay una
Anlisis de varianza con dos criterios de clasificacin (diseos factoriales)

28

combinacin AxB (A1B2) claramente superior a las otras (A1 > A2 en B2). Cuando las lneas no son, ms o menos, paralelas, la interaccin est presente (poco o mucho).

8 7 6 5 4 3 2 1

A1 con tarea individual

A2 sin tarea individual

B1
media hora

B2
una hora

Figura 4
Figura 4. Las rectas no solamente no son paralelas, sino que se cruzan: un mtodo es mejor con una duracin (A1 en B2) y el otro con la otra duracin (A2 en B1). La interaccin va ser significativa e importante; la eficacia de los niveles un factor (A, los dos mtodos) est en funcin de los niveles del otro (B). En un ejemplo como el sugerido por esta figura, la interaccin sera la nica fuente de varianza importante.

En general cuando la interaccin es significativa tienen menor inters (o muy poco inters) los factores tomados aisladamente aunque sus valores de F sean significativos. La eficacia de un nivel de un factor (el que un mtodo sea mejor que otro en este caso) est mediatizada por su relacin con el otro factor. Cuando demostramos que la interaccin es significativa (y adems grande) es aqu donde tenemos que centrar la interpretacin. Por ejemplo en la situacin hipottica de la figura 3. Vamos a suponer que la razn F correspondiente a los mtodos (A) es significativa y concluimos que A1 es mejor que A2 esa conclusin no tiene mayor inters y adems puede inducir a error si no tenemos en cuenta y dejamos claro en la interpretacin que A1 es preferible a A2 solamente en la condicin B2 Como ya hemos advertido antes, aunque todo esto podemos interpretarlo a partir de los nmeros (valores de F, de 2, inspeccin de las medias, etc.), estos grficos contribuyen a una mejor comprensin y comunicacin de los resultados obtenidos.
5. Anlisis de varianza para diseos factoriales en EXCEL y SPSS EXCEL. Este modelo de anlisis de varianza lo tenemos en Herramientas - Anlisis de datos Anlisis de Varianza de dos factores con varias muestras por grupo.

Los datos se disponen en EXCEL como en una tabla nxn convencional, poniendo tambin los nombres o rtulos de filas y columnas. Se seala la tabla completa, incluidos los rtulos de filas y columnas. En el cuadro de dilogo en nmero de filas por muestra se pone el nmero de sujetos en cada subgrupo o clasificacin. El resultado son los datos descriptivos de las muestras y la tabla de resultados convencional, sin contrastes posteriores ni otros clculos complementarios.
SPSS. Este modelo de anlisis de varianza lo tenemos en Analizar, Modelo lineal general, Univariante. Hay que indicar al programa qu variable va actuar como dependiente y en factores fijos se integran las dos variables independientes que queremos estudiar.

Anlisis de varianza con dos criterios de clasificacin (diseos factoriales)

29

Este anlisis de varianza es complejo y conviene consultar manuales especficos (puede verse Pardo Merino y Ruz Daz, 2005). No presenta la tabla de resultados convencional por lo que, si interesa presentar esta tabla, se puede hacer fcilmente con EXCEL. El SPSS calcula los contrastes posteriores y los coeficientes eta cuadrado de cada efecto.
6. Referencias bibliogrficas

CORTINA, JOSE M. and NOURI, HOSSSEIN (2000). Effect Size for ANOVA Designs. Quantitative Applications in the Social Sciences. Thousand Oaks: Sage. ESCOTET, MIGUEL A., (1980). Diseo multivariado en psicologa y educacin. Barcelona: Ceac. GLASS, GENE V. y STANLEY, JULIAN C., (1974). Mtodos Estadsticos Aplicados a las Ciencias Sociales. Madrid, Prentice-Hall Internacional. GUILFORD, J. P. y FRUCHTER, B., (1984). Estadstica aplicada a la psicologa y la educacin, Mxico: McGraw-Hill. [En Ingls: Fundamental Statistics in Psychology and Education, 1973. New York: McGraw-Hill]. JACCARD, JAMES (1998). Interaction Effecs in Factorial Analysis of Variance, Sage University Paper Series on Quantitative Applications in the Social Sciences. Thousand Oaks: Sage. KIRK, ROGER E., (1995). Experimental Design, Procedures for the Behavioral Sciences. Boston: Brooks/Cole. LINTON, MARIGOLD, GALLO JR., PHILLIP S. and LOGAN, CHERYL A., (1975). The Practical Statistician, Simplified Handbook of Statistics. Monterey: Brooks/Cole. OSHIMA, T. C. and MCCARTY, FRANCES (2000). How Should We Teach Follow-Up Tests After Significant Interaction in Factorial Analysis of Variance? Paper presented at American Educational Research Association, New Orleans, April 2000 http://www2.gsu.edu/~epstco/aeraMain.pdf (consultado 22, Nov., 2009). TEJEDOR, FRANCISCO JAVIER, (1984). Anlisis de varianza aplicada a la investigacin en pedagoga y psicologa. Madrid: Anaya PARDO MERINO, A. y RUZ DAZ, M.A. (2005). Anlisis de datos con SPSS 13 Base. Madrid: McGraw Hill TOOTHAKER, LARRY E., (1993). Multiple Comparison Procedures, Sage University Paper Series on Quantitative Applications in the Social Sciences. Newbury Park: Sage.
Anexo. Anlisis de Varianza (diseos factoriales) en Internet

Adems de programas de ordenador como el SPSS y hojas de clculo como EXCEL disponemos de programas en Internet. LOWRY, RICHARD, VASSARSTATS: Web Site for Statistical Computation,Vassar College, Poughkeepsie, NY, USA; http://faculty.vassar.edu/lowry/VassarStats.html En el menu de la izquierda en ANOVA: Two-Way Analysis of Variance for Independent Samples. Se trata del anlisis de varianza con dos criterios de clasificacin cada uno dividido entre dos y cuatro niveles. Se pueden introducir los datos o se pueden copiar de una tabla. Tambin calcula el test de Tukey para los contrastes posteriores. En la misma direccin tambin estn programadas algunas variantes de este anlisis factorial, como 2x2x2 ANOVA for Independent Samples (tres criterios de clasificacin con dos niveles cada uno) y otros.

Anlisis de varianza con dos criterios de clasificacin (diseos factoriales)

30

VADUM RANKIN Statistical Applets 2X2 Analysis of Variance for the statistical tests for a 2x2 factorial design. http://www.assumption.edu/users/avadum/applets/applets.html ; basta introducir la media, desviacin tpica (de la poblacin, dividiendo por n-1) y nmero de sujetos de los cuatro grupos. Estas direcciones se pueden encontrar en JOHN C. PEZZULLO'S HOME PAGE, http://statpages.org/JCPhome.html (en Interactive Statistics Pages).

Anlisis de varianza con dos criterios de clasificacin (diseos factoriales)

Anlisis de varianza para varias muestras independientes


Pedro Morales Vallejo Universidad Pontificia Comillas, Madrid, Facultad de Ciencias Humanas y Sociales (ltima revisin 2 de Junio de 2011).

ndice 1. Introduccin............................................................................................................... 2. Cundo podemos utilizar la t de Student para comparar grupos de dos en dos ........ 2.1. Modificando los niveles de confianza: los contrastes de Bonferroni ................. 2.2. Condiciones para utilizar la t de Student cuando tenemos ms de dos muestras 3. Anlisis de varianza................................................................................................... 3.1. Fases del proceso ................................................................................................ 3.2. Procedimiento utilizando desviaciones tpicas; justificacin .............................

3 3 3 4 4 4 5

3.2.1. Procedimiento utilizando desviaciones tpicas de las muestras (n) ........ 5 3.2.2. Procedimiento utilizando desviaciones tpicas de la poblacin (n-1)...... 10 3.2.3. Procedimiento alternativo de anlisis de varianza para varias muestras independientes a) de idntico tamao y b) utilizando las desviaciones de la poblacin (n-1)................................................................................. 13 4. Clculos posteriores................................................................................................... 14 4.1. Contrastes posteriores entre las medias .............................................................. 14 4.1.1. Contraste de Scheff................................................................................... a) Valoracin general.................................................................................. b) Procedimiento ......................................................................................... 1) Para contrastar las medias de dos muestras...................................... 2) Utilizando un nivel de confianza ms liberal ( = .10) ..................... 3) Contrastes combinando medias de grupos......................................... 4.1.2. Contraste de Tukey para muestras de idntico tamao (o muy parecido) . a) Valoracin general ............................................................................... b) Procedimiento ....................................................................................... 1 La diferencia honestamente significativa (DHS Honestly Significant Difference).............................................. 2 Cuando el nmero de sujetos es ligeramente desigual .................... 4.1.3. Contraste de Tukey-Kramer para muestras de distinto tamao y varianzas iguales ...................................................................................... 4.1.4. Contraste de Games y Howell (GH) para muestras de distinto tamao y varianzas desiguales................................................................................. 4.1.5. Contraste de Newman-Keuls...................................................................... 4.1.6. Contraste Least Significant Difference (LSD) de Fisher............................ 4.1.7. Contraste de Dunnett.................................................................................. 4.1.8. Contrastes ortogonales ............................................................................... 4.1.9. Valoracin de los diferentes contrastes...................................................... 16 16 18 18 19 19 20 20 20 20 21 22 24 25 25 26 26 26

4.2. Relevancia prctica de los resultados: proporcin de varianza relacionada con la variable-criterio de clasificacin y tamao del efecto.............................. 28 4.2.1. Proporcin de varianza relacionada con la variable-criterio de clasificacin .................................................... 4.2.1.1. El coeficiente 2 ............................................................................. 1. Cuando los grupos son de idntico tamao................................. 2. Cuando los grupos son de distinto tamao.................................. 4.2.1.2. El coeficiente 2 ............................................................................ 4.2.1.3. Valoracin de estos coeficientes .................................................... 28 28 29 29 30 31

4.2.2. El tamao del efecto.................................................................................. 32 4.2.2.1. El tamao del efecto en la diferencia entre dos medias ................. 32 4.2.2.2. El tamao del efecto como apreciacin global de la magnitud de las diferencias entre todas las medias ......................................... 33 5. Anlisis de varianza cuando solamente conocemos los valores de las medias y de las desviaciones tpicas ...................................................................................... 34 5.1. Cuando el nmero de sujetos es distinto en cada grupo...................................... 34 5.2. Cuando el nmero de sujetos es el mismo en cada grupo................................... 36 6. Anlisis de varianza para dos muestras independientes ............................................ 37 6.1. Utilizando las desviaciones de las muestras........................................................ 37 6.2. Utilizando las desviaciones de las poblaciones................................................... 38 7. Cmo presentar los resultados del anlisis de varianza............................................. 39 8. El Anlisis de Varianza en programas informticos y en Internet ............................ 42 8.1. Anlisis de varianza para muestras independientes en EXCEL y en el SPSS.... 42 8.2. Recursos en Internet relacionados con el Anlisis de Varianza ......................... 42 8.2.1. Test de Bartlett para comprobar la homogeneidad de varianzas .............. 43 8.2.2. Tablas de la F de Snedecor, Tukey, Dunnett y Bonferroni ...................... 43 8.2.3. Probabilidades exactas de la razn F en Internet...................................... 44 8.2.4. Cmo llevar a cabo un Anlisis de Varianza en Internet ......................... 44 8.2.4.1. A partir del nmero de sujetos, medias y desviaciones de las muestras ............................................................................ 44 8.2.4.2. Introduciendo los datos de todos los sujetos ................................ 45 8.2.4.3. Contrastes posteriores .................................................................. 45 10. Referencias bibliogrficas ........................................................................................ 46

Anlisis de varianza para muestras independientes

1. Introduccin: cundo debemos utilizar el anlisis de varianza. El anlisis de varianza para muestras independientes es el modelo de anlisis de varianza ms frecuente: un factor o criterio de clasificacin, dividido en dos o ms niveles;; tambin se denomina anlisis de varianza unifactorial1. Repetimos brevemente lo ya dicho en la introduccin. El anlisis de varianza se utiliza cuando tenemos en el mismo planteamiento ms de dos muestras independientes (de sujetos fsicamente distintos en cada muestra). Tambin se puede utilizar cuando solamente tenemos dos muestras como alternativa a la t de Student (de hecho en este caso t2 = F), aunque la prctica habitual en este caso es utilizar directamente el contraste de medias (t de Student). Ms adelante (apartado 7) presentamos un ejemplo metodolgico del anlisis de varianza aplicado a dos muestras como mtodo alternativo al contraste de medias. Ya hemos indicado la razn principal para utilizar el anlisis de varianza en vez de la t de Student cuando tenemos ms de dos grupos en el mismo planteamiento general: aumentan mucho las probabilidades de no aceptar (rechazar) la Hiptesis Nula de no diferencia cuando es verdadera (lo que denominamos error tipo I; explicado con ms detalle en el anexo I). Dicho de otra manera: cuando tenemos ms de dos muestras y las contrastamos entre s con la t de Student, tenemos el riesgo de aceptar la diferencia (no aceptamos la Hiptesis Nula) cuando realmente se trata de una diferencia normal o, lo que es lo mismo, la probabilidad de encontrar esa diferencia es mayor de lo que especificamos en nuestro nivel de confianza2. 2. Cundo podemos utilizar la t de Student cuando disponemos de ms de dos grupos. Aun as cuando comparamos ms de dos grupos podemos utilizar la t de Student en dos situaciones que exponemos a continuacin: a) siendo ms estrictos al determinar la probabilidad mnima de error para aceptar una diferencia y b) manteniendo el nivel de probabilidad habitual pero cumpliendo las tres condiciones que veremos enseguida. 2.1. Modificando los niveles de confianza: los contrastes de de Bonferroni Podemos utilizar unos niveles de confianza ms estrictos; no es sta la prctica ms comn, pero de hecho hay al menos un procedimiento, el test de Bonferroni (o de DunnBonferroni) en el que se utiliza la t de Student convencional pero con unos niveles de confianza ms exigentes en funcin del nmero de contrastes que se van a hacer.3 Cuando se utiliza el test de Bonferroni se utiliza la probabilidad (p) que expresa nuestro nivel de confianza dividida por el nmero de comparaciones previstas, as si nuestro nivel de confianza es .05 y tenemos tres comparaciones previstas utilizaremos como nivel de confianza .05/3 = .0167; en este caso .0167 equivale un nivel de confianza de .05. Tambin si conocemos la probabilidad exacta (p) podemos multiplicarla por el nmero de contrastes para ver si llega a .05 (as si tenemos tres contrastes y p = .0167 tendremos p = (.0167)(3) = .05).

1 En ingls tambin suele denominarse one-way-ANOVA; expresin que a veces se ve traducida al espaol como anlisis de varianza de una va (en espaol es muy frecuente el uso de anglicismos en la terminologa estadstica). En EXCEL se denomina anlisis de varianza de un factor. 2Esta mayor probabilidad de error al aceptar la diferencia entre dos muestras cuando tenemos en el mismo planteamiento ms de dos muestras y consiguientemente ms de dos contrastes entre medias, suele denominarse error de familia (family error en ingls); la familia es en este caso el conjunto de contrastes posibles entre medias. 3 Los contrastes de Bonferroni estn ms explicados en el anexo II (Carlo Emilio Bonferroni elabor su teora sobre la probabilidad en 1936).

Anlisis de varianza para muestras independientes

La crtica hecha a este contraste es que es muy conservador; tiene poca potencia para rechazar la Hiptesis Nula cuando realmente es falsa (Hancock y Klockars, 1996; Jaccard, 1998, Perneger, 1998) (diramos que da muchos falsos negativos) y en definitiva la interpretacin de un resultado depende de que el anlisis se haga en solitario o junto con otros anlisis4. 2.2. Condiciones para utilizar la t de Student cuando tenemos ms de dos muestras Cuando tenemos ms de dos grupos podemos utilizar la t de Student para comparar grupos de dos en dos si se dan todas estas condiciones: 1. Cuando antes de recoger los datos tenemos hiptesis explcitas acerca de la diferencia entre dos grupos en particular. No podemos comparar todo con todo, pero s podemos utilizar el contraste de medias normal de la t de Student cuando tenemos alguna hiptesis a priori, formulada y justificada de manera explcita. Esta posibilidad (una hiptesis sobre la diferencia entre dos grupos en particular cuando tenemos ms de dos grupos) no es lo habitual, pero tampoco hay que excluirlo rutinariamente. 2. Cuando no vamos a combinar medias de varios grupos en una sola media para comparar esta nueva media con otras medias. Para este tipo de comparaciones (uniendo subgrupos) tenemos los contrastes de Scheff, posteriores al anlisis de varianza, que veremos ms adelante. 3. Cuando no vamos a hacer todas las comparaciones posibles, ya que, suponiendo que se cumplen las dos condiciones anteriores, el nmero de comparaciones que podemos hacer con la t de Student cuando hay ms de dos grupos es limitado: no puede ser superior a los grados de libertad, es decir, no puede ser superior al nmero de grupos menos uno. Por ejemplo, con tres grupos (A, B y C) se podran hacer tres comparaciones (entre A y B, entre A y C y entre B y C) pero slo podemos hacer dos con la t de Student, con cuatro grupos podemos hacer tres comparaciones, etc., si adems se cumplen las dos condiciones anteriores. 3. Anlisis de varianza: 3.1. Fases del proceso Al explicar el procedimiento seguiremos el proceso que es til tener claro desde el comienzo y que, ms o menos, seguiremos en la presentacin de otros modelos de anlisis de varianza, porque responde a los pasos lgicos que debemos seguir: 1 Explicacin del procedimiento con un ejemplo resuelto paso a paso. Aadiremos una serie de aclaraciones metodolgicas que nos pueden ayudar a entender mejor lo que realmente estamos haciendo. 2 Con el anlisis de varianza propiamente dicho (razn F) no termina nuestro anlisis. Dos tipos de clculos posteriores completan el proceso: a) Contrastes posteriores, para poder comparar las medias de dos en dos en el caso de que la razn F sea estadsticamente significativa.
4 Una crtica bien razonada a los ajustes de Bonferroni puede verse en Perneger (1998): this paper advances the view, widely held by epidemiologists, that Bonferroni adjustments are, at best, unnecessary and, at worst, deleterious to sound statistical inference... The main weakness is that the interpretation of a finding depends on the number of other tests performed The likelihood of type II errors is also increased, so that truly important differences are deemed nonsignificant... Bonferroni adjustments imply that a given comparison will be interpreted differently according to how many other tests were performed.

Anlisis de varianza para muestras independientes

b) Diversos coeficientes de asociacin que nos ayudan a aclarar la importancia de los resultados, y el tamao del efecto (semejante al que ya conocemos y aplicamos en el contraste de dos medias). 3 Otras variantes metodolgicas para hacer este mismo anlisis de varianza (que o simplifican el proceso, o son tiles en determinadas circunstancias). 4 Sugerencias sobre cmo presentar los resultados. Vamos a presentar dos procedimientos muy semejantes; uno que se basa en el clculo de desviaciones tpicas (o varianzas) de la muestra (dividiendo por N) y otro utilizando las desviaciones tpicas o varianzas de la poblacin (dividiendo por N-1). 3.2. Procedimiento utilizando desviaciones tpicas; justificacin Los procedimientos que vamos a exponer en primer lugar suponen el uso de calculadoras con programacin estadstica, sobre todo para calcular medias y desviaciones tpicas; con esos datos ya hemos visto que los procedimientos son fciles y rpidos, sobre todo si se trata de muestras pequeas. Aunque disponemos de programas informticos y de Internet (comentados en otros apartados) el proceso explicado en primer lugar calculando medias y desviaciones tpicas con una simple calculadora, son tiles por estas razones. a) Para llegar a una comprensin ms cabal de lo que estamos haciendo, sobre todo en procesos de aprendizaje. Hay interpretaciones que no se pueden hacer correctamente sin entender bien el proceso que se capta mejor siguindolo paso a paso que explicando los resultados que encontramos ya hechos en cualquier programa disponible. Hay que insistir que este mtodo puede ser muy apropiado (al menos es una buena alternativa didctica) cuando se trata de entender y aprender; en otro momento lo normal ser utilizar programas informticos. b) Cuando de diversas muestras ya disponemos del tamao de cada muestra y de las medias y las desviaciones tpicas (o es informacin que vemos publicada); para estos casos tenemos tambin los programas de Internet que veremos en otro apartado, pero vamos a ver que si llega el caso se pueden hacer con toda facilidad con una simple calculadora. c) Cuando en cualquier caso se trata de muestras pequeas y no resulta especialmente laborioso el clculo de medias y desviaciones con una simple calculadora. 3.2.1. Procedimiento utilizando desviaciones tpicas de las muestras (n) En todos los modelos de anlisis de varianza hay que calcular varianzas parciales (porque descomponemos la varianza total). En el clculo de estas varianzas, el denominador no tiene ninguna dificultad (los grados de libertad), pero el numerador de las varianzas, la suma de cuadrados, s resulta mucho ms laborioso. Cuando no se utiliza directamente un programa de ordenador, lo ms cmodo es seguir el procedimiento que utilizamos aqu para calcular las sumas de cuadrados y que no es el tradicional que es normal ver en los libros de texto5.
5 Adaptamos y simplificamos aqu el procedimiento propuesto por Gordon (1973). Siguiendo la misma intuicin para el clculo de las sumas de cuadrados (suma de cuadrados o numerador de la varianza = N2) hemos diseado procedimientos anlogos para otros modelos de anlisis de varianza que simplifican notablemente los clculos si, como hemos indicado, se dispone de una simple calculadora con programacin estadstica para calcular medias y desviaciones

Anlisis de varianza para muestras independientes

Aunque dispongamos de programas de ordenador y hojas de clculo (EXCEL, SPSS), este procedimiento, sobre todo en procesos de aprendizaje: 1) Facilita la comprensin del anlisis de varianza, se visualiza mejor cmo se descompone la varianza total y se evitan automatismos que no suponen comprender lo que se est haciendo, 2) Es muy til cuando de hecho no disponemos de los datos de cada sujeto y solamente tenemos las medias, desviaciones tpicas y nmero de sujetos de cada grupo. Esta situacin es frecuente; son datos que podemos encontrar publicados o que podemos tener ya anotados. Los programas de ordenador (como el SPSS o EXCEL) no suelen tener previsto cmo llevar a cabo un anlisis de varianza a partir solamente de estos datos (N, media y de cada grupo), aunque s es posible hacerlo en programas disponibles en Internet (mencionamos algunos en el apartado 9). Para entender el procedimiento hay que recordar en primer lugar la frmula de la varianza (de la muestra): 2 =

(X - M)2 N

[1]

donde podemos despejar la suma de cuadrados: (X- M)2 = N2 Es decir, la suma de cuadrados es igual a la varianza multiplicada por el nmero de sujetos. Se trata de la varianza de la muestra (dividiendo por N y no por N-1). En cada planteamiento del anlisis de varianza hay qu saber qu varianza hay que calcular y multiplicar luego por el nmero de sujetos para obtener las sumas de cuadrados. Esto es lo que iremos viendo en los diversos ejemplos al ir proponiendo los distintos modelos de anlisis de varianza. Al dividir estas sumas de cuadrados por los grados de libertad obtendremos los cuadrados medios o varianzas parciales que van resultando al descomponer la varianza total. Si utilizamos este sencillo y rpido procedimiento, habr que calcular en primer lugar (clculos previos) una serie de desviaciones tpicas (que irn variando en los distintos modelos de anlisis de varianza). El procedimiento lo presentamos con un ejemplo (tabla 1)6. Tenemos tres grupos (tres muestras independientes, de sujetos distintos); En la terminologa del anlisis de varianza cada grupo es un nivel. Cada grupo puede representar una edad distinta, o haber seguido un mtodo de aprendizaje distinto, o tener una procedencia distinta, etc. (es la variable independiente) La variable dependiente, en la que hemos medido a cada sujeto y cuyos datos hemos tabulado, puede ser un examen de conocimientos, una escala de actitudes, etc.

tpicas. Huck y Malgady (1978) exponen un procedimiento similar para el anlisis de varianza de los diseos factoriales. Las ventajas de estos procedimientos es que permiten resolver el anlisis de varianza sin ms informacin de cada grupo que el nmero de sujetos, la media y la desviacin, sin necesidad de disponer de todas las puntuaciones individuales. Tambin, con slo estos datos (a veces los nicos disponibles), disponemos de programas de Internet para resolver el anlisis de varianza. 6 El ejemplo propuesto aqu est tomado de Downie y Heath (1981); slo tomamos los datos (se puede comprobar que los resultados son los mismos que con el procedimiento tradicional); el procedimiento que seguimos es el que acabamos de proponer simplificando el clculo de las sumas de cuadrados.

Anlisis de varianza para muestras independientes

Grupo 1 12 18 16 8 6 12 10 n1 = 7 M1 = 11.714 1 = 3.917

Grupo 2 18 17 16 18 12 17 10 n2 = 7 M2 = 15.428 2 = 2.92

Grupo 3 6 4 14 4 6 12 14 n3 = 7 M3 = 8.571 3 = 4.237

clculos previos 1 Calculamos la media y desviacin tpica de cada uno de los tres grupos;

2 Calculamos la desviacin tpica de los totales, de n1+ n2 + n3 = 21, t = 4.669 3 Calculamos la desviacin tpica de las tres medias (como si se tratara de un grupo de tres sujetos), = 2.802.

Tabla 1

Una observacin prctica importante que ya hemos hecho anteriormente y que conviene recordar ahora (y lo recordaremos en otras ocasiones). En la tabla 1 tenemos las puntuaciones de todos los sujetos y por eso podemos calcular con facilidad la media y varianza del total de sujetos (N = 21 en este ejemplo), pero no siempre disponemos de los datos de todos los sujetos, o son demasiados sujetos y resulta incmodo calcular la varianza total con una simple calculadora. A veces de cada grupo slo conocemos los valores de N, la media y la desviacin tpica (que podemos ver, por ejemplo, publicados en un trabajo de investigacin, o son datos que hemos ido conservando). A partir de estos datos podemos calcular rpidamente tanto la media (que es la media ponderada de los diversos grupos) como la desviacin tpica de todos los datos, que nos van a hacer falta para hacer un anlisis de varianza7.

Antes de hacer las operaciones es conveniente preparar la tabla de resultados (que ponemos ms adelante, tabla 2) para ir colocando los resultados que vayamos obteniendo en su lugar correspondiente y proceder con orden. Vamos a calcular tres varianzas: 1 La varianza del total de los datos y es esta varianza la que vamos a descomponer en otras dos, que son las dos siguientes; 2 La varianza que expresa la variabilidad entre los grupos; 3 La varianza que expresa la variabilidad dentro de los grupos. En rigor, y para llevar a cabo todas las operaciones del anlisis de varianza, no necesitamos calcular la varianza de todos los datos, pero es preferible hacerlo para poder verificar que la suma de las sumas de cuadrados entre y dentro de los grupos es igual a la suma de cuadrados de los totales. Para cada varianza calculamos el numerador (suma de cuadrados) y el denominador (grados de libertad): Suma.de.cuadrados Varianza = Grados.de.libertad

Indicamos el procedimiento para muestras de idntico y de distinto tamao. Cuando se trata de muestras de idntico tamao el procedimiento es algo ms sencillo; tambin en este caso se puede utilizar el procedimiento que indicamos para muestras de distinto tamao, y as lo haremos como ejemplo.
7 Las frmula de la desviacin tpica de los totales calculada a partir de las medias y desviaciones de cada grupo est puesta ms adelante (frmula [32]); estas frmulas, muy tiles ocasionalmente, estn explicadas en el anexo III.

Anlisis de varianza para muestras independientes

Suma de Cuadrados (numerados de la varianza): 1. del total:


N t = (21)(4.669)2 =
2

457.79

Multiplicamos la varianza de los totales por el nmero total de sujetos. Ya hemos indicado que si no tenemos la varianza de los totales o no disponemos de las puntuaciones de cada sujeto, podemos calcularla a partir de los datos (N, desviacin y media) de cada muestra (anexo III). 2. Dentro de los grupos: a) Si los grupos son de idntico tamao: n2 = (7)[(3.917)2 +(2.92)2+(4.237)2] = 292.75

b) Si los grupos son de distinto tamao ( y tambin si son iguales), la frmula es: n2 = [7 x (3.917)2 ] + [7 x (2.92)2+ [7 x (4.237)2] = 292.75 3. Entre los grupos: a) si los grupos son de idntico tamao: N 2 = (21)(2.802)2 = M (multiplicamos la varianza de las medias por el nmero total de sujetos) b) si los grupos son de distinto tamao: n(M - Mt)2 164.87

En este caso necesitamos calcular el valor de la media total (Mt); en este ejemplo, como los grupos constan del mismo nmero de sujetos, la media total es igual a la media de las medias = 11.904, y la suma de cuadrados entre los grupos ser: [7 x (11.714 - 11.904)2]+ [7 x (15.428 - 11.904)2]+ [7 x (8.571 - 11.904)2]= 164.94 La pequea diferencia con respecto al resultado anterior se debe al uso de ms o menos decimales y no afecta a los resultados finales del anlisis de varianza. Grados de libertad (denominador de la varianza)
del total: entre los grupos: dentro de los grupos:

N - 1 (N = todos los sujetos de todos los grupos) 21- 1 = 20 k - 1 (k = nmero de grupos) 3 -1 = 2 N - k (N menos nmero de grupos o (n-1) 21 -3 = 18

Los resultados del anlisis de varianza se presentan en una tabla semejante a la tabla 2; es la tabla clsica para presentar los resultados del anlisis de varianza.
Origen de la variacin

Suma de Cuadrados (SC)


(numerador de la varianza)

Grados de libertad (gl)


(denominador de la varianza)

Cuadrados Medios CM =
SC gl

F=
CM entre CM dentro

(varianza)

SCentre =164.87 2 CMentre= Diferencias entre los 82.435 grupos Diferencias entre los 18 CMdentro= SCdentro = sujetos dentro de los 292.75 16.26 grupos SCtotal = 457.79 20 Variabilidad total Tabla 2: Tabla de resultados del anlisis de varianza

5.069 (p < .05)

Anlisis de varianza para muestras independientes

La suma de cuadrados del total nos sirve para comprobar que no hay errores, pues debe ser igual a la suma de cuadrados entre los grupos ms la suma de cuadrados dentro de los grupos. En este caso 164.87 + 292.75 = 457.62. Las sumas no siempre cuadran porque solemos redondear decimales, pero la discrepancia debe ser pequea. En los grados de libertad el resultado debe ser exacto: 2+ 18 = 20 (= N-1). El valor de F que encontramos en las tablas para 2 grados de libertad de la varianza mayor (k-1) y 18 de la varianza menor (N - k) es de 3.55; si alcanzamos o superamos este valor, podemos afirmar que la diferencia entre ambas varianzas est por encima de lo puramente aleatorio, con una probabilidad de error inferior al 5% p< .05 (si hubiramos superado el valor de 6.01 la probabilidad de error hubiera sido inferior al 1%, p <.01)8. La variabilidad entre los grupos (entre las medias) es en este caso significativamente ms alta que la variabilidad dentro de los grupos; podemos por lo tanto concluir que entre las medias existen diferencias significativas: la variabilidad total se explica ms por las diferencias entre las medias (entre los grupos) que por las diferencias intra-grupales. Dicho de otra manera: afirmamos que dos grupos son distintos cuando sus medias difieren entre s ms que los sujetos entre s. Un resumen del procedimiento lo tenemos en la tabla 3 (para muestras de idntico tamao):
Origen de la variacin Numerador de la varianza o Suma de Cuadrados (SC)
Denominador de la varianza

(Grados de libertad) Nmero de grupos (k) menos uno k-1 Nmero total de sujetos menos nmero de grupos N-k Nmero total de sujetos menos uno N-1

Varianza o Cuadrados Medios (CM)

Entre los grupos (varianza parcial: expresa las diferencias entre los grupos) Dentro de los grupos (varianza parcial: expresa las diferencias entre los sujetos) Varianza total

N (nmero total de sujetos) por la varianza de las medias n (nmero de sujetos en cada grupo) por la suma de las varianzas de los grupos N (nmero total de sujetos) por la varianza total (de todos los sujetos)

N 2 medias

Suma de Cuadrados entre grados de libertad

CM entre CM dentro

2 n grupos

Suma de Cuadrados dentro grados de libertad

2 N de todos

Tabla 3

Las desviaciones son de la muestra (dividiendo por N) y suponemos muestras de idntico tamao. Cuando los grupos son de distinto tamao las Sumas de Cuadrados (numerador de la varianza) se calculan as:
Suma de Cuadrados entre los grupos: nMn Mt)2: en cada grupo: nmero de sujetos del grupo por (Media del grupo menos Media total)2

8 El valor exacto de la probabilidad asociada a cualquier valor de F puede verse fcilmente en varias direcciones de Internet puestas en al apartado n 9.

Anlisis de varianza para muestras independientes

10

Suma de Cuadrados dentro de los grupos:n2 : en cada grupo: nmero de sujetos del grupo por la varianza.

3.2.2. Procedimiento utilizando desviaciones tpicas de la poblacin (n-1) En el procedimiento, tal como lo hemos expuesto, hemos utilizado las desviaciones de las muestras. El ver las variantes si utilizamos las desviaciones o varianzas de la poblacin (dividiendo por N-1 la suma de cuadrados) nos pueden ayudar a comprender mejor lo que estamos haciendo, y resulta ms cmodo si lo que tenemos calculado de las distintas muestras son las desviaciones de la poblacin9. a) Varianza o cuadrados medios entre grupos Al menos de manera intuitiva podemos comprender que la diversidad entre los grupos algo tendr que ver con la desviacin tpica o la varianza de sus medias, tal como hemos hecho para calcular la suma de cuadrados entre los grupos. Multiplicamos esta varianza por N porque todos los sujetos intervienen en el clculo de la media. Podemos quizs verlo con ms claridad de esta manera: lo que calculamos no es la varianza de las medias, sino la varianza de toda la muestra pero asignando a cada sujeto la media de su grupo, como si no hubiera diferencias dentro de cada grupo (lo que sucede es que cuando los grupos son de idntico tamao nos basta calcular la desviacin tpica de las medias; como si en cada muestra n = 1). Simplemente estamos calculando la varianza total pero prescindiendo de la diversidad dentro de cada grupo (sta la tendremos en cuenta en la suma de cuadrados dentro de los grupos). Cuando los grupos son de idntico tamao, si calculamos directamente la varianza de las medias pero dividiendo por N-1 (varianza de la poblacin) y ponderamos esa varianza por el nmero de sujetos que hay en cada grupo, ya tenemos los cuadrados medios entre los grupos. En nuestro ejemplo (muestras de idntico tamao):
Varianza de las tres medias (dividiendo por N-1): Cuadrados Medios entre los grupos:

2 =3.4322 = 11.78 n-1 (n)( 2 ) = (7)(11.78) = 82.46 n-1

La variabilidad entre los grupos (representados por sus medias) est lgicamente relacionada con la varianza de las medias. La Suma de Cuadrados entre grupos es simplemente SC = (CM)(Grados de libertad); nos puede interesar para completar la tabla de resultados convencional y para calcular el coeficiente 2 que veremos despus. Si las muestras son de tamao distinto tendremos que calcular en primer lugar la media total (media de las medias ponderadas por el nmero de sujetos). En este caso (podemos hacerlo aunque las muestras sean de idntico tamao) la media total ser: Mediatotal =
( 7)(11.714) + ( 7)(15.428) + ( 7)(8.571) = 11.90 21

9 Adems en los programas de Internet para hacer el anlisis de varianza (reseados en el apartado 9) las desviaciones tpicas requeridas suelen ser las de la poblacin.

Anlisis de varianza para muestras independientes

11

La Suma de Cuadrados ser la que hubiramos obtenido si todos los sujetos de cada grupo tuvieran idntica puntuacin igual a la media de su grupo. En cada grupo por lo tanto calculamos la diferencia entre la media del grupo y la media total, la elevamos al cuadro y multiplicamos por el nmero de sujetos del grupo: sta es la contribucin de cada grupo a la suma de cuadrados total. La Suma de cuadrados entre grupos de tamao desigual ser por lo tanto SCentre = n(M-Mtotal) donde n es el nmero de sujetos de cada grupo. En nuestro ejemplo tendremos: SCentre = (7)(11.714-11.9)2 + (7)(15.428-11.9) 2 + (7)(8.571-11.9) 2 = 164.9 Los grados de libertad son los mismos, nmero de grupos menos uno.
b) Varianza o cuadrados medios dentro de los grupos

Por lo que respecta a la varianza dentro de los grupos, sta es simplemente (y obviamente) la combinacin (la media) de las varianzas de todos los grupos10. El que el denominador (grados de libertad) sea N - k tambin puede verse con facilidad: el denominador de cada varianza es n -1 (nmero de sujetos en cada grupo menos 1), luego el denominador de la combinacin de todas las varianzas ser el nmero total de sujetos (suma de todos los n) menos el nmero de grupos. Este procedimiento para calcular los cuadrados medios dentro de los grupos (o varianza dentro de los grupos) es fcil de ver: La varianza de un solo grupo, como expresin descriptiva de su diversidad, es:
2 = n
(X - M) 2 y ya hemos visto que la suma de cuadrados ser (X-M)2 = n2,. n

Esta expresin de la suma de cuadrados (o numerador de la varianza) n2 nos es muy til para facilitar los clculos, como ya hemos ido viendo. La varianza de la poblacin (el subndice n-1 expresa ahora que dividimos la suma de cuadrados por n 1 al calcular la desviacin tpica) estimada a partir de esta misma muestra ser por lo tanto:
2 = n-1

n 2 n n 1

[2]

Si combinamos las varianzas de dos grupos (1 y 2) sumando sus numeradores y denominadores tendremos que: n 2 + n 2 2 n.2 2 = 1 n.1 [3] (n-1)de 1+ 2 (n1 -1) + (n 2 -1) Y ampliando la frmula a un nmero indefinido de muestras tenemos los cuadrados medios o varianza dentro de los grupos (k = nmero de grupos):

10 Esta combinacin de varianzas o varianza comn es la misma que se utiliza en el contraste de medias para calcular el tamao del efecto propuesto por Cohen (1988); en este caso se trata de la desviacin tpica.

Anlisis de varianza para muestras independientes

12

n 2 n Si los grupos son del mismo tamao: CMdentro = k


n 2 n Si los grupos son de distinto tamao: CMdentro = N k

[4] [5]

Otra manera de expresar lo mismo es sta: la variabilidad total dentro de los grupos (cuadrados medios dentro) viene dada por la varianza media de los grupos, calculando estas varianzas dividiendo por N-1 (se trata de la estimacin de la varianza media de las poblaciones representadas por esas muestras). Cuando los grupos son de idntico tamao se ve muy fcilmente. Calculamos con los datos de nuestro ejemplo (tabla 1) las desviaciones tpicas de las poblaciones representadas por los tres grupos: Grupo 1
n-1 =

Grupo 2 3.1547
2

Grupo 3 4.5773
2

4.2341
2 n1

La varianza media ser = k

4.2341 + 3.1547 + 4.57732 = = 16.27 3

Tenemos el mismo resultado obtenido antes (cuadrados medios dentro de los grupos, tabla 2). Esto podemos hacerlo siempre que tengamos muestras independientes de idntico tamao. Si las muestras son de distinto tamao se trata de una media ponderada por el nmero de sujetos: para calcular esta varianza media habr que 1 multiplicar cada varianza por su n, y 2 dividir estos productos por N (no por k). Vamos a hacerlo con los mismos datos, ya que los procedimientos para muestras de distinto tamao son tambin vlidos cuando son del mismo tamao.
n 2 (7 x 4.23412 ) + (7x 3.1547 2 ) + (7x 4.57732 ) n1 Varianza media = = = 16.27 21 N

En definitiva, lo que hacemos con la razn F es bsicamente comparar la varianza de las medias (= variabilidad entre, multiplicada por el nmero de sujetos pues todos intervienen en la media) con la varianza media de los grupos (variabilidad dentro). En el caso ms sencillo de varias muestras independientes de idntico tamao (= n) podemos expresar as lo que hacemos: F=
diferencias o variabilidad entre las medias diferencias o diversidad de los sujetos dentro de sus grupos
(n)(varianza de las medias n -1 ) media de las varianzas de los grupos (= n 1 / k )
2 2

[6]

Esta ltima expresin clarifica el anlisis de varianza tanto conceptual como metodolgicamente y nos ofrece un procedimiento alternativo para llegar directamente a la razn F, que es lo que nos interesa. Ms adelante ofrecemos un ejemplo resuelto siguiendo literalmente esta frmula. En el numerador tenemos la varianza total prescindiendo de las diferencias dentro de cada grupo (como si todos los sujetos tuvieran una puntuacin igual a la

Anlisis de varianza para muestras independientes

13

media de su grupo), y en el denominador tenemos la varianza total pero prescindiendo de las diferencias entre las medias (entre los grupos). Habitualmente seguiremos el procedimiento explicado en primer lugar porque suponemos que calculamos las desviaciones tpicas (o varianzas) dividiendo por N, ya que es el dato descriptivo que solemos calcular rutinariamente o que con ms frecuencia encontramos ya publicado, y que adems nos permite completar con facilidad la tabla de resultados (con las sumas de cuadrados) que es habitual presentar cuando se lleva a cabo un anlisis de varianza.
3.2.3. Procedimiento alternativo de anlisis de varianza para varias muestras independientes a) de idntico tamao y b) utilizando las desviaciones de la poblacin (n-1)

Cuando tenemos varias muestras independientes y de idntico tamao, y disponemos de una calculadora con programacin estadstica, el anlisis de varianza puede quedar muy simplificado, yendo directamente al clculo de los cuadrados medios entre los grupos y dentro de los grupos y de la razn F. El procedimiento, utilizando las desviaciones de la poblacin (n-1) en vez de las desviaciones de las muestras (n), ya est comentado antes (apartado 3.2, frmula [6]), pero ahora lo exponemos con un ejemplo resuelto (tabla 4).
Grupo 1 12 18 16 8 6 12 10 11.714 3.917 4.231 Grupo 2 18 17 16 18 12 17 10 15.428 2.921 3.1547 Grupo 3 6 4 14 4 6 12 14 8.571 4.237 4.577
Desviacin tpica de las medias (dividiendo por N -1) Varianza de las medias

n=7

= A n-1

n 1

M n n-1
2 n 1

3.4324 11.7817 Estas desviaciones tpicas (dividiendo por N) son tiles como dato descriptivo
media de las varianzas (n-1)

17.904

9.952

20.952

2 n 1 = k

= B 16.267

Tabla 4 F= Cuadrados Medios entre grupos (n)(A) (7)(11.7817) 82.4719 = = = = 5.069 Cuadrados Medios dentro de los grupos B 16.267 16.267

Con una calculadora con programacin estadstica hacemos los clculos enmarcados en una doble lnea con toda facilidad. 1 Calculamos en cada grupo la media y las dos desviaciones tpicas; la desviacin tpica normal (de la muestra, dividiendo por N), como dato descriptivo til, y la desviacin tpica dividiendo por N -1 que elevamos al cuadrado directamente (nos interesan las varianzas), y que es lo que anotamos (no hay necesidad de anotar el valor de n-1 sin elevarlo al cuadrado).

Anlisis de varianza para muestras independientes

14

Si tenemos ya calculados los valores de n (y esto es normal que suceda) y no los de n-1, pasamos de unos a otros con facilidad [2] (el N es el de cada grupo, 7 en este ejemplo):

2 n 1

N 2 n
1

2 Calculamos A: introducimos las tres medias, calculamos su n- y lo elevamos al cuadrado. Este valor (varianza de las medias), multiplicado por el nmero de sujetos que hay en cada grupo (n), son los Cuadrados Medios entre los grupos. 3 Calculamos B: introducimos las varianzas de los grupos y calculamos su media; esta media de las varianzas (las que hemos calculado dividiendo por N -1) es el valor de los Cuadrados Medios dentro de los grupos. 4 Aplicamos la frmula de la razn F tal como la hemos puesto antes. Este mtodo tambin puede servir simplemente como comprobacin. Al presentar los resultados conviene poner una tabla donde aparezcan al menos los Cuadrados Medios, o varianzas, entre y dentro de los grupos. Si queremos presentar una tabla convencional, donde aparezcan tambin las Sumas de Cuadrados y los grados de libertad (con este sistema calculamos directamente los Cuadrados Medios), podemos calcular las Sumas de Cuadrados a partir de estos resultados (Suma de Cuadrados = Cuadrados Medios por grados de libertad).
4. Clculos posteriores 4.1. Contrastes posteriores entre las medias

Un valor de F significativo nos indica que hay diferencias entre las medias por encima de lo aleatorio, o que las diferencias entre las medias (entre los grupos) son mayores que las diferencias entre los sujetos dentro de los grupos, pero no nos dice entre qu medias est o estn las diferencias. Para comparar las muestras de dos en dos hay diversos mtodos. En estos casos no utilizamos la t de Student, comparando cada media con todas las dems. Si lo hacemos podemos encontrarnos con valores de t significativos, al nivel de confianza que utilicemos, que sin embargo pueden ser casuales; al hacer varias comparaciones de dos en dos aumenta la probabilidad de error. Cuando en el mismo planteamiento tenemos ms de dos medias, se utilizan otros tipos de contrastes ms rigurosos y apropiados. Estas comparaciones posteriores no se hacen si el valor de F no es significativo.
A pesar de lo que acabamos decir, y como ya indicamos antes, se puede utilizar la t de Student convencional para comparar dos medias en el caso de que tengamos hiptesis previas y justificadas acerca de alguna determinada diferencia entre dos medias. Esto sin embargo no suele ser lo frecuente cuando planteamos un anlisis de varianza en el que simultneamente analizamos ms de dos muestras.

Sobre estos contrastes debemos tener en cuenta inicialmente: a) Que existen bastantes procedimientos para hacer estas comparaciones posteriores11 y que no todos son igualmente vlidos, aconsejables o convenientes en todos los casos. b) Que es frecuente que los programas de ordenador (como el SPSS) nos calculen varios de estos contrastes hechos segn distintos mtodos, pero el hecho de que los d rutinariamente un programa de ordenador no quiere decir que d lo mismo uno que otro.

11 Segn Kirk (1995) actualmente se utilizan ms de 30 contrastes; este mismo autor describe 22 procedimientos.

Anlisis de varianza para muestras independientes

15

c) Consecuentemente para valorar estos contrastes y escoger el ms apropiado es conveniente examinar las peculiaridades de cada uno; aqu expondremos algunos de los ms utilizados12. Puede llamar la atencin el hecho de que haya muchos tipos de contrastes posteriores, pero tiene su explicacin. Con estos contrastes se busca controlar y minimizar el error Tipo I (el que se comete al rechazar13 la Hiptesis Nula de no diferencia cuando es verdadera y habra que haber aceptado la no diferencia), y hay diversos mtodos porque se parte de diversos presupuestos sobre el nmero y tipos de comparaciones que se van a hacer como se ir indicando en cada caso: a) Algn procedimiento (como el de Scheff) supone que se pueden hacer mltiples comparaciones, todas las posibles, incluso combinando medias entre s, lo que da lugar a un mayor nmero de contrastes posibles. b) Con otros procedimientos (como el de Tukey) se supone que slo se van a comparar las medias de dos en dos (y sin combinar medias entre s). c) Otros procedimientos (como el de Dunnett) suponen un nmero de comparaciones todava ms limitado, como la de varios grupos experimentales con uno solo grupo de control, pero no el contraste de los grupos experimentales entre s. Aqu nos limitamos a exponer algunos de los ms tiles y frecuentes; puede ser suficiente atenerse a estos mtodos; cada uno tiene sus peculiaridades y utilidad especfica14. Los contrastes que exponemos son los siguientes: 1. El contraste de Scheff. Cuando las muestras son de tamao desigual o cuando no hay ningn tipo de hiptesis previa y se exploran diferencias por curiosidad, lo ms seguro es atenerse al contraste de Scheff. 2. El contraste de Tukey. Cuando las muestras son de idntico tamao (o casi iguales como veremos), el contraste de Tukey tambin es til, sencillo y muy utilizado (y en este caso, muestras de idntico tamao, es preferible al contraste de Scheff). Estos dos contrastes (Scheff y Tukey) son probablemente los que con ms frecuencia se encuentran en los libros de texto. Aqu los tratamos con mayor amplitud y con ejemplos resueltos, aunque antes de decidirse por un contraste en particular conviene repasar la informacin disponible sobre otros contrastes. 3. Algunos contrastes que son variantes de Tukey en situaciones especficas como son Tukey-Kramer (para muestras de tamao distinto), Games-Howell (para muestras de tamao distinto y varianzas desiguales) y Newman-Keuls (para muestras iguales y ms liberal que el contraste original de Tukey). Estos contrastes tienen otra tabla de probabilidades (distribucin de q o rango estudentizado). 4. El contraste de Fisher (LSD, Least Significant Difference), una variante de la t de Student y ms liberal que los anteriores.

12 Puede ser til adems consultar alguna obra especializada, como Klockars y Sax (1986) y Toothaker (1993). 13 Hablando con propiedad habra que decir no aceptar en vez de la expresin habitual rechazar. 14 Los contrastes de Bonferroni no los tratamos aqu; nos hemos referido a ellos al comienzo y estn comentados en el Anexo II; tampoco fueron pensados especficamente como contrastes posteriores al anlisis de varianza. Tambin estn programados en el SPSS.

Anlisis de varianza para muestras independientes

16

5. El contraste de Dunnett por su utilidad especfica, cuando lo que nos interesa es comparar varias muestras experimentales con otra de control (no las muestras experimentales entre s). 5. Sin exponerlos en detalle introduciremos los denominados contrastes ortogonales15. Veremos que todas las frmulas de los contrastes posteriores se parecen mucho a la de la de t de Student. En el numerador tenemos siempre una diferencia entre dos medias; en el denominador de la t de Student tenemos las dos varianzas de los dos grupos que se comparan y en estas frmulas lo que tenemos en su lugar son los cuadrados medios dentro de los grupos que no son otra cosa que la varianza media de todas las varianzas de las muestras que entran en el planteamiento, y no solamente las de las dos muestras que comparamos en cada caso. Otra diferencia con respecto a la t de Student est en las tablas que hay que consultar para ver las probabilidades asociadas al valor obtenido que salvo en algn caso (como en el contraste de Fisher) son distintas.
4.1.1. Contraste de Scheff

Es uno de los contrastes ms utilizado; no suele faltar en los textos de estadstica y a veces es el nico que se explica; por estas razones merece un comentario de cierta amplitud. A pesar de su popularidad, y como advierten algunos autores (Klockars y Sax, 1986, entre otros), no es necesariamente el mejor mtodo en todas las situaciones (est programado en el SPSS).
a) Valoracin general

1) Se trata de un mtodo seguro, que se puede aplicar siempre. Es vlido para todo tipo de contrastes; se pueden comparar las medias de dos en dos, o una media con una combinacin lineal de otras, etc., y las muestras pueden ser tanto de idntico tamao como de tamao desigual. La flexibilidad de este contraste lo ha hecho muy popular, aunque esta flexibilidad tiene un precio; como iremos viendo su rigor puede ser excesivo. 2) Es un mtodo ms fiable y ms seguro cuando se violan los supuestos de normalidad y de homogeneidad de varianzas, y con mayor razn cuando las muestras son de tamao muy desigual. Esta es una buena razn para utilizarlo cuando dudamos de la legitimidad del anlisis de varianza porque no se cumplen los requisitos previos. 3) A pesar de la aplicabilidad tan general de este procedimiento (prcticamente siempre es vlido aunque no siempre es el mejor o el ms recomendable, como vamos indicando) conviene consultar otras posibilidades (que iremos mencionando) antes de aplicar rutinariamente el contraste de Scheff, sobre todo cuando tenemos hiptesis muy especificas, las muestras son de idntico tamao o cuando vamos a hacer menos comparaciones de las posibles. 4) El problema con este mtodo es que es muy conservador, y se puede aceptar la Hiptesis Nula cuando podramos rechazarla legtimamente con otros procedimientos. En trminos ms propios, se trata de un contraste con poco poder (se puede aceptar la Hiptesis Nula de no diferencia cuando es falsa y podramos haber afirmado la diferencia). Es un mtodo muy blindado contra el error denominado Tipo I (consiste en rechazar o no aceptar la

15 Todos estos contrastes pueden verse en numerosos textos; tambin en Internet se encuentran con facilidad expuestos y valorados los diversos contrastes, por ejemplo en Lane, David M. (1993-2007). HyperStat Online Statistics Textbook (en Introduction to Between-Subjects ANOVA) y en Dallal (2001) (puede verse adems el apartado 9, sobre anlisis de varianza en Internet).

Anlisis de varianza para muestras independientes

17

Hiptesis Nula cuando es verdadera; este error se comete cuando aceptamos la diferencia y en realidad no la hay; las medias proceden de la misma poblacin). Por esto decimos que se trata de un mtodo muy conservador: esto significa que cuesta ms rechazar la Hiptesis Nula. 5) Precisamente porque es un procedimiento muy conservador es especialmente til cuando no hay hiptesis previas y simplemente exploramos diferencias entre grupos o entre combinaciones de grupos. Si no aceptamos la Hiptesis Nula (y afirmamos que s hay diferencias entre las medias), no nos equivocamos. Es un buen procedimiento cuando comparamos grupos por mera curiosidad. 6) Es un procedimiento adecuado para comparar medias de grupos de tamao distinto; esto hace que con frecuencia sea muy utilizado; en casi todos los otros mtodos se supone que las muestras son de idntico tamao. Aun as, cuando las muestras son de tamao distinto, disponemos de otras alternativas que no conviene pasar por alto y que iremos mencionando o explicando16. 7) Con este procedimiento se puede hacer algo que frecuentemente puede ser de inters: combinar varias muestras en una sola para comparar la nueva media con la de otras muestras. Si tenemos, por ejemplo, tres grupos, se puede comparar cada media con las otras dos, pero tambin podemos unir dos medias para compararla con una tercera. Estas combinaciones de muestras (y medias) pueden ser de mucho inters, porque con frecuencia encontramos que algunas muestras participan de una caracterstica comn y tiene sentido unirlas para comparar la nueva muestra (combinacin de varias muestras) con una tercera. Precisamente porque este procedimiento est diseado para hacer mltiples comparaciones (incluso combinando medias entre s) es un mtodo ms conservador que los dems. Esta posibilidad de combinar muestras (posibilidad a veces poco aprovechada) permite ampliar los anlisis y enriquecer la interpretacin. Adems combinando medias aumentamos el nmero de sujetos y se rechaza con ms facilidad la hiptesis nula. 8) Como es un mtodo muy riguroso, sucede a veces que la razn F es significativa, y a ese mismo nivel de confianza no encontramos diferencias significativas entre las medias. Cuando la F es significativa y ninguna comparacin posterior lo es, el investigador suele quedarse a veces perplejo, y pensando dnde se habr equivocado; por eso conviene conocer de antemano esta posibilidad. El que la razn F sea significativa y luego al comparar las medias de dos en dos no encontremos diferencias significativas puede suceder aunque no es lo habitual. Realmente con una F significativa encontraremos al menos una diferencia significativa entre dos medias, pero no necesariamente entre las medias de dos grupos, sino entre combinaciones de medias que pueden no tener un inters especfico17. Cuando encontramos una razn F significativa y

16 Contrastes posteriores que admiten muestras de tamao desigual son al menos los de Fisher, Tukey-Kramer y Games-Howell; el contraste de Tukey y otros tambin son vlidos cuando las muestras son de tamao ligeramente distinto; en estos casos el nmero de sujetos que se utiliza (porque entra en las frmulas) es la media armnica. 17 La posibilidad de obtener una F significativa y despus no obtener diferencias significativas al comparar los grupos entre s es una posibilidad no frecuente en los dems contrastes, y lo mismo sucede a la inversa: puede haber un contraste significativo y una F no significativa. Esta posibilidad puede verse discutida en Hancock y Klockars (1996) y en Hancock y Klockars (1998: Scheffe's test which is commonly used to conduct post hoc contrasts among k group means, is unnecessarily conservative because it guards against an infinite number of potential post hoc contrasts when only a small set would ever be of interest to a researcher). La prueba inicial de F (en definitiva el anlisis de varianza) ofrece una proteccin

Anlisis de varianza para muestras independientes

18

luego no vemos diferencias estadsticamente significativas entre los grupos, una buena sugerencia es acudir a los contrastes de Games y Howell (explicados despus) vlidos para muestras con tamaos y varianzas desiguales (programado en el SPSS). 9) Por tratarse de un mtodo muy conservador, hay autores que sugieren o recomiendan utilizar con el contraste de Scheff un nivel de confianza ms liberal, de = .10 en vez del usual = .0518 En general en todos los casos lo ms recomendable es indicar la probabilidad exacta (p = .03, p = .006) en vez de los usuales p < .05 p< .01
b) Procedimiento

Para mayor claridad, y dada la popularidad (y los problemas) de este contraste distinguimos tres situaciones (aunque realmente se trata en todos los casos de lo mismo).
1) Para contrastar las medias de dos muestras

Esto es lo que hacen rutinariamente los programas como el SPSS. Damos los siguientes pasos: 1 Calculamos este valor de t':
t' = | M1 - M2 | 1 1 CMdentro ( + ) n 1 n2
11.714 15.4281 1 1 (16.26)( + ) 7 7

[7]

Por ejemplo, entre los grupos 1 y 2 tendramos t' =

= 1.723

Cuando los grupos son de igual tamao se simplifica el clculo porque el denominador es siempre el mismo. Los valores de t' para los diversos pares de grupos de este ejemplo son: entre el 1 y el 2, t' = 1.723 entre el 1 y el 3, t' = 1.458 entre el 2 y el 3, t' = 3.181 2 A partir de a) nmero de grupos (k) y b) de los valores de F que vienen en las tablas, y ya consultados en el anlisis de varianza previo, calculamos los valores significativos de t' (construimos nuestras propias tablas) mediante la frmula [8]:
t' = (k -1)F

[8]

En nuestro caso (2 y 18 grados de libertad) que encontramos en las tablas son:

contra el error tipo I (rechazar (o no aceptar) la Hiptesis Nula cuando es verdadera) que puede resultar excesiva y no faltan autores que recomiendan pasar directamente a los contrastes posteriores cuando hay hiptesis experimentales claras (Jaccard, 1998:28, 67). El encontrar una F significativa y no ver diferencias entre los grupos es ms frecuente cuando las muestras son de tamao desigual (varias explicaciones, comentarios y alternativas metodolgicas en Overseas Chinese Association for Institucional Research ( h t t p : / / w w w . o c a i r . o r g / ) I R & S t a t i s t i c s , S u m m a r i e s o f O n - l i n e D i s c u s s i o n http://www.ocair.org/files/KnowledgeBase/Statistics/Anova.asp consultado 24, 08, 2007) 18 Esta recomendacin la vemos en Rodrigues (1977), Escotet (1980), Martnez Garza (1988) y en otros autores. En las tablas de la F muchos textos se limitan a = .05 y .01, pero en bastantes se pueden ver tambin los valores de F para = .10; adems tablas con =.10 las tenemos en Internet, y tambin en Internet podemos encontrar la probabilidad exacta de cualquier valor de F; al final dedicamos un apartado a recursos de Internet en relacin con el anlisis de varianza. Tambin convine tener en cuenta que el contaste de Games y Howell puede ser una buena alternativa al de Scheffe.

Anlisis de varianza para muestras independientes

19

para p = .05, t'= (3-1)(3.55) = 2.664 para p = .01, t'= (3-1)(6.01) = 3.466 3 Estos son nuestros valores de referencia (nuestras nuevas tablas). Comparamos ahora las t' del paso 1 con las que acabamos de calcular para comprobar qu valores de t' llegan o superan los valores de t' significativos (paso 2). La nica diferencia significativa se da entre los grupos 2 y 3 (p < .05). Cuando son muchas las comparaciones entre medias que tenemos que hacer, se puede simplificar el procedimiento calculando en primer lugar cul debe ser la diferencia mnima entre dos medias para determinados niveles de significacin. Para esto nos basta despejar |M1 - M2| en la frmula de t' [7] y as tenemos que:

| M 1 - M2 |= t' CMdentro (

1 n1

1 n2

[9]

Calculamos los valores de t' tal como lo hicimos antes y hallamos los valores significativos de |M1 - M2|, que en este ejemplo sern: para un nivel de confianza de =.05: |M1 - M2| = 2.664 para un nivel de confianza de =.01: |M1 - M2| = 3.466 1 1 (16.26)( + ) = 5.74 7 7

1 1 (16.26)( + ) = 7.47 7 7

Ahora nos basta calcular las diferencias entre medias y comprobar si alcanzan los valores sealados: Entre el grupo 1 y 2: |11.71-15.43| = 3.72, inferior a 5.74 (p> .05); no significativa; Entre el grupo 1 y 3: |11.71- 8.57| = 3.14, inferior a 5.74 (p> .05); no significativa; Entre el grupo 2 y 3: |15.43- 8.57| = 6.86, superior a 5.74 (p< .05); significativa.
2) Utilizando un nivel de confianza ms liberal ( = .10)

Si deseamos utilizar el contraste de Scheff con un nivel de confianza ms liberal, de = 10, tenemos que buscar en las tablas de F el valor correspondiente a la probabilidad de = .10 con 2 y 18 grados de libertad (en este ejemplo). Este valor de F es 2.62 que utilizaremos en la frmula [8] t'= (3 1)(2.62) = 2.289 La diferencia mnima que debemos encontrar es la que hemos visto en la frmula [9]: 1 1 Para un nivel de confianza de =.10: |M1 - M2| = 2.289 (16.26)( + ) = 4.93 7 7 En nuestro ejemplo y con = .10 seguimos sin encontrar diferencias estadsticamente significativas entre los grupos 1 y 2 y 1 y 3.
3) Contrastes combinando medias de grupos

Como ya hemos indicado, el mtodo de Scheff no slo sirve para comparar dos grupos entre s (es lo ms habitual) sino tambin para comparar medias combinando varios grupos.

Anlisis de varianza para muestras independientes

20

Por ejemplo, deseamos verificar si la media del grupo 2 supera significativamente a la media combinada de los grupos 1 y 3: La media combinada de estos dos grupos es 10.1425 (es la media de las medias, ya que se trata de grupos con idntico nmero de sujetos). El nuevo nmero de sujetos de este nuevo grupo es ahora 7 + 7 = 14. Aplicando la frmula [9] tenemos: t' = | 15.43 10.1425 | = 2.83, p< .05 1 1 (16.26)( + ) 7 14

4.1.2. Contraste de Tukey para muestras de idntico (o muy parecido) tamao

El procedimiento de Tukey se basa en el estadstico q o del rango estudentizado; no es necesario entenderlo para utilizarlo (aunque se aprecia enseguida su semejanza con la t de Student), pero est explicado en el anexo IV (est programado en el SPSS).
a) Valoracin general

1) Supone grupos de idntico tamao c) Se pueden comparar todas las medias de dos en dos; el procedimiento est pensado para k(k-1)/2 comparaciones, todas las posibles entre k grupos tomados de dos en dos. d) Es en principio preferible a Scheff si se puede garantizar la homogeneidad de varianzas y la distribucin normal de las poblaciones; el mtodo de Tukey es menos tolerante con las violaciones de estas condiciones previas que el procedimiento de Scheff. Cuando es claro que no se cumplen estas condiciones, disponemos de adaptaciones de este contraste que exponemos en los apartados siguientes (contrastes de Tukey-Kramer y de Games y Howell). e) Con el contraste de Tukey se rechaza con ms facilidad la Hiptesis Nula que con el contraste de Scheff; es preferible tambin cuando se est interesado en todos los posibles contrastes entre pares de medias.
b) Procedimiento

1 La diferencia honestamente significativa (DHS Honestly Significant Difference)

Una diferencia es estadsticamente significativa si es igual o mayor que el valor simbolizado como DHS (diferencia honestamente significativa). Habitualmente se calcula un solo valor con el que se comparan todas las diferencias.
DHS= q CM dentro n

[10]

DHS = Diferencia honestamente significativa o diferencia mnima necesaria para poder rechazar la Hiptesis Nula q= Valor del rango estudentizado que hay que consultar en las tablas apropiadas para los grados de libertad del trmino del error (Cuadrados Medios dentro de los grupos) y para k (nmero de grupos o de medias)19.

19 Tablas de Tukey en el documento con tablas estadsticas y las direcciones de Internet del apartado n 9.

Anlisis de varianza para muestras independientes

21

CMdentro= Varianza (Cuadrados Medios) dentro de los grupos; n= Nmero de sujetos o datos en cada grupo. En nuestro ejemplo el valor de q para tres grupos y 18 grados de libertad es 3.61 (p < .05) por lo que para rechazar la Hiptesis Nula habra que alcanzar una diferencia de: DHS = 3.61 16.26 = 5.50 7

Esta diferencia es algo menor que la que nos indica el mtodo de Scheff. El contraste de Tukey detecta mejor las diferencias significativas que el de Scheff y se puede utilizar en cualquier planteamiento de anlisis de varianza, con tal de que el nmero de sujetos sea igual (o casi) en todos los grupos. Aunque quizs lo ms frecuente sea calcular la diferencia mnima necesaria para rechazar la Hiptesis Nula que acabamos de ver [10], tambin se puede calcular directamente el valor de q (como hacemos con la t de Student); podemos despejar el valor de q en la frmula [10]; DHS es ahora la diferencia entre las medias que queremos contrastar: | M1 - M 2 | q= [11] CMdentro n
Vamos a comparar las medias de los grupos 2 (M = 15.428) y 3 (M = 8.571) (tabla 1); los cuadrados medios dentro de los grupos son igual a 16.26 (tabla 2): q= | 15.428 - 8.571 | = 4.499 16.26 7

En las tablas de q para k (nmero de medias) = 3 y 18 grados de libertad tenemos los valores de 3.61 (.05) y 4.70 (.01), por lo que en nuestro caso p < .05 Cuando se trata de un anlisis de varianza con ms criterios de clasificacin (como cuando disponemos los datos en un cuadro de doble entrada), el valor de k no es siempre el nmero de grupos. Aqu nos limitamos a exponer el procedimiento para el caso de varias muestras independientes con un slo criterio de clasificacin; no para los casos en que hay ms (como en los cuadros de doble entrada de los diseos factoriales; esto lo veremos en su lugar).

2 Cuando el nmero de sujetos es ligeramente desigual


Cuando el nmero de sujetos en cada grupo es desigual (pero no muy desigual), en vez de n (nmero de sujetos en cada grupo cuando son de idntico tamao), puede utilizarse la media armnica (n*), de los diversos n (k es el nmero de grupos)20:

20 Cuando se utiliza la media harmnica suele emplearse la expresin unweighted means analysis, y no debe utilizarse con muestras muy pequeas (<10) y con diferencias entre las muestras mayores de 2 en nmero de sujetos (Dallal, 2001). La recomendacin de utilizar la media armnica de n cuando los grupos son de tamao ligeramente desigual se encuentra en muchos autores (por ejemplo Wildt y Ahtola, 1978 y Klockars y Sax, 1986).

Anlisis de varianza para muestras independientes

22

k media armnica de n* = 1 1 1 1 + + + n 1 n 2 n3 nk

n* =

k 1 ( ) n

[12]

Otra posibilidad que recomiendan algunos autores21 es utilizar la media armnica de n de solamente los dos grupos que vamos a comparar si las diferencias en tamao son algo mayores, o simplemente podemos utilizar como valor de n el nmero de sujetos del grupo ms pequeo; nuestro test ser en este caso ms conservador (como sucede siempre; si nos fijamos en la frmula del contraste de Tukey veremos que a mayor n es ms fcil rechazar la Hiptesis Nula de no diferencia).

4.1.3. Contraste de Tukey-Kramer para muestras de distinto tamao y varianzas iguales


Este contraste es vlido para comparar las medias de muestras de distinto tamao, pero con la condicin de que las varianzas de las poblaciones a las que pertenecen las muestras sean iguales (por iguales entendemos sin diferencias estadsticamente significativas). Esta condicin no siempre es fcil de confirmar por lo que este procedimiento no se debe utilizar (Toothaker, 1993) si a) las desviaciones tpicas (o varianzas) de las muestras no son muy parecidas o b) si no disponemos de ms datos de otros estudios que nos confirmen que las varianzas de las poblaciones son de magnitud semejante. Aunque esta condicin es bastante restrictiva se trata de un contraste aplicable en muchas ocasiones en las que tenemos muestras de tamao desigual. Adems con un ajuste en los grados de libertad es un contraste vlido cuando el tamao de las muestras es distinto y tambin las varianzas son distintas (y tenemos aqu una alternativa al procedimiento de Scheff); se trata en este caso del contraste de Games y Howell que veremos en el apartado siguiente. Este contraste sigue tambin la distribucin de q (como el contraste habitual de Tukey) y suele presentarse de dos maneras (obviamente equivalentes); presentamos las dos para evitar confusiones. a) Calculamos en primer lugar este valor de t':

t' =

Mi M k 1 1 CMdentro ( + ) ni n k

[13]

M y n son respectivamente las medias que vamos a comparar y el nmero de sujetos de cada muestra; CMdentro son, como siempre, los cuadrados medios dentro de los grupos.

Calculamos el valor crtico de t' a partir del valor de q (al nivel de confianza deseado; tablas de q): t' =
q 2

[14]

Buscamos el valor de q correspondiente al nmero de medias de nuestro planteamiento (nmero de muestras) y los grados de libertad de los cuadrados medios dentro de los grupos (como es usual en estas tablas).

21 Por ejemplo Klockars y Sax (1986).

Anlisis de varianza para muestras independientes

23

Tambin podemos calcular directamente la diferencia mnima que tenemos que encontrar para afirmar la diferencia; para esto nos basta con despejar el numerador de la frmula [13] sustituyendo q por el valor que encontremos en las tablas: |Mi-Mk|=
q 2 CMdentro ( 1 1 + ) ni nk

[15]

Si vamos a hacer varias comparaciones entre medias lo nico que ir variando es el tamao de los grupos; el resto de los valores (q y CMdentro) son constantes. b) Dada la relacin entre t y q cuando se trata de dos muestras (t= q/ 2 ) podemos tambin calcular directamente el valor de q (frmula [16]) y consultar las tablas de q.
q= (1 / n i ) + (1 / n k ) CM dentro 2 Mi Mk

[16]

Conviene caer en la cuenta de que ambas frmulas ([13] y [16]) son en ltima instancia equivalentes, para evitar confusiones si encontramos distintas frmulas en distintos lugares. Vamos a ver la equivalencia de estos procedimientos con un ejemplo que adems clarifica el uso de estas frmulas. En la tabla 4 tenemos los datos de tres grupos de tamao distinto (A, B y C).
n= M= n = A 10 8.00 3.898 B 9 11.55 4.7868 C 8 14.125 4.780

Tabla 4 El nmero total de sujetos es N = 27. Suponemos que la razn F es significativa (realmente lo es). Los cuadrados medios dentro de los grupos (que necesitamos para aplicar las frmulas [13] y [16]) son, como ya sabemos (frmula [5]), igual a n2/N - k = 22.539 Contrastamos las medias de los grupos C y A, primero con la frmula [13]: 14.125 8.00 t' = = 2.7198 1 1 22.539 ( + ) 8 10

Los grados de libertad son:

3 24

(nmero de grupos) (N-k, grados de libertad dentro de los grupos)

En las tablas de q vemos que con un nivel de confianza de = .05 necesitamos q = 3.53, por lo que el valor crtico de t (frmula [14]) es por lo tanto: 3.53 t' = = 2.496 2 Como nuestro valor de t (2.719) supera este valor, rechazamos la Hiptesis Nula y concluimos que las muestras A y C difieren significativamente (proceden de poblaciones distintas con distinta media).

Anlisis de varianza para muestras independientes

24

Para hacer este mismo contraste vamos a calcular ahora directamente el valor de q (frmula [16]):
q= 14.125 8.00 (1 / 10) + (1 / 8) 22.539 2 = 3.846

Superamos el valor de 3.53 que vemos en las tablas para 3 y 24 grados de libertad y llegamos a la misma conclusin (p< 05)
q 2 3.846 = 2.719 2

Verificamos por ltimo que en el caso de dos muestras t =

Hemos obtenido un valor de t = 2.719 y de q = 3.846; efectivamente

4.1.4. Contraste de Games y Howell (GH) para muestras de distinto tamao y varianzas desiguales

Cuando no estamos seguros de que las varianzas de las poblaciones a las que pertenecen nuestras muestras sean iguales, disponemos del contraste de Games y Howell (suele simbolizarse simplemente como GH) (est programado en el SPSS). El procedimiento y las frmulas son idnticos al contraste anterior de Tukey-Kramer [13]; la diferencia est en los grados de libertad dentro de los grupos para buscar el valor de q en las tablas; estos grados de libertad quedan reducidos y har falta un valor mayor de F. En este caso la frmula de los grados de libertad es la siguiente (Klockars y Sax, 1986; Toothaker, 1993)22:
grados de libertad =

[(

2 i

2 / ni + k / nk

) (

)]

2 ( i2 / n i ) 2 ( k / n k ) 2 + n1 1 nk 1

[17]

Esta frmula se puede expresar de una manera ms simple que facilita el clculo:
grados de libertad =
(d i d k ) d i2 d2 + k n i 1 n k 1

[18]

donde d =

2 n

Como vemos en [17] los grados de libertad para consultar las tablas de q no son N-k, sino que los calculamos a partir de los valores de las desviaciones tpicas (de las muestras) y del nmero de sujetos que tenemos en los grupos que comparamos. Lo normal es que obtengamos una cifra con decimales que podemos redondear al nmero entero ms prximo. Podemos hacer la misma comparacin entre las medias de los grupos C y A (tabla 4) asumiendo que las varianzas son muy diferentes. El valor de q ya lo tenemos calculado (3.846), lo que necesitamos son los grados de libertad; aplicando la frmula [17] tenemos:

22 Es la frmula de Satterthwaite (Dallal, 2001, en Significance Tests / Hypothesis Testing); como indica el mismo autor (Dallal, 2001) ste es el procedimiento utilizado por el programa SPSS en esta situacin (muestras de tamao distinto y varianzas desiguales).

Anlisis de varianza para muestras independientes

25

grados de libertad =

[(
(

2 C / nC ) + 2 2 C / nC )

2 ( A / n A )

nC 1

2 ( A / n A ) 2 nA 1

/ 8) + (3.8982 /10)] = =13.46 (4.782 / 8)2 (3.8982 / 10) 2 + 8 1 10 1


2
2

[(4.78

Los grados de libertad son ahora 13 (redondeando decimales), bastante menos que los 24 (N-k) que tenamos antes. Para grados de libertad 3 (nmero de grupos) y 13, y = .05 necesitamos un valor de q de 3.73 (mayor que q = 3.53 con 24 grados de libertad que tenamos antes), por lo que nuestro valor de q = 3.846 (mayor que 3.73) sigue siendo suficiente para no aceptar (rechazar) Hiptesis Nula. Esta frmula de los grados de libertad de los cuadrados medios dentro de los grupos es aparentemente laboriosa, pero con muestras de tamao muy distinto y varianzas claramente desiguales, este procedimiento es una buena alternativa al de Scheff23.
4.1.5. Contraste de Newman-Keuls

El test de Newman-Keuls es muy popular, tambin requiere muestras de idntico tamao y es algo ms liberal que el de Tukey; tambin utiliza las tablas de q. La frmula es idntica a la de Tukey [12], la diferencia est al consultar las tablas de q: 1 las medias se ordenan de ms a menos y 2 el nmero de medias para consultar las tablas no es el nmero de medias que tenemos en el anlisis de varianza sino las dos que se comparan ms las que estn entre estas dos una vez ordenadas; es decir quedan excluidas las medias mayores o menores de las dos que comparamos. Los valores crticos de q bajan segn baja el nmero de medias, por lo que resulta ms fcil no aceptar la Hiptesis Nula; es por lo tanto un contraste ms liberal que el de Tukey. El contraste de Duncan (new multiple range test) es una modificacin del de NewmanKeuls, tambin se utilizan las tablas de q y es algo ms liberal (programado en el SPSS).
4.1.6. Contraste Least Significant Difference (LSD) de Fisher.

Con este contraste se utilizan las mismas tablas de la t de Student y se puede utilizar con muestras de distinto tamao. La diferencia con la t de Student est en que en el denominador de la t (donde figura el error tpico de la diferencia entre medias) colocamos los Cuadrados Medios dentro, por lo tanto la frmula es: M1 M 2 [20] t (Fisher) = 1 1 CM dentro [ + ] n1 n2 Cuando n = n esta frmula es idntica a la de Dunnett pero las tablas que hay que consultar en el contraste de Dunnett son distintas. Este contraste (LSD) slo se debe utilizar si la F es significativa; es uno de los contrastes ms liberales (es ms fcil no aceptar la Hiptesis Nula).

23 Estos grados de libertad tambin son vlidos, y recomendables, para consultar las tablas de la t de Student cuando comparamos dos muestras con tamao y varianzas muy desiguales (Hinkle, Wiersma y Jurs, 1994; Coombs, Algina y Oltman, 1996).

Anlisis de varianza para muestras independientes

26

4.1.7. Contraste de Dunnett

a) Vlido para comparar las medias de los grupos experimentales (tratamientos) con un grupo de control; no para comparar los tratamientos entre s (est pensado para k-1 comparaciones; por eso se rechaza la Hiptesis Nula con ms facilidad; estn previstas menos comparaciones). Es til precisamente en estos casos, cuando tenemos varios grupos experimentales y un grupo de control (est programado en el SPSS). b) Supone idntico nmero de sujetos en cada grupo (n) aunque tambin podemos utilizar la media armnica de n, como vimos en el mtodo de Tukey, cuando el nmero de sujetos es desigual pero muy parecido. Media tratamiento - Mediacontrol Frmula del contraste de Dunnett: t' = [19] 2CMdentro n CMdentro, o cuadrados medios del error, son, como siempre en estos casos, los cuadrados medios (o varianza) dentro de los grupos. Este contraste tiene sus propias tablas para verificar la probabilidad de un determinado valor de t'24.
4.1.8. Contrastes ortogonales

Sin entrar en una explicacin del procedimiento, mencionamos sealamos las caractersticas de estos contrastes. 1) Se planifican de antemano, antes de recoger los datos y responden a hiptesis muy especficas, 2) Responden a preguntas independientes que no aportan informacin redundante (por eso se denominan ortogonales, sin relacin)25, 3) Se pueden comparar tanto medias entre s como combinaciones de medias, 4) El nmero de comparaciones que es permisible hacer es limitado y no puede ser superior a k -1 (nmero de grupos menos uno). No los explicamos aqu pero los tenemos en programas de ordenador y se encuentran con facilidad en otros textos26.
4.1.9. Valoracin de los diferentes contrastes

No todos los contrastes vistos son igualmente rigurosos, con unos es ms fcil que con otros rechazar la Hiptesis Nula. En la lista siguiente27 aparecen los ms comunes, situados en un continuo segn sean ms liberales o ms conservadores (segn sea ms fcil o ms difcil rechazar la Hiptesis Nula).

24 Tablas de Dunnett en el documento con tablas estadsticas y en las direcciones de Internet indicadas en el apartado n 9. 25 Si por ejemplo nuestra hiptesis es que los grupos A+C (dos grupos unidos en uno solo) tienen una media mayor que los grupos B+D (otros dos grupos unidos en uno solo), no podemos plantearnos tambin si la media de A es mayor que la de B, porque parcialmente esta comparacin est incluida en la anterior. El trmino ortogonal (orthogonality) fu usado por primera vez por Yates en 1933 (StatSoft, Inc., 2007). 26 Los contrastes ortogonales no suelen venir explicados en textos de carcter ms bien bsico, pero s en los de un nivel medio o superior, pues son algo ms complejos que los que exponemos aqu. Pueden verse explicados en Klockars y Sax (1986), Guilford y Fruchter (1978) y Kirk (1995) entre muchos otros.

Anlisis de varianza para muestras independientes

27

ms liberal

ms conservador

Fisher (LSD) (Least Significant Difference) Duncan (new multiple range test) Newman-Keuls Tukey (Honestly Significant Difference) Scheff

Algunos autores recomiendan no utilizar los contrastes de Fisher, Duncan y NewmanKeuls cuando tenemos ms de tres grupos; en este caso son contrastes demasiado liberales (se rechaza con demasiada facilidad la Hiptesis Nula)28. Esta lista no incluye el test de Dunnett porque no est concebido para comparaciones mltiples, sino slo para comparar distintas muestras experimentales con una sola muestra de control. Al disponer de tantas posibilidades distintas de hacer los contrastes posteriores, puede parecer que este paso, necesario por otra parte para llegar a las conclusiones finales, es complicado. En la prctica una buena orientacin es escoger entre Scheff y Tukey (son los que con ms frecuencia aparecen en los libros de texto) o el de Dunnett cuando se trata de comparar varios grupos experimentales con un grupo de control o de referencia. Los contrastes de Tukey-Kramer y Games y Howell (variantes de Tukey) tambin son los oportunos en las circunstancias indicadas al comentar estos contrastes (ambos contrastes coinciden en el tamao desigual de las muestras). Al decidir sobre la eleccin de alguno de estos contrastes es conveniente tener a la vista las observaciones hechas a propsito de los mismos29. Estos contrastes suelen dividirse en dos tipos: planificados de antemano (a priori) y no planificados de antemano (a posteriori o post hoc); el trmino post hoc se emplea frecuentemente para designar los contrastes hechos despus de inspeccionar los datos. Los diversos contrastes para comparar las medias de dos en dos (como el de Tukey) suelen incluirse ente los mtodos a posteriori, pero tambin pueden planificarse de antemano, por lo que esta distincin no es tan ntida; en un anlisis exploratorio tambin se pueden especificar a priori los contrastes de inters30.

27 Tomada de Huck, Cormier, y Bounds (1974); Black (1999) y Gerstman (2003) presentan cuadros semejantes y los mismos contrastes aparecen con el mismo orden. 28 Toothhaker (1993); Kirk (1995); Hancock y Klockars (1996) 29 Hancock y Klockars (1996) tienen una buena revisin crtica de todos estos contrastes. Entre los pocos que en ltima instancia recomiendan son Scheff (para explorar), Tukey (para comparar entre s todas las medias de dos en dos en muestras de idntico tamao) y Dunnett (no para hacer todas las comparaciones posibles sino nicamente para comparar muestras experimentales con una muestra de control). Keselman y otros (1998) tienen un interesante estudio sobre las preferencias metodolgicas en los diversos tipos del anlisis de varianza, tal como aparecen en investigaciones publicadas en 17 revistas de prestigio (Child Development, Developmental Psychology, American Educational Research Journal, Journal of Applied Psychology, etc.). Los contrastes posteriores ms utilizados son por este orden: Tukey, Newman-Keuls, Scheff y Fisher Least Significant Difference. Tambin es posible utilizar contrastes distintos para comparar distintos pares de medias entre s: Most analysts agree that Fisher's LSD is too liberal. Some feel that Tukey's HSD is too conservative. While it is clear that the largest difference between two means should be compared by using Tukey's HSD, it is less obvious why the same criterion should be used to judge the smallest difference. The [Student]-Newman-Keuls Procedure is a compromise between LSD and HSD I use Tukey's HSD for the most part One general approach is to use both Fisher's LSD and Tukey's HSD. Differences that are significant according to HSD are judged significant; differences that are not significant according to LSD are judged nonsignificant; differences that are judged significant by LSD by not by HSD are judged open to further investigation (Dallal, 2001). Este autor tiene una buena exposicin (online) sobre los distintos contrastes. 30 Hancock y Klockars (1996) reservan el trmino a posteriori exclusivamente al contraste de Scheff; en Jaccard (1998:27) pueden verse discutidos estos trminos.

Anlisis de varianza para muestras independientes

28

En los programas de ordenador con frecuencia aparecen de manera rutinaria una serie de contrastes (aqu no estn expuestos o mencionados todos los posibles); lo recomendable es repasar la informacin disponible sobre estos contrastes para escoger e interpretar el (o los) que se estime ms idneo para una situacin determinada.
4.2. Relevancia prctica de los resultados: proporcin de varianza relacionada con la variable-criterio de clasificacin y tamao del efecto

Mediante el anlisis de varianza propiamente dicho y los contrastes posteriores verificamos si las diferencias entre las medias son estadsticamente significativas. Con esta expresin lo que queremos decir es si podemos considerar que las diferencias observadas entre los grupos en la variable dependiente (aquella en la que hemos medido a los sujetos) son mayores de lo que podemos esperar por azar, es decir, si no estn dentro de la variabilidad normal. En ese caso podemos atribuir las diferencias a la pertenencia a alguno de los grupos (a un tratamiento, etc.). Ahora bien, esta significacin estadstica no coincide necesariamente con la significacin (o relevancia) prctica: el efecto de un tratamiento (o de la pertenencia a un grupo determinado) puede ser estadsticamente significativo pero pequeo e irrelevante. Valores grandes de F y pequeos de p (como p<.001) no indican efectos o diferencias grandes. Un p <.05 con un grupo pequeo puede ser ms importante que un p<.001 con una muestra grande. Para juzgar sobre la relevancia prctica de los resultados no tenemos un indicador preciso y hay que hacer juicios cualitativos, pero es til poder apreciar la magnitud de ese efecto. Disponemos al menos de dos orientaciones metodolgicas relacionadas entre s: a) Podemos estimar la proporcin de varianza en la variable dependiente (la que hemos medido) asociada con el criterio que ha servido para clasificar a los sujetos (pertenencia a un grupo u otro). b) Podemos calcular un tamao del efecto anlogo al que hacemos en el contraste de dos medias. En el contexto del anlisis de varianza y para poder interpretar mejor los resultados, posiblemente lo ms habitual es calcular la proporcin de varianza que podemos atribuir a los criterios de clasificacin (a la variable independiente).
4.2.1. Proporcin de varianza relacionada con la variable-criterio de clasificacin

Esta proporcin de varianza en la variable dependiente asociada o atribuible a los criterios de clasificacin nos la dan una serie de coeficientes que pueden considerarse como un tamao del efecto. Los coeficientes propuestos aqu son los coeficientes 2 y 2. Estos coeficientes y otros anlogos son importantes porque ayudan a poner de relieve la significacin prctica de los resultados y son comparables en su interpretacin al tamao del efecto en el contraste de medias. Lo que no podemos hacer es calcular la media de estos coeficientes, como se hace en el meta-anlisis, para resumir resultados de diversos estudios, ya que son siempre positivos y no indican la direccin de la diferencia.
4.2.1.1. El coeficiente 2

Este coeficiente 2 puede aplicarse en el anlisis de varianza unifactorial (un nico factor o criterio de clasificacin, el que estamos viendo ahora) siempre que las categoras de clasificacin sean fijas (como suelen ser habitualmente, es decir, escogidas con criterios lgicos, y no escogidas aleatoriamente de una poblacin mayor, por ejemplo de centros escolares, etc.).
Anlisis de varianza para muestras independientes

29

El coeficiente 2 es un ndice general de asociacin entre dos variables, y, como ya se ha indicado, aporta una informacin anloga al tamao del efecto en el contraste de medias. El valor de equivale a un coeficiente de correlacin, y elevado al cuadrado nos indica la proporcin de varianza compartida por las dos variables. En realidad no puede hablarse con propiedad de coeficiente de correlacin, pues las categoras de clasificacin (pertenencia a un grupo u otro) no son necesariamente continuas; en cualquier caso 2 nos indica la proporcin de varianza en la variable dependiente (la que hemos medido) atribuible a la pertenencia a uno u otro grupo. 1. Cuando los grupos son de idntico tamao En el anlisis de varianza de una clasificacin simple (un criterio de clasificacin dividido en varios niveles, que es el modelo que estamos viendo) y con grupos de idntico tamao el clculo es el siguiente (Guilford y Fruchter, 1973:245): (k - 1)(F - 1) = (k - 1)(F - 1) +kn
2

[19]

k = nmero de grupos, n = nmero de sujetos en cada grupo, F = la razn F obtenida en el anlisis. (3 1)(5.069 1) = .28 (3 1)(5.069 - 1) + (3)(7)

En este caso tendremos que 2 =

Este resultado nos indica que aproximadamente (se trata de una estimacin) el 28% de la varianza (diferencias en los datos analizados) est relacionado con la pertenencia a uno u otro grupo. Con una F significativa slo sabamos que esta relacin era superior a cero (que haba relacin, pero no cunta). Esta otra frmula del coeficiente 2 da una estimacin semejante: SCentre (k 1)CM dentro SC total + CM dentro 2 =

2 =

[22]

En nuestro ejemplo tenemos que:


164.87 (3 1)16.26 = .28 457.79 +16.26

2. Cuando los grupos son de distinto tamao En las frmulas anteriores se asume que los grupos son de idntico tamao (o no muy diferente). Cuando los grupos son de tamao claramente desigual la frmula que suele proponerse como estimacin de 2 es sta (Kirk, 1995):
2 = SCentre SCentre -(k -1)CMdentro N + [k( - 1)CMdentro ] + CMdentro k [23] k = nmero de grupos N/k = tamao medio de los grupos

En nuestro ejemplo, aunque los grupos son de idntico tamao, aplicando esta frmula tendramos:

2 =

164.87 - (3 - 1)(16.26) = .28 21 164.87 + [3( 1)16.26] + 16.26 3

Anlisis de varianza para muestras independientes

30

Para interpretar 2 hay que tener en cuenta que31: 1. Se trata siempre de categoras fijas (posiblemente el caso ms comn), 2. Un coeficiente 2 negativo se considera igual a cero; 3. El coeficiente 2 slo debe calcularse si F es significativo; 4. El coeficiente 2 slo puede aplicarse a las categoras de clasificacin utilizadas; puede variar si se quitan o aumentan categoras. No sucede lo mismo con la interpretacin del valor de F, que, si es significativo y las muestras son aleatorias, puede extrapolarse a la poblacin. 5. El coeficiente 2 se puede extrapolar a la poblacin, al menos como estimacin; en cambio el coeficiente 2 que veremos a continuacin se refiere solamente a las muestras analizadas.

4.2.1.2. El coeficiente 2
Otro coeficiente, muy sencillo y muy utilizado y que da una aproximacin menos exacta de la proporcin de la variable dependiente atribuible a los criterios de clasificacin es el coeficiente eta al cuadrado:
SC entre = SCtotal
2

[24]

SCentre es la Suma de Cuadrados entre grupos en este caso, pero en otros modelos de anlisis de varianza puede ser cualquier criterio de clasificacin (puede haber ms de un criterio de clasificacin, como vemos en los cuadros de doble entrada propios de los diseos factoriales)

La misma frmula ya nos est indicando que se trata de una proporcin: la proporcin de varianza de la variable dependiente explicada por la variable cuya suma de cuadrados est en el numerador32. En este planteamiento, varias muestras independientes, lo que tenemos en el numerador son las diferencias asociadas a pertenecer a uno u otro grupo. No se puede extrapolar a la poblacin, se refiere solamente la muestra. Suele dar valores mayores que el coeficiente 2

En nuestro ejemplo (tabla 2) tenemos que 2 =

164.87 = .36 457.79

Si solamente conocemos del valor de F (podemos encontrarlo publicado) disponemos de esta otra frmula (parecida a la [21]): 2 = (F)(grados de libertad entre) (F)(grados de libertad entre) + grados de libertad dentro [25]
(5.069)(2) = .36 (5.069)(2) +18

Aplicando esta frmula a los datos de la tabla 2 tenemos: 2 =

No sobra observar el parecido de la frmula [25] con la que utilizamos para transformar el valor de t en un coeficiente de correlacin [26]:

31 Guilford y Fruchter (1973:260); Kirk (1995:180) 32 Normalmente utilizamos 2 que es anlogo a r2 (que expresa la proporcin de varianza comn a dos variables); (sin elevar al cuadrado) (tambin denominado correlation ratio en ingls) viene a ser un coeficiente de correlacin no lineal (el coeficiente r de Pearson cuantifica relaciones lineares, no curvilneas). Si se calcula (grado de relacin) solamente con dos variables continuas y relacionadas linealmente (a ms de una, ms de la otra), equivale a r (explicacin ms detallada en Nunnally y Bernstein, 1994:135 y Rosenthal y Rosnow, 1991:323, 351).

Anlisis de varianza para muestras independientes

31

rbp =

t2 t 2 + ( N1 + N2 - 2)

[26]

Realmente se trata de la misma frmula si la elevamos al cuadrado (r2 expresa la proporcin de varianza compartida): en el caso de dos grupos t2 = F y r = ; los grados de libertad entre los grupos son 2-1 = 1 y los grados de libertad al comparar dos grupos son N1+N2-2 2 se puede utilizar con muestras de idntico o distinto tamao; es un estadstico meramente descriptivo, referido a la muestra, y su clculo suele ser habitualmente suficiente; para extrapolar esta misma informacin a la poblacin podemos calcular el coeficiente 2 El coeficiente 2 si lo referimos a la poblacin nos da una estimacin demasiado alta; una estimacin ms ajustada del valor de 2 en la poblacin la tenemos con este ajuste33: N 1 2 = 1 (1 2 ) [27] Nk 21 1 2 Aplicado a nuestros datos (tabla 1) tenemos que: = 1 (1 .36) = .289 21 3

Este tipo estimaciones de la proporcin de varianza de la variable dependiente explicada por la variable independiente pueden expresarse de varias maneras y conviene conocer las ms usuales para evitar confusiones, ya que se trata de lo mismo, as la frmula [27] es equivalente a esta otra34 [28]: 2 = CM total - CMdentro [28] CMtotal Tomamos los datos de la tabla 2. Para obtener los cuadrados medios (o varianza) del total nos basta dividir la suma de cuadrados por los grados de libertad: 457.79/20 =22.8895 22.8895 -16.26 2 = = .289 Aplicando la frmula [28] tenemos 22.8895
4.2.1.3. Valoracin de estos coeficientes

1) Estos coeficientes (que tambin se aplican a otros modelos de anlisis de varianza) son importantes como anlisis complementarios, porque nos ayudan a juzgar sobre la relevancia de los resultados y su importancia relativa cuando tenemos varios coeficientes. 2) Se trata de coeficientes no direccionales; es decir, aunque nos facilitan el valorar la importancia de las diferencias entre las medias de la variable independiente, ya hemos indicado que no nos dicen en qu direccin est la diferencia. Estos coeficientes tambin se denominan tamao del efecto (es un trmino de hecho muy genrico) porque expresan magnitud y no probabilidad (t o F nos remiten a una probabilidad). 3) Para los mismos datos los dos coeficientes, 2 y 2, dan valores diferentes, por lo que no deben compararse entre s (2 suele ser mayor que 2). 4) Cundo se puede decir que estas proporciones de varianza explicada son grandes?

33 Hedges y Olkin (1985:102); Kirk (1995:180) 34 Estas y otras frmulas pueden verse comentadas en Hedges y Olkin (1985:100ss.)

Anlisis de varianza para muestras independientes

32

No hay criterios definidos pero a la vista de lo que suele encontrase en la literatura experimental, si la variable independiente explica menos de un 5% de la variable dependiente se trata de una relacin muy baja aunque sea real (no casual), y un 10% de la varianza explicada puede considerarse mayor de lo que es normal encontrar (valoracin de Linton, Gallo y Logan, 1975; para Runyon y Haber, 1984, es difcil encontrar valores que lleguen al 35%). Una valoracin orientadora35 referida a 2 es sta: .01 expresa una asociacin baja, .06 expresa una asociacin media .14 o ms expresa una asociacin grande o apreciable. 5) En la prctica siempre es ilustrativo e informativo comparar unos valores con otros cuando proceden de planteamientos semejantes, e interpretar esos valores en trminos relativos. Estos coeficientes se utilizan con categoras fijas (escogidas por el investigador); si se trata de categoras aleatorias (escogidas aleatoriamente de una poblacin mayor, como sera el caso de una muestra de centros escolares, de profesores, etc., escogidos aleatoriamente para representar una poblacin), se utilizan los coeficientes de correlacin intraclase que pueden verse tratados en diversos autores36.
4.2.2. El tamao del efecto

Los coeficientes de asociacin que hemos visto tambin son denominados tamao del efecto, pero este trmino puede ser aqu equvoco en el sentido de que no cuantifican la diferencia entre dos medias; ahora nos referimos al tamao del efecto en cuanto diferencia tipificada, propia del contraste de dos medias entre s. En el anlisis de varianza vemos dos tipos de tamao del efecto: uno es semejante al habitual en el contraste de medias y nos cuantifica la diferencia entre dos medias; el otro nos da una apreciacin global (como el coeficiente ) y en su uso e interpretacin es anlogo a los coeficientes de asociacin.
4.2.2.1. El tamao del efecto en la diferencia entre dos medias

No es tan frecuente ver calculado el habitual tamao del efecto como complemento a los contrastes posteriores, pero podemos hacerlo como en cualquier contraste de medias. Ya sabemos que el tamao del efecto es una diferencia estandarizada: la diferencia entre dos medias dividida por la desviacin tpica comn a ambas muestras. Nos expresa la diferencia entre dos medias en unas magnitudes fcilmente interpretables y comparables con cualquier otro tamao del efecto aunque las escalas de medicin sean muy distintas. Por otra parte disponemos de los criterios de Cohen (1988), muy seguidos habitualmente, para valorar estas magnitudes (en torno a .20 diferencia pequea, en torno a .50 diferencia moderada y .80 o ms diferencia grande). En el caso del anlisis de varianza la desviacin tpica que ponemos en el denominador puede ser la desviacin tpica combinada de las dos muestras que comparamos, pero tambin podemos utilizar (y es ms sencillo) la desviacin tpica combinada de todas las muestras de
35 Estas valoraciones las propone Cohen (1988:284-288) y son habitualmente tenidas en cuenta (un ejemplo indicativo es el conocido texto de Kirk, 1995:178); tambin se aplican a coeficientes anlogos como 2 36 Por ejemplo en Hedges y Olkin (1985:101ss), Kirk (1995) y otros.

Anlisis de varianza para muestras independientes

33

nuestro planteamiento sobre todo si desconocemos las desviaciones tpicas de las muestras o si las desviaciones tpicas de todas las muestras no difieren mucho entre s37. Esta desviacin tpica, como ya sabemos, no es otra cosa que la raz cuadrada de los cuadrados medios dentro de los grupos (porque estos cuadrados medios son la varianza comn, no la desviacin tpica comn). La frmula del tamao del efecto (que simbolizamos como d) es por lo tanto38: | Mi Mk | [29] d= CMdentro Podemos calcular el tamao del efecto de los grupos correspondiente a la diferencia entre los grupos 2 y 3 (tabla 1); el denominador (cuadrados medios dentro de los grupos) lo tomamos de la tabla 2. | 15.428 8.571 | 6.857 d= = = 1.70 ; podemos valorar esta diferencia como grande. 16.26 4.03 Si utilizamos en el denominador la desviacin tpica combinada de estos dos grupos nada ms (algo que tambin podemos hacer), el tamao del efecto que obtenemos es de 1.88, ligeramente mayor. Cuando la informacin disponible es slo la razn F y el tamao de los grupos, Thalheimer y Cook (2002) proponen esta frmula para calcular una estimacin del tamao del efecto.
n + n 2 n1 + n 2 d = F 1 (n 1 )(n 2 ) (n 1 + n 2 2)

[30]

4.2.2.2. El tamao del efecto como apreciacin global de la magnitud de las diferencias entre todas las medias

Cuando tenemos solamente dos grupos, el tamao del efecto es igual a la diferencia entre las dos medias dividida por la desviacin tpica combinada. Cuando hay ms dos grupos simultneamente, como sucede en el anlisis de varianza, disponemos de un tamao del efecto que no se refiere a la diferencia entre dos medias, sino a todas las diferencias de las medias con respecto a la media total. Lo que en este caso tenemos en el numerador es una cuantificacin de la dispersin o de las desviaciones de todas las medias con respecto a la media comn; comparamos estas diferencias entre todos los grupos con las diferencias entre los sujetos39. Expresado este concepto del tamao del efecto en trminos no convencionales, la frmula sera sta [31]:
tamao del efecto = variabilidad de las medias variabilidad de los sujetos

[31]

37 Cortina y Mauri (1999:11ss) 38 Jaccard (1998:36); Cortina y Nouri (2000:13); en estos dos ltimos autores puede verse un tratamiento ms extenso y especfico del tamao del efecto en el contexto del anlisis de varianza. 39 Explicado en Cohen (1988:274ss., 284). El numerador es anlogo a la desviacin tpica de las medias; el denominador es el mismo visto en el apartado anterior (la raz cuadrada de los Cuadrados Medios dentro de los grupos). El modo exacto de clculo puede verse en Kirk (1995, 180ss) con un ejemplo resuelto; en la prctica es ms sencillo atenerse al coeficiente 2

Anlisis de varianza para muestras independientes

34

En la prctica el clculo ms sencillo es a partir de 2 o 2, pues ambos valores estn relacionados de esta manera (Cohen ,1988:284).
f= 2 1 2

[32]

Este tamao del efecto asociado a la razn F se simboliza como f (Rosenthal y Rosnow (1991:450; que en esta frmula proponen 2 en vez de 2). Naturalmente este tamao del efecto no nos dice a quin favorece la diferencia, y no se puede utilizar para calcular el tamao del efecto medio tal como se hace en el meta-anlisis. Los valores de referencia para valorar la magnitud de este tamao del efecto corresponden a los ya vistos de 2:
tamao del efecto 2 f pequeo .01 .10 moderado .06 .25 grande .14 .40

En el caso de dos grupos nada ms, y utilizando 2 en vez de 2, f se relaciona con el tamao del efecto (d de Cohen) de esta manera: f = d/2 (Rosenthal y Rosnow, 1991:450). Es ms frecuente calcular 2 o 2 que f; de comprensin ms sencilla es 2 (una simple proporcin) aunque es til conocer tambin este tamao del efecto (f) pues tambin se utiliza y adems podemos encontrarlo en diversas tablas como referencia para calcular el nmero de sujetos necesario para un determinado experimento o estudio (la magnitud deseada es una variable que entra en la determinacin del tamao de la muestra).
5. Anlisis de varianza cuando solamente conocemos los valores de las medias y de las desviaciones tpicas

Hacemos un primer lugar una observacin de inters y que justifica este apartado. Los procedimientos que suelen exponerse para resolver el anlisis de varianza parten del supuesto de que conocemos todos los datos de todos los sujetos. Lo mismo sucede con los programas de ordenador (o de una hoja de clculo como EXCEL); hay que introducir todos los datos individuales. Sin embargo ste no es siempre el caso: de varias muestras podemos conocer solamente (o simplemente tener a mano) los valores del nmero de sujetos, la media y la desviacin tpica. O podemos encontrar estos datos publicados en algn lugar. En estos casos, sin ms datos de cada muestra (solamente n, M, ), podemos resolver el anlisis de varianza, y adems de una manera muy simple; de hecho ya lo hemos visto en los apartados anteriores aunque en todos los ejemplos disponamos de todos los datos individuales. Cuando no tenemos los datos de todos los sujetos, lo nico que hay que tener previsto es cmo combinar medias y desviaciones tpicas, y es lo que vamos a exponer aqu (las frmulas estn recogidas y demostradas en el anexo III). Vamos a verlo con dos ejemplos; en uno tenemos en cada grupo un nmero distinto de sujetos y en otro tenemos muestras de idntico tamao.
5.1. Cuando el nmero de sujetos es distinto en cada grupo

Datos en un tem de un cuestionario de evaluacin de una universidad por los alumnos (valoracin global de los profesores, en una escala de 1 a 5) en tres tipos de carreras de la misma universidad (tabla 5).

Anlisis de varianza para muestras independientes

35

n Media Desviacin tpica

A 1112 3.48 1.09

B 1214 3.97 1.06

C 400 4.34 1.10

Tabla 5 Lo primero que hacemos es calcular la media total (media ponderada por el nmero de sujetos en cada grupo): Mt = nM (1112x3.48) + (1214x3.97) + (400x4.34) 104225.34 = = = 3.8244 n 1112 + 1214 + 400 2726 264.8525 3169.2176

Suma de Cuadrados entre los grupos = n(M - Mt)2 = [1112 (3.48 - 3.824)2] + [1214(3.97 - 3.824)2] + [400 (4.34 - 3.824)2] = Suma de Cuadrados dentro de los grupos = n2 = (1112 x 1.092) + (1214 x 1.062) + (400 x 1.102) = Los resultados los tenemos en la tabla 6:
Origen de la variacin Suma de Cuadrados (SC) 264.8525 3169.2176 Grados de libertad (gl) 3 -1 = 2 2726 - 3 = 2723 Cuadrados Medios CM =

SC gl

F=

CM entre CM dentro

Entre grupos Dentro de los grupos

132.426 1.1638

113.78 (p < .01)

Tabla 6 Podemos afirmar con mucha seguridad que los grupos pertenecen a poblaciones distintas por lo que respecta a cmo juzgan la calidad global del profesorado; el criterio de clasificacin (variable independiente, facultades) tiene que ver con la variable dependiente, aunque est relacin no es grande (2 = .08). Los contrastes posteriores adecuados seran los de Scheff (muestras de tamao muy desigual). Lo que no hemos hecho es calcular la suma de cuadrados del total; nos puede interesar para calcular 2, o para comprobar que las sumas de cuadrados estn bien hechas, o para presentar completa la tabla de resultados. Podemos hacerlo sin dificultad, pero antes necesitamos la varianza de los totales (de las tres muestras juntas). Para combinar varianzas utilizamos esta frmula40: 2 = t
A + B +C =
2

n(M 2 + 2 ) - M2 t n

[33]

1112(3.482 +1.09 2 )+ 1214(3.972 + 1.062 ) + 400(4.34 2 + 1.102 ) 2726

-242= 1.2594

Esta varianza de los totales multiplicada por el nmero total de sujetos nos da la suma de cuadrados del total = (1.2594)(2726) = 3433.12.

40 Esta y otras frmulas para combinar medias y varianzas estn explicadas en el Anexo III.

Anlisis de varianza para muestras independientes

36

Si sumamos las dos sumas de cuadrados entre y dentro tenemos 264.8525 + 3169.2176 = 3434. Las dos sumas de cuadrados del total no son exactamente idnticas (calculadas por caminos distintos con distinto redondeo de decimales) por el diferente redondeo de decimales en cada paso, pero la diferencia es negligible.
5.2. Cuando el nmero de sujetos es el mismo en cada grupo

El procedimiento es similar, aunque algo ms sencillo. Vamos a utilizar los datos del primer ejemplo (tabla 1, reproducidos en la tabla 7).
A n Media Desv. tpica 7 11.714 3.917 B 7 15.428 2.921 C 7 8.571 4.237

Tabla 7 Como clculo auxiliar previo nos interesa la varianza de las medias, 2 = 7.854
Esta varianza, multiplicada por el nmero total de sujetos (N = 21) nos va dar la suma de cuadrados entre los grupos, y la suma de las tres varianzas de los grupos multiplicada por el nmero de sujetos que hay en cada grupo (n = 7) nos va dar la suma de cuadrados dentro de los grupos.

Podemos calcular la razn F directamente: N 2 (21)(7.854) 164.934 82.467 grados de libertad entre 2 2 = = = 5.069 F = suma de cuadrados dentro = k 12 = (7)(41.8273) 292.79 16.266 n grados de libertad dentro 21 3 18 Nk
suma de cuadrados entre

Tenemos el mismo resultado que hemos obtenido en tabla 2. Como antes, no nos ha hecho falta calcular la suma de cuadrados de los totales. Nos puede interesar calcularla para comprobar que las sumas de cuadrados entre y dentro cuadran o para presentar completa la tabla de resultados. Si vamos a calcular la suma de cuadrados total, nos va a hacer falta de nuevo la varianza de los totales, que multiplicada por N nos va a dar la suma de cuadrados total. Como se trata de muestras de idntico tamao, la frmula [33] queda simplificada as: 2 = t 2 + 2 - M2 t k [34]

La media total (Mt) , cuando las muestras son de idntico tamao, es igual a la media de las medias = 11.90 En nuestro caso:

2 A + B+C

11.714 2 + 15.4282 + 8.5712 + 3.9172 + 2.9212 + 4.23782 - 11.902 = 21.902 = 3

La suma de cuadrados de los totales ser = (21 = N)(21.902) = 459.95 que es casi (por no utilizar en todos los casos los mismos decimales) igual a las sumas de cuadrados obtenidas antes (164.934 + 292.79 = 458, tabla 2).

Anlisis de varianza para muestras independientes

37

Queda claro que a partir del nmero de sujetos, la media y la desviacin tpica de cada muestra (datos que con frecuencia estn disponibles, porque los hemos calculado previamente, estn publicados, etc.) es rpido y sencillo hacer todos los clculos del anlisis de varianza, sin necesidad de partir de todas las puntuaciones individuales (ni de utilizar un programa de ordenador). Tambin con slo estos datos, N, M y , disponemos de programas de Internet que nos resuelven el anlisis de varianza (direcciones en el ltimo apartado); en estos programas de Internet la desviacin tpica que hay que introducir es la de la poblacin (n-1, dividiendo por N-1).
6. Anlisis de varianza para dos muestras independientes

Normalmente cuando tenemos dos muestras independientes utilizamos el contraste de medias (t de Student), pero podemos utilizar igualmente el anlisis de varianza con idnticos resultados. En el caso de dos muestras independientes tenemos que t = F ; con ambos procedimientos llegamos a los mismos resultados y a las mismas conclusiones41.
6.1. Utilizando las desviaciones de las muestras

Desarrollamos el procedimiento con un ejemplo (tabla 9). Las operaciones son las mismas ya vistas a propsito de ms de dos grupos (resultados en la tabla 8). Las operaciones para grupos de distinto tamao son tambin vlidas cuando son del mismo tamao.
Grupo A 22 18 24 22 16 18 13 18 19 22 10 n1 = M1 = 19.2 1 = 3.156 Grupo B 12 16 10 10 4 6 17 14 14 10 10 n2 = M2 = 11.3 2= 3.95

Clculos previos

1 Calculamos la media y desviacin tpica (de la muestra; dividiendo por N) de cada uno de los dos grupos; 2 Calculamos la desviacin tpica de los totales, de n1+ n2 = N = 20; total= 5. 328 3 Calculamos la desviacin tpica de las dos medias (como si se tratara de un grupo de dos sujetos), M = 3.95

Tabla 8
Sumas de Cuadrados (numerador de las varianzas):

1. Del total: 2. Dentro de los grupos (SCdentro) de idntico tamao: de distinto tamao:

N t = (20)(5.328)2 =
2

567.75

n( 2 + 2 ) = (10)(3.1562 + 3.952) = 1 2 2 n 11 + n 2 2 = (10 x 3.1562 )+ (10 x 3.952) = 2

255.63 255.63

41 Cabe preguntarse si cuando se ensea y aprende el contraste de medias (t de Student) no sera preferible comenzar con el anlisis de varianza, que se podra despus aplicar con menor dificultad de comprensin a otras situaciones. De hecho la explicacin dada en la introduccin al anlisis de varianza est referida al caso de dos muestras por ser ms fcil de captar. Una limitacin de utilizar el anlisis de varianza con slo dos muestras puede estar en que los valores de F se refieren solamente a pruebas bilaterales (Guguen. 1997), pero tambin es verdad que son las pruebas que habitualmente utilizamos.

Anlisis de varianza para muestras independientes

38

3. Entre los grupos (SCentre): de idntico tamao: de distinto tamao:

N 2 = (20)(3.95)2 = M n1(M1 - Mt )2 + n2 (M2 - Mt)2 = [10(19.2-15.25)2] + [10(11.3-15.25)2] =

312.05 312.05

Los grados de libertad (denominador de las varianzas)son: 20-1= 19 del total = N-1 (N = n1 + n2): dentro de los grupos = N - nmero de grupos: 20-2= 18 entre los grupos = nmero de grupos - 1: 2-1= 1
Origen de la variacin Suma de Cuadrados (SC) Grados de libertad (gl) Cuadrados Medios SC varianza = gl

F=

CM entre CM dentro

Entre de los grupos Dentro de los grupos Variabilidad total

312.05 255.63 567.75

1 18 19 Tabla 9

312.05 14.20

21.97 (p < .01)

Con slo dos grupos de idntico tamao los Cuadrados Medios entre los grupos se pueden calcular directamente de manera ms sencilla (coinciden con la Suma de Cuadrados, numerador de la varianza, porque los grados de libertad, el denominador, es igual a 1): CM entre = n(M1 M2 ) 2 2 [33] 19.2- 11.3 3.156 2 3.952 + 9 9 = 10(19.2 11.3) 2 = 312.05 2

Si calculamos la t de Student: t =

= 4.687

y 4.6872 = 21.967 pues t2 = F (cuando slo tenemos dos muestras).


6.2. Utilizando las desviaciones de las poblaciones
2 Si calculamos las varianzas de las poblaciones ( n1 ) en vez de las varianzas de las muestras ( 2 )podemos calcular directamente y con toda facilidad los cuadrados medios n (varianzas entre y dentro de los grupos) y la razn F, tal como hemos visto antes y tenemos resumido en la frmula [6] y que repetimos aqu:

F=

(n)(varianza de las medias n -1 ) media de las varianzas de los grupos (= n 1 / k )


2

[6]

1. Cuadrados medios dentro de los grupos Necesitamos las varianzas de los grupos dividiendo por N-1; podemos calcularlas directamente si se trata de pocos sujetos, pero si ya disponemos de las varianzas dividiendo por N y se trata de muchos sujetos y habra que introducir los datos en una hoja de clculo o son datos que encontramos publicados o que tenemos guardados de otras ocasiones, podemos utilizar la frmula [2], que a modo de ejemplo vamos a aplicar aqu:
Anlisis de varianza para muestras independientes

39

2 n-1

n 2 = n n 1

[2]

Grupo A: n = 3.156 Grupo B: n = 3.95 CMdentro = 2 1 / k = n

2 n-1

(10)(3.1562 ) = = 11.067 10 1

(10)(3.952 ) = = 17.336 10 1 11.067 + 17.336 = 14.20 2


2 n-1

2. Cuadrados medios entre los grupos Para calcular los cuadrados medios entre grupos necesitamos la varianza ( 2 ) de las n-1 dos medias:
2 de M1 (19.2) y M2 (11.3) = 5.5862 = 31.205 n-1
Cuadrados medios entre los grupos = n x 2 =(10)(31.205) = 312.05 n-1

3. Y finalmente

F=

n x 2 (de las medias) n-1

2 n-1 (de

los grupos)/nmero de grupos

312.05 = 21.97 14.20

Hemos llegado a los mismos resultados que tenemos en la tabla 9. Aunque en este caso se trataba de solamente de dos grupos, el procedimiento es igualmente vlido para cualquier nmero de grupos de idntico tamao.
7. Cmo presentar los resultados del anlisis de varianza

Es importante presentar los resultados con claridad. Las tablas de resultados convencionales que se hacen en cada anlisis de varianza son claras para presentar cada anlisis de varianza, sobre todo si se trata de un solo anlisis o de unos pocos, pero cuando se comparan varias muestras en una serie de variables, hay que buscar un mtodo de presentacin de conjunto que de manera casi intuitiva facilite la comprensin e interpretacin de los resultados tanto del anlisis de varianza como de los contrastes posteriores. En el ejemplo puesto como ilustracin (tabla 10)42 se han comparado entre s cinco muestras en nueve variables (hay por lo tanto nueve anlisis de varianza). En la primera columna aparecen el nombre de las variables y los valores de F, p y 2 de cada anlisis. Aunque estos datos se pueden presentar de diversas maneras, lo que no debe faltar, siguiendo las recomendaciones de la APA (2001), es algn indicador del tamao del efecto o algn coeficiente de asociacin (como 2 en el ejemplo de la tabla 11) (APA, 2001). En la segunda columna estn los grupos (dos muestras normativas) cuyas medias son significativamente mayores que las medias de las muestras puestas en la misma fila. Aparecen tambin los valores del contraste de Scheff y la probabilidad asociada a estos valores. Los datos descriptivos de las muestras (nmero de sujetos, media y desviacin) pueden figurar en otra tabla distinta.

42 Tomado de Gismero, Elena (1995). La conducta asertiva y su relacin con la anorexia nerviosa. Madrid: Universidad Pontificia Comillas. En esta presentacin hubiera sido til incluir el tamao del efecto.

Anlisis de varianza para muestras independientes

40

De manera intuitiva se ve qu muestras tienen en general medias mayores (segunda columna) y qu muestras tienden a tener medias ms bajas.
VARIABLE EXPRESIN DE DESACUERDO

muestras con medias ms altas


CONTROL ANOREXIA

muestras con medias ms bajas


TERAPIA

3.407, p < .03 DIETA DIETA


ANOREXIA

3.471, p < .02


TERAPIA

F = 5.29,2 = .114 p < .001


AUTOAFIRMACIN ANTE EXTRAOS

2.885 p < .08 3.05, p < .06

F = 3.18, 2 = .07 p < .05 AUTOEXPRESIN SOCIAL 2 = .12 F = 5.632 p < .001 ASERTIVIDAD
GENERAL

CONTROL

ANOREXIA

DIETA
CONTROL

3.984, p < .01 ANOREXIA 3.474, p < .02


ANOREXIA

F = 6.34, 2 = .13 p < 0001 SATISFACCIN PROPIO CUERPO F = 7.07, 2 = .15 p < 0001 AUTOCONCEPTO F = 23.22, 2 = .36 p < 0001 COMPRENSIN PARENTAL F = 23.22, 2 = .21 p < 0001 ACEPTACIN
SOCIAL

DIETA
CONTROL

4.1657, p < .001 ANOREXIA 3.658, p < .05


ANOREXIA

DIETA
TERAPIA CONTROL

4.786, p < .001 ANOREXIA 3.474, p < .05 ANOREXIA 3.483, p < .02
ANOREXIA BULIMIA TERAPIA

DIETA
CONTROL

4.818, p < .0001 ANOREXIA 8.149, p < .0001


ANOREXIA

2.826, p < .10


BULIMIA

3.931, p < .01


TERAPIA

3.579, p < .02


BULIMIA

4.70, p < .001


TERAPIA

DIETA
CONTROL

3.393, p < .03 ANOREXIA 3.313, p < .04


ANOREXIA

3.547, p < .01


BULIMIA

5.24, p < .0001


TERAPIA

3.587, p < .01

5.69, p < .0001

F = 7.71, 2 = .16 p < 0001 AUTOCONCEPTO F = 24.44, 2 = .37 p < 0001

DIETA
CONTROL

5.101, p < .0001 ANOREXIA 4.389, p < .01


ANOREXIA BULIMIA TERAPIA

DIETA

8.03, p < .0001 ANOREXIA 8.04, p < .0001

3.306, p < .04


BULIMIA

4.54, p < .001


TERAPIA

3.83, p < .01

5.02, p < .0001

Tabla 10 En este ejemplo (con variables en el mbito de la asertividad y del autoconcepto) se puede observar, casi de un golpe de vista, que dos grupos, el de control (N = 57) y dieta (N = 33) no difieren entre s y a la vez ambas muestras superan en casi todas las variables al grupo anorexia (N = 45) y en menos variables (posiblemente debido al menor nmero de sujetos en

Anlisis de varianza para muestras independientes

41

estas muestras) a las muestras bulimia (N = 12) y terapia (N = 33); la muestra anorexia es la que aparece en peores condiciones en estas variables43. Debajo del nombre de cada grupo est puesto el valor de Scheff y su probabilidad; hubiera quedado ms completa la informacin aadiendo el tamao del efecto correspondiente a cada contraste. Otra manera de presentar los resultados es la que figura en la tabla 12. Adems de presentar la tabla habitual de resultados y otra informacin relevante (puede ser suficiente una informacin semejante a la puesta en la primera columna de la tabla 11), si se quiere poner el nfasis en la magnitud de las diferencias entre los grupos, se puede hacer una tabla en la que figuren las diferencias estadsticamente significativas (la probabilidad p corresponde en este caso a los contrastes de Scheff) y los tamaos del efecto al comparar las medias de dos en dos. Un ejemplo puede ser el de la tabla 11, comparando alumnos de diversas facultades en la importancia que se da a tener puestos de autoridad en distintas profesiones.44
PiscoMedias ms pedagoga altas Derecho y p = .001 Econmicas d = .56 Ingeniera

Medias ms bajas Enfermera Derecho y Ingeniera Econmicas p = .000 ----d = .65 p = .16 ----d = .45 Tabla 11

Trabajo Social p = .000 d = .67 p = .096 d = .47

Filosofa Teologa p = .04 d = .50

Esta informacin puede ir acompaada de algn grfico como el de la figura 1 en el que se aprecian con facilidad las diferencias entre las medias.
11 10,5 10 9,5 9 8,5 8 7,5 7
Psicopedag. Enfermera Derch. IngenieProfesiones Econm ra Trabajo Social Filosof. Teologa

M edias

Figura 1 Otra manera de presentar un resumen de los resultados es sta: 1 Se ordenan las medias de ms a menos 2 Se unen con la misma lnea continua las medias que no difieren entre s

43 En un trabajo acadmico (como una tesis doctoral) las tablas completas de los resultados de cada anlisis de varianza pueden ir en un anexo; lo que se presenta en esta tabla es un resumen significativo con la informacin que se va a interpretar o comentar.. 44 Datos tomados de la tesis doctoral de Rufino Meana La experiencia subjetiva de sentido y su relacin con variables psicolgicas y sociodemogrficas, Universidad Pontifica Comillas (2003).

Anlisis de varianza para muestras independientes

42

Por ejemplo (ejemplo ficticio): Medias de cuatro grupos ordenadas de ms a menos: I II III IV

-No difieren entre s el I y el II, el II y el III y el III y el IV (unidos por lnea continua) -El I supera al III y al IV y el II solamente al IV (no unidos por lnea continua) Tambin caben cuadros y resmenes en los que se pueden incluir comentarios cualitativos como complemento a los datos cuantitativos.
8. El anlisis de varianza en programas informticos y en Internet 8.1. Anlisis de varianza para muestras independientes en EXCEL y en el SPSS

Para utilizar estos recursos hay ya manuales especficos, aqu nos limitamos a dar algunas indicaciones. Para utilizar EXCEL o el SPSS (y en general cualquier paquete informtico con programas estadsticos) necesitamos introducir en primer lugar todos los datos de todos los sujetos; no podemos operar a partir solamente del nmero de sujetos, media y desviacin tpica de cada grupo. En este apartado nos referimos exclusivamente al anlisis de varianza para varias muestras independientes.
EXCEL. El anlisis de varianza para muestras independientes se denomina en EXCEL anlisis de varianza de un factor. Adems de los datos descriptivos de cada grupo nos da la tabla final de resultados, pero no los contrastes posteriores. SPSS. En analizar (barra superior) tenemos la opcin comparar medias y all ANOVA de un factor. De los contrastes posteriores comentados (post hoc en el cuadro de dilogo) tenemos, entre otras opciones, los contrastes de Scheffe, Tuckey, Duncan (comentado en el apartado dedicado al contraste de Newman-Keuls del que es una variante; los contrastes de Duncan y Newman-Keuls para muestras de idntico tamao son algo ms liberales que el de Tukey), Games-Howell (tamao distinto y varianza desiguales, puede ser una buena alternativa a Scheff) y Dunnett.

Otros clculos complementarios, como el coeficiente 2 y tamao del efecto, se completan fcilmente con una calculadora teniendo las frmulas a la vista.
8.2. Recursos en Internet relacionados con el Anlisis de Varianza

En Internet disponemos adems de numerosos recursos para llevar a cabo anlisis estadsticos. Pueden ser especialmente tiles en varias situaciones: a) Cuando no tenemos disponibles hojas de clculo como EXCEL, o programas informticos como el SPSS. b) Cuando de las distintas muestras tenemos disponibles el nmero de sujetos, las medias y las desviaciones; slo con estos datos no podemos utilizar programas como el SPSS que requieren la introduccin de todos los datos de todos los sujetos, pero s podemos llevar a cabo un anlisis de varianza con toda facilidad. Por lo que respecta al anlisis de varianza en Internet hacemos una seleccin de pginas Web (hay muchas ms) tiles con distintas finalidades45.

45 Las direcciones de Internet son con frecuencia inestables pero disponiendo de informacin sobre ttulos y autores no es difcil encontrar estas u otras con informacin semejante en los buscadores de Internet.

Anlisis de varianza para muestras independientes

43

8.2.1. Test de Bartlett para comprobar la homogeneidad de varianzas

Si queremos verificar si las varianzas no difieren significativamente podemos utilizar el test de Bartlett, sencillo y programado en Internet, http://home.ubalt.edu/ntsbarsh/Businessstat/otherapplets/BartletTest.htm Basta introducir de cada muestra el nmero de sujetos y las varianzas (no las desviaciones tpicas) y si p > .05 podemos aceptar la homogeneidad de varianzas (esta direccin, con otras muchas posibilidades de anlisis estadsticos, se encuentra en la Home Page de Hossein Arsham http://home.ubalt.edu/ntsbarsh/Business-stat/home.html en JavaScript E-labs Learning Objects)
8.2.2. Tablas de la F de Snedecor, Tukey, Dunnett y Bonferroni

Las tablas convencionales que suelen estar en libros de texto tambin estn disponibles en Internet.
Tablas de la F de Snedecor

Las tablas de la F de Snedecor se encuentran en muchas direcciones de Internet, con distintas presentaciones y para distintos niveles de confianza, por ejemplo: ALEXEI, SHAROV. Department of Entomolgy, Virginia Tech, Blacksburg, VA On-Line Lectures, http://www.ento.vt.edu/~sharov/PopEcol/tables/f005.html para = .05, .01 y .001 GERSTMAN, B. BURT (2003). StatPrimer, http://www.sjsu.edu/faculty/gerstman/StatPrimer/ en Probability Tables para = .10, .05, .025, .01 y .001 SIX SIGMA Reference Tables http://www.micquality.com/reference_tables/index.htm para = .01, .025, .05, .10 y .25 STATSOFT, INC., Distribution tables, http://www.statsoft.com/textbook/sttable.html tablas para = .10, .05, .025 y .01
Tablas de Tukey

http://www.stat.duke.edu/courses/Spring98/sta110c/qtable.html BISSONNETTE, VICTOR L., Berry College http://fsweb.berry.edu/academic/education/vbissonnette/ Some Useful Statistical Tables, http://fsweb.berry.edu/academic/education/vbissonnette/tables/posthoc.pdf CHAVES, COSME Introduccin a la Estadstica http://costaricalinda.com/Estadistica/ (tablas)
Tablas de Dunnett

ARMSTRONG, J. SCOTt http://www.forecastingprinciples.com/tables.pdf Reprinted from Armstrong, J. Scott, Long-Range Forecasting. New York, John Wiley 1985 (reproducidas de la publicacin original de Dunnett (niveles de confianza .05 y .01 para pruebas de una y dos colas) LANE, DAVID M. HyperStat Online Statistics Textbook (http://davidmlane.com/hyperstat/index.html) http://davidmlane.com/hyperstat/table_Dunnett.html (en Introduction to Between-Subjects ANOVA Comparing means with a control) Table Critical values for the Dunnett test http://www.watpon.com/table/dunnetttest.pdf

Anlisis de varianza para muestras independientes

44

BISSONNETTE, VICTOR L., Berry College http://facultyweb.berry.edu/vbissonnette/ Some Useful Statistical Tables, Table Critical values for the Dunnett test http://www.watpon.com/table/dunnetttest.pdf CHAVES, COSME Introduccin a la Estadstica http://costaricalinda.com/Estadistica/ (tablas)
Tablas de Bonferroni

BISSONNETTE, VICTOR L., Berry College http://fsweb.berry.edu/academic/education/vbissonnette/ Some Useful Statistical Tables, Critical Values of Dunns (Bonferroni) test (experimentwise = .05)
8.2.3. Probabilidades exactas de la razn F en Internet

Las probabilidades exactas de la razn F (y otros estadsticos) pueden verse al menos en estas direcciones: a) THE CHINESE UNIVERSITY OF HONG KONG, DEPARTMENT OF OBSTETRICS AND GYNAECOLOGY, http://department.obg.cuhk.edu.hk/researchsupport/statmenu.asp; en Statistics Tool Box se busca Statistical Tests y all Statistical Significance, o directamente http://department.obg.cuhk.edu.hk/researchsupport/F_Test.asp. b) HYPERSTAT ONLINE TEXTBOOK (de David M. Lane) http://davidmlane.com/hyperstat/ en Analysis Tools buscar Tables; (hay varios programas; se puede ir directamente a http://davidmlane.com/hyperstat/F_table.html o a http://members.aol.com/johnp71/pdfs.html c) SISA, Simple Interactive Statistical Analysis (Daan Uitenbroek PhD, Research and Statistical Consultancy, Hilversum, The Netherlands) http://www.quantitativeskills.com/sisa/ (en significance testing). d) GRAPH PAD SOFTWARE http://graphpad.com/quickcalcs/PValue1.cfm
8.2.4. Cmo llevar a cabo un Anlisis de Varianza en Internet

Aunque en las pginas seleccionadas nos fijamos en el anlisis de varianza para muestras independientes, podemos encontrar tambin programas para hacer otros tipos de anlisis de varianza. Esta seleccin (es slo una seleccin pues hay muchos ms programas en Internet) la dividimos en dos apartados: a) cuando tenemos disponibles medias y desviaciones de las muestras y b) cuando vamos a introducir todos los datos de todos los sujetos.
8.2.4.1. A partir del nmero de sujetos, medias y desviaciones de las muestras

Estos programas son muy tiles porque con frecuencia no disponemos de los datos de cada sujeto y los nicos datos disponibles de cada muestra (a veces en obtenidos en anlisis previos) son el nmero de sujetos, la media y la desviacin tpica; con slo estos datos no podemos acudir a EXCEL o al SPSS. Seleccionamos tres programas muy sencillos (hay muchos ms); nos basta introducir el nmero de sujetos, la media y la desviacin tpica de cada muestra. a) PEZZULLO, JHON C. Web Pages that Perform Statistical Calculations. http://members.aol.com/johnp71/javastat.html (ste es el modo de citar esta fuente). Analysis of Variance from Summary Data http://members.aol.com/johnp71/anova1sm.html (en Web Pages that Perform Statistical Calculations! http://members.aol.com/johnp71/javastat.html)
Anlisis de varianza para muestras independientes

45

La desviacin tpica que hay que introducir es la de la poblacin (dividiendo por N-1); es lo normal en los programas de Internet. Si el nmero de sujetos es muy grande las dos desviaciones apenas difieren (dividir por 200 o por 199 no altera gran cosa los resultados) pero si se tiene calculada la desviacin tpica de la muestra (n) es muy sencillo calcular la de la poblacin (n-1):
n-1 =
2 N n N 1

Este programa no calcula los contrastes posteriores. b) DANIEL SOPER.com http://www.danielsoper.com/default.aspx en Statistics calculators ANALYSIS OF VARIANCE One-Way ANOVA from Summary Data Este programa no calcula los contrastes posteriores c) DEPARTMENT OF OBSTRETRICS AND GYNAECOLOGY, THE CHINESE UNIVERSITY OF HONG KONG http://department.obg.cuhk.edu.hk/ResearchSupport/OWAV.asp La referencia citada en esta fuente es: Armitage P. Statistical Methods in Medical Research (1971). Blackwell Scientific Publications. Oxford. P.189-207 Este programa da adems simultneamente el contraste de Tukey; tambin estn programados los contrastes posteriores de Scheff en http://department.obg.cuhk.edu.hk/ResearchSupport/Least_sig_diff_Scheffe.asp (en el men de la izquierda, en categories buscar group differences).
8.2.4.2. Introduciendo los datos de todos los sujetos

Cuando hay que introducir todos los datos de todos los sujetos, lo habitual es utilizar EXCEL o el SPSS, pero tambin disponemos de programas en Internet. Un programa sencillo lo tenemos en KIRKMAN, T.W , College of Saint Benedict/Saint Johns University [http://www.csbsju.edu/] http://www.physics.csbsju.edu/stats/anova.html; el ndice de anlisis estadsticos de este centro est en http://www.physics.csbsju.edu/stats/ Los datos se pueden introducir de dos maneras, copindolos de una tabla o introducindolos directamente. Este programa no calcula los contrastes posteriores. Otro programa para llevara cabo un anlisis de varianza introduciendo los datos de odos los sujetos es LOWRY, RICHARD, VASSARSTATS: Web Site for Statistical Computation,Vassar College, Poughkeepsie, NY, USA; http://faculty.vassar.edu/lowry/VassarStats.html (ANOVA en el men de la izquierda)
8.2.4.3. Contrastes posteriores

Los contrastes de Bonferroni estn programados en GraphPad, San Diego, CA [http://graphpad.com/] Free Online Calculators for Scientists http://graphpad.com/quickcalcs/posttest1.cfm (en how the calculations are performed se especifica que se trata del test de Bonferroni) pero se trata de un contraste considerado demasiado conservador (tiene poca potencia para rechazar la Hiptesis Nula cuando realmente es falsa (Hancock y Klockars, 1996; Jaccard, 1998)46. No se trata propiamente de contrastes posteriores, sino de las probabilidades equivalentes a .05 cuando hacemos

46 Pueden verse los comentarios hechos antes a propsito de estos contrastes y en el Anexo II.

Anlisis de varianza para muestras independientes

46

mltiples contrastes, y tampoco es un procedimiento pensado especficamente para el anlisis de varianza. En DEPARTMENT OF OBSTRETRICS AND GYNAECOLOGY, THE CHINESE UNIVERSITY OF HONG KONG http://department.obg.cuhk.edu.hk/ResearchSupport/OWAV.asp tenemos programados los contrastes posteriores de Scheff, Tukey y los correspondientes a la prueba de Kruskal-Wallis que es la alternativa no paramtrica (utilizando rangos) al anlisis de varianza para muestras independientes.
9. Referencias bibliogrficas AMERICAN PSYCHOLOGICAL ASSOCIATION. (2001). Publication Manual of the American Psychological Association (5th edition). Washington, DC: Author. ARSHAM, HOSSEIN, Homepage http://home.ubalt.edu/ntsbarsh/Business-stat/home.html (en JavaScript E-labs Learning Objects) BISSONNETTE, VICTOR L., Berry College (2000). Course Resources http://fsweb.berry.edu/academic/education/vbissonnette/ BLACK, THOMAS R. (1999). Doing Quantitative Research in the Social Sciences. London: Sage. CHAVES, COSME Introduccin a la Estadstica http://costaricalinda.com/Estadistica/ COHEN, JACOB (1988). Statistical Power Analysis for the Behavioral Sciences. Second Edition. Hillsdale, N.J.: Lawrence Elrbraum. COOMBS, WILLIAM T.; ALGINA, JAMES and OLTMAN, DEBRA OLSON, (1996). Univariate and Multivariate Omnibus Hypothesis Tests Selected to Control Type I Error Rates When Population Variances Are Not Necessarily Equal. Review of Educational Research, 66 (2), 137-179. CORTINA, JOSE M. and NOURI, HOSSSEIN (2000). Effect Size for ANOVA Designs. Quantitative Applications in the Social Sciences. Thousand Oaks: Sage. DALLAL, GERARD E. (2001) The Little Handbook of Statistical Practice (en Multiple Comparisons) http://www.tufts.edu/~gdallal/LHSP.HTM (consultado 5 de Octubre, 2007). DEPARTMENT OF OBSTRETRICS AND GYNAECOLOGY, THE CHINESE UNIVERSITY OF HONG KONG, http://department.obg.cuhk.edu.hk/index.asp?scr=1024 DOWNIE, N.M. Y HEATH, R.W., (1971). Mtodos estadsticos aplicados. Madrid: Ediciones del Castillo ESCOTET, MIGUEL A., (1980). Diseo multivariado en psicologa y educacin. Barcelona: Ceac. GERSTMAN, B. BURT (2003). StatPrimer, http://www.sjsu.edu/faculty/gerstman/StatPrimer/ GISMERO, ELENA (1995). La conducta asertiva y su relacin con la anorexia nerviosa. Madrid: Universidad Pontificia Comillas. GORDON, LEONARD V. (1973). One-Way Analysis of Variance Using Means and Standard Deviations. Educational and Psychological Measurement, 12 1973; vol. 33: pp. 815 816 GRAPH PAD SOFTWARE Online calculators for scientists http://graphpad.com/quickcalcs/PValue1.cfm GUGUEN, NICOLAS (1997). Manuel de Statistique pour Psychologues. Paris: Dunod. GUILFORD, J. P. y FRUCHTER, B., (1984). Estadstica aplicada a la psicologa y la educacin, Mxico: McGraw-Hill. [En Ingls: Fundamental Statistics in Psychology and Education, 1973. New York: McGraw-Hill].

Anlisis de varianza para muestras independientes

47

HANCOCK, GREGORY R. AND KLOCKARS, ALAN J., (1996). The Quest for : Developments in Multiple Comparison Procedures in the Quarter Century Since Games (1971). Review of Educational Research, 66, (3). 269 - 306. HEDGES, LARRY V. and OLKIN, INGRAM, (1985). Statistical Methods for Meta-Analysis. New York: Academic Press. HINKLE, DENNIS E.; WIERSMA, WILLIAM and JURS, STEPHEN G. (1994). Applied Statistics for the Behavioral Sciences. Boston: Houghton-Mifflin. HUCK, SCHUYLER W. and MALGADY, ROBERT G., (1978). Two-Way Analysis of Variance Using Means and Standard Deviations. Educational and Psychological Measurement, 38, 235-237. HUCK, SCHUYLER W., CORMIER, WILLIAM H. AND BOUNDS, WILIAM G., (1974), Reading Statistics and Research, New York, Harper & Row JACCARD, JAMES (1998). Interaction Effecs in Factorial Analysis of Variance, Sage University Paper Series on Quantitative Applications in the Social Sciences. Thousand Oaks: Sage. KESELMAN, H. J.; HUBERTY, CARL J.; LIX, LISA M.; OLEJNIK, STEPHEN; CRIBBIE, ROBERT A.; DONAHUE, BARBARA; KOWALCHUK, RHONDA K.; LOWMAN, LAUREEN L.; PETOSKEY, MARTHA D. and KESELMAN, JOANNE, C. (1998). Statistical Preferences of Educational Researchers: An Analysis of Their ANOVA, MANOVA and ANCOVA Analyses. Review of Educational Research, 68 (3), 350-385. KIRK, ROGER E., (1995). Experimental Design, Procedures for the Behavioral Sciences. Boston: Brooks/Cole. KIRKMAN, T.W. (1996) College of Saint Benedict/Saint Johns University. Statistists to Use. http://www.physics.csbsju.edu/stats/ KLOCKARS, ALAN J. and HANCOCK, GREGORY R. (1998). A More Powerful Post Hoc Multiple Comparison Procedure in Analysis of Variance. Journal of Educational and Behavioral Statistics, Vol. 23 (3). KLOCKARS, ALAN J. and SAX, GILBERT, (1986). Multiple Comparisons: Sage University Paper Series on Quantitative Applications in the Social Sciences. Newbury Park: Sage. LANE, DAVID M. HyperStat Online Statistics Textbook (Last updated: 3/16/2009)http://davidmlane.com/hyperstat/index.html (consultado 07, 010, 2007) LINTON, MARIGOLD; GALLO JR., PHILLIP S. and LOGAN, CHERYL A., (1975), The Practical Statistician, Simplified Handbook of Statistics, Monterey, Brooks/Cole. MARTNEZ GARZA, NGEL, (1988). Diseos Experimentales. Mxico: Trillas. NUNNALLY, JUM C. and BERNSTEIN, IRA H. (1994). Psychometric Theory, 3rd. ed., New York, McGraw-Hill. PERNEGER, THOMAS V. (1998). What's wrong with Bonferroni adjustments. British Medical Journal 1998;316:1236-1238 http://www.bmj.com/cgi/content/full/316/7139/1236 PEZZULLO, JHON C. Web Pages that Perform Statistical Calculations. http://members.aol.com/johnp71/javastat.html RODRIGUES, AROLDO, (1977). Investigacin experimental en psicologa y educacin. Mxico: Trillas. ROSENTHAL, ROBERT and ROSNOW, RALPH L. (1991). Essentials of Behavioral Research, Methods and Data Analysis. Boston: McGraw-Hill. RUNYON, RICHARD P. y HABER, AUDREY, (1984) Estadstica para las Ciencias Sociales, Mxico, Fondo Educativo Interamericano. SHAROV, ALEXEI (1996). Quantitative Population Ecology, On-Line Lectures, http://home.comcast.net/~sharov/PopEcol/ SIX SIGMA Reference Tables http://www.micquality.com/reference_tables/index.htm
Anlisis de varianza para muestras independientes

48

STATSOFT, Inc. (2007). Electronic Statistics Textbook. Tulsa, OK: StatSoft. WEB: http://www.statsoft.com/textbook/stathome.html. THALHEIMER, WILL & COOK, SAMANTHA. (2002). How to Calculate Effect Sizes From Published Research Articles: A Simplified Methodology. A Work-Learning Research Publication Available online: http://www.learningaudit.com/white_papers/effect_sizes/Effect_Sizes_pdf4.pdf (consultado 30 de Mayo, 2011). TOOTHAKER, LARRY E., (1993). Multiple Comparison Procedures, Sage University Paper Series on Quantitative Applications in the Social Sciences. Newbury Park: Sage. UITENBROEK, DAAN SISA, Simple Interactive Statistical Analysis. http://www.quantitativeskills.com/sisa/ WILDT, ALBERT R. and AHTOLA, OLLI T., (1978). Analysis of Covariance, Sage University Paper Series on Quantitative Applications in the Social Sciences. Beverly Hills: Sage.

Anlisis de varianza para muestras independientes

Anlisis de varianza para varias muestras relacionadas


Universidad Pontificia Comillas Facultad de Ciencias Humanas y Sociales Pedro Morales Vallejo (ltima revisin, 1 de Diciembre de 2009)

ndice

1. Introduccin......................................................................................................... 2. Anlisis de varianza............................................................................................. 3. Observaciones sobre los grados de libertad......................................................... 3.1. La condicin de esfericidad ....................................................................... 3.2. Cmo proceder en la prctica ..................................................................... 4. Contrastes posteriores.......................................................................................... 5. Anlisis complementarios: los coeficientes de asociacin y de fiabilidad.......... 5.1. Coeficientes de asociacin (2 y 2parcial) ..................................................... 5.2. Coeficientes de fiabilidad ............................................................................. 5.2.1. Fiabilidad de filas y columnas ............................................................

3 5 8 8 8 10 10 10 11 11

5.2.2. Relacin entre fiabilidad (consistencia interna) y anlisis de varianza para muestras relacionadas.................................................................. 13 5.2.3. Cuando las dos razones F (de las filas y de las columnas) son estadsticamente significativas ..................................................... 5.2.4. Anlisis de varianza para muestras relacionadas y el coeficiente de Cronbach............................................................ 6. Un ejemplo de anlisis de varianza para muestras relacionadas ......................... 6.1. Anlisis de varianza ...................................................................................... 6.2. Coeficientes de fiabilidad y 2 ..................................................................... 6.3. Contrastes posteriores y representacin grfica ........................................... 7. Anlisis de varianza para muestras relacionadas en EXCEL y en el SPSS ........ 8. El anlisis de varianza para muestras relacionadas en Internet........................... 9. Referencias bibliogrficas ................................................................................... 16 18 19 19 21 22 22 23 23

Anlisis de varianza para muestras relacionadas

1. Introduccin En este modelo de anlisis de varianza1 tenemos los mismos sujetos con observaciones o puntuaciones en la misma variable pero en condiciones distintas o en la misma condicin pero en tiempos distintos2. Como se trata de los mismos sujetos tenemos muestras relacionadas. Tambin puede tratarse de sujetos fsicamente distintos pero igualados en variables relevantes (variables que controlamos con esta igualacin); en este caso se trata tambin de muestras relacionadas. En la presentacin de los datos las filas son los sujetos, y las columnas son las condiciones. Una ventaja de utilizar a los mismos sujetos en tratamientos experimentales es que necesitaremos menos sujetos que si se trata de muestras independientes: si queremos comprobar la eficacia relativa de tres actividades distintas de aprendizaje con sujetos distintos, y estimamos en 10 el nmero mnimo de sujetos, necesitaremos 30 sujetos. Si utilizamos a los mismos sujetos en las tres actividades, nos bastarn 10 sujetos, y adems no tenemos que preocuparnos de que los tres grupos sean equivalentes pues se trata siempre de los mismos sujetos3. Se trata de comprobar en qu medida la variabilidad total se debe a diferencias entre los sujetos (filas), a diferencias entre las condiciones (columnas) o a la interaccin entre filas y columnas. Podemos distinguir varios planteamientos sencillos que se pueden analizar mediante este modelo de anlisis de varianza. Realmente se trata del mismo planteamiento, pero puede resultar sugerente verlo desde diversas perspectivas o desde diversas preguntas de investigacin que podemos hacernos y cuyas respuestas podemos encontrar en este modelo de anlisis de varianza. Se trata de un mtodo de anlisis vlido siempre que se trate de muestras relacionadas, aunque no se trate de diseos experimentales en sentido propio. 1 Cuando los mismos sujetos van a pasar por una serie de tratamientos experimentales. La variable dependiente, la que medimos, es siempre la misma (medidas repetidas), como puede ser aprendizaje, satisfaccin, mejora, etc., que medimos despus de cada tratamiento. En este caso cada condicin (distintos mtodos, etc.) puede influir en los tratamientos o experiencias subsiguientes: el aprendizaje previo, el cansancio, etc., de una ocasin puede estar influyendo en los resultados de la ocasin siguiente. Este problema (derivado del orden en el que los sujetos pasan por las distintas experiencias) puede resolverse de dos maneras: a) Mediante diseos equilibrados (counterbalanced): los sujetos pasan por los distintos tratamientos en un orden distinto, para neutralizar o minimizar los efectos del aprendizaje previo, cansancio, etc.4

1 Tambin se le denomina a veces de clasificacin doble, o de un factor con medidas repetidas, o de dos factores con una muestra por grupo (en EXCEL); el trmino ms genrico y claro es sencillamente anlisis de varianza para muestras relacionadas: en todas las condiciones (en cada fila) tenemos a los mismos sujetos o a sujetos igualados. 2 Si lo que deseamos es conocer no si hay diferencias entre ocasiones, sino si se advierte una tendencia a aumentar o disminuir, tenemos un anlisis de varianza especfico para verificar tendencias que veremos ms adelante. 3 Sobre estas y otras ventajas e inconvenientes de este modelo de anlisis de varianza, y sobre el nmero de sujetos, puede verse Pascual, Fras y Garca (1996:137; 203) y en monografas como la de Ximnez y San Martn (2000) que incluyen cmo llevar a cabo este anlisis de varianza con el SPSS. 4 Una manera prctica de hacerlo puede verse en Girden (1992:3).

Anlisis de varianza para muestras relacionadas

b) Utilizando sujetos distintos en cada condicin, pero igualados en caractersticas importantes (como podran ser sexo, edad, rendimiento previo, etc.). Si los tratamientos (columnas) son tres (por ejemplo), se divide a la muestra en bloques de tres sujetos igualados en variables que pueden afectar a la variable dependiente (los resultados, el progreso o efecto de una terapia o mtodo, etc.). Si se tratara de ensayar tres procedimientos de aprendizaje, se podra igualar a los sujetos de cada fila en rendimiento previo, motivacin, sexo, etc. Preferiblemente los tres sujetos de cada bloque se asignan aleatoriamente a los diversos tratamientos (en un diseo experimental en sentido propio). 2 Este modelo de anlisis de varianza suele presentarse en el contexto de los diseos experimentales (los mismos sujetos pasan por diversas condiciones o experiencias), pero esta presentacin, hecha de manera muy restrictiva, puede dejar fuera de nuestra atencin otras posibilidades de inters y adems muy sencillas y asequibles. Si los mismos sujetos valoran (por ejemplo un una escala escala de 1 a 5) la eficacia, gusto, importancia, utilidad, etc., de una serie de conceptos del mismo mbito (actividades, motivaciones, etc.) tenemos muestras relacionadas: los sujetos dan su valoracin mediante respuestas escritas (se limitan a responder a varias preguntas) segn su experiencia, sin necesidad de hacer en ese momento ningn experimento; la vida ya ha hecho que pasen por las diferentes situaciones o condiciones. Es decir, no necesitamos necesariamente que los sujetos pasen por diversas experiencias o condiciones; basta que respondan a una serie de preguntas sobre una serie de conceptos o variables del mismo mbito. En esta situacin el orden en el que se valoran los distintos elementos deja de ser un problema (o se puede alterar el orden de los tems presentados en los cuestionarios si pensamos que el orden puede condicionar las respuestas). 3 El ejemplo que nos va a servir para introducir el mtodo tambin sugiere otras posibilidades: cuando varios profesores evalan a los mismos alumnos De dnde vienen las diferencias? De que los alumnos son distintos y los profesores tienden a coincidir en sus juicios? (ste sera un resultado deseable) O de que los profesores son distintos en su modo de evaluar? En general siempre que tengamos un grupo de evaluadores que valoran a los mismos sujetos (o conceptos, etc.) este anlisis nos permitir apreciar el grado de consistencia o de acuerdo de los evaluadores al diferenciar unos sujetos (o conceptos) de otros5. 4 Este anlisis de varianza se presta de manera especial a determinar la jerarqua de valores de un grupo, o ms genricamente para evaluar valores (es una aplicacin ms especfica de lo dicho en el apartado anterior). Si un grupo valora una serie de conceptos (que pueden expresar valores, como libertad, igualdad, progreso econmico, etc.) segn su importancia (en una escala de nada a muy importante), podemos ver: a) En qu medida los sujetos son consistentes (estn ms o menos de acuerdo) ordenando estos conceptos segn su importancia; podemos calcular unos coeficientes de fiabilidad que nos indicarn en qu grado los sujetos estn de acuerdo diferenciando unos conceptos de otros. b) Qu valores difieren entre s (en importancia) por encima de lo que se podra esperar por azar: podemos desembocar en un orden que en un cierto grado refleja la jerarqua de valores (o simplemente de preferencias) prevalente en el grupo.
5 Un ejemplo semejante (con un planteamiento algo ms complejo) puede verse en Waddington (2000): cinco profesores corrigen tres veces los trabajos (traduccin del ingls al espaol) de 64 alumnos utilizando cada vez un mtodo distinto de correccin; se trata de verificar con qu procedimiento los profesores difieren menos entre s.

Anlisis de varianza para muestras relacionadas

De la misma manera que pensamos en valores, podemos pensar en otras categoras: los sujetos pueden valorar motivaciones, problemas, etc., incluso lo que puede parecer ms trivial, como colores o programas de televisin. Siempre es posible establecer una jerarqua (si la hay) de preferencias (trmino ms global que valores). En la exposicin del mtodo distinguimos dos partes: 1 el anlisis de varianza propiamente dicho; 2 Clculos complementarios, como los coeficientes de asociacin y de fiabilidad. Si en las columnas tenemos los tems de un test o escala, ya veremos ms adelante que con este planteamiento podemos calcular el mismo coeficiente de fiabilidad que habitualmente calculamos con otros procedimientos (como el coeficiente de Cronbach). Una utilidad especfica de este modelo de anlisis de varianza es precisamente que puede ayudar a la comprensin del coeficiente ms utilizado de fiabilidad ( de Cronbach), que posiblemente como mejor se comprende es a partir del anlisis de varianza (dedicaremos un apartado especfico a este tema con algunos ejemplos). 2. Anlisis de varianza En el ejemplo utilizado para exponer el mtodo (tabla 1)6 las filas son alumnos (f = 6) y las columnas son profesores (c = 4) que han evaluado en la misma caracterstica a los seis alumnos. Las preguntas que nos hacemos son estas: Las diferencias que observamos en los datos: * Se deben a que los profesores son distintos evaluando? (unos son ms benvolos, otros lo son menos) * O ms bien las diferencias se deben a que los alumnos son distintos en la variable medida, y son as vistos por sus profesores con un grado suficiente de acuerdo? Si la varianza de las filas (alumnos) es estadsticamente significativa (superior a lo aleatorio) tendremos un dato a favor de la unanimidad de los profesores: si hay diferencias se deben sobre todo a que los alumnos son distintos, no a que los profesores son distintos en su estilo de evaluar (por ejemplo ms o menos benvolos) o a la interaccin profesor-alumno. profesores (columnas)
A 10 4 8 3 6 9 40 6.67 B 6 5 4 4 8 7 34 5.67 C 8 3 7 2 6 8 34 5.67 D 7 4 4 2 7 7 31 5.17 total filas 31 16 23 11 27 31 media filas 7.75 4.00 5.75 2.75 6.75 7.75

alumnos (filas)
totales columnas medias columnas

Tabla 1

6 Los datos estn tomados del ejemplo que presenta el texto de Downie y Heath (1971); el modo de resolver el anlisis de varianza que exponemos aqu es sin embargo distinto y ms sencillo si se dispone de una calculadora con programacin estadstica. En EXCEL se hace fcilmente buscando Anlisis de datos en Herramientas; este anlisis se denomina en EXCEL Anlisis de varianza de dos factores con una muestra por grupo (no incluye los contrastes posteriores, ni los coeficientes que se van a exponer).

Anlisis de varianza para muestras relacionadas

De las filas y de las columnas slo necesitamos o las medias o los totales; lo que resulte ms cmodo. Con frecuencia las medias y desviaciones (de las filas o de las columnas) son un dato informativo de inters en s mismo. Aunque programas como el SPSS o incluso EXCEL nos lo pueden dar resuelto, el procedimiento que exponemos nos ayudar a ver cmo descomponemos la varianza total en las varianzas parciales que nos interesan; adems si no disponemos de estos recursos, con una simple calculadora con programacin estadstica (para calcular medias y las desviaciones) podemos resolverlo con toda facilidad, sobe todo con muestras pequeas. 1 Clculos previos 1. Calculamos las medias (o simplemente los totales) de cada fila y de cada columna; ahora suponemos que hemos calculado las medias de filas y de las columnas. 2. Calculamos las desviaciones tpicas (o las varianzas directamente): del total (de todos los datos; N = cxf = 24 datos): de las medias de las columnas (Mc): de las medias de las filas (Mf): t = Mc= Mf= 2.198 .547 1.873

Si en vez de las medias de las filas o las columnas hemos calculado los totales de las filas y/o de las columnas, calculamos sus desviaciones tpicas: desviacin tpica: de los totales de las columnas (tc): de los totales de las filas (tf): tc = tf = 3.269 7.492

Es importante advertir que en todos los casos N = nmero de datos, (no nmero de sujetos) o nmero de filas por nmero de columnas (c x f = 24 en este caso). 2 Clculo de las sumas de cuadrados Calculamos las Sumas de Cuadrados a partir de las desviaciones tpicas ya calculadas y de N (nmero de datos); las frmulas aparecen en la tabla 2; en este caso utilizamos las desviaciones tpicas de las medias de filas y columnas. Tambin podemos ir colocando los resultados directamente en la tabla 3.
SC de las filas: SC de las columnas: SC de la interaccin: SC de los totales: SCfilas = N Mf = SCcolumnas = N Mc = SCtotal - (SCfil + SCcol) = SCtotal =
2 N t = 2

(24)(1.873)2 = (24)(.547)2 = (115.95) - (84.19 + 7.18)= (24)(2.198)2 =

84.19 7.18 24.58 115.95

Tabla 2 Si en vez de calcular las medias de filas y columnas, hemos sumado el total de las filas y de las columnas, calcularemos las desviaciones tpicas: de los totales de las filas de los totales de las columnas tf = 7.492 tc = 3.269

En este caso las Sumas de Cuadrados son:

Anlisis de varianza para muestras relacionadas

f 2 SCf = ( tf )( ) = c c 2 de las columnas: SCc = ( tc )( ) = f

de las filas:

6 (7.492)2 = 4 4 (3.269)2 = = 6

84.19

7.13

Si calculamos las Sumas de Cuadrados a partir de las medias nos dar el mismo resultado que si las calculamos a partir de los totales, salvo pequeas diferencias por el redondeo de decimales (y que a efectos prcticos no tienen mayor importancia). Si sumamos las Sumas de Cuadrados de filas y de columnas veremos que esta suma no es igual a la Suma de Cuadrados total; la variabilidad del total de las puntuaciones no se explica solamente por la variabilidad de las filas (diferencias entre los alumnos) y de las columnas (diferencias entre los profesores); nos queda la variabilidad debida a la interaccin entre filas y columnas (alumnos y profesores). A esta fuente de variacin se le denomina residual (tambin interaccin, resto), y es la que nos queda cuando eliminamos la variabilidad debida a las diferencias sistemticas de filas y de columnas. Esta varianza, aleatoria y no controlada, va a ser el trmino de comparacin de las otras dos varianzas.
3 Grados de libertad

Los grados de libertad son:

de las filas de las columnas de la interaccin del total

f-1= c-1= (f-1)(c-1)= N-1=

(6-1) (4-1) (5 x 3) (24-1)

= 5 = 3 = 15 = 23

4 Tabla de resultados

En la tabla apropiada [3] vamos poniendo los resultados. Al consultar las tablas de la razn F nos fijaremos en los grados de libertad del numerador (de las filas y de las columnas) y del denominador (de la interaccin). Esta es la norma general, pero en este caso, muestras relacionadas, esta norma puede variar como indicaremos al final, en el apartado observaciones sobre los grados de libertad.
origen de la variacin
filas (alumnos) columnas (profesores)

SC numerador 84.19

gl denominador 5

CM = SC/gl Varianza (2)

F = 2/2interaccin

84.19 5 7.18

= 16.84 = 2.39

16.84 1.64 2.39 1.64

= 10.27 = 1.46

< .01 > .05 (no sign.)

7.18 24.58

3 15

interaccin

3 24.58

15 total 115.95 23

= 1.64

Tabla 3
5 Interpretacin

1. La variabilidad debida a diferencias entre los alumnos es significativamente superior a la debida a la interaccin profesor-alumno (grados de libertad: 5 y 15, para = .05 necesitamos F = 2.90, que es el valor que viene en las tablas, y nosotros hemos obtenido 10.27). La varianza se debe a que los alumnos son distintos (no a que los profesores son

Anlisis de varianza para muestras relacionadas

distintos); los profesores en este caso han establecido diferencias entre los alumnos valorndolos sin grandes discrepancias. 2. Sobre los grados de libertad para consultar las tablas hacemos despus unas observaciones importantes. El procedimiento habitual (utilizar los grados de libertad de las dos varianzas que se comparan) no siempre es el adecuado en este caso, porque no se cumplen determinados requisitos de este modelo. Como indicamos en las observaciones, los grados de libertad ms seguros son 1 y N-1. 3. La variabilidad entre los profesores (diferencias sistemticas de los profesores en su estilo de calificar) no es significativa (grados de libertad 3 y 15, para = .05 necesitamos F = 3.29). Los profesores no difieren apreciablemente entre s, y las diferencias que puede haber entre ellos (en su estilo de evaluar, ms o menos severos) apenas contribuyen a la varianza total.
3. Observaciones sobre los grados de libertad 3.1. La condicin de esfericidad

Cuando se mide en varias veces sucesivas a los mismos sujetos (y siempre que tengamos muestras relacionadas) como es frecuente en muchos diseos experimentales (o en estudios exploratorios), estas medidas estn correlacionadas; en este caso bajan los cuadrados medios del trmino del error (el denominador de la razn F) y se obtiene con mayor facilidad un valor de F significativo. Un supuesto implcito en este modelo (medidas repetidas), para que los valores de F con los grados de libertad especificados antes sean vlidos (es decir, que correspondan a la probabilidad indicada en las tablas), es la condicin denominada de esfericidad, que viene a decir que las covarianzas entre cada par de tratamientos son las mismas (de ocasin a ocasin el cambio es idntico)7. Cuando esta condicin no se cumple, y no suele cumplirse, la distribucin de F que viene en las tablas no es exacta y es de hecho muy liberal: se rechaza con demasiada facilidad la Hiptesis Nula.
3.2. Cmo proceder en la prctica

La recomendacin ms aceptada es la siguiente: 1. Si la F no es significativa con los grados de libertad usuales [(f-1) o (c-1) y (f-1)(c1)], el resultado no es significativo; hasta aqu es la prctica habitual. 2. Los grados de libertad ms conservadores, y ciertamente siempre correctos (no inducen a error), son 1 y N -1 (N es aqu el nmero de sujetos, no el nmero de datos); si con estos grados de libertad el resultado es estadsticamente significativo se puede rechazar la Hiptesis Nula con seguridad. En el ejemplo que nos ha servido para exponer el mtodo, la razn F correspondiente a las filas es de 10.27; con 5 y 15 grados de libertad debemos alcanzar el valor de 2.90 segn las tablas, y lo superamos con creces. Con grados de libertad 1 y N -1 (1 y 5) el valor de F que viene en las tablas es 6.61; tambin lo superamos (con lo que p < .05, pero no p < .01) por lo que podemos rechazar la Hiptesis Nula con el criterio ms conservador.

7 En trminos ms estadsticos: si convertimos la matriz de correlaciones en una matriz de varianzas-covarianzas, las varianzas deberan ser idnticas entre s y lo mismo las covarianzas.

Anlisis de varianza para muestras relacionadas

3. Si vemos que el resultado no es significativo con 1 y N -1 grados de libertad, todava puede serlo con los ajustes en los grados de libertad. Hay dos ajustes posibles, uno ms conservador ( , de Box, tambin denominado de Greenhouse-Geisser) y otro ms liberal ( , de Huynh y Feldt). El estadstico (psilon) expresa en qu medida se apartan los datos del requisito de esfericidad. A mayor valor de , los datos se apartan menos del modelo terico (de la condicin de esfericidad).

Estos ajustes son de clculo laborioso8 pero estn programados en programas de ordenador como el SPSS. Al menos conviene conocer a) cmo se utilizan estos coeficientes y b) cmo proceder en la prctica habitual cuando no disponemos de alguna de alguna de las modalidades del coeficiente . a) Cmo utilizar el coeficiente El valor de es siempre inferior a la unidad; cuando = 1, la esfericidad es perfecta. Se trata de un coeficiente por el que multiplicamos los grados de libertad de las dos varianzas que contrastamos; los grados de libertad quedan as reducidos y cuesta ms rechazar la Hiptesis Nula. Si tenemos que, por ejemplo, = .60, los grados de libertad iniciales, 5 y 15, se convierten en: 5 (.60) = 3 15 (.60) = 9 Los grados de libertad son menos y consecuentemente necesitamos un valor mayor de F para poder rechazar la Hiptesis Nula. b) Cmo proceder en la prctica habitual Lo ms seguro es suponer que no se cumple la condicin de esfericidad y proceder teniendo en cuenta estas cautelas: 1 La prctica ms segura es utilizar como grados de libertad 1 y N -1; si con estos grados de libertad el resultado es significativo, ciertamente lo es y podemos rechazar la Hiptesis Nula. Con frecuencia, y en resultados muy claros, superamos con creces los valores que vienen en las tablas. 2 Aun as ste (grados de libertad 1 y N-1) es un criterio muy conservador y podemos aceptar como no significativos resultados que s lo son (nos puede dar falsos negativos). Si el resultado es significativo con los grados de libertad convencionales, (c-1) o (f-1) y (c-1)(f-1), pero no lo es con 1 y N -1, es entonces cuando deberamos aplicar uno de estos dos ajustes (programados en el SPSS) (Girden, 1992:21):

Si > .75: (de Huynh y Feldt, el ajuste ms liberal)


Si < .75 (o si no sabemos nada sobre ): (de Box o Greenhouse-Geisser, el ajuste ms conservador)

8 Pueden verse las frmulas en diversos autores (por ejemplo, Girden, 1992:19; Kirk: 1995:281; Ximnez y San Martn, 2000:42); Kirk es el que expone de manera ms sencilla cmo calcular a partir de la matriz de covarianzas (tambin nos lo da el SPSS). Ambos autores repiten la recomendacin de utilizar como grados de libertad 1 y N-1 como medida de seguridad, aunque esta recomendacin puede resultar muy conservadora. Una explicacin de estos coeficientes puede verse tambin en Llobell, Fras y Garca (1996:158) y en Garca, Fras y Llobell (1999).

Anlisis de varianza para muestras relacionadas

10

4. Contrastes posteriores

Si nos interesan los contrastes posteriores, suele recomendarse el contraste de Tukey9; una propuesta ms segura (sobre todo con muestras pequeas y cuando no se cumple la condicin de esfericidad) que vemos recomendada10 son los contrastes de Bonferroni (o Dunn-Bonferroni)11. Frecuentemente cuando tenemos muestras relacionadas lo que ms nos puede interesar son los coeficientes a) de asociacin ( o ms habitualmente 2) y b) de fiabilidad expuestos ms adelante. En este ejemplo no tiene inters comprobar entre qu profesores hay diferencias significativas, posiblemente incluso aun cuando la razn F de los profesores fuera significativa tampoco tendra especial inters; en otros planteamientos s puede interesar ver qu columnas o condiciones difieren entre s.
5. Anlisis complementarios: los coeficientes de asociacin y de fiabilidad

Como en planeamientos semejantes, la razn F (como la t de Student) nos remiten a una probabilidad de ocurrencia, pero no a una magnitud. Hay dos clculos complementarios de inters, a) coeficientes de asociacin, como en otros modelos de anlisis de varianza y b) coeficientes de fiabilidad ms propios de este modelo de anlisis de varianza para muestras relacionadas.
5.1. Coeficientes de asociacin (2 y 2parcial)

Como en otros planteamientos de anlisis de varianza, un coeficiente muy utilizado es el coeficiente eta (); es un coeficiente de asociacin vlido cuando una variable es categrica, no continua (como son los profesores o columnas en este ejemplo). Tambin, y como en otros modelos de anlisis de varianza, se utiliza 2, pero 2 (o ) es de comprensin ms intuitiva (una proporcin) que 2 y ms sencillo de clculo12. Una razn F muy significativa, muy probable con muestras grandes, nos da seguridad para concluir que hay diferencias, pero no dice nada sobre la relevancia o magnitud de estas diferencias; sta es la informacin que nos dan estos coeficientes, y en este sentido (expresan una magnitud, no una probabilidad) se trata de un tamao del efecto que permite completar la conclusin alcanzada con la razn F propia del anlisis de varianza. Como en coeficientes anlogos (como r) elevada al cuadrado indica la proporcin de varianza en la variable continua (las calificaciones de los alumnos en este ejemplo) atribuible a diferencias en la variable categrica (diferencias entre los profesores en este caso). En el caso del anlisis de varianza para muestras independientes tenemos un nico coeficiente , en el caso de muestras relacionadas tenemos dos, uno corresponde a las columnas y otro a las filas; en cada caso dividimos cada suma de cuadrados por la suma de cuadrados total (frmulas [1] y [2]).
9 El SPSS nos da estos contrastes posteriores (Tuckey y Bonferroni)). 10 Como Toothaker y Miller (1996:557-558), Girden (1992:29), Ximnez y San Martn (2000:49). 11 En los contrastes de Bonferroni se utiliza la t de Student convencional (para muestras relacionadas en este caso), pero con un nivel de confianza ms estricto; el nivel de confianza adoptado (por lo general .05) se divide por el nmero de comparaciones previstas; si nuestro nivel de confianza es = .05 (lo habitual) y vamos a hacer tres comparaciones, para rechazar la hiptesis nula a este nivel ( = .05) debemos obtener una probabilidad de p = .05/3 = .0167. Aunque los contrastes de Bonferroni suelen ser valorados como excesivamente conservadores (Jaccard, 1998; Perneger, 1998), s

parecen ms aconsejables en el caso de medidas repetidas.


12 Las frmulas de 2 pueden verse en muchos textos, como Ximnez y San Martn (2000:46).

Anlisis de varianza para muestras relacionadas

11

columnas =

SC columnas SC total

[1]

filas =

SC filas SC total
columnas filas = = =

[2]
7.18 = .248 y 2 = .06 115.95

En nuestro ejemplo:

84.19 = .726 y 2 = .53 115.95

Fijndonos en 2 vemos que la proporcin de varianza en la variable dependiente (las calificaciones) se explica sobre todo (53 %) por diferencias entre los alumnos y apenas )6 %) por las diferencias entre los profesores. Todos estos coeficientes conviene interpretarlos tambin en trminos relativos, comparando unos con otros.

Eta cuadrado parcial (2parcial)13 expresa la proporcin de varianza de una variable dependiente explicada por la variable independiente manteniendo constantes otras fuentes de error; es decir prescindimos de otras fuentes de variabilidad. En la frmula [1] (, no 2; normalmente interesa la [1] que corresponde a la variable independiente) en el denominador en vez de la suma de cuadrados total, tendremos la suma de cuadrados de las columnas ms la suma de cuadrados del error (de la interaccin) (Rosenthal y Rosnow, 1991:463):
parcial = SC columnas SC columnas + SC error

[3]

En este ejemplo, y elevando al cuadrado el coeficiente , tenemos:


2 parcial =

7.18 = .226 7.18 + 24.58

Las diferencias entre profesores explican el 22.6% de la varianza, si prescindimos de otras fuentes de variabilidad (manteniendo constantes a los alumnos). Si hacemos lo mismo con los alumnos (filas) tendremos 84.19/(84.19+24.58) = .774; el 77.4% de la varianza queda explicado por diferencias entre los alumnos (manteniendo constantes a los profesores).
5.2. Coeficientes de fiabilidad 5.2.1. Fiabilidad de filas y columnas

Aqu hablamos de fiabilidad en el sentido de consistencia interna; en este ejemplo (profesores evaluando a los mismo alumnos) nos interesa comprobar el grado de consistencia o de homogeneidad (o de acuerdo) de los profesores evaluadores (las columnas) al diferenciar a los alumnos (las filas); en otros planteamientos nos interesa sobre todo verificar la consistencia o grado de acuerdo de las filas (sujetos) diferenciando a las columnas.

13 Este coeficiente eta cuadrado parcial correspondiente a las columnas (variable independiente) lo calcula el SPSS como parte del output.

Anlisis de varianza para muestras relacionadas

12

Este clculo de la fiabilidad o consistencia de las columnas al clasificar o diferenciar a las filas (o las columnas a las filas) suele ser de inters en muchos planteamientos del anlisis de varianza para muestras relacionadas; por esta razn dedicamos despus a la fiabilidad un apartado adicional. Podramos definir la fiabilidad en este caso como el grado de acuerdo de la filas diferenciando a las columnas o de las columnas diferenciando a las filas. En otros casos lo que interesa es comprobar si las filas (los sujetos) diferencian bien a las columnas. Si por ejemplo los alumnos evaluaran a una serie de profesores (o de experiencias, etc.), nuestra hiptesis sera que los profesores son distintos (o las experiencias son distintas) y que los alumnos son consistentes al diferenciar las columnas. En este caso un resultado esperado hubiera sido el contrario al de este ejemplo: la varianza se debera no a que los alumnos son distintos, sino a que los profesores, o las experiencias, son distintas. Las frmulas de los coeficientes de fiabilidad son las siguientes14:
Fiabilidad de las columnas (de todas): Fiabilidad de una sola columna: Fiabilidad de las filas:
rcc = rcc = CM filas CM error CM filas CM filas CM error CM filas + (k 1)CM error [4] [5]

rff =

CM columnas CM error CM columnas

[6]

Los smbolos son ya conocidos: rcc = rff = CMf= CMc= CMe = k= fiabilidad de las columnas; fiabilidad de las filas; Cuadrados Medios (o varianza) de las filas; Cuadrados Medios (o varianza) de las columnas; Cuadrados Medios (o varianza) del trmino del error; en este caso de la interaccin; nmero de columnas (profesores en nuestro ejemplo)

Como podemos ver las frmulas de la fiabilidad o consistencia interna de las filas [6] son iguales a las de las columnas [4], substituyendo CMf por CMc En este ejemplo lo que nos interesa es el clculo de fiabilidad (grado de acuerdo) de todos los profesores o columnas; queremos comprobar en qu grado establecen diferencias entre los alumnos de manera consistente. La fiabilidad de los profesores es en este caso: rcc =
16.84 1.64 16.84

= .903

Esta cuantificacin de la consistencia aade informacin al valor significativo de F, y nos dice que los profesores estn muy de acuerdo o son muy consistentes al evaluar a los alumnos (los ordenan de manera muy parecida, aunque pueden ser muy distintos en sus valoraciones absolutas).
14 Tomamos las frmulas de Guilford y Fruchter (1973) y de Nunnally y Bernstein (1991) pero podemos encontrarlas en muchos textos.

Anlisis de varianza para muestras relacionadas

13

De manera anloga, y si tiene sentido en el planteamiento de los datos, podemos calcular la fiabilidad de las filas (hasta qu punto son las filas las que discriminan consistentemente a las columnas). Este sera el caso si las filas (alumnos) juzgaran a las columnas (profesores, actividades, etc.). Estos coeficientes son anlogos al coeficiente de Cronbach; en realidad se trata de lo mismo. En un test o escala podemos calcular el coeficiente mediante el anlisis de varianza, poniendo a los tems en las columnas y a los sujetos en las filas. La pregunta que nos hacemos en el caso de la fiabilidad de un test es semejante: Hasta qu punto los tems (columnas) son consistentes discriminando, diferenciando a los sujetos (filas) en aquello que es comn a todos los tems (lo que estamos midiendo)? Si hay diferencias en los totales (varianza total) esperamos que se deba a que los sujetos medidos son distintos, no a que los tems son distintos y miden cosas distintas (por eso estos coeficientes se denominan de homogeneidad: de homogeneidad o consistencia interna de las columnas o jueces, en este caso). Si en el ejemplo que nos ha servido para exponer el mtodo suponemos que los cuatro profesores son tems de una escala, y calculamos el coeficiente de Cronbach con la frmula habitual, llegaremos al mismo resultado. Esta relacin entre fiabilidad y anlisis de varianza la explicamos con ms detalle en el apartado siguiente.
5.2.2. Relacin entre fiabilidad (consistencia interna) y anlisis de varianza para muestras relacionadas.

Explicamos con ms detalle esta relacin por el inters que tiene la fiabilidad tanto en psicometra (fiabilidad de los tests) como en muchos planteamientos experimentales: nos puede interesar verificar la consistencia o fiabilidad de una serie de jueces cuando evalan una serie de sujetos u objetos. Posiblemente la fiabilidad, en su sentido ms habitual (coeficientes de consistencia interna referidos a tests y escalas) se entiende mejor a travs del anlisis de varianza. Para entender el concepto de fiabilidad en este contexto es til la analoga con el concepto de la unanimidad de unos jueces evaluando (o con ms propiedad ordenando o clasificando de ms a menos) a una serie de sujetos. Para ordenar o diferenciar bien hace falta: 1 Que los jueces sean coherentes entre s, es decir, tengan el mismo criterio, se fijen en lo mismo, estn bsicamente de acuerdo 2 Que los sujetos sean distintos segn el criterio compartido por los jueces (se ordena mejor a los muy diferentes)

Vamos a pensar en dos situaciones distintas.


Situacin 1

Los jueces son los tems de un test (y aqu est la analoga, en pensar que los tems van a juzgar a una serie de sujetos): todos los tems-jueces participan del mismo criterio (es decir miden lo mismo), y tenemos este resultado (tabla 4):

Anlisis de varianza para muestras relacionadas

14

tems
sujetos 1 2 3 4 5 6 medias (y ) de los
tems (columnas)

1 2 1 3 4 5 6 3.5 1.707

2 2 1 4 3 5 6 3.5 1.707

3 1 2 4 3 5 6 3.5 1.707

4 2 1 3 4 5 6 3.5 1.707

5 2 1 3 4 5 6 3.5 1.707

6 1 2 4 3 5 6 3.5 1.707

medias de los sujetos (filas)

1.67 1.33 3.50 3.50 5.00 6.00

Tabla 4 Qu vemos en estos resultados: a) Las medias de los tems (columnas) son semejantes (idnticas en este caso); b) Las medias de los sujetos (filas) son muy distintas. Adems vemos que las correlaciones entre los tems-jueces son altas o al menos claras: coinciden en asignar puntuaciones altas o bajas a los mismos sujetos (los sujetos 1 y 2 puntan bajo en todos los tems, los sujetos 3 y 4 puntan en el centro de la escala en todos los tems, y los sujetos 5 y 6 puntan alto en todos los tems). Es claro que sin un suficiente grado de acuerdo en los jueces o sin suficientes diferencias entre los sujetos, no se daran estas relaciones. Los coeficientes de fiabilidad vienen a expresar el grado de relacin global entre los jueces (por eso se denominan de consistencia interna entre los tems o jueces). Es ms, sin diferencias entre los evaluados no se puede comprobar empricamente (mediante coeficientes de correlacin) que los jueces miden lo mismo.
Conclusin: los tems (que son los jueces) tienen un alto de acuerdo ordenando o diferenciando a los sujetos, estableciendo diferencias con el mismo criterio; las columnas (tems) son fiables cuando clasifican a las filas. De este grado de acuerdo (comprobado) deducimos que miden lo mismo. Aunque refirindonos a los tems de tests y escalas, de la mera relacin entre los tems (que si es alta desembocar en un coeficiente de fiabilidad alto) no podemos sin ms concluir que los tems miden lo mismo (hacen falta consideraciones conceptuales sobre la formulacin de los tems; los sujetos pueden quedar ordenados de manera semejante en todos los tems y a pesar de eso es posible que las formulaciones de los tems no reflejen con nitidez un mismo rasgo bien definido).

Esta suficiente grado de acuerdo de los tems (expresin un tanto impropia tratndose de tems) es lo que cuantificamos mediante el coeficiente de Cronbach, pero podemos llegar al mismo resultado con los coeficientes ya vistos y que son posteriores al anlisis de varianza. Lo que sucede es que si lo que queremos es calcular la fiabilidad de un test, las frmulas habituales de la fiabilidad son ms cmodas que el anlisis de varianza.
Situacin 2

Los jueces son unos sujetos que con idntico criterio (utilidad, eficacia, etc.) valoran una serie de tems: mtodos, actividades, profesores, etc. Tenemos este resultado hipottico (tabla 5):

Anlisis de varianza para muestras relacionadas

15

tems
sujetos 1 2 3 4 5 6 medias (y ) de los
tems (columnas)

1 2 1 2 2 1 1 1.50 .50

2 6 6 6 5 5 6 5.67 .47

3 4 3 4 3 4 4 3.67 .47

4 4 4 3 4 5 3 4.00 .63

5 6 6 6 6 6 6 6.00 .00

6 1 2 1 1 1 2 1.33 .47

medias de los sujetos (filas)

3.83 3.67 3.67 3.50 3.67 3.67

Tabla 5 Esta situacin ejemplifica un modelo potencialmente muy til de investigacin mediante el anlisis de varianza para muestras relacionadas. Qu vemos ahora: a) Las medias de los sujetos son muy parecidas unas a otras, apenas hay diferencias; b) Las medias de los tems son muy desiguales;
Conclusin: tenemos algo parecido a la tabla anterior [4], pero al revs: ahora son los sujetos quienes muestran un gran acuerdo en cmo valoran los tems (actividades, experiencias, profesores, etc.). Las medias de los sujetos son muy parecidas, pero las de los tems son muy distintas, y son los tems los que quedan ordenados en una jerarqua clara. Ahora el concepto de fiabilidad, de consistencia interna, lo aplicamos a los sujetos.

En la primera situacin los tems (las columnas) ordenan, clasifican, etc., a los sujetos (filas) de manera consistente; en la segunda situacin son los sujetos (filas) quienes ordenan a las columnas, valoran las filas con bastante unanimidad en el criterio establecido (eficacia, agrado, etc.). Los coeficientes de fiabilidad (homogeneidad, consistencia interna) expresan en qu grado las columnas (tems de un test) miden lo mismo15 y diferencian a los sujetos que son distintos en aquello que tienen en comn los tems (frmulas del coeficiente de Cronbach, coeficientes de Kuder-Richardson). Y a la inversa: se puede calcular la fiabilidad de los sujetos (las filas) cuando ordenan los tems (las columnas). Estos coeficientes de fiabilidad, de las filas ordenando a las columnas y de las columnas ordenando a las filas, son los que calculamos a partir de los resultados del anlisis de varianza para muestras relacionadas (relacionadas porque los sujetos son los mismos en todas las condicioneso en todos los tems). En cualquier caso la fiabilidad tiende a ser alta: a) Cuando los jueces son consistentes, participan del mismo criterio; b) Cuando los jueces son muchos (se minimizan las inconsistencias) c) Cuando los sujetos (u objetos) juzgados son muy diferentes entre s (es ms fcil ordenarlos).

15 La expresin usual miden lo mismo no es exacta; lo que cuantifican estos coeficientes es en qu grado los tems estn relacionados, y esta relacin inter-tem nos confirma (o deducimos) que de alguna manera miden lo mismo, expresan el mismo rasgo. Tambin puede suceder que tengamos una fiabilidad alta con tems que claramente no miden el mismo rasgo (con criterios conceptuales) pero que estn claramente relacionados entre s; siempre es necesaria una evaluacin cualitativa.

Anlisis de varianza para muestras relacionadas

16

Esta grado de acuerdo o consistencia interna se manifiesta en las correlaciones entre los jueces (como entre los tems de un test); la correlacin implica diferencias sistemticas en los sujetos u objetos evaluados.
Resumiendo: fiabilidad y anlisis de varianza

Pregunta comn a estos planteamientos: De dnde vienen las diferencias (la varianza total)? De que las filas son distintas o de que las columnas son distintas? Una solucin directa nos la da el anlisis de varianza para muestras relacionadas, que divide (analiza) la varianza total en tres varianzas parciales: 1 Varianza debida a que las filas son distintas 2 Varianza debida a que las columnas son distintas 3 Varianza aleatoria, debida a la interaccin fila-columna (no debida a que las columnas o las filas son sistemticamente distintas).
Resultados del anlisis varianza:

1. Nos dice si las varianzas 1 y/o 2 son significativamente distintas de la varianza 3 (superiores a lo que consideramos aleatorio). 2. Podemos calcular el coeficiente de fiabilidad de las filas cuando establecen diferencias entre las columnas y el coeficiente de fiabilidad de las columnas cuando establecen diferencias entre las filas. Estos coeficientes son idnticos (el mismo resultado) al coeficiente de Cronbach.
5.2.3. Cuando las dos razones F (de las filas y de las columnas) son estadsticamente significativas

En cualquiera de estos planteamientos podemos encontramos con que las dos razones F (de las filas y de las columnas) son significativas (superiores a lo que podemos juzgar como aleatorio), aunque por lo general (no siempre), cuando tenemos este resultado, una de las razones F y uno de los coeficientes de fiabilidad suelen ser apreciablemente mayores que los otros. Aun as este resultado puede desconcertar: Pueden simultneamente clasificar, diferenciar, ordenar las filas a las columnas y las columnas a las filas? Vamos a pensar en una situacin de fcil comprensin: los alumnos de una clase (filas) evalan a sus profesores (columnas). Un resultado ideal sera que las diferencias provengan sobre todo de que los profesores son distintos (y son as vistos por los alumnos) y no de que los alumnos son distintos en su manera de evaluar. En este caso tendramos la F de las columnas (profesores) significativa y la fiabilidad de las filas (alumnos) alta: los alumnos distinguen bien unos profesores de otros16. Imaginemos que las dos razones F son significativas: los profesores son distintos y tambin los alumnos son distintos en su forma de evaluar, en ambos casos sus varianzas son superiores a lo que podemos encontrar por azar. Este resultado posible Implica contradiccin? Es interpretable?

16 En este caso (cuestionario de evaluacin del profesorado) habra que calcular la fiabilidad de cada tem; tambin se podra calcular la fiabilidad de subconjuntos de tems homogneos (que describen el mismo rasgo) sumados en un total, como si se tratara de un test convencional.

Anlisis de varianza para muestras relacionadas

17

Un resultado as es posible, no es contradictorio y es interpretable. Lo que sucede es que los resultados que obtenemos y las interpretaciones que hacemos no pueden encerrarse en un s o un no, en un blanco o negro. Es fcil verlo con un ejemplo muy simplificado. Vamos a suponer que dos alumnos evalan a dos profesores en una escala de 1 a 6 en un rasgo cualquiera. Un profesor es mejor que el otro a juicio de los dos alumnos, pero los dos alumnos tienen un modo distinto de evaluar: Alumno benvolo: Alumno crtico: Profesor 1 6 2 Profesor 2 5 1

Alumno benvolo. Un alumno califica al mejor profesor con un 6 y al peor profesor con un 5. Aunque distingue entre los dos profesores, este alumno tiende a juzgar con benevolencia; le gustan los dos profesores, al menos los evala bien, aunque uno le gusta ms que el otro. Alumno crtico. El otro alumno califica al mismo mejor profesor con un 2 y al otro profesor, que a su juicio es tambin peor, con un 1. Estima que un profesor es mejor que el otro, pero califica bajo a los dos; no le gusta ninguno de los dos, pero considera que uno es peor que el otro.

En un caso as (en un ejemplo real tendramos ms alumnos) las dos razones F van a ser significativas: los alumnos son consistentes cuando ordenan a los profesores segn su calidad (por eso la F de los profesores es significativa), pero ellos tambin son sistemticamente distintos en su forma de evaluar. La fiabilidad de los alumnos sera alta en este caso porque coinciden en sealar cules son los mejores y los peores profesores segn su juicio, aunque no coincidan en las valoraciones absolutas (tienden a coincidir en el orden)17. Cuando en un cierto grado se dan estas diferencias entre los alumnos, su razn F es significativa, es decir, la diversidad entre los alumnos (su varianza) es superior a lo meramente aleatorio: las diferencias entre los alumnos no son casuales, es que evalan de distinta manera. Pero esto no quiere decir que no diferencien adecuadamente a unos profesores de otros: coinciden en el orden en que sitan a sus profesores; en identificar al menos, segn su propio juicio, a los mejores y peores profesores. Esto es lo que significa una fiabilidad alta de los alumnos: coincidencia bsica en diferenciar a unos profesores de otros; en este sentido decimos que los alumnos son unnimes, aunque naturalmente esta unanimidad no lo es en sentido propio (la fiabilidad admite grados; en un caso como ste, si la fiabilidad es alta, diramos que hay suficiente convergencia o grado de acuerdo en sus juicios). Este ejemplo es aplicable a cualquier otra situacin, y algo anlogo sucede con la fiabilidad de los tests (y exmenes). Los tems, cuando se suman en una puntuacin total, pueden diferenciar adecuadamente a los sujetos; unos tienden a puntuar sistemticamente ms alto en todos ellos, otros ms bajo, etc.; pero esto no quiere decir que los tems sean de parecida dificultad. Una fiabilidad alta en un test querra decir que los tems estn bsicamente de acuerdo (como si fueran jueces) cuando diferencian (ordenan, con ms propiedad) a unos sujetos de otros. En el apartado siguiente aclaramos ms, con un ejemplo, la relacin entre el anlisis de varianza y la fiabilidad de tests y escalas.

17 Un coeficiente de correlacin alto entre dos elementos quiere decir que los sujetos los ordenan de manera semejante, pero no que tengan valores absolutos semejantes.

Anlisis de varianza para muestras relacionadas

18

5.2.4. Anlisis de varianza para muestras relacionadas y el coeficiente de Cronbach

Es importante ver la relacin existente entre estos coeficientes de fiabilidad derivados directamente del anlisis de varianza, y el ms conocido coeficiente de consistencia interna de Cronbach, que utilizamos habitualmente para calcular la fiabilidad de tests y escalas. Se trata de lo mismo, aunque cuando nos referimos a la fiabilidad de los tests lo explicamos desde otra perspectiva18. Qu significa la fiabilidad convencional de tests y escalas tambin podemos entenderlo a travs del anlisis de varianza como ya ha quedado explicado anteriormente al inicio de este apartado19; en la situacin 1 veamos cmo los tems de un supuesto test eran consistentes cuando diferenciaban a los sujetos. Ahora lo vamos a ver con un ejemplo. Los datos son ficticios, pero nos permiten visualizar cmo ambos procedimientos nos llevan al mismo resultado. En este ejemplo (tabla 6) tenemos las respuestas de cuatro sujetos a un test compuesto por seis tems.
tems sujetos a b c d media desviacin n 1 6 6 3 4 4.75 1.29 n 2 6 5 3 3 4.25 1.29 n 3 5 5 2 2 3.50 1.50 n 4 4 4 3 1 3.00 1.225 n 5 6 3 4 1 3.50 1.80 n 6 6 5 4 2 4.25 1.48 total 33 28 19 13 23.25 7.758

Tabla 6 Estos son los datos que solemos tener cuando analizamos un test: el total de cada sujeto y la media y desviacin tpica de cada tem. Vamos a calcular en primer lugar el coeficiente de Cronbach con la frmula usual:
1.29 2 + 1.292 + 1.502 +1.2252 +1.80 2 + 1.482 6 ) (1)= ( ) (1) = ( 6 1 2 7.7582 k 1 t
k

2 i

= (1.2) (1 -

12.509 60.1865

) =.95

Hacemos ahora, con los mismos datos, un anlisis de varianza para muestras relacionadas con estos resultados (tabla 7):

18 Un tratamiento ms completo de la fiabilidad de los tests en Morales (2008, captulo 6). 19 La relacin entre fiabilidad y anlisis de varianza la puso de relieve ya hace aos Hoyt (1941, 1952) y est bien explicada en Rosenthal y Rosnow (1991:55) y en Nunnally y Bernstein (1994:274)

Anlisis de varianza para muestras relacionadas

19

origen de la variacin tems Sujetos


tems x sujetos

Total

Suma de Cuadrados 8.375 40.125 10.125 58.625

Grados de libertad 5 3 15 23 Tabla 7

Cuadrados F medios 1.675 2.482 p>.05 13.375 19.81 p <.05 .675

La varianza significativa es la que corresponde a los sujetos; son los sujetos los que difieren entre s y no los tems entre s; ahora bien, si los sujetos difieren entre s es porque los tems establecen diferencias entre los sujetos como si se tratara de jueces cuyas opiniones coinciden (en este ejemplo, tabla 6, puede verse a simple vista). Ya sabemos cmo cuantificar esta fiabilidad de los tems (de las columnas en este caso, frmula [4]): CM filas - CMerror 13.375 .675 rcc = = = .95 CM filas 13.375 Hemos llegado al mismo valor del coeficiente de Cronbach. Esta fiabilidad de los tems es lo que denominamos consistencia interna. Si los tems fueran unos jueces diramos que los tems juzgan de manera semejante a los sujetos; de esta consistencia interna deduciremos que miden lo mismo, aunque en esta deduccin puede haber otras fuentes de error en las que no entramos aqu20. Habitualmente calculamos la fiabilidad de los tests y escalas mediante el clculo directo del coeficiente de Cronbach, pero posiblemente es desde el anlisis de varianza como se entiende mejor qu es lo que cuantifican estos coeficientes.
6. Un ejemplo de anlisis de varianza para muestras relacionadas 6.1. Anlisis de varianza

En el ejemplo que nos ha servido para introducir el anlisis de varianza para muestras relacionadas (o emparejadas) tenamos en las columnas (variable independiente) cuatro profesores que han calificado a los mismos alumnos (filas). El inters en este ejemplo era verificar que no haba diferencias significativas entre los profesores y ver la fiabilidad o grado de acuerdo de los profesores al evaluar a los mismos alumnos. Ahora presentamos otro ejemplo en el que el inters va en otra direccin: verificar las diferencias entre las columnas (condiciones experimentales) y la fiabilidad o grado de acuerdo de los sujetos (filas) diferenciando unas columnas de otras. Este ejemplo es semejante al presentado en la situacin 1 (apartado 5.2.2) y lo exponemos con cierto detalle y con un caso real porque puede sugerir otros planteamientos parecidos. En una residencia de estudiantes (chicas) se pregunta a 10 residentes por sus preferencias a la hora de realizar 7 tareas distintas (ayudar en la limpieza de los baos, la sala de estar, sala de estudio, atender el telfono, barrer el pasillo, ayudar en lavadero y en la cocina).

20 Esta consistencia interna es puramente emprica; de hecho los tems ordenan de manera semejante a los sujetos, pero esto no quiere decir necesariamente que conceptualmente midan un mismo rasgo bien definido; un grupo de nios de diversas edades pueden quedar ordenados de manera semejante en peso y altura, sin que esto quiera decir que peso y altura midan lo mismo.

Anlisis de varianza para muestras relacionadas

20

Las respuestas valorativas van desde 1 (no me gusta nada) a 6 (me gusta mucho)21. En la tabla 8 figuran las respuestas de las residentes, la media y desviacin tpica (de la muestra, dividiendo por N) de cada columna o tarea y el total de cada alumna al sumar todas sus respuestas.
residentes 1. Bao 2. Sala de estar 3. Sala de estudio 4. Telfono 5. Pasillo 6. Lavadero 7. Cocina Total filas

1 2 3 4 5 6 7 8 9 10
M columnas columnas

1 1 3 1 3 2 1 1 1 1 1.5 .806

2 2 1 2 2 1 2 2 4 2 2 .775

3 3 1 2 1 1 2 2 3 2 2 .775

5 6 5 3 5 1 3 4 5 4 4.1 1.375 Tabla 8

5 1 5 2 2 2 5 2 6 5 3.5 1.113

3 2 4 4 4 3 4 6 2 4 3.6 1.345

2 6 4 4 3 2 3 3 6 4 3.7 1.345

21 21 23 18 20 12 20 20 27 22

La tabla de resultados del anlisis de varianza (EXCEL) la tenemos en la tabla 9.


origen de la variacin filas (residentes) columnas (tareas) interaccin (error) total SC numerador gl denominador CM = SC/gl (varianza)

F 1.401 7.343

p 0.211 0.000

F crtico ( = .05)

18.629 65.086 79.771 163.486

9 6 54 69

2.070 10.848 1.477 Tabla 9

2.059 2.272

Observamos que: La F de las filas no es estadsticamente significativa; las diferencias entre las alumnas estn dentro de lo aleatorio. Aqu conviene tener claro en qu no difieren las alumnas: no difieren significativamente en sus totales (si sumamos todas sus respuestas) o en sus medias. A simple vista se detectan diferencias que parecen grandes (la ms baja es 12 y la ms alta es 27) pero con tan pocos sujetos cualquier diferencia entre dos sujetos tiene una probabilidad de ocurrir aleatoriamente mayor del 5%. En cualquier caso esta F de las filas no tiene aqu inters interpretativo; nuestro inters est en las columnas. La F de las columnas s es estadsticamente significativa; entre las tareas hay diferencias superiores a lo que podemos esperar por azar. Tenemos el problema de la condicin de esfericidad que no hemos comprobado (s se comprueba en el SPSS) y que no suele cumplirse. En este caso ya hemos visto que los grados
21 De un trabajo de Sara Lozano, alumna de 2 de Psicopedagoga, curso 1998-1999

Anlisis de varianza para muestras relacionadas

21

de libertad ms seguros y conservadores al consultar las tablas de la razn F son 1 y N-1 (en este caso 1 y 9). Con un nivel de confianza de = .05 y grados de libertad 1 y 9 vemos en las tablas que el valor de F que necesitamos es de 5.12 y el nuestro (7.343) es superior por lo que podemos rechazar la Hiptesis Nula y afirmar que existen diferencias significativas entre las tareas.
6.2. Coeficientes de fiabilidad y 2

Si las tareas difieren entre s es porque hay un cierto grado de acuerdo entre las residentes al valorar de distinta manera las tareas que tienen que compartir; este grado de acuerdo es la fiabilidad de las filas (frmula [6]): rff = CM columnas CM error 10.848 1.477 = = .86 CM columnas 10.848

Podemos afirmar que el grado de acuerdo de las residentes al diferenciar unas tareas de otras es apreciablemente grande. La fiabilidad de las columnas (tareas) diferenciando a las filas (sujetos) no tiene especial inters pero es ilustrativo calcular este coeficiente (frmula [4]) rcc = CM filas CM error 2.070 1.477 = = .29 CM filas 2.070

Obviamente es un coeficiente muy bajo; lo que tiene inters es caer en la cuenta de cul hubiera sido nuestra interpretacin si la fiabilidad de las columnas al diferenciar a las filas hubiera sido alta. Este coeficiente es el mismo coeficiente de Cronbach; si hubiese sido relativamente alto estaramos ante un test o escala de actitud de servicio o de gusto por este tipo de tareas en general, pero vemos que no es ste el caso. Los coeficientes 2 son coherentes con los resultados vistos (frmulas [1] y [2] eliminando la raz cuadrada): Proporcin de varianza en la variable dependiente (respuestas de los sujetos) explicada por diferencias: entre las tareas: entre los sujetos:
2 columnas =

SC columnas 65.086 = = .398 SC total 163.486

2 = filas

SC filas SC total

65.086 = .114 163.486

Casi el 40% de la varianza est explicado por diferencias entre las tareas y poco ms del 11 % por diferencias entre los sujetos. El coeficiente 2parcial (frmula [3] sin la raz cuadrada) es igual a .449: aproximadamente un 45% de la varianza (diferencias en las respuestas) queda explicado por las diferencias entre tareas teniendo en cuenta solamente estas diferencias entre tareas y prescindiendo de los errores de medicin (que en este caso equivalen a las peculiaridades individuales manifestadas en las respuestas).
6.3. Contrastes posteriores y representacin grfica

En este caso hemos hecho los contrastes posteriores (de Tuckey, con el SPSS). Las cuatro tareas con medias mayores (telfono, cocina, lavadero y pasillo) no se diferencian significativamente entre s, pero estas cuatro tareas s tienen diferencias estadsticamente
Anlisis de varianza para muestras relacionadas

22

significativas con las tres tareas con medias ms bajas (sala de estar, sala de estudio y bao) que entre s tampoco difieren. Tenemos dos bloques de tareas claramente diferenciados; con ms sujetos s podran haber aparecido ms diferencias significativas. Una manera de presentar estos resultados es como aparecen en la figura 1: se ponen por orden las tareas y sus medias y se subrayan las que no difieren entre s.
4. Telfono 7. Cocina 6. Lavadero 5. Pasillo 2. Sala de estar 3. Sala de estudio 1.Bao

4.1

3.7

3.6

3.5 Figura 1

2.0

2.0

1.5

Aunque no se hagan los contrastes posteriores s es til presentar alguna figura semejante en la que aparezcan las tareas ordenadas segn sus medias. La razn F de las tareas que es estadsticamente significativa y la alta fiabilidad o grado de acuerdo de los sujetos diferenciando unas tareas de otras ya es suficiente para hacer una interpretacin de los resultados. En este ejemplo los sujetos han valorado el gusto por una serie de tareas; es fcil intuir la utilidad de este modelo de anlisis de varianza; en vez de tareas podran ser otras variables de inters pertenecientes al mismo mbito conceptual para que tenga sentido la comparacin o establecer una jerarqua (experiencias, valores, motivaciones, etc.). Tambin puede tratarse de la misma variable en ocasiones sucesivas o medidas despus de pasar por experiencias distintas (en el ejemplo expuesto los sujetos se limitan a responder a un cuestionario, no despus de realizar una determinada tarea). En la introduccin ya se han expuesto diversos planteamientos susceptibles de ser analizados con este modelo de anlisis de varianza.
7. Anlisis de varianza para muestras relacionadas en EXCEL y en el SPSS EXCEL. Este anlisis de varianza lo tenemos en Herramientas - Anlisis de datos Anlisis de varianza de dos factores con una muestra por grupo.

Nos da solamente los datos descriptivos y la tabla de resultados; no incluye contrastes posteriores, ni los otros coeficientes (fiabilidad, 2) ya expuestos.

Una cautela. Al sealar los datos (dispuestos en columnas) hay que seleccionar tambin una columna adicional a la izquierda de la tabla (que puede estar en blanco) porque esta primera columna se interpreta como rtulos (que en las filas no suelen interesar).
SPSS. En el SPSS este modelo de anlisis de varianza se encuentra en analizar y all en modelo lineal general, en medidas repetidas. Este anlisis de varianza es ms complejo y hay que acudir a manuales especficos (como Pardo Merino y Ruz Daz, 2005; Ximnez y San Martn (2000). El SPSS no presenta la tabla de resultados convencional por lo que, si interesa presentar esta tabla de resultados, se puede hacer fcilmente con EXCEL. El SPSS calcula los contrastes posteriores pero no los coeficientes de fiabilidad (muy sencillos, como hemos visto, a partir de la informacin de la tabla de resultados). 8. El anlisis de varianza para muestras relacionadas en Internet.

En Internet disponemos al menos de este programa: LOWRY, RICHARD, VASSARSTATS: Web Site for Statistical Computation,Vassar College, Poughkeepsie, NY, USA; One-Way Analysis of Variance for Independent or Correlated Samples http://faculty.vassar.edu/lowry/anova1u.html;
Anlisis de varianza para muestras relacionadas

23

Est en la misma pgina en la que est el anlisis de varianza para muestras independientes. Tiene all mismo una versin en espaol. Hay que introducir (o pegar) todos los datos. En el cuadro de dilogo hay que indicar el nmero de muestras (de columnas) y escoger Correlated samples. Este programa tiene los contrastes posteriores de Tukey (la diferencia mnima necesaria para afirmar que es estadsticamente significativa); en este sentido este programa es preferible a EXCEL, al menos si interesan los contrastes posteriores. No calcula los coeficientes de fiabilidad, pero con la frmula a la vista son muy sencillos con una calculadora.
9. Referencias bibliogrficas

DOWNIE, N.M. y HEATH, R.W., (1971). Mtodos estadsticos aplicados. Madrid: Ediciones del Castillo GARCA PREZ, J.F.; FRAS NAVARRO, M.D. y LLOBELL, J. PASCUAL (1999). Los diseos de la experimentacin experimental, comprobacin de hiptesis. Valencia: C.S.V. GIRDEN, ELLEN R., (1992). Anova repeated measures. Quantitative Applications in the Social Sciences. Newbury Park & London: Sage GUILFORD, J. P. y FRUCHTER, B., (1984). Estadstica aplicada a la psicologa y la educacin, Mxico: McGraw-Hill. [En Ingls: Fundamental Statistics in Psychology and Education, 1973. New York: McGraw-Hill]. HOYT, C.J., (1941). Test Reliability Estimated by Analysis of Variance. Psychometrika, 3, 153-160. HOYT, C.J., (1952). Estimation of Test Reliability for Un-Restricted Item Scoring Methods. Educational and Psychological Measurement, 12, 752-758. JACCARD, JAMES (1998). Interaction Effects in Factorial Analysis of Variance, Sage University Paper Series on Quantitative Applications in the Social Sciences. Thousand Oaks: Sage KIRK, ROGER E., (1995). Experimental Design, Procedures for the Behavioral Sciences. Boston: Brooks/Cole. LLOVEL, J. PASCUAL; FRAS, DOLORES y GARCA, FERNANDO (1996). Manual de psicologa experimental. Barcelona: Ariel. MORALES VALLEJO, PEDRO (2008). Estadstica aplicada a las Ciencias Sociales. Madrid: Universidad Pontificia Comillas. NUNNALLY, JUM C. and BERNSTEIN, IRA H. (1994). Psychometric Theory, 3rd. ed., New York, McGraw-Hill. PARDO MERINO, A. y RUZ DAZ, M.A. (2005). Anlisis de datos con SPSS 13 Base. Madrid: McGraw Hill. PERNEGER, THOMAS V. (1998). What's wrong with Bonferroni adjustments. British Medical Journal 1998; 316:1236-1238 http://www.bmj.com/cgi/content/full/316/7139/1236 ROSENTHAL, ROBERT and ROSNOW, RALPH L. (1991). Essentials of Behavioral Research, Methods and Data Analysis. Boston: McGraw-Hill.

Anlisis de varianza para muestras relacionadas

24

TOOTHAKER, LARRY E. and MILLER, LISA (1995), Introductory Statistics for the Behavioral Sciences, 2nd edit., Pacific Grove, Brooks/Cole, 706pp. WADDINGTON, CHRISTOPHER (2000). Estudio comparativo de diferentes mtodos de evaluacin de traduccin general (Ingls-Espaol). Madrid: Universidad Pontificia Comillas. XIMNEZ, CARMEN y SAN MARTN, RAFAEL (2000). Anlisis de Varianza con medidas repetidas. Madrid: La Muralla.

Anlisis de varianza para muestras relacionadas

Anlisis de varianza para verificar tendencias


Pedro Morales Vallejo Universidad Pontificia Comillas, Madrid Facultad de Ciencias Humanas y Sociales (ltima revisin 28 de febrero de 2009)

ndice
1. Introduccin............................................................................................................... 2. Verificacin de tendencias en muestras independientes ........................................... 2.1. Anlisis de varianza.......................................................................................... 2.2. Clculo de coeficientes de correlacin ............................................................. 2.3. Cuando los grupos son de distinto tamao ....................................................... 2.4. Contrastes posteriores entre medias ................................................................. 3. Verificacin de tendencias en muestras relacionadas ............................................... 3.1. Anlisis de varianza.......................................................................................... 3 3 3 6 7 8 9 9

3.2. Contraste de medias.......................................................................................... 11 3.3. Magnitud del cambio (tamao del efecto) ..................................................... 12 3.4. Anlisis correlacionales: relacin entre cambio individual y otras variables .. 13 4. Referencias bibliogrficas ......................................................................................... 13 Anexo. Tabla de los pesos () aplicables para verificar tendencias.............................. 14

Anlisis de varianza para verificar tendencias

1. Introduccin El anlisis de varianza para muestras independientes o para muestras relacionadas nos dice si entre las medias de varias muestras hay diferencias significativas, pero no nos dice si en las medias se observa una tendencia a crecer o decrecer. Es ms, al comparar varios grupos podemos encontrarnos con una razn F no significativa que nos dice que no hay diferencias (todas las medias proceden de la misma poblacin) cuando por simple observacin de los datos vemos que hay una clara tendencia en las medias, que van siendo progresivamente mayores o menores. Lo mismo puede suceder con las medias de un mismo grupo obtenidas en ocasiones sucesivas: entre las medias puede no haber diferencias significativas, pero s puede haber una tendencia clara y superior a lo aleatorio a aumentar o disminuir. Siempre que podamos ordenar los grupos con algn criterio (edad, curso, ocasiones sucesivas, etc.) podemos comprobar si se da una tendencia lineal (linear trend) a aumentar o disminuir; tambin podemos comprobar otras tendencias, pero ahora nos fijamos en las tendencias lineales. Las categoras de clasificacin son por lo tanto cuantitativas, de manera que sea posible establecer un orden numrico. El anlisis de varianza convencional responde a una hiptesis muy genrica (si los grupos pertenecen o no a la misma poblacin), pero podemos hacer adems preguntas ms especficas como si se observa o no una tendencia a aumentar o disminuir superior a lo meramente aleatorio. A esta pregunta podemos responder tambin mediante el anlisis de varianza apropiado1. 2. Verificacin de tendencias en muestras independientes 2.1. Anlisis de varianza Vamos a verlo con un ejemplo2. Tenemos cinco grupos ordenados de menos a ms con un criterio claro, como puede ser la edad. En este ejemplo (datos ficticios, tabla 1) tenemos un total de 20 sujetos (N = 20) con 4 sujetos en cada grupo (k o nmero de grupos = 5). Tanto en este caso como con muestras relacionadas, la solucin tiene dos pasos: 1 Se resuelve el anlisis de varianza convencional (en este caso se trata de muestras independientes), 2 Con los datos obtenidos se pasa a un segundo anlisis de varianza especfico para verificar tendencias (entre los grupos puede no haber diferencias significativas, pero la tendencia a aumentar o disminuir s puede ser significativa).

1 En el anexo VII mencionamos dos mtodos no paramtricos para verificar tendencias en muestras independientes (Jonckheere) y relacionadas (Page). Existe al menos otro mtodo no paramtrico para verificar tendencias cuando n = 1 (prueba de Mann) que puede ser de especial inters para analizar terapias individuales (por ejemplo en psicologa clnica y educacin especial). 2 El procedimiento que vamos a exponer puede verse tambin explicado y con ejemplos resueltos en bastantes textos no elementales (como Guilford y Fruchter, 1973; Rosenthal, 1987; Kirk, 1995). A veces se advierten aparentes discrepancias metodolgicas en los distintos autores, simplemente porque unos prefieren utilizar como dato la media de cada grupo y otros el total de las puntuaciones de cada grupo.

Anlisis de varianza para verificar tendencias

N = 20 n=4 k=5 Media = Desviacin (n)= Total =

1 14 14 11 10 12.25 1.785 49

2 15 15 12 11 13.25 1.785 53

3 16 16 13 12 14.25 1.785 57 Tabla 1

4 17 17 14 13 15.25 1.785 61

5 18 18 15 14 16.25 1.785 65

Si hacemos un anlisis de varianza convencional nos encontramos con estos resultados (tabla 2): origen entre los grupos dentro de los grupos Suma de Cuadrados 40 63.75 Grados de Cuadrados Libertad Medios k-1=5-1=4 40/4 = 10 N-k= 63.75/15 = 4.25 20 - 5 = 15 Tabla 2 F 2.35, p > .05

De esta tabla solamente vamos a utilizar los Cuadrados Medios dentro de los grupos (que es el trmino del error) por lo que podemos calcularlos directamente si nicamente nos interesa la tendencia y no nos interesa comprobar si las medias difieren significativamente entre s:
2 n n CMdentro = Nk

[1]

En cada grupo multiplicamos el nmero de sujetos (de cada grupo, k = 4 en este ejemplo) por su varianza (calculada dividiendo por N, no por N-1), sumamos estos productos y los dividimos por los grados de libertad dentro de los grupos (nmero total de sujetos menos nmero de grupos). Si hemos calculado las desviaciones dividiendo por N-1 (n-1) el denominador de [1] ser N. En nuestro ejemplo, como los grupos son del mismo tamao, podemos simplificar el numerador (n2 en vez de n2): Cuadrados Medios dentro =

4(1.7852 + 1.7852 + 1.7852 + 1.7852 + 1.7852 ) 20- 4

= 4.25

Como en casos semejantes (muestras independientes), si calculamos las varianzas de los grupos dividiendo por N-1, los Cuadrados Medios dentro sern n 2 /, y si los grupos son n-1 de idntico tamao n 2 /N. n-1 Vemos en la tabla 2 que la razn F no es estadsticamente significativa; para 4 y 15 grados de libertad nos hara falta un valor de F = 3.06 para rechazar (no aceptar) la Hiptesis

Anlisis de varianza para verificar tendencias

Nula de no diferencia y el que hemos encontrado es F = 2.35; nuestra primera conclusin es que las diferencias entre los grupos estn dentro de lo normal. Este resultado contradice aparentemente lo que vemos en los datos (ejemplo ficticio). Observamos que las medias van aumentando progresivamente, cada grupo tiene una media mayor que el anterior. Es ms, si calculamos la correlacin entre el total (o la media) de cada grupo y el nmero de orden del grupo (que podramos substituir por la edad media del grupo, por ejemplo) nos encontramos con una relacin perfecta de r = 1 (en este caso N = 5 y grados de libertad igual a N - 2 = 3). Lo que sucede es que en el anlisis de varianza que hemos hecho se prescinde del orden y la respuesta que obtenemos es muy genrica (hay diferencias entre los grupos?) y realmente no corresponde a nuestra pregunta de inters: si se da o no se da una tendencia, en este caso a aumentar progresivamente. Si ordenamos los grupos de manera diferente, el valor de F ser el mismo, pues es independiente del orden. La respuesta a nuestra pregunta (hay o no hay una determinada tendencia) es hacer un anlisis de varianza que tiene en cuenta la varianza debida a la hipottica tendencia a aumentar. El procedimiento lo explicamos a partir de los datos de la tabla 3. Grupo 1 49 -2 -98 Grupo 2 53 -1 -53 Grupo 3 57 0 0 Tabla 3 Grupo 4 61 +1 + 61 Grupo 5 65 +2 + 130

Totales T = pesos = T =

2 = 10
T = L = 40

Qu hemos hecho: 1 Tomamos como dato inicial los totales de cada grupo (tomados de la tabla 1). Si los grupos son de distinto tamao, el total de cada grupo ser igual a la media del grupo multiplicada por la media armnica del nmero de sujetos (lo aclaramos ms en el apartado 2.3). 2 Asignamos a cada grupo un peso (simbolizado por la letra griega lambda, ) que expresa nuestra prediccin. Nuestra prediccin es que las medias van de menos a ms, por eso los pesos asignados se corresponden con la tendencia que queremos contrastar. La condicin para asignar estos pesos es que su suma sea igual a 0. Si nuestra prediccin no hubiera sido una tendencia lineal (crecimiento o decrecimiento progresivo) sino una tendencia cuadrtica (tendencia primero a aumentar y luego a disminuir, o al revs) nuestros pesos hubieran sido +2, -1, -2, -1, +2. Estas tendencias cuadrticas tienen la forma de o . Los pesos () para estos contrastes segn las predicciones (lineales, cuadrticas, cbicas) y segn el nmero de grupos (o nmero de ocasiones si se trata del mismo grupo) se pueden encontrar en muchos textos (en el anexo ponemos los pesos para los casos ms frecuentes (tendencias lineales y cuadrticas, entre tres y seis grupos u ocasiones).

Anlisis de varianza para verificar tendencias

3 Sumamos los pesos elevados previamente al cuadrado:

2 = (-2)2 + (-1)2 + (+1)2+ (+2)2 = 10


4 Multiplicamos cada Total por su peso (T) 5 Sumamos estos valores de T; designamos esta suma (T) con el smbolo L: L = -98 - 53 + 61 + 130 = 40 6 Calculamos la Suma de Cuadrados correspondiente a la tendencia lineal mediante esta frmula: SCtendencia = L2 (n)( 2 ) [2] = 40 2 1600 = 40 = (4)(10) 40

Cuadrados Medios (o varianza correspondiente a la tendencia):

CMtendencia =

SC tendencia grados de lib.[= 1]

[3]

= 40

En estos contrastes los grados de libertad de la tendencia son siempre igual a 1, por lo que la Suma de Cuadrados es igual a los Cuadrados Medios.

7 Calculamos la razn F dividiendo los Cuadrados Medios de la tendencia lineal por el trmino del error (Cuadrados Medios dentro de los grupos) calculado antes (tabla 2): F= 40 = 9.41 4.25

En las tablas de la razn F encontramos que para un grado de libertad en el numerador y 15 en el denominador (N-k = 20 - 5), este valor corresponde a p <.01 ( p <.001 si consultamos tablas ms completas). Podemos afirmar con mucha seguridad que la tendencia a aumentar que observamos dista de ser casual. 2.2. Clculo de coeficientes de correlacin A partir de los datos ya calculados podemos calcular dos coeficientes de correlacin (r de Pearson) entre la variable independiente (como puede ser la edad, o el nmero asignado a cada grupo) y la variable dependiente (la que hemos medido); estos coeficientes son una estimacin del tamao del efecto que nos permite apreciar y valorar la magnitud de la tendencia (el coeficiente de correlacin tiene pleno sentido tratndose precisamente de una tendencia linear). 1 Tomando el grupo como unidad (Rosenthal, 1987:141): r=
SC tendencia SC entre

[4]

40 =1 40

Anlisis de varianza para verificar tendencias

Llegaremos al mismo resultado si calculamos el coeficiente de correlacin entre la media (o el total) de cada grupo y la numeracin (nmero de orden) que corresponde a cada grupo (el sujeto o unidad es aqu el grupo, tenemos tantos sujetos como grupos). Es como si calculramos la correlacin con todos los sujetos, pero asignando a cada sujeto, como puntuacin individual, la media (o total) de su grupo. 2 Tomando el sujeto como unidad: r= F F + grados de libertad dentro
SC tendencia SCtendencia + SC dentro

[5]

9.41 = .62 9.41 + 15


40 = .62 40 + 63.75

o tambin r =

[6]

En los denominadores tenemos en [5] los grados de libertad dentro de los grupos o en [6] la suma de cuadrados dentro de los grupos; quizs con ms propiedad habra que decir grados de libertad o suma de cuadrados del trmino del error (tratndose de varias muestras independientes el trmino del error es la varianza dentro de los grupos). Cuando tomamos el sujeto individual como unidad los coeficientes de correlacin son menores que cuando utilizamos los totales o medias de cada grupo (en ste y en cualquier otro caso), sencillamente porque no prescindimos de las diferencias individuales dentro de cada grupo. Los dos coeficientes dan informacin distinta. Cuando nos referimos, por ejemplo, a la correlacin entre edad y cualquier otra variable, nos referimos habitualmente a la correlacin utilizando a cada sujeto como unidad; el utilizar la media o el total del grupo (como en [4]) tambin es til porque nos avisa sobre la tendencia de una manera muy clara. Sin embargo estas correlaciones tomando el grupo como unidad son una estimacin pobre de la correlacin entre el dato individual y el grupo de pertenencia (edad en este caso): aqu hemos bajado de una perfecta relacin (r = 1) a una relacin moderada de r = .62 Como criterio general, tomaremos al sujeto como unidad utilizando las frmulas [5] [6].

2.3. Cuando los grupos son de distinto tamao


Cuando los grupos son de distinto tamao el procedimiento es el mismo con dos modificaciones: 1 el valor de n (nmero de sujetos en cada grupo), pasa a ser la media armnica de n: n armnica . = k (1 k) [7]

Vamos a suponer que en el ejemplo anterior los valores de n para los cinco grupos son 4, 5, 4, 6, y 5; la media armnica de n sera en este caso:

Anlisis de varianza para verificar tendencias

n armnica =

5 5 = 4.69 = 1 1 1 1 1 1.0667 + + + + 4 5 4 6 5

2 El valor de T pasa a ser la media de cada grupo (M) multiplicada por la media armnica del nmero de sujetos: T = (M) (n armnica ) [8]

2.4. Contrastes posteriores entre medias


Si nos interesa podemos comparar las medias de los grupos de dos en dos, o tambin podemos comparar una media con la media combinada de otros grupos; podemos comparar tanto medias como medias de medias si queremos unir dos grupos o ms, teniendo en cuenta, al aplicar la frmula, que si unimos dos grupos o ms cambiar el nmero de sujetos. El contraste de medias lo hacemos mediante la t de Student con esta frmula3: t=
M1 - M 2 1 1 + CM dentro n 1 n2

[9]

Los grados de libertad para consultar las tablas son los de los Cuadrados Medios dentro de los grupos (trmino del error), 15 en este ejemplo. Lo vemos con dos ejemplos: a) Comparamos las medias de dos grupos, el 5 y el 3: t=
16.25 14.25 1 1 + 4.25 4 4

= 1.372 (p > .05)

b) Comparamos la media de un grupo, el 5, con la media combinada de los grupos 1, 2 y 3. La media de los tres primeros grupos, como tienen el mismo nmero de sujetos, es igual a la media de las medias = 13.25; el nmero de sujetos de este nuevo grupo es n = 4+4+4 = 12: t=
16.25 13.25 1 1 + 4.25 12 4

= 2.52 (con 15 de libertad: p < .05)

3 Es la misma frmula de los contrastes posteriores de Fisher (LSD, Least Statistical Difference).

Anlisis de varianza para verificar tendencias

De manera semejante podemos hacer otros contrastes de inters, aunque en este planteamiento lo que suele interesar fundamentalmente es verificar si se da o no se da una determinada tendencia: comprobar si la varianza debida a la tendencia a aumentar es superior a la varianza del trmino del error (la varianza dentro de los grupos, que expresa la variabilidad normal).

3. Verificacin de tendencias en muestras relacionadas


Cuando se trata de los mismos sujetos medidos en la misma variable en ocasiones sucesivas tenemos un planteamiento semejante: podemos comprobar si una determinada tendencia es estadsticamente significativa (superior a lo que podramos encontrar por azar). Tenemos dos procedimientos para llegar a una respuesta: 1 Un anlisis de varianza semejante al anterior; 2 Un contraste de medias utilizando unas puntuaciones individuales de tendencia al cambio que podemos calcular para cada sujeto. Este segundo procedimiento es independiente del anlisis de varianza propiamente dicho pero completa la informacin; responde a estas preguntas El cambio o evolucin observado en nuestra muestra, se aparta significativamente de una media de cambio = 0? Cul es la magnitud del cambio?

3.1. Anlisis de varianza


Vamos a suponer que los mismos cuatro sujetos han sido medidos en tres ocasiones sucesivas (tabla 4). 1 ocasin 2 ocasin 3 ocasin 10 12 14 9 11 13 5 3 7 4 2 6 Total = 28 28 40 Media = 7 7 10 Desviacin = 2.55 4.527 3.535 Tabla 4 N = 12 n=4 k=3 Total 36 33 15 12 Media 12 11 5 4

Los nicos datos que necesitamos de la tabla 4 son los totales de las filas y de las columnas, aunque tambin hemos puesto en la tabla las medias (si slo tenemos las medias, los totales son igual a la media por nmero de sujetos). Lo primero que vamos a hacer es un anlisis de varianza convencional para muestras relacionadas (porque tenemos al mismo sujeto en cada fila); para calcular las sumas de cuadrados de filas y columnas son suficientes o los totales o las medias. Por lo que respecta a las filas (los sujetos) lo ms cmodo suele ser utilizar los totales. En el caso de las columnas (las ocasiones en que han sido medidos los sujetos) las medias y desviaciones son en s mismas informativas, aunque tambin podemos hacer el anlisis de varianza a partir de los totales.

Anlisis de varianza para verificar tendencias

10

Los resultados del anlisis de varianza para muestras relacionadas estn en la tabla 5. origen sujetos (filas) ocasiones (columnas) error (fil. x col) total Sumas de Cuadrados 150 24 8 182 Grados de libertad 4 -1 = 3 3 -1 = 2 (f-1)(c-1) = 6 N -1 = 11 Tabla 5 Cuadrados Medios 150/3 = 50 24/2 = 12 8/6 = 1.33 F 37.59, p < .01 9.02, p<.01

La varianza debida a que los sujetos (filas) son distintos es estadsticamente significativa, pero este resultado no nos interesa especialmente. La varianza debida a las ocasiones tambin es estadsticamente significativa; es decir, hay diferencias significativas entre las ocasiones, pero lo que no nos dice este resultado es si la tendencia a aumentar progresivamente es estadsticamente significativa, que es precisamente lo que queremos verificar. Es verdad que al observar las medias podemos ver que la media que corresponde a la tercera ocasin es la media mayor, pero con los mismos datos, si cambiamos de orden las columnas, tendramos el mismo resultado (F estadsticamente significativa). Si nos limitamos a este anlisis de varianza no verificamos si esta tendencia a aumentar de ocasin a ocasin es superior a lo que podemos esperar por azar. Para comprobar si la tendencia lineal es estadsticamente significativa hacemos un anlisis de varianza semejante al que hemos visto con muestras independientes. Necesitamos calcular los Cuadrados Medios (varianza) de esta tendencia para dividirlo por la varianza del trmino del error que ya hemos calculado en el anlisis de varianza precedente (tabla 5). Los datos los disponemos tal como figuran en la tabla 6. ocasiones Totales T 1 28 -1 -28 2 28 0 0 Tabla 6 3 40 +1 + 40

2 = 2 L = T = 12

Los coeficientes corresponden a una tendencia lineal (crecimiento o decrecimiento progresivo). La Suma de Cuadrados de esta tendencia la calculamos como antes [2]: CMtendencia = L2 12 2 = = 18 (n)( 2 ) (4)( 2)

Como los grados de libertad son siempre = 1, los Cuadros Medios coinciden con la Suma de Cuadrados. Ahora calculamos la razn F utilizando el trmino del error calculado en el anlisis de varianza precedente (tabla 5): F= 18 = 13.53 1.33

Para grados de libertad = 1 (numerador) y 6 (denominador) tenemos que p < .05

Anlisis de varianza para verificar tendencias

11

No solamente hemos probado que hay diferencias entre las ocasiones (primer anlisis de varianza) sino que adems se da una tendencia lineal a aumentar progresivamente de ocasin a ocasin. En este ejemplo el resultado era de esperar, pues vemos que la media en la tercera ocasin es superior a las medias de las ocasiones anteriores, pero no siempre los datos son tan claros. Y tambin puede suceder que en el primer anlisis de varianza no tengamos resultados significativos y s lo tengamos al verificar de manera especfica la tendencia. Si nuestra hiptesis o prediccin fuera que la tendencia es cuadrtica (ir primero de menos a ms y despus de ms a menos o viceversa) el procedimiento es el mismo; lo que cambian son los pesos por los que multiplicamos los totales, que son los que expresan una tendencia cuadrtica . En este caso los clculos seran los que figuran en la tabla 7. ocasiones Totales T 1 28 -1 -28 2 28 +2 + 56 Tabla 7 3 40 -1 - 40

2 = 6 L = T = -12

-12 2 = .50 Los Cuadrados Medios de la tendencia cuadrtica son = (4)(6)

Y la razn F es igual a F =

.50 = .37 1.33

En este caso, puesto solamente como ejemplo, el resultado es obviamente no significativo (el denominador es superior al numerador): hay diferencias entre las columnas (ocasiones) tal como vimos en el primer anlisis de varianza para muestras relacionadas, pero lo que no hay es una tendencia cuadrtica, sino lineal en este caso. Con los mismos datos podemos verificar las dos tendencias.

3.2. Contraste de medias


Como anlisis complementario podemos verificar la magnitud del cambio. El proceso que vamos a seguir es el siguiente: 1 A cada sujeto le calculamos una puntuacin individual de tendencia (de cambio individual). 2 Calculamos la media y desviacin tpica de estas puntuaciones de tendencia; 3 Hacemos un contraste de medias comparando la media de la muestra con la media de una hipottica poblacin cuya media fuera 0; se trata del contraste de la media de una muestra con la media de una poblacin de cambio cero. Ya hemos advertido antes que este procedimiento tiene una ventaja adicional: al disponer de una puntuacin individual de tendencia a progresar (si la hiptesis es de tendencia lineal), podemos adems comprobar relaciones posibles entre esta tendencia y otras variables que conozcamos de los sujetos (edad, sexo o cualquier otra).

Anlisis de varianza para verificar tendencias

12

Vamos a ver el procedimiento con los datos de la tabla 4. 1 Para calcular la puntuacin en tendencia de cada sujeto, multiplicamos sus puntuaciones por los coeficientes oportunos; en este caso -1, 0 y +1 y sumamos a cada sujeto su nuevo total, que lo es de su tendencia al cambio progresivo. El nuevo cuadro de datos est en la tabla 8. En este caso se trata simplemente de restar la primera puntuacin de la tercera (pero no sera lo mismo si tuviramos ms de tres ocasiones porque los valores de seran distintos). 2 De estas puntuaciones de tendencia calculamos la media y la desviacin tpica (tambin calculadas en la tabla 8). 1 ocasin(-1) 2 ocasin (0) (10)(-1) = -10 (12)(0) = 0 (9)(-1) = -9 (11)(0)= 0 (5)(-1) = - 5 (3)(0) = 0 (4)(-1) = -4 (2)(0) = 0 3 ocasin (+1) (14)(+1) = 14 (13)(+1) = 13 (7)(+1) = +7 (6)(+1) = +6 Media = Desviacin = Tabla 8 nuevo total 4 4 2 2 3 1

3 Ahora calculamos la t de Student con la frmula habitual para comparar la media de una muestra con la de una poblacin hipottica de media = 0: t= M-0 2 N -1 = [10] 3- 0 12 4- 1 = 5.19, con grados de libertad = 3, p < .05

Nuestra muestra (con una media en cambio = 3) no pertenece a una poblacin con una media de cero en cambio. Los resultados de ambos mtodos, anlisis de varianza y t de Student, no dan idnticos resultados aunque suelen ser similares y suelen llevar a las mismas conclusiones4.

3.3. Magnitud del cambio (tamao del efecto)


En este caso (con tres ocasiones el cambio equivale a la diferencia entre la 3 ocasin y la 1) podramos adems calcular el tamao del efecto habitual: diferencia entre las dos medias (ocasiones 1 y 3) dividida por la desviacin tpica combinada de las dos, o la de la 3 ocasin (siguiendo a Glass, como si se tratara de un post-test). En este ejemplo la media en cambio es 3 y la desviacin del post-test es 3.535, por lo que el tamao del efecto es 3/3.535 = .848; podemos valorar este cambio como grande.

4 Las diferencias pueden verse en Rosenthal (1987:166).

Anlisis de varianza para verificar tendencias

13

3.4. Anlisis correlacionales: relacin entre cambio individual y otras variables


La ventaja de disponer de una puntuacin individual de tendencia (lineal, que es quizs lo ms comn, o cuadrtica) es que nos permite comprobar relaciones entre la tendencia (o cambio) individual y otras caractersticas de los sujetos. Tambin podemos hacer lo mismo cuando las ocasiones son dos (contraste de medias entre antes y despus). El hecho de que la diferencia entre la media de la primera ocasin y la media de la ltima ocasin sea estadsticamente significativa quiere decir que el cambio en el grupo es superior a lo que podemos esperar por azar; al grupo se ha movido, ha evolucionado, pero no nos dice nada sobre cada sujeto en particular. Unos sujetos han podido cambiar ms, otros menos, otros nada e incluso alguno ha podido cambiar en direccin opuesta a la de la mayora. Si disponemos de otros datos de los sujetos podemos verificar la relacin entre otras variables y el cambio. Este tipo de anlisis puede aportar gran riqueza informativa a cualquier investigacin. Por ejemplo, en un estudio sobre la eficacia de un tratamiento de la dislexia (Benito, 1999) los sujetos fueron medidos en tres ocasiones distintas en diversas variables que sirven de diagnstico de la dislexia. Los resultados muestran una tendencia estadsticamente significativa (anlisis de varianza, los sujetos van mejorando de una vez a otra), y el cambio final (tamao del efecto) es grande. Pero adems se dispona de otros datos de los sujetos; calculando las correlaciones entre estos datos y el cambio (mejora) en dislexia, se observa que esta mejora en dislexia es independiente del nivel socio-econmico de la familia o nmero de hermanos y en cambio est relacionada con variables tales (entre otras) como grado de asistencia de los padres a las sesiones de evaluacin y asistencia regular de los nios a clase. Naturalmente para poder hacer estos anlisis hay que haber previsto qu informacin adicional se necesita o puede ser conveniente.

4. Referencias bibliogrficas
BENITO PEREGRINA, MANUELA de (1999). Aproximacin al concepto de dislexia: un estudio sobre las caractersticas de los alumnos dislxicos en un entorno bilinge. Tesis doctoral. Madrid: Universidad Pontificia Comillas. ESCOTET, MIGUEL A., (1980). Diseo multivariado en psicologa y educacin. Barcelona: Ceac. GUILFORD, J. P. Y FRUCHTER, B., (1984). Estadstica aplicada a la psicologa y la educacin, Mxico: McGraw-Hill. [En ingls: Fundamental Statistics in Psychology and Education, 1973. New York: McGraw-Hill]. KIRK, ROGER E., (1995). Experimental Design, Procedures for the Behavioral Sciences. Boston: Brooks/Cole. ROSENTHAL, ROBERT, (1987). Judgment Studies, Design, analysis and meta-analysis. Cambridge: Cambridge University Press. TEJEDOR, FRANCISCO JAVIER, (1984). Anlisis de varianza aplicada a la investigacin en pedagoga y psicologa. Madrid: Anaya

Anlisis de varianza para verificar tendencias

14

Anexo. Tabla de los pesos () aplicables para verificar tendencias


En la tabla 9 estn los pesos () aplicables para verificar tendencias (lineares o cuadrticas)5 cuando las muestras (columnas, muestras independientes o muestras relacionadas) estn ordenadas (tablas ms completas pueden verse en los autores citados).

tendencia
3 Linear Cuadrtica 4 Linear Cuadrtica 5 Linear Cuadrtica 6 Linear Cuadrtica

1 -1 +1 -3 +1 -2 +2 -5 +5

2 0 -2 -1 -1 -1 -1 -3 -1

nmero de columnas 3 4 +1 +1 +1 +3 -1 +1 0 +1 -2 -1 -1 +1 -4 -4 Tabla 9

+2 +2 +3 -1

+5 +5

5 Estas tablas se encuentran en numerosos textos (por ejemplo Guilford y Fruchter; 1973; Escotet, 1980; Tejedor, 1984; Rosenthal, 1987; Kirk, 1995), y en Internet, por ejemplo (hasta 10 medidas o columnas) en LANE, DAVID M. HyperStat Online Statistics Textbook, http://davidmlane.com/hyperstat/index.html, n 12. Las tendencias cbicas (dos cambios de direccin) pueden comprobarse a partir de cuatro ocasiones, suelen ser de inters con menor frecuencia que las otras dos.

Anlisis de varianza para verificar tendencias

TABLAS ESTADSTICAS
ltima revisin 25 de Marzo de 2009

ndice 1. Distribucin normal.................................................................................................. 2. t de Student............................................................................................................... 3. Ji cuadrado................................................................................................................ 4. r de Pearson .............................................................................................................. 5. F de Snedecor ........................................................................................................... 6. Tukey........................................................................................................................ 7. Dunnett ..................................................................................................................... 3 6 7 8 9 11 12

1. Tablas de la Distribucin Normal


-0 +

--

rea mayor rea menor

Puntuacin tpica positiva Proporcin de casos por debajo Proporcin de casos por encima

Puntuacin tpica negativa Proporcin de casos por encima Proporcin de casos por debajo

Proporcin de casos por debajo: percentil (multiplicando por 100) correspondiente a cada puntuacin tpica; Puntuacin tpica positiva: rea mayor Puntuacin tpica negativa: rea menor rea rea rea rea rea rea z z z mayor menor mayor menor mayor menor 0.82 0.7939 0.2061 0.41 0.6591 0.3409 0.00 0.50 0.50 0.83 0.7967 0.2033 0.42 0.6628 0.3372 0.01 0.504 0.496 0.84 0.7995 0.2005 0.43 0.6664 0.3336 0.02 0.508 0.492 0.85 0.8023 0.1977 0.44 0.67 0.330 0.03 0.512 0.488 0.86 0.8051 0.1949 0.45 0.6736 0.3264 0.04 0.516 0.484 0.87 0.8078 0.1922 0.46 0.6772 0.3228 0.05 0.5199 0.4801 0.88 0.8106 0.1894 0.47 0.6808 0.3192 0.06 0.5239 0.4761 0.89 0.8133 0.1867 0.48 0.6844 0.3156 0.07 0.5279 0.4721 0.90 0.8159 0.1841 0.49 0.6879 0.3121 0.08 0.5319 0.4681 0.91 0.8186 0.1814 0.50 0.6915 0.3085 0.09 0.5359 0.4641 0.92 0.8212 0.1788 0.51 0.695 0.305 0.10 0.5398 0.4602 0.93 0.8238 0.1762 0.52 0.6985 0.3015 0.11 0.5438 0.4562 0.94 0.8264 0.1736 0.53 0.7019 0.2981 0.12 0.5478 0.4522 0.95 0.8289 0.1711 0.54 0.7054 0.2946 0.13 0.5517 0.4483 0.96 0.8315 0.1685 0.55 0.7088 0.2912 0.14 0.5557 0.4443 0.97 0.834 0.166 0.56 0.7123 0.2877 0.15 0.5596 0.4404 0.98 0.8365 0.1635 0.57 0.7157 0.2843 0.16 0.5636 0.4364 0.99 0.8389 0.1611 0.58 0.719 0.281 0.17 0.5675 0.4325 1.00 0.8413 0.1587 0.59 0.7224 0.2776 0.18 0.5714 0.4286 1.01 0.8438 0.1562 0.60 0.7257 0.2743 0.19 0.5753 0.4247 1.02 0.8461 0.1539 0.61 0.7291 0.2709 0.20 0.5793 0.4207 1.03 0.8485 0.1515 0.62 0.7324 0.2676 0.21 0.5832 0.4168 1.04 0.8508 0.1492 0.63 0.7357 0.2643 0.22 0.5871 0.4129 1.05 0.8531 0.1469 0.64 0.7389 0.2611 0.23 0.591 0.409 1.06 0.8554 0.1446 0.65 0.7422 0.2578 0.24 0.5948 0.4052 1.07 0.8577 0.1423 0.66 0.7454 0.2546 0.25 0.5987 0.4013 1.08 0.8599 0.1401 0.67 0.7486 0.2514 0.26 0.6026 0.3974 1.09 0.8621 0.1379 0.68 0.7517 0.2483 0.27 0.6064 0.3936 1.10 0.8643 0.1357 0.69 0.7549 0.2451 0.28 0.6103 0.3897 1.11 0.8665 0.1335 0.70 0.758 0.242 0.29 0.6141 0.3859 1.12 0.8686 0.1314 0.71 0.7611 0.2389 0.30 0.6179 0.3821 1.13 0.8708 0.1292 0.72 0.7642 0.2358 0.31 0.6217 0.3783 1.14 0.8729 0.1271 0.73 0.7673 0.2327 0.32 0.6255 0.3745 1.15 0.8749 0.1251 0.74 0.7703 0.2297 0.33 0.6293 0.3707 1.16 0.877 0.123 0.75 0.7734 0.2266 0.34 0.6331 0.3669 1.17 0.879 0.121 0.76 0.7764 0.2236 0.35 0.6368 0.3632 1.18 0.881 0.119 0.77 0.7794 0.2206 0.36 0.6406 0.3594 1.19 0.883 0.117 0.78 0.7823 0.2177 0.37 0.6443 0.3557 1.20 0.8849 0.1151 0.79 0.7852 0.2148 0.38 0.648 0.352 1.21 0.8869 0.1131 0.80 0.7881 0.2119 0.39 0.6517 0.3483 1.22 0.8888 0.1112 0.81 0.791 0.209 0.40 0.6554 0.3446

z
1.23 1.24 1.25 1.26 1.27 1.28 1.29 1.30 1.31 1.32 1.33 1.34 1.35 1.36 1.37 1.38 1.39 1.40 1.41 1.42 1.43 1.44 1.45 1.46 1.47 1.48 1.49 1.50 1.51 1.52 1.53 1.54 1.55 1.56 1.57 1.58 1.59 1.60 1.61 1.62 1.63 1.64 1.65 1.66 1.67 1.68 1.69 1.70 1.71 1.72 1.73 1.74 1.75 1.76

rea mayor 0.8907 0.8925 0.8944 0.8962 0.898 0.8997 0.9015 0.9032 0.9049 0.9066 0.9082 0.9099 0.9115 0.9131 0.9147 0.9162 0.9177 0.9192 0.9207 0.9222 0.9236 0.9251 0.9265 0.9279 0.9292 0.9306 0.9319 0.9332 0.9345 0.9357 0.937 0.9382 0.9394 0.9406 0.9418 0.9429 0.9441 0.9452 0.9463 0.9474 0.9484 0.9495 0.9505 0.9515 0.9525 0.9535 0.9545 0.9554 0.9564 0.9573 0.9582 0.9591 0.9599 0.9608

rea menor 0.1093 0.1075 0.1056 0.1038 0.102 0.1003 0.0985 0.0968 0.0951 0.0934 0.0918 0.0901 0.0885 0.0869 0.0853 0.0838 0.0823 0.0808 0.0793 0.0778 0.0764 0.0749 0.0735 0.0721 0.0708 0.0694 0.0681 0.0668 0.0655 0.0643 0.063 0.0618 0.0606 0.0594 0.0582 0.0571 0.0559 0.0548 0.0537 0.0526 0.0516 0.0505 0.0495 0.0485 0.0475 0.0465 0.0455 0.0446 0.0436 0.0427 0.0418 0.0409 0.0401 0.0392

z
1.77 1.78 1.79 1.80 1.82 1.81 1.83 1.84 1.85 1.86 1.87 1.88 1.89 1.90 1.91 1.92 1.93 1.94 1.95 1.96 1.97 1.98 1.99 2.00 2.01 2.02 2.03 2.04 2.05 2.06 2.07 2.08 2.09 2.10 2.11 2.12 2.13 2.14 2.15 2.16 2.17 2.18 2.19 2.20 2.21 2.22 2.23 2.24 2.25 2.26 2.27 2.28 2.29 2.30

rea mayor 0.9616 0.9625 0.9633 0.9641 0.9656 0.9649 0.9664 0.9671 0.9678 0.9686 0.9693 0.9699 0.9706 0.9713 0.9719 0.9726 0.9732 0.9738 0.9744 0.975 0.9756 0.9761 0.9767 0.9772 0.9778 0.9783 0.9788 0.9793 0.9798 0.9803 0.9808 0.9812 0.9817 0.9821 0.9826 0.983 0.9834 0.9838 0.9842 0.9846 0.985 0.9854 0.9857 0.9861 0.9864 0.9868 0.9871 0.9875 0.9878 0.9881 0.9884 0.9887 0.989 0.9893

rea menor 0.0384 0.0375 0.0367 0.0359 0.0344 0.0351 0.0336 0.0329 0.0322 0.0314 0.0307 0.0301 0.0294 0.0287 0.0281 0.0274 0.0268 0.0262 0.0256 0.025 0.0244 0.0239 0.0233 0.0228 0.0222 0.0217 0.0212 0.0207 0.0202 0.0197 0.0192 0.0188 0.0183 0.0179 0.0174 0.017 0.0166 0.0162 0.0158 0.0154 0.015 0.0146 0.0143 0.0139 0.0136 0.0132 0.0129 0.0125 0.0122 0.0119 0.0116 0.0113 0.011 0.0107

z
2.31 2.32 2.33 2.34 2.35 2.36 2.37 2.38 2.39 2.40 2.41 2.42 2.43 2.44 2.45 2.46 2.47 2.48 2.49 2.50 2.51 2.52 2.53 2.54 2.55 2.56 2.57 2.58 2.59 2.60 2.61 2.62 2.63 2.64 2.65 2.66 2.67 2.68 2.69 2.70 2.71 2.72 2.73 2.74 2.75 2.76 2.77 2.78 2.79 2.80 2.81 2.82 2.83 2.84

rea mayor 0.9896 0.9898 0.9901 0.9904 0.9906 0.9909 0.9911 0.9913 0.9916 0.9918 0.992 0.9922 0.9925 0.9927 0.9929 0.9931 0.9932 0.9934 0.9936 0.9938 0.994 0.9941 0.9943 0.9945 0.9946 0.9948 0.9949 0.9951 0.9952 0.9953 0.9955 0.9956 0.9957 0.9959 0.996 0.9961 0.9962 0.9963 0.9964 0.9965 0.9966 0.9967 0.9968 0.9969 0.997 0.9971 0.9972 0.9973 0.9974 0.9974 0.9975 0.9976 0.9977 0.9977

rea menor 0.0104 0.0102 0.0099 0.0096 0.0094 0.0091 0.0089 0.0087 0.0084 0.0082 0.008 0.0078 0.0075 0.0073 0.0071 0.0069 0.0068 0.0066 0.0064 0.0062 0.006 0.0059 0.0057 0.0055 0.0054 0.0052 0.0051 0.0049 0.0048 0.0047 0.0045 0.0044 0.0043 0.0041 0.004 0.0039 0.0038 0.0037 0.0036 0.0035 0.0034 0.0033 0.0032 0.0031 0.003 0.0029 0.0028 0.0027 0.0026 0.0026 0.0025 0.0024 0.0023 0.0023

z
2.85 2.86 2.87 2.88 2.89 2.90 2.91 2.92 2.93 2.94 2.95 2.96 2.97 2.98 2.99 3.00 3.01 3.02 3.03 3.04 3.05 3.06

rea mayor 0.9978 0.9979 0.9979 0.998 0.9981 0.9981 0.9982 0.9982 0.9983 0.9984 0.9984 0.9985 0.9985 0.9986 0.9986 0.9987 0.9987 0.9987 0.9988 0.9988 0.9989 0.9989

rea menor 0.0022 0.0021 0.0021 0.002 0.0019 0.0019 0.0018 0.0018 0.0017 0.0016 0.0016 0.0015 0.0015 0.0014 0.0014 0.0013 0.0013 0.0013 0.0012 0.0012 0.0011 0.0011

z
3.07 3.08 3.09 3.10 3.11 3.12 3.13 3.14 3.15 3.16 3.17 3.18 3.19 3.20 3.21 3.22 3.23 3.24 3.25 3.26 3.27 3.28

rea mayor 0.9989 0.999 0.999 0.999 0.9991 0.9991 0.9991 0.9992 0.9992 0.9992 0.9992 0.9993 0.9993 0.9993 0.9993 0.9994 0.9994 0.9994 0.9994 0.9994 0.9995 0.9995

rea menor 0.0011 0.001 0.001 0.001 0.0009 0.0009 0.0009 0.0008 0.0008 0.0008 0.0008 0.0007 0.0007 0.0007 0.0007 0.0006 0.0006 0.0006 0.0006 0.0006 0.0005 0.0005

z
3.29 3.30 3.31 3.32 3.33 3.34 3.35 3.36 3.37 3.38 3.39 3.40 3.41 3.42 3.43 3.44 3.45 3.46 3.47 3.48 3.49 3.50

rea mayor 0.9995 0.9995 0.9995 0.9995 0.9996 0.9996 0.9996 0.9996 0.9996 0.9996 0.9997 0.9997 0.9997 0.9997 0.9997 0.9997 0.9997 0.9997 0.9997 0.9997 0.9998 0.9998

rea menor 0.0005 0.0005 0.0005 0.0005 0.0004 0.0004 0.0004 0.0004 0.0004 0.0004 0.0003 0.0003 0.0003 0.0003 0.0003 0.0003 0.0003 0.0003 0.0003 0.0003 0.0002 0.0002

2. Tablas de la t de Student
Pruebas de una cola (unilaterales) Grados de Pruebas de dos colas (bilaterales) libertad 1 2 Grados de libertad: 3 Muestras independientes: N1 + N2 -2 4 Muestras relacionadas: N-1 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 0.05 .10 6.313752 2.919986 2.353363 2.131847 2.015048 1.943180 1.894579 1.859548 1.833113 1.812461 1.795885 1.782288 1.770933 1.761310 1.753050 1.745884 1.739607 1.734064 1.729133 1.724718 1.720743 1.717144 1.713872 1.710882 1.708141 1.705618 1.703288 1.701131 1.699127 1.697261 1.644854 0.025 .05 12.70620 4.30265 3.18245 2.77645 2.57058 2.44691 2.36462 2.30600 2.26216 2.22814 2.20099 2.17881 2.16037 2.14479 2.13145 2.11991 2.10982 2.10092 2.09302 2.08596 2.07961 2.07387 2.06866 2.06390 2.05954 2.05553 2.05183 2.04841 2.04523 2.04227 1.95996 0.005 0.0005 .01 .001 63.65674 636.6192 9.92484 31.5991 5.84091 12.9240 4.60409 8.6103 4.03214 6.8688 3.70743 5.9588 3.49948 5.4079 3.35539 5.0413 3.24984 4.7809 3.16927 4.5869 3.10581 4.4370 3.05454 4.3178 3.01228 4.2208 2.97684 4.1405 2.94671 4.0728 2.92078 4.0150 2.89823 3.9651 2.87844 3.9216 2.86093 3.8834 2.84534 3.8495 2.83136 3.8193 2.81876 3.7921 2.80734 3.7676 2.79694 3.7454 2.78744 3.7251 2.77871 3.7066 2.77068 3.6896 2.76326 3.6739 2.75639 3.6594 2.75000 3.6460 2.57583 3.2905

Adaptadas de STATSOFT, INC. (2002). Electronic Statistics Textbook. Tulsa, OK: StatSoft. WEB: http://www.statsoft.com/textbook/stathome.html

3. Tablas del ji cuadrado (2)


Grados de
libertad

p= 0.05 3.84 7.82 9.49 11.07 12.59 14.07 15.51 16.92 18.31 19.68 21.03

p= 0.01 6.64 11.35 13.28 15.09 16.81 18.48 20.09 21.67 23.21 24.73 26.22

p= 0.001 10.83 16.27 18.47 20.52 22.46 24.32 26.13 27.88 29.59 31.26 32.91

Grados de
libertad

p= 0.05 22.36 23.69 25.00 26.30 27.59 28.87 30.14 31.41 32.67 33.92 35.17

p= 0.01 27.69 29.14 30.58 32.00 33.41 34.81 36.19 37.57 38.93 40.29 41.64

p= 0.001 34.53 36.12 37.70 39.25 40.79 42.31 43.82 45.32 46.80 48.27 49.73

Grados de
libertad

p= 0.05 36.42 37.65 38.89 40.11 41.34 42.56 43.77 55.76 67.51 79.08 90.53

p= 0.01 42.98 44.31 45.64 46.96 48.28 49.59 50.89 63.69 76.15 88.38

p= 0.001

1 3 4 5 6 7 8 9 10 11 12

13 14 15 16 17 18 19 20 21 22 23

24 25 26 27 28 29 30 40 50 60 70

51.18 52.62 54.05 55.48 56.89 58.30 59.70 73.41 86.66 99.62 100.42 112.31

Tablas adaptadas y abreviadas de Alexei Sharov, Virginia Tech, Blacksburg, VA, Quantitative Population Ecology, On-Line Lectures http://www.ento.vt.edu/~sharov/PopEcol/

4. Tablas del coeficiente de correlacin r de Pearson


Tablas del coeficiente de correlacin r de Pearson (N entre 3 y 102) Grados de libertad .05 .01 .001
Con muestras grandes: z= r 1/ N-1
= N-2 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 25 30 35 40 45 50 55 60 65 70 75 80 85 90 95 98 100 .9969 .9500 .8783 .8114 .7545 .7067 .6664 .6319 .6021 .5760 .5529 .5324 .5139 .4973 .4821 .4683 .4555 .4438 .4329 .4227 .3809 .3494 .3246 .3044 .2875 .2732 .2609 .2500 .2405 .2319 .2242 .2172 .2108 .2050 .1996 .1986 .1946 .9998 .9900 .9587 .9172 .8745 .8343 .977 .7646 .7348 .7079 .6835 .6614 .6411 .6226 .6055 .5897 .5751 .5614 .5487 .5368 .4869 .4487 .4182 .3932 .3721 .3541 .3386 .3248 .3127 .3017 .2919 .2830 .2748 .2673 .2604 .2591 .2540 .9999 .9990 .9911 .9740 .9507 .9249 .8982 .8721 .8471 .8233 .8010 .7800 .7603 .7420 .7246 .7084 .6932 .6787 .6652 .6523 .5974 .5541 .5189 .4896 .4648 .4433 .4244 .4078 .3931 .3799 .3678 .3568 .3468 .3375 .3291 .3274 .3211

y consultar las tablas de la distribucin normal; z >1.96, p<.05 z >2.56, p<.01 z >3.3, p<.001 o consultar alguna direccin de Internet.

Estas tablas se encuentran en muchas direcciones de Internet, como Cosme Chaves Introduccin a la Estadstica http://costaricalinda.com/Estadistica/ (tablas) La probabilidad exacta de cualquier valor de r puede verse en estas direcciones (entre otras muchas) http://graphpad.com/quickcalcs/PValue1.cfm , http://department.obg.cuhk.edu.hk/ResearchSupport/Correlation_coeff.asp http://faculty.vassar.edu/lowry/VassarStats.html; Los valores mnimos estadsticamente significativos de r (p =.05, .01 y .001 para cualquier valor de N en http://department.obg.cuhk.edu.hk/ResearchSupport/Minimum_correlation.asp

5. Tablas de la F de Snedecor
Grados de libertad en el denominador (v2) Grados de libertad en el numerador (v1) p 1 2 3 4 5 6 7 8 12 .10 4.06 3.78 3.62 3.52 3.45 3.40 3.37 3.34 3.27 5 .05 6.61 5.79 5.41 5.19 5.05 4.95 4.88 4.82 4.68 .01 16.3 13.3 12.1 11.4 11.0 10.7 10.5 10.3 9.89 .10 3.78 3.46 3.29 3.18 3.11 3.05 3.01 2.98 2.90 6 .05 5.99 5.14 4.76 4.53 4.39 4.28 4.21 4.15 4.00 .01 13.7 10.9 9.78 9.15 8.75 8.47 8.26 8.10 7.72 .10 3.59 3.26 3.07 2.96 2.88 2.83 2.78 2.75 2.67 7 .05 5.59 4.74 4.35 4.12 3.97 3.87 3.79 3.73 3.57 .01 12.2 9.55 8.45 7.85 7.46 7.19 6.99 6.84 6.47 .10 3.46 3.11 2.92 2.81 2.73 2.67 2.62 2.59 2.50 8 .05 5.32 4.46 4.07 3.84 3.69 3.58 3.50 3.44 3.57 .01 11.3 8.65 7.59 7.01 6.63 6.37 6.18 6.03 5.67 .10 3.36 3.01 2.81 2.69 2.61 2.55 2.51 2.47 2.38 9 .05 5.12 4.26 3.86 3.63 3.48 3.37 3.29 3.23 3.07 .01 10.6 8.02 6.99 6.42 6.06 5.80 5.61 5.47 5.11 .10 3.29 2.92 2.73 2.61 2.52 2.46 2.41 2.38 2.28 10 .05 4.96 4.10 3.71 3.48 3.33 3.22 3.14 3.07 2.91 .01 10.0 7.56 6.55 5.99 5.64 5.39 5.20 5.06 4.71 .10 3.23 2.86 2.66 2.54 2.45 2.39 2.34 2.30 2.21 11 .05 4.84 3.98 3.59 3.36 3.20 3.09 3.01 2.95 2.79 .01 9.65 7.21 6.22 5.67 5.32 5.07 4.89 4.74 4.40 .10 3.18 2.81 2.61 2.48 2.39 2.33 2.28 2.24 2.15 12 .05 4.75 3.89 3.49 3.26 3.11 3.00 2.91 2.85 2.69 .01 9.33 6.93 5.95 5.41 5.06 4.82 4.64 4.50 4.16 .10 3.14 2.76 2.56 2.43 2.35 2.28 2.23 2.20 2.10 13 .05 4.67 3.81 3.41 3.18 3.03 2.92 2.83 2.77 2.60 .01 9.07 6.70 5.74 5.21 4.86 4.62 4.44 4.30 3.96 .10 3.10 2.73 2.52 2.39 2.31 2.24 2.19 2.15 2.05 14 .05 4.60 3.74 3.34 3.11 2.96 2.85 2.76 2.70 2.53 .01 8.86 6.51 5.56 5.04 4.69 4.46 4.28 4.14 3.80 .10 3.07 2.70 2.49 2.36 2.27 2.21 2.16 2.12 2.02 15 .05 4.54 3.68 3.29 3.06 2.90 2.79 2.71 2.64 2.48 .01 8.68 6.36 5.42 4.89 4.56 4.32 4.14 4.00 3.67 .10 3.05 2.67 2.46 2.33 2.24 2.18 2.13 2.09 1.99 16 .05 4.49 3.63 3.24 3.01 2.85 2.74 2.66 2.59 2.42 .01 8.53 6.23 5.29 4.77 4.44 4.20 4.03 3.89 3.55 .10 3.03 2.64 2.44 2.31 2.22 2.15 2.10 2.06 1.96 17 .05 4.45 3.59 3.20 2.96 2.81 2.70 2.61 2.55 2.38 .01 8.40 6.11 5.19 4.67 4.34 4.10 3.93 3.79 3.46 .10 .01 2.62 2.42 2.29 2.20 2.13 2.08 2.04 1.93 18 .05 4.41 3.55 3.16 2.93 2.77 2.66 2.58 2.51 2.34 .01 8.29 6.01 5.09 4.58 4.25 4.01 3.84 3.71 3.37 .10 2.99 2.61 2.40 2.27 2.18 2.11 2.06 2.02 1.91 19 .05 4.38 3.52 3.13 2.90 2.74 2.63 2.54 2.48 2.31 .01 8.18 5.93 5.01 4.50 4.17 3.94 3.77 3.63 3.30 .10 2.97 2.59 2.38 2.25 2.16 2.09 2.04 2.00 1.89 20 .05 4.35 3.49 3.10 2.87 2.71 2.60 2.51 2.45 2.28 .01 8.10 5.85 4.94 4.43 4.10 3.87 3.70 3.56 3.23

24
3.19 4.53 9.47 2.82 3.84 7.31 2.58 3.41 6.07 2.40 3.41 5.28 2.28 2.90 4.73 2.18 2.74 4.33 2.10 2.61 4.02 2.04 2.51 3.78 1.98 2.42 3.59 1.94 2.35 3.43 1.90 2.29 3.29 1.87 2.24 3.18 1.84 2.19 3.08 1.81 2.15 3.00 1.79 2.11 2.92 1.77 2.08 2.86

3.11 4.37 9.02 2.72 3.67 6.88 2.47 3.23 5.65 2.29 3.23 4.86 2.16 2.71 4.31 2.06 2.54 3.91 1.97 2.40 3.60 1.90 2.30 3.36 1.85 2.21 3.17 1.80 2.13 3.00 1.76 2.07 2.87 1.72 2.01 2.75 1.69 1.96 2.65 1.66 1.92 2.57 1.63 1.88 2.49 1.61 1.84 2.42

10

Grados de libertad en el denominador (v2) Grados de libertad en el numerador (v1) p 1 2 3 4 5 6 7 8 12 .10 2.96 2.57 2.36 2.23 2.14 2.08 2.02 1.98 1.87 21 .05 4.32 3.47 3.07 2.84 2.68 2.57 2.49 2.42 2.25 .01 8.02 5.78 4.87 4.37 4.04 3.81 3.64 3.51 3.17 .10 2.95 2.56 2.35 2.22 2.13 2.06 2.01 1.97 1.86 22 .05 4.30 3.44 3.05 2.82 2.66 2.55 2.46 2.40 2.23 .01 7.95 5.72 4.82 4.31 3.99 3.76 3.59 3.45 3.12 .10 2.94 2.55 2.34 2.21 2.11 2.05 1.99 1.95 1.84 23 .05 4.28 3.42 3.03 2.80 2.64 2.53 2.44 2.37 2.20 .01 7.88 5.66 4.76 4.26 3.94 3.71 3.54 3.41 3.07 .10 2.93 2.54 2.33 2.19 2.10 2.04 1.98 1.94 1.83 24 .05 4.26 3.40 3.01 2.78 2.62 2.51 2.42 2.36 2.18 .01 7.82 5.61 4.72 4.22 3.90 3.67 3.50 3.36 3.03 .10 2.92 2.53 2.32 2.18 2.09 2.02 1.97 1.93 1.82 25 .05 4.24 3.39 2.99 2.76 2.60 2.49 2.40 2.34 2.16 .01 7.77 5.57 4.68 4.18 3.85 3.63 3.46 3.32 2.99 .10 2.91 2.52 2.31 2.17 2.08 2.01 1.96 1.92 1.81 26 .05 4.23 3.37 2.98 2.74 2.59 2.47 2.39 2.32 2.15 .01 7.72 5.53 4.64 4.14 3.82 3.59 3.42 3.29 2.96 .10 2.90 2.51 2.30 2.17 2.07 2.00 1.95 1.91 1.80 27 .05 4.21 3.35 2.96 2.73 2.57 2.46 2.37 2.31 2.13 .01 7.68 5.49 4.60 4.11 3.78 3.56 3.39 3.26 2.93 .10 2.89 2.50 2.29 2.16 2.06 2.00 1.94 1.90 1.79 28 .05 4.20 3.34 2.95 2.71 2.56 2.45 2.36 2.29 2.12 .01 7.64 5.45 4.57 4.07 3.75 3.53 3.36 3.23 2.90 .10 2.89 2.50 2.28 2.15 2.06 1.99 1.93 1.89 1.78 29 .05 4.18 3.33 2.93 2.70 2.55 2.43 2.35 2.28 2.10 .01 7.60 5.42 4.54 4.04 3.73 3.50 3.33 3.20 2.87 .10 2.88 2.49 2.28 2.14 2.05 1.98 1.93 1.88 1.77 30 .05 4.17 3.32 2.92 2.69 2.53 2.42 2.33 2.27 2.09 .01 7.56 5.39 4.51 4.02 3.70 3.47 3.30 3.17 2.84 .10 2.84 2.44 2.23 2.09 2.00 1.93 1.87 1.83 1.71 40 .05 4.08 3.23 2.84 2.61 2.45 2.34 2.25 2.18 2.00 .01 7.31 5.18 4.31 3.83 3.51 3.29 3.12 2.99 2.66 .10 2.79 2.39 2.18 2.04 1.95 1.87 1.82 1.77 1.66 60 .05 4.00 3.15 2.76 2.53 2.37 2.25 2.17 2.10 1.92 .01 7.08 4.98 4.13 3.65 3.34 3.12 2.95 2.82 2.50 .10 2.75 2.35 2.13 1.99 1.90 1.82 1.77 1.72 1.60 120 .05 3.92 3.07 2.68 2.45 2.29 2.18 2.09 2.02 1.83 .01 6.85 4.79 3.95 3.48 3.17 2.96 2.79 2.66 2.34 .10 2.71 2.30 2.08 1.94 1.85 1.77 1.72 1.67 1.55 .05 3.84 3.00 2.60 2.37 2.21 2.10 2.01 1.94 1.75 .01 6.64 4.61 3.78 3.32 3.02 2.80 2.64 2.51 2.18

24
1.75 2.05 2.80 1.73 2.03 2.75 1.72 2.01 2.70 1.70 1.98 2.66 1.69 1.96 2.62 1.68 1.95 2.58 1.67 1.93 2.55 1.66 1.91 2.52 1.65 1.90 2.49 1.64 1.89 2.47 1.57 1.79 2.29 1.51 1.70 2.12 1.45 1.61 1.95 1.38 1.52 1.79

1.59 1.81 2.36 1.57 1.78 2.31 1.55 1.76 2.26 1.53 1.73 2.21 1.52 1.71 2.17 1.50 1.69 2.13 1.49 1.67 2.10 1.48 1.65 2.06 1.47 1.64 2.03 1.46 1.62 2.01 1.38 1.51 1.80 1.29 1.39 1.60 1.19 1.25 1.38 1.00 1.00 1.00

Adaptadas y simplificadas de SIX SIGMA Reference Tables http://www.micquality.com/reference_tables/f_tables010.htm y de Bissonnette, Victor L., Berry College http://facultyweb.berry.edu/vbissonnette/ Al final de Anlisis de varianza para varias muestras independientes pueden verse direcciones de Internet con diversas tablas y para ver la probabilidad exacta de cualquier valor de t y F.

11

6. Tablas del rango estudentizado (q) de Tukey


Grados de libertad

Trmino del error

k = nmero de medias 2
3.64 5.70 3.46 5.24 3.34 4.95 3.26 4.75 3.20 4.60 3.15 4.48 3.11 4.39 3.08 4.32 3.06 4.26 3.03 4.21 3.01 4.17 3.00 4.13 2.98 4.10 2.97 4.07 2.96 4.05 2.95 4.02 2.92 3.96 2.89 3.89 2.86 3.82 2.83 3.76 2.80 3.70 3.31 4.12

5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 24 30 40 60 120

p ()
.05 .01 .05 .01 .05 .01 .05 .01 .05 .01 .05 .01 .05 .01 .05 .01 .05 .01 .05 .01 .05 .01 .05 .01 .05 .01 .05 .01 .05 .01 .05 .01 .05 .01 .05 .01 .05 .01 .05 .01 .05 .01 .05 .01

3
4.60 6.98 4.34 6.33 4.16 5.92 4.04 5.64 3.95 5.43 3.88 5.27 3.82 5.15 3.77 5.05 3.73 4.96 3.70 4.89 3.67 4.84 3.65 4.79 3.63 4.74 3.61 4.70 3.59 4.67 3.58 4.64 3.53 4.55 3.49 4.45 3.44 4.37 3.40 4.28 3.36 4.20 3.63 4.40

4
5.22 7.80 4.90 7.03 4.68 6.54 4.53 6.20 4.41 5.96 4.33 5.77 4.26 5.62 4.20 5.50 4.15 5.40 4.11 5.32 4.08 5.25 4.05 5.19 4.02 5.14 4.00 5.09 3.98 5.05 3.96 5.02 3.90 4.91 3.85 4.80 3.79 4.70 3.74 4.59 3.68 4.50 3.86 4.60

5
5.67 8.42 5.30 7.56 5.06 7.01 4.89 6.62 4.76 6.35 4.65 6.14 4.57 5.97 4.51 5.84 4.45 5.73 4.41 5.63 4.37 5.56 4.33 5.49 4.30 5.43 4.28 5.38 4.25 5.33 4.23 5.29 4.17 5.17 4.10 5.05 4.04 4.93 3.98 4.82 3.92 4.71 4.03 4.76

6
6.03 8.91 5.63 7.97 5.36 7.37 5.17 6.96 5.02 6.66 4.91 6.43 4.82 6.25 4.75 6.10 4.69 5.98 4.64 5.88 4.59 5.80 4.56 5.72 4.52 5.66 4.49 5.60 4.47 5.55 4.45 5.51 4.37 5.37 4.30 5.24 4.23 5.11 4.16 4.99 4.10 4.87 4.17 4.88

7
6.33 9.32 5.90 8.32 5.61 7.68 5.40 7.24 5.24 6.91 5.12 6.67 5.03 6.48 4.95 6.32 4.88 6.19 4.83 6.08 4.78 5.99 4.74 5.92 4.70 5.85 4.67 5.79 4.65 5.73 4.62 5.69 4.54 5.54 4.46 5.40 4.39 5.26 4.31 5.13 4.24 5.01 4.29 4.99

3
6.58 9.67 6.12 8.61 5.82 7.94 5.60 7.47 5.43 7.13 5.30 6.87 5.20 6.67 5.12 6.51 5.05 6.37 4.99 6.26 4.94 6.16 4.90 6.08 4.86 6.01 4.82 5.94 4.79 5.89 4.77 5.84 4.68 5.69 4.60 5.54 4.52 5.39 4.44 5.25 4.36 5.12 4.39 5.08

9
6.80 9.97 6.32 8.87 6.00 8.17 5.77 7.68 5.59 7.33 5.46 7.05 5.35 6.84 5.27 6.67 5.19 6.53 5.13 6.41 5.08 6.31 5.03 6.22 4.99 6.15 4.96 6.08 4.92 6.02 4.90 5.97 4.81 5.81 4.72 5.65 4.63 5.50 4.55 5.36 4.47 5.21 4.47 5.16

10
6.99 10.24 6.49 9.10 6.16 8.37 5.92 7.86 5.74 7.49 5.60 7.21 5.49 6.99 5.39 6.81 5.32 6.67 5.25 6.54 5.20 6.44 5.15 6.35 5.11 6.27 5.07 6.20 5.04 6.14 5.01 6.09 4.92 5.92 4.82 5.76 4.73 5.60 4.65 5.45 4.56 5.30 2.77 3.64

12

7. Tablas de Dunett
Para comparar varias medias con la media de un grupo de control, Muestras de idntico tamao, pruebas bilaterales Nmero de medias sin incluir el grupo de control grados de libertad 1 2 3 4 5 6 7 8 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 24 30 40 60 120
.01 .05 .01 .05 .01 .05 .01 .05 .01 .05 .01 .05 .01 .05 .01 .05 .01 .05 .01 .05 .01 .05 .01 .05 .01 .05 .01 .05 .01 .05 .01 .05 .01 .05 .01 .05 .01 .05 .01 .05 .01 .05 .01 .05 4.03 2.57 3.71 2.45 3.50 2.36 3.36 2.31 3.25 2.26 3.17 2.23 3.11 2.20 3.05 2.18 3.01 2.16 2.98 2.14 2.95 2.13 2.92 2.12 2.90 2.11 2.88 2.10 2.86 2.09 2.85 2.09 2.80 2.06 2.75 2.04 2.70 2.02 2.66 2.00 2.62 1.98 2.58 1.96 4.63 3.03 4.21 2.86 3.95 2.75 3.77 2.67 3.63 2.61 3.53 2.57 3.45 2.53 3.39 2.50 3.33 2.48 3.29 2.46 3.25 2.44 3.22 2.42 3.19 2.41 3.17 2.40 3.15 2.39 3.13 2.38 3.07 2.35 3.01 2.32 2.95 2.29 2.90 2.27 2.85 2.24 2.79 2.21 4.98 3.29 4.51 3.10 4.21 2.97 4.00 2.88 3.85 2.81 3.74 2.76 3.65 2.72 3.58 2.68 3.52 2.65 3.47 2.63 3.43 2.61 3.39 2.59 3.36 2.58 3.33 2.56 3.31 2.55 3.29 2.54 3.22 2.51 3.15 2.47 3.09 2.44 3.03 2.41 2.97 2.38 2.92 2.35 5.22 3.48 4.71 3.26 4.39 3.12 4.17 3.02 4.01 2.95 3.88 2.89 3.79 2.84 3.71 2.81 3.65 2.78 3.59 2.75 3.55 2.73 3.51 2.71 3.47 2.69 3.44 2.68 3.42 2.66 3.40 2.65 3.32 2.61 3.25 2.58 3.19 2.54 3.12 2.51 3.06 2.47 3.00 2.44 5.41 3.62 4.87 3.39 4.53 3.24 4.29 3.13 4.12 3.05 3.99 2.99 3.89 2.94 3.81 2.90 3.74 2.87 3.69 2.84 3.64 2.82 3.60 2.80 3.56 2.78 3.53 2.76 3.50 2.75 3.48 2.73 3.40 2.70 3.33 2.66 3.26 2.62 3.19 2.58 3.12 2.55 3.06 2.51 5.56 3.73 5.00 3.49 4.64 3.33 4.40 3.22 4.22 3.14 4.08 3.07 3.98 3.02 3.89 2.98 3.82 2.94 3.76 2.91 3.71 2.89 3.67 2.87 3.63 2.85 3.60 2.83 3.57 2.81 3.55 2.80 3.47 2.76 3.39 2.72 3.32 2.68 3.25 2.64 3.18 2.60 3.11 2.57 5.69 3.82 5.10 2.57 4.74 3.41 4.48 3.29 4.30 3.20 4.16 3.14 4.05 3.08 3.96 3.04 3.89 3.00 3.83 2.97 3.78 2.95 3.73 2.92 3.69 2.90 3.66 2.89 3.63 2.87 3.60 2.86 3.52 2.81 3.44 2.77 3.37 2.73 3.29 2.69 3.22 2.65 3.15 2.61 5.80 3.90 5.20 3.64 4.82 3.47 4.56 3.35 4.37 3.26 4.22 3.19 4.11 3.14 4.02 3.09 3.94 3.06 3.88 3.02 3.83 3.00 3.78 2.97 3.74 2.95 3.71 2.94 3.68 2.92 3.65 2.90 3.57 2.86 3.49 2.82 3.41 2.77 3.33 2.73 3.26 2.69 3.19 2.65

9
5.89 3.97 5.28 3.71 4.89 3.53 4.62 3.41 4.43 3.32 4.28 3.24 4.16 3.19 4.07 3.14 3.99 3.10 3.93 3.07 3.88 3.04 3.83 3.02 3.79 3.00 3.75 2.98 3.72 2.96 3.69 2.95 3.61 2.90 3.52 2.86 3.44 2.81 3.37 2.77 3.29 2.73 3.22 2.69

Adaptadas de http://www.forecastingprinciples.com/tables.pdf , Lane, David M. HyperStat Online Statistics Textbook (http://davidmlane.com/hyperstat/index.html) http://davidmlane.com/hyperstat/table_Dunnett.html (en Introduction to Between-Subjects ANOVA Comparing means with a control)

Otros modelos de anlisis de varianza: variantes de los diseos factoriales


Pedro Morales Vallejo Universidad Pontificia Comillas Facultad de Ciencias Humanas y Sociales (ltima revisin 21 de Noviembre de 2009)

ndice
1. Introduccin ......................................................................................................... 2. Anlisis de varianza con dos criterios de clasificacin (diseos factoriales): cuando n =1.......................................................................................................... 2.1. Qu suponemos (y qu no analizamos) cuando n = 1 .................................. 2.2. En qu situaciones podemos disponer de un sujeto o una observacin en cada clasificacin ..................................................................................... 2.3. Procedimiento ............................................................................................... 3. Anlisis de varianza de un solo factor para bloques aleatorios (alternativa al anlisis de covarianza) ................................................................. 3.1. En qu sentido se trata de una alternativa al anlisis de covarianza............ 3.2. Procedimiento ............................................................................................... 3.3. Interpretacin de los resultados .................................................................... 3.4. Diseo alternativo ......................................................................................... 4. Anlisis de varianza jerrquico o anidado para muestras independientes .......... 4.1. Cundo nos puede interesar este planteamiento ........................................... 4.2. Procedimiento 1 ............................................................................................ 4.3. Procedimiento 2 (EXCEL)............................................................................ 5. Anlisis de varianza jerrquico o anidado para muestras relacionadas ............. 5.1. Inters del planteamiento .............................................................................. 5.2. Procedimiento 1 ............................................................................................ 5.3. Procedimiento 2 (EXCEL)............................................................................ 6. Anlisis de varianza: diseos factoriales (nxn) para muestras relacionadas........ 6.1. Inters del planteamiento .............................................................................. 6.2. Procedimiento ............................................................................................... 6.3. Programa en Internet..................................................................................... 7. Anlisis de varianza: diseos mixtos.................................................................... 7.1. Muestras independientes y muestras relacionadas en el mismo anlisis...... 7.2. Procedimiento 1 ............................................................................................ 7.3. Procedimiento 2 (EXCEL)............................................................................ 7.4. Programa en Internet..................................................................................... 8. Referencias bibliogrficas .................................................................................... 3 3 3 4 5 7 7 8 10 10 10 10 11 12 14 14 14 16 19 19 19 22 22 22 24 30 32 32

Otros modelos de anlisis de varianza

1. Introduccin Presentamos otros modelos de anlisis de varianza que responden a preguntas y diseos ms especficos. Prcticamente todos son variantes de los diseos factoriales, con dos criterios de clasificacin. Hay ms modelos y variantes; los expuestos aqu pueden ser especialmente tiles porque responden a planteamientos relativamente frecuentes y factibles. Si investigar es en ltima instancia responder a preguntas, podremos hacernos ms y mejores preguntas si disponemos de un repertorio amplio de respuestas. Las respuestas nos las dan a la vez los anlisis estadsticos y los diseos; un mismo anlisis, como el anlisis de varianza bifactorial, puede responder a distintos diseos. La misma seleccin y disposicin de los datos, tal como aparecen en las tablas propias de los diversos enfoques del anlisis de varianza y que presentamos aqu, pueden sugerir de manera intuitiva otras preguntas y planteamientos de investigacin; basta pensar en otros factores o criterios para clasificar a los sujetos, manteniendo el mismo diseo o configuracin de las tablas y el modo de anlisis. Aunque dispongamos de programas como el SPSS, el visualizar casos concretos, resueltos e interpretados, nos puede ayudar a seleccionar e interpretar mejor el output que nos dan estos programas. Cuando sea factible expondremos varios procedimientos 1) utilizando medias y desviaciones, 2) combinando los resultados de los anlisis de varianza disponibles en EXCEL y 3) utilizando programas de Internet. 2. Anlisis de varianza con dos criterios de clasificacin (diseos factoriales): cuando n =1 El anlisis de varianza con dos criterios de clasificacin tiene una interesante modalidad en la que no suele pensarse: en cada celdilla puede haber una sola observacin, el dato de un solo sujeto, o quizs con ms frecuencia, la media de un grupo, pero en cualquier caso tendremos n = 1 en cada clasificacin. No es sta una situacin muy frecuente, pero es posible hacer el anlisis de varianza con un solo dato en cada celdilla y puede tener su inters1. 2.1. Qu suponemos (y qu no analizamos) cuando n = 1 En todos estos casos hay que tener algo muy claro: con n = 1 lo que no podemos es verificar si la interaccin entre los dos factores es significativa (si produce diferencias en la variable dependiente y superiores a lo meramente aleatorio). Esta no interaccin entre los dos factores es un presupuesto previo; al menos prescindimos de esta interaccin. Tambin cabe el que podamos dar por hecho que ambos factores estn relacionados y que la interaccin es importante, pero prescindimos de su confirmacin. Qu significa no analizar la interaccin lo vemos de manera clara con el ejemplo que nos va a servir para exponer el procedimiento (tabla 1). Los dos factores pueden ser: Factor A: dos facultades de la misma universidad, Factor B: gnero del alumno

1 No es frecuente encontrar este planteamiento en los textos habituales; una buena explicacin con un ejemplo resuelto puede verse en Iversen y Norpoth (1987). El procedimiento que utilizamos aqu est ms simplificado.

Otros modelos de anlisis de varianza

Se trata de los alumnos y alumnas del ltimo curso; la variable dependiente (la que medimos) es satisfaccin con la carrera, medida en una escala de 1 a 10. Los datos tabulados son las medias.
Factor A (facultad)

Factor B

B1 (sexo alumno) B2 medias de A

A1 3 8 5.5

A2 6 8 7

medias de B 4.5 8

Tabla 1 Nuestras hiptesis (de acuerdo con los dos criterios de clasificacin o factores) pueden ser estas dos: 1) Los alumnos en general estn ms satisfechos en una carrera que otra (por ejemplo A2 > A1) 2) Las alumnas estn ms satisfechas que los alumnos (B2 > B1) Lo que no podemos verificar con n = 1 es si en el caso de que en una carrera los alumnos estn ms satisfechos que en otra, esa diferencia se explica precisamente porque en esa carrera (y no en otras) las alumnas estn ms satisfechas que los alumnos (es lo que llamamos interaccin de los dos factores) No podemos analizar la varianza correspondiente a la interaccin porque nos falta en este caso el denominador de la razn F. Este denominador debera ser la varianza dentro de los grupos (recordemos que es n2/N-k) como ya hemos visto en la situacin habitual de n > 1; en este caso, con un slo sujeto en cada grupo, no hay obviamente varianza dentro de los grupos. Este denominador (varianza dentro de los grupos) es tambin el que correspondera a las otras dos razones F (de los dos factores), pero en este caso utilizamos como denominador la varianza residual, la que nos queda cuando restamos a la varianza total las varianzas correspondientes a los dos factores. 2.2. En qu situaciones podemos disponer de un sujeto o una observacin en cada clasificacin Naturalmente el anlisis posible con n = 1 es ms limitado que cuando tenemos ms sujetos en cada clasificacin. Sin embargo este anlisis puede ser de inters en estos casos: a) En cada casilla tenemos un solo sujeto o una sola observacin porque por alguna razn se es el nico dato disponible y aun as este tipo de anlisis responde a una pregunta de inters para el investigador. b) Cuando utilizamos medias en vez de todas las puntuaciones individuales. En los casos en que n = 1, lo normal es que se trate de medias de grupos. El utilizar medias es frecuente en estas circunstancias: 1. Cuando es el nico dato disponible; a veces tomado de otras fuentes. 2. Como anlisis preliminar, para ver si los dos factores principales (no su interaccin) tienen algn efecto en la variable dependiente antes de hacer el proceso completo con todos los datos. O simplemente para tener una visin general, prescindiendo de diferencias individuales; podemos adems hacer el anlisis de varianza con todos los sujetos.

Otros modelos de anlisis de varianza

3. Cuando las muestras son de tamao desigual lo ms frecuente (y recomendado) es eliminar sujetos aleatoriamente para igualar los grupos, pero si las muestras, adems de ser de tamao desigual, son muy pequeas, una posibilidad es utilizar las medias y as todas las muestras quedan igualadas en n = 1. Tambin podemos utilizar medias con muestras desiguales aunque sean relativamente grandes. 2.3. Procedimiento En ltima instancia el procedimiento que vamos a seguir (cuando tenemos solamente dos factores o criterios de clasificacin) es de facto idntico al anlisis de varianza para muestras relacionadas; no es el mismo planteamiento pero las operaciones y el output son los mismos. Es ms, si utilizamos un programa de ordenador podemos utilizar el de anlisis de varianza para muestras relacionadas aplicado a los datos de un diseo factorial de dos factores con un solo sujeto en cada casilla (tenemos en definitiva filas y columnas)2. Explicamos el procedimiento mediante un sencillo ejemplo (datos en la tabla 1). 1 Clculos previos: a) medias de los niveles de A y B (tabla 1) b) varianzas de las medias de A y B 2 de A = 2 de B = 2 c) varianza de los totales: t = 2 Sumas de cuadrados de A = N 2 = MA 2 de B= N MB = 2 del total = N t = residual: = SCt - (SCA + SCB) = .752 1.752 2.052

(4)(.752) = 2.25 2 (4)(1.75 ) = 12.25 2 (4)(2.05 ) = 16.81 16.81-(12.25+ 2.25) = 2.31

La suma de cuadrados residual (del trmino del error, de la varianza aleatoria que nos va a servir como trmino de comparacin) es lo que nos queda despus de eliminar de la varianza total la correspondiente a los dos factores. Los grados de libertad son los usuales. La tabla de resultados la tenemos en tabla 2.
Origen de la variacin Factor A (facultades) factor B (sexo alumno) residual Total SC numerador 2.25 12.25 2.31 16.81 gl denominador A -1 = 1 B-1=1 (A-1)(B-1)= 1 N - 1 = 23 CM = 2 = 2.25 12.25 2.31
SC gl

F=

2 2

p p > .05 p < .01

2.25 = .97 2.31 12.25 = 5.30 2.31

Tabla 2 Solamente la varianza del Factor B es estadsticamente significativa; nuestra conclusin es que el sexo del alumno tiene que ver con la satisfaccin con sus estudios (las alumnas estn ms satisfechas). Tendremos una F significativa con ms facilidad en la medida en que la varianza residual (el denominador de la razn F) sea menor, y sta ser menor cuando los grados de

2 En EXCEL se trata del anlisis de varianza de dos factores con una muestra por grupo

Otros modelos de anlisis de varianza

libertad de esta varianza residual sean ms; por lo tanto con ms niveles o categoras de clasificacin en cada factor tenemos ms probabilidad de detectar diferencias significativas. Podemos ver qu sucede con los datos de la tabla 3 de anlisis de varianza con dos criterios de clasificacin3 si utilizamos solamente las medias de los grupos en vez de los datos individuales. En esta tabla 3 tenemos los datos, utilizando solamente las medias (factor A mtodos y factor B profesores).
B1 B2 B3 B4 medias A1 4 5 7 8 6 A2 3 5 5 7 5 A3 2 2 6 6 4 medias 3 4 6 7

Tabla 3 La varianzas que calculamos previamente son:

2 = .667 MA 2 = MB 2 = t
2.50 3.49

La tabla de resultados la tenemos en la tabla 4. El nmero de datos (N, que aqu es nmero de medias pues es la unidad de anlisis que estamos utilizando) es igual a 12.
Origen de la variacin Factor A (mtodos) SC numerador (12)(.667) = 8 gl denominador 3 -1 = 2 CM = 2 =
SC gl

F=

2
2

8 2
30 3

=4 = 10 =.646

4 .646
10 .646

= 6.19 = 15.48

p < .05 p < .01

factor B (profesores)
residual

(12)(2.5) = 30

4-1=3

(12)(3.49) - (30 + 8) (3-1)(4-1) = 6 = 3.88 (12) (3.49) = 41.88 12- 1 = 11

3.88 6

Total

Tabla 4 Para comparar de una manera sencilla y rpida los resultados utilizando o bien todos los datos individuales, o solamente las medias, podemos calcular en ambos casos el coeficiente 2 que expresa la proporcin de varianza en la variable dependiente que podemos atribuir a diferencias entre los distintos niveles de cada uno de los factores. El coeficiente 2 lo calculamos dividiendo cada suma de cuadrados parcial por la suma de cuadrados total; obviamente expresa una proporcin (y un porcentaje al multiplicarlo por 100).

3 Nos referimos a la tabla 3 del documento Anlisis de varianza con dos criterios de clasificacin (diseos factoriales)

Otros modelos de anlisis de varianza

Proporcin de varianza explicada por diferencias (2): en el Factor A Utilizando todos los datos individuales4: 2= en el Factor B

40 =.107 (11%) 374

150 .40 (40%) 374

Utilizando solamente las medias:

2 =

8 =.191 (19%) 41.88

30 =.71 (71.6%) 41.88

Utilizando tanto todos los datos individuales como las medias de cada subgrupo el panorama general es el mismo aunque los valores absolutos son muy distintos: el factor B (diferencias entre profesores) explica una mayor proporcin de varianza que el factor A (diferencias entre mtodos).
3. Anlisis de varianza de un solo factor para bloques aleatorios (alternativa al anlisis de covarianza)

Aunque a este diseo se le suele denominar de un solo factor (porque es un factor el que nos interesa), ya vamos a ver que se trata realmente de dos factores y estamos en un caso especfico de los diseos factoriales.
3.1. En qu sentido se trata de una alternativa al anlisis de covarianza

El anlisis de covarianza es un tipo de anlisis anlogo al anlisis de varianza en el que, dicho de manera muy simple, controlamos o neutralizamos una o ms variables que pueden estar influyendo en nuestra variable dependiente de inters. Por ejemplo, si comparamos en rendimiento tres grupos que han seguido tres mtodos distintos, el rendimiento previo, o los resultados de un pre-test, etc., puede estar contaminando los resultados y puede no quedar claro si las diferencias entre las muestras se deben (en un cierto grado al menos) a las diferencias entre los mtodos (que es lo que nos interesa comprobar) o a diferencias en otras variables como la preparacin previa, motivacin, etc., que trae el alumno. Mediante el anlisis de covarianza podemos comparar a las tres muestras pero igualadas en la variable (o variables) que deseamos controlar (ajustando las medias mediante procedimientos estadsticos que tienen en cuenta la correlacin entre la variable controlada y la variable dependiente)5. Con este diseo vamos a controlar una variable (pueden ser ms) porque esa variable va a ser precisamente uno de los dos criterios para clasificar a los sujetos, como veremos al explicar el procedimiento. El trmino bloques aleatorios quiere decir que los sujetos de cada bloque en rendimiento previo (o en la variable que queramos controlar) son asignados aleatoriamente a los distintos niveles del otro factor (los distintos mtodos en este caso); es entonces cuando este diseo es anlogo o equivalente al anlisis de covarianza y es experimental en sentido propio. Esta alternativa (y otras anlogas) al anlisis de covarianza es de inters porque el anlisis de covarianza est positivamente desaconsejado cuando no hay asignacin aleatoria
4 Hemos utilizado todos los datos individuales en el ejemplo presentado en Anlisis de varianza con dos criterios de clasificacin (diseos factoriales) 5 Cuando hay asignacin aleatoria, autores como Guildford y Fruchter (1973:270) y Huitema (1980: 125) prefieren un diseo del tipo matching (emparejamiento de los sujetos de dos en dos en la variable o variables que se quieren controlar) o de bloques aleatorios al anlisis de covarianza (prefieren controles ms directamente observables sin recurrir a procedimientos estadsticos). Puede verse ms explicado en El control de variables: control estadstico (anlisis de covarianza) y control experimental mediante diseo http://www.upco.es/personal/peter/investigacion/Controldevariables.pdf

Otros modelos de anlisis de varianza

de los sujetos a las diversas condiciones6, y esto no es siempre fcil o posible cuando trabajamos con grupos hechos. Este sera el caso (frecuente) si los alumnos pertenecen a clases distintas y ya formadas7. Ya no podramos hablar de diseo experimental porque al no haber asignacin aleatoria de los sujetos de cada bloque a las distintas clases no controlamos otras variables (y habra que tenerlo en cuenta en la interpretacin y valoracin de los resultados) pero este anlisis siempre aporta una informacin til aunque ms limitada, y en cualquier caso es la alternativa apropiada al anlisis de covarianza que no se debe hacer cuando no hay asignacin aleatoria de los sujetos a las distintas condiciones.
3.2. Procedimiento

El planteamiento es exactamente igual al de los diseos factoriales con dos factores, un factor es el factor principal (ejercicios) y el otro factor son los criterios de agrupamiento. Tambin podemos resolverlo directamente en EXCEL si disponemos de todos los datos individuales (no slo las medias de cada subgrupo como en este procedimiento). El mtodo para resolverlo es tambin el mismo ya visto (tabla 5)8. Este planteamiento de anlisis de varianza (y que como otros modelos de anlisis de varianza responde a un diseo especfico) lo presentamos con un ejemplo (datos ficticios, tabla 5) en el que tenemos: 1 Un nico factor principal o criterio de clasificacin dividido en tres niveles; en este ejemplo se trata de tres ejercicios (o experiencias didcticas), o de tres variantes de un mismo mtodo. Se plantea a los alumnos un mismo ejercicio que consta a) de un texto que deben leer y b) seguido de una serie de preguntas de comprensin y anlisis y es en estas preguntas donde se introducen tres variantes (que son los tres niveles de este factor): 1 preguntas objetivas, 2 preguntas objetivas ms explicacin de la repuesta elegida y 3 preguntas abiertas. 2 Los sujetos, alumnos en este caso, estn divididos en tres bloques segn rendimiento previo (alto, medio y bajo)9, porque es sta la variable que queremos controlar; el criterio de agrupacin es precisamente la variable que controlamos. En cada clasificacin el nmero de sujetos debe ser el mismo (como en la tabla 5), por eso hay que buscar un nmero de bloques adecuado para que dentro de cada bloque no haya sujetos muy distintos (en este ejemplo, y con nmeros iguales en cada bloque, en los bloques alto y bajo podra haber sujetos demasiado distintos en la variable que queremos controlar). La variable dependiente puede ser un breve test de comprensin de los conceptos presentes en el texto estudiado. Lo que se desea averiguar es qu tipo de preguntas favorecen ms la comprensin de los conceptos. Puede suceder que un ejercicio sea ms eficaz que los otros independientemente del nivel de los alumnos o que un determinado tipo de ejercicios sea mejor para determinados alumnos (los sujetos son distintos en cada clasificacin; se trata de muestras independientes).

6 Pueden verse, por ejemplo, Kirk, (1995:708-709) y Hinkle, Wiersma y Jurs (1994:485). 7 Tendramos que suponer que el mismo profesor da la misma asignatura en las tres clases.
8 Si utilizamos EXCEL, en Herramientas vamos a Anlisis de datos y elegimos Anlisis de Varianza de dos factores

con varias muestras por grupo 9 El rendimiento previo podran ser notas previas, un pre-test, etc.; estos datos suelen recogerse antes del tratamiento pero no hay problema en buscarlos durante o despus del tratamiento si se puede justificar que no se ven afectados por el tratamiento o variable independiente (Huitema, 1980:133, 135).

Otros modelos de anlisis de varianza

Clculos previos:

los totales (N = 36) t = las medias de los ejercicios (3 medias)MA= Desviacin tpica de las medias de los bloques (3 medias) MB= las medias de los grupos (9 medias) Mg= Suma de las varianzas de los grupos (6 varianzas) 2 = g
A1 Ejercicio 1 57 45 27 25 38.50 (13.22) 56 38 26 8 32.00 (17.49) 26 21 18 10 18.75 (5.80) 29.75 Factor A: ejercicios A2 Ejercicio 2 50 31 43 11 33.75 (14.79) 29 38 18 35 30.00 (7.65) 23 7 12 9 12.75 (6.18) 25.50 A3 Ejercicio 3 58 34 36 30 39.50 (10.90) 56 16 25 5 25.50 (18.98) 48 19 38 23 32.00 (11.64) 32.33

15.1560 2.8160 6.5650 8.3206 1444.3075


Medias de los Bloques 37.25

Factor B: Bloques igualados B1: rendimiento previo alto : Media y desviacin B2: rendimiento previo medio Media y desviacin: B3: rendimiento previo bajo Media y desviacin: Medias Ejercicios

29.17

21.17

Tabla 5 En la tabla de resultados (tabla 6) incluimos las frmulas de las sumas de cuadrados (que es donde suele estar la dificultad de clculo) y que son las ya vistas en los diseos factoriales.
Origen A: Factor principal Ejercicios B: Bloques igualados Error experimental Mt. x Bloques
2

Sumas de Cuadrados N MA = (36)(2.816)2 = 285.47

Grados lib. A-1=2

CM
285.47

F
142.735 213.97 775.78 213.97 163.83 213.97

= 2 142.735 = 775.70

= .67

N MB = (36)(6.565)2 = 1551.41 N Mg - (N MA + N MB ) = 2 (36)(8.3206) - (258.47 + 1551.57) = 655.508 n g = (4)(1444.3075) = 5777.23


2 N t 2 2

B-1=2 (A-1)(B-1) = (2)(2) = 4 N-g= 36 - 9 = 27

1551.57 2 655.32 4 5777.23 27

= 3.62

= 163.87

= .76

trmino del error

= 213.97

Total

= (36)(15.156) = 8629.36

Tabla 6 Los cuadrados medios del trmino del error se pueden calcular tambin directamente si hemos calculado las desviaciones tpicas de los subgrupos dividiendo por N - 1, ya que son iguales a la varianza media de todos los subgrupos (de idntico tamao).

Otros modelos de anlisis de varianza

10

3.3. Interpretacin de los resultados

La nica F significativa es la correspondiente a los bloques igualados (p <. 05); en este caso el resultado carece de inters porque ya sabamos que los sujetos eran distintos en rendimiento; se era precisamente el criterio para agruparlos en bloques. El inters del planteamiento estaba en verificar si algn tipo de ejercicio era ms eficaz que otro independientemente del criterio de agrupacin. Aun as, observando los datos, podemos ver que la media del ejercicio 3 es mayor que la de los otros dos, sobre todo para el grupo de bajo rendimiento; con ms sujetos o explorando qu pasa con los de rendimiento bajo los resultados podran ser otros. Lo que nos aporta este planteamiento es poder visualizar la posibilidad de utilizar los diseos factoriales utilizando un factor como criterio para agrupar a los sujetos y controlar as esta variable.
3.4. Diseo alternativo

Una alternativa puede ser no agrupar a los alumnos en bloques segn su nivel previo, sino igualarlos en cada fila. Agrupados en bloques puede haber diferencias relativamente importantes dentro de cada bloque; estas diferencias se pueden minimizar si los igualamos de tres en tres, controlando mejor el nivel previo. En la tabla 5 tenemos 12 alumnos en cada bloque de B (cuatro en cada uno de los tres niveles del factor A de ejercicios); podramos igualarlos de manera ms ajustada de tres en tres, y tendramos tantos bloques como tros de alumnos igualados (12 tros). Esta alternativa puede ser mejor porque se puede hacer un igualamiento ms fino y exacto, pero tambin puede resultar ms complicado. En este caso el procedimiento de anlisis adecuado sera un anlisis de varianza para muestras relacionadas10.
4. Anlisis de varianza jerrquico o anidado para muestras independientes

Se trata de un diseo factorial incompleto, porque no todos los niveles de un factor o criterio de clasificacin se combinan con todos los niveles del otro factor. A estos diseos se les denomina anidados o jerrquicos: los niveles de un factor estn anidados en los niveles del otro factor.
4.1. Cundo nos puede interesar este planteamiento

A veces no es posible combinar todos los niveles de un factor con todos los niveles del otro. Vamos a suponer, por ejemplo, que queremos comparar en satisfaccin con la tarea (variable dependiente) a profesores de tres facultades de la misma universidad. Pensamos que cmo funciona el departamento al que pertenecen (grado de cohesin, cantidad y calidad de la comunicacin dentro del departamento) puede estar influyendo en su satisfaccin con la universidad. No podemos combinar facultades con departamentos porque cada facultad tiene sus propios departamentos; en este caso anidamos los departamentos en sus facultades. Otros ejemplos posibles: queremos comparar la eficacia de tres mtodos, experiencias, etc., que han sido puestos en prctica en centros distintos. Puede suceder que la eficacia del mtodo tenga que ver con cmo funciona el centro. Como no podemos combinar centros y mtodos, anidamos los centros en los mtodos.

10 El anlisis es el mismo visto en el diseo anterior con n = 1 en cada clasificacin; en EXCEL es un anlisis de varianza de dos factores con una muestra por grupo.

Otros modelos de anlisis de varianza

11

4.2. Procedimiento 1

Exponemos dos maneras de llevar a cabo este anlisis; una que slo requiere el clculo de medias y desviaciones tpicas (varianzas); otra manera de abordarlo es haciendo dos anlisis de varianza convencionales, para muestras independientes combinando los resultados de ambos anlisis en una nica tabla de resultados. En este ejemplo (datos ficticios, tabla 7) tenemos dos factores: el factor A es, en este ejemplo, facultad (tres facultades distintas) y el factor B departamentos (dos departamentos en cada facultad). La variable dependiente es satisfaccin en la universidad; las muestras son seis profesores por departamento.
Facultad A1 B1 B2 Depart.1 Depart.2 19 22 15 13 11 3 17 14 12 7 19 9 11.33 15.50 (6.02) (3.15) 13.416 (5.235) Facultad A2 B3 B4 Depart.3 Depart.4 21 13 19 15 17 11 16 12 15 16 20 13 13.33 18.00 (1.70) (2.16) 15.67 (3.0368) Facultad A3 B5 B6 Depart.5 Depart.6 16 17 13 7 11 5 9 6 10 8 13 9 8.67 12.00 (3.94) (2.31) 10.33 (3.636)

N = 36 n=6

Dep. M B () Fac. M A ( )

Tabla 7 Hemos calculado las medias y las desviaciones tpicas de los seis departamentos y de las tres facultades. El procedimiento para el anlisis es varianza es casi idntico al ya visto en los diseos factoriales (tabla 8).
Clculos Desviacin tpica del total (de N = 36): previos: Desviacin tpica de las tres medias de las facultades:
Desviacin tpica de las seis medias de los departamentos:
Origen de la variacin Factor principal, Facultades (A) Sumas de Cuadrados
2 N MA = (36)(2.186)2 =

t = MA = MB =
Cuadrados Medios 172.03 2 = 86.015
149.8 3 = 49.933 448.47 30

4.626 2.186 2.990 F


86.015 14.95 = 5.75 (p < .01) = 14.95 3.34 (p <.05)
49.933

Grados de Libertad A-1=2

172.03 Factor anidado Departamentos (B)


Trmino del error

N MB = (36)(2.99)2 = 149.8 n B = 448.47 N t = (36)(4.626)2 = 770.3


2

B-A=6-3 =3 B (n -1) = (6)(6 -1) = 30 N -1 = 36 -1 = 35

= 14.95

Total

Tabla 8 Las frmulas de las sumas de cuadrados y de los grados de libertad figuran en la misma tabla de resultados (tabla 8).
Otros modelos de anlisis de varianza

12

El clculo de los grados de libertad no es idntico al ya visto en los diseos factoriales. Como en casos semejantes (con muestras independientes), los cuadrados medios del trmino del error (o varianza dentro de los grupos, el denominador de la razn F) es la varianza media de los seis grupos si calculamos las varianzas dividiendo por N-1 (es otra manera de calcularlos). En este caso tanto la facultad como los departamentos (los dos factores, principal y anidado) estn influyendo en la variable dependiente (satisfaccin de los profesores); en qu medida influyen podramos cuantificarlo mediante el coeficiente 2 (2 = Suma de cuadrados parcial/Suma de cuadrados total).
4.3. Procedimiento 2 (EXCEL).

Otra manera de llevar a cabo este anlisis consiste en hacer dos anlisis de varianza para muestras independientes (en EXCEL)11 que nos dan casi todos los valores para completar la tabla de resultados del anlisis de varianza anidado. Anlisis 1. Anlisis de varianza para muestras independientes con los niveles del factor A; en este ejemplo son las tres facultades con n = 12 cada una. Anlisis 2. Anlisis de varianza para muestras independientes con los niveles del factor B; en este ejemplo los seis departamentos con n = 6 cada uno. En la figura 1 tenemos cmo incorporar los resultados de estos dos anlisis a la tabla de resultados del anlisis de varianza anidado, completando algunos clculos tal como se indica en esta tabla.
Origen de la variacin Factor principal, Facultades (A) Factor anidado Departamentos (B) Sumas de Cuadrados Grados de Libertad Cuadrados Medios F = CM/CMerror En ambos casos el denominador son los CM del trmino del error

Datos del anlisis 1 correspondientes a la varianza entre grupos Suma de cuadrados entre grupos del anlisis 2 menos Suma de cuadrados entre grupos del anlisis 1 Los indicados en tabla 8 Suma de Cuadrados/gl

Trmino del error

Datos del trmino del error (cuadrados medios dentro de los grupos) de la tabla de resultados del anlisis 2 Los cuadrados medios son el denominador (o trmino del error) de las dos razones F

Figura 1 Para mayor claridad hacemos estos dos anlisis con los mismos datos de la tabla 7
Anlisis 1 En la tabla 9 tenemos los datos de las tres facultades (factor A) dispuestos para analizarlos con EXCEL.

11 Este procedimiento puede ser til si slo disponemos de EXCEL

Otros modelos de anlisis de varianza

13

Facultad A1 22 13 3 14 7 9 19 15 11 17 12 19

Facultad A2 13 15 11 12 16 13 21 19 17 16 15 20

Facultad A3 17 7 5 6 8 9 16 13 11 9 10 13

Tabla 9 En la tabla 10 tenemos la tabla de resultados del anlisis 1 Origen Entre grupos (A) Dentro de los grupos Total SC 172,056 598,250 770,306 GL 2 33 35 CM 86,028 18,129 Tabla 10
Anlisis 2 En la tabla 11 tenemos los mismos datos de la tabla 7 para hacer el segundo anlisis; corresponden a los departamentos (factor B)
Departamento Departamento Departamento Departamento Departamento
17 7 5 6 8 9

F 4,745

p 0,015

Valor crt. F 3,285

Departamento
16 13 11 9 10 13

B1
22 13 3 14 7 9

B2
19 15 11 17 12 19

B3
13 15 11 12 16 13

B4
21 19 17 16 15 20

B5

B6

Tabla 11 Los resultados de este anlisis de varianza los tenemos en la tabla 12.
Origen Entre grupos Dentro grupos (error) Total SC 322,806 447,500 770,306 Gl 5 30 35 CM 64,561 14,917 F 4,328 p 0,004 Valor crt. F 2,534

Tabla 12 Por ltimo en la tabla 13 tenemos el anlisis de varianza definitivo integrando los resultados de los dos anlisis de varianza (tablas 10 y 12) siguiendo las indicaciones de la figura 1.
Origen de la variacin Factor principal, Facultades (A) Factor anidado Departamentos (B) Trmino del error Total Sumas de Cuadrados Grados de Libertad Cuadrados Medios

F
5.76 p < .01 3.36 p < .05

172,056 322,806 - 172,056 = 150.55 447,500 770.106

2 6-3 = 3 30 37

86,028 150.55/3 = 50.18 14,917

Tabla 13
Otros modelos de anlisis de varianza

14

Si comparamos las tablas 8 y 13 veremos que tenemos los mismos resultados con ligeras diferencias por el redondeo de decimales, pero los valores de F son prcticamente los mismos. Si hemos seguido este proceso tenemos que consultar las tablas de la F para 2 y 30 grados de libertad (factor A, p < .01) y 3 y 30 grados de libertad (factor B, p<.05). Podemos completar la informacin calculando los coeficientes 2; las diferencias entre facultades explican el 22% de la varianza (172.056/770.106) y las diferencias entre departamentos explican el 19 % de la varianza (150.55/770.106).
5. Anlisis de varianza jerrquico o anidado para muestras relacionadas

En este anlisis de varianza tenemos 1 un factor principal dividido en tres niveles, 2 un factor anidado y adems 3 muestras relacionadas (las 6 filas de nuestro ejemplo, en cada fila tenemos sujetos distintos pero igualados en una o ms variables que queremos controlar).
5.1. Inters del planteamiento

Una posibilidad que nos ofrece este planteamiento es el de poder controlar alguna o algunas variables y ver qu influjo tienen en la variable dependiente. Vamos a suponer que queremos comprobar si existen diferencias en la actitud de los alumnos hacia las asignaturas de estadstica y mtodos de investigacin (variable dependiente, la que medimos a los sujetos) en tres carreras o facultades. La facultad es el factor principal (factor A). Podramos hacer un anlisis de varianza unifactorial (comparando las tres facultades), pero podemos pensar que la actitud de los alumnos hacia la asignatura puede tambin tener que ver con dos variables ms, una es el estilo del profesor, cualquiera que sea la facultad y la otra variable puede ser el rendimiento previo del alumno en estas materias o su rendimiento en general. 1. Para tener en cuenta el estilo docente del profesor escogemos a dos profesores de cada facultad; los profesores van a ser el factor anidado (factor B) porque no podemos combinar a todos los profesores con todas las facultades. Podramos escoger ms profesores, pero el nmero de profesores por facultad debe ser el mismo. 2. La actitud de los alumnos hacia estas asignaturas puede depender tambin de su nivel acadmico. Por eso escogemos alumnos igualados en rendimiento medio previo de manera que podamos controlar esta variable (e indirectamente otras variables asociadas al rendimiento, como pueden ser capacidad, motivacin, etc.). En cada fila tenemos alumnos igualados en rendimiento previo. En un caso real deberamos procurar disponer de una muestra mayor de alumnos aunque esta igualacin puede de alguna manera compensar el bajo nmero de sujetos. Tenemos por lo tanto un anlisis de varianza anidado y adems con muestras relacionadas.
5.2. Procedimiento 1

El procedimiento es semejante al del anlisis de varianza anidado para muestras independientes, pero aadiendo una varianza (o cuadrados medios) ms, la correspondiente a los alumnos (las filas). Como en el anlisis anterior, veremos tambin como llevar a cabo este anlisis haciendo anlisis de varianza parciales. Nuestros datos estn en la tabla 14.

Otros modelos de anlisis de varianza

15

sujetos 1 2 3 4 5 6 Medias y Prof. (B) Medias y Fac. (A)

Facultad A1 B1 Prof. 1 B2 Prof. 2 27 22 30 24 33 25 37 27 39 24 41 26 24.67 34.50 (1.598) (4.958) 29.583 (6.143)

Facultad A2 B3 Prof. 3 B4 Prof. 4 28 24 31 26 35 29 38 27 40 28 41 30 27.33 35.50 (1.972) (4.717) 31.416 (5.454)

Facultad A3 B5 Prof. 5 B6 Prof. 6 29 26 32 29 36 31 38 32 40 30 42 31 29.83 36.17 (1.951) (4.487) 33.00 (4.690)

medias filas 26.00 28.67 31.50 33.17 33.50 35.17

Tabla 14 En este caso tenemos los mismos datos que en el planteamiento de un anlisis de varianza anidado convencional y adems las medias de las filas (de cada serie de alumnos igualados en rendimiento medio). Indicamos cmo se calculan las sumas de cuadrados y los grados de libertad en la misma tabla de resultados (tabla 15).
Clculos previos: Desviacin tpica del total (N = 36 datos) Desviacin tpica de las medias del factor principal (A, 3 medias) Desviacin tpica de las medias de los profesores (B, 6 medias) Desviacin tpica de las medias de las filas (6 medias)
Origen de la variacin Sumas de Cuadrados Grados de Libertad A -1 = 2

t = MA= MB= Mf=

5.637 1.396 4.349 3.119


F
35.1 4.52

Cuadrados Medios
70.17 2

Factor N 2 = (36)(1.396)2 = 70.17 MA principal (facultades) (A) Factor anidado 2 2 2 (profesores) (B) N MB -N MA =(36)(4.349) -70.17 = 610.7 Filas (sujetos igualados) N Mf = (36)(3.119)2 = 350.2
2

= 35.1

7.76 (p < .01) B-A = 6 - 3 =3 f -1 = 6 -1 = 5


2

610.7 3

303.567 4.52

203.567
350.2 5

45 (p < .01)
70.04 4.52

70.4
113 25

15.6 (p <.01)

trmino del error Total

N t - (N 2 + N 2 + N Mf ) = MA MB = 1144- (70.17 + 610.7 + 350.2) = 113


2

N t = (36)(5.637)2= 1144

(Total menos los anteriores) = 25 N -1 = 36 -1 = 35

= 4.52

Tabla 15 La suma de cuadrados del trmino del error (de la varianza residual) la podemos calcular de dos maneras: a) Restando a la suma de cuadrados total las tres sumas de cuadrados precedentes (factor principal, factor anidado y filas, tal como figura en la tabla 15).

Otros modelos de anlisis de varianza

16

b) Tambin podemos calcularla varianza del trmino del error de esta manera (puede servir de comprobacin, redondeando decimales). 1 Sumando las varianzas del factor anidado (los subgrupos de la tabla 14) y multiplicando esta suma por n:
Suma de las varianzas: 1.5982+4.9582+1.9722+4.7172+1.9512+4.4872 = 77.21 Multiplicando por n: (77.21)(6) = 463.26

2 Restamos a esta cantidad la suma de cuadrados de las filas (N 2 ) que tenemos en Mf la tabla 11: 463.26-350.2 = 113 En este ejemplo ficticio tenemos que las tres fuentes de varianza (facultades, profesores y alumnos) son significativas. Que el nivel de los alumnos es fuente de diferencias podramos darlo por hecho; posiblemente lo ms relevante de estos resultados es que los profesores son la fuente ms importante de varianza, como podemos ver por los coeficientes 2:
2 Facultades = 2 Profesores =

70.17 = .06 1144

610.7 = .53 1144 350.2 2 Alumnos = = .31 1144 Una mera inspeccin de las medias de los profesores en este ejemplo ficticio nos indica que los mejores profesores (a juzgar por sus medias) se reparten en las tres facultades. Aunque las tres razones F son estadsticamente significativas, son estos coeficientes los que nos permiten matizar la interpretacin y cuentan la historia definitiva. En este ejemplo (ficticio) la satisfaccin de los alumnos con la asignatura tiene que ver sobre todo con los profesores (2 = .53), menos (aunque tambin) con el nivel previo de los alumnos (2 = .31) y muy poco con la facultad a la que pertenecen (2 = 06).
5.3 Procedimiento 2 (EXCEL)

Otra manera de resolver este anlisis de varianza que puede quizs resultarnos ms sencilla es hacer (con una hoja de clculo como EXCEL) tres anlisis de varianza en cuyas tablas de resultados encontramos la informacin necesaria para completar la tabla de resultados (tabla 15) del anlisis de varianza jerrquico o anidado para muestras relacionadas. Estos anlisis de varianza son: Anlisis 1. Un anlisis de varianza para muestras independientes con las tres muestras del factor principal (facultades en este ejemplo). En este caso tenemos tres grupos con n = 12 en cada caso (uniendo los dos profesores de cada facultad). Anlisis 2. Un anlisis de varianza para muestras independientes con las seis muestras anidadas (profesores), cada una con n = 6 en este ejemplo. Anlisis 3. Un anlisis de varianza para muestras relacionadas en la que tenemos en este ejemplo 6 filas (los sujetos igualados) y 6 columnas (los 6 profesores). En la figura 2 tenemos la informacin que nos dan estos tres anlisis de varianza para completar nuestra tabla de resultados (lo que ya tenemos en la tabla 15).
Otros modelos de anlisis de varianza

17

Origen de la variacin Factor principal (facultades) (A) Factor anidado (profesores) (B) Filas (sujetos igualados)

Sumas de Cuadrados

Grados de Libertad

Cuadrados Medios

F = CM/CMerror En ambos casos el denominador son los CM del trmino del error

Datos del anlisis 1 correspondientes a la varianza entre grupos Suma de Cuadrados entre grupos del anlisis 2 menos Suma de Cuadrados entre grupos del anlisis 1 Como se indica en la tabla 10 Suma de Cuadrados/gl

Todos los datos de las filas de la tabla de resultados del anlisis 3 (muestras relacionadas)

trmino del error Datos del trmino del error o de la interaccin de la tabla de resultados del anlisis 3 (muestras relacionadas) Los cuadrados medios son el trmino del error; el denominador de las tres razones F

Figura 2 Como en el caso anterior y para mayor claridad, hacemos los tres anlisis de varianza (EXCEL).
Anlisis 1. Los datos que vamos a analizar en este primer anlisis (las tres facultades, muestras independientes) estn dispuestos en la tabla 16 (hemos juntado los datos de los dos profesores de cada facultad que figuran en la tabla 14)
Facultad A1 22 24 25 27 24 26 27 30 33 37 39 41 Facultad A2 24 26 29 27 28 30 28 31 35 38 40 41 Facultad A3 26 29 31 32 30 31 29 32 36 38 40 42

Tabla 16 En la tabla 17 tenemos los resultados de este anlisis de varianza apara muestras independientes.
Origen Entre grupos Dentro de los grupos Total SC 70,167 1073,833 1144 Gl CM 2 35,083 33 32,540 35 Tabla 17 F 1,078 p 0,352 F crt. 3,285

Anlisis 2 En este anlisis de varianza para muestras independiente tenemos a los 6 profesores; datos en la tabla 18

Otros modelos de anlisis de varianza

18

B1 Prof. 1 22 24 25 27 24 26

B2 Prof. 2 27 30 33 37 39 41

B3 Prof. 3 24 26 29 27 28 30

B4 Prof. 4 28 31 35 38 40 41

B5 Prof. 5 26 29 31 32 30 31

B6 Prof. 6 29 32 36 38 40 42

Tabla 18 La tabla 19 es la tabla de resultados de este anlisis de varianza. Origen SC Gl CM F Entre grupos 680,667 5 136,133 8,814 Dentro de los grupos 463,333 30 15,444 Total 1144 35 Tabla 19
p 0,000 F crt. 2,534

Anlisis 3 Los datos son los mismos de la tabla 18; pero en este caso se trata de muestras relacionadas (en cada fila sujetos igualados). Los resultados los tenemos en la tabla 20 Origen Filas Columnas Error Total SC 350 680,667 113,333 1144 Gl 5 5 25 35 CM 70 136,133 4,533 F 15,441 30,029 p 0,000 0,000 F crt. 2,603 2,603

Tabla 20 Ahora nos queda integrar en la tabla de resultados final tabla 21 los resultados de estos tres anlisis de varianza siguiendo las indicaciones de la figura 2Origen de la Grados de Cuadrados Sumas de Cuadrados F variacin Libertad Medios Factor principal 7.74 (facultades) (A) 70,167 2 35,083 p < .01 Factor anidado 680.667- 70.167 = 610.5 6-3 = 3 203.5 45 (profesores) (B) p < .01 Filas (sujetos 15,441 igualados) 350 5 70 p < .01 trmino del 4.53 113,333 25 error Total 1144 35 Tabla 21 La fila correspondiente al total la podemos completar sumando las correspondientes columnas. Salvo pequeas diferencias debidas al redondeo de decimales, los resultados son los mismos que hemos visto en la tabla 15. Si hemos seguimos este procedimiento vamos a las tablas de la F para ver los valores de p (probabilidad) correspondiente: Factor A, grados de libertad 2 y 25, Factor B, grados de libertad 3 y 25 y filas (sujetos igualados), grados de libertad 5 y 25. Las tres fuentes de varianza son estadsticamente significativas pero su importancia es muy desigual como ya hemos visto en los coeficientes 2.

Otros modelos de anlisis de varianza

19

6. Anlisis de varianza: diseos factoriales (2x2) para muestras relacionadas 6.1. Inters del planteamiento

Como en otros casos, este planteamiento nos permite controlar variables que pueden contaminar los resultados y oscurecer su interpretacin. Este modelo de anlisis de varianza es el clsico diseo factorial con dos criterios de clasificacin pero con una modalidad nueva: se trata de muestras relacionadas, es decir, los sujetos de cada fila (tal como se presentan los datos en la tabla 22) estn igualados en una variable que se quiere controlar.
6.2. Procedimiento

A partir de medias y desviaciones tpicas, el procedimiento es algo ms complejo que otros planteamientos, pero no lo es tanto si disponemos bien los datos (adems disponemos al menos de un programa en Internet indicado el apartado correspondiente)12. Lo explicamos con un ejemplo (tabla 22) que conviene tener a la vista. Tenemos a los sujetos clasificados segn dos factores (en la parte izquierda de la tabla en las que estn los datos obtenidos). 1 Un factor A (facultad en este ejemplo) dividido en este caso en dos niveles (por ejemplo Facultad de Ciencias o Facultad de Letras); 2 Un factor B tambin con dos niveles que se combinan con los dos niveles del factor A; este factor B puede ser el haber estudiado previamente en un centro privado o pblico.
filas: grupos igualados 1 2 3 4 5 Med. y de AB

datos en la Facultad A1 A1B1 6 12 16 20 22 15.2 (5.74) A1B2 2 6 8 7 13 7.2 (3.54)

datos en la Facultad A2 A2B1 10 11 13 14 15 12.6 (1.85) A2B2 4 7 6 12 10 7.8 (2.856) MfA1 4 9 12 13.5 17.5

Medias de las filas (Mf) MfA2 7 9 9.5 13 12.5 MfB1 8 11.5 14.5 17 18.5 MfB2 3 6.5 7 9.5 11.5 Mft 5.5 9 10.75 13.25 15

Medias en A: MA1 MA2 = 11.2 = 10.2

Medias en B: MB1 MB2 = 13.9 = 7.5

Tabla 22 Adems tenemos muestras relacionadas, con sujetos igualados en alguna variable que queremos controlar porque puede afectar a la variable dependiente (por ejemplo capacidad intelectual medida con un test o rendimiento previo). Tenemos por ltimo la variable dependiente que hemos medido, que en este caso puede ser satisfaccin con la universidad.

12 Estamos exponiendo estos mtodos tal como se pueden llevar a cabo con una simple calculadora con programacin estadstica o con un ahoja de clculo como EXCEL (para calcular medias y desviaciones). Sobre todo con pocos sujetos (frecuente en diseos experimentales) son procedimientos sencillos y factibles. En la medida en que el diseo es ms complejo y hay ms operaciones por medio, como es ste el caso y tambin el del anlisis de varianza siguiente, es preferible optar por un programa informtico (como el SPSS, siempre que sea posible), aun as pensamos que en este caso (como en todos los dems) el disponer de ejemplos resueltos paso a paso ayuda a entender lo que estamos haciendo y tambin a entender mejor el output de un programa informtico. Ya hemos mencionado que este diseo lo tenemos adems en un programa de Internet que indicamos al final.

Otros modelos de anlisis de varianza

20

Las filas o grupos igualados pueden ser sujetos individuales, o tambin podran ser medias de clases o grupos. Lo que deseamos comprobar es si el factor A, o el factor B, o una combinacin de ambos, producen (o con ms rigor estn asociados a) efectos significativos en la variable dependiente y esto con independencia de la variable que queremos controlar y que nos ha servido para igualar a los sujetos de cada fila. Los datos originales son los de las cuatro columnas a la izquierda de la tabla: A1B1, A1B2, A2B1 y A2B2. En cada una de las cinco filas tenemos sujetos distintos pero igualados en la variable que deseamos controlar (capacidad intelectual o rendimiento previo en este ejemplo). Los clculos necesarios para resolver el anlisis de varianza son ms, pero el proceso es sencillo si disponemos de un modelo a la vista. Es importante tener los datos bien dispuestos (como en la tabla 22) para evitar confusiones. En la parte izquierda de la tabla tenemos los datos originales dispuestos por columnas; debajo de cada columna tenemos las medias y desviaciones tpicas. En la parte derecha de la tabla (separada con una doble lnea) tenemos las medias de las
filas:

en A (MfA1 y MfA2) en B (MfB1 y MfB2) en A+B (toda la fila, Mft) Por ejemplo: la media de la primera fila de A1 (MfA1) es igual a (6 + 2)/2 = la media de la primera fila de B2 (MfB2) es igual a (2+4)/2 = la media de la primera fila de A+B (Mft) es igual a (4+7+8+3)/4 = 4 3 5.5

Tambin calculamos las medias (M) de A (MA1 y MA2) y las medias de B (MB1 y MB2), que estn puestas debajo de la parte derecha de la tabla; nos basta calcular la media de las medias de las filas (son las medias de las columnas correspondientes, tal como est en la tabla 22). Tenemos por lo tanto estos datos: las medias de las filas en A1 y en A2 ( MfA1 y MfA2) las medias de las filas en B1 y en B2 ( MfB1 y MfB2) las medias totales de las filas (Mft) las medias y desviaciones de cada columna (A1B1, A1B2, A2B1 y A2B2) las medias de A1 y A2, y las medias de B1 y B2 Antes de calcular las Sumas de Cuadrados, calculamos las desviaciones tpicas de los totales y de todos los grupos de medias (tambin podemos calcular directamente las varianzas, que es lo que vamos a utilizar):

Otros modelos de anlisis de varianza

21

Desviacin tpica de los totales (N = 20) t de las medias de AB (4 medias) MAB de las medias de A (2 medias) MA de las medias de B (2 medias) MB de las medias totales de las filas (5 medias)Mft de las medias de las filas de A (10 medias) MfA de las medias de las filas de B (10 medias) MfB
Origen Variacin Factor A Factor B
2

= 5.041 = 3.336 = 0.50 = 3.20 = 3.314 = 3.607 = 4.646


F
CM A CM Axf CM B

Sumas de Cuadrados N MA = (20)(.5)2 = 5 N MB = (20) (3.2)2 = 204.8


2

Grados de Libertad a A -1 = 2-1 = 1

Cuadrados Medios
5 1

=5

5 8.9

= .56

B -1 = 2 -1 =1 (A -1)(B -1) =1 (f -1) = (5 -1) =4

204.8 1 = 204.8 12.8 1 = 12.8

Interaccin: AxB filas

N MAB - (a+ b) = (20) (3.336) - (5 + 204.8) = 12.8 N Mft = (20)(3.314)2 = 219.65 N MfA - (a + d) = (20) (3.607) - (5 + 219.65)= 35.56 N MfB - (b + d)
2
2 2

CM Bxf 1.7 = 120.47 CM AxB 12.8 = CM AxBxf 5.9 = 2.17

204.8

219.65 4 = 54.91

error de A: Axf error de B: Bxf

(A -1)(f -1) = (2 -1)(5 -1) = 4

35.56 4

=8.9

= (20)(4.643)2 - (204.8+219.65) = 6.7

(B-1)(f -1) = (2 -1)(5 -1) = 4

6.7 4 = 1.7 23.74 4 = 5.9

2 (A -1)(B -1)(f error de AxB: N t - (a + b + c + d + e + f) = 1) AxBxf 23.78 g = (2-1)(2-1)(5-1) =4 2 2 N -1 = 20 -1 N t =(20)(5.041) = 508.23 Total = 19

Tabla 23 En la tabla de resultados (tabla 23) tenemos cmo calcular las sumas de cuadrados y los grados de libertad. Para simplificar las frmulas identificamos con una letra encerrada en un recuadro las distintas sumas de cuadrados. Las tres varianzas principales (o cuadrados medios) que nos interesan son las correspondientes a los dos factores, A y B, y a la interaccin AxB: nos interesa verificar en qu medida influyen en la variable dependiente. Adems calculamos las varianzas que van a ser los denominadores (o trmino del error) para calcular las tres razones F de inters; estos denominadores son distintos en cada razn F (como puede observarse en la tabla 23).

Otros modelos de anlisis de varianza

22

La nica fuente de diferencias significativa es la que corresponde al factor B (en este ejemplo ficticio, el haber estudiado en un centro privado o pblico).
6.3. Programa en Internet

Este anlisis lo tenemos disponible en un programa de Internet: Lowry, Richard, VassarStats: Web Site for Statistical Computation,Vassar College, Poughkeepsie, NY, USA; http://faculty.vassar.edu/lowry/VassarStats.html En el men de la izquierda en ANOVA buscamos Two-Factor ANOVA with Repeated Measures on Both Factors Para utilizar este programa los datos hay que introducirlos tal como estn presentados en la tabla 24 aunque los datos pueden quedar ms claros inicialmente tal como estn en la tabla 22 en la que en cada fila estn igualados los sujetos. A1 B1
6 12 16 20 22 2 6 8 7 13

A2
10 11 13 14 15 4 7 6 12 10

B2

Tabla 24 Si comparamos estos datos con los de la tabla 22 caeremos en la cuenta de que los primeros sujetos de cada subgrupo en la tabla 24 (con puntuaciones de 6, 2 10 y 4) corresponden a la primera fila de la tabla 22, y as sucesivamente.
7. Anlisis de varianza: diseos mixtos 7.1. Muestras independientes y muestras relacionadas en el mismo anlisis

Esta modalidad de anlisis de varianza corresponde a un tipo de diseos llamados mixtos porque se combinan en el mismo planteamiento muestras independientes y muestras relacionadas. Es un diseo til cuando tenemos dos (o ms) grupos en los que los sujetos son medidos en ocasiones distintas o en variables distintas. El ejemplo presentado (tablas 25 y 26) sugiere la utilidad que puede tener este anlisis13. Tenemos dos factores o criterios de clasificacin: 1 Un factor es la pertenencia a un grupo (dos o ms muestras independientes). En el ejemplo que presentamos los dos grupos son hombres y mujeres, por lo que no hay asignacin aleatoria; pero podra haberla si los dos grupos correspondieran a dos mtodos de enseanza, dos experiencias, etc. En la presentacin habitual de estos cuadros, lo que tenemos es que las filas estn agrupadas en dos o ms bloques. 2 En el otro factor (las columnas, en la presentacin habitual de los datos) tenemos medidas repetidas en diversas ocasiones o circunstancias; en este caso tenemos por lo tanto
13 Si la asignacin de los sujetos a los grupos es aleatoria estos diseos se denominan en ingls split-plot. Estos diseos se utilizaron al comienzo en agricultura; plot es un terreno y split significa dividido (se parcela un terreno, por ejemplo para experimentar con variedades de semillas y de fertilizantes).

Otros modelos de anlisis de varianza

23

muestras relacionadas. En este factor los sujetos pueden ser medidos en lo mismo pero en diversas dosis, o en tiempos o circunstancias distintas, etc.; pueden ser tambin respuestas idnticas (importancia, eficacia, gusto, etc.) a distintas preguntas del mismo mbito como en el ejemplo que nos sirve para introducir este anlisis de varianza14. Como vamos a ver en el ejemplo propuesto para explicar el procedimiento, vamos a tener a los mismos sujetos en las filas, como en el caso comn de muestras relacionadas, lo que sucede es que estas filas o sujetos pertenecen a ms de un grupo. Vamos a explicar el procedimiento con un ejemplo resuelto15 que nos permite seguir y entender el proceso paso a paso e interpretar los resultados. Aunque puede resultar laborioso, en el apartado siguiente indicamos un programa de Internet con el que se puede hacer rpidamente este anlisis16. Factor A: gnero; tenemos dos muestras independientes (sujetos fsicamente distintos), hombres y mujeres (un factor con dos niveles) Factor B: posibles causas o explicaciones de la pobreza (cuatro niveles)17. La variable dependiente (la que hemos medido) es la importancia que los sujetos atribuyen a esas posibles causas de pobreza. Se trata de muestras relacionadas porque los mismos sujetos responden a las cuatro atribuciones. Otros ejemplos con el mismo esquema: factor A tratamientos (ejercicios, mtodos, etc., o medidas en el mismo rasgo a los mismos sujetos pero en tiempos distintos) y factor B tipos de personas, grupo experimental y de control, etc. El esquema es por lo tanto el de la tabla 25
Factor A: importancia de las atribuciones de la pobreza A1 Familia A2 Suerte A3 Esfuerzo A4 Salario bajo Factor B gnero (muestras independientes) B1 hombres B2 mujeres

Tabla 25 Vamos a ver dos procedimientos para llevar a cabo este anlisis de varianza, semejantes a los ya vistos en otros planteamientos; el procedimiento 1 uno basado solamente en el clculo de medias y desviaciones pero que puede resultar bastante laborioso, y el procedimiento 2, que puede ser ms sencillo, combinando varios anlisis de varianza (para muestras independientes y muestras relacionadas) que se hacen muy fcilmente en EXCEL. Mencionamos adems al final algn programa de Internet.

14 En Calvo (1993:163) pueden verse alguna sugerencia para utilizar este diseo en planteamientos de investigacin educacional. 15 En este ejemplo tomamos los datos de Girden (1992:41), no el modo de resolverlo aunque puede comprobarse que los resultados son los mismos. Pueden verse otro ejemplo resuelto en Calvo (1993), con los clculos de las sumas de cuadrados expuestos con claridad segn el mtodo tradicional. 16 Estos programas no nos suelen dar los coeficientes 2 u otros semejantes que son importantes en la interpretacin final. Es til disponer de un ejemplo resuelto de manera completa. 17 El significado de estas atribuciones no tiene mayor importancia en este momento pues se trata de explicar el procedimiento; por familia se entiende factores de educacin familiar, como no motivar para el xito y esfuerzo se refiere genricamente a factores internos, como una mala administracin del dinero (Girden, 1992). Una puntuacin ms baja significa mayor importancia (en este ejemplo, tomado de una investigacin real).

Otros modelos de anlisis de varianza

24

7.2. Procedimiento 1

Con los datos de la tabla 25 se podra pensar en hacer dos anlisis de varianza por separado, uno para cada grupo (en cada caso muestras relacionadas), o si tuviramos ms de dos grupos (en el factor B) podramos hacer un anlisis de varianza unifactorial por cada variable para comparar los grupos en cada columna (o una t de Student por variable si slo hay dos grupos como en este caso). No es ste el mejor procedimiento porque aumentan las probabilidades de error al no aceptar la Hiptesis Nula, sin embargo el plantear anlisis de varianza unifactoriales puede estar indicado en algunas situaciones: a) para analizar alguna variable dependiente conceptualmente independiente de las dems (por ejemplo, importancia que se da a la familia), b) para comparar nuestros resultados con otros anlisis de varianza unifactoriales (en los que, por ejemplo, se ha comparado en otros grupos la importancia que se da al esfuerzo), o c) para hacer un anlisis meramente exploratorio y prescindir de alguna variable (de las que figuran en el encabezado de las columnas) que no va a dar juego si en el anlisis unifactorial obtenemos una razn F que no llega a 1)18. Si en cada clasificacin (tabla 23, tenemos 8 subgrupos) tuviramos distintos sujetos, tendramos un diseo factorial (2x4) para muestras independientes, pero lo que tenemos es a los mismos sujetos en las filas. En estos diseos hay que controlar el posible efecto del orden cuando los mismos sujetos pasan por las distintas condiciones o responden a las distintas preguntas; el orden puede no afectar a las respuestas (no siempre afecta), pero hay que tener presente esta posibilidad. El influjo del orden puede ser importante cuando las columnas son actividades o situaciones por las que pasan los sujetos en tiempos distintos, pero no es tan importante cuando las columnas son simples preguntas (como en este caso). En la tabla adjunta (tabla 26) tenemos las puntuaciones de 10 sujetos (5 hombres y 5 mujeres) valorando la importancia de las cuatro atribuciones o posibles causas de la pobreza (o riqueza). Adems tenemos en la misma tabla 26: a) Las medias y desviaciones de cada subgrupo (8 subgrupos) b) La media de cada sujeto (de cada fila) (10 filas) c) La media y la desviacin de cada columna (4 columnas); las desviaciones de las columnas (atribuciones, factor A) no nos van a hacer falta, pero son tiles con fines informativos. d) Las medias de los dos grupos (dos medias; basta calcular en cada caso la media de las medias de las filas de B1 y de B2) Adems tenemos que:

18 Puede verse una explicacin ms amplia en Huberty y Morris (1987). Una razn ms cuestionable que aducen estos autores para llevar a cabo simples anlisis de varianza unifactoriales es cuando el investigador no entiende bien (y no va a interpretar bien) estos anlisis ms complejos (when the researcher is multuivariately naive). Ya hemos indicado en otra nota que el ver ejemplos resueltos de anlisis de varianza ms complejos ayuda tambin a entender los resultados que nos dan los programas informticos, por otra parte y como explicamos en otro apartado, este diseo se puede analizar en EXCEL mediante anlisis de varianza ms simples y adems tambin lo tenemos resuelto en un programa de Internet que indicamos al final.

Otros modelos de anlisis de varianza

25

N= n= A= B=

40 5 4 2

(nmero de datos, no nmero de sujetos) (nmero de sujetos en cada clasificacin). (nmero de atribuciones, o nmero de niveles en A) (nmero de grupos, o nmero de niveles en B).
A2 suerte 31 34 37 39 34 M = 35.0 = 2.757 17 18 19 16 15 M = 17.0 = 1.414 MA2 = 26.0 = 9.263 A3 esfuerzo 24 25 27 30 29 M = 27 = 2.28 19 20 22 19 20 M = 20.0 = 1.095 MA3 = 23.5 = 3.93 A4 salario bajo 29 31 35 38 32 M = 33 = 3.162 20 22 24 22 22 M = 22.0 = 1.265 M A4 = 27.5 = 6.00 medias de los sujetos 33 34 36 36 35

B1 hombres

B2 mujeres

medias y atribuciones

A1 familia 48 46 45 37 45 M = 44.2 = 3.763 28 32 35 39 31 M = 33.0 = 3.742 MA1 = 38.6 = 6.741

Media B1 = MfB1 = 34.8

21 23 25 24 22

Media B2 = MfB2 = 23.0

Tabla 26 Nos interesa conocer qu fuentes de variabilidad son significativas (generan diferencias por encima de lo que se puede esperar por azar). Esta variabilidad viene expresada por las varianzas correspondientes a estas tres fuentes de diversidad: a) La varianza correspondiente a los grupos, factor B (Un grupo da ms importancia en general que el otro a las distintas atribuciones?). b) La varianza correspondiente a las atribuciones, factor A (Hay diferencias en general en la importancia que se da a las distintas atribuciones?). c) La varianza correspondiente a la interaccin (Difieren los grupos en la importancia que dan precisamente a algunas atribuciones?).
Adems nos interesan las varianzas que expresan la variabilidad aleatoria (trmino del error), que van a ser el denominador de la razn F, y que no va a ser el mismo para las tres varianza anteriores.

El proceso es ms complejo que en otros planteamientos de anlisis de varianza, pero procediendo con orden y haciendo los clculos previos oportunos, no resulta complicado. Utilizando nuevos smbolos para los distintos clculos parciales se facilita el poder seguir el proceso.
Clculos previos:

Para simplificar el proceso vamos a proceder de esta manera: 1 Calculamos una serie de varianzas (del total y de conjuntos de medias, como en otros planteamientos) 2 Multiplicamos estas varianzas por N (nmero de datos = 40) y en un caso por 5, (nmero de sujetos en cada clasificacin; smbolo f en la ltima fila de la tabla18).

Otros modelos de anlisis de varianza

26

Varianzas

multiplicada por

smbolo a b c d e f

Varianza de los totales (las 40 puntuaciones) Varianza de las medias de A (4 medias) Varianza de las medias de B (2 medias) Varianza de las medias de AB (8 subgrupos) Varianza de las medias de todas las filas (10 filas)
Suma de las varianzas de los 8 subgrupos AB

2 t

79.09 = 33.405

N = 40 N = 40 N = 40 N = 40 N = 40 n=5

3163.6 1336.2 1392.4 2884.8 1459.6 278.741

2 MA
2

MB = 34.81 MAB =
2 Mf

72.12 36.49

= =

2 AB

55.75

Tabla 27 A estos productos les designamos con una letra (tabla 27) para clarificar las frmulas de las sumas de cuadrados puestas en la tabla 28. Estos clculos no ofrecen especial dificultad una vez que tenemos calculadas todas las medias posibles (lo que vamos a utilizar en las sumas de cuadrados son las varianzas de los distintos grupos de medias, como venimos haciendo hasta ahora).
Mtodo alternativo para calcular la varianza total

Si tenemos muchos sujetos, nos puede resultar ms sencillo calcular la varianza de los totales a partir de 1 la media total (que es la media de las medias de cualquier conjunto de grupos que comprenda a todos los sujetos), y 2 las medias y desviaciones tpicas, tambin de cualquier conjunto de grupos que comprenda a todos los sujetos. En este caso y viendo lo que tenemos ya calculado en la tabla de datos, tenemos dos posibilidades: utilizar las medias y desviaciones o de los ocho subgrupos (combinaciones AB) o de los cuatro niveles de A; en ambos casos tenemos incluidos a todos los sujetos. Aqu es ms cmodo utilizar los datos de los cuatro niveles de A porque son menos (ms sencillo sera utilizar las medias y desviaciones de los niveles de B porque son solamente dos, pero no tenemos calculadas las desviaciones de B1 y B2). Utilizamos la frmula que tenemos en el anexo III con los datos de los cuatro niveles de A (k = 4). La media total es 28.9
t =
2

M 2 + 2

- Mt =

38.6 2 + 6.741 2 + 262 + 9.263 2 + 23.5 2 + 3.93 2 + 27.5 2 + 6 2 4

- 28.9 = 79.08

Con estos clculos previos19 pasamos con facilidad a calcular las sumas de cuadrados. En la tabla de resultados (tabla 28) figuran: a) Las frmulas de las sumas de cuadrados; las letras minsculas corresponden a los clculos previos de la tabla precedente (tabla 26); b) Cules son los grados de libertad en cada caso. En los dos factores principales y su interaccin los grados de libertad son los que ya estamos acostumbrados a ver en otros planteamientos: A-1; B-1 (A y B = nmero de niveles en cada factor); y (A-1)(B-1); los

19 Recordamos que utilizando una calculadora con programacin estadstica, la suma del numerador se calcula rpidamente con la funcin programada x2

Otros modelos de anlisis de varianza

27

grados de libertad de los dos trminos del error son algo distintos. Con n simbolizamos el nmero de sujetos en cada clasificacin (n = 5 en este ejemplo). c) Los cuadrados medios (o varianzas; dividimos las sumas de cuadrados por los grados de libertad) estn simbolizados por una letra mayscula en un recuadro, para visualizar con ms facilidad cul es el denominador de la razn F en cada caso: en el factor relacionado y en la interaccin puede observarse que el denominador de F es distinto que en el factor con muestras independientes (pertenencia a un grupo). La suma de cuadrados total no es realmente necesaria para completar la tabla, pero es til tenerla calculada para hacer comprobaciones, y adems nos servir luego para calcular los coeficientes 2.
Origen de la variacin Grupos, Factor B (muestras independientes)
Dentro de los grupos; (error del factor B)

Sumas de Cuadrados c = 1392.4

Grados de Libertad B-1=21=1

Cuadrados Medios 1392.4 (= G )

[G ] = 1392.4 [H] 8.4


165.762

e - c = 1459.6 - 1392.4 = 67.2

(B ) (n -1) = (2)(5 -1) =8

8.4 (= H ) 445.4 (= I ) 52.067 (= J ) 8.814 (= K )

Tratamiento, Factor A (muestras relacionadas) Interaccin, A x B

b = 1336.2

A-1= 4 - 1= 3

[I] = [K ] [J ] = [K ]

445.4 8.814

50.53

d - ( b + c )= 2884.8 - (1336.2 + 1392.4) = 156.2

(A-1)(B-1) = (4-1)(2-1) = 3 (A-1)B(n-1) = (3)2(51) = (3)(8) = 24 (n)(A)(B) -1 = (5)(4)(2) -1 = 39

52.067 8.814

5.907

Tratamiento x dentro de los grupos (error de A y A x B) Varianza total

c + f - e = 1392.4 + 278.741 - 1459.6 = 211.54 a = 3163.6

Tabla 28 Sobre esta tabla 28 hacemos estas observaciones: 1. Si nos fijamos en lo que hemos hecho, el denominador (trmino del error) del factor B (grupos independientes) es distinto del que utilizamos en el factor A (muestras relacionadas) y en la interaccin AxB. Ambos denominadores, con algunos ajustes, reflejan la variabilidad normal dentro de los grupos. 2. Cabe hacer distintas comprobaciones: a) Podemos comprobar que las sumas de cuadrados y grados de libertad del total es igual a la suma de todos los precedentes. b) Caben otras comprobaciones y otras maneras de llegar a las mismas sumas de cuadrados; por ejemplo: SCAxB = a - ( b + c + f ) = 3163.6 - (1336.2 + 1392.4 +278.741) = 156.2 SCtratam.x dentro = a - (SCA + SCAxB + e ) = 3163.6 - (1336.2 + 156.2 +1459.6) = 211.6

Otros modelos de anlisis de varianza

28

3. Si utilizamos un programa de ordenador podremos reconocer todos los datos de la tabla de resultados, pero es posible que nos encontremos con otras dos sumas de cuadrados con sus correspondientes grados de libertad pero sin cuadrados medios y sin razn F. Aqu no figuran en la tabla porque no son necesarios, pero s conviene saber de qu se trata para reconocer los resultados que nos puede dar el ordenador. Se trata de: Suma de Cuadrados entre sujetos = e = 1459.6 (= N x varianza de las medias de las filas, tabla 27) Suma de Cuadrados dentro de los grupos = a - e = 1704 Podemos ver con facilidad que se trata de las dos grandes sumas parciales de cuadrados (separadas por una lnea doble en la tabla 28) en las que se divide la suma de cuadrados total: 1392.4+67.2 = 1336.2+156.2+211.54 = Suma de cuadrados total =
Interpretacin:

1459.6 1703.94 3163.54

Lo mismo sucede con los grados de libertad: 1+8+3+3+24 = 39 Factor B: F = 165.762, con 1 y 8 grados de libertad, p < .01 Factor A: F = 50.067, con 3 y 24 grados de libertad, p < .01 Interaccin AxB: F = 5.907, con 3 y 24 grados de libertad, p < .01 Tanto la pertenencia a uno u otro grupo, como las distintas atribuciones y la interaccin entre grupo y atribucin estn relacionadas con la variable dependiente y explican la varianza total. Como se trata de muestras relacionadas y la condicin de esfericidad no suele cumplirse20 estas probabilidades deben considerarse ms bien liberales por lo que respecta al factor relacionado (el A) y a la interaccin. Con un criterio ms estricto nos fijamos en los grados de libertad ms conservadores (1 y N-1, 1 y 39) y necesitamos un valor de F de 7.71 (para p<.01); en este caso la interaccin deja de ser significativa. Por lo que respecta a los grupos (factor B), como slo hay dos grupos no hay necesidad de hacer comparaciones especficas, est claro que uno da ms importancia a las atribuciones que el otro. Si a cada sujeto le sumamos todas sus puntuaciones a todas las atribuciones y hacemos un contraste de medias entre hombres y mujeres llegaremos al mismo resultado (teniendo en cuenta que cuando comparamos dos grupos t2 = F). Las atribuciones (factor A) tambin difieren entre s en la importancia asignada por los sujetos; lo ms claro es la mucha importancia que se da a la familia (en los dos grupos) y la poca, en trminos relativos, al esfuerzo. El que la interaccin sea significativa quiere decir que al menos algunas medias entre niveles de la misma variable son significativamente distintas en uno de los niveles de la otra variable21. Por simple inspeccin de los datos vemos que los varones dan mucha ms importancia a todas las atribuciones que las mujeres (la diferencia mayor est en suerte).

20 Se puede repasar lo dicho sobre este tema en el anlisis de varianza para muestras relacionadas 21 Puede verse en Girden (1992) todo lo referido a los contrastes posteriores en este tipo de diseos.

Otros modelos de anlisis de varianza

29

Aunque las tres fuentes de diferencias son significativas, no todas tienen la misma importancia. Podemos comprobar el grado de asociacin entre las tres varianzas y la variable dependiente, por medio de los coeficientes 2 y 2:
2 del Factor A = 2 del Factor B = 2 de la interaccin AxB=

1336.2 = 3163.6 1392.4 = 3163.6 156.2 = 3163.6

.42 .44 .05

En trminos comparativos la importancia de la interaccin es mucho menor: pesan ms las diferencias entre los grupos (en todas las atribuciones) y entre las atribuciones (uniendo los dos grupos) que las diferencias especficas entre los grupos en alguna atribucin en especial o entre las atribuciones en uno de los grupos. Tambin podemos calcular los coeficientes 2, que sern algo ms bajos que los coeficientes 2. Para calcular estos coeficientes necesitamos conocer los cuadrados medios entre sujetos, que no hemos calculado antes: Cuadrados Medios entre sujetos =
N Mf nmero total de sujetos -1
2

El numerador ya lo hemos calculado antes en e (tabla 27) y el denominador es 10 -1, por lo que CMentre sujetos = 1459.6 =162.178 10 1

La frmula general de 2 en estos casos es la siguiente:


2 =
SCde inters - (A -1)(B -1)(CM tratamiento x dentro ) SCtotal + CMentre sujetos + (nxBxCM tratamiento x dentro )

La frmula queda ms clara al verla calculada en los tres coeficientes de inters e identificar estos valores al compararlos con los que estn en la tabla de resultados (tabla 28):
2 del Factor A = 2 del Factor B = 2 de la interaccin AxB =

1336.2 (4 1)(2 1)(8.814) 1309.758 = = 3163.6 + 162.178 + (5)(2)(8.814) 3413.918 1392.4 (4 1)(2 1)(8.814) 1357.144 = = 3163.6 + 162.178 + (5)(2)(8.814) 3413.918 156.2 (4 1)(2 1)(8.814) 120.944 = = 3163.6 + 162.178 + (5)(2)(8.814) 3413.918

.38

.40

.04

Los resultados son muy parecidos a los vistos con el coeficiente 2.

Otros modelos de anlisis de varianza

30

7.3. Procedimiento 2 (EXCEL).

Como en otros casos podemos combinar los resultados de los anlisis de varianza ms sencillos que podemos hacer muy fcilmente en EXCEL. Con los datos de que disponemos (en la tabla 26) hacemos cuatro anlisis de varianza, tres para muestras independientes y uno para muestras relacionadas.
Anlisis 1, anlisis de varianza para muestras independientes con los datos de las filas (factor B); en este caso se trata de dos muestras; hombres y mujeres. Aunque se trata solamente de dos grupos no utilizamos la t de Student porque nos interesa la informacin de la tabla de resultados de este anlisis de varianza (tabla 29) Tabla de resultados del anlisis 1 Origen SC GL Entre grupos 1392,4 1 Dentro de los grupos 1771,2 38 Total 3163,6 39

CM 1392,4000 46,6105 Tabla 29

F 29,8731

p 0,0000

F crt. 4,0982

Anlisis 2, anlisis de varianza para muestras independientes con los datos de las columnas (factor A); uniendo los niveles del factor B (hombres y mujeres) en un solo grupo; tenemos por lo tanto cuatro grupos (tantos como columnas).

Para visualizar mejor lo que estamos haciendo ponemos los datos de este anlisis en la tabla 30 (tomados de la tabla 26).
A1 familia 48 46 45 37 45 28 32 35 39 31 A2 suerte 31 34 37 39 34 17 18 19 16 15 A3 esfuerzo 24 25 27 30 29 19 20 22 19 20 A4 salario bajo 29 31 35 38 32 20 22 24 22 22

Tabla 30 Los resultados en la tabla 31


Tabla de resultados del anlisis 2 Origen SC Entre grupos 1336,2 Dentro de los grupos 1827,4 Total 3163,6

GL CM 3 445,4000 36 50,7611 39 Tabla 31

F 8,7744

p 0,0002

F crt. 2,8663

Anlisis 3, anlisis de varianza para muestras independientes con los datos de las columnas (factor A); pero sin unir los niveles del factor B; en este anlisis tendremos por lo ocho grupos (cuatro de hombres, B1, y cuatro de mujeres, B2).

En la tabla 32 ponemos los datos para mayor claridad; reorganizamos la presentacin de los datos de la tabla 26.

Otros modelos de anlisis de varianza

31

A1 familia 48 46 45 37 45

Datos de los hombres (B1) A2 A3 suerte esfuerzo 31 24 34 25 37 27 39 30 34 29

A4 salario bajo 29 31 35 38 32

A1 familia 28 32 35 39 31

Datos de las mujeres (B2) A2 A3 suerte esfuerzo 17 19 18 20 19 22 16 19 15 20

A4 salario bajo 20 22 24 22 22

Tabla 32 Los resultados de este anlisis de varianza en la tabla 33.


Tabla de resultados del anlisis 3 Origen SC GL Entre grupos 2884,8 7 Dentro de los grupos 278,8 32 Total 3163,6 39

CM 412,1143 8,7125 Tabla 33

F 47,3015

p 0,0000

F crt 2,3127

Anlisis 4, anlisis de varianza para muestras relacionadas con todos los sujetos (uniendo los sujetos del factor B, hombres y mujeres).

Los datos, tomados de la tabla 26, son los mismos de la tabla 30, pero all analizamos 4 muestras independientes y ahora los analizamos como muestras relacionadas (el mismo sujeto en cada fila). Resultados en la tabla 34.
Tabla de resultados del anlisis 4 Origen SC GL Filas 1459,6 9 Columnas 1336,2 3 Error 367,8 27 Total 3163,6 39

CM 162,1778 445,4000 13,6222 Tabla 34

F 11,9054 32,6966

p 0,0000 0,0000

F crt. 2,2501 2,9604

Con estas cuatro tablas a la vista podemos fcilmente completar la tabla de resultados que realmente nos interesa, siguiendo las indicaciones de la figura 3 que corresponde a la tabla 28.

Otros modelos de anlisis de varianza

32

Origen de la variacin Grupos, Factor B (muestras independientes) Dentro de los grupos; (error del factor B) Tratamiento, Factor A (muestras relacionadas) Interaccin, A x B Tratamiento x dentro de los grupos (error de A y A x B) Varianza total

Sumas de Cuadrados
Anl. 1, SC entre 1392.4 Anl. 4 SC filas menos Anl. 1 SC entre 1459.6 1336.2 = 67.2 Anl. 4 SC columnas 1336.2 Anl. 3 SC entre menos (Anl. 2 SC entre + Anl.1 SCentre) 2884.8 (1336.2+1392.4) =156.2 Anl.1 SC entre +Anl. 3 SCdentro menos Anl. 4 SC filas 1392.4+278.8-1459.6 =211.6

Grados de Libertad B -1 = 2-1 = 1 B (n-1) = (2) (5-1) =8 A -1 = 4-1 = 3 (A-1)(B-1 = (4-1)(2-1) = 3 (A-1)(B x (n-1))= (3) (2x4) = 24

Cuadrados Medios 1392.4 8.4

F 1392.4/8.4 = 165.762

445.4 156.2/ 3 = 52.67 211.6/24 =8.817

445.4/8.817 = 50.52 52.67/8.817 = 5.9

La misma en todos los anlisis

Figura 3 Los resultados son los mismos vistos en la tabla 28; como esos anlisis de varianza hechos en EXCEL se pueden hacer muy rpidamente, ste puede ser un buen procedimiento en estos diseos mixtos en los que tenemos a la vez muestras independientes y relacionadas.
7.4. Programa en Internet

Para este anlisis de varianza disponemos en Internet de un programa especfico que nos da la tabla de resultados aunque no los coeficientes de asociacin (aunque s tenemos la informacin suficiente para calcular 2). Lowry, Richard, VassarStats: Web Site for Statistical Computation,Vassar College, Poughkeepsie, NY, USA; http://faculty.vassar.edu/lowry/VassarStats.html En el men de la izquierda en ANOVA buscamos Two-Factor ANOVA with Repeated Measures on One Factor En este programa estn invertidos los smbolos de los factores (A y B). En el cuadro de entrada number of rows no es el nmero de filas o de sujetos sino el nmero de niveles en el factor de medidas repetidas (o relacionadas, denominado factor A en esta tabla de resultados); en este caso el factor A tiene dos niveles, varones y mujeres (el programa slo admite dos niveles en este factor A y hasta cuatro columnas en el factor B). Los datos se pueden importar de una tabla Word.
8. Referencias bibliogrficas

CALVO GMEZ, FLIX (1993). Tcnicas estadsticas multivariantes. Bilbao: Universidad de Deusto. GIRDEN, ELLEN R. (1992). Anova repeated measures. Quantitative Applications in the Social Sciences. Newbury Park & London: Sage GUILFORD, J. P. y FRUCHTER, B. (1984). Estadstica aplicada a la psicologa y la educacin, Mxico: McGraw-Hill. HINKLE, DENNIS E.; WIERSMA, WILLIAM and JURS, STEPHEN G. (1994). Applied Statistics for the Behavioral Sciences. Boston: Houghton-Mifflin. HUITEMA, BRADLEY E. (1980). The Analysis of Covariance and Alternatives. New York: John Wiley & Sons.

Otros modelos de anlisis de varianza

33

HUBERTY, CARL J. and MORRIS, JOHN D. (1987). Multivariate Analysis Versus Multiple Univariate Analysis. Paper presented at the Annual Meeting of the American Educational Research Association, Washington, D.C. IVERSEN, GUDMUND R. and NORPOTH, HELMUT (1987). Analysis of Variance, 2nd. edition, Paper Series on Quantitative Applications in the Social Sciences. Newbury Park: Sage. KIRK, ROGER E. (1995). Experimental Design, Procedures for the Behavioral Sciences. Boston: Brooks/Cole.

Otros modelos de anlisis de varianza

Anlisis de varianza Anexos


Pedro Morales Vallejo Universidad Pontificia Comillas, Facultad de Ciencias Humanas y Sociales (ltima revisin: 14 de Noviembre de 2009)

ndice
Anexo I: Por qu no podemos utilizar la t de Student para hacer todas las comparaciones posibles cuando tenemos ms de dos grupos ...................................................... Anexo II: El test de Bonferroni: procedimiento para hacer todas las comparaciones posibles entre pares de grupos sin llevar a cabo un anlisis de varianza............ Anexo III: Clculo de la media y de la desviacin tpica del total a partir de las medias y desviaciones tpicas de las muestras............................................................ 1. Media de los totales.................................................................................... 1.1. Con muestras de tamao distinto ....................................................... 1.2. Con muestras de idntico tamao ...................................................... 2. Desviacin tpica de los totales.................................................................. 2.1. Con muestras de distinto tamao ....................................................... 2.2. Con muestras de idntico tamao ...................................................... 2.3. Deduccin de la frmula .................................................................... Anexo IV: Contrastes posteriores: la distribucin q del rango estudentizado .................. Anexo V: Contrastes posteriores en diseos factoriales cuando la interaccin es significativa .................................................................................................. 1. Valores de k para consultar las tablas ......................................................... 2. Justificacin de los nuevos valores de k....................................................... Anexo VI: El nmero de sujetos en el anlisis de varianza .............................................. 1. Variables que intervienen en la determinacin del tamao de la muestra.... 2. Tamao de cada muestra cuando comparamos dos grupos (t de Student) ... 3. Tamao de la muestra cuando tenemos ms de dos muestras (anlisis de varianza unifactorial)............................................................... 4. Tamao de la muestra en los diseos factoriales.......................................... Anexo VII: Mtodos no paramtricos de anlisis de varianza ......................................... 3 5 7 7 7 7 7 7 8 8 10 12 12 13 17 17 19 19 21 23

1. Observaciones sobre los mtodos no paramtricos ..................................... 23 2. Mtodos no paramtricos ms importantes anlogos al anlisis de varianza 23 Anexo VIII: Anlisis de Varianza en Internet................................................................... Referencias bibliogrficas ................................................................................................. 25 25

Anlisis de varianza: anexos

3 ANEXO I: Por qu no podemos utilizar la t de Student para hacer todas las comparaciones posibles cuando tenemos ms de dos grupos Quizs la manera ms fcil de captarlo es mediante una analoga de fcil comprensin y que tiene que ver con la distribucin binomial. Imaginemos que tiramos una moneda al aire Que probabilidades tenemos de que nos salga una cara? Si solamente tenemos una moneda tenemos dos resultados posibles, o nos sale cara o nos sale cruz: probabilidades: Una posibilidad: cara una vez : p = .50 (50%) Con slo dos resultados posibles (el 100%) tenemos un 50 % de probabilidades de que nos salga cara y otro 50 % de probabilidades de que nos salga cruz.

Otra posibilidad: cruz una vez: p = .50 (50%)

Ahora vamos a tirar al aire dos monedas a la vez Qu probabilidades tenemos de que nos salga una cara? Tenemos estos y solos posibles resultados: moneda primera una posibilidad: cara otra posibilidad: cruz otra posibilidad: cara otra posibilidad: cruz moneda segunda cara cruz cruz cara Con dos monedas tenemos cuatro posibles resultados (cara-cara, cruz-cruz y dos veces cara-cruz). Qu probabilidades tenemos de obtener al menos una cara? tres de cuatro o p = 3/4 =.75 (un 75% de probabilidades de que nos salga al menos una cara).

Incidentalmente podemos observar que, simbolizando C como cara y X como cruz estos son los resultados posibles: una vez dos C, una vez dos X y dos veces XC (da lo mismo caracruz que cruz-cara) es decir, todas las posibilidades son: XX + CC + 2CX Dividiendo cada posible resultado por el nmero total de resultados distintos (4 en este caso) tenemos la probabilidad de que nos salga una determinada combinacin cara-cruz. Si utilizamos los smbolos a y b posiblemente caeremos en la cuenta del parecido de la expresin anterior con el cuadrado de un binomio: (a + b)2 = a2 + 2ab + b2 El exponente del binomio sera en este caso el nmero de monedas. Si en vez de dos monedas, utilizamos tres, la resolucin de (a + b)3 nos dar cules pueden ser los resultados distintos y cuntas veces obtendramos cada uno. Al menos hemos visto que si estamos interesados en que nos salga por lo menos una cara, no es lo mismo arrojar al aire una moneda que dos o tres A mayor nmero de monedas, mayor probabilidad de que al menos una nos salga cara. De manera anloga si comparamos tres grupos tenemos tres comparaciones posibles: el 1 con el 2, el 1 con el 3 y el 2 con el 3: en este caso las probabilidades de obtener por azar al menos una t estadsticamente significativa suben con respecto a comparar solamente dos grupos. Si vamos a hacer tres comparaciones y establecemos un nivel de confianza de =.05 Qu probabilidad tenemos de obtener al menos una t significativa? Esta pregunta tiene que ver con las probabilidades conjuntas, tema en el que no entramos pero que puede quedar
Anlisis de varianza: anexos

4 sugerido o ilustrado viendo todas las posibles diferencias estadsticamente significativas cuando tenemos tres grupos. Podemos encontrar slo entre una diferencia slo entre significativa: slo entre entre entre entre entre el 1 y el 2 el 1 y el 3 el 2 y el 3 el 1 y el 2 el 1 y el 2 el 1 y el 3 el 1 y el 2

y y y y

entre el 1 y el 3 entre el 2 y el 3 entre el 2 y el 3 entre el 1 y el 3 y entre el 2 y 3

La probabilidad de encontrar una t significativa no es ciertamente del 5%, son muchas ms; de hecho, con tres grupos y operando con un nivel de confianza de .05, ya la probabilidad real de obtener al menos una diferencia significativa no es del 5% sino del 9.75%1. Algn autor lo explica de manera ms sencilla (Kirk (1995): si tiramos al aire dos dados no es tan fcil que nos salgan la primera vez dos seises; pero si tiramos al aire 10 dados a la vez tenemos muchas ms probabilidades de que nos salgan los dos seises De todas maneas recordamos que podemos comparar los grupos de dos en dos si se dan estas condiciones: 1 tenemos hiptesis previas y justificadas antes de recoger lo datos y 2 el nmero mximo de comparaciones legtimas no puede ser superior a los grados de libertad (= k-1; con tres grupos podaramos hacer dos comparaciones y no las tres posibles).

Una explicacin ms detallada sobre cmo obtener las probabilidades reales puede verse en McGuigan (6th Edition, 1994:140ss). Anlisis de varianza: anexos

5 ANEXO II: El test de Bonferroni: procedimiento para hacer todas las comparaciones posibles entre pares de grupos sin llevar a cabo un anlisis de varianza Ya hemos indicado que cuando en el mismo planteamiento tenemos ms de dos grupos, no podemos contrastar todos los posibles pares de medias entre s porque aumenta la probabilidad de error. Hemos visto que con tres grupos un nivel de confianza de = .05 equivale de hecho a un nivel de .0975. Si deseamos hacer todos los contrastes posibles de medias podramos hacerlos siendo ms estrictos en el nivel de confianza sin necesidad de acudir al anlisis previo de varianza. El procedimiento ms sencillo para ajustar el nuevo nivel de confianza es el denominado test de Bonferroni.2 Este procedimiento consiste en dividir el nivel de confianza escogido ( = .05, por ejemplo, o = .01) por el nmero de posibles comparaciones: la probabilidad resultante es la que debemos utilizar. Ya sabemos que el nmero de posibles comparaciones de k grupos tomados de dos en dos es igual a k(k-1)/2. La frmula general del nuevo nivel de confianza es: nuevo valor de =

k(k -1) 2

= probabilidad escogida ( = .05, .01, etc.) k = nmero de grupos

Esta probabilidad es para pruebas de una cola o unilaterales (nos fijamos solamente en un extremo de la distribucin); este valor de habr que dividirlo por 2 si utilizamos contrastes bilaterales como es usual. Por ejemplo, si tenemos tres grupos (k = 3), nuestro nivel de confianza es = .05, y queremos hacer todas las comparaciones posibles entre grupos (sin combinar las medias de varios grupos en una sola) el nuevo valor de ser: .05 = 3(3 1) = .0167 2 En las tablas de la distribucin normal (muestras grandes) vemos que a una probabilidad de .0167 (rea menor) le corresponde z = 2.39; bastante mayor que el 1.96 al que estamos acostumbrados (y que en pruebas de una cola es 1.64). De manera ms sencilla si disponemos de la probabilidad exacta de un contraste (fcilmente disponible en Internet) y la multiplicamos por el nmero de comparaciones, podemos ver si llega a .05 (suponiendo que ste es nuestro nivel de confianza) (Bland y Alman, 1995). Por ejemplo si obtenemos p = .0167 y tenemos tres comparaciones, nuestra probabilidad ser (con un nivel de confianza de .05) p = (.0167)(3) = .05. En opinin de varios autores este contraste no parece aconsejable porque es considerado demasiado conservador; es decir, tiene poca potencia para rechazar la Hiptesis Nula cuando realmente es falsa (Hancock y Klockars, 1996; Jaccard, 1998). Por otra parte estos contrastes no estn pensados como contrastes posteriores al anlisis de varianza sino para siempre que

2 Carlo Emilio Bonferroni elabor su teora sobre la probabilidad (publicada en Florencia en 1936) al margen del anlisis de varianza, pero en los aos 60 se aplic a los contrastes posteriores; es el contraste tambin conocido como de Dunn-Bonferroni. A veces se menciona a Bonferroni como desconocido (McGuigan, 1994); pero puede encontrarse citado en Hancock y Klockars (1996) y una breve resea biogrfica en http://www-history.mcs.standrews.ac.uk/Biographies/Bonferroni.html (en The MacTutor History of Mathematics archive http://www-history.mcs.standrews.ac.uk/index.html) Anlisis de varianza: anexos

6 en el mismo planteamiento haya ms de dos contrastes de medias (por ejemplo si comparamos dos grupos en una serie de variables) y tambin seran aplicables si tenemos un conjunto de coeficientes de correlacin. Una crtica bien razonada a los ajustes de Bonferroni puede verse en Perneger (1998) que merece la pena citarle literalmente:
this paper advances the view, widely held by epidemiologists, that Bonferroni adjustments are, at best, unnecessary and, at worst, deleterious to sound statistical inference... The main weakness is that the interpretation of a finding depends on the number of other tests performed The likelihood of type II errors is also increased, so that truly important differences are deemed non-significant... Bonferroni adjustments imply that a given comparison will be interpreted differently according to how many other tests were performed.

Nuestra valoracin personal es que se puede prescindir de los contrastes de Bonferroni con la conciencia tranquila porque son excesivamente conservadores y adems esta opinin est avalada por autores relevantes. Los contrastes de Bonferroni estn programados en GraphPad (ver referencias bibliogrficas) y tambin en el SPSS (en anlisis de vaianza). Ms que contrastes, como si se tratara de alternativas a la t de Student, se trata de nuevos valores de p equivalentes a = .05 cuando hacemos ms de un contraste entre dos medias. Estos valores pueden verse en Internet, en BISSONNETTE, VICTOR L., Berry College http://fsweb.berry.edu/academic/education/vbissonnette/ Some Useful Statistical Tables, Critical Values of Dunns (Bonferroni) test (experimentwise = .05) http://fsweb.berry.edu/academic/education/vbissonnette/tables/dunns.pdf

Anlisis de varianza: anexos

7
ANEXO III: Clculo de la media y de la desviacin tpica del total a partir de las medias y desviaciones tpicas de las muestras

Frecuentemente lo que tenemos de las diversas muestras son los datos descriptivos bsicos: el nmero de sujetos (N), la media (M) y la desviacin tpica (). Son datos que podemos ver en una publicacin o que nosotros mismos guardamos3. Si a partir de estos datos queremos hacer un anlisis de varianza con una simple calculadora, necesitamos adems tener: a) La media del total de todos los sujetos (al menos para calcular la suma de cuadrados entre grupos cuando los grupos son de tamao desigual). b) La desviacin tpica del total de las puntuaciones; en realidad necesitamos la varianza, que multiplicada por N (nmero total de datos, si se trata de muestras relacionadas N = n x k) nos dar la suma de cuadrados del total. Tanto la media total como la desviacin tpica o varianza de los totales podemos calcularlos a partir de los datos descriptivos de las muestras, sin necesidad de disponer de todas las puntuaciones individuales que normalmente s necesitaremos si vamos a utilizar un programa de ordenador (como el SPSS). Las frmulas apropiadas ya las hemos ido viendo en varias ocasiones; ahora las repetimos de manera ms ordenada y con una demostracin. 1. Media de los totales 1.1. Con muestras de tamao distinto nM Se multiplica cada media por su nmero de sujetos, [1] Mt = se suman estos productos y se divide por el nmero n(o N total) total de sujetos. Se trata de una media ponderada que no necesita una especial demostracin.
1.2. Con muestras de idntico tamao Cuando los grupos son de idntico tamao, la media total es simplemente la media de las medias (suma de las medias dividida por el nmero de medias): 2. Desviacin tpica de los totales 2.1. Con muestras de distinto tamao
n(M2 + 2 ) - M2 t N t es la desviacin tpica de los totales; como realmente nos interesa la varianza, podemos prescindir de la raz cuadrada. n es el tamao de cada grupo, que se multiplica por la suma de su media y desviacin elevadas al cuadrado. La desviacin tpica la suponemos calculada dividiendo por N.

Mt =

[2]

t =

[3]

La frmula [3] est tomada de McNemar (1962), pero es fcilmente demostrable como vamos a ver ms adelante.

3 A partir de estos datos (N, Media y desviacin tpica de cada muestra) tambin tenemos programado en Internet el anlisis de varianza para varias muestras independientes (por ejemplo, los programas de Internet de Pezzulo y en Department of Obstretrics And Gynaecology, The Chinese University of Hong Kong; ver referencias bibliogrficas). Anlisis de varianza: anexos

8 2.2. Con muestras de idntico tamao Cuando los grupos son de idntico tamao (como sucede siempre que tenemos muestras relacionadas y en muchos otros casos) la frmula de la desviacin tpica de los totales queda simplificada; k es el nmero de grupos4. t = M2 + 2 - M2 t k [4]

En este caso, muestras de idntico tamao, la media de los totales ya sabemos que es la media de las medias. Como se trata de calcular la varianza (y no la desviacin tpica), podemos prescindir de la raz cuadrada. Estos valores pueden variar segn se calculen por un mtodo o por otro, debido al distinto nmero de decimales que se utilicen en cada caso, pero las diferencias no afectan apreciablemente a los clculos posteriores. Aun as es preferible utilizar tres o cuatro decimales. 2.3. Deduccin de la frmula
De dnde viene esta frmula [3] para combinar desviaciones tpicas a partir de los valores de las desviaciones, medias y nmero de sujetos de los diversos grupos?

La frmula ms directa de la desviacin tpica es =

(X - M)2 [5] N

Hay otras frmulas, que se derivan de [5], para calcular la desviacin tpica sin necesidad de calcular las puntuaciones diferenciales (X-M). Lo que sucede es que estas frmulas que simplifican operaciones son menos tiles, ya que disponemos de calculadoras con programacin estadstica. Una de estas frmulas para calcular la desviacin tpica a partir de las puntuaciones directas y de la media, es la que nos interesa para poder demostrar la frmula que nos permite combinar desviaciones tpicas de varios grupos; es la frmula [6] que podemos encontrar en muchos textos. A partir de esta frmula [6] llegamos con facilidad a la frmula [3] para combinar desviaciones tpicas o varianzas: = X2 - M2 N [6] la varianza ser =
2

X2 N

-M

y X = N( + M ) [7]

En [7] podemos ver ya el parecido con la frmula [3]. Si de dos muestras conocemos los valores de N, M y , podemos utilizar la frmula [6] para calcular la desviacin tpica de las dos muestras combinadas en una nica muestra. En esta frmula [6] tenemos ahora que N = N1 + N2; la media ser la media total de las dos (o ms) muestras y X2 ser la expresin [7] calculada en las dos (o ms) muestras y sumadas. Es decir, substituyendo [7] en [6] llegamos a la frmula [3]. Podemos preguntarnos ahora de dnde sale la frmula [6], que es la que hemos utilizado para demostrar la frmula [3] que nos permite calcular la desviacin tpica de dos (o ms) muestras combinadas en una sola.

M2+ 2 se calcula con mucha facilidad con una calculadora con programacin estadstica: basta introducir todas las medias y todas las desviaciones y obtener el resultado en la funcin x2 Anlisis de varianza: anexos

9 En la frmula de la desviacin tpica, la habitual, tenemos en el numerador un binomio elevado al cuadrado [(X-M)2]. No hay ms que aplicar el procedimiento usual: (a - b)2 = a2 2ab + b2, y as llegamos a [6]: Utilizando la varianza para simplificar, tenemos que: 2 = (X - M)2 N = (X2 - 2MX + M2 ) N X =M N = y X2 N - 2M
2 X M + N N

[8]

Como en [8] tenemos que

M2 N N - M2

NM 2 N

= M2

tendremos que 2 =

X2 N

- 2M2 + M2

2 =

X2

y as llegamos a [6].

Anlisis de varianza: anexos

10
ANEXO IV: Contrastes posteriores: la distribucin q del rango estudentizado

En los contrastes posteriores de Tukey utilizamos la distribucin de q o rango estudentizado (a veces se utiliza el smbolo qk; k suele simbolizar el nmero de medias o de muestras). Las tablas de q tambin se utilizan en otros contrastes posteriores (como en los de Duncan y Newman-Keuls)5. Es fcil entender la frmula y distribucin de q porque se trata de algo anlogo a la frmula y distribucin de t o z cuando contrastamos dos medias. Comparemos en primer lugar las frmulas de t (para dos muestras de idntico nmero de sujetos = n) y de q para varias muestras tambin de idntico tamao (n): Mi Mk M1 M 2 t= q= 2 2 CMdentro 1 + 2 n n-1
Los numeradores son idnticos; se trata de la diferencia entre dos medias. Los denominadores no son idnticos, pero casi. El que en la t de Student tengamos n-1 en el denominador del denominador quiere decir que las dos varianzas se han calculado dividiendo por n y no por n-1; si las hubiramos calculado dividiendo por n-1 tendramos n en el denominador; ah no hay diferencia. Los cuadrados medios dentro de los grupos que vemos en la frmula de q no son otra cosa que la combinacin de las varianzas de todos los grupos, mientras que en la t de Student slo tenemos dos varianzas porque solamente se trata de dos grupos. Por lo tanto el estadstico q es anlogo a la t de Student o a una puntuacin tpica z: es en este caso un valor asociado a la probabilidad de que se d una diferencia entre dos medias en el caso de que ambas procedan de la misma poblacin. De la misma manera que tenemos una distribucin de t, tenemos una distribucin de q. Tanto t como q expresan una diferencia entre dos medias en desviaciones tpicas o (con ms propiedad errores tpicos, pues es eso lo que tenemos en los denominadores). En ambos casos esta reduccin de una diferencia a una puntuacin tpica (eso viene a ser lo que realmente hacemos) nos permite conocer las probabilidades de que esa diferencia sea casual o, lo que es lo mismo, debida a fluctuaciones normales. En la distribucin de q se tiene en cuenta el que en la medida en que aumenta el nmero de medias (no se trata solamente de dos medias), aumenta tambin la probabilidad de error al rechazar la Hiptesis Nula de no diferencia. La diferencia entre las frmulas de t y q est en que en el denominador de t tenemos el error tpico de la diferencia entre dos medias y en el caso de q lo que tenemos en el denominador es el error tpico del conjunto de medias que tenemos en nuestro planteamiento; se basa en la variabilidad o diferencias normales y esperadas en un conjunto de medias. El trmino rango estudentizado que suele aplicarse a q puede resultar poco claro. Rango viene a ser aqu un trmino anlogo de diferencia (entre dos medias) y estudentizado (por analoga con la t de Student, quizs ms claro sera decir tipificado) quiere decir que dividimos la diferencia entre dos medias por una desviacin tpica (o error tpico que es como denominamos a las desviaciones tpicas de las distribuciones muestrales). El trmino rango tiene su sentido porque expresa orden: ordenamos las medias de mayor a menor y lo que

La distribucin de q se la debemos a William Sealey Gossett (Kirk, 1995), lo mismo que la de la t de Student. Anlisis de varianza: anexos

11 verificamos es la probabilidad de que la media ms alta y la ms baja difieran significativamente (procedan de la misma poblacin). Si las medias extremas proceden de la misma poblacin, tambin consideramos que las medias intermedias no difieren significativamente entre s. Si las medias mayor y menor difieren significativamente, podemos seguir comparando entre s el resto de las medias. Es til caer en la cuenta de esta relacin entre t y q para captar que lo que hacemos es semejante a lo que hacemos cuando comparamos dos medias mediante la t de Student. Si observamos las tablas de q y nos fijamos en los valores correspondientes a dos medias nada ms (en cuyo caso podramos utilizar la t de Student) y para muestras grandes (los grados de libertad mximos que vienen en las tablas) tenemos que:
niveles de confianza = .05 valor de q para k =2 y gl = 2.77 valor de t =

q 2
Estos son los valores de t que encontramos en las tablas de la distribucin normal para muestras grandes.

2.77 = 1.96 2 3.64 = 2.57 2

= .01

3.64

Anlisis de varianza: anexos

12
ANEXO V: Contrastes posteriores en diseos factoriales cuando la interaccin es significativa

Tratando del anlisis de varianza con dos criterios de clasificacin (diseos factoriales) vimos cmo hacer los contrastes posteriores; se trata de una aplicacin del contraste de Tukey. Cuando comparamos medias del mismo factor (medias de filas entre s o de columnas entre s), el valor de k para consultar las tablas de q es el nmero de medias (o niveles) que hay en el factor. Cuando la interaccin es significativa nos puede interesar contrastar las medias de los distintos niveles de un mismo factor en un nivel del otro. En la tabla 1 si la interaccin es significativa nos puede interesar comparar, por ejemplo las medias de A1B1 y A3B1 (dos medias de A en uno de los niveles de B).
A1 A1B1 A1B2 Factor A A2 A2B1 A2B2 A3 A3B1 A3B2 medias de B

Factor B

B1 B2 medias de A

B1 B2

A1

A2 Tabla 1

A3

1. Valores de k para consultar las tablas En estos casos los valores de k para consultar las tablas no son el nmero de medias, sino que dependen del nmero de comparaciones de inters, que a su vez dependen del nmero de niveles que hay en los factores6 (tabla 2). tamao de la tabla Valor de k' para consultar las tablas de q 2x2......................... 3 2x3......................... 5 2x4......................... 6 2x5......................... 8 3x3......................... 7 3x4......................... 8 3x5......................... 10 4x4......................... 10 4x5......................... 12 5x5......................... 15 Tabla 2 Los valores de k que tenemos que consultar son los puestos en la tabla 2 que hemos preparado segn la justificacin puesta ms adelante (y que es la misma tabla puesta al tratar de los contrastes posteriores en los diseos factoriales). En esta tabla 2 tenemos el valor de k

Por esta razn en la tabla 1 utilizamos el smbolo k en vez de k. Aunque como indica Toothaker (1993), en vez de tener en cuenta el nmero de comparaciones posibles, podemos contabilizar solamente (para buscar k en las tablas de q) el nmero de comparaciones que nos interesan o que tienen sentido en nuestro planteamiento. Como criterio conservador podemos tener en cuenta todas las comparaciones posibles. Anlisis de varianza: anexos

13 en las tablas de Tukey segn el tamao de nuestra tabla nxn, desde tablas 2x2 hasta tablas 5x5. 2. Justificacin de los nuevos valores de k Lo que pretendemos ahora es justificar esta tabla y explicar cmo est hecha, de manera que podamos ampliarla apara planteamientos con ms 5 niveles en uno o en los dos factores. Para explicar de dnde viene la tabla 2, seguimos dos pasos metodolgicos:7 1 Calculamos el nmero de comparaciones posibles de inters (valor de C, frmula [2], puesta ms adelante) 2 A partir de este nmero podemos calcular los valores de k (anlogo al nmero de medias en los diseos unifactoriales) para consultar las tablas de q con grados de libertad = N - ab (nmero total de sujetos menos nmero de subgrupos). 1 Calculamos el nmero de comparaciones posibles entre medias del mismo nivel y factor Una cosa es todas las comparaciones posibles, y otra todas las comparaciones posibles de inters. En general el nmero total de comparaciones posibles tomando las medias de dos en dos ya sabemos que es:
nmero de comparaciones posibles =

k(k 1) 2

[1] donde k es el nmero de grupos.

Aqu no nos interesan todas las comparaciones posibles sino solamente todas las posibles entre los niveles de cada factor. Antes de presentar la frmula correspondiente [2] vamos a ver, paso a paso, cuntas comparaciones podemos hacer en el planteamiento inicial, donde tenemos dos factores, A dividido en tres niveles, y B dividido en dos niveles (tabla 2 x 3). De esta manera entendemos mejor la frmula. Comparaciones en los tres niveles del factor A Nmero de comparaciones en A1 (dos subgrupos) = 2(2 1) =1 2

En cada columna cabe una comparacin (slo hay dos medias) y como tenemos tres columnas (los tres niveles de A) el nmero de comparaciones posibles en el factor A es 1 x 3 =3 Comparaciones en los dos niveles del factor B Nmero de comparaciones en B1 (tres subgrupos) = 3(3 1) =3 2

En cada fila caben 3 comparaciones, y como tenemos dos filas (B1 y B2), el nmero de comparaciones posibles en el factor B son 3 x 2 = 6 El nmero total de comparaciones posibles es igual a 3 + 6 = 9 (siempre dentro de la misma fila o columna). Por lo tanto la frmula general para calcular el nmero de comparaciones posibles entre medias pertenecientes al mismo nivel de un mismo factor cuando tenemos dos factores es:
7 El procedimiento es de Cicchetti (1972) aunque la tabla III (reproducida parcialmente) est tomada de Linton, Gallo y Logan (1975, que a su vez la adaptan de Cicchetti). La justificacin del procedimiento puede verse tambin en Cicchetti (1972) y en Toothaker (1991, 1993).

Anlisis de varianza: anexos

14

b(b - 1) a(a - 1) x a + x b C = 2 2

[2]

C = comparaciones posibles entre medias del mismo nivel a = nmero de niveles en el factor A b = nmero de niveles en el factor B

Es sencillo confeccionar una tabla con el nmero de comparaciones posibles cuando tenemos dos factores divididos en varios niveles. En la tabla 3 figuran las comparaciones posibles (contando solamente las que se pueden hacer dentro de cada nivel de cada factor) cuando tenemos divididos los factores entre 2 y 5 niveles: Tablas de dos Nmero de contrastes posibles factores en el mismo nivel (C) 2 x 2 ........................ 4 2 x 3 ........................ 9 2 x 4 ........................ 16 2 x 5 ........................ 25 3 x 3 ........................ 18 3 x 4 ........................ 30 3 x 5 ........................ 45 4 x 4 ........................ 48 4 x 5 ........................ 70 5 x 5 ........................ 100 Tabla 3 El nmero de contrastes posibles es un paso previo para poder consultar las tablas de q. Para consultar estas tablas necesitamos dos valores, el de k (nmero de medias o su equivalente como en este caso) y los grados de libertad. 2 Valor de k Sabemos ya que el nmero de comparaciones posibles (C), tomndolos de dos en dos, de k elementos es igual a: C= k(k 1) 2

En nuestro caso partimos ya del valor de C, calculado previamente (tabla 2). En nuestro ejemplo, una tabla de 2 x 3, C = 9, por lo que 9 = [k (k -1)/2]. Lo que tenemos que hacer es despejar el valor de k: Si 9 = k(k 1) 2 tenemos que k2 - k - (9 x 2) = 0.

Se trata de una ecuacin de segundo grado, cuya expresin general es: -b b2 - 4ac ax + bx + c = 0 y la doble solucin para x es x = 2a
2

En nuestro caso particular tenemos que siempre a = +1, b = -1 y c = - (2 x C) (multiplicamos por dos el nmero de comparaciones posibles ya calculado y con signo menos), por lo que nuestra solucin para x (tendremos siempre dos soluciones o valores de x que cumplen la ecuacin) es:
Anlisis de varianza: anexos

15 x= 1 1 + (4x2C) 2 [3]

En nuestro ejemplo C = 9, por lo que las dos soluciones de x son 4.77 y -3.77; redondeando estos nmeros y en valores absolutos tenemos 5 y 4. Con estos valores, 5 y 4, aplicamos la frmula de C, y nos quedaremos, para utilizarlo como k para consultar las tablas, con el valor de x que nos d un resultado ms prximo al valor de C ya calculado (tabla 3): 5(5 1) = 10 2 4(4 1) =6 2

C=

C=

El valor de x (5 4) que al aplicar la frmula de C nos d un valor ms prximo a nuestro C (= 9) es 5 (10 se aproxima a 9 ms que 6), luego escogemos 5 como valor de k para consultar las tablas. Con este procedimiento podemos ampliar las tablas si en algn factor tenemos ms de seis niveles. Supongamos que tenemos un cuadro de 6 x 6, dos factores cada uno dividido en 6 niveles. El nmero posible de comparaciones (siempre dentro de cada factor) sera igual a C = 180 (segn vimos antes en [2]), y obtendramos estos valores de x: 19.47 y 18.47 (en nmeros absolutos) y redondeando 19 y 18, con los que tendramos estos valores de C: 19(19 1) = 171 2 18(18 1) = 153 2

C=

C=

El valor ms prximo a nuestro C (= 180) nos lo da x = 19, luego tenemos que k = 19 al consultar las tablas de q. El proceso puede parecer complicado, pero no lo es si nos fijamos en los tres sencillos pasos de este resumen: 1 Calculamos el nmero de comparaciones posibles entre medias pertenecientes al mismo factor; es el valor de C de la frmula [2] 2 Calculamos los dos valores de x de la ecuacin anterior; frmula [3] 3 Utilizamos los dos valores de x en la frmula general [1] y nos quedamos con el valor de x que nos d un nmero ms prximo a C: ste va a ser el valor de k que utilizaremos al consultar las tablas. La tabla 4 est confeccionada siguiendo los pasos indicados.

Anlisis de varianza: anexos

16 Nmero de comparaciones posibles no confundidas (C) Valor de k' para consultar las tablas de q 3 4 5 6 7 8 9 10 11 12 13 14 15

3 - 4..................................... 5 - 8.................................... 9 - 12.................................... 13 - 17.................................... 18 - 24.................................... 25 - 32.................................... 33 - 40.................................... 41 - 50.................................... 51 - 60.................................... 61 - 72.................................... 73 - 84.................................... 85 - 98.................................... 99 - 112.................................... Tabla 4

En la prctica lo ms cmodo es disponer de una tabla que combine las tablas 3 y 4, para poder consultar el valor de k en las tablas de q a partir del nmero de niveles que tenemos en nuestro planteamiento; esto es lo que hemos hecho en la tabla 2 puesta al comienzo de este anexo, y que tambin figura en el lugar correspondiente al tratar de los diseos factoriales.

Anlisis de varianza: anexos

17
ANEXO VI: El nmero de sujetos en el anlisis de varianza

En los estudios de carcter emprico o experimental, en sentido amplio, las normas que suelen darse para determinar el nmero apropiado de sujetos depende de la finalidad del estudio. a) Posiblemente lo ms frecuente es encontrar normas y frmulas para determinar el tamao de la muestra cuando se quieren extrapolar los resultados a la poblacin, como es normal en los estudios de carcter ms sociolgico (encuestas, sondeos pre-electorales, etc.). b) Normas o recomendaciones distintas suelen darse con otras finalidades especficas, como el nmero de sujetos necesario cuando se trata de construir un test o escala, o el nmero de sujetos necesario o recomendable cuando se va a hacer un anlisis correlacional, o ms concretamente, un anlisis factorial. c) Aqu nos interesa cmo determinar el nmero de sujetos en los estudios experimentales, los ms relacionados con el anlisis de varianza. Incluiremos tambin lo relativo al tamao de las muestras cuando slo se requiere la t de Student para comparar dos medias, por cercana con el anlisis de varianza que tambin se podra utilizar en este caso, y completamos as las orientaciones sobre el nmero de sujetos cuando se utiliza un diseo experimental o cuasi-experimental en un sentido ms restringido.
1. Variables que intervienen en la determinacin del tamao de la muestra

Aunque en la prctica podemos limitarnos a consultar unas tablas, es muy conveniente conocer con qu criterios estn hechas estas tablas. Se trata de las variables de las que depende el tamao de la muestra. 1. El nivel de confianza (que solemos expresar as: = .05, = .01). Si escogemos un nivel de confianza de .05 (como es prctica comn) queremos decir que aceptamos un 5% de probabilidades de error al rechazar la Hiptesis Nula (de no diferencia). Se trata de minimizar el denominado error Tipo I (aceptamos pocas probabilidades de equivocarnos cuando afirmamos una diferencia). 2. La potencia de la prueba. Por potencia entendemos la probabilidad de no cometer el error denominado Tipo II: no rechazar la Hiptesis Nula cuando podramos haberla rechazado. La probabilidad de cometer este tipo de error se simboliza como , y la potencia es por lo tanto 1- . Podemos definir la potencia como la probabilidad de rechazar una Hiptesis Nula que es falsa. De la misma manera que un nivel de confianza de = .05 es habitualmente aceptado como razonable, por lo que respecta a la potencia (1-) se estima que es razonable establecer una potencia de .80, es decir tener un 80% de probabilidades de detectar una diferencia (o relacin) de una determinada magnitud8. Si deseamos una potencia mayor (.90 o incluso 1) el tamao requerido de la muestra puede ser ya excesivamente grande. El error Tipo I (decir s cuando habra que decir que no hay diferencia, relacin, etc.) es ms serio que el error Tipo II (decir no cuando podramos haber dicho que s), de ah la prctica generalizada de utilizar unos niveles de confianza muy estrictos, como son .05 .01:

8 La recomendacin de una potencia de .80 la propone y justifica Cohen (1988:56; Jacob Cohen es la fuente principal que suele seguirse en este tema). El peligro de cometer el error Tipo II queda reducido a .20 (20% de probabilidades) y est en equilibrio con = .05: suponemos que el error Tipo I es cuatro veces ms serio que el error Tipo II (.20 es cuatro veces .05). Esta recomendacin no es tan seguida como la de establecer un nivel de confianza de .05, porque con frecuencia no se tiene en cuenta el error Tipo II, que por otra parte ya se controla bien cuando el nmero de sujetos es grande.

Anlisis de varianza: anexos

18 aceptamos muy pocas probabilidades de equivocarnos cuando afirmamos una diferencia. Si establecemos un nivel de significacin muy estricto (un valor de muy bajo) es muy improbable que cometamos el error Tipo I: si rechazamos el azar (o la variabilidad normal debida
al error muestral) como explicacin de una diferencia es muy poco probable que nos equivoquemos.

Lo que sucede es que con un valor muy bajo de podemos caer en el error Tipo II: puede ser que la Hiptesis Nula sea falsa, pero como somos muy estrictos no llegamos a rechazarla. Con un nivel de significacin de = .001 las probabilidades de no rechazar una Hiptesis Nula que sea realmente falsa pueden ser muy pocas. En la prctica hay que sopesar ambos tipos de error. El minimizar el error Tipo I no significa que no tengamos que prestar atencin al error Tipo II. Aunque las decisiones sobre el tamao de la muestra se toman frecuentemente en funcin de los datos disponibles, o imitando lo que han hecho otros, no es racional, (como seala Cohen, 1988:55), el determinar el tamao de la muestra sin tener en cuenta el error Tipo II. 3. La magnitud de la diferencia (o de la relacin, etc.) que deseamos detectar y que solemos denominar tamao del efecto. El trmino efecto no implica causalidad, sino simplemente el grado en que un fenmeno (diferencia, relacin, etc.) est presente. La implicacin de la magnitud en el tamao de la muestra es obvia: cuando las diferencias son grandes, nos bastan pocos sujetos para detectarlas, pero cuando son muy pequeas necesitamos muchos sujetos; si solamente nos interesan diferencias grandes, necesitaremos muchos menos sujetos. Podemos intuirlo con un ejemplo muy claro. Si estamos interesados en comprobar si difieren en altura los escandinavos y los twa (pigmeos de Ruanda y Burundi) no necesitaremos muchos sujetos en las muestras; nos bastarn muy pocos sujetos de cada grupo para caer en la cuenta de que se trata de poblaciones muy distintas en altura. En cambio si se trata de encontrar diferencias pequeas entre las medias de poblaciones que no difieren mucho entre s, no nos bastar con comparar muestras de tamao pequeo. Es claro por otra parte que con muestras grandes es fcil encontrar diferencias estadsticamente significativas pero pequeas y con frecuencia irrelevantes. Al planificar cualquier tipo de experimento o anlisis debemos tener en cuenta tambin en qu tipo de magnitud estamos interesados, porque si solamente son de inters magnitudes ms bien grandes podemos ahorrar costes y trabajo utilizando muestras relativamente pequeas. Si queremos garantizar a toda costa que nos salgan unas diferencias (o relaciones) estadsticamente significativas, aunque sean muy pequeas (y con frecuencia de inters muy dudoso o cuestionable), necesitaremos muestras muy grandes. 4. La varianza de la poblacin: ya sabemos que si los sujetos son muy iguales dentro de cada grupo, necesitaremos muestras menores para detectar diferencias (si todos son de idntica altura, o todos piensan lo mismo, etc., nos bastara un solo sujeto de cada grupo para ver si hay alguna diferencia entre los grupos). Estas cuatro variables se combinan en las frmulas apropiadas para determinar el tamao ptimo de las muestras. Aunque en principio son preferibles las muestras grandes, por razones de economa (costos, trabajo) podemos calibrar el tamao de la muestra de acuerdo con nuestras especificaciones en estas cuatro variables. No necesitamos aplicar las frmulas para conocer el tamao de la muestra porque ya disponemos de tablas para las situaciones ms frecuentes; las tablas que ponemos aqu estn muy reducidas pero pueden ser suficientes como orientacin sobre el tamao de la muestra que debemos buscar (tablas ms completas pueden encontrase en los autores que citamos y en otros). S es de inters conocer qu variables inciden en el nmero de sujetos que necesitamos.

Anlisis de varianza: anexos

19 No sobra recordar aqu que el tamao de la muestra es importante, pero no es la nica caracterstica de la muestra que nos interesa. En diseos experimentales en sentido propio necesitaremos muestras aleatorias, y en cualquier caso siempre debemos preguntarnos a qu poblacin pueden estar representando las muestras que utilizamos.
2. Tamao de cada muestra cuando comparamos dos grupos (t de Student)

En la tabla 4 tenemos el tamao de cada muestra necesario para comparar dos muestras9. Tablas semejantes, ms o menos extensas o adaptadas, pueden encontrarse en diversos autores; no siempre coinciden exactamente las cifras del nmero de sujetos debido al distinto redondeo de decimales al aplicar las frmulas. Suponemos: varianzas iguales, muestras de idntico tamao, hiptesis bilaterales potencia (1-) de .80 d =.20 392 586 d = .30 174 260 d =.50 63 93 Tabla 5 Estamos suponiendo muestras de idntico tamao, pero si tenemos ya una muestra con un determinado nmero de sujetos, podemos calcular el tamao necesario en la otra muestra. La frmula [Cohen, 1988:59] es sta: n nuevo =
(n disponible )(n tablas ) 2n disponible n tablas

nivel de confianza

d = .70 32 48

d =.80 25 36

d =.1.0 16 23

d = 1.20 12 18

.05 .01

Vamos a suponer, por ejemplo, que tenemos ya un grupo experimental de 40 sujetos que ha tenido una determinada experiencia y deseamos compararlo con otro (grupo de control, o al menos como trmino de comparacin); estamos interesados en detectar al menos una diferencia moderada (d = .50) a un nivel de confianza de = .05 Cuntos sujetos deberemos incluir en el nuevo grupo de control? En las tablas vemos que necesitaramos 63 sujetos en cada grupo; el tamao del nuevo grupo deber ser:
n nuevo = (40)(63) = 148 (2x40) 63

3. Tamao de la muestra cuando tenemos ms de dos muestras (anlisis de varianza unifactorial)

En la tabla 6 tenemos el nmero de sujetos necesario en cada muestra cuando tenemos ms de dos muestras (entre tres y seis muestras). En esta tabla hemos puesto como orientacin los valores correspondientes a = .05 y 1 (potencia) de .70 y .80; suponemos tambin un nmero idntico de sujetos en cada muestra. Podemos tomar como referencia de magnitud o el valor de 2 o el valor de f, el tamao del efecto propuesto por Cohen (1988) cuando tenemos ms de dos grupos10:

10

Valores seleccionados de la tabla 2.4.1 de Cohen (1988). Ponemos los dos valores porque podemos encontrar los dos como referencia en otras tablas. Anlisis de varianza: anexos

20 a) El coeficiente 2 nos cuantifica el grado de asociacin entre la variable independiente (el pertenecer a uno u otro grupo) y la variable dependiente. b) El tamao del efecto f propuesto por Cohen (1988) cuando tenemos ms de dos grupos11. Cuando tenemos solamente dos grupos, ya sabemos que el tamao del efecto es igual a la diferencia entre las dos medias dividida por la desviacin tpica combinada. Cuando hay ms dos grupos el denominador es el mismo, pero lo que tenemos en el numerador es la dispersin o desviaciones de todas las medias con respecto a la media comn (un valor anlogo a la desviacin tpica de las medias). En la prctica el clculo ms sencillo de f es a partir de 2 (que es habitual calcular como complemento al anlisis de varianza); ambos valores estn relacionados de esta manera (frmula 2.27):
f= 2 1 2

Realmente si hemos calculado 2 ya no necesitamos conocer el valor de f, pues no va a aportar una informacin que nos lleve a una interpretacin o a una valoracin distinta. Por lo que respecta a tener una orientacin sobre el tamao de la muestra, nos basta consultar las tablas teniendo en cuenta, al menos de manera aproximada, el tipo de magnitud en la que estamos interesados. Las valoraciones (magnitud pequea, moderada y grande) son de Cohen y constituyen una referencia comnmente aceptada como gua orientadora12. Suponemos que las k muestras son de idntico tamao; si son de tamao desigual podemos utilizar el tamao medio de las muestras (N/k)13.
pequea 2 = .01 f = .10 258 322 221 274 195 240 175 215 magnitud moderada 2 = .06 f = .25 42 52 36 45 32 39 29 35 grande 2 = .14 f = .40 17 21 15 18 13 16 12 14

nmero de grupos 3 4 5 6

potencia .70 .80 .70 .80 .70 .80 .70 .80

Tabla 6

11 Explicado por Cohen (1988:274ss, 284). Se trata de un tamao del efecto global, teniendo en cuenta todas las diferencias de las medias con respecto a la media total (no se trata de la diferencia entre dos medias, como sucede en el tamao del efecto convencional). 12 Los valores de referencia seleccionados estn tomados de Cohen (1988, tablas 8.4.4 y 8.4.5); tambin pueden verse en Kirk (1995:186 y tabla E.13). Las tablas de Cohen (vlidas hasta 25 muestras) son ms fciles de consultar, y utiliza f como criterio de magnitud; otros autores como Kirk (1995) utilizan ambos valores f y 2. Cohen utiliza el smbolo 2 en vez de 2 (y comenta la falta de unanimidad en los smbolos en p. 282). 13 Las implicaciones del tamao desigual pueden vese comentadas en Cohen (1988:360ss). Si las muestras mayores tienen tambin las mayores medias, el tamao del efecto ser mayor que si las muestras fueran de idntico tamao y tambin ser mayor la potencia (y a la inversa tambin es verdad).

Anlisis de varianza: anexos

21 Los valores tabulados son el nmero de sujetos en cada muestra. En el caso de tres muestras, si estamos interesados en verificar solamente si hay diferencias valoradas como grandes y con una probabilidad de encontrarlas (si las hay) del 80%, necesitaremos una muestra total de 21x3 = 63 sujetos; si en cambio consideramos un buen resultado el encontrar diferencias pequeas (pero significativas), necesitaremos una muestra total de 322x3 = 966 sujetos. Comparando los valores correspondientes a una potencia de .70 y 80 podemos apreciar cmo al disminuir el nmero de sujetos disminuyen las probabilidades de rechazar la Hiptesis Nula. En tablas ms extensas podramos ver que a) si tenemos tres muestras, b) estamos interesados en descubrir pequeas diferencias (pero significativas) porque en nuestro caso las consideramos relevantes y c) slo tenemos en torno a 20 sujetos en cada muestra, las probabilidades de tener que aceptar la Hiptesis Nula de no diferencia siendo falsa son del 90%.
4. Tamao de la muestra en los diseos factoriales

En la tabla 7 tenemos el nmero necesario de sujetos en cada celda cuando tenemos dos criterios de clasificacin (o factores) divididos en entre dos y cuatro niveles. Suponemos que en cada clasificacin hay un idntico nmero de sujetos, como es usual en estos planteamientos. Suponemos tambin un nivel de confianza de = .05 y una potencia (1-) de .70 o de .80 En estas tablas los niveles (o subclasificaciones) de cada factor pueden ser 2, 3 4. Para valorar la magnitud utilizamos los mismos criterios de la tabla 514 El nmero total de sujetos ser igual al nmero de sujetos que aparece en la tabla multiplicado por el nmero de subclasificaciones o celdas. En una tabla 2x3 tenemos 6 celdas; si estamos interesados en detectar diferencias moderadas el nmero total de sujetos ser 6x18 = 108. El nmero de sujetos especificado en la tabla 7 es suficiente para detectar si uno de los dos factores (o los dos) es estadsticamente significativo (si hay diferencias entre los niveles de cada factor, o, lo que es lo mismo, entre las medias de cada columna o de cada fila), pero en el caso de la interaccin con estos mismos nmeros la potencia es menor porque intervienen menos sujetos (no los totales de cada fila o columna sino los que hay en cada clasificacin).

14 Los valores del tamao de la muestra (en cada clasificacin), puestos como referencia orientadora, estn seleccionados de las extensas tablas de Kirk (1995:401 y tabla E.13). La disposicin de la tabla es una adaptacin muy simplificada.

Anlisis de varianza: anexos

22
magnitud moderada 2 = .06 f = .25 25

Tamao de la tabla

potencia

2x2 2x3 2x4 3x3 3x4 4x4

.70 .80 .70 .80 .70 .80 .70 .80 .70 .80 .70 .80

pequea 2 = .01 f = .10 152

grande 2 = .14 f = .40 11

193 127 158 109 134 85 106 73 90 55 67

32 21 26 18 22 14 18 12 15 9 12

13 9 11 8 9 6 7 5 6 4 5

Tabla 7

Anlisis de varianza: anexos

23
Anexo VII: Mtodos no paramtricos de anlisis de varianza

Disponemos de una serie de alternativas no paramtricas al anlisis de varianza. No las exponemos aqu porque se trata de procedimientos sencillos que pueden encontrarse en muchos textos15; en cambio s interesa tener una visin de conjunto de estas otras posibilidades metodolgicas, al menos de las ms importantes. 1. Observaciones sobre los mtodos no paramtricos a) En realidad en estas alternativas no se trata de anlisis de varianza propiamente dicho, porque no descomponemos ninguna varianza total en varianzas parciales; con estos anlisis sin embargo llegamos a conclusiones del mismo orden, sobre si entre varias muestras hay diferencias estadsticamente significativas o no las hay y pueden considerarse extradas de la misma poblacin. b) El trmino no paramtrico viene del hecho de que en estos mtodos no hacemos ninguna suposicin sobre las condiciones que deben darse en las poblaciones de donde proceden las muestras (un parmetro es una medida o caracterstica de una poblacin). Estas condiciones o supuestos ya los conocemos: 1 Unidades de intervalo en las medidas, 2 Distribucin normal en las poblaciones, 3 Homogeneidad de varianzas. c) Aunque los mtodos paramtricos, y el anlisis de varianza en particular, son en trminos generales mtodos seguros aun cuando no se cumplan los supuestos previos, las alternativas no paramtricas pueden ser preferibles cuando estos supuestos se violan de manera clara, sobre todo con muestras pequeas (y con mayor razn si son de tamao desigual), con distribuciones claramente no normales y sobre todo con varianzas muy desiguales. d) No hay que confundir mtodos no paramtricos con mtodos ordinales, aunque muchos de los mtodos no paramtricos son ordinales; es decir el dato que se utiliza de cada sujeto es el rango o nmero de orden (en otros se utilizan frecuencias acumuladas; el ji cuadrado, y otros mtodos semejantes para tratar variables categricas, son tambin no paramtricos). e) Los mtodos no paramtricos no son una mera alternativa a los mtodos paramtricos; son buenos procedimientos de anlisis en s mismos, con la ventaja aadida de su simplicidad. 2. Mtodos no paramtricos ms importantes anlogos al anlisis de varianza Los ms conocidos y los que con ms frecuencia se encuentran en los textos son las alternativas a la t de Student, para dos muestras independientes (el ms conocido es la U de Mann-Whitney aunque hay otros mtodos, como la prueba de Kolmogorov-Smirnov que utiliza frecuencias acumuladas y la prueba de las rachas de Wald-Wolfowitz) o relacionadas (como la T de Wilcoxon y la prueba de los signos que es una aplicacin directa de la distribucin binomial). Por lo que respecta a lo mtodos no paramtricos que pueden considerarse alternativas al anlisis de varianza (para analizar ms de dos muestras independientes o relacionadas) los ms conocidos son los que figuran en la tabla 8.

En muchos textos de estadstica es normal encontrar algn captulo dedicado a estos mtodos no paramtricos en los que se explican al menos los ms importantes. De la abundante bibliografa dedicada a los mtodos no paramtricos es til mencionar a Siegel (1972; la primera edicin en ingls es de 1956 y sigue siendo una obra de referencia importante), Siegel, y Castellan, (1988), Gibbons (1993) y Kanji (1993). Anlisis de varianza: anexos

15

24

Tipos de hiptesis

Hiptesis habitual: si las muestras proceden de la misma poblacin Ms de dos muestras independientes. Ms de dos muestras relacionadas H de Kruskal-Wallis (se utilizan rangos) Prueba de Friedman (se utilizan rangos) Q de Cochran (con puntuaciones dicotmicas, 1 0) Tabla 8

Hiptesis sobre si se da una tendencia a crecer o decrecer Prueba de Jonckheere Prueba L de Page (extensin de la prueba de Friedman) Prueba de Mann (cuando n = 1)

Las pruebas no paramtricas para comprobar tendencias son menos populares; de hecho no se encuentran en la mayora de los textos.16 La H de Kruskal-Wallis, la alternativa al anlisis de varianza para varias muestras independientes ms utilizada, es insensible a la no normalidad de las distribuciones, pero no es tan claro que lo sea tambin a la falta de homogeneidad de varianzas.17 Un inconveniente de las dos pruebas ms populares como alternativa no paramtrica al anlisis de varianza, la H de Kruskal-Wallis y el test de Friedman, es que la mayora de los textos no suelen incluir contrastes posteriores o clculos complementarios (coeficientes de asociacin del tipo 2) que ayuden a la interpretacin de los resultados y por este motivo con frecuencia se estudian de manera incompleta18. En Internet se encuentra con facilidad cmo hacer los anlisis no paramtricos ms comunes (tambin el SPSS). La H de Kruskal-Wallis y la prueba de Friedman (adems de los equivalentes a la t de Student, U de Mann-Whiteny y T de Wilcoxon) se encuentran al menos en:
Lowry, Richard, VassarStats: Web Site for Statistical Computation,Vassar College, Poughkeepsie, NY, USA; http://faculty.vassar.edu/lowry/VassarStats.html (men ordinal data) Department of Obstetrics and Gynaecology, The Chinese University of Hong Kong http://department.obg.cuhk.edu.hk/index.asp?scr=1024 (men frequency tables)

Las pruebas de Page y Jonckheere para comprobar tendencias no estn descritas en el texto ms conocido de Siegel y tampoco es fcil encontrarlas en textos convencionales de estadstica. Las dos pueden verse al menos en Siegel y Castellan (1988) y en Hollander y Wolf (1973, un texto de nivel alto) y en Green y dOliveira (1984, un texto sencillo); la de Jonckheere est tratada con mayor extensin en Leach (1982); la de Mann (muestras relacionadas y n = 1) tambin se encuentra en Leach (1982). 17 Lix, Keselman y Keselman, (1996). 18 Sobre cmo llevar a cabo los contrastes posteriores en el anlisis de varianza no paramtrico (algo que no es fcil encontrar en la mayora de los textos) pueden consultarse Linton, Gallo y Logan (1975), Pett (1997), Black (1999). Anlisis de varianza: anexos

16

25
ANEXO VIII: Anlisis de Varianza en Internet

Son bastantes los programas que diversas instituciones ponen en Internet con acceso libre y que permiten llevar a cabo diversos tipos de anlisis de varianza. Muchos de estos programas permiten importar datos (de EXCEL, tabla de Word, etc.), otros resuelven el anlisis de varianza para muestras independientes a partir de los datos descriptivos bsicos (from summary data: media, desviacin tpica y nmero de sujetos). Algunos de estos programas estn indicados en el ltimo apartado de anlisis de varianza para muestras independientes. En el mismo lugar se indica dnde se pueden consultar diversas tablas (F, Tukey, Dunnet) y las probabilidades exactas asociadas a cualquier valor de F. Una direccin con numerosos enlaces de anlisis estadsticos en las que podemos encontrar con programas para llevar a cabo distintos tipos de anlisis de varianza pueden verse en Web Pages that Perform Statistical Calculations!, http://statpages.org/ Esta direccin se encuentra en John C. Pezzullo's Home Page (de Georgetown University, Washington, DC.) http://statpages.org/JCPhome.html (en Interactive Statistics Pages). Esta pgina presenta un ndice bien estructurado con enlaces a los diversos modelos de anlisis de varianza y otros anlisis estadsticos. Muchos de estos enlaces remiten a estas direcciones de inters general:
College of Saint Benedict/Saint Johns University [http://www.csbsju.edu/ ] http://www.physics.csbsju.edu/stats/ Department of Obstetrics and Gynaecology, The Chinese University of Hong Kong http://department.obg.cuhk.edu.hk/index.asp?scr=1024 GraphPad, San Diego, CA [http://graphpad.com/] Free Online Calculators for Scientists, http://graphpad.com/quickcalcs/index.cfm Institute of Phonetic Sciences, Amsterdam (en Demos, tests, experiments statistics) http://www.fon.hum.uva.nl/Welcome.html Lane, David M. HyperStat Online Statistics Textbook http://davidmlane.com/hyperstat/index.html Lowry, Richard, VassarStats: Web Site for Statistical Computation,Vassar College, Poughkeepsie, NY, USA; http://faculty.vassar.edu/lowry/VassarStats.html SISA (Simple Interactive Statistical Analysis, de Consultancy for Research and Statistics, Hilversum, The Netherlands) http://www.quantitativeskills.com/sisa/ Referencias bibliogrficas

BLACK, THOMAS R. (1999). Doing Quantitative Research in the Social Sciences. London: Sage. BLAND, J. MARTIN and ALTMAN, DOUGLAS G. (1995). Multiple significance tests: the Bonferroni method. British Medical Journal 1995;310:170 (21 January). http://www.bmj.com/cgi/content/full/310/6973/170 CICCHETTI, DOMINIC V. (1972). Extensions of multiple-range tests to interaction tables in the analysis of variance: A rapid approximate solution. Psychological Bulletin, 77, 405-408. COHEN, JACOB (1988). Statistical Power Analysis for the Behavioral Sciences. Second Edition. Hillsdale, N.J.: Lawrence Elrbraum.

Anlisis de varianza: anexos

26 DEPARTMENT OF OBSTRETRICS AND GYNAECOLOGY, THE CHINESE UNIVERSITY OF HONG KONG http://department.obg.cuhk.edu.hk/ResearchSupport/OWAV.asp GIBBONS, JEAN DICKINSON, (1993). Nonparametric Tests, an Introduction. Quantitative Applications in the Social Sciences. Newbury Park: N.J.: Sage GRAPHPAD. San Diego, CA [http://graphpad.com/] Free Online Calculators for Scientists http://graphpad.com/quickcalcs/posttest1.cfm GREENE, JUDITH y D'OLIVEIRA, MANUELA, (1984). Pruebas estadsticas para psicologa y ciencias sociales: una gua para el estudiante. Bogot, Colombia: edit. Norma HANCOCK, GREGORY R. and KLOCKARS, ALAN J., (1996). The Quest for : Developments in Multiple Comparison Procedures in the Quarter Century Since Games (1971). Review of Educational Research, 66, (3). 269 - 306. HOLLANDER, MYLES and WOLFE, DOUGLAS A., (1973). Nonparametric Statistical Methods. New York: Wiley and Sons. JACCARD, JAMES (1998). Interaction Effects in Factorial Analysis of Variance, Sage University Paper Series on Quantitative Applications in the Social Sciences. Thousand Oaks: Sage. KANJI, GOPAL, (1993). 100 Statistical Tests. London: Sage. KIRK, ROGER E., (1995). Experimental Design, Procedures for the Behavioral Sciences. Boston: Brooks/Cole. LANE, DAVID M. HyperStat Online Statistics Textbook http://davidmlane.com/hyperstat/index.html LEACH, CHRIS, (1982). Fundamentos de estadstica, enfoque no paramtrico para ciencias sociales. Mxico: Limusa. LINTON, MARIGOLD, GALLO JR., PHILLIP S. and LOGAN, CHERYL A., (1975). The Practical Statistician, Simplified Handbook of Statistics. Monterey: Brooks/Cole. LIX, LISA M., KESELMAN, JOANNE C. and KESELMAN, H.J., (1996). Consequences of Assumption Violations Revisited: A Quantitative Review of Alternatives to the One-Way Analysis of Variance F Test. Review of Educational Research, 66 (4) 579-619. LOWRY, RICHARD, VASSARSTATS: Web Site for Statistical Computation,Vassar College, Poughkeepsie, NY, USA; http://faculty.vassar.edu/lowry/VassarStats.html MCGUIGAN, F. J., (1994) Experimental Psychology, Methods of Research. Sixth edition. Englewood Cliffs, N.J.: Hall. PERNEGER, THOMAS V. (1998). What's wrong with Bonferroni adjustments. British Medical Journal 1998; 316:1236-1238 http://www.bmj.com/cgi/content/full/316/7139/1236 PETT, MARJORIE A. (1997). Nonparametric Statistics for Health Care Research. Statistics for Small Samples and Unusual Distributions. Thousand Oaks & London: Sage. PEZZULLO, JHON C. Web Pages that Perform Statistical Calculations. http://members.aol.com/johnp71/javastat.html; Analysis of Variance from Summary Data http://members.aol.com/johnp71/anova1sm.html SIEGEL, SIDNEY and CASTELLAN, JR., N. JOHN (1988). Nonparametric Statistics for the Behavioral Sciences. New York: McGraw-Hill SIEGEL, SIDNEY, (1972). Estadstica no paramtrica aplicada a las ciencias sociales. Mxico: Trillas. TOOTHAKER, LARRY E., (1991). Multiple Comparisons for Researchers: Sage University Paper Series on Quantitative Applications in the Social Sciences. Newbury Park: Sage. TOOTHAKER, LARRY E., (1993). Multiple Comparison Procedures, Sage University Paper Series on Quantitative Applications in the Social Sciences. Newbury Park: Sage.

Anlisis de varianza: anexos

S-ar putea să vă placă și