Sunteți pe pagina 1din 100

AGRO 6600

BIOMETRÍA AVANZADA

Notas de clase

2018

Raúl E. Macchiavelli, Ph.D.


Linda Wessel Beaver, Ph.D.

Estas notas complementan el material del libro de texto del curso AGRO 6600, Facultad
de Ciencias Agrícolas, Recinto Universitario de Mayagüez, Universidad de Puerto Rico

1
Contenidos

1. Introducción y repaso de notación del análisis de varianza .................................................................. 1


2. Diseños completamente aleatorizados y en bloques completos aleatorizados ..................................... 3
3. Supuestos del análisis de la varianza ...................................................................................................... 5
4. Determinación del número de repeticiones de un experimento ............................................................ 9
5. Comparaciones múltiples ........................................................................................................................12
6. Contrastes.................................................................................................................................................22
7. Diseño de cuadrado latino .......................................................................................................................26
8. Experimentos factoriales con dos factores.............................................................................................30
9. Experimentos factoriales con tres o más factores .................................................................................39
10. Modelos de efectos aleatorios y mixtos ................................................................................................42
11. Diseños anidados ....................................................................................................................................50
12. Diseño de parcelas divididas .................................................................................................................55
13. Repaso de regresión lineal simple ........................................................................................................61
14. Regresión polinomial .............................................................................................................................65
15. Regresión lineal múltiple.......................................................................................................................69
16. Selección de variables en regresión múltiple .......................................................................................75
17. Análisis de covarianza ...........................................................................................................................89
18. Documentación y comunicación de resultados ....................................................................................96
Bibliografía...................................................................................................................................................98

2
1. Introducción y repaso de notación del análisis de varianza
Cuando planeamos un estudio científico podemos realizar un experimento o un estudio
observacional. En el experimento nosotros decidimos qué tratamiento recibe cada unidad,
mientras que en el estudio observacional el tratamiento ya viene asignado a la unidad. Esto
implica que en el experimento podemos hablar con mayor confianza de “causa-efecto”,
mientras que en el estudio observacional es más difícil estar seguros de que nuestro
tratamiento es la causa de lo que estamos observando.

Consideremos este ejemplo (estudiado en el curso anterior) en el que nos interesa comparar
el contenido de almidón en tallos de tomate bajo 3 regímenes diferentes de fertilización:

A 22 20 21 18 16 14 Y1  111 Y1  18.5


B 12 14 15 10 9 Y2  60 Y2  12.0
C 7 9 7 6 Y3  29 Y3  7.25
Y  200

La notación que usaremos será la siguiente: tenemos t tratamientos (en este caso t  3 ),
cada uno con ni repeticiones (en este caso n1  6, n2  5 y n3  4 ).

Yij denota la j  ésima observación del i  ésimo tratamiento .


ni
Yi   Yij , es la suma de todas las observaciones del tratamiento i.
j 1
t ni t
Y   Yij   Yi , es la suma de todas las observaciones.
i 1 j 1 i 1

Yi es la media de las observaciones del tratamiento i.


Y es la media de todas las observaciones (media general): Y  200 /15  13.33
n   ni =15 es la cantidad total de observaciones (nt si hay n observaciones en cada tratamiento).
i
Las sumas de cuadrados se calculan de la siguiente manera:
SCTotal=SCTot   Yij  Y    Yij2  
2 Y2
i, j i, j
n
Yi2 Y2
SCEntre=SCTratamientos=SCTrat   ni Yi  Y   
2

i i ni n
SCDentro=SCResidual=SCError=SCRes   Yij  Yi   SCTot-SCTrat
2

i, j
2
SCTot   Yij2 
Y 2
  3062  200  395.3333
i, j
n 15

1
Yi2 Y2 1112 602 292 2002
SCTrat         317.0833
i ni n 6 5 4 15
SCRes  SCTot-SCTrat=78.2500

Fuente de Suma de grados Cuadrado F Valor p


Variación Cuadrados de Medio
libertad
Tratamiento 317.0833 2 158.5417 24.313 0.00006
Residual (Error) 78.2500 12 6.5208
Total 395.3333 14

H 0 : 1   2  ...  t
H a : al menos una i es diferente

Estadístico de la prueba: F  24.313

Región de rechazo (α=.05): F  3.89 ó p<0.05

Conclusión: Rechazamos H 0 , al menos uno de los tratamientos es diferente.

2
2. Diseños completamente aleatorizados y en bloques completos
aleatorizados
El análisis de la varianza discutido anteriormente requiere independencia de todas
las observaciones. En un experimento, esto se logra realizando una aleatorización completa
de los tratamientos a las unidades experimentales (es decir, cada unidad experimental tiene
la misma probabilidad de recibir cualquiera de los tratamientos, independientemente del
tratamiento asignado a unidades vecinas). Este diseño se llama “completamente
aleatorizado” (DCA). La versión observacional análoga consiste en tomar muestras
aleatorias de cada uno de los grupos o poblaciones.

Ventajas del DCA:


 Simple para construir
 Simple para analizar, aun cuando el número de repeticiones no es constante.
 Sirve para cualquier número de tratamientos.

Desventajas del DCA:


 Requiere que todas las unidades experimentales sean homogéneas.
 Fuentes de variación no consideradas inflarán el error experimental.

Cuando las unidades no son homogéneas pero pueden agruparse en grupos de unidades
homogéneas existe otro diseño, que es la generalización del diseño pareado para comparar
dos grupos: el diseño en bloques completos aleatorizados (DBCA). Un “bloque” es un
conjunto de unidades experimentales homogéneas (es decir, parecidas entre sí). Este diseño
consiste en asignar los tratamientos aleatoriamente dentro de cada bloque de manera tal
que cada tratamiento que representado una vez en cada bloque. De esta manera
garantizamos que todos los tratamientos estarán representados en todos los bloques, y que
las comparaciones estarán libres de las diferencias entre bloques (el mismo efecto que
lográbamos con el diseño pareado). Para que este efecto del DBCA sea útil en reducir la
variabilidad necesitamos que haya diferencias entre los bloques y dentro de cada bloque
las unidades sean homogéneas.

Ventajas del DBCA:


 Útil para comparar tratamientos en presencia de una fuente externa de
variabilidad.
 Simple para construir y analizar (siempre que el número de repeticiones sea
constante).

Desventajas del DBCA:


 Práctico para pocos tratamientos, para que las unidades de un bloque sean
realmente homogéneas.
 Controla una sola fuente de variabilidad externa.
 El efecto del tratamiento debe ser el mismo en cada bloque.

3
La notación que usaremos será la misma que para el DCA: tenemos t tratamientos, cada
uno con n repeticiones (=bloques). En este caso Yij denota la observación del i  ésimo
tratamiento en el bloque j. Ahora tendremos una fuente adicional de variabi-lidad: los
bloques. Las sumas de cuadrados se calculan de la siguiente manera:

SCTotal=SCTot   Yij  Y    Yij2 


2 Y2
i, j i, j
nt
Yi2 Y2
SCTratamientos=SCTrat   n Yi  Y   
2

i i n nt
2
Y2
SCBloques=SCBl   t Y j  Y   
2 Y
j

j j t nt
SCResidual=SCError=SCRes   Yij  Yi   SCTot-SCTrat-SCBl
2

i, j

La siguiente es la tabla de ANOVA:

Fuente de Suma de grados de Cuadrado F


Variación Cuadrados libertad Medio
Tratamiento SCTrat t 1 CMTrat F=CMTrat/CME
Bloque SCBl n 1 CMBl F=CMBl/CME
Residual (Error) SCRes=SCE  n  1 t  1 CMRes=CME
Total SCTot nt  1

El modelo que describe los datos provenientes de este diseño es el siguiente:


Yij    i   j   ij
Los supuestos que necesitamos hacer son los mismos que para el DCA (los  ij son inde-
pendientes, tienen distribución normal y varianza constante) y además necesitamos asumir
que los efectos de los tratamientos son iguales en todos los bloques.

La hipótesis de interés es, como siempre, acerca de los efectos de tratamiento:


H 0 : 1   2  ...   t
H a : al menos una  i es diferente de 0.
Estadístico de la prueba: F  CMTrat
CME
Región de rechazo: F  F  g.l.: t  1, (n  1)(t  1) 

También podemos probar la hipótesis de que no existen diferencias entre bloques:


H 0 : 1   2  ...   n
H a : al menos una i es diferente de 0.
Estadístico de la prueba: F  CM Bl
CME
Región de rechazo: F  F  g.l.: n  1, (n  1)(t  1) 

4
3. Supuestos del análisis de la varianza
Para que las conclusiones obtenidas de un análisis de varianza sean válidas se deben
satisfacer ciertas condiciones (supuestos). En la práctica nunca estamos seguros que estas
condiciones se satisfacen en un problema dado, pero usando los datos observados podemos
verificar (aproximadamente) si los supuestos se cumplen o no.

Si los supuestos no se cumplen debemos modificar el modelo, el análisis y/o las


conclusiones.

Los modelos lineales para ANOVA que hemos estudiado pueden verse como casos
especiales del modelo:
Yij  ij   ij
donde ij representa la media de la observación ij-ésima (por ejemplo en un DCA media
general, ij    i ) y  ij el error experimental (o “efecto” de la ij-ésima unidad
experimental, o efecto “ambiental”).

Los supuestos para la validez del análisis son:

1. Los efectos de tratamiento y unidad experimental son aditivos.


2. Los errores experimentales son independientes (o, por lo menos, no
correlacionados).
3. Los errores experimentales se distribuyen normalmente.
4. Los errores experimentales tienen varianza constante (es decir, que no depende de
los tratamientos ni de otros factores).

La consecuencia del no cumplimiento de estos supuestos es que las conclusiones pueden


no ser válidas (los niveles de error pueden ser diferentes a los establecidos, los errores
estándar pueden subestimar o sobreestimar los verdaderos errores poblacionales, los
límites de confianza pueden ser incorrectos, etc.)

El supuesto de independencia normalmente se garantiza realizando una aleatorización


correcta y mediante una buena técnica experimental (uso de borduras, evitar contagio entre
unidades, etc.)

El supuesto de normalidad se puede verificar graficando los “residuales” o “residuos”:


eij  Yij  Yˆij  Yij  ˆij
Estos residuales representan aproximaciones a los verdaderos errores experimentales  ij ,
que son, por supuesto, desconocidos. Un histograma, un diagrama de tallo y hoja o un
gráfico de caja (“boxplot”) pueden revelar problemas con la distribución normal de los
errores. Existen además pruebas formales para probar la hipótesis de que los errores tienen
una distribución normal y un gráfico (Q-Q plot) que permite detectar la falta de normalidad
más fácilmente que con un histograma.

5
Para obtener residuos en InfoStat debemos marcar en las opciones del análisis de varianza
“Guardar Residuos”, “Guardar Predichos”, “Guardar Residuos Estudentizados”, y
“Guardar Abs(Residuos)”. Los residuos son los definidos anteriormente, y dependen, por
supuesto, del diseño experimental usado. Los valores predichos son Yˆij , los residuos
estudentizados son los residuos divididos por su desviación estándar (como siempre tienen
media 0, es una forma de estandarizarlos), y los abs(residuos) son los valores absolutos de
los residuos (recordemos que hay residuos positivos y negativos). Al seleccionar estas
opciones, se generarán nuevas columnas en los datos incluyendo estos valores.

Una vez que tenemos los residuales podemos graficarlos mediante histogramas o el Q-Q
plot. Mediante este último gráfico, si los residuos son normales (y por lo tanto, los errores
lo son), se grafican los valores de los residuos (o residuos estudentizados) versus los valores
teóricos que esperaríamos si la distribución fuese normal. Si la distribución es normal,
entonces observaríamos los puntos alineados en una recta. Si hay problemas, entonces los
puntos no se verán sobre la recta.

6
270

Residuos Observados
135

-135

-270
-270 -135 0 135 270
Cuantiles de una Normal

Además se puede realizar una prueba de normalidad (prueba de Shapiro-Wilks


modificada). La hipótesis nula es que los errores son normales, y la alternativa es que no
son normales. Recordemos que si el valor p es mayor que el nivel de significación (en
general 0.05), entonces nos quedamos con la hipótesis nula. Para hacer esta prueba usamos
el menú Estadísticas>Inferencia basada en una muestra> Prueba de Normalidad.

Shapiro-Wilks (modificado)

Variable n Media D.E. W* p (una cola)


RDUO_Rendimiento 20 0.00 127.67 0.96 0.7824

En este ejemplo el supuesto de normalidad se acepta (p=0.7824>0.05).

Para verificar el supuesto de homogeneidad de varianzas (homoscedasticidad) se pueden


graficar residuales versus valores predichos, y esto permite visualizar si las varianzas son
homogéneas o no. Si las varianzas no son homogéneas el gráfico muestra típicamente una
estructura de “embudo” (a medida que los valores predichos son mayores, los residuos
varían más. Otra condición que este gráfico también puede diagnosticar es la existencia de
observaciones atípicas (“outliers”) que requieren verificación.

7
Ejemplo con varianzas heterogéneas

70
Ejemplo con varianzas homogéneas

300

35

RDUO_Rendimiento
150
RDUO_PN

0
0

-35
-150

-70
18 31 44 57 70 -300
PRED_PN 1750.0 2187.5 2625.0 3062.5 3500.0
PRED_Rendimiento

Para este supuesto también se pueden realizar pruebas específicas. Entre las pruebas formales para
verificar este supuesto tenemos la prueba de Hartley ( Fmax ), Levene, etc. Estas pruebas contrastan la
hipótesis nula H 0 :  12   22  ...   t2 con una alternativa general (“las varianzas no son iguales”).
Ver en la sección 7.4 del libro de Ott los detalles de estas pruebas.

La prueba de Levene consiste en realizar un análisis de varianza con el mismo modelo del original,
pero usando como variable dependiente (Y) a los valores absolutos de los residuales. Es la única
prueba que podemos aplicar en todos los diseños que estudiaremos en este curso.

La prueba de Fmax consiste en realizar el cociente entre las varianzas máxima y mínima, compa-
rando este cociente con un valor tabular (Tabla 12 en el libro). Solamente es válida para datos
provenientes de un DCA. Si el valor de Fmax es mayor que el valor tabular, la hipótesis nula se
rechaza (es decir, el supuesto no se cumple).

Si se detecta que los supuestos no se cumplen algunas medidas comúnmente usadas son la
transformación de datos, el análisis parcial (por ejemplo comparando sólo algunos de los
tratamientos) y el uso de otros métodos específicamente diseñados para el problema particular (por
ejemplo, métodos no paramétricos)

Las transformaciones se usan regularmente para problemas de varianzas heterogéneas, falta de


normalidad y/o falta de aditividad. Las más comúnmente usadas son la logarítmica, la raíz cuadrada
y el arco-seno.

La transformación logarítmica, Y   log Y o Y   log(Y  1) , se usa para datos que exhiben efectos
multiplicativos (una forma de falta de aditividad) o cuyas varianzas son proporcionales al cuadrado
de las medias.

8
La transformación raíz cuadrada, Y   Y o Y   Y  0.5 , se usa para datos con varianzas que
cambian proporcionalmente a la media, como es frecuentemente el caso de recuentos de insectos u
otros organismos.

La transformación arco seno, Y   arcsen Y , se usa para datos expresados como porcentajes. Los
porcentajes deben estar basados en un denominador común (por ejemplo, porcentaje de germinación
calculado a partir de 50 semillas bajo distintos tratamientos). Si todos los datos están entre el 30 y el
70% esta transformación no es necesaria.

Para presentar resultados de análisis con datos transformados, todas las tablas estadísticas deben
mostrar los análisis con los datos transformados. Además, se pueden agregar las medias y los límites
de confianza retransformados a la escala original. Las varianzas, errores estándar y coeficientes de
variación no se deben retransformar a la escala original.

4. Determinación del número de repeticiones de un experimento


Recordemos que al realizar cualquier prueba de hipótesis existen dos tipos de errores que debemos
considerar: Tipo I (rechazar la hipótesis nula cuando es cierta) y Tipo II (aceptar la hipótesis nula
cuando es falsa). La probabilidad de cometer el error de tipo I la fijamos nosotros (es α, el nivel de
significación de la prueba), mientras que la probabilidad de cometer error de tipo II (β) va a
depender de cuán lejos esté el valor verdadero (por ejemplo, la diferencia entre dos medias) del
valor que habíamos postulado en la hipótesis nula (0). Es importante notar que β (la probabilidad
del error de tipo II) depende de los valores verdaderos de las medias. Por supuesto que queremos
que el valor de esta probabilidad sea pequeño cuando hay diferencia entre las medias, y se haga aun
más pequeño a medida que haya más diferencias entre las medias.

Para el análisis de varianza, el libro de texto presenta algunas gráficas (Tabla 14) de valores de
potencia (1   ) para distintos tamaños muestrales y efectos de tratamiento. El efecto de
tratamiento se define como
n  i2

t 2
Se puede observar que se deben formular todos los valores de i
  i   . Para simplificar, se
puede usar una forma equivalente en la que solamente se indica la alternativa de tener al menos un
par de medias que son diferentes en D unidades (es decir, D es la diferencia mínima que se desea
detectar con una potencia (1   ) dada:
nD 2

2t 2

9
En InfoStat, se pueden usar el menú “Cálculo del tamaño muestral” para dos muestras
independientes y para análisis de varianza.

10
211.52
Para usar la Tabla 14, observemos que    1.72 , por lo que la potencia es
2 4 2
aproximadamente 0.81:

11
5. Comparaciones múltiples
Recordemos que la hipótesis alternativa general del análisis de la varianza es “al menos
una de las medias es diferente”. Cuando rechazamos la hipótesis nula estamos concluyendo
que hay diferencias, pero no sabemos exactamente cuáles de las medias son diferentes. Una
forma de responder a esta pregunta es planteando las siguientes hipótesis:
H 0 : 1  2 ; H 0 : 1  3 ; H 0 : 1  4 ; ... H 0 : 3  4
Para probar cada una de estas hipótesis podemos usar un estadístico t para dos muestras
independientes. Por ejemplo, para la primera,
Y Y
t 1 2
s p n11  n12
El problema de este enfoque es que se están realizando múltiples inferencias sobre los
mismos datos, por lo que los errores de tipo I de cada una de las pruebas pueden
acumularse. Es decir, para todo el experimento, la probabilidad de rechazar al menos una
de estas hipótesis erróneamente va a ser mayor del 5%. En otras palabras, podemos
detectar diferencias que no existen con mucha mayor frecuencia de lo esperado.

Esta prueba se denomina de la diferencia mínima significativa (DMS, o LSD en inglés)


de Fisher. Debido al problema de acumulación potencial de errores, se han desarrollado
otras pruebas alternativas, y sólo se recomienda usar el DMS cuando en la prueba F
global se ha rechazado la hipótesis nula. De esta manera, aunque sabemos que el  es
válido para cada comparación individual y no para el conjunto de todas las
comparaciones, podemos aplicar esta prueba.

Cuando los tamaños de muestra son iguales, esta prueba se simplifica. Vamos a declarar
una diferencia significativa si t  t 2 :

Yi  Y j Yi  Y j 2CME
  t o Yi  Y j  t  DMS
sp 1
ni  n1j 2CME 2 2 n
n
2CME
Si definimos DMS  t , estaremos declarando la diferencia significativa si
2 n
Yi  Y j  DMS . Podemos observar que este caso la diferencia mínima significativa es la
misma para todas las comparaciones.

Vamos a aplicar este método a los datos del ejercicio 1 (lab.2).

1. El primer paso es calcular el DMS:


2  26.3395
t15;.025  2.131, CME  26.3395, n  4, DMS  2.131  7.7334
4

12
2. El siguiente paso es ordenar las medias de mayor a menor:

Tratamiento 1 2 5 3 4
Media 52.925 42.025 37.700 34.150 21.975

3. Ahora calculamos todas las diferencias, empezando por la más grande. Observemos
que si una diferencia es menor que DMS, todas las más pequeñas también lo serán.

52.925-21.975=30.95 >DMS
52.925-34.150=18.775 >DMS
52.925-37.700=15.225 >DMS
52.925-42.025=10.90 >DMS
42.025-21.975=7.785 >DMS
42.025-34.150=7.785 >DMS
42.025-37.700=4.325 <DMS
37.700-21.175=15.725 >DMS
37.700-34.150=3.55 <DMS
34.150-21.975=12.175 >DMS

4. Por último ponemos letras iguales a las medias que no son significativamente
diferentes:

Tratamiento 1 2 5 3 4
Media 52.925 a 42.025 b 37.700 bc 34.150 c 21.975 d

Otro ejemplo (estudiado en el curso AGRO 5005)

Vamos a considerar un segundo ejemplo en el que tenemos 6 tratamientos, cuyas medias


aparecen en orden descendente a continuación. El valor de la diferencia mínima
significativa es DMS=2.2.

Tratamiento Y
Trat. 3 35.7
Trat. 1 34.0
Trat. 5 33.9
Trat. 4 25.1
Trat. 2 24.7
Trat. 6 22.8

a. El primer paso va a ser comparar la media del tratamiento 3 con todas las que le siguen
(es decir, Y3 con Y1 , Y3 con Y5 , Y3 con Y4 , Y3 con Y2 , Y3 con Y6 ). Vamos a conectar con
una línea las medias que no son significativamente diferentes (es decir, aquéllas cuya
diferencia sea menor que DMS)

13
Tratamiento Y
Trat. 3 35.7
Trat. 1 34.0
Trat. 5 33.9
Trat. 4 25.1
Trat. 2 24.7
Trat. 6 22.8

b. Ahora compararemos Y1 con todas las medias que le siguen, y conectaremos con líneas
las medias que no son significativamente diferentes de Y1 :

Tratamiento Y
Trat. 3 35.7
Trat. 1 34.0
Trat. 5 33.9
Trat. 4 25.1
Trat. 2 24.7
Trat. 6 22.8

c. Cuando seguimos el proceso para Y5 , observamos que la media que le sigue, Y4 , tiene
una diferencia mayor que DMS, y por lo tanto no podemos poner una línea que una Y5
con una media que está más abajo.

d. Repetimos el proceso para Y4 y Y2 :

Tratamiento Y
Trat. 3 35.7
Trat. 1 34.0
Trat. 5 33.9
Trat. 4 25.1
Trat. 2 24.7
Trat. 6 22.8

e. Observar que hay una línea (uniendo las medias 1 y 5) que está de más, ya que las
medias 1 y 5 ya aparecen unidas por la línea que va desde la media 3 hasta la media 5.
Por lo tanto, eliminamos la línea redundante.

Tratamiento Y
Trat. 3 35.7
Trat. 1 34.0
Trat. 5 33.9

14
Trat. 4 25.1
Trat. 2 24.7
Trat. 6 22.8

f. Ahora podemos dejar las líneas, o cambiar las líneas por letras iguales:

Tratamiento Y
Trat. 3 35.7 a
Trat. 1 34.0 a
Trat. 5 33.9 a
Trat. 4 25.1 b
Trat. 2 24.7 bc
Trat. 6 22.8 c

g. Se debe observar que las medias que no están unidas por líneas verticales (o la misma
letra) son significativamente diferentes entre sí.

Tasas de error por comparación y por experimento

Recordemos que la probabilidad de cometer error de tipo I se denominaba α. Cuando


realizamos comparaciones de todos los pares posibles de medias, el error de tipo I sería
declarar que un par de medias difiere significativamente cuando en realidad son iguales. Si
consideramos cada comparación individualmente (es decir, como una hipótesis separada
de las demás), el error de tipo I es concluir que esa comparación es significativa cuando en
realidad esas medias no son diferentes. La probabilidad de cometer error de tipo I para esta
comparación individual (promediada a través de todas las comparaciones y todos los
experimentos posibles) es la “tasa de error por comparación”,  I .

Por otro lado, si consideramos a todas las comparaciones posibles como una sola hipótesis,
entonces realizar error de tipo I es decir que por lo menos un par de medias es diferente
cuando todas las medias son iguales. La probabilidad de cometer el error de tipo I para
todas las comparaciones en conjunto se denomina “tasa de error por experimento”,  E .

Supongamos que estamos simulando un experimento en el cual estamos comparando 3


tratamientos A, B, C (por lo tanto tenemos 3 comparaciones de a pares: A vs. B, A vs. C,
B vs. C). Supongamos además que no hay diferencias entre las medias (por lo tanto, cada
vez que encontremos una diferencia estaremos cometiendo error de tipo I). Vamos a indicar
con * los casos en los que encontremos diferencias significativas, y con NS los casos en
los que no encontramos diferencias significativas. El experimento se simulará 20 veces, y
cada vez realizaremos las comparaciones de a pares correspondientes. Los resultados se
resumen en la siguiente tabla:

15
Comparaciones
Simulación
A vs. B A vs. C B vs. C
1 NS NS NS
2 * NS NS
3 NS NS NS
4 NS * *
5 NS NS NS
6 * NS NS
7 NS NS NS
8 * * *
9 NS * NS
10 NS NS NS
11 NS NS NS
12 NS NS NS
13 NS NS *
14 NS NS NS
15 NS NS NS
16 NS NS NS
17 NS NS NS
18 NS * *
19 NS NS NS
20 NS NS NS

En este ejemplo tenemos un total de 60 comparaciones, y hemos cometido error de tipo I


en 11 de ellas. Por lo tanto la tasa de error por comparación es 0.1833.

Por otro lado, observamos que hay 20 “experimentos”, y hemos cometido error de tipo I
en 7 de ellos. Por lo tanto la tasa de error por experimento es 0.35.

En la práctica nunca el mismo experimento lo repetiremos 20 veces, pero las tasas de


error tienen la misma interpretación: si no hay diferencias entre las medias y repitiéramos
el experimento muchas veces, cometeremos error de tipo I cada vez que declaremos una
diferencia significativa. La proporción de comparaciones que se encuentran significativas
falsamente es la tasa de error por comparación, y la proporción de experimentos en los
que se encuentran diferencias significativas falsamente es la tasa de error por
experimento.

Corrección de Bonferroni para la prueba de DMS

Con el objeto de controlar la tasa de error para todo el experimento (es decir, todas las
comparaciones), se pueden aplicar modificaciones a la prueba de DMS. La más sencilla
consiste en corregir el nivel de significancia de la prueba para tener en cuenta la
multiplicidad de comparaciones que se están realizando. Si llamamos  I al nivel de
significancia para una comparación individual (que es el que consideramos en DMS), y  E

16
al nivel de significancia para todo el experimento (que es lo que querríamos controlar para
no declarar demasiadas diferencias significativas falsamente), la desigualdad de Bonferroni
nos dice que  E  m I , donde m es el número de comparaciones que nos interesa realizar
en todo el experimento. Para todos los pares posibles, m  t (t  1) / 2 . Por lo tanto, si
queremos que la tasa de error para todo el experimento no sea mayor de   0.05 , por
ejemplo, si hay t=5 tratamientos podemos realizar una prueba de DMS usando un nivel de
significancia igual a  / m  0.05 /10  0.005 . Es decir, la fórmula de DMS para la prueba
de Bonferroni ahora es

2CME 2CME
BON=t  t0.0025
2m n n

Prueba de Tukey

Otra manera de evitar el problema de errores acumulados en las conclusiones del


experimento es usar métodos alternativos a la prueba de DMS. La idea fundamental es
que la probabilidad de cometer el error de tipo I (declarar falsamente diferencias
significativas) se mantenga en el nivel especificado (  ) para todo el experimento,
aunque esto implique que para cada comparación tomada individualmente la probabilidad
disminuya. Es decir, hacemos cada prueba individual más conservadora, de manera que
globalmente la probabilidad de cometer al menos un error de tipo I se mantenga
razonablemente cerca del nivel especificado (usualmente 5%).

La prueba de Tukey se desarrolla con esta idea en mente, y consiste en usar un nivel
crítico mayor que el DMS. Este valor crítico es
CME
W  q (t , ) ,
n
donde q (t , ) se busca en la tabla 10 del libro con t tratamientos y  grados de libertad
en el cuadrado medio del error. Si los tamaños de muestra son desiguales, el método se
llama prueba de Tukey-Kramer y el valor crítico es
CME  1 1 
Wij  q (t , )   .
2  ni n j 

Si aplicamos la prueba de Tukey al mismo ejemplo considerado anteriormente obtenemos


los siguientes resultados:

CME 26.3395
W  q (t , )  4.37  11.21
n 4

52.925-21.975=30.95 >W
52.925-34.150=18.775 >W

17
52.925-37.700=15.225 >W
52.925-42.025=10.90 <W
42.025-21.975=20.05 >W
42.025-34.150=7.785 <W
42.025-37.700=4.325 <W
37.700-21.175=15.725 >W
37.700-34.150=3.55 <W
34.150-21.975=12.175 >W

Tratamiento 1 2 5 3 4
Media 52.925 a 42.025 ab 37.700 b 34.150 b 21.975 c

Como podemos apreciar, esta prueba es más conservadora que DMS (encuentra menos
diferencias significativas).

Para hacer comparaciones múltiples en Infostat debemos usar la solapa “comparaciones”


en la ventana de análisis de varianza.

Para realizar comparaciones múltiples en SAS, debemos usar el comando MEANS. Por
ejemplo, para los datos del ejercicio 2 (laboratorio 2),

proc glm;
class bloque tratam;
model plantas = bloque tratam;
means tratam / lsd;
means tratam / bon;
means tratam / tukey;
run;

18
Class Level Information

Class Levels Values

Bloque 4 1234

tratam 3 tratA tratB tratC

Dependent Variable: plantas

Source DF Sum of Squares Mean Square F Value Pr > F

Model 5 2311.416667 462.283333 118.03 <.0001

Error 6 23.500000 3.916667

Corrected Total 11 2334.916667

Source DF Type III SS Mean Square F Value Pr > F

Bloque 3 386.250000 128.750000 32.87 0.0004

tratam 2 1925.166667 962.583333 245.77 <.0001

t Tests (LSD) for plantas


Note: This test controls the Type I comparisonwise error rate, not the experimentwise error rate.

Alpha 0.05

Error Degrees of Freedom 6

Error Mean Square 3.916667

Critical Value of t 2.44691

Least Significant Difference 3.4242

Means with the same letter


are not significantly different.

t Grouping Mean N tratam

A 87.250 4 tratB

B 80.000 4 tratC

C 57.500 4 tratA

19
Bonferroni (Dunn) t Tests for plantas
Note: This test controls the Type I experimentwise error rate, but it generally has a higher Type
II error rate than REGWQ.

Alpha 0.05

Error Degrees of Freedom 6

Error Mean Square 3.916667

Critical Value of t 3.28746

Minimum Significant Difference 4.6005

Means with the same letter


are not significantly different.

Bon Grouping Mean N tratam

A 87.250 4 tratB

B 80.000 4 tratC

C 57.500 4 tratA

Tukey's Studentized Range (HSD) Test for plantas


Note: This test controls the Type I experimentwise error rate, but it generally has a higher Type
II error rate than REGWQ.

Alpha 0.05

Error Degrees of Freedom 6

Error Mean Square 3.916667

Critical Value of Studentized Range 4.33902

Minimum Significant Difference 4.2936

Means with the same letter


are not significantly different.

Tukey Grouping Mean N tratam

A 87.250 4 tratB

B 80.000 4 tratC

C 57.500 4 tratA

20
Intervalos de confianza para medias y diferencias de medias en ANOVA

Para reportar las medias luego de realizar un ANOVA podemos usar un gráfico de barras
(que se genera opcionalmente en InfoStat), e incluir límites de confianza para las medias
(o errores estándar para las medias). Las fórmulas estudiadas anteriormente usando la
tabla t se podrían aplicar aquí:
Y  t 2 s .
n
Como hemos hecho para el cálculo del DMS, el mejor estimador que tenemos de la
desviación estándar poblacional es (bajo el supuesto que las varianzas son iguales),
CME
Este estimador tiene los grados de libertad del error. Por lo tanto, el intervalo de
confianza para una media de tratamiento es
CME
Y  t 2
n
Recordar que en esta fórmula n representa la cantidad de observaciones en la media
específica (cantidad de repeticiones), y no la cantidad total de observaciones en todo el
experimento. Los grados de libertad para el valor tabular de t son los grados de libertad
del error.

Similarmente podemos calcular un intervalo de confianza para la diferencia de dos


medias. Suponiendo igual número de repeticiones n:

2CME
Yi  Y j  t /2
n
Observar que el término que se suma y resta en esta fórmula es DMS, por lo que el
intervalo de confianza para la diferencia de dos medias es:

Yi  Y j  DMS

Si este intervalo incluye el valor de cero, las dos medias correspondientes no son
significativamente diferentes. Esto es lo que hemos usado cuando estudiamos la prueba
de DMS: si la diferencia de dos medias es menor que DMS, esas medias no son
significativamente diferentes. El intervalo va a incluir 0 si y solo si la diferencia de las
dos medias es menor que DMS.

21
6. Contrastes

La prueba F que realizamos en el ANOVA prueba la igualdad de medias (ausencia de


efectos de tratamientos) versus una alternativa general. Como hemos visto en las
conferencias anteriores, podemos realizar pruebas de comparaciones de a pares (DMS,
Tukey, etc.), pero esto puede traernos problemas: por una parte puede haber acumulación
de errores, y por otra parte la interpretación no siempre es simple. Cuando hay mucha
superposición, es difícil realizar inferencias útiles.

Si los tratamientos tienen una estructura dada (no son simplemente 5 variedades, por
ejemplo), existen otras hipótesis que pueden resultar de mucho más interés que las que
probamos con DMS. Éstas pueden escribirse como combinaciones lineales de medias. Por
ejemplo,
L   ci i
Las ci son los coeficientes de la combinación lineal. Un contraste se define como una
combinación lineal con  ci  0. Por ejemplo supongamos que estamos probando las
siguientes 5 dietas en pavos:

Grupo Dieta
1 Control
2 Nivel 1, suplemento A
3 Nivel 2, suplemento A
4 Nivel 1, suplemento B
5 Nivel 2, suplemento B

Es posible que estemos interesados en probar si el promedio de los tratamientos con


suplemento A es igual al promedio de los tratamientos con suplemento B:
  3  4  5
H0 : 2 
2 2
Esto es equivalente a H 0 : 2  3  4  5  0 . Podemos verificar que esto es un
contraste, y estamos probando H 0 : L  0 . Observar que c i  1  1  1  1  0.

Si tuviésemos un solo contraste de interés, la estimación y la prueba es directa:

Lˆ   ci ˆ i   ci Yi  Y    ciYi
2
ˆ  
var L   ci var Yi    ci
ˆ 2
ˆ
ˆ2
ni
  ci2
CME
ni

22
Lˆ Lˆ
H 0 : L  0, H a : L  0 t  , rechazamos H 0 cuando t  t 2; dfe .
 
s.e. Lˆ CME
c n
2
i
i

En forma equivalente, podemos calcular una suma de cuadrados para el contraste, y


construir un estadístico F para probar la misma hipótesis:
Lˆ 2
ci2
CM ( L)
n
H 0 : L  0, H a : L  0 F  i
, rechazamos H 0 cuando F  F ;1,dfe .
CME CME

Debemos observar que el numerador tiene 1 grado de libertad, y por lo tanto la suma de
cuadrados es igual al cuadrado medio.

Los contrastes pueden clasificarse en “a priori” y “a posteriori”. Los primeros son


contrastes que se postulan basándonos únicamente en la estructura de los tratamientos,
antes de mirar los datos. Este tipo de contraste es lo que deberíamos usar casi siempre que
sea posible.

En la mayoría de los casos tenemos más de un contraste de interés. El problema de


acumulación potencial de errores estará también presente en estos casos cuando tratemos
de obtener conclusiones para todos los contrastes conjuntamente.

El método que hemos presentado, basado en la prueba t o F, controla la tasa de error por
comparación (igual que el DMS). Esto es porque está diseñado para contrastes
individuales. Si cada uno de los contrastes está diseñado para responder a una pregunta
“separada”, el método de t o F también puede usarse y la acumulación de errores no será
tan importante. Matemáticamente estos contrastes se denominan “ortogonales”. Dos
contrastes L1   ai i y L2   bi i son ortogonales si  ai bi  0 . Un conjunto de
contrastes es ortogonal si todos los pares posibles de contrastes son ortogonales entre sí. Si
tenemos t tratamientos, no podemos tener más de t  1 contrastes ortogonales en un
conjunto dado (los grados de libertad de tratamientos). En el ejemplo de los pavos un
conjunto ortogonal de interés podría ser

Grupo L1 L2 L3 L4
1 4 0 0 0
2 -1 1 0 1
3 -1 -1 0 1
4 -1 0 1 -1
5 -1 0 -1 -1

Observar que L1 compara la dieta control con el promedio de las otras, L2 compara los dos
niveles del suplemento A, L3 compara los dos niveles del suplemento B, y L4 compara el
promedio de las dos formulaciones de A con el promedio de las dos formulaciones de B.

23
En resumen, si tenemos más de un contraste “a priori”, podemos usar contrastes
ortogonales y probarlos con una prueba t o F. Si no tenemos un conjunto ortogonal de
interés, podemos seguir usando las pruebas t o F, pero los niveles de significación deberán
dividirse por m, la cantidad de contrastes a priori de interés (prueba de Bonferroni).

Si tenemos muchos contrastes no ortogonales “a priori” (lo que hará que Bonferroni sea
muy ineficiente) o si tenemos contrastes “a posteriori” podemos usar un procedimiento que
controla la tasa de error por experimento: la prueba de Scheffé.

Prueba de Scheffé

Este procedimiento puede usarse para cualquier contraste, ya que controla la tasa de error
para todos los contrastes posibles, sean estos sugeridos por los datos, ortogonales, no
ortogonales, de a pares, etc. Dado que es una prueba tan general, tiende a ser muy
conservadora (por ejemplo, casi nunca se la usa para comparaciones de a pares, que son un
caso particular de contrastes a priori no ortogonales).

Para usar la prueba de Scheffé debemos calcular el estadístico F mencionado


anteriormente, y el criterio de rechazo será

Rechazar H 0 si F  (t  1) F ; t 1,dfe

donde t es el número de tratamientos usados. (El texto presenta una versión equivalente de
la prueba de Scheffé que usa el estadístico t, no el estadístico F)

Para realizar pruebas F en contrastes podemos usar Infostat o SAS. En Infostat debemos
abrir la ventana de contrastes, indicando los tratamientos y los coeficientes. Opcional-
mente podemos solicitar que se verifique la ortogonalidad de los contrastes. Para el ejemplo
de las dietas de pavos,

Se debe destacar que el usuario debe decidir de antemano qué prueba va a realizar:
1. Si es una prueba F sin ninguna corrección por contrastes múltiples,
Rechazar H 0 si p  

2. Si es una prueba F con corrección de Bonferroni por realizar m contrastes,


Rechazar H 0 si p   / m

3. Si es una prueba de Scheffé,


Rechazar H 0 si F  (t  1) F ; t 1,dfe

24
Contrastes
Tratamiento SC gl CM F valor p
Contraste1 3060357.61 1 3060357.61 118.57 <0.0001
Contraste2 450300.50 1 450300.50 17.45 0.0013
Contraste3 41616.13 1 41616.13 1.61 0.2282
Contraste4 739170.06 1 739170.06 28.64 0.0002
Total 4291444.30 4 1072861.08 41.57 <0.0001

Coeficientes de los contrastes


Tratamiento Cont. 1 Cont. 2 Cont. 3 Cont. 4
1.00 4.00 0.00 0.00 0.00
2.00 -1.00 1.00 0.00 1.00
3.00 -1.00 -1.00 0.00 1.00
4.00 -1.00 0.00 1.00 -1.00
5.00 -1.00 0.00 -1.00 -1.00

Programa de SAS para contrastes

proc glm data=pavos;


class trt;
model ganancia=trt;
means trt;
contrast 'control vs. otros' trt 4 -1 -1 -1 -1;
contrast 'A1 vs. A2' trt 0 1 -1 0 0;
contrast 'B1 vs. B2' trt 0 0 0 -1 1;
contrast 'A vs. B' trt 0 1 1 -1 -1;
run;

25
7. Diseño de cuadrado latino

Consideremos el siguiente ejemplo de aplicación del diseño en bloques completos


aleatorizados: vamos a analizar una enzima en camarones para estudiar el efecto de 4
distintos tratamientos de conservación. Como el análisis es muy complicado, vamos a
asegurarnos que no haya efecto de analista diseñando el experimento de manera que cada
uno de los cuatro analistas realice las determinaciones de los cuatro tratamientos. Es decir,
cada analista va a ser un bloque, y debemos aleatorizar el orden en que cada analista va a
trabajar (cada tratamiento requiere hacerse en un día diferente). Por ejemplo:

Analista
Día 1 2 3 4
L Trat A Trat A Trat B Trat A
Ma Trat C Trat B Trat C Trat C
Mi Trat D Trat D Trat A Trat B
J Trat B Trat C Trat D Trat D

Podemos ver que si hubiese un efecto de día (por ejemplo, los lunes no son tan confiables
como los miércoles), entonces algunos tratamientos pueden verse afectados (por ejemplo,
el A aparece 3 veces en lunes). Para evitar esto podríamos hacer que cada día también sea
un bloque completo (es decir, que todos los tratamientos estén representados). Un posible
arreglo de tratamientos sería:
Analista
Día 1 2 3 4
L Trat A Trat D Trat B Trat C
Ma Trat C Trat B Trat D Trat A
Mi Trat D Trat C Trat A Trat B
J Trat B Trat A Trat C Trat D

Este diseño se denomina cuadrado latino, y tiene la ventaja de controlar dos fuentes de
variación (en nuestro ejemplo el analista y el día). Es bastante rígido, ya que requiere, para
t tratamientos, t filas y t columnas. Su principal desventaja es que las diferencias entre los
tratamientos no deben estar afectadas por las filas o las columnas (es decir, si el tratamiento
A es mejor que el B, debe serlo en los 4 analistas). La forma más común de aleatorizar los
tratamientos es eligiendo al azar de una tabla de cuadrados latinos uno del tamaño deseado
(o armar uno en forma no aleatoria), y después aleatorizar los números de filas, los números
de columnas y los números de tratamientos.

El modelo que describe los datos provenientes de este diseño es el siguiente:


Yijk    i   j   k   ijk

La notación que usaremos será la misma que para el DBCA: tenemos t tratamientos,
Yijk denota la observación del i  ésimo tratamiento en la fila j y la columna k .

26
Ahora tendremos dos fuentes adicionales de variabilidad: las filas y las columnas. Las
sumas de cuadrados se calculan de la siguiente manera:
SCTotal=SCTot   Yijk  Y    Yijk2  Y 2
2 2

t
Yi2 Y
2
SCTratamientos=SCTrat   t Yi  Y   
2
 2
i i t t
2 2
SCFilas= t Y j   Y   
2 Y
 j Y
 
2
j j t t
Y2 k Y
2
SCColumnas=  t Yk  Y   
2
 2
k k t t
SCResidual=SCError=SCRes  SCTot-SCTrat-SCFilas-SCCol

La siguiente es la tabla de ANOVA:


Fuente de Suma de grados de Cuadrado F
Variación Cuadrados libertad Medio
Tratamiento SCTrat t 1 CMTrat F=CMTrat/CME
Filas SCFilas t 1 CMFilas F=CMFila/CME
Columnas SCColumnas t 1 CMCol F=CMCol/CME
Residual (Error) SCRes=SCE  t  1 t  2  CMRes=CME
Total SCTot t 2 1

Las hipótesis que probamos, los supuestos y los métodos de comparaciones múltiples se
aplican de la misma manera que lo que hemos estudiado para DCA y DBCA.

Ejemplo: Éste es el ejercicio 15.8 del libro de Ott (leer la descripción del mismo allí).

data melon; 3 1 4 1.35


input fila col trat peso; 3 2 2 1.73
datalines; 3 3 1 1.69
1 1 1 1.75 3 4 3 1.41
1 2 3 1.43 4 1 3 1.45
1 3 4 1.28 4 2 4 1.36
1 4 2 1.66 4 3 2 1.65
2 1 2 1.70 4 4 1 1.73
2 2 1 1.78 proc glm;
2 3 3 1.40 class fila col trat;
2 4 4 1.31 model peso = fila col trat; run;

27
Class Level Information

Class Levels Values

fila 4 1234

col 4 1234

trat 4 1234

Dependent Variable: peso


Source DF Sum of Squares Mean Square F Value Pr > F

Model 9 0.49335000 0.05481667 438.53 <.0001

Error 6 0.00075000 0.00012500

Corrected Total 15 0.49410000

R-Square Coeff Var Root MSE peso Mean

0.998482 0.724819 0.011180 1.542500

Source DF Type III SS Mean Square F Value Pr > F

fila 3 0.00085000 0.00028333 2.27 0.1810

col 3 0.01235000 0.00411667 32.93 0.0004

trat 3 0.48015000 0.16005000 1280.40 <.0001

Para analizar los mismo datos en Infostat debemos seleccionar fila, columna y tratam
como variables de clasificación:

28
29
8. Experimentos factoriales con dos factores
Existen muchas situaciones en las que los tratamientos representan combinaciones de dos
o más variables independientes (=factores). Por ejemplo, supongamos que queremos
estudiar el efecto de dos factores: la presencia (o ausencia) de antibiótico y la presencia (o
ausencia) de vitamina B12 en la dieta de cerdos. Si combinamos los dos niveles de
antibiótico (0mg, 40mg) con los dos niveles de B12 (0mg, 5mg), tendremos cuatro
tratamientos:

Tratamiento Antibiótico Vitamina B12


1 0 0
2 40 0
3 0 5
4 40 5

Supongamos que aplicamos cada uno de estos cuatro tratamientos a 5 cerdos, según un
diseño completamente aleatorizado, y registramos el aumento de peso en cada uno.

Por ahora, supongamos que conocemos el aumento promedio verdadero (poblacional) para
cerdos en los tres primeros tratamientos. ¿Sería posible predecir el promedio del cuarto
tratamiento?

Tratamiento Antibiótico Vitamina B12 


1 0 0 30
2 40 0 35
3 0 5 45
4 40 5 ?

Por una parte observamos que al pasar de 0 a 40 de antibiótico sin vitamina B12 el aumento
del promedio es 5. Si podríamos suponer que ese efecto positivo del antibiótico en ausencia
de B12 es el mismo que el efecto que el antibiótico tendría en presencia de B12, entonces
4  3  5  50.

Equivalentemente, al pasar de 0 a 5 de B12 sin antibiótico el aumento del promedio es 15.


Por lo tanto, al pasar de 0 a 5 de B12 en presencia del antibiótico el promedio sería
 4   2  15  50.

Resumiendo, bajo el supuesto que el efecto de un factor es el mismo en ambos niveles del
otro factor, podemos calcular una media dadas las otras 3. Cuando esto sucede decimos
que los efectos son aditivos (podemos sumarlos) y no sería necesario probar los cuatro
tratamientos (con tres sería suficiente).

Ahora supongamos que esto no se cumple, sino que 4  60 (por ejemplo debido a que la
presencia de ambos suplementos es más beneficiosa que la presencia de uno de ellos por
separado). En este caso sí necesitamos estudiar las cuatro combinaciones, y no podemos

30
prescindir de ninguna. Cuando esto sucede decimos que los efectos no son aditivos sino
que existe interacción entre los factores. Gráficamente,

Efectos Aditivos

55
50
Media 45 B12=0
40
35 B12=5
30
25
20
0 10 20 30 40

Antibiótico

Efectos con interacción

60
55
50
Media

45 B12=0
40
35 B12=5
30
25
20
0 10 20 30 40

Antibiótico

En un experimento factorial siempre probamos todas las combinaciones de tratamiento, ya


que estudiar la interacción es uno de los objetivos más importantes al realizar un
experimento de este tipo. El ejemplo que hemos presentado se denomina un experimento
factorial 2x2, o 22, ya que tiene dos factores a dos niveles cada uno. Si tuviésemos
antibiótico a 2 niveles y B12 a 3 niveles, sería un factorial 2x3 (y en este caso tendríamos
6 tratamientos, o combinaciones de niveles). Un factorial 2x2x3 significa que hay tres
factores, uno a dos niveles, otro a dos niveles y un tercero a 3 niveles.

El modelo para observaciones provenientes de un arreglo factorial de tratamientos


arreglados en un diseño completamente aleatorizado es el siguiente:
Yijk  ij   ijk    i   j  ij   ijk
donde el índice i representa niveles del primer factor, j representa niveles del segundo
factor y k representa repeticiones. Si no hubiese interacción, la diferencia (por ejemplo)
12  11 sería igual a la diferencia 22  21 . Esto es lo que observamos en nuestro
ejemplo, y se logra si ij  0 :

31
12  11    1   2     1  1    2  1
22  21     2   2      2  1    2  1
Si hubiese interacción esta igualdad no se cumpliría. Por lo tanto, el término  ij
representa la interacción entre ambos factores. Los términos  i y  j representan los
efectos “principales” del primer y segundo factor respectivamente. Estos efectos
principales pueden interpretarse como el efecto de un factor promediado sobre todos los
niveles del otro factor (ya discutiremos este concepto más adelante).

Para armar nuestra tabla de ANOVA supongamos que el primer factor lo llamamos A, y
este factor tiene a niveles. Similarmente, el factor B tiene b niveles, y tenemos n
observaciones por tratamiento (combinación de niveles de A y B).

Usando la notación de puntos,


Yi : total para el nivel i del factor A
Y j  : total para el nivel j del factor B
Yij  : total para el tratamiento ij
(combinación del nivel i de A y nivel j de B)
Y : total de todas las observaciones

SCTotal=SCTot   Yijk  Y    Yijk2  Y


2 2

nab
Yi2 Y
2
SCA   bn Yi  Y   
2

i i bn abn
2 2
SCB=  an Y j   Y 
Y j  Y

2

j j an abn
2
Y Yij2
SCAB=SCTratamientos-SCA-SCB=    SCA  SCB
n nab
SCResidual=SCError=SCRes  SCTot-SCA-SCB-SCAB

La siguiente es la tabla de ANOVA:


Fuente de Suma de grados Cuadrado F
Variación Cuadrados de Medio
libertad
A SCA a-1 CMA F=CMA/CME
B SCB b-1 CMB F=CMB/CME
AB SCAB (a-1)(b-1) CMAB F=CMAB/CME
Residual (Error) SCRes=SCE ab(n-1) CMRes=CME
Total SCTot abn-1

32
Las hipótesis que probamos son tres:

H 0 : 11  12  ...   ab  0


H 0 : 1   2  ...   a  0
H 0 : 1   2  ...   b  0

La primera hipótesis que debemos probar siempre es si hay o no hay interacción. Si hay
interacción, las hipótesis de efectos principales no tienen demasiado sentido y por lo tanto
no deberíamos interpretarlas (excepto bajo ciertas circunstancias).

Si no hay interacción significativa, los efectos principales sí tienen interpretación, y por lo


tanto podemos probarlos.

Vamos a ver nuevamente el ejemplo presentado antes (factorial 2x2) para entender mejor
los conceptos de efectos principales e interacciones. Supongamos que observamos tres
cerdos en cada tratamiento (DCA) y observamos la ganancia diaria de peso:

Tratamiento Antibiótico Vitamina B12 Ganancia Diaria de Peso Yij 


1 0 0 1.30, 1.19, 1.08 1.19
2 40 0 1.05, 1.00, 1.05 1.03
3 0 5 1.26, 1.21, 1.19 1.22
4 40 5 1.52, 1.56, 1.55 1.54

Bajo el nivel 0 de antibiótico (factor A) podemos estimar el efecto simple del factor B:
Y12  Y11  1.22  1.19  0.03
Similarmente el efecto simple del factor B cuando el factor A está en su segundo nivel se
estima como:
Y22  Y21  1.54  1.03  0.51
El efecto principal del factor B es el promedio de estos dos efectos simples, y es también
la diferencia entre las medias de los niveles de B:
.51  .03
Y2  Y1   0.27
2
Si los efectos simples no son significativamente diferentes, entonces sí tiene sentido
promediarlos para obtener el efecto principal. Pero si los efectos simple son
significativamente diferentes, entonces estamos en presencia de interacción y no tendría
sentido promediarlos. Por lo tanto, la interacción puede estimarse mediante la diferencia
de los efectos simples:
Interacción: Y22  Y21  Y12  Y11   0.51  0.03  0.48

Como ejercicio, calcular los efectos simples y principal del factor A. Verificar que usando
estos efectos simples la interacción es la misma. (Esto tiene sentido, ya que la interacción
es un concepto que comprende los dos factores.)

33
34
El programa SAS para este ejemplo sigue a continuación.
data cerdos;
input tratam antib vitb12 ganpeso;
datalines;
1 0 0 1.30
1 0 0 1.19
1 0 0 1.08
2 40 0 1.05
2 40 0 1.00
2 40 0 1.05
3 0 5 1.26
3 0 5 1.21
3 0 5 1.19
4 40 5 1.52
4 40 5 1.56
4 40 5 1.55
proc glm;
class antib vitb12;
model ganpeso = antib vitb12 antib*vitb12;
run;

Class Level Information

Class Levels Values

antib 2 0 40

vitb12 2 05

Dependent Variable: ganpeso


Source DF Sum of Squares Mean Square F Value Pr > F

Model 3 0.41233333 0.13744444 37.48 <.0001

Error 8 0.02933333 0.00366667

Corrected Total 11 0.44166667

R-Square Coeff Var Root MSE ganpeso Mean

0.933585 4.857193 0.060553 1.246667

Source DF Type III SS Mean Square F Value Pr > F

antib 1 0.02083333 0.02083333 5.68 0.0443

vitb12 1 0.21870000 0.21870000 59.65 <.0001

antib*vitb12 1 0.17280000 0.17280000 47.13 0.0001

35
Otra manera de ver este problema es mediante contrastes. Olvidándonos por un momento
de los dos factores, nosotros tenemos aquí un DCA con 4 tratamientos. Mediante contrastes
apropiados podemos probar las mismas hipótesis (además podríamos escribir contrastes
para efectos simples de ser necesario):
proc glm;
class tratam;
model ganpeso = tratam;
contrast 'Ef. ppal. A' tratam -1 1 -1 1;
contrast 'Ef. ppal. B' tratam -1 -1 1 1;
contrast 'Interac. AB' tratam 1 -1 -1 1;
run;

Class Level Information

Class Levels Values

tratam 4 1234

Dependent Variable: ganpeso


Source DF Sum of Squares Mean Square F Value Pr > F

Model 3 0.41233333 0.13744444 37.48 <.0001

Error 8 0.02933333 0.00366667

Corrected Total 11 0.44166667

R-Square Coeff Var Root MSE ganpeso Mean

0.933585 4.857193 0.060553 1.246667

Source DF Type III SS Mean Square F Value Pr > F

tratam 3 0.41233333 0.13744444 37.48 <.0001

Contrast DF Contrast SS Mean Square F Value Pr > F

Ef. ppal. A 1 0.02083333 0.02083333 5.68 0.0443

Ef. ppal. B 1 0.21870000 0.21870000 59.65 <.0001

Interac. AB 1 0.17280000 0.17280000 47.13 0.0001

36
Interacción ordenada y no ordenada

Interacción Ordenada

50
40 B=1

Media
30
B=2
20
10 B=3
0
0 1 2 3 4 5

Interacción No Ordenada

25
20 B=1
Media

15
B=2
10
5 B=3
0
0 1 2 3 4 5

Si tenemos interacción ordenada podríamos probar efectos principales (recordemos que


son promedios de efectos simples) e interpretar los resultados (con cautela…), pero si
tenemos una interacción no ordenada, los efectos principales no se pueden interpretar en
términos prácticos (estamos promediando cosas con distinto signo, distinta magnitud, etc.)

37
Pruebas de comparaciones múltiples, contrastes, intervalos de confianza, etc.

Para realizar comparaciones o contrastes podemos hacerlo con dos tipos de medias:
1. las medias de niveles de cada factor. Por ejemplo, 1  2 es la diferencia entre
el primer nivel de A y el segundo nivel de A. Es un efecto principal.
2. las medias de tratamientos (combinaciones de niveles niveles de cada factor). Por
ejemplo, 12  11 es la diferencia entre el primer nivel de B y el segundo nivel de
B cuando el factor A está en su primer nivel. Es un efecto simple.

Las medias de niveles de cada factor se calculan a partir de más observaciones que las
medias de tratamientos, por lo que las fórmulas que hemos estudiado deben corregirse
apropiadamente. En el ejemplo de los cerdos, para calcular ˆ1  Y1 debemos promediar
bn  2  3  6 observaciones; mientras que para calcular ˆ12  Y12 debemos promediar
n  3 observaciones. Esto hace que los errores estándar de las diferencias dependan de qué
tipo de media estamos considerando. Por ejemplo,

s.e. Y1  Y2  


2CME
bn

s.e. Y3  Y1  


2CME
an

s.e. Y12  Y11  


2CME
n

38
9. Experimentos factoriales con tres o más factores
Para experimentos con tres o más factores las ideas básicas del análisis son las mismas que
para dos factores, aunque todo se complica por la existencia de interacciones dobles,
triples, etc. Veamos con un ejemplo qué significaría cada uno de los efectos e interacciones
en un factorial 2x2x2. Por ejemplo, supongamos que queremos estudiar el efecto de la
presencia (o ausencia) de antibiótico, la presencia (o ausencia) de vitamina B12 y el sexo
en la dieta de cerdos. Si combinamos los dos niveles de antibiótico (0mg, 40mg) con los
dos niveles de B12 (0mg, 5mg), y los dos sexos tendremos ocho tratamientos:

Tratamiento Antibiótico Vitamina B12 Sexo


1 0 0 M
2 40 0 M
3 0 5 M
4 40 5 M
5 0 0 F
6 40 0 F
7 0 5 F
8 40 5 F

Supongamos que aplicamos cada uno de estos ocho tratamientos a 5 cerdos, según un
diseño completamente aleatorizado, y registramos el aumento de peso en cada uno.

El modelo para este ejemplo sería:


Yijkm  ijk   ijkm    i   j   k  ij   ik   jk   ijk   ijkm
donde el índice i representa niveles del primer factor, j representa niveles del segundo
factor, k representa niveles del tercer factor y m representa repeticiones.

Debemos observar que ahora tenemos tres efectos principales, tres interacciones dobles y
una interacción triple. Los efectos principales tienen la misma interpretación que antes:
representan las comparaciones entre niveles de un factor promediadas sobre los niveles de
los otros dos factores. Por ejemplo, el efecto principal de sexo es la comparación entre los
4 tratamientos con nivel 1 de sexo (trat. 1-4) y los 4 tratamientos con nivel 2 de sexo (trat.
5-8).

Las interacciones dobles son comparaciones entre las diferencias de niveles de un factor
en cada nivel del otro promediadas sobre los niveles del factor no incluido en la interacción.
Por ejemplo, la interacción doble entre antibiótico y vitamina es la siguiente comparación:
111  112 121  122   211   212  221   222 
   
2 2  2 2 
Observar que los niveles de sexo (tercer índice) están promediados, ya que la interacción
considerada es entre antibiótico y vitamina.

La interacción triple se puede interpretar como que la interacción doble entre dos de los
factores en un nivel dado del factor restante no es la misma que la interacción doble en el

39
otro nivel del factor restante. Por ejemplo, la interacción triple podría interpretarse como
que la interacción entre el antibiótico y la vitamina no es la misma en machos que en
hembras:
111  121    211   221    112  122    212   222  

Para armar nuestra tabla de ANOVA supongamos que el primer factor lo llamamos A, y
este factor tiene a niveles. Similarmente, el factor B tiene b niveles, el factor C tiene c
niveles y tenemos n observaciones por tratamiento (combinación de niveles de A, B y C).

Usando la notación de puntos,


Yi : total para el nivel i del factor A
Y j  : total para el nivel j del factor B
Yk  : total para el nivel k del factor C
Yij  : total para la combinación del nivel i de A y nivel j de B
Yik  : total para la combinación del nivel i de A y nivel k de C
Y jk  : total para la combinación del nivel j de B y nivel k de C
Yijk  : total para el tratamiento ijk
Y : total de todas las observaciones

Las fórmulas para las sumas de cuadrados pueden consultarse en la página 907 del texto.
La siguiente es la tabla de ANOVA:

Fuente de Suma de grados Cuadrado F


Variación Cuadrados libertad Medio
A SCA a-1 CMA F=CMA/CME
B SCB b-1 CMB F=CMB/CME
C SCC c-1 CMC F=CMC/CME
AB SCAB (a-1)(b-1) CMAB F=CMAB/CME
AC SCAC (a-1)(c-1) CMAC F=CMAC/CME
BC SCBC (b-1)(c-1) CMBC F=CMBC/CME
ABC SCABC (a-1)(b-1) (c- CMABC F=CMABC/CME
1)
Residual (Error) SCRes=SCE abc(n-1) CMRes=CME
Total SCTot abcn-1

40
La estrategia general para analizar esta tabla es la misma que para factoriales con dos
factores: empezar a probar la interacción de mayor orden, seguir con las dobles de acuerdo
al resultado de la prueba de la interacción triple, etc. Un diagrama que nos puede ayudar
en esto es el siguiente (ver página 909 en Ott & Longnecker, 2008):

41
10. Modelos de efectos aleatorios y mixtos
Supongamos que nos interesa
estudiar si hay diferencias en calidad
según la variedad en semillas de trigo
que vende cierta compañía. Para este
estudio elegimos al azar 5 variedades
(de entre las 40 variedades
disponibles) y de cada variedad
elegimos 10 muestras al azar de 50
semillas cada una, en las que
medimos el porcentaje de
germinación, peso, densidad, etc.

Para este problema, el modelo para cada una de las variables dependientes es
Yij    i   ij
El modelo parece ser idéntico al modelo de un DCA que hemos estudiado antes. Como en
previos modelos,quí  i representa el efecto de tratamiento (la variedad) y  ij el error. La
principal diferencia es que el efecto de la variedad en este modelo es aleatorio. Debemos
observar que, si hiciésemos el estudio nuevamente, las variedades elegidas serían diferentes
(se escogen al azar cada vez). Por otra parte, si las únicas variedades de interés fuesen las
cinco variedades del estudio, el efecto de la variedad (  i ) sería fijo (esta situación sería
similar a todos los ejemplos estudiados hasta ahora: al hacer el estudio de nuevo, las
muestras serían diferentes pero las variedades serían las mismas). En un modelo fijo
solamente el error es una variable aleatoria; la media general y el efecto de tratamiento
son efectos fijos:
 ij ~ N  0,  2 

En el modelo del ejemplo inicial (el estudio de variedades seleccionadas al azar), hay dos
variables o efectos aleatorios, el tratamiento (variedad) y el error::
i ~ N  0,  2  ,  ij ~ N  0,  2 
Ambos efectos (tratamiento y error) son independientes.

La inferencia para modelos de efectos aleatorios es diferente, ya que no estamos


interesados en los 5 valores de  i actualmente estudiados sino en todos los valores posibles
(los efectos de las 40 variedades). Si todos los 40 tratamientos tuviesen la misma media,
entonces los 40 efectos de tratamiento serían todos iguales a 0, y por lo tanto la varianza
de estos efectos sería 0, es decir,  2  0 . Por lo tanto, ésta es la hipótesis nula que
probamos en un modelo de efecto aleatorio. En modelos de efectos aleatorios no se tienen
cinco medias para estimar, ya que las variedades son aleatorias, y por lo tanto las medias
de variedad son aleatorias (sus valores no se estiman, ya que no son parámetros de una
población de interés sino valores que varían cada vez que repetimos nuestro experimento).

42
Por otra parte, el modelo tiene dos varianzas para estimar  2 ,  2  y cada una representa
variabilidades diferentes: la varianza entre los efectos de variedad (diferencias entre medias
de variedad) y la varianza entre observaciones de la misma variedad. En resumen, este
modelo tiene un intercepto y dos varianzas para estimar.

El mismo concepto de efectos aleatorios lo podemos extender a situaciones con más de un


factor, con bloques, etc. Supongamos que estamos estudiando un proceso de empacado de
pescado en una fábrica. Escogemos 4 máquinas al azar entre todas las disponibles, y 3
operarios al azar entre los 200 operarios de la fábrica. Para cada combinación de máquina
y operario escogemos 5 paquetes al azar de la línea de producción. Debemos notar que éste
es un experimento factorial 4×3 con 5 repeticiones en un DCA, pero ambos efectos son
aleatorios (si volviésemos a realizar el experimento, tanto las máquinas como los operarios
serían diferentes). El modelo en este caso es
Yijk     i   j   ij   ijk
 i ~ N  0,  2  ,  j ~ N  0,  2 
 ij ~ N  0,  
2
 ,  ijk ~ N  0, 2 
Todos los efectos aleatorios son independientes entre sí, y tenemos 4 varianzas diferentes.

Modelos Mixtos

Otro ejemplo de un experimento factorial con dos factores es el siguiente: deseamos


comparar 4 variedades de habichuela aleatoriamente escogidas sembradas bajo 5 dosis de
fertilización. Para ello sembramos 2 repeticiones de cada una de las 20 combinaciones de
variedad y fertilización en un experimento diseñado según un DCA. En este caso el modelo
es mixto: los efectos de las variedades son aleatorios y los efectos de los métodos de
fertilización son fijos. El modelo es similar al anterior, pero debemos recordar que solo los
efectos aleatorios y sus interacciones introducen varianzas en el modelo:
Yijk     i   j   ij   ijk
 j ~ N  0,  2  ,  ij ~ N  0,  
2

 ijk ~ N  0,  2 
En este modelo estimaremos las 5 medias de niveles de fertilización (o equivalentemente
el intercepto y los efectos de los niveles de fertilización) y las 3 varianzas (varianza del
efecto de variedad, varianza de la interacción variedad × fertilización y varianza del error
experimental).

Una diferencia fundamental con los modelos de efectos fijos (en los que lo único aleatorio
es el error experimental) es que las pruebas F no necesariamente se construyen dividiendo
el cuadrado medio asociado con la hipótesis que queremos probar y el cuadrado medio del
error. Para casos sencillos es posible encontrar un cociente apropiado para el estadístico F
mediante la técnica de cuadrados medios esperados (Ott & Longnecker, 2008). Nosotros
presentaremos una técnica diferente, llamada REML, que es válida en todos los casos, y
presenta la prueba F directamente (sin calcular los cuadrados medios). La tabla de análisis
de varianza muestra las fuentes de variación asociadas solamente con los efectos fijos, con

43
sus grados de libertad y las pruebas F correspondientes. Los grados de libertad asociados
con cada estadístico F aparecerán como grados de libertad del numerador y grados de
libertad del denominador. En SAS (Proc GLIMMIX) las varianzas estimadas aparecerán
en otra parte de la salida. En InfoStat (módulo de modelos lineales generales y mixtos en
InfoStat) aparecerán lasdesviaciones estándar .

Ejemplo en SAS

Como ejemplo en SAS, consideremos el modelo mixto discutido antes con 5 dosis de
fertilizante (fijas) y 4 variedades (aleatorias). Vamos a usar Proc GLIMMIX, que es el
procedimiento que incorpora efectos aleatorios (y modelos lineales generalizados) en SAS.
Todos los comandos que hemos usado hasta ahora en Proc GLM funcionan igual en PROC
GLIMMIX, excepto el comando means, que no se usa (se usa el comando lsmeans).

data ensayo; 3 3 7.1


input fertil varied rendim; 3 4 5.6
datalines; 4 1 8.2
1 1 7.2 4 2 3.6
1 2 4.2 4 3 7.3
1 3 9.5 4 4 5.0
1 4 5.4 4 1 9.0
1 1 9.6 4 2 4.4
1 2 3.5 4 3 7.0
1 3 9.3 4 4 5.4
1 4 3.9 5 1 7.8
2 1 8.5 5 2 3.7
2 2 2.9 5 3 9.2
2 3 8.8 5 4 6.5
2 4 6.3 5 1 8.0
2 1 9.6 5 2 3.9
2 2 3.3 5 3 8.3
2 3 9.2 5 4 6.9
2 4 6.0 proc glimmix;
3 1 9.1 class fertil varied;
3 2 1.8 model rendim = fertil;
3 3 7.6 random varied fertil*varied;
3 4 6.1 lsmeans fertil / pdiff lines;
3 1 8.6 run;
3 2 2.4

Para usar SAS Proc GLIMMIX, se deben indicar las variables de clasificación en el
comando class, la variable dependiente y los efectos fijos (excepto el intercepto) en el
comando model, los efectos aleatorios (excepto el error experimental) en el comando
random, y se pueden realizar las comparaciones de medias, contrastes, etc. usando los
comandos lsmeans y contrast respectivamente. Se debe observar que en este ejemplo
pedimos la prueba LSD mediante la opción pdiff, pero no es necesaria, ya que la prueba
F para niveles de fertilidad tiene un p-valor mayor que 0.05.

Las siguientes figuras muestran capturas de pantalla de la salida correspondiente a este


programa, con anotaciones para interpretar las distintas partes. Las tablas que no se

44
presentan aquí contienen resultados que no interpretaremos en este curso. Solo
mostraremos las salidas relevantes.

45
Como podemos concluir a partir de los resultados, no hay diferencias entre medias de
fertilizantes (p=0.6020), y la varianza más importante parece ser la debida al efecto de
variedad. La varianza del efecto de variedad es aproximadamente 16 veces más grande
que la varianza residual (error). La magnitud de la varianza de la interacción
fertilizante*variedad es parecida a la del error.

46
Ejemplo en InfoStat

Para realizar el mismo ejemplo en Infostat, debemos usar el módulo de Modelos Lineales
Generales y Mixtos, que requiere tener instalado R (Di Rienzo, Macchiavelli, &
Casanoves, 2011). Se debe seleccionar Estadísticas>Modelos lineales generales y
mixtos>Estimación:

En la ventana de efectos fijos se indica Fertil, en la ventana de efectos aleatorios se indica


Varied y Varied*Fertil, y en la ventana de comparaciones se marca Fertil y prueba de LSD.

47
48
La salida indicará los estimadores de los efectos fijos (observar que el efecto del primer
nivel de cada efecto fijo es siempre 0), la tabla de ANOVA para efecto(s) fijo(s), y los
estimadores de las desviaciones estándares de los efectos aleatorios (si queremos
estimadores de varianzas, simplemente cuadramos las desviaciones estándares).

49
11. Diseños anidados
Consideremos los siguientes dos ejemplos:

1. Queremos saber si hay diferencias en el contenido de vitamina C de jugo de china


de dos marcas diferentes (A, B). Elegimos aleatoriamente 6 cartones de cada una
de las marcas, y de cada cartón tomamos 2 muestras aleatorias de 1 oz. y las
analizamos. ¿Cuáles son los factores en estudio? ¿Son fijos o aleatorios?
2. Muestreamos 10 fincas de café al azar en el área central de P. Rico, elegimos 12
árboles al azar en cada finca y de cada árbol obtenemos 3 muestras de 20 hojas cada
una y determinamos el porcentaje de hojas con roya en cada muestra. ¿Cuáles son
los factores en estudio? ¿Son fijos o aleatorios?

En ambos ejemplos tenemos 2 factores de interés, pero, a diferencia de los experimentos


factoriales estudiados antes, no tenemos disponibles todas las combinaciones de niveles.
Esto hace que no podamos estudiar la interacción entre los factores, sino sólo el efecto del
factor A, y el efecto del factor B “dentro” de los niveles de A (es decir, las diferencias entre
los niveles de B en un nivel dado de A). El modelo se llama “jerárquico” o “anidado” (hay
una jerarquía de factores: tenemos niveles de A, dentro de cada nivel de A tenemos algunos
niveles específicos de B, etc.). Decimos que el factor B está anidado dentro del factor A.
(En factoriales, decimos que el factor B está cruzado con el factor A, ya que todas las
combinaciones de niveles de ambos factores aparecen). El modelo que explica las
observaciones es:
Yijk    i   j (i )   ijk

Los efectos de A pueden ser fijos o aleatorios, y los efectos de B dentro de A generalmente
son aleatorios, como hemos visto en los dos ejemplos al principio (el ejemplo 1 es mixto,
el 2 es aleatorio). Para el ejemplo 1, el modelo completo es

50
Yijk     i   j (i )   ijk
 j (i ) N  0,  2 
 ijk N  0,  2 

Para el ejemplo 2, el modelo considera todos los términos (excepto el intercepto) como
aleatorios:

Yijk     i   j (i )   ijk
i N  0,  2 
 j (i ) N  0,  2 
 ijk N  0,  2 

A partir de estos modelos, podemos realizar los análisis en SAS (Proc GLIMMIX) o
InfoStat (módulo de modelos lineales generales y mixtos). Debemos recordar que si
estamos considerando un efecto fijo, nos interesa estimar y probar hipótesis acerca de sus
efectos, mientras que si estamos considerando efectos aleatorios, nos interesa estimar
varianzas.

Como ejemplo en SAS e Infostat, consideremos el modelo mixto del ejemplo 1 con 2
marcas de jugo, 6 cartones por marca y 2 muestras por cartón.

data naranja; b 7 2 457


input marca $ carton muestra b 8 1 475
vitam; b 8 2 490
datalines; b 9 1 345
a 1 1 680 b 9 2 321
a 1 2 645 b 10 1 298
a 2 1 438 b 10 2 245
a 2 2 460 b 11 1 546
a 3 1 539 b 11 2 597
a 3 2 565 b 12 1 475
a 4 1 264 b 12 2 444
a 4 2 278 proc glimmix data=naranja;
a 5 1 693 class marca carton;
a 5 2 650 model vitam = marca;
a 6 1 530 random carton(marca);
a 6 2 585 lsmeans marca / pdiff lines;
b 7 1 418 run;

Model Information
Data Set WORK.NARANJA
Response Variable Vitam

51
Class Level Information
Class Levels Values
marca 2 ab

carton 12 1 2 3 4 5 6 7 8 9 10 11 12

Number of Observations Read 24


Number of Observations Used 24

Covariance Parameter Estimates


Estimate Standard
Cov Parm Error
carton(marca) 16719 7628.54
Residual 672.83 274.68

Type III Tests of Fixed Effects


Num Den F Value
Effect DF DF Pr > F
marca 1 10 1.81 0.2087

marca Least Squares Means


Standard
marca Estimate Error DF t Value Pr > |t|
a 527.25 53.3153 10 9.89 <.0001
b 425.92 53.3153 10 7.99 <.0001

Como podemos apreciar, no hay diferencias entre marcas en el contenido promedio de


vitamina C. Sin embargo, hay bastante variabilidad entre cartones de la misma marca (la
varianza del efecto de cartones es 20 veces más grande que la varianza residual).

52
53
Modelos lineales generales y mixtos

Especificación del modelo en R


mlm.modelo.004_Vitam_REML<-lme(Vitam~1+Marca
,random=list(Marca_Carton=pdIdent(~1))
,method="REML",na.action=na.omit
,data=mlm.modeloR.data04,keep.data=FALSE)

Resultados para el modelo: mlm.modelo.004_Vitam_REML

Variable dependiente: Vitam

Medidas de ajuste del modelo


N AIC BIC logLik Sigma R2_0 R2_1
24 257.91 262.28 -124.96 25.94 0.15 0.98
AIC y BIC menores implica mejor

Pruebas de hipótesis marginales (SC tipo III)


numDF denDF F-value p-value
(Intercept) 1 12 159.81 <0.0001
Marca 1 10 1.81 0.2087

Efectos fijos
Value Std.Error DF t-value p-value
(Intercept) 527.25 53.32 12 9.89 <0.0001
Marcab -101.33 75.40 10 -1.34 0.2087

Parámetros de los efectos aleatorios

Modelo de covarianzas de los efectos aleatorios: pdIdent


Formula: ~1|Marca_Carton

Desvíos estándares y correlaciones

(const)
(const) 129.30

Vitam - Medias ajustadas y errores estándares para Marca


LSD Fisher (Alfa=0.05)
Procedimiento de corrección de p-valores: No

Marca Medias E.E.


a 527.25 53.32 A
b 425.92 53.32 A
Medias con una letra común no son significativamente diferentes (p > 0.05)

54
12. Diseño de parcelas divididas
Hemos visto en distintos ejemplos cómo la manera en que aleatorizamos (asignamos los
tratamientos a las unidades experimentales) define el diseño del experimento. Por ejemplo,
si todos los tratamientos están asignados al azar en cada grupo de unidades experimentales
tenemos un diseño en bloques completos aleatorizados.

Consideremos un experimento en el que deseamos evaluar 4 distintos niveles de fertiliza-


ción (f1, f2, f3, f4) de Pasto Pangola para lo cual usamos 12 parcelas. Cada nivel de
fertilizante se aplica a 3 parcelas aleatoriamente elegidas. Cada una de las parcelas se divide
en 3 subparcelas, y aleatoriamente elegimos una de estas subparcelas para evaluar la
producción de materia seca de una de tres variedades del pasto (v1, v2, v3).

Este experimento tiene 2 factores, pero la forma en que hemos aleatorizado estos factores
no es la usual para los experimentos factoriales. Debemos observar que primero hemos
aleatorizado los niveles de un factor (fertilizante) a las parcelas completas y luego hemos
aleatorizado los niveles del otro factor (variedad) a las subparcelas. Debemos notar que la
aleatorización es más restringida que si hubiésemos aleatorizado todas las 12
combinaciones.

¿Qué ganamos con este diseño? Por una parte, pueden existir razones prácticas para usarlo:
por ejemplo es posible que logremos una mejor aplicación del fertilizante si lo aplicamos
a parcelas grandes. Por otra parte debemos observar también que cada parcela (completa)
está funcionando como un “bloque” para el segundo factor, ya que todos los niveles del
segundo factor (en nuestro ejemplo variedad) están presentes en cada parcela completa.
Esto hace que este factor gane en precisión.

En este diseño tenemos al menos dos factores: uno cuyos niveles se aleatorizan a las
parcelas completas y otro cuyos niveles se aleatorizan a las subparcelas. Las parcelas
completas pueden estar ordenadas en forma completamente aleatoria (como en nuestro
ejemplo), en forma de bloques completos, etc. Suponiendo que los factores A y B son fijos,
el modelo para observaciones provenientes de un diseño en parcelas divididas con parcelas
completas en un DCA es

Yijk     i   ik   j   ij   ijk
 ik N  0,  2 
 ijk N  0,  2 

Aquí  k (i ) es el efecto (aleatorio) de la repetición k en el tratamiento i (efecto de la parcela


completa). Si las parcelas completas estuviesen en un DBCA entonces debemos agregar
un efecto de bloques (típicamente el efecto de bloques se considera aleatorio, aunque al
comienzo del curso no lo hemos mencionado así por que no teníamos el concepto de
modelos mixtos):

55
Yijk     i   k   ik   j   ij   ijk
k N  0,  2 
 ik N  0,  2 
 ijk N  0,  2 

Los grados de libertad asociados con las fuentes de variación (fijas y aleatorias) para este
diseño son

Fuente de DCA DBCA


variación gl gl
Bloques - n-1
A a-1 a-1
Parcela a(n-1) (a-1)(n-1)
Completa
B b-1 b-1
AB (a-1)(b-1) (a-1)(b-1)
Error a(b-1)(n-1) a(b-1)(n-1)
Total abn-1 abn-1

El orden en que aparecen las fuentes de variación nos sugiere que para probar el efecto
principal del factor A debemos usar como denominador la variabilidad debida a los
efectos de “parcela completa” (a veces llamado error 1), ya que la aleatorización de
niveles de este factor se hizo sobre las parcelas completas. Similarmente, para probar
efecto principal de B o interacción debemos usar como denominador el error de
subparcela (a veces llamado error 2). Los grados de libertad asociados con las pruebas F,
DMS, etc. reflejarán esto en las salidas de SAS e InfoStat si los datos son balanceados.

Veamos el siguiente ejemplo, en el que hay dos niveles de irrigación (aplicados a parcelas
completas en un DCA con 3 repeticiones) y 2 variedades (aplicados a subparcelas).

P1 Con Riego V2 P1 Con Riego V1 P4 Sin Riego V1 P4 Sin Riego V2


P2 Sin Riego V2 P2 Sin Riego V1 P5 Con Riego V2 P5 Con Riego V1
P3 Sin Riego V1 P3 Sin Riego V2 P6 Con Riego V1 P6 Con Riego V2

data a;
input parcela riego $ variedad rendim;
datalines;
1 con 1 53
1 con 2 38
2 sin 1 63
2 sin 2 33
3 sin 1 52
3 sin 2 43
4 sin 1 49
4 sin 2 48
5 con 1 69

56
5 con 2 49
6 con 1 55
6 con 2 42
proc glimmix data=a;
class parcela riego variedad;
model rendim = riego variedad riego*variedad;
random parcela;
lsmeans riego variedad;
lsmeans riego*variedad / pdiff lines;
run;

Class Level Information


Class Levels Values
parcela 6 123456

riego 2 con sin

variedad 2 12

Number of Observations Read 12


Number of Observations Used 12

Covariance Parameter
Estimates
Estimate Standard
Cov Parm Error
parcela 0 .

Residual 54.9167 27.4583

El valor estimado de la varianza de efectos de parcela aparece como 0 debido a que,


cuando se redondea a 4 decimales, aparece como 0. Usando InfoStat, el valor estimado de
efecto de parcela es 0.000752.

Type III Tests of Fixed Effects


Num Den
Effect DF DF F Value Pr > F
riego 1 4 0.49 0.5218

variedad 1 4 11.75 0.0266

riego*variedad 1 4 0.10 0.7709

57
riego Least Squares Means
Standard
riego Estimate Error DF t Value Pr > |t|
con 51.0000 3.0254 4 16.86 <.0001
sin 48.0000 3.0254 4 15.87 <.0001

variedad Least Squares Means


Standard
variedad Estimate Error DF t Value Pr > |t|
1 56.8333 3.0254 4 18.79 <.0001
2 42.1667 3.0254 4 13.94 0.0002

riego*variedad Least Squares Means


Standard
riego variedad Estimate Error DF t Value Pr > |t|
con 1 59.0000 4.2785 4 13.79 0.0002
con 2 43.0000 4.2785 4 10.05 0.0006
sin 1 54.6667 4.2785 4 12.78 0.0002
sin 2 41.3333 4.2785 4 9.66 0.0006

T Grouping for riego*variedad


Least Squares Means
(Alpha=0.05)
LS-means with the same letter are
not significantly different.
riego variedad Estimate
con 1 59.0000 A
A
sin 1 54.6667 B A
B A
con 2 43.0000 B A
B
sin 2 41.3333 B

58
Para realizar el mismo ejemplo en Infostat debemos especificar el siguiente modelo:

Si esto fuese un diseño en


bloques, aquí se debe escribir
bloque
parcela

59
Medidas de ajuste del modelo
N AIC BIC logLik Sigma R2_0 R2_1
12 71.14 71.62 -29.57 7.41 0.61 0.61
AIC y BIC menores implica mejor

Pruebas de hipótesis marginales (SC tipo III)


numDF denDF F-value p-value
(Intercept) 1 4 535.41 <0.0001
riego 1 4 0.49 0.5218
variedad 1 4 11.75 0.0266
riego:variedad 1 4 0.10 0.7709

Parámetros de los efectos aleatorios


Modelo de covarianzas de los efectos aleatorios: pdIdent
Formula: ~1|parcela

Desvíos estándares y correlaciones


(const)
(const) 7.5E-04

rendim - Medias ajustadas y errores estándares para riego


LSD Fisher (Alfa=0.05)
Procedimiento de corrección de p-valores: No
riego Medias E.E.
con 51.00 3.03 A
sin 48.00 3.03 A
Medias con una letra común no son significativamente diferentes (p > 0.05)

rendim - Medias ajustadas y errores estándares para


variedad
LSD Fisher (Alfa=0.05)
Procedimiento de corrección de p-valores: No
variedad Medias E.E.
1 56.83 3.03 A
2 42.17 3.03 B
Medias con una letra común no son significativamente diferentes (p > 0.05)

rendim -Medias ajustadas y errores estándares para riego*variedad


LSD Fisher (Alfa=0.05)
Procedimiento de corrección de p-valores: No
riego variedad Medias E.E.
con 1 59.00 4.28 A
sin 1 54.67 4.28 A B
con 2 43.00 4.28 A B
sin 2 41.33 4.28 B
Medias con una letra común no son significativamente diferentes (p > 0.05)

60
13. Repaso de regresión lineal simple
Hasta ahora hemos estudiado la relación entre una variable dependiente (Y) y tratamientos
(uno o más factores) simplemente considerando que cada tratamiento tiene su media, y nos
interesaba comparar estas medias mediante hipótesis apropiadas. Ahora vamos a enfatizar
la relación que existe entre dos variables cuantitativas: una independiente y otra
dependiente. Por ejemplo la cantidad de proteína en la dieta y el aumento de peso. La
variable que nosotros variamos a voluntad es la “variable independiente”, y sobre la que
nos interesa estudiar el efecto es la “variable dependiente”. Por ejemplo, queremos ver cuál
es el promedio de ganancia de peso cuando agregamos 10%, 15%, 20% y 25% de proteína
a la dieta.

La relación más simple es la de una línea recta Y   0  1 x , donde Y es el aumento de


peso, x es el porcentaje de proteína en la dieta,  0 es el intercepto (valor de Y cuando x=0)
y 1 es la pendiente (cambio en Y cuando x aumenta en una unidad).

Este modelo se llama modelo determinístico: conociendo el valor de x podemos predecir


exactamente el valor de Y. En la práctica no es muy realista, ya que los puntos observados
no van a estar exactamente sobre la línea recta. El siguiente gráfico es más realista:
10
9
8
7
6
Y

5
4
3
2
0 2 4 6 8 10

Un modelo más realista es pensar que la línea recta representa la relación entre la media de
las Y para un valor dado de x y la variable independiente: Y   0  1 x . Otra forma de
escribir este modelo es
Y   0  1 x  
donde  es el error aleatorio y representa la diferencia entre el valor de Y y su media Y
(o lo que es lo mismo, entre el valor observado y la recta). La media de estos errores
aleatorio para un valor dado de x es 0 (es decir, los valores positivos y negativos se
“balancean”) y por lo tanto ambas formulaciones de este modelo estocástico son
equivalentes.

Problema: los parámetros de la recta   0 , 1  son desconocidos, por lo que necesitaremos


una muestra de N observaciones  x1 , Y1  ,...,  xN , YN  para estimarlos. La recta que
obtendremos será la recta estimada:

61
Yˆ  ˆ0  ˆ1 x
La diferencia entre cada valor observado Yi y el valor correspondiente sobre la recta
estimada se llama “error de predicción” o residual, y se denomina como ei  Yi  Yˆi .
Observar que esto no es lo mismo que el error aleatorio  i , que es la diferencia entre cada
valor observado y la recta verdadera (poblacional).

Para estimar la recta vamos a usar el método de mínimos cuadrados, que consiste en elegir
los parámetros   0 , 1  que minimicen la suma de los cuadrados de los errores de
predicción:
N N

 (Yi  Yˆi )2   (Yi  ˆo  ˆ1 xi )2


i 1 i 1
Los estimadores son
S xy
ˆ1  , ˆ0  Y  ˆ1 x
S xx

2
N N
 N 
S xx   ( X i  X )   X    X i 
2
i
2
N
i 1 i 1  i 1 
N N N N
S xy   ( X i  X )(Yi  Y )   X iYi   X i  Yi N
i 1 i 1 i 1 i 1

Ejemplo: Relación entre el peso de gallinas (lb) y el consumo de alimento durante 1 año.

Peso Consumo
4.6 87.1
5.1 93.1
4.8 89.8
4.4 91.4
5.9 99.5
4.7 92.1
5.1 95.5
5.2 99.3
4.9 93.4
5.1 94.4

62
102

98
PRED_Consumo

94

90

86
4.0 4.5 5.0 5.5 6.0
Peso

Coeficientes de regresión y estadísticos asociados


Coef Est. EE LI(95%) LS(95%) T valor p CpMallows
const 55.26 9.53 33.28 77.25 5.80 0.0004
Peso 7.69 1.91 3.29 12.09 4.03 0.0038 15.54

Observar que, para este ejemplo S xx  1.536, S xy  11.812, ˆ1  7.69, ˆ0  55.26.

Ahora estamos en condiciones de realizar inferencias. Repasemos nuestro modelo

Yi   0  1 xi   i
Vamos a asumir que este es el modelo correcto, que los 1 ,...,  N son independientes y
tienen distribución normal con media 0 y varianza constante:
 i ~ N  0,   

La tabla de análisis de varianza que nos permite partir la variabilidad total es:

Fuente de Suma de
grados Cuadrado Medio F
Variación Cuadrados
de
libertad
Regresión SCRegresión 1 CMReg=SCReg/1 F=CMReg/CME
Residual (Error) SCResidual=SCE N-2 CME=SCE/(N-2)
Total SCTotal N-1

63
Las fórmulas para estas sumas de cuadrados son:
 Y
 
2

SCTotal  SYY   Yi  Y    Yi


2 2 i
N
   ˆ S
SCRegresión   Yˆi  Y
2
1 XY

SCResidual   Y  Yˆ  =SCTotal  SCRegresión


2
i i

Podemos ver qué pasaría si todas las observaciones estuviesen sobre la recta
(SCResidual=0), y qué pasaría si lal mejor recta de ajuste fuese una línea horizontal
(SCRegresión=0).

Cuadro de Análisis de la Varianza (SC tipo III)


F.V. SC gl CM F valor p
Modelo 90.84 1 90.84 16.23 0.0038
Peso 90.84 1 90.84 16.23 0.0038
Error 44.77 8 5.60
Total 135.60 9

Para realizar inferencias podemos aplicar propiedades de la distribución muestral de


ˆ0 y ˆ1 , que es normal con los siguientes parámetros:
ˆ   0 ,  ˆ  1
0 1

 ˆ    x 2
,  ˆ 

0 N S xx 1
S xx
El estimador de  2 es el cuadrado medio residual.

Con esta información podemos construir intervalos de confianza y realizar pruebas de


hipótesis usando el estadístico t o F. Por ejemplo,

H 0 : 1  0, H a : 1  0
ˆ  0
t 1 , gl  N  2
s
S xx
Esta última prueba es la más importante en regresión lineal: si no podemos rechazar H 0
entonces estamos concluyendo que no hay una relación lineal entre el promedio de las Y y
las x. Otro estadístico alternativo es el estadístico para esta prueba es F  CMReg y
CME
debemos rechazar H 0 si F  F . Para encontrar el valor tabular de F debemos buscar en
la tabla correspondiente con 1 y N-2 grados de libertad. Podemos verificar que tanto para
el valor observado como para el tabular, F  t 2 y por lo tanto ambas pruebas siempre van
a conducir a las mismas conclusiones.

64
14. Regresión polinomial
Supongamos que tenemos 4 tratamientos, que son las dosis de fertilizante nitrogenado 0,
50, 100 y 200. Realizamos un experimento con estos tratamientos en un DCA con 5
repeticiones. Ahora tenemos dos opciones para analizar estos datos: ANOVA y regresión.

En ANOVA el modelo es Yij    i   ij , mientras que en regresión el modelo es


Yij   0  1 xij   ij . Veamos cómo sería el modelo para observaciones de cada una de las
dosis:
Dosis Modelo de ANOVA Modelo de regresión
0 Y1 j    1  1 j Y1 j   0  1 j
50 Y2 j     2   2 j Y2 j   0  50 1   2 j
100 Y3 j    3   3 j Y3 j   0  1001   3 j
200 Y4 j     4   4 j Y4 j   0  200 1   4 j

Podemos ver la diferencia entre ambos modelos. En el ANOVA estamos ajustando una
media diferente para cada dosis ( i     i ) mientras que en regresión lineal simple la
media de cada dosis se calcula a partir de la ecuación lineal. En ANOVA tenemos cuatro
parámetros (aparecen 5 en las fórmulas pero la suma de los efectos es cero, así que
efectivamente son 4); mientras que en regresión lineal simple tenemos sólo dos parámetros
(intercepto y pendiente).

¿Cuál de los dos modelos será mejor? Por una parte el ANOVA siempre tendrá una SCE
más pequeña (o a lo sumo igual) que la de la regresión, pero los grados de libertad también
son menos (ANOVA tiene más parámetros que regresión lineal simple), por lo que no
sabemos lo que pasa con el CME. Si el modelo de regresión ajusta bien (es decir, explica
bien los datos) entonces será más útil (podríamos predecir qué pasa con una dosis de 75,
por ejemplo). Aunque el modelo de regresión no ajusta, el de ANOVA siempre lo hará, ya
que no hay ninguna función a la que las medias deban ajustarse: simplemente cada
tratamiento tiene su media.

¿Cómo podemos probar si el modelo de regresión lineal simple ajusta bien? La forma más
sencilla e intuitiva de hacerlo es a través de la comparación de las sumas de cuadrado de
error de ambos modelos: si son bastante parecidas, entonces razonablemente podremos
decir que el modelo de regresión lineal ajusta bien. Si la del ANOVA es sustancialmente
menor, entonces obviamente las medias no siguen una relación de línea recta sino que
necesitaríamos otro modelo para explicar su relación. Es decir, necesitaremos dos tablas
de ANOVA: una para el modelo de ANOVA y otra para el modelo de regresión lineal
simple. Denotaremos como SCEANOVA y SCEREG a las sumas de cuadrado de error de
ambos modelos. Podemos construir un estadístico F como

65
SCE REG -SCE ANOVA 
F
 gleREG -gleANOVA 
CME ANOVA

Este estadístico permitirá probar las hipótesis:

H 0 : Y   0  1 x
H a : el modelo no ajusta

La región de rechazo son los valores F  F , con los grados de libertad apropiados.
Debemos notar que para probar esta hipótesis necesitamos que haya valores de Y repetidos
para al menos algunos de los valores de x, cosa que no siempre sucede en regresión.

¿Qué hacemos si el modelo de regresión lineal simple no ajusta? Una de las alternativas ya
la conocemos: podemos olvidarnos de la regresión y comparar las medias mediante las
técnicas de ANOVA (comparaciones múltiples, contrastes, intervalos de confianza, etc.)

La otra alternativa es usar un modelo de regresión más complejo, que permita estudiar
relaciones curvilíneas. Entre estos modelos tenemos los polinomios, las ecuaciones
exponenciales, logarítmicas, etc. El polinomio es la extensión natural de la ecuación lineal
simple, y consiste en suma de distintas potencias de x. Por ejemplo un modelo polinomial
de tercer grado es:
Yij   0  1 xij   2 xij2   3 xij3   ij
Ahora vemos que tenemos un modelo mucho más flexible, pero con mayor cantidad de
parámetros (en este ejemplo, la misma cantidad que el modelo de ANOVA considerado
antes). En modelos polinomiales podemos aplicar la misma prueba de falta de ajuste
presentada antes, pero de manera secuencial. Es decir, empezamos probando si el
polinomio de primer grado ajusta. Si aceptamos la hipótesis nula entonces no es necesario
hacer nada más: el modelo rectilíneo es apropiado. Si rechazamos la nula, entonces
probaríamos si un modelo cuadrático es apropiado, y así seguiremos probando hasta
encontrar un grado del polinomio que sea apropiado. Si tenemos t tratamientos el grado
máximo del polinomio que podremos ajustar es t-1, ya que en ese caso los grados de
libertad de regresión son los mismos que los grados de libertad de tratamientos (en efecto,
los modelos son exactamente iguales).

Ejemplo: En este ejemplo tenemos rendimientos de tomate bajo cinco regímenes de


humedad diferentes: 6, 8, 10, 12 y 14%. Hay 5 repeticiones de cada tratamiento, ubicadas
en un DCA.
rend. hum. 51.5 8.0 51.1 10.0
51.7 8.0 51.5 10.0
49.2 6.0 50.4 8.0 50.3 10.0
48.1 6.0 rend. hum. 48.9 10.0
48.0 6.0 48.7 10.0
49.6 6.0 51.2 8.0 48.6 12.0
47.0 6.0 48.4 8.0 rend. hum.

66
47.0 12.0 46.2 12.0 42.1 14.0
48.0 12.0 43.2 14.0 43.9 14.0
46.4 12.0 42.6 14.0 40.5 14.0

En Infostat usamos el menú Regresión lineal, con las opciones de “Error Puro” para
probar la falta de ajuste, y en la solapa “Polinomios” podemos seleccionar el orden
deseado.

Al ajustar un modelo de regresión lineal simple obtenemos los siguientes resultados:


Análisis de regresión lineal

Variable N R² R² Aj
rendim 25 0.48 0.46

Coeficientes de regresión y estadísticos asociados


Coef Est. EE LI(95%) LS(95%) T valor p CpMallows
const 55.38 1.71 51.84 58.93 32.29 <0.0001
humedad -0.76 0.17 -1.10 -0.42 -4.62 0.0001 21.48

Cuadro de Análisis de la Varianza (SC tipo III)


F.V. SC gl CM F valor p
Modelo 116.13 1 116.13 21.32 0.0001
humedad 116.13 1 116.13 21.32 0.0001

67
Error 125.27 23 5.45
Lack Of Fit 96.44 3 32.15 22.31 <0.0001
Error Puro 28.82 20 1.44
Total 241.40 24

Rendimiento de Tomate

54.0

50.5
Rendim

47.0

43.5

40.0
6 8 10 12 14
humedad

Al ajustar un modelo de regresión polinomial de segundo orden (cuadrática) obtenemos


los siguientes resultados:
Análisis de regresión lineal
Variable N R² R² Aj
rendim 25 0.88 0.87

Coeficientes de regresión y estadísticos asociados


Coef Est. EE LI(95%) LS(95%) T valor p CpMallows
const 28.44 3.28 21.64 35.24 8.67 <0.0001
humedad 5.10 0.69 3.66 6.53 7.35 <0.0001 53.68
humed^2 -0.29 0.03 -0.36 -0.22 -8.51 <0.0001 71.24

Cuadro de Análisis de la Varianza (SC tipo I)


F.V. SC gl CM F valor p
Modelo 212.19 2 106.09 79.90 <0.0001
humedad 116.13 1 116.13 87.46 <0.0001
humedad^2 96.06 1 96.06 72.34 <0.0001
Error 29.21 22 1.33
Total 241.40 24

Cuadro de Análisis de la Varianza (SC tipo III)


F.V. SC gl CM F valor p
Modelo 212.19 2 106.09 79.90 <0.0001
humedad 212.19 2 106.09 79.90 <0.0001
Error 29.21 22 1.33

68
Lack Of Fit 0.39 2 0.19 0.13 0.8749
Error Puro 28.82 20 1.44
Total 241.40 24

Rendimiento de Tomate

54.0

50.5
Rendim

47.0

43.5

40.0
6 8 10 12 14
humedad

15. Regresión lineal múltiple


Supongamos que estamos estudiando la relación entre la pérdida de peso de un vegetal (en
mg) luego de exponerse al aire durante distintos tiempos a diferentes humedades relativas:

9
8
7
6
Pérdida

5
4
3
2
1
0
0.5 0.55 0.6 0.65 0.7 0.75 0.8 0.85 0.9

Humedad

69
9
8
7
6
Pérdida

5
4
3
2
1
0
3 4 5 6 7 8

Tiempo

Podríamos realizar dos regresiones lineales, pero obtendremos más información si


introducimos ambas variables independientes (humedad y tiempo) en el mismo modelo:
Yi   0  1 x1i   2 x2i   i
Éste es un modelo de regresión lineal múltiple.
Gráficamente es la ecuación de un plano (o un “hiperplano” si hay más de dos variables
independientes). Veamos un ejemplo:

70
El intercepto tiene la misma interpretación que en regresión lineal simple: promedio de las
Y cuando todas las x valen 0. Recordemos que esto no siempre tiene una interpretación
práctica (en este ejemplo no la tiene). La principal dificultad de este modelo es la
interpretación de las pendientes (ahora llamadas pendientes parciales o coeficientes de
regresión parciales). El parámetro 1 es el cambio en el promedio de las Y cuando x1
aumenta una unidad y x2 permanece constante. Es decir, un coeficiente de regresión parcial
se interpreta manteniendo todas las otras variables independientes constantes. El término
“parcial” enfatiza que no es una pendiente absoluta, sino una pendiente en la dirección de
la variable x1 (es decir, moviéndonos a lo largo del eje x1 ).

Los supuestos son los mismos que realizamos en regresión simple (observar que los errores
 i son los mismos): independencia, varianza constante, normalidad y modelo correcto (es
decir, no hay necesidad de términos cuadráticos, etc. en ninguna de las variables
independientes, ni tampoco de productos entre las variables independientes).

Para ajustar este modelo debemos usar programas estadísticos, y a que los cálculos
manuales son muy complicados. El ejemplo analizado en SAS e Infostat nos da los
siguientes resultados:

data fruta;
input tiempo humedad perdida;
datalines;
4 .6 4.3
5 .6 5.5
6 .6 6.8
7 .6 8.0
4 .7 4.0
5 .7 5.2
6 .7 6.6
7 .7 7.5
4 .8 2.0
5 .8 4.0
6 .8 5.7
7 .8 6.5
proc reg ;
model perdida=tiempo humedad;
run;

71
The REG Procedure
Model: MODEL1
Dependent Variable: perdida

Analysis of Variance

Source DF Sum of Mean F Value Pr > F


Squares Square

Model 2 31.12417 15.56208 104.13 <.0001

Error 9 1.34500 0.14944

Corrected Total 11 32.46917

Root MSE 0.38658 R-Square 0.9586

Dependent Mean 5.50833 Adj R-Sq 0.9494

Coeff Var 7.01810

Parameter Estimates

Variable DF Parameter Standard t Value Pr > |t|


Estimate Error

Intercept 1 3.86667 1.10868 3.49 0.0069

tiempo 1 1.31667 0.09981 13.19 <.0001

humedad 1 -8.00000 1.36677 -5.85 0.0002

Análisis de regresión lineal


Variable N R² R² Aj
perdida 12 0.96 0.95

Coeficientes de regresión y estadísticos asociados


Coef Est. EE LI(95%) LS(95%) T valor p CpMallows
const 3.87 1.11 1.36 6.37 3.49 0.0069
tiempo 1.32 0.10 1.09 1.54 13.19 <0.0001 158.71
humedad -8.0 1.37 -11.09 -4.91 -5.85 0.0002 32.93

Cuadro de Análisis de la Varianza (SC tipo III)


F.V. SC gl CM F valor p
Modelo 31.12 2 15.56 104.13 <0.0001
tiempo 26.00 1 26.00 174.01 <0.0001
humedad 5.12 1 5.12 34.26 0.0002
Error 1.35 9 0.15
Total 32.47 11

72
¿Cómo sabemos si este modelo es razonable para ajustar estos datos? Tenemos dos formas
básicas: el coeficiente de determinación R 2 y los gráficos “residuales vs. predichos”. El
coeficiente de determinación es la proporción de la variabilidad total explicada por la
regresión:
SCRegresión
R2 
SCTotal
Este coeficiente siempre está entre 0 y 1, y cuanto más cerca de 1 está mejor será el ajuste.
Observar que si tuviésemos una regresión lineal simple, R 2 es simplemente el cuadrado
del coeficiente de correlación lineal.

Para probar hipótesis acerca de los coeficientes de regresión  i necesitamos conocer el

error estándar sˆi . Como la fórmula para este error estándar es muy complicada, podemos
leer directamente su valor en la salida de computadora. Para probar hipótesis o construir
intervalos de confianza usamos el estadístico t. Por ejemplo,

H0 : 2  0
H a :  2  0 (>0,  0)
ˆ
t 2
sˆ
2

Un intervalo de confianza para 1 sería ˆ1  t 2 sˆ . Los grados de libertad del estadístico
1

t son los del error. Lo más importante que tenemos que tener en cuenta al realizar
inferencias acerca de un coeficiente de regresión parcial es que la inferencia se hace en
presencia de todas las otras variables independientes en el modelo (es decir, es una prueba
parcial).

Debido a la complicación de la interpretación de una prueba parcial, nunca podemos decir,


mirando a las pruebas t o F parciales, que dos coeficientes de regresión no son importantes
y que debemos eliminarlos (es posible que ambos no sean necesarios, pero al menos uno
de ellos sea muy importante, y como explican más o menos lo mismo las pruebas parciales
de cada uno de ellos en presencia del otro no sean significativas!). Para probar
simultáneamente la significancia de dos (o más) coeficientes podemos usar la idea de un
modelo “completo” (que se cumple si la hipótesis nula es falsa) y un modelo “reducido”
(que se cumple si la hipótesis nula es verdadera). Por ejemplo, para probar que 1  3  0
en un modelo con tres regresores planteamos
H 0 : Y   0   2 x2   i (modelo reducido)
H a : Y   0  1 x1   2 x2   3 x3   i (modelo completo)
Ahora ajustamos ambos modelos y obtenemos las sumas de cuadrados y los grados de
libertad del error. La suma de cuadrados para probar nuestra hipótesis va a ser la diferencia
en las sumas de cuadrados:

73
SCH=SCError(reducido)-SCError(completo)
glH=glerror(reducido)-glerror(completo)
SCH
CMH=
glH

El estadístico F será: F  CMH .


CMError(completo)

Pasos a seguir para construir un modelo de regresión múltiple

1. Seleccionar las variables independientes importantes. Obviamente no todo lo que


podamos medir sobre un fenómeno nos va a servir para explicarlo (además, no tiene
sentido usar 150 variables independientes!). Lo primero que necesitamos es conocer
los antecedentes de estudios previos, naturaleza del fenómeno, etc. para decidir qué
variables podrían usarse. Luego podemos aplicar técnicas estadísticas para eliminar las
que no contribuyen significativamente en el modelo. Las técnicas más comunes se
basan en agregar y/o eliminar variables una por vez (para evitar el problema de pruebas
parciales ocultando información importante). Las estudiaremos la próxima clase: R 2 ,
selección “backwards”, selección “forward” y selección “stepwise”.
2. Usar residuales para evaluar si el modelo seleccionado es suficiente, o es necesario
agregar términos (por ejemplo cuadrático en alguna de las variables, o prpoductos de
variables), o es necesario considerar transformaciones o modelos no lineales. Entre los
gráficos mas comunes está el de “residuales vs. predichos”, “residuales vs. cada
variable independiente”, etc.
3. Verificación de supuestos mediante las técnicas estudiadas en ANOVA y regresión
simple. Una vez que encontramos un modelo satisfactorio (ver parte 2), recordemos
que los supuestos son los mismos que en otrso modelos lineales (independencia,
varianza constante, normalidad). El gráfico “residuales vs. predichos” nos permite ver
si hay problemas de varianzas constantes. El gráfico de normalidad (o las pruebas de
Shapiro_Wilks, etc.) nos permiten verificar normalidad. La independencia no
siempre es posible garantizarla mediante aleatorización, ya que muchos estudios no
experimentales también generan datos que se analizan por regresión múltiple. Si
tenemos un experimento bien diseñado, no hay problemas de dependencia. Si tenemos
un estudio observacional con datos registrados a lo largo del tiempo es posible que haya
dependencia ya que observaciones cercanas tenderán a estar positivamente
correlacionadas. Un gráfico “residuales vs. tiempo” nos permitirá detectar este
problema (también existe la prueba de Durbin Watson para estudiar esto). La validez
de la forma funcional del modelo se puede probar si existen repeticiones en las
mismas combinaciones de valores de x a través de la prueba de error puro.

74
16. Selección de variables en regresión múltiple
Recordemos que los objetivos de un modelo de regresión son dos: encontrar un
modelo que ajuste bien (es decir, que esté “cerca” de los datos observados) y que sea útil
para predecir observaciones futuras razonablemente bien. Por lo tanto no siempre
queremos usar todas las variables independientes disponibles sino sólo aquéllas que sean
importantes. El problema de decidir cuáles son las importantes es bastante complicado, ya
que vimos que las pruebas parciales pueden ocultar información de interés. Entre los
métodos más comunes para seleccionar variables tenemos el método de r-cuadrado, el de
r-cuadrado ajustado, el de selección “forward”, el de selección “backward” y el de
selección “stepwise”.

Supongamos que tenemos k posibles regresores (variables independientes) y queremos


seleccionar un subconjunto de estos regresores que nos den un modelo apropiado.

El método de R 2 consiste en calcular este coeficiente de determinación para cada uno de


los modelos posibles  2k  1 . Entonces podemos elegir el modelo que mejor ajusta entre
los de 1 variable, 2 variables, etc. El principal problema es que el R 2 va a crecer siempre
que agreguemos términos al modelo, aunque este crecimiento no va a ser necesariamente
importante. Debemos usar nuestro criterio para decidir qué modelo vamos a elegir.

Para evitar el problema de R 2 creciendo a medida que agregamos regresores, se ha


desarrollado el método de R 2 ajustado. Este ajuste penaliza los modelos con demasiadas
variables independientes, por lo que este coeficiente ajustado no necesariamente crece a
medida que ponemos más regresores.
( N  1) 1  R 2 
R 2 ajustado  1 
( N  k  1)

Si la cantidad de posibles regresores es muy grande, el uso de todos los modelos posibles
es dificultoso (por ejemplo, si hay 20 posibles regresores la cantidad de modelos es
1048575). Para evitar tener que ajustar todos estos modelos, se han desarrollado otros
métodos de selección. El método “forward” comienza con el mejor modelo de una variable
(regresión lineal simple), luego agrega una segunda variable y selecciona el mejor modelo
entre los que tienen la primera seleccionada y alguna de las otras. Sigue agregando
variables hasta que el agregado de cualquier otra variable no es significativo (a un nivel
predeterminado llamado “SLENTRY”, típicamente .10-.15). Este método no garantiza que
encontraremos el mejor modelo, pero posiblemente encuentre un modelo razonable.

Otro método relacionado es el de selección “backward”. En este método comenzamos por


el modelo “completo” (con todas las variables independientes), y empezamos a eliminar la
menos importante (cuya prueba F o t parcial sea la menos significativa). Seguimos
eliminando variables (una por vez) hasta que todas las variables en el modelo sean
significativas según los resultados de las pruebas parciales (a un nivel predeterminado,
“SLSTAY”).

75
El método “stepwise” comienza como el forward, pero después de incorporar una nueva
variable independiente trata de eliminar alguna de las que estaban ya en el modelo (si no
es significativa en la prueba parcial). Continúa incorporando y eliminando variables hasta
que ninguna de las que quedan afuera pueden agregarse al modelo (porque su nivel de
significancia es mayor que el SLENTRY) y ninguna de las incorporadas al modelo pueden
eliminarse (porque su nivel de significancia es menor de SLSTAY).

Otro enfoque, que se puede aplicar a cualquier tipo de modelo (no solamente de regresión),
es el uso de lo que se denomina “criterios de verosimilitud penalizada”, que tienen el mismo
principio del R 2 ajustado: a mayor verosimilitud mejor es el ajuste, pero se penaliza por la
cantidad de parámetros que deben estimarse en el modelo. Los dos más cumúnmente
usados son el AIC (Akaike Informatio Criterion) y el BIC (Bayesian Information Criterion
o Criterio de Schwarz).

En el siguiente ejemplo se estudió la altura de adultos (en pulgadas) en relación al largo al


nacimiento, la altura de sus padres y de sus abuelos.
data alturas;
input y x1 x2 x3 x4 x5 x6 x7;
label y='altura' x1='largo al nacim.' x2='altura madre'
x3='altura padre' x4='altura abuela materna' x5='altura abuelo materno'
x6='altura abuela paterna' x7='altura abuelo paterno';
datalines;
67.2 19.7 60.5 70.3 65.7 69.3 65.7 67.3
69.1 19.6 64.9 70.4 62.6 69.6 64.6 66.4
67.0 19.4 65.4 65.8 66.2 68.8 64.0 69.4
72.4 19.4 63.4 71.9 60.7 68.0 64.9 67.1
63.6 19.7 65.1 65.1 65.5 65.5 61.8 70.9
72.7 19.6 65.2 71.1 63.5 66.2 67.3 68.6
68.5 19.8 64.3 67.9 62.4 71.4 63.4 69.4
69.7 19.7 65.3 68.8 61.5 66.0 62.4 67.7
68.4 19.7 64.5 68.7 63.9 68.8 62.3 68.8
70.4 19.9 63.4 70.3 65.9 69.0 63.7 65.1
67.5 18.9 63.3 70.4 63.7 68.2 66.2 68.5
73.3 20.8 66.2 70.2 65.4 66.6 61.7 64.0
70.0 20.3 64.9 68.8 65.2 70.2 62.4 67.0
69.8 19.7 63.5 70.3 63.1 64.4 65.1 67.0
63.6 19.9 62.0 65.5 64.1 67.7 62.1 66.5
64.3 19.6 63.5 65.2 63.9 70.0 64.2 64.5
68.5 21.3 66.1 65.4 64.8 68.4 66.4 70.8
70.5 20.1 64.8 70.2 65.3 65.5 63.7 66.9
68.1 20.2 62.6 68.6 63.7 69.8 66.7 68.0
66.1 19.2 62.2 67.3 63.6 70.9 63.6 66.7
proc reg;
model y=x1 x2 x3 x4 x5 x6 x7 /selection=rsquare;
proc reg;
model y=x1 x2 x3 x4 x5 x6 x7 /selection=adjrsq;
proc reg;
model y=x1 x2 x3 x4 x5 x6 x7 /selection=forward slentry=0.15;
proc reg;
model y=x1 x2 x3 x4 x5 x6 x7 /selection=backward slstay=0.15;
proc reg;
model y=x1 x2 x3 x4 x5 x6 x7 /selection=stepwise; run;

76
The REG Procedure
Model: MODEL1
Dependent Variable: y

R-Square Selection Method

Number of Observations Read 20

Number of Observations Used 20

Number in R-Square Variables in Model


Model

1 0.6262 x3

1 0.1596 x2

1 0.0677 x1

1 0.0633 x5

1 0.0536 x7

1 0.0458 x4

1 0.0371 x6

2 0.8509 x2 x3

2 0.7939 x1 x3

2 0.6350 x3 x5

2 0.6286 x3 x6

2 0.6271 x3 x7

2 0.6270 x3 x4

2 0.2749 x2 x7

… … …

2 0.0996 x4 x7

2 0.0719 x4 x6

3 0.9050 x1 x2 x3

3 0.8572 x2 x3 x7

77
Number in R-Square Variables in Model
Model

3 0.8568 x2 x3 x5

3 0.8531 x2 x3 x6

3 0.8510 x2 x3 x4

3 0.1727 x1 x5 x6

… … …

3 0.1428 x4 x5 x6

4 0.9102 x1 x2 x3 x5

4 0.9090 x1 x2 x3 x4

… … …

4 0.2328 x4 x5 x6 x7

5 0.9135 x1 x2 x3 x4 x5

5 0.9113 x1 x2 x3 x5 x7

5 0.9110 x1 x2 x3 x5 x6

5 0.9109 x1 x2 x3 x4 x7

… … …

5 0.3315 x1 x2 x4 x5 x6

6 0.9150 x1 x2 x3 x4 x5 x7

6 0.9141 x1 x2 x3 x4 x5 x6

6 0.9137 x1 x2 x3 x5 x6 x7

6 0.5028 x1 x2 x4 x5 x6 x7

7 0.9171 x1 x2 x3 x4 x5 x6 x7

The REG Procedure


Model: MODEL1
Dependent Variable: y

78
Adjusted R-Square Selection Method

Number in Adjusted R-Square Variables in Model


Model R-Square

3 0.8871 0.9050 x1 x2 x3

4 0.8863 0.9102 x1 x2 x3 x5

4 0.8847 0.9090 x1 x2 x3 x4

5 0.8826 0.9135 x1 x2 x3 x4 x5

4 0.8815 0.9065 x1 x2 x3 x7

4 0.8810 0.9061 x1 x2 x3 x6

5 0.8797 0.9113 x1 x2 x3 x5 x7

5 0.8792 0.9110 x1 x2 x3 x5 x6

5 0.8791 0.9109 x1 x2 x3 x4 x7

5 0.8776 0.9098 x1 x2 x3 x4 x6

5 0.8774 0.9096 x1 x2 x3 x6 x7

6 0.8758 0.9150 x1 x2 x3 x4 x5 x7

6 0.8744 0.9141 x1 x2 x3 x4 x5 x6

6 0.8739 0.9137 x1 x2 x3 x5 x6 x7

6 0.8738 0.9136 x1 x2 x3 x4 x6 x7

7 0.8687 0.9171 x1 x2 x3 x4 x5 x6 x7

… … … …

1 -.0164 0.0371 x6

3 -.0179 0.1428 x4 x5 x6

2 -.0373 0.0719 x4 x6

The REG Procedure


Model: MODEL1

79
Dependent Variable: y altura

Forward Selection: Step 1


Variable x3 Entered: R-Square = 0.6262 and C(p) = 38.0804

Analysis of Variance

Source DF Sum of Mean F Value Pr > F


Squares Square

Model 1 91.26802 91.26802 30.16 <.0001

Error 18 54.47748 3.02653

Corrected Total 19 145.74550

Variable Parameter Standard Type II SS F Value Pr > F


Estimate Error

Intercept -0.10886 12.50618 0.00022932 0.00 0.9932

x3 1.00049 0.18219 91.26802 30.16 <.0001

Forward Selection: Step 2


Variable x2 Entered: R-Square = 0.8509 and C(p) = 7.5778

Analysis of Variance

Source DF Sum of Mean F Value Pr > F


Squares Square

Model 2 124.00926 62.00463 48.49 <.0001

Error 17 21.73624 1.27860

Corrected Total 19 145.74550

Variable Parameter Standard Type II SS F Value Pr > F


Estimate Error

Intercept -61.20217 14.55445 22.60881 17.68 0.0006

x2 0.89468 0.17680 32.74124 25.61 <.0001

x3 1.05565 0.11892 100.75483 78.80 <.0001

Forward Selection: Step 3


Variable x1 Entered: R-Square = 0.9050 and C(p) = 1.7509

80
Analysis of Variance

Source DF Sum of Mean F Value Pr > F


Squares Square

Model 3 131.89367 43.96456 50.78 <.0001

Error 16 13.85183 0.86574

Corrected Total 19 145.74550

Variable Parameter Standard Type II SS F Value Pr > F


Estimate Error

Intercept -78.23276 13.23928 30.22981 34.92 <.0001

x1 1.35030 0.44745 7.88441 9.11 0.0082

x2 0.69246 0.16017 16.18063 18.69 0.0005

x3 1.10250 0.09908 107.19782 123.82 <.0001

No other variable met the 0.1500 significance level for entry into the model.

Summary of Forward Selection

Step Variable Label Number Partial Model C(p) F Pr > F


Entered Vars In R- R- Value
Square Square

1 x3 altura 1 0.6262 0.6262 38.0804 30.16 <.0001


padre

2 x2 altura 2 0.2246 0.8509 7.5778 25.61 <.0001


madre

3 x1 largo al 3 0.0541 0.9050 1.7509 9.11 0.0082


nacim.

81
The REG Procedure
Model: MODEL1
Dependent Variable: y altura

Backward Elimination: Step 0


All Variables Entered: R-Square = 0.9171 and C(p) = 8.0000

Analysis of Variance

Source DF Sum of Mean F Value Pr > F


Squares Square

Model 7 133.65740 19.09391 18.95 <.0001

Error 12 12.08810 1.00734

Corrected Total 19 145.74550

Variable Parameter Standard Type II SS F Value Pr > F


Estimate Error

Intercept -78.26838 26.96237 8.48855 8.43 0.0133

x1 1.37182 0.52067 6.99263 6.94 0.0218

x2 0.78242 0.19924 15.53499 15.42 0.0020

x3 1.05141 0.13581 60.37253 59.93 <.0001

x4 -0.11991 0.17173 0.49115 0.49 0.4983

x5 0.09144 0.13012 0.49745 0.49 0.4956

x6 0.08834 0.16133 0.30207 0.30 0.5940

x7 -0.10174 0.15490 0.43460 0.43 0.5237

Backward Elimination: Step 1


Variable x6 Removed: R-Square = 0.9150 and C(p) = 6.2999

Analysis of Variance

Source DF Sum of Mean F Value Pr > F


Squares Square

Model 6 133.35533 22.22589 23.32 <.0001

Error 13 12.39017 0.95309

Corrected Total 19 145.74550

82
Variable Parameter Standard Type II SS F Value Pr > F
Estimate Error

Intercept -76.36524 26.00749 8.21729 8.62 0.0116

x1 1.41812 0.49973 7.67515 8.05 0.0140

x2 0.74901 0.18449 15.71002 16.48 0.0014

x3 1.08334 0.11932 78.57051 82.44 <.0001

x4 -0.12463 0.16683 0.53183 0.56 0.4684

x5 0.09941 0.12577 0.59541 0.62 0.4435

x7 -0.06397 0.13491 0.21431 0.22 0.6432

Backward Elimination: Step 2


Variable x7 Removed: R-Square = 0.9135 and C(p) = 4.5126

Analysis of Variance

Source DF Sum of Mean F Value Pr > F


Squares Square

Model 5 133.14102 26.62820 29.58 <.0001

Error 14 12.60448 0.90032

Corrected Total 19 145.74550

Variable Parameter Standard Type II SS F Value Pr > F


Estimate Error

Intercept -82.17559 22.29609 12.22996 13.58 0.0024

x1 1.45250 0.48056 8.22480 9.14 0.0091

x2 0.72851 0.17432 15.72505 17.47 0.0009

x3 1.10351 0.10834 93.40113 103.74 <.0001

x4 -0.11825 0.16162 0.48192 0.54 0.4765

x5 0.10423 0.12184 0.65885 0.73 0.4067

83
Backward Elimination: Step 3
Variable x4 Removed: R-Square = 0.9102 and C(p) = 2.9910

Analysis of Variance

Source DF Sum of Mean F Value Pr > F


Squares Square

Model 4 132.65910 33.16477 38.01 <.0001

Error 15 13.08640 0.87243

Corrected Total 19 145.74550

Variable Parameter Standard Type II SS F Value Pr > F


Estimate Error

Intercept -90.63864 18.76308 20.35857 23.34 0.0002

x1 1.34236 0.44925 7.78912 8.93 0.0092

x2 0.74474 0.17020 16.70357 19.15 0.0005

x3 1.12553 0.10245 105.28783 120.68 <.0001

x5 0.11192 0.11949 0.76543 0.88 0.3638

Backward Elimination: Step 4


Variable x5 Removed: R-Square = 0.9050 and C(p) = 1.7509

Analysis of Variance

Source DF Sum of Mean F Value Pr > F


Squares Square

Model 3 131.89367 43.96456 50.78 <.0001

Error 16 13.85183 0.86574

Corrected Total 19 145.74550

Variable Parameter Standard Type II SS F Value Pr > F


Estimate Error

Intercept -78.23276 13.23928 30.22981 34.92 <.0001

x1 1.35030 0.44745 7.88441 9.11 0.0082

x2 0.69246 0.16017 16.18063 18.69 0.0005

84
Variable Parameter Standard Type II SS F Value Pr > F
Estimate Error

x3 1.10250 0.09908 107.19782 123.82 <.0001


All variables left in the model are significant at the 0.1500 level.

Summary of Backward Elimination

Step Variable Label Number Partial Model C(p) F Pr > F


Removed Vars In R- R- Value
Square Square

1 x6 altura 6 0.0021 0.9150 6.2999 0.30 0.5940


abuela
paterna

2 x7 altura 5 0.0015 0.9135 4.5126 0.22 0.6432


abuelo
paterno

3 x4 altura 4 0.0033 0.9102 2.9910 0.54 0.4765


abuela
materna

4 x5 altura 3 0.0053 0.9050 1.7509 0.88 0.3638


abuelo
materno

The REG Procedure


Model: MODEL1
Dependent Variable: y altura

Stepwise Selection: Step 1


Variable x3 Entered: R-Square = 0.6262 and C(p) = 38.0804

Analysis of Variance

Source DF Sum of Mean F Value Pr > F


Squares Square

Model 1 91.26802 91.26802 30.16 <.0001

Error 18 54.47748 3.02653

Corrected Total 19 145.74550

Variable Parameter Standard Type II SS F Value Pr > F


Estimate Error

Intercept -0.10886 12.50618 0.00022932 0.00 0.9932

85
Variable Parameter Standard Type II SS F Value Pr > F
Estimate Error

x3 1.00049 0.18219 91.26802 30.16 <.0001

Stepwise Selection: Step 2


Variable x2 Entered: R-Square = 0.8509 and C(p) = 7.5778

Analysis of Variance

Source DF Sum of Mean F Value Pr > F


Squares Square

Model 2 124.00926 62.00463 48.49 <.0001

Error 17 21.73624 1.27860

Corrected Total 19 145.74550

Variable Parameter Standard Type II SS F Value Pr > F


Estimate Error

Intercept -61.20217 14.55445 22.60881 17.68 0.0006

x2 0.89468 0.17680 32.74124 25.61 <.0001

x3 1.05565 0.11892 100.75483 78.80 <.0001

Stepwise Selection: Step 3


Variable x1 Entered: R-Square = 0.9050 and C(p) = 1.7509

Analysis of Variance

Source DF Sum of Mean F Value Pr > F


Squares Square

Model 3 131.89367 43.96456 50.78 <.0001

Error 16 13.85183 0.86574

Corrected Total 19 145.74550

Variable Parameter Standard Type II SS F Value Pr > F


Estimate Error

Intercept -78.23276 13.23928 30.22981 34.92 <.0001

86
Variable Parameter Standard Type II SS F Value Pr > F
Estimate Error

x1 1.35030 0.44745 7.88441 9.11 0.0082

x2 0.69246 0.16017 16.18063 18.69 0.0005

x3 1.10250 0.09908 107.19782 123.82 <.0001

All variables left in the model are significant at the 0.1500 level.
No other variable met the 0.1500 significance level for entry into the model.

Summary of Stepwise Selection

Ste Variabl Variab Label Numbe Partial Model C(p) F Pr >


p e le r R- R- Valu F
Entere Remo Vars In Squar Squar e
d ved e e

1 x3 altura 1 0.6262 0.6262 38.080 30.1 <.000


padre 4 6 1

2 x2 altura 2 0.2246 0.8509 7.5778 25.6 <.000


madre 1 1

3 x1 largo al 3 0.0541 0.9050 1.7509 9.11 0.008


nacim. 2

Para realizar selección de variables en regresión múltiple, la versión actual de Infostat usa
los siguientes métodos: backward, forward, stepwise, r-cuadrado ajustado, minimizar
cuadrado medio de error, y minimizar ECM de predicción. El método de minimizar
cuadrado medio de error es aproximadamente equivalente al método de maximizar r-
cuadrado para modelos de 1 variable, 2 variables, etc. que usa SAS (method= rsquare).

87
88
17. Análisis de covarianza
Existen muchas situaciones en las que deseamos estudiar una respuesta (Y, variable
dependiente) en función de uno o más tratamientos (factor/es) y de una o más variables x
(regresores). Es decir, nos interesa combinar en el mismo modelo un ANOVA y una
regresión.

Ejemplos:

Y: peso final de un animal


x: peso inicial
Tratamiento: dietas

Y: rendimiento de un cultivo
x: fertilidad de la parcela
Tratamiento: variedad

Y: cantidad de insectos Drosophila sobrevivientes


x: dosis de insecticida
Tratamiento: especie de Drosophila

Y: calidad de la grama en un campo de golf (medida por la velocidad con que una bola de
golf rueda por la grama).
x: humedad del suelo
Tratamiento: cultivares

En el análisis de covarianza tenemos tres objectivos importantes:


1. Comparar las medias de Y para cada tratamiento en un valor común de x.
2. Comparar la reclación entre la Y y la x en cada tratamiento.
3. Aumentar la precisión (disminuir el CME).

El modelo para datos provenientes de un DCA con una covariable es


Yij    i   xij   ij
En este modelo  i representa el efecto del tratamiento i para un valor dado de x y  es el
incremento promedio de las Y de un tratamiento específico cuando x aumenta en una
unidad. Observar que la interpretación de los parámetros es análoga a la que hicimos en
regresión múltiple. Los supuestos que realizamos acerca de los  ij son los mismos que
realizamos en modelos de ANOVA y regresión: independencia, normalidad y
homogeneidad de varianzas. Además, como en todo modelo de regresión, requerimos que
el modelo sea el correcto. En particular necesitamos asumir que la relación entre las Y y las
x es lineal, que la pendiente  es la misma en todos los tratamientos (es decir, no existe
interacción entre la covariable y el tratamiento) y que los tratamientos no afectan a la
covariable. Para las pruebas de hipótesis vamos a usar, como siempre hacemos en regresión
múltiple, las pruebas de tipo III.

89
Consideremos el siguiente ejemplo. Se estudia el efecto de cuatro dietas sobre el peso final
de cerdos, y se registra el peso inicial de los mismos. Se usaron 6 animales por dieta, en un
DCA.
data dietas;
input dieta pesoinic pesofin;
datalines;
1 5.0 17.0
1 7.0 21.0
1 5.0 18.0
1 4.0 11.0
1 3.0 6.0
1 6.0 23.0
2 7.0 24.0
2 7.0 26.0
2 8.0 23.0
2 6.0 23.0
2 5.0 18.0
2 9.0 30.0
3 5.0 20.0
3 4.0 13.0
3 3.0 14.0
3 7.0 22.0
3 6.0 23.0
3 5.0 16.0
4 10.0 30.0
4 9.0 28.0
4 8.0 22.0
4 7.0 20.0
4 11.0 31.0
4 9.0 25.0

El modelo que estamos usando es el descripto anteriormente, que en este ejemplo es:

Animales de la dieta 1: Y1 j     1    x1 j  1 j
Animales de la dieta 2: Y2 j      2    x2 j   2 j
Animales de la dieta 3: Y3 j      3    x3 j   3 j
Animales de la dieta 4: Y4 j      4    x4 j   4 j

Podemos ver que en cada caso el modelo corresponde a una línea recta con intercepto
diferente     i  y la misma pendiente    . Es decir, tenemos líneas paralelas. Si
graficamos estos datos podemos ver que el modelo es razonable:

90
Relación entre peso inicial y final

32.0

26.6
peso final
21.2

15.8

10.4

5.0
2.5 5.0 7.5 10.0 12.5
peso inicial

dieta 1 dieta 2
dieta 3 dieta 4

Para comparar las medias de las distintas dietas vemos que tenemos dos opciones:
comparamos cada media de Y sin tener en cuenta las x, o comparamos las medias de Y
estimadas en cierto valor común de x. La primera opción es lo que haríamos si usamos un
modelo sin la covariable, y podríamos tener el problema que la dieta que tenía los animales
más pesados nos daría mayores pesos finales no porque fuese mejor sino porque el azar
hizo que tuviera los animales de mayor peso inicial (En el ejemplo la dieta 4 tenía los
animales más pesados inicialmente, y sus pesos finales también estuvieron entre los más
altos).

Una comparación más razonable es aquella que compara las dietas a un nivel común de x
(por ejemplo en x  x ). Esta comparación la realiza una prueba “parcial” (tipo III), ya que
compara algunos efectos en el modelo “ajustando” por todos los otros términos del modelo
(en este caso la covariable). ¿Cómo calculamos el valor de media de Y cuando x  x ? Para
eso usamos la fórmula de regresión, reemplazando x por x :

Animales de la dieta 1: Yˆ1   ˆ  ˆ1   ˆ x


Animales de la dieta 2: Yˆ   ˆ  ˆ   ˆ x
2 2

Animales de la dieta 3: Yˆ3   ˆ  ˆ 3   ˆ x


Animales de la dieta 4: Yˆ4   ˆ  ˆ 4   ˆ x

91
Éstas son las “medias ajustadas”, que en SAS se denominan “least squares means”. La
prueba de tipo III prueba la igualdad de medias ajustadas, o lo que es lo mismo, la igualdad
de los  i . Debemos observar que debido a que las líneas son paralelas, da lo mismo
comparar en x  x o en cualquier otro valor de x: siempre estaremos comparando igualdad
de  i (se puede probar que en x  x se logra la prueba más eficiente).

Otra prueba de interés es la relacionada a la regresión lineal: H 0 :   0 (es decir, nos


interesa saber si la covariable explica parte de la variabilidad de la Y en un modelo que
tiene los efectos de tratamiento). La prueba para esto también es la prueba parcial (tipo III)
para la covariable.

Para ajustar este modelo en SAS (podemos hacerlo en Proc GLM o en Proc GLIMMIX)
simplemente escribimos la variable tratamiento en “class” y las variables tratamiento y
covariable en el “model”:
proc glm;
class dieta;
model pesofin = dieta pesoinic / solution ss3;
lsmeans dieta;

La opción “solution” del comando “model” nos da los estimadores de los parámetros del
modelo y la opción “ss3” nos muestra sólo las pruebas de tipo III (parciales).

Class Level Information

Class Levels Values

dieta 4 1234

Number of Observations Read 24

Number of Observations Used 24

Dependent Variable: pesofin


Source DF Sum of Squares Mean Square F Value Pr > F

Model 4 780.1000000 195.0250000 37.85 <.0001

Error 19 97.9000000 5.1526316

Corrected Total 23 878.0000000

R-Square Coeff Var Root MSE pesofin Mean

0.888497 10.80924 2.269941 21.00000

92
Source DF Type III SS Mean Square F Value Pr > F

dieta 3 51.0056604 17.0018868 3.30 0.0427

pesoinic 1 372.1000000 372.1000000 72.22 <.0001

Parameter Estimate Standard Error t Value Pr > |t|

Intercept -1.450000000 B 3.36048373 -0.43 0.6710

dieta 1 2.200000000 B 1.94386123 1.13 0.2718

dieta 2 4.100000000 B 1.49425802 2.74 0.0129

dieta 3 4.200000000 B 1.94386123 2.16 0.0437

dieta 4 0.000000000 B . . .

pesoinic 3.050000000 0.35890917 8.50 <.0001


Note: The X'X matrix has been found to be singular, and a generalized inverse was used
to solve the normal equations. Terms whose estimates are followed by the letter
'B' are not uniquely estimable.

Least Squares Means


dieta pesofin LSMEAN

1 20.5750000

2 22.4750000

3 22.5750000

4 18.3750000

En Infostat, el menú ANOVA y el módulo de modelos lineales generales y mixtos permiten


la incorporación de covariables, y las medias que calcula son directamente las medias
ajustadas.
Análisis de la varianza

Variable N R² R² Aj CV
pesofin 24 0.888 0.865 10.809

Cuadro de Análisis de la Varianza (SC tipo III)


F.V. SC gl CM F valor p Coef
Modelo 780.100 4 195.025 37.850 <0.0001
dieta 51.006 3 17.002 3.300 0.0427
pesoinic 372.100 1 372.100 72.216 <0.0001 3.050
Error 97.900 19 5.153
Total 878.000 23

93
Test:LSD Fisher Alfa:=0.05 DMS:=2.74301
Error: 5.1526 gl: 19
dieta Medias n
4 18.375 6 A
1 20.575 6 A B
2 22.475 6 B
3 22.575 6 B
Letras distintas indican diferencias significativas(p<= 0.05)

Los supuestos que hacemos son los de todo modelo lineal (independencia de errores,
normalidad de errores y homogeneidad de las varianzas de los errores), además de los
específicos del modelo de regresión usado (validez del modelo de líneas rectas paralelas).
Para verificar los primeros supuestos usamos los residuales como siempre, y para verificar
el supuesto de paralelismo podemos probar la hipótesis de no interacción entre los
tratamientos y la covariable:
H 0 : Yij     i   xij   ij
H a : Yij     i   xij   i xij   ij

Aquí vemos que si la hipótesis nula es falsa, entonces tenemos un modelo con líneas rectas
con pendientes diferentes para cada tratamiento:

Animales de la dieta 1: Y1 j     1       1  x1 j  1 j
Animales de la dieta 2: Y2 j      2       2  x2 j   2 j
Animales de la dieta 3: Y3 j      3       3  x3 j   3 j
Animales de la dieta 4: Y4 j      4       4  x4 j   4 j

Para hacer esto en SAS simplemente ajustamos un modelo con interacción, y probamos la
significancia de ésta (prueba de tipo III):
proc glm;
class dieta;
model pesofin = dieta pesoinic dieta*pesoinic;
run;

Dependent Variable: pesofin


Source DF Sum of Squares Mean Square F Value Pr > F

Model 7 799.6000000 114.2285714 23.31 <.0001

Error 16 78.4000000 4.9000000

Corrected Total 23 878.0000000

94
R-Square Coeff Var Root MSE pesofin Mean

0.910706 10.54093 2.213594 21.00000

Source DF Type III SS Mean Square F Value Pr > F

dieta 3 27.5204410 9.1734803 1.87 0.1750

pesoinic 1 372.1000000 372.1000000 75.94 <.0001

pesoinic*dieta 3 19.5000000 6.5000000 1.33 0.3006

El ejemplo que hemos visto era bastante simple: un factor, una covariable y un diseño
completamente aleatorizado. La extensión a casos más complejos es directa: podemos tener
más de un factor, podemos tener más de una covariable y podemos tener términos
polinomiales en una covariable. Además podemos tener cualquier diseño experimental
(bloques, cuadrado latino, parcela dividida, etc.), efectos aleatorios, etc.

95
18. Documentación y comunicación de resultados
Esto es lo que presentamos en la primera clase de AGRO 5005:

¿Qué es la Biometría? Es la disciplina que se encarga de obtener


información a partir de datos biológicos.

¿Cómo? Mediante gráficos, medidas numéricas de resumen (ej., promedio),


comparaciones, predicciones, etc.

Etapas que debemos seguir para obtener información “buena” a partir de los datos:

1. Recolectar los datos


2. Resumir los datos
3. Analizar los datos
4. Comunicar los resultados

En esta conferencia vamos a tratar de discutir algunas ideas que permitan lograr
eficazmente la etapa 4, “comunicar los resultados”.

La comunicación puede ser verbal o escrita. La comunicación verbal puede ser desde una
comunicación informal hasta una presentación formal. La comunicación escrita también
varía desde memorandos e informes de proyecto dentro de la misma organización (interna)
hasta cartas, folletos de divulgación, artículos científicos y libros (externa). En todos los
casos tenemos que tener en cuenta la audiencia (hacia quién nos estamos comunicando).

Los principales problemas que se pueden encontrar al comunicar resultados estadísticos


son los siguientes:

Distorsiones gráficas: recordemos lo que habíamos discutido antes


1. ¿Qué es lo que se desea informar al lector del grafico?
2. Elegir cuidadosamente los títulos, ejes, colores, rayas, etc.
3. No sobrecargar de información al gráfico.
4. Practicar mucho!

Muestras sesgadas: éste es posiblemente uno de los problemas centrales que nos
encontramos. Las conclusiones pueden ser correctas pero se refieren a la “población”
equivocada. Recordemos que si no existe la aleatorización no podemos realizar la
inferencia estadística correctamente. Se requiere de una planificación adecuada del estudio.

Tamaño muestral inadecuado: los resultados de un experimento pueden llevar a una


conclusión equivocada porque no había suficientes observaciones como para que el error
de tipo II (aceptar una hipótesis nula falsa) fuese suficientemente pequeño. Se requiere de
una planificación adecuada para que la cantidad de repeticiones sea suficiente como para
detectar con una probabilidad alta una diferencia que exista en la población y que sea de
interés para el investigador.

96
Al informar las conclusiones debemos especificar claramente cómo se obtuvieron las
observaciones, qué diseño se usó (=cómo se aleatorizó) y cuántas observaciones
(=repeticiones) se realizaron. Si es posible, se debería incluir un estudio de la potencia de
las pruebas para evidenciar que el tamaño muestral fue adecuado para detectar las
diferencias de interés.

Preparación de los datos para el análisis


1. Generar (recibir) los datos originales
2. Crear la base de datos a partir de los datos originales
3. Editar la base de datos
4. Corregir y clarificar la base de datos comparándola con los datos originales
5. Finalizar la base de datos, archivarla y crear copias (en varios medios, como USB,
DVD, papel, etc.)
6. Crear archivos de datos para los análisis

Es muy importante (y en algunas áreas obligatorio) llevar un registro detallado de todo el


proceso para, de ser necesario, rehacer nuevamente las distintas etapas por las que los datos
han pasado. Una forma común de documentar esto es mediante un registro del estudio
(cuaderno de bitácora o “study log”). Éste debería incluir:
a. datos recibidos, y de quién
b. investigador a cargo del estudio
c. estadístico y otro personal asignado
d. descripción breve del estudio
e. tratamientos usados
f. diseño experimental usado
g. mapa de campo con tratamientos y aleatorizaciones
h. fuente de los datos originales
i. variables dependientes medidas (“respuestas”)
j. fechas de toma de datos, análisis, etc.
k. irregularidades en la toma de datos, registro, etc.
l. otra información relacionada

Guías para el análisis e informe estadísticos

Los análisis preliminares, a menudo descriptivos o gráficos, permiten familiarizarse con


los datos, observar algunas relaciones, detectar problemas, etc.

Los análisis primarios se hacen para responder las preguntas de investigación que se
indicaron en los objetivos del estudio.

Los análisis secundarios (o de apoyo) incluyen métodos alternativos de observar los datos,
uso de métodos poco comunes en el área de aplicación, exploración de hipótesis sugeridas
por los resultados del experimento, etc.

Informe estadístico

97
a. Resumen
b. Introducción
c. Diseño experimental y procedimientos del estudio
d. Estadísticos descriptivos
e. Metodología estadística
f. Resultados y conclusiones
g. Discusión
h. Lista de datos y salidas de computación relevantes

Documentación y almacenamiento de resultados

La idea fundamental es que podamos tener la documentación y los datos almacenados de


forma tal que en el futuro nosotros (o algúna otra persona) pueda rehacer los análisis,
obtener nuevos resultados (o confirmar los obtenidos) y alcanzar nuevas conclusiones sin
mayores dificultades. En algunas áreas de investigación esto es necesario para poder
evaluar la calidad de las conclusiones obtenidas, y en todos los casos es una práctica muy
importante.

Bibliografía

Texto del curso

Ott, R.L. y M. Longnecker (2008). An Introduction to Statistical Methods and Data


Analysis. 6ta. ed. Pacific Grove (CA): Duxbury (otras ediciones son muy similares: la
séptima es de 2016 y la quinta de 2001)

Referencias adicionales
Macchiavelli, R. Wessel Beaver, L. (2018). Notas de clase de Biometría Avanzada.
http://academic.uprm.edu/rmacchia/agro6600/agro6600.pdf

Di Rienzo, J. A., Macchiavelli, R. E., & Casanoves, F. (2011). Modelos lineales mixtos :
aplicaciones en InfoStat. Córdoba: Grupo Infostat.

Di Rienzo J.A., Casanoves F., Balzarini M.G., Gonzalez L., Tablada M., Robledo C.W.
InfoStat versión 2017. Grupo InfoStat, FCA, Universidad Nacional de Córdoba, Argentina.
URL http://www.infostat.com.ar

Der, Geoff y B. Everitt (2008). A Handbook of Statistical Analyses Using SAS. 3ra. Ed.
Boca Raton (FL): Chapman and Hall.

Mead, R., R. Curnow y A. Hasted (2003) Statistical Methods in Agriculture and


Experimental Biology. 3ra. Ed. Boca Raton (FL): Chapman and Hall.

98

S-ar putea să vă placă și