Sunteți pe pagina 1din 13

ANALISIS DE COVARIANZA

El análisis de covarianza es un procedimiento muy importante en experimentación, ya que


utiliza el análisis de varianza y el de regresión para eliminar la variabilidad que existe en la
variable independiente X (o covariable); también ajusta medias de tratamiento y así estima
mucho mejor el efecto de la variable independiente (tratamiento) sobre la variable
dependiente.

El análisis de Covarianza se define como una técnica estadística empleada cuando no se


puede controlar una o más variable(s) extraña(s).

El Análisis de Covarianza consiste básicamente en elegir una o más variables adicionales o


covariables que estén relacionadas con la variable de respuesta, evitando que los promedios
de tratamientos se confundan con los de las covariables, incrementando de esa manera la
precisión del experimento. Por ejemplo: número de plantas por unidad experimental, pesos
iniciales en animales, grado de infestación de garrapatas, días de lactancia o edad de
destete, etc.; pueden ser covariables que influyan en el resultado final y cuyo efecto de
regresión sobre la variable respuesta el investigador desea eliminar, ajustando las medias de
tratamientos a una media común de X. En este análisis se asume que la variable
dependiente Y está asociada en forma lineal con la variable independiente X, existiendo
homogeneidad de pendientes.

Aplicaciones del análisis de covarianza (ANCOVA)


En el campo de la agronomía

Para estudiar la relación entre tamaño de la mazorca (covariable) y rendimiento por


hectárea (variable dependiente) por variedad de maíz (tratamientos).

Para estudiar la relación entre número de plantas (covariable) y rendimiento por parcela
(variable dependiente) por variedad de sorgo (tratamientos).

Para estudiar la relación entre fosforo inorgánico e inorgánico (covariables) y el


rendimiento por parcela (variable dependiente) por tipo de suelo (tratamiento).

Algunas consideraciones ligadas al ANCOVA


 Teóricamente no hay límites para el número de covariables que pueden usarse, pero la
práctica ha demostrado que 4 o 5 covariables son suficientes; más allá de este número se
generan problemas de colinealidad.

 Las covariables son variables independientes que afectan la respuesta pero sobre las
cuales no se ha podido ejercer control.
 La variable independiente “X” (covariable) es una observación hecha en cada unidad
experimental antes de aplicar los tratamientos, e indica hasta cierto grado la respuesta
final “Y” de la unidad experimental.

 Las covariables deben ser medidas en escala de razón, intervalar o nominal.

 Las covariables no deben estar relacionadas con los tratamientos o condiciones


experimentales.

 Las covariables deben estar relacionadas con la respuesta o variable dependiente.

 No debe haber interacción entre las covariables y los tratamientos.

 La covariable debe poseer una relación lineal con la variable respuesta. De no ser así se
debe aplicar una transformación para convertir la relación en lineal. Estas
transformaciones pueden ser: logarítmica, reciproca, arcoseno, de raíz o exponencial.

Supuestos del ANCOVA


Como es de esperarse, las suposiciones que se hacen cuando se efectúa un análisis de
covarianza son similares a las requeridas para la regresión lineal y el análisis de varianza.

 Supuesto de linealidad: La relación entre X e Y debe ser lineal. Este supuesto se


prueba corriendo un análisis de regresión lineal simple entre la covariable (X) y la
respuesta (Y). La regresión debe dar significativa, es decir, con valor p < 0,05.

 Supuesto de homogeneidad de las pendientes: Las pendientes de todos los grupos de


tratamientos deben ser iguales o aproximadamente iguales. Este supuesto se prueba
verificando que la interacción tratamiento por la covarianza no sea significativa.

 Supuesto de independencia entre la covariable (X) y el tratamiento: Este supuesto se


prueba realizando un ANOVA donde la covariable (X) sea declarada como variable
dependiente y los tratamientos sean declaradas como variable independientes. La F de
Fisher-Snedecor de este ANOVA debe resultar no significativa.

Los objetivos del análisis de covarianza son:


 Disminuir el error experimental con el consecuente aumento en la precisión del
experimento. Lo cual puede ser corroborado a través de la disminución que experimenta
el coeficiente de variación.

 Ajustar los promedios de los tratamientos. Esto puede ser corroborado comparando los
promedios antes y después del ajuste. Los promedios corregidos por las covariables se
llaman Medias Mínimo Cuadráticas Corregidas, y se calculan así:
Yˆ  Y  byx  X i  X 

 Facilitar la interpretación de los resultados en el experimento, especialmente en lo


relacionado con la naturaleza de los efectos de los tratamientos.

 Estimar el valor de las unidades perdidas en los experimentos.

Para ser más exactos, se presenta a continuación los modelos estadístico matemáticos
asociados con algunos de los diseños más comunes cuando se realiza un análisis de
covarianza.
El procedimiento de análisis comprende:

a) ANDEVA para X (covariable),


b) ANDEVA para Y (variable de respuesta),
c) Estimación del coeficiente angular de la regresión.
d) Obtención de la ecuación de regresión y ajuste a los promedios de la variable de
respuesta.
EJEMPLO DE APLICACIÓN

Un grupo de estudiantes del curso de Investigación Agrícola de la Escuela Nacional Central


de Agricultura evaluó en 1990 el efecto del tiempo de cosecha sobre el rendimiento de
grano de maíz. Se utilizaron 4 tratamientos y 3 repeticiones, con el diseño bloques
completos al azar. Los tratamientos fueron: 30, 40, 50 y 60 días después de la polinización.
El número de plantas (x) planificado por parcela útil fue de 52, pero al cosechar se
obtuvieron diferentes números de plantas por unidad experimental. Los valores de la
variable respuesta (y) se presentan en el cuadro siguiente:
SOLUCIÓN

Como regla general para decidir sobre el empleo de la covarianza, se debe realizar los
SUPUESTOS DEL ANCOVA.

a) Supuesto de linealidad

H 0 :   0 (La relación X e Y no es lineal)

H1 :   0 (La relación es lineal)

Analizar / Regresión / Lineales

ANOVAa
Modelo Suma de cuadrados gl Media cuadrática F Sig.
Regresión 6,096 1 6,096 11,381 ,007b

1 Residual 5,356 10 ,536

Total 11,453 11
a. Variable dependiente: RENDIMIENTO SOBRE EL GRANO DE MAIZ
b. Variables predictoras: (Constante), NÚMERO DE PLANTAS (COVARIABLE)
Coeficientesa
Modelo Coeficientes no estandarizados Coeficientes t Sig.
tipificados
B Error típ. Beta
(Constante) ,836 1,077 ,776 ,456
1
NÚMERO DE PLANTAS
,101 ,030 ,730 3,374 ,007
(COVARIABLE)
a. Variable dependiente: RENDIMIENTO SOBRE EL GRANO DE MAIZ

b) Supuesto de independencia entre la covariable (X) y el tratamiento

H 0 : La covariable es independiente de los tratamientos

H 1 : La covariable es dependiente de los tratamientos

ANDEVA para X (covariable): Analizar / Modelo Lineal General / Univariante


Pruebas de los efectos inter-sujetos
Variable dependiente: NÚMERO DE PLANTAS (COVARIABLE)
Origen Suma de cuadrados gl Media cuadrática F Sig.
tipo III
a
Modelo corregido 410,333 5 82,067 2,686 ,130
Intersección 14840,333 1 14840,333 485,684 ,000

TRATAM 89,667 3 29,889 ,978 ,463


BLOQUE 320,667 2 160,333 5,247 ,048
Error 183,333 6 30,556

Total corregida 593,667 11

a. R cuadrado = ,691 (R cuadrado corregida = ,434)

c) Supuesto de homogeneidad de las pendientes o interacción entre la covariable y


tratamiento
H 0 : No hay interacción entre X (covariable) y los tratamientos

H 1 : Hay interacción entre X (covariable) y los tratamientos

Analizar / Modelo Lineal General / Univariante

Pruebas de los efectos inter-sujetos


Variable dependiente: RENDIMIENTO SOBRE EL GRANO DE MAIZ
Origen Suma de cuadrados gl Media cuadrática F Sig.
tipo III
Modelo corregido 11,323a 9 1,258 19,415 ,050
Intersección ,047 1 ,047 ,730 ,483
TRATAM ,031 3 ,010 ,162 ,914
BLOQUE 1,094 2 ,547 8,438 ,106
X 1,441 1 1,441 22,236 ,042
TRATAM * X ,104 3 ,035 ,533 ,704
Error ,130 2 ,065
Total corregida 11,453 11
a. R cuadrado = ,989 (R cuadrado corregida = ,938)
ANALISIS DE COVARIANZA
Analizar / Modelo Lineal General / Univariante

Pruebas de los efectos inter-sujetos


Variable dependiente: RENDIMIENTO SOBRE EL GRANO DE MAIZ

Origen Suma de cuadrados gl Media cuadrática F Sig.


tipo III

Modelo corregido 11,219a 6 1,870 40,073 ,000


Intersección ,220 1 ,220 4,705 ,082
TRATAM 2,909 3 ,970 20,782 ,003
BLOQUE 1,657 2 ,829 17,757 ,005
X 4,690 1 4,690 100,499 ,000
Error ,233 5 ,047

Total corregida 11,453 11

a. R cuadrado = ,980 (R cuadrado corregida = ,955)

POS PRUEBA
Comparaciones por pares
Variable dependiente: RENDIMIENTO SOBRE EL GRANO DE MAIZ
(I)DÍAS DESPUÉS DE LA (J)DÍAS DESPUÉS DE LA Diferencia de Error típ. Sig.b Intervalo de confianza al 95 % para la
POLINIZACIÓN POLINIZACIÓN medias (I-J) diferenciab
Límite inferior Límite superior
40 -,910* ,186 ,004 -1,388 -,433
30 50 -,474 ,212 ,075 -1,018 ,070
60 -1,323* ,178 ,001 -1,782 -,865
30 ,910* ,186 ,004 ,433 1,388
40 50 ,436 ,186 ,066 -,041 ,914
60 -,413 ,179 ,069 -,874 ,048
30 ,474 ,212 ,075 -,070 1,018
50 40 -,436 ,186 ,066 -,914 ,041
60 -,850* ,198 ,008 -1,359 -,340
*
30 1,323 ,178 ,001 ,865 1,782
60 40 ,413 ,179 ,069 -,048 ,874
50 ,850* ,198 ,008 ,340 1,359
Basadas en las medias marginales estimadas.
*. La diferencia de medias es significativa al nivel .05.
b. Ajuste para comparaciones múltiples: Diferencia menos significativa (equivalente a la ausencia de ajuste).
b) ANDEVA para Y (variable de respuesta),

Vista de variables

Vista de datos

c) Estimación del coeficiente angular de la regresión.


Este coeficiente da la relación promedio de rendimiento por planta, es decir, el efecto de
una planta en promedio es de 0.1599 kg.
Debe aclararse que el coeficiente de regresión  se supuso diferente de cero. Si este no
fuera el caso, la introducción de la variable concomitante X sería una complicación
innecesaria. Algunas veces el investigador querrá comprobar estas suposiciones. Esto es,
evaluará las hipótesis:

Que tiene v1 = 1 y v2 =(r - 1) (t - 1) - 1, grados de libertad.


En este caso F crítica (1, 5,0.05) = 6.61. Por lo tanto se concluye que la regresión lineal es
significativa.
El cálculo del coeficiente de correlación lineal (r) se efectúa de la manera siguiente:

Este valor de r puede ser evaluado con la prueba t de Student:


t crítica (5,0.05/2) = 2.57
Siendo n = 5, el número de grados de libertad del residuo, luego de ser ajustado por la
regresión (se le restó un grado de libertad).

3º. ANCOVA (los valores ajustados)

a) Cálculo de la suma de cuadrados de la regresión lineal.

b) Suma de cuadrados del residuo, ajustada a la regresión

SCE (y Ajustado) = SCE (y) – SCReg = 4.92 - 4.69 = 0.23

c) Suma de cuadrados de los tratamientos, ajustada de acuerdo con la regresión

Los resultados generados por IBM SPSS se muestran a continuación:


Contraste de Levene sobre la igualdad de las varianzas
error
Variable dependiente: RENDIMIENTO SOBRE EL GRANO DE
MAIZ

F gl1 gl2 Sig.

2,108 3 8 ,178

PRUEBA POS HOC

Continuar y Aceptar
Estimaciones
Variable dependiente: RENDIMIENTO SOBRE EL GRANO DE MAIZ

DÍAS DESPUÉS DE LA Media Error típ. Intervalo de confianza 95%

POLINIZACIÓN Límite inferior Límite superior

30 3,723 ,135 3,377 4,069

40 4,633 ,125 4,312 4,955

50 4,197 ,141 3,834 4,560

60 5,047 ,127 4,720 5,373


30  40 30  60 50  60

S-ar putea să vă placă și