Sunteți pe pagina 1din 14

Análisis de la varianza

De Wikipedia, la enciclopedia libre


Saltar a navegación, búsqueda
Uno o varios wikipedistas están trabajando actualmente en extender este
artículo o sección.
Es posible que a causa de ello haya lagunas de contenido o deficiencias de formato. Si
quieres puedes ayudar y editar, pero por favor antes de realizar correcciones mayores
contáctalos en sus páginas de discusión, o en la página de discusión del artículo para poder
coordinar la redacción.
En estadística, el análisis de la varianza (ANOVA, según terminología inglesa) es una
colección de modelos estadísticos y sus procedimientos asociados, en el cual la varianza
está particionada en ciertos componentes debidos a diferentes variables explicativas.
Las técnicas iniciales del análisis de varianza fueron desarrolladas por el estadístico y
genetista R. A. Fisher en los años 1920 y 1930 y es algunas veces conocido como
"Anova de Fisher" o "análisis de varianza de Fisher", debido al uso de la distribución F
de Fisher como parte del contraste de hipótesis.

Contenido
[ocultar]
• 1 Introducción
○ 1.1 Visión general
○ 1.2 Supuestos previos
• 2 Tipos de modelo
○ 2.1 Modelo de efectos fijos
○ 2.2 Modelo de efectos aleatorios
• 3 Grados de libertad
• 4 Pruebas de significación
• 5 Tablas ANOVA
• 6 Ejemplos
• 7 Referencias
○ 7.1 Bibliografía

[editar] Introducción
El análisis de la varianza sirve para decidir si diferentes muestras tomadas en diferentes
situaciones (a veces llamadas "factores" o "tratamientos") son significativamente
diferentes desde un punto de vista estadístico. En ese sentido el análisis de la varianza
puede usarse de una manera similar al contraste de hipótesis. En análisis de la varianza
recurre a ver descomponer la variación observada en varias partes y a ver qué parte de
dicha variación puede ser explicada por ciertos factores, y que parte de la variación es
una variación aleatoria. El objetivo es determinar si ciertas variables pueden explicar
una parte significativa de la variación, siendo la variación aleatoria pequeña frente a la
variación explicable o determinista.
En un modelo de un factor, que es el caso más sencillo, la idea básica del análisis dela
varianza es comparar la variación total de un conjunto de muestras y descomponerla
como:

Donde:
es un número real relacionado con la varianza, que mide la variación
debida al "factor", "tratamiento" o tipo de situación estudiado.
es un número real relacionado con la varianza, que mide la variación
dentro de cada "factor", "tratamiento" o tipo de situación.
En el caso de que la diferencia debida al factor o tratamiento no sean estadísticamente
significativa puede probarse que las varianzas muestrales son iguales:

Donde:
es el número de situaciones diferentes o valores del factor se están
comparando.
es el número de mediciones en cada situación se hacen o número de valores
disponibles para cada valor del factor.
Así lo que un simple test a partir de la F de Snedecor puede decidir si el factor o
tratamiento es estadísticamente significativo.
[editar] Visión general
Existen tres clases conceptuales de estos modelos:
1. El Modelo de efectos fijos asume que los datos provienen de poblaciones
normales las cuales podrían diferir únicamente en sus medias. (Modelo 1)
2. El Modelo de efectos aleatorios asume que los datos describen una jerarquía de
diferentes poblaciones cuyas diferencias quedan restringidas por la jerarquía.
Ejemplo: El experimentador ha aprendido y ha considerado en el experimento
sólo tres de muchos más métodos posibles, el método de enseñanza es un factor
aleatorio en el experimento. (Modelo 2)
3. El Modelo de efectos mixtos describen situaciones que éste puede tomar.
Ejemplo: Si el método de enseñanza es analizado como un factor que puede
influir donde están presentes ambos tipos de factores: fijos y aleatorios. (Modelo
3)
[editar] Supuestos previos
El ANOVA parte de algunos supuestos que han de cumplirse:
• La variable dependiente debe medirse al menos a nivel de intervalo.
• Independencia de las observaciones.
• La distribución de los residuales debe ser normal.
• Homocedasticidad: homogeneidad de las varianzas.
La técnica fundamental consiste en la separación de la suma de cuadrados (SS, 'sum of
squares') en componentes relativos a los factores contemplados en el modelo. Como
ejemplo, mostramos el modelo para un ANOVA simplificado con un tipo de factores en
diferentes niveles. (Si los niveles son cuantitativos y los efectos son lineales, puede
resultar apropiado un análisis de regresión lineal)
SSTotal = SSError + SSFactores
El número de grados de libertad (gl) puede separarse de forma similar y se corresponde
con la forma en que la distribución chi-cuadrado (χ² o Ji-cuadrada) describe la suma de
cuadrados asociada.
glTotal = glError + glFactores
[editar] Tipos de modelo
[editar] Modelo de efectos fijos
El modelo de efectos fijos de análisis de la varianza se aplica a situaciones en las que el
experimentador ha sometido al grupo o material analizado a varios factores, cada uno de
los cuales le afecta sólo a la media, permaneciendo la "variable respuesta" con una
distribución normal.
[editar] Modelo de efectos aleatorios
Los modelos de efectos aleatorios se usan para describir situaciones en que ocurren
diferencias incomparables en el material o grupo experimental. El ejemplo más simple
es el de estimar la media desconocida de una población compuesta de individuos
diferentes y en el que esas diferencias se mezclan con los errores del instrumento de
medición.
[editar] Grados de libertad
[editar] Pruebas de significación
El análisis de varianza lleva a la realización de pruebas de significación estadística,
usando la denominada distribución F de Snedecor.
[editar] Tablas ANOVA
bvf
[editar] Ejemplos
[editar] Referencias
[editar] Bibliografía
• M.R. Spiegel; J. Schiller; R. A. Srinivasan (2007). «9. Análisis de la varianza».
Probabilidad y Estadística [Schaum's Outline of Theory and Problems of
Probability and Statistics]. Schaum (2ª edición). México D.F.: McGraw-Hill.
pp. 335-371. ISBN 978-970-10-4231-1.
Obtenido de "http://es.wikipedia.org/wiki/An%C3%A1lisis_de_la_varianza"
Categorías: Estadística | Análisis
Categoría oculta: Wikipedia:Artículos en desarrollo
Herramientas personales
• Registrarse/Entrar
Espacios de nombres
• Artículo
• Discusión
Variantes
Vistas
• Leer
• Editar
• Ver historial
Acciones
Buscar
Principio del formulario
Especial:Buscar

Final del formulario


Navegación
• Portada
• Portal de la comunidad
• Actualidad
• Cambios recientes
• Páginas nuevas
• Página aleatoria
• Ayuda
• Donaciones
• Notificar un error
Imprimir/exportar
• Crear un libro
• Descargar como PDF
• Versión para imprimir
Herramientas
• Lo que enlaza aquí
• Cambios en enlazadas
• Subir archivo
• Páginas especiales
• Enlace permanente
• Citar este artículo
En otros idiomas
• ‫العربية‬
• Български
• Català
• Česky
• Deutsch
• English
• Euskara
• Français
• Galego
• ગુજરાતી
• िहनदी
• Magyar
• Bahasa Indonesia
• Italiano
• 日本語
• 한국어
• Latviešu
• Nederlands
• Norsk (bokmål)
• Polski
• Português
• Slovenščina
• Basa Sunda
• Svenska
• தமிழ்
• తలుగు
• Türkçe
• Українська
• 中文
• Esta página fue modificada por última vez el 27 ene 2011, a las 17:52.
• El texto está disponible bajo la Licencia Creative Commons Atribución
Compartir Igual 3.0; podrían ser aplicables cláusulas adicionales. Lee los
términos de uso para más información.

• Modelo I o de efectos fijos


• Un valor individual se puede escribir en este modelo como

• µ es la media global, α i es la constante del efecto, o efecto fijo, que
diferencia a las k poblaciones. También se puede escribir:

• representa la desviación de la observación j-ésima de la muestra i-ésima,
con respecto a su media. A este término se le suele llamar error aleatorio y,
teniendo en cuenta las asunciones iniciales del análisis de la varianza son k
variables (una para cada muestra), todas con una distribución normal de
media 0 y varianza σ 2 .
• La hipótesis nula en este análisis es que todas las medias son iguales


• que puede escribirse en términos del modelo como:


• Como en H0 se cumplen las condiciones del apartado anterior se tratará de
ver como se modifican las estimaciones de la varianza en H1.
• En H0 MSA y MSE son estimadores centrados de σ 2, es decir y usando el
superíndice 0 para indicar el valor de las variables en H0
• E[MSA0] = σ 2
• E[MSE0] = σ 2
• Se puede ver que MSE es igual en la hipótesis nula que en la alternativa. Por
lo tanto:
• E[MSE] = E[MSE0] = σ 2
• Sin embargo al valor esperado de MSA en la hipótesis alternativa se le
añade un término con respecto a su valor en la hipótesis nula


• Al segundo sumando dividido por n se le llama componente de la varianza
añadida por el tratamiento, ya que tiene forma de varianza, aunque
estrictamente no lo sea pues α i no es una variable aleatoria.
• La situación, por lo tanto, es la siguiente: en H0, MSA y MSE estiman σ 2; en
H1, MSE estima σ 2 pero MSA estima . Contrastar la H0 es
equivalente a contrastar la existencia de la componente añadida o, lo que es
lo mismo, que MSE y MSA estimen, o no, la misma varianza.
• El estadístico de contraste es F=MSA/MSE que, en la hipótesis nula, se
distribuye según una F con k - 1 y (n - 1)k grados de libertad. En caso de
rechazar la H0, MSA - MSE estima .

Preparado por Luis M. Molinero (Alce Artículo en formato PDF


Ingeniería)
www.seh-lelha.org/stat1.htm
CorreoE: bioestadistica
alceingenieria.net
Junio 2003

Las técnicas englobadas bajo la denominación de análisis de la varianza o


abreviadamente ANOVA (del inglés analysis of variance) han jugado un papel crucial
en la metodología estadística moderna, desde que fueran ideadas por R.A. Fisher en
1925, y como sucede en tantas ocasiones, aunque conocidas por la gran mayoría, quizás
no son adecuadamente comprendidas por los no especialistas.
Casi siempre se introduce el tema del análisis de la varianza como respuesta a la
necesidad de utilizar una técnica de comparación de más de dos grupos, es decir como
un método para comparar más de dos tratamientos: si disponemos de medidas
cuantitativas continuas, que se puede suponer como procedentes de una distribución de
probabilidad normal, y queremos comparar dos grupos -dos tratamientos-, la prueba
estadística que se utiliza es un contraste de medias basado en la t de Student, y cuando
se dispone de más de dos grupos, la prueba a emplear es el análisis de la varianza.
Personalmente, aunque el enfoque es adecuado, me parece que refleja solo una parte del
interés de la técnica, ideada no sólo para analizar los datos sino también para planificar
los experimentos, y creo más apropiado hablar de que el análisis de la varianza es un
procedimiento estadístico que nos permite dividir la variabilidad observada en
componentes independientes que pueden atribuirse a diferentes causas de interés.
En el planteamiento más simple de análisis de la varianza tenemos una variable
numérica cuantitativa (resultado), y queremos determinar en qué medida se puede
atribuir la variabilidad de ésta a otra variable cualitativa nominal que vamos a
denominar factor. Estamos hablando por tanto de análisis de la varianza para un solo
factor, que puede tener 2 o más categorías o niveles.
Este factor, cuyo posible efecto sobre la variable medida queremos analizar, puede tener
unos niveles fijos, por ejemplo el nivel educativo alcanzado por los sujetos que
intervienen (sin estudios, estudios primarios, secundarios, formación universitaria), y
hablamos entonces de modelo de efectos fijos; o bien puede tratarse de una muestra
procedente de un conjunto de niveles más amplio, como puede ser por ejemplo el caso
de un estudio en el que se seleccionan varios hospitales y se analiza las posibles
diferencias entre hospitales. Entonces lo denominamos modelo de efectos aleatorios.
En el análisis de la varianza de 1 factor es mucho más frecuente el modelo de efectos
fijos.
Vamos a plantear el problema y comentar los cálculos que se efectúan en un análisis de
la varianza para un factor. Estudiamos K grupos clasificados de acuerdo a los niveles
1,2 .. K del factor. En cada nivel tenemos n1, n2, ... nk observaciones independientes y
obtenidas de forma aleatoria. Si designamos de forma general cada observación como
yij, el subíndice i indica el grupo al que pertenece, j es el número de la observación
dentro de ese grupo, de tal manera que por ejemplo y25 corresponderá al valor observado
en el quinto sujeto del segundo grupo. Por tanto en el grupo 2 tenemos las
observaciones y21 hasta y2n2.
Si juntamos todas las observaciones N=n1+n2+...+nk, calculamos la media global que
vamos a denominar .
También podemos calcular la media dentro de cada uno de los K grupos. La media para
el grupo i la designamos como .
Es obvio que la diferencia entre cada observación y la media global se puede
descomponer de la siguiente forma:

[1]

Es decir que la diferencia entre el valor observado y la media global es igual a la suma
de la diferencia de la observación con la media de su grupo y la diferencia de la media
del grupo con la media global.
Se puede comprobar que si cada término de esa expresión se eleva al cuadrado y se
suma para todas las observaciones, se mantiene la igualdad, lo que curiosamente no es
más que la aplicación del famoso teorema de Pitágoras a este diseño:

Cada uno de los términos es pues una suma de desviaciones cuadráticas, que
denominaremos de forma abreviada como suma de cuadrados (SC). La primera SC del
lado de la derecha corresponde a las desviaciones de cada observación respecto de la
media de su propio grupo, por lo que se la conoce como "dentro del grupo" o "intra
grupo" (en inglés within). El segundo sumando de la derecha corresponde a las
desviaciones de la media de cada grupo respecto de la media global, por lo que
cuantifica las diferencias medias entre los grupos, y se conoce como suma de cuadrados
"entre grupos" (en inglés between):
SCTotal=SCIntra grupo+SCEntre grupos
El cuadrado medio intra-grupo, equivalente a una varianza, lo calculamos dividiendo la
suma de cuadrados entre los grados de libertad

y se puede comprobar que es en realidad una media ponderada de las varianzas


muestrales de cada grupo, con la siguiente expresión:

Queda claro que constituye por tanto una estimación de la varianza común .
De igual manera podemos calcular el cuadrado medio entre grupos:

Si la media de todos los grupos es la misma, MSE también es una estimación de la


varianza común . Esto se puede entender mejor de una forma intuitiva si
consideramos el caso particular en el que todos los grupos tienen el mismo tamaño n.
Sabemos que la desviación estándar al cuadrado (varianza) de la media obtenida en
muestras de tamaño n extraídas de una población normal es /n (es lo que conocemos

como error estándar de la media), por lo tanto será una estimación

de /n y por tanto es una estimación de .


Ahora bien, si las medias de los grupos sí son diferentes, MSE no sólo contiene el valor
de la varianza intrínseca , sino que además estará aumentada según las variaciones
entre las medias de los tratamientos, y será tanto mayor cuanto mayor sean estas
diferencias. El cociente:

que compara la variabilidad entre grupos y la variabilidad intra grupos, será por tanto
próximo a 1 si las medias de los grupos son similares y tanto mayor que 1 cuanto
mayores sean las diferencias entre los grupos. El valor de F obtenido se contrastará con
el valor de la distribución teórica con grados de libertad K-1,N-K, y si la probabilidad de
obtener un valor tan grande como el observado es baja, rechazaremos la hipótesis de
igualdad de medias entre los grupos. La utilización de este parámetro de contraste, que
tiene una rigurosa justificación metodológica estadística, también tiene pues una
interpretación intuitiva: estamos comparando la variabilidad entre los grupos con la
variabilidad intrínseca dentro de los grupos.
Por otro lado hemos visto que la variabilidad total la hemos dividido en dos partes: una
variabilidad debida o explicada por pertenecer a cada uno de los grupos o niveles del
factor, y una parte de variabilidad individual, que no atribuimos a ninguna causa
concreta, y que por ello se suele denominar también variabilidad residual. Esto
podemos reflejarlo de una forma clara manipulando un poco la fórmula [1] en la que se
desglosa la variabilidad de cada observación en dos términos:

[2]

Es decir que el modelo postulado (término de la derecha) para nuestras observaciones


corresponde a tres sumandos: una media global , un efecto diferencial debido a la
pertenencia al grupo o tratamiento y un termino residual no explicado .

Diseño en Bloques aleatorizados

En un artículo anterior se habló de la ventaja que presentan las pruebas pareadas para
aumentar la eficiencia, al controlar parte de la variabilidad no atribuible al factor que
estamos estudiando. Cuando se analizan más de dos niveles o grupos el concepto de
prueba pareada se puede generalizar al análisis de la varianza. Aquí se denomina bloque
a cada unidad de observación, y para un factor o tratamiento tenemos el siguiente diseño
experimental:
Tratamiento 1 Tratamiento 2 ... Tratamiento K
Bloque 1 Y11 Y12 ... Y1K
Bloque 2 Y21 Y22 ... Y1K
... ... ... ... ...
Bloque n Yn1 Yn2 ... YnK
En este diseño, de manera análoga a la expresada en la fórmula [2] podemos
descomponer la variabilidad individual según el siguiente modelo:

donde aparece un nuevo término que corresponde a la variabilidad atribuida al


bloque, con lo que el término correspondiente a la variabilidad no explicada
disminuye, obteniéndose por tanto una prueba más eficiente.
Los bloques o unidades de observación pueden ser cada paciente, un hospital, un grupo
de pacientes con unas características específicas, etc. A veces también se habla de
análisis estratificado, donde los conceptos bloque y estrato son equivalentes.
Aunque uno de los motivos fundamentales de la asignación aleatoria de los pacientes a
cada grupo de tratamiento es precisamente evitar la presencia de sesgos en las
características de los pacientes que puedan afectar a las diferencias de eficacia que se
observen, sin embargo cuando se sabe que factores como la edad del paciente, la
presencia de diabetes, antecedentes de tabaquismo, etc influyen en el resultado, puede
ocurrir que finalmente por azar las proporciones de los diferentes niveles de estos
factores no se repartan "equitativamente" entre los grupos de tratamiento, lo que
conlleva a que los resultados queden bajo sospecha, incluso aunque después en el
análisis se acuda a técnicas multivariantes para "ajustar" los resultados en función de los
valores basales en los grupos, atribuyendo parte de la variación observada a esas
diferencias, y corrigiendo o disminuyendo la diferencia encontrada atribuible al efecto
del tratamiento. La utilización de técnicas de diseños aleatorizados en bloques y diseños
factoriales nos permite anticiparnos a esa situación, por lo que han sido ampliamente
empleadas no sólo en experimentación agrícola donde se originaron, sino también en
farmacología y en la industria, y en mucha menor medida, por lo que se comentará más
adelante, en la investigación médica clínica.
En este diseño aletorizado por bloques disponemos de dos valores de F para contrastar:
uno relativo a la influencia del tratamiento y otro para la influencia del bloque; aunque
el contraste en el que seguramente estamos interesados es solo el primero, ya que de
entrada se supone que el bloque sí que influye en la variable medida y precisamente por
eso se ha acudido a este tipo de diseño.

Diseños factoriales

Los denominados diseños factoriales permiten al investigador planificar un trabajo para


evaluar el efecto combinado de dos o más variables de forma simultánea en el resultado
medido, obteniéndose también información en cuanto a la posible interacción entre los
diversos factores.
Así podemos extender el modelo presentado en la fórmula [2] para considerar en cada
observación la influencia de dos factores que vamos a denominar A y B. Expresamos la
observación número k en el nivel i del factor A, nivel j del factor B, como:

donde se ha separado en un término correspondiente a la media global, otro debido al


efecto diferencial por pertenecer a un nivel determinado del factor A, un efecto debido
al factor B, un efecto de la interacción entre los factores A y B, y una variabilidad
residual no atribuible.
Este modelo es la base del análisis de la varianza para dos factores.
El problema de los diseños factoriales clásicos cuando se aplica a la investigación
clínica, en la que predominan los diseños observacionales y donde casi siempre es por
tanto difícil fijar el número de sujetos en cada uno de los niveles de los diferentes
factores, radica en que para que sea aplicable un análisis de la varianza clásico para más
de un factor, es necesario que se cumpla también la igualdad de la suma de cuadrados, y
esto sólo ocurre cuando el número de sujetos por celda (llamamos celda a cada
combinación de niveles de los distintos factores) es el mismo para todas las celdas. Es
decir que la igualdad:
SCTotal=SCA+SCB+SCAB+SCResidual
sólo es cierta cuando todas las celdas tienen el mismo número de sujetos. Si ese número
no es igual no podemos aplicar el análisis de la varianza.
Afortunadamente existe una relación directa entre el modelo de efectos postulado y la
regresión lineal múltiple, en la que intervendrán los factores como variables
independientes. Es lo que se conoce como modelos lineales y serán objeto de un nuevo
artículo.
Obviamente en ese modelo de regresión los factores entrarán adecuadamente
codificados como variables diseño o dummy, procedimiento que ya fue comentado en
el artículo relativo a la regresión logística.

Enlaces de interés
Statistics Notes: Comparing several groups using analysis of variance
Douglas G Altman and J Martin Bland
BMJ 1996; 312: 1472-1473. [Full text]

Análisis de la varianza
V. Abraira. Unidad de Bioestadística clínica del Hosp. Ramón y Cajal

¿Cómo comparar m medias? ANOVA


J.F. Recasens i Collado
JANO EMC. Viernes 05 Diciembre 1997. Volumen 53 - Número 1236 p. 74

• Introduction to ANOVA
• Factorial Between-Subjects ANOVA
• Within-Subjects ANOVA
HyperStat Online Textbook. Texto de estadística de David M. Lane Associate
Professor of Psychology, Statistics, and Administration at Rice University.

Calculadoras on line para diferentes modelos del análisis de la varianza


• VassarStats Statistical Computation Web Site
• StatPoint On-Line Statistical Computing Center

ANOVA
G. David Garson. North Carolina State University

Indice de artículos

Máster en Democracia y Gobierno, Departamento de Ciencia Política y


Relaciones Internacionales, Universidad Autónoma de Madrid

Sesión 4: Temas complementarios

Varianza explicada por el modelo


En regresión múltiple de un solo nivel el concepto de “varianza explicada”
responde a la pregunta de qué proporción de la variación total de la variable
respuesta se explica a partir de la relación lineal de ésta con las variables
explicativas introducidas en el modelo. Dicha proporción de varianza
explicada se suele medir con R2, el cuadrado del coeficiente de correlación
múltiple. Un valor alto (cercano a 1) de R2 se interpreta com “un buen
ajuste” y es una garantía de la capacidad predictiva del modelo. El valor de
R2 también se utiliza para comparar un modelo inicial con otro más complejo
que resulta de la inclusión de nuevas variables.

¿Cómo se mide en regresión multinivel la varianza explicada por el modelo?


La primera dificultad que nos encontramos al intentar trasladar este
concepto a los modelo de regresión multinivel es que en estos modelos hay
que distinguir entre diferentes componentes de la varianza. En segundo
lugar, la experiencia prueba que en ocasiones, al añadir variables en un
modelo multinivel alguna de las componentes de la varianza experimenta
un incremento en lugar de disminuir que es lo usual en los modelos de un
solo nivel. En consecuencia, la simple comparación de cada componente de
la varianza total en el modelo con variables explicativas respecto del
modelo sin variables puede dar lugar a índices negativos.

Ahora bien, volviendo al concepto inicial de varianza explicada cabe tener


presente que R2 admite también ser interpretado como la reducción
proporcional en el error de predicción. Si Y es la variable respuesta y β q
son los coeficientes de las Q variables explicativas Xq en un modelo de
regresión múltiple de un solo nivel, las fórmulas para R2 son las que siguen:

Q
Var (Yi ) − Var (Yi − ∑q β q X qi ) Var (ε i )
Yi = ∑ β q X qi + ε i R2 = = 1−
q =0 Var (Yi ) Var (Yi )

Siguiendo el enfoque propuesto por Snijders and Bosker (1994), en un


modelo de regresión de dos niveles cabría distinguir dos conceptos de
proporción de varianza explicada, uno para cada nivel que representaremos
con y , respectivamente. El primero consiste en la reducción
2 2
R 1 R 2

proporcional del error de predicción individual, mientras que el segundo es


la reducción proporcional del error de predicción de la media de cada grupo
o unidad de segundo nivel. Para un modelo de dos niveles con ordenada
aleatoria y Q variables explicativas de efectos fijos, donde rij y u0j son
variable aleatorias mutuamente independientes, con media 0 y varianzas
respectivas σ 2
y como .
τ 2
Yij = ∑ γ q X ij + u 0 j + rij
q

Las fórmulas correspondientes a y en que los subíndices 0 se refieren


2 2
R
1 R 2

al modelo sin variables explicativas y los subíndices 1 se refieren a los


parámetros del modelo en cuestión, son:

σ 12 + τ 12 τ 12 + σ 1 n
2
R = 1− 2
1
2

σ 0 + τ 02 R22 = 1 −
j

σ
τ + n
2
2
0
0
j

La explicación se encuentra en el error de predicción de las medias de cada


grupo j, .
Y. j

En el modelo de un solo nivel la varianza de la media del grupo es igual a la


varianza poblacional dividido por el tamaño del grupo. En el modelo de dos
niveles con ordenada aleatoria, se puede demostrar que la varianza de la
media de cada grupo es igual a:

Var (Y⋅ j ) = Var(u 0 j ) + Var(rij ) = τ 2 + σ


2

nj

Máxima verosimilitud total (Full maximum likelihood, ML en inglés)


versus Máxima verosimilitud restringida (Restricted Maximum Likelihood,
REML)
La idea básica del método de máxima verosimilitud consiste en determinar
las estimaciones de los efectos fijos (gamas) y de las varianzas y
covarianzas (taus) de segundo nivel y la varianza sigma cuadrado que
maximizan la función de verosimilitud (valores para los cuales la
probabilidad de obtener la muestra en concreto es máxima).

Por máxima verosimilitud restringida, se entiende una aproximación que


consiste en estimar las varianzas y covarianzas condicionadas a los valors
de los coeficientes fijos (gamas). Esta aproximación, en el caso de modelos
jerárquicos, resulta en la estimación de varianzas y covarianzas
ajustadas /corregidas por los grados de libertad utilizados en la previa
estimación de los efectos fijos. Esta corrección no suele introducir
diferencias suvbstanciales en la estimación de sigma cuadrado por un
método (ML) o el otro (REML). Sin embargo, si el número de unidades del
segundo nivel J es pequeño, las estimaciones ML son más pequeñas que las
REML (un factor de (J-F)/J donde F es el número de elementos estimados
como efectos fijos.

Aunque los estimadores REML y los ML son asimptóticamente equivalentes,


en el caso de muestras con un número reducido de unidades de segundo
nivel su comportamineto es diferente. Estudios de simulación realizados por
el método de Monte Carlo confirman que los estimadores REML de las
componentes de la varianza son menos sesgados que los estimadores ML,
pero al mismo tiempo estos estudios revelan la existencia de un potencial
problema: parece ser que los estimadores REML son menos eficientes (error
cuadrático mayor) que los ML debido a que su variabilidad puede ser
superior.

¿Qué deberíamos recordar?


• Si utilizamos REML, los estimadores de la varianza-covarianza
(parámetros aleatorios) se calcularon por máxima verosimilitud y los
coeficientes fijos por el método GLS. La razón de verosimilitud
permitirá contrastar la significación de los parámetros aleatorios
SOLAMENTE.
• Si utilizamos ML, tanto los parámetros aleatorios como los fijos se
estimaran por el método de máxima verosimilitud. Siguiendo este
método, cualquier par de modelos anidados podrá ser comparado con
la razón de verosimilitud.