Documente Academic
Documente Profesional
Documente Cultură
Selecci on de modelos.
12.1.
En ocasiones, ajustamos un modelo de regresi on teniendo una idea clara de las variables que debemos incluir como regresores. Es m as frecuente, sin embargo, el caso en que s olo tenemos una idea aproximada de la forma adecuada para nuestro modelo, y debemos decidir con criterio estad stico qu e regresores deben ser incluidos. Para enfrentar este tipo de situaciones necesitamos, por una parte, criterios de bondad de ajuste, capaces de permitirnos comparar distintos modelos ajustados a una misma muestra. Por otra, necesitamos estrategias de selecci on de variables que construyan de manera autom atica o semi-autom atica subconjuntos de todos los modelos posibles susceptibles de incluir el mejor. Examinaremos en esta Secci on el primer punto. Es claro que no podemos preferir un modelo a otro simplemente porque su SSE es menor, dado que toda1 variable que incluyamos en la regresi on, tenga mucha o poca relaci on con la variable respuesta, reducir a SSE . Tenemos, pues, que buscar criterios m as elaborados.
Las u nicas excepciones son aquellas variables correspondientes a columnas de la matriz de dise no X ortogonales a y , o que son combinaci on lineal exacta de columnas correspondientes a variables ya presentes entre los regresores.
1
187
188
12.1.1.
Maximizaci on de Rp .
2
N 1 N p
(12.1)
haciendo referencia el sub ndice p al n umero de regresores presentes en el modelo. Si reescribimos la ecuaci on (13.1) en la forma:
2 1 Rp = [1 Rp ] 2
N 1 N p SSEp N 1 = SST N p
(12.2) (12.3)
vemos que mientras que el primer t ermino de la derecha de (13.3) es mon otono no creciente con p, el segundo es mon otono creciente. Por consiguiente, el 2 producto de ambos puede crecer o decrecer al crecer p. 2 til, vereEs frecuente por ello utilizar Rp como criterio de ajuste. Aunque u mos sin embargo que debe complementarse con otros criterios. Su exclusiva aplicaci on da lugar con gran probabilidad a modelos sobreparametrizados, como pone de maniesto el siguiente teorema. on de un par ameTeorema 12.1 El estad stico Rp crece con la introducci tro en la ecuaci on de regresi on si el estad stico Qh asociado al contraste de signicaci on de dicho par ametro verica Qh > 1. n:3 Demostracio Para contrastar la signicaci on del (p + 1)- esimo par ametro, empleamos (Secci on 7.2, p ag. 77): Qh = SSEp SSEp+1 N p 1 SSEp+1 1 (12.4) (12.5)
2
2 2 (Rp N p1 +1 Rp ) = 2 1 Rp+1 1
2
Expresiones como la anterior con un t ermino funci on de la suma de cuadrados de los residuos y otro interpretable como penalizaci on por la introducci on de par ametros adicionales, son ubicuas en la literatura estad stica. La Cp de Mallows que se examina m as abajo tiene la misma forma, como muchos criterios de ajuste utilizados sobre todo en el an alisis de series temporales: Criterio de Informaci on de Akaike (AIC), FPE, BIC, etc. 3 Sigue a Haitovsky (1969).
189
(12.6) (12.8)
2 Rp +1 =
(12.9) (12.10)
N 1 (N p 1)
(12.11)
N 1 N p1
N 1 N p 1 + Qh N p 2 N 1 = 1 [1 Rp ] N p N p 1 + Qh
2 = 1 [1 Rp ] Rp 2 2
2
on de regresi on todos aquellos regresores cuRp implica introducir en la ecuaci yo estad stico Qh sea superior a la unidad; pero esto ocurre con probabilidad 0,50 incluso cuando h : i = 0 es cierta. Consecuentemente, el emplear este criterio en exclusiva conducir a con gran probabilidad al ajuste de modelos sobreparametrizados.
Obs ervese que si el t ermino t en (13.14) fuera la unidad lo que acontece cuando 2 Qh = 1, el lado derecho ser a precisamente Rp . Si Qh > 1, t es menor que 1 y, como s olo multiplica al sustraendo en (13.14), el resultado es mayor que Rp .
2 4
190
12.1.2.
Criterio Cp de Mallows.
Supongamos que la variable aleatoria Y se genera realmente como prescribe el modelo Y = X + , no obstante lo cual ajustamos el modelo + con p par equivocado Y = X ametros. Una vez estimado, dicho modelo (p) suministra las predicciones Y . Un criterio para evaluar la adecuaci on del modelo estimado al real, ser a el error cuadr atico medio (p) X ) (Y (p) X ) ECM = E (Y (12.15)
(p) ) dentro de cada par que sumando y restando E (Y entesis podemos descomponer as : (p) E (Y (p) )) (Y (p) E (Y (p) )) ECM = E (Y (p) ) X ) (E (Y (p) ) X ) + E (E (Y (p) ) + (Sesgo)2 . = Var(Y El primer t ermino no ofrece dicultad. Como (p) = X (X X ) 1 X Y = X (X X ) 1 X (X + ), Y tenemos que (p) ] = X (X X ) 1 X X E [Y y (p) E (Y (p) )) ((Y (p) E (Y (p) )) = X (X X ) 1 X X (X X ) 1 X ((Y (X X ) 1 X = X 2 2 p. Falta el t ermino de sesgo. Observemos que (X X ) 1 X X ) (X X (X X ) 1 X X ) (p) ) (Y Y (p) )] = E (X X E [(Y Y
SSE (Sesgo)2
(12.16) (12.17)
(12.18)
(12.19)
+ Por consiguiente,
(X X ) 1 X ) . E (I X
(Sesgo)2 = E [SSE ] E [ 2 2 N p ].
(12.20)
191
(12.21) (12.22)
= E [SSE ] (N p) + p, y por consiguiente: ECM SSE =E N + 2p. 2 2 Minimizar esta u ltima expresi on es lo mismo que minimizar E SSE + 2p, 2
(12.23)
(12.24)
ya que N es constante. Como quiera que el valor medio en la expresi on anterior no puede ser calculado y es desconocida, todo lo que podemos hacer es reemplazar (13.24) por la expresi on an aloga, Cp = SSE + 2p. 2 (12.25)
A esta u ltima expresi on se la conoce como Cp de Mallows. Para que se verique la aproximaci on en (13.25) es preciso que 2 2 , lo que se consigue si la muestra es lo sucientemente grande y 2 = SSE (N pk) /(N p k ), estando entre los (p + k ) regresores inclu dos los p necesarios. Incluso aunque entre dichos (p + k ) regresores haya algunos innecesarios, 2 es insesgado; el precio que se paga por emplear m as par ametros de los debidos en la estimaci on de 2 es una reducci on en el n umero de grados de libertad (v ease Secci on 6.2). De acuerdo con el criterio de Mallows, seleccionaremos el modelo que minimice Cp . La expresi on (13.25) es otro ejemplo de criterio de ajuste con penalizaci on. Cada nuevo par ametro que introducimos, reduce quiz a SSE , pero esta reducci on tiene un precio: el incremento del segundo sumando de (13.25) en 2. El efecto neto indica si el nuevo regresor es o no deseable. Observaci on 12.1 De acuerdo con el criterio Cp de Mallows,
dada una ecuaci on de regresi on con unos ciertos regresores presentes, introduciremos un nuevo regresor si este puede pagar su inclusi on 2 2 reduciendo SSE en, al menos, dos veces . La maximizaci on de Rp , en cambio, requerir a en an aloga situaci on introducir el mismo regresor si disminuye SSE en al menos una vez 2 . El criterio Cp de Mallows 5 es m as restrictivo .
La comparaci on es aproximada tan s olo. El valor de 2 que se emplea en el criterio Cp se obtiene, t picamente, ajustando el modelo m as parametrizado (esto minimiza el riesgo de
5
192
DE MODELOS. CAP ITULO 12. SELECCION Observaci on 12.2 Un estad stico se enfrenta con frecuencia a
este dilema en su trabajo. Hasta d onde procede llevar la complejidad del modelo a emplear? Qu e mejora en el ajuste de un modelo a la muestra justica la adici on de un nuevo par ametro?. O, si se preere, Cu an alada debe ser la navaja de Ockham? En el caso del modelo de regresi on lineal, el criterio Cp suministra seguramente una navaja con el lo adecuado; argumentos alternativos llevan a criterios equivalentes o similares al Cp . Es un hecho notable y llamativo que por diversas v as se llegue siempre a an alogos resultados, que tienen en com un el medir la complejidad del modelo empleado como una funci on lineal o aproximadamente lineal del n umero de sus par ametros; m as sobre esto en la Secci on 13.1.5. En la Secci on 13.1.4 se introduce la idea de la validaci on cruzada, que proporciona una forma alternativa de evaluar la bondad de ajuste de un modelo soslayando el empleo de una penalizaci on basada en el n umero de par ametros.
12.1.3.
Criterio AIC
Relacionado con el criterio Cp de Mallows, aunque v alido de modo mucho m as general y motivado de modo muy diferente, est a el criterio AIC (Akaikes Information Criterion, o An Information Criterion). Consiste en seleccionar el modelo minimizando ax verosimilitud(x , ) + 2p AIC (p) = 2 loge m
El primer t ermino en la expresi on anterior es, como en la Cp de Mallows, una medida de bondad de ajuste (disminuye al crecer el m aximo de la verosimilitud); el segundo penaliza el n umero de par ametros en . Puede verse una justicaci on en Akaike (1972) (y en Akaike (1974), Akaike (1991)). Una explicaci on simplicada que sigue esencialmente a de Leeuw (2000) puede encontrarse en Tusell (2003), Secci on ??. Cuando consideremos modelos de regresi on lineal con normalidad, el uso de los criterios AIC y Cp dar a resultados exactamente equivalentes si conoci e2 ramos (ambos criterios dieren en tal caso en una constante; ver Venables and Ripley (1999a), p ag. 185). Cuando 2 es desconocida y ha de ser estimada a partir de los datos, ambos criterios pueden diferir, pero son a efectos pr acticos intercambiables. El criterio AIC no obstante es de ambito mucho m as
introducir sesgos en la estimaci on de 2 , aunque seguramente nos hace despilfarrar algunos 2 grados de libertad). Por el contrario, al utilizar el criterio basado en Rp introducimos el nuevo regresor si Qh > 1 en (13.4), es decir, si la disminuci on SSEp SSEp+1 en la suma de cuadrados de los residuos es mayor que 2 = SSEp+1 /(N p 1), varianza estimada en el modelo con p + 1 regresores.
193
general, y puede ser utilizado dondequiera que tengamos una verosimilitud, sea o no normal la distribuci on generadora de la muestra.
12.1.4.
Hemos visto que el problema de emplear como criterio para la selecci on de modelos alguno de los estad sticos de ajuste obvios (suma de cuadrados 2 residual, R , o similar) estriba en que hay que tomar en consideraci on el diferente n umero de par ametros en cada modelo. El problema consiste en que, al incrementar el n umero de par ametros, el modelo puede seguir m as a la muestra, ajustando no s olo el comportamiento predecible sino incluso el puramente aleatorio Se adapta muy bien a una muestra la que hemos empleado para estimarlo, pero quiz a no a otras. Una soluci on consistir a en estimar los modelos con una muestra (muestra de entrenamiento o aprendizaje) y evaluarlos examinando su comportamiento en la predicci on de otra diferente (muestra de validaci on). Actuando as , estar amos a salvo de impresiones excesivamente optimistas: la suma de cuadrados de los residuos o R2 que calcul aramos para cada modelo reejar a su capacidad de generalizaci on: su comportamiento con otras observaciones distintas de las que han servido para estimarlo. Lamentablemente, esto requiere dividir nuestra disponibilidad de observaciones en dos grupos: uno para estimar y otro para validar. El obtener un diagn ostico realista por este procedimiento requiere sacricar en aras de la validaci on una preciosa fracci on de muestra que habr a permitido, quiz a, estimar mejor. Realmente es esto as ? No; una vez que hemos decidido por el procedimiento anterior de fraccionar la muestra en dos para seleccionar el modelo mejor, podemos emplear todas las observaciones en reestimarlo. La idea de la validaci on cruzada incorpora una mejora adicional al planteamiento anterior. No tenemos necesariamente que usar s olo una fracci on de la muestra para validar. Podemos dividir la muestra en dos (o m as) partes y emplear todas ellas en la validaci on. El ejemplo que sigue detalla los pasos a seguir haciendo validaci on cruzada por mitades. Ejemplo 12.1 Consideremos una muestra de tama no N = 100. Tenemos una colecci on de K modelos Mi , i = 1, . . . , K , posiblemente con diferente n umero de par ametros, de entre los que queremos seleccionar uno. Podemos dividir la muestra en dos trozos, A y B , de tama nos respectivos NA = NB = 50, y proceder as :
1. Con la muestra A estimaremos cada uno de los modelos Mi .
194
( = 1, . . . , N )
N SSEi . =1
SSEi = N 1
195
Fin del ejemplo
12.1.5.
En esencia, seleccionar un modelo entra na adoptar un compromiso entre la bondad de ajuste y la complejidad, medida por el n umero de sus par ametros. Sabemos que un modelo lineal sucientemente parametrizado podr a ajustar perfectamente la muestra, pero que ello no signica que sea id oneo: puede tener muy poca capacidad de generalizaci on. Por el contrario, un modelo que no incluya los par ametros sucientes dara un ajuste susceptible de mejora. Se trata de alcanzar un equilibrio entre los dos objetivos en contradicci on: un modelo dando buen ajuste y con los m nimos par ametros precisos. Una aproximaci on intuitivamente atrayente al problema es la siguiente: tratemos de dar una descripci on tan corta como sea posible de la evidencia (la muestra). Esto puede de nuevo verse como una apelaci on al principio de Ockham: construir explicaciones de la realidad que hacen uso del m nimo n umero de entidades. La aproximaci on propuesta exige medir la longitud de la descripci on que hagamos, y podemos para ello hacer uso de la Teor a de la Informaci on. No podemos elaborar esta cuesti on con detalle aqu (v ease una buena introducci on en Rissanen (1989), y detalles en Legg (1996)). En esencia, dado un modelo probabilistico podemos describir o codicar unos datos de modo compacto asignando a los m as raros (menos probables) los c odigos m as largos. Observaci on 12.3 Esta estrategia, de sentido com un, es la que hace que al codicar en el alfabeto telegr aco de Morse la letra e (muy frecuente en ingl es) se adoptara el c odigo ., reservando los c odigos m as largos para caracteres menos frecuentes (ej: -..- para la x). Adem as de codicar los datos tenemos que codicar los par ametros del modelo probabilistico. La longitud total de descripci on de la muestra y cuando hacemos uso del modelo probabil stico Mk haciendo uso del vector de par ametros k es entonces MDL(Mk ; y ) = (C odigo necesario para y ) + (12.26)
196
Un mal ajuste har a que el primer sumando sea grande; los datos muestrales se desv an mucho de lo que el modelo predice. Un modelo con un perfecto ajuste tendr a un primer sumando nulo (porque las y se deducir an exactamente del modelo, y no requerir an ser codicadas), pero requerir a quiz a muchos par ametros incrementando el segundo sumando. El criterio MDL propone seleccionar el modelo Mk que minimiza (13.27). En el caso de modelos de regresi on, el criterio MDL da resultados ntimamente emparentados asint oticamente con los precedentes (suma de cuadrados PRESS y Cp ); v eanse detalles en Rissanen (1989), Cap. 5.
12.2.
Selecci on de variables.
Una aproximaci on ingenua al problema consistir a en estudiar la reducci on 2 en un cierto criterio (SSE , Rp , Cp , . . . ) originada por la introducci on de cada variable, y retener como regresores todas aquellas variables que dieran lugar a una reducci on signicativa. Desgraciadamente, esta estrategia no tiene en cuenta el hecho de que, a menos que las columnas de la matriz de dise no X sean ortogonales, la reducci on en SSE originada por la inclusi on de una variable depende de qu e otras variables est en ya presentes en la ecuaci on ajustada. Se impone, pues, emplear procedimientos m as sosticados. Relacionamos algunos de los m as utilizados.
12.2.1.
De acuerdo con el p arrafo anterior, la adopci on de una estrategia ingenua podr a dicultar el hallazgo de un modelo adecuado. Por ejemplo, puede bien suceder que una variable Xi , que debiera ser inclu da en el modelo, no origine una reducci on signicativa de SSE cuando la introducimos despu es de Xj . Si esto ocurre, es claro que Xi no mostrar a sus buenas condiciones como regresor mas que si es introducida con Xj ausente. Una posible soluci on ser a, dados p regresores, formar todos los posibles subconjuntos de regresores y efectuar todas las posibles regresiones, reteniendo aqu ella que, de acuerdo con el criterio de bondad de ajuste que hayamos adoptado, parezca mejor. El inconveniente es el gran volumen de c alculo que es preciso realizar. Pi ensese que con p regresores pueden estimarse 2p 1 diferentes regresiones. Si p = 5, 2p 1 = 31; pero si p = 10, 2p 1 = 1023, y para p > 20 habr a que
197
realizar por encima de un mill on de regresiones. Hay procedimientos para 7 reducir y agilizar el c alculo , pero a un as este puede resultar excesivo.
12.2.2.
Se trata de un procedimiento muy utilizado que, aunque no garantiza obtener la mejor ecuaci on de regresi on, suministra modelos que habitualmente son optimos o muy pr oximos al optimo, con muy poco trabajo por parte del analista. Describiremos el procedimiento de regresi on escalonada hacia adelante (forward selection procedure); la regresi on escalonada hacia atr as (backward elimination) o mixta son variantes f aciles de entender. En cada momento, tendremos una ecuaci on de regresi on provisional, que incluye algunas variables (regresores incluidos) y no otras (regresores ausentes). Al comienzo del procedimiento, la ecuaci on de regresi on no incluye ning un regresor. El modo de operar es entonces el siguiente: 1. Calcular los estad sticos Qh para todos los regresores ausentes (h : i = 0). 2. Sea Q aximo estad stico de los calculados en 1). Si Q h el m h < F , siendo F un umbral prejado, nalizar; la ecuaci on provisional es la denitiva. Si, por el contrario, Q h F , se introduce la variable correspondiente en la ecuaci on de regresi on. 3. Si no quedan regresores ausentes, nalizar el procedimiento. En caso contrario, reiniciar los c alculos en 1). En suma, se trata de introducir las variables de una en una, por orden de mayor contribuci on a disminuir SSE , y mientras la disminuci on sea apreciable. El procedimiento de regresion hacia atr as procede de manera an aloga, pero se comienza con una ecuaci on que incluye todos los regresores, y se van excluyendo de uno en uno, mientras el incremento en SSE que dicha exclusi on origine no sea excesivo. En el procedimiento m xto, por n, se alterna la inclusi on y exclusi on de variables en la recta de regresi on; ello permite que una variable incluida sea posteriormente desechada cuando la presencia de otra u otras hacen su contribuci on a la reducci on de SSE insignicante. Los criterios de entrada y salida de variables se jan especicando sendos valores Fentrada y Fsalida que deben ser superados (no alcanzados) por el Q h correspondiente para que una variable pueda ser incluida (excluida)
7
198
en la regresi on. Ambos umbrales pueden ser el mismo. Mediante su selecci on adecuada, puede lograrse un algoritmo hacia adelante puro (jando Fsalida = 0, con lo que se impide el abandono de cualquier variable introducida), hacia atr as puro (jando Fentrada muy grande, y comenzando con una ecuaci on de regresi on que incluye todas las variables), o un procedimiento mixto arbitrariamente pr oximo a cualquiera de los dos extremos8 . R: Ejemplo 12.1 (selecci on autom atica de modelos) El ejemplo siguiente muestra el uso de las funciones leaps (en el paquete del mismo nombre) para hacer regresi on sobre todos los subconjuntos con 2 2 criterios R , R o Cp , stepAIC (en el paquete MASS) para hacer regresi on escalonada con criterio AIC y algunas otras funciones ancilares. Orimero generamos datos sint eticos del modo habitual. Como puede verse, hay muchos betas no signicativos.
> > + > > > > + > > set.seed(123457) X <- matrix(rnorm(1000), ncol = 20) betas <- rep(0, 20) betas[c(3, 5, 7, 12)] <- 1:4 y <- X %*% betas + rnorm(50) datos <- as.data.frame(cbind(X, y)) dimnames(datos)[[2]][21] <- "y" completo <- lm(y ~ ., datos)
Como puede verse, hay muchos betas no signicativos: > summary(completo) Call: lm(formula = y ~ ., data = datos) Residuals:
Podr a pensarse en jar niveles de signicaci on para la entrada y salida de variables. Esto no se hace porque ser an considerablemente arduos de computar; obs ervese que en un procedimiento stepwise se selecciona para entrar o salir de la ecuaci on de regresi on la variable con un Qh mayor (menor). Bajo la hip otesis de nulidad del correspondiente par ametro, un Qh cualquiera se distribuye como una F de Snedecor con grados de libertad apropiados. El mayor (o menor) de los estad sticos Qh en cada etapa, sigue una distribuci on diferente (v ease Cap tulo 9). El nivel de signicaci on asociado al contraste impl cito en la inclusi on o exclusi on de un regresor no es la probabilidad a la derecha (o izquierda) de Fentrada (o Fsalida ) en una distribuci on F con grados de libertad apropiados.
8
199
Coefficients: Estimate Std. Error (Intercept) -0.0706 0.2227 V1 0.0408 0.2422 V2 0.1720 0.2603 V3 1.1884 0.2397 V4 -0.0238 0.2067 V5 2.0035 0.2022 V6 0.2633 0.2217 V7 2.9970 0.1875 V8 -0.1074 0.2804 V9 0.0514 0.2105 V10 -0.2367 0.2148 V11 -0.2053 0.2042 V12 4.0374 0.2212 V13 0.1137 0.2161 V14 -0.2115 0.2163 V15 0.0191 0.3076 V16 0.1206 0.2328 V17 0.0318 0.1972 V18 -0.0786 0.2108 V19 0.0879 0.2569 V20 0.0162 0.1949 t value Pr(>|t|) (Intercept) -0.32 0.75 V1 0.17 0.87 V2 0.66 0.51 V3 4.96 2.9e-05 *** V4 -0.11 0.91 V5 9.91 8.1e-11 *** V6 1.19 0.24 V7 15.98 6.5e-16 *** V8 -0.38 0.70 V9 0.24 0.81 V10 -1.10 0.28 V11 -1.01 0.32 V12 18.25 < 2e-16 *** V13 0.53 0.60
200
Residual standard error: 1.2 on 29 degrees of freedom Multiple R-squared: 0.977, Adjusted R-squared: 0.961 F-statistic: 61 on 20 and 29 DF, p-value: <2e-16 Utilizamos ahora la funci on leaps para hacer regresi on sobre todos los subconjuntos. Con 15 regresores, es un problema de talla modesta. > library(leaps) > mods <- leaps(x = X, y = y, + method = "Cp")
El objeto mods contiene informaci on sobre todos los modelos estima2 umero de regresores: dos. Podemos ver como var a Cp y R con el n > + + > > > + + + > + > + + + > > postscript(file = "demo10.eps", horizontal = FALSE, width = 5, height = 9) opar <- par() par(mfrow = c(2, 1)) plot(mods$size, mods$Cp, main = "Cp versus talla modelos", xlab = expression(p), ylab = expression(C[p])) mods.r <- leaps(x = X, y = y, method = "adjr2") plot(mods.r$size, mods.r$adjr2, main = "R2 versus talla modelos", xlab = expression(p), ylab = expression(bar(R)^2)) par(opar) dev.off()
201
mejores <- order(mods$Cp)[1:15] regres <- mods$which[mejores, ] dimnames(regres)[[2]] <- dimnames(datos)[[2]][1:20] Cp <- mods$Cp[mejores] cbind(regres, Cp) V1 V2 V3 V4 V5 V6 V7 V8 V9 V10 0 0 1 0 1 1 1 0 0 0 0 0 1 0 1 1 1 0 0 0 0 0 1 0 1 1 1 0 0 1 0 0 1 0 1 0 1 0 0 0 0 0 1 0 1 1 1 0 0 0 0 0 1 0 1 0 1 0 0 1 0 0 1 0 1 1 1 0 0 0 0 0 1 0 1 0 1 0 0 0 0 0 1 0 1 1 1 0 0 1 0 0 1 0 1 1 1 0 0 0 1 0 1 0 1 1 1 0 0 0 1 0 1 0 1 0 1 0 0 0 0 0 1 0 1 1 1 0 0 0 0 0 1 0 1 1 1 0 0 0 0 0 1 0 1 1 1 0 0 0 V11 V12 V13 V14 V15 V16 V17 0 1 0 0 0 0 0 0 1 0 1 0 0 0 0 1 0 0 0 0 0 0 1 0 0 0 0 0 1 1 0 0 0 0 0 0 1 0 0 0 0 0 0 1 0 0 0 0 0 1 1 0 0 0 0 0 0 1 0 1 0 0 0 0 1 0 0 1 0 0 0 1 0 0 0 0 0 0 1 0 0 0 0 0
202
Figura 12.1: Valores de Cp y R para 141 modelos ajustados a los datos UScrime
200
600
Cp
1000
10 p
15
20
10 p
15
20
203
> mod1 <- lm(y ~ V3 + V4 + + V5 + V7 + V10 + V12 + + V16 + V17, data = datos) > mod2 <- update(mod1, . ~ + . + V1 + V2) > summary(mod2) Call: lm(formula = y ~ V3 + V4 + V5 + V7 + V10 + V12 + V16 + V17 + V1 + V2, data = datos) Residuals: Min 1Q Median -1.611 -0.762 0.122 Max 2.237
3Q 0.627
Coefficients: Estimate Std. Error (Intercept) -0.03573 0.18316 V3 1.08674 0.19721 V4 -0.00741 0.16766 V5 2.03931 0.16976 V7 3.05622 0.14772
204
V10 V12 V16 V17 V1 V2
Median 0.0539
3Q 0.7177
Coefficients: Estimate Std. Error (Intercept) 0.0738 0.1596 V3 1.0693 0.1819 V4 -0.0410 0.1567 V5 1.9898 0.1603
205
3.0484 0.1400 4.1357 0.1642 t value Pr(>|t|) (Intercept) 0.46 0.65 V3 5.88 5.1e-07 *** V4 -0.26 0.79 V5 12.41 5.7e-16 *** V7 21.77 < 2e-16 *** V12 25.19 < 2e-16 *** --Signif. codes: 0 *** 0.001 ** 0.01 * 0.05 . 0.1 1 Residual standard error: 1.09 on 44 degrees of freedom Multiple R-squared: 0.971, Adjusted R-squared: 0.967 F-statistic: 293 on 5 and 44 DF, p-value: <2e-16 > m <- regsubsets(y ~ ., datos, + method = "forward") > summary(m) Subset selection object Call: regsubsets.formula(y ~ ., datos, method = "forward") 20 Variables (and intercept) Forced in Forced out V1 FALSE FALSE V2 FALSE FALSE V3 FALSE FALSE V4 FALSE FALSE V5 FALSE FALSE V6 FALSE FALSE V7 FALSE FALSE V8 FALSE FALSE V9 FALSE FALSE V10 FALSE FALSE V11 FALSE FALSE V12 FALSE FALSE V13 FALSE FALSE V14 FALSE FALSE V15 FALSE FALSE V16 FALSE FALSE V17 FALSE FALSE V18 FALSE FALSE V19 FALSE FALSE V20 FALSE FALSE
206
> library(MASS) > step <- stepAIC(completo, + scope = y ~ ., direction = "both", + trace = FALSE) > summary(step)
3Q 0.5244
Coefficients: Estimate Std. Error (Intercept) 0.0514 0.1518 V3 1.0256 0.1761 V5 2.0499 0.1557 V6 0.3046 0.1603 V7 3.0499 0.1346 V12 4.1077 0.1585 t value Pr(>|t|) (Intercept) 0.34 0.736 V3 5.82 6.1e-07 *** V5 13.17 < 2e-16 *** V6 1.90 0.064 . V7 22.65 < 2e-16 *** V12 25.91 < 2e-16 *** --Signif. codes: 0 *** 0.001 ** 0.01 * 0.05 . 0.1 1 Residual standard error: 1.05 on 44 degrees of freedom Multiple R-squared: 0.973, Adjusted R-squared: 0.97 F-statistic: 317 on 5 and 44 DF, p-value: <2e-16
12.3.
La facilidad con que los algoritmos presentados en este Cap tulo producen modelos candidatos no debe hacer que el analista delegue demasiado en ellos. Un modelo ha de ser consistente con los conocimientos ables que se tengan
208
acerca del fen omeno bajo estudio. Debe ser tambi en interpretable. Prestemos algo de atenci on a este u ltimo requerimiento. Imaginemos un modelo como el siguiente: y = 0 + 1 X + 2 X 2 + . (12.28)
En un caso as , frecuentemente el inter es se centrar a en dilucidar si la relaci on de X con Y es lineal o cuadr atica es decir, en contrastar la hip otesis h : 2 = 0. Es frecuentemente el caso que X se mide en unidades en que tanto la escala como el origen son arbitrarios (como ocurr a, por ejemplo, en el Ejercicio 3.10, p ag. 41); y ser a inconveniente que el contraste de h dependiera del origen y de la escala empleadas. Lo menos que debemos esperar de nuestra inferencia es que sea invariante frente a cambios en las unidades de medida. Si en (13.28) reemplazamos X por Z = aX + b, obtenemos y = 0 + 1 (aX + b) + 2 (aX + b)2 + = (0 + 1 b + 2 b2 ) + (1 a + 2ab2 )X + a2 2 X 2 + 2 X + . X + 2 + 1 = 0
(12.29)
En este nuevo modelo, 2 = a2 2 absorbiendo el cambio de escala en la X . Es f acil ver que es equivalente contrastar h : 2 = 0 en (13.28) o h : 2 =0 en (13.29); el contraste de la hip otesis efecto cuadr atico de X sobre Y , al menos, no se altera por el cambio de unidades. Sin embargo, sean cuales fueren 1 y 2 , habr a coecientes a, b anulando 1 = (1 a +2ab2 ) en (13.29). Ello hace ver que:
No tiene sentido contrastar efecto lineal en un modelo que incluye t ermino cuadr atico, porque el contraste tendr a un resultado diferente dependiendo de las unidades de medida. La inclusi on de un t ermino en X 2 debe ir acompa nada de un t ermino lineal y constante, si queremos que el modelo sea invariante frente a cambios en el origen y la escala. La conclusi on que extraemos es que los t erminos de orden superior deben estar acompa nados de todos los t erminos de orden inferior es decir, si incluimos un t ermino c ubico, deben tambi en existir t erminos cuadr aticos y lineales, etc.. Un modelo que cumpla con dicho requisito se dice que est a jer arquicamente estructurado y en el podemos contrastar no nulidad del coeciente del t ermino jer arquico de orden superior, pero no de los inferiores. La misma conclusi on es de aplicaci on a t erminos recogiendo interacciones:
12.3. MODELOS BIEN ESTRUCTURADOS JERARQUICAMENTE 209 si introducimos una variable compuesta como Xi Xj en el modelo, Xi y Xj deben tambi en ser incluidas. Se suele decir que un modelo jer arquicamente bien estructurado verica restricciones de marginalidad y que, por ejemplo, Xi y Xj son ambas marginales a Xi Xj . Si regresamos al Ejercicio 3.10 en que se arg u a la necesidad de utilizar un t ermino 0 veremos que se trata del mismo problema: necesitamos el t ermino jer arquico inferior (la constante) cuando incluimos X dado que las unidades y el origen son arbitrarios. No es imposible que un modelo sin 0 sea adecuado, pero lo normal es lo contrario. Dependiendo de los programas que se utilicen, un algoritmo puede eliminar del modelo de regresi on un t ermino jer arquico inferior manteniendo otro de orden superior. Es responsabilidad del analista garantizar que ello no ocurra, manteniendo la interpretabilidad de los par ametros en toda circunstancia.
210
DE MODELOS. CAP ITULO 12. SELECCION Complementos y ejercicios 12.1 Supongamos que hacemos regresi on escalonada hacia adelante. Qu e valor de Fentrada equivaldr a a introducir regresores en el 2 modelo en tanto en cuanto incrementen Rp ? 12.2 Las estrategias de regresi on escalonada descritas (hacia
adelante, hacia atr as, o mixta) exploran un subconjunto de los modelos posibles, a nadiendo (omitiendo) en cada momento el regresor que parece con mayor (menor) capacidad explicativa de la variable respuesta. Puede perfectamente alcanzarse un optimo local, al llegarse a un modelo en el que no es posible mejorar el criterio elegido (Cp , o cualquier otro) a nadiendo u omitiendo regresores, pese a existir otro modelo mejor en t erminos de dicho criterio. Mejoran nuestras expectativas de encontrar el optimo global mediante regresi on escalonada cuando las columnas de la matriz X de regresores son ortogonales? Justif quese la respuesta.
12.3 En la Observaci on 13.1 se comparan los criterios de selecci on de modelos consistentes en maximizar Rp y Cp , viendo que el segundo es en general m as restrictivo. Consideremos ahora dos posibles modelos A y B de regresi on con sumas de cuadrados de los residuos respectivamente SSEA y SSEB . El primer modelo utiliza s olo un subconjunto de los regresores presentes en el segundo (por tanto, SSEA SSEB ). Para escoger entre los modelos A y B podr amos adoptar uno de los siguientes criterios: 1. Seleccionar el modelo B si la disminuci on en la suma de cuadrados respecto al modelo A es estad sticamente signicativa, es decir, si: (SSEA SSEB ) > Fq,N Qh = (p+q ) q 2 siendo p el n umero de par ametros presentes en A y q el de los adicionales presentes en B . 2. Seleccionar el modelo B si su estad stico Cp es menor. Supongamos adem as que el modelo B es el m as parametrizado de los posibles (incluye todas las variables de que disponemos). Qu e relaci on existe entre ambos criterios?
2