Sunteți pe pagina 1din 20

UNIVERSIDAD NACIONAL DE HUANCAVELICA

MULTICOLINEALIDAD, HETEROCEDASTICIDAD Y
AUTOCORRELACION
PARI TAIPE, Wilfredo
RESUMEN
Cuando dos o ms variables explicativas en un modelo estn altamente correlacionadas en la muestra, es muy
difcil separar el efecto parcial de cada una de estas variables sobre la variable dependiente. La informacin
muestral que incorpora una de estas variables es casi la misma que el resto de las correlacionadas con ella.
En el caso extremo de multicolinealidad exacta no es posible estimar separadamente estos efectos sino una
combinacin lineal de ellos.
La heterocedasticidad consiste en que las varianzas de las perturbaciones difieren entre unidades mustrales,
generalmente surgen muestras transversales, tambin surge en modelos de precios especulativos. Para detectar
la heterocedasticidad existen diversos contrastes. Su hiptesis nula siempre es homocedasticidad y difieren en
la hiptesis alternativa. Los estimadores de MCO de un modelo heterocedastico son insesgados pero no son
ptimos para poder estimar sus matriz de covarianza y varianza en necesario emplear el estimador consistente.
La deteccin de la autocorrelacion no solo es importante en la estimacin y contraste de hiptesis, sino tambin
en la prediccin. El anlisis grafico de los residuos de un modelo estimado por mnimos cuadrados es til para
detectar la presencia y forma de autocorrelacion en los errores. El supuesto de ausencia de autocorrelacion en
las perturbaciones debe cuestionarse cuando trabajamos con datos de series temporales.
ABSTRACT
When two or more explanatory variables in a model are highly correlated in the sample, it is very difficult to
separate the partial effect of each of these variables on the dependent variable. The sample information that
incorporates one of these variables is almost the same as the others correlated with it. In the extreme case of
exact multicollinearity it is not possible to estimate these effects separately but a linear combination of them.

The heteroscedasticity consists in the fact that the variances of the perturbations differ between sample units,
usually transverse samples, also arise in speculative price models. Several contrasts exist to detect
heteroskedasticity. Their null hypothesis is always homoscedasticity and differ in the alternative hypothesis.
The MCO estimators of a heteroskedastic model are unbiased but not optimal for estimating their covariance
matrix and variance in using the consistent estimator.

The detection of autocorrelation is not only important in the estimation and contrast of hypotheses, but also
in the prediction. The graphical analysis of the residuals of an estimated least squares model is useful to
detect the presence and form of autocorrelation in the errors. The assumption of absence of autocorrelation in
perturbations should be questioned when working with time series data

1
UNIVERSIDAD NACIONAL DE HUANCAVELICA

1. INTRODUCCION

En este trabajo resumiremos la multicolinealidad, la heterocedasticidad y la autocorreccin, entonces


comenzaremos introduccin este trabajo con el tema de la multicolinealidad. La multicolinealidad aparece
cuando las variables explicativas de un modelo economtrico estn correlacionadas entre s, mientras que nos
referimos a las observaciones atpicas cuando hay evidencia de que stas distan sistemticamente del resto de
las observaciones. Nuestro objetivo, por tanto, es detectar y solventar los errores mustrales.

El trmino heterocedasticidad se refiere a aquella situacin en que la varianza de Y condicional a las variables
del modelo no es constante para los distintos valores de las X. Tanto en el contexto de datos de seccin cruzada
como de datos de series temporales es habitual encontrar situaciones con HETEROCEDASTICIDAD.
El anlisis de muchos fenmenos econmicos exige relajar el supuesto de HOMOCEDASTICIDAD
(varianza condicional del error constante) que se hace en el modelo de regresin clsico

Especficamente, se puede distinguir dos tipos de autocorrelacin. La primera se define como autocorrelacin
espacial y se presenta cuando trabajamos con modelos de corte transversal mientras que la segunda, conocida
como autocorrelacin serial, se presenta al trabajar con series de tiempo. Las siguientes pginas slo se
concentrarn en la discusin de la segunda forma de autocorrelacin

2. MULTICOLINEALIDAD
2.1. DEFINICION DEL PROBLEMA.
Barrie Wetherill distingue dos tipos de problemas al aplicar el modelo clsico de regresin lineal: aquellos
relacionados a la especificacin del modelo y las perturbaciones y aquellos relacionados a los supuestos sobre
la informacin. El problema de la multicolinealidad est referido a este ltimo y surge al violar los supuestos
que establecen que los regresores incluidos en el modelo son independientes, que el nmero de observaciones
debe ser mayor al nmero de regresores y que debe existir suficiente variabilidad en los valores de estos ltimos.
El problema de la multicolinealidad est definido por el alto grado de intercorrelacin entre variables
explicativas. Dentro de las violaciones de los supuestos del modelo lineal general, la multicolinealidad es un
problema de grado y no terico como la heterocedasticidad o la autocorrelacin, ms an, los estimadores
obtenidos bajo multicolinealidad, conservan las propiedades que los definen como MELI.
2.2 NATURALEZA DE LA MULTICOLINEALIDAD
El termino multicolinealidad, originalmente designa una relacin lineal prefecta o extracta entre algunos o
todas variables explicativas de un modelo de regresin. Para una regresin con k variables se incluye las
variables explicativas X1, X2,Xk, (donde X1=1, para todas las observaciones de forma el termino
de intercepto), se dice que existe una relacin lineal exacta si se satisface la siguiente condicin.

Donde 1, 2,. . ., k, son constantes tales que no todas son simultneamente iguales a cero. Hoy en da, sin
embargo, el trmino multicolinealidad incluye el caso de multicolinealidad perfecta, como lo indica en la
ecuacin anterior y tambin el caso en el cual hay X variables intercorrelacionadas pero no en forma perfecta,
de la siguiente manera.

2
UNIVERSIDAD NACIONAL DE HUANCAVELICA

Donde vi es un trmino de error estocstico. Para apreciar la diferencia entre multicolinealidad perfecta y
multicolinealidad menos que perfecta suponga que 2 = 0. Entonces se escribe como

Lo que muestra la forma como X2 est exactamente relacionada de manera lineal con otras variables, o
cmo se deriva de una combinacin lineal de otras variables X. En esta situacin, el coeciente de correlacin
entre la variable X2 y la combinacin lineal del lado derecho est obligado a ser igual a uno, si i 2 = 0,

entonces la ecuacin se escribe de la siguiente forma.


Lo cual muestra que X2 no es una combinacin lineal exacta de otras X porque est determinada tambin
por el trmino de error estocstico vi. Como veremos en la grfica la multicolinealidad, que dicha relacin

es imprescindible si es que las variables independientes son relevantes (es decir que s explican a la variable
dependiente), tal relacin est representada por las intersecciones de Y con X2 y X3. Adems, puede existir
una relacin entre las variables independientes, representada por la interseccin de X2 con X3. Si dicha
interseccin no existe, entonces no existe correlacin entre las explicativas y no hay colinealidad. Si, por el
contrario, dicha relacin existe entonces s hay multicolinealidad. sta, a su vez, puede ser menos que perfecta
(tal como se indica en el segundo grfico) o perfecta (tal como se indica en el tercer grfico, representada por el
conjunto incluido X3

3
UNIVERSIDAD NACIONAL DE HUANCAVELICA

Las posibles fuentes de multicolinealidad son cuatro principalmente.

El mtodo de recoleccin de informacin empleado


Restricciones sobre el modelo o en la poblacin que es objeto de muestreo
Especificacin del modelo
Un modelo sobredeterminado.
2.3 MULTICOLINEALIDAD PERFECTA
La multicolinealidad perfecta, en este caso los coeficientes de regresin permanece indeterminados y sus errores
estndar son infinitos, supongamos el siguiente modelo:

Que en desviaciones seria de la forma:

Matricialmente seria.

Para poder analizar la multicolinealidad perfecta entonces supones que x2=x3 entonces el resultado ser.

4
UNIVERSIDAD NACIONAL DE HUANCAVELICA

Las varianzas de cada ecuacin sern: Consecuentemente, los errores estndar de los coeficientes de
regresin tambin sern infinitos. Como se ha demostrado, en el caso de la multicolinealidad perfecta no es
posible hallar una solucin nica para los coeficientes de regresin individual pero s se puede obtener una
solucin nica para combinaciones lineales de estos coeficientes. As pues, en el caso anterior

Y = b1 + b2X2 +b3X3 + u
Y = b1 + b2aX3 +b3X3 + u
Y = b1 + (b2a + b3) X3 + u
Y = b1 + b4 X3 + u
En donde b4 = b2a + b3. Se podr estimar tanto b1* como b4* bajo el mtodo convencional de MCO
pero no se podr descomponer b4* en sus componentes combinados linealmente b2 y b3. Esto, a no ser que
se tenga informacin adicional como el b2* (o el b3*) obtenidos de otra regresin. Esto es lo que se conoce
como la solucin gracias a la posesin de informacin a priori para eliminar el problema de multicolinealidad.
2.4. MULTICOLINEALIDAD SEVERA
En este caso, dado que se conserva el supuesto de perturbaciones esfricas, los estimadores de los parmetros
de regresin sern MELI. Entonces, dnde radica el inconveniente de trabajar con un grado relativamente
alto de multicolinealidad? Al respecto, no debemos olvidar la estrecha relacin que existe entre la
multicolinealidad y la escasez de observaciones. La obtencin de estimadores MELI, a pesar de la presencia
de multicolinealidad, no es razn suficiente para no considerar las consecuencias prcticas de este problema.
As, en los casos de multicolinealidad imperfecta pero severa es probable detectar las siguientes consecuencias
Consecuencias prcticas de la multicolinealidad
Los estimadores MCO presentarn varianzas y covarianzas grandes, lo que hace difcil su
estimacin precisa.
Debido a lo anterior, los intervalos de confianza sern ms amplios por lo que se tender a aceptar
ms fcilmente la hiptesis nula de cero.
A pesar de lo anterior, el R2 como medida global de la bondad de ajuste puede tener valores altos.
Los estimadores MCO y sus errores estndar pueden ser bastante sensibles a pequeos cambios en
la informacin de la muestra

5
UNIVERSIDAD NACIONAL DE HUANCAVELICA

Varianzas y covarianzas grandes:


Como sabemos que la varianza del primer estimador MCO se puede expresarse de la siguiente forma

La covarianza del segundo estimador es:

Donde r es el coeficiente de correlacin entre las variables X1 y X2. A partir de las relaciones planteadas
anteriormente, se observa claramente que a medida que el coeficiente de correlacin entre las variables
independientes aumenta, ambas medidas toman valores cada vez ms altos. En el caso extremo de colinealidad
perfecta, donde el coeficiente de correlacin es igual a uno, tanto la varianza como covarianza de los estimadores
tiende a infinito. Esta consecuencia se aprecia claramente si planteamos la varianza del estimador MCO en
trminos matriciales:
Como sabemos cundo una de las columnas de la matriz X puede expresarse como una combinacin lineal,
esa matriz no posee rango completo por lo que se determinante sera igual a cero, causando que la varianza y

covarianza de los estimadores sean infinitos.


Con el fin de analizar esta consecuencia con algo ms de detalle, Gujarati plantea un indicador denominado
el factor inflador de varianza (FIV) definido como

Este factor muestra la forma como la varianza del estimador MCO es inflada por la presencia de
multicolinealidad. Evidentemente, a medida que el coeficiente de correlacin entre las variables explicativas
X1 y X2 se acerque a uno, el FIV tender a infinito. Por otro lado, de no existir colinealidad entre X1 y
X2, el FIV ser igual a uno. Partiendo de la definicin del FIV, podemos replantear la varianza del
estimador MCO de la forma:
Esta frmula demuestra que la varianza del estimador es directamente proporcional al FIV

6
UNIVERSIDAD NACIONAL DE HUANCAVELICA

Intervalos de confianza ms amplios


Debido a la presencia de errores estndar altos, los intervalos de confianza para los parmetros poblacionales
tienden a ser ms grandes. Por consiguiente, en casos de alta multicolinealidad, la probabilidad de aceptar
hiptesis falsas (Error tipo II) aumenta ya que la muestra resulta compatible con un diverso nmero de
hiptesis. En otras palabras, para un nivel de confianza de 95%, el rango de valores entre los cuales puede
fluctuar el parmetro poblacional se ve incrementado de manera directamente proporcional al error estndar
del estimador. Para verificar esto, comparemos dos distribuciones distintas para los parmetros, tal como se
presenta en el siguiente grfico. Para un mismo nivel de confianza (95%), los valores crticos de determinada
prueba de hiptesis difieren para ambas distribuciones. Para aquella con mayor varianza, los valores crticos
(t-crtico2) se encuentran ms alejados de la media por lo que resultar ms probable, en este caso, aceptar la
hiptesis nula dado el valor para el t-calculado.

Estadsticos t poco significativos y un R 2alto


Para poder confirmar es necesario revisar el planteamiento de los estadsticos t de significacin individual

Evidentemente, ante un aumento considerable en el error estndar del estimador el estadstico t se vera
reducido, aumentando la probabilidad de aceptar la hiptesis nula de que el verdadero parmetro poblacional
es igual a cero. Sin embargo, y a pesar de lo anterior, de existir un alto grado de multicolinealidad entre los
regresores, ser frecuente encontrar un R2 alto para la ecuacin de regresin. Ante esto ser factible, y sobre
la base de la prueba F de significacin conjunta, rechazar la hiptesis de que 1= 2=... k= 0. A pesar de
la influencia del alto grado de colinealidad sobre la varianza de los estimadores y, por tanto, sobre las pruebas
de significacin individual, la presencia de un alto R2 nos indica que, en conjunto, los regresores elegidos son
significativos y, por tanto, relevantes para explicar el comportamiento de la variable independiente.
Evidentemente, en un modelo cuyo objetivo es conocer la sensibilidad de la variable dependiente ante cambios
en los regresores resultar importante determinar con relativa exactitud los valores de cada uno de los
coeficientes involucrados. Segn esto, un modelo que presenta un alto grado de colinealidad no sera el ms
indicado ya que este problema conduce a grandes errores estndar en los estimadores. Por otro lado, si el
objetivo de nuestro modelo es predecir el comportamiento de la variable dependiente para periodos fuera del
intervalo muestral, la multicolinealidad puede ser obviada. En este caso, lo que nos interesa es que los

7
UNIVERSIDAD NACIONAL DE HUANCAVELICA

regresores incluidos, en conjunto, nos ayuden a modelar en comportamiento de la variable dependiente. Tal
como se indic anteriormente, a pesar de la presencia de pruebas-t poco significativas, es factible encontrar
modelos con un R2 elevado, lo que nos llevara a concluir que el modelo estimado es lo suficientemente robusto
como para realizar predicciones de la variable de inters. Sin embargo, lo anterior slo puede ocurrir siempre
y cuando los valores de las variables independientes obedezcan a las mismas relaciones lineales halladas para
el intervalo muestral.
Sensibilidad de los estimadores MCO y sus errores estndar ante pequeos cambios
en Los datos
Siempre que la multicolinealidad no sea perfecta, es posible la estimacin de los coecientes de regresin; sin
embargo, las estimaciones y sus errores estndar se tornan muy sensibles aun al ms ligero cambio de los datos.
2.5. COMO DETECTAR LA MULTICOLINEALIDAD
Existen diversos mtodos e indicadores para constatar la existencia de este problema y los ms utilizados son:
2.5.1 R2 alto y t* bajos: Este es uno de los indicadores ms empleados para justificar la
existencia de este problema ya que es considerado como un sntoma clsico. Si el coeficiente de
determinacin es alto, se podra afirmar que el nivel de significancia es bueno, es decir, que las
variables independientes explican a la dependiente con un grado de ajuste
bastante alto Bajo estas circunstancias, el estadstico F indicar que no todos los coeficientes de
regresin sern cero a la vez, pues con el coeficiente de determinacin se concluy que las explicativas
eran relevantes. Sin embargo, la existencia de t bajos indica que se aceptarn las hiptesis de nulidad
de los regresores para varias explicativas consideradas individualmente, contradiciendo los resultados
anteriores. Aunque este diagnstico es razonable, su desventaja es que es demasiado fuerte, en el
sentido de que la multicolinealidad se considera daina, nicamente cuando la totalidad de las
influencias de las variables explicativas sobre Y no se pueden separar
2.5.2. Altas correlaciones entre parejas de regresoras: Si el coeficiente de correlacin
simple, de orden cero, o entre dos regresores, es alto (mayor a 0.8) entonces, la multicolinealidad
constituye un problema grave. Sin embargo, esta correlacin no es imprescindible para que exista
multicolinealidad fuerte. Las correlaciones de orden cero elevadas son una condicin suficiente pero
no necesaria para la existencia de multicolinealidad debido a que sta puede existir a pesar de que
dichas correlaciones sean comparativamente bajas (menores a 0.5). En los modelos que involucran
ms de dos variables independientes, el coeficiente de correlacin simple no proporciona una gua
infalible sobre la presencia de multicolinealidad. Sin embargo, si slo existen dos variables
independientes y estn correlacionadas, es obvio que este indicador ser suficiente.
2.5.3Test de Farrar Glauber: esta es una de las ms completas y fidedignas para detectar
multicolinealidad grave en un modelo de regresin, sobre todo si ste consta de ms de dos variables
explicativas. Que costa de tres etapas

Test de Ortogonal dad (2): En esta etapa se busca evaluar la ortogonalidad de las
variables independientes. Si el resultado de la evaluacin arroja que se rechaza la hiptesis de
existencia de ortogonalidad, entonces se aceptar la posibilidad de existencia de multicolinealidad
y se pasa a la segunda etapa.

H0: las X son ortogonales.


8
UNIVERSIDAD NACIONAL DE HUANCAVELICA

H1: las X no son ortogonales.


Mientras ms alto sea el 2 estimado, ms severo ser el grado de la multicolinealidad entre
las variables explicativas.
Test F: En esta segunda etapa, luego de haber detectado que las variables predeterminadas no
son ortogonales, se regresiona cada explicativa contra el resto de independientes para ver cul de
stas est ms colineada conjuntamente con las dems, Se observa el coeficiente de determinacin
de cada regresin y se selecciona aquella variable explicativa que, tras haber sido regresionada
con las dems en conjunto, arroje el F estimado ms alto

Conociendo el F ms alto y contrastndolo contra el valor en tablas, se sabr cul es la relacin


dominante entre las variables explicativas.
Test t: En esta ltima etapa se hallan los coeficientes de correlacin parcial para conocer con
cual variable explicativa est ms relacionada la variable seleccionada en la etapa anterior.

Si t > t tabla se acepta la hiptesis alternante, entonces la multicolinealidad es alta.


Si t < t tabla se acepta la hiptesis planteada, es decir que la variable xi no est colineada
con la variable xj entonces, se puede convivir con multicolinealidad.

2.6 MEDIDAS CORRECTIVAS


Existen dos posibilidades el no hacer nada o seguir algunas reglas practicas
No hacer nada: Blanchard afirma es que la multicolinealidad es en esencia un problema de deciencia de
dato y en algunas ocasiones no hay opcin respecto de los datos disponibles para el anlisis emprico. Asimismo,
no es que todos los coecientes en un modelo de regresin sean estadsticamente insignicantes. Al contrario,
aunque no se puedan estimar uno o ms coecientes de regresin con gran precisin, es posible calcular una
combinacin lineal de ellos con relativa eciencia. Se calcula de forma nica, aunque no puedan estimarse sus
dos componentes dados ah de manera individual. Algunas veces esto es lo mejor que se puede hacer con un
determinado conjunto de datos
Procedimientos de reglas practicas: Se pueden intentar las siguientes reglas prcticas para abordar
el problema de la multicolinealidad; el xito depende de la gravedad de la multicolinealidad
2.7 QUE HACER FRENTE A LA MULTICOLINEALIDAD
Regresin por cordillera: Una de las soluciones que se emplea con ms frecuencia para curar
el problema de la multicolinealidad es el uso de la regresin por cordillera. En trminos generales, la
idea consiste en aadir una constante () a las varianzas de las variables explicativas, antes de
resolver las ecuaciones normales de modo que las intercorrelaciones se reducen.

9
UNIVERSIDAD NACIONAL DE HUANCAVELICA

Otro problema sobre la regresin por cordillera es el hecho de que no es invariante ante las unidades
de medida de las variables explicativas y transformaciones lineales de las variables. Si se tienen dos
variables explicativas x1 y x2 , y x1 se mide en decenas y x2 en millares, no tiene sentido sumar el
mismo valor de a las varianzas de ambas. Es posible evitar este problema si se normaliza cada
variable dividindola entre su desviacin estndar. An s x1 y x2 se miden en unidades similares,
en algunos casos hay diferentes transformaciones lineales de x1 y x2 que tienen la misma sensibilidad.
Existen situaciones diferentes bajo las cuales la regresin por cordillera surge en forma natural. Estas
permiten entender las circunstancias bajo las cuales el mtodo podr ser til. A continuacin
mencionaremos dos de ellas. Minimos cuadrados restrimgidos e interpretacion de los errores de media.

2.8 ES LA MULTICOLINEALIDAD NECESARIAMENTE MALA? QUIZ NO,


SI EL OBJETIVO ES SLO LA PREDICCIN

Anteriormente se menciono que el unico proposito del analisis de regresion es el pronostico o la


prediccion, la multicolinealidad no es un problema brave. Sin embargo, existen situaciones en las
cuales la multicolinealidad puede no representar un problema grave. Es el caso en el cual se tiene
una R2 elevada y los coecientes de regresin son signicativos individualmente como lo demuestran
los altos valores t. Aun as, los diagnsticos de multicolinealidad, indican que los datos presentan
colinealidad grave.

3. HETOROCEDASTICIDAD
3.1 NATURALEZA DE LA HETEROSCEDASTICIDAD
La heterocedasticidad o varianzas desiguales, por lo general, no ocurre en estudios de series de tiempo debido
a que es probable que los cambios en la variable dependiente y los cambios en uno o ms de las variables
independientes sean del mismo orden de magnitud. Para un modelo con perturbaciones de error
heterocedasticidad aceptaremos que cada trmino del error ei est distribuido en forma normal con varianza
sigma cuadrado, este supuesto de homocesdasticidad simblicamente es.

Grficamente la homocedasticidad en el modelo de regresin con dos variables, la figura indica que la varianza
condicional de Yi y la condicional de Xi permanecen iguales sin importar los valores que tome la variable X,
entonces la homecedasticidad simblicamente es.

Observe el subndice de 2, que indica que las varianzas condicionales de ui es igual a la varianzas
condicionales de Yi ya no son constantes. Para entender la diferencia entre homoscedasticidad y
heteroscedasticidad, suponga que en el modelo con dos variables Yi = 1 + 2Xi + ui, Y representa el ahorro

10
UNIVERSIDAD NACIONAL DE HUANCAVELICA

y X el ingreso. Hay diversas razones por las cuales las varianzas de ui pueden ser variables, algunas de las
cuales son las siguientes.
1. base en los modelos de aprendizaje de los errores, a medida que la gente aprende,
disminuyen sus errores de comportamiento con el tiempo. En este caso, esperamos que 2 i se reduzca
2. A medida que aumentan los ingresos, la gente posee ms ingreso discrecional y, por tanto,
tiene mayores posibilidades de decidir cmo disponer de su ingreso. En consecuencia es probable que
2i aumente con el ingreso. As, en la regresin del ahorro sobre el ingreso, es probable encontrar que
2i aumenta con el ingreso, pues las personas tienen mayores posibilidades de determinar su
comportamiento respecto del ahorro
3. La heteroscedasticidad tambin surge por la presencia de datos atpicos o
aberrantes. Una observacin atpica es la que es muy diferente en relacin con las dems
observaciones en la muestra. De manera ms precisa, un dato atpico es una observacin que proviene
de una poblacin distinta a la que genera las dems observaciones de la muestra. La inclusin o
exclusin de una observacin de este tipo, en especial si el tamao de la muestra es pequeo, puede
alterar sustancialmente los resultados del anlisis de regresin
3.2. ESTIMACION POR MCO EN PRESENCIA DE HETEROCEDASTICIDAD
Cuando introducimos los estimadores de MCO y sus varianzas a la heterocedasticidad permitiendo que
E(u2i) = 2i pero conservamos todos los dems supuestos del modelo clsico? Para responder, recuerde el
modelo con dos variables:

Cuando aplicamos la formula al estimador de MCO de 2 entonces la 2 estimada ser de la siguiente forma

11
UNIVERSIDAD NACIONAL DE HUANCAVELICA

Como tambin su varianza ser de la siguiente forma obtenida segn el supuesto de la homocedasticidad

Para establecer el insesgamiento de 2 estimada no es necesario que las perturbaciones (ui) sean
homoscedsticas. En realidad, la varianza de ui, homoscedstica o heteroscedstica, no desempea papel alguno
en la determinacin de la propiedad de insesgamiento. Tambin puede demostrarse que, en ciertas condiciones,
2 estimada est distribuida de manera asinttica y normal. Por supuesto, lo que armamos respecto de 2
estimada tambin vale para otros parmetros de un modelo de regresin mltiple.
3.3. EL METODO DE MINIMOS CUADRADOS GENERALIZADOS (MCG)
El mnimo cuadrado generalizados (MCG), toma en cuenta esa informacin explcitamente y, por
consiguiente, es capaz de producir estimadores que son MELI. Para ver cmo se hace, considere el modelo ya
familiar con dos variables:

Este procedimiento de transformar las variables originales de forma que las variables transformadas satisfagan
los supuestos del modelo clsico y de aplicar luego MCO a ellos se conoce como mtodo de mnimos cuadrados
generalizados (MCG). En resumen, MCG es MCO sobre las variables transformadas que satisfacen los
supuestos estndar de mnimos cuadrados. Los estimadores as obtenidos se conocen como estimadores de
MCG, y son estos estimadores los que son MELI.

Y sus varianzas est dada por.

Diferencia entre MCO y MCG

3.4 CONCESUENCIAS DE UTILIZAR MCO EN PRESENCIA DE


HERECEDASTICIDAD
Como vimos, 2 asterisco estimada y 2 estimada son estimadores (lineales) insesgados: para muestreo repetido,
en promedio, 2 y 2 sern iguales al verdadero 2, es decir, ambos son estimadores insesgados. Pero sabemos
que 2 asterisco estimada es el eciente, es decir, tiene la menor varianza.

12
UNIVERSIDAD NACIONAL DE HUANCAVELICA

Estimacin por MCO con heteroscedasticidad: Como resultado, es probable que las pruebas t
y F den resultados imprecisos en el sentido de que la var (2estimada) es demasiado grande, y lo que parece
un coeciente estadsticamente no signicativo (pues el valor t es ms bajo de lo apropiado), de hecho puede
resultar signicativo si se establecen intervalos de conanza correctos con base en el procedimiento de MCG.
Estimacin por MCO sin heteroscedasticidad: si insistimos en los procedimientos de prueba
usuales a pesar de la presencia de heteroscedasticidad, las conclusiones o inferencias que obtengamos pueden
ser muy equivocada
A modo de conclusin mencionamos que cuando ya establecimos que, en caso de heteroscedasticidad, son los
MCG y no los MCO los que son MELI, existen ejemplos en los que los MCO pueden ser MELI a pesar
de la heteroscedasticidad. No obstante, dichos casos son poco frecuentes en la prctica.
3.5. DETENCION DE LA HETEROCEDASTICIDAD
Podemos examinar algunos mtodos informales y formales para detectar la heteroscedasticidad. Como revelar
el siguiente anlisis, la mayora de estos mtodos se basan en el examen de los residuos ui estimada de MCO,
pues son stos los que se observan y no las perturbaciones ui. Se espera que i sean buenas estimaciones de ui,
esperanza que se cumple si el tamao de la muestra es lo bastante grande
Mtodos informales: los mtodos informales son los siguientes, uno de ellos es naturaleza del problema
y el mtodo de grficos
Mtodos informales: los mtodos informales son. Uno de ellos es la prueba de park, la siguiente es la
prueba de glejser, este mtodo consiste en obtener los residuos de MCO, una de las pruebas ms importantes
es la prueba de heterocedasticidad, esta prueba se basa en supuestos diversos, pero no sirve para identificar los
factores o variables que causan heterocedasticidad.
3.6. MEDIDAS CORRECTIVA
La heteroscedasticidad no destruye las propiedades de insesgamiento y consistencia de los estimadores de MCO;
sin embargo, stos ya no son ecientes, ni siquiera asintticamente Esta falta de eciencia resta credibilidad
a los procedimientos habituales de pruebas de hiptesis. Por consiguiente, es necesario introducir medidas
correctivas. Existen dos enfoques para remediar el problema de heteroscedasticidad: cuando se conoce 2i y
cuando no se conoce 2i
Cuando se conoce 2i : mtodo de los mnimos cuadrados ponderados: si se conoce 2i el
mtodo ms directo de corregir la heteroscedasticidad es con los mnimos cuadrados ponderados, pues los
estimadores obtenidos mediante este mtodo son MELI.
Cuando no se conoce i2: si se conocen las verdaderas i2, podemos utilizar el mtodo de MCP para,
obtener estimadores MELI. Como pocas veces se conocen las verdaderas i2 de las varianzas y covarianzas de
los estimadores de MCO aunque haya heteroscedasticidad
Supuestos sobre el patrn de heteroscedasticidad:
Supuesto 1: La varianza del error es proporcional a Xi2

13
UNIVERSIDAD NACIONAL DE HUANCAVELICA

Supuesto 2: La varianza del error es proporcional a Xi. La transformacin de raz cuadrada

Supuesto 3: La varianza del error es proporcional al cuadrado del valor medio de Y.

Supuesto 4: Una transformacin logartmica como

Con gran frecuencia reduce la heteroscedasticidad cuando se compara con la regresin Yi = 1 + 2Xi + ui.
3.7. ADVERTENCIA RESPECTO DE UNA REACCIN EXAGERADA ANTE
LA HETEROSCEDASTICIDAD
La heteroscedasticidad jams ha sido una razn para desechar un modelo que de otra forma sera adecuado,
Tambin recuerde que, a pesar de la heteroscedasticidad, los estimadores de MCO (en condiciones generales)
son lineales e insesgados, y estn asinttica y normalmente distribuidos (es decir, en muestras grandes). Como
veremos cuando analicemos otra violacin a los supuestos del modelo clsico de regresin lineal, la advertencia
de esta seccin resulta apropiada como regla general. Si hace caso omiso de lo anterior, puede cometer errores.

4 AUTOCORRELACION
4.1 NATURALEZA DEL PROBLEMA
Especficamente, se puede distinguir dos tipos de autocorrelacin. La primera se define como autocorrelacin
espacial y se presenta cuando trabajamos con modelos de corte transversal mientras que la segunda, conocida
como autocorrelacin serial, se presenta al trabajar con series de tiempo. Las siguientes pginas slo se
concentrarn en la discusin de la segunda forma de autocorrelacin
En forma sencilla, el modelo clsico supone que el trmino de perturbacin relacionado con una observacin
cualquiera no recibe inuencia del trmino de perturbacin relacionado con cualquier otra observacin.

Inercia: Una caracterstica relevante de la mayora de las series de tiempo econmicas es la inercia o
pasividad. Como bien se sabe, las series de tiempo como PNB, ndices de precios, produccin, empleo y
desempleo presentan ciclos econmicos. A partir del fondo de la recesin, cuando se inicia la recuperacin
econmica, la mayora de estas series empieza a moverse hacia arriba. En este movimiento ascendente, el valor
de una serie en un punto del tiempo es mayor que su valor anterior. As, se genera un impulso en ellas, y
continuar hasta que suceda otra cosa, es probable que, en las regresiones que consideran datos de series de
tiempo, las observaciones sucesivas sean interdependientes.
Fenmeno de la telaraa: La oferta de muchos productos agrcolas reeja el llamado fenmeno de la
telaraa, en donde la oferta reacciona al precio con un rezago de un periodo debido a que la instrumentacin
de las decisiones de oferta tarda algn tiempo. Por tanto, en la siembra de cultivos al principio de ao, los
agricultores reciben inuencia del precio prevaleciente el ao anterior, de forma que su funcin de oferta es

14
UNIVERSIDAD NACIONAL DE HUANCAVELICA

Suponga que al nal del periodo t, el precio Pt resulta inferior a Pt 1. Por consiguiente, es muy probable
que en el periodo t + 1 los agricultores decidan producir menos de lo que produjeron en el periodo t. Obvio,
en esta situacin no esperaremos que las perturbaciones ui sean aleatorias, porque si los agricultores producen
excedentes en el ao t, es probable que reduzcan su produccin en t + 1, y as sucesivamente, para generar un
patrn de telaraa.
Rezagos: En una regresin de series de tiempo del gasto de consumo sobre el ingreso no es extrao encontrar
que el gasto de consumo en el periodo actual dependa, entre otras cosas, del gasto de consumo del periodo
anterior

Una regresin se conoce como autorregresin porque una variable explicativa es el valor rezagado de la
variable dependiente. El razonamiento de un modelo es sencillo. Los consumidores no cambian sus hbitos de
consumo fcilmente por razones psicolgicas, tecnolgicas o institucionales. Si ignoramos el trmino rezagado
entonces el trmino de error resultante reejar un patrn sistemtico debido a la inuencia del consumo
rezagado en el consumo actual.
4.2 TIPOS DE CORRELACION
Habiendo mencionado que nos centraremos en la autocorrelacin presente en el contexto de los modelos de
series de tiempo debemos hacer una presentacin de las principales formas de representacin estadstica de este
tipo de caracterstica de la estructura de los errores. Con esto haremos una breve introduccin a los modelos de
series de tiempo que se analizarn en profundidad ms adelante.
El primer modelo sugerido para representar la autocorrelacin, basado en los modelos de series de tiempo es
el modelo autorregresivo:

El otro modelo utilizado como representacin estadstica de un proceso con autocorrelacin es el que se
denomina de medias mviles:

Un tercer modelo que usualmente se utiliza es una combinacin de los dos anteriores. Este es conocido como
el modelo Autorregresivo y de Medias Mviles:

Los tres modelos presentados tienen cierta relacin entre s. Existe una propiedad que es la de isomorfismo
que sostiene que todo modelo de series de tiempo puede expresarse en trminos de cualquiera de los otros

4.3 ESTIMADOR MELI EN PRESENCIA DE AUTOCORRELACIN


En la siguiente funcin demostraremos que el estimador MELI de 2 est dado por la siguiente expresin

15
UNIVERSIDAD NACIONAL DE HUANCAVELICA

Donde C es un factor de correccin que puede ignorarse en la prctica. Observe que el subndice t vara ahora
de t = 2 a t = n. Y su varianza est dada por
donde D tambin es un factor de correccin que puede ignorarse en la prctica. El estimador MCG , como
lo indica el superndice, se obtiene por el mtodo de MCG. se incorpora directamente cualquier informacin

adicional que se tenga en el proceso de estimacin mediante la transformacin de variables, mientras que en
MCO tal informacin adicional no se considera directamente. Como puede ver, el estimador de MCG de 2
dado en incorpora el parmetro de autocorrelacin en la frmula de estimacin, mientras que la frmula de
MCO dada en el estimador de MCG es MELI y el estimador de MCO no lo es; el estimador de MCG
emplea al mximo la informacin disponible. No es preciso mencionar que si = 0, no hay informacin
adicional que deba considerarse y, por tanto, los estimadores de MCG y MCO son idnticos.
4.4 CONSECUENCIAS DE UTILIZAR MCO EN PRESENCIA DE
AUTOCORRELACIN
Como en la heteroscedasticidad, en presencia de autocorrelacin los estimadores continan siendo lineales e
insesgados, al igual que consistentes, y estn distribuidos de forma asintticamente normal, pero dejan de ser
ecientes es decir, no tienen varianza mnima. En este caso de heteroscedasticidad, se distinguen dos casos.
Por razones pedaggicas continuaremos trabajando con el modelo de dos variables, aunque el siguiente anlisis
puede extenderse a regresiones mltiples sin mucho esfuerzo
Estimacin por MCO tomando en cuenta la autocorrelacin: para establecer intervalos de
con anza y probar hiptesis, debe utilizarse MCG y no MCO, aunque los estimadores derivados de este
ltimo sean insesgados y consistentes.

Estimacin por MCO ignorando la autocorrelacin: La situacin es potencialmente muy grave


si no slo utilizamos 2 estimada, sino tambin var( 2) = 2/ sumatoria x2t , con lo cual se ignora por
completo el problema de autocorrelacin; es decir, creemos errneamente que los supuestos usuales del modelo
clsico se mantienen. Surgirn errores por las siguientes razones

16
UNIVERSIDAD NACIONAL DE HUANCAVELICA

Para establecer algunas de estas proposiciones, regresemos al modelo de dos variables. Sabemos, que segn el
supuesto clsico es de la siguiente forma.

4.5 CMO SE DETECTA LA AUTOCORRELACI


Una vez revisada la forma del estimador MCG bajo la presencia de autocorrelacin, es necesario indagar
acerca de las formas que tenemos a disposicin para poder detectar la presencia de este problema. Al igual que
el caso de la heterocedasticidad existirn pruebas que nos sugieran la forma de la autocorrelacin y otros que
nos dirn simplemente que la presencia de la autocorrelacin es detectada simplemente. Los principales
estadsticos que se utilizan se researn a continuacin:
i) Test de Durbin Watson: El test de Durbin-Watson verifica la existencia de
autocorrelacin de primer orden

Donde t rene las caractersticas de un ruido blanco. Especficamente, el estadstico propuesto,


a travs del cual podemos verificar la hiptesis nula de ausencia de autocorrelacin viene dado
por:

Donde et representa al residuo de la regresin MCO para el periodo t. La intuicin sobre la


que basa el planteamiento de este estadstico sugiere que dado un coeficiente de autocorrelacin
significativo y positivo, los valores positivos o negativos del trmino de error (u t) tiendan a ser
seguidos de valores positivos o negativos respectivamente

Respecto al supuesto referido a la exogeneidad de las variables explicativas, un caso bastante


usual donde no se cumple esta condicin es cuando se incluyen dentro del modelo rezagos de la
variable endgena. Para aminorar el problema en este caso, Durbin sugiri un estadstico
alternativo:

ii) Los test de Ljung-Box y Box-Pierce: Estos tests se basan en los coeficientes de
correlacin simple y pueden ser aplicados slo cuando el conjunto de variables explicativas son
todas exgenas. Donde r es igual al coeficiente de autocorrelacin simple de i-simo orden definido
como:

17
UNIVERSIDAD NACIONAL DE HUANCAVELICA

iii) Test de Breusch Godfrey: Una alternativa al test de Durbin-Watson consiste en


realizar contrastes donde la hiptesis alternativa incluya especificaciones ms generales que la
del modelo autorregresivo de primer orden. De esta forma, se plantea una serie de estadsticos
para distintos valores de k:

4.6. ESPECIFICACIN INCORRECTA DEL MODELO FRENTE A


AUTOCORRELACIN PURA
Se puede concluir con toda seguridad, a partir del anlisis anterior, que la regresin de los salarios sobre la
productividad presenta autocorrelacin pura, y no necesariamente un sesgo de especicacin. Al conocer las
consecuencias de la autocorrelacin, quiz desearamos emprender algunas acciones correctivas, lo cual haremos
en breve. A propsito, en todas las regresiones de salarios sobre productividad que se han presentado, se aplic
la prueba de normalidad de Jarque-Bera y se encontr que los residuos estaban normalmente distribuidos, lo
cual resulta reconfortante porque la prueba d supone la normalidad para el trmino de error.
4.7. CORRECCIN DE LA AUTOCORRELACIN (PURA): EL MTODO DE
LOS MNIMOS CUADRADOS GENERALIZADOS (MCG)
Como conocemos las consecuencias de la autocorrelacin, sobre todo la falta de e ciencia de los estimadores de
MCO, quiz deseemos corregir el problema. El remedio depende del conocimiento respecto a la naturaleza de
la interdependencia entre las perturbaciones; es decir, conocer la estructura de la autocorrelacin
Antes de comenzar consideremos el modelo de regresin de dos variables

Cuando se conoce : Si se conoce el coeciente de autocorrelacin de primer orden, el problema de la


autocorrelacin se resuelve muy fcil. Si es vlida en el tiempo t, tambin lo es para el tiempo (t 1). Por
tanto.

Cuando no se conoce : Aunque es sencillo aplicar la regresin en diferencias generalizada por lo


general es difcil efectuarla en la prctica porque pocas veces se conoce . Por consiguiente, se requieren formas
de calcular . Hay varias posibilidades.

Mtodo de primeras diferencias: Como se encuentra entre 0 y 1, se puede partir de dos


posiciones extremas. En un extremo, se puede suponer que = 0, es decir, no hay correlacin serial
(de primer orden) y en el otro extremo, se puede considerar que = 1, es decir, autocorrelacin
positiva o negativa perfecta.

18
UNIVERSIDAD NACIONAL DE HUANCAVELICA

Mtodos iterativos para estimar : Todos los mtodos para estimar que hemos visto
proporcionan slo una estimacin de . Pero existen los llamados mtodos iterativos que estiman
de manera iterativa, es decir, mediante aproximaciones sucesivas, comenzando con algn valor inicial
de . Entre estos mtodos, mencionaremos los siguientes: procedimiento iterativo de Cochrane-Orcutt,
procedimiento de dos pasos de Cochrane-Orcutt, procedimiento de dos pasos de Durbin y
procedimiento de rastreo o de bsqueda de Hildreth-Lu
Comentarios generales
En primer lugar, como para muestras grandes los estimadores de MCO son consistentes,
sin importar la autocorrelacin, no afecta en nada si se estima a partir del estadstico d
de DurbinWatson, de la regresin de los residuos del periodo actual sobre los residuos del
periodo anterior o del procedimiento iterativo Cochrane-Orcutt, pues todos proporcionan
estimados consistentes con la verdadera .
En segundo lugar, los distintos mtodos analizados son bsicamente mtodos de dos pasos.
En el primer paso se obtiene una estimacin de la desconocida, y en el segundo se utiliza
dicha estimacin para transformar las variables a n de calcular la ecuacin en diferencias
generalizada, que es bsicamente MCG.
En tercer lugar, es importante observar que siempre que se estimen los parmetros del
modelo transformado con un mtodo MCGF o un MCGE, los coecientes estimados no
necesariamente tendrn las propiedades ptimas usuales del modelo clsico, como ser
MELI, sobre todo en muestras pequeas. Sin adentrarnos en complejidades tcnicas,
podemos enunciar, como principio general, que siempre que se utilice un estimador en lugar
de su verdadero valor, los coe cientes de MCO estimados quiz presenten las propiedades
ptimas usuales en forma asinttica; es decir, para muestras grandes.
En cuarto lugar, al utilizar MCGF, si no se incluye la primera observacin (como se hizo
al principio con el procedimiento Cochrane-Orcutt), se pueden ver afectados de modo adverso
no slo los valores numricos, sino tambin la eciencia de los estimadores, sobre todo si el
tamao de la muestra es pequeo y las regresoras no son, estrictamente hablando, no
estocsticas. Por tanto, en pequeas muestras es importante conservar la primera
observacin al estilo PraisWinsten. Desde luego, si el tamao de la muestra es
razonablemente grande, el MCGF, con o sin primera observacin, proporciona resultados
similares.
4.8. EL MTODO NEWEY-WEST PARA CORREGIR LOS ERRORES
ESTNDAR DE MCO
En lugar de los mtodos MCGF analizados en la seccin anterior, podemos conservar los MCO pero con los
errores estndar corregidos por autocorrelacin, mediante un procedimiento desarrollado por Newey y West.43
Se trata de una generalizacin de los errores estndar consistentes con heteroscedasticidad de White, los cuales
examinamos en el captulo anterior. Los errores estndar corregidos se conocen como errores estndar CHA
(consistentes con heteroscedasticidad y autocorrelacin), o simplemente errores Newey-West. Por tanto, si una
muestra es razonablemente grande, debe utilizarse el procedimiento Newey-West para corregir los errores
estndar de MCO, no slo para situaciones de autocorrelacin, sino tambin para casos de heteroscedasticidad,
pues el mtodo CHA puede abordar ambos casos, a diferencia del mtodo White, diseado especcamente
para la heteroscedasticidad.
Coexistencia de la autocorrelacin y la heteroscedasticidad: La autocorrelacin slo se puede
detectar despus de controlar la heteroscedasticiad. Pero, podemos desarrollar una prueba omnipotente que
resuelva de manera simultnea esos problemas y otros ms S, tales pruebas existen, pero sin embargo, como

19
UNIVERSIDAD NACIONAL DE HUANCAVELICA

ya sealamos, podemos usar los errores estndar CHA, pues toman en cuenta tanto la autocorrelacin como
la heteroscedasticidad, siempre que la muestra sea razonablemente grande.
Referencias bibliogrficas
Alfonso novales cinca: econometra segunda edicin.
Damodar N. gujarati, Dawn C. Porter: econometra quinta edicin
Robert S. Pindyck, Daniel L. Rubinfeld: econometra modelos y pronsticos cuarta edicin

20

S-ar putea să vă placă și