Sunteți pe pagina 1din 43

UNIVERSIDAD NACIONAL "SANTIAGO ANTÚNEZ DE MAYOLO“

FACULTAD DE ECONOMIA Y CONTABILIDAD


ESCUELA DE ECONOMIA

CURSO: ECONOMETRIA II

AUTOCORRELACIÓN
Violación del supuesto de No Autocorrelación
Serial o relación entre las perturbaciones

Dr. Jorge Manrique Cáceres


Huaraz, Setiembre del 2015
AUTOCORRELACIÓN

1.- Definición
2.- Causas de la Autocorrelación

3.- Por qué Ocurre la Autocorrelación

4.- Tipos de Autocorrelación

5.- Detección de la Autocorrelación

6.- Cómo corregir la Autocorrelación


AUTOCORRELACIÓN

• Aparece cuando los términos de error del modelo no


son independientes entre sí.

E (ui u j )  0 i  j
• La autocorrelación generalmente aparece en datos
en serie de tiempo aunque también se presenta en el
caso de en corte transversal.

• Aquí se estudiará el primer caso.


Causas de la Autocorrelación
Causas de Autocorrelación

 Error de especificación por excluir variables


 Error de especificación debido a forma funcional incorrecta
 El fenómeno de la telaraña
 El comportamiento lento, cíclico y sesgado de las
variables económicas
 El Uso de modelos Autoregresivos
Consecuencias de la Autocorrelación
Por qué ocurre la Autocorrelación
• Inercia. Cuando existen tendencias marcadas que influyen
en los valores futuros de la serie.

• Sesgos de especificación. Cuando se elige mal la forma


funcional o cuando se omiten variables, lo cual genera un
comportamiento sistemático en el término estocástico.

• Tiempo de ajuste. Implica el tiempo que los agentes


económicos deben tomar para procesar información de
un período dado. Así un fenómeno sucedido en un
período determinado puede impactar en uno o varios
posteriores.
Tipos de Autocorrelación
PATRONES DE AUTOCORRELACIÓN Y
DE NO AUTOCORRELACIÓN
Detección de la Autocorrelación
Detección de la Autocorrelación

• Prueba Gráfica
• Prueba de las rachas
• Prueba de Durbin y Watson
• Modelo Autoregresivo de Markov
• Prueba de Breusch – Godfrey
• El Correlograma de Residuos
Prueba Gráfica
Durbin y Watson
• Para detectar la presencia de autocorrelación en
una serie de datos la prueba más utilizada, es la
de Durbin Watson.

• Para este fin se define el estadístico de la


siguiente manera:
Durbin y Watson

d  2(1   )
Durbin y Watson
Durbin y Watson

• Tablas:
– Durbin y Watson formularon una tabla donde se
muestran los límites inferiores y superiores de un
valor crítico (dL y dU) que, de acuerdo al valor
obtenido en la estimación del estadístico d, permite
tomar decisiones sobre la posible presencia de
correlación serial positiva o negativa.
Durbin y Watson

d  2(1  ˆ )
• Los valores de significancia de las tablas de Durbin-
Watson se tabulan para probar la hipótesis de ρ=o,
contra ρ>0. La tabla arroja dos valores dL y dU.

• Si d>2 y se desea probar la hipótesis de ρ=o, contra


ρ<0 , se considera 4-d y se hace referencia a las tablas
como si se probara una autocorrelación positiva
Durbin y Watson

ƒ(d)

¿? ¿?
ρ=1 ρ=0 ρ= -1

0
4
dl du (4-du) (4-dl)
Estadístico de Durbin Watson
Durbin y Watson
• Cuando la estimación del modelo excluye el
intercepto u ordenada en el origen la prueba se
invalida.

• Cuando existen dos o mas variables rezagadas, el


DW estará cerca de 2 aun cuando los errores estén
correlacionados

• Para ello se utiliza el estadístico h de Durbin


dL= 1.338
dU=1.659
d=0.756968
Modelo Autorregresivo de Markov
Modelo Autorregresivo de Markov
• Como primera aproximación se asume que las perturbaciones
se generan de la siguiente manera:

ut  ut 1   t 1   1
•  se le conoce como coeficiente de autocovarianza o de
autocorrelación y  es una perturbación estocástica que
satisface los supuestos MCO tradicionales.
Modelo Autorregresivo de Markov

• Sabemos que -1 <  < 1

– Si  = 0 no existe autocorrelación
– Si  = 1 o  >0 existe autocorrelación positiva
– Si  = -1 o  <0 existe autocorrelación negativa
perfecta

• Este es un comportamiento autorregresivo de


primer orden y se denota como AR(1).
Modelo Autorregresivo de Markov
Prueba de Breusch – Godfrey
i  0  1 X 1i   2 X 2i  ......   k X ki  1t 1  2 t 2  vt

Permite detectar la presencia de autocorrelación de mayor


orden, es decir, con más de un retardo.
Se determina un estadístico igual a n * R² con X2(p) p
grados de libertad p=los retardos

 Se establece como decisión “si el estadístico es mayor al


X² (p) no hay autocorrelacion

 Ho= No autocorrelacón
 Hi= Hay autocorrelacion
El valor del X2 con dos grados de libertad es
igual a 5.99147 y el de n* R² es igual a
13.47355.

Dado a que 5.99147<13.47355 Se rechaza la


hipótesis nula, aceptando los problemas de
autocorrelación correspondientes
Correlograma de Residuos
Es otra forma de identificar la autocorrelación de orden p.
En la ventana de resultados View/ Residual Diagnostics/
Correlogram- q stadistis.
En el cuadro de dialogo que aparece seleccionamos sin transformar
(Level) y el número de rezagos 22 (Lag Specification)
• Las banda esta del
correlograma estan
representada por :
2 2
 
T 73

• = ± 0.2341los valores
que sean iguales o mayor
ha este valor nos indicara
el orden de AR(r).
Cómo corregir la
Autocorrelación
Autocorrelación: Medidas Remediales
 Cuando se conoce la estructura de la
autocorrelación se lleva a cabo una
transformación de la ecuación a estimar para
que cumpla con los supuestos de MCO.
 Supongamos un esquema autorregresivo de
primer orden:
ut  ut 1   t

También supongamos el siguiente modelo:


(1) Yt   1   2 X t + u t
 Tendremos por tanto que:

(2)
Yt 1   1   2 X t 1 + u t 1
 Multiplicando la ecuacion (2) por  tenemos que:

Yt 1   1   2 X t 1 + u t 1 (3)

 Al restar (1) y (3) tenemos que:

(Yt  Yt 1 )   1 (1  )   2 X t   2 X t 1 + (ut - ut 1 )


(4) =  1 (1  )   2 ( X t   2 X t 1 ) +  t
 La ecuación (4) puede entonces expresarse como:

Yt     X +  t
* *
1
*
2
*
t
(5)

 La cual cumple con todos los supuestos de MCO


pudiendo obtener de las variables transformadas unos
estimadores MELI.

 Esta regresión se le conoce como ecuación de


diferencia generalizada, la cual involucra la regresión
de Y en X en forma de diferencias.
 Cuando no se conoce la estructura de la correlación
deben llevarse a cabo algunas aproximaciones por
medio de diversos métodos entre los que destacan los
siguientes:

 Método de la primera diferencia


 Estimación de  en base al estadístico d
 Procedimiento de Cochrane Orcutt para estimar 
 La primera etapa consiste en estimar ρ a partir
de los residuales estimados, efectuando para
ello el modelo de Markov

 La segunda etapa, se utiliza la estimación de ρ


para hacer la regresión de la ecuación.

Y *  Yt  Yt 1
X *  X t  X t 1
Corrección de la
Autocorrelación
Introduciremos el componente
autoregresivo al modelo estimado.

Comando : equation Cagan.LS logm


logpbi inter AR(1) AR(2)

Luego, se incorporo una variable


autoregresiva de 1er orden y otra
variable autorregresiva de 2do orden,
estas variables ayudaron a
perfeccionar el modelo dando
solución al problema de
autocorrelación de los errores en el
modelo, considerando de que el error
esta en función del mismo error pero
rezagado hasta el segundo periodo.

S-ar putea să vă placă și