Documente Academic
Documente Profesional
Documente Cultură
Sesión 1
Econometría teórica y aplicada1
Tanto la econometría teórica como la aplicada presentan dos aproximaciones
la clásica y la Bayesiana. En el curso nos concentraremos en la econometría clásica,
salvo que hagamos explícito el uso de la tradición Bayesiana. La econometría teórica
está vinculada al desarrollo de métodos apropiados para la medición de relaciones
económicas especificadas por modelos econométricos, dicha área de estudio nos
indica el método de estimación, sus propiedades y sus desventajas cuando uno o más
supuestos no se cumplen.
y n x1 = X n x k β k x1 + ε n x1
Errores no
controlados
Variable Variables
dependiente independientes
∂ y1 ∂ yn
= β 1 =
∂ x11 ∂x 1n
1
Tomado del libro Basic Econometrics de Damodar Gujarati (2003).
E [X ' ε ] = 0
σ 2 0 L 0
0 O L 0
E [εε ' ] = σ I n =
2
M O σ2 M
2
0 L L σ
ε | X ~ N (0,σ 2 I n )
5. El modelo es lineal con respecto a los parámetros.
2
En el contexto de series de tiempo, la idea será que las variables explicativas son ortogonales a los
errores en el pasado, presente y futuro.
En el caso que la base de datos sea series de tiempo, la muestra debe ser de
buena calidad, tanto en su tamaño como el periodo que contiene. Por ejemplo, si la
base de datos es de frecuencia mensual durante 5 años, el tamaño de la muestra es
importante (60) pero esto no es suficiente. En el caso que durante esos 5 años la
economía estuvo bajo un contexto de recesión entonces no podemos utilizar dicha
muestra para inferir sobre futuros escenarios de expansión, de igual manera en el
caso contrario. Por otro lado, si nuestra muestra captura escenarios de expansión,
recesión y contracción pero solo contamos con 10 datos anuales, entonces tendríamos
una muestra pequeña pero representativa de la situación que queremos evaluar. Las
limitaciones en este caso son de carácter operacional como el tener pocos grados de
libertad, funciones de distribución no específicas al realizar las hipótesis de trabajo,
entre otras.
12
-3
Muestra de 60 datos mensuales en
periodo de recesión y recuperación
-8
-18
1970 1972 1974 1976 1978 1980 1982 1984 1986 1988 1990 1992 1994 1996 1998 2000 2002
Periodos de expansión PBI
Cambios estructurales en el sistema económico
(
min ee' = y − Xβˆ y − Xβˆ ')( )
Observa que la función a minimizar considera los residuos estimados (e) pues el
vector que minimiza la función es β̂ , el vector de parámetros estimados.
∑ ( ŷ
i =1
i − y)
2
∑ (y − y)
2
i
i =1
3
Nerlove, M 1963, “Returns to scale in electricity supply” in C. Christ (ed.), Measurement in Economics:
Studies in Mathematical Economics and Econometrics in Memory of Yehuda Grunfeld, Stanford:
Stanford University Press. Ejemplo tomado del libro Econometrics de Fumio Hayashi.
Identificación
Test Equation:
Dependent Variable: RESID^2
Method: Least Squares
Date:
Sample: 1 145
Included observations: 145
White Heteroskedasticity-Consistent Standard Errors & Covariance
Variable Coefficient Std. Error t-Statistic Prob.
C -87.64151 66.36558 -1.320587 0.1889
LNQ -0.490494 0.203676 -2.408211 0.0174
LNQ^2 0.035285 0.015245 2.314480 0.0221
LNPF -0.667674 0.755455 -0.883803 0.3784
LNPF^2 0.131132 0.136257 0.962387 0.3376
LNPK 34.92245 25.98195 1.344104 0.1812
LNPK^2 -3.380661 2.521163 -1.340913 0.1822
LNPL -0.150605 0.980580 -0.153587 0.8782
LNPL^2 0.180019 0.755111 0.238400 0.8119
R-squared 0.436264 Mean dependent var 0.148635
Adjusted R-squared 0.403103 S.D. dependent var 0.386672
S.E. of regression 0.298739 Akaike info criterion 0.481567
Sum squared resid 12.13733 Schwarz criterion 0.666330
Log likelihood -25.91359 F-statistic 13.15597
Durbin-Watson stat 1.755927 Prob(F-statistic) 0.000000
Problemas
Solución
Identificación
La linealidad del modelo implica que los parámetros estimados deben ser
constantes en todo el periodo de estimación. Uno de los test para evaluar dicha
linealidad es el de coeficientes recursivos. Para ello, en la ventana de la ecuación
estimada nos dirigimos al menú view/stability test/recursive estimation
Parece que los parámetros 1 y 5 son los más inestables del modelo. Para
verificar si esto pone en riesgo la estabilidad del modelo en su conjunto, realicemos el
test CUSUM Square que está en la misma ventana.
Problemas
Solución
a) Mala especificación del modelo. Esto puede ser originado por variables
omitidas, mala especificación de la función a estimar y restricciones en los
parámetros.
b) Quiebre estructural. En el caso de muestras de corte transversal, este quiebre
estructural se debe a cambios en los efectos marginales por grupos o sub-
muestras. En nuestro ejemplo, esta inestabilidad se debería a que ¿la
elasticidad producción – costo total es diferente por grupos de empresas? La
solución de este problema es el empleo de variables dummy para controlar el
cambio de los efectos marginales por grupo.
Sin embargo, existe una restricción en los parámetros que no fue considerada en
la especificación del modelo. Faltó realizar la restricción de homogeneidad, pues el
modelo estimado está sobreidentificado.
tci p p
ln( ) = β 1 + β 2 ln(qi ) + β 3 ln( i1 ) + β 4 ln( i 2 ) + ε i
pi 3 pi 3 pi 3
Como una aplicación del test “t” contrastamos si los retornos son constantes
(r=1). Mantenemos la hipótesis del modelo restringido, si el β 2 es igual a 1 si y solo si
r = 1, la hipótesis nula es Ho: β 2 =1.
0.72 − 1
t − ratio = = −16
0.017
Con estos resultados es muy probable que exista una mala especificación de la
función de costos, tal vez el uso de una función Cobb-Douglas no sea apropiado y sea
mejor utilizar una función CES. Sin embargo, para estimar ésta última es necesario el
uso de métodos no – lineales. Pero debemos mencionar algo, en el test de
heterocedasticidad de white, vimos que la varianza de los residuos tenía cierta
dependencia de la variable nivel de producción, es probable que el modelo no este
capturando toda la información disponible. Hagamos un ploteo entre la variable
dependiente lntc_pl y lnq:
Como vemos, no existe una relación precisa entre la variable lnq y lntc_pl
sobretodo para valores bajos de la variable lnq. Nerlove propone resolver este
problema dividiendo la muestra en 5 sub-muestras de 29 empresas cada uno. Nerlove
tiene como hipótesis que el efecto marginal del producto sobre la función de costos es
diferente según el tamaño de la empresa.
Para ello, la solución es estimar 5 funciones de costo una para cada sub
muestra. Sin embargo, podemos utilizar variables dummy para estimar en una sola
ecuación los diferentes efectos marginales entre producto y costos totales.
4
El método de estimación recursiva no puede aplicarse si tenemos variables dummy pues en muchos
casos tendríamos variables con valores cero, lo cual no puede estimarse por MCO.
Identificación
En este caso, el incumplimiento de este supuesto nace por consideraciones
teóricas. Por ejemplo, en la aplicación anterior podría afirmarse que el modelo está
incompleto pues se omite la relación que existe entre la variable explicativa lnq y lntc
pues el nivel de producción también depende de la estructura de costos de la industria.
Así tendríamos el siguiente sistema de ecuaciones:
tci p p
ln( ) = β 1 + β 2 ln( qi ) + β 3 ln( i1 ) + β 4 ln( i 2 ) + ε i
pi 3 pi 3 pi 3
ln qi = f (α 1 ,tci )
¿Donde estaría la no ortogonalidad? Examinemos que sucede si hay un shock en el
tc
costo total ( ε i ) esto lleva a un incremento en ln i y como la función ln es
pi 3
estrictamente monótona y continua entonces la variable ln qi también responde ante
el shock original.
Problema
Solución
Sesión 2
Análisis de series de tiempo: Parte 1
∑ (Y − Y )(Y
t t −k − Y ) /(T − K )
ρk = t = k +1
T
∑ (Y − Y )
t =1
t
2
/T
4.72
4.68
4.64
4.60
4.56
4.52
97 98 99 00 01 02 03 04 05
LNTCR
Para solucionar este problema es necesario obtener la correlación parcial, esta nos
ofrece una versión limpia (filtrada) de la dinámica de la serie. De esta manera,
podemos observar que la serie solo presenta el efecto dinámico de su primer rezago.
Además, el parámetro de dicha correlación es alto (0.93) que podría ser un indicio de
la presencia de raíz unitaria. Esto podría confirmarse con las pruebas de raíz unitaria
que veremos a continuación.
Los procesos no estacionarios (media y varianza dependen del tiempo) pueden poseer
alguno de los modelos teóricos propuestos:
El Eviews 5.0 provee seis contrastes de raíz unitaria: Dickey- Fuller Aumentado(ADF),
DF-GLS, el Phillips-Perron (PP), el KPSS, entre otros.
Dickey – Fuller
El modelo más simple para evaluar la presencia de raíz unitaria es el desarrollado por
Dickey – Fuller es:
y t = α + γy t −1 + ε t
∆y t = α + (1 − γ ) y t −1 + ε t
∆y t = α + δy t −1 + ε t
H0 : δ =0
H 1 :δ < 0
Por ello los contrastes DF, ADF, DF-GLS y PP son a una cola (izquierda) pues no nos
interesa el caso en que gamma es mayor que uno pues el proceso sería explosivo5.
Esta prueba incluye también la regresión por MCO. El usuario puede excluir la
constante e incluir una tendencia lineal, también existe la opción de pedir utilizar los
rezagos de la variable diferenciada ( ∆y t −i ) de acuerdo a algún criterio de información.
En este caso recomendamos el criterio Bayesiano de Schwartz.
5
Si γ=0, es claro que yt es una serie estacionaria, ya que tendrá las mismas propiedades del ruido blanco.
Por el contrario, si γ = 1 se dice que yt tiene raìz unitaria y adicionalmente, la serie es integrada de orden
1.
La probabilidad mayor a 0.05 nos permite afirmar que no existe evidencia suficiente en
la muestra para rechazar la hipótesis nula de raíz unitaria.
Antes de aplicar la regresión propuesta por Dickey – Fuller, se debe primero extraer la
tendencia de la serie original. Pero se trata de una cuasidiferencia ( yt − ay t −1 ), donde
“ a ” toma el valor uno en el caso anterior (ADF). Aquí el valor “ a ” representa el punto
específico contra el cual contrastamos la hipótesis nula (valor menor a uno).
La prueba nos muestra la presencia de una raíz unitaria a pesar que la serie presenta
una tendencia lineal determinística.
PP (Phillips-Perron)
Este contraste estadístico estima una regresión haciendo una corrección sobre la
matriz de varianza y covarianzas de los residuos. La corrección es mediante un
método no paramétrico.
Nuevamente, la serie LNTCR presenta raíz unitaria (random wlak without drift)
Siendo el estadístico mayor al valor crítico entonces existe evidencia suficiente para
rechazar la hipótesis nula que el WPI sigue un proceso trend –stationary.
Ajuste estacional
Census X12
5.1
5.0
4.9
4.8
4.7
4.6
97 98 99 00 01 02 03 04 05
método consiste en calcular una serie st que minimice la varianza de la serie original
alrededor de st , sujeto a un parámetro de suavizamiento ( λ ) que penaliza la segunda
diferencia de st ( ∆2 st ).
T T −1
min = ∑ ( yt − st )2 + λ ∑ ((st +1 − st ) − (st − st −1 ))2
t =1 t =2
5.0
4.9
.08 4.8
.04 4.7
.00
-.04
-.08
97 98 99 00 01 02 03 04 05
Estos filtros son usados para aislar el componente cíclico de la serie especificando un
rango para su duración. El filtro tiene la característica de ser lineal y toma el promedio
móvil ponderado de la serie en ambos lados donde los ciclos caen en una banda,
dicha banda está dada por un límite superior e inferior. Estos límites dependen de la
frecuencia temporal de la serie. Por ejemplo, si la serie es anual los ciclos económicos
5.0 1.0
0.8
4.9
0.6
.03 4.8
0.4
.02
4.7
.01 0.2
.00 0.0
-.01 -0.2
-.02 -0.4
97 98 99 00 01 02 03 04 05 .0 .1 .2 .3 .4 .5
cycles/period
Final seasonally adjusted series Actual Ideal
Non-cyclical
Cycle
Sesión 3
Variables instrumentales
a) E [Z' X ]≠ 0
b) E [Z' ε ] = 0
pero las variables explicativas están correlacionadas con los residuos, a raíz de este
problema es necesario elegir las variables instrumentales Z que deben cumplir con
los criterios de validez y relevancia ya expuestos. La idea básica es que dichas
variables instrumentales extraigan el componente subyacente de las variables
endógenas X , la forma de hacerlo es realizando una regresión lineal entre cada
variable explicativa y Z .
Primera etapa6
X i = Zγ + η
6
Se simplifica la notación debido al diseño del curso.
~
La variable X es una variable estimada en la primera etapa, digamos coloquialmente
que es una variable “limpia” de toda correlación con los residuos ε . Una vez que
tenemos la variable explicativa corregida realizamos la estimación del modelo original.
Segunda etapa
~
y = Xβ +ν
(~ ~)
βˆ MC 2 E = X ' X
−1 ~
(
X ' y = X ' Z (Z' Z ) Z' X
−1
)
−1
X ' Z (Z' Z ) Z' y
−1
ln w = α + β S + γA + δ ' h + ε
Dependent Variable: LW
Method: Least Squares
Date:
Sample: 1 758
Included observations: 758
Variable Coefficient Std. Error t-Statistic Prob.
S 0.069673 0.006687 10.41938 0.0000
EXPR 0.029799 0.006524 4.567771 0.0000
TENURE 0.043350 0.007497 5.782247 0.0000
RNS -0.104092 0.027495 -3.785858 0.0002
SMSA 0.135267 0.026666 5.072718 0.0000
_IYEAR_67 -0.052487 0.048037 -1.092639 0.2749
_IYEAR_68 0.079392 0.045070 1.761512 0.0786
_IYEAR_69 0.211124 0.044013 4.796810 0.0000
_IYEAR_70 0.239350 0.048808 4.903921 0.0000
_IYEAR_71 0.228858 0.043202 5.297441 0.0000
_IYEAR_73 0.326102 0.040800 7.992766 0.0000
C 4.410852 0.091980 47.95461 0.0000
R-squared 0.424853 Mean dependent var 5.686739
Adjusted R-squared 0.416372 S.D. dependent var 0.428949
S.E. of regression 0.327698 Akaike info criterion 0.622257
Sum squared resid 80.11006 Schwarz criterion 0.695566
Log likelihood -223.8355 F-statistic 50.09627
Durbin-Watson stat 1.723095 Prob(F-statistic) 0.000000
Dependent Variable: LW
Method: Least Squares
Date:
Sample: 1 758
Included observations: 758
Variable Coefficient Std. Error t-Statistic Prob.
S 0.061955 0.007279 8.511931 0.0000
IQ 0.002712 0.001031 2.629524 0.0087
EXPR 0.030839 0.006510 4.737186 0.0000
TENURE 0.042163 0.007481 5.635860 0.0000
RNS -0.096293 0.027547 -3.495645 0.0005
SMSA 0.132899 0.026576 5.000757 0.0000
_IYEAR_67 -0.054209 0.047852 -1.132853 0.2576
_IYEAR_68 0.080581 0.044895 1.794871 0.0731
_IYEAR_69 0.207592 0.043860 4.732998 0.0000
_IYEAR_70 0.228224 0.048799 4.676771 0.0000
_IYEAR_71 0.222691 0.043095 5.167428 0.0000
_IYEAR_73 0.322875 0.040657 7.941345 0.0000
C 4.235357 0.113349 37.36568 0.0000
R-squared 0.430142 Mean dependent var 5.686739
Adjusted R-squared 0.420963 S.D. dependent var 0.428949
S.E. of regression 0.326407 Akaike info criterion 0.615658
Sum squared resid 79.37339 Schwarz criterion 0.695076
Log likelihood -220.3342 F-statistic 46.86185
Durbin-Watson stat 1.726206 Prob(F-statistic) 0.000000
Dependent Variable: LW
Method: Two-Stage Least Squares
Date:
Sample: 1 758
Included observations: 758
Instrument list: MED KWW MRT AGE EXPR TENURE RNS SMSA
_IYEAR_67 _IYEAR_68 _IYEAR_69 _IYEAR_70 _IYEAR_71
_IYEAR_73
Variable Coefficient Std. Error t-Statistic Prob.
S 0.172425 0.020918 8.242824 0.0000
IQ -0.009099 0.004745 -1.917453 0.0556
EXPR 0.049289 0.008225 5.992331 0.0000
TENURE 0.042217 0.008920 4.733020 0.0000
RNS -0.101793 0.034473 -2.952815 0.0032
SMSA 0.126111 0.031196 4.042517 0.0001
_IYEAR_67 -0.059617 0.055776 -1.068870 0.2855
_IYEAR_68 0.048680 0.052468 0.927796 0.3538
_IYEAR_69 0.152818 0.052011 2.938184 0.0034
_IYEAR_70 0.174436 0.060277 2.893921 0.0039
_IYEAR_71 0.091666 0.054614 1.678423 0.0937
_IYEAR_73 0.093240 0.057679 1.616539 0.1064
C 4.033510 0.318162 12.67755 0.0000
R-squared 0.227983 Mean dependent var 5.686739
Adjusted R-squared 0.215547 S.D. dependent var 0.428949
S.E. of regression 0.379918 Sum squared resid 107.5313
F-statistic 37.63903 Durbin-Watson stat 1.802045
Prob(F-statistic) 0.000000
La estimación por MC2E ofrece una solución, pero ésta será la indicada si las
variables instrumentales utilizadas no están correlacionadas con las perturbaciones
(Validez de los instrumentos). Para contrastar que el conjunto de variables
instrumentales son exógenas se utilizará el estadístico de Sargan7.
7
Los contrastes relacionados a la validez de las variables instrumentales se verá en la sesión
correspondiente a Método de Momentos Generalizados, debido a que también utiliza variables
instrumentales y los contrastes son similares.
8
Como referencia del ejemplo a desarrollarse puede verse: Clarida, Galí y Gertler (2000) Monetary
Policy Rules and Macroeconomic Stability: Evidence and some theory. The Quarterly Journal of
Economics, Feb. 2000.
[ ] [
rt* = r + βEt π t +12 − π * + γEt y t − yt* ]
rt = (1 − ρ )rt* + ρrt −1 + υ t
Donde r * es la tasa de interés objetivo. El mecanismo de ajuste parcial de la
tasa de interés es mostrado en la segunda ecuación. Si vinculamos ambas ecuaciones
obtenemos la siguiente relación:
( ) ( )
rt = (1 − ρ ) r − βπ * + (1 − ρ )βπ t +12 + (1 − ρ )γ y t − y t* + ρrt −1 + ε t
[ ]
E rt − ρrt −1 − (1 − ρ )α − (1 − ρ )βπ t +12 − (1 − ρ )γ ( yt − y t* ) | u t = 0
(
Donde: α = r − βπ * . )
El J-stat es 10.45 pues el valor calculado por EViews está dividido por el
tamaño de la muestra, así J-stat = 10.45/171 = 0.06. Tenemos 29 grados de libertad
(33 instrumentos para 4 parámetros). Con este valor, no se puede rechazar la
hipótesis nula de validez de los instrumentos. Siguiendo el método para derivar el nivel
de la inflación objetivo ( π * ) propuesto por Clarida, Gali y Gertler, este sería 0.5 con un
intervalo de confianza muy amplio.
rr − α
π* =
β −1
Siendo r r la tasa de interés real promedio de la muestra.
12
10
6
0.8
4
0.4
2
0.0
-0.4
-0.8
-1.2
83 84 85 86 87 88 89 90 91 92 93 94 95 96
−1
T− 1
HAC
( )
Ŵ = Ω̂ − 1 = Γ̂(0 ) + ∑ k ( j, q ) Γ̂( j) + Γ̂ ' ( j)
j=1
ˆ ( j) = 1 T
Donde: Γ ∑ Z t − j ' u t u t − j 'Z t es la matriz de autocovarianzas de orden j. Lo
T − k t = j +1
que faltaría especificar es el kernel k y el orden de autocorrelación a ser corregida
(bandwidth). El kernel es usado para ponderar las covarianzas y conseguir que la
matriz Ω̂ sea positiva semidefinida. La elección de Bartlett es la más recomendada
pues no demanda muchos recursos en su estimación.
Sesión 4
Análisis multivariado de series de tiempo
Dicho proceso será estable si los valores de z de la siguiente ecuación son mayores a
uno en valor absoluto.
I k − A1 z = 0
Yt = Α + Φ 0 ε t + Φ 1ε t −1 + ...
Donde: Φ i = A1i
∂Yt +i
= φi
∂ε t
Sin embargo, el vector ε t contiene shock no identificados, no es posible afirmar si el
primer componente corresponde exclusivamente a la primera variable del vector Yt . A
fin de lograr identificar los shocks estructurales es necesario incluir restricciones en los
parámetros. Ésta es la razón de utilizar VAR estructural en este tipo de evaluación de
las relaciones dinámicas entre variables macroeconómicas.
A(I k − A1 L )Yt = Aε t = Bu t
Donde:
ε t ~ N (0, Σ ) y E [ε t ε s| ] = 0 k para todo s ≠ t
[ ]
u t ~ N (0, I k ) y E u t u s| = 0 k para todo s ≠ t
Para poder identificar los shocks estructurales es necesario estimar las matrices A y B
una vez obtenidas dichas matrices el vector de error del VAR puede expresarse en
términos de los shocks estructurales de la siguiente manera:
ε t = Aˆ −1 Bˆ u t
Una vez identificados los errores podemos calcular la nueva función impulso-respuesta
que vincula los shocks estructurales con las variables dependientes.
9
Como referencia de la aplicación puede revisarse: Blanchard y Perotti (1999): An empirical
characterization of the dynamic effects of changes in government spending and taxes on output. Working
paper 7269. NBER. Julio 1999.
Para mostrar que el modelo está bien especificado los residuos de la estimación no
deberían estar autocorrelacionados. Para esto utilizamos la prueba Ljung-Box-Q
multivariado o la prueba de autocorrelación de Portmanteau. Como podemos observar
para el orden de autocorrelación 5 la prueba Portmanteau rechaza la hipótesis nula de
no autocorrelación. Por tanto, la especificación del modelo debería ser mejorada para
capturar esa persistencia que se observa en los residuos.
El siguiente paso es incorporar las restricciones entre shocks del VAR ε t y los shocks
estructurales u t , de acuerdo al documento de trabajo dichas relaciones pueden
expresarse de la siguiente manera:
Tenemos dos formas para incluir estas restricciones en el objeto VAR del EViews. La
primera es la más simple y es expresar las restricciones tal cual se presentan en el
documento de trabajo y que podemos observar en el siguiente cuadro:
.012 .008
.012
.006
.008
.004
.004 .008
.002
.000
.000
.004
-.004 -.002
-.002
.02 .000
-.004
.01 -.004
-.006
-.010
-.01 -.012
-.012
• Los shock del gasto son más grandes que los shock de los ingresos
tributarios.
• El PIB inicialmente se incrementa ante el impacto del gasto del gobierno, luego
tiende a reducirse para tomar un nuevo impulso y llegar a su efecto máximo
después de 4 años.
Descomposición de la varianza
• En cuanto a la varianza del gasto público, ésta no se ve afectada por los otros
shocks. Confirmando el carácter de variable exógena en la muestra.
• La varianza del PIB sólo se ve afectada por los shocks en la recaudación hasta
llegar a una participación del 40% en un horizonte de 10 trimestres.
Percent TT variance due to Shock1 Percent TT variance due to Shock2 Percent TT variance due to Shock3
80 80 80
70 70 70
60 60 60
50 50 50
40 40 40
30 30 30
20 20 20
10 10 10
0 0 0
1 2 3 4 5 6 7 8 9 10 1 2 3 4 5 6 7 8 9 10 1 2 3 4 5 6 7 8 9 10
Percent G G variance due to Shock1 Percent G G variance due to Shock2 Percent G G variance due to Shock3
100 100 100
80 80 80
60 60 60
40 40 40
20 20 20
0 0 0
1 2 3 4 5 6 7 8 9 10 1 2 3 4 5 6 7 8 9 10 1 2 3 4 5 6 7 8 9 10
Percent XX variance due to Shock1 Percent XX variance due to Shock2 Percent XX variance due to Shock3
90 90 90
80 80 80
70 70 70
60 60 60
50 50 50
40 40 40
30 30 30
20 20 20
10 10 10
0 0 0
1 2 3 4 5 6 7 8 9 10 1 2 3 4 5 6 7 8 9 10 1 2 3 4 5 6 7 8 9 10
Sesión 5
Análisis multivariado de series de tiempo no
estacionarias
Cointegración
Ejemplo tomado de Johansen, S (1996)10. El objetivo es estimar una relación
entre dinero, ingresos y tasas de interés. El workfile johansen.wk1 contiene datos
trimestrales para el periodo 1974:1 a 1987:3.
10
Johansen, Soren (1996) Likelihood based inference in cointegrated vector autoregressive models.
Oxford University Press.
LRY(-1) -1.945142
(0.06519)
[-29.8390]
IBO(-1) 14.17273
(3.42218)
[ 4.14143]
IDE(-1) -27.31275
(7.32952)
[-3.72641]
Error Correction: D(LRM) D(LRY) D(IBO) D(IDE)
CointEq1 -0.021907 0.022747 0.006187 0.009607
(0.01528) (0.01476) (0.00552) (0.00358)
[-1.43336] [ 1.54111] [ 1.12059] [ 2.68124]
Para mostrar que el modelo está bien especificado, primero, debemos mostrar
que los errores son homocedásticos y no están autocorrelacionados. Por último
mostraremos que un modelo VEC con 2 rezagos no añade información relevante al
modelo, y que el modelo actual está bien especificado.
En la opción view del menú del objeto VAR, tenemos el campo “residual test”
VEC Residual Heteroskedasticity Tests: No Cross Terms (only levels and squares)
Date: 08/02/05 Time: 13:23
Sample: 1974Q1 1987Q3
Included observations: 53
Joint test:
Chi-sq df Prob.
H 1* (r ) = Πy t −1 + Bxt = α (β ' y t −1 + ρ 0 )
.10
.05
.00
-.05
-.10
-.15
-.20
74 75 76 77 78 79 80 81 82 83 84 85 86 87
COINTEQ01
H 0 : β1 = − β 2
Restrictions:
B(1,1) + B(1,2) = 0
r
1 − λ*i
LR = − 2 ln(Q[H 0 | H (r )]) = T ∑ ln
( )
~ χ (r * # restric.)
2
i =1 (1 − λ
ˆ )
i
Restrictions:
B(1,1) + B(1,2) = 0
B(1,3) + B(1,4) = 0
B(1,1) = 1.0
Restrictions:
B(1,1) + B(1,2) = 0
B(1,3) + B(1,4) = 0
B(1,1) = 1.0
A(3,1) = 0
A(4,1) = 0
Sesión 6
y t = ct + Z t α t + ε t
α t +1 = d t + Tt α t + υ t
Donde:
ε t H t Gt
Ω t = var = |
υ t Gt Qt
Filtro de Kalman
at|s = E s (α t )
[( )(
Pt|s = E s α t − at|s α t − at|s )|]
( )
yˆ t = yt|t −1 = Et yt | at|t −1 = ct + Z t at|t −1
εˆ = ε t|t −1 = yt − yˆ t|t −1
y = E ( yt | α~t ) = ct + Z t α~t
~
S = Var ~
T y( t|T )
= Z V Z| t t t
Condiciones iniciales
El objeto SSPACE
Existen dos formas para crear el sistema de ecuaciones, una es ingresar el modelo de
manera explícita y la otra es utilizar la opción “auto-specification” para facilitar al
usuario la creación del modelo.
Ejemplo:
En este caso se trata de un proceso random walk with drift no observado. Sin embargo
las siguientes expresiones no son validadas, no cumplen con las condiciones
comentadas anteriormente.
Ejemplos:
Errores y varianzas
Sin embargo, con esta manera no es posible considerar la correlación entre las
perturbaciones. En este caso, será necesario identificar cada perturbación y
posteriormente indicar su varianzas y posibles covarianzas. Para nombrar las
perturbaciones utilizamos “@ename”.
@ename e1
@ename e2
Con la expresión @evar podemos indicar los valores conocidos o desconocidos (por
estimar) de las perturbaciones anteriormente nombradas, por ejemplo:
También podemos especificar los valores iniciales para las variables de estado. En el
caso que no es especifique, Eviews tomará como valores iniciales el cero (diffuse
priors). Como vemos en el cuadro de salida, las cuatro variables de estado utilizan
como valores iniciales el cero con una varianza arbitrariamente alta para reflejar la
incertidumbre sobre sus valores.
One-step-ahead DLY
.08
.06
.04
3 .02
2 .00
1 -.02
0 -.04
-1
-2
-3
1965 1970 1975 1980 1985 1990 1995 2000 2005
Por otro lado, podemos analizar el desempeño de las variables estimadas mediante
los gráficos propuestos tanto en signal graphs y state graphs. Las opciones de las
series como one step ahead, smoothed y filtered fueron explicadas anteriormente.
La opción forecast nos permite obtener las proyecciones de las variables observadas
dependientes, las de estado, y los errores estándar utilizando métodos alternativos y
enfoques para dar valores iniciales.
Otro resultado importante es observar los parámetros estimados por el modelo así
como su matriz de varianzas. La forma de obtenerla se muestra en la imagen
siguiente:
Sesión 7
Modelos de Datos de Panel
Otra opción es considerar efectos individuales (αi) específicos para cada unidad de
sección cruzada pero que son constantes a lo largo del tiempo (time-invariant
regresor). En el caso que los αi sean iguales para todas las unidades o ecuaciones de
cross-section entonces los estimadores de α y β por MCO serán consistentes y
eficientes (Pooled estimation).
Este efecto individual puede interpretarse como la habilidad del individuo que no es
observada pero que si afecta la variable dependiente. Este modelo de efectos
individuales es estimado según los supuestos establecidos sobre la correlación del
error con los regresores. De esta manera sigue dos tratamientos distintos: el enfoque
de efectos fijos y el de efectos aleatorios.
Ventajas:
• Controlar la heterogeneidad individual.
• Provee más información, más variabilidad de los regresores, menos
colinealidad, más grados de libertad y eficiencia del estimador MCO.
• Es posible estudiar la dinámica del ajuste con mayor precisión.
11
Tomado de Baltagi, Badi “Econometric Analysis of Panel Data”. Wiley Ed. 1995.
• Identificar y medir los efectos que no son detectados en cross section y series
de tiempo.
• Elaboración de modelos de comportamiento más complejos.
• Elimina el sesgo de la agregación sobre las firmas o individuos.
Desventajas:
• Problemas en el diseño y en la recolección de los datos.
• Distorsiones originadas por errores de medición.
• Problemas de selección: auto selección, no respuesta; y
• Baja frecuencia temporal.
En este modelo se asume que los componentes no observados (habilidad por ejemplo)
están correlacionados con algunos regresores (educación) y por tanto se viola el
supuesto de ortogonalidad (a). Este tipo de problema también es llamado sesgo de
heterogeneidad no observada. Esta dificultad se presenta cuando entidades de
naturaleza no observada diferentes son agrupadas para la estimación. Por ejemplo,
individuos muy hábiles y los poco hábiles.
Más hábiles
Menos hábiles
βˆ FE = ( X ' MX ) −1 X ' My
Gas Y P Car
ln = α + β 1 ln + β 2 ln MG + β 3 ln + ε it
Car N PGDP N
Donde Gas/Car es el consumo de gasolina por auto, PMG/PGDP es el precio del motor a
gasolina y Car/N registra el stock de autos per cápita. Este panel consiste de
observaciones anuales en 18 países de la OECD ente los años 1960 – 1978.
Para crear un workfile con datos en panel, elegimos la opción balanced panel y el
rango del periodo y el tamaño de la muestra (individuos).
12
Ejemplo tomado de Baltagi, Badi H. “Econometrics Análisis of Panel Data”. Wiley Ed. 1995.
En la ventana del objeto “equation” podemos elegir estimar el modelo de efectos fijos
individuales como temporales. Además, es posible elegir el método de Mínimos
Cuadrados Generalizados, para corregir la heterocedasticidad al interior de las
ecuaciones como la correlación contemporánea entre los términos de error de las
ecuaciones.
Effects Specification
Los parámetros del modelo guardan relación con los valores esperados en la teoría,
además, todos los coeficientes son significativos al 5%.
4
.4
3
.2
.0
-.2
-.4
50 1 00 150 200 2 50 300
Por otro lado, es posible recuperar los efectos individuales estimados. El procedimiento es ir al
menú del objeto “equation” y elegimos fiex/random effects/cross.section effects debido que los
efectos fijos son para los diversos individuos.
ω it = µi + εit
Nota: no consideramos los efectos temporales dado que las observaciones de panel
se caracterizan por tener una pequeña amplitud en el tiempo.
E(µi )= E(εit) = 0
E(µi2) = σµ2
E(εit2) = σε2
E(ωit2) = σµ2 + σε2
E(ωitωis) = σµ2 , t ≠ s
σ ε2 + σ µ2 σ µ2 L σ µ2
σ µ2 σ ε2 + σ µ2 σ µ2
Ω = = σ 2 I + σ 2 ii '
L
M M ε µ
σ µ2 L σ µ2 σ ε2 + σ µ2
Ω 0 L 0
0 Ω L 0
Γ=
M M
0 0 L Ω
La estimación por MCG implica el uso de ponderadores que transforman las variables
involucradas en la estimación. Dicho ponderador es el siguiente: Γ −1 / 2 = I ⊗ Ω −1 / 2 .
θ
Siendo Ω −1 / 2 = I − ii ' .
T
Nótese las similitudes de este procedimiento con los cálculos en el modelo de efectos
fijos, donde θ = 1. Se puede demostrar que el estimador de MCG, como el estimador
de MCO, es una media ponderada matricial de los estimadores intra y entre grupos.
Aplicación:
A diferencia del modelo de efectos fijos, el término no observado pero que indica la
diferencia entre individuos no estaría correlacionado con los regresores. Por ejemplo,
µ i puede ser una medida del nivel tecnológico del país, un nivel por encima del
promedio indicaría un bajo nivel de la tecnología disponible en el país lo que lleva a un
mayor consumo de gasolina. Este nivel de tecnología podría ser independiente del
stock per cápita, o de los precios reales de la gasolina, bajo esta sospecha el
estimador de efectos aleatorios será el modelo apropiado. Aunque, debemos
mencionar que existen pruebas estadísticas para contrastar esta sospecha como el
contraste de Hausman y el de Breusch – Pagan.
Effects Specification
Weighted Statistics
Unweighted Statistics
.8 4
.4 3
.0
-.4
-.8
50 100 150 200 250 300
Se rechaza la hipótesis nula, por tanto hay evidencia a favor del modelo de
componentes del error.
H = ( βˆ RE − βˆ FE )' (V FE − VRE ) −1 ( βˆ RE − βˆ FE ) ~ χ k2
chi2(3)=302.8
Pr>chi2=0.0000
Con una probabilidad menor a 0.05 no existe evidencia para aceptar la hipótesis nula.
Por lo tanto, existe una diferencia sistemática entre el estimador de MCO (efectos fijos)
y el de MCG (efectos aleatorios). Siendo el estimador de efectos aleatorios
inconsistente. Por tanto, el modelo de efectos fijos es el indicado para el modelo de
demanda de gasolina por auto, en otras palabras, existiría una correlación entre las
explicativas y el efecto individual no observable debido probablemente al indicador de
ingresos per cápita.
Effects Specification
13
Ejemplo tomado de Papke (1994) Tax policy and urban development: evidence from an enterprise zone
program. Working paper 3945. NBER. Diciembre 1991.
Effects Specification
Weighted Statistics
Unweighted Statistics
Debemos notar que el rango de instrumentos es 8, desde que las dummies para los
periodos sirven como instrumentos, así tenemos 3 instrumentos explícitamente
especificados más 5 variables dummies no colineales.
Sea el modelo:
y it = αy it −1 + x it| β + µ i + ε it
Aquí las primeras dos observaciones se pierden por los rezagos y las diferencias
dinámicas aplicadas a las series. Como xit| contiene solo variables exógenas entonces
∆xit| pueden utilizarse como instrumentos de dichas variables. Asumiendo que los
errores ε it no están autocorrelacionados para cada ecuación individual y si T=3
entonces yi1 es el único instrumento válido para la variable rezagada. Si T=5, entonces
yi1 , yi 2 , yi 3 son los únicos instrumentos válidos.
nit = α + β 1 ni ,t −1 + β 2 ni ,t −2 + δ 1 wit + δ 2 wi ,t −1 + φ1 k it + γ 1 y it + γ 2 y i ,t −1 + µ i + ε it
donde:
nit : logaritmo del empleo en la firma “i” en el periodo “t”
14
Aplicación tomada del artículo de Arellano, Bond (1991). Some tests of specification for panel data:
monte carlo evidence and an application of employment equations. The Review Economics Studies, Vol.
58 N°2 . Abril 1991.
Dependent Variable: N
Method: Panel Generalized Method of Moments
Transformation: First Differences
Sample (adjusted): 1979 1984
Cross-sections included: 140
Total panel (unbalanced) observations: 611
Difference specification instrument weighting matrix
White period standard errors & covariance (d.f. corrected)
Instrument list: @DYN(N,-2) W W(-1) K YS YS(-1) @LEV(@SYSPER)
Effects Specification
Dependent Variable: N
Method: Panel Generalized Method of Moments
Transformation: First Differences
Sample (adjusted): 1979 1984
Cross-sections included: 140
Total panel (unbalanced) observations: 611
White period instrument weighting matrix
White period standard errors & covariance (d.f. corrected)
Instrument list: @DYN(N,-2) W W(-1) K YS YS(-1) @LEV(@SYSPER)
Effects Specification
A pesar que Arellano y Bond recomiendan no usar este modelo para hacer inferencia,
si es útil para hacer una aproximación sobre la prueba de Sargan bajo
homocedasticidad. Existe evidencia para aceptar la hipótesis nula de validez de los
instrumentos.