Documente Academic
Documente Profesional
Documente Cultură
Año 2018
Capı́tulo 1
Introducción
1
Es posible descomponer esa serie en: tendencia, estacionalidad y componente irregular. La
tendencia cambia la media de la serie, mientras que la estacionalidad muestra un patrón
cı́clico con picos cada 12 observaciones. Si nos detenemos en el componente irregular,
vemos que si bien no tiene un patrón de comportamiento bien definido, es posible realizar
alguna predicción sobre el mismo. Podemos notar que los valores positivos y negativos
ocurren en “rachas”. A largo plazo, el componente irregular tiende a acercarse al cero.
Las ecuaciones de cada componente pueden expresarse como:
Tendencia: Tt = 1 + 0,1t
Estacional: St = 1,6 sin(tπ/2)
Irregular: It = 0,7It−1 + εt
donde:
Tt es el valor del componente tendencia en el momento t
St es el valor del componente estacional en el momento t
It es el valor del componente irregular en el momento t
εt es un término estocástico en el momento t
Las tres son distintos casos de ecuaciones en diferencia. Una ecuación en diferencia ex-
presa el valor de una variable como función de la misma variable rezagada, del término
estocástico o del tiempo t. En las dos primeras la variable depende del tiempo, mientras
que el componente irregular depende de su valor rezagado y del término estocástico.
En la tercera ecuación, el coeficiente que precede al rezago (en este caso 0,7) nos va a
indicar si la ecuación es estable o no. En caso de serlo, esto nos dice que, a largo plazo, la
ecuación va a tener una media. Como 0, 7 < 1 entonces esta ecuación es estable.
La estacionalidad puede definirse, dentro de la estadı́stica, como un correlato de estabili-
dad.
Si bien, en los comienzos, el principal objetivo del análisis de series de tiempo era la pre-
dicción, la teorı́a económica ha ido evolucionando a tal punto que hoy tenemos modelos
cuya representación básica se da gracias a ecuaciones en diferencia estocásticas. Veamos
algunos ejemplos:
Se le dice paseo aleatorio ya que el modelo representa el recorrido de alguien que no tiene
rumbo. El modelo de random walk supone que los cambios diarios en el precio de una
acción tienen media cero. De lo contrario, podrán realizarse operaciones de compra o venta
2
que equilibren esas variaciones en los precios. El precio de la acción está representado por
siguiente ecuación en diferencia:
yt+1 = yt + εt+1
O lo que es lo mismo:
∆yt+1 = t+1
Et (t+1 ) = 0
Los cambios esperados de los precios de los activos financieros en el largo plazo tienen
esperanza cero. Si la esperanza fuese positiva, voy a tener incentivos a comprar y el
mercado ajustará hasta que sea nula, y viceversa. Ahora consideremos esta ecuación en
diferencias más general:
yt+1 = a0 + a1 yt + t+1
yt+1 − yt = a0 + a1 yt − yt + t+1
En el modelo random walk suponemos que a0 = γ = 0 ya que los cambios son impredeci-
bles.
yt = ct + it
ct = αyt−1 + ct
Además, suponemos que 0 < α < 1 y β > 0. En este modelo keynesiano, yt , ct , it son
variables endógenas. Las variables predeterminadas son yt−1 , ct−1 y las perturbaciones
son ct , it . Estos términos estocásticos lógicamente tienen media cero. Las ecuaciones
del producto y de la inversión son ecuaciones estructurales, ya que expresan el valor de
una variable endógena como función de otra variable endógena. Por su parte, la ecuación
del consumo es una ecuación reducida, ya que expresa una endógena en función de una
predeterminada. Vamos a derivar la forma reducida de la ecuación de la inversión. Primero
reemplazamos al consumo presente por su igual:
3
it = βαyt−1 + βct − βct−1 + it
Esta última expresión es la forma reducida de la inversión (puede haber más de una forma
reducida). Busquemos otra, retrasando la ecuación del consumo un perı́odo:
Reemplazando:
it = βαyt−1 + βct − β(αyt−2 + ct−1 ) + it
y t = ct + i t
Esta es la forma reducida univariada del producto ya que depende solamente de sus
propios valores rezagados y de las perturbaciones. Una vez que estimamos los valores
de los parámetros α, β podremos utilizar los valores observados desde y1 hasta yt para
predecir todos los valores futuros en la serie.
st+1 = ft + t+1
Donde por hipótesis tiene que ocurrir que Et (t+1 ) = 0. También lo podemos expresar
como:
st+1 − ft = t+1
4
ft+1 = a21 st+1 + a22 ft + ft+1
Ambas son formas reducidas de cada variable. Podemos expresar el VAR en términos de
un modelo de corrección del error, denominado VEC:
Si las ganancias por especular suben (st+1 −ft ) el precio de la divisa debe caer (st+2 −st+1 ).
5
Capı́tulo 2
Siendo h un valor tan pequeño como uno desee. En ecuaciones en diferencia y series de
tiempo, normalizamos ese valor h = 1. Ası́ podremos obtener la primera diferencia de la
variable yt :
∆yt+1 = f (t + 1) − f (t)
∆yt+1 = yt+1 − yt
A veces es conveniente expresar la serie completa de valores {. . . yt−2 , yt−1 , yt , yt+1 , yt+2 ,
. . .} como {yt }. Del mismo modo podemos obtener la segunda diferencia de la variable:
6
2.2. Modelos lineales de series de tiempo
Vamos a analizar el caso de ecuaciones en diferencia de orden n, con coeficientes constan-
tes. La forma algebraica es la siguiente:
n
X
yt = a0 + ai yt−i + xt
i=1
La ecuación en diferencias anterior es lineal porque todos los valores de la variable depen-
diente están elevados a la primera potencia. Además, es estocástica, por la existencia del
término xt . Dicho término xt se denomina “forcing process” y puede ser cualquier función
de: tiempo, valores actuales o rezagados de otras variables o de la perturbación. Un caso
especial de este forcing process es el siguiente:
∞
X
xt = βi t−i
i=0
xt = β0 t + β1 t−1 + . . .
Donde los βi son constantes y los valores de t no dependen de yt .
A) EJEMPLO 1
Si suponemos:
β1 = 1
β2 = β3 = . . . = 0
Obtenemos un proceso autoregresivo de orden n, o AR(n):
n
X
y t = a0 + ai yt−i + t
i=1
Si la expresamos en diferencias:
7
B) EJEMPLO 2
yt = yt−1 + 2
yt = 2t + c
2t + c = 2(t − 1) + c + 2
2t + c = 2t − 2 + c + 2
2t + c = 2t + c
Se cumple la igualdad por lo cual podemos afirmar que la solución propuesta es correcta.
C) EJEMPLO 3
It = 0, 7It−1 + t
Ese coeficiente 0, 7 que precede al rezago, se denomina “costo de ajuste?Ṡi buscamos una
solución particular:
It = 0, 7It L + t
(1 − 0, 7L)It = t
1
It = t
1 − 0, 7L
1
El término 1−O,7L
es una serie, podemos descomponerlo:
It = [1 + 0, 7L + 0, 72 L2 + . . .]t
It = t + 0, 7Lt + 0, 72 L2 t + . . .
It = t + 0, 7t−1 + 0, 72 t−2 + . . .
X∞
It = (0, 7)i t−i
i=0
8
Si el coeficiente de ajuste, en este caso 0, 7, es menor a la unidad, la serie converge. Para
obtener la función impulso-respuesta de la inversión debemos derivar:
δIt
δt
δIt+1
δt
δIt+2
δt
Y ası́ sucesivamente. Vamos a comprobar si la solución que obtuvimos anteriormente es
realmente solución o no. ∞
X
It = (0, 7)i t−i
i=0
∞
X
It−1 = (0, 7)i t−1−i
i=0
∞
X ∞
X
(0, 7)i t−i = (0, 7)i+1 t−1−i + t
i=0 i=0
∞
X
(0, 7)i t−i = 0, 7t−1 + 0, 72 t−2 + 0, 73 t−3 + . . . + t
i=0
9
conocido de la variable será denominado “condición inicial”. Partiendo de una ecuación
en diferencias de primer orden:
yt = a0 + a1 yt−1 + t
y1 = a0 + a1 y0 + 1
y2 = a0 + a1 (a0 + a1 y0 + 1 ) + 2
y2 = a0 + a0 a1 + a21 y0 + a1 1 + 2
Partiendo de:
yt = a0 + a1 yt−1 + t
10
at+m+1
1 =0
Entonces: ∞
a0 X
yt = + ai1 t−i
1 − a1 i=0
De todos modos, esta solución no es única. Para cualquier valor arbitrario de A podemos
encontrar una solución del tipo:
∞
a0 X
yt = Aat1 + + ai t−i
1 − a1 i=0 1
El primer término surge de proponer una solución del tipo yth = Aαt y reemplazar en la
ecuación homogénea:
yt = a1 yt−1
Aαt = a1 Aαt−1
α = a1
yth = Aat1
yt = yth + ytp
∞
a0 X
yt = Aat1 + + ai t−i
1 − a1 i=0 1
Supongamos que tenemos una condición inicial para y en el perı́odo t = 0. Por lo tanto:
∞
a0 X
y0 = A + + ai −i
1 − a1 i=0 1
∞
a0 X
A = y0 − − ai1 −i
1 − a1 i=0
Este es el valor de A que nos dará una solución a la ecuación en diferencias, ya que y0
está dado. Por lo tanto, la presencia de una condición inicial elimina la arbitrariedad de
A. Sustituyendo:
∞
a0 X
yt = Aat1 + + ai t−i
1 − a1 i=0 1
∞ ∞
a0 X a0 X
yt = y0 − − ai1 −i at1 + + ai t−i
1 − a1 i=0
1 − a1 i=0 1
11
∞ ∞
a0 at1 − a0 X i−t X
yt = y0 at1 − − a1 −i + ai1 t−i
1 − a1 i=0 i=0
∞ ∞
a0 (1 − at1 ) X i X
yt = y0 at1 + − a1 −i + ai1 t−i
1 − a1 i=t i=0
t−1
X t−1
X
yt = y0 at1 + a0 ai1 + ai1 t−i
i=0 i=0
y2 = a0 + a1 y1 + 2
y2 = a0 + a1 (a0 + a1 y0 + 1 ) + 2
y2 = a0 + a0 a1 + a21 y0 + a1 1 + 2
1
X
y2 = a0 (1 + a1 ) + a21 y0 + ai1 2−i
i=0
Generalizando:
t−1
X t−1
X
yt = y0 at1 + a0 ai1 + ai1 t−i
i=0 i=0
Por lo tanto, concluimos que iterar hacia adelante desde y0 es exactamente lo mismo que
iterar hacia atrás con condición inicial en y0 .
C) SERIE NO CONVERGENTE
A pesar de que los valores de la trayectoria yt van a ir creciendo, todos serán finitos. En
el caso que a1 = 1 tenemos un random walk:
yt = a0 + yt−1 + t
∆yt = a0 + t
12
Es decir, en cada perı́odo de tiempo, el valor de y cambia en a0 + t unidades. Cuando
|a1 | < 1 los efectos de las perturbaciones pasadas se van reduciendo a medida que pasa el
tiempo.
yt = a0 + a1 yt−1 + t
yt = a1 yt−1
13
Si |a1 | < 1 la expresión at1 converge a cero cuando t tiende a ∞.
yt = a0 + a1 yt−1 + t
A) GENERALIZANDO EL MODELO
Para mostrar que el método es aplicable para ecuaciones de orden superior, consideramos
la parte homogénea de:
n
X
yt = a0 + ai yt−i + xt
i=1
n
X
yt = ai yt−i
i=1
Como vimos, hay n soluciones homogéneas que satisfacen la igualdad anterior. Nos interesa
probar que: si yth es una solución homogénea, entonces Ayth es una solución homogénea
también, para cualquier valor arbitrario de A.
n
X
yth = h
ai yt−i
i=1
14
n
X
Ayth = h
ai Ayt−i
i=1
Si dividimos cada término por A vemos que la igualdad anterior se sigue cumpliendo.
h h
Ahora supongamos que existen dos soluciones homogéneas denominadas y1t y y2t . Si te-
h h
nemos dos constantes arbitrarias A1 y A2 vemos que la combinación lineal A1 y1t + A2 y2t
es también una solución para la ecuación homogénea, por lo tanto, debe satisfacer:
h h h h h h h h
A1 y1t +A2 y2t = a1 (A1 y1t−1 +A2 y2t−1 )+a2 (A1 y1t−2 +A2 y2t−2 )+. . . +an (A1 y1t−n +A2 y2t−n )
Reordenando:
n
! n
!
X X
h h h h
A1 y1t − A1 ai y1t−i + A2 y2t − A2 ai y2t−i =0
i=1 i=1
h h
Como A1 y1t y A2 y2t son soluciones separadas para la ecuación, las expresiones entre
paréntesis son ambos iguales a cero, por lo tanto, se cumple la igualdad anterior. Por
último, para verificar que “la suma de cualquier solución particular y cualquier com-
binación lineal de todas las soluciones homogéneas es también una solución? debemos
sustituir:
yt = ytp + yth
n
X
y t = a0 + ai yt−i + xt
i=1
n
X
ytp + yth = a0 + p
ai (yt−1 h
+ yt−1 ) + xt
i=1
Reordenando: ! !
n
X n
X
ytp − a0 − p
ai yt−i − xt + yth − h
ai yt−i
i=1 i=1
Ambas expresiones entre paréntesis son iguales a cero, por lo tanto, comprobamos la
proposición anterior.
yt − a1 yt−1 − a2 yt−2 = 0
15
αt − a1 αt−1 − a2 αt−2 = 0
Esas dos raı́ces son soluciones, pero tampoco son únicas. Para cualquier constante arbi-
traria A1 y A2 la combinación lineal A1 α1t + A2 α2t . Si desconocemos los valores de a1 y a2
no podemos hallar las raı́ces.
A) CASO 1
Si a21 +4a2 > 0 tendremos dos raı́ces reales y distintas. Por lo tanto, la solución homogénea
será la combinación lineal de ambas:
Si alguna de las raı́ces supera en valor absoluto a la unidad, la solución homogénea será
explosiva. De lo contrario, la solución será convergente.
B) CASO 2
Si a21 + 4a2 = 0 tendremos dos raı́ces reales e iguales, α1 = α2 = a21 . En este caso, existirá
t
una segunda solución homogénea dada por t a21 . Por lo tanto, la solución homogénea
ahora será: a t a t
1 1
yth = A1
+ A2 t
2 2
a1 t
Para ver si esto es cierto, vamos a sustituir t 2 en la ecuación original:
yt − a1 yt−1 − a2 yt−2 = 0
a t a t−1 a t−2
1 1 1
t − a1 (t − 1) − a2 (t − 2) =0
2 2 2
t−2
Dividimos por a21 :
a 2 a1
1
t − a1 (t − 1) − a2 (t − 2) = 0
2 2
a 2
1 a21 (t − 1)
t − − a2 t + 2a2 = 0
2 2
16
a 2
1 ta21 a21
t − + − a2 t + 2a2 = 0
2 2 2
ta21 ta21 a21
− + − a2 t + 2a2 = 0
4 2 2
1 2 a2
(ta1 − 2ta21 ) + 1 − a2 t + 2a2 = 0
4 2
2 2
−ta1 a1
+ − a2 t + 2a2 = 0
4 2
2 2
−a1 a1
t − a2 + + 2a2 = 0
4 2
Dado que a21 + 4a2 = 0 ambas expresiones entre paréntesis son iguales a cero, y com-
probamos que la solución es correcta. El sistema será explosivo si |a1 | > 2. Si |a1 | < 2
podremos pensar que el efecto del término t a21 t será ambiguo. Si 0 < a1 < 2 la solución
homogénea parece ser explosiva pero finalmente converge. Si −2 < a1 < 0 la solución
homogénea parece oscilar y explotar, pero finalmente las oscilaciones se amortiguan y la
solución converge.
C) CASO 3
Si a21 +4a2 < 0 tendremos dos raı́ces imaginarias conjugadas. Si a21 debe ocurrir que a2 < 0
(Condición necesaria pero no suficiente). Podemos utilizar las coordenadas polares para
expresar las raı́ces en una expresión trigonométrica más sencilla de comprender.
√
a1 + i −d
α1 =
2
√
a1 − i −d
α2 =
2
√
Donde i = −1. Lo primero que debemos hacer es expresar estos números imaginarios
en un plano. En la siguiente figura representamos en el eje horizontal los números reales,
y en el eje vertical los imaginarios. El número complejo a + bi puede ubicarse como vemos
a continuación:
17
Si consideramos el ángulo θ, podemos expresar:
a
cos(θ) =
r
b
sin(θ) =
r
Despejando:
a = rcos(θ)
b = rsin(θ)
α1 = a + bi = r[cos(θ) + isin(θ)]
α2 = a − bi = r[cos(θ) − isin(θ)]
Como sabemos, la solución homogénea tiene la forma yth = A1 α1t + A2 α2t entonces, por
Teorema de De Moivre:
α1t = rt [cos(tθ) + isin(tθ)]
Como yth es un número real y las raı́ces son complejas, los coeficientes A1 y A2 serán
complejos y deberán tener la forma:
A1 = B1 [cos(B2 ) + isin(B2 )]
A2 = B1 [cos(B2 ) − isin(B2 )]
18
Si θ1 = θ2 :
sin(2θ) = 2sin(θ)cos(θ)
yth = B3 rt cos(θt + B2 )
√
Donde r = −a2 La frecuencia de la oscilación está determinada por θ que será determi-
nado por cos(θ) = √a1 .
Como sabemos que cos(θt) = cos(2φ + θt) la estabilidad estará
2 −a2
√
determinada por el término r = −a2 . Si |a2 | = 1 la solución no se dispara ni tampoco
converge. Será explosiva si |a2 | > 1 y será convergente si |a2 | < 1.
D) CONDICIONES DE ESTABILIDAD
a2 < 1 − a1
a1 + a2 < 1
19
Pn
i=1 ai < 1 → condición necesaria
20
Una forma de unificar estas condiciones es diciendo que “todas las raı́ces de la ecuación
caracterı́sticas deben estar dentro del cı́rculo unitario?. Considerando el semicı́rculo a
continuación, vemos que en el eje horizontal se encuentran los números reales, mientras
que, en el eje vertical, los complejos. Si ambas raı́ces son reales, se graficarán en el eje
horizontal. Si las raı́ces son complejas, las podemos dibujar como se ve a continuación:
√ !2
v
u
u a 2 d
1
r=t + i
2 2
v !2
u p
2
u a 2
1 a 1 + 4a 2
r=t + i
2 2
r
a21 a2 + 4a2
r= + (−1) 1
4 4
r
a21 a21 + 4a2
r= −
4 4
21
√
r= −a2
La estabilidad requiere que r < 1 por lo tanto, requiere que las raı́ces estén dentro del
cı́rculo unitario.
A) CASO 1
Cuando todos los elementos del forcing process se anulan, xt = 0, estamos ante un proceso
dinámico pero determinı́stico.
n
X
yt = a0 + ai yt−i + xt
i=1
c = a0 + a1 c + a2 c + . . . + an c
a0 = c − a1 c − a2 c − . . . − an c
a0 = c(1 − a1 − a2 − . . . − an )
a0
c=
(1 − a1 − a2 −? − an )
Pn
Siempre que i=1 ai 6= 1. En el caso que ese sumatorio sea igual a la unidad, tendremos
al menos una raı́z unitaria, por lo tanto, probamos la siguiente solución ytp = tc:
a0 = c[t − a1 (t − 1) − a2 (t − 2) − . . . − an (t − n)]
22
B) CASO 2
Si el forcing process tiene una forma exponencial del tipo xt = bdrt , el valor de r se
interpreta como la tasa de crecimiento de la variable.
yt = a0 + a1 yt−1 + bdrt
Probamos una solución del tipo ytp = c0 + c1 drt . Tendremos dos casos, primero analicemos
si a0 = 0. En este caso no pondremos la constante c0 ya que, si a0 = 0 entonces debe
darse que c0 = 0; c = Pan0 :
(1− i=1 ai )
yt = a1 yt−1 + bdrt
c 0 = a0 + a1 c 0
a0 = c 0 − a1 c 0
a0 = c0 (1 − a1 )
a0
c0 =
1 − a1
Sumando amas soluciones:
dr
a0
ytp = + b r drt
1 − a1 d − a1
a0
Va a ser estable si |dr | < 1, converge a 1−a1
. Si a1 = 1 entonces c0 = ct. Además, si a1 = dr
entonces c1 = ct. La solución será igual a la anterior pero multiplicada por t.
C) CASO 3
23
El forcing process en este caso tendrá una tendencia determinı́stica, de la forma xt = btd :
Vamos a probar una solución del tipo ytp = c0 + c1 t + . . . + cd td . Además, suponemos d = 1:
yt = a0 + a1 yt−1 + a2 yt−2 + bt
Si operamos algebraicamente:
b
c1 =
1 − a1 − a2
a0 − (2a2 + a1 )c1
c0 =
(1 − a1 − a2 )
Si 1 = a1 + a2 probamos la siguiente solución:
A) EJEMPLO 1
yt = a0 + a1 yt−1 + t
La naturaleza del proceso yt es tal que la solución particular dependerá solamente de una
constante, del tiempo y de los elementos de la secuencia t . Como el tiempo no aparece
24
en el forcing process, el mismo podrá estar en la solución particular solamente si la raı́z
caracterı́stica es igual a la unidad.
∞
X
yt = b0 + b1 t + αi t−i
i=0
Reordenando:
b0 +b1 t+α0 t +α1 t−1 +α2 t−2 +. . . = a0 +a1 b0 +a1 b1 t−a1 b1 +a1 α0 t−1 +a1 α1 t−2 +. . .+t
(b0 −a0 −a1 b0 +a1 b1 )+b1 t−a1 b1 t+α0 t −t +α1 t−1 −a1 α0 t−1 +α2 t−2 −a1 α1 t−2 +. . . = 0
Esta ecuación debe cumplirse para todos los valores de t y todos los posibles valores de
la secuencia t . Por lo tanto, cada una de estas condiciones deben satisfacerse:
α0 − 1 = 0
α1 − a1 α0 = 0
α2 − a1 α1 = 0
b0 − a0 − a1 b0 + a1 b1 = 0
b 1 − a1 b 1 = 0
Las primeras tres ecuaciones pueden resolverse de forma recursiva para α0 . La primera nos
indica que α0 = 1. Si reemplazamos esto en la segunda ecuación obtenemos que α1 = a1 .
En la tercera tenemos que α2 = a21 . Si continuamos este proceso podemos deducir que
αt = at1 . Ahora veremos las dos últimas ecuaciones. Tenemos dos posibles casos, si a1 6= 1
a0
entonces debe darse que b1 = 0 y b0 = 1−a1
.
∞
a0 X
yt = + αi t−i
1 − a1 i 0
Podemos observar que obtenemos la misma solución que mediante el método de iteración.
Por tanto, la solución general será:
∞
a0 X
yt = + αi t−i + Aα1t
1 − a1 i=0
25
∞
a0 X
A = y0 − − αi t−i
1 − a1 i=0
t−1
a0 X a0
yt = + αi t−i + y0 − α1t
1 − a1 i=0 1 − a1
Si a1 = 1 entonces tenemos que b1 = a0 y b0 puede ser cualquier constante arbitraria. La
solución será: ∞
X
y t = b 0 + a0 t + t−i
i=0
La forma de la solución es incorrecta ya que el sumatorio no será finito. Por eso es necesario
imponer una condición inicial, por ejemplo y0 :
∞
X
y 0 = b0 + −i
i=0
Si reemplazamos en la solución:
t
X
y t = y 0 + a0 t + i
i=1
B) EJEMPLO 2
yt = a0 + a1 yt−1 + t + β1 t−1
∞
X ∞
X
b0 + b1 t + αi t−i = a0 + a1 [b0 + b1 (t − 1) + αi t−1−i ] + t + β1 t−1
i=0 i=0
α0 = 1
α1 = a1 α0 + β1
α2 = a1 α1
b0 − a0 − a1 b0 + a1 b1 = 0
26
b 1 − a1 b 1 = 0
a0
De nuevo tenemos dos casos posibles: si a1 6= 1 entonces debe darse que b1 = 0 y b0 = 1−a1
.
La solución particular será:
∞
a0 X
yt = + t + (a1 + β1 ) α1i−1 t−i
1 − a1 i=1
Entonces:
t−1
X
yt = y0 + a0 t + t + (1 + β1 ) t−i
i=1
yt = b0 + b1 t + b2 t2 + α0 t + α1 t−1 + α2 t−2 + . . .
α0 = 1
α 1 = a1 α 0
α 2 = a1 α 1 + a2 α 0
α 3 = a1 α 2 + a2 α 1
Las condiciones necesarias para la convergencia son que |a1 | < 1, a1 +a2 < 1 y a2 −a1 < 1.
Esto implica que los efectos de los errores pasados tienen una influencia cada vez menor en
el valor de yt . Si los coeficientes convergen, la serie será estable si a21 +4a2 > 0. La condición
de estabilidad para la ecuación homogénea es precisamente la condición de convergencia
para la solución particular. Si las raı́ces caracterı́sticas de la ecuación homogénea son
iguales a la unidad, aparecerá un polinomio t en la solución particular. El orden de dicho
polinomio es el número de raı́ces caracterı́sticas unitarias.
27
D) PROBLEMA RESUELTO
Partimos de:
yt = 3 + 0, 9yt−1 − 0, 2yt−2 + t
α0 = 1
α1 = 0, 9α0
α2 = 0, 9α1 − 0, 2α0
Para todo i ≥ 2:
αi = 0, 9αi−1 − 0, 2αi−2
28
El rezago de una constante es la constante misma: Li c = c
1
(aL)( − 1) yt
1 − (aL)−1
∞
X
−(aL)−1 (aL)−i yt
i=0
∞
X
−1
−(aL) a−i yt−i
i=0
yt = a0 + a1 yt−1 + . . . + ap yt−p + t
(1 − a1 L − a2 L2 − . . . − ap Lp )yt = a0 + t
A(L)yt = a0 + t
Ese polinomio A(L) se denomina ecuación caracterı́stica inversa. Las raı́ces de dicho poli-
nomio deben estar fuera del cı́rculo unitario, para cumplir con la estabilidad. Por lo tanto,
la notación A(1) se utiliza para la suma de coeficientes:
A(1) = 1 − a1 − a2 − . . . − ap
29
Podemos escribirla como:
A(L)yt = a0 + B(L)t
También podemos utilizar los operadores de rezagos para resolver ecuaciones en diferencia.
Si partimos de:
yt = a0 + a1 yt−1 + t
yt = a0 + a1 Lyt + t
a0 − t
yt =
1 − a1 L
Por la propiedad 1, sabemos que:
a0 a0
=
1 − a1 L 1 − a1
Por la propiedad 5, sabemos que:
t
= t + a1 t−1 + a1 t−2 + . . .
1 − a1 L
Combinando, obtenemos la solución:
∞
a0 X
yt = + ai t−i
1 − a1 i=0 1
Ahora suponemos que |a1 | > 1. El uso de la propiedad 5 es inapropiado, debemos utilizar
la propiedad 6, entonces:
∞
a0 X
yt = − (a1 L)−1 + (a1 L)−i t
1 − a1 i=0
∞
a0 1 X
yt = − + (a1 L)−i t+1
1 − a1 a1 i=0
∞
a0 1 X
yt = − + a−i t+1+i
1 − a1 a1 i=0 1
30
Adelantando un perı́odo:
a0 + t+1 yt+1
yt = − +
a1 a1
Adelantando n perı́odos:
n n
X X yt+n
yt = −a0 a−i
1 − a−i
1 t+i +
i=1 i=1
an1
En el caso de las soluciones forward looking, si |a1 | < 1 la misma será divergente. Si
|a1 | > 1 la misma converge. En este caso, los valores futuros de los errores afectan al
presente. Dada una condición inicial, una ecuación en diferencias estocástica tendrá una
solución forward looking y una backward looking. Cualquier combinación lineal de ambas
será solución también, siempre que la ecuación original sea lineal.
31
Capı́tulo 3
3.1. Introducción
Ahora le permitiremos al forcing process ser estocástico. Las ecuaciones serán de la forma:
32
E(t ) = E(t−1 ) = . . . = 0
E(2t ) = E(2t−1 ) = . . . = σ 2
Ahora, a partir de esto, vamos a tomar un proceso con ruido blanco y vamos a construir
una secuencia llamada “medias móviles”de orden q y que se denota como M A(q).
q
X
xt = βi t−i
i=0
Una curiosidad es que, por más que la secuencia {t } sea un ruido blanco, el forcing
process {xt } no será un ruido blanco si dos o más βi son distintos a cero.
yt = a0 + a1 yt−1 + t
La solución será: ∞
a0 X
yt = + ai t−i
1 − a1 i=0 1
33
Para un modelo general ARM A(p, q), podemos expresarlo mediante operadores de rezago:
p q
!
X X
1− ai L i y t = a0 + βi t−i
i=1 i=0
estar fuera del cı́rculo unitario. Además, si yt es una ecuación en diferencias lineal y
estocástica, la condición de estabilidad es una condición necesaria para que la serie {yt }
sea estacionaria.
3.4. Estacionariedad
Normalmente, nosotros observamos solo un set de realizaciones para cada serie en parti-
cular. Si {yt } es una serie estacionaria, la media, varianza y autocorrelaciones pueden ser
aproximadas por medias de largo plazo basadas en ese solo set de realizaciones. Formal-
mente, un proceso estocástico es estacionario si:
E(yt ) = E(yt−s ) = . . . = µ
Partimos de:
yt = a0 + a1 yt−1 + t
34
Siendo t un ruido blanco. El proceso inicia en el perı́odo 0, por lo tanto y0 es una condición
inicial determinı́stica. Anteriormente vimos que la solución para esta ecuación es:
t−1
X t−1
X
yt = a0 ai1 + at1 y0 + ai1 t−i
i=0 i=0
Adelantando s perı́odos:
t+s−1
X
Eyt+s = a0 ai1 + at+s
1 y0
i=0
Vemos que ambas esperanzas dependen del tiempo, entonces, ya que ambas no son iguales,
no podrı́a ser estacionario. Pero, si el t es lo suficientemente grande, podemos considerar
el lı́mite de yt . Si |a1 | < 1:
∞
a0 X
lı́m yt = + ai t−i
t→∞ 1 − a1 i=0 1
E((yt − µ)(yt−s − µ)) = E[(t + a1 t−1 + a21 t−2 + . . .)(t−s + a1 t−s−1 + a21 t−s−2 + . . .)]
35
si una muestra es generada por un proceso que recién ha comenzado, las realizaciones
pueden no ser estacionarias. Si no tenemos la condición inicial y0 , la solución será:
∞
a0 X
lı́m yt = + ai1 t−i + Aat1
t→∞ 1 − a1 i=0
Si tomamos esperanza, vemos que la serie no será estacionaria a menos que la expresión
Aat1 sea igual a cero, ya sea porque la seria haya comenzado hace mucho tiempo (at1 = 0)
o porque la constante arbitraria A sea cero. Resumiendo, tenemos dos condiciones para
la estacionariedad:
Que la solución homogénea sea cero, ya sea porque el proceso comenzó hace mucho
tiempo o porque el mismo ha estado siempre en equilibrio.
Estas dos caracterı́sticas aplican para todos los modelos ARM A(p, q). Si tenemos un
proceso M A(q):
p q
X X
y t = a0 + ai yt−i + βi t−i
i=1 i=0
Para cualquier modelo ARM A(p, q) la estacionariedad requiere que la solución homogénea
sea igual a cero.
Como sabemos que la solución homogénea debe ser cero, solo nos resta encontrar la
solución particular:
∞
X
yt = αi t−i
i=0
36
Si resolvemos por medio de coeficientes indeterminados, obtenemos las siguientes condi-
ciones:
α0 = 1
α1 = a1 α0 + β1
αi = a1 αi−1 + a2 αi−2
αi = a1 αi−1 + a2 αi−2
Si las raı́ces caracterı́sticas están dentro del cı́rculo unitario, αi será una secuencia conver-
gente. Para verificar que la solución particular es estacionaria, tomamos esperanza para
obtener Eyt = Eyt−1 = 0, ∀t y ∀i. Por lo tanto, la esperanza será finita e independiente
del tiempo. Dado que se asumió a la secuencia {t } como un ruido blanco, la varianza
será constante e independiente del tiempo:
Finalmente la covarianza entre yt y yt−s será constante e independiente del tiempo tam-
bién:
Entonces:
Cov(yt ; yt−s ) = σ 2 (αs + αs+1 α1 + αs+2 α2 + . . .)
37
Ext = E(t + β1 t−1 + β2 t−2 + . . .)
Repitiendo el proceso:
Por lo tanto, todos los elementos de {xt } tienen media finita e igual a cero (µ = 0).
(βi )2 es finita, la V ar(xt ) será finita. Por lo tanto, que el sumatorio sea finito es una
P
Si
condición necesaria para que exista estacionariedad en el proceso {xt }. Además:
(βi )2 finita
P
38
CONDICIONES PARA COEFICIENTES AUTOREGRESIVOS
Partimos de: p
X
y t = a0 + ai yt−i + t
i=1
Si las raı́ces caracterı́sticas están dentro del cı́rculo unitario, podemos escribir la solución
particular como:
∞
a
P0p
X
yt = + αi t−i
1− i=1 ai i=0
Donde αi son los coeficientes indeterminados. Sabemos que {yt } es una secuencia conver-
gente ya que las raı́ces pertenecen al cı́rculo unitario. Además sabemos que los coeficientes
satisfacen:
αi + a1 αi−1 + a2 αi−2 + . . . + ap αi−p = 0
Si las raı́ces están en el cı́rculo unitario, la secuencia será convergente. Como estamos ante
un proceso M A(∞) sabemos que αi2 es finita. Ahora vamos a comprobar las condiciones
P
a
1. Eyt = Eyt−s = P0
1− αi
q
X
xt = βi t−i
i=0
Si las raı́ces de la ecuación caracterı́stica inversa están fuera del cı́rculo unitario y además
xt es estacionario, entonces yt es estacionario también:
a β β
yt = P0p + Ppt + P1 pt−1 i + P2 pt−2 i + . . .
1− i=1 αi 1− i=1 αi Li 1 − i=1 αi L 1 − i=1 αi L
39
3.6. La función de autocorrelación
Las autocovarianzas y autocorrelaciones que vimos anteriormente son de utilidad para
la aproximación de Box-Jenkins para identificar y estimar modelos de series de tiempo.
Vamos a considerar cuatro ejemplos importantes:
A) MA(1)
yt = a0 + a1 yt−1 + t
Operando:
E((yt − µ)(yt−s − µ)) = E[(t + a1 t−1 + a21 t−2 + . . .)(t−s + a1 t−s−1 + a21 t−s−2 + . . .)]
ρ0 = 1
ρ 1 = a1
ρ2 = a21
Generalizando:
ρs = as1
Por lo tanto, para procesos AR(1) una condición necesaria para la estacionariedad es que
|a1 | < 1. Luego, el gráfico de la ACF (Función de autocorrelación o correlograma) converge
a cero si la serie es estacionaria. Si a1 es positivo lo hará de forma directa, mientras que
si a1 es negativo, lo hará oscilando.
40
B) AR(2)
yt = a0 + a1 yt−1 + a2 yt−2 + t
yt = a1 yt−1 + a2 yt−2 + t
Generalizando:
Eyt yt−s = a1 Eyt−1 yt−s + a2 Eyt−2 yt−s + Et yt−s
Et yt = σ 2
Como sabemos que Eyt yt−s = 0 podemos usar la ecuación anterior para formar:
γ0 = a1 γ1 + a2 γ2 + σ 2
41
γ1 = a1 γ0 + a2 γ1
γs = a1 γs−1 + a2 γs−2
ρ 1 = a1 ρ 0 + a2 ρ 1
ρs = a1 ρs−1 + a2 ρs−2
σ2
1 − a2
γ0 = var(yt ) =
1 + a2 (a1 + a2 − 1)(a2 − a1 − 1)
C) MA(1)
Partimos de:
yt = t + βt−1
42
Generalizando:
para todo s > 1. Luego, si dividimos cada γs por γ0 obtenemos la ACF que tiene la forma:
ρ0 = 1
β
ρ1 =
1 + β2
ρs = 0
D) ARMA(1,1)
Partimos de:
yt = a1 yt−1 + t + β! t−1
Generalizando:
43
3.7. La función de autocorrelación parcial
En un proceso AR(1) yt y yt−2 están correlacionados aunque yt−2 no aparece directamente
en el modelo. La correlación entre yt y yt−2 es igual a la correlación entre yt y yt−1
multiplicado por la correlación entre yt−1 y yt−2 . Todas estas correlaciones “indirectas”
están presentes en la función de autocorrelación (ACF). La función de autocorrelación
parcial (PACF) entre yt y yt−s elimina los efectos que intervienen entre yt−1 y yt−s+1 .
Para encontrar la PACF primeros eliminamos la media de cada observación de yt∗ , es decir
yt∗ = yt − µ. Luego formamos la ecuación autorregresiva de primer orden:
Usamos la simbologı́a {et } ya que es un término de error que podrı́a no ser un ruido
blanco.
Dado que no hay valores intermedios, φ11 es tanto la autocorrelación como la autocorre-
lación parcial entre yt y yt−1 .
φ11 = ρ1
ρ1 = φ21 ρ0 + φ22 ρ1
ρ2 = φ21 ρ1 + φ22 ρ0
Nuestro objetivo es hallar φ22 . También desconocemos el valor de φ21 pero no nos intere-
sa. Sabiendo que ρ0 = 1 armamos un sistema de ecuaciones y lo expresamos en forma
matricial:
44
! ! !
1 ρ1 φ21 ρ1
=
ρ1 1 φ22 ρ2
ρ2 − ρ21
φ22 =
1 − ρ21
Si repetimos para todos los s obtenemos la PACF.
ρs − s−1
P
j=1 φs−1,j ρs−j
φss = Ps−1
1 − j=1 φs−1,j ρj
Donde:
φsj = φs−1,j − φss φs−1,s−j
∀j = 1, 2, 3, . . . , s − 1.
En un AR(p) no hay correlación directa entre yt y yt−s para s > p. Por lo tanto, todos
los φss para s > p serán nulos y la PACF se hará nula también a partir del momento
siguiente a p. Entonces, si tenemos un AR(1):
φ11 = ρ1 = a1
45
En cambio, si tenemos un M A(1) de la forma yt = t +βt−1 . Si se da que β 6= −1 entonces
yt
podremos escribir 1+βL
= t . Desarrollando:
La PACF no se irá a cero abruptamente sino que irá decayendo paulatinamente. Si β < 0
lo hará de forma directa, mientras que si β > 0 lo hará oscilando.
β1
φ11 = ρ1 =
1 + β12
β12
ρ2 − ρ21 0− (1+β12 )2
φ22 = = β12
6= 0
1 − ρ21 1− (1+β12 )2
φ33 6= 0
A) EJEMPLO NUMÉRICO
ρ0 = 1
(1 + a1 β1 )(a1 + β1 ) (1 + 0, 49)(−0, 7 − 0, 7)
ρ1 = 2
= = −0, 8445
(1 + β1 + 2a1 β1 ) 1 + 0, 49 + 2(0, 49)
Además sabemos que ρs = a1 ρs−1 por lo que las correlaciones siguientes se pueden calcular
como ρi = −0, 7ρi−1 :
ρ2 = 0, 591
46
ρ3 = −0, 414
ρ4 = 0, 290
ρ5 = −0, 203
ρ6 = 0, 142
ρ7 = −0, 010
ρ8 = 0, 070
ρ9 = −0, 049
Pero debemos encontrar algunas correlaciones cruzadas mediante φsj = φs−1,j −φss φs−1,s−j .
Para el caso de φ21 :
φ21 = φ11 − φ22 φ11 = −1, 204
Repetimos el mismo proceso para obtener φ44 recordando que antes debemos buscar φ31
y φ32 . Lo mismo para los demás.
φ44 = −0, 173
47
Resumiendo en una tabla todo lo que vimos anteriormente:
M A(1) con β > 0 Pico positivo en el lag 1, ρs = 0 para s ≥ 2 Decae oscilando φ11 > 0
M A(1) con β < 0 Pico negativo en el lag 1, ρs = 0 para s ≥ 2 Decae directamente φ11 < 0
ARM A(1, 1) con a1 > 0 Cae directamente desde lag 1. Signo ρ1 = signo a1 + β Cae oscilando desde lag 1, φ11 = ρ1
ARM A(1, 1) con a1 < 0 Cae oscilando desde lag 1. Signo ρ1 = signo a1 + β Cae desde lag 1, φ11 = ρ1 y signo φss = signo φ11
ARM A(p, q) Cae (dir. u osc.) desde lag q Cae (dir. u osc.) desde lag p
La PACF de un ARM A(p, q) comenzará a decaer a partir del lag p. El patrón de caı́da
dependerá de los coeficientes del polinomio (1 + β1 L + β2 L2 + . . . + βq Lq ). A partir de este
lag, los coeficientes de la PACF imitarán a los coeficientes de la ACF.
La ACF de un ARM A(p, q) comenzará a decaer a partir del lag q. A partir de allı́ los
coeficientes de la ACF satisfacen la ecuación ρi = a1 ρi−1 + a2 ρi−2 + . . . + ap ρp .
48
Box y Jenkins analizaron la distribución de los valores muestrales de rs bajo la hipótesis
nula de que yt es estacionario y los errores están normalmente distribuidos. Definiendo
var(rs ) como la varianza muestral de rs obtuvieron los siguientes resultados (si rs = 0):
var(rs ) = T −1 para s = 1
var(rs ) = 1 + 2 s−1 2 −1
P
j=1 j T
r para s > 1
Es muestras grandes rs estará normalmente distribuido con media igual a cero. Para los
coeficientes PACF, bajo la hipótesis nula de que se trata de un proceso AR(p) podemos
decir que la varianza de los φp+1,p+i será aproximadamente T −1 . Resumiendo, podemos
encontrar las ACF y PACF y luego hacer un test de significancia con la siguiente hipótesis
nula:
Utilizamos un intervalo de confianza del 95 %, por lo tanto para rechazar la hipótesis nula
el estadı́stico calculado debe exceder al valor de dos desviaciones estándar.
1
En el caso de s = 1 si el valor de rs calculado supera a 2t− 2 rechazamos la hipótesis nula
de que la correlación de primer orden es cero. Por lo tanto q > 0.
En el caso de s = 2 si suponemos r1 = 0, 5 y T = 100 tenemos que:
s−1
!
X
rj2 T −1 = 1 + 2r12 T −1 = 0, 015
var(rs ) = 1 + 2
j=1
p p
var(rs ) = 0, 015 = 0, 123
49
Este estadı́stico tiene algunos problemas incluso cuando se trata de muestras grandes, por
lo que Ljung y Box desarrollaron otro estadı́stico Q modificado:
s
X rk2
Q = T (T + 2)
k=1
T −k
Donde los criterios de aceptación y las hipótesis son iguales a las anteriores.
Además, estos dos estadı́sticos Q nos permiten para testear si los residuos de un modelo
ARM A(p, q) estimado se comportan como un proceso de ruido blanco. En este caso, el
estadı́stico Q se distribuye χ2 con s − p − q grados de libertad. Si incluimos la constante
o intercepto, los grados de libertad serán s − p − q − 1.
AIC = T ln(RSS) + 2n
donde:
T = observaciones
Crear nuevas variables rezagadas trae aparejado una pérdida de observaciones. Por lo
tanto, para comparar modelos, T debe permanecer fijo.
Siempre buscaremos que el AIC o el SBC sean lo más pequeños posibles. Es decir, si
tenemos que elegir entre dos modelos, utilizaremos aquel cuyo valor AIC/SBC sea menor.
Incrementar el número de variables regresoras hace aumentar n y también tiene el efecto
de reducir RSS. Si incluimos en el modelo una variable que no tiene poder explicativo,
haremos aumentar el valor de AIC y de SBC.
Generalmente, ln(T ) > 2 por lo que el costo marginal de agregar regresores es mayor en
SBC. El criterio de SBC elegirá modelos más parsimoniosos que el AIC.
50
Capı́tulo 4
Partimos de un AR(p):
yt = a1 yt−1 + . . . + ap yt−p + µt
yt − a1 yt−1 − . . . − ap yt−p = µt
yt (1 − a1 L − . . . − ap Lp ) = µp
yt A(L) = µt
A(L) es estable si A(L∗ ) 6= 0 para |L∗ | ≤ 1. Esto equivale a decir que las raı́ces están
fuera del cı́rculo unitario.
Existe un caso especial cuando L∗ = 1 y ocurre que A(L∗ ) = 0.
A(L) = A∗ (L)(1 − L)
yt A∗ (L)(1 − L) = µt
A∗ (L)∆yt = µt
51
¿A∗ (L) es estable? Sabemos que A(L) no lo era porque L∗ = 1. Ahora debemos ver las
restantes p − 1 raı́ces. En caso de que el modelo siga siendo inestable, debemos repetir el
proceso para sacar otra raı́z unitaria y ası́ sucesivamente hasta lograr la estabilidad.
Si A∗ (L) 6= 0 para |L∗ | ≤ 1 entonces ∆yt es estacionario.
Una forma de decir que yt es estacionario es:
yt ∼ I(1)
yt ∼ I(d)
A) EJEMPLO 1
Partimos de un AR(2):
yt = 1, 5yt−1 − 0, 5yt−2 + µt
P
No es estacionario porque ai = 1, es decir, hay al menos una raı́z unitaria.
Buscamos las raı́ces, para lo cual trabajamos con la inversa:
1 − 1, 5L + 0, 5L2
Hacemos Baskara: √
∗ −b ± b2 − 4ac
L =
2a
√
∗ 1, 5 ± 0, 25
L =
1
L∗ = 1, 5 ± 0, 5 → L1 = 2 y L2 = 1
Entonces:
(1 − 1, 5L + 0, 5L2 )yt = µt
52
B) EJEMPLO 2
yt = a1 yt−1 + t
E(yt ) = µ
E(yt2 ) = σ 2
E(yt − y0 )(yt−1 − y0 )
ρ1 = p p
E(yt − y0 )2 E(yt−1 − y0 )2
cov(yt , yt−1 )
ρ1 =
σyt σyt−1
Vamos a probar que σy2t 6= σy2t−1 . La solución homogénea es:
yt − yt−1 = 0
yth = Aαt
α=1
yth = A
La solución general:
∞
X
ytg =A+ t−i
i=0
53
Reemplazando en la solución general:
" ∞
# ∞
X X
yt = y0 − t−i + t−i
i=0 i=0
t
X
yt = y0 + i
i=1
var(yt ) = E[(yt − y0 )2 ]
" t
#2
X
var(yt ) = E i
i=1
var(yt ) = tσ 2
var(yt ) = (t − s)σ 2
Entonces:
γs
ρs =
σyt σyt−s
(t − s)σ 2
ρs = √ p
tσ 2 (t − s)σ 2
r
t−s
ρs =
t
A medida que aumenta s cae la ACF , lo que confunde a Box-Jenkins. Por lo tanto queda
comprobado que en este caso no sirve la ACF .
C) EJEMPLO 3
54
Partimos de:
yt = yt−1 + t
a! = 1
yt = a1 yt−1 + t
∆yt = γyt−1 + t
El test consiste en estimar la ecuación mediante MCO y obtener el valor de γ con su co-
rrespondiente error estándar. Comparando el valor del estadı́stico t con el valor apropiado
en la tabla de Dickey Fuller vamos a aceptar o rechazar la hipótesis nula. El estadı́stico t
es:
γ
t=
σγ
Si tenemos que |t| es mayor que el valor correspondiente en la tabla, rechazamos la hipóte-
sis nula. La tabla es la siguiente:
55
Si en las tres ecuaciones reemplazamos los valores de los respectivos procesos, los valores
crı́ticos no varı́an.
Dickey Fuller nos provee otros estadı́sticos F para probar la hipótesis conjunta, es decir,
si tenemos un Random Walk con drift la hipótesis nula será a0 = γ = 0 y la podremos
comprobar mediante φ1 . Si tenemos un Random Walk con drift y tendencia podremos
probar la hipótesis conjunta a0 = γ = a2 = 0 mediante φ2 y la hipótesis γ = a2 = 0
mediante φ3 .
RSS(Restricted)−RSS(U nrestricted)
r
φi = RSS(U nrestricted)
(T −k)
Donde:
r = número de restricciones
T = observaciones
Si el valor observado es mayor al estadı́stico, rechazo la hipótesis nula, lo que quiere decir
que las restricciones impuestas son muy fuertes.
56
4.3. Extensión del test de Dickey Fuller
Suponemos un proceso AR(p):
Al hacer esto perdimos un rezago, de p a p − 1 ya que le sacamos una raı́z. Por lo tanto:
βp = −ap
p
X
βp−1 = −(ap−1 + ap ) = aj
j=p−1
Entonces: p
X
∆yt = a0 + γyt−1 + βi ∆yt−i+1 + t
i=2
p
X
βi = aj
j=i
Si γ = 0 quiere decir que hay al menos una raı́z unitaria. Hemos visto que esto se expande
para un polinomio de orden r donde puede haber más de una raı́z unitaria.
La práctica económica nos dice que no deberı́amos encontrar más de dos raı́ces unitarias
generalmente.
57
Primero, el proceso puede contener tanto un componente autorregresivo como un compo-
nente de media móvil. Necesitamos saber como realizar el test en caso que el componente
de media móvil sea desconocido.
Segundo, no podremos estimar γ y su error estándar a no ser que todos los términos
autorregresivos estén incluidos en la ecuación estimada. Es decir, la regresión ∆yt =
a0 + γyt−1 + t es inadecuada si el proceso es un AR(p). Normalmente, el orden del pro-
ceso AR es desconocido por lo que el problema es seleccionar la cantidad de rezagos.
El tercer problema surge de que el test de Dickey Fuller considera una raı́z unitaria simple.
Sin embargo, un AR(p) tiene p raı́ces caracterı́sticas. Si hay m ≤ p raı́ces unitarias, la
serie necesita diferenciarse m veces para alcanzar la estacionariedad.
El cuarto problema surge de que puede no ser conocido el término constante o tendencia,
en caso de que exista.
¿Qué sucede con un ARM A? Si este proceso es invertible, la prueba sirve. Lo expresamos
en términos de rezagos:
A(L)yt = C(L)t
Aunque este nuevo polinomio generalmente sea de orden infinito, podremos utilizar la
técnica vista anteriormente para formar el modelo autorregresivo de orden infinito:
∞
X
∆yt = γyt−1 + βi ∆yt−i+1 + t
i=2
Como es de orden infinito, no podremos estimarla con un conjunto de datos finito. Por eso,
Said y Dickey establecieron que un ARIM A(p, 1, q) desconocido puede ser aproximado
1
por un ARIM A(n, 1, 0) de orden no mayor a T 3 . Donde T es la cota superior del número
de rezagos.
Incluir muchos rezagos implica estimar más parámetros y en consecuencia perder grados
de libertad, ya que el número de observaciones disponibles cae. Pero incluir muy pocos
rezagos nos hacen obtener no tan buenas estimaciones de γ y su error estándar.
En este caso podemos comenzar con una cantidad de rezagos alta e ir disminuyendo a
medida que las pruebas t o F nos lo requieran. Por ejemplo, si estimamos una ecuación
58
con n∗ rezagos y tenemos que ante una prueba t el estadı́stico es insignificante para algún
valor crı́tico, reestimaremos la ecuación con n∗ − 1 rezagos y ası́ sucesivamente.
Graficar los residuos es una herramienta más interesante. No deben mostrar ninguna
evidencia de cambio estructural ni de correlación. La función ACF debe darnos un proceso
de ruido blanco.
El problema de raı́z unitaria viene dado por el Error Tipo II (probabilidad de aceptar la
hipótesis falsa), ya que puede aceptar la hipótesis de raı́z unitaria cuando no lo es. En
definitiva, quiere decir que el test no tiene potencia. Para ello hay que cuidar el número
de rezagos a la hora de especificar el modelo. Esto se soluciona con un estadı́stico t o F .
59
Capı́tulo 5
yt = A1 yt−1 + . . . + Ap yt−p + µt
Donde los Ai son matrices de orden KxK y el término de error µt = (µ1t , . . . , µkt ).
Se asume que el error tiene media cero, es un proceso de ruido blanco y la matriz de
covarianzas es definida positiva, independiente del tiempo y tiene la forma:
! !
2
X µ 1t
σ 1 σ 1k
E(µt , µ0t ) = µ=E µ1t µkt =
µkt σk1 σk2
Det(IK − A1 z − . . . − Ap z p ) 6= 0
para |z| ≤ 1.
Esto nos dice que las raı́ces están fuera del cı́rculo unitario. Si Det = 0 para z = 1 tenemos
al menos una raı́z unitaria. Esto nos dice que algunas o todas las variables son integradas.
Primero asumimos que son a lo sumo I(1). Si existe un término de tendencia estocástica,
es posible que haya combinaciones lineales que sean I(0). En este caso se dice que son
cointegradas. En otras palabras, un conjunto de variables I(1) es cointegrado si existe una
combinación lineal que sea I(0).
60
y1t = a10 + a11 y1,t−1 + a12 y1,t−2 + µ1t
Matricialmente: ! ! ! !
y1t a10 a11 a12 y1,t−1
= +
y2t a20 a21 a22 y2,t−1
Ecuación homogénea: ! ! !
y1t a11 a12 Ly1t
=
y2t a21 a22 Ly2t
! ! ! !
1 0 y1t a11 a12 y1t
=L
0 1 y2t a21 a22 y2t
" ! !# !
1 0 a11 a12 y1t
− =0
0 1 a21 a22 y2t
(IK − A1 L)yt = 0
Comprobamos la estabilidad:
[A − λI]u = 0
B) EJEMPLO NUMÉRICO
!
0, 7 0, 2
A1 =
0, 2 0, 7
" ! !#
1 0 L0, 7 L0, 2
Det −
0 1 L0, 2 L0, 7
!
1 − L0, 7 −L0, 2
Det
−L0, 2 1 − L0, 7
0, 45L2 − 1, 4L + 1 = 0
61
Resolviendo por Baskara:
L1 = 2
L2 = 1, 1
Ambas están fuera del cı́rculo unitario por lo tanto el modelo es estable. Si me hubiese dado
una raı́z unitaria, al menos una de las variables es integrada de orden uno. Recordemos
que el supuesto es que a lo sumo es I(1).
yt = A1 yt−1 + . . . + Ap yt−p + µt
Pero esta no es la mejor forma de expresarlo si queremos ver las relaciones de cointegración
ya que no aparecen explı́citamente. Usamos la forma V ECM :
Donde:
Π = (IK − A1 − . . . − Ap )
Γi = −(Ai+1 + . . . + Ap )
A1 = Γ1 + Π + IK
Ai = Γi − Γi−1
para i = 2, . . . , p − 1.
Ap = −Γp−1
rk(α) = rk(β) = r
62
Π = αβ 0
El rango nos indica cuantas relaciones existen entre las variables. La matriz β es la matriz
de cointegración, mientras que α es la loading matrix.
A) CASOS ESPECIALES
5.3. Estimaciones
Suponemos que la cantidad de rezagos y el rango de cointegración son conocidos. Dado
el modelo V AR:
t
X
yt = Ai yt−i + µt
i=1
y1 , y2 , . . . , yT
Y valores premuestrales:
yi , y−p+1 , . . . , y0
Variables
Entonces:
p−1
X
∆yt = Πyt−1 + yt−i + µt
i=1
63
∆yt = (∆y1 , . . . , ∆yT )
Matricialmente: !
∆y11 ∆y1T
∆Y =
∆yk1 ∆ykt
Y−1 = yt−1 = (y0 , . . . , yT −1 )
Es de orden KxT . !
y10 y1,T −1
Y−1 =
yk0 yk,T −1
El error:
U = (u1 , . . . , uT )
Es de orden KxT .
Parámetros
Γ = (Γ1 , . . . , Γp−1 )
X = [X0 , . . . , XT ]
∆y−p+2
∆Y = ΠY−1 + ΓX + U
∆y11 , . . . , ∆y1T y10 , . . . , y1,T −1 0y , . . . , yT −1
... = Π . . . + Γ−1 . . . Γp−1 . . . +U
∆yk1 , . . . , ∆ykT yk0 , . . . , yk,T −1 y−p+2 , . . . , yT −p+1
∆Y − ΠY−1 = ΓX + U
64
El estimador de MCO es el siguiente:
∆Y M = ΠY−1 M + Û
Donde M = I − X 0 (XX 0 )−1 X la cual es simétrica e idempotente. Esto nos dice que
limpiamos los efectos de corto plazo sobre ∆Y . Reflejan el efecto de largo plazo.
Hasta ahora supusimos que el rango de cointegración r está dado y 0 < r < K. Esto
significa que no es de rango completo y decimos que es singular. Por lo tanto tendremos
cuantas α y β queramos.
Ahora buscamos Π̂ donde rk(Π̂) = r.
βY−1 M
Son los residuos obtenidos luego de limpiar los efectos de corto plazo. Es una variable
conocida.
Siguiendo a Johansen debemos definir:
S00 = T −1 ∆Y M ∆Y 0
S01 = T −1 ∆Y M Y−1
0
0 −1
Det(λS11 − S01 S00 S01 ) = 0
0 −1
λi S11 bi = S01 S00 S01 bi
65
El estimador de rango reducido de Π = αβ 0 se obtiene utilizando los primeros r vectores
caracterı́sticos:
β̂ = [b1 , . . . , br ]
0
α̂ = ∆Y M Y−1 β̂(β̂ 0 Y−1 M Y−1
0
β̂)−1
∆Y M = αM = αβ̂ 0 Y−1 M + Û
Bajo ciertas restricciones (Gaussianas) podemos afirmar que estos son estimadores máxi-
mo verosı́miles condicionados a los valores premuestrales.
Ω̂(β)
Π = αQQ−1 β 0
0
Por ejemplo, defino Q = βrxr y buscamos la submatriz de β.
0 0 0
βrk = [βrxr ; β2r(k−r) ]
66
Entonces:
αβ 0 = α̃β̃ 0
0
αβ 0 = (αQ)(βQ−1 )
0
αβ 0 = αβ10 β2−1 β
0
αβ 0 = α̃β1−1 [β10 ; β20 ]
0
αβ 0 = α̃Ir ; β1−1 ; β20
αβ 0 = α̃Ir ; β̃ 0
De esta forma identificamos β de una forma especial. Intentamos que quede una matriz
identidad IK :
0 0
βrxk = [Ir ; βk−r ]
A) EJEMPLO
! ! !
∆cct α11 cc
t−1
= β11 β21
∆ttt α21 ttt−1
Donde k = 2 y r = 1.
0
β1x2 = [I; β1x(2−1) ]
!
cc
t−1
β 0 yt−1 = I β12
ttt−1
βyt−1 = cct−1 + β12 ttt−1 = cct−1
cct−1 ∼ I(0)
Donde β12 debe ser negativa para que sea definida positiva.
67
Capı́tulo 6
Estos shocks son estructurales ya que reflejan las variables económicas y además son
ortogonales entre si, lo cual nos dice que están incorrelacionados.
yt = A−1 A∗1 yt−1 + A−1 A∗2 yt−2 + . . . + A−1 A∗p yt−p + A−1 vt
|IK − A1 Z − A2 Z 2 − . . . − Ap Z p | =
6 0
para |z| ≤ 1.
68
6.3. Forma final del VAR (Función impulso-respuesta)
Partimos de:
yt = A1 yt−1 + A2 yt−2 + . . . + Ap yt−p + µt
Le aplicamos rezagos:
yt = (A1 L + A2 L2 + . . . + Ap Lp )yt + µt
A(L)yt = µt
tal que:
Φ(L)A(L) = IK
Esta es la forma final. Los coeficientes me dan la respuesta de yt ante un shock. Es decir,
Φs me da la respuesta yi,t+s ante un shock en yit .
IK = Φ(L)A(L)
IK = (Φ0 + Φ1 L + Φ2 L2 + . . .)(IK − A1 L − . . . − Ap Lp )
s
X
2
IK = Φ0 + (Φ1 − Φ0 A1 )L + (Φ2 − Φ1 A1 − Φ0 A2 )L + . . . + (Φs − Φs−j Aj )Ls
j=1
Φ0 = IK
Φ1 = Φ0 A1
Xs
Φs = Φs−j Aj
j=1
69
Los coeficientes se determinan de manera recursiva.
Ψs = A−1 BΦs
Por lo tanto tengo que identificar A y B para ir de un shock observado a uno estructural.
A) EJEMPLO
! ! ! ! ! !
y1t −0, 4 0, 3 y1,t−1 0, 1 0, 2 y1,t−1 µ1t
= +
y2t 0, 3 −0, 2 y2,t−2 −0, 15 −0, 2 y2,t−2 µ2t
Donde K = 2 y p = 2. La condición de estabilidad es:
! ! !
1 0 −0, 4 0, 3 0, 1 0, 2
2
− Z− Z 6= 0
0 1 0, 3 −0, 2 −0, 15 −0, 2
Z2 = −0, 28i
Z3 = 1, 95 + 0, 79i
Z4 = 1, 95 + 2, 74i
|Z3 | = |Z4 | = 2, 33
70
!2 ! !
−0, 4 0, 3 0, 1 0, 2 0, 35 0, 02
Φ2 = =
0, 3 −0, 2 −0, 15 −0, 2 −0, 33 −0, 03
!3 ! ! !
−0, 4 0, 3 −0, 4 0, 3 0, 1 0, 2 −0, 114 0, 091
Φ3 = +2 =
0, 3 −0, 2 0, 3 −0, 2 −0, 15 −0, 2 0, 171 −0, 73
Aµt = Bt
A) EJEMPLO
Si tengo:
9 4 3
X
=
4 8 7
3 7 1
Entonces:
k(k + 1) 3(3 + 1)
= =6
2 2
La cantidad de restricciones a imponer es:
k(k + 1) k(k + 1)
2k 2 − = k2 +
2 2
A = LL0
A = I2
71
B → es triangular inferior
Entonces:
Aµt = Bt
! ! !
µ1t b11 0 1t
=
µ2t b21 b22 2t
µ1t = b11 1t
El shock 1t influye solo en µ1t en el momento del impacto, mientras que el shock 1t + 2t
influye sobre la segunda variable.
También podriamos haber supuesto, sin pérdida de generalidad:
72