Documente Academic
Documente Profesional
Documente Cultură
Univariado (o Univariante)
t, k, m,
valores enteros
cualquiera.
Ejemplos.
1. El proceso autorregresivo de orden 1, denotado por AR(1). Se dice que una serie
de tiempo xt sigue un proceso AR(1) si se puede escribir como
xt= m + xt-1 + ut
donde el trmino de perturbacin ut es un proceso de ruido blanco, es decir ut
proceso estocstico estacionario con E(ut)=0, var(ut)= y Cov(ut, ut+k)=0.
2
m es una constante,
| |< 1 .
(1)
veremos ms adelante.
3. Es posible que ut no sea ruido blanco, y que por lo tanto responda a una estructura
ms complicada. Generalmente ut se especifica como un proceso de medias mviles
MA(q), el cual se define como
ut = t - 1t-1 - 2t-2 - ... - qt-q
(2)
Ct = 0+1Yt+2Ct-1+ut
Yt Ct+It
donde C, Y, I denotan consumo, ingreso, e inversin
Matemticamente, este sistema de dos ecuaciones y tres variables permite
explicar dos variables cualesquiera en trminos de la tercera variable. En
economa, tradicionalmente se considera que C y Y estn determinadas por los
movimientos de I y de la perturbacin.
Ct -
Yt -
0 + 1 + 1
2
Ct 1 =
It
ut
1 1
1 1 1 1
1 1
1
1
0
2
+
(I t 2I t 1) +
Y t 1 =
ut
1 1
1 1 11
1 1
Para este sistema, puede probarse que cada variable endgena tiene el mismo
componente autorregresivo de orden tres. La naturaleza del trmino de
perturbacin en la ecuacin AR depende de las variables exgenas del
sistema. El clculo de estas ecuaciones por sustituciones algebraicas es muy
tedioso. El manejo matricial y el operador de rezagos pueden simplificar este
trabajo.
EL OPERADOR DE REZAGOS
Dada la serie de tiempo xt, se define el operador de rezagos L como
L(xt) Lxt = xt-1
Adems
L2xt L(Lxt) = xt-2
En general
Lsxt= xt-s
Observe que
(1-L)xt = xt-xt-1=xt
donde es llamado el operador de primeras diferencias.
Es usual hablar de A(L) como un polinomio
ejemplo:
A(L)=1-L es un polinomio de grado 1 en L
A(L)=1-1L-2L2 es un polinomio de grado 2 en L
En el manejo de los operadores de rezagos es importante manejar el inverso
de A(L). Por ejemplo, considere A(L)=1-L, entonces
(1-L)(1+L+2L2+3L3+... +pLp)=1-p+1Lp+1
ahora, cuando p y <1 se tiene que p+1Lp+1 0
Por lo tanto
(1-L)(1+L+2L2+3L3+... )=1
luego
1
=1+L+2L2+3L3+...
1 L
de donde
1
1 2 L 0
0
1 1L(1 L )
1
1
Ct 0 0
ut
1
=
It 0 0 G + v t
Y t 0 1 t 0
o, en forma abreviada
A(L)xt=Bzt+wt
(a)
donde
1
1 2 L 0
A(L)=
1 1L(1 L )
0
1
1
1
es una matriz 3x3 con elementos que son polinomios, algunos de orden cero en
el operador rezago, xt es un vector de 3x1 que contiene a las variables endgenas
Ct, It y Yt; B es una matriz de 3x2 de constantes algunas de ellas ceros, zt es otro
vector de 2x1 que contiene a 1 y la variable exgena Gt y wt es el vector de 3x1 de
perturbaciones.
Ahora, si queremos despejar a xt en el modelo anterior, es necesario invertir la
matriz inversa A-1(L) de A(L), donde
A-1(L)=
1
C(L)
A(L)
A(L )
xt=
1
C(L){C(L)Bzt+C(L)wt}
A(L)
A(L ) xt=C(L)Bzt+C(L)wt
Se puede probar que
LAS
FUNCIONES
DE
AUTOCOVARIANZA,
AUTOCORRELACIN
donde k=0, 1, 2,
Esto implica que en la prctica basta con conocer el lado positivo de la funcin.
La funcin de autocorrelacin (ACF): El coeficiente de autocorrelacin de
orden k mide
La grfica de
0 =1
| k | 1
respecto a k=0. Esto implica que en la prctica basta con conocer el lado
positivo de la funcin.
La funcin de autocorrelacin parcial (PACF): El coeficiente de autocorrelacin
parcial de orden k mide el tipo y el grado de asociacin lineal que existe entre
los trminos xt y xt+k de la serie de tiempo, eliminando la influencia lineal de los
trminos de la serie entre los perodos t y t+k . Se define como:
kk = Cor( xt , xt + k | xt +1 ,..., xt + k 1 )
su comportamiento est
ESTIMACIN
DE
LAS
FUNCIONES
DE
AUTOCOVARIANZA,
k
donde
nk
t =1
t = k +1
( xt x )( xt + k x ) / n = ( xt x )( xt k x ) / n
=
n
x = xt / n .
t =1
La grfica de
k / 0
nk
t =1
t =1
( xt x )( xt + k x ) / ( xt x )2
k se
de donde se obtiene 11 = 1
para los
modelos AR, MA, ARMA. Despus se comparan estos patrones con los calculados
empricamente para la serie que se est analizando. Con base en esta informacin (la
terica y la emprica) se trata de seleccionar algunos modelos ARMA para despus
realizar las estimaciones y la validacin estadstica.
PROCESOS AUTORREGRESIVOS, AR
El Proceso AR(1)
Recordemos que un proceso AR(1) est dado por
yt = m + yt-1 + t
donde t es ruido blanco.
i =0
i =0
yt=m i + i t i
Asumiendo que <1
yt =
m
+ i t i
1 i =0
m
1
2
y = 0 =
1 2
xt = xt-1+t.
1
2t
E(xt xt-1)= E(
)+E(xt-1t)
donde E(xt-1t) =0, puesto que xt-1 depende nicamente de t-1, t-2, y no de t. Como
t es ruido blanco entonces no est correlacionado con t-1, t-2,
De la ecuacin anterior se obtiene
1 = 0
y, en general
k = k 1 = 2 k 2 = ... = k 0
para k=0,1,2,
Para un AR(1) las autocorrelaciones estn dadas por
k =
k
k-1
=
= k -1 = k k=1, 2, ...
0
0
Observe
que
las
propiedades
= 0.8
de
media
constante,
varianza
constante
Recuerde que dada la serie x1, x2, ..., xt-k, xt-k+1, ...xt, ..., el coeficiente de correlacin
parcial entre xt-k y xt, est dado por el coeficiente de correlacin entre xt-k y xt
despus de eliminar la influencia lineal
= 0.8
= 0.8
= 0.8
El proceso AR(2)
El proceso AR(2) se define como
yt = m + 1yt-1 + 2yt-2 + t
Asumiendo estacionaridad se tiene que
E[yt] = E[yt-1] = E[yt-2] =
de donde
=
m
1 1 2
1= 0
2=
1
0 +20
1 2
0=
(1 2) 2
(1 + 2 )(1 1 2 )(1 + 1 2)
Bajo estacionaridad esta varianza debe ser constante. Como 0 debe ser un nmero
positivo se debe cumplir que
1-2>0
1+2>0
1-1-2>0
1+1-2>0
luego
1+2<1
2-1<1
-1< 2< 1
1
1 2
2=
1 +
2
1 2
1 + 1 + 4 2
2
2
1=
1 1 + 4 2
2
2
2=
A-1(L)=
1
c
d
=
+
(1 - 1L)(1 2 L) 1 - 1L 1 2 L
Donde
c=
2 1
y d=
2
2 1
xt= A-1(L)t =
c
1 - 1L
t +
d
1 2 L
Por analoga con el procesos AR(1) para que xt sea estacionaria se debe dar que
1<1 y 2<1
Estas condiciones son equivalentes a las derivadas anteriormente, es decir, un
proceso AR(2) es estacionario si las races de la ecuacin 2-1-2 =0 son tales que
1<1 y 2<1, o equivalentemente, si 1+2<1, 2-1<1 y -1< 2< 1.
2 =h-vi
donde
h=
(12 + 4 2)
1
v=
i = - 1 , i2 = -1
2
2
j= h2 + v 2 = -2, j=1, 2
lo cual indica que para 0 < 2 < 1 es la condicin para que el correlograma presente
ondas sinusoidales decrecientes.
En conclusin para que un proceso AR(2) sea estacionario se debe cumplir que
1<1
2<1
1
1 2
22=2
kk=0 k3
Grficamente,
PACF de un AR(2)
El proceso AR(p)
El proceso AR(p) se define como
yt = m + 1yt-1 + 2yt-2 ++ pyt-p + t
Este proceso se puede escribir como
yt -1Lyt + 2L2yt ++ pLpyt = m + t
(1 - 1L - 2L2 -- pLp) yt = m + t
A(L) yt = m + t
donde A(L) = 1 - 1L - 2L2 -- pLp es un polinomio de orden p en potencias de L.
Asumiendo estacionaridad se tiene que
E[yt] = E[yt-1] = E[yt-2] = = E[yt-2] =
de donde
=
m
1 1 2 ... p
= 1
k 1 + 2 k 2 ++ p k p
si k 1
Esto indica que la ACF sigue una ecuacin en diferencias de orden p con un polinomio
A(L) igual al del proceso AR(p). Bajo estacionaridad del proceso, la solucin de esta
PACF de un AR(p)
0
0
kk=
donde
kp
k >p
p = pp .
xt=
t
=(1+L+2L2+...)t =t +t-1+2t-2...
1 L
El proceso MA(1)
Un proceso MA(1) sigue la especificacin
xt = t - 1t-1
Para este proceso:
E[xt] = 0
2
var(xt) = 0 = 2 (1+ 1 )
Autocovarianzas:
1 = E[xtxt-1] = - 1 2
2 =
...
= k = 0
Autocorrelaciones:
1 =
1 + 12
k = 0
K>1
Ahora un proceso MA(1) puede ser invertido y expresado por lo tanto como un AR().
Como
xt = t - 1t-1 = (1-1L)t
se tiene que
t =
x t = x + x + 2 x + ...
1 t-2
t
1 t-1
1 - 1L
Luego
2
var(xt) = 0 = 2 (1+ 1 + 2 )
Autocovarianzas
1 = E[xtxt-1] = - 2 ( 1 - 12)
2 = -2 2
k = 0
k3
Autocorrelaciones
1 =
2 =
(1 1 2)
1 + 12 + 22
2
1 + 12 + 22
k = 0
k3
ACF de un MA(2)
Para que un proceso MA(2) sea invertible se deben cumplir condiciones similares a las
que debe tener un proceso AR(2) para que sea estacionario. Luego un MA(2) ser
invertible si
1+2<1
2-1<1
-1< 2< 1
donde
A(L)=1-1L-2L2 - ... -pLp y B(L)=1-1L-2L2 - ... -qLq
E[yt] =
m
=
1 - 1 2 p
Luego
m = (1-1-2 - ... -p)
Si xt = yt - se tiene que
xt=1xt-1+2xt-2+ ... +pxt-p+t - 1t-1 - 2t-2 - ... - qt-q
de donde
A(L)xt =B(L)t
Las condiciones de estacionaridad requieren que las races de A(L)=0 se encuentren
fuera del crculo unidad de manera equivalente, que las races de la ecuacin
caracterstica se encuentran dentro del crculo unidad.
invertible las races de B(L) deben cumplir la condicin anterior. Bajo estas dos
condiciones un ARMA(p, q) se puede representar como un AR() o un MA(), es decir
xt = A-1(L)B(L)t es la representacin MA()
B-1(L)A(L)xt =t es la representacin AR()
El proceso ARMA(1,1)
Un proceso ARMA(1,1) est dado por
xt=xt-1+t - t-1
(1-L)xt =(1-L)t
Condiciones de estacionaridad: ||<1 1/||>1
Condiciones de invertibilidad : ||<1 1/||>1
Se puede probar que
0 =
2
2
(1 - 2 + )
1 - 2
|| <1
1 =
( - )(1- )
1 - 2
2
2 = 1
3 = 2 = 21
.
.
.
K = k-1 = k-11
Luego el ACF de un ARMA(1,1) est dado por
1 =
(-)(1-)
1-2+ 2
PACF
AR(p)
Convergencia a cero
MA(q)
Convergencia a cero
1/n
= n rk
~ N(0,1)
H0 se rechaza si n r k 2 o
si rk 2 / n
Ejemplo.
El correlograma muestral de una serie de tiempo est dado por
Las bandas indican que los rk< 2 / n . Se concluye que el proceso que gener los
datos de la serie parece ser un proceso de ruido blanco.
Identificacin de un proceso MA(q). Si el proceso que gener la serie es un proceso
MA puro, tericamente la ACF debe tener un corte desde el rezago q+1 y la PACF
decrece hacia cero. El correlograma muestral nos ayuda a identificar el posible orden q
del proceso ya que si el MA fuera de orden q, las autocorrelaciones de orden k con
k>q no seran significativamente distintas de cero.
Para un proceso MA(q), se ha probado que para k>q se tiene que
rk
~ N(0, var(r ))
k
donde
q
var(rk)
1+2 r 2j
j=1
k>q
Se observa que la PACF decrece hacia cero y que la PACF se anula estadsticamente
a partir de k=2. Por tanto el proceso que gener los datos parece ser un MA(1).
Identificacin de un modelo AR(p). Si el proceso es un AR(p), tericamente su ACF
decrece hacia cero y su PACF tiene un corte a partir del rezago p+1. Una herramienta
grfica que puede facilitar la identificacin del orden p de un AR puro es la PACF
muestral.
De nuevo es importante desarrollar las pruebas de hiptesis
HO: kk = 0
H1: kk 0
Para un proceso AR(p) se prueba que, para k>p, kk
~ N(0, 1/n).
Se observa que la ACF decrece hacia cero y que la PACF se anula estadsticamente
desde el rezago k=2. . Por tanto el proceso que gener los datos parece ser un AR(1).
Identificacin de un modelo ARMA(p,q).
Si el proceso es un ARMA(p,q), tericamente tanto su ACF como su PACF decrecen
hacia cero. Sin embargo, en general no es fcil seleccionar los rdenes p y q con base
en el ACF y el PACF muestral debido a que las propiedades anteriores ya no son
vlidas. Una recomendacin para esta situacin es estimar un conjunto de modelos
(modelos ARMA con bajos rdenes p y q), de estos, seleccionar los que se pueden
validar (con base en pruebas de diagnstico) y por ltimo, con base en criterios de
seleccin de modelos escoger el mejor.
Ejemplo.
El correlograma muestral de una serie de tiempo est dado por
Se observa que tanto la ACF como la PACF parecen converger hacia cero.
Esto conduce a pensar que el modelo generador de los datos es un ARMA. Sin
embargo, sus rdenes no pueden ser derivados de la ACF y PACF. En la
prctica se proponen diferentes rdenes p y q (generalmente bajos) y se
estiman los modelos. Se elige el mejor modelo (validado) con base en criterios
de informacin.
EJERCICIOS DE SIMULACIN
Series estacionarias Autorregresivas
Simulacin de un proceso AR(1)
Macro en EVIEWS:
'creacin de un archivo de trabajo
workfile u 1 2050
'asignacin de la semilla para la generacin de los nmeros aleatorios normales
'rndseed 8931
'simulacin de un AR(1) estacionario con m=5, alfa=0.7
'----------------------------------------------------------------------------------------------------------'asignacin de los parmetros del proceso
'para simular diferentes AR(1) basta cambiar los siguientes valores.
'observe que un proceso de ruido blanco se obtiene cuando alfa=0.
scalar m=5
scalar alfa=0.7
scalar desv=2
'generacin del trmino de error normal(0,4)
genr e= desv*nrnd
'generacin inicial con ceros de la serie que va a contener los datos del AR(1)
Resultados:
Y1
28
24
20
16
12
8
75
00
25
50
75
00
25
16.57699
16.41018
24.81734
10.95989
2.555810
0.139166
2.702382
1.729642
50
75
00
0.421127
4144.247
1626.509
250
Simulacin de un AR(2)
Macro en EViews
'creacin de un archivo de trabajo
workfile u 1 2050
'asignacin de la semilla para la generacin de los nmeros aleatorios normales
'rndseed 8931
'simulacin de un AR(2) estacionario con m=5, alfa1=0.5, alfa2=0.3
'----------------------------------------------------------------------------------------------------------'asignacin de los parmetros del proceso
'para simular diferentes AR(2) basta cambiar los siguientes valores.
scalar m=5
scalar alfa1=0.5
scalar alfa2=0.3
scalar desv=2
'generacin del trmino de error normal(0,4)
genr e= desv*nrnd
'generacin inicial con ceros de la serie que va a contener los datos del AR(1)
genr y2=0
'generacin del valor inicial: se asigna la media del proceso mu=m/(1-alfa)
smpl @first @first+1
y2=m/(1-alfa1-alfa2)
'generacin de los valorres restantes
smpl @first+2 @last
genr y2=m+alfa1*y2(-1)+alfa2*y2(-2)+e
smpl @all
'para observar el efecto del tamao muestral sobre la ACF y PACF muestrales cambie el valor de n1.
Resultados:
Y2
34
32
30
28
26
24
22
20
18
16
75
00
25
50
75
00
25
24.90203
24.51606
34.24438
16.77101
3.295266
0.184754
2.670591
2.552575
0.279071
6225.507
2703.836
250
50
75
00
Resultados:
Y1
12
10
8
6
4
2
0
-2
1800
1850
1900
5.051787
5.242392
11.03352
-0.898052
2.467722
-0.043227
2.276032
5.537538
0.062739
1262.947
1516.324
250
1950
2000
1850
1900
4.964349
5.028957
11.55599
-2.198414
2.486284
-0.017241
2.995421
0.012604
0.993718
1241.087
1539.221
250
1950
2000
Resultados:
Y1
24
22
20
18
16
14
12
10
8
1850
1900
1950
16.75472
16.61422
22.22004
9.971558
2.183833
-0.064173
3.080570
0.239208
0.887272
4188.679
1187.512
250
2000
2050
PRUEBAS DE ESTACIONARIDAD
Antes de proceder a calcular la media, la varianza y las funciones de autocovarianzas
y autocorrelacin se debe verificar si la serie es estacionaria.
Dada una serie de tiempo y1, y2, ..., yn , tradicionalmente, existen dos mtodos para
detectar si una serie es estacionaria o no:
Anlisis subjetivo.
Anlisis de la grfica de la serie.
Este anlisis muestra como evoluciona la serie en el tiempo. A un nivel intuitivo
podemos pensar que la serie es estacionaria si est oscilando alrededor de su valor
medio y si se observa estabilidad en la varianza. Es bueno tener en cuenta que esta
inspeccin visual puede no ser muy clara en muchos casos.
1900
1950
2000
generaron series de 200 observaciones de las cuales se descartaron las primeras 100.
La serie Y5 es otro ejemplo de paseo aleatorio con deriva con un conjunto diferente
de parmetros.
Se observa que la ACF muestral decrece pero no tan rpido como en el AR(1)
estacionario. Sin embargo, el patrn de comportamiento no es muy diferente del de
Y1, debido a que su parmetro est muy cerca de 1. Esto indica que mientras ms
cerca est a 1 por la izquierda (o, equivalentemente, ms cerca de uno se encuentre
el mdulo de la raz del polinomio AR)
Observe
SERIES INTEGRADAS
Una serie de tiempo no estacionaria que para ser transformada en una estacionaria
se debe diferenciar, se le denomina serie integrada (o serie no estacionaria
homognea).
El orden de integracin es el mnimo nmero de veces que la serie debe ser
diferenciada para que alcance la estacionaridad. En este caso se dice que la serie es
un proceso autorregresivo y de medias mviles integrado. Este proceso se denota por
ARIMA(p, d, q), donde d es el orden de integracin. Su especificacin es
Por ejemplo, un
ut + j = t [1+(-1)
j =0
1 s
]= st
1
t+ j =
ut+s- ut-1
j =0
Por lo tanto
ut+s= ut-1+st
De esta forma, en un modelo TS el efecto de la innovacin t sobre las desviaciones
de la tendencia disminuyen hacia cero, siempre y cuando <1, a medida que nos
alejamos en el horizonte (s crece).
Para el caso de una serie DS, en la cual =1, se tendra que ut=t y en este caso
ut+s=ut-1+ t
Luego t tiene un efecto permanente sobre las desviaciones sucesivas de la tendencia.
Los resultados anteriores se pueden obtener de una forma ms simple, expresando a
ut en trminos de las innovaciones
ut = t + t-1 + 2t-2+
y por lo tanto
ut + s s
=
t
De esta ecuacin se obtienen los resultados anteriores de de acuerdo a si
||<1 o si
=1.
La comparacin entre series TS y DS ha sido desarrollada en trminos de modelos
con una especificacin muy simple. Estas situaciones pueden ser analizadas para
procesos ms complejos. De manera general, podemos tener modelos de la forma
yt - 0 - 1t = ut, donde A(L)ut = B(L)t
donde A(L) y B(L) son polinomios de orden p y q en el operador rezago. Cuando todas
las races del polinomio A(L) se encuentran fuera del circulo unidad, las desviaciones
Los correlogramas anteriores proporcionan un fuerte soporte de que las series son
estacionarias.
Sin embargo, anteriormente vimos que DY4 es un proceso ARMA(1,1) y a primera
vista parece sorprendente que ni las autocorrelaciones de bajo orden son
significativas. Esto se debe al siguiente hecho: antes se prob que
1 =
Cuando
( - )( 1 - )
1 - 2 + 2
autocorrelaciones estarn cerca a cero. Este es el caso de DY4 donde =0.9 y =1.
Esto significa que si en un proceso ARMA(1,1)
( o, equivalentemente, las
= 0(1 - ) + 1 y
Observe que
t + yt-1 + t.
= 1(1 - ) .
t =
SE( )
de
DickeyFuller
para
cualquier
tamao
muestral
diferentes
p 1
y
i =1
t i
+t
rezagos hasta encontrar un estadstico significativo (se estima el modelo con p-1
rezagos y se analiza si el parmetro asociado al rezago p-1 es estadsticamente
significativo, si no lo es se estima el modelo con p-2 rezagos, y as sucesivamente).
Otros mtodos estn basados en los criterios de informacin de Akaike, Schwarz y
Hannan-Quinn (ver su definicin ms adelante), en los que se busca el nmero de
rezagos que minimice el valor de los criterios. Despus de seleccionado el nmero de
rezagos, se debe analizar si efectivamente los residuales son ruido blanco: grfico de
residuales, correlograma, prueba de Breusch - Godfrey, prueba Q de BoxLjung.
En la literatura se han propuesto otras pruebas que tratan de mejorar el desempeo de
la prueba ADF. Estas pruebas tratan de mejorar la prueba ADF cuando se presentan
problemas de autocorrelacin o de heterocedasticidad en el trmino de perturbacin.
Es importante tener en cuenta que las pruebas de races unitarias tales como la
prueba ADF y otras propuestas en la literatura, pueden ser afectadas por cambios
estructurales en las series de tiempo. Por ejemplo, Perron(1989,1990) mostr que la
aplicacin de la prueba ADF a series estacionarias
tendencia que sufren cambio estructural, podra llevar a concluir errneamente, que
Los resultados muestran que la existencia de una raz unitaria no puede ser rechazada
a un nivel significancia de 0.10. Este resultado es sorprendente puesto que el proceso
verdadero es estacionario. Sin embargo, su parmetro est muy cerca de 1. Si se
aumenta el tamao de la muestra a 200 observaciones, el estadstico DF es -3.42 y el
valor crtico para un nivel de significancia del 1% es de -3.46, lo cual conduce a
rechazar la hiptesis de raz unitaria para niveles de significacin prximos al 1%.
Ejemplo 2. Para la serie estacionaria en tendencia Y4, los resultados de la prueba se
muestran en la siguiente tabla. Para la realizacin de la prueba se emple el modelo
con tendencia lineal.
El valor del estadstico DF es -2.94, el cual falla en rechazar la hiptesis de raz
unitaria a un nivel de significancia del 10%. De nuevo, este resultado se debe a que el
valor del coeficiente AR es de 0.9. Esto ilustra la baja potencia que tiene la prueba en
puede estabilizar su
varianza.
Var ( Z t ) = cf ( t )
para alguna constante c y f positivas y f montona. En estos casos es
posible encontrar una transformacin T ( Z t ) de forma tal que Var[T ( Z t )] sea
constante.
T (Z t ) = Z
( )
t
Z t 1
si 0
= ln(Z t ) si = 0
es llamado el parmetro de la transformacin.
se obtiene como el valor que minimiza
S( )=
(Z
t =i
( )
t
( ) ) 2
Z 1
T ( Zt ) = Zt( ) = t
si 0
Z 1
= Z ln(Zt )
si = 0
1/ n
n
Slo est definida para series positivas. Sin embargo, si una serie tiene valores
negativos, la transformacin puede ser usada sumando una constante a la
serie de forma tal que se vuelva toda positiva. Esto no altera la estructura de
correlacin de la serie.
LAMBDA
ECM
-2.000 .1093E+06
-1.900 94221.289
-1.800 81575.164
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
-.900
-.800
-.700
-.600
-.500
-.400
-.300
-.200
-.100
.000
.100
.200
.300
.400
.500
.600
.700
37
38
39
40
41
1.600
1.700
1.800
1.900
2.000
29170.873
27003.977
25220.502
23772.451
22621.273
21736.520
21094.795
20678.969
20477.582
20484.469
20698.543
21123.764
21769.260
22649.650
23785.533
25204.188
26940.527
68672.359
78627.086
90492.766
.1047E+06
.1216E+06
A(L)(1-B)d
y (t)
= m + B(L)t
AIC(m)=
-2(l / n ) + 2( m / n )
o el de Schwarz (1978),
SBC(m)=
-2(l / n ) + mln(n)/n
o el de Hannan-Quinn (1979),
HQ= -2(l
donde
/ n ) + 2mln(ln(n))/n
2
1
/2 2
e ( y t m y t 1)
2
LnL*= K -
n 1
1
ln(2)2
2 2
(y m y )
t=2
t 1
LnL = K-
1
n
1 2
ln(2)+1/2ln(1-2)(y1-m/(1-))22
2 2
2
2
(y m y )
t=2
t 1
t=1
t =1
S()= 2t = ( y t + t 1)
t-1= yt-1 +t-1= yt-1 +yt-2+...+t-2y1 + t-10
dS( )
es una ecuacin no lineal en ya que
d
A(L)
y B(L)
son las
igual a 1 o
estimaciones de los polinomios A(L) y B(L) . Una raz de A(L)=0
Q=n(n+2) rj
j=1
/(n-j)
j 0 , j = 1,2,...,M. Para
1
(T 1) X3
(x
1
(T 1) X4
X ) 3
X ) 4
t =1
(x
t =1
1 T
1 T
2
y
(
x
=
X
t X
xt .
T 1 t =1
T t =1
JB =
S 2 ( x) ( K ( x) 3) 2
+
6/T
24 / T
En esta primera parte solamente trataremos con la primera fuente de error (es decir,
suponiendo que se conocen los verdaderos parmetros del modelo) y se ilustrarn los
principios con algunos procesos de bajo orden.
Dada un serie de tiempo y1, y2, ..., yn y asumiendo que estas observaciones son
generadas por un proceso ARIMA(p,d,q), se quiere pronosticar a y en los perodos
n+1, n+2, ..., es decir se desea pronosticar a yn+s, s=1, 2, ..., conocida la informacin
hasta n.
. Entonces
Sea A(L)(1-L)d = ( )
y n+s =m + 1 y n+s-1 + 2 y n+s-2 + ...+ p+d y n+s-(p+d) + n+s -1 n+s-1 - 2 n+s-2 -...- q n+s-q
Tomando esperanza condicional a la informacin hasta el perodo n, el pronstico de
yn+s se puede calcular como:
E(y n+s |y n, y n-1, ...)= m + 1E(y n+s-1|y n, y n-1, ...)+ 2 E(y n+s-2 |yn, y n-1, ...)+...+
p+d E(y n+s-(p+d) |y n, y n-1, ...)+E( n+s |y n, y n-1, ...)-1E( n+s-1|y n, y n-1, ...) 2 E( n+s-2 |y n, y n-1, ...)-...- q E( n+s-q |y n, y n-1, ...)
o,
y n+s = m + 1 y n+s-1 + 2 y n+s-2 +...+ p+d y n+s-p-d + n+s -1 n+s-1 - 2 n+s-2 -...- q n+s-q
donde
si j>0
y n+j = y n+j
si j 0
n+j = 0
si j>0
si j 0
t=1, 2, ..., n
1 s s
+ yn
1
Si s
yn+ s
m
=
1
var(en+s)
= 2
y
1 2
yn+1 = -
yn+2 =
con var(en+1)= 2
con var(en+2)=(1+2) 2 = 2y
En general,
yn+ s = s 2
con var(en+s)=(1+2) 2 = 2y
yn+1 = m + yn -
con var(en+1) = 2
n
yn+2 = m + m + 2yn -
yn+3 = m + m + m2 + 3yn - 2
con var(en+s) = [1 + ( - )
1 2(s1) 2
]
1 2
1 2 + 2 2
2
var(en+s)
= y
1 2
yn +s
1 s
(yn-) + en+s
1
donde
en+s=n+s+(1+)n+s-1 + (1++2)n+s-2 + (1++2+...+s-1)n+1
El pronstico para zn+s es
zn +s = zn + s +
1 s
(yn - )
1
m
.
1-
de error
cuadrtico medio mnimo asintticamente. Sin embargo, las varianzas estimadas del
error de pronstico subestiman a los verdaderos valores debido a que la formula no
incorpora la incertidumbre en el coeficiente.
Intervalos de prediccin para yn+s
Bajo el supuesto de normalidad, la construccin de un intervalo de prediccin de
( 1 )%, para yn+s est basado en que en+s = yn+s - yn+ s ~ N(0, Var(en+s)). Debido a
Var(e
) ). Empleando este resultado, los lmites aproximados de un intervalo de
n+s
prediccin de ( 1 )% para yn+s estn dados por
) ]1/2
yn+ s z( / 2 )[ Var(e
n+s
EVALUACIN DE PRONSTICOS
Es importante evaluar la capacidad predictiva del modelo. En el trabajo aplicado con
series de tiempo es comn evaluar la capacidad predictiva de un modelo comparando
los valores observados con los pronosticados. Para desarrollar estas ideas es usual
ajustar el modelo con las T primeras observaciones y analizar luego cmo el modelo
predice las h observaciones siguientes, donde n=T+h, siendo n el tamao de la
muestra disponible. Algunas de las medidas ms empleadas son:
RMSE=
( y t y t )
t = T +1
y t y t
MAE= t =T +1
MAPE=
t = T +1
yt y t
yt
h
RMSE
TIC=
y t
t = T +1
yt
t = T +1
perfectas.
Con base en el error cuadrtico medio se definen:
PS=
( y - y)
n
( y y )
t = T +1
La proporcin de la varianza
2
PV=
( sy - sy )
n
( y y )
t = T +1
La proporcin de la covarianza
PC=
2(1 r ) sy sy
n
( y y )
t = T +1
h
donde r es el coeficiente de correlacin entre yt y y t ; y, y, sy , sy son las medias y
desviaciones estndar de yt y y t . Se puede probar que PS+PV+PC=1.
PS es una medida de la desviacin del promedio del pronstico con relacin al
promedio de la serie observada (medida del error sistemtico). Valores grandes de
PS (mayores de 0.1 o 0.2) indican que un sesgo sistemtico esta presente y por lo
tanto el modelo se debera revisar. La proporcin de la varianza nos informa la
estacional y se denota por s. Para series mensuales, generalmente s=12, para series
trimestrales s =4, para series semanales s =52, etc.
Series estacionales estacionarias
Modelos
Autorregresivos
estacionales.
Para
datos
trimestrales
de
series
i
o
k=
k = 4i i = 1, 2, ...
K 4i i = 1, 2, ...
coeficiente de xt-5. A nivel general el ACF de este proceso debe converger a cero,
presentando magnitudes altas en los rezagos 4, 8, 12, 16, .... El PACF debe tener un
Primero que todo se chequea si hay estacionalidad para decidir si es posible construir
un modelo en niveles para la serie. La inspeccin visual parece indicar que no hay
indicios fuertes de no estacionalidad. Si se emplea la prueba ADF, la hiptesis de raz
unitaria es fuertemente rechazada. En la siguiente tabla se presenta el resultado de la
prueba.
Este correlograma es similar al caso antes visto, pero donde el perodo estacional es
s=12. La autocorrelacin decrece pero vuelve a crecer en los rezagos 12, 24, 36, ,
mientras que la autocorrelacin parcial presenta picos positivos en los rezagos 1 y 13.
Este patrn sugiere que el modelo AR(1)xSAR(1)12
Los resultados muestran que todos los coeficientes son altamente significativos y que
el modelo explica aproximadamente el 86% de la variacin de la variable HS. Sin
embargo, hay una variacin residual importante. El error estndar del modelo es ms
del 11% de la media de la variable dependiente HS. Para examinar la capacidad de
pronstico del modelo para los 88 datos finales de la serie no empleados en la
estimacin, se presenta la siguiente grafica.
Tanto los dos coeficientes autorregresivos como los dos de medias mviles son
altamente significativos.
modelo.
dlog(x): primera diferencia del logaritmo natural. dlog(x) = (1-L)log(x) = log(x)log(x(-1)= log(x).