Sunteți pe pagina 1din 92

Elkin Castao Guillermo Prez

MODELACIN DE SERIES DE TIEMPO UNIVARIADAS1

Informalmente hablando, una serie de tiempo consiste de una coleccin de


observaciones ordenadas en el tiempo.

Un modelo univariado de series de tiempo relaciona el comportamiento de


una variable econmica con sus valores pasados y con valores pasados y
presentes de un trmino de perturbacin, es decir:
xt=f(xt-1, xt-2, xt-3,, ut, ut-1,..)

La ecuacin anterior significa que se desea utilizar la inercia de la serie para


explicar su comportamiento actual y as poder predecir su evolucin futura.

Este tipo de anlisis se denomina Anlisis

Univariado (o Univariante)

porque utiliza como nica informacin la propia historia de la serie,


basndose en la hiptesis central de que las condiciones en el futuro sern
anlogas a las pasadas.

Los modelos univariados son especialmente tiles para realizar pronsticos


a corto plazo, pero la serie debe ser relativamente grande. Para
pronsticos a mediano y largo plazo se deben tener en cuenta otras
variables que ayuden a explicar el comportamiento de la variable de inters.
En estos casos se utilizan mtodos de anlisis de regresin dinmica o
tambin de series de tiempo multivariadas.

A nivel terico un modelo de series de tiempo est basado en el supuesto


de que una variable econmica X, es en cada instante del tiempo t, una
variable aleatoria Xt, para la cual sus posibles valores se pueden
caracterizar por una funcin de densidad de probabilidad f(xt). A la sucesin
de estas variables aleatorias, X1, X2, X3, , Xn, observadas a intervalos
regulares de tiempo (aos, trimestres, meses, ) se le denomina proceso

Estas notas son una adaptacin del texto de Johnston y DiNardo.

Elkin Castao Guillermo Prez

estocstico. En adelante no se har distincin entre el valor observado de


la serie x1, x2, x3, , xn y el proceso estocstico X1, X2, X3, , Xn que los
gener (sucesin de variables aleatorias).

Es importante observar que hay una diferencia muy marcada en el manejo


de datos de corte transversal y los procesos estocsticos:
 En los procesos estocsticos existe un orden natural, dado por el
tiempo.
 En los datos de corte transversal es posible extraer diferentes muestras
y por lo tanto es relativamente clara la idea de que los resultados son
aleatorios.
 Cuando recopilamos un conjunto de datos de series de tiempo,
obtenemos un nico resultado posible el cual es llamado la realizacin
del proceso estocstico. En la prctica, slo podemos observar una
realizacin ya que no es posible retroceder en el tiempo para obtener
unos nuevos datos. No obstante, si hubieran sido distintas ciertas
condiciones en la historia, por lo general los resultados seran diferentes
para los valores de la serie, y es por esto que se piensa que X1, X2, X3,
, Xn son variables aleatorias.
 En general, para un conjunto de datos de series de tiempo el concepto
de muestra aleatoria no es vlido ya que, en general, X1, X2, X3, , Xn
son dependientes.

Como un punto de partida, los modelos de series de tiempo estn basados


en el supuesto de que el proceso que gener la serie empez hace mucho
tiempo y que contina indefinidamente hacia el futuro. Adems, algunos de
ellos asumen que la media y la varianza de la variable xt, t=1, 2, ..., n,
permanecen estables y que la covarianza entre xt y xt+k no depende del
tiempo sino de la separacin en el tiempo entre ellas. Esta clase de proceso
estocstico es llamado estacionario en sentido dbil.

Elkin Castao Guillermo Prez

Definicin. Se dice que una serie de tiempo es estacionaria (o


estacionaria en sentido dbil) si es estable en media, varianza y
covarianza, es decir, si para todo t:
a. E[xt]=
b. Var(xt) = 2x
c. Cov(xt, xt+k) = cov(xt+m, xt+m+k) = k

t, k, m,

valores enteros

cualquiera.

El tipo de procesos estocsticos que se desarrollarn deben tener una


propiedad adicional: deben ser dbilmente dependientes. De una manera
sencilla esta propiedad afirma que la corr(xt, xt+k) 0 cuando k , k>0,
es decir, asintticamente no se correlacionan. Intuitivamente esta propiedad
dice que a medida que las variables se distancian en el tiempo, la
correlacin se hace cada vez ms pequea. An ms, la convergencia de la
correlacin a cero debe ser lo suficientemente rpida.

Ejemplos.
1. El proceso autorregresivo de orden 1, denotado por AR(1). Se dice que una serie
de tiempo xt sigue un proceso AR(1) si se puede escribir como
xt= m + xt-1 + ut
donde el trmino de perturbacin ut es un proceso de ruido blanco, es decir ut
proceso estocstico estacionario con E(ut)=0, var(ut)= y Cov(ut, ut+k)=0.
2

m es una constante,

es otra constante tal que

| |< 1 .

En este caso xt depende nicamente de su valor pasado inmediatamente anterior y del


valor aleatorio del trmino de perturbacin, el cual generalmente es llamado
innovacin o shock.
2. Este modelo puede ser generalizado al modelo autorregresivo de orden p, AR(p), el
cual se define como

Elkin Castao Guillermo Prez


xt = m + 1xt-1 + 2xt-2 + 3xt-3 ++ pxt-p + ut

(1)

donde, como en el caso anterior, ut es proceso de ruido blanco, m es una constante y


los parmetros

son constantes que deben cumplir con ciertas restricciones que

veremos ms adelante.
3. Es posible que ut no sea ruido blanco, y que por lo tanto responda a una estructura
ms complicada. Generalmente ut se especifica como un proceso de medias mviles
MA(q), el cual se define como
ut = t - 1t-1 - 2t-2 - ... - qt-q

(2)

donde t es ruido blanco.


4. Al combinar (1) y (2) se tiene un proceso ARMA(p,q), cuya especificacin es
xt = m + 1xt-1 + 2xt-2 + 3xt-3 ++ pxt-p + t - 1t-1 - 2t-2 - ... - qt-q

Es natural preguntarnos por qu desarrollar este tipo de modelos y no tener en


cuenta las relaciones que existen entre subconjuntos de variables econmicas?

Se pueden dar las siguientes razones


 En algunos casos puede no ser muy claro cules deberan ser las variables
que se deben emplear y qu forma funcional sera la adecuada.
 Puede ser difcil tener la informacin necesaria sobre todas la variables.
 Dada una estructura propuesta (es decir, un sistema de ecuaciones que
corresponden a un modelo economtrico), puede mostrarse que a partir de ella
se obtienen ecuaciones para las variables de inters (endgenas) del sistema
que son similares a los modelos ARMA(p,q).
Por ejemplo, considere el modelo macro (muy simple) dado por

Elkin Castao Guillermo Prez

Ct = 0+1Yt+2Ct-1+ut
Yt Ct+It
donde C, Y, I denotan consumo, ingreso, e inversin
Matemticamente, este sistema de dos ecuaciones y tres variables permite
explicar dos variables cualesquiera en trminos de la tercera variable. En
economa, tradicionalmente se considera que C y Y estn determinadas por los
movimientos de I y de la perturbacin.

Por esto C y Y son denominadas

variables endgenas e I es llamada variable exgena.


Si se sustituye la segunda ecuacin en la primera, es fcil ver que

Ct -

Yt -

0 + 1 + 1
2
Ct 1 =
It
ut
1 1
1 1 1 1
1 1

1
1
0
2
+
(I t 2I t 1) +
Y t 1 =
ut
1 1
1 1 11
1 1

De esta forma C y Y tienen ambas un componente AR(1) con el mismo


coeficiente sobre el trmino rezagado. El lado derecho de cada ecuacin se
puede mirar como un trmino de perturbacin general, con propiedades que
dependen del comportamiento de I. Si I fuera ruido blanco alrededor de una
media el consumo sera un AR(1) y el ingreso un ARMA(1,1).
Es importante observar que la clasificacin en variables endgenas y exgenas
depende del sistema de ecuaciones que se est trabajando. Por ejemplo,
considere el modelo
Ct = 0+1Yt+2Ct-1+ut
It = 0+1(Yt-1-Yt-2)+vt
Yt Ct+It+Gt
donde G son los gastos del gobierno.
En esta nueva estructura las variables endgenas son C, Y e I. G es la variable
exgena.

Elkin Castao Guillermo Prez

Para este sistema, puede probarse que cada variable endgena tiene el mismo
componente autorregresivo de orden tres. La naturaleza del trmino de
perturbacin en la ecuacin AR depende de las variables exgenas del
sistema. El clculo de estas ecuaciones por sustituciones algebraicas es muy
tedioso. El manejo matricial y el operador de rezagos pueden simplificar este
trabajo.

EL OPERADOR DE REZAGOS
Dada la serie de tiempo xt, se define el operador de rezagos L como
L(xt) Lxt = xt-1
Adems
L2xt L(Lxt) = xt-2
En general
Lsxt= xt-s
Observe que
(1-L)xt = xt-xt-1=xt
donde es llamado el operador de primeras diferencias.
Es usual hablar de A(L) como un polinomio

en el operador de rezagos L. Por

ejemplo:
A(L)=1-L es un polinomio de grado 1 en L
A(L)=1-1L-2L2 es un polinomio de grado 2 en L
En el manejo de los operadores de rezagos es importante manejar el inverso
de A(L). Por ejemplo, considere A(L)=1-L, entonces
(1-L)(1+L+2L2+3L3+... +pLp)=1-p+1Lp+1
ahora, cuando p y <1 se tiene que p+1Lp+1 0
Por lo tanto
(1-L)(1+L+2L2+3L3+... )=1

Elkin Castao Guillermo Prez

luego

1
=1+L+2L2+3L3+...
1 L
de donde

A-1(L) = (1-L)-1 = 1+L+2L2+3L3+... = i Li


i=0

Ejemplo. Usando el operador de rezagos y la representacin matricial, el modelo


Ct = 0+1Yt+2Ct-1+ut
It = 0+1(Yt-1-Yt-2)+vt
Yt Ct+It+Gt
se puede escribir de la siguiente forma

1
1 2 L 0

0
1 1L(1 L )

1
1

Ct 0 0
ut
1
=

It 0 0 G + v t
Y t 0 1 t 0

o, en forma abreviada
A(L)xt=Bzt+wt

(a)

donde

1
1 2 L 0

A(L)=
1 1L(1 L )
0
1

1
1
es una matriz 3x3 con elementos que son polinomios, algunos de orden cero en
el operador rezago, xt es un vector de 3x1 que contiene a las variables endgenas
Ct, It y Yt; B es una matriz de 3x2 de constantes algunas de ellas ceros, zt es otro
vector de 2x1 que contiene a 1 y la variable exgena Gt y wt es el vector de 3x1 de
perturbaciones.
Ahora, si queremos despejar a xt en el modelo anterior, es necesario invertir la
matriz inversa A-1(L) de A(L), donde

Elkin Castao Guillermo Prez

A-1(L)=

1
C(L)
A(L)

A(L ) : determinante de la matriz A(L), con

A(L )

C(L): Matriz de cofactores transpuesta.


Reemplazando en el modelo anterior se obtiene que
xt= A-1(L){C(L)Bzt+C(L)wt}

xt=

1
C(L){C(L)Bzt+C(L)wt}
A(L)

A(L ) xt=C(L)Bzt+C(L)wt
Se puede probar que

A(L ) =(1-2L)[1-1L(1-L)] - 1=1-1-(2+1)L+1(1+2)L2-2 1L3


Con base en la informacin anterior se puede observar que el sistema original se
transforma de manera tal que para cada variable endgena aparece un proceso
ARMA con la parte AR de orden 3.

LAS

FUNCIONES

DE

AUTOCOVARIANZA,

AUTOCORRELACIN

AUTOCORRELACN PARCIAL PARA UNA SERIE DE TIEMPO ESTACIONARA


Para una serie de tiempo xt estacionaria se define:
 La funcin de autocovarianza: El coeficiente de autocovarianza de orden k
mide el tipo de asociacin lineal que existe entre los trminos xt y xt+k de la
serie de tiempo. Se define como:
k = Cov( xt , xt + k ) = E( xt )( xt + k )

donde k=0, 1, 2,

Elkin Castao Guillermo Prez

k como funcin de k es llamada la funcin de autocovarianza.

Si k=0, 0 es la varianza de xt.


k = k , es decir, la funcin de autocovarianza es simtrica con respecto a k=0.

Esto implica que en la prctica basta con conocer el lado positivo de la funcin.
 La funcin de autocorrelacin (ACF): El coeficiente de autocorrelacin de
orden k mide

el tipo y el grado de asociacin lineal que existe entre los

trminos xt y xt+k de la serie de tiempo. Se define como:


k = Cor( xt , xt + k ) = E( xt )( xt + k ) /[V ar( xt )V ar( xt + k )]1 / 2
k = k / 0
k como funcin de k es llamada la funcin de autocorrelacin.

La grfica de

contra k es llamada correlograma.

0 =1
| k | 1

k = k , es decir, la funcin de autocorrelacin tambin es simtrica con

respecto a k=0. Esto implica que en la prctica basta con conocer el lado
positivo de la funcin.
 La funcin de autocorrelacin parcial (PACF): El coeficiente de autocorrelacin
parcial de orden k mide el tipo y el grado de asociacin lineal que existe entre
los trminos xt y xt+k de la serie de tiempo, eliminando la influencia lineal de los
trminos de la serie entre los perodos t y t+k . Se define como:
kk = Cor( xt , xt + k | xt +1 ,..., xt + k 1 )

El coeficiente kk se puede obtener de la autorregresin dada por,


Xt+k=m+ k1 Xt+k-1+ k 2 Xt+k-2+ + kk Xt + t + k
Donde t + k es un proceso de ruido blanco con distribucin normal.
kk como funcin de k es llamada la funcin de autocorrelacin parcial.

La grfica de kk contra k es llamada correlograma parcial.

Elkin Castao Guillermo Prez 10


Observacin:
Cuando el proceso estocstico es Normal (Gaussiano)

su comportamiento est

descrito completamente por las funciones anteriores.

ESTIMACIN

DE

LAS

FUNCIONES

DE

AUTOCOVARIANZA,

AUTOCORRELACIN Y AUTOCORRELACN PARCIAL PARA UNA SERIE DE


TIEMPO ESTACIONARA
Dada una realizacin x1, x2, , xn, de un proceso estocstico estacionario,
 El estimador para la funcin de autocovarianza es:

k
donde

nk

t =1

t = k +1

( xt x )( xt + k x ) / n = ( xt x )( xt k x ) / n

=
n

x = xt / n .
t =1

 El estimador para la funcin de autocorrelacin (ACF muestral) es

La grfica de

k / 0

nk

t =1

t =1

( xt x )( xt + k x ) / ( xt x )2

contra k es llamada correlograma muestral.

k se

Observe que en el clculo de

pierden k observaciones de las n

iniciales. Debido a esto, se recomienda que el nmero mximo de


coeficientes a estimar no pase de n/4.
 El estimador para la funcin de autocorrelacin parcial (PACF muestral).
Las autocorrelaciones parciales muestrales se pueden obtener de la
siguiente manera. Se ajustan las regresiones
yt=m+1yt-1+t,

de donde se obtiene 11 = 1

yt=m+1yt-1+2yt-2+t, de donde se obtiene 22 = 2


.
.
.

Elkin Castao Guillermo Prez 11


yt=m+1yt-1+2yt-2+3yt-3++kyt-k+t, de donde se obtiene kk = k

MODELACIN DE UN PROCESO ARMA

Hay tres pasos en la modelacin de proceso un ARMA:


1. Verifique si la serie es estacionaria. Si no lo es, hay que transformarla para tratar
de inducir la estacionaridad.
2. Use las funciones de autocorrelacin y autocorrelacin parcial muestrales de la
serie estacionaria para escoger unos pocos modelos que sean consistentes con el
comportamiento terico de dichas funciones. Estos modelos se estiman y se
selecciona el mejor.
3. Calcule los pronsticos sobre un horizonte de tiempo con base en el modelo
seleccionado.

Inicialmente desarrollaremos la segunda etapa. La idea bsica es derivar los patrones


tericos de las autocorrelaciones y de las autocorrelaciones parciales,

para los

modelos AR, MA, ARMA. Despus se comparan estos patrones con los calculados
empricamente para la serie que se est analizando. Con base en esta informacin (la
terica y la emprica) se trata de seleccionar algunos modelos ARMA para despus
realizar las estimaciones y la validacin estadstica.

PROPIEDADES DE LOS PROCESOS AR, MA, ARMA

PROCESOS AUTORREGRESIVOS, AR
El Proceso AR(1)
Recordemos que un proceso AR(1) est dado por
yt = m + yt-1 + t
donde t es ruido blanco.

Usando el operador rezagos se tiene


(1-L)yt = m + t

Elkin Castao Guillermo Prez 12


luego
yt =(1-L)-1(m + t)
entonces
yt=(1+L+2L2+... )( m+t)
de donde
yt=(1+L+2L2+... )m +t+ t-1 +2t-2+...
por lo tanto

i =0

i =0

yt=m i + i t i
Asumiendo que <1
yt =

m
+ i t i
1 i =0

De la expresin anterior, se obtiene


E[yt]= =

m
1

2
y = 0 =

1 2

Es importante observar que bajo la restriccin <1 la media y la varianza anteriores


no dependen del tiempo.
Para el desarrollo de las

covarianzas (tambin de la varianza) y de las

autocorrelaciones es til trabajar con las series en desviaciones, puesto que se


simplifican los clculos.
Como m=(1-) entonces el proceso AR(1) se puede escribir
yt=(1-)+ yt-1+t
luego
xt=xt-1+t

Elkin Castao Guillermo Prez 13


donde xt = yt-. La nueva serie, xt, tiene media cero y adems la varianza,
autocovariazas y autocorrelaciones coinciden con las de la serie yt. De xt se dice que
es la serie en desviaciones con respecto a su media.
Las autocovarianzas para un AR(1) :
El proceso AR(1) en desviaciones con respecto a la media es

xt = xt-1+t.

Multiplicando a ambos lados por xt-1 y tomando esperanza


x

1
2t

E(xt xt-1)= E(

)+E(xt-1t)

donde E(xt-1t) =0, puesto que xt-1 depende nicamente de t-1, t-2, y no de t. Como
t es ruido blanco entonces no est correlacionado con t-1, t-2,
De la ecuacin anterior se obtiene
1 = 0

De manera similar si multiplicamos xt=xt-1+t a ambos lados por xt-2 y se toma


esperanza se obtiene
2 = 1

y, en general
k = k 1 = 2 k 2 = ... = k 0

para k=0,1,2,
Para un AR(1) las autocorrelaciones estn dadas por

k =

k
k-1
=
= k -1 = k k=1, 2, ...
0
0

Grficamente, el correlograma es de la forma:

Elkin Castao Guillermo Prez 14


= 0.8

Observe

que

las

propiedades

= 0.8

de

media

constante,

varianza

constante

autocovarianzas que solamente dependen de k y no del tiempo, fueron derivadas bajo


la restriccin de que <1. Por tanto un proceso AR(1) es estacionario si se cumple
este supuesto.
Funcin de autocorrelacin parcial (PACF) de un proceso AR(1).

Con base en la ACF no se puede definir el orden 1 de un proceso AR(1). Una


herramienta til para detectarlo es la funcin de autocorrelacin parcial (PACF).

Recuerde que dada la serie x1, x2, ..., xt-k, xt-k+1, ...xt, ..., el coeficiente de correlacin
parcial entre xt-k y xt, est dado por el coeficiente de correlacin entre xt-k y xt
despus de eliminar la influencia lineal

de xt-k+1, ... xt-1. Este coeficiente lo

denotamos por kk.


Considere el proceso AR(1),
xt= xt-1+t
Entonces, de acuerdo con la definicin de la PACF, se tiene que
11=
kk=0 k2
Grficamente, para procesos AR(1) con
parciales tienen la forma,

= 0.8

= 0.8 , los correlogramas

Elkin Castao Guillermo Prez 15


PACF de un AR(1) con

PACF de un AR(1) con

= 0.8

= 0.8

El proceso AR(2)
El proceso AR(2) se define como
yt = m + 1yt-1 + 2yt-2 + t
Asumiendo estacionaridad se tiene que
E[yt] = E[yt-1] = E[yt-2] =
de donde
=

m
1 1 2

Si xt = yt - entonces el proceso AR(2) tiene la forma


xt = 1xt-1+ 2xt-2+t

Elkin Castao Guillermo Prez 16


Si se multiplica la ecuacin anterior por xt y se toma esperanza se obtiene
0 =11+22+ 2
De igual forma, si se multiplica por xt -1 y se toma esperanza se obtiene
1=10+21
De manera similar, si se multiplica por xt -2 y se toma esperanza se obtiene
2=11+20
De las dos ecuaciones anteriores se tiene que

1= 0

2=

1
0 +20
1 2

Reemplazando estas ecuaciones en la ecuacin para 0 se concluye

0=

(1 2) 2
(1 + 2 )(1 1 2 )(1 + 1 2)

Bajo estacionaridad esta varianza debe ser constante. Como 0 debe ser un nmero
positivo se debe cumplir que
1-2>0

1+2>0

1-1-2>0

1+1-2>0

luego
1+2<1

2-1<1

-1< 2< 1

Las tres desigualdades anteriores definen las condiciones de estacionaridad de un


proceso AR(2).
Con base en las ecuaciones para las covarianzas de orden 1 y 2, dividiendo por 0 se
obtiene

Elkin Castao Guillermo Prez 17


1=1+21
2=11+2
estas dos ecuaciones son denominadas las ecuaciones de Yule-Walker para un
proceso AR(2). Resolviendo el sistema para 1 y 2 se obtiene
1=

1
1 2

2=

1 +
2
1 2

Para k=3, 4,... se obtiene que


k=1k-1+2k-2
Esta es una ecuacin en diferencias de segundo orden con los dos primeros valores
dados por los valores anteriores de 1 y 2. Adems los coeficientes de esta ecuacin
en diferencia son los coeficientes del proceso AR(2). Por lo tanto las condiciones de
estacionaridad garantizan que el ACF decrece rpidamente hacia cero de manera
exponencial o en ondas sinusoidales.
Ejemplo.
ACF de un AR(2) con 1=0.6 y 2=0.3

Races del polinomio en el operador de rezagos


El proceso AR(2) se puede escribir con base en el polinomio A(L) de la siguiente
manera
A(L)xt=t
donde
A(L)=1-1L-2L2
Este polinomio de grado 2 se puede expresar como el producto de dos factores

Elkin Castao Guillermo Prez 18


A(L)= 1-1L-2L2=(1-1L)(1-2L)
De la factorizacin, la conexin entre los parmetros y es
1 + 2 =1 1 2 = -2
Los valores son realmente las races del polinomio
2 - 1 - 2 =0
A este polinomio se le denomina la ecuacin caracterstica asociada al proceso AR(2).
Las races sern:

1 + 1 + 4 2
2
2

1=

1 1 + 4 2
2
2

2=

La inversa de A(L) puede ser escrita como

A-1(L)=

1
c
d
=
+
(1 - 1L)(1 2 L) 1 - 1L 1 2 L

Donde
c=

2 1

y d=

2
2 1

Por tanto el proceso AR(2) tambin se puede escribir como

xt= A-1(L)t =

c
1 - 1L

t +

d
1 2 L

Por analoga con el procesos AR(1) para que xt sea estacionaria se debe dar que
1<1 y 2<1
Estas condiciones son equivalentes a las derivadas anteriormente, es decir, un
proceso AR(2) es estacionario si las races de la ecuacin 2-1-2 =0 son tales que
1<1 y 2<1, o equivalentemente, si 1+2<1, 2-1<1 y -1< 2< 1.

Elkin Castao Guillermo Prez 19


Es bueno observar que las races 1 y 2 pueden ser reales o complejas. En el primer
caso 12 +42 0 y en el segundo caso 12 +42<0.
Si 1 y 2 son complejas, las podemos escribir como el par de nmeros complejos
conjugados
1 =h+vi y

2 =h-vi

donde
h=

(12 + 4 2)
1
v=
i = - 1 , i2 = -1
2
2

En este caso, la solucin de la ecuacin en diferencias de orden 2 para el


correlograma produce grficas que son ondas sinusoidales que van convergiendo
rpidamente a cero.
Ejemplo.
ACF de un AR(2) con 1=0.5 y 2= -0.8

Cuando se tienen soluciones complejas se define el mdulo de j como

j= h2 + v 2 = -2, j=1, 2
lo cual indica que para 0 < 2 < 1 es la condicin para que el correlograma presente
ondas sinusoidales decrecientes.
En conclusin para que un proceso AR(2) sea estacionario se debe cumplir que
1<1

2<1

Elkin Castao Guillermo Prez 20

siendo j el mdulo de j, es decir las races de la ecuacin caracterstica deben


estar dentro del crculo unidad.
Una forma alternativa es calcular las races Z del polinomio
A(Z)=1-1Z-2Z2=(1-1Z)(1-2Z)=0
Las races sern
Z1=1/1 Z2=1/2
Para esta presentacin se dice que el proceso es estacionario si las races se
encuentran fuera del crculo unidad.
PACF para un proceso AR(2)
Considere el proceso
xt= 1xt-1+ 2xt-2+t
Entonces, se tiene que
11=1=

1
1 2

22=2
kk=0 k3
Grficamente,
PACF de un AR(2)

Elkin Castao Guillermo Prez 21


Es bueno observar que en un proceso AR(2), adems del efecto de xt-2 que se
transmite a travs de xt-1 sobre xt, existe un efecto directo de xt-2 sobre xt debido a que
xt-2 aparece en la ecuacin que determina a xt.

Para un proceso AR(2) estacionario, se puede probar que el parmetro 2 es el


coeficiente de correlacin parcial entre xt y xt-2 dado que xt-1 est fijo o constante,
es decir que
r13.2= 2 = 22
donde xt es la variable 1, xt-1 variable 2 y xt-2 variable 3.

El proceso AR(p)
El proceso AR(p) se define como
yt = m + 1yt-1 + 2yt-2 ++ pyt-p + t
Este proceso se puede escribir como
yt -1Lyt + 2L2yt ++ pLpyt = m + t
(1 - 1L - 2L2 -- pLp) yt = m + t
A(L) yt = m + t
donde A(L) = 1 - 1L - 2L2 -- pLp es un polinomio de orden p en potencias de L.
Asumiendo estacionaridad se tiene que
E[yt] = E[yt-1] = E[yt-2] = = E[yt-2] =
de donde
=

m
1 1 2 ... p

Si xt = yt - entonces el proceso AR(p) tiene la forma

Elkin Castao Guillermo Prez 22


xt = 1xt-1 + 2xt-2+ + 2xt-2 + t
Condicin de estacionaridad en un AR(p):
Considere la factorizacin del polinomio A(L) de AR(p)
A(L) = 1 - 1L - 2L2 -- pLp = (1-1L)(1-2L) (1-pL)
Los valores son realmente las races del polinomio
p - 1p-1 - - p-1 - p =0
A este polinomio se le denomina la ecuacin caracterstica asociada al proceso AR(p).
Un proceso AR(p) es estacionario si las p races j de la ecuacin caracterstica son
tales que |j|<1 para todo j=1,2,..,p, es decir, si la p races caen dentro del crculo
unidad.
Alternativamente, se pueden calcular las races Z del polinomio
A(Z)=1 - 1Z - 2Z2 - -pZp = (1-1Z)(1-2Z) (1-pZ)=0
Las races sern
Z1=1/1 Z2=1/2, , Zj=1/p,
Por tanto, en este caso el proceso AR(p) es estacionario si las races Zj son tales que
su mdulo | Zj|>1, o si todas las races se encuentran fuera del crculo unidad.
La funcin de autocorrelacin de un AR(p):
Se puede probar que la ACF del proceso est determinada por:

= 1

k 1 + 2 k 2 ++ p k p

si k 1

Esto indica que la ACF sigue una ecuacin en diferencias de orden p con un polinomio
A(L) igual al del proceso AR(p). Bajo estacionaridad del proceso, la solucin de esta

Elkin Castao Guillermo Prez 23


ecuacin produce una ACF que converge hacia cero. Si existen races complejas
esta convergencia presenta ondas sinusoidales.

PACF de un AR(p)

0
0

kk=
donde

kp
k >p

p = pp .

Conclusin: En un proceso AR(p), el PACF tiene un corte en el rezago p, por lo


tanto el orden de un AR se escoge de tal forma que kk 0 para k p, pero kk = 0
con k>p.

Es bueno observar que en la prctica no se sabe si el proceso es un AR y tampoco


se conoce p. Es de esperar que si los datos provienen de un AR estacionario
el ACF muestral debe converger a cero pero el PACF debera mostrar un
corte a cero, despus del posible valor p.

PROCESOS DE MEDIAS MVILES, MA

Dado el proceso AR(1) estacionario


xt= xt-1+t
tenemos que
(1-L)xt =t

xt=

t
=(1+L+2L2+...)t =t +t-1+2t-2...
1 L

En este caso se dice que el proceso se ha invertido. xt est representado como


una suma infinita ponderada del ruido blanco y sus valores rezagados. A esta
representacin se le denomina un promedio mvil infinito que se denota por
MA().

En general cualquier proceso AR(p) estacionario se puede representar como una


suma infinita ponderada de un trmino de perturbacin no correlacionado y sus

Elkin Castao Guillermo Prez 24


rezagos (descomposicin de Wold, 1938). En la prctica es importante conocer las
propiedades de los procesos MA.
Procesos MA(q) finitos

Un proceso MA(q) se define como


yt=+t- 1t-1-2t-1 - ... -qt-q
donde t es un proceso de ruido blanco. Es fcil ver que
E[yt]=
2

0=var(yt)= 2 (1+ 1 + ... + q )


En general todo proceso MA finito es estacionario. Para simplificar se trabajar
con el modelo en desviaciones.

El proceso MA(1)
Un proceso MA(1) sigue la especificacin
xt = t - 1t-1
Para este proceso:
E[xt] = 0
2

var(xt) = 0 = 2 (1+ 1 )
Autocovarianzas:
1 = E[xtxt-1] = - 1 2
2 =

...

= k = 0

Autocorrelaciones:
1 =

1 + 12

k = 0

K>1

Elkin Castao Guillermo Prez 25


El ACF de un MA(1) tiene un corte en k=1. En este caso se dice que tiene memoria de
un perodo. Tambin se puede probar que |1|<0.5.
ACF de un MA con 1=0.7

ACF de un MA con 1=-0.7

Ahora un proceso MA(1) puede ser invertido y expresado por lo tanto como un AR().
Como
xt = t - 1t-1 = (1-1L)t
se tiene que
t =

x t = x + x + 2 x + ...
1 t-2
t
1 t-1
1 - 1L

Luego
2

xt =-1 xt-1 - 1 xt-2 ... + t ~ AR()

Elkin Castao Guillermo Prez 26


El proceso de inversin tiene sentido si | 1|<1. En este caso se habla de condiciones
de invertibilidad. Como un MA(1) invertible es un AR() entonces el PACF no tiene
corte, sino que converge a cero.
El Proceso MA(2)
Un proceso MA(2) est definido por
xt = t - 1t-1 - 2t-2
o, en trminos del operador de rezagos,
xt = (1 - 1L - 2L2)t
o,
xt = B(L)t
donde B(L) = 1 - 1L - 2L2, es el polinomio del proceso MA(2).
Es fcil verificar que
E[xt] = 0
2

var(xt) = 0 = 2 (1+ 1 + 2 )
Autocovarianzas
1 = E[xtxt-1] = - 2 ( 1 - 12)
2 = -2 2
k = 0

k3

Autocorrelaciones
1 =

2 =

(1 1 2)
1 + 12 + 22
2

1 + 12 + 22

k = 0

k3

ACF de un MA(2)

Elkin Castao Guillermo Prez 27

Para que un proceso MA(2) sea invertible se deben cumplir condiciones similares a las
que debe tener un proceso AR(2) para que sea estacionario. Luego un MA(2) ser
invertible si
1+2<1

2-1<1

-1< 2< 1

Equivalentemente, se puede probar que el proceso MA(2) es invertible si las races de


la ecuacin caracterstica 2 - 1 - 2 =0 asociada al polinomio del MA(2) tiene sus dos
races dentro del crculo unidad. O, alternativamente, si las races Z de la ecuacin
B(Z)=1 - 1Z - 2Z2=0 caen fuera del crculo unidad.
Como un MA(2) es un AR() el PACF de un MA(2) no tiene corte, sino que converge a
cero.
En general, en un proceso MA(q) el ACF tiene corte en q, el PACF no tiene corte
pero si converge a cero.
EL PROCESO MIXTO ARMA

Un proceso ARMA(p, q) se define como


yt=m+1yt-1+2yt-2+ ... +pyt-p+t-1t-1- 2t-2- ... -qt-q
A(L)yt =m+B(L)t

donde
A(L)=1-1L-2L2 - ... -pLp y B(L)=1-1L-2L2 - ... -qLq

Bajo las condiciones de estacionaridad se tiene que

Elkin Castao Guillermo Prez 28

E[yt] =

m
=
1 - 1 2  p

Luego
m = (1-1-2 - ... -p)
Si xt = yt - se tiene que
xt=1xt-1+2xt-2+ ... +pxt-p+t - 1t-1 - 2t-2 - ... - qt-q
de donde
A(L)xt =B(L)t
Las condiciones de estacionaridad requieren que las races de A(L)=0 se encuentren
fuera del crculo unidad de manera equivalente, que las races de la ecuacin
caracterstica se encuentran dentro del crculo unidad.

Para que el proceso sea

invertible las races de B(L) deben cumplir la condicin anterior. Bajo estas dos
condiciones un ARMA(p, q) se puede representar como un AR() o un MA(), es decir
xt = A-1(L)B(L)t es la representacin MA()
B-1(L)A(L)xt =t es la representacin AR()
El proceso ARMA(1,1)
Un proceso ARMA(1,1) est dado por
xt=xt-1+t - t-1
(1-L)xt =(1-L)t
Condiciones de estacionaridad: ||<1 1/||>1
Condiciones de invertibilidad : ||<1 1/||>1
Se puede probar que

0 =

2
2
(1 - 2 + )
1 - 2

|| <1

Elkin Castao Guillermo Prez 29

1 =

( - )(1- )
1 - 2
2

2 = 1
3 = 2 = 21
.
.
.
K = k-1 = k-11
Luego el ACF de un ARMA(1,1) est dado por

1 =

(-)(1-)
1-2+ 2

k = k-1 = k-11 k=2, 3, ..., k


Dado que un ARMA(1,1) es una combinacin de un AR(1) y un MA(1) la ACF debe
exhibir ambos procesos. La contribucin del MA(1) es fundamentalmente para 1
debido a que tiene memoria de un perodo. A partir de 2 la ACF declina
exponencialmente de acuerdo al proceso AR.
La PACF tampoco tiene corte pero si tiene convergencia a cero.
En general para un ARMA(p, q) se observa que la ACF tiene un comportamiento
irregular en las primeras q autocorrelaciones y despus converge hacia cero de
acuerdo al proceso AR(p). La PACF tiene un comportamiento irregular en las primeras
p autocorrelaciones parciales y despus convergencia hacia cero de acuerdo al
proceso MA(q).
Los comportamientos de la ACF y la PACF para los modelos ARMA se resumen en la
siguiente tabla

Elkin Castao Guillermo Prez 30


ACF

PACF

AR(p)

Convergencia a cero

Corte despus del rezago p.

MA(q)

Corte despus del rezago q Convergencia a cero

ARMA(p,q) Convergencia a cero

Convergencia a cero

Identificacin de los modelos de series de tiempo.


El estudio de los comportamientos de las ACF y PACF tericas de los modelos AR,
MA y ARMA, es la base para la identificacin del modelo generador de los datos de
una serie de tiempo observada.
Identificacin de un proceso de ruido blanco. El caso ms elemental de una serie
de tiempo estacionaria es el ruido blanco. Para este proceso se tiene que k=0 para
todo k, es decir, su ACF es nula.
Ahora, es de esperar que en la ACF muestral de un proceso que es ruido blanco, las
autocorrelaciones muestrales sean estadsticamente cero para todo k. La significancia
de las autocorrelaciones muestrales es usualmente verificada con base en la siguiente
propiedad: Si y1, y2, ...., yn provienen de una serie que es ruido blanco entonces rk
N(0, 1/n). Para probar
HO: k=0
H1: k0
Defina el estadstico de prueba
tk= r k

1/n

= n rk

~ N(0,1)

Para =0.05 se tiene que

H0 se rechaza si n r k 2 o

si rk 2 / n

Ejemplo.
El correlograma muestral de una serie de tiempo est dado por

Elkin Castao Guillermo Prez 31

Las bandas indican que los rk< 2 / n . Se concluye que el proceso que gener los
datos de la serie parece ser un proceso de ruido blanco.
Identificacin de un proceso MA(q). Si el proceso que gener la serie es un proceso
MA puro, tericamente la ACF debe tener un corte desde el rezago q+1 y la PACF
decrece hacia cero. El correlograma muestral nos ayuda a identificar el posible orden q
del proceso ya que si el MA fuera de orden q, las autocorrelaciones de orden k con
k>q no seran significativamente distintas de cero.
Para un proceso MA(q), se ha probado que para k>q se tiene que
rk

~ N(0, var(r ))
k

donde
q

var(rk)

1+2 r 2j
j=1

k>q

Es bueno observar que, es usual aproximar a var(rk) por 1/n.


Ejemplo.
El correlograma muestral de una serie de tiempo est dado por

Elkin Castao Guillermo Prez 32

Se observa que la PACF decrece hacia cero y que la PACF se anula estadsticamente
a partir de k=2. Por tanto el proceso que gener los datos parece ser un MA(1).
Identificacin de un modelo AR(p). Si el proceso es un AR(p), tericamente su ACF
decrece hacia cero y su PACF tiene un corte a partir del rezago p+1. Una herramienta
grfica que puede facilitar la identificacin del orden p de un AR puro es la PACF
muestral.
De nuevo es importante desarrollar las pruebas de hiptesis
HO: kk = 0
H1: kk 0
Para un proceso AR(p) se prueba que, para k>p, kk

~ N(0, 1/n).

Por lo tanto si se piensa que la muestra proviene de un AR, Ho se rechazara a un


nivel de significacin del 5%, si n kk 2 o si kk 2 / n . Si kk no es
significativo ms all del rezago p entonces se puede pensar que la serie proviene de
un AR(p).
Ejemplo.
El correlograma muestral de una serie de tiempo est dado por

Elkin Castao Guillermo Prez 33

Se observa que la ACF decrece hacia cero y que la PACF se anula estadsticamente
desde el rezago k=2. . Por tanto el proceso que gener los datos parece ser un AR(1).
Identificacin de un modelo ARMA(p,q).
Si el proceso es un ARMA(p,q), tericamente tanto su ACF como su PACF decrecen
hacia cero. Sin embargo, en general no es fcil seleccionar los rdenes p y q con base
en el ACF y el PACF muestral debido a que las propiedades anteriores ya no son
vlidas. Una recomendacin para esta situacin es estimar un conjunto de modelos
(modelos ARMA con bajos rdenes p y q), de estos, seleccionar los que se pueden
validar (con base en pruebas de diagnstico) y por ltimo, con base en criterios de
seleccin de modelos escoger el mejor.

Ejemplo.
El correlograma muestral de una serie de tiempo est dado por

Elkin Castao Guillermo Prez 34

Se observa que tanto la ACF como la PACF parecen converger hacia cero.
Esto conduce a pensar que el modelo generador de los datos es un ARMA. Sin
embargo, sus rdenes no pueden ser derivados de la ACF y PACF. En la
prctica se proponen diferentes rdenes p y q (generalmente bajos) y se
estiman los modelos. Se elige el mejor modelo (validado) con base en criterios
de informacin.
EJERCICIOS DE SIMULACIN
Series estacionarias Autorregresivas
Simulacin de un proceso AR(1)
Macro en EVIEWS:
'creacin de un archivo de trabajo
workfile u 1 2050
'asignacin de la semilla para la generacin de los nmeros aleatorios normales
'rndseed 8931
'simulacin de un AR(1) estacionario con m=5, alfa=0.7
'----------------------------------------------------------------------------------------------------------'asignacin de los parmetros del proceso
'para simular diferentes AR(1) basta cambiar los siguientes valores.
'observe que un proceso de ruido blanco se obtiene cuando alfa=0.
scalar m=5
scalar alfa=0.7
scalar desv=2
'generacin del trmino de error normal(0,4)
genr e= desv*nrnd
'generacin inicial con ceros de la serie que va a contener los datos del AR(1)

Elkin Castao Guillermo Prez 35


genr y1=0
'generacin del valor inicial: se asigna la media del proceso mu=m/(1-alfa)
smpl @first @first
y1=m/(1-alfa)
'generacin de los valorres restantes
smpl @first+1 @last
genr y1=m+alfa*y1(-1)+e
smpl @all
'para observar el efecto del tamao muestral sobre la ACF y PACF muestrales cambie el valor de n1.
'tambin se eliminan los primeros 50 primeros valores para evitar la influencia de los valores inicilaes en la
simulacin
scalar n1=1750
smpl @first+50+n1 @last
'grfica de la serie simulada
line y1
'Clculo de los estadsticos descrptivos
freeze y1.stats
'Clculo de las ACF y PACF muestrales
y1.correl(15)

Resultados:
Y1
28

24

20

16

12

8
75

00

25

50

75

00

25

Sample: 1751 2000


Y1
Mean
Median
Maximum
Minimum
Std. Dev.
Skewness
Kurtosis
Jarque-Bera

16.57699
16.41018
24.81734
10.95989
2.555810
0.139166
2.702382
1.729642

50

75

00

Elkin Castao Guillermo Prez 36


Probability
Sum
Sum Sq. Dev.
Observations

0.421127
4144.247
1626.509
250

Simulacin de un AR(2)
Macro en EViews
'creacin de un archivo de trabajo
workfile u 1 2050
'asignacin de la semilla para la generacin de los nmeros aleatorios normales
'rndseed 8931
'simulacin de un AR(2) estacionario con m=5, alfa1=0.5, alfa2=0.3
'----------------------------------------------------------------------------------------------------------'asignacin de los parmetros del proceso
'para simular diferentes AR(2) basta cambiar los siguientes valores.
scalar m=5
scalar alfa1=0.5
scalar alfa2=0.3
scalar desv=2
'generacin del trmino de error normal(0,4)
genr e= desv*nrnd
'generacin inicial con ceros de la serie que va a contener los datos del AR(1)
genr y2=0
'generacin del valor inicial: se asigna la media del proceso mu=m/(1-alfa)
smpl @first @first+1
y2=m/(1-alfa1-alfa2)
'generacin de los valorres restantes
smpl @first+2 @last
genr y2=m+alfa1*y2(-1)+alfa2*y2(-2)+e
smpl @all
'para observar el efecto del tamao muestral sobre la ACF y PACF muestrales cambie el valor de n1.

Elkin Castao Guillermo Prez 37


'tambin se eliminan los primeros 50 primeros valores para evitar la influencia de los valores iniciales en la
simulacin
scalar n1=1750
smpl @first+50+n1 @last
'grfica de la serie simulada
line y2
'Clculo de los estadsticos descriptivos
freeze y2.stats
'Clculo de las ACF y PACF muestrales
y2.correl(15)

Resultados:
Y2
34
32
30
28
26
24
22
20
18
16
75

00

25

50

75

00

25

Sample: 1751 2000


Y2
Mean
Median
Maximum
Minimum
Std. Dev.
Skewness
Kurtosis
Jarque-Bera
Probability
Sum
Sum Sq. Dev.
Observations

24.90203
24.51606
34.24438
16.77101
3.295266
0.184754
2.670591
2.552575
0.279071
6225.507
2703.836
250

50

75

00

Elkin Castao Guillermo Prez 38

Simulacin de procesos MA(q) invertibles


Simulacin de un proceso MA(1)
Macro en EViews
'creacin de un archivo de trabajo
workfile u 1 2050
'asignacin de la semilla para la generacin de los nmeros aleatorios normales
'rndseed 8931
'simulacin de un MA(1) estacionario con m=5, beta=0.7
'----------------------------------------------------------------------------------------------------------'asignacin de los parmetros del proceso
'para simular diferentes MA(1) basta cambiar los siguientes valores.
'observe que un proceso de ruido blanco se obtiene cuando beta=0.
scalar m=5
scalar beta=-0.7
scalar desv=2
'generacin del trmino de error normal(0,desv^2)
genr e= desv*nrnd
'generacin de los valores de la serie. El primer valor no est definido
genr y1=m+e+beta*e(-1)
'para observar el efecto del tamao muestral sobre la ACF y PACF muestrales cambie el valor de n1.
'tambin se eliminan los primeros 50 primeros valores para evitar la influencia de los valores iniciales en la
simulacin
scalar n1=1750
smpl @first+50+n1 @last
'grfica de la serie simulada
line y1
'Clculo de los estadsticos descriptivos
freeze y1.stats
'Clculo de las ACF y PACF muestrales
y1.correl(15)

Elkin Castao Guillermo Prez 39

Resultados:
Y1
12
10
8
6
4
2
0
-2
1800

1850

1900

Sample: 1751 2000


Y1
Mean
Median
Maximum
Minimum
Std. Dev.
Skewness
Kurtosis
Jarque-Bera
Probability
Sum
Sum Sq. Dev.
Observations

5.051787
5.242392
11.03352
-0.898052
2.467722
-0.043227
2.276032
5.537538
0.062739
1262.947
1516.324
250

1950

2000

Elkin Castao Guillermo Prez 40

Simulacin de un proceso MA(2)


Macro en Eviews
'creacin de un archivo de trabajo
workfile u 1 2050
'asignacin de la semilla para la generacin de los nmeros aleatorios normales
'rndseed 8931
'simulacin de un MA(2) estacionario con m=5, beta1=-0.5, beta2=-.3
'----------------------------------------------------------------------------------------------------------'asignacin de los parmetros del proceso
'para simular diferentes AR(2) basta cambiar los siguientes valores.
scalar m=5
scalar beta1=-0.5
scalar beta2=-0.3
scalar desv=2
'generacin del trmino de error normal(0,4)
genr e= desv*nrnd
'generacin de los valores de la serie. Los dos primeros valores no estn definidos
genr y2=m+e+beta1*e(-1)+beta2*e(-2)
'para observar el efecto del tamao muestral sobre la ACF y PACF muestrales cambie el valor de n1.
'tambin se eliminan los primeros 50 primeros valores para evitar la influencia de los valores iniciales en la
simulacin
scalar n1=1750
smpl @first+50+n1 @last
'grfica de la serie simulada
line y2
'Clculo de los estadsticos descriptivos
freeze y2.stats
'Clculo de las ACF y PACF muestrales
y2.correl(15)

Elkin Castao Guillermo Prez 41


Resultados:
Y2
12
10
8
6
4
2
0
-2
-4
1800

1850

1900

Sample: 1751 2000


Y2
Mean
Median
Maximum
Minimum
Std. Dev.
Skewness
Kurtosis
Jarque-Bera
Probability
Sum
Sum Sq. Dev.
Observations

4.964349
5.028957
11.55599
-2.198414
2.486284
-0.017241
2.995421
0.012604
0.993718
1241.087
1539.221
250

1950

2000

Elkin Castao Guillermo Prez 42

Simulacin de procesos ARMA(p,q) estacionarios e invertibles


Simulacin de un proceso ARMA(1,1)
Macro en EViews
'creacin de un archivo de trabajo
workfile u 1 2050
'asignacin de la semilla para la generacin de los nmeros aleatorios normales
'rndseed 8931
'simulacin de un ARMA(1,1) estacionario con m=5, alfa=0.8 beta=-0.7
'----------------------------------------------------------------------------------------------------------'asignacin de los parmetros del proceso
'para simular diferentes ARMA(1,1) basta cambiar los siguientes valores.
'observe que un proceso de ruido blanco se obtiene cuando alfa=0 y beta=0.
scalar m=5
scalar alfa=0.7
scalar beta=-0.5
scalar desv=2
'generacin del trmino de error normal(0,4)
genr e= desv*nrnd
'generacin inicial con ceros de la serie que va a contener los datos del ARMA(1,1)
genr y1=0
'generacin del valor inicial: se asigna la media del proceso mu=m/(1-alfa)
smpl @first @first
y1=m/(1-alfa)
'generacin de los valorres restantes
smpl @first+1 @last
genr y1=m+alfa*y1(-1)+e+beta*e(-1)
smpl @all
'para observar el efecto del tamao muestral sobre la ACF y PACF muestrales cambie el valor de n1.
'tambin se eliminan los primeros 50 primeros valores para evitar la influencia de los valores iniciales en la
simulacin
scalar n1=1750
smpl @first+50+n1 @last

Elkin Castao Guillermo Prez 43

'grfica de la serie simulada


line y1
'Clculo de los estadsticos descriptivos
freeze y1.stats
'Clculo de las ACF y PACF muestrales
y1.correl(15)

Resultados:
Y1
24
22
20
18
16
14
12
10
8
1850

1900

1950

Sample: 1801 2050


Y1
Mean
Median
Maximum
Minimum
Std. Dev.
Skewness
Kurtosis
Jarque-Bera
Probability
Sum
Sum Sq. Dev.
Observations

16.75472
16.61422
22.22004
9.971558
2.183833
-0.064173
3.080570
0.239208
0.887272
4188.679
1187.512
250

2000

2050

Elkin Castao Guillermo Prez 44

PRUEBAS DE ESTACIONARIDAD
Antes de proceder a calcular la media, la varianza y las funciones de autocovarianzas
y autocorrelacin se debe verificar si la serie es estacionaria.
Dada una serie de tiempo y1, y2, ..., yn , tradicionalmente, existen dos mtodos para
detectar si una serie es estacionaria o no:

Un juicio subjetivo basado en el anlisis grfico de la serie y de su correlograma


muestral (ACF muestral).

El empleo de pruebas estadsticas formales sobre la existencia de races unitarias


en la serie.

Anlisis subjetivo.
Anlisis de la grfica de la serie.
Este anlisis muestra como evoluciona la serie en el tiempo. A un nivel intuitivo
podemos pensar que la serie es estacionaria si est oscilando alrededor de su valor
medio y si se observa estabilidad en la varianza. Es bueno tener en cuenta que esta
inspeccin visual puede no ser muy clara en muchos casos.

Elkin Castao Guillermo Prez 45


Grfica de un proceso estacionario
50
40
30
20
10
0
-10
-20
1850

1900

1950

2000

El uso del correlograma muestral.


Una herramienta grfica ms poderosa es el correlograma muestral. Tericamente,
para una serie estacionaria la funcin de autocorrelacin converge rpidamente hacia
cero.

Como los rk son los estimadores de k, si una serie es estacionaria, el

correlograma muestral tambin debe converger rpidamente a cero.


Para ilustrar el uso del correlograma se construyeron 5 series artificiales (simuladas)
definidas a continuacin.

Las series fueron generadas siguiendo los parmetros indicados. Y1 es un proceso


AR(1), Y2 es un proceso no estacionario llamado paseo aleatorio con deriva (observe
que el polinomio AR tiene una raz unitaria, es decir, L=1), Y3 es un proceso no
estacionario AR(1) llamado explosivo y Y4 es la suma de una tendencia lineal en el
tiempo y un proceso AR(1) estacionario.

Para cada una de estos modelos se

generaron series de 200 observaciones de las cuales se descartaron las primeras 100.
La serie Y5 es otro ejemplo de paseo aleatorio con deriva con un conjunto diferente
de parmetros.

Elkin Castao Guillermo Prez 46

El correlograma para Y1 se presenta en la siguiente tabla.

Este correlograma muestra el tpico comportamiento de un AR(1) estacionario, donde


la ACF decae rpidamente hacia cero y la PACF exhibe y la primera correlacin
parcial es la nica que es significativamente diferente de cero.
Para la serie no estacionaria Y2, ACF y PACF muestrales pueden ser calculadas
aunque sus contrapartes poblacionales (tericas) no existen. La siguiente tabla
presenta los resultados para la serie Y2.

Elkin Castao Guillermo Prez 47

Se observa que la ACF muestral decrece pero no tan rpido como en el AR(1)
estacionario. Sin embargo, el patrn de comportamiento no es muy diferente del de
Y1, debido a que su parmetro est muy cerca de 1. Esto indica que mientras ms
cerca est a 1 por la izquierda (o, equivalentemente, ms cerca de uno se encuentre
el mdulo de la raz del polinomio AR)

ms difcil es distinguir entre un AR(1)

estacionario y un proceso no estacionario de paseo aleatorio.


El correlograma muestral para la serie explosiva se presenta en la siguiente grfica y
se observa que es muy similar

al de Y2. Sin embargo, el correlograma parcial

muestral es distinto en el sentido de que todas las autocorrelaciones parciales son


cero, excepto la primera.

Elkin Castao Guillermo Prez 48

Recuerde que la primera diferencia de una serie es Yt = ( 1 L )Yt = Yt Yt 1 .

Observe

que para Y2 su primera diferencia Y 2t =1+ t , es decir es un proceso de ruido blanco,


el cual es un proceso estacionario. Si se denota la primera diferencia como DY2, la
siguiente grfica presenta su correlograma muestral, el cual corresponde al de un
ruido blanco.

Elkin Castao Guillermo Prez 49


Sin embargo, si se hace la primera diferencia de la serie explosiva Y3, no se obtiene
un proceso estacionario.
La siguiente grfica muestra que el correlograma muestral de la serie diferenciada es
similar al de la serie sin diferenciar. Esta es la distincin que hay entre la serie no
estacionaria Y2 y la serie explosiva Y3: una serie no estacionaria como Y2 puede ser
transformada a estacionaria por medio de diferenciacin, mientras que una serie
explosiva no.

SERIES INTEGRADAS
Una serie de tiempo no estacionaria que para ser transformada en una estacionaria
se debe diferenciar, se le denomina serie integrada (o serie no estacionaria
homognea).
El orden de integracin es el mnimo nmero de veces que la serie debe ser
diferenciada para que alcance la estacionaridad. En este caso se dice que la serie es
un proceso autorregresivo y de medias mviles integrado. Este proceso se denota por
ARIMA(p, d, q), donde d es el orden de integracin. Su especificacin es

Elkin Castao Guillermo Prez 50


A(L)(1-L)dyt =m+B(L)t
Si la serie es estacionaria entonces d=0 y se dice que la serie es de orden de
integracin 0 y se denota como I(0). Si la serie yt no es estacionaria pero si lo es yt,
entonces d=1, entonces se dice que la serie es de orden de integracin 1 y se denota
como I(1). Ahora una serie yt no estacionaria ser I(2) si la serie yt sigue siendo no
estacionaria, pero la serie 2yt =yt-2yt-1+yt-2 es estacionaria.
En el trabajo con datos econmicos, generalmente las series son mximo de orden 2 y
generalmente son de orden 1. Es bueno observar que si una serie es estacionaria su
diferenciacin (sobrediferenciacin), sigue siendo estacionaria.

Por ejemplo, un

proceso de ruido blanco es el ejemplo ms simple de una serie estacionaria. Su


primera diferencia sigue siendo estacionaria y corresponde a un modelo MA(1) no
invertible. En efecto, si yt = m + t, entonces yt = t - t-1, es decir, el polinomio MA
contiene una raz unitaria cuyo mdulo (valor absoluto) es 1.
SERIES ESTACIONARIAS EN TENDENCIA (TS) y SERIES ESTACIONARIAS EN
DIFERENCIA (DS)
La serie Y4 es un ejemplo simple de una serie estacionaria en tendencia. Esta serie
puede ser escrita como:
yt = 0 + 1t + ut, ut = ut-1 + t
o
yt = [0(1-) + 1] + 1(1-)t + yt-1 + t
donde t es un proceso de ruido blanco y <1. En la siguiente grfica se observa
que la serie Y4 flucta alrededor de la recta de tendencia y adems la amplitud de las
fluctuaciones no aumentan ni tampoco disminuyen. Por esta razn se dice que la serie
es estacionaria en tendencia (TS). El modelo de tendencia en este caso es 10+0.5t y
aparece denotado en la grfica como Y4HAT. Los incrementos constantes producen
una serie no estacionaria. Sin embargo, su primera diferencia es estacionaria y es de
la forma
yt = 1+ ut

donde ut es estacionaria, puesto que ut es estacionaria.

Elkin Castao Guillermo Prez 51


Observe que ut es un ARMA(1,0) y que (1-L) ut= (1-L)t es un ARMA(1,1) no
invertible, puesto que contiene una raz unitaria en su polinomio MA. Debido a este
problema, la diferenciacin no es la forma correcta de estacionarizar este tipo de
proceso. Observe que la serie puede ser estacionarizada restando la tendencia a la
serie original puesto que
zt = yt - 0 - 1t = ut, ut = ut-1+t
genera un proceso que es estacionario e invertible.

Si =1, se tiene la serie Y5, la cual se puede escribir como


yt = 0 + 1t + ut, ut = ut-1 + t
o
yt = 1+ yt-1+ t
En este caso las desviaciones de la tendencia, son no estacionarias debido a que ut es
un paseo aleatorio (existe una raz unitaria en el polinomio autorregresivo). Se observa
que las desviaciones tienden a alejarse de la lnea de tendencia. Para este caso la
primera diferencia toma la forma
yt=1+t

Elkin Castao Guillermo Prez 52

la cual es una serie estacionaria. En este caso se dice que la variable yt es


estacionaria en diferencias (DS).
Es importante analizar cul es la verdadera diferencia entre los modelos TS y DS, los
cuales aparentemente son muy similares, pero que de hecho hay una importante
distincin. Si denominamos a como la innovacin o choque (shock) aleatorio, se
puede probar que en el caso de una serie TS la innovacin tiene un efecto transitorio
sobre yt, es decir, su efecto va disminuyendo con el tiempo, mientras que si la serie es
DS su efecto es permanente, es decir, nunca desaparece (es persistente).
Considere el caso de una serie TS. Entonces ut mide la desviacin de la serie de la
lnea de tendencia en el perodo t. Examinemos el efecto de una innovacin t sobre
las desviaciones actuales y futuras de la serie. Del modelo ut = ut-1 + t, restando a
ambos lados ut-1 se obtiene
ut = t + (-1)ut-1 = t + (-1)(t-1 + t-2 + 2t-3 + )
Sea t el valor de la innovacin en el instante t. Se quiere investigar cul es efecto de t
desde el perodo t hacia adelante, suponiendo que t+1 = t+2 =...= 0. En la expresin
anterior y en las siguientes no se tendr en cuenta el trmino ut-1, el cual para este
anlisis se puede considerar como constante. Por lo tanto
ut=t
ut+1=(-1)t
ut+2=(-1)t
.
.
.
ut+s=s-1(-1)t
Sumando los trminos anteriores se obtiene,
s

ut + j = t [1+(-1)
j =0

Ahora, es fcil ver que

1 s
]= st
1

Elkin Castao Guillermo Prez 53


ut+s=ut-1+ut+ut+1+ ... +ut+s
de donde,
s

t+ j =

ut+s- ut-1

j =0

Por lo tanto
ut+s= ut-1+st
De esta forma, en un modelo TS el efecto de la innovacin t sobre las desviaciones
de la tendencia disminuyen hacia cero, siempre y cuando <1, a medida que nos
alejamos en el horizonte (s crece).
Para el caso de una serie DS, en la cual =1, se tendra que ut=t y en este caso
ut+s=ut-1+ t
Luego t tiene un efecto permanente sobre las desviaciones sucesivas de la tendencia.
Los resultados anteriores se pueden obtener de una forma ms simple, expresando a
ut en trminos de las innovaciones
ut = t + t-1 + 2t-2+
y por lo tanto

ut + s s
=
t
De esta ecuacin se obtienen los resultados anteriores de de acuerdo a si

||<1 o si

=1.
La comparacin entre series TS y DS ha sido desarrollada en trminos de modelos
con una especificacin muy simple. Estas situaciones pueden ser analizadas para
procesos ms complejos. De manera general, podemos tener modelos de la forma
yt - 0 - 1t = ut, donde A(L)ut = B(L)t
donde A(L) y B(L) son polinomios de orden p y q en el operador rezago. Cuando todas
las races del polinomio A(L) se encuentran fuera del circulo unidad, las desviaciones

Elkin Castao Guillermo Prez 54


de la tendencia seguirn un proceso estacionario ARMA(p, q). Ahora si A(L) contiene
una raz unitaria el resultado es un modelo DS. En este caso
A(L) = (1 - L)(1 - 2L)(1 - 3L)...(1 - pL) = (1 - L)A*(L)
donde las p-1 races de A*(L) se encuentran fuera del circulo unidad. Entonces el
modelo se puede escribir como
A*(L)( yt - 1) = B(L)t
as que la primera diferencia de la serie puede ser modelada por un proceso
estacionario ARMA(p-1, q).
Las siguientes tablas contienen los correlogramas para las primeras diferencias DY4 y
DY5.

Elkin Castao Guillermo Prez 55

Los correlogramas anteriores proporcionan un fuerte soporte de que las series son
estacionarias.
Sin embargo, anteriormente vimos que DY4 es un proceso ARMA(1,1) y a primera
vista parece sorprendente que ni las autocorrelaciones de bajo orden son
significativas. Esto se debe al siguiente hecho: antes se prob que

1 =

Cuando

( - )( 1 - )
1 - 2 + 2

y estn numricamente cercanos,

la primera y las siguientes

autocorrelaciones estarn cerca a cero. Este es el caso de DY4 donde =0.9 y =1.
Esto significa que si en un proceso ARMA(1,1)

( o, equivalentemente, las

races de sus correspondientes polinomios A(L) y B(L) son muy similares), la


identificacin del proceso a travs de la ACF y PACF no es posible. Este resultado se
puede extender a modelos ARMA(p, q).
Al analizar los correlogramas muestrales de DY4 y DY5 observamos que no muestran
diferencias en el comportamiento entre un proceso TS y un proceso DS.

Elkin Castao Guillermo Prez 56


Para tratar de solucionar este problema se han propuesto las pruebas de races
unitarias. Estas pruebas, sin embargo, tambin tienen baja potencia para distinguir
estos procesos.
PRUEBAS DE RACES UNITARIAS
Considere el modelo AR(1) con tendencia lineal
yt=0+1t+ut, ut=ut-1+t
o, equivalentemente
yt=[0(1-)+1]+ 1(1-)t+yt-1+t
Para tratar de diferenciar entre una serie TS y una DS se desarrolla la prueba de la
hiptesis
HO: =1
H1: <1
Si no se rechaza HO entonces el proceso tiene raz unitaria y por lo tanto es no
estacionario. En este caso se tendra un proceso DS. Bajo H1 el proceso sera
estacionario en tendencia (TS).
Debido a que bajo HO el modelo es no estacionario, sus parmetros no se pueden
estimar directamente, la prueba propone transformar el modelo original
yt = [0(1 - ) + 1] + 1(1 - )t + yt-1 + t
restando yt-1 a ambos lados de la igualdad y agrupando trminos, como:
yt = [0(1 - ) + 1] + 1(1 - )t + yt-1 + t
donde = -1.
En trminos de este nuevo modelo, las hiptesis anteriores sern de forma
HO: = 0 (La serie no es estacionaria)

Elkin Castao Guillermo Prez 57


H1: < 0 (La serie es estacionaria)
Si = 0, lo que equivale que a que = 1, hay una raz unitaria y la serie no es
estacionaria. Si < 0, lo que equivale que a que <1, la serie es estacionaria. Se
observa que bajo HO este modelo es estacionario para yt y sus parmetros pueden
ser estimados usando mnimos cuadrados.
El procedimiento para realizar la prueba es el siguiente.
+

= 0(1 - ) + 1 y

Observe que

Se ajusta por OLS el modelo yt =

t + yt-1 + t.

= 1(1 - ) .

Se define el estadstico de prueba como

t =

SE( )

donde SE( ) es el error estndar del estimador .


Este estadstico no sigue la distribucin t, ni es asintticamente N(0,1), ya que bajo
la hiptesis nula el proceso yt no es estacionario, puesto que el modelo se reduce a
yt = 1 + t
el cual es un paseo aleatorio con deriva. En estos casos se dice que la distribucin del
estadstico t no es estndar.
El problema de la inferencia fue resuelto por Dickey y Fuller en 1979, quienes
obtuvieron la distribucin lmite del estadstico anterior, para varios casos importantes.
Las distribuciones fueron obtenidas empricamente por Dickey. Estas pruebas son
conocidas como las pruebas de Dickey-Fuller.
Posteriormente Mackinnon (1991) revisa y recalcula los nmeros crticos de las tablas
originales

de

DickeyFuller

para

cualquier

tamao

muestral

diferentes

especificaciones de las regresiones.


La prueba anterior intenta discriminar entre los modelos que generan las series Y4 y
Y5. Es importante tambin discriminar entre modelos que generan las series Y1 y Y2,

Elkin Castao Guillermo Prez 58


88888donde no hay tendencia lineal. En este caso se tiene que 1=0. El procedimiento
puede ser derivado como antes haciendo 1=0. Esto proporciona la ecuacin
yt=0(1-)+yt-1+t
y el modelo equivalente es
yt=0(1-)+yt-1+t
Bajo la hiptesis nula, esta ecuacin se reduce a
yt=t
de manera que la serie yt es no estacionaria y corresponde a un paseo aleatorio sin
deriva.
Finalmente, tambin es posible que 0=0. En este caso se tendra que
yt=yt-1+t
y el modelo equivalente es
yt=yt-1+t
Bajo la hiptesis nula, el modelo anterior tambin se reduce a
yt=t
Como antes, para los dos casos anteriores el contraste de inters ser:
HO: =0
H1: <0
Para estas dos situaciones es usual hablar de los estadsticos y respectivamente.
De nuevo la inferencia clsica no es vlida. Pero DickeyFuller construyen las tablas
para poder realizar esta prueba de hiptesis. Es bueno observar que cada una de las
tres situaciones, dependiendo tambin del tamao de la muestra, tienen sus propios
valores crticos. Un software como el EViews entrega los respectivos valores crticos.

Elkin Castao Guillermo Prez 59

La prueba aumentada de Dickey-Fuller. Hasta aqu, toda la metodologa


desarrollada asume que el proceso yt es un AR(1). Si lo anterior no es cierto se
presentara autocorrelacin en el trmino de perturbacin t, lo cual invalida las
anteriores pruebas. Este problema se puede corregir, incluyendo una estructura de
rezagos en los modelos (1), (2) y (3) (ver texto pgina 226).Para el modelo (2), se
estimara por OLS a
yt=+yt-1+

p 1

y
i =1

t i

+t

Para esta situacin se habla de la prueba ampliada (o aumentada) de DickeyFuller


(ADF). Un problema prctico de esta prueba es que el valor de p (el orden de la parte
autorregresiva en el modelo) es desconocido.
Existen varios mtodos para elegir la longitud ptima. El ms utilizado es el mtodo
del Hall (1994), que es secuencial y propone iniciar la bsqueda con una longitud
relativamente grande de rezagos p-1

para luego ir disminuyendo el nmero de

rezagos hasta encontrar un estadstico significativo (se estima el modelo con p-1
rezagos y se analiza si el parmetro asociado al rezago p-1 es estadsticamente
significativo, si no lo es se estima el modelo con p-2 rezagos, y as sucesivamente).
Otros mtodos estn basados en los criterios de informacin de Akaike, Schwarz y
Hannan-Quinn (ver su definicin ms adelante), en los que se busca el nmero de
rezagos que minimice el valor de los criterios. Despus de seleccionado el nmero de
rezagos, se debe analizar si efectivamente los residuales son ruido blanco: grfico de
residuales, correlograma, prueba de Breusch - Godfrey, prueba Q de BoxLjung.
En la literatura se han propuesto otras pruebas que tratan de mejorar el desempeo de
la prueba ADF. Estas pruebas tratan de mejorar la prueba ADF cuando se presentan
problemas de autocorrelacin o de heterocedasticidad en el trmino de perturbacin.
Es importante tener en cuenta que las pruebas de races unitarias tales como la
prueba ADF y otras propuestas en la literatura, pueden ser afectadas por cambios
estructurales en las series de tiempo. Por ejemplo, Perron(1989,1990) mostr que la
aplicacin de la prueba ADF a series estacionarias

en torno a un nivel o a una

tendencia que sufren cambio estructural, podra llevar a concluir errneamente, que

Elkin Castao Guillermo Prez 60


las series presentaban raz unitaria. Perron desarroll una prueba para analizar esta
situacin (ver Enders, pgina 200).
Ejemplos numricos.
Ejemplo 1. La serie Y1 anterior es un proceso AR(1) estacionario con parmetro 0.95.
La aplicacin de la prueba de Dickey-Fuller para el modelo con constante, proporciona
los siguientes resultados.

Los resultados muestran que la existencia de una raz unitaria no puede ser rechazada
a un nivel significancia de 0.10. Este resultado es sorprendente puesto que el proceso
verdadero es estacionario. Sin embargo, su parmetro est muy cerca de 1. Si se
aumenta el tamao de la muestra a 200 observaciones, el estadstico DF es -3.42 y el
valor crtico para un nivel de significancia del 1% es de -3.46, lo cual conduce a
rechazar la hiptesis de raz unitaria para niveles de significacin prximos al 1%.
Ejemplo 2. Para la serie estacionaria en tendencia Y4, los resultados de la prueba se
muestran en la siguiente tabla. Para la realizacin de la prueba se emple el modelo
con tendencia lineal.
El valor del estadstico DF es -2.94, el cual falla en rechazar la hiptesis de raz
unitaria a un nivel de significancia del 10%. De nuevo, este resultado se debe a que el
valor del coeficiente AR es de 0.9. Esto ilustra la baja potencia que tiene la prueba en

Elkin Castao Guillermo Prez 61


estos casos. La falla en rechazar Ho conduce a una aceptacin cuidadosa y
provisional de la existencia de una raz unitaria.

Estabilizacin de la varianza de una serie de tiempo

Transformaciones que estabilizan la varianza. No todas las series de tiempo


pueden ser transformadas a estacionaridad por medio de la diferenciacin.
Muchas series de tiempo son estacionarias en media pero no en varianza. Para
estacionarizar una serie que no sea estacionaria en varianza frecuentemente
se emplea una transformacin de potencia la cual

puede estabilizar su

varianza.

Es muy frecuente que un proceso no estacionario su varianza cambie a medida


que cambia su nivel, es decir,

Var ( Z t ) = cf ( t )
para alguna constante c y f positivas y f montona. En estos casos es
posible encontrar una transformacin T ( Z t ) de forma tal que Var[T ( Z t )] sea
constante.

Elkin Castao Guillermo Prez 62

Cuando la varianza de una serie es una funcin montona de su nivel, es


posible estacionarizar la varianza usando una familia de transformaciones
introducida por Box y Cox (1964), la cual est definida por:

T (Z t ) = Z

( )
t

Z t 1

si 0

= ln(Z t ) si = 0
 es llamado el parmetro de la transformacin.
 se obtiene como el valor que minimiza

S( )=

(Z
t =i

( )
t

( ) ) 2

donde ( ) es la media muestral de la serie transformada usando .


Puesto que para cada , la suma S( ) est medida en una escala diferente,
el valor de no puede ser directamente seleccionado por la comparacin de
S( ) para diferentes valores de . Para hacerlas comparables debemos

reemplazar Zt( ) por

Z 1
T ( Zt ) = Zt( ) = t
si 0
Z 1

= Z ln(Zt )

si = 0

1/ n
 n

donde Z = Z t , es la media geomtrica de las observaciones Z t .


t =1

Observaciones sobre la transformacin de Box y Cox :

 Slo est definida para series positivas. Sin embargo, si una serie tiene valores
negativos, la transformacin puede ser usada sumando una constante a la
serie de forma tal que se vuelva toda positiva. Esto no altera la estructura de
correlacin de la serie.

Elkin Castao Guillermo Prez 63

 Si es necesaria una transformacin para estabilizar varianza, debe obtenerse


antes de hacer cualquier otro anlisis tal como diferenciar la serie.
 Frecuentemente, la transformacin no solamente estabiliza la varianza, sino
que puede mejorar la aproximacin a la normalidad del proceso.
 La transformacin es til para realizaciones con un nmero moderado o grande
de observaciones.
Ejemplo.
Considere los datos anuales del producto nacional bruto (GNP) de EU de 1889 a
1970, representados en el siguiente grfico.
Producto nacional bruto de EU, 1889-1970

Se observa que a medida que el nivel de la serie crece la variabilidad tiende a


crecer. El grfico de la primera diferencia muestra claramente como la variabilidad
de los cambios va aumentando a medida que pasa el tiempo.
Primera diferencia del Producto nacional bruto de EU, 1889-1970

Elkin Castao Guillermo Prez 64


Usando la Transformacin de Box y Cox para en el intervalo [-2, 2] con un
incremento de 0.1, se obtiene la siguiente tabla generada por el proceso de
minimizacin de la suma de cuadrados, donde ECM= S( )/n.
VARIABLE
1
2
3

LAMBDA

ECM

-2.000 .1093E+06
-1.900 94221.289
-1.800 81575.164


12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28

-.900
-.800
-.700
-.600
-.500
-.400
-.300
-.200
-.100
.000
.100
.200
.300
.400
.500
.600
.700

37
38
39
40
41

1.600
1.700
1.800
1.900
2.000

29170.873
27003.977
25220.502
23772.451
22621.273
21736.520
21094.795
20678.969
20477.582
20484.469
20698.543
21123.764
21769.260
22649.650
23785.533
25204.188
26940.527


68672.359
78627.086
90492.766
.1047E+06
.1216E+06

El grfico de contra S ( ) / n es el siguiente.

Los resultados muestran que una transformacin adecuada es =-0.1. Por


conveniencia se toma =0, es decir que la transformacin logartmica estabiliza la

Elkin Castao Guillermo Prez 65


varianza de la serie. El siguiente grfico muestra la serie ln( Z t ) , cuya varianza es
estable.
Logaritmo Natural del Producto nacional bruto de EU

A continuacin se presenta un programa en EViews para calcular la transformacin


incondicional de Box y Cox.
'--------------------------------------------------------------------------------------------------------'MACRO PARA EL CLCULO DE LA TRANSFORMACIN DE BOX-COX
'--------------------------------------------------------------------------------------------------------workfile u 1 2000
'--------------------------------------------------------------------------------------------------------'cambie la ruta del archivo de entrada EXCEL
'el nombre de la serie en el archivo Excel debe ser z
read(t=xls, a2) G:\UdeA\Pregrado\Curso_eco2\gnp_1889_1970.xls 1
'--------------------------------------------------------------------------------------------------------smpl if z<>na
' grfica de la serie original Z
graph graf_orig.line Z
'--------------------------------------------------------------------------------------------------------' Transformacin de BOX-COX para estabilizar la varianza de Z
'--------------------------------------------------------------------------------------------------------' entre el mnimo valor de lamba
scalar lmin=-2
' entre el mximo valor de lamba
scalar lmax=2
' entre el incremento
scalar lincr=0.1
scalar numlamb=(lmax-lmin)/lincr+1
equation eq0.ls z c
scalar nobs=@regobs
series lz=log(z)
scalar lk2=@mean(lz)
scalar k2=exp(lk2)
vector(numlamb) lambdan
vector(numlamb) ssen
scalar i=0
for !j=lmin to lmax+lincr step 0.1
scalar i=i+1
vector lambdan(i)=!j

Elkin Castao Guillermo Prez 66


scalar k1=1/(!j*k2^(!j-1))
series zlambda=k1*(Z^!j-1)
series desv=(zlambda-@mean(zlambda))^2
scalar sse0=@sum(desv)
vector ssen(i)=sse0
next
series desv=(k2*log(Z)-@mean(k2*log(Z)))^2
ssen(-lmin/lincr+1)=@sum(desv)
mtos(lambdan, lambda)
mtos(ssen, sse)
'--------------------------------------------------------------------------------------------------------' El grupo lamb__sse presenta los valores de lambda y de sse
'--------------------------------------------------------------------------------------------------------group lamb__sse lambda sse
'--------------------------------------------------------------------------------------------------------' El grfico minimizacion presenta el grfico de dispersin de sse contra lambda
'--------------------------------------------------------------------------------------------------------graph minimizacion.scat lambda sse
'--------------------------------------------------------------------------------------------------------' El vector TBOX_COX contiene la transformacin de Box-Cox
'--------------------------------------------------------------------------------------------------------scalar tb=@min(sse)
smpl if sse=tb
vector TBOX_COX=lambda
stop

CONSTRUCCIN de UN MODELO DE SERIES DE TIEMPO: IDENTIFICACIN,


ESTIMACIN y PRUEBAS DE DIAGNSTICO
Dada una serie de tiempo y1, y2, ..., yn, Box y Jenkins presentan un estrategia para
construir un modelo para la serie, basada en tres etapas: identificacin, estimacin y
diagnsticos o validacin del modelo. El siguiente diagrama ilustra la estrategia.

Elkin Castao Guillermo Prez 67

Etapa I: Identificacin del modelo


Inicialmente, se propone que la clase general a la que pertenece del modelo que
genera la serie es un modelo ARIMA(p,d,q), de la forma:

A(L)(1-B)d

y (t)

= m + B(L)t

bajo las condiciones antes vistas. La etapa de identificacin consiste en seleccionar:

: el parmetro de la transformacin para estabilizar la varianza.


d: El nmero mnimo de veces que se requiere diferenciar la serie para que sea
estacionaria.
p: El orden de la componente AR.
q: El orden de la componente MA.
m: es necesario incluir una constante?
 La seleccin de es lo primero que se debe hacer, empleando la transformacin
de Box y Cox.

Elkin Castao Guillermo Prez 68


 A continuacin se identifica el valor de d. Generalmente d es 0, 1, 2. Para la
seleccin de d se emplean: la grfica de la serie de tiempo, la ACF muestral y las
pruebas de races unitarias.
 La identificacin de p y q puede estar basada en el empleo de la ACF y PACF
muestrales. Si el proceso que gener la serie es un AR o un MA, el empleo de la
ACF y la PACF muestrales ayudan en la seleccin del posible valor de p para el
AR o de q para el MA. La identificacin de p y q en un proceso mixto ARMA es
mucho ms complicado. Se trata de buscar un modelo que sea parsimonioso, es
decir que los valores de p y q sean bajos y el modelo sea adecuado. Una forma de
proceder es la de estimar todos los modelos ARMA(p, q), para p=0, 1, 2, ,p*, y
q=0,1, 2, ..q*, donde p* y q* son generalmente bajos. Usando el criterio de
informacin de Akaike (1969),

AIC(m)=

-2(l / n ) + 2( m / n )

o el de Schwarz (1978),

SBC(m)=

-2(l / n ) + mln(n)/n

o el de Hannan-Quinn (1979),

HQ= -2(l

donde

/ n ) + 2mln(ln(n))/n

l es el logaritmo de la funcin de verosimilitud estimada con m parmetros

y m=p+q (+1 si hay un trmino constante), se seleccionan el modelo con mnimo


AIC o SBC o HQ y los modelos con valores ms prximos a ste. A continuacin
se validan y se elige el de mejor comportamiento.
Hannan y Rissanen sugieren una metodologa para tratar de seleccionar p y q (Ver
texto Johnston y DiNardo, pgina 228).

Tsay y Tiao (1984) siguieren usar la

funcin de autocorrelacin extendida (EACF) (ver Wei, 2006, pgina 128).


 Para determinar si es necesario incluir la constante m.
Grficamente: Si la serie es estacionaria, observe si la serie oscila alrededor de
una valor diferente de cero. Si la serie no es estacionaria, observe si la serie tiene
una tendencia (positiva o negativa) fuerte.
Analticamente: Inicialmente introduzca la constante y verifique su significancia
estadstica una vez el modelo haya sido estimado.

Elkin Castao Guillermo Prez 69


Etapa II: La estimacin del modelo
Despus de realizar la identificacin del modelo se debe estimar el proceso
estacionario seleccionado. La estimacin de un modelo mixto ARMA(p,q), conduce a
mtodos de estimacin no lineal. Los paquetes economtricos han implementado
diferentes metodologas para realizar las estimaciones de estos modelos. Es comn
hablar de estimaciones de mnimos cuadrados lineales, no lineales, estimacin
mximo verosmil condicional, estimacin mximo verosmil incondicional y de mxima
verosimilitud completa o exacta, bajo normalidad del trmino de perturbacin.
Por ejemplo, para el caso de la estimacin de un modelo AR(1),
yt=m+yt-1+t <1
se puede emplear OLS siempre y cuando el trmino de perturbacin sea ruido blanco.
En general, un proceso AR(p), estacionario tambin se estima por OLS. En este caso
los estimadores sern consistentes. Los estimadores de mxima verosimilitud
condicional (condicional a y1, el cual se asume como fijo) de m y coinciden con los
estimadores OLS: el sistema de ecuaciones que resulta para realizar la estimacin de
mxima verosimilitud condicional son lineales. Para un proceso AR(1) la funcin de
verosimilitud condicional se puede escribir como:
L*=f(y2, y3,..., yn/y1)=f(y2/y1)f(y3/y2)...f(yn/yn-1)
Observe que L* es condicional al valor de y1.
Bajo normalidad, se tiene que
f(yt/yt-1)=

2
1

/2 2
e ( y t m y t 1)
2

Por lo tanto, el logaritmo de la funcin de verosimilitud est dado por:

LnL*= K -

n 1
1
ln(2)2
2 2

(y m y )
t=2

t 1

Elkin Castao Guillermo Prez 70


donde K es una constante. Maximizando con respecto a m y se obtienen los
respectivos estimadores, los cuales coinciden con los OLS. De igual forma se obtiene
el estimador de la varianza.
Para obtener los estimadores de mxima verosimilitud completa, bajo normalidad, la
funcin que se maximiza est dada por
L= f(y1, y2, y3,..., yn)=f(y1)L*
Se puede probar que el logaritmo de esta funcin es

LnL = K-

1
n
1 2
ln(2)+1/2ln(1-2)(y1-m/(1-))22
2 2
2
2

(y m y )
t=2

t 1

El sistema de ecuaciones que se obtiene en el proceso de maximizacin ya no es


lineal, por lo tanto se debe recurrir a tcnicas no lineales (algoritmos de bsqueda).
La estimacin de un proceso MA es todava ms complicado. Por ejemplo, un MA(1)
con media cero, est definido por
yt = t - t-1
donde 1, 2, ...., n son desconocidos. Al aplicar OLS se debera encontrar el valor de
que minimice
n

t=1

t =1

S()= 2t = ( y t + t 1)

Como yt = t - t-1, entonces t = yt + t-1 y 1, 2, ...., n pueden ser obtenidos de la


siguiente forma:
1= y1 +0
2= y2 +1= y2 +( y1 +0)= y2 +y1 +20
3= y3 +2= y3 +(y2 +y1 +20)= y3 +y2 +2y1 +30


t-1= yt-1 +t-1= yt-1 +yt-2+...+t-2y1 + t-10

Elkin Castao Guillermo Prez 71


Si fuera 0 conocido, S() solamente depende de , y el estimador OLS, es aquel valor
de que minimiza a S(). Observe que

dS( )
es una ecuacin no lineal en ya que
d

depende de , 2, 3,..., n-1, por lo tanto se debera emplear mnimos cuadrados no


lineales (NLS). Es usual seleccionar a 0 como cero debido a que E[0]=0.
El mtodo de estimacin incondicional o de backasting desarrolla una estimacin de
los valores iniciales para usando pronsticos hacia atrs.
Para la estimacin de un MA(1) tambin se puede emplear la mxima verosimilitud
completa o exacta.
Como es de esperar, todos estos problemas se presentan en la estimacin de un
ARMA(p, q).
Etapa III: Pruebas de diagnstico (validacin del modelo)
En esta etapa se debe verificar que el modelo estimado cumpla adecuadamente con
los supuestos tericos bajo los cuales fue construido.

1. Se deben analizar las races de A(L)=0


y B(L)=0
, donde

A(L)
y B(L)
son las

igual a 1 o
estimaciones de los polinomios A(L) y B(L) . Una raz de A(L)=0

muy prxima 1 podra indicar subdiferenciacin de la serie. Una raz de B(L)=0


igual a 1 o muy prxima 1 podra indicar sobrediferenciacin de la serie.
2. Se debe probar que los residuos no estn correlacionados. Las herramientas ms
empleadas son el grfico de los residuales, el ACF muestral y la prueba de BoxPierceLjung, la cual permite concluir si efectivamente los residuales son ruido
blanco o, si por el contrario, queda alguna estructura que el modelo no pudo
captar.
Prueba de Box-Pierce-Ljung: Est basada sobre los cuadrados de las primeras M
autocorrelaciones de los residuales, rj, j=1, 2, ,M. Se quiere probar
H0: 1 = 2 = ... = M = 0 contra H1: Existe al menos un
esto, defina el estadstico
M

Q=n(n+2) rj
j=1

/(n-j)

j 0 , j = 1,2,...,M. Para

Elkin Castao Guillermo Prez 72


Bajo H0 y n grande Q ~ (2p + q ) . Rechace H0 si el valor p de la prueba es pequeo.

3. Se debe probar que los residuos no son heterocedsticos. La grfica de residuos


puede revelar a simple vista si, por ejemplo, la hiptesis de varianza constante es
admisible.
4. Examinar la presencia de observaciones atpicas. Usando la grfica de los
residuales se examina si se presentan residuales extremadamente grandes, lo cual
puede indicar que:
 Existen errores en los datos.
 Hay observaciones extremas o atpicas (outliers) como consecuencia de
cambios estructurales.
 No hay normalidad.
Un anlisis preliminar consiste en obtener y graficar los residuales estandarizados.
Bajo normalidad, las observaciones atpicas pueden ser detectadas cuando el valor
absoluto del residual estandarizado es mayor que 2.5.
5. Anlisis de normalidad sobre los residuales de la serie. Puede emplearse, entre
otras la prueba de Jarque y Bera y el grfico cuantil-cuantil normal.
Suponga que x1 ,  , xT un conjunto de datos tamao T. Entonces:
El coeficiente de asimetra muestral es S ( x) =
El coeficiente de curtosis muestral es K ( x) =
donde X2 =

1
(T 1) X3

(x

1
(T 1) X4

X ) 3

X ) 4

t =1

(x
t =1

1 T
1 T
2
y
(
x

=
X
t X
xt .
T 1 t =1
T t =1

Bajo normalidad, el verdadero coeficiente de asimetra es 0 y el verdadero


coeficiente de curtosis es 3.

Entonces, cuando los datos proceden de una

poblacin normal los estimadores anteriores estarn cerca de 0 y 3


respectivamente. Jarque y Bera (1987) proponen contrastar la hiptesis nula de
normalidad usando esta informacin. Definen el estadstico de prueba

Elkin Castao Guillermo Prez 73

JB =

S 2 ( x) ( K ( x) 3) 2
+
6/T
24 / T

el cual tiene una distribucin chi-cuadrado con 2 grados de libertad bajo H0 y n


grande. Por tanto, se rechaza el supuesto de normalidad si JB > 22 ( ) , donde

22 ( ) es el cuantil superior de la distribucin 22 .


6. Finalmente, se analiza la significancia de los parmetros estimados. Las pruebas
son similares a las desarrolladas para probar la significancia de los parmetros
estimados de un modelo de regresin.
En la prctica es posible que el modelo estimado no sea satisfactorio, por lo tanto se
debe tratar de seleccionar otro(s) modelo(s) y volver a realizar las etapas II y III.
Tambin es posible que varios modelos estimados cumplan las pruebas de
diagnsticos, en este caso se debe recurrir a criterios de seleccin de modelos. Los
ms empleados son los criterios de informacin de Akaike (AIC), Schwarz (SBC) y el
de Hannan-Quinn. Se prefiere el modelo con los valores mnimos en estos criterios.
PRONSTICOS PARA SERIES DE TIEMPO
Uno de los objetivos ms importantes de la metodologa ARIMA es poder realizar
pronsticos. Frecuentemente estas predicciones son utilizadas como un punto de
comparacin para pronsticos proporcionados por modelos multivariados ms
complicados. En todo pronstico hay dos fuentes de error:

Errores debido al desconocimiento de las futuras innovaciones.

Errores debido a la diferencia entre los valores verdaderos y sus estimaciones.

En esta primera parte solamente trataremos con la primera fuente de error (es decir,
suponiendo que se conocen los verdaderos parmetros del modelo) y se ilustrarn los
principios con algunos procesos de bajo orden.
Dada un serie de tiempo y1, y2, ..., yn y asumiendo que estas observaciones son
generadas por un proceso ARIMA(p,d,q), se quiere pronosticar a y en los perodos
n+1, n+2, ..., es decir se desea pronosticar a yn+s, s=1, 2, ..., conocida la informacin
hasta n.

Elkin Castao Guillermo Prez 74


La idea intuitiva es obtener un pronstico que est cerca al verdadero valor yn+s. Sea

yn+ s el valor del pronstico de yn+s basado en la afirmacin hasta el perodo n.


Tericamente se desea encontrar un valor yn+ s tal que su error cuadrtico medio dado
por
E[( yn+s - yn+ s )2]
sea mnimo.
A en+s = yn+s - yn+ s se le llama el error de pronstico y E[(yn+s - yn+ s )2] es el error
cuadrtico medio.
Se puede probar que el pronstico ptimo de yn+s (de error cuadrtico medio mnimo)
para un modelo general ARIMA(p,d,q) que se realiza con informacin hasta el perodo
n, es la esperanza condicional de yn+s dada la informacin hasta el perodo n, es decir

yn+ s = En[yn+s]= E[yn+s/y1, y2, ..., yn]


Por medio de esta propiedad es fcil derivar los pronsticos de cualquier modelo de
esta clase.

El modelo general ARIMA(p,d,q) puede ser escrito como A(L)(1-L) d y t = m + B(L)a t .


( )es un polinomio de orden p+d en potencia de
L

. Entonces
Sea A(L)(1-L)d = ( )

L y el modelo para yt se puede escribir como:

(1- 1L - 2 L2 -...- p+d Lp+d )y t =m+(1- 1L - 2 L2 -...- q Lq ) t


o, para t=n+s ,

y n+s =m + 1 y n+s-1 + 2 y n+s-2 + ...+ p+d y n+s-(p+d) + n+s -1 n+s-1 - 2 n+s-2 -...- q n+s-q
Tomando esperanza condicional a la informacin hasta el perodo n, el pronstico de
yn+s se puede calcular como:

Elkin Castao Guillermo Prez 75

E(y n+s |y n, y n-1, ...)= m + 1E(y n+s-1|y n, y n-1, ...)+ 2 E(y n+s-2 |yn, y n-1, ...)+...+
p+d E(y n+s-(p+d) |y n, y n-1, ...)+E( n+s |y n, y n-1, ...)-1E( n+s-1|y n, y n-1, ...) 2 E( n+s-2 |y n, y n-1, ...)-...- q E( n+s-q |y n, y n-1, ...)
o,

y n+s = m + 1 y n+s-1 + 2 y n+s-2 +...+ p+d y n+s-p-d + n+s -1 n+s-1 - 2 n+s-2 -...- q n+s-q
donde

y n+j = E(y n+j |y n ,yn-1 ,...)

si j>0

y n+j = y n+j

si j 0

n+j = 0

si j>0

n+j = y n+j - y n-1+j+1 = n+j

si j 0

Donde y n-1+j+1 es el pronstico de yn+j basado en la informacin hasta el perodo n+j-1.


A continuacin se aplicar este resultado a algunos modelos particulares.
Pronsticos con un modelo AR(1)
Dado el modelo estacionario
yt = m+yt-1+ t

t=1, 2, ..., n

Se puede ver que

yn+1 = m+yn con var(en+1)= 2


yn+2 = m+ yn+1 = m+m+2yn con var(en+2)=(1+2) 2
yn+3 = m+ yn+2 = m+m+2m+3yn con var(en+3)=(1+2+4) 2
de forma general,

yn+ s =m+ yn+s1 =m(1++2+...+s-1) + syn = m

1 s s
+ yn
1

Elkin Castao Guillermo Prez 76


con var(en+s)=(1+2+ ... +2(s-1)) 2

Si s

yn+ s

m
=
1

var(en+s)

= 2
y
1 2

Se observa que cuando el horizonte se incrementa, el

valor del pronstico y la

varianza del error de pronstico tienden a la media y a la varianza no condicional del


proceso.
Pronsticos con un proceso MA(1)
Un proceso MA(1) est dado por
yt = + t - t-1
En este caso se tiene que
n

yn+1 = -
yn+2 =

con var(en+1)= 2
con var(en+2)=(1+2) 2 = 2y

En general,

yn+ s = s 2

con var(en+s)=(1+2) 2 = 2y

Pronsticos con un proceso ARMA(1,1)


Considere el proceso
yt = m + yt-1 + t - t-1
Entonces,
n

yn+1 = m + yn -

con var(en+1) = 2
n

yn+2 = m + m + 2yn -

con var(en+2) = (1+(-)2) 2


n

yn+3 = m + m + m2 + 3yn - 2

con var(en+3) = (1+(-)2(1+2)) 2

yn+ s = m +m+m2 +...+ ms-1 + syn - s-1

con var(en+s) = [1 + ( - )

1 2(s1) 2
]
1 2

Elkin Castao Guillermo Prez 77


Adems, si s

1 2 + 2 2
2
var(en+s)
= y
1 2

yn +s

Pronsticos con un proceso ARIMA(1,1, 0)


Suponga que la serie zt sigue un proceso ARIMA(1,1,0). En este caso zt es tal que
sus primeras diferencias siguen un proceso AR(1) estacionario. Es decir, yt=zt-zt-1 es
un proceso AR(1) y por lo tanto yt=m+yt-1+t.
Se puede probar que
zn+s=zn+s+

1 s
(yn-) + en+s
1

donde
en+s=n+s+(1+)n+s-1 + (1++2)n+s-2 + (1++2+...+s-1)n+1
El pronstico para zn+s es

zn +s = zn + s +

1 s
(yn - )
1

con var(en+s) = [1+(1+)2+(1++2)2 +...+(1++2+...+s-1)2] 2


y donde =

m
.
1-

Se observa que la varianza del pronstico se incrementa indefinidamente a medida


que s crece, luego para una serie no estacionaria los pronsticos sern cada vez ms
imprecisos a medida que el horizonte del pronstico crece.
Todas las frmulas anteriores estn basadas en el supuesto de que los parmetros del
modelo son conocidos. En la prctica, se les reemplaza por sus estimaciones. Como
resultado, los estimadores puntuales de los pronsticos seguirn siendo

de error

cuadrtico medio mnimo asintticamente. Sin embargo, las varianzas estimadas del
error de pronstico subestiman a los verdaderos valores debido a que la formula no
incorpora la incertidumbre en el coeficiente.
Intervalos de prediccin para yn+s
Bajo el supuesto de normalidad, la construccin de un intervalo de prediccin de
( 1 )%, para yn+s est basado en que en+s = yn+s - yn+ s ~ N(0, Var(en+s)). Debido a

Elkin Castao Guillermo Prez 78


que Var(en+s) la varianza depende del parmetro desconocido 2 , reemplazndolo por
dist
su estimador se obtiene que para muestras grandes en+s = yn+s - yn+ s
N(0,


Var(e
) ). Empleando este resultado, los lmites aproximados de un intervalo de
n+s
prediccin de ( 1 )% para yn+s estn dados por


) ]1/2
yn+ s z( / 2 )[ Var(e
n+s
EVALUACIN DE PRONSTICOS
Es importante evaluar la capacidad predictiva del modelo. En el trabajo aplicado con
series de tiempo es comn evaluar la capacidad predictiva de un modelo comparando
los valores observados con los pronosticados. Para desarrollar estas ideas es usual
ajustar el modelo con las T primeras observaciones y analizar luego cmo el modelo
predice las h observaciones siguientes, donde n=T+h, siendo n el tamao de la
muestra disponible. Algunas de las medidas ms empleadas son:

La raz del error cuadrtico medio:


n

RMSE=

( y t y t )

t = T +1

El promedio de los valores absolutos de los errores de pronsticos


n

y t y t

MAE= t =T +1

El promedio del error porcentual absoluto


n

MAPE=

El coeficiente de desigualdad de Theil

t = T +1

yt y t
yt
h

Elkin Castao Guillermo Prez 79

RMSE

TIC=

y t

t = T +1

yt

t = T +1

El RMSE y MAE dependen de la escala de la variable dependiente y por lo tanto se


pueden emplear para comparar pronsticos de la misma serie para modelos
diferentes. Los otros dos estadsticos no dependen de la escala.
Se puede probar que 0TIC1. TIC=0

indica que las predicciones fueron

perfectas.
Con base en el error cuadrtico medio se definen:

La proporcin del sesgo:


2

PS=

( y - y)
n

( y y )

t = T +1

La proporcin de la varianza
2

PV=

( sy - sy )
n

( y y )

t = T +1

La proporcin de la covarianza
PC=

2(1 r ) sy sy
n

( y y )

t = T +1

h
donde r es el coeficiente de correlacin entre yt y y t ; y, y, sy , sy son las medias y
desviaciones estndar de yt y y t . Se puede probar que PS+PV+PC=1.
PS es una medida de la desviacin del promedio del pronstico con relacin al
promedio de la serie observada (medida del error sistemtico). Valores grandes de
PS (mayores de 0.1 o 0.2) indican que un sesgo sistemtico esta presente y por lo
tanto el modelo se debera revisar. La proporcin de la varianza nos informa la

Elkin Castao Guillermo Prez 80


capacidad que tiene el modelo de replicar la variabilidad de la serie. PC mide el
error no sistemtico. La situacin ideal sera PS=PV=0 y PC=1.
SERIES DE TIEMPO ESTACIONALES
Muchas series de tiempo que son medidas en intervalos regulares dentro del ao
pueden mostrar un patrn de comportamiento similar entre los aos o comportamiento
estacional. Por ejemplo, la venta mensual de juguetes se leva en el mes de diciembre
de cada ao. Es comn que las series mensuales, trimestrales, semestrales, etc.
tengan patrones estacionales, es decir que se presente similitud de comportamiento
entre observaciones para el mismo mes o trimestre en aos consecutivos. El mnimo
nmero de perodos

en el cual se presenta este fenmeno es llamado perodo

estacional y se denota por s. Para series mensuales, generalmente s=12, para series
trimestrales s =4, para series semanales s =52, etc.
Series estacionales estacionarias
Modelos

Autorregresivos

estacionales.

Para

datos

trimestrales

de

series

estacionales (s=4) estacionarias, el modelo autorregresivo estacional ms simple


sigue la especificacin
xt = xt - 4 + ut donde ||<1
donde ut es ruido blanco. El modelo anterior es llamado un modelo autorregresivo
estacional puro de orden 1, el cual se denota por SAR(1)4. En este caso la ACF de la
serie es:

i
o

k=

k = 4i i = 1, 2, ...
K 4i i = 1, 2, ...

Correlograma para un SAR(1) con 0<<1

Elkin Castao Guillermo Prez 81


Correlograma parcial para un SAR(1)4 con 0<<1

Sin embargo frecuentemente la serie tambin contiene componentes no estacionales.


En este caso ut no sera ruido blanco. Por ejemplo, puede ocurrir que ut contenga un
patrn AR(1), es decir
ut = ut-1+t
donde ||<1 y t es ruido blanco. Entonces el modelo para la serie se puede escribir
como
(1-L4)xt =ut
como ut = ut-1+ t se tiene que (1-L)ut=t. Puesto que ||<1, entonces ut=(1-L)-1t
y reemplazando en el modelo anterior se obtiene
(1- L)(1-L4)xt =t
Este es un ejemplo simple de un modelo autorregresivo multiplicativo estacional, el
cual se denota AR(1)xSAR(1)4. Realizando las multiplicaciones entre los polinomios,
el modelo tambin se puede escribir se escribe como:
(1- L - L4 + L5)xt = t
o,
xt = xt-1+ xt-4 - xt-5 +t
lo que muestra que el modelo es un caso particular de un AR(5), en el cual dos
coeficientes sern cero

adems existe una restriccin no lineal () para el

coeficiente de xt-5. A nivel general el ACF de este proceso debe converger a cero,
presentando magnitudes altas en los rezagos 4, 8, 12, 16, .... El PACF debe tener un

Elkin Castao Guillermo Prez 82


corte despus del rezago 5. A continuacin se presentan los correlogramas tericos
cuando ==0.8.
Correlograma de un AR(1)xSAR(1)4.

Correlograma Parcial AR(1)xSAR(1)4.

A continuacin se presentan los correlogramas muestrales para 100 observaciones de


una serie simulada con ==0.8. Observe su similitud con los tericos.

Elkin Castao Guillermo Prez 83


Modelos de medias mviles estacionales. Tambin se pueden especificar modelos
de medias mviles estacionales puros, tal como
xt = (1-L4)t
el cual es denotado como SMA(1)4, o estacionales multiplicativos de medias mviles,
como por ejemplo un modelo MA(1)xSMA(1)4
xt = (1-L)(1-L4)t
En esta situacin el ACF terico se corta despus del rezago 5 y el PACF converge a
cero. A continuacin se presentan los correlogramas toricos para un SMA(1)
Correlograma de un SMA(1)4

Correlograma parcial de un SMA(1)4

A continuacin se presenta los correlogramas tericos para un MA(1)xSMA(1)4.

Elkin Castao Guillermo Prez 84


Correlograma de un MA(1)xSMA(1)4

Correlograma parcial de un MA(1)xSMA(1)4

Modelos mixtos autorregresivos y de medias mviles estacionales. Es comn que


se presenten modelos que son una mezcla de AR, MA, SAR, SMA, por ejemplo,
(1-L)(1-L4)xt =(1-L)( 1-L4) t
el cual se denota por ARMA(1,1)xSARMA(1,1)4, y es un modelo multiplicativo mixto.
Este modelo es muy flexible y ha sido muy empleado en aplicaciones.
Series estacionales no estacionarias
El caso ms simple de un modelo con estacionalidad no estacionaria est dado por un
paseo aleatorio estacional
xt = xt -4 + ut ,
o,
(1-L4)xt=ut

Elkin Castao Guillermo Prez 85


Al operador (1-L4) se le llama operador de diferencia estacional (en este caso
trimestral), y se le denota como 4 .
Es posible que una serie estacional contenga tambin un proceso no estacionario en
su componente no estacional ut. En estos casos el proceso de diferenciacin puede
ser en la parte estacional, en la no estacional o en ambas. Para este ltimo caso el
proceso de diferenciacin para volver la serie estacionaria es
(1-L)(1-L4)
En la prctica no es fcil realizar juicios sobre el orden de estos modelos. De igual
forma el anlisis de races unitarias para series estacionales es ms complicado que el
trabajo con series no estacionales. Hylleberg, Engle, Granger y Yoo desarrollan
pruebas de hiptesis para races unitarias en este tipo de series.
Ejemplo. La siguiente grfica presenta la serie de tiempo mensual del nmero de
viviendas nuevas (HS) (en miles) para el perodo comprendido entre enero de 1959 y
abril de 1992.

Primero que todo se chequea si hay estacionalidad para decidir si es posible construir
un modelo en niveles para la serie. La inspeccin visual parece indicar que no hay
indicios fuertes de no estacionalidad. Si se emplea la prueba ADF, la hiptesis de raz
unitaria es fuertemente rechazada. En la siguiente tabla se presenta el resultado de la
prueba.

Elkin Castao Guillermo Prez 86

A continuacin se presentan los correlogramas muestrales para la serie en niveles, los


cuales parecen confirmar lo anterior.

Elkin Castao Guillermo Prez 87

Este correlograma es similar al caso antes visto, pero donde el perodo estacional es
s=12. La autocorrelacin decrece pero vuelve a crecer en los rezagos 12, 24, 36, ,
mientras que la autocorrelacin parcial presenta picos positivos en los rezagos 1 y 13.
Este patrn sugiere que el modelo AR(1)xSAR(1)12

puede ser una primera

aproximacin al modelo de la serie de tiempo. El modelo propuesto es


(1-L)(1-L12)HSt =m+ t

Elkin Castao Guillermo Prez 88


A continuacin se ajusta el modelo usando los datos de la serie entre enero de 1959 y
diciembre de 1984. Los datos entre enero de 1985 y abril de 1992 se emplearn para
realizar pronsticos fuera de la muestra de estimacin y chequear la capacidad
predictiva del modelo. La siguiente tabla presenta los resultados de la estimacin.

Los resultados muestran que todos los coeficientes son altamente significativos y que
el modelo explica aproximadamente el 86% de la variacin de la variable HS. Sin
embargo, hay una variacin residual importante. El error estndar del modelo es ms
del 11% de la media de la variable dependiente HS. Para examinar la capacidad de
pronstico del modelo para los 88 datos finales de la serie no empleados en la
estimacin, se presenta la siguiente grafica.

Elkin Castao Guillermo Prez 89

El pronstico para los primeros 12 meses es razonablemente bueno, pues siguen el


patrn de la estacionalidad, aunque subestiman algo el nivel de actividad. Sin
embargo, estas dos caractersticas son predichas cada vez peor a medida que se
aumenta el horizonte del pronstico. El patrn de la estacionalidad disminuye cada vez
ms como consecuencia de que los coeficientes AR son menores que 1 y las
innovaciones en el pronstico son cero. El pronstico subestima la actividad de la
mitad y final de los 80 y sobreestima la actividad a comienzos de los 90. El error
absoluto medio en porcentaje de los pronsticos es 25.2%. Sin embargo, todos los
valores reales caen dentro de los lmites de prediccin.
Un chequeo final del modelo es ver si los residuales proceden de un proceso de ruido
blanco. La siguiente tabla presenta los correlogramas de los residuales.

Elkin Castao Guillermo Prez 90

Los resultados muestran que se presenta correlacin y correlacin parcial significativa


en los rezagos 1 y 11, 12 y 13. Por tanto, se requiere un modelo ms complejo.
Una alternativa sera tratar con un modelo mixto de la forma

(1- L)(1- L12)HSt =m+(1- L)(1- L12)

Elkin Castao Guillermo Prez 91


La siguiente tabla contiene los resultados de la estimacin de esta especificacin.

Tanto los dos coeficientes autorregresivos como los dos de medias mviles son
altamente significativos.
modelo.

La siguiente grfica presenta los pronsticos para este

Elkin Castao Guillermo Prez 92


Estos pronsticos presentan una mejora sustancial frente a los del modelo puramente
autorregresivo. El patrn estacional ya se mantiene sobre el horizonte del pronstico, y
esto se debe principalmente a que el coeficiente SAR(1) (denotado por SAR(12) en la
estimacin) es mucho mayor al obtenido anteriormente. Como consecuencia, ya los
pronsticos son muy buenos para los primeros tres aos, comparados con solamente
el primer ao del modelo anterior. Los residuales ya estn ms cerca de un proceso de
ruido blanco (verifique). La especificacin anterior no necesariamente es el mejor
modelo para la serie (experimente con otras especificaciones). Por ejemplo, en vista
del que el coeficiente del trmino SAR(1) est tan cerca de 1, sera interesante ajustar
un ARMA a las diferencias estacionales 12 = (1-L12) = HSt - HSt-12.
ALGUNAS FUNCIONES PARA SERIES DE TIEMPO EN EVIEWS

d(x): primera diferencia de la serie x. d(x)=(1-L)x=x.

d(x,n): diferencia de orden n para la serie x. d(x,n)=(1-L)nx=nx.

d(x,n,s): diferencia de orden regular n, con una diferencia estacional de orden s.


d(x,n,s)=(1-L)n(1-Ls)x.

dlog(x): primera diferencia del logaritmo natural. dlog(x) = (1-L)log(x) = log(x)log(x(-1)= log(x).

dlog(x,n): diferencia de orden n para el logaritmo de la serie. dlog(x, n) = (1L)nlog(x) = nlog(x)

dlog(x,n,s): diferencia de orden n con una diferencia estacional de orden s para el


logaritmo de x. dlog(x,n,s)=(1-L)n(1-Ls)log(x).

S-ar putea să vă placă și