Sunteți pe pagina 1din 134

Series de

Tiempo
Series de Tiempo
700
15
600
10
500
Miles de personas

Puntos log x100


5
400
0
300
-5
200
-10
100
-15
0
1950 1952 1954 1956 1958 1960 1986 1988 1990 1992 1994 1996

Pasajeros de líneas aéreas, total mensual Rendimientos (logx100) del índice NIKKEI

Número de pasajeros de líneas Rendimientos del índice NIKKEI


aéreas. La serie muestra: de la Bolsa de Tokio. Los datos:
• un perfil creciente (tendencia), • fluctúan establemente en torno a
• fluctuaciones estacionales y una media nula,
• una variabilidad que crece a medida • muestran períodos de alta y baja
que aumenta el nivel de la serie. volatilidad
Los primeros y segundos momentos (media y varianza) de distintas series
temporales pueden comportarse de formas muy diferentes
Las series temporales de naturaleza similar (p. ej., financieras) a menudo
presentan rasgos comunes que son de gran utilidad para analizarlas
Series de Tiempo
Proceso estocástico es un conjunto de variables aleatorias asociadas a
distintos instantes de tiempo.

Serie temporal, es un conjunto de observaciones o medidas realizadas


secuencialmente en intervalos predeterminados y de igual, o aproximadamente
igual, duración.

• La relación entre una serie temporal y el proceso estocástico que la genera es


la misma que hay entre una muestra y la variable aleatoria de la que procede.
• Las peculiaridades de una serie temporal (frente a una muestra) y de un
proceso estocástico (frente a una variable aleatoria) son:
• las series temporales y los procesos estocásticos están referidos a
instantes de tiempo concretos, y
• los datos están ordenados desde el pasado hasta el presente.
• El objetivo del análisis de series temporales es inferir la forma del proceso
estocástico a partir de las series temporales que genera.
Hipótesis simplificatorias
• En ciencias sociales suele ser imposible obtener varias muestras de una serie
temporal, por lo que es necesario realizar una serie de supuestos simplificatorios.
• Los supuestos más comunes son:
• Linealidad: El valor que toma hoy la serie (o el proceso) depende
linealmente de: a) sus valores pasados y b) los valores presentes y pasados
de otras series.
• Estacionariedad (débil): La media y varianza incondicional de una serie (o
proceso) son constantes, las autocovarianzas entre dos valores sólo
dependen de la distancia temporal que los separa. Formalmente:

" t , k : E ( zt ) = mt = mz
E [( zt - mt )2 ] = s t2 = s z2
E [( zt - mt )( zt - k - mt - k )] = g t ,k = g k

• Normalidad: El proceso estocástico generador sigue un modelo normal de


distribución de probabilidad (proceso “gaussiano”).
Procesos elementales (I): Ruido blanco.
Un proceso de ruido blanco representa una variable que:
• oscila en torno a una media constante,
• con una volatilidad constante y
• cuyo pasado no contiene información útil para predecir valores futuros.
Podemos representar esta variable como zt = mz + at con:

z t ) = s z2 = g 0 = s a2 r k = g k = 0 ; k ³ 1
2
E(zt ) = mz [E(at ) = 0 ] E ( %
g0
.4
.3
.2
La figura muestra el perfil de 500 .1
observaciones simuladas del proceso .0
de ruido blanco: -.1
-.2
zt = at ; at : iid N(0,.01) -.3
-.4
100 200 300 400 500

Ruido blanco
Procesos elementales (II): AR(1).

Un proceso autorregresivo de primer orden, AR(1), representa una variable cuyo


valor actual está relacionado con su valor anterior mediante un modelo de
regresión. Esto es:
zt = c + f zt - 1 + at ; f < 1 (estacionariedad)
c %2 s a2
con: E ( zt ) = mz =
2
E ( zt ) = s z = g 0 = 2
rk = f k
; k³ 0
1- f 1 - f
La figura muestra el perfil de dos series generadas por un AR(1) sin constante,
con distintos valores del parámetro :
.4 .6

.3
.4
.2
.2
.1

.0 .0

-.1
-.2
-.2
-.4
-.3

-.4 -.6
100 200 300 400 500 100 200 300 400 500

AR(1) phi=.5 AR(1), phi=.9


Procesos elementales (III): MA(1).
Un proceso de medias móviles de primer orden, MA(1), representa una variable
cuyo valor actual está correlacionado con su valor anterior . Esto es:

zt = mz + at - qat - 1 ; q < 1(invertibilidad) ìï - q


Con: ïï si k = 1
%2t ) = s 2 = g = (1 + q2 )s 2
E ( zt ) = mz E ( z rk = í 1+ q 2
z 0 a ïï
ïî 0 si k > 1

La figura muestra el perfil de dos series generadas por un proceso MA(1)


sin constante, con distintos valores de  :
.4 .4

.3 .3
.2 .2
.1 .1
.0
.0
-.1
-.1
-.2
-.2
-.3
-.3
-.4
100 200 300 400 500 -.4
100 200 300 400 500
MA(1), theta=.5
ma(1), theta=.9
Procesos elementales (IV): Paseo aleatorio.
Un paseo aleatorio representa una variable cuyos cambios son ruido blanco y,
por tanto, imprevisibles. Esto es:

y t = c + y t - 1 + at

La figura muestra el perfil de dos series generadas por paseos aleatorios con
y sin deriva. Como puede observarse, la característica fundamental de este
proceso es la falta de afinidad de las series a una media estable:
1 450

400
0
350

-1 300

250
-2 200

150
-3
100

-4 50
100 200 300 400 500 100 200 300 400 500

Paseo aleatorio sin deriva Paseo aleatorio con deriva


Identificación (I): Estadística descriptiva

X
Para contrastar H0 : mX = 0 puede usarse el estadístico: t = $ : tn- 1
sX/ nH
0
4
1 n æ ö
3
1 æ ö
Xi - X ÷ n
Xi - X ÷
Coeficientes de asimetría y kurtosis: CA = å ç ç ÷ CK = å çç ç ÷
ç $
n i= 1 è s X ø ÷
÷ n i= 1 è s X ÷
$ ÷
ø

La hipótesis de normalidad puede contrastarse mediante el test de Jarque-Bera:


æCA2 (CK - 3)2 ö
÷
JB = n çç + ÷
÷ : c 22
çè 6 24 ÷
ø
H0
60
Series: WNOISE
El histograma muestra el perfil
50
Sample 1 500
Observations 500
de una muestra del proceso:
40 Mean 0.002643
Median 0.006559 zt = at ; at : iid N(0,.01)
30 Maximum 0.386147
Minimum -0.304903
Std. Dev. 0.102973 Obsérvese que los momentos
20 Skewness -0.046988
Kurtosis 3.393006 muestrales se aproximan a los
10
Jarque-Bera 3.401768 teóricos y el test de Jarque-
Probability 0.182522
0 Bera no rechaza normalidad.
-0.25 0.00 0.25
Identificación (II): Función de auto correlación simple
El coeficiente muestral de auto correlación simple de orden k ( $) se define como:
rk
$r = gˆ k con: gˆ = 1 ån z%% %
k k t zt - k ; zt = zt - z , k = 1, 2,K
gˆ´0 n t= k+ 1

Para hacer inferencia sobre la función de auto correlación simple (FAS o ACF)
pueden usarse los siguientes resultados:
• Para muestras suficientemente grandes s.e.($r k ) ; n
- 1/ 2

K
1 $2
• Si es cierto H 0 : r 1 = r 2 = r 3 = K = r K = 0entonces Q ( K ) = n ( n + 2 ) åk = 1 n - k r k : c K2 - p
H0
en donde: K es el número de retardos de la ACF
p es el número de parámetros estimados, si la serie es de residuos.

En la figura se muestra la función de auto


correlación simple de una muestra del
proceso:
zt = at - .5at - 1 ; at : iid N(0,.01)
... como puede observarse su configuración
se parece, sin coincidir exactamente, a la
FAS teórica de un proceso MA(1)
Identificación (III): Función de auto correlación parcial
Los procesos MA tienen una FAS finita. Por tanto en este caso la FAS resulta muy
útil, tanto para detectar una estructura MA como para identificar su orden.
Un instrumento con propiedades análogas para procesos AR es el coeficiente
muestral de autocorrelación parcial de orden k ( f$ kk), que se define como el k-
ésimo coeficiente de una autorregresión de orden k estimada por MCO:

%
z ˆ % ˆ % ˆ % ˆkt ; k = 1, 2,K
t = f k 1zt - 1 + f k 2 zt - 2 + K + f kk zt - k + e

al gráfico de barras de los coeficientes f$ kkfrente a su correspondiente retardo se


le llama función de autocorrelación parcial (abreviadamente, FAP o PACF).

En la figura se muestran las funciones de


auto correlación de una muestra del
proceso:
zt = .5zt - 1 + at ; at : iid N(0,.01)
como puede observarse, la FAP identifica
con claridad la naturaleza y el orden del
proceso generador de los datos.
Identificación (IV)

Ruido blanco: zt = at ; at : iid N(0,.01)


Combinando
.4
instrumentos gráficos
.3

.2 y estadísticos pueden
.1
reconocerse de forma
.0

-.1 aproximada las


-.2
pautas de auto
-.3

-.4 correlación
100 200 300 400 500

Ruido blanco
características de los
distintos procesos.
AR(1): zt = .5zt - 1 + at ; at : iid N(0,.01) En análisis de series
temporales, a este
.4
proceso de
.3

.2
especificación
.1 empírica se le llama
.0 “identificación”
-.1

-.2

-.3

-.4
100 200 300 400 500

AR(1) phi=.5
Identificación (V)
MA(1): zt = at - .5at - 1 ; at : iid N(0,.01)
.4

.3 La identificación
.2 puede estructurarse
.1

.0
como una secuencia
-.1 de preguntas:
-.2

-.3
• ¿Es estacionaria la
-.4
100 200 300 400 500
serie?
MA(1), theta=.5
• ¿Tiene una media
Paseo aleatorio: y t = y t - 1 + at ; at : iid N(0,.01) significativa?
1 • ¿Es finita o infinita la
0 ACF?
-1
• ¿Es finita o infinita la
-2 PACF?
-3

-4
100 200 300 400 500

Paseo aleatorio sin deriva


Identificación (VI)

Combinando el análisis de la ACF y la PACF, la identificación de los procesos


estacionarios puede reducirse a decidir:
• ¿Cuál de las dos funciones es finita? para determinar la naturaleza del proceso
generador:
ACF

Finita Infinita
PACF Finita Ruido blanco AR
Infinita MA ARMA

• ¿A partir de qué retardo muere la ACF o PACF? para determinar el orden del
proceso.
Estas técnicas requieren usar estadísticos como la media, la varianza o la
covarianza muestrales, que sólo tienen sentido si el proceso es estacionario, esto
es, si los datos tienen una media y una varianza finitas y aproximadamente
constantes.
Estudio de los procesos más comunes: AR(1)

ACF PACF
zt = c + f zt - 1 + at ; f < 1
c 0< f < 1
E ( zt ) = mz =
1- f 1 1
2
2 s
E(%
zt ) = s z2 = g 0 = a
2
1- f
gk
rk = =f k
; k³ 0 Retardo Retardo

g0

-1 -1
Los procesos AR(1) se
reconocen por una ACF
- 1< f < 0
infinita y una PACF que se
anula a partir del segundo 1
1
retardo.
Si los datos tienen media,
es necesario especificar Retardo
un término constante. Retardo

-1
-1
Estudio de los procesos más comunes: MA(1)

ACF PACF
zt = mz + at - qat - 1 ; q < 1
0< q< 1
E ( zt ) = mz
1 1

2
% ) = s 2 = g = (1 + q2 )s 2
E(z t z 0 a

ìï - q
g ï si k = 1
r k = k = ïí 1 + q2
Retardo Retardo

g 0 ïï
ïî 0 si k > 1
-1 -1

Los procesos MA(1) se - 1< q < 0


reconocen por una PACF 1
1

infinita y una ACF que se


anula a partir del segundo
retardo.
Retardo

Si los datos tienen media, Retardo

es necesario especificar
un término constante. -1
-1
Estudio de los procesos más comunes: AR(2)

zt = c + f 1zt - 1 + f 2 zt - 2 + at ACF PACF


f 2 + f 1 < 1;f 2 - f 1 < 1; f 2 < 1 f1> 0 ; f2> 0
c
E ( zt ) = mz = 1 1

1- f 1 - f 2
r k = f 1 r k- 1 + f 2 r k- 2; k ³ 1
con : Retardo Retardo
2
f1 f 1
r1 = ; r2 = f 2 +
1- f 2 1- f 2
-1 -1

f1< 0 ; f2> 0
Los procesos AR(2) se
reconocen por una ACF 1 1
infinita y una PACF que se
anula a partir del tercer
retardo.
Si los datos tienen media, Retardo Retardo

es necesario especificar
un término constante.
-1 -1
Estudio de los procesos más comunes: AR(2)
ACF PACF
f1> 0 ; f2< 0
1
1

Retardo
Retardo

-1
-1

f1< 0 ; f2< 0

1 1

Retardo
Retardo

-1
-1
Estudio de los procesos más comunes: MA(2)

zt = mz + at - q1at - 1 - q2at - 2 ACF ACF


q2 + q1 < 1 ; q2 - q1 < 1 ; q2 < 1 q1 > 0 ; q2 > 0 q1 < 0 ; q2 < 0

E ( zt ) = mz 1 1
2
E(%
z ) = s z2 = g 0 = (1 + q12 + q22 )s a2
t

ìï - q1 (1 - q2 )
ïï si k = 1 Retardo Retardo
ïï 1 + q12 + q22
ï
g k ïï - q2
rk = = ïí si k = 2
g 0 ïï 1 + q12 + q22 -1
-1

ïï
ïï 0 si k > 2
ïï
ïî
q1 < 0 ; q2 > 0 q1 > 0 ; q2 < 0

Los procesos MA(2) se 1 1

reconocen por una PACF


infinita (no se muestra aquí)
y una ACF que se anula a
partir del tercer retardo. Retardo Retardo

Si los datos tienen media,


es necesario especificar un -1 -1
término constante.
Regresión Espuria
Set-up:
yt  yt 1  ut ; u t  iid (0,  u2 )
xt  xt 1  vt ; v t  iid (0,  v2 ) ; E(u t , vs )  0 t, s
E(u t ut k )  E (vt vt k )  0 k

Regresa

y t    x t   t

Que esperas conseguir?


ˆ
  0
p

R  0
2 p

t ˆ  t distribución
Regresión Espuria (cont)

Que pasa realmente?

ˆ  a lg una distribuci ón
R  alguna distribuci ón
2

DW 
 0 p

1 / 2
T t ˆ  alguna distribuci ón
Regresión Espuria (cont)
Problema de Regresión Espuria (SPR):
La regresión de una serie I(1) sobre otra variable I(1) no relacionada,
produce unos t-ratios del parámetro de la pendiente que indican la
existencia de relación cuando sabemos que no la hay. Este problema no
desaparece cuando el tamaño muestral aumenta.
El problema de la Regresión Espuria puede aparecer también con series I(0)
(vease Granger, Hyung and Jeon (1998)). Esto nos está diciendo que el
problema está generado por el uso de VALORES CRITICOS EQUIVOCADOS!!!!
En una Regresión Espuria los errores estarían correlacionados y los
estadísticos “t” estarían mal calculados porque se esta usando un
estimador de la varianza residual que no es consistente. En el mundo
I(0) se puede hacer una corrección como vimos en clase que resuelve
este problema:
ˆ ˆ
t  t - distribuci ón , donde ˆ  (varianza de largo plazo de ˆ)1/2
ˆ
Quizás se pueda hacer algo parecido cuando la regresión envuelve
variables I(1).
Regresión Espuria (cont)
Como se detecta la Regresión Espuria (entre series I(1))?

Analizando el correlograma y realizando un contraste de raíz unitaria sobre


los residuos.

Como convertimos una Regresión Espuria en una regresión valida?

Tomando diferencias en ambos lados de la regresión.

Resuelve esta transformación el problema?

Lo resuelve desde un punto de vista estadístico; pero desde el punto de


vista económico estaríamos perdiendo información y además la
información contenida en una regresión en tasas de crecimiento no es la
misma que en una regresión en niveles.
Regresión Espurea (cont)
Tiene sentido una regresión entre variables I(1)?
Si si los errores de la regresión son I(0).
Puede ser esto posible?
La misma pregunta le pregunto David Hendry a Clive Granger hace tiempo Esta es
la historia mas o menos…...
Clive answered NO WAY!!!!! but he also said that he would think about. In the plane
trip back home to San Diego, Clive thought about it and concluded that YES IT IS
POSSIBLE. It is possible when both variables share the same source of the
I(1)’ness (co-I(1)), when both variables move together in the long-run (co-move), ...
when both variables are

COINTEGRATED!!!!!!!!!!!!!!!!!!!!!!!
Algunos Ejemplos de Cointegración
Ejemplo 1: Teoria de la paridad del poder adquisitivo (PPP)
“Apart from transportation costs, good should sell for the same effective price
in two countries”

Pt  St P t
*

Un índice de precios $ per € Índice de precios en


en USA España
En logs :

p t  s t  p*t
Una versión de la PPP
mas débil:
p t  s t  p*t  z t

Si las tres variabes son I(1) y zt es I(0) entonces la teoría de la PPP está
implicando que existe cointegración entre pt, st y p*t .
Algunos Ejemplos de
Cointegración (cont)
Ejemplo 2: Modelo del Valor Presente Actualizado (PVM)


Yt   (1   )  i Et ( yt i )  c
i 0

Yt: Intereses Largo Plazo yt: Intereses corto plazo


Precios de Stocks dividendos
Consumo renta laboral

Si yt tiene una raiz unitaria y el PVM es cierto entonces Yt e yt estarán


cointegrados (see Campbell and Shiller (1987)

Z t  Yt   y t is I(0)
Interpretación Geométrica de Cointegración
Que es un ATTRACTOR?
Considere el precio (en el tiempo) de un bien que se comercia en dos
localidades diferentes i y j.
.
3 p  p
p jt . it jt
4 .
1 : ( pi1 , p j1 ) 5
.
2 : ( pi 2 , p j 2 ) 2 .
1

t : ( pit , p jt )
45
pit
 pi1 y  p j1
Supongamos pi1  p j1 Demanda irá al lugar j

El ajuste no será instantaneo; pero en el largo plazo

pit  p jt
Interpretación Geométrica de
Cointegración(cont)
El concepto de attractor es el concepto de long-run equilibrium entre dos
procesos estocasticos. Permitimos que las dos variables diverjan en el corto
plazo; pero en el largo plazo tienen que converger a una región común
denominada región En otras palabras, si no hubiera ningún shock en el
sistema de aquí al futuro, los dos procesos estocásticos convergerian a un
conjunto attractor común.

Cuestión 1: Escribe en terminos intuitivos dos ejemplos económicos donde


cointegración está presente. Por qué?

Cuestión 2: Un borracho saliendo de un bar sigue un paseo aleatorio. Su


perro sigue otro paseo aleatorio por su cuenta. Llegan a un parque donde no
están permitidos los perros sueltos. El borracho le pone la correa al perro y
los dos entran en el parque. Estarán sus caminatas o sendas dentro del
parque cointegradas? Por qué?
Definición de Cointegracón
Desde un punto de vista económico estamos interesados en responder
(1) Podemos contrastar la existencia de este conjunto attractor?
(2) Si existe, como lo podemos tener en cuenta en nuestra modelización?
Algunas reglas sobre combinaciones lineales entre I(0) e I(1)
1. X t  I (0)  a  bX t  I (0)
X t  I (1)  a  bX t  I (1)
2. X t , Yt  I (0)  aX t  bYt  I (0)
3. X t  I (0), Yt  I (1)  aX t  bYt  I (1)
I (1) es dominante
4. X t , Yt  I (1)  aX t  bYt  I (1) en general
Definición
Si X t e Yt son I(1) pero existe una combinació n lineal,
digamos
Z t  m  aX t  bYt
tal que Z t es I(0), entonces X t , Yt se dice que están cointegrad as.
Por Qué dos series están cointegradas?
Considera la siguiente estructura
~
X t  AWt  X t I (1)  I (1)  I (0) (regla 3)
~
Yt  Wt  Yt
La siguiente combinación lineal
~ ~
Z t  X t  AYt  AWt  X t  AWt  AYt
~ ~
Z t  X t  AYt  I (0) (regla 2)
por lo que X t , Yt tienen un factor I(1) común.
Resultado 1.

Si dos series I(1) tienen un factor común I(1) y un componente I(0)


idiosincrásico, entonces ellas están cointegradas.

Se puede probar que el Resultado 1 es un resultados de SI y SOLO SI.


Un Contraste Simple de Cointegración
• Este contraste es debido a Engle y Granger (1987)
• Estima la siguiente regresión en niveles
•Realiza un contraste ADF sobre los residuos:

y t    x t  z t ; y t , x t  I(1)

p
z ˆt 1   i z
ˆt  z ˆt i  error
i 1

• La hipótesis nula
H o :  0
• Esto significa que los residuos tienen una raíz unitaria y entonces yt y xt no están
cointegradas.
• Si los residuos son I(0) entonces yt y xt están cointegradas
Modelo de Correción del Error
Modelo de Correción del Error Vectorial(VECM)

Para un VAR bivariante, donde X t , Yt son I(1) y estan cointegradas

X t  c1  1Z t 1  1X t 1  .....  1Yt 1  ....   xt


Yt  c2   2 Z t 1   1X t 1  .....   1Yt 1  ....   yt

donde ( xt ,  yt )' es un ruido blanco bivariante y


Z t  X t  AYt  I (0), y
como minimo un  i  0

Si X t , Yt no están cointegrad as  Z t  I (1) (regla 4)


En el ECM, I(1) no puede explicar I(0), i.e. X t , Yt  1   2  0

Resultado 2.

Si
X t , Yt están cointegradas, entonces existe una representacion ECM
y viceversa (Teorema de Representación de Granger).
Intuición Geométrico del Modelo de
Corrección del Error
Intuición sobre el ECM
Z t  Yt  AX t : error de equilibrio

Yt
Yt  AX t

Zt  0

Xt
Donde vaya el sistema en el tiempo t+1 , depende de la magnitud y
el signo del error de equilibrio en el periodo anterior.

Dinámica de Corto-Plazo: movimientos en el corto plazo dentro del


ECM, que guian a la economía hacia el
Equilibrio de Largo Plazo
Yt  AX t
Cointegración y Modelización
Econométrica
1. Determina el grado de integración de X t , Yt  I (1) : usa el
contraste de Dickey-Fuller
2. Contrasta por cointegración entre . Encuentra la
X t e Yt
relación de cointegración via MCO
Y  cˆ  ˆX  Zˆ
t t t

H 0 : no - cointegrac ión Zˆ t  I (1)


H : cointegrac ión Zˆ  I (0)
1 t

Si H 0 es rechazada  X t , Yt están cointegrad as


Aviso: Estamos tentados a usar los CV del DF pero nuestro
contraste esta basado en los residuos esto hace que necesitamos
diferentes CVs (vease McKinnon (90)).
P ( w  1.65)  5% Normal distributi on
P ( w  2.86)  5% Dickey - Fuller distributi on
P ( w  3.34)  5% Engle - Granger/Mc Kinnon
Cointegración y Modelización
Economica (cont)
(1, ˆ ) es el vector de cointegrac ión
ˆ es super - consistent e (T( ˆ   )  alguna distribuci ón
3. ECM

X t  c1  1 (Yt 1  ˆX t 1 )   x1X t 1  .....   y1Yt 1  ....   xt


Yt  c2   2 (Yt 1  ˆX t 1 )   x1X t 1  .....   y1Yt 1  ....   yt

Metodo de dos etapas de Engle-Granger:


(i) Estimatar ˆ  Ẑ
t
(ii) Introducir en el ECM (estimación SURE) :
Ẑ t
MCO estimadores en el ECM son consistentes y eficientes.
Y esto sigue y sigue…..

Cointegración da para casi un curso entero. Que nos


quedaria por estudiar???:

1. Cointegración entre mas variables


2. Métodos de Estimación y Contraste mas generales y
poderosos que los MCO uni-ecuacionales
3. Aprender a extraer los factores comunes que hacen
que un conjunto de variables esten cointegradas
4. Aplicaciones Económicas
Modelos unívariados de series
temporales

Procesos estocásticas

Función de autocovarianza, autocorrelación y autocorrelación parcial.

Procesos de ruido blanco y paseo aleatorio

Teorema de Wold

Procesos AR(p)

Procesos MA(q)

Procesos ARMA(p,q)

Procesos ARIMA(p,d,q)
Procesos estocásticos

 Definición: Un proceso estocástico es una


sucesión de variables aleatorias ordenadas en
el tiempo (en el caso de series temporales).

 Definición: Una serie temporal es una


realización del proceso estadístico, es decir,
es una observación de T variables aleatorias
ordenadas en el tiempo.
Restricciones a la heterogeneidad
temporal del proceso.

Restricciones de Estacionaridad

 Definición: Un proceso estocástico es


estacionario en sentido estricto o fuerte
cuando la distribución de probabilidad
conjunta de cualquier parte de la secuencia de
variables aleatorias es invariante del tiempo.

F ( xt , xt 1 ,..., xt  k )  F ( xt  , xt 1 ,..., xt  k  )


Restricciones a la heterogeneidad
temporal del proceso.
 Definición: Un proceso estocástico es
estacionario en sentido débil si los momentos
del primero y segundo orden de la distribución
(esperanzas, varianzas, covarianzas) son
constantes a largo del tiempo.

 Para todos los t y para todos t  .

E ( xt )   ,  
E ( xt  t ) 2   2  
Ext  t xt   t      ,    
Restricciones a la heterogeneidad
temporal del proceso.

 Restricciones de memoria del proceso,


ergodicidad.

lim   0
 

 La relación entre dos variables aleatorios de un


proceso es más débil cuando las variables son más
lejanas en el tiempo.
 Al aumentar el número de observaciones de la serie
temporal aumenta el número de covarianzas, pero no
el número de parámetros de estimar.
Restricciones a la heterogeneidad
temporal del proceso.

 Definición: Homogenización de una serie


temporal es cuando a través de una
transformación el serie temporal es
estacionar.

 Queremos tener una serie temporal con una


media y varianza (más o menos) constante a
largo del tiempo.
Restricciones a la heterogeneidad
temporal del proceso.

 Transformación Box-Cox:

 xt  1
 si   0
xt(  )  

 ln xt si   0
Restricciones a la heterogeneidad
temporal del proceso.

Para conseguir una media constante a largo del tiempo se puede aplicar operadores de
diferencia,  .   1  L , donde L es el operador de retardo. Lxt  xt 1 .
xt  (1  L) xt  xt  xt 1.

Una media estacionaria se puede conseguir a través diferenciaciones sucesivas.

wt  d xt  (1  L) d xt
Las funciones de autovarianza y
autocorrelación

 Funciones de autocorrelación miden la


relación lineal entre variables aleatorias de
procesos separadas de una cierta distancia en
el tiempo.

 Estimación de estas funciones permiten


determinar la forma del procesos estocástico.
Las funciones de autovarianza y
autocorrelación

 La función de autocovarianza
 t ,  Cov( xt , xt  )  E[( xt   t )( xt    t  )]
  ...,1,0,1,...

Si el proceso es estacionario, su esperanza es


constante a largo del tiempo, y la función de
autocovarianza no depende del momento en
tiempo, sólo la distancia temporal.

   E[( xt   )( xt    )]
Las funciones de autovarianza y
autocorrelación

 Para cada retardo hay un valor diferente para


la función de autocovarianzas, autocovarianza
de orden  .

 Función de autocorrelación simple (FAS),

 t , E[( xt  t )( xt   t  )]
t ,  
 t   t E ( xt  t )2 E ( xt   t  )2
Las funciones de autovarianza y
autocorrelación

 Si el proceso es estacionario, los momentos


de segunda orden no depende de t .

  E[( xt   )( xt    )]
  
0 E ( xt   ) 2

 Una correlograma enseña la FAS en función


de  .
Las funciones de autovarianza y
autocorrelación

 La función de autocorrelación parcial (FAP)


enseña la relación lineal cuando se ha
eliminado la correlación que estas variables
tienen con otras variables.

kk  Corr ( xt , xt  k | xt 1,..., xt  k 1 )


Las funciones de autovarianza
y autocorrelación
Cov(( xt  xˆt ), ( xt  k  xˆt  k ))
kk 
Var ( xt  xˆt )Var ( xt  k  xˆt  k )

 Se puede obtener los coeficientes de FAS a


través regresiones.
 xt  11xt 1  vt
 x  x  x  v
 t 21 t 1 22 t  2 t

 
 xt  k1 xt 1  k 2 xt  2  ...  kk xt  k  vt

 Nota: Si la esperanza de xt no es cero, hay


que añadir una constante en cada regresión.
Las funciones de autovarianza y
autocorrelación

 Se puede demostrar que los coeficientes de


FAS se pueden escribir como una función de
coeficientes de FAP. Esta relación se llama
el sistema de ecuaciones de Yule-Walker.
Estimación de los momentos muéstrales

 Para un proceso estocástico estacionario con


ergodicidad, con una sola serie temporal,
podemos estimar;

T
Media (  ) ( x  T 1
x )
t 1
t

Varianza (  0 )
Autocovarianzas (   )
Autocorrelaciones (  )
Autocorrelaciones parciales ( kk )
La función de autocovarianza

 La función de autocovarianza se puede


estimar a través de la función de
autocovarianza muestral:

T 
ˆ  T 1  ( xt  x )( xt   x )
t 1
Función de autocorrelacion simple

 Función de autocorrelacion simple muestral,

T 

 (x t  x )( xt   x )
ˆ  r   t 1
0 T

 t
( x
t 1
 x ) 2
Función de auto correlación simple

Si el proceso es a) estacionario gaussiano (normal) y b) ˆ k  0 para k   , se puede


estimar la varianza de r con esta formula,

 1
1 2
V (r )  1  2 ri 
T i 1 

Se puede usar la varianza para contrastar la H 0 :   0 . r  1.96std (r ) donde std ()
es el error estándar. Rechazamos la hipótesis si r es fuera del intervalo
(  1.96std (r ), 1.96std (r ) ).
función de auto correlación parcial

 Para hacer la función de auto correlación parcial


muestral se puede aplicar MCO.

 xt  c  11xt 1  vt
x  c  x  x  v
 t 21 t 1 22 t  2 t

 
 xt  c  k1 xt 1  k 2 xt  2  ...  kk xt  k  vt

Donde 11,...,kk son estimaciones consistentes de la FAP. Bajo los supuestos que el
proceso es gaussiano (normal) y que kk  k 1, k 1  ...  0 , se puede estimar la varianza
con,

1
V (ˆkk )  de manera que si ˆkk está fuera del intervalo (  1.96T 1 / 2 , 1.96T 1 / 2 )
T
rechazamos la hipótesis que ˆkk  0 .
Procesos de ruido blanco
Definición:

  t Tt1 es un proceso estocástico de ruido


blanco si;
 E ( t )  0 para todos t

 E ( t
2
)  V ( t )   2
 para todos t
 E (  )    0 para todos t y   0
 t t  

 Es un proceso con media = 0, varianza


constante, y sin auto correlación. No se puede
predecir a partir de su pasado.
Procesos de paseo aleatorio
Definición (18)
 Un proceso estocástico sigue un paseo

aleatorio si;
xt  xt 1   t
donde  t es ruido blanco

 El valor en un momento es el valor del periodo


anterior más un efecto aleatorio ruido blanco.

xt  xt 1  xt  (1  L) xt   t
Procesos de paseo aleatorio
Procesos de paseo aleatorio
 Se puede generalizar el modelo e incorporar
una deriva.
Procesos de paseo aleatorio

 Memoria permanente; todo los efectos


aleatorios tienen un efecto permanente.
xt  xt 1     t  ( xt  2     t 1 )     t  ...
t 1
 x0  t    t  j
j 0

  es una pendiente de una tendencia


determinista.
 xt está formado por la suma de todo las
perturbaciones pasadas.
Procesos de paseo aleatorio

 El primero momento;

 t 1 
E ( xt )  E x0  t    t  j   x0  t
 j 0 

 Si   0 el proceso no es estacionario en
media.
Procesos de paseo aleatorio

 La varianza;
2
 t 1 
 t ,0  E ( xt  E ( xt ))  E    t  j 
2

 j 0 
 t 1  t 1
 t 1

 E    t2 j  2   t  j t  j '    E ( t2 j )
 j 0 j , j ' 0  j 0
 j j' 
  2t
 t es ruido blanco, y E ( t t  j )  0 j  0
 No es estacionario en varianza; tiene una tendencia
(incrementa linealmente). Paseo aleatorio tiene una
tendencia en varianza o tendencia estocástica.
Procesos de paseo aleatorio
 Otra manera de llegar al mismo resultado;
Procesos de paseo aleatorio

 Auto covarianza;

 t ,  E( xt  E ( xt ))( xt   E ( xt  )) 
 t 1  t  1  t  1
 E    t  j    t   j    E ( t2 j )
 j 0  j 0  j 0
  2 (t   )

 La auto covarianza tampoco es constante


Procesos de paseo aleatorio

 Conclusión: Paseo aleatorio no es estacionar.


Esto complica la inferencia. De todos modos,
hay un camino definida de variación a largo
del tiempo.
Procesos de paseo aleatorio

 Si transformamos el proceso a través de una


diferencia, la transformación sería estacionaria.

wt  xt     t
wt es estacionario; es un ruido blanco alrededor de la media,  .
Procesos de paseo aleatorio
 Es importante detectar si un serie está
generada por un pasea aleatorio.

 1) La función de auto correlación simple


puede dar una indicación.
 t ,  2 (t   ) (t   ) 
t ,     1
 t ,0 t  ,0  2t 2 (t   ) t (t   ) t

 Una correlograma presentará los primeros


coeficientes muy cerca de 1, y esta va
decreciendo suavemente.
Procesos de paseo aleatorio

 xt  c  11xt 1  ut
x  c  x  x  u
 t 21 t 1 22 t  2 t

 
 xt  c  k1 xt 1  k 2 xt  2  ...  kk xt  k  ut

 La FAP, resultaría en un primero coeficiente


significativo y cerca de uno, mientras los
siguientes coeficientes serán cero.
Procesos de paseo aleatorio

 Normalmente un FAS que está decreciendo


muy lento con un primer FAP cerca uno y los
restos cero, indica que podemos diferenciar
para conseguir un serie temporal estacionario.
Procesos de paseo aleatorio

 Otra manera para saber si se debe diferenciar


una serie temporal son los contrastes de raíces
unitarias.
 Constaste de raíces unitarias. “unit roots”.
Estima la ecuación;

xt  xt 1     t
Y contrastar si H 0 :   1
Procesos lineales
  T
Definición: Un proceso estocástico t t 1 es
lineal cuando lo podemos escribir como una
función de una combinación lineal
(posiblemente infinita) de variables aleatorios
de ruido blanco.

xt   t   1 t 1   2 t  2  ...

  j t  j
j 0
Procesos lineales

 Hay tres tipos de procesos estocásticos lineales;

 Auto regresivas (AR)


 Media móvil (MA)
 ARMA (la combinación de AR y MA)

AR( p ); xt  1 xt 1  2 xt  2  ...   p xt  p   t
MA(q ); xt   t  1 t 1   2 t  2  ...   q t  q
ARMA( p, q ); xt  1 xt 1  ...   p xt  p   t  1 t 1  ...   q t  q

 t es un término aleatorio, independiente e idénticamente distribuido (“ruido blanco”).


Procesos lineales

 Se puede introducir una constante  para


tener procesos con una media  0 .

 Se puede expresar los procesos con un


polinomio de operadores de retardos. El
operador de retardos L esta definido por;
Lxt  xt 1
Lk xt  xt  k

 Este operador retarda la serie tantas periodos


como el exponente k indica.
Procesos lineales
 Utilizando el operador de retardos y la
generalización con el constante, , podemos
escribir los procesos: 
AR( p);  p ( L) xt     t
MA(q); xt     q ( L) t
ARMA( p, q);  p ( L) xt     q ( L) t

 p ( L)  1  1L  2 L2  ...   p Lp polinomio autoregressivo


 p ( L)  1  1L   2 L2  ...   q Lq polinomio media móvil

 Se puede transformar procesos AR y ARMA


en procesos MA.
Procesos lineales
Teorema de Wold. Cualquier proceso
estocástico estacionario se puede representar
con una suma de dos procesos.

Donde dt es linealmente determinista y ut es un


proceso xt  :dt  ut

Donde  t es ruido blanco. MA( )

ut    ( L) t

 
j 0
j t j
Procesos lineales
 El proceso MA( ) se puede aproximar a través
modelos lineales, cuando el polinomio infinito   (L)
se puede aproximar bien con un cociente de
dos polinomios en
 q ( L)
L :  ( L ) 
 p ( L)
 Transformaciones puede hacer series
estacionarios y la teorema permite crear
modelos relativamente sencillas a partir de
modelos lineales.
Procesos auto regresivos (AR)

 Un proceso autoregresivo se puede escribir,

 p ( L) xt     t
(1  1 L  2 L2  ...   p Lp ) xt     t
xt    1 xt 1  2 xt  2  ...   p xt  p  
Procesos autoregresivos (AR)

 Para que un proceso AR sea estacionario el


polinomio en el operador de retardos  p (L)
asociados al proceso tiene que ser estable, es
decir, al calcular las raíces del polinomio,

 p ( L)  (1  1L  2 L2  ...   p Lp )  0

estas tienen de caer fuera del círculo unidad.


Los valores de L que satisfacen esto cumple
L 1
Procesos autoregresivos (AR)

 Si hay alguno raíz igual a 1 (raíz unitario) el


proceso AR no es estacionario, y no se
pueden expresar como procesos MA() . Si hay
alguna raíz inferior a 1 el proceso será
explosivo y tampoco estacionario.
Procesos autoregresivos (AR)

 Las condiciones para estacionariedad son:


p
 (necesaria, pero no suficiente): 
j 1
j 1

p
 (suficiente, pero no necesario): 
j 1
j 1
Procesos auto regresivos (AR)

 AR(1) estacionariedad

xt    1 xt 1   t
(1  L) xt     t

 Condición necesaria y suficiente:   1


Procesos autoregresivos (AR)

 Un proceso AR(1) estacionario se puede


escribir como un proceso MA(.)
  t
xt   (1  L   2 L2  ...)(   t )
(1  L)
 
   j t  j
1   j 0

 Se puede llegar a la misma solución a través


de substitución recursiva.
xt    xt 1   t .
Procesos auto regresivos (AR)
 La solución se usa para calcular los momentos
del proceso. También se puede usar para
enseñar el siguiente resultado, valido por h  0 .

   
E ( xt t  h )  E    t  t 1    t  2  ... t  h   0
2

 1    

Dado que E ( t s )  0 para todos t  s .


Procesos autoregresivos (AR)

 El momento de primer orden es;

    
  E ( xt )  E    t  j  
j

 1   j 0  1

 Con estacionariedad ( E ( xt )  E ( xt 1 )   ) tenemos


el mismo resultado;

  E ( xt )  E (  xt 1   t )       (1   ) 1
Procesos autoregresivos (AR)
 La varianza del proceso es;

2
   
 2
 0  E ( xt   )2  E  j t  j    2 j 2   2
 j 0  j 0 1

 También se puede llegar a este resultado a


través;

 0  V ( xt )  V (  xt 1   t )   2 0   2   2 (1   2 ) 1
Procesos autoregresivos (AR)
~
 La autocovarianza del proceso es, donde; xt
indica la desviación con respecto a la media.

 1  E ( ~xt ~xt 1 )  E ((~xt 1   t ) ~xt 1 )   0


 2  E ( ~xt ~xt  2 )  E ((~xt 1   t ) ~xt  2 )  1   2 0

   E ( ~xt ~xt  )  E ((~xt 1   t ) ~xt  )       0
Procesos autoregresivos (AR)
 La función de autocorrelación simple es;


    
0

 y tiene un decrecimiento exponencial.

 FAP, al otro lado, sólo tiene un coeficiente


diferente de cero. Se puede demostrar con las
ecuaciones de Yule-Walker.
Procesos autoregresivos (AR)
Procesos autoregresivos (AR)

 AR(2):
xt    1 xt 1  2 xt 2   t
(1  1 L  2 L2 ) xt     t
 2 ( L ) xt     t
donde 2 ( L)  (1  1 L  2 L2 )

 Al calcular las raíces del polinomio (1  1L  2 L2 )  0


tendríamos dos soluciones y hay los
siguientes requisitos (simultáneamente) para
tener un polinomio estable.
2  1  1
2  1  1
2  1
Procesos autoregresivos (AR)

 Los resultados para la covarianza de AR(1)


se puede generalizar.
Procesos auto regresivos (AR)
Procesos media móviles (MA(q))

 Un proceso media móvil de orden q;


xt     t  1 t 1   2 t 2  ...   q t q
    q ( L) t
 Estos procesos siempre son estacionarios (los
momentos de primer y segundo orden son
siempre finitas y constantes a largo del
tiempo).
 Una condición (que hay que comprobar) para
estos procesos es que son invertibles.
Procesos media móviles (MA(q))

 Esta condición implica que las raíces del


polinomio  q (L) están fuera del círculo de
unidad. Los procesos MA no invertibles no
permiten una representación auto regresiva
convergente.
Procesos media móviles (MA(1))

 MA(1):
xt     t  1 t 1

 La condición de invertibilidad es para un


proceso MA(1) es   1 .

 Esperanza:

  E ( xt )  E (   t  1 t 1 )  
Procesos media móviles (MA(1))

 Varianza:
 0  E ( xt   )2  E ( t  1 t 1 )2  E ( t2 )  12 E ( t21 )  21E ( t t 1 )
 
 1  12  2

 Autocovarianza:

 1  E( xt   )( xt 1   )  E( t  1 t 1 )( t 1  1 t  2 )  1 2


 2  E( xt   )( xt  2   )  E( t  1 t 1 )( t  2  1 t 3 )  0
   0   2
Procesos media móviles (MA(1))

 FAS es:  1
  1
   (1  12 )
0  2

 La FAP presenta un decrecimiento


exponencial;
1 (1  1 )
k 2
kk  
1  12( k 1)
 Se puede llegar a este resultado general con
las ecuaciones de Yule-Walker.
Procesos media móviles (MA(1))

1
11    
1  12
 2  12 12
22  
1  1 2
1  12  14
3  13  1 22  2 1 2  12 3 13
33  
1  2 1  2  2 1   2
2 2 2
1  2 12
3
 1 
  
2 
   3
  1 
1
 1

 1 
2
1   2
  4
  6

1  2  
1 1 1
2 
 1  1 
Procesos media móviles (MA(1))
Procesos media móviles (MA(2))

 Calcular las raíces del polinomio.

(1  1L  1L )  0
2
Procesos media móviles (MA(2))

 Para tener un modelos estable;


Procesos media móviles (MA(2))
Procesos media móviles (MA(2))
Procesos media móviles (MA(2))

 Función de auto correlación simple


Procesos media móviles (MA(2))
Procesos media móviles (MA(2))
Procesos media móviles (MA(q))
 MA(q) con deriva:
  E ( xt )  E (   t  1 t 1   2 t  2     q t  q )  
 0  E ( xt   ) 2  E ( t  1 t 1   2 t  2     q t  q ) 2 
 
 1  12   22     q2  2

 (el mismo resultado)


Procesos media móviles (MA(q))

 1  E( xt   )( xt    )  E( t  1 t 1  2 t  2    q t  q )( t   1 t  1  2 t  1    q t   q )


(   11    q q  ) 2 si   q

0 si   q
Procesos media móviles (MA(q))
Procesos autoregresivos media
móviles (ARMA(p,q))
 Un modelo autoregresivo media móvil
(ARMA(p,q)) sigue la forma;

 Es decir, tiene una parte autoregresivo y otra


parte media móvil.
Procesos autoregresivos
media móviles (ARMA(p,q))
 Debemos comprobar si la parte autoregresiva
es estacionaria y la parte media móvil es
invertible.

 Si la parte AR es estacionario, se puede


escribir como un MA( )
Procesos autoregresivos media
móviles (ARMA(p,q))

 Si la parte MA es invertible, se puede


expresarlo como un AR()
Procesos autoregresivos
media móviles (ARMA(p,q))
 Los procesos ARMA tienen un FAS como la
de su parte AR y una

 FAP como su parte MA.

 ARMA tiene FAS y FAP que decrecen


exponencialmente en valor absoluta hacia
cero.

 No se puede determinar el orden.


Procesos autoregresivos
media móviles (ARMA(p,q))
ARMA(1,1)

xt    xt 1   t  1 t 1
  (1  1 )1
1  211  12 2
0  
1  12

 FAS:
 (1  11 )(1  1 )
  1
   1  211  12

1 1  1
ARMA(1,1)
ARMA(p,q)

   p (1)  1

 Representar con MA() :



xt     j t  j     ( L) t
j 0


 0  E ( xt   )2   2  2j
j 0
Procesos autoregresivos integrados
media móvil; ARIMA(p,d,q)

 Procesos ARIMA presentan raíces unitarias


en el polinomio autoregresivo; no son
estacionarios. Se puede factorizar r* ( L) a partir
de las raíces unitarias. Podemos escribir;

r* ( L)  (1  L) d r  d ( L)
 Donde d no incluye raíces unitarias y es el
número de raíces unitarias.
r* d ( L )
Procesos autoregresivos integrados
media móvil; ARIMA(p,d,q)
 Recuerda el operador de diferencias;
ARIMA(p,d,q)

 Por ejemplo, ARIMA(0,1,0) es un paseo


aleatorio.
ARIMA(p,d,q)

 Si una serie presenta un correlograma como


un AR(1) con   1 ; FAS está muy cerca 1, y
no caen rápidamente.
ARIMA(p,d,q)
 Si aplicamos el operador de diferencia cuando
no es necesario (sobre-diferenciar),
tendremos un MA(1) que no es invertible.

 Por ejemplo: Ruido blanco;


ARIMA(p,d,q)
 Cuando el orden de diferencia se ha
decidido AR() , se puede escribir un
procesos ARIMA como MA( ) o un .
Procesos estaciónales
 Si tenemos datos con información de varias ocasiones
durante un año, podemos observar estacionalidad, es
decir, un comportamiento económico que depende del
tiempo durante un año. (Ejemplos; temperaturas,
vacaciones, movimientos turísticos). Los procesos
anteriores están pensados para series con sólo una
observación cada año, o series sin estacionalidad.

 El numero de estaciones durante el año llamamos s.


Por ejemplo, S=12 para datos mensuales, o 4 para
trimestrales. Se puede generalizar los procesos
explicas arriba para captar estacionalidad.
Procesos estaciónales
Procesos estaciónales
Procesos estaciónales
Procesos estaciónales

 Una serie temporal con estacionalidad puede


tener una estructura de dependencia estacional
y otra parte regular (no estacional) que sigue un

 Normalmente estos partes pueden interactuar


en una especificación multiplicativa. Este es un
modelo
Procesos estaciónales
 En estos modelos hay “efectos satélites”.
 Por ejemplo

 Nota el término que se nota


en FAP y FAS asociados los retardos
próximos a los múltiples de S, pero esto no
significa que tengamos procesos adicionales
de MA(0,1) y SMA(0,1).
Procesos estaciónales
 FAS: Se reproduce la parte regular de la
FAS alrededor de los coeficientes
estaciónales.
 FAP: Se reproduce la parte regular de la
FAS a la izquierda de los coeficientes
estaciónales y la parte de FAP a la derecha.
 Signos:
 En FAS se multiplica el signo del coeficientes
estacional por el de regular.
 En FAP, si el signo del coeficiente estacional es
positivo se inversa el signo a la parte derecha
(FAP regular) mientras si es negativo, se inversa
el de la izquierda (FAS regular).
Procesos estaciónales

S-ar putea să vă placă și