Documente Academic
Documente Profesional
Documente Cultură
Tiempo
Series de Tiempo
700
15
600
10
500
Miles de personas
Pasajeros de líneas aéreas, total mensual Rendimientos (logx100) del índice NIKKEI
" t , k : E ( zt ) = mt = mz
E [( zt - mt )2 ] = s t2 = s z2
E [( zt - mt )( zt - k - mt - k )] = g t ,k = g k
z t ) = s z2 = g 0 = s a2 r k = g k = 0 ; k ³ 1
2
E(zt ) = mz [E(at ) = 0 ] E ( %
g0
.4
.3
.2
La figura muestra el perfil de 500 .1
observaciones simuladas del proceso .0
de ruido blanco: -.1
-.2
zt = at ; at : iid N(0,.01) -.3
-.4
100 200 300 400 500
Ruido blanco
Procesos elementales (II): AR(1).
.3
.4
.2
.2
.1
.0 .0
-.1
-.2
-.2
-.4
-.3
-.4 -.6
100 200 300 400 500 100 200 300 400 500
.3 .3
.2 .2
.1 .1
.0
.0
-.1
-.1
-.2
-.2
-.3
-.3
-.4
100 200 300 400 500 -.4
100 200 300 400 500
MA(1), theta=.5
ma(1), theta=.9
Procesos elementales (IV): Paseo aleatorio.
Un paseo aleatorio representa una variable cuyos cambios son ruido blanco y,
por tanto, imprevisibles. Esto es:
y t = c + y t - 1 + at
La figura muestra el perfil de dos series generadas por paseos aleatorios con
y sin deriva. Como puede observarse, la característica fundamental de este
proceso es la falta de afinidad de las series a una media estable:
1 450
400
0
350
-1 300
250
-2 200
150
-3
100
-4 50
100 200 300 400 500 100 200 300 400 500
X
Para contrastar H0 : mX = 0 puede usarse el estadístico: t = $ : tn- 1
sX/ nH
0
4
1 n æ ö
3
1 æ ö
Xi - X ÷ n
Xi - X ÷
Coeficientes de asimetría y kurtosis: CA = å ç ç ÷ CK = å çç ç ÷
ç $
n i= 1 è s X ø ÷
÷ n i= 1 è s X ÷
$ ÷
ø
Para hacer inferencia sobre la función de auto correlación simple (FAS o ACF)
pueden usarse los siguientes resultados:
• Para muestras suficientemente grandes s.e.($r k ) ; n
- 1/ 2
K
1 $2
• Si es cierto H 0 : r 1 = r 2 = r 3 = K = r K = 0entonces Q ( K ) = n ( n + 2 ) åk = 1 n - k r k : c K2 - p
H0
en donde: K es el número de retardos de la ACF
p es el número de parámetros estimados, si la serie es de residuos.
%
z ˆ % ˆ % ˆ % ˆkt ; k = 1, 2,K
t = f k 1zt - 1 + f k 2 zt - 2 + K + f kk zt - k + e
.2 y estadísticos pueden
.1
reconocerse de forma
.0
-.4 correlación
100 200 300 400 500
Ruido blanco
características de los
distintos procesos.
AR(1): zt = .5zt - 1 + at ; at : iid N(0,.01) En análisis de series
temporales, a este
.4
proceso de
.3
.2
especificación
.1 empírica se le llama
.0 “identificación”
-.1
-.2
-.3
-.4
100 200 300 400 500
AR(1) phi=.5
Identificación (V)
MA(1): zt = at - .5at - 1 ; at : iid N(0,.01)
.4
.3 La identificación
.2 puede estructurarse
.1
.0
como una secuencia
-.1 de preguntas:
-.2
-.3
• ¿Es estacionaria la
-.4
100 200 300 400 500
serie?
MA(1), theta=.5
• ¿Tiene una media
Paseo aleatorio: y t = y t - 1 + at ; at : iid N(0,.01) significativa?
1 • ¿Es finita o infinita la
0 ACF?
-1
• ¿Es finita o infinita la
-2 PACF?
-3
-4
100 200 300 400 500
Finita Infinita
PACF Finita Ruido blanco AR
Infinita MA ARMA
• ¿A partir de qué retardo muere la ACF o PACF? para determinar el orden del
proceso.
Estas técnicas requieren usar estadísticos como la media, la varianza o la
covarianza muestrales, que sólo tienen sentido si el proceso es estacionario, esto
es, si los datos tienen una media y una varianza finitas y aproximadamente
constantes.
Estudio de los procesos más comunes: AR(1)
ACF PACF
zt = c + f zt - 1 + at ; f < 1
c 0< f < 1
E ( zt ) = mz =
1- f 1 1
2
2 s
E(%
zt ) = s z2 = g 0 = a
2
1- f
gk
rk = =f k
; k³ 0 Retardo Retardo
g0
-1 -1
Los procesos AR(1) se
reconocen por una ACF
- 1< f < 0
infinita y una PACF que se
anula a partir del segundo 1
1
retardo.
Si los datos tienen media,
es necesario especificar Retardo
un término constante. Retardo
-1
-1
Estudio de los procesos más comunes: MA(1)
ACF PACF
zt = mz + at - qat - 1 ; q < 1
0< q< 1
E ( zt ) = mz
1 1
2
% ) = s 2 = g = (1 + q2 )s 2
E(z t z 0 a
ìï - q
g ï si k = 1
r k = k = ïí 1 + q2
Retardo Retardo
g 0 ïï
ïî 0 si k > 1
-1 -1
es necesario especificar
un término constante. -1
-1
Estudio de los procesos más comunes: AR(2)
1- f 1 - f 2
r k = f 1 r k- 1 + f 2 r k- 2; k ³ 1
con : Retardo Retardo
2
f1 f 1
r1 = ; r2 = f 2 +
1- f 2 1- f 2
-1 -1
f1< 0 ; f2> 0
Los procesos AR(2) se
reconocen por una ACF 1 1
infinita y una PACF que se
anula a partir del tercer
retardo.
Si los datos tienen media, Retardo Retardo
es necesario especificar
un término constante.
-1 -1
Estudio de los procesos más comunes: AR(2)
ACF PACF
f1> 0 ; f2< 0
1
1
Retardo
Retardo
-1
-1
f1< 0 ; f2< 0
1 1
Retardo
Retardo
-1
-1
Estudio de los procesos más comunes: MA(2)
E ( zt ) = mz 1 1
2
E(%
z ) = s z2 = g 0 = (1 + q12 + q22 )s a2
t
ìï - q1 (1 - q2 )
ïï si k = 1 Retardo Retardo
ïï 1 + q12 + q22
ï
g k ïï - q2
rk = = ïí si k = 2
g 0 ïï 1 + q12 + q22 -1
-1
ïï
ïï 0 si k > 2
ïï
ïî
q1 < 0 ; q2 > 0 q1 > 0 ; q2 < 0
Regresa
y t x t t
R 0
2 p
t ˆ t distribución
Regresión Espuria (cont)
ˆ a lg una distribuci ón
R alguna distribuci ón
2
DW
0 p
1 / 2
T t ˆ alguna distribuci ón
Regresión Espuria (cont)
Problema de Regresión Espuria (SPR):
La regresión de una serie I(1) sobre otra variable I(1) no relacionada,
produce unos t-ratios del parámetro de la pendiente que indican la
existencia de relación cuando sabemos que no la hay. Este problema no
desaparece cuando el tamaño muestral aumenta.
El problema de la Regresión Espuria puede aparecer también con series I(0)
(vease Granger, Hyung and Jeon (1998)). Esto nos está diciendo que el
problema está generado por el uso de VALORES CRITICOS EQUIVOCADOS!!!!
En una Regresión Espuria los errores estarían correlacionados y los
estadísticos “t” estarían mal calculados porque se esta usando un
estimador de la varianza residual que no es consistente. En el mundo
I(0) se puede hacer una corrección como vimos en clase que resuelve
este problema:
ˆ ˆ
t t - distribuci ón , donde ˆ (varianza de largo plazo de ˆ)1/2
ˆ
Quizás se pueda hacer algo parecido cuando la regresión envuelve
variables I(1).
Regresión Espuria (cont)
Como se detecta la Regresión Espuria (entre series I(1))?
COINTEGRATED!!!!!!!!!!!!!!!!!!!!!!!
Algunos Ejemplos de Cointegración
Ejemplo 1: Teoria de la paridad del poder adquisitivo (PPP)
“Apart from transportation costs, good should sell for the same effective price
in two countries”
Pt St P t
*
p t s t p*t
Una versión de la PPP
mas débil:
p t s t p*t z t
Si las tres variabes son I(1) y zt es I(0) entonces la teoría de la PPP está
implicando que existe cointegración entre pt, st y p*t .
Algunos Ejemplos de
Cointegración (cont)
Ejemplo 2: Modelo del Valor Presente Actualizado (PVM)
Yt (1 ) i Et ( yt i ) c
i 0
Z t Yt y t is I(0)
Interpretación Geométrica de Cointegración
Que es un ATTRACTOR?
Considere el precio (en el tiempo) de un bien que se comercia en dos
localidades diferentes i y j.
.
3 p p
p jt . it jt
4 .
1 : ( pi1 , p j1 ) 5
.
2 : ( pi 2 , p j 2 ) 2 .
1
t : ( pit , p jt )
45
pit
pi1 y p j1
Supongamos pi1 p j1 Demanda irá al lugar j
pit p jt
Interpretación Geométrica de
Cointegración(cont)
El concepto de attractor es el concepto de long-run equilibrium entre dos
procesos estocasticos. Permitimos que las dos variables diverjan en el corto
plazo; pero en el largo plazo tienen que converger a una región común
denominada región En otras palabras, si no hubiera ningún shock en el
sistema de aquí al futuro, los dos procesos estocásticos convergerian a un
conjunto attractor común.
y t x t z t ; y t , x t I(1)
p
z ˆt 1 i z
ˆt z ˆt i error
i 1
• La hipótesis nula
H o : 0
• Esto significa que los residuos tienen una raíz unitaria y entonces yt y xt no están
cointegradas.
• Si los residuos son I(0) entonces yt y xt están cointegradas
Modelo de Correción del Error
Modelo de Correción del Error Vectorial(VECM)
Resultado 2.
Si
X t , Yt están cointegradas, entonces existe una representacion ECM
y viceversa (Teorema de Representación de Granger).
Intuición Geométrico del Modelo de
Corrección del Error
Intuición sobre el ECM
Z t Yt AX t : error de equilibrio
Yt
Yt AX t
Zt 0
Xt
Donde vaya el sistema en el tiempo t+1 , depende de la magnitud y
el signo del error de equilibrio en el periodo anterior.
Procesos estocásticas
Teorema de Wold
Procesos AR(p)
Procesos MA(q)
Procesos ARMA(p,q)
Procesos ARIMA(p,d,q)
Procesos estocásticos
Restricciones de Estacionaridad
E ( xt ) ,
E ( xt t ) 2 2
Ext t xt t ,
Restricciones a la heterogeneidad
temporal del proceso.
lim 0
Transformación Box-Cox:
xt 1
si 0
xt( )
ln xt si 0
Restricciones a la heterogeneidad
temporal del proceso.
Para conseguir una media constante a largo del tiempo se puede aplicar operadores de
diferencia, . 1 L , donde L es el operador de retardo. Lxt xt 1 .
xt (1 L) xt xt xt 1.
wt d xt (1 L) d xt
Las funciones de autovarianza y
autocorrelación
La función de autocovarianza
t , Cov( xt , xt ) E[( xt t )( xt t )]
...,1,0,1,...
E[( xt )( xt )]
Las funciones de autovarianza y
autocorrelación
t , E[( xt t )( xt t )]
t ,
t t E ( xt t )2 E ( xt t )2
Las funciones de autovarianza y
autocorrelación
E[( xt )( xt )]
0 E ( xt ) 2
T
Media ( ) ( x T 1
x )
t 1
t
Varianza ( 0 )
Autocovarianzas ( )
Autocorrelaciones ( )
Autocorrelaciones parciales ( kk )
La función de autocovarianza
T
ˆ T 1 ( xt x )( xt x )
t 1
Función de autocorrelacion simple
T
(x t x )( xt x )
ˆ r t 1
0 T
t
( x
t 1
x ) 2
Función de auto correlación simple
1
1 2
V (r ) 1 2 ri
T i 1
Se puede usar la varianza para contrastar la H 0 : 0 . r 1.96std (r ) donde std ()
es el error estándar. Rechazamos la hipótesis si r es fuera del intervalo
( 1.96std (r ), 1.96std (r ) ).
función de auto correlación parcial
xt c 11xt 1 vt
x c x x v
t 21 t 1 22 t 2 t
xt c k1 xt 1 k 2 xt 2 ... kk xt k vt
Donde 11,...,kk son estimaciones consistentes de la FAP. Bajo los supuestos que el
proceso es gaussiano (normal) y que kk k 1, k 1 ... 0 , se puede estimar la varianza
con,
1
V (ˆkk ) de manera que si ˆkk está fuera del intervalo ( 1.96T 1 / 2 , 1.96T 1 / 2 )
T
rechazamos la hipótesis que ˆkk 0 .
Procesos de ruido blanco
Definición:
aleatorio si;
xt xt 1 t
donde t es ruido blanco
xt xt 1 xt (1 L) xt t
Procesos de paseo aleatorio
Procesos de paseo aleatorio
Se puede generalizar el modelo e incorporar
una deriva.
Procesos de paseo aleatorio
El primero momento;
t 1
E ( xt ) E x0 t t j x0 t
j 0
Si 0 el proceso no es estacionario en
media.
Procesos de paseo aleatorio
La varianza;
2
t 1
t ,0 E ( xt E ( xt )) E t j
2
j 0
t 1 t 1
t 1
E t2 j 2 t j t j ' E ( t2 j )
j 0 j , j ' 0 j 0
j j'
2t
t es ruido blanco, y E ( t t j ) 0 j 0
No es estacionario en varianza; tiene una tendencia
(incrementa linealmente). Paseo aleatorio tiene una
tendencia en varianza o tendencia estocástica.
Procesos de paseo aleatorio
Otra manera de llegar al mismo resultado;
Procesos de paseo aleatorio
Auto covarianza;
t , E( xt E ( xt ))( xt E ( xt ))
t 1 t 1 t 1
E t j t j E ( t2 j )
j 0 j 0 j 0
2 (t )
wt xt t
wt es estacionario; es un ruido blanco alrededor de la media, .
Procesos de paseo aleatorio
Es importante detectar si un serie está
generada por un pasea aleatorio.
xt c 11xt 1 ut
x c x x u
t 21 t 1 22 t 2 t
xt c k1 xt 1 k 2 xt 2 ... kk xt k ut
xt xt 1 t
Y contrastar si H 0 : 1
Procesos lineales
T
Definición: Un proceso estocástico t t 1 es
lineal cuando lo podemos escribir como una
función de una combinación lineal
(posiblemente infinita) de variables aleatorios
de ruido blanco.
xt t 1 t 1 2 t 2 ...
j t j
j 0
Procesos lineales
AR( p ); xt 1 xt 1 2 xt 2 ... p xt p t
MA(q ); xt t 1 t 1 2 t 2 ... q t q
ARMA( p, q ); xt 1 xt 1 ... p xt p t 1 t 1 ... q t q
ut ( L) t
j 0
j t j
Procesos lineales
El proceso MA( ) se puede aproximar a través
modelos lineales, cuando el polinomio infinito (L)
se puede aproximar bien con un cociente de
dos polinomios en
q ( L)
L : ( L )
p ( L)
Transformaciones puede hacer series
estacionarios y la teorema permite crear
modelos relativamente sencillas a partir de
modelos lineales.
Procesos auto regresivos (AR)
p ( L) xt t
(1 1 L 2 L2 ... p Lp ) xt t
xt 1 xt 1 2 xt 2 ... p xt p
Procesos autoregresivos (AR)
p ( L) (1 1L 2 L2 ... p Lp ) 0
p
(suficiente, pero no necesario):
j 1
j 1
Procesos auto regresivos (AR)
AR(1) estacionariedad
xt 1 xt 1 t
(1 L) xt t
E ( xt t h ) E t t 1 t 2 ... t h 0
2
1
E ( xt ) E t j
j
1 j 0 1
E ( xt ) E ( xt 1 t ) (1 ) 1
Procesos autoregresivos (AR)
La varianza del proceso es;
2
2
0 E ( xt )2 E j t j 2 j 2 2
j 0 j 0 1
0 V ( xt ) V ( xt 1 t ) 2 0 2 2 (1 2 ) 1
Procesos autoregresivos (AR)
~
La autocovarianza del proceso es, donde; xt
indica la desviación con respecto a la media.
0
AR(2):
xt 1 xt 1 2 xt 2 t
(1 1 L 2 L2 ) xt t
2 ( L ) xt t
donde 2 ( L) (1 1 L 2 L2 )
MA(1):
xt t 1 t 1
Esperanza:
E ( xt ) E ( t 1 t 1 )
Procesos media móviles (MA(1))
Varianza:
0 E ( xt )2 E ( t 1 t 1 )2 E ( t2 ) 12 E ( t21 ) 21E ( t t 1 )
1 12 2
Autocovarianza:
FAS es: 1
1
(1 12 )
0 2
1
11
1 12
2 12 12
22
1 1 2
1 12 14
3 13 1 22 2 1 2 12 3 13
33
1 2 1 2 2 1 2
2 2 2
1 2 12
3
1
2
3
1
1
1
1
2
1 2
4
6
1 2
1 1 1
2
1 1
Procesos media móviles (MA(1))
Procesos media móviles (MA(2))
(1 1L 1L ) 0
2
Procesos media móviles (MA(2))
xt xt 1 t 1 t 1
(1 1 )1
1 211 12 2
0
1 12
FAS:
(1 11 )(1 1 )
1
1 211 12
1 1 1
ARMA(1,1)
ARMA(p,q)
p (1) 1
0 E ( xt )2 2 2j
j 0
Procesos autoregresivos integrados
media móvil; ARIMA(p,d,q)
r* ( L) (1 L) d r d ( L)
Donde d no incluye raíces unitarias y es el
número de raíces unitarias.
r* d ( L )
Procesos autoregresivos integrados
media móvil; ARIMA(p,d,q)
Recuerda el operador de diferencias;
ARIMA(p,d,q)