Sunteți pe pagina 1din 31

U.F.R.

Economie Applique
Matrise dEconomie Applique
Cours de Tronc Commun
Economtrie Applique
Sries Temporelles
Christophe HURLIN
Chapitre 5. Reprsentation VAR et Coingration. Cours de C. Hurlin 2
Chapitre 5
Reprsentation VAR et Cointgration
Chapitre 5. Reprsentation VAR et Coingration. Cours de C. Hurlin 3
1. Reprsentation VAR
1.1. Exemple introductif
On considre deux processus stationnaires {y
1,t
, t Z} et {y
2,t
t Z} dnies par les relations
suivantes :
y
1,t
= a
1
+
p

i=1
b
1,i
y
1,ti
+
p

i=1
c
1,i
y
2,ti
d
1
y
2,t
+
1,t
(1.1)
y
2,t
= a
2
+
p

i=1
b
2,i
y
1,ti
+
p

i=1
c
2,i
y
2,ti
d
2
y
1,t
+
1,t
(1.2)
o les innovations {
1,t
, t Z} et {
2,t
, t Z} sont des bruits de variance respective
2
1
et

2
2
, et non corrls : E (
1,t

2,tj
) = 0, j Z. On constate immdiatement que le processus
vectoriel Y
t
= (y
1,t
y
2,t
)

peut scrire sous la forme dun processus AR(p) . En eet :


B =
_
1 d
1
d
2
1
_
A
0
=
_
a
1
a
2
_
A
i
=
_
b
1,i
c
1,i
b
2,i
c
2,i
_
i [1, p]
On dnit un processus vectoriel
t
i.i.d. tel que :

t
=
_

1,t

2,t
_
E
_

t
_
= =
_

2
1
0
0
2
2
_
Alors, on montre immdiatement que :
BY
t
= A
0
+
p

i=1
A
i
Y
ti
+
t
(1.3)
On qualie cette reprsentation de processus V AR (Vectorial Autoregressive) dordre p,
not V AR(p). Ce systme initial donne par les quations (1.1) et (1.2), ou par la dnition
matricielle (1.3) est qualie de reprsentation structurelle. On constate que dans cette
reprsentation le niveau de y
2,t
a un eet immdiat sur y
1,t
et vice et versa. Lestimation de
ce modle suppose donc destimer 4 (p + 1) + 2 + 2 paramtres.
Cest pourquoi on travaille gnralement partir de la forme rduite du modle V AR.
Ce modle, obtenu en multipliant les deux membres de (1.3) par B
1
, scrit alors sous la
forme :
Y
t
=

A
0
+
p

i=1

A
i
Y
ti
+v
t
(1.4)
Chapitre 5. Reprsentation VAR et Coingration. Cours de C. Hurlin 4
avec :

A
i
= B
1
A
i
i [0, p]
v
t
= B
1

t
t Z
Ce qui peut scrire sous la forme :
y
1,t
= a
1
+
p

i=1

b
1,i
y
1,ti
+
p

i=1
c
1,i
y
2,ti
+v
1,t
(1.5)
y
2,t
= a
2
+
p

i=1

b
2,i
y
1,ti
+
p

i=1
c
2,i
y
2,ti
+v
1,t
(1.6)
On constate alors que le niveau de y
2,t
ne dpend plus directement de y
1,t
, mais seulement
des valeurs passes de y
2,t
et de y
1,t
, et de linnovation v
2,t
. Les innovations v
1,t
et v
2,t
sont
alors fonction des innovations de la forme structurelle (
1,t
et
2,t
) et peuvent tre corrles
mme en labsence de corrlation des innovations
t
. En eet, on a t Z:
v
1,t
=

1,t
d
1

2,t
1 d
1
d
2
(1.7)
v
2,t
=

2,t
d
2

1,t
1 d
1
d
2
(1.8)
Ds lors, on vrie que les processus {v
1,t
, t Z} et {v
2,t
, t Z} sont i.i.d. puisque :
E (v
1,t
) = E(v
2,t
) = 0
E (v
1,t
v
1,tj
) = E(v
2,t
v
2,tj
) = 0 j Z

Les variances de ces innovations sont alors dnies par t Z


E
_
v
2
1,t
_
=

2
1
+d
2
1

2
2
(1 d
1
d
2
)
2
E
_
v
2
2,t
_
=

2
2
+d
2
2

2
1
(1 d
1
d
2
)
2
Enn, on constate que les innovations {v
1,t
, t Z} et {v
2,t
, t Z} peuvent tre corrles
alors mme que les innovations du modle structurel {
1,t
, t Z} et {
2,t
, t Z} sont non
corrles.
E(v
1,t
v
2,th
) =
_

d
2
2

2
1
+d
2
1

2
2
(1d
1
d
2
)
2
0
h = 0
h = 0
(1.9)
On constate que cette covariance est nulle en particulier lorsque d
1
= d
2
= 0, puisque
dans ce cas l le niveau de y
2,t
na pas dinuence sur celui de y
1,t
et vice et versa.
Chapitre 5. Reprsentation VAR et Coingration. Cours de C. Hurlin 5
1.2. Reprsentation gnrale
La dnition gnrale dun processus V AR(p) est la suivante.
Denition 1.1. Un processus vectoriel {X
t
, t Z}, de dimension (n, 1) , admet une reprsen-
tation V AR dordre p, note V AR(p) si :
X
t
= c
1
X
t1

2
X
t2
...
p
X
tp
+
t
(1.10)
ou de faon quivalente :
(L) X
t
= c +
t
(1.11)
o c, dimension (n, 1) dsigne un vecteur de constantes, (L) =

i=0

i
L
i
, o les matrice

i
, i [0, p] de dimension (n, n) , satisfont
0
= I
n
et
p
= 0
n
. Le vecteur (n, 1) des
innovations
t
est i.i.d. (0
n
, ) o est une matrice (n, n) symtrique dnie positive.
Le processus vectoriel des innovations {
t
, t Z} est i.i.d. (0
n
, ), et satisfait par con-
squent les proprits suivantes :
E (
t
) = 0
E
_

tj
_
=
_

0
j = 0
j = 0
De la mme faon que pour un AR(1), on peut donc exprimer le polynme matriciel
(L), de dimension (n, n), de la faon suivante :
(L) =

i=0

i
L
i
= I
n
+
1
L
2
L
2
...
p
L
p
o I
n
dsigne la matrice identit (n, n) . On pose les dnitions suivantes :
X
t
(n,1)
=
_
_
_
_
x
1,t
x
2,t
...
x
n,t
_
_
_
_

t
(n,1)
=
_
_
_
_

1,t

2,t
...

n,t
_
_
_
_

i
(n,n)
=
_
_
_
_

i
1,1

i
1,2
...
i
1,n

i
2,1

i
2,2
... ...
... ...
i
j,k
...

i
n,1

i
n,2
...
i
n,n
_
_
_
_
i [1, p]
On retrouve alors la forme rduite voque dans lexemple prcdent puisque, les proces-
sus {x
i,t
, t Z} sont respectivement dnis en fonctions de leur pass et du pass des proces-
sus {x
j,t
, t Z} pour j = i. Par exemple, pour x
1,t
on obtient, t Z :
x
1,t
= c
j
+
1
1,1
x
1,t1
+
1
1,2
x
2,t1
+.. +
1
1,n
x
n,t1
+
2
1,1
x
1,t2
+
2
1,2
x
2,t2
+.. +
2
1,n
x
n,t2
+...
+
p
1,1
x
1,tp
+
p
1,2
x
2,tp
+.. +
p
1,n
x
n,tp
Chapitre 5. Reprsentation VAR et Coingration. Cours de C. Hurlin 6
De faon plus gnrale, pour x
j,t
, j [1, n] , on a :
x
j,t
= c
1
+
1
j,1
x
1,t1
+
1
j,2
x
2,t1
+.. +
1
j,j
x
j,t1
+.. +
1
j,n
x
n,t1
+
2
j,1
x
1,t2
+
2
j,2
x
2,t2
.. +
2
j,j
x
j,t2
+.. +
2
j,n
x
n,t2
+...
+
p
j,1
x
1,tp
+
p
j,2
x
2,tp
.. +
p
j,j
x
j,tp
+.. +
p
j,n
x
n,tp
1.3. Conditions de stationnarit
La dnition de la stationnarit dordre deux (ou stationnarit du second ordre) est identique
celle du cas des processus univaris.
Denition 1.2. Un processus vectoriel {X
t
, t Z}, de dimension (n, 1) , est dit stationnaire
au second ordre, ou stationnaire au sens faible, ou stationnaire dordre deux si
t Z, E (X
2
t
) <
t Z, E(X
t
) = m
(n,1)
(indpendant de t)
(t, h) Z
2
, E
_
(X
t+h
m) (X
t
m)

= (h)
(n,n)
(indpendant de t)
Lorsque lon considre un processus V AR(p) , on peut dmontrer que ces conditions de
stationnarit reviennent imposer des conditions sur les racines du dterminant du polynme
matriciel (L) .
Proposition 1.3. Un processus vectoriel {X
t
, t Z}, de dimension (n, 1) , statisfaisant une
reprsentation V AR(p) telle que t Z :
(L) X
t
= X
t

1
X
t1

2
X
t2
...
p
X
tp
= c +
t
est stationnaire si et seulement si les racines du dterminant du polynme matriciel (L) ,
note
i
i [1, n], sont toutes suprieures lunit en module.
det [(
i
)] = |(
i
)| =

I
n

p
i

1

p1
i

2

p2
i
...
p1

p
i

p

= 0
|
i
| > 1 i [1, n] (1.12)
Chapitre 5. Reprsentation VAR et Coingration. Cours de C. Hurlin 7
Exemple : On considre un processus bi-vari {Y
t
, t Z} admettant une reprsentation
V AR(1) telle que :
y
1,t
= 3 + 0.2y
1,t1
+ 0.7y
2,t1
+
1,t
y
2,t
= 1 + 0.3y
1,t1
+ 0.4y
2,t1
+
2,t
On pose Y
t
= (y
1,t
y
2,t
)

et
t
= (
1,t

2,t
)

. Cette reprsentation peut sexprimer sous la


forme rduite suivante :
(L) Y
t
= c +
t
avec c = (3 1)

et :
(L) =
_
1 0
0 1
_
+
_
0.2 0.7
0.3 0.4
_
L =
_
1 0.2L 0.7L
0.3L 1 0.4L
_
Donc la condition de stationnarit du processus {Y
t
, t Z} se ramne dterminer les
racines du polynme :
det [(L)] = (1 0.2L) (1 0.4L) 0.21L
2
Les deux racines
1
= 1.30 et
2
= 5.91 sont suprieures 1 en module, le processus V AR
est stationnaire. Donc les processus univaries {y
1,t
, t Z} et {y
2,t
, t Z} sont stationnaires.
On peut facilement dmontrer que cette condition de stationnarit peut tre exprime
en fonction des valeurs propres de la matrice (L) .
Proposition 1.4. Un processus vectoriel {X
t
, t Z}, de dimension (n, 1) , statisfaisant une
reprsentation V AR(p) telle que t Z :
(L) X
t
= X
t

1
X
t1

2
X
t2
...
p
X
tp
= c +
t
est stationnaire si et seulement si les valeurs propres de lapplication linaire (L) , note

i
i [1, n], sont toutes infrieures lunit en module. Ces valeurs propres satisfont lquation
caractristique associe :

I
n

p
i

1

p1
i

2

p2
i
...
p1

p
i

p

= 0 (1.13)

< 1 i [1, n] (1.14)


Chapitre 5. Reprsentation VAR et Coingration. Cours de C. Hurlin 8
1.4. Ecriture VAR(1) dun VAR(p)
Les processus V AR(p) possde une proprit particulirement utile pour les dmonstrations
ultrieures.
Proposition 1.5. Tout processus vectoriel {X
t
, t Z}, satisfaisant une reprsentation V AR(p)
peut tre transform en un processus
_

X
t
, t Z
_
satisfaisant une reprsentation V AR(1)
desprance nulle.
Preuve : On considre un processus {X
t
, t Z}, avec X
t
= (x
1,t
, ..., x
n,t
)

satisfaisant la
reprsentation V AR(p) suivante, t Z :
(L)
(n,n)
X
t
(n,1)
= X
t

1
X
t1

2
X
t2
...
p
X
tp
= c +
t
Dterminons tout dabord lesprance du processus X
t
:
E(X
t
) = (L)
1
[c +
t
] = (1)
1
c = t Z
o est un vecteur de constante (hypothse de stationnarit) de dimension (n, 1) . On peut
alors recrire le processus sous la forme suivante :
(L) (X
t
) =
t
(X
t
) =
1
(X
t1
) +
2
(X
t2
) +... +
p
(X
tp
) +
t
On pose t Z

X
t
(np,1)
=
_
_
_
_
_
_
X
t

X
t1

X
t2

...
X
tp+1

_
_
_
_
_
_
v
t
(np,1)
=
_
_
_
_
_
_

t
0
(n,1)
0
(n,1)
...
0
(n,1)
_
_
_
_
_
_
et
A
(np,np)
=
_
_
_
_
_
_

1

2
...
p1

p
I
n
0
(n,n)
... 0
(n,n)
0
(n,n)
0
(n,n)
I
n
... 0
(n,n)
0
(n,n)
0
(n,n)
0
(n,n)
I
n
0
(n,n)
0
(n,n)
0
(n,n)
0
(n,n)
0
(n,n)
I
n
0
(n,n)
_
_
_
_
_
_
Alors le processus V AR(p) X
t
peut se rcrire sous la forme dun processus transform

X
t
satisfaisant une reprsentation V AR(1) tel que :

X
t
= A

X
t1
+v
t
Chapitre 5. Reprsentation VAR et Coingration. Cours de C. Hurlin 9
Exemple : On considre un processus bi-vari {Y
t
, t Z} admettant une reprsentation
V AR(2) telle que :
y
1,t
= 3 + 0.2y
1,t1
+ 0.7y
2,t1
0.4y
1,t2
0.6y
2,t2
+
1,t
y
2,1
= 1 + 0.3y
1,t1
+ 0.4y
2,t1
0.1y
1,t2
0.8y
2,t2
+
2,t
On pose Y
t
= (y
1,t
y
2,t
)

et
t
= (
1,t
y
2,t
)

. Cette reprsentation peut sexprimer sous la


forme rduite suivante :
(L) Y
t
= c +
t
avec c = (3 1)

et :
(L) =
0
+
1
L +
2
L
2
=
_
1 0
0 1
_
+
_
0.2 0.7
0.3 0.4
_
L +
_
0.4 0.6
0.1 0.8
_
L
2
=
_
1 0.2L + 0.4L
2
0.7L + 0.6L
2
0.3L + 0.1L
2
1 0.4L + 0.8L
2
_
Dterminons E (Y ) :
E(Y
t
) = (1)
1
c =
_
1.2 0.1
0.2 1.4
_
1
_
3
1
_
=
_
2.59
1.8
_
=
On pose t Z

Y
t
(4,1)
=
_
Y
t

Y
t1

_
=
_
_
_
_
y
1,t
2.59
y
2,t
1.8
y
1,t1
2.59
y
2,t1
1.8
_
_
_
_
v
t
(4,1)
=
_

t
0
(2,1)
_
=
_
_
_
_

1,t

2,t
0
0
_
_
_
_
et
A
(4,4)
=
_

1

2
I
2
0
(2,2)
_
=
_
_
_
_
0.2 0.7 0.4 0.6
0.3 0.4 0.1 0.8
1 0 0 0
0 1 0 0
_
_
_
_
Alors on montre que la reprsentation V AR(1) du processus

Y
t
est identique la reprsen-
tation V AR(p) du processus Y
t
puisque :

Y
t
= A

Y
t1
+v
t

_
_
_
_
y
1,t
2.59
y
2,t
1.8
y
1,t1
2.59
y
2,t1
1.8
_
_
_
_
=
_
_
_
_
0.2 0.7 0.4 0.6
0.3 0.4 0.1 0.8
1 0 0 0
0 1 0 0
_
_
_
_
_
_
_
_
y
1,t1
2.59
y
2,t1
1.8
y
1,t2
2.59
y
2,t2
1.8
_
_
_
_
+
_
_
_
_

1,t

2,t
0
0
_
_
_
_
Chapitre 5. Reprsentation VAR et Coingration. Cours de C. Hurlin 10

_
y
1,t
= 3 + 0.2y
1,t1
+ 0.7y
2,t1
0.4y
1,t2
0.6y
2,t2
+
1,t
y
2,1
= 1 + 0.3y
1,t1
+ 0.4y
2,t1
0.1y
1,t2
0.8y
2,t2
+
2,t
1.5. Reprsentation VMA
Considrons un processus vectoriel {X
t
, t Z}, de dimension (n, 1) , stationnaire.
Remark 1. Tout comme dans le cas univari, sous la condition de stationnarit, il est
possible dappliquer le thorme de Wold et de reprsenter X
t
sous la forme dun processus
vectoriel moyenne mobile inni V MA().
Nous allons nouveau donner lintuition du thorme de Wold appliqu aux processus
vectoriels. On considre un processus stationnaire satisfaisant la reprsentation V AR(p)
suivante, t Z :
(L) X
t
= X
t

1
X
t1

2
X
t2
...
p
X
tp
= c +
t
On sait que E (X
t
) = (1)
1
c = , o est un vecteur de constante (hypothse de
stationnarit) de dimension (n, 1) .
On sait daprs la proprit prcdente que ce processus V AR(p) peut tre rexprimer
sous la forme dun processus V AR(1) tel que :

(L)

X
t
= v
t


X
t
= A

X
t1
+v
t
o les processus

X
t
et v
t
, ainsi que la matrice A on t dnis prcdemment. Ds lors,
en itrant vers le pass, on montre que le processus

X
t
peut scrire sous la forme dune
moyenne mobile dordre ni t donn.

X
t
= v
t
+Av
t1
+A
2
v
t2
+..... +A
k

X
tk
Si lon suppose que les valeurs propres de la matrice A sont strictement infrieures 1
en module (condition de stationnarit), alors lim
k
A
k
= 0. Ds lors, le processus

X
t
peut
scrire sous la forme :

X
t
=lim
k
k

i=0
A
i
v
ti
=

i=0
A
i
v
ti
=

(L) v
t
En reprenant la dnition du processus

X
t
, on peut alors dterminer la dcomposition
de Wold associe au processus V AR(p) X
t
.
Chapitre 5. Reprsentation VAR et Coingration. Cours de C. Hurlin 11
Proposition 1.6. Tout processus {X
t
, t Z}, de dimension (n, 1) , stationnaire, satisfaisant
une reprsentation V AR(p) , telle que, t Z :
X
t
=
1
X
t1
+
2
X
t2
+... +
p
X
tp
+c +
t
(1.15)
admet une reprsentation moyenne mobile convergente dnie par :
X
t
= +

i=0

ti
= +(L)
t
avec = E(X
t
) = (1)
1
c, o
t
est un bruit blanc vectoriel et o la squence des matrices
de dimension (n, n) , {
i
}

i=0
satisfait
0
= I
n
et est absolument sommable au sens o les
lments
i
j,k
de la matrice
i
satisfont la condition :

s=0

i
j,k
_
s

< i 1, (j, k) [1, n]


2
La condition de sommabilit, qui garantit la convergence des moments dordre deux du
processus X
t
, doit se comprendre dans ce contexte comme une condition de sommabilit sur
une squence de matrices {
i
}

i=0
. Cette condition se ramne dmontrer la sommabilit de
tous les lments
i
j,k
de ces matrices, au sens traditionnel de la sommabilit dune squence
de scalaires (cf. chapitre 1).
Il est possible de dterminer de faon gnrale la forme des matrices de loprateur
polynmial associe la reprsentation V MA().
Proposition 1.7. Le polynme matriciel (L) =

i=0

i
L
i
associ la reprsentation
V MA() dun processus V AR(p) stationnaire, {X
t
, t Z}, t Z :
X
t
=
1
X
t1
+
2
X
t2
+... +
p
X
tp
+c +
t
(1.16)
satisfait la relation de rcurrence suivante :

0
= I
n

s
=
1

s1
+
2

s2
+... +
p

sp
s 1
avec
s
= 0, s < 0.
Chapitre 5. Reprsentation VAR et Coingration. Cours de C. Hurlin 12
Preuve : Une faon simple dobtenir la reprsentation V MA() dun processus V AR(p)
consiste identier les polynmes matriciels (L)
1
et (L) . En eet, dans le cas dun
processus centr (c = 0), on a :
X
t
= (L)
1

t
= (L)
t
(L) (L) = I
n
Ce galit peut se recrire sous la forme :
lim
k
__
I
n

1
L
2
L
2
...
p
L
p
_ _
I
n

1
L
2
L
2
...
p
L
p
...
k
L
k
_
= I
n
Ds lors, on montre par identication des termes de mme ordre que les matrices de
loprateur polynmial associe la reprsentation V MA() satisfont une quation de
rcurrence qui correspond celle de la proposition.
Preuve : On considre un processus bi-vari stationnaire {Y
t
, t Z} admettant une
reprsentation V AR(1) telle que :
(L) Y
t
= c +
t
avec
t
i.i.d. (0, ) , c = (3 1)

et :
(L) =
0
+
1
L =
_
1 0
0 1
_
+
_
0.2 0.7
0.3 0.4
_
L =
_
1 0.2L 0.7L
0.3L 1 0.4L
_
Par application du thorme de Wold, on sait que ce processus peut tre reprsent
comme sous une forme V MA() telle que :
X
t
= +

i=0

ti
= +(L)
t
Immdiatement, on montre que
= E(Y
t
) =
_
0.8 0.7
0.3 0.6
_
1
_
3
1
_
=
_
9.25
6.29
_
Par dnition, on a (L) (L) = I
2
, ce qui peut se recrire sous la forme :
lim
k
_
(I
2

1
L)
_

1
L
2
L
2
...
p
L
p
...
k
L
k
_
= I
2
Par identication des membres de mme terme, on montre que :

0
= I
2

1
=
1
=
_
0.2 0.7
0.3 0.4
_
Chapitre 5. Reprsentation VAR et Coingration. Cours de C. Hurlin 13

2
=
1

1
=
2
1
=
_
0.2 0.7
0.3 0.4
_
2
et de faon gnrale, on a :

n
=
1

n1
=
n
1
=
_
0.2 0.7
0.3 0.4
_
n
n 1
On retrouve ainsi la formule gnrale que lon avait tabli par itration vers le pass dans
le cas dun V AR(1):
Y
t
= +(L)
t
= +

i=0

i
1

ti
On montre ainsi que :
Y
t
=
_
y
1,t1
y
2,t1
_
=
_
9.25
6.29
_
+

i=0
_
0.2 0.7
0.3 0.4
_
i
_

1,ti

2,ti
_
2. Estimation des paramtres
Tous comme pour les processus AR univaris plusieurs mthodes destimation sont envisage-
ables pour les processus V AR. La premire consiste tout simplement appliquer les MCO.
La seconde principale mthode consiste en le maximum de vraisemblance.
2.1. Maximum de Vraisemblance
On considre un processus {X
t
, t Z}, avec X
t
= (x
1,t
, ..., x
n,t
)

satisfaisant la reprsentation
V AR(p) suivante, t Z :
(L) X
t
= X
t

1
X
t1

2
X
t2
...
p
X
tp
= c +
t
On suppose que les innovations
t
sont i.i.d. N (0, ) et que lon dispose de T +p observations
du processus X
t
. On cherche dterminer la vraisemblance conditionnelle de X
t
en fonction
des ralisations passes X
ti
, i [1, p] . Par dnition, la distribution conditionnelle de X
t
scrit :
D(X
t
/X
t1
, X
t2
, ..., X
tp
) N (c +
1
X
t1
+
2
X
t2
... +
p
X
tp
, )
An de simplier les calculs, on pose :

X
t
(p,1)
=
_
_
_
_
_
_
1
X
t1
X
t2
...
X
tp
_
_
_
_
_
_

=
_
_
_
_
_
_
c

2
...

p
_
_
_
_
_
_
Chapitre 5. Reprsentation VAR et Coingration. Cours de C. Hurlin 14
On a alors :
D(X
t
/X
t1
, X
t2
, ..., X
tp
) N
_

X
t
,
_
Si lon note le vecteur des paramtres estimer :
=
_

vect()
_
=
_
_
_
_
_
_
_
_
c

2
...

p
vect()
_
_
_
_
_
_
_
_
Ds lors la densit conditionnelle de X
t
scrit :
f (X
t
/X
t1
, X
t2
, ..., X
tp
; ) = (2)
n/2

1
2
exp
_

1
2
_
X
t

X
t
_

1
_
X
t


X
t
_
_
En partant de cette expression, il est possible de driver la vraisemblance sur lensemble de
lchantillon {X
t
}
T
t=1
conditionnellement aux valeurs initiales (X
0
, X
1
, X
2
, ..., X
p
) scrit
f (X
t
, X
t1,
X
t2,
..., X
1
/X
t1
, X
t2
, ..., X
tp
; ) =
T

t=1
f (X
t
/X
t1
, X
t2
, ..., X
tp
; )
La log-vraisemblance dun processus V AR(p) scrit donc :
L() =
T

t=1
log [f (X
t
/X
t1
, X
t2
, ..., X
tp
; )]
=
Tn
2
log (2) +
1
2
log
_

1
2
T

t=1
_
_
X
t

X
t
_

1
_
X
t

X
t
_
_
(2.1)
La maximisation de cette vraisemblance permet alors dobtenir des estimateurs conver-
gents des paramtres et de la matrice de variance covariance des innovations .
2.2. Dtermination du nombre de retards
Pour dterminer le nombre de retards optimal pour un V AR(p) , on peut utiliser plusieurs
mthodes. En particulier toutes les mthodes de comparaison de modles tudies dans le
chapitre prcdent sont valides ds quelles ont t adaptes au cas vectoriel.
Une procdure type consiste estimer tous les modles V AR pour des ordres p allant
de 0 un certain ordre h x de faon arbitraire (nombre de retards maximum pour la
taille dchantillon considr, ou nombre de retards maximum compatible avec une thorie
Chapitre 5. Reprsentation VAR et Coingration. Cours de C. Hurlin 15
ou une intuition conomique). Pour chacun de ces modles, on calcule les fonction AIC (p)
et SC (p) de la faon suivante :
AIC (p) = ln
_
det

_
+ 2
k
2
p
T
(2.2)
FC (p) = ln
_
det

_
+
k
2
p ln (T)
T
(2.3)
o T est le nombre dobservations, k le nombre de variable du systme,

la matrice de
variance covariance des rsidus estims du modle.
2.3. Prvisions
2.3.1. Le cas dun VAR(1)
Considrons le cas dun modle V AR(1) centr tel que t Z :
X
t
=
0
+
1
X
t1
+
t
Supposons que lon dispose dune ralisation sur un chantillon de T ralisations (X
1
, X
2
, .., X
T
)
dun estimateur convergent

1
de
1
et dun estimateur convergent

0
de
0
La formule qui
permet dobtenir une prvision de la ralisation la date T + 1 du processus X
t
est donc
naturellement donne par :

X
T+1
= E (X
t+1
/X
T
, X
T1
, ..., X
1
) =

0
+

1
X
t
(2.4)
A lhorizon T + 2, on a :

X
T+2
= E (X
t+2
/X
T
, X
T1
, ..., X
1
) =

0
+

X
t+1
=
_
I +

1
_

0
+

2
1
X
T
(2.5)
Proposition 2.1. De la mme faon un horizon h, la prvision dun V AR(1) est donne
par :

X
T+h
= E (X
T+h
/X
T
, X
T1
, ..., X
1
) =
_
I +

1
+

2
1
+... +

h1
1
_

0
+

h
1
X
t
Ds lors, lerreur de prvision scrit sous la forme :
X
T+h


X
T+h
= X
T+h
E(X
T+h
/X
T
, X
T1
, ..., X
1
)
= X
T+h
E(X
T+h
/
T
,
T1
, ...,
1
)
=
h1

i=0

i
1

T+hi
Chapitre 5. Reprsentation VAR et Coingration. Cours de C. Hurlin 16
Par dnition des bruits blancs, cette erreur de prvision a une esprance nulle. La
matrice de variance covariance de lerreur de prvision est donc :
E
_
_
X
T+h


X
T+h
__
X
T+h


X
T+h
_

/X
T
, X
T1
, ..., X
1
_
= E
_
_

T+h
+
1

T+h1
+.. +
h1
1

T+1
_ _

T+h
+
1

T+h1
+.. +
h1
1

T+1
_

_
= +
h1

i=1

i
1

i
1
_

Proposition 2.2. Pour un processus V AR(1) , la matrice de variance covariance de lerreur


de prvision un horizon h est dtermine par la relation :
E
_
_
X
T+h


X
T+h
_

_
X
T+h


X
T+h
_
/X
T
, X
T1
, ..., X
1
_
= +
h1

i=1

i
1

i
1
_

Les variances des erreurs de prvisions pour les processus univaris (x


1,t
, x
2,t
, ..., x
3,t
) sont
dtermins par la diagonale principale de cette matrice.
2.3.2. Le cas dun VAR(p)
La variance de lerreur de prvision sobtient trs facilement partir de la reprsentation
V MA() dun V AR dordre p quelconque. En eet, si X
t
est un processus stationnaire,
alors on peut lcrire sous la forme :
X
t
=

i=0

ti
= (L)
t
Ds lors, lerreur de prvision scrit sous la forme :
X
T+h


X
T+h
= X
T+h
E(X
T+h
/X
T
, X
T1
, ..., X
1
)
= X
T+h
E(X
T+h
/
T
,
T1
, ...,
1
)
=
h1

i=0

T+hi
Par dnition des bruits blancs, cette erreur de prvision a une esprance nulle. La
matrice de variance covariance de lerreur de prvision est donc :
E
_
_
X
T+h


X
T+h
__
X
T+h


X
T+h
_

/X
T
, X
T1
, ..., X
1
_
= E
_
_

T+h
+
1

T+h1
+.. +
h1

T+1
_ _

T+h
+
1

T+h1
+.. +
h1

T+1
_

_
= +
h1

i=1

i
(
i
)

Chapitre 5. Reprsentation VAR et Coingration. Cours de C. Hurlin 17


Proposition 2.3. Pour un processus V AR(p) , la matrice de variance covariance de lerreur
de prvision un horizon h est dtermine par la relation :
E
_
_
X
T+h


X
T+h
_

_
X
T+h


X
T+h
_
/X
T
, X
T1
, ..., X
1
_
= +
h1

i=1

i
(
i
)

Les variances des erreurs de prvisions pour les processus univaris (x


1,t
, x
2,t
, ..., x
3,t
) sont
dtermins par la diagonale principale de cette matrice.
3. Dynamique dun modle VAR
Les modles V AR sont souvent analyss au travers de leur dynamique et ce via la simulation
de chocs alatoires et lanalyse de la dcomposition de leur variance.
3.1. Analyse des chocs
On considre un processus {X
t
, t Z}, avec X
t
= (x
1,t
, ..., x
n,t
)

satisfaisant la reprsentation
V AR(p) suivante, t Z :
(L) X
t
= X
t

1
X
t1

2
X
t2
...
p
X
tp
= c +
t
On suppose que les innovations
t
sont i.i.d. (0, ) et que lon dispose de T + p ralisa-
tions de ce processus. On suppose en outre que les paramtres ,
i
sont connus, mais la
mme analyse peut tre mene lorsque lon ne dispose que destimateurs convergents de ces
paramtres.
Quelle est lide gnrale de lanalyse des chocs ?
Ide Gnrale Une fonction de rponse aux innovations rsume linformation concernant
lvolution dune composante x
i,t
qui intervient suite une impulsion sur x
j,t
la date
T, en supposant que toutes les autres variables sont constantes pour t T.
3.1.1. Exemple
On considre un processus bi-vari {Y
t
, t Z} admettant une reprsentation V AR(1) telle
que :
y
1,t
= 3 + 0.2y
1,t1
+ 0.7y
2,t1
+
1,t
y
2,t
= 1 + 0.3y
1,t1
+ 0.4y
2,t1
+
2,t
Chapitre 5. Reprsentation VAR et Coingration. Cours de C. Hurlin 18
On pose Y
t
= (y
1,t
y
2,t
)

et
t
= (
1,t

2,t
)

. On suppose que les chocs


1,t
et
2,t
sont
corrls. Cette hypothse est particulirement importante pour la suite de cet exemple.
E (
t

t
) =
_

2
1

12

12

2
2
_
=
_
1 0.5
0.5 1
_
On cherche identier limpact dun choc unitaire sur y
2,T
la date T sur la dynamique
de la variable y
1,t
aux priodes postrieures T,en supposant les volutions de ces deux
variables pour t T connues et donnes. Cela revient supposer :

2,T
= 1
2,t
= 0 t > T
On cherche donc dterminer la variation de y
1,t
engendre par ce choc. Pour cela
considrons la dcomposition de Wold du processus Y
t
dtermine infra:
y
1,t
=
1
+

i=0

1,i

t
o
1,i
dsigne la premire ligne de la matrice
i
issue de la reprsentation V MA :
Y
t
= (L)
t
=

i=0

ti
Y
t
=
_
y
1,t1
y
2,t1
_
=
_
9.25
6.29
_
+

i=0
_
0.2 0.7
0.3 0.4
_
i
_

1,t1

2,t1
_
On pourrait penser que suite au choc
2,T
= 1, dans ce cas, la suite des ralisations y
1,T+h
soit donne directement par les coecients correspondants du vecteur
1,i
. On obtiendrait
ainsi une fonction de rponse de la variable y
1
une impulsion de la variable y
2
. Cest une
premire possibilit de fonctions de rponse.
Le problme ici cest quen raison de la corrlation des deux chocs, limpulsion initiale sur

2,T
nest pas sans inuence sur linnovation
1,T
qui entre elle aussi dans la reprsentation
moyenne mobile innie de y
1,t
. Conditionnellement la ralisation de
2,T
, du fait de la
corrlation des deux chocs, la probabilit dengendrer une innovations
1,T
non nulle est elle
mme non nulle.
Or gnralement, ce qui intressant sur le plan conomique cest denvisager une impulsion
sur la composante orthogonale de
2,t

1,t
. Cest dire, il convient disoler linnovation
propre au processus y
2,t
non pollue par la raction de linnovation y
1,t
. Cest pourquoi,
Chapitre 5. Reprsentation VAR et Coingration. Cours de C. Hurlin 19
il convient dans le cas gnral o E (
t

t
) = I
n
, dorthogonaliser les innovations. On
considre donc la dcomposition suivante de la matrice de covariance des innovations :
= ADA

o A est une matrice (2, 2) triangulaire infrieure et o D est une matrice diagonale. Dans
notre exemple, on a :
=
_

2
1

12

12

2
2
_
=
_
1 0

12

2
1
1
_
_

2
1
0
0
2
2


2
12

2
1
_
_
1

12

2
1
0 1
_
Do dans notre exemple :
A =
_
1 0
0.5 1
_
D =
_
1 0
0 0. 75
_
On pose:
v
t
= A
1

t
On remarque alors que les innovations v
t
sont des combinaisons linaires des innovations
du modle initial
t
qui possdent une proprit dindpendance puisque :
E (v
t
v

t
) = A
1
E (
t

t
)
_
A
1
_

= A
1

_
A
1
_

= A
1
ADA

_
A

_
1
= D
Donc la matrice de variance covariance des innovations v
t
est diagonale, ce qui prouve
que ces innovations ne sont pas corrles. Dans notre exemple, il est trs simple de constater
que cette orthogonalisation correspond la projection linaire des
2,t
sur les
1,t
. Le rsidu
v
2,t
correspond la composante orthogonale des
2,t
.
v
2,t
=
2,t


12

2
1

1,t
=
2,t


1,t
2
E
_
v
2

1,t
_
= E
_
v
2
v

1,t
_
= 0
Reprenons la dcomposition de Wold associe Y
t
il vient :
Y
t
= +(L)
t
= +

i=0

i
1

ti
Chapitre 5. Reprsentation VAR et Coingration. Cours de C. Hurlin 20
Or on pose
t
= Av
t
, ds lors cette reprsentation V MA() peut se rcrire en fonction
dinnovations v
t
non corrles.
Y
t
=

(L)
t
= +

i=0

i
v
ti
= +

i=0
_

i
1
A
_
v
ti
(3.1)
On obtient donc dans notre exemple :
Y
t
=
_
y
1,t1
y
2,t1
_
=
_
9.25
6.29
_
+

i=0
_
0.2 0.7
0.3 0.4
_
i
_
1 0
0.5 1
__
v
1,t1
v
2,t1
_
De faon quivalente on peut recrire le V AR en fonction des seules innovations orthog-
onales :

t
= Av
t

_

1,t

2,t
_
=
_
1 0
0.5 1
__
v
1,t
v
2,t
_
y
1,t
= 3 + 0.2y
1,t1
+ 0.7y
2,t1
+v
1,t
y
2,t
= 1 + 0.3y
1,t1
+ 0.4y
2,t1
+ 0.5v
1,t
+v
2,t
Ds lors, on construit de la mme faon la squence des y
1,T+h
obtenus conditionnellement
un choc unitaire sur la composante orthogonale v
2,T
. Cela revient supposer :
v
2,T
= 1 v
2,t
= 0 t > T
Voici la reprsentation de ces IRF :
3.1.2. Cas gnral
On cherche ainsi de faon gnrale se ramener une reprsentation o les innovations sont
orthogonales.
Proposition 3.1. Dans le cas gnral o E (
t

t
) = = I
n
, on orthogonalise les innovations
de la faon suivante. On pose :
v
t
= A
1

t
(3.2)
o la matrice A est issue de lorthogonalisation de :
= ADA

(3.3)
o A est une matrice (2, 2) triangulaire infrieure et o D est une matrice diagonale. On
cherche donc rcrire le systme V AR non plus en fonction des innovations corrls
t
, mais
en fonction des innovations orthogonales v
t
qui satisfont :
E(v
t
v

t
) = D matrice diagonale (3.4)
Chapitre 5. Reprsentation VAR et Coingration. Cours de C. Hurlin 21
Figure 3.1: Fonction de Rponses de y
1
Proposition 3.2. Cette phase dorthogonalisation implique toutefois que lordre dans lequel
sont disposes les variables du V AR aecte lanalyse dynamique et en particulier lanalyse
des fonctions de rponse.
En eet, reprenons lexemple prcdent. On considre un processus bi-vari {Y
t
, t Z}
admettant une reprsentation V AR(1) telle que :
y
1,t
= 3 + 0.2y
1,t1
+ 0.7y
2,t1
+
1,t
y
2,t
= 1 + 0.3y
1,t1
+ 0.4y
2,t1
+
2,t
On suppose que les deux chocs
1,t
et
2,t
sont corrls et ont des variances direntes.
cov (
1,t

2,t
) =
1
2

2
1
= 1
2
2
= 2
Il existe deux faons dcrire le V AR, soit on pose Y
t
= (y
1,t
y
2,t
)

, soit lon crit Y


t
=
(y
2,t
y
1,t
)

. Le choix de lordre des variables va ds lors conditionner notre schma dorthog-


onalisation :
1. Cas 1 : on crit Y
t
= (y
1,t
y
2,t
)

et
t
= (
1,t

2,t
)

. Ds lors, on pose :
E (
t

t
) = =
_

2
1

12

12

2
2
_
=
_
1 0.5
0.5 2
_
Chapitre 5. Reprsentation VAR et Coingration. Cours de C. Hurlin 22
Dans ce cas, on a :
= ADA

=
_
1 0
0.5 1
__
1 0
0 1. 75
__
1 0.5
0 1
_
Les innovations orthogonales sont donc dnit par
: v
t
= A
1

t

_
v
1,t
v
2,t
_
=
_
1 0
0.5 1
_
1
_

1,t

2,t
_
=
_
1 0
0.5 1
__

1,t

2,t
_

_
v
1,t
=
1,t
v
2,t
=
1
2

1,t
+
2,t
Ds lors v
2,t
mesure la composante de
2,t
orthogonale
1,t
.
2. Cas 2 : on crit Y
t
= (y
2,t
y
1,t
)

et
t
= (
2,t

1,t
)

. Ds lors, on pose :
E (
t

t
) = =
_

2
2

12

12

2
2
_
=
_
2 0.5
0.5 1
_
Dans ce cas, on a :
= ADA

=
_
1 0
0.25 1
__
2 0
0
7
8
__
1 0.25
0 1
_
Les innovations orthogonales sont donc dnit par :
v
t
= A
1

t

_
v
2,t
v
1,t
_
=
_
1 0
0.25 1
_
1
_

2,t

1,t
_
=
_
1 0
0.25 1
__

2,t

1,t
_

_
v
1,t
=
1
4

2,t
+
1,t
v
2,t
=
2,t
Dans ce cas, v
2,t
nest rien dautre que
2,t
, qui par nature est corrl avec
1,t
.
3. En consquence, dans cet exemple on montre que (i ) si lon dsire tudier limpact
dune innovation pure du processus y
2,t
sur le niveau de y
1,t
, et que (ii ) on retient
cette mthode dorthogonalisation, il convient dcrire le systme V AR sous la forme
Y
t
= (y
1,t
y
2,t
)

. Bien entendu, les fonctions de rponse obtenues dans les deux cas ne
sont pas identiques.
Rsultat De faon gnrale dans lcriture dun V AR, la variable, que lon suppose conomique-
ment tre la variable explicative, doit gurer aprs la variable dont on veut expliquer
les volutions.
La dmonstration de ce principe dans le cas gnral dun V AR n variables est donne
dans Hamilton (1994), pages 291 et suivantes.
Chapitre 5. Reprsentation VAR et Coingration. Cours de C. Hurlin 23
3.2. Dcomposition de la variance
Dnition Partant de la dcomposition des rsidus en innovations pures ou orthogonales,
on peut calculer quelle est la contribution de chaque innovation la variance totale de
lerreur de prvisions du processus x
i,t
. Cest ce que lon appelle la dcomposition de la
variance.
On considre processus {X
t
, t Z}, avec X
t
= (x
1,t
, ..., x
n,t
)

satisfaisant la reprsentation
V AR(p) suivante, t Z :
(L) X
t
= X
t

1
X
t1

2
X
t2
...
p
X
tp
= c +
t
On suppose que les innovations
t
sont i.i.d. (0, ) On suppose que ce processus est station-
naire et peut tre reprsent sous la forme dun V MA() :
X
t
=

i=0

ti
= (L)
t
avec
i
= I
n
Lerreur de prvision lhorizon h scrit est :
X
t+h


X
T+h
= X
t+h
E (X
t+h
/X
T
, X
T1
, ..., X
1
)
= X
t+h
E (X
t+h
/
T
,
T1
, ...,
1
)
=
h1

i=0

T+hi
Par dnition des bruits blancs, cette erreur de prvision a une esprance nulle. La
matrice de variance covariance de lerreur de prvision est donc :
E
_
_
X
t+h


X
T+h
__
X
t+h


X
T+h
_

_
= +
h1

i=1

i
(
i
)

Cette erreur de prvision est donc exprime en fonction de la matrice de variance covari-
ance non diagonale des rsidus
t
.
Pour obtenir une dcomposition de la variance du vecteur X
t
= (x
1,t
, ..., x
n,t
)

il sut de
rexprimer cette matrice de variance covariance sous la forme dune combinaison linaire des
variances des innovations orthogonales v
t
.
v
t
= A
1

t

t
= Av
t
(3.5)
Chapitre 5. Reprsentation VAR et Coingration. Cours de C. Hurlin 24
o la matrice A est issue de lorthogonalisation de :
= ADA

On suppose que t Z :

t
=
_
_
_
_

1,t

2,t
...

n,t
_
_
_
_
=
_
a
1
(n,1)
a
2
(n,1)
.. a
n
(n,1)
_
_
_
_
_
v
1,t
v
2,t
...
v
n,t
_
_
_
_
o a
i
dsigne la i
` eme
colonne de la matrice A. Ds lors :
= E(
t

t
) = a
1
a

1
var (v
1,t
) +a
2
a

2
var (v
2,t
) +
+..... +a
n
a

n
var (v
n,t
) (3.6)
En substituant cette expression dans la variance de la prvision pour un horizon h,
cela donne permet de rexprimer cette variance en fonction de la variance des innovations
orthogonales :
E
_
_
X
t+h


X
T+h
__
X
t+h


X
T+h
_

_
= +
h1

i=1

i
(
i
)

=
n

j=1
_
var (v
j,t
)
h1

i=0

i
_
a
j
a

(
i
)

_
Proposition 3.3. A partir de cette formule, on est en mesure de calculer la contribution
dune innovation pure v
j,t
la variance totale de la prvision un horizon h :
var (v
j,t
)
_
a
j
a
j
+
1
_
a
j
a

(
1
)

+.... +
h1
_
a
j
a

j
_

h1
_

_
(3.7)
4. La causalit
Une des questions que lon peut se poser partir dun V AR est de savoir sil existe une rela-
tion de causalit entre les direntes variables du systme. Il existe ainsi plusieurs dnitions
de la causalit :
causalit au sens de Granger
causalit au sens de Sims
Chapitre 5. Reprsentation VAR et Coingration. Cours de C. Hurlin 25
Nous nous limiterons lexpos de la causalit au sens de Granger qui est la plus frquem-
ment utilise en conomtrie. On se restreint au cas dun processus bi-vari (n = 2) que
lon
Z
t
=
_
y
t
x
t
_
4.1. Causalit au sens de Granger
La question est de savoir si la variable x cause ou non la variable y.
Denition 4.1. On dit que la variable x cause au sens de Granger la variable y si et
seulement si la connaissance du pass de x amliore la prvision de y tout horizon.
De cette dnition dcoule un corollaire :
Corollary 4.2. On dit que la variable x ne cause pas la variable y au sens de Granger, si
et seulement si :
E (y
t+h
/y
t
, y
t1
, ..., y
1
) = E (y
t+h
/y
t
, y
t1
, ..., y
1
, x
t
, x
t1
, .., x
1
)
De faon quivalente, on dit alors que la variable y est exogne au sens des sries temporelles.
4.1.1. Application au cas dun V AR(p) avec n = 2
Pour un V AR(p) avec n = 2 la condition de la causalit de Granger est immdiate obtenir.
Rsultat Dans le systme bi-vari suivant V AR(p) :t Z
Z
t
=
_
y
t
x
t
_
=
_
c
1
c
2
_
+
_

1
11

1
12

1
21

1
22
__
y
t1
x
t1
_
+
_

2
11

2
12

2
21

2
22
__
y
t2
x
t2
_
+... +
_

p
11

p
12

p
21

p
22
__
y
tp
x
tp
_
+
_

y,t

x,t
_
(4.1)
la variable x
t
ne cause pas la variable y
t
si et seulement si :

1
12
=
2
12
=
3
12
= ... =
p
12
= 0 (4.2)
Autrement dit, la variable x
t
ne cause pas la variable y
t
si et seulement si les matrices

i
sont toutes triangulaires infrieures pour i [1, p] .
Chapitre 5. Reprsentation VAR et Coingration. Cours de C. Hurlin 26
En eet, rcrivons le processus sous cette condition, on a :
Z
t
=
_
y
t
x
t
_
=
_
c
1
c
2
_
+
_

1
11
0

1
21

1
22
__
y
t1
x
t1
_
+
_

2
11
0

2
21

2
22
__
y
t2
x
t2
_
+... +
_

p
11
0

p
21

p
22
__
y
tp
x
tp
_
+
_

y,t

x,t
_
(4.3)
Ds lors,
E (y
t+h
/y
t
, y
t1
, ..., y
1
) = c
1
+
1
11
y
t
+
2
11
y
t1
+.. +
p
11
y
tp+1
E (y
t+h
/y
t
, y
t1
, ..., y
1
, x
t
, x
t1
, .., x
1
) = c
1
+
1
11
y
t
+
2
11
y
t1
+.. +
p
11
y
tp+1
On a bien alors :
E (y
t+h
/y
t
, y
t1
, ..., y
1
) = E (y
t+h
/y
t
, y
t1
, ..., y
1
, x
t
, x
t1
, .., x
1
)
Cointgration et Modle Correction dErreur
January 8, 2002
1. Cointegration
1.1. Cointgration
Rappelons la dnition dun porcessus intgr :
Denition 1.1. Un processus est (x
t
, t Z) est un processus DS (Differency Stationnary)
dordre d, ou un processus iintgr dordre d, si le processus ltr dni par (1 L)
d
x
t
est
stationnaire.
Partant de l, on peut introduire la notion de cointgration :
Denition 1.2. On considre un processus vectoriel X
t
= (x
1,t
x
2,t
...x
N,t
)

de dimension
(N, 1) intgr dordre d. Les processus (x
i,t
, t Z) sont dits cointgrs si et seulement si il
existe un vecteur = (
1

2
...
N
)

R
N
tel que la combinaison linaire

X
t
est stationnaire
ou intgr dordre 0. Le vecteur correspond un vecteur de cointgration.
Considrons lexemple suivant :
y
1,t
= y
2,t
+
1,t
(1.1)
y
2,t
= y
2,t1
+
2,t
(1.2)
o (
1,t
, t Z) et (
2,t
, t Z) sont deux bruits blancs non corrls. La srie y
2,t
est une marche
alatoire intgre dordre , I (1) puisque la dirence premire y
2,t
=
2,t
est stationnaire.
De la mme faon, la srie y
1,t
proportionnelle un choc stationnaire prs, y
1,t
est elle aussi
non statioonaire et I (1) . En eet la dirence premire
y
1,t
= y
2,t
+
1,t
=
2,t
+
1,t
est stationnaire. Considrons prsent la combinaison linaire
y
1,t
y
2,t
=
1,t
(1.3)
Chapitre 4. Estimation, Tests de Validation, Prevision des Processus ARMA 43
Cette combinaison est elle aussi stationnaire. On dit que les processus (y
1,t
, t Z) et
(y
2,t
, t Z) sont cointgrs de vecteur (1, ) . Bien entendu, toute transformation monotone
du vecteur (1, ) permet dobtenir une autre relation de cointgration. Cest pourquoi le
vecteur (1, ) constitue en fait une base de lespace de cointgration.
La relation de cointgration sassimile donc une relation de long terme entre les variables
de lespace de cointgration et permet de dnir une ou plusieurs tendances stochastiques
communes. Bien entendu, les ralisations des processus de lespace de cointgration peuvent
tout moment ne pas satisfaire cette relation. Mais ces variables ne peuvent durablement
sen carter. On peut ainsi introduire la notion dECM : Modle Correction dErreur.
2. Reprsentation VECM
2.1. Modle Correction dErreur : ECM
Il sagit ici de proposer dans un modle intgr une reprsentation statique qui constitue une
cible de long terme (la relation de cointgration) et une reprsentation dynamique de court
terme (lajustement cette cible).
Reprenons lexemple prcdent :
y
1,t
= y
2,t
+
1,t
(2.1)
y
2,t
= y
2,t1
+
2,t
(2.2)
Considrons lquation de y
1,t
:
y
1,t
= y
2,t
+
1,t
y
1,t1
= y
2,t1
+
1,t1
= y
2,t1
+ [y
1,t1
y
2,t1
]
On peut alors rcrire lquation de y
1,t
sous la forme suivante :
y
1,t
= [y
1,t1
y
2,t1
] +y
2,t
+
1,t
(2.3)
Cette dernire quation constitue une reprsentation ECM. En eet, la dynamique du
taux de croissance de y
1,t
est dtermine par une cible de long terme (la relation de coint-
gration y
1,t1
y
2,t1
). Si il existe un cart positif la priode t 1 par rapport cette
relation de long terme, alors le coecient ngatif devant la relation de long terme (1),
implique une diminution du taux de croissance de y
1
la date t. On dit que le coecient
1 constitue une force de rappel. Enn, la composante dynamique du modle est reprsent
par la partie y
2,t
.
Considrons prsent le cas gnral avec N processus (x
i,t
, t Z).
Chapitre 4. Estimation, Tests de Validation, Prevision des Processus ARMA 44
Denition 2.1. On considre N processus (x
i,t
, t Z) intgrs dordre un satisfaisant une
relation de cointgration reprsente par le vecteur telle que la combinaison linaire :

t
=
0
+
1
x
1,t
+
2
x
2,t
+... +
N
x
N,t
soit stationnaire. Alors il existe une reprsentation ECM pour chaque processus (x
i,t
, t Z)
tel que :
x
i,t
= c +
t1
+
p
[
k=1

1,i
x
1,tk
+
p
[
k=1

2,i
x
2,tk
.... +
p
[
k=1

N,i
x
N,tk
+
t
(2.4)
Le coecient < 0 reprsente la force de rappel de lECM.
Si le coecient devant le rsidu de la relation de cointgration est positif ou nul, la
reprsentation ECM nest pas valide.
Exemple
2.2. Gnralisation de la reprsentation VECM
On considre un processus V AR(p) , not X
t
de dimension (N, 1) tel que :
X
t
= A
0
+A
1
X
t1
+A
2
X
t2
+.. +A
p
X
tp
+
t
Nous allons reprsenter ce processus sous la forme dun VECM. Pour cela on considre
lquation suivante :
X
t
X
t1
= A
0
+ (A
1
I) X
t1
+A
2
X
t2
+.. +A
p
X
tp
+
t
X
t
= A
0
+ (A
1
I) (X
t1
X
t2
) + (A
2
+A
1
I) X
t2
+.. +A
p
X
tp
+
t
X
t
= A
0
+ (A
1
I) X
t1
+ (A
2
+A
1
I) (X
t2
X
t3
) +.. +A
p
X
tp
+
t
Et ainsi de suite. On se ramne nallement une reprsentation susceptible dtre un
VECM :
X
t
= B
0
+B
1
X
t1
+B
2
X
t2
+... +B
p1
X
tp+1
+X
t1
+
t
o les matrices B
i
sont fonctions des matrices A
i
et o
=
p
[
k=1
A
k
I
Considrons lexemple dun V AR(2) :
X
t
= A
0
+A
1
X
t1
+A
2
X
t2
+
t
Chapitre 4. Estimation, Tests de Validation, Prevision des Processus ARMA 45
On obtient de cette faon lquation :
X
t
X
t1
= A
0
+ (A
1
I) X
t1
+A
2
X
t2
+
t
X
t
= A
0
+ (A
1
I) (X
t1
X
t2
) + (A
2
+A
1
I) X
t2
+
t
X
t
= A
0
+ (A
1
I) X
t1
+ (A
2
+A
1
I) X
t2
+
t
Mais il convient de faire appartre le niveau de X
t1
pour ventuellement faire apparatre
les rsidus des relations de cointgration de la priode prcdente. Pour cela, on ralise
lopration suivante :
X
t
= A
0
+ (A
1
I) X
t1
+ (A
2
+A
1
I) X
t2
(A
2
+A
1
I) X + (A
2
+A
1
I) X
t1
+
t
On obtient nalement :
X
t
= A
0
A
2
X
t1
+ (A
1
+A
2
I) X
t1
+
t
ou encore
X
t
= B
0
+B
1
X
t1
+X
t1
+
t
avec B
1
= A
2
, B
0
= A
0
et = (A
1
+A
2
I) .
Denition 2.2. De faon gnrale, la matrice peut scrire sous la forme :
=
P
[
k=1
A
k
I =

o le vecteur est la force de rappel vers lquilibre de long terme et la matrice dont les
vecteurs colonnes sont constitus par les coecients des direntes relations de cointgration
pouvant exister entre les lments du vecteur X
t
. Le rang de la matrice dtermine le nombre
de relations de cointgration prsentes entre les N variables du vecteur X
t.
r = nombre de relations de cointgration
Si le rang de la matrice (cest dire le nombre de colonnes linairement indpendantes)
est gal la dimension N du V AR alors toutes les variables du V AR sont stationnaires I (0)
et le problme de la cointgration ne se pose pas.
Denition 2.3. Si en revanche, le rang de la matrice satisfait :
1 r N 1
alors il existe r relations de cointgration et la reprsentation VECM est valide :
X
t
= B
0
+B
1
X
t1
+B
2
X
t2
+... +B
p1
X
tp+1
+

t1
+
t
avec
t
= X
t1
Chapitre 4. Estimation, Tests de Validation, Prevision des Processus ARMA 46
2.3. Test du nombre de relation de cointgration
Le test de Johansen (1988) est fond sur lestimation de
X
t
= B
0
+B
1
X
t1
+B
2
X
t2
+... +B
p1
X
tp+1
+Y
t1
+
t
Ce test est fond sur les vecteurs propres correspondant aux valeurs propres les plus
leves de la matrice . Nous ne prsenterons ici que le test de la trace. A partir des valeurs
propres de la matrice , on construit la statistique :

trace
(r) = T
N
[
i=r+1
log (1
i
)
o T est le nombre dobservations, r le rang de la matrice,
i
la i
` eme
valeur propre et N
le nombre de variables du V AR. Cette statistique suit une loi de probabilit tabule par
Johansen et Juselius (1990). Ce test fonctionne par exclusion dhypothses alternatives :
1. Test H
0
: r = 0 contre H
1
: r > 0. Test de lhypothse aucune relation de cointgration
contre au moins une relation. Si
trace
(0) est suprieur la valeur lue dans la table
au seuil %, on rejette H
0
, il existe au moins une relation, on passe alors ltape
suivante, sinon on arrte et r = 0.
2. Test H
0
: r = 1 contre H
1
: r > 1. Test de lhypothse une relation de cointgration
contre au moins deux relation. Si
trace
(1) est suprieur la valeur lue dans la table
au seuil %, on rejette H
0
, il existe au moins une relation, on passe alors ltape
suivante, sinon on arrte et r = 1.
Et ainsi de suite jusqu la dernire tape (si elle est ncessaire) :
1. Test H
0
: r = N 1 contre H
1
: r > N 1. Test de lhypothse N 1 relation
de cointgration contre au moins N 1 relations. Si
trace
(N 1) est suprieur la
valeur lue dans la table au seuil %, on rejette H
0
, il existe N relations (en fait dans
ce cas les N variables sont I (0)) sinon r = N 1.
Sous Eviews vous disposez directement des valeurs
trace
(r) pour r = 1, N ainsi que les
seuils tabuls par Johansen.

S-ar putea să vă placă și