Documente Academic
Documente Profesional
Documente Cultură
F. Karamé
TEPP (EPEE et CEE) & CEPREMAP (Dynare team)
Contribution à l’école ETEPP
Introduction : l’économétrie bayésienne des DSGE
L ( y 1 :T θ ) ⋅ p ( θ )
p ( θ y 1 :T ) = ∝ L ( y 1 :T θ ) ⋅ p ( θ )
p ( y1:T )
à une constante multiplicative près indépendante des paramètres p ( y1:T ) = ∫θ L ( y1:T θi ) ⋅ p (θi ) dθi
i
L’estimation dite classique ou fréquentiste consiste à trouver les paramètres associés au maximum
de vraisemblance :
Les méthodes de perturbations (ou locales)
Et [ f ( yt + 1 , yt , yt −1 , ut )] = 0
et posons la solution (inconnue) :
yt = g ( yt −1 , ut ,σ )
0 ≈ Fg( 1 ) ( y− , u , u+ ,σ ) = f y + ( g y ( g y ŷ + g uu + gσ σ ) + g uu+ + gσ σ )
+ f y ( g y ŷ + g uu + gσ σ ) + f y − ŷ + fuu
ŷ = yt −1 − y u = ut u+ = ut + 1
∂f ∂f ∂f ∂f
avec : fy+ = fy = fy− = fu =
∂yt + 1 ∂yt ∂yt −1 ∂ut
∂g ∂g ∂g
gy = gu = gσ =
∂yt ∂ut ∂σ
En prenant l’espérance conditionnelle et en regroupant, il vient :
0 ≈ ( f y + g y g y + f y g y + f y − ) ⋅ ŷ + ( f y + g y g u + f y g u + fu ) ⋅ u
+ ( f y + g y gσ + f y + gσ + f y gσ ) ⋅ σ
On est en présence d’un système de trois blocs d’équations à trois blocs d’inconnus qui est satisfait si :
f y + g y g y + f y g y + f y − = 0 f y + g y g y + f y g y + f y − = 0 décomposition de
⇒ → g y (θ ) et g u (θ )
y+ y u y u u
f g g + f g + f = 0 ⇔ f g g
y+ y u y u u + f g + f = 0
Schur généralisée
f y + g y gσ + f y + gσ + f y gσ = 0 gσ = 0
yt = y + g y (θ ) ⋅ ŷt −1 + g u (θ ) ⋅ ut
A l’ordre 2 :
Fg( 2 ) ( y− , u , u+ ,σ ) = Fg( 1 ) ( y− , u , u+ ,σ )
+ 0 ,5 ⋅ [ Fy − y − ( ŷ ⊗ ŷ ) + Fuu ( u ⊗ u ) + Fu+ u+ ( u+ ⊗ u+ ) + Fσσ σ 2 ]
+ Fy − u ( ŷ ⊗ u ) + Fy − u+ ( ŷ ⊗ u+ ) + Fy −σ ŷσ
+ Fuu+ ( u ⊗ u+ ) + Fuσ uσ
+ Fu+σ u+σ
avec F.. des matrices de dérivées du vecteur de fonctions. En prenant l’espérance conditionnelle et en
réorganisant, il vient :
yt = y + 0 ,5 ⋅ gσσ (θ ) ⋅ σ 2 + g y (θ ) ⋅ ŷt −1 + g u (θ ) ⋅ ut
+ 0 ,5 ⋅ g yy (θ ) ⋅ ( ŷt −1 ⊗ ŷt −1 ) + 0 ,5 ⋅ g uu (θ ) ⋅ ( ut ⊗ ut ) + 0 ,5 ⋅ g yu (θ ) ⋅ ( ŷt −1 ⊗ ut )
Les méthodes de projections (ou globales)
On veut approximer les règles de décision f(.) en fonction des variables d’état s.
On suppose la forme de la fonction permettant d’ajuster les règles de décision :
~s ∈ [ s , s ]
f ( ~s ) = T ( s ) ⋅ c et s = ϕ ( ~s )
min max
avec
s ∈ [ −1,1 ]
Idée : on construit une grille multidimensionnelle sur un intervalle de valeurs des états et on cherche le
vecteur c permettant d’ajuster les valeurs des règles en les points de la grille. Cela permettra ensuite
d’avoir une fonction paramétrée pour extrapoler les règles de décision pour toute valeur des états.
Problème : on se donne des valeurs pour les états mais on n’a rien sur les règles. On sait seulement que
lorsque les valeurs prises par les règles sont cohérentes avec celles des états, les CPO sont nulles.
La méthode de la collocation orthogonale :
r ( si ; ĉ ) = 0 i = 0 ,...n
avec r(.,.) le système des CPO du modèle calculé pour le point i de la grille (donc au total la dimension
du problème est le nombre des CPO multiplié par le nombre de nœuds).
Critère : le vecteur solution fournit la valeur des règles qui annule les CPO du modèle en chaque point
de la grille multidimensionnelle sur les états.
Les polynômes de Chebychev : cas d’une seule variable d’état
∀i = 0 ,...n
∀i = 0 ,...n
π ( i + 0.5 )
si = cos( ) ∈ [ −1,1 ] Ti + 1 ( s ) = 2sTi ( s ) − Ti −1 ( s )
n+1
~s = ϕ −1 ( s ) ∈ [ s , s ] avec T0 ( s ) = 1 et T1 ( s ) = s
i i min max
T0(s)
T1(s)
T2(s)
T3(s)
T4(s)
T5(s)
Cela revient à choisir un opérateur de combinaison des nœuds et des polynômes de Chebychev.
Le plus général : le produit tensoriel :
Une alternative : l’opérateur Smolyak pour le choix des nœuds (->grille creuse) et des puissances (->
polynômes complets). Par exemple, pour les nœuds :
Construire les distributions
postérieures des paramètres
du modèle
Représentation
Représentation Représentation
non linéaire
linéaire et non linéaire
gaussienne
bruit gaussien non gaussienne
Sans
Filtre de Kalman Avec
Filtre de Kalman Filtre de Kalman et rééchantillonnage :
et méthodes de rééchantillonnage :
standard quadratures Filtre à particules
Monte-Carlo Filtre à particules
gaussien
La formule des probabilités totales (Chapman & Kolmogorov)
∫
p( xt ) = p( xt xt −1 ) ⋅ p( x t −1 ) ⋅ dxt −1
Comment calculer la vraisemblance ?
T
p ( y1:T |θ ) = ∏ p ( y t | y1 : t − 1 ; θ )
t =1
T
= p ( y1 |θ ) ∏ p ( y t | y1 : t − 1 ; θ )
t =2
T
∫
= p ( y1 |s0 ;θ ) ⋅ p( s0 ) ⋅ ds0 ∏ ∫ p ( yt |st ;θ ) ⋅p ( st | y1:t −1 ;θ ) ⋅ dst
t =2
∫
p ( st |y1:t −1 ) = p ( st , st −1|y1:t −1 ) ⋅ dst −1
Implication sympathiques :
- Comme le modèle est linéaire, toutes les distributions sont gaussiennes. On
manipule uniquement les résumés de la distribution des états et des
mesures : l’espérance et la variance.
- Comme le modèle est linéaire, il suffit de dire que l’espérance des chocs est
nulle.
Le filtre de Kalman
Initialisation
st = g * ( st −1 , et ;θ ) st = A st −1 + et
≡
Nouvelle observation yt = m( st ,ε t ;θ ) yt = Z st + ε t
Prévision des
mesures ŷt t −1 = E [ yt y1:t −1 ] = Z ⋅ ŝt t −1
ηt = yt − ŷt t −1
'
Gt = V [ yt y1:t −1 ] = Z ⋅ Pt t −1 ⋅ Z + Q
Erreur de prévision des
mesures
Calcul de la N 1 1
vraisemblance ln Lt ( yt θ ) = − ln( 2π ) − ln Gt − η't ⋅ Gt−1 ⋅ηt
2 2 2
Mise à jour des états
K = P ⋅ Z' ⋅ Gt−1
t t t − 1
ŝt t = E [ st y1:t ] = ŝt t −1 + K t ⋅ηt
oui
t<T? Pt t = V [ st y1:t ] = ( I − K t ⋅ Z ) ⋅ Pt t −1
non
Fin
Sans l’hypothèse de linéarité du modèle et de normalité des chocs, on doit
utiliser un filtre à particules
- on doit aussi tirer les chocs des équations d’état car dans un modèle
non linéaire, il ne suffit plus de dire que l’espérance des chocs est nulle, il
faut faire des tirages aléatoires…
Comment calculer des intégrales du type Ep [ g ( x )] = ∫ g ( x ) ⋅ p( x ) ⋅ dx ?
N
∑ wi ⋅δ ( x − xi )
)
p(x) =
i=1
N
E p [ g ( x )] ≈ ∑ wi ⋅ g ( xi )
i=1
Dans le cas d’une quadrature, les noeuds et les poids sont optimaux.
Que faire quand la loi p(.) n’est pas connue et/ou qu’on ne peut pas tirer dedans mais
qu’on peut quand même l’évaluer ?
On suppose une distribution d’importance q(.) dans laquelle il est facile d’effectuer des tirages
aléatoires.
∫
Ep [ g ( x )] = g ( x ) ⋅ p( x ) ⋅ dx
p( x )
= ∫ g( x ) ⋅ ⋅ q( x ) ⋅ dx
q( x )
p( x )
= Eq [ g ( x ) ⋅ ]
q( x )
~
p( x ) ~
∫ g( x ) ⋅ ~
p( x ) ⋅ dx ∫ g( x ) ⋅ ~
q( x )
⋅ q ( x ) ⋅ dx
Ep [ g ( x )] = = ~
∫ ~
p( x ) ⋅ dx
∫
p( x ) ~
~
q( x )
⋅ q( x ) ⋅ dx
1
N ~
p( x )
N ∑ g ( xi ) ⋅ ~ i
q( x ) N
∑ g ( xi ) ⋅ w~i
i =1 i
≈ =
N ~p( x )
∑
1 i i =1
N ~
q( x )
i =1 i
~
p( x i )
~ = q~( x )
i
w i N ~
p( x i )
∑ q~( x )i
i =1
Sequential Importance Sampling (SIS) Particle Filter
p ( st( i ) |st( −i )1 )
= wt( −i )1 ⋅ p ( yt |st( i ) ) ⋅
q ( st( i ) |st( −i )1 , y1:t )
∫
p ( st |y1:t −1 ) = p ( st |st −1 ) ⋅ p ( st −1|y1:t −1 ) ⋅ dst −1 st( i ) ~ p ( st |st −1 ) ↔ st( i ) = g * ( st( −i )1 , et ;θ )
1
N eff ,t = N
∑ ( wt( i ) )2
i =1
wt( i )
distribution cumulée
des particules { }
~(i) N
st( i ) , w t i =1
~ (i)
wt = N
∑ wt( i )
i =1
Tirage aléatoire de
{ut( i ) }iN=1
N
(i) 1
st t ,
N i =1
{st(i) ,wt(i)}iN=1
N
(i) 1
st −1 t −1 ,
N i =1 s
Initialisation Algorithme du Boostrap Particle Filter
des particules
N
Nouvelle observation 1
p( st −1 y1:t −1 ) ↔ st( −i )1 t −1 ,
N i =1
Tirage des particules dans la
1 2 ... N distribution d’importance st( i ) ~ p ( st |st −1 ) ↔ st( i ) = g * ( st( −i )1 t −1 , et ;θ )
Calcul de la T N T N
∏ ∑ ∏ ∑ wt( i )
1 1
vraisemblance p ( y1:T |θ ) ≈ p ( yt |st( i ) ) =
Normalisation des t =1
N i =1 t =1
N i =1
poids d’importance
~ (i) wt( i )
wt = N
{ }
N
~(i) N 1
st( i ) , w t i =1 → st( it) ,
oui N i = 1
t<T?
non
Fin
Construire les distributions
postérieures des paramètres
du modèle