Sunteți pe pagina 1din 36

Partie 2 : l’estimation bayésienne des DSGE

F. Karamé
TEPP (EPEE et CEE) & CEPREMAP (Dynare team)
Contribution à l’école ETEPP
Introduction : l’économétrie bayésienne des DSGE

1. Il est souvent difficile d’exprimer analytiquement la vraisemblance


d’un DSGE mais l’évaluer numériquement est possible.
Il est difficile d’estimer un modèle DSGE par maximum de vraisemblance
car les données sont peu informatives : limitées dans le temps, en nombre, …
La vraisemblance peut se révéler plate dans certaines directions et cela peut
poser des problèmes d’identification.
Il faut donc trouver d’autres sources d’information : l’utilisation de priors
de l’approche bayésienne.

2. Les DSGE sont des modèles mal spécifiés.


Estimer un modèle mal spécifié de façon bayésienne avec des priors non
informatifs (uniformes par exemple) peut souvent conduire à des résultats
peu crédibles.
L’utilisation des priors peut donc modifier notre vision de la vraisemblance
et conduire à des résultats plus interprétables en manipulant la distribution
a posteriori des paramètres.

3. L’utilisation de priors informatifs permet de réduire l’incertitude


a posteriori (en termes de variance).
Construire les distributions
postérieures des paramètres
du modèle

Pour cela, il faut se promener


dans la distribution postérieure
avec un algorithme de type MCMC

Pour cela il faut trouver le mode


postérieur qui se calcule à partir

des priors sur les paramètres de la vraisemblance des données

Pour cela, des filtres utilisant


une représentation état-mesure
du modèle théorique

Pour cela il faut résoudre


le modèle théorique
Trouver le mode postérieur

On s’intéresse à la distribution a posteriori des paramètres du modèle selon la traditionnelle


formule de Bayes :

L ( y 1 :T θ ) ⋅ p ( θ )
p ( θ y 1 :T ) = ∝ L ( y 1 :T θ ) ⋅ p ( θ )
p ( y1:T )

à une constante multiplicative près indépendante des paramètres p ( y1:T ) = ∫θ L ( y1:T θi ) ⋅ p (θi ) dθi
i

L’estimation dite classique ou fréquentiste consiste à trouver les paramètres associés au maximum
de vraisemblance :

θˆTML = arg max L ( y1:T θ )


θ

Une première estimation bayésienne consiste à déterminer le mode de la distribution


postérieure des paramètres :

θˆTmod = arg max p (θ y1:T )


θ
{
= arg max L ( y1:T θ ) ⋅ p (θ )
θ
}
= arg max {ln L ( y1:T θ ) + ln p (θ ) }
θ
Construire les distributions
postérieures des paramètres
du modèle

Pour cela, il faut se promener


dans la distribution postérieure
avec un algorithme de type MCMC

Pour cela il faut trouver le mode


postérieur qui se calcule à partir

des priors sur les paramètres de la vraisemblance des données

Pour cela, des filtres utilisant


une représentation état-mesure
du modèle théorique

Pour cela il faut résoudre


le modèle théorique
Résoudre le modèle

Méthodes de projections Méthodes de perturbations


Illustration : le modèle de base


Les méthodes de perturbations (ou locales)

Idée : on approxime numériquement le modèle en faisant un développement de Taylor localement


autour de l’état stationnaire déterministe.
Ecrivons le modèle sous la forme suivante (connue) :

Et [ f ( yt + 1 , yt , yt −1 , ut )] = 0
et posons la solution (inconnue) :
yt = g ( yt −1 , ut ,σ )

Le modèle et sa solution respectent l’état stationnaire :


f ( y , y , y ,0 ) = 0
y = g ( y ,0 ,0 )

En substituant, on peut définir :


yt +1 y
644447 44448 64 47t 44 8
Fg ( yt −1 , ut , ut + 1 ,σ ) = f ( g ( g ( yt −1 , ut ,σ ), ut + 1 ,σ ) , g ( yt −1 , ut ,σ ) , yt −1 , ut )

et donc réécrire le problème comme :


Et [ Fg ( yt −1 , ut , ut + 1 ,σ )] = 0

Plusieurs ordres d’approximation existent.


Le développement de Taylor à l’ordre 1 :

0 ≈ Fg( 1 ) ( y− , u , u+ ,σ ) = f y + ( g y ( g y ŷ + g uu + gσ σ ) + g uu+ + gσ σ )
+ f y ( g y ŷ + g uu + gσ σ ) + f y − ŷ + fuu

ŷ = yt −1 − y u = ut u+ = ut + 1
∂f ∂f ∂f ∂f
avec : fy+ = fy = fy− = fu =
∂yt + 1 ∂yt ∂yt −1 ∂ut
∂g ∂g ∂g
gy = gu = gσ =
∂yt ∂ut ∂σ
En prenant l’espérance conditionnelle et en regroupant, il vient :

0 ≈ ( f y + g y g y + f y g y + f y − ) ⋅ ŷ + ( f y + g y g u + f y g u + fu ) ⋅ u
+ ( f y + g y gσ + f y + gσ + f y gσ ) ⋅ σ

On est en présence d’un système de trois blocs d’équations à trois blocs d’inconnus qui est satisfait si :

f y + g y g y + f y g y + f y − = 0 f y + g y g y + f y g y + f y − = 0 décomposition de
  ⇒ → g y (θ ) et g u (θ )
 y+ y u y u u
f g g + f g + f = 0 ⇔ f g g
 y+ y u y u u + f g + f = 0 
 Schur généralisée
 
f y + g y gσ + f y + gσ + f y gσ = 0  gσ = 0

yt = y + g y (θ ) ⋅ ŷt −1 + g u (θ ) ⋅ ut
A l’ordre 2 :
Fg( 2 ) ( y− , u , u+ ,σ ) = Fg( 1 ) ( y− , u , u+ ,σ )
+ 0 ,5 ⋅ [ Fy − y − ( ŷ ⊗ ŷ ) + Fuu ( u ⊗ u ) + Fu+ u+ ( u+ ⊗ u+ ) + Fσσ σ 2 ]
+ Fy − u ( ŷ ⊗ u ) + Fy − u+ ( ŷ ⊗ u+ ) + Fy −σ ŷσ
+ Fuu+ ( u ⊗ u+ ) + Fuσ uσ
+ Fu+σ u+σ

avec F.. des matrices de dérivées du vecteur de fonctions. En prenant l’espérance conditionnelle et en
réorganisant, il vient :

0 ≈ Et [ Fg( 1 ) ( y− , u , u+ ,σ )] + 0 ,5 ⋅ [ Fy − y − ( ŷ ⊗ ŷ ) + Fuu ( u ⊗ u ) + ( Fu+ u+ Σε + Fσσ )σ 2 ]


+ Fy − u ( ŷ ⊗ u ) + Fy −σ ŷσ + Fuσ uσ

satisfait si Fy − y − = 0 , Fuu = 0 , ( Fu+ u+ Σε + Fσσ ) = 0 , Fy − u = 0 , Fy −σ = 0 et Fuσ = 0


Ces matrices dépendent des dérivées simples et secondes de f (connues) et de g (inconnues) et de la
solution à l’ordre 1. Elles définissent 6 blocs d’équations à résoudre numériquement.
La solution à l’ordre 2 est alors de la forme :

yt = y + 0 ,5 ⋅ gσσ (θ ) ⋅ σ 2 + g y (θ ) ⋅ ŷt −1 + g u (θ ) ⋅ ut
+ 0 ,5 ⋅ g yy (θ ) ⋅ ( ŷt −1 ⊗ ŷt −1 ) + 0 ,5 ⋅ g uu (θ ) ⋅ ( ut ⊗ ut ) + 0 ,5 ⋅ g yu (θ ) ⋅ ( ŷt −1 ⊗ ut )
Les méthodes de projections (ou globales)

On veut approximer les règles de décision f(.) en fonction des variables d’état s.
On suppose la forme de la fonction permettant d’ajuster les règles de décision :
~s ∈ [ s , s ]
f ( ~s ) = T ( s ) ⋅ c et s = ϕ ( ~s )
min max
avec
s ∈ [ −1,1 ]
Idée : on construit une grille multidimensionnelle sur un intervalle de valeurs des états et on cherche le
vecteur c permettant d’ajuster les valeurs des règles en les points de la grille. Cela permettra ensuite
d’avoir une fonction paramétrée pour extrapoler les règles de décision pour toute valeur des états.

Problème : on se donne des valeurs pour les états mais on n’a rien sur les règles. On sait seulement que
lorsque les valeurs prises par les règles sont cohérentes avec celles des états, les CPO sont nulles.
La méthode de la collocation orthogonale :

r ( si ; ĉ ) = 0 i = 0 ,...n

avec r(.,.) le système des CPO du modèle calculé pour le point i de la grille (donc au total la dimension
du problème est le nombre des CPO multiplié par le nombre de nœuds).

Critère : le vecteur solution fournit la valeur des règles qui annule les CPO du modèle en chaque point
de la grille multidimensionnelle sur les états.
Les polynômes de Chebychev : cas d’une seule variable d’état

∀i = 0 ,...n
∀i = 0 ,...n
π ( i + 0.5 )
si = cos( ) ∈ [ −1,1 ] Ti + 1 ( s ) = 2sTi ( s ) − Ti −1 ( s )
n+1
~s = ϕ −1 ( s ) ∈ [ s , s ] avec T0 ( s ) = 1 et T1 ( s ) = s
i i min max

T0(s)
T1(s)
T2(s)
T3(s)
T4(s)
T5(s)

T0 ( s0 ) T1 ( s0 ) T2 ( s0 ) c0  f ( ~s0 ) c = T −1 ( s ) ⋅ f ( ~s )


     ~  ~
T0 ( s1 ) T1 ( s1 ) T2 ( s1 ) ⋅  c1  = f ( s1 ) ⇔ T ( s ) ⋅ c = f ( s ) ⇔ ou si T(s) rectangulaire
T0 ( s2 ) T1 ( s2 ) T2 ( s2 )  c2  f ( ~s2 )
      c = [ T ( s )' ⋅ T ( s )]−1 ⋅ T ( s )' ⋅ f ( ~s )
Comment passer au cas multidimensionnel ?

Cela revient à choisir un opérateur de combinaison des nœuds et des polynômes de Chebychev.
Le plus général : le produit tensoriel :

∀i = 0 ,...n, ∀j = 1,...k ∀i = 0 ,...n ∀j = 1,...k


π ( i + 0.5 ) Ti + 1 , j ( s j ) = 2s jTi , j ( s j ) − Ti −1 , j ( s j )
si , j = cos( )
n+1 avec T0 , j ( s j ) = 1 et T1 , j ( s j ) = s j
{ }ni=0
s = {si ,1 }ni=0 × {si ,2 }ni=0 × ... × si ,k T ( si ) = T1 ( si ,1 )T2 ( si ,2 )...Tk ( si ,k )

Mais ‘curse of dimensionality’ : la taille du problème à résoudre croît très vite.

Une alternative : l’opérateur Smolyak pour le choix des nœuds (->grille creuse) et des puissances (->
polynômes complets). Par exemple, pour les nœuds :
Construire les distributions
postérieures des paramètres
du modèle

Pour cela, il faut se promener


dans la distribution postérieure
avec un algorithme de type MCMC

Pour cela il faut trouver le mode


postérieur qui se calcule à partir

des priors sur les paramètres de la vraisemblance des données

Pour cela, des filtres utilisant


une représentation état-mesure
du modèle théorique

Pour cela il faut résoudre


le modèle théorique
Filtres
bayésiens

Représentation
Représentation Représentation
non linéaire
linéaire et non linéaire
gaussienne
bruit gaussien non gaussienne

Sans
Filtre de Kalman Avec
Filtre de Kalman Filtre de Kalman et rééchantillonnage :
et méthodes de rééchantillonnage :
standard quadratures Filtre à particules
Monte-Carlo Filtre à particules
gaussien
La formule des probabilités totales (Chapman & Kolmogorov)


p( xt ) = p( xt xt −1 ) ⋅ p( x t −1 ) ⋅ dxt −1
Comment calculer la vraisemblance ?

T
p ( y1:T |θ ) = ∏ p ( y t | y1 : t − 1 ; θ )
t =1
T
= p ( y1 |θ ) ∏ p ( y t | y1 : t − 1 ; θ )
t =2
T


= p ( y1 |s0 ;θ ) ⋅ p( s0 ) ⋅ ds0 ∏ ∫ p ( yt |st ;θ ) ⋅p ( st | y1:t −1 ;θ ) ⋅ dst
t =2

Hypothèse : on connaît la distribution initiale des états s0.

Constat : on peut calculer la vraisemblance si on connaît la distribution a priori des états à la


date t.
La distribution a priori des états


p ( st |y1:t −1 ) = p ( st , st −1|y1:t −1 ) ⋅ dst −1

= ∫ p ( st |st −1 , y1:t −1 ) ⋅ p ( st −1|y1:t −1 ) ⋅ dst −1

= ∫ p ( st |st −1 ) ⋅ p ( st −1|y1:t −1 ) ⋅ dst −1

st = g* ( st −1 , et ;θ ) les équations d’état du modèle résolu


+ des tirages dans la loi supposée des chocs
La distribution a posteriori des états

p( st |y1:t ) = p( st |yt , y1:t −1 )


p( yt |st , y1:t −1 ) ⋅ p( st |y1:t −1 )
=
p( yt |y1:t −1 )
p( yt |st ) ⋅ p( st |y1:t −1 )
=
p( yt |y1:t −1 )
p( yt |st ) ⋅ p( st |y1:t −1 )
=
∫ p( yt |st ) ⋅ p( st |y1:t−1 ) ⋅ dst
yt = m ( st ,ε t ;θ ) les équations de mesure du modèle
+ une hypothèse sur la loi des erreurs
pour écrire la vraisemblance
Sous l’hypothèse de linéarité du modèle et de normalité des chocs, tout se
simplifie et donne le filtre de Kalman.

Implication sympathiques :
- Comme le modèle est linéaire, toutes les distributions sont gaussiennes. On
manipule uniquement les résumés de la distribution des états et des
mesures : l’espérance et la variance.

- Comme le modèle est linéaire, il suffit de dire que l’espérance des chocs est
nulle.
Le filtre de Kalman
Initialisation
st = g * ( st −1 , et ;θ ) st = A st −1 + et
 ≡
Nouvelle observation  yt = m( st ,ε t ;θ )  yt = Z st + ε t

Prévision des états ŝ


 t t −1 = E [ st y1:t −1 ] = A ⋅ ŝt −1 t −1
 '
Pt t −1 = V [ st y1: t −1 ] = A ⋅ Pt −1 t −1 ⋅ A + Q

Prévision des 
mesures  ŷt t −1 = E [ yt y1:t −1 ] = Z ⋅ ŝt t −1

ηt = yt − ŷt t −1
 '
Gt = V [ yt y1:t −1 ] = Z ⋅ Pt t −1 ⋅ Z + Q
Erreur de prévision des
mesures
Calcul de la N 1 1
vraisemblance ln Lt ( yt θ ) = − ln( 2π ) − ln Gt − η't ⋅ Gt−1 ⋅ηt
2 2 2
Mise à jour des états
K = P ⋅ Z' ⋅ Gt−1
 t t t − 1

ŝt t = E [ st y1:t ] = ŝt t −1 + K t ⋅ηt
oui 
t<T? Pt t = V [ st y1:t ] = ( I − K t ⋅ Z ) ⋅ Pt t −1

non

Fin
Sans l’hypothèse de linéarité du modèle et de normalité des chocs, on doit
utiliser un filtre à particules

Implications beaucoup moins sympathiques :


- on manipule toute la distribution des états et des mesures : revient à
appliquer le modèle état-mesure à chaque particule qui constitue
l’approximation de ces distributions pour les faire évoluer au cours du
temps.

- on doit aussi tirer les chocs des équations d’état car dans un modèle
non linéaire, il ne suffit plus de dire que l’espérance des chocs est nulle, il
faut faire des tirages aléatoires…
Comment calculer des intégrales du type Ep [ g ( x )] = ∫ g ( x ) ⋅ p( x ) ⋅ dx ?

On approxime p(.) par une mesure aléatoire, c’est-à-dire on la discrétise par un


plus ou moins grand nombre de noeuds xi et de poids wi :

N
∑ wi ⋅δ ( x − xi )
)
p(x) =
i=1
N
E p [ g ( x )] ≈ ∑ wi ⋅ g ( xi )
i=1

Dans le cas d’une quadrature, les noeuds et les poids sont optimaux.

Dans le cas de tirages de Monte-Carlo, on tire N noeuds xi avec des poids


équiprobables wi = 1/N.
L’échantillonnage d’importance

Que faire quand la loi p(.) n’est pas connue et/ou qu’on ne peut pas tirer dedans mais
qu’on peut quand même l’évaluer ?

On suppose une distribution d’importance q(.) dans laquelle il est facile d’effectuer des tirages
aléatoires.

Dès lors, l’intégrale peut s’écrire :


Ep [ g ( x )] = g ( x ) ⋅ p( x ) ⋅ dx
p( x )
= ∫ g( x ) ⋅ ⋅ q( x ) ⋅ dx
q( x )
p( x )
= Eq [ g ( x ) ⋅ ]
q( x )

Si on peut approximer q(.) par quadrature ou par Monte-Carlo (wi = 1/N)


N
q̂ ( x ) = ∑ wi ⋅ δ ( x − x i )
i =1
Alors il vient :
N
p ( xi )
Ep [ g ( x )] ≈ ∑ wi ⋅ g ( x i ) ⋅
q ( xi )
i =1
Si p(.) et q(.) ne somment pas à 1, on introduit une normalisation :

~
p( x ) ~
∫ g( x ) ⋅ ~
p( x ) ⋅ dx ∫ g( x ) ⋅ ~
q( x )
⋅ q ( x ) ⋅ dx
Ep [ g ( x )] = = ~
∫ ~
p( x ) ⋅ dx

p( x ) ~
~
q( x )
⋅ q( x ) ⋅ dx

1
N ~
p( x )
N ∑ g ( xi ) ⋅ ~ i
q( x ) N
∑ g ( xi ) ⋅ w~i
i =1 i
≈ =
N ~p( x )

1 i i =1
N ~
q( x )
i =1 i

~
p( x i )
~ = q~( x )
i
w i N ~
p( x i )
∑ q~( x )i
i =1
Sequential Importance Sampling (SIS) Particle Filter

A la date t, on approxime les distributions a priori et a posteriori des états


conditionnellement à l’information présente et passée par une mesure aléatoire
{ st( i ) ,wt( i ) }iN=1

La distribution d’importance nous permettra de tirer les particules :

st( i ) ~ q ( st( i ) |st(−i )1 , yt )


Comment obtient-on les poids ?

p ( s0( i:t) | y1:t )


wt( i ) =
q ( s0( i:t) | y1:t )

p ( st( i ) |s0( i:t) −1 ) p ( s0( i:t) −1 | y1:t −1 )


= p ( yt | y1:t −1 , st( i ) ) ⋅ ⋅
q ( st( i ) |s0( i:t) −1 , y1:t ) q ( s0( i:t) −1 | y1:t −1 )

p ( st( i ) |s0( i:t) −1 )


= wt( −i )1 ⋅ p ( yt | y1:t −1 , st( i ) ) ⋅
q ( st( i ) |s0( i:t) −1 , y1:t )

p ( st( i ) |st( −i )1 )
= wt( −i )1 ⋅ p ( yt |st( i ) ) ⋅
q ( st( i ) |st( −i )1 , y1:t )

Le choix usuel pour la densité d’importance

q ( st |st −1 , y1:t ) = p ( st |st −1 ) ⇒ wt( i ) = wt( −i )1 ⋅ p ( yt |st( i ) )


la théorie la contrepartie empirique

p( st −1 y1:t −1 ) ↔ {st(−i )1 , wt(−i )1 }iN=1


p ( st |y1:t −1 ) = p ( st |st −1 ) ⋅ p ( st −1|y1:t −1 ) ⋅ dst −1 st( i ) ~ p ( st |st −1 ) ↔ st( i ) = g * ( st( −i )1 , et ;θ )

wt( i ) = wt( −i )1 ⋅ p ( yt |st( i ) ) ↔ yt( i ) = m ( st( i ) ,ε t ;θ )


Problème : la dégénérescence du filtre

La variance des poids augmente indéfiniment avec le temps : au bout de quelques


itérations temporelles, il ne reste plus qu’une seule particule avec un poids non nul !

1
N eff ,t = N
∑ ( wt( i ) )2
i =1

La solution d’usage : introduire une méthode de ré-échantillonnage (avec remise)


dépendant du poids des particules pour éliminer celles à poids faible et multiplier celles
à poids élevé.
Rééchantillonnage par la méthode inverse

Soit u suit une loi uniforme U[0,1].


Soit F-1(.) l’inverse de la fonction de répartition F(.).
F-1(u) suit la loi de F.

wt( i )
distribution cumulée
des particules { }
~(i) N
st( i ) , w t i =1
~ (i)
wt = N
∑ wt( i )
i =1
Tirage aléatoire de
{ut( i ) }iN=1

Particules rééchantillonnées avec remise


N
 (i) 1 
 st t , 
 N i = 1
 (i) 1 N
 st +1 t +1 , 
 N i =1

{st(+i )1 ,wt(+i )1}iN=1

N
 (i) 1 
 st t , 
 N i =1

{st(i) ,wt(i)}iN=1

N
 (i) 1
 st −1 t −1 , 
 N i =1 s
Initialisation Algorithme du Boostrap Particle Filter
des particules

N
Nouvelle observation  1 
p( st −1 y1:t −1 ) ↔  st( −i )1 t −1 , 
 N i =1
Tirage des particules dans la
1 2 ... N distribution d’importance st( i ) ~ p ( st |st −1 ) ↔ st( i ) = g * ( st( −i )1 t −1 , et ;θ )

Calcul des poids


1 2 d’importance wt( i ) ∝ p ( yt |st( i ) ) ↔ yt( i ) = m ( st( i ) ,ε t ;θ )
... N

Calcul de la T N T N
∏ ∑ ∏ ∑ wt( i )
1 1
vraisemblance p ( y1:T |θ ) ≈ p ( yt |st( i ) ) =
Normalisation des t =1
N i =1 t =1
N i =1
poids d’importance
~ (i) wt( i )
wt = N

Rééchantillonnage des ∑ wt( i )


particules i =1

{ }
N
~(i) N  1
st( i ) , w t i =1 →  st( it) , 
oui  N i = 1
t<T?

non

Fin
Construire les distributions
postérieures des paramètres
du modèle

Pour cela, il faut se promener


dans la distribution postérieure
avec un algorithme de type MCMC

Pour cela il faut trouver le mode


postérieur qui se calcule à partir

des priors sur les paramètres de la vraisemblance des données

Pour cela, des filtres utilisant


une représentation état-mesure
du modèle théorique

Pour cela il faut résoudre


le modèle théorique
Explorer la densité postérieure : l’algorithme de Métropolis

θˆn* = θˆn−1 + υ υ ≈ N( 0 ,γ RW V̂ ( θˆTmod ) ) θˆ0 = θˆTmod


  p(θˆ* y ) 
 ˆ*  n 1:T 
 θn si U( 0 ,1 ) ≤ min 1,  (acceptation)
θˆn =  ˆ
 p(θn−1 y1:T ) 
  
θˆ sinon (rejet)
 n−1

- L’algorithme à pas aléatoire peut être mono-chaîne ou multi-chaînes indépendantes.


- L’approche multi-chaînes permet de calculer des indicateurs de convergence vers la
distribution stationnaire.
- La marche aléatoire s’interprète comme une distribution d’importance pour tirer les
candidats.
- γRW est déterminé de façon à avoir 30% d’acceptation environ.
- Le stockage (après convergence) des candidats acceptés permet d’obtenir une
approximation de la densité postérieure des paramètres du modèle.
- Les tirages des chocs exogènes et les probabilités uniformes du ré-échantillonnage sont
conservés identiques pendant les itérations de l’algorithme de Métropolis.
Construire les distributions
postérieures des paramètres
du modèle

Pour cela, il faut se promener


dans la distribution postérieure
avec un algorithme de type MCMC

Pour cela il faut trouver le mode


postérieur qui se calcule à partir

des priors sur les paramètres de la vraisemblance des données

Pour cela, des filtres utilisant


une représentation état-mesure
du modèle théorique

Pour cela il faut résoudre


le modèle théorique
Présentation construite en partie à partir de :
Adjemian S., 2007, Estimation of DSGE models, université du Mans (Gains) & CEPREMAP.
Miodrag B., University of Ottawa, Canada.
Références bibliographiques :
An S. & F. Schorfheide, 2006, Bayesian Analysis of DSGE Models, Econometric Reviews 26, 113-172.
Arulampalam A.S., S. Maskell, N. Gordon & T. Clapp, 2002, A Tutorial on Particle Filters for Online
Nonlinear/Non-Gaussian Bayesian Tracking, IEEE Transactions on Signal Processing 50, 174-188.
Doucet A., N. de Freitas & N. Gordon, 2001, Sequential Monte Carlo Methods in Practice, Springer Verlag.
Durbin J. & S.J. Koopman, 2002, Time Series Analysis by State-Space Methods, Oxford University Press.
Fernández-Villaverde J. & J.F. Rubio-Ramírez, 2008, How Structural are Structural Parameters?, NBER
Macroeconomics Annual 2007, 83-137.
Fernandez-Villaverde J., 2009, The Econometrics of DSGE Models, Working paper, n°14677, NBER.
Harvey A.C., 1989, Forecasting, Structural Time Series Models and the Kalman Filter, Cambridge
University Press.
Haug A.J., 2005, A Tutorial on Bayesian Estimation and Tracking Techniques Applicable to Nonlinear and
Non-Gaussian Processes, MITRE Technical Report #W400.
Judd K., 1992, Projection Methods for Solving Aggregate Growth Models, Journal of Economic Theory 58,
410-452.
Schmitt-Grohé S. & M. Uribe, 2004, Solving Dynamic General Equilibrium Models Using a Second-Order
Approximation to the Policy Function, Journal of Economic Dynamics and Control 28, 755-775.
Winschel V. & M. Krätzig, 2008, Solving, Estimating and Selecting Nonlinear Dynamic Models without the
Curse of Dimensionality, forthcoming Econometrica.

S-ar putea să vă placă și