Sunteți pe pagina 1din 22

MODELADO ESTADÍSTICO DE LA POLÍTICA

MONETARIA Y SUS EFECTOS


Conferencia de premios, 8 de diciembre de 2011 por Christopher A. sims
Princeton University, Princeton, NJ, EE. UU.
La ciencia de la economía tiene algunas restricciones y tensiones que la
diferencian de otras ciencias. Un reflejo de estas restricciones y tensiones es
que, más que en la mayoría de las otras disciplinas científicas, es fácil encontrar
economistas de gran reputación que estén en desacuerdo entre sí en temas de
gran interés público. Esto puede sugerir que la economía, a diferencia de la
mayoría de las otras disciplinas científicas, no progresa realmente. Sus teorías y
resultados parecen ir y venir, siempre en una disputa candente, en lugar de
mejorar con el tiempo para construir un cuerpo creciente de conocimiento. Hay
algo de verdad en esta visión; hay ejemplos en los que las disputas de décadas
anteriores no se resolvieron sino que se reemplazaron por nuevas disputas. Pero
aunque la economía progresa de manera desigual, y ni siquiera monótonamente,
hay algunos ejemplos de progreso científico real en economía. Este ensayo
describe uno: la evolución desde alrededor de 1950 de nuestra comprensión de
cómo se determina la política monetaria y cuáles son sus efectos. La historia que
se describe aquí no es una historia de éxito simple. Describe un ascenso a un
terreno más alto, pero el terreno sigue siendo inestable. Parte del propósito del
ensayo es recordar a los lectores cómo las opiniones sostenidas en décadas
anteriores han demostrado ser erróneas. Esto debería alentar el continuo
escepticismo de las opiniones consensuadas y motivar a los críticos a agudizar
sus esfuerzos para analizar nuevos datos, o datos antiguos de nuevas formas, y
generar teorías mejoradas a la luz de lo que ven.
Seguiremos dos líneas interrelacionadas de esfuerzo intelectual: la metodología
de modelado e inferencia para series cronológicas económicas, y la teoría de las
influencias políticas en las fluctuaciones del ciclo económico. El punto de partida
en la década de 1950 de la teoría de la política macroeconómica fue el análisis
de Keynes sobre la Gran Depresión de la década de 1930, que incluyó un ataque
a la teoría cuantitativa del dinero. En los años 30, las tasas de interés de los
activos seguros habían estado aproximadamente en cero durante largos
períodos de tiempo, y Keynes explicó por qué, en estas circunstancias, la
expansión de la oferta monetaria probablemente tendría poco efecto. El principal
keynesiano estadounidense, Alvin Hansen, incluyó en su libro (1952) A Guide to
Keynes un capítulo sobre el dinero, en el que explicó el argumento de Keynes
sobre la probable ineficacia de la expansión monetaria en un período de
producción deprimida. Hansen concluyó el capítulo con "Así es como los países
modernos ponen el énfasis principal en la política fiscal, en cuyo servicio la
política monetaria está relegada al rol subsidiario de una doncella útil pero
necesaria".
La metodología de modelado en la década de 1950 se basó en el libro seminal
de Jan Tinbergen (1939), que presentaba probablemente la primera ecuación
múltiple, modelo de serie de tiempo económico estimado estadísticamente. Sus
esfuerzos atrajeron fuertes críticas. Keynes (1939), en una famosa reseña del
libro de Tinbergen, lo rechazó. Keynes tenía muchas reservas sobre el modelo y
los métodos, pero más centralmente cuestionó si un modelo estadístico como
este podría ser un marco para probar una teoría. Haavelmo (1943b), aunque
tenía importantes reservas sobre los métodos de Tinbergen, reconoció que la
posición de Keynes, dudando de la posibilidad de cualquier confrontación de la
teoría con los datos a través de modelos estadísticos, era insostenible. Casi al
mismo tiempo, Haavelmo publicó sus trabajos seminales explicando la
necesidad de un enfoque de probabilidad para especificar y estimar modelos
económicos empíricos (1944) y presentar un enfoque interno consistente para
especificar y estimar modelos de series cronológicas macroeconómicas (1943a).
La reacción de irritación de Keynes ante el tedio de lidiar con los numerosos
números y ecuaciones del libro de Tinbergen encuentra contrapartes hasta el día
de hoy en la reacción de algunos teóricos económicos al modelado cuidadoso
de datos a gran escala. Las ideas de Haavelmo constituyeron una agenda de
investigación que hasta el día de hoy atrae a muchos de los mejores economistas
para trabajar en la mejora de los sucesores de la iniciativa de Tinbergen.
El punto principal de Haavelmo fue este: los modelos económicos no hacen
predicciones numéricas precisas. Incluso si se utilizan para hacer un pronóstico
que es un número único, entendemos que el pronóstico no será exactamente
correcto. Keynes parecía estar diciendo que una vez que aceptamos que las
predicciones de los modelos serán incorrectas, y por lo tanto tienen "términos de
error", debemos abandonar la esperanza de probarlos. Haavelmo argumentó
que podemos probar y comparar modelos, pero que para ello debemos insistir
en que incluyan una caracterización de la naturaleza de sus errores. Es decir,
deben estar en forma de distribuciones de probabilidad para los datos
observados. Una vez que reciben esta forma, señaló, se les puede aplicar la
maquinaria de prueba de hipótesis estadística.
En el documento donde inició el modelado de ecuaciones simultáneas (1943a),
mostró cómo una distribución conjunta hipotética para los términos de
perturbación se transforma por el modelo en una distribución para los datos
observados, y continuó mostrando cómo esto permitió métodos basados en la
probabilidad para la estimación. parámetros Después de discutir la inferencia
para su modelo, Haavelmo explicó por qué los parámetros de su sistema de
ecuaciones eran útiles: uno podría contemplar la intervención en el sistema al
reemplazar una de las ecuaciones con otra cosa, afirmando que las ecuaciones
restantes seguirían siendo válidas. Hurwicz (1962) hizo más general y explícita
esta justificación de la definición de modelado estructural.
Las ideas y el programa de investigación de Haavelmo contenían dos puntos
débiles que persistieron durante décadas y, al menos por un tiempo,
desacreditaron parcialmente el programa de investigación de ecuaciones
simultáneas. Uno fue que adoptó el marco de prueba de hipótesis frecuentista
de Neyman y Pearson. Este marco, si se interpreta con rigor, requiere que el
analista no dé distribuciones de probabilidad a los parámetros. Esto limita su
utilidad para contribuir al análisis de la toma de decisiones en tiempo real bajo
incertidumbre, donde es esencial evaluar la probabilidad de varios valores de
parámetros. También inhibe la combinación de información de las funciones de
verosimilitud del modelo con información de las creencias de los expertos y los
responsables políticos. Ambas limitaciones se habrían superado si la literatura
hubiera reconocido el valor de una perspectiva bayesiana en la inferencia.
Cuando se ampliaron las ideas de Haavelmo para aplicarlas a modelos del
tamaño necesario para un análisis serio de la política macroeconómica, el intento
de ampliar la teoría de la inferencia de la prueba de hipótesis simplemente no
funcionó en la práctica.
La otra debilidad importante fue la incapacidad de enfrentar las dificultades
conceptuales para modelar las decisiones de políticas como parte del modelo
económico, y por lo tanto tener una distribución de probabilidad, pero al mismo
tiempo como algo que deseamos considerar alterar, hacer que las proyecciones
estén condicionadas a cambios. política. En retrospectiva, podemos decir que
esto debería haber sido obvio. Las ecuaciones de comportamiento de la política
deben ser parte del sistema y, como sugirió Haavelmo, el análisis de los efectos
de la política debe proceder al considerar las alteraciones de las partes del
sistema estimado correspondientes al comportamiento de la política.
El documento de Haavelmo mostró cómo analizar una intervención de política, y
lo hizo eliminando una de sus tres ecuaciones del sistema mientras mantenía las
otras dos. Pero su modelo no contenía ecuación de comportamiento político. Era
un modelo keynesiano simple, que consistía en una ecuación de comportamiento
de consumo, una ecuación de comportamiento de inversión y una identidad
contable que definía el producto como la suma de consumo e inversión. No está
claro cómo se podrían considerar los cambios de políticas en este marco. No
hubo una ecuación de comportamiento de política para ser eliminada. ¡Lo que
Haavelmo hizo fue eliminar la identidad contable del ingreso nacional! Postuló
que el gobierno, al manipular la "G", o el gasto del gobierno (una variable que no
está presente en el modelo de probabilidad original), podría establecer el ingreso
nacional a cualquier nivel que quisiera, y que el consumo y la inversión se
comportarían de acuerdo con los dos comportamientos. Ecuaciones del sistema.
Desde la perspectiva de 1943, un escenario en el que el gasto público había sido
históricamente prácticamente cero, luego se volvió grande y positivo, puede
parecer interesante, pero al presentar una intervención de política mientras
evadía la necesidad de presentar una ecuación de comportamiento de política,
Haavelmo dio un mal ejemplo. Con efectos persistentes.
Los dos puntos débiles en el programa de Haavelmo, la inferencia frecuentista y
el tratamiento poco claro de las intervenciones políticas, están relacionados. El
marco frecuentista en principio (aunque no siempre en la práctica) hace una
distinción clara entre objetos "aleatorios" y "no aleatorios", con el pensamiento
anterior como repetidamente variable, con distribuciones de probabilidad
físicamente verificables. Desde la perspectiva de un creador de políticas, sus
propias elecciones no son "aleatorias", y al confrontarla con un modelo en el que
sus elecciones pasadas se tratan como "aleatorias" y sus elecciones actuales
disponibles se tratan como las derivaciones de una distribución de probabilidad,
pueden confundir o molestarla De hecho, los economistas que proporcionan
asesoramiento sobre políticas y ven la probabilidad desde una perspectiva
frecuentista pueden encontrar este marco desconcertante.1 Una perspectiva
bayesiana sobre la inferencia no hace distinción entre objetos aleatorios y no
aleatorios. Distingue objetos conocidos o ya observados de objetos
desconocidos. Los últimos tienen distribuciones de probabilidad, caracterizando
nuestra incertidumbre sobre ellos. Por lo tanto, no hay ninguna paradoja en
suponer que los economistas y el público puedan tener distribuciones de
probabilidad sobre el comportamiento de los responsables de la formulación de
políticas, mientras que los responsables de la formulación de políticas no ven
sus elecciones como aleatorias. El problema de los modelos econométricos para
el asesoramiento sobre políticas es utilizar la distribución conjunta
históricamente estimada del comportamiento de las políticas y los resultados
económicos para construir distribuciones de probabilidad precisas para los
resultados condicionales a las acciones políticas contempladas que aún no se
han tomado. Este problema no es fácil de resolver, pero debe plantearse
correctamente antes de que pueda comenzar un esfuerzo de solución.

I. ECONOMETRIA KEYNESIANA VS. MONETARISMO


En los años 50 y 60, los economistas trabajaron para ampliar los fundamentos
estadísticos del enfoque de Haavelmo y para estimar los modelos keynesianos.
A mediados de la década de 1960, los modelos alcanzaron una escala mucho
mayor que el modelo de ejemplo de dos ecuaciones de Haavelmo. La primera
etapa de este modelado a gran escala se informó en un volumen con 25
contribuyentes (Duesenberry, Fromm, Klein y Kuh, 1965), 776 páginas,
aproximadamente 150 ecuaciones estimadas y un gráfico de fl ujo de 50 × 75 cm
que muestra cómo se vincularon los sectores. . La introducción discute la
necesidad de incluir un "parámetro" para cada tipo posible de intervención
política. Es decir, no había ninguna noción de que la política en sí misma formara
parte de la estructura estocástica que debía estimarse. Había alrededor de 44
trimestres de datos disponibles, por lo que sin restricciones en la matriz de
covarianza de los residuos, la función de probabilidad habría sido ilimitada.
Además, para obtener incluso estimaciones de ecuaciones simples bien
definidas mediante métodos frecuentistas estándar, en cada ecuación se debía
suponer que una gran fracción de las variables en el modelo no se ingresaba.
No se analizó la forma de la función de probabilidad o las implicaciones del
modelo cuando se trató como una distribución conjunta para todas las series
temporales observadas.
El volumen de 1965 fue solo el comienzo de un esfuerzo sostenido que produjo
otro volumen en 1969 y luego se convirtió en el modelo MIT-Penn-SSRC (o MPS)
que se convirtió en el principal modelo de trabajo utilizado en el proceso de
políticas de la Reserva Federal de los Estados Unidos. Otros trabajos
importantes que utilizan enfoques y métodos de modelado similares se han
realizado en la investigación continua realizada por Ray Fair, por ejemplo, en su
libro de 1984, así como en varios bancos centrales.
Mientras se desarrollaba esta investigación sobre grandes modelos
keynesianos, Milton Friedman y Anna Schwartz (1963b, 1963a) lanzaron una
visión alternativa de los datos. Se enfocaron en una lista más corta de variables,
principalmente medidas de stock de dinero, dinero de alta potencia, índices de
precios amplios y medidas de actividad real como la producción industrial o el
PIB, y examinaron el comportamiento de estas variables en detalle. Señalaron la
alta correlación entre el crecimiento del dinero y los precios y la actividad real,
evidentes en los datos durante largos períodos de tiempo. Señalaron en el
documento de 1963b que el crecimiento del dinero tendía a liderar cambios en
el ingreso nominal. Su libro (1963a) argumentaba que, desde el registro histórico
detallado, se podía ver que, en muchos casos, el stock de dinero se había
movido primero y los ingresos habían seguido. Friedman y Meiselman (1963)
utilizaron regresiones de una sola ecuación para argumentar que la relación
entre el dinero y el ingreso era más estable que la que se denominaba "gasto
autónomo" e ingreso. Argumentaron que estas observaciones apoyaban una
visión de la economía más simple que la expuesta por los keynesianos: la política
monetaria tenía efectos poderosos en el sistema económico y, de hecho, era la
principal fuerza impulsora de los ciclos económicos. Si pudiera hacerse menos
errático, en particular si el crecimiento de la oferta de dinero pudiera mantenerse
estable, las fluctuaciones cíclicas se reducirían considerablemente.
La confrontación entre los monetaristas y los modeladores a gran escala
keynesianos dejó en claro que el modelo econométrico de datos
macroeconómicos no se había implementado en el programa de investigación
de Haavelmo. Propuso que las teorías económicas se formulen como
distribuciones de probabilidad para los datos observables y que se comparen
entre sí sobre la base de evaluaciones formales de su ajuste estadístico. Esto no
estaba sucediendo. Los keynesianos argumentaron que la economía era
compleja, que requería cientos de ecuaciones, grandes equipos de
investigadores y años de esfuerzo para modelarla. Los monetaristas
argumentaron que solo unas pocas variables eran importantes y que una sola
regresión, más algunas gráficas y narraciones históricas, hacían su punto. Los
keynesianos, presionados por los monetaristas para ver qué tan importante era
la política monetaria en sus modelos, encontraron (Duesenberry, Fromm, Klein
y Kuh, 1969, Capítulo 7, de Fromm, por ejemplo) que la política monetaria sí tuvo
fuertes efectos. Sin embargo, argumentaron que era uno de los muchos
instrumentos de política y fuentes de fluctuaciones y, por lo tanto, que estabilizar
el crecimiento del dinero probablemente no sería una política excepcionalmente
óptima.
Además, ninguna de las partes en este debate reconoció la centralidad de
incorporar el comportamiento de las políticas en el modelo de la economía. En
los intercambios entre Albert Ando y Franco Modigliani (1965), por un lado, y
Milton Friedman y David Meiselman, por otro, gran parte del desacuerdo fue
sobre lo que debería tomarse como “autónomo” o “exógeno”. Ando y Modigliani
argumentaron que lo que era "autónomo" debería ser una cuestión de lo que no
estaba correlacionado con los términos de error modelo, pero tanto ellos como
sus adversarios escribieron como si lo que estaba controlado por el gobierno
fuera exógeno.
Tobin (1970) explicó que no solo las altas correlaciones, sino también los
patrones de tiempo observados por los monetaristas podrían surgir en un modelo
donde la política monetaria errática no era una fuente de fluctuaciones, sino que
lo hizo en un modelo determinista, no en una probabilidad. Modelo que podría
ser confrontado con los datos. Parte de su historia fue que lo que los
monetaristas tomaron como un instrumento de política, el stock de dinero,
podrían ser movidos pasivamente por otras variables para crear los patrones
estadísticos observados. Contribuí a este debate (1972) señalando que el
supuesto de que el stock de dinero era exógeno, en el sentido de no estar
correlacionado con los términos de perturbación en las regresiones
monetaristas, era verificable. Los monetaristas hicieron una regresión de los
ingresos en el stock de dinero actual y pasado, reflejando su creencia de que la
regresión describió una influencia causal del stock de dinero actual y pasado en
el ingreso actual. Si las altas correlaciones reflejaban la retroalimentación del
ingreso al dinero, el stock de dinero futuro también ayudaría a explicar el ingreso.
Resultó que no, confirmando la especificación estadística de los monetaristas.
Las opiniones de los monetaristas, que la política monetaria errática era una
fuente importante de fluctuaciones y que el crecimiento del dinero estabilizador
estabilizaría la economía, eran sin embargo esencialmente incorrectas. Con las
herramientas estadísticas adecuadas, los keynesianos podrían haber sido
capaces de mostrar un modelo en el que no solo los patrones de tiempo (como
en el modelo de Tobin), sino también la exogeneidad estadística del stock de
dinero en una regresión, emergerían como predicciones a pesar del stock de
dinero no. Siendo la principal fuente de fluctuaciones. Pero no pudieron hacerlo.
Sus modelos estaban llenos de suposiciones increíbles2 de conveniencia, lo que
las convertía en herramientas débiles en el debate. Y debido a que no contenían
modelos de comportamiento de políticas, ni siquiera podían usarse para
enmarcar la cuestión de si el comportamiento errático de la política monetaria
representaba gran parte de la variación observada en el ciclo económico.

II. LO QUE FALTABA


La idea de Haavelmo, que los modelos de probabilidad caracterizan resultados
de datos probables y menos probables, y que esto se puede usar para distinguir
mejor entre modelos peores, encaja perfectamente con una visión bayesiana de
inferencia, y menos cómodamente con el enfoque de Neyman-Pearson que
adoptó. Dado que los cursos de estadística estándar no suelen dar una
explicación clara de la diferencia entre inferencia bayesiana y frecuentista, vale
la pena detener brevemente nuestra historia para explicar la diferencia. La
inferencia bayesiana tiene como objetivo producir una distribución de
probabilidad sobre cantidades desconocidas, como "parámetros" o valores
futuros de variables. No proporciona ningún método objetivo para hacerlo.
Proporciona reglas objetivas para actualizar las distribuciones de probabilidad
sobre la base de nueva información. Cuando los datos proporcionan información
sólida sobre las cantidades desconocidas, puede ser que la actualización lleve a
casi el mismo resultado en un amplio rango de posibles distribuciones de
probabilidad iniciales, en cuyo caso los resultados son, en cierto sentido,
"objetivos". Pero la actualización se puede hacer ya sea que los resultados sean
sensibles o no a la distribución de probabilidad inicial.
La inferencia frecuentista estima parámetros desconocidos, pero no proporciona
distribuciones de probabilidad para ellos. Proporciona distribuciones de
probabilidad para el comportamiento de los estimadores. Estas son
probabilidades de "muestra previa", que se aplican a las funciones de los datos
antes de que observemos los datos.
Podemos ilustrar la diferencia considerando el modelo de acelerador de
multiplicador que Haavelmo3 usó para mostrar que la inferencia basada en la
probabilidad en estos modelos debería ser posible. Aunque es mucho más
pequeño que los modelos econométricos keynesianos que llegaron más tarde,
en ese momento había muchos menos datos disponibles, por lo que incluso este
modelo simple no podría haber sido estimado de manera considerable a partir
de las cortas series de tiempo anuales disponibles.
El modelo tal como lo ha expuesto Haavelmo fue

Él asumió 𝜀𝑡 ~𝑁(0, 𝜎𝑐2 ) y 𝑛𝑡 ~𝑁(0, 𝜎𝑖2 ) y que eran independientes entre sí y en el


tiempo. Sugirió estimar el sistema por máxima verosimilitud.
Pretendía que el modelo fuera útil para predecir el efecto de un cambio en el
gasto gubernamental 𝐺𝑡 , aunque 𝐺𝑡 no aparece en el modelo. Esto fue confuso,
incluso contradictorio. Expandiremos el modelo para usar los datos de 𝐺𝑡 al
estimarlo. Tampoco tenía término constante en la ecuación de inversión.
Usaremos datos sobre la inversión bruta, que debe ser distinta de cero incluso
cuando no hay crecimiento, por lo que agregaremos un término constante.
Nuestra versión modificada del modelo, entonces, es

Lo enfrentaremos con datos sobre el consumo real anual, la inversión privada


bruta y las compras gubernamentales desde 1929 hasta 1940.4
El modelo no tiene sentido si implica un multiplicador negativo, es decir, si implica
que aumentar G en el mismo año disminuye Y. Tampoco tiene sentido si 𝛾1, el
coeficiente de "acelerador", es negativo. Finalmente, es difícil interpretar si 𝛾1
está muy por encima de 1, porque eso implica un crecimiento explosivo. Por lo
tanto, restringimos el espacio del parámetro a 𝜃1 > 0, 𝛾1 < 1.03, 1 − 𝛼(1 + 𝜃1 ) >
0.La última de estas restricciones requiere un multiplicador positivo. La
probabilidad máxima sobre este espacio de parámetro es entonces en

Tenga en cuenta que el estimador de máxima verosimilitud (MLE) para q1 se


encuentra en el límite del espacio del parámetro. A este valor, la ecuación de
inversión del modelo tiene poco sentido. Además, la teoría estadística que se
utiliza en un enfoque frecuentista para medir la confiabilidad de los estimadores
supone que el verdadero valor del parámetro no se encuentra en el límite del
espacio del parámetro y que la muestra es lo suficientemente grande como para
que una muestra aleatoria de los datos permita el MLE en el límite
extremadamente improbable.

Sin embargo, un enfoque bayesiano a la inferencia proporciona un resultado


natural y razonable. La densidad de probabilidad sobre el espacio de parámetros
después de ver los datos es proporcional al producto de la función de
probabilidad con una función de densidad previa. Si la función de densidad
anterior es mucho más flexible que la probabilidad, como es probable si
comenzamos por ser muy inciertos con respecto a los valores de los parámetros,
la función de probabilidad en sí misma, normalizada para integrarse a uno,
caracteriza nuestra incertidumbre acerca de los valores de los parámetros. Con
los métodos modernos de Markov Chain Monte Carlo, es un asunto sencillo
rastrear las funciones de probabilidad y densidad de trazado para parámetros,
funciones de parámetros o pares de parámetros. En un plano anterior, la función
de densidad para γ1 tiene la forma que se muestra en la Figura 1. Mientras que
el pico está en cero, cualquier valor entre 0 y 0.25 es bastante posible, y el valor
esperado es 0.091. La dinámica del sistema con q1 = 0.2 sería muy diferente de
la dinámica con q1 cerca de cero. Por lo tanto, los datos dejan una incertidumbre
substancialmente importante sobre el valor de q1 y no descartan en absoluto los
efectos aceleradores económicamente significativos. El multiplicador de un año
dentro de este modelo, que es el efecto de un cambio de unidad en Gt en Yt, es
1 / (1− a (1 + q1)). Su densidad posterior plana se muestra en la Figura 2.
Observe que la estimación de máxima verosimilitud del multiplicador, que se
muestra como una línea vertical en la figura, es 2.30, bien a la izquierda de la
masa principal de la distribución posterior. Esto ocurre porque el multiplicador
aumenta con q1, y el MLE en cero no es representativo de los valores probables
de q1.

Al calcular el “multiplicador” aquí, estoy observando el impacto de un cambio en


Gt, en el contexto de un modelo en el que Gt es parte del vector de datos para
el cual el modelo propone una distribución de probabilidad. Hay varias formas de
pensar acerca de lo que se está haciendo en este cálculo. Una es decir que
estamos reemplazando la "ecuación de comportamiento de política" (4) por la
ecuación trivial Gt = G *, manteniendo las otras ecuaciones fijas y considerando
las variaciones en G *.

Otra forma equivalente de pensar en esto es que estamos considerando elegir


los valores de nt, la perturbación de la ecuación de política. El último enfoque
tiene la ventaja de que, dado que tenemos una distribución estimada para nt, nos
daremos cuenta cuando estemos preguntando acerca de los efectos de los
cambios en nt que el modelo considera extremadamente improbable.5 Si bien
no hay nada lógico en pedirle al modelo que lo haga. predice los efectos de
cambios improbables, simplificando las suposiciones que hemos hecho al
configurar el modelo para que coincida con los datos se vuelve cada vez más
cuestionable a medida que consideramos escenarios más extremos.

Ninguna de estas formas de ver un multiplicador en G es lo que Haavelmo hizo


en su hipotético experimento de política con el modelo. De hecho no calculó en
absoluto un multiplicador. En su lugar, sugirió que un creador de políticas podría,
al establecer G (que, recordando, no estaba en su modelo de probabilidad),
alcanzar cualquier nivel deseado Y * de producción total. Reconoció que esto
implicaba que el creador de políticas podía ver et y ht y elegir a Gt para
compensar sus efectos. Señaló que bajo estas suposiciones, los efectos de los
cambios en Y * en Ct y se podrían calcular fácilmente a partir de las ecuaciones
(1) y (2). Dijo que lo que estaba haciendo era eliminar la identidad contable (3) y
reemplazarla con Yt = Y *, pero no se puede "eliminar" una identidad contable.
Lo que realmente estaba haciendo era reemplazar una ecuación de política
implícita, Gt ≡ 0, con otra, Gt = Y * - Ct - It, mientras se conserva la identidad (3´).
Dado que los responsables de la formulación de políticas probablemente no
pueden, de hecho, compensar a la perfección los choques como ht y et, y como
es más probable que se vean a sí mismos controlando a Gt que controlando
directamente a Yt, este experimento de políticas es bastante artificial.
Si Haavelmo hubiera tratado de ajustar su modelo a los datos, habría tenido que
enfrentar la necesidad de modelar la determinación de su variable de política,
Gt. Mi extensión del modelo de Haavelmo en (1´) - (4) especifica que los valores
rezagados de Ct y It no ingresan en la ecuación de Gt (4) y que la perturbación
de esa ecuación es independiente de las otras dos perturbaciones. Esto implica,
si se toma esta ecuación como una descripción del comportamiento de la política,
que Gt se determinó completamente por los cambios en la política, sin tener en
cuenta otras variables en la economía. Esto justificaría estimar las dos primeras
ecuaciones de forma aislada, como sugirió Haavelmo. Pero, de hecho, los datos
contienen pruebas sólidas de que Ct retrasado y Sí ayudan a predecir Gt.6 Si el
modelo fuera correcto de otra manera, esto habría implicado (de manera
bastante plausible) que Gt estaba respondiendo a los desarrollos del sector
privado. Incluso para estimar el modelo correctamente habría requerido un
enfoque más complicado.
Esta discusión es solo un ejemplo para ilustrar la diferencia entre inferencia
frecuentista y bayesiana y para mostrar la importancia de modelar explícitamente
las políticas. No pretende sugerir que el modelo y el análisis de Haavelmo
podrían haber sido mucho mejores si hubiera tomado un enfoque bayesiano de
la inferencia. Los cálculos involucrados en el análisis bayesiano de este modelo
simple (y descrito más detalladamente en el apéndice) toman segundos en una
computadora de escritorio moderna, pero en el momento en que Haavelmo
escribió no eran completamente factibles. Y el modelo no es un buen modelo.
Los residuos estimados a partir de las estimaciones de MLE muestran una fuerte
correlación serial fácilmente visible y visible, lo que implica que los datos tienen
una dinámica más rica que la permitida en el modelo.
En los grandes modelos macroeconómicos, es inevitable que algunos
parámetros, algunos aspectos de nuestra incertidumbre sobre cómo funciona la
economía, no estén bien determinados por los datos solamente. No obstante, es
posible que tengamos ideas sobre rangos razonables de valores para estos
parámetros, aunque no estamos seguros de ellos. La inferencia bayesiana trata
naturalmente con esta situación, como lo hizo con el conocimiento previo de que
g1 debería ser positivo en la versión de ejemplo del modelo de Haavelmo.
Podemos permitir que los datos, a través de la función de verosimilitud,
configuren la distribución donde los datos son informativos, y usamos creencias
previas a los datos donde los datos son débiles.
Cuando estamos considerando varios modelos posibles para los mismos datos,
la inferencia bayesiana puede tratar el "número de modelo" como un parámetro
desconocido y producir probabilidades después de la muestra sobre los
modelos. Cuando un modelo grande, con muchos parámetros desconocidos,
compite con un modelo más pequeño, estas probabilidades posteriores
favorecen automáticamente a los modelos más simples si se ajustan a los más
complicados.
Los modelos que los keynesianos de la década de 1960 encajaban eran órdenes
de magnitud más grandes que los de Haavelmo, con muchos cientos, o incluso
miles, de "parámetros" gratuitos para estimar. Pedir los datos para dar
respuestas firmes a los valores de estos parámetros exigía mucho, mucho, de
hecho. La teoría estadística que surgió de las ideas de Haavelmo, conocida
como la metodología de la Fundación Cowles, proporcionó caracterizaciones
aproximadas de la aleatoriedad en los estimadores de estos parámetros,
suponiendo que el número de puntos de datos de series de tiempo era grande
en relación con el número de parámetros que se estimaban. , un supuesto que
era claramente falso para estos modelos. Era una teoría frecuentista y, por lo
tanto, insistía en tratar cantidades desconocidas como "parámetros" no
aleatorios. Para proporcionar estimaciones de aspecto razonable, los
modeladores realizaron muchos supuestos convencionales, sin discusión, que
simplificaron los modelos y realizaron ajustes ad hoc a los métodos de
estimación que no tenían fundamento en la teoría estadística que justificaba los
métodos.7
El resultado fue que estos modelos, porque incluían tantos supuestos ad hoc que
se trataron como si fueran ciertos conocimientos a priori y porque se estimaron
mediante métodos que eran claramente dudosos en este tipo de aplicación, no
se tomaron en serio como modelos de probabilidad. de los datos, incluso por
quienes los construyeron y estimaron. Las medidas de incertidumbre de los
pronósticos y las proyecciones de políticas realizadas con los modelos no fueron
confiables.

III. NUEVAS EVIDENCIAS Y NUEVAS IDEAS DE MODELACIÓN


Mientras los modeladores keynesianos trabajaban en sus modelos grandes
difíciles de manejar, y mientras Friedman y Meiselman y Anderson y Jordan
(1968) estimaban modelos de una sola ecuación que explicaban el ingreso con
dinero, otros economistas estimaban ecuaciones individuales que explicaban el
dinero con el ingreso y las tasas de interés. Estas últimas fueron etiquetadas
como ecuaciones de "demanda de dinero". Si, como lo implicaba mi artículo de
1972, M, de hecho, se comportó en las regresiones del ingreso sobre el dinero
como una variable explicativa legítima, parece probable que las ecuaciones
empíricas de la demanda de dinero fueran mal definidas. Así que Mehra (1978)
se dispuso a verificar si eso era así. Encontró, sorprendentemente, que esa
ecuación también pasaba las pruebas de las condiciones necesarias de que los
ingresos y las tasas de interés explicaban el dinero de manera causal. La única
forma de conciliar estos resultados fue juntar las variables en un modelo de
ecuaciones múltiples para estudiar su dinámica.
En mi artículo de 1980a, estimé un modelo de este tipo, como vector
autorregresión, o VAR, el tipo de modelo que estaba sugiriendo en
"Macroeconomía y realidad" (1980b). Los VAR son modelos del comportamiento
conjunto de un conjunto de series de tiempo con restricciones o distribuciones
anteriores que, al menos inicialmente, son simétricas en las variables. Incluyen,
por ejemplo, restricciones en la duración del retraso (las mismas restricciones en
todas las variables en todas las ecuaciones) o distribuciones anteriores que
favorecen una evolución suave de las series de tiempo en el modelo. Por
supuesto, para hacer que los resultados sean interesantes, requieren cierta
interpretación, lo que introduce la teoría económica al menos informalmente. En
el documento de 1980a incluí datos sobre tasas de interés, producción, precios
y dinero. Los resultados mostraron claramente que gran parte de la variación en
el stock de dinero es predecible a partir de los valores pasados de la tasa de
interés, particularmente después de la Segunda Guerra Mundial. Además, una
parte considerable de la variación de la posguerra en la tasa de interés era, a su
vez, predecible basada en valores pasados de la producción industrial. Dado que
las tasas de interés eran, de hecho, una preocupación de los responsables de la
política monetaria, esto hacía difícil argumentar que el stock de dinero en sí era
una representación adecuada de la política o argumentar que la variación de la
oferta monetaria consistía principalmente en errores erráticos. Si la política
monetaria era en parte sistemática y previsible históricamente, ya no estaba claro
que el cierre de su variación reduciría las fluctuaciones del ciclo económico.
Por supuesto, en la década de 1970, se prestó mayor atención al
comportamiento de la política de modelos desde otro lado. La hipótesis de las
expectativas racionales era. Aplicado a los modelos macroeconómicos. Se
requería que los modelos que incluían expectativas explícitas del futuro en
ecuaciones de comportamiento debían basar esas expectativas en la estructura
dinámica propia del modelo completo. Una versión simple de un modelo de
expectativas racionales ya era común en los estudios de mercados financieros:
la hipótesis de "mercados eficientes" afirmaba que el exceso de rendimiento de
los activos debería ser aproximadamente impredecible, ya que de lo contrario
habría oportunidades de ganancias al negociar con los rendimientos predecibles.
Esto significaba que el tipo de prueba que había aplicado a las regresiones de
ingresos de dinero tendería a implicar que cualquier precio de activo de un
mercado que funcione sin problemas "causa" movimientos en cualquier otra
variable observable públicamente. Algunos economistas (Fischer Black, en
particular, conversando conmigo) pensaron desde el principio que el dinero
parecía tener un impacto causal unidireccional en los ingresos en las regresiones
monetaristas por la misma razón que los precios de las acciones tendrían, y que
el resultado no era tan fuerte. Apoyo a las interpretaciones causales monetaristas
de esas regresiones. Pero ni el modelo monetarista ni el modelo keynesiano
implicaban en ese momento que la cantidad de dinero tenía el mismo tipo de
propiedades que el precio de un activo. Si bien mi trabajo de 1980a y el trabajo
posterior con modelos VAR dejaron en claro que la política monetaria respondía
al estado de la economía y que el stock de dinero era predecible en un modelo
que incluía tasas de interés, un modelo teórico explícito que validó la intuición de
Fischer Black llegó más tarde en mi documento, que mostró que una política
monetaria de hacer que las tasas de interés respondan positivamente a la tasa
de crecimiento del stock monetario conduciría a una aparente ordenación causal
del dinero al ingreso, incluso en un modelo con efectos insignificantes de la
política monetaria sobre variables reales.
Otra conclusión importante de la aplicación de la hipótesis de expectativas
racionales fue que se requería un modelo de comportamiento de políticas para
modelar con precisión las expectativas en el sector privado. Dado que los
grandes modelos keynesianos no habían prestado atención al modelado
cuidadoso del comportamiento de las políticas, no podían fácilmente tomar en
cuenta estas críticas. Si bien el énfasis desde este punto de vista en modelar el
comportamiento de la política fue valioso, el efecto en el modelado de la política
de la "crítica" de las expectativas racionales de los grandes modelos keynesianos
fue, durante algunas décadas, más destructivo que constructivo.
Algunos de los primeros defensores del modelado de expectativas racionales,
como Sargent (1973), lo presentaron como implicando restricciones de
ecuaciones cruzadas en modelos que de otro modo eran similares en estructura
a los modelos ISLM estándar en ese momento. Pero incluso en el modelo
pequeño que Sargent usó en ese artículo, estimar el sistema completo como un
modelo del comportamiento conjunto de series de tiempo no era factible en ese
momento; usó el modelo para derivar ecuaciones únicas que estimó y usó para
probar las implicaciones de las prácticas racionales esperanzas de heredar. La
estimación de máxima probabilidad de sistemas completos que incorporan
expectativas racionales a la escala necesaria para el modelado de políticas no
fue posible.
Probablemente, aún más importante para el efecto inhibidor en la inferencia
econométrica orientada a las políticas fue el énfasis en la literatura sobre
expectativas racionales en la evaluación de las alteraciones no estocásticas de
una regla de política en el contexto de un modelo de expectativas racionales. La
intuición de este punto podría quedar clara para los estudiantes graduados en el
contexto de la curva de Phillips. Si uno aceptaba que solo los cambios
sorpresivos en el nivel de precios tenían efectos reales, entonces era fácil
demostrar que podría surgir una correlación negativa entre el desempleo y la
inflación cuando no se intentó controlar el desempleo mediante la manipulación
de la inflación (o viceversa), sino que No obstante, puede que no haya posibilidad
de afectar realmente el desempleo al cambiar deliberadamente la tasa de
inflación, suponiendo que se anticiparon esos cambios deliberados. Si uno
pensaba que la curva de Phillips en esta historia era un gran modelo keynesiano,
la implicación era que lo que hacían los responsables de las políticas en realidad
con los modelos econométricos, utilizarlos para trazar posibles caminos futuros
de la economía en función del tiempo para las variables de políticas. - fue inútil
en el mejor de los casos y en el peor de los casos pudo haber sido la fuente de
la inflación de los años 70 en los Estados Unidos. Esta historia fue ampliamente
creída y apoyó un cierre casi completo en el interés de los economistas
académicos en el modelado de políticas econométricas.
De hecho, no hubo apoyo empírico para esta historia. La curva de correlación
negativa de Phillips entre el desempleo y la inflación desapareció en la década
de 1970, pero esto se reflejó rápidamente en los modelos políticos empíricos
keynesianos, por lo que esos modelos implicaban poca o ninguna capacidad
política para reducir el desempleo al aumentar la inflación. El aumento de la
inflación no fue un intento deliberado de subir una curva estable de Phillips.
Apoyaría este argumento, que sin duda todavía es un tanto controvertido, con
más detalle si este ensayo versara sobre la evolución de la macroeconomía en
general, pero para los propósitos actuales, solo necesitamos observar el efecto
de la historia en las agendas de investigación: pocos economistas prestaron
atención a las tareas de modelación que enfrentan los funcionarios de las
instituciones de política monetaria.
El énfasis en los cambios en las reglas como experimentos políticos también fue
desafortunado en otro aspecto. Como hemos señalado, fue un defecto
importante en el marco de Haavelmo y en el modelo de ecuación simultánea que
siguió a su ejemplo de que los cambios de política siempre se modelaron como
deterministas, provenientes de fuera de la estructura estocástica del modelo. El
reconocimiento de la importancia de modelar el comportamiento de las políticas
debería haber llevado al reconocimiento de que los cambios en las políticas
deben considerarse como realizaciones de variables aleatorias, con esas
variables aleatorias modeladas como parte de la estructura del modelo. En
cambio, la corriente principal del modelo de expectativas racionales se expandió
en el error de Haavelmo: considerar los cambios de políticas como realizaciones
de variables aleatorias se consideraba inherentemente erróneo o contradictorio;
la atención se centró por completo en cambios no estocásticos y permanentes
en las ecuaciones de comportamiento de políticas, bajo el supuesto de que estas
ecuaciones no habían cambiado antes y no se esperaba que volvieran a cambiar
después de la intervención.8
Los grandes modelos econométricos todavía estaban en uso en los bancos
centrales. Siguieron surgiendo nuevos datos, debían tomarse decisiones
políticas y los responsables de las políticas querían entender las implicaciones
de los datos entrantes para el futuro camino de la economía, condicionados a
varias opciones políticas posibles. Los modeladores en los bancos centrales se
dieron cuenta de que los métodos de inferencia frecuentistas proporcionados por
los teóricos econométricos de la Fundación Cowles no se adaptaban a sus
problemas y, ante la falta de aportes adicionales de los economistas académicos,
volvieron a la estimación de una sola ecuación. Ya no se intentó construir una
probabilidad conjunta para todas las variables en el modelo. Hubo intentos de
introducir expectativas racionales en los modelos, pero esto se hizo de una
manera que no habría sido capaz de resistir la crítica académica, si hubiera
habido alguna.9
Los modelos vectoriales autorregresivos no eran por sí mismos competidores
con los grandes modelos de políticas. Son descripciones estadísticas de series
de tiempo, sin una historia que los acompañe acerca de cómo podrían usarse
para rastrear las distribuciones condicionales del futuro de la economía para las
elecciones políticas dadas. En mi primer trabajo con VAR (1980a; 1980b), los
interpreté con teoría informal, no con las restricciones teóricas cuantitativas y
explícitas que serían necesarias para el análisis de políticas. Sin embargo, fue
posible introducir la teoría de manera explícita, pero con moderación, de modo
que el VAR se pueda utilizar para el análisis de políticas. Blanchard y Watson
(1986) y mi propio artículo (1986) mostraron dos enfoques diferentes para hacer
esto. Los modelos que introdujeron restricciones teóricas en el VAR con
moderación para permitirles predecir los efectos de las intervenciones políticas
llegaron a conocerse como autorregresiones de vectores estructurales, o SVAR.

IV. CONSENSO SOBRE LOS EFECTOS DE LA POLÍTICA


MONETARIA
Para 1980 estaba claro que el stock de dinero en sí mismo no era
aproximadamente una medida unidimensional completa de la postura de la
política monetaria. Las tasas de interés también fueron parte de la imagen. Los
responsables de la formulación de políticas en los EE. UU. Y en la mayoría de
los demás países pensaron que sus decisiones establecían tasas de interés,
aunque tal vez con un objetivo para el crecimiento del dinero en mente. También
les preocupaba el nivel de producción y la inflación, tratando de amortiguar las
recesiones al reducir las tasas y restringir la inflación al aumentar las tasas. Pero
hay muchas razones por las cuales las tasas de interés, el dinero, la producción
y los precios están relacionados con la producción e inflación distinta del
comportamiento de los responsables de la política monetaria. Las tasas de
interés tienden a ser más altas cuando la inflación es alta, porque los
prestamistas deben ser compensados por la pérdida en el valor del principal del
préstamo a través de la inflación. Las tasas de interés cambiarán cuando cambie
la tasa real de retorno de la inversión, lo que puede ocurrir por varias razones no
relacionadas con la política monetaria. La demanda del sector privado por saldos
monetarios puede cambiar, debido a la innovación financiera o los niveles
fluctuantes de preocupación por la liquidez. Desentrañar estos patrones de
influencia mutua para encontrar los efectos de la política monetaria es
intrínsecamente difícil y en el mejor de los casos puede producir resultados que
dejan cierta incertidumbre.
En mi artículo de 1986, intenté desenredarlo mediante una combinación de
estrategias. Postulé que los cambios en la tasa de interés podrían afectar las
decisiones de inversión del sector privado solo con un retraso, y también que la
Reserva Federal no podría, debido a los retrasos en la disponibilidad de datos,
responder dentro del trimestre a los cambios en la producción o al nivel general
de precios. El modelo también incluyó un intento de identificar una ecuación de
demanda de dinero, utilizando dos conjuntos diferentes de restricciones
adicionales. Los efectos de la política monetaria identificados de esta manera
fueron bastante plausibles: una contracción monetaria elevó las tasas de interés,
redujo la producción y la inversión, redujo el stock de dinero y disminuyó
lentamente los precios. Los efectos en la producción de perturbaciones
impredecibles en la política monetaria no fueron triviales, pero representaron
solo una fracción modesta de la variabilidad general en la producción. Que las
respuestas surgieron como "razonables" era, de hecho, parte de la estrategia de
identificación. Las restricciones cero precisas en algunos coeficientes
interactuaban con puntos de vista cualitativos en cuanto a cómo debería ser una
respuesta a una contracción de la política monetaria.
Este patrón de resultados resultó ser sólido en una gran cantidad de
investigaciones posteriores realizadas por otros que consideraron datos de otros
países y períodos de tiempo y utilizaron una variedad de otros enfoques para la
identificación minimalista de estilo SVAR. Un resumen de algunas de estas
investigaciones apareció en Leeper, Sims y Zha (1996). Fue ampliamente
aceptado como una evaluación cuantitativa razonable de cómo los cambios de
la política monetaria afectan a la economía.
Los SVAR que aislaron una ecuación para el comportamiento de la política
monetaria podrían usarse para hacer proyecciones de políticas condicionales,
pero no se utilizaron ampliamente como el modelo principal en las discusiones
sobre políticas del banco central. La política futura no es el único evento futuro
en el que a los responsables de las políticas les gusta condicionar para hacer
proyecciones. Los escenarios que involucran precios altos o bajos de los
productos básicos debido a las interrupciones del suministro, el crecimiento alto
o bajo de la productividad, la disminución del valor del dólar, los cambios en la
política financiera, etc., a menudo son importantes para la discusión de la
política. Dado que los SVAR se limitaban a aislar la política monetaria, tratando
al resto de la economía como un sistema único de "caja negra", no podían
proporcionar estos tipos de pronósticos condicionales. Ya sea que sea preciso o
no, los modelos a gran escala existentes podrían al menos proporcionar
respuestas.
Christiano, Eichenbaum y Evans (2005) desarrollaron una completa dinámica,
modelo de equilibrio general estocástico (DSGE), en el que todos las
perturbaciones y ecuaciones tenían interpretaciones económicas y reflejaban un
comportamiento de optimización asumido, pero también podían reproducir el
patrón de respuestas a un choque de política monetaria que había surgido de los
modelos SVAR. Extendiendo su trabajo, 10 Frank Smets y Raf Wouters (2007;
2003) demostraron que el modelo se podría usar para formar una función de
probabilidad y que la inferencia bayesiana formal para estimar los parámetros y
caracterizar la incertidumbre sobre ellos era posible. Podían comparar sus
modelos con los de VAR y SVAR, y mostraron que sus modelos eran
competitivos con los de VAR en términos de pies a los datos. Por lo tanto,
finalmente cumplieron con el proyecto de Haavelmo: un modelo
macroeconómico utilizable para el análisis de políticas en forma de una
distribución de probabilidad afirmada para los datos. Podría compararse en pies
con otros modelos, y las mejoras propuestas podrían evaluarse en función de
sus efectos en todo el sistema, no solo una ecuación. El personal de
investigación del Banco Central en todo el mundo reconoció el valor potencial de
este tipo de modelo, y muchos han desarrollado modelos de este tipo desde
entonces. En algunos casos, este tipo de modelo se ha convertido en el modelo
principal utilizado en las discusiones sobre políticas.

V. ¿ESTAMOS AQUÍ?
Haavelmo abogó por la formulación de modelos económicos como modelos de
probabilidad, no como un fin en sí mismo, sino porque vio esto como la única
forma en que sería posible probar los modelos entre sí y así avanzar. Ahora
tenemos, en los modelos Bayesian DSGE, el primer paso en el programa de
Haavelmo. Pero estos modelos en su forma actual están listos para ser
mejorados, en varias direcciones.
La reciente crisis financiera y la recesión no fue predicha por los modelos DSGE.
Las predicciones de los modelos de probabilidad por construcción estarán
sujetas a error. Por lo tanto, no es la existencia de los errores, ni siquiera de su
tamaño, lo que constituye un problema; es que los errores en los pronósticos de
los DSGE (y los SVAR estándar, para el caso) fueron de un tamaño que las
estructuras de probabilidad implícitas de los modelos casi nunca deberían
ocurrir. Que se produjeran demasiados errores importantes, en comparación con
las predicciones de los modelos, era verificable antes de la crisis reciente,
aunque la escala de errores en la crisis reciente fue mayor. Reconocer la
verdadera probabilidad de grandes errores en los modelos económicos es un
desafío técnico, razón por la cual recibieron poca atención de los modeladores.
Quizás más importante fue que los errores inusualmente grandes son por
definición eventos raros. Por lo tanto, no es posible que los datos históricos por
algún procedimiento estadístico mecánico generen un modelo de probabilidad
para los grandes errores. Es decir, el papel de las distribuciones anteriores será
importante para modelar estos errores y la incertidumbre acerca de ellos será
grande. Un enfoque basado en las herramientas habituales de la econometría
frecuentista, de muestra grande aproximada no será suficiente.
Una brecha relacionada en la cosecha actual de DSGE es que casi todas se
basan en la linealización en torno a una trayectoria de crecimiento de estado
estable. Los usuarios de los modelos son conscientes de que, por lo tanto, es
probable que los modelos se vuelvan poco confiables ante las grandes
desviaciones de la economía con respecto a su línea de tendencia. Sin embargo,
las grandes perturbaciones nos empujan fuera de la línea de tendencia, y
necesitamos identificar y modelar las no linealidades importantes que surgen.
Muchos economistas ya están trabajando para integrar más datos financieros y
modelos más completos del sector financiero en los modelos DSGE, con la
esperanza de que estas mejoras ayuden a evitar otro colapso como el de 2008,
o fracasen, lo que hace que las elecciones de políticas se produzcan ante tal
choque. con más precisión aparente. Igualmente, importante, de hecho,
probablemente más importante de cara al futuro, es la ampliación de DSGE para
modelar con mayor precisión la dinámica fscal. La mayoría de los DSGE de
Bayesia no modelan, o no modelan con precisión, la deuda nacional, la conexión
de los déficits a la deuda y los efectos de la riqueza en el comportamiento de la
deuda del sector privado y la futura política fiscal futura. Estos aspectos de la
economía son fundamentales para las discusiones actuales sobre políticas.
Los DSGE existentes son principalmente variantes del modelo de Christiano,
Eichenbaum y Evans. Este es un modelo "micro-fundado", en el que la inercia y
la adherencia, en lugar de ser inyectadas en el modelo de una manera
puramente ad hoc, son empujadas un nivel hacia abajo, hacia las restricciones
de optimización de agentes representativos. Pero estos micro fundamentos
están en muchos casos claramente en desacuerdo con la evidencia empírica o
el sentido común. La adherencia de los precios, por ejemplo, se modela
asumiendo que existe una restricción o un costo asociado a el cambio de un
precio nominal, y que los precios de configuración de las empresas son
individualmente insignificantes en tamaño. Todo el mundo entiende que las
industrias reales casi siempre se caracterizan por grandes divergencias en
cuanto al tamaño, y algunas grandes empresas son estratégicamente
importantes. Todo el mundo entiende que el "costo" de cambiar un precio
nominal o la restricción de que los precios nominales solo se pueden cambiar en
los momentos en que la incidencia no puede controlarse es, en el mejor de los
casos, una metáfora. Si uno piensa que los DSGE son un conjunto de historias
que hacen que los economistas y los responsables de la formulación de políticas
se sientan más cómodos con las proyecciones de políticas que básicamente
reproducen lo que implicaría SVAR, la importancia de las micro fundaciones de
los DSGE es de importancia secundaria. Pero cuando los modelos se utilizan
para evaluar los efectos en el bienestar de las políticas alternativas, estos
problemas se vuelven más importantes. Es poco probable que los modelos
macroeconómicos que se construyen explícitamente a partir de datos micro sean
factibles en un futuro próximo. Pero es factible experimentar con variaciones en
los mecanismos de inercia en el marco de Christiano, Eichenbaum y Evans,
investigando si otras especifcaciones también pueden funcionar y pueden tener
diferentes implicaciones políticas.
Los DSGE existentes están demasiado estrechamente parametrizados. El
modelo de Smets and Wouters en EE. UU. (2007), por ejemplo, utiliza datos de
siete variables y tiene 37 parámetros libres, aproximadamente cinco por
“ecuación”, que es una densidad de parámetros que probablemente sea más
baja que la caracterizada por los modelos keynesianos a gran escala de los años
60 y Años 70. El resultado es que el VAR bayesiano es mejor que el DSGE, por
un margen sustancial. 11 El DSGE podría mejorarse agregando parámetros que
permitan una mayor dinámica en las perturbaciones o especificaciones más
flexibles de varias fuentes de inercia. Sin embargo, dado que pensamos que la
teoría de estos modelos es, en el mejor de los casos, un enfoque más
prometedor puede ser el de DelNegro y Schorfheide (2004), extendido por
DelNegro, Schorfheide, Smets y Wouters (2007), quienes usan un DSGE como
fuente para una distribución previa de los parámetros de un SVAR. En su
procedimiento, el resultado puede ser, en principio, casi idéntico al DSGE, si el
DSGE se ajusta bien a los datos. Park (2010) ha ampliado el marco Del Negro /
Schorfheide para hacerlo reflejar de manera más realista las incertidumbres
sobre la identificación. Este enfoque del modelado, ya que no trata el DSGE
como una explicación directa de los datos, hace imposible utilizar la teoría del
modelo para evaluar los efectos de la política en el bienestar. Pero como he
señalado anteriormente, esto puede ser muy bueno. Y el uso del modelo para
rastrear la distribución del futuro de la economía en función de varias fuentes de
perturbación sigue siendo posible, y probablemente sea más preciso que utilizar
el modelo DSGE directamente.
VI. CONCLUSIÓN
A pesar de la confusión inicial acerca de cómo llevar los datos de las series
cronológicas macroeconómicas sobre el tema, la controversia entre los puntos
de vista keynesianos y de teoría de la cantidad de los efectos de la política
monetaria estándar está, al menos por el momento, en gran parte resuelta. Los
cambios en las tasas de interés diseñados por las operaciones de mercado
abierto tienen efectos sustanciales en la economía, tanto en la producción real
como en la inflación. Los cambios erráticos en la política monetaria no son la
principal fuente de variación cíclica en la economía. La cantidad de dinero no es
un buen índice unidimensional de política monetaria. Los efectos de la política
monetaria sobre la producción son bastante rápidos; Los efectos sobre la
inflación tardan más en ponerse en práctica. Los métodos de inferencia que se
han desarrollado para resolver estos problemas nos han acercado a los objetivos
de Haavelmo para un enfoque científico de la macroeconomía.
No obstante, aún hay incertidumbres sobre la nueva visión de consenso, y los
modelos ahora en la frontera todavía contienen grandes brechas. Queda mucho
por hacer.

APÉNDICE: INFERENCIA PARA EL MODELO HAAVELMO


El modelo definido por (1´) - (4) está en la forma de un modelo de ecuaciones
simultáneas ligeramente no estándar:

El aspecto no estándar del modelo es que la matriz de covarianza de zt está


restringida para ser diagonal. La literatura de ecuaciones simultáneas que surgió
de los conocimientos de Haavelmo trató como el caso estándar un sistema en el
que la distribución conjunta de las perturbaciones no estaba restringida, excepto
por tener una matriz de covarianza infinita y una media cero. Es interesante que
el ejemplo seminal de Haavelmo, en cambio, tratara las perturbaciones
estructurales como independientes, como ha sido el caso estándar en la
literatura estructural más reciente de VAR.
La inferencia basada en la probabilidad es directa, si condicionamos a la
observación inicial (1929). La distribución de zt es Normal, con una matriz de
covarianza diagonal, i.i.d. a través de t. Así que el log pdf de z1930,…, z1940 es

Para llegar a la probabilidad de registro, primero sustituimos Ct + It + Gt por Yt


para reducir el sistema a tres variables y tres ecuaciones. Luego escribimos los
shocks como funciones de los parámetros y los datos, utilizando (5) y
multiplicándolos por el jacobiano de la transformación del vector de datos zt al
vector de shock zt, que es

donde es la matriz de coeficientes contemporáneos de la versión 3 × 3 del


sistema resuelto para eliminar Yt.
La probabilidad se puede integrar analíticamente con respecto a los tres
parámetros η. La integración trató el anterior en estos parámetros como plano
en y . Con esos parámetros integrados, la función
resultante de los seis parámetros α, b, q0, q1, g0 y g1 se puede tratar como un
pdf marginal posterior para esos parámetros.
Se llegan las estimaciones de máxima verosimilitud mostradas en el texto por
maximización numérica de este marginal posterior. (Por lo tanto, probablemente
sean algo diferentes de los valores de esos parámetros en el pico de probabilidad
conjunta, fueron la maximización sobre los parámetros s y los otros seis
conjuntamente). Para generar la distribución posterior completa, se utilizó un
algoritmo de Metropolis de caminata aleatoria, con distribución de salto N (0, W),
donde W fue 0,3 veces una estimación bruta de la segunda derivada de la
densidad posterior del tronco cerca de su pico. La estimación bruta fue solo la
producida como la inversa de Hesse aproximada durante el cálculo de
maximización de probabilidad. A pesar de que el límite del pdf posterior está en
el límite, tanto la maximización como las iteraciones de MCMC convergieron con
bastante facilidad. Se usaron 100,000 sorteos para los cálculos de MCMC. Los
coeficientes a y b en la función de consumo mostraron tamaños de muestra
efectivos (utilizando el paquete de coda para R) de 297 y 284, mientras que para
los otros parámetros el tamaño efectivo fue de más de mil.

(Notas finales)
1 Un ejemplo de un economista sofisticado que lucha con este problema es
Sargent (1984). Ese papel pretende caracterizar tanto las opiniones de Sargent
como las mías. Creo que sí caracteriza los puntos de vista de Sargent en ese
momento, pero no caracteriza correctamente los míos.
2 Este hecho, que todos sabían en cierto sentido, fue anunciado enérgicamente
por Liu (1960), y mucho más tarde se volvió a enfatizar en mi artículo de 1980b.
3 El modelo de Haavelmo se diferencia del modelo clásico de Samuelson (1939)
solo en el uso de ingresos actuales en lugar de retrasados en la función de
consumo.
4 Utilizamos la cadena de datos indexados, que no existían cuando Haavelmo
escribió. Construimos Y como C + I + G, ya que los datos indexados de la cadena
no satisfacen la identidad contable y no estamos utilizando datos sobre otros
componentes del PIB.
5 Este es el punto señalado, con ejemplos más realistas, por Leeper y Zha
(2003).
6 Lo verifiqué colocando los VAR de primer y segundo orden.
7 Por ejemplo, los mínimos cuadrados de dos etapas se utilizaron ampliamente
para estimar las ecuaciones en estos modelos. De acuerdo con la teoría,
mientras más variables exógenas y predeterminadas estén disponibles, mejores
serán las propiedades (de gran muestra) del estimador. Pero en estos modelos
había una vergüenza de riquezas, tantos instrumentos que dos etapas mínimos
cuadrados usando todos ellos reducidos a mínimos cuadrados ordinarios: el
mismo método utilizado por Tinbergen antes del Haavelmo. Entonces, de hecho,
los modeladores usaron menos instrumentos, sin ninguna justificación formal.
8 Argumenté en contra de esta forma de formular el análisis de políticas con
mayor extensión en 1987.
9 Estudié el estado del modelado de políticas del banco central y el uso de
modelos en el proceso de políticas en un documento de 2002.
10 El trabajo de Christiano, Eichenbaum y Evans circuló en forma de documento
de debate durante años antes de su publicación final.
11 Smets y Wouters informan en sus tablas solo las probabilidades marginales
para el VAR bayesiano que son al menos ligeramente peores que la probabilidad
marginal del DSGE. En la nota 13, sin embargo, informan que un BVAR con un
anterior diferente produce una probabilidad marginal de registro mejor que la del
DSGE por 9.2 en unidades de registro, una ventaja sustancial en pies para el
BVAR.

S-ar putea să vă placă și