Essays on forecasting methods and monetary policy evaluation
- Máximo Camacho Co-directeur
- Gabriel Pérez-Quirós Co-directeur/trice
Université de défendre: Universitat d'Alacant / Universidad de Alicante
Fecha de defensa: 27 juillet 2015
- Trino-Manuel Ñíguez President
- M. Ángeles Carnero Fernández Secrétaire
- Andrés E. Romeu Santana Rapporteur
Type: Thèses
Résumé
El colapso del sistema financiero en EEUU durante el verano de 2008 se transmitió a la economía global y tuvo importantes consecuencias como el aumento de la volatilidad macroeconómica o importantes caídas de los niveles de producción y empleo. También se observó heterogeneidad en la concreción de medidas públicas para contrarrestar la crisis, un incremento del balance de las instituciones monetarias tras la implementación de estímulos de una magnitud excepcional y dudas sobre la estabilidad financiera de algunos gobiernos tras la realización de importantes esfuerzos fiscales. Este contexto económico excepcional y sin precedentes ha dado lugar a una basta y prolifera literatura acerca de la identificación de los mecanismos de transmisión de estos sucesos así como de la elaboración o evaluación de las políticas públicas más adecuadas. Por otra parte, el importante desarrollo de las tecnologías de la información y la comunicación que ha tenido lugar en los últimos años da acceso a gran cantidad de datos y abre nuevos horizontes para la investigación económica. Sin embargo, el tratamiento de grandes conjuntos de información, la selección de los indicadores más adecuados dentro de todos los disponibles para un determinado propósito y el desarrollo de técnicas que permitan manejar esos datos supone también nuevos desafíos para el investigador. Los tres capítulos que componen esta tesis tratan sobre el desarrollo e implementación de técnicas que contribuyen a solución de estos aspectos y se centran en su aplicación para abordar algunas de las importantes cuestiones que surgen en la literatura económica tras la crisis 2008 como la predicción la evolución económica, identificación cambios en los patrones y relaciones macroeconómicas y la valoración los efectos de la política monetaria en este nuevo contexto. El primero de los capítulos compara las propiedades de dos métodos de reducción de dimensión de la información para su incorporación en modelos económicos. Estos métodos asumen que el comportamiento conjunto de la economía esta explicado por un número reducido de factores que no son directamente observables como, por ejemplo, el ciclo económico, factores representativos de variables reales y nominales, de la situación monetaria y financiera, etc. Bajo esta idea, los Modelos de Factores Dinámicos estiman una serie de factores latentes capaces de explicar la mayor parte del co-movimiento de los indicadores macroeconómicos. Esta característica permite la inclusión de una mayor cantidad de información en los modelos económicos preservando una especificación parsimoniosa y, por tanto, viable a través de las técnicas de estimación convencionales generalmente implementadas con pequeños conjuntos de datos. Ahora bien, los Modelos de Factores Dinámicos pueden estimarse bajo dos presunciones: considerando que la información necesaria para capturar el comportamiento conjunto de la economía, y la consecuente estimación de factores, está incluida en un pequeño grupo de indicadores macroeconómicos clave que puede ser seleccionados bajo la experiencia del investigador o de acuerdo con ciertos criterios técnicos y estadísticos o, por el contrario, que toda la información posible debe usarse para estimar estos factores ya que no hay motivo para excluir ninguna de la que esté disponible. Dependiendo de la decisión tomada por el investigador en este punto, podemos utilizar dos versiones de los Modelos de Factores Dinámicos: la versión en la que los factores son estimados a partir de un número reducido de indicadores observables, Modelos de Factores Dinámicos de Pequeña Escala, o utilizar factores estimados basados en un conjunto de datos más grande, Modelos de Factores Dinámicos de Gran Escala. Más allá de las decisiones relativas al volumen de información incluido en cada uno de estos modelos para la estimación de estos factores latentes, la implementación de cada versión entraña consecuencias con respecto a las propiedades teóricas y estadísticas del proceso de estimación y los factores que dan como resultado. Por ese motivo, este primer capítulo contribuye a la literatura que anteriormente ha tratado por separado los Modelos de Factores Dinámicos de Pequeña Escala (Stock y Watson, 1991) y los Modelos de Factores Dinámicos de Gran Escala (Doz, Giannone y Reichlin, 2006) a través de la comparación de ambos desde un punto de vista completamente empírico. A fin de valorar cuál de las dos versiones es capaz de capturar con mayor precisión la evolución y comportamiento de la economía, los dos modelos son evaluados a través de la comparación del poder predictivo de ambas metodologías para la evolución futura del Producto Interior Bruto. Debe tenerse en cuenta que las características estadísticas de los datos observables que dan lugar a los factores juegan un papel importante en la precisión de las estimaciones. Por este motivo, el ejercicio comparativo de los dos modelos es reproducido en seis países distintos a fin de valorar la medida en que los datos disponibles para cada uno de estos países se ajustan mejor a los requisitos teóricos de los modelos de pequeña o de gran escala. Para este fin, se utilizan datos de países en desarrollo ya que este tipo de países suele presentar una menor disponibilidad de datos, con series que pueden presentar una menor longitud temporal y en ocasiones con valores perdidos a mitad de muestra. En concreto, en este capítulo se seleccionaron seis países latinoamericanos en los que ambas versiones de los Modelos de Factores Dinámicos habían sido implementados previamente pero por separado, Camacho y Perez Quiros (2011), en el caso del modelo de pequeña escala y Liu, Matheson y Romeu (2012), en el de gran escala. A través de la comparación del error de predicción fuera de muestra de cada uno de los modelos en estos seis países se identifica cual es el modelo más apropiado en cada uno de ellos para la realización de predicciones en dos horizontes temporales distintos: el correspondiente con el dato del Producto Interior Bruto que será publicado en el trimestre en que se realiza la predicción y, en segundo lugar, el correspondiente con el dato que se publicará en el siguiente trimestre. Los resultados muestran como el Modelo de Factores Dinámicos de Pequeña Escala produce predicciones más precisas en unos países mientras que en otros es preferible la utilización del Modelo de Factores Dinámicos de Gran Escala. También se dan casos en los que cada uno de los modelos es más preciso que su rival dependiendo del horizonte temporal en el que se realice la predicción dentro de un mismo país. Esto sugiere que ninguna de las limitaciones teóricas acerca de las características de los datos observables y el proceso de estimación de cada metodología es suficientemente determinante como para descartar un modelo en favor de otro una vez implementados con datos reales. Por otra parte, tanto en el modelo de pequeña escala como el de gran escala se asume que la relación entre los factores latentes y las variables observables es lineal. Esto implica que la interacción entre los datos macroeconómicos y los factores que explican su comportamiento se asume invariante a lo largo del periodo de tiempo que comprende la muestra de datos utilizada. Esta característica resultaba más apropiada en el pasado, especialmente durante los años comprendidos entre mediados de los ochenta y las fechas anteriores a la Gran Recesión que siguió a la crisis financiera de 2008. Este periodo estuvo caracterizado por una escasa volatilidad macroeconómica y largos periodos de expansión en la mayoría de las economías desarrolladas. Sin embargo, tras la recesión que tuvo lugar en 2008 hubo un cambio abrupto y sin precedentes en la evolución de los principales indicadores macroeconómicos como producción, empleo y precios. En el caso particular de EE.UU. la Reserva Federal combatió este extraordinario y adverso escenario económico con una serie de medidas excepcionales orientadas, en primer término, a contrarrestar la escasez de liquidez del sistema financiero y, en segundo lugar, a combatir el desempleo y recuperar los niveles de producción previos a la crisis financiera. Estas medidas poco convencionales se materializaron en la reducción de los tipos de interés oficiales hasta a su mínimo posible cercano a cero y la inyección masiva de dinero en el sistema a través de la compra masiva de activos inmobiliarios y deuda pública con dinero de nueva creación por parte de la Reserva Federal. Esta situación, con tasas de variación en los precios muy reducidas o incluso deflación, niveles de desempleo muy elevados, fuerte caída de la producción, tipos de interés próximos a cero y agregados monetario en niveles muy superiores a los previamente observados como consecuencia de la compra masiva de activos sugieren la presencia de un escenario estructural distinto al observado durante los treinta años previos a la crisis financiera de 2008 que ponen en tela de juicio la idoneidad de los modelos de factores dinámicos para la caracterización del comportamiento macroeconómico debido, precisamente, a la presunción de esa relación invariante entre factores y datos observables a lo largo del tiempo. El segundo artículo de la tesis se centra en este aspecto. La literatura previa ha mostrado como los Modelos de Factores Dinámicos de Gran Escala son una herramienta útil para la estimación de los efectos de las decisiones en materia de política monetaria en la economía. El buen comportamiento del modelo para la estimación de estos mecanismos de transmisión de política monetaria ha sido demostrado mediante la comparación de sus resultados con otras metodologías en las que no se utilizan técnicas de reducción de dimensión de la información y que, consecuentemente, incluyen un conjunto de información más reducido como en el caso de los modelos de Vectores Auto Regresivos. Estos modelos se basan en la estimación de las correlaciones dinámicas de un pequeño conjunto de indicadores macroeconómicos, donde se incluye alguna variable representativa de la política monetaria, como los tipos de interés, y permiten evaluar los efectos de un cambio en la dinámica de dicha variable en las otras incluidas en el modelo a lo largo del tiempo (Funciones de Respuesta al Impulso). Bajo esta metodología, ampliamente utilizada en la literatura tanto para predicción como para análisis estructural, los efectos de las decisiones en materia monetaria han dado lugar a ciertos resultados empíricos en conflicto con la teoría económica. Un ejemplo es la estimación de subidas en el nivel de precios como consecuencia de incrementos de los tipos de interés oficiales o de una política monetaria contractiva, conocido como el Price Puzzle (Sims, 1992). También han dado lugar a predicciones en la reacción de los tipos de cambio que tiene lugar con un considerable retraso con respecto al momento en el que se simula la variación en los tipos de interés en lugar de una reacción instantánea tal y como predice la teoría económica, fenómeno este conocido como Delayed Overshooting Puzzle (Eichenbaum and Evans, 1995). Una posible explicación para estos resultados es precisamente la pequeña cantidad de información que puede ser incluida en los modelos de Vectores Auto Regresivos. Esta limitación se debe a que el número de indicadores debe ser pequeño para la correcta estimación de los parámetros que describen la relación dinámica entre ellos. Así, usando estos modelos, es probable que se dé una situación en la que algún indicador macroeconómico que contenga información relevante para la identificación de los mecanismos de trasmisión de la política monetaria quede excluido del proceso de estimación y, en este caso, que los resultados obtenidos estén sesgados debido precisamente a la omisión de esta información relevante, hecho este que podría explicar la presencia de los Puzzles anteriormente citados. Sin embargo, el desarrollo e implementación de Modelos de Factores Dinámicos de Gran Escala para la evaluación de los efectos de política monetaria es capaz de conciliar los resultados empíricos con la teoría económica resolviendo tanto el Price Puzzle como el Delayed Overshooting Puzzle (Gambetti and Forni, 2010) a través de la inclusión de una mayor cantidad de información resumida mediante la implementación de las técnicas de reducción de dimensión en que se basan estos modelos de gran escala. Además, y contrariamente a los modelos de Vectores Auto Regresivos donde los efectos de un cambio en la política monetaria solo puede ser evaluados en el reducido conjunto de indicadores incluido en el modelo, los Modelos de Factores Dinámicos de Gran Escala permiten valorar estos mecanismos de transmisión en un amplio conjunto de indicadores pertenecientes a cualquiera de las categorías macroeconómicas en las que el investigador o el ente responsable de la política monetaria pueda estar interesado. Sin embargo, como ya se ha señalado anteriormente, las graves consecuencias de la Gran recesión en el contexto económico con fuertes caídas de la producción empleo y precios junto con la nueva situación tipos de interés en mínimos y agregados monetarios en máximos históricos sugieren la presencia de un cambio en los patrones que describen la interacción y relaciones entre los distintos elementos de la macroeconomía y la política monetaria. Por este motivo el segundo capítulo de la tesis propone una modificación de los Modelos de Factores Dinámicos de Gran Escala en la que deja de asumirse un relación invariante entre las fuerzas que explican el comportamiento económico, los factores, y las variables observables y que, por tanto, nos permita así identificar cuáles son las repercusiones y efectos de la política monetaria en la economía en su conjunto en distintos escenarios macroeconómicos a lo largo del tiempo. Inicialmente, a fin de valorar si esta modificación en los Modelos de Factores Dinámicos es necesaria y apropiada y, al mismo tiempo, de si los mecanismos de transmisión de política monetaria han sido afectados durante el periodo posterior a la crisis financiera tal y como podría intuirse a través de la simple observación de algunos agregados macroeconómicos claves, se estiman los resultados proporcionados por un Modelo de Factores Dinámicos convencional en el que la posible presencia de cambios en los parámetros del modelo no es permitida para una muestra de datos que se va ampliando progresivamente. Este ejercicio se centra en el caso particular de EE.UU. En concreto, se seleccionaron 110 variables macroeconómicas en frecuencia mensual consideradas como representativas de la economía estadounidense en su conjunto para el periodo comprendido entre abril de 1974 hasta noviembre de 2013. Mediante el cálculo de las Funciones de Respuesta al Impulso, se realizó una primera estimación de cuáles serían las consecuencias de una subida de los tipos de interés oficiales de 50 puntos básico para estas 110 variables utilizando únicamente información entre abril de 1974 hasta enero de 2005. En un segundo paso, las Funciones de Respuesta al Impulso para un cambio de igual magnitud en los tipos oficiales es estimado usando ahora un mes más de información, desde abril de 1974 hasta febrero de 2005. Este proceso en el que la muestra se va aumentando con una observación mensual más en el conjunto de datos es repetido iterativamente hasta que la última observación de la que se dispone, correspondiente con noviembre de 2013, es incluida. En la comparación gráfica de la evolución de las Funciones de Respuesta al Impulso estimadas en cada uno de los pasos de este proceso iterativo se observa como la reacción de las 110 variables a una subida en los tipos de interés es muy similar durante los primeros pasos. Sin embargo, en las estimaciones en las que se incluyen observaciones correspondientes a las fechas de la crisis financiera del verano de 2008 se observa un aumento de la magnitud de las respuestas estimadas que se mantiene has finales de 2013. Este resultado muestra como la economía se vuelve más reactiva a las decisiones en materia de política monetaria tras la recesión de 2008 y además implica importante cuestiones que deben ser consideradas por el investigador. Esto se debe al hecho de que estos hallazgos generan incertidumbre acerca de cuáles deben ser las fechas y dimensión temporal de la muestra de datos más adecuada para la correcta estimación de las Funciones de Respuesta al Impulso de los distintos indicadores macroeconómicos a la política monetaria en las condiciones económicas actuales. Una posible respuesta a esta cuestión sería que toda la muestra disponible debe ser incluida en el modelo a fin de obtener estimaciones más precisas debido al aumento del ratio entre el número de observaciones y la cantidad de parámetros a estimar. Pero esta decisión suscitaría dudas acerca de si los resultados obtenidos bajo este criterio están distorsionados por la inercia de los datos posteriores a la crisis financiera de 2008, caracterizados por un periodo de más volatilidad que ya ha quedado atrás. Por este motivo, es necesario un proceso de estimación que permita resolver estas dudas e identificar el periodo muestral más adecuado para la representación de las características económicas estructurales y mecanismos de transmisión de la política monetaria que se dan en la actualidad. Este aspecto y sus consecuencias en la estimación de los factores latentes, conocido como presencia de inestabilidad estructural, ha sido previamente explorado en la literatura de los Modelos de Factores Dinámicos de Gran Escala mediante la simulación de los datos con métodos Monte Carlo que son posteriormente utilizados para la estimación de los parámetros del modelo (Banerjee, Marcellino y Masten, 2008). Otros artículos se han centrado también en esta problemática a través de la suposición de que realmente existe un ruptura estructural en el periodo analizado y que el investigador conoce, de forma previa a la estimación, cuando ha tenido lugar (Stock y Watson, 2009). Sin embargo, a través de la metodología que en este segundo capítulo se propone, se pueden utilizar datos reales sin dar por sentado la presencia o la fecha en la que estas rupturas estructurales han tenido lugar. Esto se lleva a cabo usando la información contenida en el mismo conjunto de datos de 110 variables mensuales que es utilizada para la identificación de las posibles rupturas estructurales correspondientes con cambios en la interactuación de esas variables macroeconómicas. Una vez identificados estos momentos de ruptura, se permite a los parámetros del modelo variar dependiendo del comportamiento de los datos en el periodo en el que nos encontremos y, por tanto, responder de manera distinta a los cambios en la política monetaria en cada uno de esos escenarios. La estimación de un modelo de estas características, en el que se permite evolucionar de manera distinta la dinámica de los factores que resumen los datos en cada escenario estructural identificado, entraña ciertas dificultades técnicas debido que el número de parámetros a estimar crece proporcionalmente con el número de escenarios estructurales hallados en los datos mientras que, por otro lado, el número de observaciones temporales disponibles correspondiente con el total del periodo analizado ha de dividirse entre cada uno de dichos escenarios. Evidentemente, esto supone una reducción considerable del ratio entre la cantidad de observaciones y el número de parámetros a estimar que se traduce en un deterioro de la precisión de las estimaciones en el caso de que estas sean llevadas a cabo usando métodos convencionales. Por este motivo se recurre a métodos de estimación bayesianos que presentan una mayor precisión cuando este ratio entre el número de observaciones en la muestra y el número de parámetros es muy reducido. Aun apoyando el proceso de estimación en esta metodología, en estos modelos de gran tamaño, con muchas variables y en los que se permiten distintas dinámicas a lo largo del periodo analizado, se da una distribución posterior de los parámetros estimados por técnicas bayesianas con formas complejas y poco regulares. Por este motivo es necesaria la utilización de una metodología que permita la correcta selección de los valores iniciales para el proceso iterativo bayesiano que dará lugar a esa distribución (Sims, Waggoner y Zha, 2008). Esto es llevado a cabo utilizando un método de optimización por bloques en el que el conjunto de parámetros a estimar es dividido en bloques atendiendo sus categorías y aplicando, iterativamente de un bloque a otro, una rutina de maximización de verosimilitud. Este proceso por bloques se ha mostrado como una manera más eficiente de incrementar la verosimilitud de los parámetros que la aplicación directa de esa rutina a todo el conjunto de parámetros directamente. Una vez se aplica este proceso de estimación a los datos macroeconómicos para EE.UU en el periodo comprendido entre abril de 1974 y noviembre de 2013 se identifica la existencia de dos contextos estructurales: uno correspondiente con las etapas de recesión y alta volatilidad y otro más frecuente que tiene lugar durante las fases de expansión y baja volatilidad. Esta clasificación del total del periodo analizado en dos escenarios distintos permite identificar cuáles son los datos más apropiados para la representación de las condiciones económicas actuales así como la estimación de reacciones de las 110 series incluidas en el conjunto de datos a cambios en los tipos de interés específicas para cada uno de esos dos escenarios. Estos resultados son comparados con aquellos que habrían sido obtenidos usando un Modelo de Factores Dinámicos de Gran Escala tradicional en el que la presencia de estas rupturas estructurales hubiese sido ignorada bajo dos posibles decisiones en cuanto a la muestra temporal que debe ser utilizada: unas calculadas con datos entre 1974 y finales de 2007 en las que se consideran que los últimos datos correspondiente con la etapa posterior a la crisis financiera no son representativos de la situación actual por su gran volatilidad; y otras utilizando toda la muestra representando en este caso la decisión de un investigador que se decanta por usar toda la información disponible. De la comparación de ambos resultados se observa como las Funciones de Respuesta al Impulso lineales (aquellas en las que no se permiten cambios en los parámetros del modelo asumiendo una relación invariante entre las variables macroeconómicas) estimadas con datos previos a 2008 son muy similares a las estimadas con la metodología propuesta que corresponden a los periodos caracterizados por baja volatilidad. Por otro lado, también se observa que las Funciones de Respuesta al Impulso lineales basadas en datos que también incluyen el periodo de la Gran Recesión posterior a 2008 están condicionadas por la forma y magnitud de las Funciones de Respuesta al Impulso estimadas permitiendo cambios en los parámetros del modelo que se corresponden con periodos de más volatilidad. Esto muestra los efectos distorsionantes de estas últimas observaciones del periodo más volátil una vez son incluidas en un Modelo de Factores Dinámicos convencional. De la clasificación de los diferentes periodos estructurales identificados mediante la implementación de la metodología propuesta en el segundo capítulo de esta tesis se desprende que la crisis de 2008 dio paso a un periodo de alta volatilidad y recesión pero que no tuvo efectos permanentes en la situación económica estructural del EE.UU. y como, tras unos años, los patrones e interacciones macroeconómicas vuelvan al estado anterior al verano de 2008. Sin embargo, la situación monetaria actual de este país puede seguir considerándose como extraordinaria debido al elevado nivel de los agregados monetarios y unos tipos de interés oficiales que siguen en mínimos históricos y cercanos a cero. La cuestión empírica que se deriva de esta situación monetaria poco convencional en un momento en el que la economía real parece recuperada se centra en la identificación de la estrategia monetaria óptima que debe ser llevada a cabo por los bancos centrales en su regreso a un contexto monetario tradicional. El tercero de los capítulos de esta tesis se centre en esta cuestión. La forma, magnitud y fechas de la retirada de los estímulos monetarios para la vuelta a una situación normal en el nivel intervención por parte de las autoridades monetarias debe hacerse teniendo en cuenta que una retirada precoz de los programas de estímulo podría frenar la actividad económica y el empleo en mayor medida de lo deseado mientras que una prolongación excesiva de estos estímulos generaría una mayor dependencia del sistema financiero de las inyecciones públicas de liquidez y, en último término, podría traducirse en fuertes presiones inflacionistas. Además, las recientes inyecciones masivas de liquidez y la bajada de tipos de interés a mínimos cercanos a cero no tienen precedentes en la historia reciente de las economías desarrolladas lo que añade incertidumbre sobre las consecuencias de la retirada de estas medidas excepcionales. El tercer capítulo de esta tesis sugiere una metodología basada en el uso de los Modelos de Factores Dinámicos de Pequeña Escala que puede ayudar a evaluar las consecuencias futuras de las decisiones tomadas por las autoridades monetarias en los principales indicadores macroeconómicos. Las buenas propiedades predictivas de estos modelos se basan en su habilidad para incluir toda la información disponible en un determinado momento. Cada indicador macroeconómico presenta distintas fechas de publicación; esto supone, que en un determinado momento, haya información disponible para alguno de ellos para cierto mes o trimestre pero que para otro indicador sólo dispongamos de información hasta algún periodo anterior. Por este motivo el conjunto de información disponible en una determinada fecha presenta un final irregular en el que tendremos ciertas observaciones mientras que el valor de otros indicadores aun no estará disponible para ese mismo periodo. Contrariamente a otras metodologías que requieren un conjunto de datos con un final regular, en el que se descartan las ultimas observaciones de algunos indicadores para tener un conjunto de datos equilibrado al final de la muestra, los Modelos de Factores Dinámicos pueden incluir toda la información disponible en un determinado momento a través de una modificación en el proceso de estimación que permite distinguir que indicadores han sido publicados de los que no. Esta característica puede ser aprovechada por los responsables de la política monetaria como guía para la toma de decisiones. Para ello se propone incluir en el conjunto de información disponible para el público en general la evolución futura de una variable representativa de la política monetaria que es conocida únicamente por los mismos responsables de la política monetaria para la consecución de un determinado objetivo en el corto plazo como, por ejemplo, la trayectoria que deberían seguir los tipos de interés durante el próximo año para alcanzar niveles similares a los vigentes durante el periodo previo a la crisis financiera de 2008. Las predicciones que utilicen este conjunto de información estarán basadas por tanto en la evolución reciente de los indicadores incluidos en el modelo así como también de la evolución de las variables monetarias fijada por el banco central para el futuro. Por tanto, la evaluación de las consecuencias de la decisión de la autoridad monetaria acerca de la evolución futura de esa esa variable puede llevarse a cabo a través de un ejercicio comparativo de las predicciones basadas en esa decisión inicial obtenidas con el modelo con otras en basadas en una decisión alternativa como, por ejemplo, mantener los tipos de interés inalterados durante el próximo año. Esta comparativa permite valorar fácilmente las consecuencias de cada una de estas dos posibles decisiones de la política monetaria en la evolución de los indicadores incluidos en el modelo. Sin embargo, en el actual contexto, la selección de los indicadores monetarios representativos de la postura de los bancos centrales entraña ciertas dificultades. Esto se debe a que los tipos de interés oficiales, el indicador utilizado tradicionalmente para esto fines, apenas muestran variación desde finales de 2008 y, por tanto, dejan de tener contenido informacional ya que esta variable monetaria fue sustituida por las inyecciones de liquidez para seguir estimulando la economía una vez que los tipos de interés alcanzaron su mínimo en torno a cero. Igualmente, los agregados monetarios representativos de la cantidad de dinero en circulación carecen de variabilidad y contenido informativo antes de 2008. Para solucionar este aspecto se utiliza una medida sintética que resume ambos tipos de estímulos en un solo indicador que es sustitutivo de los tipos de interés ya que se le permite tomar valores negativos cuando lo tipos oficiales alcanzan su mínimo de cero. Este indicador, conocido como Shadow Rate, es calculado utilizado los tipos de interés futuros como medida de las expectativas de mercado sobre la evolución de los tipos oficiales a través de la información que disponible a cerca de las inyecciones de liquidez y las declaraciones de los bancos centrales sobre la duración de las medidas excepcionales. La literatura previa (Wu y Xia, 2014) ha mostrado como estos indicadores monetarios sintéticos presentan una relación con las variables macroeconómicas durante los periodos en los que toman valores negativos equivalente a la relación que tradicionalmente ha habido entre las variables macroeconómicas y los tipos de interés oficiales cuando estos no se encontraban en su mínimo. En el caso concreto de este capítulo se valoran cinco posibles sendas de este indicador sintético que podrían ser seguidas por la Reserva Federal de EE.UU. y se realiza una predicción futura del Producto Interior Bruto, un indicador de empleo, de ventas, producción industrial, ingresos y precios para cada una de estas posibles sendas. De su comparación se desprende en qué medida una política monetaria expansiva seguiría estimulando el rendimiento económico mientras que una contractiva reduciría las tasas de crecimiento de estos indicadores de actividad y empleo. Por otro lado, la evolución de los precios apenas se vería alterada bajo la implementación de estas distintas sendas resultado, este último, consistente con las escasas subidas de precios que siguieron a la implementación de la extraordinaria batería de estímulos monetarios que se han puesto en práctica tras la crisis financiera de 2008. Así pues, a lo largo de los tres capítulos de esta tesis se muestra como los Modelos de Factores Dinámicos son una herramienta con un gran potencial para el análisis de la política monetaria así como para representar, evaluar y predecir la evolución económica incluso bajo restricciones en la disponibilidad de datos como las que se dan en países desarrollo. En esta tesis se ofrecen resultados que, basados en la gran cantidad de datos que puede incluirse en estos modelos, muestran como la crisis financiera de 2008 dio lugar a cambios en las interacciones macroeconómicas y a la presencia de un escenario estructural distinto al de los años previos que habían estado caracterizados por una baja volatilidad y largos periodos de expansión. La identificación de estos cambios en los patrones y relaciones macroeconómicas requiere la implementación la nueva versión de los Modelos de Factores Dinámicos aquí propuesta. Esta versión permite capturar dichos cambios así como diferenciar las distintas consecuencias, mecanismos de propagación y magnitud de los efectos de la política monetaria para cada uno de esos contextos estructurales. Por último, propone la aplicación de los Modelos de Factores Dinámicos para valorar las consecuencias de varias posibles estrategias monetarias en la evolución futura de un conjunto de indicadores macroeconómicos clave a fin de determinar la estrategia óptima de regreso a una situación monetaria similar a la que se daba con anterioridad a la crisis financiera de 2008