Les principaux courants de la macroéconomie contemporaine

lundi 30 septembre 2013

D’après Johnson (1971), « la circonstance la plus favorable, et de beaucoup, pour la propagation d’une nouvelle théorie révolutionnaire, est l’existence d’une orthodoxie établie qui est visiblement incapable d’expliquer les faits réels ».
L’incapacité du modèle classique à rendre compte de manière satisfaisante de l’effondrement de la production et de l’emploi dans les années 1930 a ouvert la voie à la révolution keynésienne.
Durant les années 1950 et 1960, la synthèse néoclassique fut acceptée par la majorité des économistes. Les travaux de James Tobin, Lawrence Klein, Robert Solow, Franco Modigliani, James Meade, John Hicks et Paul Samuelson, tous lauréats du Nobel d’économie, dominèrent l’école keynésienne et fournirent une assise intellectuelle à l’idée que l’intervention du gouvernement sous la forme d’un pilotage de la demande pouvait améliorer significativement les performances de l’économie.
Cependant, à son tour, le keynésianisme devint mûr pour subir des attaques, du fait de l’existence de deux défauts, l’un empirique et l’autre théorique.
- Sur le plan empirique, ce consensus ne pouvait s’accommoder des taux d’inflation et de chômage croissants des années soixante-dix.
- Sur le plan théorique, il laissait un vide si grand entre les fondements microéconomiques et la réalité macroéconomique qu’il ne pouvait être considéré comme intellectuellement satisfaisant.

Ces deux défauts ont été dénoncés avec le plus de vigueur et le plus de profondeur dans les travaux de Milton Friedman (1968) et d’Edmund Phelps (1968).
Selon la courbe de Phillips, on pouvait obtenir et maintenir, en permanence, un bas niveau de chômage simplement en tolérant un niveau élevé d’inflation.
À la fin des années soixante, alors que le consensus était encore à son apogée, Friedman et Phelps déduisirent des fondements microéconomiques des comportements que la relation empirique entre inflation et chômage tomberait si les décideurs politiques tentaient de l’exploiter. Ils pensaient que le taux de chômage naturel dépendait de l’offre et de la demande de travail, du temps de recherche optimal et d’autres considérations microéconomiques encore, mais non du taux moyen de croissance de la masse monétaire. Les événements qui suivirent donnèrent raison (mais le débat n’est pas clos ) à Friedman et à Phelps : l’inflation augmenta sans réduction durable du chômage.

Cela préparait le terrain pour l’attaque plus générale de Robert Lucas (1976) contre le consensus. Lucas affirma que nombre de relations empiriques qui supportaient les grands modèles macro-économétriques n’étaient pas mieux soutenues par les fondements microéconomiques que ne l’était la courbe de Phillips.
En particulier, les décisions déterminant la plupart des variables macroéconomiques, comme la consommation ou l’investissement, dépendaient de façon cruciale des anticipations sur la future marche de l’économie. Les grands modèles traitaient le problème des anticipations d’une manière cavalière, le plus souvent en s’appuyant sur des hypothèses certes plausibles mais arbitraires. Lucas insista sur le fait que la plupart des interventions politiques modifiaient la façon dont les individus formaient leurs anticipations. Cependant les hypothèses sur ces anticipations utilisées dans les modèles ne parvinrent pas à prendre en compte les changements dans la formation des anticipations. Lucas en déduisit donc que ces modèles ne devaient pas être utilisés pour évaluer l’impact de politiques alternatives.

La critique de Lucas devint le cri de ralliement pour tous les jeunes loups désireux de détruire le consensus. Les défenseurs du consensus soutinrent que les utilisateurs des modèles étaient déjà conscients du problème décrit si énergiquement par Lucas, mais que les modèles n’en demeuraient pas moins informatifs s’ils étaient utilisés avec prudence et discernement : la critique de Lucas portait juste sur le principe, mais sans conséquences pratiques, croyaient-ils pouvoir conclure. Cependant, leurs arguments ne furent finalement pas pris en compte.

La nouvelle macroéconomie classique.

En réalité cette situation traduisait un double mouvement.
- D’abord, à partir de la fin des années 1950, les idées de Milton Friedman exercèrent une influence croissante sur ses collègues économistes. Au Royaume-Uni, au début des années 1970, les travaux de David Laidler et de Michael Parkin, ainsi que l’influence de Harry Johnson, ont servi la diffusion des idées monétaristes. Karl Brunner, Alan Meltzer et le conseiller économique de Mme Thatcher, Alan Walters, étaient d’autres avocats notables de l’approche monétariste. Durant cette période, particulièrement aux États-Unis, les keynésiens de moins de 40 ans devinrent une rareté.
- Ensuite les critiques monétaristes furent submergées par la marée montante des contributions des nouveaux classiques. Ce nouveau courant anti-keynésien était si puissant que, vers le milieu des années 1970, la nouvelle macroéconomie classique était devenue la principale alternative au système keynésien. Le fait que les idées monétaristes les plus recevables aient été absorbées, sous une forme édulcorée, dans l’analyse keynésienne centrale, est l’une des raisons du déclin du monétarisme dans le débat théorique. En dépit de cela, à la fin des années 1970, en particulier aux États-Unis, l’impression selon laquelle la nouvelle macroéconomie classique allait devenir la nouvelle force dominante semblait se confirmer. La nouvelle école classique, sous l’inspiration des travaux innovants de Robert Lucas (1972, 1973) qui en est le chef de file reconnu (Nobel), compte Thomas Sargent, Neil Wallace, Robert Barro, Edward Prescott et Patrick Minford parmi ses avocats les plus éminents.

La nouvelle macroéconomie classique était considérée comme une variante du monétarisme, James Tobin (1981) ayant écrit de cette école qu’elle était le “monétarisme version 11”. Cependant, il est devenu évident que la nouvelle école classique doit être considérée comme un corps de pensée séparé, notamment en ce qui concerne la méthodologie et les postulats qu’elle adopte. L’objectif de la nouvelle macroéconomie classique est de reconstruire toute la macroéconomie en s’appuyant sur les fondements microéconomiques des préférences. Les agents optimiseraient toujours pour tous leurs choix et les marchés sont toujours en situation d’équilibre. Les monétaristes friedmaniens reconnaissaient au contraire l’existence de situations de déséquilibre. Ceci est particulièrement vrai de la variété la plus récente de la nouvelle macroéconomie classique, c’est-à-dire l’école du cycle économique réel, qui met l’accent sur les facteurs influençant l’offre, plutôt que sur les incitations monétaires, dans leur explication des cycles. Les théories du cycle économique réel les plus récentes sont le fruit pour la plupart des travaux de Kydland et Prescott (1982) et de ceux de Long et Plosser (1983).

L’approche en termes d’équilibre des nouveaux classiques fut elle-même mise en question par un groupe dynamique de théoriciens néo-keynésiens qui préférèrent adapter la microéconomie à la macroéconomie plutôt que d’accepter la solution des nouveaux classiques consistant à adapter la macroéconomie aux fondements microéconomiques de l’ajustement des marchés de l’analyse néoclassique orthodoxe.

La nouvelle macroéconomie keynésienne

Au moment où de nombreux économistes tentaient d’expliquer les fluctuations économiques à l’intérieur du paradigme walrasien, nombre d’autres travaillaient sur l’approche non walrassienne qui avait évolué depuis la théorie générale de Keynes. Ce nouveau courant compte dans ses rangs des économistes notables tels que George Akerlof, Janet Yellen, Olivier Blanchard, Gregory Mankiw, Edmund Phelps, David Romer, Joseph Stiglitz.
S’il existe un seul thème qui unifie l’économie keynésienne, c’est la croyance que les fluctuations économiques ne traduisent pas la réponse efficiente au sens de Pareto de l’économie aux changements dans les goûts et les technologies, mais plutôt une faillite de grande ampleur du marché.

L’imperfection du marché qui revient le plus souvent dans les théories keynésiennes est l’incapacité des salaires et des prix à s’ajuster instantanément pour équilibrer l’offre et la demande. Sans aucun doute, la « viscosité » à court terme des salaires et des prix était l’hypothèse clé du consensus des années soixante. Et l’absence d’une justification théorique adéquate à cette hypothèse a été l’une des causes fatales au consensus.

Il existe au moins trois axes récents de recherches qui, chacun à sa manière, analysent l’incapacité des prix à maintenir les marchés à leur niveau d’équilibre. La plupart de ces recherches peuvent être interprétées comme des tentatives de revenir au consensus avec quelques modifications, en fournissant un fondement théorique incontestable au raisonnement microéconomique.
- Rigidité des prix et déséquilibre général - Il s’agit de montrer comment les marchés se comportent lorsque les prix ne sont pas fixés au niveau d’équilibre des marchés. Ce programme de recherches est connu sous le nom de théorie du déséquilibre (Malinvaud 1977, Benassy 1982). Un résultat important est celui qui conduit à la construction d’une nouvelle analyse du chômage mêlant le chômage classique et le chômage keynésien. Lorsque la nouvelle macroéconomie classique s’est développée, ce premier courant néo-keynésien a été obligé de poser la question de la rigidité des prix autrement. Il fallait expliquer comment certains agents peuvent fixer les prix.
_ - Contrats de travail et rigidité des salaires - Cette recherche est dominée par la théorie des contrats implicites” dans laquelle les salaires nominaux sont fixés par une autre procédure que celle du marché du travail.
- Concurrence monopoliste et rigidité des prix - Les inconvénients des modèles s’appuyant sur la rigidité des salaires nominaux ont porté au cours des années quatre-vingt l’intérêt des macroéconomistes keynésiens du marché du travail vers le marché des biens. Les plus gros efforts ont été consacrés à l’étude du comportement des entreprises en situation de concurrence monopolistique, qui encourent des petits coûts d’annonce (menu costs) lorsqu’elles changent leurs prix (Mankiw, 1985 ; Georges Akerlof et Janet Yellen, 1985 ; Michel Parkin, 1986 ; Olivier Blanchard et Kiyotaki Nohiburo, 1987 ; Julio Rotemberg et Garth Saloner, 1987 ; Laurence Ball, Mankiw et David Romer, 1989). Au sens littéral, ces coûts représentent les fonds nécessaires pour afficher de nouvel les listes de prix. D’une façon plus réaliste, ils incluent le temps nécessaire à l’information des clients, le désagrément causé aux clients par les changements de prix et l’effort nécessaire pour réfléchir au changement de prix lui-même.

Toutefois les recherches portant sur la rigidité des salaires n’ont pas disparu.
De tous les types de rigidités réelles sur le marché du travail qui ont été abordés, les modèles de salaire d’efficience ont été probablement les plus populaires (Yellen, 1984 ; Jeremy Bulow et Summers, 1986 ; Katz, 1986 ; Joseph Stiglitz, 1986). La caractéristique commune de ces modèles est que les entreprises ne réduisent pas les salaires pour réagir à un chômage persistant parce que cela réduirait la productivité.

Des courants moins reconnus

- L’œuvre de Ludwig von Mises et celle de Friedrich von Hayek, ont inspiré une approche spécifiquement autrichienne de l’analyse économique et en particulier de l’explication des fluctuations cycliques. Les avocats modernes de l’approche autrichienne comptent notamment Israel Kirzner, Karen Vaughn et Roger Garrison.

- Il y a également une école de pensée qui descend des contemporains et des disciples les plus radicaux de Keynes. Cette école, dite post-keynésienne, tire son inspiration et son approche originale des écrits de Joan Robinson, Nicholas Kaldor, Michael Kalecki, George Shackle et Piero Sraffa. Parmi les partisans contemporains de cette approche, on compte notamment Paul Davidson, Jan Kregel, Victoria Chick et Hyman Minsky.

- Enfin il faut faire une place pour un courant qui se développe aux frontières du marxisme et du keynésianisme en Europe : l’école de régulation. Même si les analyses développées par Michel Aglietta, Robert Boyer, Benjamin Coriat, Alain Lipietz, Jacques Mistral, sont peu reconnues par l’économie académique (le dictionnaire encyclopédique Palgrave consacre cependant un article à la présentation de leur travail), elles sont si souvent présentes dans les débats en France qu’elles font aujourd’hui partie du paysage théorique dominant.

Quel objet pour la macroéconomie contemporaine

L’objectif principal de la macroéconomie est d’expliquer des phénomènes tels que les mouvements de la production, de l’emploi et du niveau des prix. Toute évaluation de l’une de ces théories devra tenir compte de sa capacité à expliquer les “faits stylisés” qui caractérisent les phénomènes macroéconomiques. Par « faits stylisés », il faut comprendre les grandes régularités qui ont été identifiées à travers les propriétés statistiques des séries chronologiques.
Les cycles économiques sont des fluctuations caractéristiques de la vie économique des agents qui organisent principalement leurs activités dans le cadre d’entreprises privées. Un cycle est composé de phases d’expansion intervenant à peu près au même moment dans un grand nombre d’activités économiques, suivies de récessions et contractions du même type, ainsi que de reprises qui dénotent que la phase d’expansion du cycle suivant est enclenchée ; cette séquence de variations est récurrente mais non périodique, et la durée des cycles varie d’un à dix ou douze ans. L’identification par Burns et Mitchell avant la seconde guerre, confirmée par des recherches ultérieures, de mouvements relativement simultanés des variables économiques, évoluant de manière prévisible au cours du cycle, a conduit certains chercheurs (particulièrement ceux qui se réfèrent à la pensée libérale) à soutenir que “si les cycles sont tous semblables cela suggère la possibilité d’une explication unifiée des cycles, fondée sur les lois générales qui gouvernent les économies de marché” (R. Lucas est un bon exemple de cette démarche). Sans aller si loin, il est évident que les explications théoriques du cycle doivent généralement être basées sur l’identification des propriétés statistiques des déviations simultanées, par rapport à la tendance, du PIB et d’autres agrégats économiques.

Pour être tout à fait fructueuse, une théorie du cycle doit non seulement expliquer le comportement cyclique de variables telles que la production et l’emploi, mais aussi ceux de toutes les variables économiques importantes.

Quels sont ces faits stylisés typiques du cycle, que toute théorie macroéconomique valable se doit d’expliquer ?

Il existe une importante controverse au sein de la macroéconomie, à propos des causes des fluctuations de l’activité économique. Cependant il y a un consensus assez général à propos des faits empiriques constitutifs du cycle, mais ce consensus a été sérieusement mis en question ces dernières années.
Cette mise en question a d’importantes implications sur le jugement que l’on porte sur les différentes théories.

Les principaux faits stylisés, sont les suivants :
- Les mouvements cycliques sont communs à l’ensemble des secteurs de l’économie.
- La production industrielle, la consommation et l’investissement sont pro cycliques et simultanés.
- Les dépenses publiques tendent aussi à être pro cycliques.
- L’investissement est beaucoup plus fluctuant que ne l’est la consommation, encore que la consommation de biens durables soit fortement pro cyclique.
- L’emploi est pro cyclique et le chômage est contra cyclique
- Le salaire réel et la productivité moyenne du travail sont pro cycliques, bien que le salaire réel ne soit que légèrement pro cyclique.
- L’offre de monnaie et le prix des actions sont pro cycliques et conduisent le cycle.
- L’inflation (et par conséquent le niveau des prix) et les taux d’intérêt nominaux sont pro cycliques, mais retardés par rapport aux autres variables.
- Le taux d’intérêt réel est acyclique.

Des faits stylisés du même ordre logique peuvent être mis en évidence pour la dynamique de long terme (les théories de la croissance). La version de référence donnée par N. Kaldor en 1963, est encore discutée aujourd’hui par les tous les théoriciens de la croissance (même ceux qui appartiennent à des courants éloignés de l’école de Cambridge) :
- La production par tête croît à un taux relativement constant
- Le capital physique par tête croît avec le temps
- Le taux de rendement du capital est approximativement constant
- Le rapport du capital physique à la production est approximativement constant
- Les parts respectives du travail et du capital physique dans le revenu national sont approximativement constantes.
- Le taux de croissance de la production par tête est très variable d’un pays à l’autre.

Les programmes de recherches de la macroéconomie contemporaine sont ainsi éclairés.


Accueil | Contact | Plan du site | | Statistiques du site | Visiteurs : 7153 / 1126278

Suivre la vie du site fr  Suivre la vie du site Économie générale  Suivre la vie du site L’économie et son domaine  Suivre la vie du site Compléments   ?    |    titre sites syndiques OPML   ?

Site réalisé avec SPIP + AHUNTSIC

Creative Commons License