Cours de la pensee economique contemporaine
Cours de la pensée économique contemporaine
Depuis la parution en 1936 de la Théorie générale, ouvrage de référence de Keynes, la pensée macroéconomique est structurée autour de deux grands courants – les classiques et les keynésiens –, l’accent étant mis tantôt sur leur opposition, tantôt sur leur réconciliation possible au sein d’une « synthèse ». Ainsi, à la synthèse autour du célèbre schéma IS-LM, interprétation dominante dans les années 1950 et 1960, a succédé un nouveau moment de conflit avec la remise en cause des politiques d’inspiration keynésienne par le courant des anticipations rationnelles baptisé aussi « nouvelle économie classique ». La « nouvelle économie keynésienne », qui émerge en réaction, débouche sur une deuxième synthèse à la fin des années 1970. Une troisième, encore en débat, semble se constituer aujourd’hui. Alors que les deux précédentes reposaient respectivement sur les interactions des marchés et sur les équilibres à prix fixes, celle-ci serait fondée, selon Bruno Ventelou, sur l’étude des comportements humains dans un contexte d’incertitude. Elle fait appel aux travaux récents de « l’économie comportementale ».
Au XIXe siècle et au début du XXe , la succession des différents courants fondateurs de l’économie politique avait laissé l’impression d’une discipline extraordinairement éclatée, faite d’écoles de pensée rivales communiquant peu, ou uniquement par affrontement sur des hypothèses essentielles mais inconciliables : rationalité des acteurs (ou pas), individualisme méthodologique (ou pas), mathématisation et référence à l’équilibre des systèmes dynamiques (ou pas). Dans les années 1950 et 1960, cependant, l’économie entre dans un moment particulier de son histoire : les deux écoles de pensée les plus visibles à l’époque, néoclassique et keynésienne, donnent l’image d’une certaine collaboration. La discipline semble alors progresser par révisions successives, à partir de critiques ne remettant plus en cause radicalement un corpus scientifique plus ou moins stabilisé et constitué de facto par l’addition des (deux) courants dominants. Même si l’on tend ici à négliger les périphéries de la pensée économique (1), le moment est intéressant à étudier. Il traduit un effort de « scientifisation » de la discipline, qui de fait dure encore.
De 1936 à aujourd’hui, on peut distinguer trois synthèses « keynéso-classiques » successives, de nature très différente : l’une basée sur l’interaction des marchés, la seconde sur les équilibres à prix fixes, et la dernière qui mobilise le champ luxuriant de l’économie comportementale. Ceci nous amènera jusqu’à l’époque la plus contemporaine puisque nous rencontrerons des travaux cherchant à interpréter la crise financière de 2008 à partir d’éléments de psychologie cognitive sur les marchés financiers, abordés par Keynes dès 1936, mais reformulés par des économistes d’aujourd’hui participant au développement de la théorie de la décision.
La première synthèse : IS-LM et ses extensions
L’interprétation par John Hicks de l’œuvre de Keynes
Longtemps enseigné comme le Graal de la macroéconomie élémentaire (quasiment tous les cours de macroéconomie des années 1950 jusqu’aux années 1990 commençaient par là), le modèle IS-LM reste le moment emblématique de la première « synthèse » keynéso-classique. Celle-ci intervient en fait à peine quelques mois après la publication de la Théorie Générale avec l’article de John Hicks, « Mr Keynes and The ‘‘Classics’’ : a Suggested Interpretation », publié en 1937 dans la revue scientifique Econometrica. Dans cet article, John Hicks s’efforce de concilier une approche en termes d’équilibre général de marché (disons la tradition de l’équilibre néoclassique walrasien) avec une partie du propos de Keynes. Cela donne le modèle « ISLM ». Hicks n’est pas isolé ; de nombreux membres du milieu des économistes cambridgiens et oxfordiens (Roy Harrod, Richard Kahn, et James Meade) se sont efforcés, dès 1936, de mettre les relations décrites pas Keynes sous forme mathématique, notamment lors d’un colloque tenu à Oxford en septembre.
Chez Hicks, l’accent est mis sur la relation entretenue entre deux types de marché : les marchés monétaires (et financiers) dont découle le taux d’intérêt et le marché des biens et services qui détermine le niveau d’activité et, partant, le niveau d’emploi. Le taux d’intérêt se situe très exactement à l’interface des comportements risqués, voire « spéculatifs », sur les marchés financiers et des décisions de production sur les marchés de l’économie réelle. Le modèle IS-LM n’est rien d’autre que l’étude de l’équilibre simultané de ces deux marchés, ce qui est, évidemment, une des thématiques centrales de la Théorie générale, mais est en accord, tout aussi évidemment, avec la logique walrasienne de marchés simultanément ajustés. D’où la revendication d’une « synthèse » entre les deux corpus. En étudiant le modèle IS-LM plus soigneusement, on apprend même que l’économie est plus volontiers keynésienne quand la courbe LM est « plate » (trappe à liquidité) et IS « verticale », et plus volontiers classique dans les cas inverses. Le cadre fourni par IS-LM permet donc de discuter des conditions de validité des deux courants de pensée en fonction de critères très techniques, éventuellement mesurables par les statistiques : par exemple, la sensibilité des comportements aux variations du taux d’intérêt.
Les raisons d’un succès
Le succès d’IS-LM est dû à deux faisceaux de causes bien différentes. D’abord, IS-LM a pu constituer un instrument de clarification du message de la Théorie générale pour bon nombre d’économistes parfois peu à l’aise dans la lecture du texte keynésien lui-même. Celuici n’est pas toujours simple à saisir ; le style de Keynes, la construction de son argumentaire présentent parfois des ambiguïtés... sans doute en partie délibérées. Le modèle IS-LM s’est empressé de gommer ces ambiguïtés. Le résultat en est alors une interprétation sans doute sélective, mais, simple et claire… et donc de nature à faciliter l’accès, au plus court, à la pensée de Keynes.
Seconde raison de la réussite de la « synthèse » : le modèle IS-LM et surtout ses extensions ont constitué, de fait, les outils incontournables de l’analyse et de la détermination des politiques économiques conjoncturelles, et ce, tout au long des années 1950 et 1960. Les politiques de stop and go sont anticipées et dimensionnées à partir de modèles physico-financiers dérivés d’IS-LM. Plus précisément, le modèle offre globale/demande globale (AS-AD), qui intègre la détermination du niveau général des prix, permet à l’autorité politique de régler finement l’activité économique par une séquence adaptée de décisions de politique budgétaire : lorsque le plein-emploi est atteint et que les tensions inflationnistes paraissent fortes, on décide du « stop », avec une réduction des déficits publics ; lorsqu’elles s’éloignent, on « relance (go) » pour recréer à nouveau des emplois, cette fois en creusant les déficits. L’intégration de la flexibilité des prix dans le modèle IS-LM avait l’immense avantage de reproduire parfaitement la courbe de Phillips que l’on pouvait alors observer statistiquement. C’est l’époque du « dilemme inflation-chômage » : la réduction du chômage s’associe nécessairement à de l’inflation, car c’est en jouant sur l’illusion monétaire des agents (les agents interprètent mal les signaux de prix) qu’on obtient une relance de l’activité. Ceci jusqu’à un certain point, où les agents réalisent leurs erreurs et ajustent leurs comportements (l’économie redevient alors « classique »).
Aujourd’hui, néanmoins, cette première lecture est largement contestée : il est vrai que la courbe de Phillips n’est plus vérifiée empiriquement. La contestation de la synthèse IS-LM n’a toutefois pas commencé avec la « stagflation » (la coexistence d’un chômage et d’une inflation élevés dans les années 1970). Depuis quasiment 1937, il est de bon ton chez les keynésiens « fondamentalistes » de relever ses imperfections et de proposer leur propre lecture, précisant justement qu’elle permet, mieux que la « synthèse IS-LM » qualifiée de mécaniste (ou « d’hydraulique »), de traduire la pensée keynésienne. John Hicks se prête d’ailleurs lui-même à ce petit jeu (2).
La seconde synthèse : la nouvelle économie keynésienne
La théorie du déséquilibre
Ce que l’on désigne par l’expression « nouvelle économie keynésienne » a en fait connu plusieurs noms au cours de son histoire. On a d’abord évoqué une « théorie du déséquilibre », ou « théorie des équilibres à prix fixes ». Deux auteurs majeurs dans l’interprétation de la pensée keynésienne, Robert Clower et Axel Leijonhufvud, sont à l’origine de cette appellation. Dans la première phase de cette école de pensée – représentée en France par Edmond Malinvaud –, on postule une rigidité des prix : il est difficile de réviser des prix, ne serait-ce qu’en raison des coûts d’étiquetage. Puis, il s’agit, sur la base des intuitions proposées par Keynes dans divers écrits (3), de réintroduire la monnaie dans l’étude de la dynamique de l’équilibre général walrasien. En présence de « faux prix » (prix rigides), les marchés ne sont pas équilibrés (offre et demande). La monnaie sert alors de refuge aux transactions insoldées et perd sa propriété de neutralité (propriété « classique » selon laquelle les comportements réels sont insensibles à l’étalon monétaire et sont donc indépendants des tentatives de manipulation de l’offre de monnaie par les autorités politiques). Dans cette école de relecture, on pense que l’équilibre général walrasien corrigé de la fiction du commissaire-priseur constitue le meilleur cadre de réinterprétation de la théorie keynésienne. Là encore, on se situe dans une perspective d’enrichissement croisé des deux corpus, classique et keynésien.
La « nouvelle économie keynésienne », en réaction à la « nouvelle économie classique »
Aujourd’hui, il s’agit surtout pour ce courant, à côté de la question monétaire, d’expliquer pourquoi les prix sont « faux » (ou « rigides »). À la fin des années 1960 et au début des années 1970, la théorie des anticipations rationnelles provoque un véritable délitement des résultats keynésiens : l’article de Robert Lucas (1976) (4) montre l’inefficacité des politiques monétaires et celui de Robert Barro (1974) (5) l’inefficacité des politiques budgétaires. Barro et Lucas sont des « nouveaux classiques » ou des théoriciens des anticipations rationnelles, comme on les appelle alors. L’hypothèse d’anticipations rationnelles, en pratique, équivaut à poser que la capacité de calcul et de traitement de l’information des agents est sans limite, et qu’il est donc vain de brouiller les signaux des marchés privés par des interventions publiques. On peut dire que l’ensemble de ces contributions cherche à invalider les versions mécanistes de la macroéconomie postkeynésienne, notamment celle basée sur IS-LM et le recours naïf aux politiques de stop and go. Les « nouveaux classiques » apportent l’idée d’une neutralisation quasi systématique – par les anticipations et comportements privés – des tentatives des gouvernements de manipuler l’activité économique.
Mais l’histoire ne s’arrête pas là. La « nouvelle économie keynésienne » (NEK) peut à son tour être présentée comme la contre-réaction keynésienne à cette nouvelle économie classique ; le choix du terme « nouveau (nouvelle) » sert alors à désigner les adversaires privilégiés. La NEK aurait donc parfaitement intégré et assimilé les critiques des anticipations rationnelles, à savoir la nécessité d’observer en détail ce qui se passe au niveau des comportements individuels. Mais il s’agit pour ce courant de faire (ré)apparaître, sur la base de comportements microéconomiques pourtant rationnels, les résultats keynésiens concernant la politique économique : on parle ici de fondements microéconomiques de la macroéconomie keynésienne.
Les résultats de la nouvelle économie keynésienne
L’intuition générale est que, malgré la rationalité des agents, les processus concrets de formation des prix sur les marchés peuvent être inefficients : les marchés échouent dans leur rôle d’allocation efficace des ressources. Il y a des défaillances ou échecs de marché (market failures), mais désormais les rigidités de prix sont identifiées comme le résultat de processus endogènes, et non simplement postulés comme dans la première synthèse de Hicks ou dans les premières versions de la théorie du déséquilibre. Le plus souvent, ce sont des imperfections dans l’information mise à la disposition des agents qui sont à l’origine des défaillances. L’information est coûteuse voire complètement absente : les phénomènes de sélection adverse (information cachée) et d’aléa moral (comportement caché) (6) entraînent des coûts sur les transactions et viennent perturber la détermination des contrats. Les travaux de la NEK touchent tous les domaines de l’économie : le marché du travail, mais aussi les marchés financiers et les marchés des biens et services. Dans la lignée de l’économie de la concurrence imparfaite, l’organisation industrielle va aussi être prise en compte pour une meilleure explication de l’absence de flexibilité de certains prix : les ententes entre firmes, ou même entre travailleurs (au sein de syndicats) conduisent en général à déconnecter les prix de leur fonction de signal des variations conjoncturelles.
Enfin, à côté de « l’imperfection » des marchés, la NEK va aussi traiter de leur « incomplétude ». Fondamentalement, l’incertitude économique subie par les entrepreneurs au moment de la détermination de la demande effective doit être reliée à l’absence de marchés d’assurance contre les méventes : c’est parce que les entrepreneurs ne peuvent pas couvrir le risque d’un rationnement lors de la mise en vente de leur production que l’incertitude existe. C’est d’ailleurs en cela que l’on peut justifier la préférence de Keynes pour la consommation plutôt que pour l’épargne : la consommation réduit l’incertitude puisqu’elle constitue un débouché immédiat pour les entrepreneurs ; l’épargne, en tant que consommation différée, laisse subsister l’incertitude (7). L’incomplétude des marchés, le fait qu’il n’existe pas un système complet de marchés contingents (marchés des biens pour le présent et le futur), est donc la cause profonde des dysfonctionnements macroéconomiques. Les travaux de la NEK vont alors s’intéresser aux propriétés des marchés financiers à résorber cette incomplétude : sous certaines conditions précises, un marché à terme de produits financiers (actions, obligations, titres divers) constitue une assurance valable et un bon substitut aux marchés contingents. Dans d’autres situations, l’incertitude demeure : tout choc aléatoire externe se transforme en problème de coordination macroéconomique (8).
Les interprétations fondées sur l’incertitude radicale : Knight, Ramsay et la « Behavioral Economics »
Les deux synthèses passées en revue ont un point commun : elles mettent en valeur le rôle particulier et primordial de la notion d’incertitude dans l’articulation entre le projet keynésien et la pensée classique. Bien sûr, le rôle de l’incertitude est plus ou moins important selon les auteurs, allant de personnage principal à simple figurant. La définition de « l’incertitude » est aussi variable : tantôt elle est comparée à une simple information manquante ; tantôt elle est déclarée « radicale », c’est-à-dire relevant de la définition de Knight (l’incertitude en tant qu’univers « non probabilisable »). Cette dernière conception de l’incertitude est considérée par certains comme une clé d’interprétation fondamentale de l’œuvre keynésienne.
L’incertitude : une notion centrale dans l’œuvre de Keynes
Une lecture de Keynes basée sur l’incertitude est d’abord redevable des écrits de Keynes lui-même, qui tente de (re)donner à sa propre pensée sa véritable dimension. Pour cela, deux textes se sont révélés d’un intérêt capital : le Traité des probabilités (une œuvre de jeunesse de Keynes, commencée alors qu’il étudiait encore la Logique avec Bertrand Russell) (9) ; et un petit texte de 15 pages, la Théorie générale de l’emploi, publié par Keynes en 1937 et présenté comme une sorte de résumé de son livre de 1936 (10). Keynes y reprend une partie des analyses déjà développées dans le Traité des probabilités : l’incertitude se définit par le très faible poids accordé aux raisonnements logiques. Les procédés rationnels d’interprétation et surtout de prévision du réel sont alors difficilement validés et, en pratique, très peu utilisés par les agents. Faute d’une base stable pour élaborer des anticipations, d’autres règles de comportement émergent. Keynes invente alors l’oxymore des « croyances rationnelles » (« rational beliefs »). Cette position selon laquelle des croyances, initialement arbitraires mais validées par l’expérience collective, peuvent fonder des jugements probabilistes inspirera un jeune étudiant cambridgien, F.P. Ramsey, dont les travaux partent d’une lecture critique du Traité des probabilités. L’avenir fera cependant de Ramsey (1926) l’initiateur d’un courant d’interprétation majeur en théorie des probabilités, le courant « subjectiviste ».
Dans la Théorie générale (chapitre 12), Keynes limite le champ des comportements affectés par l’incertitude aux comportements financiers. Dans l’article de 1937, le domaine s’étend à l’ensemble des comportements économiques : l’économie tout entière devient une véritable « économie de casino ». Dans ce cas, pour reprendre les termes mêmes de Keynes, il ne reste plus qu’à nous comporter, « afin de sauver la face en tant qu’hommes rationnels », en adoptant trois techniques face à l’incertitude :
- considérer que le présent est le meilleur des guides de l’avenir : il n’y a donc pas de sauts brusques entre le présent et le futur ;
- considérer que les agents qui nous entourent se font une opinion correcte de ce futur ;
- et donc se conformer à l’opinion moyenne. C’est- à-dire, agir « conventionnellement ».
Dans le chapitre 12 de la Théorie générale, Keynes comparait déjà les comportements financiers à un concours de beauté un peu particulier : pour le jury, il ne s’agit pas de déterminer qui est la plus belle jeune fille, mais de déterminer quelle est, parmi les concurrentes, celle qui remportera le plus de suffrages. Mêmes règles pour les comportements financiers : il ne s’agit pas, pour choisir le bon placement, de déterminer le titre et l’entreprise la plus performante mais de déterminer le titre que les « autres » vont choisir... la meilleure garantie d’une évolution favorable du cours : « il vaut mieux (...) échouer avec les conventions que réussir contre elles » (11). Au sens où on l’a déjà défini, les comportements financiers sont autoréférentiels : il faut s’occuper de ce que son groupe de référence pense, et non pas de ce qui lui est extérieur (la santé réelle de l’entreprise, par exemple). Une finance d’autoréférence prend le pas sur l’activité réelle : des « bulles spéculatives » apparaissent (et ce, même en présence d’agents à anticipations rationnelles) et les « krachs » ne sont que le moment, inévitable, du retournement de ces anticipations collectives. Deux économistes très contemporains, George Akerlof et Robert Shiller, ont publié en 2009 un ouvrage développant cette vision keynésienne de l’économie pour expliquer la crise de 2008 (12). Le titre – Animal spirits, emprunté à Keynes – résume bien l’idée fondamentale : nous ne sommes pas des homo oeconomicus omniscients et la plupart de nos décisions sont influencées par nos « esprits animaux », expression qui renvoie à une impulsion, un besoin spontané d’action de l’investisseur, qui provient davantage de la part animale de l’homme que de sa « raison raisonnante ».