La cumulativité du savoir en économie
Cet article a servi de support à la conférence de Bernard Walliser le 4 novembre 2010, au Cercle d'Épistémologie Économique, un séminaire consacré aux questions d'épistémologie économique, de philosophie économique et d'histoire de la pensée économique. Il se réunit une ou deux fois par mois à la Maison des Sciences Économiques à Paris, le jeudi de 18h à 20h, autour d'un intervenant extérieur, chargé de présenter un nouveau domaine de recherche ou de défendre les thèses d'un article ou d'un ouvrage qu'il ou elle a récemment publié. Ce séminaire rassemble des chercheurs venant d'horizons disciplinaires variés : l'économie, mais également la philosophie politique, la sociologie, l'histoire intellectuelle, la philosophie des sciences, l'histoire des sciences, la sociologie des sciences, l'histoire économique. Il cherche à nourrir la réflexion sur les fondements des sciences sociales en général et de l'économie en particulier.
Le séminaire est animé par Annie L. Cot (Professeur de sciences économiques, Université de Paris 1 Panthéon-Sorbonne, Centre d'Économie de la Sorbonne) et Jérôme Lallement (Professeur de sciences économiques, Université Paris Descartes, Centre d'Économie de la Sorbonne).
Le texte de Bernard Walliser est publié avec l'aimable autorisation des organisateurs du séminaire et du conférencier.
Science sociale parmi d'autres, l'économie s'en démarque par l'accroissement rapide du savoir reconnu par les professionnels de la discipline. Les trente dernières années ont connu une forte démultiplication des ouvrages et des articles publiés dans les revues savantes. Cette accélération quantitative du savoir s'est accompagnée d'une restructuration permanente pour en faciliter l'utilisation par les praticiens et l'assimilation par les usagers. A toute époque, les manuels proposés développent en tous lieux des conceptions fort voisines, exprimées en des termes quasi identiques. D'une époque à l'autre, les manuels enrichissent conjointement leurs schémas conceptuels en les révisant et en les complétant. Peu d'économistes contestent l'idée qu'ils en savent plus aujourd'hui qu'hier, au sens où ils détiennent plus de clés pour comprendre l'environnement économique. Mais ces mêmes économistes considèrent que cet accroissement du savoir résulte d'un travail de fourmi incessant pour suggérer et débattre des idées nouvelles.
Par rapport aux autres sciences sociales, l'économie a bénéficié de trois conditions particulièrement favorables à la cumulativité du savoir. La première tient à l'ontologie unitaire retenue par la discipline, à savoir une représentation du système économique en termes de coordination entre acteurs. Toute situation observable est invariablement analysée comme un état d'équilibre temporaire entre des agents supposés suffisamment rationnels. La deuxième tient à une base empirique de la discipline aisément accessible, si l'on s'en tient à son objet traditionnel en termes de rapports des hommes aux biens. Les transformations des biens comme les transactions sur les biens se présentent comme des opérations aux caractéristiques facilement observables. La troisième tient à la méthodologie consensuelle préconisée par la discipline, à base de schémas conceptuels exprimés dans un langage formel. Les idées économiques sont "capturées" sans trop de peine dans des modèles autonomes aisément manipulables et transmissibles.
Le présent chapitre est divisé en trois parties. La première concerne la cumulativité synchronique du savoir, à savoir la commensurabilité immédiate des connaissances diverses de la discipline. La seconde concerne la cumulativité diachronique du savoir, à savoir la structuration progressive des connaissances au cours du temps. Chacune de ces parties se décline elle-même en trois sections respectivement consacrées aux principes théoriques, aux données disponibles et aux modèles agissant comme médiateurs à un niveau intermédiaire. Chaque objet conceptuel est lui aussi examiné selon ses trois dimensions usuelles, sa structure mathématique, son champ d'application et son interprétation sémantique. Quant à la troisième partie, elle décrit l'évolution concrète de la discipline sur le long terme, en distinguant trois périodes successives. La première concerne la coexistence de paradigmes concurrents (1870- 1950), la seconde traite de la domination des modèles formels (1950-2000), la troisième annonce la revanche de l'empirie (2000-…).
1. Facteurs synchroniques de la cumulativité
1.1. Un cadre ontologique unitaire
L'économie repose sur une ontologie minimale qui s'efforce d'articuler trois niveaux d'emboîtement, chacun caractérisé par des notions spécifiques. Le "niveau psychique" s'intéresse aux états mentaux des acteurs, à savoir essentiellement leurs croyances et leurs préférences. Le "niveau comportemental" s'intéresse aux actions que les acteurs mettent en œuvre, qu'elles soient de nature matérielle ou informationnelle. Le "niveau social" s'intéresse aux phénomènes collectifs issus des interactions entre les acteurs, qu'ils se déclinent comme combinaisons d'actions, comme réseaux d'interaction ou comme institutions émergentes. A la transition entre deux niveaux agissent des principes spécifiques, qui sont regroupés en un nombre réduit de schémas simples. La transition entre les niveaux psychique et comportemental est fondée sur le modèle rationnel de choix individuel. La transition entre les niveaux comportemental et social est fondée sur une notion d'équilibre assurant la coordination entre les acteurs.
Le champ d'application de ce cadre conceptuel est a priori très large du fait de la généricité des concepts et des principes mobilisés. Son expression la plus classique est la théorie des jeux, qui met en scène les interactions stratégiques qui sont mises en œuvre par des acteurs rationnels (von Neumann, Morgenstern, 1944). Celle-ci s'applique tout naturellement à la théorie économique, le système économique étant considéré comme un vaste jeu joué par des producteurs et des consommateurs. Elle est d'abord mobilisée dans des situations de marché de concurrence parfaite, où les comportements des agents sont considérés comme réactifs (aux seuls prix) plutôt que réflexifs (aux actions des autres). Elle est ensuite appliquée à un marché de concurrence imparfaite, où des agents en nombre restreint et pleinement délibératifs disposent cette fois d'un réel pouvoir de marché. Plus avant, elle est mise en œuvre dans des domaines économiques spécifiques comme les situations d'enchères ou de négociation.
Si le cadre conceptuel retenu adopte une structure plutôt figée, l'interprétation qui en est donnée en reste très détachée, ce qui confère au cadre une grande souplesse. Plus précisément il donne lieu à de multiples interprétations, cette pluralité étant acceptée et même encouragée par les économistes. D'une part, les concepts font l'objet d'interprétations souvent emboîtées, plus rarement contradictoires. Ainsi, le concept d'utilité est interprété comme une expression quantitative des préférences (utilité d'un bien physique), mais il peut recouvrir les seules satisfactions matérielles et personnelles ou inclure des satisfactions symboliques et altruistes (utilité d'un cadeau). D'autre part, les principes héritent leurs interprétations des concepts qu'ils mobilisent et deviennent eux-mêmes multivoques. Ainsi, le principe d'équilibre est vu comme l'expression d'une simple contrainte physique sur les actions (égalité ex post entre offre et demande) ou comme la manifestation d'un processus concret visant à les articuler (mécanisme boursier).
Ce cadre conceptuel, qui traduit un consensus sur le degré d'idéalité admissible des théories, facilite grandement la cumulativité synchronique du savoir théorique. En effet, il définit pour le moins un langage savant de référence qui permet une communication et une discussion aisée entre les économistes. Tout économiste se reconnaît comme membre d'une communauté intellectuelle lorsqu'il discute des techniques à rendements croissants, des agents qui arbitrent entre leurs coûts et leurs avantages, des prix qui reflètent tant la rareté que l'utilité des biens. Plus profondément, ce cadre crée un "socle commun", qui définit l'orthodoxie sur laquelle viennent ensuite se greffer les analyses plus spécialisées. Tout économiste ressent une connivence avec ses collègues lorsqu'il met en avant les externalités induites par certains biens, les arbitrages intertemporels que les acteurs sont amenés à effectuer ou les asymétries d'information qui règnent entre les acteurs.
Cependant, des dissonances sur les concepts et des hétérodoxies sur les principes sont susceptibles de rompre le consensus entre économistes. Ces divergences se manifestent par le rejet de certains éléments constitutifs du cadre conceptuel lui-même. Ainsi, dans une perspective marxiste, l'accent est mis sur le conflit entre différentes classes sociales, à savoir des entités collectives qui sont dotées d'états mentaux propres et qui s'affrontent directement. Ces divergences interviennent plutôt lorsque l'on tente de spécifier plus précisément les principes de base. Ainsi, dans une vision néo-institutionnaliste, les institutions jouent un rôle central de polarisation des agents dans la lutte contre toute forme d'incertitude, même si elles étaient déjà présentes dans le cadre traditionnel. Enfin et surtout, ces divergences s'affirment au niveau des interprétations relatives au cadre conceptuel. Ainsi, dans la conception de l'école autrichienne, des incertitudes de toutes natures sont supposées affecter le comportement individuel, sans pouvoir être complètement conceptualisées.
1.2. Une base empirique partagée
L'économie repose d'abord sur des catégorisations de ses deux entités de base, les agents et les biens (à défaut des institutions). Elle construit des nomenclatures de granularité variable qui concernent tant les personnes (catégories socio-professionnelles, qualifications) que les produits. L'économie s'appuie ensuite sur des grandeurs de base qui correspondent à des attributs des biens échangés et sont pour l'essentiel quantifiables. Elles sont directement exprimées par des grandeurs physiques (caractères physiques, quantités) ou sont ramenées à un étalon commun, en l'occurrence monétaire (prix, revenus). Ces grandeurs sont enfin combinées entre elles pour former des indicateurs composites, toujours quantifiés, dans le cadre unifié de la Comptabilité Nationale ou des comptabilités d'entreprises. C'est ainsi que sont calculées des grandeurs agrégées, qu'il s'agisse d'indices des prix, d'indices de coût ou d'indices d'activité (PIB), dont la définition est désormais coordonnée entre les pays.
Le champ alloué au recueil des données est très étendu, que ces données soient engrangées spécifiquement à des fins "scientifiques" (données d'enquêtes) ou soient le simple sous-produit de l'activité économique (données comptables). Du point de vue qualitatif, s'il existe trois types de données associés aux trois niveaux d'analyse introduits, elles sont recueillies selon deux méthodes. Les données "historiques" sur les structures globales et les actions des acteurs sont rassemblées sur le terrain par les organismes de statistiques. Les données "expérimentales" sur les états mentaux et les intentions des acteurs sont recueillies en laboratoire par l'économie comportementale. Du point de vue spatio-temporel, les données sont associées à des échelles spatiales et temporelles plus ou moins régulières et souvent emboîtées. Ainsi, les prix sont collectés sur des espaces plus ou moins étendus (agents, régions, pays) et sur des périodes plus ou moins longues (de la seconde à l'année).
L'interprétation des données est là encore multivoque, et peut se détacher des motivations initiales qui ont guidé leur recueil. En effet, les grandeurs sont collectées pour répondre à une demande sociale dans le respect d'impératifs techniques, mais sont ensuite librement disponibles pour d'autres usages. Cette multivocité est déjà présente au niveau des nomenclatures. Ainsi, les catégories d'agents traduisent aussi bien des clivages économiques (selon leurs revenus ou leurs emplois) que des discriminations extra-économiques (selon leurs statuts ou leurs rôles). Elle est omniprésente au niveau des grandeurs élémentaires. Ainsi, la qualité d'un produit est difficile à évaluer et traduit, au-delà de ses seules caractéristiques physiques, les divers usages qui en sont faits. Elle se manifeste surtout en ce qui concerne les indicateurs agrégés. Ainsi, l'indice des prix à la consommation peut être défini de diverses façons selon le groupe de référence visé et l'utilisation envisagée, en réponse à l'objection "indice unique, indice inique".
Une base de données centralisée, ouverte et commune à tous les utilisateurs potentiels, rend plus aisée la cumulativité synchronique du savoir factuel. Tout d'abord, ces données sont rendues commensurables du fait qu'elles sont "formatées" dans un même cadre théorique et "nettoyées" pour éliminer des anomalies supposées. C'est ainsi que la Comptabilité Nationale repose sur un schéma théorique keynésien qui redresse et met en cohérence les différents agrégats macroéconomiques en les soumettant à des contraintes globales. Ensuite, ces données se veulent comparables dans la mesure où elles résultent certes de définitions largement conventionnelles, mais selon des conventions partagées par la profession. Ainsi, il est possible de construire, malgré l'évolution incessante des caractéristiques des produits, des indices de prix à la consommation qui s'avèrent significatifs, sinon en niveau, du moins en variation.
Cependant, cette cumulativité est parfois battue en brèche par une sélection sévère effectuée sur les données accessibles. Tout d'abord, les données générales peuvent être récusées en tant qu'elles sont fondées sur des principes théoriques étrangers à un certain courant. Ainsi, les croyances et préférences exprimées par les agents eux-mêmes sont récusées par des écoles d'obédience behavioriste stricte. De même, certaines données sont mises en cause lorsqu'elles sont recueillies dans un contexte par trop différent de leur utilisation. Ainsi, le PIB recèle divers doubles emplois ou comptabilise des activités improductives qui en font un indicateur d'activité plus qu'un véritable indicateur de bien-être collectif. Mais c'est plus souvent l'interprétation des données, liée à leur mode d'obtention, qui se trouve être mise en cause. Ainsi, les données sur la consommation de drogue sont sujettes à des biais systématiques qui les rendent impropres à la détermination de mesures visant à prévoir son extension et à l'enrayer.
1.3. Une méthodologie consensuelle
Dans la vaste zone intermédiaire entre les principes théoriques et les données factuelles, de nombreux modèles économiques sont proposés. Ils couvrent un large spectre allant des modèles les plus théoriques, fondés sur des bases axiomatiques, aux modèles les plus empiriques, appuyés sur des régularités observables. Ce qui les rapproche est l'utilisation d'un langage formel, permettant de dériver d'hypothèses précisément définies des conséquences rigoureusement déduites. Les outils mathématiques utilisés sont essentiellement le calcul différentiel classique, en temps discret plutôt que continu, qui s'applique à un système d'équations reliant des variables datées et des facteurs aléatoires. Les conséquences des modèles sont obtenues soit par résolution analytique, soit par simulation numérique. La seconde s'impose lorsque la première s'avère impossible pour des raisons de complexité, mais peut aussi préparer la première à travers des résultats exemplaires qui balisent le champ des possibles.
Un même modèle peut être progressivement spécifié dans son expression pour s'appliquer à des entités de mieux en mieux délimitées. Dans sa formulation la plus générique, la théorie des jeux étudie très généralement des acteurs autonomes qui sont en interaction stratégique. Ils mettent en œuvre des actions indéterminées, s'appuient sur des états mentaux quelconques et entretiennent des rapports bilatéraux sans médiation institutionnelle. Une expression plus précise en est donnée par le modèle du duopole qui étudie les rapports entre deux producteurs d'un bien face à une demande exogène. Les actions concernent la fixation des quantités produites (ou des prix) d'un bien quelconque, les préférences se réduisent aux profits, les croyances à la fonction de demande. Une expression plus précise encore concerne deux entreprises qui se partagent le marché d'un bien particulier. La demande anticipée des consommateurs comme la fonction de production des producteurs adoptent alors une forme analytique précise, par exemple linéaire.
L'interprétation d'un modèle intervient dès le contexte de la "découverte", qui s'avère très détaché du contexte ultérieur de la "justification". De plus, le modèle reçoit des interprétations multivoques, les modélisateurs pouvant cependant s'accorder sur les plus pertinentes. La variabilité de l'interprétation peut provenir des principes théoriques, lorsque diverses significations en sont données. Ainsi, la loi du revenu permanent, qui lie la consommation aux revenus présent et passés, s'interprète comme le fait que la consommation s'ajuste par inertie sur une moyenne des revenus passés ou s'ajuste sur une anticipation du revenu futur, elle-même évaluée en fonction des revenus passés. La variabilité peut aussi provenir des données empiriques, lorsqu'une corrélation entre variables peut recevoir diverses lectures causales. Ainsi, la relation de Phillips, qui relie inflation et chômage, peut traduire le fait que l'inflation augmente les coûts de production et diminue l'activité, ou que le chômage fait baisser les salaires et donc les prix.
Ce langage formel homogène, qui traduit un accord de la profession sur la méthode économique à suivre, facilite grandement la cumulativité synchronique du savoir. D'une part, la formalisation favorise la conception des modèles, en suggérant de multiples combinaisons entre des grandeurs bien répertoriées. Tout modèle adopte une forme modulaire, un module pouvant aisément être remplacé par un autre sans toucher au reste. Ainsi, les mécanismes d'enchères sont étudiés en conservant le même comportement des enchérisseurs, mais en modifiant la règle de fixation des enchères. D'autre part, la formalisation favorise la validation des modèles, en autorisant des tests qui conduisent à des réfutations strictes ou simplement statistiques. Tout modèle permet de tester si telle ou telle variable explicative exerce effectivement une influence sur une variable expliquée et si elle doit y être incorporée. Ainsi, la consommation de poisson est certes influencée par le prix, mais aussi par des facteurs météorologiques ou même religieux qui peuvent s'avérer importants.
Cependant, la formalisation est souvent analysée comme une condition nécessaire, mais non suffisante de la cumulativité. Tout d'abord, un formalisme global peut être récusé en raison de son inadéquation intrinsèque au problème posé. Ainsi, un psychologisme étroit peut considérer que le comportement humain n'est guère formalisable, même en termes aléatoires, du fait de la liberté de choix des acteurs. Ensuite, un formalisme plus spécifique est lui aussi rejeté en raison de son inadaptation, au moins provisoire, à certains phénomènes. Ainsi, le cumul du savoir d'un acteur, lorsqu'il est pratiqué sous une forme directement additive, est critiqué en tant que le savoir est fondamentalement structuré et n'est donc pas simplement sommable. Enfin, un formalisme va être exclu dans la mesure où il distord par trop l'interprétation d'un phénomène bien connu par ailleurs. Ainsi, une innovation technologique peut difficilement être modélisée, comme on a tenté de le faire, par la découverte d'un procédé qui est potentiellement déjà existant.
2. Modalités diachroniques de la cumulativité
2.1. Des importations théoriques sélectives
Les sciences de la nature n'ont cessé de suggérer des schémas conceptuels originaux susceptibles d'être adoptés par les économistes. Dans certains cas, elles proposent des mécanismes explicatifs complets, alliant une structure formelle déductive fondée sur des "principes" et une interprétation sémantique traduite par des "mécanismes". Ainsi, la mécanique classique a suggéré le transfert du principe d'optimisation (de l'hamiltonien) d'un système au principe d'optimisation (de l'utilité) d'un acteur, étant entendu que ce dernier agit au niveau individuel et non pas collectif (absence d'utilité collective). Elle a également introduit le principe d'équilibre, conçu comme état global stable en l'absence de perturbations de l'environnement, même s'il est réalisé en économie de façon intentionnelle et non pas causale. De même, la biologie évolutionniste a fourni un mécanisme d'évolution explicitement fondé sur les principes de variation et de sélection, le principe de transmission étant appliqué de façon plus lâche.
Dans d'autres cas, les sciences de la nature ne font que fournir des structures mathématiques, dûment détachées de leurs interprétations. Les analogies, au départ substantielles, se réduisent alors à des analogies purement formelles. Ainsi, le modèle newtonien d'attraction entre deux corps a été adapté formellement, par réinterprétation des grandeurs, au trafic entre deux villes. De même, le modèle d'Ising, qui explique l'aimantation d'un corps formé de particules à spins interdépendants, a été appliqué à des comportements binaires de consommateurs soumis à des externalités sociales. Par ailleurs, on peut remarquer que l'économie réutilise ses propres structures définies dans un de ses sous-domaines pour les appliquer à un autre sous-domaine. Il en ainsi pour les axiomes du choix individuel en situation de risque qui ont été transférés en axiomes du choix social. Il en est de même pour les notions d'équilibre entre plusieurs acteurs qui ont été appliquées à la coordination des "selfs" multiples successifs d'un même acteur.
Par ailleurs, les sciences sociales fournissent des éléments conceptuels divers qui sont phagocytés par l'économie, en particulier par la théorie des jeux. Le plus souvent, des concepts sont intégrés au cadre usuel après une délicate opération de traduction. Ainsi, le concept de menace proférée par un joueur a été assimilé sous la forme d'une réponse contrefactuelle du joueur à l'action possible de l'autre. De même, le concept de réputation d'un joueur a été internalisé sous la forme de la probabilité attribuée par un autre joueur au "type" du premier. Plus rarement, des mécanismes sociaux plus sophistiqués sont importés d'autres disciplines. Ainsi, les mécanismes assurant l'identification d'un acteur à un groupe sont introduits en assimilant l'identité à un "capital motivationnel" ou à un "capital relationnel" dans lequel l'acteur peut investir. De même, la genèse des normes sociales est traitée en assimilant la norme à une fonction de comportement et en étudiant les mécanismes de genèse d'un équilibre entre les comportements.
Ces schémas conceptuels importés, qui font déjà l'objet d'une étude dans leur discipline d'origine, favorisent une cumulativité diachronique du savoir théorique. En effet, toutes les conséquences déduites à partir de certains principes théoriques sont valables quel que soit le domaine d'interprétation de la théorie. Les schémas conceptuels issus des sciences de la nature ont des conséquences, isolées ou communes avec d'autres, qui ont fait l'objet d'investigations poussées. Ainsi, les processus d'équilibre en physique ont des propriétés de stabilité plus ou moins fortes qui peuvent être transposées directement à l'économie. En revanche, les imports en provenance des sciences sociales créent une tension forte dans la mesure où les nouveaux concepts sollicitent fortement le cadre usuel. Ainsi, l'introduction de concepts qualitatifs peu observables comme l'émotion ou la confiance introduisent un hiatus profond dans le traitement classique de la rationalité individuelle.
Cependant, ces imports peuvent engendrer une forte instabilité dans la mesure où une innovation est toujours synonyme de rupture. Les imports en provenance des sciences de la nature, qui s'apparentent souvent à de l'entrisme, peuvent s'avérer très artificiels au niveau de l'interprétation des principes transmis. Ainsi, l'«écono-physique» procède à des transferts sauvages en appliquant à des problèmes économiques divers schémas issus des sciences physiques, en particulier de la physique des milieux désordonnés. Une méthodologie plus pertinente consiste à poser les problèmes économiques en termes économiques afin d'aboutir à un certain modèle, à observer si les hypothèses retenues sont isomorphes à celles d'un modèle déjà étudié par la physique, et à tenir compte dans ce cas de l'expérience acquise pour en dériver les conséquences. En revanche, de façon plus légitime, l'écono-physique transfère à la finance des méthodes d'analyse des données éprouvées en physique, en s'appuyant sur l'existence de données financières aussi nombreuses que les données physiques.
2.2. Des données actualisées ou originales
L'évolution des données économiques se manifeste d'abord sur les données traditionnelles qui continuent à être soigneusement recueillies et forment des séries de plus en plus longues. Ainsi, des séries de prix du blé sont rassemblées depuis le XIXe siècle, même s'il faut tenir compte de fluctuations apparues dans la qualité du blé. Elle s'exprime aussi par le recueil de données concernant toujours des grandeurs classiques, mais relatives cette fois à des biens nouveaux. Ainsi, les prix sont observés sur des produits technologiques originaux nés du progrès technique ou sur des actifs financiers générés par des marchés artificiellement créés. Enfin, des grandeurs théoriquement importantes, mais usuellement non mesurées, font de plus en plus l'objet de mesures systématiques. Ainsi, les anticipations des prix ou de l'activité réalisées par les entreprises sont désormais recueillies par simple déclaration et forment des séries nouvelles.
L'évolution des données économiques résulte aussi de la mesure, lors de divers jugements ou choix économiques réalisés par les acteurs, de grandeurs non incluses à ce jour dans la théorie. Ainsi, la "neuro-économie" appréhende non seulement des processus physiologiques des acteurs comme le mouvement des yeux, mais aussi les processus mentaux des acteurs par imagerie cérébrale. Elle oblige à considérer un quatrième niveau d'organisation ontologique en amont du niveau psychique, en l'occurrence le "niveau neurologique". Cependant, les relations qui existent entre les zones activées du cerveau et la gestion des états mentaux des acteurs restent très floues. En conséquence, les états mentaux reçoivent désormais des mesures multiples, directes ou indirectes, que le modélisateur se doit de concilier. Ainsi, les préférences sont obtenues, selon le niveau considéré, par révélation à partir de leurs actions, par simple interrogation des acteurs, et même par inférence à partir des images cérébrales.
Surtout, toutes les données élémentaires sont prétraitées pour donner naissance à des "faits stylisés", qui sont autant de régularités empiriques auxquelles satisfont les données. Il peut s'agir aussi bien de trends ou de cycles réguliers dans l'évolution des grandeurs, que de corrélations apparentes entre diverses grandeurs. Ainsi, la production d'un pays fait apparaître des cycles d'importance et de périodicité variables (cycle des affaires, cycle de Kondratief). Plus profondément, on observe des phénomènes massifs comme le développement des biens immatériels, l'accroissement des externalités informationnelles ou la diversification des crises financières. Ces faits stylisés sont obtenus grâce à l'évolution constante des techniques statistiques, en particulier en matière d'analyse des données (analyse factorielle, analyse taxonomique). Ainsi, les techniques économétriques ont été considérablement améliorées et permettent par exemple de tester l'exogénéité de certaines variables ou la stationnarité de certaines relations.
La mise en évidence de faits stylisés, à propos desquels un consensus préalable peut s'établir, facilite grandement la cumulativité diachronique du savoir factuel. D'une part, ces faits stylisés résument les données élémentaires en invariants empiriques qui sont faciles à exprimer et qui permettent une considérable économie de pensée. Ainsi, les données accumulées sur les prix de l'immobilier selon les lieux deviennent compréhensibles quand elles sont mises en rapport avec les revenus des habitants ou la densité des équipements publics, en particulier l'accessibilité aux transports publics. D'autre part, les faits stylisés forment le nouveau socle de la base empirique et conduisent à y confronter un modèle sans avoir à revenir aux données élémentaires. Ainsi, un modèle du secteur de la santé commence par dresser une liste de faits stylisés du domaine et s'efforce ensuite d'en rendre compte comme conséquences du modèle.
Cependant, cette cumulativité repose sur un accord intersubjectif entre les praticiens sur les faits stylisés, qui reposent eux-mêmes sur des conventions en matière de traitement des données. D'une part, un fait stylisé nécessite de faire des hypothèses a priori sur la fiabilité, l'homogénéité et la comparabilité des données de base. Ainsi, le chômage ne peut être considéré comme croissant que si les chômeurs recensés entrent toujours dans les mêmes catégories, ce qui suppose que le concept général de chômage ne change pas trop rapidement de signification. D'autre part, plus encore que les données elles-mêmes, un fait stylisé est construit en adoptant un certain point de vue théorique, qui le rend pertinent pour appuyer certains modèles plutôt que d'autres. Ainsi, les fluctuations dans la distribution des médecins à travers un territoire prennent un sens très différent selon le maillage spatial (commune, département, pays) que l'on adopte.
2.3. Des restructurations internes constantes
Les modèles économiques bénéficient d'abord de l'apparition d'outils mathématiques nouveaux à même de mieux représenter certaines hypothèses ou d'en dériver certaines conséquences. Ainsi, la "logique épistémique", sous forme propositionnelle ou probabiliste, a été introduite dans la théorie des jeux pour exprimer commodément la structure et la révision des croyances des joueurs. De même, les "systèmes dynamiques stochastiques" ont été mobilisés pour exprimer aisément les processus d'apprentissage conjoints des acteurs et étudier leur éventuelle convergence. Par ailleurs, les modèles économiques s'appuient sur des outils informatiques toujours plus performants qui permettent une simulation à grande échelle. En particulier, les "systèmes multi-agents" sont à la base de la construction de plateformes informatiques, qui autorisent le traitement de relations complexes entre un grand nombre d'agents aux comportements variés.
L'évolution des modèles économiques procède par généralisations successives, selon deux processus parallèles. D'une part, un "affaiblissement" du modèle le dote d'une spécification plus faible (introduction de nouvelles variables, forme analytique plus générale), l'ancien modèle devenant un cas particulier du nouveau. D'autre part, un "enracinement" du modèle le fait dériver d'hypothèses plus profondes (souvent sous forme d'axiomes), l'ancien modèle devenant une conséquence du nouveau. La première opération autorise un "élargissement" du modèle, à savoir un accroissement de son domaine de validité, car il induit des conséquences non permises jusque-là. La seconde opération autorise une réinterprétation du modèle, à savoir une signification nouvelle apportée aux axiomes introduits. Ainsi, le modèle de maximisation de l'espérance d'utilité a été d'une part affaibli en modèle IURDP, d'autre part soutenu par un système d'axiomes. Ces opérations permettent d'élargir son champ d'application (y compris aux rats ou aux pigeons) et d'enrichir ses interprétations (y compris en neuro-économie).
L'évolution des modèles obéit à une stratégie de recherche qui s'avère particulièrement puissante. Les principes théoriques de base sont relâchés un par un quand ils ne sont plus capables de fournir des explications originales. Un principe affaibli n'est cependant introduit que sous deux conditions nécessaires: faire l'objet d'une formalisation satisfaisante; conduire à des conséquences originales. Ainsi, le principe de rationalité forte a été affaibli sous la forme d'une rationalité limitée (Simon, 1982) dès lors que divers modèles sont devenus disponibles (satisficing, choix discret, automate fini) et rendaient compte de comportements concrets (jeu d'échecs). De même, les préférences exogènes ont été affaiblies sous forme de préférences endogènes, aisément formalisables et aptes à rendre compte du conditionnement social. Enfin, les relations marchandes ont été complétées par des relations non marchandes, plus subtiles à formaliser, mais rendant compte de phénomènes de ségrégation ou de fidélisation.
Ces restructurations internes, qui s'appuient sur des consensus sur les dimensions et les degrés d'idéalité acceptables des modèles, favorisent la cumulativité diachronique du savoir. Du point de vue synchronique déjà, les modèles simultanés agissant comme variantes les uns des autres peuvent être articulés sous forme de «treillis conceptuels». Ainsi, les modèles de concurrence sur un marché peuvent être agencés en fonction des déviations (information imparfaite, concurrence imparfaite, prix visqueux) qu'ils expriment dans diverses directions par rapport au modèle central de concurrence parfaite. Du point de vue diachronique, les modèles successifs qui se présentent comme des approfondissements successifs peuvent se structurer sous la forme d'«arbres génétiques». Ainsi, les modèles de négociation donnent lieu à une filière de modèles à partir d'un modèle "séminal" (Rubinstein, 1982) dans lequel les deux négociateurs font une suite de propositions et de contre-propositions concernant le partage d'un gâteau.
Bien entendu, des difficultés d'articulation entre objets conceptuels subsistent et prennent souvent la forme de paradoxes. Un "paradoxe théorique" résulte de la difficulté d'articuler des principes théoriques avec un certain modèle. Ainsi, le "paradoxe de Condorcet" manifeste la difficulté d'inférer, à partir de critères de choix individuels et d'axiomes "raisonnables" de rationalité collective, un critère de choix collectif non trivial. Un "paradoxe empirique" résulte de la difficulté d'articuler des données empiriques avec un certain modèle. Ainsi, le "paradoxe d'Allais" manifeste la difficulté de faire coïncider les conséquences du modèle d'espérance d'utilité avec les choix observés en économie expérimentale. Ces paradoxes demeurent actifs d'autant plus longtemps qu'ils se révèlent plus profonds, et constituent un aiguillon essentiel pour la recherche. Ils finissent toujours par être résolus par un affaiblissement des modèles dans des directions judicieusement choisies.
3. Rétrospective et prospective
3.1. La cohabitation de paradigmes (1870 -1950)
Cette première période se caractérise par la coexistence de paradigmes multiples, nés en des moments et en des lieux différents. Ainsi, voit-on se développer et se diffuser successivement le paradigme classique, le paradigme autrichien, le paradigme marxiste et le paradigme keynésien. Tous ces paradigmes cohabitent avec plus ou moins d'harmonie ou de virulence, même si tous connaissent tour à tour des phases d'éclipse et de résurgence. Les paradigmes sont caractérisés par des principes théoriques de plus en plus nettement dégagés, mais peu articulés car exprimés sous une forme essentiellement littéraire. Ils s'accompagnent d'une méthodologie à base inductive souvent puissante et inventive, qui prend appui sur des faits massifs grossièrement appréhendés (révolution industrielle, crise financière de 1929). Ils sont défendus par des communautés intellectuelles qui acquièrent des positions dominantes dans certaines universités et rayonnent vers l'extérieur.
Cette période se caractérise aussi par l'apparition des premiers modèles formalisés, en nombre plutôt réduit. Si Cournot a proposé dès 1838 un modèle pionnier d'oligopole, si Walras a concrétisé un modèle d'échanges concurrentiels en 1874, les premiers modèles macroéconomiques datent des années 1940 avec l'avènement de la Cowles Commission. Ces modèles sont associés à des paradigmes spécifiques, d'autres paradigmes étant volontairement ou pratiquement rétifs à la formalisation. Ils captent des relations théoriques d'abord déterministes, puis stochastiques entre des grandeurs aussi bien observables que non observables. Leur cohérence formelle est favorisée par le fait qu'ils admettent une solution unique interprétée en termes d'équilibre. Le lien avec les données se fait au mieux par l'intercession de "lois empiriques", qui constituent les prolégomènes des modèles, et sont désormais intégrées dans les modèles à titre de relations.
Les données disponibles sont plus souvent recueillies à des fins comptables ou administratives (bilans, recensements) qu'à des fins véritablement scientifiques. Elles prennent souvent une tournure monographique et se contentent de décrire tel ou tel phénomène (spécialisation internationale) ou tel ou tel acteur économique (entreprise Ford). Les rares mesures quantitatives concernent les prix et les quantités échangées de biens spécifiques (blé, vin, coton). Ces dernières données, dispersées et occasionnelles, ne sont guère appréhendées selon des catégories normalisées, ce qui prévient de réelles comparaisons intertemporelles et interrégionales. Enfin, les données homogènes ne sont pas agrégées entre elles sur des entités peu à peu emboîtées pour construire des agents représentatifs (consommateurs, nation). De même, les données hétérogènes ne sont pas articulées entre elles pour faire apparaître des régularités en tant qu'elles concernent une même entité statistique (firmes).
Le savoir économique est en revanche très influencé par des préoccupations opérationnelles de la puissance publique. L'Etat apparaît comme un organisme de régulation en surplomb du système économique et autour duquel les premiers modèles macroéconomiques sont construits. Il adopte des doctrines exprimées de façon très générale comme la nécessité du libre échange ou l'intérêt d'une relance par les grands travaux publics. Plus modestement, il décide des grandes infrastructures publiques qui soulèvent des problèmes d'opportunité, de date de réalisation et de tarification, traités par les débuts du calcul économique. La politique macroéconomique, qu'elle soit monétaire ou budgétaire, fait l'objet des premières analyses de simulation réalisées "à la main". Toutes ces doctrines ou ces politiques sont enfin fondées sur des critères d'évaluation qui ont l'originalité d'être discutés par la discipline économique elle-même (Bentham).
L'économie affirme enfin progressivement son autonomie conceptuelle par rapport aux autres disciplines sociales. Certes, nombre d'économistes comme Pareto ont également œuvré en sociologie, mais ont souvent rédigé des ouvrages séparés dans les deux disciplines. Cette autonomie de l'économie est d'abord liée à l'objet initial assigné à la discipline, à savoir la production, les échanges et la consommation des biens et services. Elle porte aussi sur son ontologie simple, à savoir la coordination exercée par une institution spécifique, le marché, établi entre des agents rationnels mus par leurs seuls intérêts égoïstes. Elle concerne enfin le rôle social assigné aux économistes, comme garants d'une certaine efficacité et équité du système social réalisée à travers l'action exercée sur les marchés. Cependant, les économistes demeurent peu professionnalisés et fonctionnent de façon individuelle, quelques ténors étant amenés à se répondre parcimonieusement les uns les autres.
3.2. Le règne des modèles (1950-2000)
Cette deuxième période voit une convergence progressive des paradigmes concurrents vers une synthèse néo-classique. D'une part, la théorie des jeux, qui vient d'être mise au point fournit d'emblée un cadre générique d'analyse des interactions sociales. D'autre part, les paradigmes keynésien et marxiste, sinon autrichien, se voient réinterprétés dans le cadre classique devenu dominant, non sans une "réduction" plus ou moins brutale. En sens inverse, cette synthèse néo-classique devient beaucoup plus molle et nuancée dans les principes qu'elle affirme. Le modèle d'équilibre concurrentiel est tempéré par l'introduction d'une concurrence imparfaite, d'une information imparfaite, de rendements croissants et d'externalités. Même la théorie des jeux se diversifie par l'introduction dans une première vague du temps et de l'incertitude, puis dans une seconde vague des croyances ou de l'apprentissage des joueurs.
Fait bien plus marquant, cette période voit l'apparition d'une profusion de modèles formalisés couvrant un champ très large. Des modèles axiomatiques permettent de fonder les règles de choix individuels ou les normes de partage collectif. Des modèles microéconomiques théoriques suggèrent des mécanismes explicatifs de phénomènes comme la diversification des produits ou la recherche d'emplois. Des modèles macroéconomiques empiriques conduisent à simuler le fonctionnement d'une économie nationale, en particulier l'évolution de l'activité et de l'emploi. Ces modèles ont une forte cohérence interne du fait de l'utilisation d'un langage mathématique rigoureux et acquièrent une forte validité externe dans la mesure où leurs relations sont systématiquement ajustées sur les données. La simulation de modèles de taille croissante est facilitée par un développement rapide des outils informatiques tandis que l'épistémologie des modèles joue de toutes les oppositions classiques (réalisme /constructivisme, projectivisme/inductivisme, réfutationnisme/confirmationnisme).
Les données deviennent plus nombreuses et sont collectées ou du moins rassemblées par des organismes statistiques spécialisés (instituts nationaux de statistiques, bourses financières). Elles portent sur des grandeurs plus variées, objectives (coûts, techniques) ou plus rarement subjectives (anticipations, dispositions à payer). Elles sont normalisées au niveau international par la définition de conventions de mesure et l'utilisation de comptabilités, nationales ou d'entreprises. Elles sont souvent prétraitées pour faire apparaître des faits stylisés qui font l'objet d'un consensus préalable à toute explication. Elles sont diffusées avec de moins en moins d'entraves à une large gamme d'utilisateurs, tant scientifiques que praticiens. Enfin, des expériences en laboratoire commencent enfin à fournir des données individuelles sur des actions ou des états mentaux dans des secteurs particuliers (choix en incertitude, marchés simulés).
Les préoccupations opératoires sont plus clairement affichées et intégrées dans les modèles empiriques et même théoriques. Les modèles macroéconomiques reçoivent des fondements microéconomiques qui éclairent certains problèmes rencontrés (incohérence temporelle, instabilité structurelle). Les mesures de politique économique préconisées deviennent de plus en plus fines et étendues et revêtent elles-mêmes une dimension incitative et symbolique autant que matérielle. Le calcul économique s'étend des secteurs traditionnels (énergie, transports) vers des secteurs nouveaux (santé, éducation). Par ailleurs, on observe un détachement accru de l''économie savante' d'origine universitaire par rapport à l''économie vulgaire' véhiculée par les acteurs économiques. Ceci n'exclut en rien une imprégnation lente du public par certains concepts (coût marginal, valeur ajoutée) ou certains mécanismes (bulles financières, multiplicateur keynésien).
On observe enfin des exportations conséquentes de l'économie vers les autres sciences sociales, en particulier vers la sociologie. Il s'agit de transferts élastiques de concepts usuels (capital symbolique, effet de signalement) ou de mécanismes simples (oligopole social, externalités). Il s'agit aussi de transferts structurels de pans entiers de la théorie des jeux (réputation, confiance). Cependant, les réactions de ces sciences à l'économie continuent à fonctionner sur le mode manichéen de la fascination-répulsion. L'économie est admirée pour son originalité et son efficacité conceptuelle, mais elle est décriée pour son réductionnisme et sa superficialité. Dans le même temps, l'économie s'implante dans les universités comme une discipline à part entière qui s'autonomise essentiellement par rapport au droit. Une concurrence internationale s'établit entre les économistes de tous pays, fondée sur des critères sévères de publication, sans équivalent dans les autres sciences sociales.
3.3. L'essor des expérimentations (2000 -….)
Cette troisième période ne voit plus d'affrontements véritables entre paradigmes, l'orthodoxie ayant assimilé la plupart des hétérodoxies. S'il apparaît toujours des "programmes de recherches" novateurs, ils se développent sur les marges de l'économie dominante et en constituent des extensions plus que des contradictions. Il en est ainsi du programme cognitiviste, qui met l'accent sur les croyances des acteurs, du programme évolutionniste qui insiste sur les processus d'apprentissage et d'évolution, et du programme institutionnaliste, qui met en avant le rôle organisateur des institutions. L'économie orthodoxe s'amollit elle-même en adoptant des spécifications de plus en plus faibles de ses principes (rationalité limitée, équilibres diversifiés). Le modèle walrasien de concurrence pure et parfaite peut encore servir de modèle de référence, mais il ne constitue plus le noyau dur de la discipline. Quant à la théorie des jeux, son rôle de cadre ontologique général en perpétuelle évolution n'est plus désormais contesté dans son esprit.
Les modèles continuent à fleurir, mais ils ne sont plus aussi rigoureusement élaborés et rencontrent rapidement des rendements décroissants. Ils forment une mosaïque disparate dont les lignes de force sont de plus en plus floues et les articulations de plus en plus lâches. Les modèles théoriques puisent à des sources d'inspirations variées et mettent en œuvre des schémas nouveaux (selves multiples d'un agent, cognition sociale distribuée). Ils recouvrent le système économique dans tous les secteurs d'activité et connaissent une fuite en avant vers des territoires non traditionnels où leur valeur ajoutée est réduite. Les modèles empiriques mettent en évidence des corrélations plus fines grâce à des techniques économétriques plus performantes et se prêtent à des exercices de simulation à grande échelle. Ils peuvent inclure des aspects physiques plus nombreux pour former des modèles "technico-économiques" (modèles climatiques).
Par accumulation régulière des données traditionnelles, la base empirique de l'économie devient plus étendue, plus solide et plus diversifiée. Des micro-données nombreuses et originales sont recueillies sur les activités élémentaires des acteurs, en particulier sur les transactions qu'ils sont amenés à effectuer sur le web. Des expériences de psycho-économie sont entreprises de façon systématique et selon des protocoles rigoureux, en laboratoire comme sur le terrain, et permettent de collecter des données sur les états mentaux des acteurs (Kahnemann-Tversky, 1982). Surtout, des expériences de neuro-économie s'appuient sur l'imagerie cérébrale pour étudier la localisation, puis la dynamique des activités cérébrales des acteurs au cours de leurs choix économiques (Glimcher et alii, 2008). Ces expériences, si elles ont d'abord conduit à tester les modèles existants, suggèrent à présent des idées de modélisation nouvelles, mais elles posent cependant le problème de la transposition des comportements de la vie réelle au laboratoire.
Les impératifs opérationnels connaissent une internalisation moins systématique dans les outils analytiques eux-mêmes. Les simulations macroéconomiques restent nombreuses, mais dispersées et mêmes contradictoires, et connaissent un certain discrédit avec la crise financière. Si le calcul économique retourne dans l'entreprise, il est accompagné d'un développement des indicateurs de performance plus ou moins individualisés ou globalisés. Les critères d'évaluation sociale et les impacts des mesures économiques font aussi l'objet d'expérimentations, à la lisière de l'économie et de la science politique. En revanche, on observe un développement du débat public direct entre les acteurs concernés, aussi bien sur les tendances économiques de long terme (mondialisation) que sur les politiques économiques de court terme (fiscalité). Cependant, nombre de concepts mobilisés dans ces débats n'ont plus une définition économique bien précise (développement durable) ou une traduction opérationnelle bien claire (principe de précaution).
Un rapprochement de l'économie avec les autres sciences sociales est inscrit dans la plupart des évolutions précédentes. Les programmes cognitiviste, évolutionniste ou institutionnaliste sont communs avec la psychologie, l'ethnologie ou la sociologie et favorisent un dialogue avec ces disciplines. L'affaiblissement des modèles facilite l'insertion directe de concepts et de mécanismes issus de la psychologie cognitive (émotions, réputations) ou de la sociologie (conditionnement social, références culturelles). L'expérimentation en économie obéit désormais à des règles méthodologiques aussi strictes qu'en psychologie sociale ou en science politique. Les mesures économiques intègrent de fortes composantes psychologiques, posent des problèmes d'acceptation de nature politique et ne sont efficaces que sous de strictes conditions sociologiques. Ainsi, malgré quelques réticences corporatistes, la question de la constitution d'une "grande science sociale" ne relève plus du domaine de l'utopie.
Références
Bentham Jeremy, Œuvres complètes, 1845.
Cournot Augustin, Recherches sur les Principes Mathématiques de la Richesse, Hachette, 1838, rééd. 1938.
Glimcher Paul, Camerer Colin, Poldrack Russel, Fehr Ernst, Neuroeconomics: decision making and the brain, Academic Press, 2008.
Kahneman Daniel, Slovic Paul, Tversky Amos (eds.), Judgment under uncertainty: heuristics and biases, Cambridge University Press, 1982.
Rubinstein Ariel, "Perfect equilibrium in a Bayesian model", Econometrica, vol. 50(1), p.97-109.
Simon Herbert, Models of bounded rationality, MIT Press, 1982.
Von Neumann John, Morgenstern Oskar, Theory of Games and Economic Behavior, Princeton University Press, 1944.
Walras Léon, Eléments d'économie politique pure, 1874, rééd. Economica, 2000.
Pour aller plus loin
Pour une mise en parallèle des débats sur la cumulativité du savoir dans les disciplines de l'économie et de la sociologie, voir : "Savoirs : quels critères pour les sciences sociales ?", le compte rendu de la conférence d'ouverture d'Andrew Abbott au congrès de l'AFS de 2011 et des discussions entre sociologues qui ont suivi sur la question de la cumulativité des connaissances sociologiques.