Assiste-t-on vraiment un “tournant empirique” en économie?

L’idée que la science économique est en train de connaitre un “tournant empirique” est partout. Elle est depuis quelques années omniprésente sur les blogs de certains économistes américains (mais c’est rarement pour la mettre en cause). Ces derniers mois, elle s’ancre également dans la blogosphère française. On la retrouve aussi dans les publications plus académiques, pas seulement de ceux qui défendent cette “révolution de la crédibilité,” parfois de manière caricaturale, mais aussi de ceux qui cherchent plus largement à commenter sur l’état de leur discipline. Cette notion de tournant empirique fait même son nid dans des travaux plus historiques, comme l’ouvrage d’Avner Offer et de Gabriel Söderberg sur l’histoire du prix Nobel d’économie, tout juste paru.

L’argument est presque systématiquement présenté de la même façon. Un tableau issu d’un article de Dan Hamermesh est utilisé pour affirmer que l’on observe une montée en puissance du travail empirique et un essoufflement de la théorie économique ces dernières décennies.

0hamermesh

L’explication qui est fournie, souvent lapidaire, attribue cette transformation au progrès de l’informatique aussi qu’à l’augmentation de la quantité, qualité et diversité des données économiques. La ‘mort de la théorie économique,’ ou tout au moins un ‘changement de paradigme’ est ainsi annoncée. Mon objectif, dans ce post, n’est aucunement de nier que des changements profonds ont eu lieu dans la manière de produire et traiter les données économiques. C’est d’expliquer en quoi ces changements sont mal compris et caricaturés. Les méthodes supposées constituer ce “tournant empirique” étant largement importées des Etats-Unis, c’est sur la science économique américaine que porte ce post. Les spécificités françaises feront l’objet d’un texte séparé.

Les transformations de la science économique : un tournant “appliqué” plus qu’un tournant “empirique”

Que montrent, au juste, les chiffres fournis par Hamermesh? Certainement pas qu’il y a plus de recherche empirique en économique aujourd’hui qu’il y a 30 ou 50 ans. Le tableau montre qu’il y a plus de recherche empirique dans les 5 revues les plus en vue de la profession. Donc, que l’économie empirique a gagné en prestige. Evidemment, sa quantité a également augmenté, ne serait-ce que parce qu’il fallait une semaine pour entrer des données et faire tourner un modèle dans les années 1950, encore 8 heures au début des années 1970, contre moins d’une seconde aujourd’hui. Mais on se sait quasiment rien de l’intensité de cette transformation, ni même de la (les) périodes(s) charnière(s) durant lesquels la production de travaux empiriques s’est accélérée. Quantifier ces variables clé supposerait de rompre  avec l’habitude de tirer des conclusions quantitatives presqu’exclusivement des données offertes par Econlit, WoS or Jstor.

Car il existe en réalité une tradition empirique très forte en économie, laquelle remonte au moins jusqu’au début du XXième siècle. Mais, comme l’habitude n’était pas de publier ces travaux dans des revues académiques, celle-ci n’apparaît jamais dans les études bibliométriques supposées refléter la production des économistes, et reste de ce fait largement ignorée (à tel point,semble-t-il, que certains économistes du XXIème siècle pensent être les premiers à avoir jamais estimé empiriquement une fonction de demande ). Des champs entiers de la discipline, de l’économie agricole en passant par l’étude des cycles (le nom de Mitchell devrait ici évoquer un vague souvenir), en passant par l’économie de l’emploi, la comptabilité nationale, puis l’input-output, l’analyse couts-bénéfice omniprésente à partir des années 1960, et toute l’économie financière de ses débuts à la période actuelle, ne se sont pas uniquement construits sur des théories et instruments. Ils sont tout autant nés de projets ambitieux visant à récolter, stocker et faire parler des données. Mais les études qui résultèrent de ces projets sont difficiles à recenser. Soit que l’accès soit restreint par les entreprises, les compagnies d’assurance et les banques, l’armée, ou les ministères et agences gouvernementales qui les ont commandité, soit qu’elles soient publiées dans des ouvrages, des rapports ou des publications professionnelles non référencées par les principaux portails de revues.

capture-decran-2016-09-30-a-01-32-35

Le tableau d’Hamermesh ne montre pas non plus que la théorie économique s’éteint. Affirmer cela requiert des données sur l’évolution nombre d’articles empiriques ne faisant aucune référence à un cadre théorique pré-déterminé. C’est précisément ce à quoi se sont  récemment intéressés Dan Hamermesh et Jeff Biddle. Leur dernière étude démontre ainsi que si, dans les années 1970, il était quasiment impossible de trouver un article de micro dont le travail empirique ne soit pas adossé à un modèle théorique, on observe bien une résurgence de ceux-ci à partir des années 2000. En revanche, elle n’a, pour l’instant, rien de comparable avec la quantité d’articles a-théoriques publiés dans les années 1950s. Il semble donc 1) que la domination de la théorie sur l’empirique ait été l’exception plutôt que la règle dans l’histoire de la science économique ; 2) qu’il y ait, pour l’instant, plutôt un rééquilibrage des relations entre théorie et travail empirique plutôt qu’une réelle émancipation de ce dernier et que 3) c’est plutôt la recherche exclusivement théorique qui est en voie d’extinction. Cette analyse est en phase avec la manière dont Dani Rodrik présente le tournant empirique dans son dernier ouvrage :

Il est aujourd’hui quasiment impossible de publier [sur certains sujets] dans les meilleures revues sans présenter une analyse empirique sérieuse […] Les standards de la profession réclament désormais qu’une attention bien plus grande soit portée à la qualité des données, de l’inférence causale, et d’une large batterie de possibles biais statistiques. Au total, le tournant empirique a bénéficié à l’économie.

La disparition des articles exclusivement théoriques a, en réalité, déjà été actée il y a de nombreuses années, quand John Pencavel révisa le système de classification de son journal, les JEL codes, en 1988. Il décida alors de supprimer la catégorie “théorie” qui trônait en haut de la classification depuis le début du siècle. Il la remplaça par des catégorie micro, macro et techniques de recherche, en expliquant que “la bonne recherche en économie est un mélange de théorie et de travail empirique.” Et effectivement, l’un des termes qui connaissait déjà un succès croissant à cette période était celui de “théorie appliquée.” Il reflétait la pratique croissante qui consistait à concevoir les modèles théoriques directement en fonction des techniques empiriques qui allaient servir à le confronter aux données, et en regard aux problèmes spécifiques (urbains, environnementaux, publics, etc.) que l’on entendait étudier. Il ne semble donc pas tant que l’économie ait évoluée “de la théorie vers les données,” mais qu’elle a plutôt été le théâtre d’une redéfinition fondamentale du rapport entre la théorie et l’empirique. Mais ce n’est pas le seul aspect de cette transformation. Alors que les éditeurs du JEL tentaient une fusion systématique des catégories théoriques et empiriques, ils décidèrent de faire de même avec les catégories de “politique économique,” puisque cette dernière constituait de plus en plus la finalité de la majorité de la production scientifique.

clark_medal_front_smLa transformation qu’a connue la science éco ces dernières décennies est donc trop large et trop riche pour être qualifiée de “tournant empirique.” La notion de “tournant appliqué” convient mieux. Le terme appliqué est d’ailleurs devenu ominprésent dans les citations de la John Bates Clark Medal. La citation 2015, par exemple, commence par ‘Roland Fryer est un influent microéconomiste appliqué.’ Matt Gentzkow (2014) est présenté comme le leader ‘d’une nouvelle génération de microéconomistes appliquant les méthodes économiques.’ Raj Chetty (2013) est ‘probablement le meilleur microéconomiste appliqué de sa génération,’ Amy Finkelstein (2012) est ‘une des microeconomistes appliqués les plus accomplis de sa génération.’ Ad nauseam. Toutes citations depuis celle de Susan Athey (présentée en 2007 comme une ‘théoricienne appliquée’) ont fait usage de ce terme, et signifient très clairement que le prix n’est pas accordé uniquement pour l’excellence des contributions empiriques, mais bien pour la combinaison de ces techniques avec de nouvelles intuitions théoriques visant à améliorer la menée des politiques éco. Même la citation du lauréat 2016, Yuliy Sannikov, pour l’une des médailles les plus théoriques du XXIième siècle, met en avant ‘l’impact substantial [de son travail] sur la théorie appliquée.’

Cette transformation est-elle vraiment nouvelle ?

            Son timing est en tout cas difficile à saisir. Certains expliquent qu’elle a débuté juste après la guerre, d’autres voient plutôt une coupure dans les années 1980, quand les économistes s’équipent en PC. D’autres mentionnent les années 1990 et le développement des techniques quasi-expérimentales, ou les années 2010, durant lesquelles les données administratives et privées explosent, les techniques économétriques se reconfigurent pour intégrer les enseignements du machine learning, et les économistes désertent les universités pour rejoindre Google, Amazon et d’autres entreprises hightech.

            Déterminer quand l’économie devient une science appliquée n’a peut-être aucun sens. Dans l’entre deux-guerre, l’économie appliquée était déjà florissante, et largement indépendante des théories. La domination progressive d’un noyau théorique (the core) entre les années 1940 aux années 1970 est indéniable, mais elle a néanmoins rencontré des résistances acharnées. La controverse autour du Measurement without Theory, ou la tentative ratée d’Oskar Morgenstern pour imposer que la manipulation de données devienne une condition sine qua non pour être nommé membre de l’Econometric Society témoigne de ces tensions. Et même à cette période, l’économie empirique ne cesse de se renouveler : économétrie des séries temporelles et des données de panel, développement des premières expériences de laboratoire et de terrain, ou renouveau de l’histoire économique.

            La John Bates Clark Medal est, là encore, un artefact utile pour comprendre l’évolution de hiérarchie du savoir en économie. Les 7 premières récompenses furent perçues comme théoriquement biaisées, au point que de jeunes économistes demandèrent la création d’une autre médaille, au nom de Mitchell, pour récompenser le travail empirique, de politique économique et de terrain. Roger Backhouse et moi-même avons étudié l’apparition progressive de lauréats “appliqués” à partir des années 1960. Les citations de Zvi Griliches (1965), Marc Nerlove (1969), Dale Jorgensen (1971), Franklin Fisher (1973) et Martin Feldstein (1977) louaient toutes des contributions à l’économie empirique au sein de programmes de recherche “appliqués.” Feldstein et Fisher étaient d’ailleurs présentés comme des “économètres appliqués,” comme le sera plus tard Jerry Hausman, lauréat 1985. C’est dans les années 1990, avec Lawrence Summers, David Card et Kevin Murphy, que l’accent fut le plus clairement mis sur l’éco empirique. La citation de Summers note “une remarquable résurgence de l’économie empirique au cours de la dernière décennie [qui a] restauré le primat des économies réelles sur les modèles abstraits dans la pensée économique.” Et comme je l’ai indiqué plus haut, les 8 dernières médailles récompensent explicitement des efforts pour combiner pensée théorique, empirique et de politique éco.

            Au total, non seulement “appliqué” est plus précis qu’”empirique,” mais le mot “tournant” est peut-être lui-même inadapté pour décrire une transformation par étapes successives, d’intensité et de qualités variées. Mais comment peut-on expliquer ce rééquilibrage, sinon cette émancipation de l’économie appliquée ? Comme toute histoire traitant d’économie, on peut distinguer des facteurs d’offre, et des facteurs de demande.

L’explication par l’offre : nouvelles techniques, nouvelles données, nouvelles machines

Ce tournant appliqué est le résultat du développement d’un ensemble de nouvelles techniques pour confronter les données aux modèles économiques. Au milieu d’une sévère crise de confiance, de nouvelles techniques macroéconométriques telles que les Vars, l’estimation bayésienne, ou la calibration sont développées par Sims, Kydland, Prescott, Sargent et d’autres en même temps que les modèles qu’elles sont supposées estimer. L’essor des expériences de laboratoire a de son côté contribué à la redéfinition de la relation entre théorie et données en microéconomie. Comme l’explique Andrej Svorenčík (p15):

En créant des données produites pour satisfaire précisément les conditions fixées par la théorie au sein d’environnements contrôlés qu’il était possible de reproduire et de répéter, [les expérimentalistes] tentaient […] de transformer les données expérimentales en un partenaire de confiance pour la théorie économique. Le but était d’élever les données, depuis la position quelque peu dénigrée qui était la leur dans l’après guerre, et de les mettre sur un pied d’égalité avec la théorie.

Le développement des techniques quasi-expérimentales, en particulier des expériences naturelles et aléatoires avait un objectif similaire. Que celles-ci aient effectivement permis aux économistes d’utiliser des méthodes plus inductives fait l’objet de vifs débats. D’autres techniques eurent pour conséquence un effacement des frontières entre le théorique et l’empirique, parce qu’elle consistaient à construire des objets économiques réels, par exemple des marchés, plutôt que de les étudier. C’est le cas du mechanism design. L’utilisation croissante, bien que contestée, des simulations de tous poils contribuent aussi à cet effacement. Dans quelle catégorie, par exemple, classer les algorithmes utilisés pour l’agent-based modeling?

23543687643_f17678e75a_bCe qui est souvent qualifié de “révolution des données” constitue une seconde explication. L’explosion des grosses bases de données où d’innombrables variables sont enregistrées en temps réel possède certes tous les attributs d’une révolution. Pourtant, la mise à disposition de nouvelles données économique a progressé de manière constante dans l’après-guerre. Il existe une littérature foisonnante sur l’histoire de la statistique publique, notamment la comptabilité nationale ou les index du coût de la vie calculés par le Bureau of Labor Statistics. De larges enquêtes microéconomiques furent mises en œuvre dans les années 1960, et des bases de données administratives furent ouvertes aux chercheurs. La mise à disposition des données fiscales ouvrit, par exemple, de nouvelles perspectives en économie publique. Dès 1964, Georges Stigler déclarait dans son discours présidentiel à l’AEA l’arrivée d’un “nouvel âge d’or”:

Nous sommes désormais entré de plein pied dans l’âge de la quantification. Nous sommes armés de tout u arsenal de techniques d’analyse quantitative, et d’un pouvoir […] comparable à celui qui remplaça les archers par des canons […] le désir de mesure les phénomènes économiques est maintenant croissant […] c’est une révolution scientifique de premier ordre.

Une décennie plus tard, l’architecture informationnelle des marchés financiers fut révolutionnée par les progrès technologiques, et les prix d’actifs, comme un large ensemble de données privées ou commerciales, commencèrent à être enregistrés en temps réel. Le développement des marchés digitaux généra un nouvel ensemble de données microéconomiques.

            L’histoire de l’économie n’est donc pas tant caractérisée par une révolution dans les années 80, 90 ou 2000 que par un ajustement constant à de nouveaux types de données. Elle contredit l’affirmation de Liran Eivav et de Jonathan Levin, selon laquelle “il y a 15 ou 20 ans à peine, les données intéressantes mais encore peu étudiées étaient une ressource rare.” Dans un ouvrage sur l’état de l’économie en 1970 édité par Nancy Ruggles, Dale Jorgenson explique au contraire que :

les bases de données disponibles pour la recherche économétrique se développent beaucoup plus rapidement que la recherche économétrique elle-même. Les comptes publics et les données sur les transactions entre industries sont désormais disponibles pour un nombre important de pays. Des données d’enquêtes sur tous les aspects du comportement économique sont progressivement incorporées dans les comptes rendus économiques. Les recensements de l’activité économique deviennent plus fréquents et plus détaillés. Les données financières sur les marchés des titres s’améliorent en fiabilité, couverture et disponibilité.

Dans le même volume, Guy Orcutt, père de l’utilisation de la simulation en économie, se plaignait que “l’ensemble considérable des données disponibles” était “inapproprié” à un usage scientifique puisque l’économiste n’était pas en mesure d’en contrôler la collecte. La quantité et la qualité des données avait beau être bien inférieure à celle d’aujourd’hui, les constats et les plaintes étaient les mêmes.

           IBM_PCLa collecte et de la mise à disposition des données ont largement bénéficié des progrès de l’informatique, hardware et software. Vu comme le facteur central du tournant appliqué, le développement des ordinateurs a eu des conséquences bien plus larges sur la discipline. Il a permis la mise eu oeuvre de techniques économétriques dont les économistes ne pouvaient que rêver quelques années auparavant. Mais là aussi, la fin de l’histoire a déjà été annoncée de nombreuses fois. Dans les années 1940, Wassily Leontief prédisait que l’ENIAC pourrait bientôt calculer la quantité de projets publics nécessaires pour sortir les Etats-Unis d’une dépression. Dans les années 1960, l’économètre Daniel Suit écrivait que l’IBM 1620 pouvait permettre l’estimation de modèles de taille quasi-illimitée. Dans les années 1970, deux chercheurs de la RAND expliquaient que les ordinateurs offraient désormais un ‘pont’ entre ‘la théorie formelle’ et les données. Et à la fin des années 1980, Jérome Friedman affirmait que les statisticiens étaient en mesure de remplacer des hypothèses invérifiables par de la puissance informatique. Si nous assistons à une révolution informatique en science éco, c’est donc la cinquième en 50 ans.

            Mais il ne s’agit pas simplement de remplacer cette prétention permanente à la révolution scientifique par une compréhension plus large de l’histoire de la discipline. L’argument selon lequel l’ordinateur a permis un tournant appliqué est plus problématique encore. D’une part, parce que les deux techniques les plus consommatrices en puissance informatique, les modèles d’équilibre général calculable (CGE) et les gros modèles macro-économétriques de type keynésien, se trouvèrent marginalisés au moment même ou les progrès de l’informatique permettaient enfin des résolutions moins contraintes et plus rapides. D’importantes dissensions sur les techniques de résolution des modèles CGE (calibration ou estimation) divisèrent les économistes, et ces modèles étaient de tout façon perçus comme des boites noires suspectes par les pouvoirs publics. La macroéconométrie keynésienne fut balayée par la critique de Lucas et trouva refuge dans l’industrie de la prévision. Ironiquement, les techniques qui sont aujourd’hui les plus à la mode, les RCT, ne nécessitent guère plus que des calculs de moyenne et de variances que les ordinateurs des années 1970 pouvaient réaliser sans problème. L’ordinateur ne semble donc ni une condition suffisante, ni même une condition nécessaire de l’essor (sélectif) de certaines approches appliquées.

            L’ordinateur n’était pas non plus nécessairement voué à favoriser la recherche appliquée au détriment de la théorie. En sciences physiques, en biologie évolutionnaire ou en linguistique, la théorie a été profondément transformée par les progrès de l’informatique. Si cela ne s’est pas produit en économie, en dépit des recherches autour de l’automated theorem proving, des méthodes numériques et des techniques de simulation, c’est parce que les économistes sont restés attachés à des concepts de preuve de nature analytique. La redéfinition des rapports entre théorie et appliqué que pourrait permettre l’ordinateur est donc largement inachevée. Enfin, si les progrès du harware sont largement exogènes à la discpline, tel n’est pas le cas du software. La manière dont l’ordinateur a pu favoriser tel champ ou telle approche est donc largement endogène aux stratégies développées par les défenseurs de celles-ci.

            Mais ce tournant appliqué n’est pas uniquement le fait de changements internes à la discipline. Il constitue également une réponse aux diverses pressions exercées par les consommateurs d’expertise économique, publics et privés.

L’explication par la demande : nouveaux financements, nouveaux régimes de politique économique, nouvelles demandes privées

            Le contexte incertain des années 1970 semble fournir une clé de compréhension intuitive au développement de l’économie appliquée : l’agitation sociale, la crise urbaine et les ghettos, la pollution, la congestion, la stagflation, la crise de l’énergie et de l’environnement, le Civil Rights movement, la montée du radicalisme et du néo-libéralisme, la contestation étudiante. En réponse, les économistes auraient tenté d’adapter leur recherche et leur enseignement aux défis du monde réel. Mais à nouveau, on peut se demander en quoi ce contexte ci était différent de celui des époques précédentes. La période de la Grande Dépression, celle de la Guerre, puis de la Guerre Froide n’étaient-elles pas traversées par un sentiment similaire d’urgence, une requête similaire que la connaissance économique éclaire les débats contemporains ? Ce qui était différent, dans les années 1970 et 1980, c’était plutôt la conception qu’avait le gouvernement américain et les financeurs de la recherche économique des modalités d’intervention publique.

 nsf           Dans les années 1940/1950, la recherche économique américaine dépendait largement des commandes de la Ford Foundation, et surtout de l’armée. Les deux voulaient une recherche appliquée, quantitative, formalisée et interdisciplinaire. Les économistes cherchaient pourtant à se dissocier des autres sciences sociales, à une période ou la suspicion à l’égard de ces dernières était forte, tant parmi les politiques –n’y avait-il pas une affinité entre ces “sciences” et le socialisme?– qu’au sein des sciences dures – les sciences sociales étaient-elles capables de produire des lois? Quand la National Science Foundation fut établie en 1950, celle-ci ne comportait d’ailleurs aucune division pour les sciences sociales, ce qui excluait les économistes de cette nouvelle source de financement. Trente ans plus tard, cette dernière était devenu un acteur clé dans le financement de la recherche économique. En gagnant en importance, la NSF avait imposé l’utilité pour la politique économique comme un des critères de sélection des projets. Ce critère constituait le fondement de l’un de ses départements, le RANN, source importante de financement de la recherche sur les indicateurs sociaux et les méthodes d’évaluation des programmes sociaux. L’évaluation des coûts et bénéfices des politiques sociales fut rendue obligatoire par Reagan, qui menaça de réduire de 75% le financement des sciences sociales via la NSF. La tension entre recherche pure et applications reste permanente au sein du programme économique de l’institution.

capture-decran-2016-10-03-a-00-44-14            L’exemple de la NSF montrent que les financeurs de la recherche économique ne furent pas tous indépendants du pouvoir politique. De Lyndon Johnson à Ronald Reagan au moins, tous les gouvernements ont fait pression sur les économistes pour que ceux-ci produisent une connaissance qui puisse aider la conception, et plus récemment l’évaluation des politiques publiques. L’adresse présidentielle de Stigler, en 1964, était d’ailleurs titrée L’Economiste et l’Etat, et il n’y faisait pas mystère de l’intérêt majeur de la révolution quantitative qu’il y décrivait:

Nos études théoriques et empiriques en constante augmentation vont inévitablement et irrésistiblement pénétrer le champ de la politique économique, et nous devrons développer une connaissance qui sera centrale pour la formulation de politiques intelligentes.

L’analyse coûts-bénéfices se développa alors qu’Henry Ford cherchait à évaluer plus précisément l’efficacité de divers programmes sociaux. C’est également dans ce contexte qu’Heather Ross, doctorante au MIT, entreprit avec William Baumol et Albert Rees de Princeton l’une des premières expérimentations sociales aléatoires pour tester l’impôt négatif. Il ne s’agissait pas tant, à cette époque, d’imiter la médecine que de tester des pilotes pour rendre efficaces les dépenses publiques. Comme l’a décrit Elisabeth Berman, la politique de dérèglementation menée par Reagan systématisa ensuite cette “économicisation” de la politique publique. La volonté d’imiter les mécanismes de marché créait un véritable intérêt, parmi les politiques des années 1980 et 1990, pour ce mélange de mechanism design et d’expériences de laboratoire proposé par les économistes. Certaines réalisations, comme les enchères des fréquences radio/TV par la FCC ou l’algorithme d’échange de reins conçu par Al Roth sont depuis devenus les têtes d’affiches d’une science économique capable d’améliorer la vie des citoyens. Mais cette expertise intéresse désormais aussi les géants du web, pour lesquelles concevoir des marchés et étudier des problèmes règlementaires est stratégique. Issu tout autant d’évolutions techniques et épistémologiques que de pressions externes, il n’est pas toujours facile, au final, de séparer dans ce “tournant appliqué” ce qui relève de la rhétorique de ce qui relève d’un changement plus profond.

Note : ce post dérive directement des recherches entreprises avec Roger Backhouse depuis 3 ans. Il s’agit de mettre à plat ma propre interprétation des données que nous avons accumulées, au moment ou nous rédigeons un article de synthèse sur le sujet. Bien que fortement influencé par ce travail commun, il ne reflète que mes propres opinions.

 

 

.

Advertisements
This entry was posted in Uncategorized and tagged , , , , . Bookmark the permalink.

Leave a Reply

Fill in your details below or click an icon to log in:

WordPress.com Logo

You are commenting using your WordPress.com account. Log Out / Change )

Twitter picture

You are commenting using your Twitter account. Log Out / Change )

Facebook photo

You are commenting using your Facebook account. Log Out / Change )

Google+ photo

You are commenting using your Google+ account. Log Out / Change )

Connecting to %s