Les économistes face à la défiance de la société civile: faut-il déclarer la guerre des nombres?

Crise de confiance, crise de l’expertise, crise du nombre

capture-decran-2017-02-03-a-22-33-06Les économistes sont au bord de la crise de nerf, prévient Anne-Laure Delatte, la directrice adjointe du CEPII. L’inquiétude était en effet palpable à l’American Economic Association, le rassemblement de plusieurs milliers d’économistes qui se tient chaque année le premier week-end de janvier. Pas une session où le mot Trump ne soit murmuré avec inquiétude, et pourtant, c’était avant que ce dernier ne gèle les budgets recherche et communication de l’agence pour la protection de l’environnement ou de la NASA, et que son équipe n’oppose aux quantifications des experts une série de “faits alternatifs.” Son mépris des chiffres, en particulier économiques, n’est pas nouveau. A l’automne, il avait déjà qualifié le chiffre officiel du chômage (aux alentours de 5%) de fiction totale. Pour lui, on était plus près des 40%. Du coup, les économistes américains s’inquiètent des dommages que le nouveau gouvernement pourrait infliger aux statistiques qui forment leur matériau de base: le financement de certaines enquêtes et recensements pourrait être supprimé, ou réduit, ce qui diminuerait la qualité de la collecte de ces données. Le calcul de certaines statistiques pourrait également être altéré – par exemple en majorant ou minorant les dénominateurs- pour mieux coller à l’image que que Trump se fait de la situation des Etats-Unis.

Une autre inquiétude est la privatisation de la statistique publique. La privatisation des données est un sujet qui agite les esprits économiques depuis quelques années déjà. Depuis que la digitalisation de nombreux marchés et comportements permet l’enregistrement en temps réel de milliards de données sur les prix, les transactions, les goûts, les réactions, la psychologie des agents, ce que l’on appelle le big data. Depuis que les scientifiques, dont les économistes, développent de nouvelles techniques pour analyser ces données, comme le machine learning, échangent leur expertise en terme de market design contre un accès privilégié à ces données, et abandonnent même de prestigieuses carrières économiques pour des postes au sein des GAFA. Mais ce que craignent les économistes américains aujourd’hui, c’est que certains recensements démographiques publics soient confiés à des agences privées, sans que celles-ci n’aient l’obligation de communiquer les données brutes ni la méthodologie des calculs statistiques effectués.

La crise à laquelle les économistes font face est en réalité plus lancinante, plus profonde. Tout au long de l’année 2016, les chercheurs américains et européens ont assisté, en se tordant les mains, à la défaite de leur expertise. Leurs pétitions contre le Brexit, puis contre Trump se sont enchainées, ignorées par les électeurs. Ce qui a suscité un flot de questions: pourquoi les économistes ne sont-ils plus écoutés? Dans quelle mesure cette défiance s’inscrit-elle dans un mouvement vers l’ère du ‘post-factuel’ et de la ‘post-vérité‘ ?

L’expertise (en crise) des économistes repose sur les faits que ceux-ci sont en mesure de produire. Ces faits sont en général de nature quantitative, puisqu’ils consistent en la sélection et le traitement de données, elles-mêmes souvent récoltées ou produites puis stockées sous forme numérique. Cette crise de l’expertise est donc, entre-autres, une crise de la statistique publique, et plus largement des nombres, de l’observation, de la mesure, de la quantification et de la communication de ceux-ci.  Cette défiance de la société civile vis-à-vis du nombre traverse les pays occidentaux, de Londres à Bruxelles en passant par Washington. Elle est visible jusque dans la campagne présidentielle française : les candidats ont tendance à éviter de chiffrer leurs promesses électorales, ou se contentent de chiffres vagues destinés à marquer les esprits: la suppression de 500 000 fonctionnaires, le revenu universel à 750 euros.

Les articles linkés ci-dessus proposent tous la même explication à cette défiance grandissante. Le problème n’est pas tant que les économistes travailleraient pour des intérêts spécifiques, seraient “achetés”, mais plutôt leur échec à prédire la crise financière de 2008, auquel s’ajoutent, explique Mark Thoma, “les fausses promesses faites aux classes laborieuses et moyennes au sujet des bénéfices de la mondialisation, des baisses d’impôts en faveur des plus aisés, et de l’ouverture commerciale.” Cet échec est lui-même interprété de plusieurs façons: comme une conséquence de la tendance des économistes à analyser les effets agrégés de la libéralisation commerciale ou de la croissance (en général perçus comme positifs), et à négliger les effets négatifs sur certaines catégories professionnelles, ou du moins, à évacuer le problème par une note de bas de page spécifiant qu’il suffirait de “mettre en place des transferts compensatoires.” Le refus des citoyens d’être décris par des grandeurs agrégées ou des moyennes ne touche pas simplement les conclusions que les économistes dérivent de leur modèles, mais aussi les statistiques qu’ils utilisent: 68% des américains n’ont pas confiance dans les statistiques publiées par le gouvernement fédéral. En France, le dernier baromètre de la confiance du Cevipof a montré que 60% des interrogés n’ont pas confiance dans les chiffres de la hausse des prix et de la croissance, et 70% dans les chiffres de l’immigration, du chômage et de la délinquance que produit l’INSEE. Pourtant, l’institut bénéficie d’une bonne image pour 71% des répondants. Les citoyens ne se reconnaissent donc pas dans les statistiques, ils ne s’y voient pas.

Ce problème de représentativité perçue peut se doubler d’un problème de représentativité réelle. Certains économiste avouent avoir du mal à quantifier de manière satisfaisante des réalités économiques en constante évolution. L’idée est qu’à cause de la mondialisation et des transformation technologiques, justement, les statistiques nationales peinent à capturer l’identité des agents et des phénomènes économiques: les statistiques devraient être à la fois régionalisées et internationalisées, les notions d’intensité et de qualité devraient être prises en compte. Les données collectées par les GAFA seraient ainsi de meilleure qualité, pas simplement parce qu’elle sont plus nombreuses, mais parce qu’elles sont de nature différente et permettraient ainsi d’accéder à un nouveau type de connaissance, sans a priori théorique. Mais ces données sont “propriétaires,” ce qui pose d’innombrables problèmes d’éthique, de protection de la vie privée et de confidentialité,  et, sur le plan scientifique, d’accès, d’indépendance et de replicabilité. [1]

D’autres explications de la crise de confiance sont mentionnés trop rapidement : le fait que les indicateurs chiffrés aient perdus toute valeur à force d’être agités en pure perte (les “3% de deficit budgétaire”), ou au contraire, aient perdu leur caractère objectif et neutre à force d’être utilisés comme objets de management et de contrôle, de scoring, de benchmarking, de classification, bref, soient instrumentalisés; le rôle des médias enfin, et la possibilité que les chiffres erronés, mais sensationnels chassent les chiffres fiables.

Réflexivité et perspective historique

La réponse des économistes à cette crise? Plus de chiffres, des deux côtés de l’atlantique. Après tout, n’a-t-on pas récemment rencontrés de francs succès dans l’étude des effets redistributifs de la mondialisation ou des systèmes fiscaux? N’est-on pas capable de “voir” et de quantifier la diminution du nombre d’hommes en âge de travailler effectivement présents sur le marché du travail américain, de lier ce phénomène à l’augmentation des problèmes de santé, voir de la diminution de leur espérance de vie ? De quantifier l’inégalité intergénérationnelle? Ces travaux ne sont-ils pas entrés à la maison blanche, ne se sont-ils pas retrouvés dans les discours du président, voir dans les slogans des manifestants? Anne-Laure Delatte conclue ainsi sa chronique par une profession de foi:

Les experts ont trahi par dogmatisme. Faut-il pour autant se taire ? Laisser la parole aux autres, ceux qui ne croient pas en les chiffres et les faits ? Ou bien justement entrer en résistance contre le dogmatisme des uns et l’obscurantisme des autres ? C’est le choix de plusieurs instituts français, dont celui auquel j’appartiens, qui entrent dans la campagne présidentielle juste armés des outils de l’analyse économique (1). Nous avons choisi d’éclairer les débats avec des chiffres et des résultats issus de la recherche académique. Le faire avec pédagogie et humilité.

Ceci fait écho aux explications de Michael Klein qui a choisi de répliquer aux “faits alternatifs” du nouveau gouvernement américain en ouvrant un site, Econofact. “Les faits sont têtus,” écrit celui qui a demandé à des “économistes universitaires prestigieux” de rédiger des mémos au sujet de l’emploi manufacturier, des effets économiques des migrations, du commerce ou des systèmes de change. Son but, explique t-il, est “de souligner que si l’on peut choisir ses propres opinions, on ne peut pas choisir ses propres faits.” Plus de faits, donc, avec plus de communication. Et plus d’humilité, un mot qui revient constamment dans ces diverses chroniques. Pour louable que soient ces propositions, elles semblent insuffisantes à enrayer le mal. “Les économistes ont trahi par dogmatisme,” conclut Anne-Laure Delatte.  Mais le dogmatisme se nourrit du manque de réflexivité. Réflexivité sur la production des nombres économiques, leur utilisation et leur communication. Réflexivité qui passe, non seulement par des tables rondes annuelles, mais surtout par la connaissance de son histoire disciplinaire, des débats qui ont fait de la science économique ce qu’elle est aujourd’hui.

41hka94tfkl-_uy250_Ca tombe bien, la quantité de travaux que les historiens anglophones de l’économie ont produit sur l’observation, la mesure, la quantification économique est considérable. Et la quantité de travaux francophones rédigés sur les même thématiques par les sociologues et historiens de la chose publique, plus époustouflante encore.[2] Un groupe de sociologues, parmi lesquels Alain Desrosières ont fondé une véritable école française de la sociologie de la quantification, dont les objets sont les conditions théoriques, techniques et institutionnelles de production et d’utilisation  de la statistique publique par les gouvernements. L’histoire de la comptabilité privée, de l’utilisation grandissante d’indicateurs chiffrés, de scores, de classifications et de benchmarks a également fait l’objet de nombreuses recherches. La tendance est aujourd’hui à la synthèse de ces deux littératures, ce qui implique d’analyser la porosité entre quantification publique et privée, entre traditions nationales, d’étudier la circulation des pratiques de quantifications entre continents, époques et sphères professionnelles

capture-decran-2017-02-05-a-13-21-16Certes, ceux qui se risquent à promouvoir l’histoire de l’économie auprès des praticiens de la discipline souvent l’impression de crier dans le désert. Mais il s’agit de méfiance autant que de désintérêt.  On me susurre dans l’oreillette qu’on a bien essayé de discuter avec des historiens, philosophes ou sociologues, voir même de lire certains articles, mais que, vraiment, les catégories parfois employées pour décrire le travail des économiste, le ton ouvertement critique, ça ne passe pas. Les économistes lambda passent leurs journées à s’arracher les cheveux sur leur code DYNARE, à estimer des modèles de search and matching, à mettre au point des expériences de laboratoire pour comprendre les biais des agents face à différents niveaux de risques, des testing sur CV anonymisés pour saisir les mécanismes de la discrimination hommes/femmes à l’emploi, ou des expérimentations de vote permettant de confirmer que nos modes de scrutin présidentiels sont tout sauf efficaces. Et ponctuellement, ils essaie d’expliquer ce qu’ils fabriquent à des audiences d’étudiants, de curieux, vérifient le script d’excellentes vidéos de vulgarisation, le tout pour 2500 euros net par mois après 15 ans d’ESR, et parfois, luxe ultime, avec une prime d’excellence scientifique en bonus. Ils ne comprennent donc pas bien en quoi consiste le “paradigme néoclassique” supposé caractériser cette diversité d’approches (la majorité des recherches évoquées ci-dessus ne font pas recours à des homo oecomicus maximisant sous contrainte avec une information parfaite), encore moins en quoi ils participent à un complot néoliberal ou sont vendus au grand capitalisme. Ils ont l’impression que la cible des sociologues sont, au mieux, quelques puissants, au pire, les économistes d’il y a 70 ans.

Certes. Mais ces analyses des pratiques des économistes, quels qu’en soient le cadre épistémologique et l’interprétation, utilisent un matériau historique qui révèle les cheminements intellectuels, les débats, les errements, les hasards, les obstinations, les influences et les résistances qui ont façonnées les pratiques d’aujourd’hui. Elles permettent de comprendre que l’utilisation collective de modèles à agent représentatif ou de jeux non-coopératifs, que le recours à des expérimentations contrôlées ou des méthodes structurelles, que l’utilisation de l’analyse couts-bénéfices, que les méthodes de mesure, de collecte et de traitement des données ne sont pas neutres, peuvent avoir des effets inconscients importants et durables. Et surtout, elles nourrissent la réflexion sur les réponses à apporter à la défiance actuelle. En particulier, ces histoires de la fabrique des nombres en économie montrent que ceux-ci reflètent ce que les économistes choisissent de “voir.” Elles permettent de comprendre ce qui influence, obscurcit ou déplace l’attention des chercheurs, et comment ceux-ci établissent des faits fiables. Les conditions pour qu’un “fait” économique circule bien (c’est à dire en préservant son intégrité et en étant utile) ont également fait l’objet de recherches historiques.

“Les objets statistiques sont à la fois réels et construits” (Alain Desrosières

Les données économiques, donc, reflètent ce les économistes choisissent de “voir.” Et c’est bien ce qu’on leur reproche aujourd’hui: de n’avoir pas su voir la hausse des inégalités, les conséquences de la mondialisation sur certaines catégories de la population, l’instabilité financière. Pourtant, leur expertise fut, à partie de la Seconde Guerre mondiale, de plus en plus recherchée. Comment ceux-ci ont-ils construit leur crédibilité? Comment l’ont-il perdu? Pourquoi cet “aveuglement”? Comment “voir mieux”?  Si les ouvrages exhaustifs abondent (biblios ici, , et , je signale les sources en français dans la suite du texte), que peut-on tirer de certains exemples?

Layout 1Les débats qui ont jalonnés le calcul de la principale statistique économique, le PIB, par exemple l’exclusion de les productions non marchandes ou la difficulté d’évaluer l’environnement sont souvent connus, ne serait-ce que parce qu’ils ont trouvé un écho contemporain à travers les nombreux indicateurs alternatifs développés ces dernières années.[3]  Mais le cas des indices des prix et du coût de la vie est tout aussi intéressant. Tom Stapleford (EN) explique que l’indice du cout de la vie américain (le CPI) fut développé par le Bureau of Labor Statistics en réponse à l’expansion du système administratif gouvernemental. L’objectif était que celui aide à la rationalisation des ajustements des salaires et allocations. Mais très vite, il fut également utilisé pour les négociations salariales dans le secteur privé, puis pour tenter de résoudre des conflits sociaux par le recours à des instruments “rationnels.” Le CPI n’a donc rien d’une nombre “objectif”, conclue Stapleford. Il est un instrument de quantification façonné par des problèmes d’ordre pratique, des conflits bureaucratiques, des théories (le remplacement de l’utilité cardinale par l’utilité ordinale), et les desseins politiques, de la justification de la baisse des salaires de 1933 à son utilisation dans les débats autour de la stabilisation macroéconomiques.

logo-inseeMichel Armatte (ch2, FR) raconte que les indices français du coût de la vie étaient traditionnellement construits en calculant l’évolution des prix d’un panier de biens fixe. La liste des biens figurant dans le panier fit donc l’objet de nombreuses controverses, d’autant plus que celui-ci jouait un rôle fondamental dans le partage de la valeur ajoutée. L’indexation des salaires fut parfois interdite, parfois effectuée par rapport à un second indice calculé sur un panier de bien plus économique. En réaction, la CGT finit par créer son propre indice en 1972. Celui-ci devait refléter le coût de la vie pour une famille  ouvrières de 4 personnes, locataires en région parisienne, et servir de base aux négociations salariales. Alors que l’indice français est régulièrement accusé d’être sous-évalué, l’indice américain était en revanche perçu comme structurellement sur-évalué. Le très contesté rapport Boskin, publié en 1996 sous la présidence Bush père, concluait ainsi que la non prise en compte des effets de substitution de biens et de points de vente, de l’amélioration de la qualité des produits, et de l’introduction de nouveaux produits conduisait à une surestimation de l’inflation de quelques 1,3%. Ceci aurait couter 135 milliards de dollars à l’Etat. Les recommandations du rapport consistaient en l’adoption d’un indice à utilité constante plutôt qu’à panier constant, ce qui conduisit à l’adoption de la méthode des prix hédoniques développée, entre autres, par Zvi Griliches (voir cet article, EN).

Mais s’il y a bien un exemple de quantification dont la pertinence et l’impact social n’est pas remise en cause, c’est celui des travaux récent sur les inégalités de revenus. Les raisons du succès de l’ouvrage de Thomas Piketty, de ses travaux avec Antony Atkinson, Emmanuel Saez, Gabriel Zucman, mais aussi les travaux de Raj Chetty, de Branko Milanovic, de Miles Corak  et d’Alan Krueger ont beaucoup occupé les éditorialistes ces dernières années. La manière dont ceux-ci ont déplacé l’attention des chercheurs et du grand public des problèmes liés à la pauvreté et la croissance vers de nouveaux “faits stylisés” sur les inégalités, la redistribution et la fiscalité est encore mal comprise. Mais les travaux de Dan Hirschman (EN) permettent de saisir les raisons pour lesquelles les 10%, 1% ou 0,1% restèrent invisibles jusque dans les années 2000.

Les données sur les inégalités qui intéressent les économistes sont en effet déterminées par les théories qu’ils cherchent à confirmer. Dans l’après-guerre, explique Hirschman, les macroéconomistes étaient obsédés par la question du partage de la valeur ajoutée entre capital et travail, tandis que les économistes de l’emploi cherchaient avant tout à savoir si les différences de capital humain entre travailleurs qualifiés et non-qualifiés étaient à l’origine des différences de salaires. Les inégalités de genre et de race étaient également des sujets sensibles. Si les données fiscales avaient été exploitées lors des premières analyses sur la distribution des revenus, celles-ci n’attiraient donc plus l’attention, si bien que le Bureau of Economic Analysis cessa de produire ces séries, rendant le problème invisible. Les autres données sur les revenus, fournies par le Census’s Current Population Survey, ne permettaient pas non plus de “voir” les hauts revenus. En effet, pour des raisons de confidentialité, ces données étaient  top-coded, c’est à dire simplement enregistrées comme supérieures à un certain niveau, sans détails. Dans les années 1990, quelques économistes comme Feenberg et Poterba, ou Krugman, identifièrent une augmentation de la part de la richesse détenus par les  hauts revenus, mais il fallu attendre l’exploitation de larges quantités de données fiscales par Thomas Piketty et Emmanuel Saez pour disposer de nouvelles séries sur l’évolution de la part du revenu gagnée par les 5% et 1% les plus riches.[4]

En résumé, l’impossibilité à voir les enjeux redistributifs des transformations économiques n’était pas simplement due au fait de “travailler avec des données agrégées.” L’utilisation de données micro était une pratique courante au moins depuis les années 1960/1970, période de progrès dans collecte et du stockage de données d’enquête, comme le PSID aux Etats-Unis, et de l’économétrie des données de panel. Le problème des inégalités intéressaient déjà les économistes, mais les questions posées étaient structurées par des cadres théoriques (la théorie du capital humain), les demandes des les pouvoirs publics (à l’époque focalisés sur la pauvreté, ou les inégalités de genre et de race), et les effets non-intentionnels des décisions techniques (comme le top-coding). Certains historiens notent d’ailleurs que l’intérêt actuel pour les données donnant à voir la part de revenus et de richesse détenue par les 1% tend désormais à rendre invisible les inégalités de race et de genre.

“Les nombres servent à intervenir, pas simplement à représenter” (Ted Porter)

Comme le montrent ces deux exemples, les statistiques économiques reflètent aussi bien des controverses théoriques et techniques que les besoins des institutions publiques et privées. “La quantification est une technologie sociale,” souligne Porter (EN). Les statistiques sont façonnées par et pour la connaissance et le pouvoir gouvernemental, expliquait, de même, Alain Desrosières (FR). La tendance à la quantification du fait social s’inscrit dans les transformations des modes de gouvernement. Les gouvernements peuvent donc être amenés utiliser les nombres de manière politique, comme des armes. C’est ce que montrent les contributions rassembleés dans Benchmarking, édité par Isabelle Bruno et Emmanuel Didier. Ceux-ci documentent la croissance inflationniste des indicateurs, des classements (des hôpitaux, des universités, des régions, des entreprises). Mais ce management par le chiffre a des effets pervers, soulignent-ils: “telle est la force du benchmarking, qui fait sa très grande spécificité : il ne se contente pas de traduire la réalité en termes statistiques pour agir, il stimule cette action et la canalise vers un “meilleur” dont la définition est soustraite à l’autonomie des agents.”


Dans second ouvrage
, Isabelle Bruno et Emmanuel Didier, accompagnés de Julien Prévieux et d’autres auteurs, proposent une forme de réponse à ce nouveau management: la résistance à l’oppression par les chiffres passent (1) par la déconstruction des statistiques existantes ; (2) par la création de nouveaux nombres, le Statactivisme. Un exemple, celui de la production d’un indice du coût de la vie par la CGT, a déjà été évoqué plus haut. L’ouvrage en dissèque de nombreux autres:  proposer des indicateurs alternatifs de bien être, calculer des empruntes écologiques, compter le nombre de suicides pour évaluer le management d’une entreprise, évaluer le coût de l’expulsion des réfugiés, mettre en place un baromètre des inégalité et de la pauvreté, le BIP40 (voir la recension des deux ouvrages par Olivier Pilmis). Ces descriptions des conditions institutionnelles et intellectuelles de l’émergence de contre-statistiques, de leur diffusion, et de leur influence pourraient intéresser ces économistes qui souhaitent ré-occuper l’espace intellectuel, médiatique, public. Est-ce le rôle des associations militantes? Est-ce le rôle des scientifiques, et si oui, sous quelles conditions?  Les nouveaux faits stylisés sur les inégalités produits ces dernières années peuvent-ils être interprétés comme une forme de statactivisme? L’opposition 99%/1% fut, après tout, mise en scène de manière concomitante (mais apparemment indépendante) par des chercheurs et les activistes d’Adbuster.

“The lives of travelling facts” (Mary Morgan)

Car il ne suffit pas de voir autrement afin de produire de nouvelles données, encore faut-il  les sélectionner, les organiser et les présenter de manière à ce qu’ils forment des faits. Et si possible, des faits qui “voyagent bien,” c’est à dire, explique Mary Morgan,  des faits capables de conserver leur intégrité et d’être fructueux (e.g. utile aux conversations académiques comme aux débats publics).  D’un ouvrage portant sur des types de faits très variés (économiques, biologiques, physiques, etc), coordonné avec Peter Howlett, Morgan tire 3 conclusions.

u5dtmvnuq5yee7ewhjtapb4kog6svcx

capture-decran-2017-01-30-a-23-21-31Premièrement, l’importance des “compagnons de voyages,” qui peuvent être “des labels, du packaging, des véhicules ou des chaperons.” Que le packaging, en particulier visuel, soit une condition sine qua non de succès est visible dans le soin apporté à toutes les représentations graphiques des travaux récents sur les inégalités : métaphore animale ou référence à des classiques pour marquer les esprits, rupture avec la sémiologie statistique standard pour mettre en valeur certaines données. Un autre exemple est celui du succès d’Our World in Data, le site alimenté par Max Roser. Celui-ci pense que les médias ont tendance à plus insister sur les faits négatifs. Il se réfère aux travaux de Johan Galtung, selon lequel la fréquence de publication des médias (hebdo puis en temps réel) les empêche d’identifier et de couvrir des tendances positives de long terme. Son projet consiste donc à rassembler des séries de très long terme sur la santé, l’éducation, les conflits, le niveau de vie, etc., et à les visualiser selon une stratégie élaborée avec soin. Il y aurait aussi beaucoup à dire sur les véhicules divers que les économistes ont utilisés pour faire circuler les faits économiques qui leur semble important. On peut par exemple penser aux séries TV animées par John Galbraith et Milton Friedman (voir cet ouvrage consacré aux économistes et leurs publics).

Deuxièmement, indique Morgan, les “terrains” sur lesquels les faits circulent et leurs “frontières” ont aussi de l’importance. Ceux-ci peuvent être disciplinaires, professionnels, historiques, géographiques ou culturels. Les raisons pour lesquelles la réception de l’ouvrage de Thomas Piketty, Le Capital au XXIeme Siècle,  fut bien meilleure aux Etats-Unis qu’en France sont, par exemple, difficile à établir. La réflexion autour du bien-être et de ses mesures semble en revanche avoir rencontré dans notre pays un terreau plus fertile. Enfin, la capacité d’un fait à voyager dépend de ses caractéristiques intrinsèques, attributs et fonctions. Ceux-ci s’acquièrent souvent en cours de route, et se voient à travers les adjectifs utilisés pour décrire certains faits : “compréhensibles, surprenants, reproductibles, têtus, évidents, cruciaux, incroyables, importants, étranges.” Certains de ces adjectifs dénotent des qualités intrinsèques, d’autres des aspects affectifs. Au total, l’entrée brutale dans un monde “post-vérité,” mais surtout le lent déclin de la confiance en leur expertise forcent actuellement les économistes à réfléchir à des stratégies de défense et de contre-attaques. Ils peuvent, pour cela, puiser dans celles mises en oeuvre par leurs prédécesseurs ainsi que par d’autres types de professionnels, à condition, bien sûr, qu’ils s’intéressent à leur histoire.

Notes

[1] L’opposition données publiques/agrégées/ouvertes /petites quantités vs données privées/désagrégées/grandes quantités/propriétaires me semble largement surfaite. Il suffit de penser aux millions de données générées dans les pays ou le système éducatif et/ou de santé est public, ainsi que les données démographiques et fiscales, auxquelles les chercheurs en science sociales n’ont que rarement accès. Cela ne remet cependant pas en cause la possibilité d’une concurrence entre données publiques et privées – et la nécessité pour les états de réfléchir aux problèmes de confidentialité vs ouverture aux chercheurs.

[2] Un apercu de ces travaux figure dans la liste de lecture proposée par François Briatte, Samuel Goëta et Joël Gombin ou celles que l’on peut glaner sur le site d’Emilien Ruiz, sur le site du projet AGLOS – visant à fédérer un réseau international et interdisciplinaire d’étude des appareils statistiques de différents pays, ou au fil des references proposées sur la page du séminaire Chiffres Privés, chiffres publics, coordonné par Beatrice Touchelay. La revue Statistiques et Sociétés est consacrée à ces recherches. Pour un apercu de “l’école” fondée par Alain Desrosiere, voir cet ouvrage (en anglais) qui lui rend hommage ou ce numéro special. Les historiens français, eux, se sont plutôt penchés sur les techniques -de l’économétrie à l’expérimentation-, des théories – du choix, des jeux- et les modèles -en particuliers macroéconomiques- produits par les économistes. Cette littérature est également cruciale pour comprendre la crise de l’expertise actuelle, mais elle n’est pas le sujet ici.

[3] Voir la thèse de Geraldine Thiry (FR) ou celles de Benjamin Mitra-Khan et de Dan Hirschman (EN). Voir aussi cette bibliographie.

[4] L’article traite du contexte américain, et exclue donc la possibilité que l’intérêt pour les inégalités de revenus ait émergé en Grande-Bretagne dans les années 1960, en particulier sous l’impulsion d’Antony Atkinson.

Advertisement

1 Comment

Leave a Reply

Fill in your details below or click an icon to log in:

WordPress.com Logo

You are commenting using your WordPress.com account. Log Out /  Change )

Twitter picture

You are commenting using your Twitter account. Log Out /  Change )

Facebook photo

You are commenting using your Facebook account. Log Out /  Change )

Connecting to %s