From physicists to engineers to meds to plumbers: Esther Duflo rediscovering the lost art of economics @ASSA2017

“The economist as plumber”

esther-dulfo-speaking-mit_0Yesterday, Esther Duflo gave the American Economic Association Richard T. Ely lecture (edit: the full video of the lecture is now online). The gist of her talk was that economists should think as themselves more as plumbers who lay the pipes and fix the leaks. Economists should not merely be concerned with what policy to implement she argued, but to work out the details and practicalities of such implementation. She gave a lot of examples seemingly related to institutional design (though not through mechanisms). For instance, she showed that the transparency, thus efficiency, of a rice subsidy program could be improved by providing ID card to eligible family. But how authorities provide the cards matter, she pointed out. Likewise, not just how many government workers you hire and how much you pay them is important. How you recruit them, that is what you whether you should advertise career prospect or public service matters. She was especially concerned with identifying “leaking pipelines,” that is, where corruption occurred. At first, it wasn’t clear that the new perspective she was advocating was anything more than a repackaging of the idea that economists should pay more attention to institutions, large and small, especially when disregarded by policy makers because of “ideology, ignorance or inertia.” Their lack of concern is shown is the recent ruthless Indian demonetization, she emphasized.

 But it quickly appeared Duflo wasn’t merely aiming at repackaging. She was calling for a more radical “mindset change.” She wanted economists to reconceive economic agents, policy-makers and bureaucrats as bounded “humans” embedded in wider power structures and cultures, and to realize that thinking goods ideas is not enough to improve the latter’s welfare. “Incentive architecture” is thus needed, and economics expertise is especially relevant because it deals with behavioral, incentive and market equilibrium issues. The recent success of (some) “nudge” has given some salience to benefits of crafting incentives carefully, for instance by fixing regulations to prevent firms from exploiting loopholes. Plumbing was also beneficial for economics as science, she continued, as it helped generate counterfactuals by randomizing on entire markets. Plumbing also shines the spotlight on issues theorists had previously ignored, like how important the default scenario is. Economics as plumbing requires a more pragmatic and experimental mindset, she concluded, as it requires them to make decision without having a full knowledge of the system to be tinkered (“tinkering” was one of the keywords of the speech).


Scientists, engineers, meds: the shifting identity of economists

Though Duflo was very cautious in her talk, making her plumbering analogy a call for humility, her claims are more transformative that they sound. Ely lectures are, like presidential addresses, a primary vehicle to address the state of the discipline, to reflect about economists’ proper objects of study, methods and social role. Jacob Viner had started the series by reflecting on “The Economist in History” in 1962. These lectures are, in fact, often attempts to shape and reshape economists’ identity.. My take is that Duflo’s talk is no exception, and that putting her attempt to alter economists’ identity by comparing them to other professionals into (sketchy) historical perspective might highlight her goals.

jnkeynesThese comparisons are tricky material for historians, because they have often been more than just metaphors. What economists have borrowed from other sciences, disciplines and practices include image but also questions, objects of study, tools, epistemological and social relevance criteria. In the XIXth century, political economy was considered as a positive science, but also as a branch of ethics and as an art.“It is a further questions whether or not we should also recognize, as included under political economy in the widest sense – but distinct from the positive science – (a) a branch of tehics which may be called the ethics of political economy, and which seels to determine economics ideals; and (b) an art of political economy, which seeks to formulate economic precepts, John Neville Keynes wrote in 1890. Keynes’ argued that the art of economist entailed a different methodology from positive science, and that failing to distinguish the two would impoverish economic expertise. “One hundred years later, he has turned out to be clairvoyant,” David Colander diagnosed in a 1992 essay lamenting “The Lost Art of Economics.”

The last 100 years can indeed been construed as an irresistible march toward making economics a science, notably by emulating physics. Philip Mirowksi showed that this physics envy included borrowing methodological claims (Popperian deductive approach, economics being concerned with identifying laws), metaphors (“energy”, “body”, “movement”, values”) and mathematical models and tools (law of energy conversion them thermodynamics). The physics comparison was a rhetorical weapon, wielded by NBER’s Wesley Mitchell in the 1940s during the discussing following Vannevar Bush’s Science: The Endless Frontier report (Bush and his fellow physicists advocated federal funding for “sciences.” Alas, the resulting National Science Foundation, established in 1950, did not cover any social science). But the pervasive reference to physics also reflected genuine emulation, as seen in Roger Backhouse forthcoming biography of Paul Samuelson. In the late 1930s, the young Chicago sophomore decided to start a diary in the 1930 to reflect on Frank Knight, Jacob Viner and his other teachers’ ideas, Backhouse relates. Its first sentence set the tone of Samuelson’s (hence the whole profession’s) methodological vision :

“Science is essentially the establishing of Cause and Effect relationships. This knowledge can be utilized in controlling causes to produce desired effects. It is the realm of philosophy to decide what these objectives shall be, and that of science to achieve those decided upon.”

After World War two, Mirowski argued in a follow-up volume, economists gradually shifted to information science metaphor (“machine dream”). It was however another comparison that gained currency in that period: the economist as engineer. Of course, several economists have been trained as engineers for more than a century. Those French economists-engineers trained at Polytechnique and the Grand Corps d’Etat have, from Jules Dupuit to Marcel Boiteux, applied their tools to rationalize public management and set prices for public goods and utilities. Tool exchanges between operational research and economics have been numerous in the postwar, especially in those universities with strong engineering tradition (MIT, Carnegie). Many of those economists who developed al_roth_sydney_ideas_lecture_2012clab experiment and mechanism design, like Vernon Smith or Steve Rassenti, were trained as engineers. One of them, Al Roth, graduated from Stanford’s Operational Research program before applying his game theoretic tools to economic issues. Yet, he said, he felt that was really doing the same science, and he later wrote the famous paper that stabilized market designers’ economic identity as engineers and scientists: “if we want market design to be better informed and more reliable in the future, we need to promote a scientific literature of design economics. Today this literature is in its infancy. My guess is that if we nurture it to maturity, its relations with current economics wll be something like the relationship of engineering and physics, or of medicine and biology,” he wrote. 

            The engineering metaphor was taken up by many other economists, including Bob Shiller, in his defense of his shared Nobel Prize: “economic phenomena do not have the same intrinsic fascination for us as the internal resonance of the atom […]. We judge economics by what it can produce. As such, economics is rather more like engineering than physics, more practical than spiritual,” he explained, before claiming that engineering should have its Nobel too. That Shiller and Fama held opposed views of how financial markets work came under such fire that Raj Chetty also weighted in. Yes, economics is a science, he hammered, but one akin to medicine. “The kind of empirical work in economics might be compared to the “micro” advances in medicine (like research on therapies for heart disease) that have contributed enormously to increasing longevity and quality of life, even as the “macro” questions of the determinants of health remain contested,” he explained.

            These engineering and medicine comparisons served various purposes. In the wake of the financial crisis, Shiller and Chetty used them to argue that a discipline can yield scientific and useful knowledge in spite of its approximations, limits, and possible mistakes. But considering medicine as a repository of scientific methods to tap was also on Alan Krueger and Esther Duflo’s agenda. Krueger interestingly relates how he used to read the New England journal of Medicine. In her Ted talk laying out her randomized experiments methodology, Duflo was more straightforward: “these economics I’m proposing, it’s like 20th century medicine. It’s a slow, deliberative process of discovery. There is no miracle cure, but modern medicine is saving millions of lives every year, and we can do the same thing.” And in a recent book, French economists Pierre Cahuc and André Zylberberg created a stir by calling all those economics works that did not rely on the kind of careful causal identification medicine proposed “negationism.”


Rediscovering the “art” of economics?

In her Ely lecture, Duflo is thus moving away from medicine envy. To what extent her “economists-as-plumber” comparison is merely metaphorical is unclear, but she carried it throughout her talk, one riven with pipes, taps, leaks, flowcharts, and verbs like fixing and tinkering. But the key question is not as much about the nature of the comparison as it is about its purpose. How much does she wants economists’ identity shifted? At the beginning of her talk, she offered a reassuring sense of continuity. Scientists provide the general framework that guides the design of policies and markets, she clarified. Roth’s engineer takes this framework and confronts it to real situation, but “he knows what the are important features of the environment and tries to design the machine to address them.” “The plumber goes one step further,” she continued: “she fits the machine in the real world, carefully watches out what happens and tinkers as needed.”

            But the plumbing epistemology cannot be one whereby a preexisting scientific framework is applied, her later arguments reveal. Though she is not explicit about breaking from the rationality assumption, plumbers consider economic agents as neither endowed with perfect information, foresight and computing abilities nor fully rational in their decisions. Though her talk leaves the science of economics intact because distinct from plumbering, the latter in fact has the ability to transform what the theorist focuses on and what phenomena he needs to explain. What she might implicitly suggest is that economists should be less deductive and more inductive. The economist-as-plumber cannot wait for scientific knowledge to be mature and complete, she eventually warned. There’s a good deal of guesses, trial-and-errors and tinkering that economists should be willing to accept. In arguing this, Duflo is exactly in line with Paul Romer’s recent statement that economists should emulate those surgeons who cannot afford to wait for clean causal identification to make life-and-death decision. “Delay is costly. Impatience is a virtue,” he concluded. The plumber comparison also echoes Greg Mankiw’s distinction between macroeconomists-as-scientist and macroeconomist-as-engineer. Duflo’s Ely lecture might be a sign, then, that economists have recently rediscovered the lost art of economics.

Posted in Uncategorized | Tagged , , , , , , , | 8 Comments

Remembering Tony Atkinson as the architect of modern public economics

The sad news that Sir Antony Atkinson has passed away was released today. Tributes and reminiscences will no doubt flow this week, focusing on his extraordinary humility and generosity, alongside his lifelong dedication to the study of inequality (whose essence is perfectly captured in Piketty’s review of his last book). I would like to emphasize another aspect of his biography: his key role in the development of public economics from the 1960s onward. His contribution was intellectual (in particular his papers on optimal taxation), educational (he coauthored the most influential textbook of the 1980s and 1990s), and institutional (he was the founding editor of the Journal of Public Economics).

tony_atkinson_-_festival_economia_2015Atkinson’s early interest in poverty led him to Cambridge at a time the study of government intervention, then called public finance, was on the verge of a major overhaul. In 1966, as he received his BA, he flew to MIT, where he met two others key protagonists of the transformation of public economics: Joseph Stiglitz, then a graduate student, and Peter Diamond. The latter had just returned from Berkeley, then immersed in the application of duality techniques to microeconomic issues. In the public economics course he had set up with Carry Brown, Diamond was thus teaching duality and how to measure dead weight burden using expenditure function. Atkinson also took Robert Solow’s seminal growth theory course. Back in Cambridge, he pursued his interest in mathematical economics and growth theory, which he blended with a concern for development, the topic James Mirrlees was lecturing about. Frank Hahn was his director of studies. Atkinson would also cite Jan Graff’s Theoretical Welfare Economics (1957) and James Meade’s Trade and Welfare (1955) as nurturing his early interest in welfare issues. These various influences led him to write a dissertation on the reform of social security, poverty and inequality.

 In the Fall of 1967, Atkinson began teaching public economics with Stiglitz, who was then a research fellow at Cambridge. His first lecture opened straight with the two theorems of welfare economics, before going into externalities, indivisibilities, measurement of waste, optimal tax structure, government production, distribution and non convexities. He combined theoretical exposition with figures, though the dearth of data on social security, taxes and government expenditures was a serious hindrance to the growing econometrics research aimed at studying tax incidence of how households and firms reacted to taxation (it was only in the late 1970s, he remembered, that tax data became available for research). It was in these formative years that Diamond and Mirrlees circulated a model of differentiated commodity taxation building on previous work by Ramsey. Their results were immediately integrated and discussed by Atkinson in his lectures.

 In 1971, he moved to recently founded Essex University. He and Stiglitz began working on the interaction between direct and indirect taxation in the choice of an optimal tax structure. They also aimed at reformulating Diamond and Mirrlees’s taxation efficiency results in a more appealing way for those British public finance economists trained in the Pigovian surplus tradition. Their most famous result, published in 1976, stated that, assuming the utility function is separable between labor and consumption and non-linear income taxation is possible, the government can rely solely on direct labor income taxation (they interpreted capital income tax as a tax on future consumption, one that would distort savings). Their conclusion that, under specific conditions, no indirect tax need be employed spawned decades of debates on whether and under which circumstances capital income tax should be raised.

505578 As the time Atkinson accepted Essex’s offer, the science publishing business was booming, and economics has expanded so much that there was a growing need for specialization. North-Holland sounded him about the establishment of a field journal. Atkinson agreed to become editor, and immediately asked Martin Feldstein, Johansen and Stiglitz to join him. They were to handle public expenditures and econometrics studies of taxation, planning & fiscal policy, and the pure theory of taxation and public expenditure submissions respectively. Masahiko Aoki, Guy Arvidsson, Cary Brown, James Buchanan, Peter Diamond, Serge-Christophe Kolm, Julius Margolis, P. Mieszkowski, James Mirrlees, Richard Musgrave, Paul Samuelson, Ethan Sheshinski, Ralph Turvey, among others, also agreed to serve on the board. The unusually high number of associate editors was probably a reflection of the strength and distinctive features of national traditions in the economic analysis of the state, as well as Atkinson’s characteristic desire to combine theoretical and applied perspectives. He was also eager not to cannibalize existing journals on fiscal policy (like the National Tax Journal) or on the regulation of public utilities (like the Bell Journal). He however sensed his new journal would cover new “areas not traditionally included in public finance, and would be more theoretically oriented.” He also wanted to cover “political party decision-making particularly when it is focused on economic decision or when it is based on economic models.” The first issue of the Journal of Public Economics appeared in 1972, with contributions by Johansen, Buchanan and Goetz, Feldstein, Mieszkowski, King, Sandmo, Hellowell, Bliss, Ursula Hicks, and a first paper on the structure of indirect taxation by Atkinson and Stiglitz themselves. He also organized conferences in Essex, Sienna, etc.., which led to special issues of the journal and further community building.

 At Essex, Atkinson also set up a graduate course in public economics. Back then, the two books graduate students could sweat on were Mugrave’s The Theory of Public Finance (1959) and Leif Johansen’s Public Economics (1965). A.R. Prest’s Public Finance was fashionable in the UK, while Richard Goode’s The personal Income Tax (1965) and Haveman and Margolis’s Public Expenditures and Policy Analysis (1970) were largely used in the US. Musgrave and Johansen both devoted large parts of their books to macro stabilization policy, and neither included new ways to model optimal taxation issues in a general equilibrium setting developed in late 1960s. Atkinson and Stiglitz therefore decided to turn their lectures into a textbook. It took them almost a decade years to do so, but the structure of the book hasn’t changed much since their late 1960s course. Here is how Atkinson described their division of labor:

Joe wrote more on the theory of the firm, risk-taking and the taxation of investment; I drafted the chapters on general equilibrium. The chapters on optimal taxation grew out of our joint articles, but Joe led on the optimal provision of local public goods (a subject with which I still struggle). But we re-wrote each other’s work and drafts crossed and re-crossed the Atlantic. Until recently I kept on my office wall one page from Joe’s amendments to my chapter, as documentary evidence that mine was not the worst hand-writing in the world!

41lbkmhlulThe introductory chapter of the Lectures in Public Economics, eventually published in 1980 by McGraw Hill, makes for a stunning read. The standard for exposition to the field they set has since changed so little that it is difficult to imagine how dramatically different most courses in public finance were in these years. Atkinson and Stiglitz presented the reader with the two theorems of welfare economics. They then listed all sorts of reasons why Pareto-efficient allocations of resources might not be reached: distributional issues, monopolies, missing markets, imperfect information, under-utilization of resources, externalities, public goods, merit wants. These “failures of the market” make room for government intervention, they concluded. The book was divided in two parts: positive analysis of policy, with an overwhelming focus on taxation, and normative analysis with, again, a focus on optimal taxation, and chapters on pricing and public goods. Macroeconomic stabilization was excluded from the book, and two middle chapters summarized recent research on public choice and Marxist theories of the state (voting, bureaucracies, power, interests groups) and welfare economics.


capture-decran-2017-01-02-a-02-22-49Though considered very technical by several reviewers, the textbook became a must-read. By the mid-1980s, it has become the most-cited item in the huge body of literature related to public economics and taxation identified in the Claveau-Gingras bibliometric study of the Web of Science Economics data base, and was still in the top-10 most cited item throughout the 1990s. The original edition was reprinted last year. In their new introduction, Atkinson and Stiglitz explain that, should they rewrite the textbook today, they would only make several additions, including global, behavioral and empirical perspectives, and a deeper coverage of inequality and redistribution.


In 2000, Atkinson began his tribute to James Meade by writing:

James Meade saw the role of the economist as that of helping design a better society and international order. He chose to study economics in the late 1920s because he believed it ought to be possible to end the plague of mass unemployment, and his last book in 1995 [note: the year of his death] was on the subject of Full Employment Regained?

He concluded with the following quote:

Above all, James had a positive vision for the future. He was, in his own words, ‘an inveterate explorer of improvements in economic arrangements’… he wrote that ‘I implore any of my fellow countrymen who read this book not to object: “It can’t be done.” He was ultimately concerned with what could be done to make our world a better place.

Replace “unemployment” by “inequality an poverty,” and you have Tony Atkinson’s life. May our generation of economists live up to his expectations.

Note: the material for this post is taken from mail exchanges, interviews and personal archives Tony Atkinson was generous enough to provide.

Posted in Uncategorized | Tagged , | 4 Comments

What’s next in history of economics? A wish list

I just defended my habilitation, a rite de passage meant to evaluate an academic’s ability to develop a research program, to mentor graduate students and to hold a professorship. It’s a long process which begins with writing a thesis and ends up with answering two hours of questions from a peer jury. Part of the discussion looks like an unbounded meditation on the intellectual challenges ahead, with questions on methodology and future topics, yet the other is about navigating the financial and institutional constraints besetting the field, and they are especially critical in history of economics. The whole thing involves a deal of reflexivity and an insane amount of red tape.

 Below is the list of topics I wrote down when preparing the defense, those I wish to see historians of recent economics research in the years to come. It is more a wish list than an actual research program. Some of these topics are difficult to approach absent adequate archival data. And as a historian of science, I know all too well that research programs never developed as planned, and are largely shaped by data and coauthors found along the way. As it reflects my field of expertise, it’s all postwar, mostly mainstream and mostly American.

  1. History of “foundational” papers and books

What needs attention here is the making, reception and dissemination of these foundational texts. I am especially interested in learning how these works fit their authors’ largest programs, whether they owed their success to their conclusions or to their modeling styles, and how divergent subsequent uses of these models were from the author’s original intentions.

Georges Akerlof’s Lemons paper (1970)
: in the past years, it has gained a special status. Its 25,000 citations makes it one of the most cited papers in the history of economics, yet its citation pattern requires further examination (WoS data). Its three rejections are often advanced to advocate perseverance, as well as to claim that thorough changes in science publishing are necessary to foster pathbreaking knowledge. A comparison with another outlier, Coase’s The Problem of Social Cost, might be worth considering. Yet Akerlof had not made his archives public yet.


Robert Axelrod’s The Evolution of Cooperation (1984): game theory+ computers. Transformed biology, philosophy and economics among other sciences.

Thomas Schelling’s spatial segregation paper (1971): influenced the development of Agent-Based Modeling and economists’ view of how game-theoretic models should be built and for what purpose. Interesting methodological investigation and interview have been conducted by Emrat Aydinonat, but more is needed.

Leonid Hurwicz’s papers on information efficiency (1969) and mechanisms for resource allocation (1973): because mechanism design (see below)


2) History of fields (all of them, especially applied micro)

Most economists today work in applied fields, yet their history remains largely unknown, even after a 4-year research project designed to provide contexts and framing to their study. Environmental, labor, health, transportation, and international economics are covered to some extent; the history of development economics is the topic of the next HOPE conference. I have specific interest in urban, public, agricultural economics and finance. But we still lack the skills to provide full narrative arcs of how each of these fields developed and was transformed in the postwar.


3) history of tools and approaches

Duality and applied micro: our ability to write the history of applied fields is hindered by the lack of historical perspective of some of the tools applied microeconomists use. There are histories of demand curves, utility functions, Cobb-Douglas functions, but little on the adoption of duality techniques, a key element in the development of postwar applied micro. This requires diving into what was researched and taught at Berkeley in the 50s and 60s, and understanding Gorman. Same with microeconometrics.

Mechanism design: econ best-seller for policy-makers (poster child for “economics-that-changes-the-world-and-saves-money-and-even-lives” including kidney market and FCC auctions) and IT firms alike. Consequently re-shaping the internal and public image of economics. Some past and forthcoming histories by Phil Mirowksi, Eddie Nik-Khah and Kye Lee, but nothing systematic.


3) history of data bases and software

the Penn tables

-the Panel Study of Income Dynamics

Dynare: the debate on DGSE models is stalling, though a sociological layer has recently been added. While their origins have been extensively researched, their dissemination and various uses are less so. Studying the development and spread of Dynare would provide a “practitioners” rather than “big-men-with-big-ideas” perspective.



4) History of economists

William S. Vickrey: understudied key protagonist of the development of postwar applied micro. Especially interesting given his broad interests: public economics, taxation, auctions, incentives, information, game theory, macro and more.

Peter Diamond: best remedy to the spreading notion that econ theory is dying. Diamond is the quintessential “applied theorist,” a term he often used to describe himself. Has reshaped the theoretical framework in various fields ranging from public economics (optimal taxation) to labor economics (search and matching). Probably one of the most influential economists of the 70s/80s

Julius Margolis, for the same reasons I studied Marschak

-Applied economists, in particular Irma Adelman, Zvi Griliches, Ted Schultz, Marc Nerlove and Nancy RugglesAnd no, this list is not “artificially” loaded with women. They were all over the place in empirical economics in the 40s to 70s. This might even be a reason why the applied tradition in economics has largely been forgotten. The ratio of women studying applied econ may have diminished as the prestige of the field grew in the 1980s and 1990s. A similar trend has been documented by historians of computer science. A way to study this trend is to look at the history of AEA’s CSWEP.

– the inscrutable Kenneth Arrow. No justification needed here. What can be found in his archives is not enough not nail him down. The only option left, then, might be to construct a “shadow archive” by gathering the material found in the archives of his colleagues. But costly.

Economists as editors: Bernard Haley, Al Rees, Hugo Sonneschein, Orley Ashenfelter, and others. Because they had unequaled agency in shaping what counts as good and fashionable economics



5) history of places

-the NBER under Feldstein

Northwestern in the 1970s :mechanism design+experimental economics

Minnesota in the 1980s: a single corridor where Prescott, Sargent and Sims researched alongside each other (the former is said to have hanged a sign “don’t regress, progress” on his door to tease the latter), interacted in seminars and on the dissertation committees of Lars Hansen, Larry Christiano and Martin Eichenbaum.

-the other Chicago (that of Harberger, Schultz, Griliches and Chow)

-any government bureau

Berkeley in the 1950s (see above)

(also economics at Microsoft, Goldman Sachs and Google, but I don’t think this is going to happen)

Posted in Uncategorized | 5 Comments

Is there really an empirical turn in economics?

Full paper here. Reposted from the INET blog. French translation here.

The idea that economics has recently gone through an empirical turn –that it went from theory to data– is all over the place. Economists have been trumpeting this transformation on their blogs in the last few years, more rarely qualifying it. It is now showing up in economists’ publications. Not only in articles by those who claim to have been the architects of a “credibility revolution,” but by others as well. This narrative is also finding its way into historical works, for instance Avner Offer and Gabriel Söderberg’s new book on the history of the Nobel Prize in economics.

The structure of the argument is often the same. The figure below, taken from a paper by Dan Hamermesh, is used to argue that there has been a growth in empirical research and a decline of theory in the past decades.


A short explanation is then offered: this transformation has been enabled by computerization + new, more abundant and better data. On this basis, the “death of theory” or at least a “paradigm shift” is announced. The causality is straight, maybe a little too straight. My goal, here, is not to deny that a sea change in the way data are produced and treated by economists has been taking place. It is to argue that the transformation has been oversimplified and mischaracterized.

What is this transformation we are talking about? An applied rather than an empirical turn

What does Hamermesh’s figure show exactly? Not that there is more empirical work in economics today than 30 or 50 ago. It indicates that there is more empirical work in top-5 journals. That is, that empirical work has become more prestigious. Of course, the quantity of empirical work has probably boomed as well, if only because the amount of time needed to input data and run a regression has gone from a week in the 1950s, 8 hours in the 70s to a blink today. But more precise measurement of both the scope of the increase and an identification of the key period(s?) in which the trend accelerated are necessary. And this requires supplementing the bibliometric work done on databases like Econlit, WoS or Jstor with hand-scrapped data on other types of economic writings.


Cobb and Douglas 1927 regression

For economics has in fact nurtured a strong tradition in empirical work since at least the beginning of the XXth century. Much of it has been published outside the major academic journals, and has thus been forgotten (allowing some 21th century economists to claim to be the first to have ever estimated a demand curve empirically). Whole fields, like agricultural economics, business cycles (remember Mitchell?), labor economics, national accounting, then input-output analysis in the 1930s to 1960s, then cost-benefit policy evaluation from the 1960s onward, and finance all the way up have been built not only upon new tools and theories, but also upon large projects aimed at gathering, recording and making sense of data. But many of these databases and associated research were either proprietary (when funded by finance firms, commercial businesses, insurance companies, the military or governmental agencies), or published in reports, books and outlets such as central bank journals and Brookings Papers.

Neither does Hamermesh’s chart show that theory is dying. Making such a case requires tracing the growth of the number of empirical papers where a theoretical framework is altogether absent. Hamermesh and Jeff Biddle have recently done so. They highlight an interesting trend. In the 1970s, all microeconomic empirical papers exhibited a theoretical framework, but there has since been a limited but significant resurgence of a-theoretical works in the 2000s. But it hasn’t yet matched the proportion of a-theoretical papers published in the 1950s. All in all, it seems that 1) theory dominating empirical work has been the exception in the history of economics rather than the rule 2) there is currently a reequilibration of theoretical and empirical work. But an emancipation of the latter? Not yet. And 3) what is dying, rather, is exclusively theoretical papers. In the conclusion of Economic Rules, Dani Rodrik notes that

these days, it is virtually impossible to publish in top journals [in some fields] without including some serious empirical analysis […] The standards of the profession now require much greater attention to the quality of data, to causal inference from evidence and a variety of statistical pitfalls. All in all, this empirical turn has been good for the profession.

The death of theory-only papers was, in fact, pronounced decades ago, when John Pencavel revised he JEL codes in 1988 and decided to remove the “theory” category. He replaced it with micro, macro and tools categories, explaining that “good research in economics is a blend of theory and empirical work.” And indeed, another word that has gained wide currency in the past decades is “applied theory.” The term denotes that theoretical models are conceived in relation to specific issues (public, labor, urban, environmental), sometimes in relation to specific empirical validation techniques. It seems, thus, that economics has not really gone “from theory to data,” but has rather experienced a profound redefinition of the relationship of theoretical to empirical work. And there is yet another aspect of this transformation. Back in the 1980s, JEL classifiers did not merely merge theory with empirical categories. They also added policy work, on the assumption that most of what economists produced was ultimately policy oriented. This is why the transformation of economics is the last decades is better characterized as an “applied turn” rather than an “empirical turn.”

clark_medal_front_smApplied has indeed become a recurring work in John Bates Clark citations. “Roland Fryer is an influential applied microeconomist,” the 2015 citation begins. Matt Gentzkow (2014) is a leader “in the new generation of microeconomists applying economic methods.” Raj Chetty (2013) is “arguably the best applied microeconomist of his generation.” Amy Finkelstein (2012) is “one of the most accomplished applied microeconomists of her generation” (2011). And so forth. The citations of all laureates since Susan Athey (“an applied theorist”) have made extensive used of the “applied” wording, and have made clear that the medal was awarded not merely for “empirical” work, new identification strategies or the like, but for path-breaking combination of new theoretical insights with new empirical methodologies, with the aim of shedding light on policy issues. Even the 2016 citation for Yuliy Sannikov, the most theoretical medal in a long time, emphasizes that his work “had substantial impact on applied theory.”

Is it really new in the history of economics?

The timing of the transformation is difficult to grasp. Some writers argue that the empirical turn began after the war, other see a watershed in the early 1980s, with the introduction of the PC. Other mention the mid-1990s, with the rise of quasi-experimental techniques and the seeds of the “credibility revolution,” or the 2010s, with the boom in administrative and real-time recorded microeconomic business data, the interbreeding of econometrics with machine learning, and economists deserting academia to work at Google, Amazon and other IT firms.

Dating when economics became an applied science might be a meaningless task. The pre-war period is characterized by a lack of pecking order between theory and applied work. The rise of a theoretical “core” in economics between the 1940s and the 1970s is undeniable, but it encountered fierce resistance in the profession. Well-known artifacts of this tension include the Measurement without Theory controversy or Oskar Morgenstern’s attempt to make empirical work a compulsory criterion to be nominated as fellow of the Economic Society. And the development of new empirical techniques in micro (panel data, lab experiments, field experiments) has been slow yet constant.

Again, a useful proxy to track the transformation in the prestige hierarchy of the discipline is the John Bates Clark medal, as it signals what economists currently see as the most promising research agenda. The first 7 John Bates were perceived as theoretically oriented enough for part of the profession to request the establishment of a second medal, named after Mitchell, to reward empirical, field and policy-oriented work. Roger Backhouse and I have shown that such contributions have been increasingly singled out from the mid-1960s onward. Citations for Zvi Griliches (1965), Marc Nerlove (1969), Dale Jorgensen (1971), Franklin Fisher (1973) and Martin Feldstein (1977) all emphasized contributions to empirical economics, and reinterpreted their work as “applied.” Feldstein, Fisher and later, Jerry Hausman (1985), are viewed as an “applied econometrician.” It was the mid-1990s medals – Lawrence Summers, David Card, Kevin Murphy – that emphasized empirical work more clearly. Summers’ citation notes a “remarkable resurgence of empirical economics over the past decade [which has] restored the primacy of actual economies over abstract models in much of economic thinking.” And as mentioned already, the last 8 medals systematically emphasize efforts to weave together new theoretical insights, empirical techniques and policy thinking.

All in all, not only is “applied” a more appropriate label than “empirical,” but “turn” might be a bit overdone a term to describe a transformation that seems made up of overlapping stages of various intensities and qualities. But what caused this re-equilibration and possible emancipation of applied work in the last decades? As befit economic stories, there are supply and demand factors.


Supply side explanations: new techniques, new data, computerization

A first explanation for the applied turn in economics is the rise of new and diverse techniques to confront models with data. Amidst a serious confidence crisis, the new macroeconometric techniques (VARs, Bayesian estimation, calibration) developed in the 1970s were spread alongside the new models they were supposed to estimate (by Sims, Kydland, Prescott, Sargent and others). The development of laboratory experiments contributed to the redefinition of the relationship between theory and data in microeconomics. Says Svorenčík (p15):

By creating data that were specifically produced to satisfy conditions set by theory in controlled environments that were capable of being reproduced and repeated, [experimentalists] sought […] to turn experimental data into a trustworthy partner of economic theory. This was in no sense a surrender of data to the needs of theory. The goal was to elevate data from their denigrated position, acquired in postwar economics, and put them on the same footing as theory.

 The rise of quasi-experimental techniques, including natural and randomized controlled experiments, was also aimed at achieving a re-equilibration with (some would say emancipation from) theory. Whether it actually enabled economists to reclaim inductive methods is fiercely debated. Other techniques blurred the demarcation between theory and applied work by constructing real-world economic objects rather than studying them. That was the case of mechanism design. Blurred frontiers also resulted from the growing reliance upon simulations such as agent-based modeling, in which algorithms stand for theories or application, both or neither.

 23543687643_f17678e75a_bA second related explanation is the “data revolution.” Though the recent explosion of real-time large scale multi-variable digital databases is mind-boggling and has the allure of a revolution, the availability of economic data has also evolved constantly since the Second World War. There is a large literature on the making of public statistics, such as national accounting or the cost of living indexes produced by the BLS, and new microeconomic surveys were started in the 1960s (the Panel Survey on Income Dynamics) and the 1970s (the National Longitudinal Survey). Additionally, administrative databases were increasingly opened for research. The availability of tax data, for instance, transformed public economics. In his 1964 AEA presidential address, Georges Stigler was thus claiming:

The age of quantification is now full upon us. We are armed with a bulging arsenal of techniques of quantitative analysis, and of a power – as compared to untrained common sense- comparable to the displacement of archers by cannon […] The desire to measure economic phenomena is now in the ascendent […] It is a scientific revolution of the very first magnitude.

 A decade later, technological advanced allowed a redefinition of the information architecture of financial markets, and asset prices, as well as a range of business data (credit card information, etc.), could be recorded in real-time. The development of digital markets eventually generated new large databases on a wide range of microeconomic variables.

 Rather than a revolution in the 80s, 90s or 2010s, the history of economics therefore seems one of constant adjustment to new types of data. The historical record belies Liran Einav and Jonathan Levin’s statement that “even 15 or 20 years ago, interesting and unstudied data sets were a scarce resource.” In a 1970 book on the state of economics edited by Nancy Ruggles, Dale Jorgenson explained that

the database for econometric research is expanding much more rapidly than econometric research itself. National accounts and interindustry transactions data are now available for a large number of countries. Survey data on all aspects of economic behavior are gradually becoming incorporated into regular economic reporting. Censuses of economic activity are becoming more frequent and more detailed. Financial data related to securities market are increasing in reliability, scope and availability.

And Guy Orcutt, the architect of economic simulation, explained that the current issue was that “the enormous body of data to work with” was “inappropriate” for scientific use because the economist was not controlling data collection. With a very different qualitative and quantitative situation, they were making the same statements and issuing the same complaints as today.


IBM 1620 (1959)

This dramatic improvement in data collection and storage has been enabled by the improvement in computer technology. Usually seen as the single most important factor behind the applied turn, the computer has affected much more than just economic data. It has enabled the implementation of validation techniques economists could only dreamed of in the previous decades. But a with economic data, the end of history has been repeatedly pronounced: in the 1940s, Wassily Leontief predicted that the ENIAC could soon tell how much public work was needed to cure a depression. In the 1960s, econometrician Daniel Suit wrote that the IBM 1920 enabled the estimation of models of “indefinite size.” In the 1970s, two RAND researchers explained that computers had provided a “bridge” between “formal theory” and “databases.” And in the late 1980s, Jerome Friedman claimed that statisticians could substitute computer power for unverifiable assumptions. If a revolution under way, then, it’s the fifth in fifty years.

But the problem is not only with replacing “revolutions” with more continuous processes. The computer argument seems more deeply flawed. First, because the two most computer-intensive techniques of the 1970s, Computable General Equilibrium and large-scale Keynesian macroeconometrics, were marginalized at the very moment they were finally getting the equipment needed to run their models quickly and with fewer restrictions. Fights erupted as to the proper way to solve CGE models (estimation or calibration), Marianne Johnson and Charles Ballard explain, and the models were seen as esoteric “black-boxes.” Macroeconometric models were swept away from academia by the Lucas critique, and found refuge in the forecasting business. And what has become the most fashionable approach to empirical work three decades later, Randomized Control Trials, merely requires the kind of means and variances calculations that could have been performed on 1970s machines. Better computers are therefore neither sufficient nor necessary for an empirical approach to become dominant.

 Also flawed is the idea that the computer was meant to stimulate empirical work, thus weaken theory. In physics, evolutionary biology or linguistics, computers transformed theory as well as empirical work. This did not happen in economics, is spite of attempts to disseminate automated theorem proving, numerical methods and simulations. One explanation is that economists stuck with concepts of proof which required that results are analytically derived rather than approximated. With changes in epistemology, the computer could even made any demarcation between theory and applied irrelevant. Finally, while hardware improvements are largely exogenous to the discipline, software development is endogenous. The way computing affected economists practices was therefore dependent on economists’ scientific strategies.

The better integration of theoretical and empirical work oriented toward policy prescription and evaluation which characterized the “applied turn” was not merely driven by debates internal to the profession, however. They also largely came in responses to the new demands and pressures public and private clients were placing on economists.


Demand side explanation: new patrons, new policy regimes, new business demands

            An easy explanation to the rise of applied economics is the troubled context of the 1970s: the social agitation, the urban crisis, the ghettos, the pollution, the congestion, the stagflation, the energy crisis and looming environmental crisis, the Civil Right movement resulted in the rise of radicalism and neoliberalism alike, students’ protests and demand for more relevance in their scientific education. Both economic education and research were brought to bear on real-world issues. But this raises the same why is this time different? kind of objection mentioned earlier. What about the Great Depression, World War II and the Cold War? These eras pervaded by a similar sense of emergency, a similar demand for relevance. What was different, then, was the way economists’ patrons and clients conceived the appropriate cures for social diseases.

Patrons of economic research have changed. In the 1940s and 1950s, the military and the Ford Foundation were the largest patrons. Both wanted applied research of the quantitative, formalized and interdisciplinary kind. Economists were however eager to secure distinct streams of money. They felt that being often looped together with other social sciences was a problem. Suspicion toward social sciences was as high among politicians – isn’t there a systematic affinity with socialism– as among natural scientists –social sciences can’t produce laws. Accordingly, when the NSF was established in 1950, it had no social science division. By the 1980s, however, it has become a key player in the funding of economic research. As it rose to dominance, the NSF imposed policy-benefits, later christened “broader impact,” as a criterion whereby research projects would be selected. This orientation was embodied in the Research Applied to National Needs office, which, in the wake of its creation in the 1970s, supported research on social indicators, data and evaluation methods for welfare programs. The requirement that the social benefits of economics research be emphasized in applications was furthered by Ronald Reagan’s threat to slash the NSF budget for social sciences by 75% in 1981, and the tension between pure and applied research, and policy benefits has since remained a permanent feature of its economic program.


Heather Ross’s test of he negative income tax

As exemplified by the change in NSF’s strategy, science patrons’ demands have sometimes been subordinated to changes in policy regimes. From Lyndon Johnson’s to Reagan’s, all government pressured scientists to produce applied knowledge to help the design, and, this was new, the evaluation of economic policies. The policy orientation of the applied turn was apparent in Stigler’s 1964 AEA presidential address, characteristically titled The Economist and the State: “our expanding theoretical and empirical studies will inevitably and irresistibly enter into the subject of public policy, and we shall develop a body of knowledge essential to intelligent policy formulation,” he wrote. Henry Ford’s interest in having the efficiency of some welfare policies and regulations evaluated fostered the generalization of cost-benefit analysis. It also pushed Heather Ross, then MIT graduate student, to undertake with Princeton’s William Baumol and Albert Rees a large randomized social experiment to test negative income tax in New Jersey and Pennsylvania. The motivation to undertake experiment throughout the 70s and 80s was not so much to emulate medical science, but to allow the evaluation of policies on pilot projects. As described by Elisabeth Berman, Reagan’s deregulatory movement furthered this “economicization” of public policy. The quest to emulate markets created a favorable reception to the mix of mechanism design and lab experiments economists had developed in the late 1970s. Some of its achievements, the FCC auction or the kidney matching algorithm have become the flagship of a science capable to yield better living. These skills have equally been in demand by private firms, especially as the rise of digital markets involved the design of pricing mechanisms and the study of regulatory issues. Because it is as much the product of external pressures as of epistemological and technical evolutions, it is not always easy to disentangle rhetoric from genuine historical trend in the “applied turn.”


Note: this post relies on the research Roger Backhouse and I have been carrying in the past three years. It is an attempt to unpack my interpretation of the data we have accumulated, as we are writing up a summary of our finding. Though it is heavily influenced by Roger’s thinking, it only reflects my own views.


Posted in Uncategorized | Tagged , , , , , , , , | 5 Comments

Assiste-t-on vraiment un “tournant empirique” en économie?

L’idée que la science économique est en train de connaitre un “tournant empirique” est partout. Elle est depuis quelques années omniprésente sur les blogs de certains économistes américains (mais c’est rarement pour la mettre en cause). Ces derniers mois, elle s’ancre également dans la blogosphère française. On la retrouve aussi dans les publications plus académiques, pas seulement de ceux qui défendent cette “révolution de la crédibilité,” parfois de manière caricaturale, mais aussi de ceux qui cherchent plus largement à commenter sur l’état de leur discipline. Cette notion de tournant empirique fait même son nid dans des travaux plus historiques, comme l’ouvrage d’Avner Offer et de Gabriel Söderberg sur l’histoire du prix Nobel d’économie, tout juste paru.

L’argument est presque systématiquement présenté de la même façon. Un tableau issu d’un article de Dan Hamermesh est utilisé pour affirmer que l’on observe une montée en puissance du travail empirique et un essoufflement de la théorie économique ces dernières décennies.


L’explication qui est fournie, souvent lapidaire, attribue cette transformation au progrès de l’informatique aussi qu’à l’augmentation de la quantité, qualité et diversité des données économiques. La ‘mort de la théorie économique,’ ou tout au moins un ‘changement de paradigme’ est ainsi annoncée. Mon objectif, dans ce post, n’est aucunement de nier que des changements profonds ont eu lieu dans la manière de produire et traiter les données économiques. C’est d’expliquer en quoi ces changements sont mal compris et caricaturés. Les méthodes supposées constituer ce “tournant empirique” étant largement importées des Etats-Unis, c’est sur la science économique américaine que porte ce post. Les spécificités françaises feront l’objet d’un texte séparé.

Les transformations de la science économique : un tournant “appliqué” plus qu’un tournant “empirique”

Que montrent, au juste, les chiffres fournis par Hamermesh? Certainement pas qu’il y a plus de recherche empirique en économique aujourd’hui qu’il y a 30 ou 50 ans. Le tableau montre qu’il y a plus de recherche empirique dans les 5 revues les plus en vue de la profession. Donc, que l’économie empirique a gagné en prestige. Evidemment, sa quantité a également augmenté, ne serait-ce que parce qu’il fallait une semaine pour entrer des données et faire tourner un modèle dans les années 1950, encore 8 heures au début des années 1970, contre moins d’une seconde aujourd’hui. Mais on se sait quasiment rien de l’intensité de cette transformation, ni même de la (les) périodes(s) charnière(s) durant lesquels la production de travaux empiriques s’est accélérée. Quantifier ces variables clé supposerait de rompre  avec l’habitude de tirer des conclusions quantitatives presqu’exclusivement des données offertes par Econlit, WoS or Jstor.

Car il existe en réalité une tradition empirique très forte en économie, laquelle remonte au moins jusqu’au début du XXième siècle. Mais, comme l’habitude n’était pas de publier ces travaux dans des revues académiques, celle-ci n’apparaît jamais dans les études bibliométriques supposées refléter la production des économistes, et reste de ce fait largement ignorée (à tel point,semble-t-il, que certains économistes du XXIème siècle pensent être les premiers à avoir jamais estimé empiriquement une fonction de demande ). Des champs entiers de la discipline, de l’économie agricole en passant par l’étude des cycles (le nom de Mitchell devrait ici évoquer un vague souvenir), en passant par l’économie de l’emploi, la comptabilité nationale, puis l’input-output, l’analyse couts-bénéfice omniprésente à partir des années 1960, et toute l’économie financière de ses débuts à la période actuelle, ne se sont pas uniquement construits sur des théories et instruments. Ils sont tout autant nés de projets ambitieux visant à récolter, stocker et faire parler des données. Mais les études qui résultèrent de ces projets sont difficiles à recenser. Soit que l’accès soit restreint par les entreprises, les compagnies d’assurance et les banques, l’armée, ou les ministères et agences gouvernementales qui les ont commandité, soit qu’elles soient publiées dans des ouvrages, des rapports ou des publications professionnelles non référencées par les principaux portails de revues.


Le tableau d’Hamermesh ne montre pas non plus que la théorie économique s’éteint. Affirmer cela requiert des données sur l’évolution nombre d’articles empiriques ne faisant aucune référence à un cadre théorique pré-déterminé. C’est précisément ce à quoi se sont  récemment intéressés Dan Hamermesh et Jeff Biddle. Leur dernière étude démontre ainsi que si, dans les années 1970, il était quasiment impossible de trouver un article de micro dont le travail empirique ne soit pas adossé à un modèle théorique, on observe bien une résurgence de ceux-ci à partir des années 2000. En revanche, elle n’a, pour l’instant, rien de comparable avec la quantité d’articles a-théoriques publiés dans les années 1950s. Il semble donc 1) que la domination de la théorie sur l’empirique ait été l’exception plutôt que la règle dans l’histoire de la science économique ; 2) qu’il y ait, pour l’instant, plutôt un rééquilibrage des relations entre théorie et travail empirique plutôt qu’une réelle émancipation de ce dernier et que 3) c’est plutôt la recherche exclusivement théorique qui est en voie d’extinction. Cette analyse est en phase avec la manière dont Dani Rodrik présente le tournant empirique dans son dernier ouvrage :

Il est aujourd’hui quasiment impossible de publier [sur certains sujets] dans les meilleures revues sans présenter une analyse empirique sérieuse […] Les standards de la profession réclament désormais qu’une attention bien plus grande soit portée à la qualité des données, de l’inférence causale, et d’une large batterie de possibles biais statistiques. Au total, le tournant empirique a bénéficié à l’économie.

La disparition des articles exclusivement théoriques a, en réalité, déjà été actée il y a de nombreuses années, quand John Pencavel révisa le système de classification de son journal, les JEL codes, en 1988. Il décida alors de supprimer la catégorie “théorie” qui trônait en haut de la classification depuis le début du siècle. Il la remplaça par des catégorie micro, macro et techniques de recherche, en expliquant que “la bonne recherche en économie est un mélange de théorie et de travail empirique.” Et effectivement, l’un des termes qui connaissait déjà un succès croissant à cette période était celui de “théorie appliquée.” Il reflétait la pratique croissante qui consistait à concevoir les modèles théoriques directement en fonction des techniques empiriques qui allaient servir à le confronter aux données, et en regard aux problèmes spécifiques (urbains, environnementaux, publics, etc.) que l’on entendait étudier. Il ne semble donc pas tant que l’économie ait évoluée “de la théorie vers les données,” mais qu’elle a plutôt été le théâtre d’une redéfinition fondamentale du rapport entre la théorie et l’empirique. Mais ce n’est pas le seul aspect de cette transformation. Alors que les éditeurs du JEL tentaient une fusion systématique des catégories théoriques et empiriques, ils décidèrent de faire de même avec les catégories de “politique économique,” puisque cette dernière constituait de plus en plus la finalité de la majorité de la production scientifique.

clark_medal_front_smLa transformation qu’a connue la science éco ces dernières décennies est donc trop large et trop riche pour être qualifiée de “tournant empirique.” La notion de “tournant appliqué” convient mieux. Le terme appliqué est d’ailleurs devenu ominprésent dans les citations de la John Bates Clark Medal. La citation 2015, par exemple, commence par ‘Roland Fryer est un influent microéconomiste appliqué.’ Matt Gentzkow (2014) est présenté comme le leader ‘d’une nouvelle génération de microéconomistes appliquant les méthodes économiques.’ Raj Chetty (2013) est ‘probablement le meilleur microéconomiste appliqué de sa génération,’ Amy Finkelstein (2012) est ‘une des microeconomistes appliqués les plus accomplis de sa génération.’ Ad nauseam. Toutes citations depuis celle de Susan Athey (présentée en 2007 comme une ‘théoricienne appliquée’) ont fait usage de ce terme, et signifient très clairement que le prix n’est pas accordé uniquement pour l’excellence des contributions empiriques, mais bien pour la combinaison de ces techniques avec de nouvelles intuitions théoriques visant à améliorer la menée des politiques éco. Même la citation du lauréat 2016, Yuliy Sannikov, pour l’une des médailles les plus théoriques du XXIième siècle, met en avant ‘l’impact substantial [de son travail] sur la théorie appliquée.’

Cette transformation est-elle vraiment nouvelle ?

            Son timing est en tout cas difficile à saisir. Certains expliquent qu’elle a débuté juste après la guerre, d’autres voient plutôt une coupure dans les années 1980, quand les économistes s’équipent en PC. D’autres mentionnent les années 1990 et le développement des techniques quasi-expérimentales, ou les années 2010, durant lesquelles les données administratives et privées explosent, les techniques économétriques se reconfigurent pour intégrer les enseignements du machine learning, et les économistes désertent les universités pour rejoindre Google, Amazon et d’autres entreprises hightech.

            Déterminer quand l’économie devient une science appliquée n’a peut-être aucun sens. Dans l’entre deux-guerre, l’économie appliquée était déjà florissante, et largement indépendante des théories. La domination progressive d’un noyau théorique (the core) entre les années 1940 aux années 1970 est indéniable, mais elle a néanmoins rencontré des résistances acharnées. La controverse autour du Measurement without Theory, ou la tentative ratée d’Oskar Morgenstern pour imposer que la manipulation de données devienne une condition sine qua non pour être nommé membre de l’Econometric Society témoigne de ces tensions. Et même à cette période, l’économie empirique ne cesse de se renouveler : économétrie des séries temporelles et des données de panel, développement des premières expériences de laboratoire et de terrain, ou renouveau de l’histoire économique.

            La John Bates Clark Medal est, là encore, un artefact utile pour comprendre l’évolution de hiérarchie du savoir en économie. Les 7 premières récompenses furent perçues comme théoriquement biaisées, au point que de jeunes économistes demandèrent la création d’une autre médaille, au nom de Mitchell, pour récompenser le travail empirique, de politique économique et de terrain. Roger Backhouse et moi-même avons étudié l’apparition progressive de lauréats “appliqués” à partir des années 1960. Les citations de Zvi Griliches (1965), Marc Nerlove (1969), Dale Jorgensen (1971), Franklin Fisher (1973) et Martin Feldstein (1977) louaient toutes des contributions à l’économie empirique au sein de programmes de recherche “appliqués.” Feldstein et Fisher étaient d’ailleurs présentés comme des “économètres appliqués,” comme le sera plus tard Jerry Hausman, lauréat 1985. C’est dans les années 1990, avec Lawrence Summers, David Card et Kevin Murphy, que l’accent fut le plus clairement mis sur l’éco empirique. La citation de Summers note “une remarquable résurgence de l’économie empirique au cours de la dernière décennie [qui a] restauré le primat des économies réelles sur les modèles abstraits dans la pensée économique.” Et comme je l’ai indiqué plus haut, les 8 dernières médailles récompensent explicitement des efforts pour combiner pensée théorique, empirique et de politique éco.

            Au total, non seulement “appliqué” est plus précis qu’”empirique,” mais le mot “tournant” est peut-être lui-même inadapté pour décrire une transformation par étapes successives, d’intensité et de qualités variées. Mais comment peut-on expliquer ce rééquilibrage, sinon cette émancipation de l’économie appliquée ? Comme toute histoire traitant d’économie, on peut distinguer des facteurs d’offre, et des facteurs de demande.

L’explication par l’offre : nouvelles techniques, nouvelles données, nouvelles machines

Ce tournant appliqué est le résultat du développement d’un ensemble de nouvelles techniques pour confronter les données aux modèles économiques. Au milieu d’une sévère crise de confiance, de nouvelles techniques macroéconométriques telles que les Vars, l’estimation bayésienne, ou la calibration sont développées par Sims, Kydland, Prescott, Sargent et d’autres en même temps que les modèles qu’elles sont supposées estimer. L’essor des expériences de laboratoire a de son côté contribué à la redéfinition de la relation entre théorie et données en microéconomie. Comme l’explique Andrej Svorenčík (p15):

En créant des données produites pour satisfaire précisément les conditions fixées par la théorie au sein d’environnements contrôlés qu’il était possible de reproduire et de répéter, [les expérimentalistes] tentaient […] de transformer les données expérimentales en un partenaire de confiance pour la théorie économique. Le but était d’élever les données, depuis la position quelque peu dénigrée qui était la leur dans l’après guerre, et de les mettre sur un pied d’égalité avec la théorie.

Le développement des techniques quasi-expérimentales, en particulier des expériences naturelles et aléatoires avait un objectif similaire. Que celles-ci aient effectivement permis aux économistes d’utiliser des méthodes plus inductives fait l’objet de vifs débats. D’autres techniques eurent pour conséquence un effacement des frontières entre le théorique et l’empirique, parce qu’elle consistaient à construire des objets économiques réels, par exemple des marchés, plutôt que de les étudier. C’est le cas du mechanism design. L’utilisation croissante, bien que contestée, des simulations de tous poils contribuent aussi à cet effacement. Dans quelle catégorie, par exemple, classer les algorithmes utilisés pour l’agent-based modeling?

23543687643_f17678e75a_bCe qui est souvent qualifié de “révolution des données” constitue une seconde explication. L’explosion des grosses bases de données où d’innombrables variables sont enregistrées en temps réel possède certes tous les attributs d’une révolution. Pourtant, la mise à disposition de nouvelles données économique a progressé de manière constante dans l’après-guerre. Il existe une littérature foisonnante sur l’histoire de la statistique publique, notamment la comptabilité nationale ou les index du coût de la vie calculés par le Bureau of Labor Statistics. De larges enquêtes microéconomiques furent mises en œuvre dans les années 1960, et des bases de données administratives furent ouvertes aux chercheurs. La mise à disposition des données fiscales ouvrit, par exemple, de nouvelles perspectives en économie publique. Dès 1964, Georges Stigler déclarait dans son discours présidentiel à l’AEA l’arrivée d’un “nouvel âge d’or”:

Nous sommes désormais entré de plein pied dans l’âge de la quantification. Nous sommes armés de tout u arsenal de techniques d’analyse quantitative, et d’un pouvoir […] comparable à celui qui remplaça les archers par des canons […] le désir de mesure les phénomènes économiques est maintenant croissant […] c’est une révolution scientifique de premier ordre.

Une décennie plus tard, l’architecture informationnelle des marchés financiers fut révolutionnée par les progrès technologiques, et les prix d’actifs, comme un large ensemble de données privées ou commerciales, commencèrent à être enregistrés en temps réel. Le développement des marchés digitaux généra un nouvel ensemble de données microéconomiques.

            L’histoire de l’économie n’est donc pas tant caractérisée par une révolution dans les années 80, 90 ou 2000 que par un ajustement constant à de nouveaux types de données. Elle contredit l’affirmation de Liran Eivav et de Jonathan Levin, selon laquelle “il y a 15 ou 20 ans à peine, les données intéressantes mais encore peu étudiées étaient une ressource rare.” Dans un ouvrage sur l’état de l’économie en 1970 édité par Nancy Ruggles, Dale Jorgenson explique au contraire que :

les bases de données disponibles pour la recherche économétrique se développent beaucoup plus rapidement que la recherche économétrique elle-même. Les comptes publics et les données sur les transactions entre industries sont désormais disponibles pour un nombre important de pays. Des données d’enquêtes sur tous les aspects du comportement économique sont progressivement incorporées dans les comptes rendus économiques. Les recensements de l’activité économique deviennent plus fréquents et plus détaillés. Les données financières sur les marchés des titres s’améliorent en fiabilité, couverture et disponibilité.

Dans le même volume, Guy Orcutt, père de l’utilisation de la simulation en économie, se plaignait que “l’ensemble considérable des données disponibles” était “inapproprié” à un usage scientifique puisque l’économiste n’était pas en mesure d’en contrôler la collecte. La quantité et la qualité des données avait beau être bien inférieure à celle d’aujourd’hui, les constats et les plaintes étaient les mêmes.

           IBM_PCLa collecte et de la mise à disposition des données ont largement bénéficié des progrès de l’informatique, hardware et software. Vu comme le facteur central du tournant appliqué, le développement des ordinateurs a eu des conséquences bien plus larges sur la discipline. Il a permis la mise eu oeuvre de techniques économétriques dont les économistes ne pouvaient que rêver quelques années auparavant. Mais là aussi, la fin de l’histoire a déjà été annoncée de nombreuses fois. Dans les années 1940, Wassily Leontief prédisait que l’ENIAC pourrait bientôt calculer la quantité de projets publics nécessaires pour sortir les Etats-Unis d’une dépression. Dans les années 1960, l’économètre Daniel Suit écrivait que l’IBM 1620 pouvait permettre l’estimation de modèles de taille quasi-illimitée. Dans les années 1970, deux chercheurs de la RAND expliquaient que les ordinateurs offraient désormais un ‘pont’ entre ‘la théorie formelle’ et les données. Et à la fin des années 1980, Jérome Friedman affirmait que les statisticiens étaient en mesure de remplacer des hypothèses invérifiables par de la puissance informatique. Si nous assistons à une révolution informatique en science éco, c’est donc la cinquième en 50 ans.

            Mais il ne s’agit pas simplement de remplacer cette prétention permanente à la révolution scientifique par une compréhension plus large de l’histoire de la discipline. L’argument selon lequel l’ordinateur a permis un tournant appliqué est plus problématique encore. D’une part, parce que les deux techniques les plus consommatrices en puissance informatique, les modèles d’équilibre général calculable (CGE) et les gros modèles macro-économétriques de type keynésien, se trouvèrent marginalisés au moment même ou les progrès de l’informatique permettaient enfin des résolutions moins contraintes et plus rapides. D’importantes dissensions sur les techniques de résolution des modèles CGE (calibration ou estimation) divisèrent les économistes, et ces modèles étaient de tout façon perçus comme des boites noires suspectes par les pouvoirs publics. La macroéconométrie keynésienne fut balayée par la critique de Lucas et trouva refuge dans l’industrie de la prévision. Ironiquement, les techniques qui sont aujourd’hui les plus à la mode, les RCT, ne nécessitent guère plus que des calculs de moyenne et de variances que les ordinateurs des années 1970 pouvaient réaliser sans problème. L’ordinateur ne semble donc ni une condition suffisante, ni même une condition nécessaire de l’essor (sélectif) de certaines approches appliquées.

            L’ordinateur n’était pas non plus nécessairement voué à favoriser la recherche appliquée au détriment de la théorie. En sciences physiques, en biologie évolutionnaire ou en linguistique, la théorie a été profondément transformée par les progrès de l’informatique. Si cela ne s’est pas produit en économie, en dépit des recherches autour de l’automated theorem proving, des méthodes numériques et des techniques de simulation, c’est parce que les économistes sont restés attachés à des concepts de preuve de nature analytique. La redéfinition des rapports entre théorie et appliqué que pourrait permettre l’ordinateur est donc largement inachevée. Enfin, si les progrès du harware sont largement exogènes à la discpline, tel n’est pas le cas du software. La manière dont l’ordinateur a pu favoriser tel champ ou telle approche est donc largement endogène aux stratégies développées par les défenseurs de celles-ci.

            Mais ce tournant appliqué n’est pas uniquement le fait de changements internes à la discipline. Il constitue également une réponse aux diverses pressions exercées par les consommateurs d’expertise économique, publics et privés.

L’explication par la demande : nouveaux financements, nouveaux régimes de politique économique, nouvelles demandes privées

            Le contexte incertain des années 1970 semble fournir une clé de compréhension intuitive au développement de l’économie appliquée : l’agitation sociale, la crise urbaine et les ghettos, la pollution, la congestion, la stagflation, la crise de l’énergie et de l’environnement, le Civil Rights movement, la montée du radicalisme et du néo-libéralisme, la contestation étudiante. En réponse, les économistes auraient tenté d’adapter leur recherche et leur enseignement aux défis du monde réel. Mais à nouveau, on peut se demander en quoi ce contexte ci était différent de celui des époques précédentes. La période de la Grande Dépression, celle de la Guerre, puis de la Guerre Froide n’étaient-elles pas traversées par un sentiment similaire d’urgence, une requête similaire que la connaissance économique éclaire les débats contemporains ? Ce qui était différent, dans les années 1970 et 1980, c’était plutôt la conception qu’avait le gouvernement américain et les financeurs de la recherche économique des modalités d’intervention publique.

 nsf           Dans les années 1940/1950, la recherche économique américaine dépendait largement des commandes de la Ford Foundation, et surtout de l’armée. Les deux voulaient une recherche appliquée, quantitative, formalisée et interdisciplinaire. Les économistes cherchaient pourtant à se dissocier des autres sciences sociales, à une période ou la suspicion à l’égard de ces dernières était forte, tant parmi les politiques –n’y avait-il pas une affinité entre ces “sciences” et le socialisme?– qu’au sein des sciences dures – les sciences sociales étaient-elles capables de produire des lois? Quand la National Science Foundation fut établie en 1950, celle-ci ne comportait d’ailleurs aucune division pour les sciences sociales, ce qui excluait les économistes de cette nouvelle source de financement. Trente ans plus tard, cette dernière était devenu un acteur clé dans le financement de la recherche économique. En gagnant en importance, la NSF avait imposé l’utilité pour la politique économique comme un des critères de sélection des projets. Ce critère constituait le fondement de l’un de ses départements, le RANN, source importante de financement de la recherche sur les indicateurs sociaux et les méthodes d’évaluation des programmes sociaux. L’évaluation des coûts et bénéfices des politiques sociales fut rendue obligatoire par Reagan, qui menaça de réduire de 75% le financement des sciences sociales via la NSF. La tension entre recherche pure et applications reste permanente au sein du programme économique de l’institution.

capture-decran-2016-10-03-a-00-44-14            L’exemple de la NSF montrent que les financeurs de la recherche économique ne furent pas tous indépendants du pouvoir politique. De Lyndon Johnson à Ronald Reagan au moins, tous les gouvernements ont fait pression sur les économistes pour que ceux-ci produisent une connaissance qui puisse aider la conception, et plus récemment l’évaluation des politiques publiques. L’adresse présidentielle de Stigler, en 1964, était d’ailleurs titrée L’Economiste et l’Etat, et il n’y faisait pas mystère de l’intérêt majeur de la révolution quantitative qu’il y décrivait:

Nos études théoriques et empiriques en constante augmentation vont inévitablement et irrésistiblement pénétrer le champ de la politique économique, et nous devrons développer une connaissance qui sera centrale pour la formulation de politiques intelligentes.

L’analyse coûts-bénéfices se développa alors qu’Henry Ford cherchait à évaluer plus précisément l’efficacité de divers programmes sociaux. C’est également dans ce contexte qu’Heather Ross, doctorante au MIT, entreprit avec William Baumol et Albert Rees de Princeton l’une des premières expérimentations sociales aléatoires pour tester l’impôt négatif. Il ne s’agissait pas tant, à cette époque, d’imiter la médecine que de tester des pilotes pour rendre efficaces les dépenses publiques. Comme l’a décrit Elisabeth Berman, la politique de dérèglementation menée par Reagan systématisa ensuite cette “économicisation” de la politique publique. La volonté d’imiter les mécanismes de marché créait un véritable intérêt, parmi les politiques des années 1980 et 1990, pour ce mélange de mechanism design et d’expériences de laboratoire proposé par les économistes. Certaines réalisations, comme les enchères des fréquences radio/TV par la FCC ou l’algorithme d’échange de reins conçu par Al Roth sont depuis devenus les têtes d’affiches d’une science économique capable d’améliorer la vie des citoyens. Mais cette expertise intéresse désormais aussi les géants du web, pour lesquelles concevoir des marchés et étudier des problèmes règlementaires est stratégique. Issu tout autant d’évolutions techniques et épistémologiques que de pressions externes, il n’est pas toujours facile, au final, de séparer dans ce “tournant appliqué” ce qui relève de la rhétorique de ce qui relève d’un changement plus profond.

Note : ce post dérive directement des recherches entreprises avec Roger Backhouse depuis 3 ans. Il s’agit de mettre à plat ma propre interprétation des données que nous avons accumulées, au moment ou nous rédigeons un article de synthèse sur le sujet. Bien que fortement influencé par ce travail commun, il ne reflète que mes propres opinions.




Posted in Uncategorized | Tagged , , , , | Leave a comment

“La science économique en crise doit imiter la médecine.” Réflexions sur Romer, Cahuc, et Zylberberg

La semaine dernière, Pierre Cahuc et André Zylberberg ont jeté un pavé dans la mare (certains diraient dans la gueule) des économistes français en publiant un pamphlet dans lequel ils accusent une bonne partie de leurs collègues de négationnisme scientifique. Cette semaine, Paul Romer, nouvellement nommé économiste en chef de la Banque Mondiale, fait de même avec les macroéconomistes américains. Certes, ces deux J’accuse diffèrent substantiellement en terme d’objectif, d’auditoire, de cible et de fondements épistémologiques. Mais leurs similitudes sont tout aussi frappantes, en particulier leur volonté de défendre la crédibilité de leur discipline dans un contexte de scepticisme grandissant, et ce en faisant références aux pratiques de la médicine. Et ces similitudes en disent peut-être aussi long sur les transformations internes à la discipline que sur ses relations aux politiques et au grand public.

Cahuc, Zylberberg, et l’économie expérimentale face au négationnisme

L’objectif affiché des deux économistes est de corriger la manière dont les médias et le grand public consomment l’économie. Ils s’émeuvent que des charlatans, dont les travaux ne reposent pas sur des bases épistémologiques solides, reçoivent une trop grand attention médiatique, et leur pamphlet est d’abord une tentative pour expliquer aux journalistes quels sont les économistes dont ils devraient relayer les idées. A ces derniers, Cahuc et Zylberberg proposent donc dès l’introduction un critère de sélection intellectuel :

Depuis 3 décennies […] l’économie est devenue une science expérimentale dans le sens plein du terme. […] A l’instar de la recherche médicale, l’économie s’attache à bâtir des protocoles expérimentaux permettant de connaître les causes des phénomènes observés […] Pour savoir si la dérégulation financière favorise la croissance, si le coût du travail a un effet sur l’emploi, si l’immigration crée du chômage, si les dépenses publiques relancent l’activité ou si la hausse des impôts la déprime ; et plus généralement pour toute question où l’on recherche un lien de cause à effet, l’analyse économique compare des groupes tests au sein desquels ces mesures ont été mises en œuvres, avec des groupes de contrôle où elles n’ont pas été mises en œuvre.

Cette description de la « bonne science » est complétée, dans l’ultime chapitre, par un critère institutionnel :

En science, c’est le consensus de la communauté des chercheurs, lorsqu’il existe, qui constitue la meilleure approximation de la « vérité.» Ce consensus repose sur des articles publiés dans des revues scientifiques [après] une procédure de « critique par les pairs » […] Plus une revue se trouve en haut des classements, plus la sélection des articles y est sévère, plus crédibilité de ce qui est publié est élevée.

le-negationnisme-economique-et-comment-s-en-debarrasser-par-pierre-cahuc-et-andre-zylberberg_5660135La série de chapitres qui constitue le cœur de l’ouvrage vulgarise donc une série d’article publiés dans les “meilleures revues,” dont l’objectif est de comprendre les conséquences des réformes scolaires, de la taxation, de la durée du temps de travail ou de la régulation financière. Mais l’ouvrage aborde, en pratique, peu de travaux qui collent le plus à la méthode décrite ci-dessus, celle des expérimentations par assignation aléatoire. L’un des exemples développés est le programme américain Moving to Opportunity dont les résultats montrent que relocaliser des adolescents de milieux défavorisés dans des environnements plus aisés ne favorise pas leur réussite scolaire. En fait, Cahuc et Zylberberg détaillent surtout les résultats d’expériences naturelles, où l’on utilise des évènements créant accidentellement des groupes de test et de contrôle. L’exemple canonique est l’étude dans laquelle Card et Krueger comparent l’emploi dans les fast-foods de Pennsylvanie et du New Jersey pour savoir si l’augmentation du salaire minimum (qui a lieu dans l’un des deux états seulement) affecte le taux d’emploi. Mais ils utilisent également les résultats de travaux comme ceux de Thomas Piketty, qui cherche à reconstruire des faits stylisés dans une tradition d’histoire économique, pour discuter d’une augmentation des taux marginaux d’imposition. A chaque étude citée correspond une prise de position : les auteurs émettent ainsi des doutes sur l’efficacité des règlementations financières type taxe Tobin, du CICE, ou des 35 heures. Se positionnant de manière répétée comme des économistes “de gauche,” ils affirment que parce que les résultats de l’économie mainstream ne conduit pas toujours à soutenir des politiques libérales, celle-ci est donc bien objective.

Cahuc et Zylberberg font le choix de ne jamais aborder les débats autour de certaines expérimentations quand ceux-ci existent (par exemple sur l’interprétation des résultats d’une expérimentation sur le pre-K schooling, l’équivalent de la toute petite section, dans le Tennessee). Ils n’abordent aucune des nombreuses critiques faites aux expériences aléatoires, en particulier les problèmes de validité interne (que mesure-t-on exactement, quels peuvent être les biais ?) et externe (ces résultats sont-ils généralisables ?). Aucune méthode alternative n’est évoquée, que ce soit les expériences de laboratoire, en plein boom, l’analyse des faits stylisés, pourtant présente dans le volume, l’économétrie structurelle, la microéconometrie sur données de panel, ou l’intégration balbutiante des techniques de machine learning (traitement algorithmique a-théorique d’énormes bases de données) aux pratiques des économètres. Ils choisissent également d’ignorer que les stratégies de publication des scientifiques et le classement de leurs revues puissent être eux-mêmes analysés comme des phénomènes sociaux répondant à des contraintes institutionnelles et des stratégies de pouvoir. Ils ne mentionnent pas l’existence possible de biais dans l’évaluation par les pairs supposée garante de la scientificité des travaux. Et c’est une stratégie de vulgarisation étrange. Il n’est en effet pas nécessaire d’avoir lu Angus Deaton pour se demander si les résultats d’une expérimentation menée il y a 15 ans dans un Etat américain sont transférables au système scolaire ou fiscal français. Et les journalistes français, et le public, ont bien conscience de l’augmentation considérable du nombre de scandales et de rétractations, en premier lieu dans la biologie et la médecine.

snake-oilLe cadre ainsi planté par Cahuc et Zylberberg les amène à considérer que tous ceux qui ne fondent pas leurs préconisations de politique économique sur des expérimentations pratiquent, en connaissance de cause, un négationnisme visant à enfumer le public et les décideurs pour leur profit, leur prestige ou leur pouvoir. Ces négationnistes qui accaparent la scène publique comprennent, à leurs yeux, aussi bien des PDG comme Jean-Louis Beffa que la quasi-totalité des économistes hétérodoxes français, au premier rang desquels les économistes atterrés ou ceux d’Alternative Economique. Les méthodes d’analyse de ces économistes de l’analyse Keynésienne à celle des institutions et des modes de régulation économiques, ne sont pas réellement expliquée dans l’ouvrage. Mais puisqu’elle ne peuvent pas permettre une identification robuste des causes des phénomènes économiques, elles mettent, aux yeux des auteurs, leurs défenseurs sur le même plan que ces intellectuels ayant défendu la charge de Lyssenko contre la génétique ou que ces scientifiques ayant produit des études brouillant les liens entre tabagisme et cancer pour le compte de l’industrie du tabac.

41qhgittmkl-_sx318_bo1204203200_Car c’est essentiellement sur les travaux de l’historien Robert Proctor, auteurs de deux ouvrages décrivant les pratiques du tabac, que les deux économistes s’appuient. Dans Cancer Wars, puis Golden Holocaust, ce dernier a analysé en détail le processus par lequel certaines entreprises et lobbies  “fabriquent de l’ignorance” pour leur profit personnel. Le nom qu’il a donné à l’analyse de ce phénomène  “l’agnotologie,” désigne un domaine de recherche désormais très fécond. Mais contrairement à la majorité des ces études, Cahuc et Zylberberg n’expliquent pas vraiment quel profit les hétérodoxes tirent de leur négationnisme. Ils empruntent également à Proctor sa justification de l’analogie avec l’holocauste. De la même façon que l’historien justifie son choix par le nombre de décès causés par les agissement de l’industrie du tabac (“a calamity of epic proportions  with too many willing to turn a blind eye, too many willing to let the horror unfold without intervention”) les économistes affirment ainsi “qu’à l’échelle de la planète, des politiques fondées sur des idées fausses se traduisent par des millions de chômeurs, autant de morts et l’appauvrissement de centaines de millions de personnes. ” Naomi Oreske et Erik Conway, auteurs d’une célèbre étude des lobbies climatosceptiques parue en 2010, avaient par comparaison choisi le titre Merchants of Doubt. Le choix de ce titre, et de l’analogie qu’il porte, autant que les prémisses épistémologiques des auteurs, a attiré les foudres de nombreux économistes hétérodoxes parmi lesquels l’un des chefs de l’école régulationiste, André Orléan. Ces mêmes travers ont été soulignés par un commentaire plus académique de Xavier Ragot, directeur de l’OFCE et macroéconomiste tout ce qu’il y a de plus “orthodoxe.” Olivier Bouba-Olga explique de son côté que la parfaite neutralité du chercheur, défendue par les auteurs, est une illusion.

Romer, les modèles DSGE et la pseudoscience

Si Cahuc et Zylberberg ciblent les économistes hétérodoxes, Romer attaque au contraire le cœur de la macroéconomie orthodoxe, les modèles DSGE. Son auditoire est également différent, puisqu’il s’agit de convaincre les économistes d’enterrer définitivement ces modèles. L’article est le dernier d’une série d’attaques publiées ces derniers mois, dans lesquels il expliquait que le problème de la modélisation macroéconomique dominante n’est pas l’utilisation des mathématiques en soi, mais la mathiness, une complexification factice des modèles visant à en obscurcir la lecture, afin que le lecteur ne puisse en identifier les présupposés idéologiques ajoutés sous le manteau.

            Pour identifier les causes des cycles économiques (les mouvements des prix et les variations de l’emploi), les économistes comme Lucas, Kydland et Prescott ont construit des modèles post-real aux hypothèses de plus en plus fantaisistes, explique Romer. Les cycles ne sont pas expliqués par les comportements intrinsèques des agents économiques mais par des chocs de productivité aux sources ésotériques :

 -un type général de phlogiston qui augmente la quantité de biens de consommation produits au moyen d’inputs donnés.

-un type de phlogiston investment-specific qui augmente la quantité de biens d’équipement produits par des inputs donnés

-un troll qui change les salaires payés à tous les travailleurs de manière aléatoire

-un gremlin qui change le prix des outputs de manière aléatoire

-l’Ether, qui augmente la tendance des investisseurs à prendre des risques

-une source de chaleur qui pousse les individus à vouloir moins de loisirs

Romer accuse ces macroéconomistes de vouloir rendre plus difficile encore l’identification des causes par l’ajout de ces variables exotiques. Car plus le nombre de variables d’un système d’équations multiples est important, plus le nombre de paramètres à estimer est important, et plus l’économiste doit imposer des restrictions a priori sur les caractéristiques de son modèle (les termes d’erreurs ou les élasticités, par exemple) pour que celui soir identifié. Ajouter des anticipations rationnelles au modèle augmente encore le nombre de restrictions à apporter. Et, si le modèle est assez complexe, ces restrictions a priori peuvent être formulées à l’insu de tous de manière à orienter les résultats en fonction de son idéologie :

With enough math, an author can be confident that most readers will never figure ou here a FWUTV [a priori belief] is burried. A discussant or referee canot say that an identification assumption is not credible if they cannot figure out what it is and are too embarassed to ask.

D’après Romer, la calibration, puis l’utilisation de l’approche bayésienne, rendent encore plus aisé l’insertion de restrictions a priori intraçables dans les modèles macroéconomiques. Une meilleure solution au problème de l’identification, précise-t-il, serait d’utiliser plus d’expériences naturelles, comme l’ont fait Friedman et Schwartz, puis Romer et Romer, avec les grandes crises financières et de la déflation Volcker pour comprendre l’impact de la création monétaire sur l’économie.

capture-decran-2016-09-14-a-11-20-39Romer considère au total le passage du programme Friedmanien au programme Lucasien comme une véritable “régression,” qui a transformé la macroéconomie en une  “pseudoscience,” un terme jusqu’à présent plutôt utiliser pour discuter de l’astrologie. Là ou Cahuc et Zylberberg se réfèrent à la littérature sur l’agnotologie, Romer emprunte au philosophe Mario Bunge. Celui-ci propose d’étudier un ensemble de caractéristiques clé pour chaque champ cognitif (sa communauté, son epistémologie sous-jacente, son mode de formalisation, ses méthodes etc) afin de séparer les research fields  dont la science fondamentale et appliquée, des belief fields, dont les religions, idéologies et pseudosciences. Le titre choisi par Romer pour son essai, The Trouble with Macroeconomics est d’ailleurs un clin d’œil à l’ouvrage dans lequel Lee Smolin accuse les théoriciens des cordes de mettre en danger la science physique par leurs élucubrations pseudoscientifiques.



Sauver la science économique ? Structures sociales et analogie médicales

Les trois auteurs cherchent donc essentiellement à préserver leur discipline de la crise de crédibilité qu’elle connaît actuellement. Mais si les deux points d’ancrage offerts sont identiques – assainir les structures sociales internes de la discipline et ses fondements méthodologiques –, cette convergence cache en fait des visions très éloignées des problèmes à corriger.

Dans les deux cas, le ton est dur, les accusés explicitement pointés du doigt. Romer est très explicite sur l’aspect social de la crise que connaît la macroéconomie aujourd’hui. Il emprunte à Smolin l’idée que la pseudoscience se développe au sein d’une communauté scientifique monolithique, et que les croyances non étayées par les faits se diffusent ensuite par loyauté envers les leaders de ces approches. Cahuc et Zylberberg n’en disent pas long sur la cuisine interne de la profession, mais le dernier chapitre fournit néanmoins une des clés pour comprendre l’ouvrage. Fin 2014, le ministère de la recherche avait failli accéder à la requête des économistes de l’AFEP, qui demandaient la création d’une nouvelle section CNU pour abriter les économistes hétérodoxes (un précédent avait été la création d’une section de mathématiques appliquées aux côtés de la section de mathématique historique). La création d’une nouvelle section fut évitée de justesse par l’intervention de Jean Tirole, et les auteurs reprennent à leur compte son idée que les pluralistes chercheraient à se soustraire à l’évaluation par les pairs (mais c’est justement pour se soustraire ou jugement de ces pairs-ci qu’Orléan demande le divorce). Les enjeux de ces débats portent donc autant sur les méthodes employées que sur les processus de validations des travaux économiques, y compris leur dimension sociale. La qualité de ces débats bénéficierait de références plus systématiques aux riches analyses des structures sociales de la discipline publiées par des sociologues comme Marion Fourcade, Daniel Breslau, et, pour le cas français, Fréderic Lebaron, Olivier Godechot, ou Thomas Angeletti.

large-1464364548-336-pseudoscience-and-conspiracy-theory-are-not-victimless-crimes-against-scienceUn autre point commun entre les deux textes est la référence aux sciences médicales comme modèle de pratique scientifique. Les 3 auteurs font référence à l’expérimentation de terrain (naturelle ou contrôlée) comme la méthode la plus à même de résoudre le problème de l’identification. Mais là ou Cahuc et Zylberberg filent sans réserve la métaphore médicale, Romer utilise celle-ci pour présenter un tout autre argument. Les premiers se placent dans une mouvance, en pleine explosion, qui consiste à faire des essais cliniques le nouveau gold standard de la méthode économique. La validité épistémologique de cette analogie a d’ailleurs été contestée, par exemple par Nancy Cartwright et plus récemment par Judith Favereau (voir aussi ce texte). Mais alors que Cahuc et Zylberberg voient dans les essais cliniques une méthode pure, ou l’identification de la causalité est débarrassée des scories propres à l’histoire économique ou aux modèles structurels, Romer utilise au contraire l’analogie médicale comme un appel à mieux accepter les impuretés de la méthode économique. Il concluait ainsi une version préliminaire de son article par :

Peut-être que cette fois, les macroéconomistes devraient-ils admettre que le naufrage est si grand qu’ils devraient abandonner leur quête du modèle d’équations simultané ultime. Il serait peut-être plus sage d’adopter les méthodes désordonnées que les chercheurs en médecine ont utilisés pour faire les découvertes qui permirent, une fois mises en oeuvre, d’améliorer effectivement la santé.

Ailleurs, Romer explique avoir appris de l’observation des pratiques de son épouse, une chirurgienne ayant travaillé dans la recherche sur le cancer, que les médecins savent arbitrer entre l’attente d’un traitement dont les effets causaux seraient nettement identifiés, et les coûts de cette attente en terme de santé. Les économistes feraient bien de s’en inspirer, et cesser de placer leurs espoirs dans d’hypothétiques (et couteuses) expériences aléatoires, qui tiennent plus du botox que de la chirurgie. Il faut parfois accepter de mettre en œuvre des politiques économiques aux effets plus incertains, dont les retombées possibles en terme de bien-être sont très importantes, conclut-il.

L’histoire de l’utilisation de la référence aux sciences médicales par les économistes reste à écrire. Ces dernières décennies, elle fut popularisée par les promoteurs de l’expérimentation de terrain, comme Josh Angrist qui y voit l’outil d’une “révolution de la crédibilité” ou Esther Duflo. Mais celle-ci était largement absente des premières expérimentations sociales. Heather Ross, qui, doctorante au MIT dans les années 1960, a dirigé l’une des premières expérimentations économiques (sur l’impôt négatif), justifiait celle-ci sans référence à la médecine. Il était simplement nécessaire de mettre en place des pilotes avant de généraliser une politique sociale, expliquait-elle. Il est également intéressant de noter que les avocats de l’utilisation d’expériences de laboratoire en économie n’ont jamais utilisé cette comparaison. Mais il semble qu’on entre aujourd’hui dans une nouvelle phrase, qui laisse à penser qu’une medicine envy se substitue à la physics envy dont souffraient traditionnellement les économistes. Car la défense de l’analogie médicale ne se limite plus aux randomistas. Ni Cahuc ni Zylberberg ne pratiquent en effet les méthodes expérimentales qu’ils prêchent. Les deux économistes du travail ont construit leur réputation sur le développement de modèles de matching à la Mortensen et Pissarides. Au milieu du bruit et de la fureur générés par ces brulots, il est bien difficile de séparer la dimension épistémologique de l’analogie médicale de son utilisation rhétorique. Mais si je ne m’épuisais pas déjà à convaincre mes collègues économistes de lire leur histoire, j’aurais pu leur suggérer d’aller consulter l’histoire des essais cliniques en médecine, ainsi que les débats qu’ils suscitent encore.


Posted in Uncategorized | Tagged , , , , , , | 4 Comments

Utiliser The Wire pour enseigner l’économie à des non-spécialistes : bilan et reflexions

L’an dernier, 3 jours avant le début des cours d’économie, mes étudiants ont déclaré à Ouest France se sentir bien dans leur formation, mais ne pas comprendre “ce que certains cours faisaient là.” Malaise parmi les enseignants. Cette phrase pouvait signifier deux choses : que certains des enseignements fournis ne préparaient pas assez bien les étudiants à leur pratique professionnelle future, ou bien qu’ils ne contribuaient pas à leur faire comprendre le monde dans lequel ils évoluent. Et, si aucun cours n’était nommément visé, cette critique sonnait familière à mes oreilles d’économiste.

Enseigner à des non-spécialistes : quelles contraintes ?

Les crises économiques sont en effet traditionnellement accompagnées d’une remise en cause de la pertinence de l’analyse économique et des modalités de son enseignement. La crise des années 1970 a conduit à la création de l’Union des Economistes Radicaux (URPE), et a poussé de nombreux départements d’économie à enseigner les bases de la microéconomie avant d’initier les étudiants à la macroéconomie. Elle a aussi, ironiquement, contribuée au développement des séries d’exercices donnés en travaux dirigés (les “problem sets”), aujourd’hui très décriés. Le mouvement Freakonomics s’est ensuite largement développé en réponse à la crise des années 1990, et la crise financière de 2007 a amorcé un nouveau mouvement de contestation étudiante, illustré par la constitution du Manchester Post-Crash Economic Movement. En France, le collectif étudiant Autisme Economie des années 2000 a laissé la place à PEPS-Economie (Pour un Enseignement Pluraliste dans le Supérieur en Economie). De nouvelles maquettes ont été proposées, et de nouveaux manuels visant à enseigner l’économie “comme si les trois dernières décennies avaient eu lieu” ont été diffusés, notamment celui du CORE, dirigé par Wendy Carlin. Pour faire face à la désaffection des étudiants pour l’économie, des rapports publics ont également été commandé : à celui de Jean-Paul Fitoussi en 2001 a succédé celui de Pierre-Cyrille Hautcoeur en 2014.

Ces économistes s’accordent à recommander un enseignement faisant une plus grande part à l’étude des faits et des grands problèmes économiques. Les efforts récents des chercheurs pour étudier et expliquer les phénomènes réels devraient être présentés dès les cours d’introduction, qui s’agissent des résultats de l’économie behavioriste, de l’économie expérimentale, de l’économie des institutions et de l’information, de l’utilisation d’expériences naturelles et randomisées, ou de l’intégration des marchés financiers, de frictions de toutes sorties, des problématiques d’appariement ou d’équilibre multiples aux les modèles macroéconomiques. Pour d’autres, ce n’est pas suffisant : il faudrait plus d’enseignements réflexifs –histoire de la pensée économique, épistémologie, histoire économique–, et enseigner une plus grande diversité de théories et de méthodologies, notamment qualitatives. Dans un cas comme dans l’autre, l’attention s’est toujours focalisée sur les quelques 250 000 étudiants inscrits en cursus d’économie en France.

Le problème, c’est que mes étudiants ne suivent pas de cursus d’économie. Ils se sont inscrits en IUT pour s’y former à la gestion urbaine, aux services à la personne, à ce que l’on appelle “les carrières sociales.” Leur formation est appliquée, largement tournée vers la géographie, l’urbanisme, la cartographie, le droit, et la gestion. Et comme d’innombrables formations aux métiers du secondaire et du tertiaire en France, leur cursus intègre un ensemble de cours fondamentaux en sciences sociales, dont les étudiants ne comprennent pas toujours l’intérêt : de la sociologie, de la psychologie, de l’anthropologie, et de l’économie. Or, de l’enseignement de l’économie aux non-spécialistes, il n’est jamais question, ni dans les statistiques (impossible de connaitre le nombre d’étudiants non-spécialistes qui assistent à un cours d’économie au cours de leurs études supérieures), ni dans les réflexions pédagogiques. Parce que le profil de ces étudiants impose des contraintes radicales à l’enseignement de l’économie, il constitue pourtant terreau privilégié pour repenser nos pratiques en profondeur.

Les contraintes que j’ai recensée alors que je développais mon cours étaient de trois types :

Repenser les objectifs

Les étudiants en économie, explique Wendy Carlin, doivent non seulement apprendre “comment parler d’économie,” mais aussi “comment faire de l’économie.” Mais mes étudiants n’étaient ni ne seraient jamais des économistes. Les objectifs du cours devaient donc être totalement repensées. S’agit-il de former des citoyens à “lire l’économie” afin de prendre des décisions éclairées ? Bien sûr, mais pas seulement. En tant que futurs urbanistes et professionnels des services, ceux-ci doivent acquérir la capacité de saisir les conséquences des changements de régimes de politique économiques sur leurs secteurs, largement financés sur fonds publics. S’il s’agissait de transmettre des connaissances de base en économie, le terrain était bien balisé. De nombreuses ressources existaient, en particulier les vidéos Dessine-moi l’éco produite par l’équipe du Monde, des documentaires tels qu’Inside Job ou des films tels que The Big Short sur la crise financière. Mais l’objectif était également de fournir aux étudiants une boîte à outil, un ensemble de concepts ou de raisonnements leur permettant de comprendre les “territoires” et les “sociétés” qu’ils devaient contribuer à transformer par la mise en œuvre de politiques sociales ou d’aménagement.

Cinquante heures d’économie dans une vie

Je n’avais aucune idée du contenu de cette boite à outil, si ce n’est qu’elle devait pouvoir permettre de comprendre le réel, et que je ne disposais que d’une cinquantaine d’heures de cours magistraux et travaux dirigés répartis sur 2 ans pour la transmettre. Cette contrainte horaire radicale mettait en exergue les limites de l’enseignement traditionnel de l’économie autant que celles des propositions pour un enseignement pluraliste. Il faut à un étudiant de licence des centaines d’heures d’apprentissage des mathématiques et des concepts microéconomiques et macroéconomiques fondamentaux pour saisir le noyau de la discipline (les modèles d’équilibre général basés sur l’optimisation coordonnée des agents), et des centaines d’heures de probabilité, d’économétrie, de techniques expérimentales, d’économie behavioriste, de spécialité, pour ensuite comprendre comment ces modèles peuvent être modifiés pour être confrontés à la réalité. De son côté, l’enseignement pluraliste s’est construit contre cette approche dite “néoclassique.” Mais cela suppose de commencer par l’étudier avant de la déconstruire et de la remplacer par des idées post-Keynésiennes, évolutionnistes, institutionnalistes, autrichiennes ou autre. Un tel processus était un luxe que je ne pouvais pas m’offrir, et il n’aurait de toute façon pas fait sens aux yeux de mes étudiants : pourquoi fallait-il commencer par étudier des marchés et des comportements aux caractéristiques irréalistes pour comprendre des situations réelles ?

Une autre approche des phénomènes sociaux

Enfin, je ne pouvais me permettre aucune violence intellectuelle : pas de lagrangien à résoudre “parce que c’est ce que font les économistes,” pas d’échange de drap contre du vin “parce que c’est ainsi qu’on enseigne la théorie de l’avantage comparatif.” Les outils que j’allai leur proposer le mardi à 9h00 pour étudier et expliquer les comportements sociaux, la pauvreté ou les migrations allaient être directement mis en concurrence avec ceux offerts par mon collègue sociologue la veille ou ma collègue anthropologue le lendemain. Ce n’était donc pas à eux de s’adapter aux modes de pensées économiques, mais à moi de saisir leurs objectifs, méthodes, et pratiques professionnelles. Ces étudiants apprenaient à faire un budget, à instruire un permis de construire, à appliquer des règlementations acoustiques, à évaluer la qualité d’un service à la personne, à cartographier, à enquêter pour comprendre les besoins d’une population. Et cette réalité qu’il leur fallait saisir, ils ne la tiraient pas de graphiques ou de séries temporelles. Il s’agissait d’aller l’observer “sur le terrain.” Les premiers mois du cursus étaient d’ailleurs consacrés à la réalisation d’une monographie basée sur l’administration de questionnaires, l’observation participante et la réalisation d’entretiens dirigés. Cette notion de “terrain,” centrale dans de nombreuses disciplines, est largement absente en économie. Mais, faute de pouvoir amener les étudiants sur un terrain réel, je pouvais au moins tenter d’amener un terrain urbain “réaliste” en l’amphi. La série américaine The Wire (Sur Ecoute, dans sa version française) diffusée entre 2002 et 2008 sur HBO, semblait une piste prometteuse.

The Wire comme terrain d’étude 

La série décrit les interactions quotidiennes de centaines d’habitants de la ville de Baltimore : ses dealers de drogue et ses policiers (saison 1 à 3), ses dockers et ses syndicats (saison 2), ses juges, maires et conseillers municipaux (saison 3 et 4), ses enseignants (saison 4) et ses journalistes (saison 5). Ces personnages sont des agents sociaux qui travaillent, investissent, consomment, empruntent, parient, font des choix. Mais le personnage principal, c’est bien Baltimore, ses rues, ses quartiers, ses tours. Les qualités d’écriture, la portée critique, et surtout le réalisme de la série furent salués par de nombreux critiques, qui la qualifie encore régulièrement de “meilleure série de touts les temps.” La réalité sociale complexe décrite avait ainsi été intégrée à de nombreuses reprises à des enseignements universitaires. The Wire avait été utilisé à l’Université d’Harvard et celle de Montréal pour enseigner la sociologie urbaine, dans un cours sur les inégalités proposé à Duke, ou pour appuyer des cours de criminologie et de droit américain. Elle avait donné lieu à de nombreux articles et conférences universitaires, dont un ouvrage de référence en français. Si la série se prêtait aussi bien à l’enseignement des sciences sociales et humanités, c’est parce que les scénaristes avaient largement puisé dans celles-ci pour façonner une critique du capitalisme et des effets de la désindustrialisation.


 En revanche, il existait peu de pistes sur l’utilisation de la série pour enseigner l’économie. Pourtant, si le comportement de nombre des acteurs est scénarisé pour obéir à des motivations telles que le pouvoir, la reproduction sociale etc., d’autres acteurs ont été explicitement pensés comme des agents économiques. Les scénaristes ont ainsi construit sur les 3 premières saisons, un arc narratif autour des relations entre un personnage plutôt “socio” et un personnage plutôt “éco.” Le premier, Avon Barksdale, dirige l’un des gangs les plus influents de Baltimore. Se définissant comme “just a gangsta,” il perçoit le contrôle de son territoire, ses rues et ses tours comme un instrument de pouvoir. Il cherche donc à le préserver à tout prix, ce qui l’amène passer la plus grande partie de la saison 2 en prison, et de la saison 3 en guerre contre un jeune dealer, Marlo. Ces trois saisons le montrent de plus en plus distant vis-à-vis de son second (et ami d’enfance), Stringer Bell, a qui il donne le surnom méprisant de “businessman.”


C’est que ce dernier a une conception complètement différence de la gestion de leur cartel. La série le montre prenant des cours d’économie à l’université publique et cherchant à appliquer la notion “d’élasticité ” à la gestion de son “entreprise.” Son raisonnement économique le conduit à donner à son concurrent, Proposition Joe, une partie du territoire de son cartel en échange d’un accès à une héroïne de meilleure qualité. Ceci crée de fait un duopole, et déclenche une guerre des prix . Stringer, Prop Joe et leurs concurrents créent ensuite une coopérative de détail, pour unifier leurs sources d’approvisionnement, se partager le territoire et éviter ainsi des affrontements propres à l’intervention de la police. L’objectif final de Stringer est d’abandonner son activité de dealer pour devenir un homme d’affaire. A cet effet, il tente de corrompre des hommes politiques locaux pour obtenir les permis de construire qui lui permettront de blanchir l’argent du trafic et monter sa nouvelle activité. L’issue des désaccords croissants avec son chef, Avon, lui est fatal : ce dernier le fait assassiner. Alors que les policiers enquêtent sur son meurtre et fouille un appartement à la décoration étrangement raffinée, ils trouvent dans sa bibliothèque une copie de La Richesse des Nations, le célèbre ouvrage d’Adam Smith.


Sur la base de ce matériau, j’ai conçu une série de cours reprenant toujours la même séquence : projection de plusieurs extraits, introduction d’outils, application de ceux-ci pour expliquer les comportements observés dans l’extrait, puis application à d’autres exemples de l’actualité récente. Si l’impossibilité de choisir la réalité économique mobilisée contraignait mon champ d’action, les outils mobilisés n’en étaient pas moins (néo)classiques : le comportement des junkies était prétexte à l’introduction des notion de rationalité, de raisonnement à la marge, de demande et d’élasticité, le tout discuté à l’aide de graphiques. Les décisions de Stringer Bell permettait d’étudier des notions d’input et d’output (pour les étudiants de gestion urbaine, le territoire est un input naturel dans une fonction de production), de coût et bénéfice marginaux, de profit et d’offre. Le marché de la drogue à Baltimore, ainsi que les politiques visant à régler les problèmes de violence, de dépendance et de pauvreté, étaient ensuite abordés. Enfin, un autre outil était introduit pour interpréter la guerre des gangs comme un phénomène rationnel, et comprendre comme lutter contre elle : la théorie des jeux.

Après avoir enseigné ce cours pendant 3 ans, mon bilan est mitigé. Si certains outils ont été compris, digérés, et même utilisés en mémoire de stage, d’autres n’ont pas convaincus.


Une perspective pluridisciplinaire

L’approche retenue a permis d’offrir une perspective pluridisciplinaire aux étudiants. La première année, alors que je tentais d’expliquer le comportement de Stringer Bell grâce à des outils économiques, deux ATER en géographie et sociologie, Kévin Mary et Clément Marie-dit-Chirot, travaillaient sur les mêmes extraits avec une approche et des objectifs différents. Par exemple, l’échec de Stringer à s’insérer dans le monde des affaires local leur permettait d’étudier l’importance des codes sociaux. L’année suivante, mes collègues et moi-même avons utilisé The Wire pour proposer une séquence plus générale d’introduction aux sciences sociales. Un montage des extraits utilisés en cours, d’environ une heure, était projeté aux quelques 120 étudiants, sans aucune introduction. Nous leur demandions ensuite de décrire la réalité observée, de caractériser les problèmes sociaux à l’œuvre, puis de proposer des causes et des remèdes. Chaque année, le même schéma se dessinait. Environ 1/3 des étudiants interprétaient la situation catastrophique des noirs américains de Baltimore comme la conséquence de discriminations raciales et sociales. 1/3 affirmaient que le zoning et la ghettoïsation étaient responsables de la pauvreté et de la criminalité observée, et voyaient ainsi les politiques de rénovation urbaine comme une solution appropriée. Et le tiers restant considéraient la pauvreté et la criminalité comme des problèmes économiques et suggéraient de couper les sources d’approvisionnement, de durcir les sanctions, de proposer des cures de désintoxication plutôt que des séjours en prison, ou au contraire, de dépénaliser la consommation de drogue. Les désaccords au sujet des politiques proposées étaient frappants, les débats parfois violents.

Ces différences d’interprétation nous permettaient in fine d’introduire les concepts fondamentaux de nos disciplines respectives : les villes mono/poly centriques, les effets d’agglomération ou la gentrification pour Jérôme Legrix-Pagès, géographe ; les notions de genre, de classe et de race pour Stéphane Valognes, sociologue. Et les notions d’offre et de demande, de concurrence, de maximisation du profit, mais aussi de coordination et d’incitation en économie. L’utilité de ces cours souvent jugés “théoriques” et “abstraits” apparaissait ainsi plus clairement aux étudiants. L’exercice créait également une dynamique particulière pour les enseignants, qui se retrouvaient sommés de résumer et de défendre de manière convaincante, en quelques minutes, l’essence de leur discipline. Il n’était pas question de mentionner les divisions internes et les querelles des économistes. Faire mon cours dans un contexte pluridisciplinaire m’a paradoxalement forcé à justifier constamment l’intérêt d’étudier les agents comme des êtres rationnels, calculateurs et stratèges. Je n’avais pas à me soucier de nuancer mon propos par une étude des institutions, des normes, ou des interactions spatiales, ni même à insister sur les limites de mes outils. Mes collègues s’en chargeaient. Autrement dit, cette approche interdisciplinaire n’était possible qu’en ayant fait la paix avec son identité disciplinaire, en assumant les spécificités de l’approche économique, et en abordant ses limites de manière humble.

Des outils simples et puissants

Cette entrée en matière et la référence constante à une situation de terrain m’a permis d’appliquer les outils introduits aux questions posées par les étudiants. Après leur avoir appris à tracer une courbe d’offre (celles des gangs) et une courbe de demande (celle des junkies), nous avons réexaminé leurs débats de politique économiques du cours d’introduction. Ils ont pu visualiser les effets agrégés, parfois inattendus, d’un programme de désintoxication ou de la mise en place de peines plus dissuasives sur les prix et les quantités échangées. Les étudiants ont souvent été prompts à pointer les limites de ces outils, mais pas une fois l’utilité de ces outils ne fut remise en cause. Ces outils ne permettaient pas vraiment de choisir la bonne politique, disaient-ils, mais plutôt de rendre le débat plus riche.


Mais le plus grand succès du cours fut l’introduction à la théorie des jeux. La notion de  “jeu” est la métaphore dominante de la série, celle utilisée par tous les protagonistes pour désigner leur activité, et par extension, leur vie. La première saison contient par exemple, une célèbre scène dans laquelle un dealer utilise un jeu d’échec pour expliquer les règles du trafic de drogue à de jeunes recrues. Toutes les citations les plus caractéristiques de la série y font allusion :‘all in the game,‘ ‘the game is the game,’ ‘game’s the same, just more fierce,‘ ‘there’s game beyond the fuckin’ game’. Enfin, les situations propres à l’application des outils de la théorie des jeux abondent, à commencer par la guerre permanente que mènent les gangs les uns contre les autres. Les derniers cours étaient l’opportunité de demander aux étudiants d’expliquer en quoi cette guerre est rationnelle. Je leur proposais de la modéliser avec une matrice dont les paiements pour chaque stratégie (faire la guerre/ne pas faire la guerre) étaient choisis par chacun d’entre eux. Après un semestre passé à étudier le marché de la drogue, les paiements choisis étaient certes différents mais ils étaient systématiquement ordonnés de manière à ce que je puisse proposer une résolution type dilemme du prisonnier. Cette idée que les agents économiques sont coincés dans une situation non optimale à cause de leurs anticipations respectives et d’un manque de coordination leur semblait convaincante parce qu’elle dérivait de leur propre quantification des gains et pertes associés à la situation et non d’un exemple ad hoc choisi à dessein par l’enseignant. La série présente en outre de nombreux mécanismes visant à éviter le dilemme du prisonnier : des normes sociales (les dealers respectent la « trève du dimanche »), des jeu répétés, des jeux coopératifs (la « coop »), des incitations à trahir, des jeux de la poule mouillée ou de l’ultimatum.

Echecs et difficultés         

Dans un rapport intitulé Réapprendre l’Economie, les étudiants de l’université de Manchester demandent à ce que

L’économie soit enseignée de manière inductive autant que faire se peut. Cela suppose de présenter d’abord les éléments factuels – données statistiques, analyse historique, études de cas, expériences, etc. – puis les théories qui s’accordent de manière plausibles avec ces faits doivent ensuite être enseigné comme des interprétations de ceux-ci.

Mais dans les manuels respectant largement ce principe, comme celui du CORE, les faits concernant par exemple la croissance, les inégalités ou l’innovation sont stylisés. Ils sont perçus, observés puis nettoyés et mis en forme à travers le prisme de certaines théories économiques. Enseigner avec une série revient à abandonner la possibilité de travailler avec des faits stylisés, et implique d’être confronté à une réalité désordonnée où les motivations économiques, sociologiques et psychologiques sont mélangées. La série fournit un nombre conséquents d’exemples pour des cours d’économie urbaine, industrielle ou de public choice. Mais enseigner les bases du comportement du consommateur et du fonctionnement des marchés à partir des extraits choisis m’a semblé  bien plus difficile.

            Rien dans les activités de Stringer Bell, par exemple, ne peut être représenté au moyen une fonction de coûts linéaire et continue. Après avoir recenser et quantifier les divers coûts de production auxquels le dealer fait face, les étudiants cherchaient en effet à reconstruire la fonction de coût marginal associé à l’utilisation des tours pour dealer. Ils devaient alors expliquer la décision de Stringer de transférer le contrôle de certaines tours à un concurrent. Quand, après des discussions laborieuses, je concluais qu’en première approximation les économistes représentent les entreprises par une fonction de coût marginal en forme de U, mon auditoire restait sceptique. Et je pouvais presque entendre Joan Robinson pouffer dans mon dos.

           Le cours de seconde année étant dédié aux politiques économiques, j’avais par ailleurs fait le choix classique de présenter celles-ci comme des solutions face aux  “défaillances de marché.” Mais un tel cadre supposait d’avoir préalablement expliqué ce qui se passe quand les marchés ne défaillent pas. Or, dans The Wire, rien n’est pur ni parfait, surtout pas la concurrence ou l’information. Décrire une situation où les agents sont preneurs de prix et très nombreux, où les biens sont identiques et où l’information est parfaite sonnait d’autant plus faux que mes étudiants avaient passé des heures à travailler sur un exemple ou tous les agents se connaissent, cherchaient à tout prix à éviter la concurrence grâce à de la différentiation spatiale ou en développant des stratégies de collusion. Mais comment enseigner Hotelling sans Arrow-Debreu ? Cet échec m’a permis de mieux comprendre l’attrait pédagogique du modèle de concurrence pure et parfaite : c’est un modèle simple, qui apporte une cohérence aux différents concepts et outils abordés, et surtout, qui est extrêmement rapide à enseigner. Monter une séquence dans laquelle le comportement des consommateurs et les entreprises obéit à des règles plus complexes et hétérogènes, où la concurrence est monopolistique, où l’information est imparfaite me semblait impossible dans le temps imparti. 

Repenser plus radicalement mon enseignement ?

Par les contraintes qu’il impose, l’enseignement de l’économie à des non-spécialistes devient ainsi un exercice réflexif. Mon choix d’enseigner l’introduction à l’économie à partir un ensemble de pseudo-faits contenus dans une série TV m’a permis de contourner les critiques récurrentes des étudiants vis-à-vis de l’enseignement de l’économie : irréaliste, trop détaché de la réalité, inutile. En revanche, il a révélé mon incapacité à penser ma discipline autrement qu’en référence à son noyau dur, le modèle de concurrence pure et parfaite et les deux théorèmes du bien-être. Et il ne s’agit pas ici d’idéologie. L’exposé de ce modèle reste la réponse la plus simple et surtout, la plus rapide à la question “pourquoi les économistes sont-ils obsédés par les marchés ?” : parce que, dans un monde idéal, ils représentent un bon système, de sorte que les économistes ont tendance à évaluer les situations économiques réelles en fonction de leur distance par rapport à cet idéal.

Cet attrait pédagogique ne doit pas être sous-estimé si l’enseignement de l’économie doit être repensé. Expliquer la fascination des économistes pour les marchés peut évidemment se faire de bien d’autres façons. Un cours d’histoire économique permet de comprendre comment les marchés sont devenus centraux dans les sociétés occidentales. Un cours d’histoire de l’économie, comment les marchés sont devenus centraux dans les constructions intellectuelles des économistes. Et un cours d’épistémologie, pourquoi et comment les scientifiques utilisent des hypothèses irréalistes qu’ils pensent néanmoins pertinentes pour comprendre le monde. Un monde de connaissance qu’il n’est cependant pas possible de résumer en quelques dizaines d’heures.

Il est à cet égard significatif que les récents manuels “postcrise” continuent de placer un modèle dans lequel des agents rationnels optimisent et se coordonnent via un système de prix au centre de leur argument, qu’il s’agisse de le nuancer ou de l’attaquer plus radicalement. C’est le cas d’ouvrage de John Komlos [2014] de Peter Dorman [2014], ainsi que celui de Steve Keen [2014], dont la première version fut rédigée avant la crise financière. A l’occasion d’un congé de recherche, j’ai pu observer mon remplaçant introduire mes étudiants à l’étude de la firme, son choix de thématique. Ex-enseignant en économie, celui-ci avait passé plus de 15 ans dans la gestion des structures publiques, et n’avait aucun scrupule ni difficulté à mobiliser directement les travaux de Williamson ou Nelson et Winter pour expliquer les études de cas professionnelles sur lesquelles reposaient son cours. Si considérer le savoir économique comme une boite à outil plutôt que comme un ensemble de théories me semble toujours une manière utile d’approche l’enseignement à des non-spécialistes, abandonner plus radicalement cette habitude d’interpréter la réalité économique à l’aune d’une situation idéale suppose peut-être d’aller fouiller dans les manuels de sociologie ou de psychologie plutôt que de ceux d’économie, quel qu’en soit le pluralisme.

Posted in Uncategorized | Tagged , | Leave a comment