Scienziati o crociati? Sull’incerta identità di (alcuni) macroeconomisti

Gianluigi Nocella si occupa dello stato dell’economia come scienza basandosi un recente articolo di Paul Romer, economista di grande prestigio, che è molto importante per numerosi motivi. Dopo aver brevemente ricostruito l’evoluzione della macroeconomia nel corso degli ultimi decenni, Nocella focalizza la sua attenzione sulla tendenza di molti a piegare le evidenze empiriche alle convinzioni teoriche e dà voce alla denuncia di Romer: dagli anni ’70 tra i macroeconomisti si è affermata una sorta di “tribalismo” che spinge a preferire i canoni della fede a quelli della scienza.

Il sospetto che l’economia non sia proprio o solo una scienza austera è antico. E ci sono vari modi di dare fondamento a questo sospetto. In un recente contributo, un autorevolissimo economista, Paul Roemer, fornisce, dall’interno della disciplina, elementi per qualificare quel sospetto: molti economisti più che scienziati sembrano essere crociati, pronti a ingaggiare fiere battaglie nella difesa della loro visione del mondo e dell’economia stessa. Ma andiamo con ordine.

Nei due decenni precedenti l’esplosione della crisi finanziaria del 2008, gran parte delle economie occidentali ha attraversato una lunga fase di crescita moderata e sostanziale stabilità dei prezzi, fatta eccezione per episodi specifici e circostanziati. Erano gli anni di quella che gli addetti ai lavori hanno definito great moderation. Molti di loro la attribuivano ai progressi fatti dalla macroeconomia teorica e applicata negli anni precedenti. Un lavoro di Chari e Kehoe del 2006, intitolato “Modern Macroeconomics in Practice: How Theory Is Shaping Policy”, per esempio, identificava l’indipendenza delle banche centrali, l’adozione dell’inflation targeting, la preferenza per la tassazione del consumo e del lavoro piuttosto che del capitale, l’attenzione a rischi della tassazione distorsiva, come esempi di questo progresso.

Voci almeno altrettanto autorevoli non erano però affatto concordi con questa impostazione. E infatti, un articolo dal titolo “The state of macroeconomics” a firma del premio Nobel Robert Solow, pubblicato un paio di anni dopo, si apre proprio con un accenno fortemente polemico nei confronti del libro appena citato, lasciando intravedere una prospettiva diametralmente opposta sull’argomento.

A tentare di ricomporre la controversia, una personalità del calibro di Olivier Blanchard – capo del dipartimento di economia del MIT a cavallo del 2000, uno dei padri nobili della scuola neo-keynesiana, ovvero di quel filone di ricerca che, pur accettando l’impianto di base della teoria del ciclo reale (RBC), basata sulla microfondazione dei modelli macro e su operatori perfettamente razionali e forward looking – giunge a conclusioni diverse su alcune proposizioni fondamentali in termini di policy, quali gli effetti reali della moneta o l’utilità della politica fiscale. In questo spirito, nel 2008, Blanchard (“The state of macro”), ricordava come le fiere battaglie fra gli degli anni Settanta, le divisioni e le controversie accademiche fra gli economisti, fossero state superate dalla forza dei fatti economici e dalla comparsa di una visione largamente condivisa sulla metodologia più appropriata per analizzarli. Il che portava Blanchard a esprimere ottimismo nei confronti dello stato della disciplina.

La crisi globale, esplosa nel 2008, ha scosso dalle fondamenta la visione ottimistica espressa da Blanchard e ha portato molti macroeconomisti a riflettere, spesso criticamente, sull’effettivo stato di salute della macroeconomia e sulla sua capacità di capire la realtà e di proporre rimedi appropriati per migliorare la performance dell’economia globale. L’episodio più recente di questa fase di ripensamento, e per certi versi il più clamoroso, come dimostra il dibattito suscitato dalla sua pubblicazione nella comunità accademica degli economisti coincide, con la pubblicazione dell’articolo di Paul Romer dal titolo “The trouble with macroeconomics”. In realtà in questo lavoro c’è molto di più. Alla critica tecnica di alcuni aspetti centrali del paradigma dominante della macroeconomia moderna, centrale nell’articolo di Romer, si aggiunge una riflessione tanto profonda quanto amara di ordine epistemologico e comportamentale, che cerca di spiegare come mai un’area così rilevante di quella che ama definirsi “scienza economica” abbia subito nell’ultimo trentennio una netta involuzione proprio dal punto di vista strettamente “scientifico”, per via di comportamenti da parte dei ricercatori che nulla hanno a che fare con l’approccio che dovrebbe caratterizzare una materia come l’economia.

Ovviamente, i due tipi di problemi sono strettamente collegati: se da trent’anni a questa parte la stragrande maggioranza dell’analisi macroeconomica si basa su modelli oggetto di critiche arcinote e spesso piuttosto invalidanti, lo si deve all’atteggiamento della stragrande maggioranza delle persone che si occupano della materia, che, nascondendosi nella notte in cui tutte le vacche sono grigie (“all models are false”) e appellandosi all’autorità scientifica (meritatamente) acquisita da alcuni, ha favorito una chiusura autoreferenziale della disciplina, divenuta pericolosamente impermeabile ai fatti e, paradossalmente, insensibile ai problemi che trent’anni fa hanno messo in crisi il pensiero dominante di allora, aprendo la strada all’avanzata dell’attuale. I più curiosi potranno leggere, in vari post sul suo blog precedenti all’articolo di cui parliamo, la ricostruzione che Romer stesso fa di questo passaggio storico cruciale, descrivendo i caratteri dei protagonisti, le questioni dibattute, gli elementi contingenti e come tutti questi fattori si siano intrecciati, portando al “tribalismo” che caratterizza lo scenario attuale e che, inducendo comportamenti “anti-scientifici”, determina la regressione della materia.

Seguendo la logica dell’articolo, partiamo dai fatti. O meglio, dall’irrilevanza cui oggi sono ridotti da taluni. L’esempio di Romer è ben noto e riguarda la questione della neutralità della moneta. Il nucleo centrale dell’analisi macroeconomica odierna si basa su modelli dinamici stocastici di equilibrio generale (DSGE) con agenti perfettamente razionali e in grado di formulare aspettative che tengono conto di tutti gli elementi non aleatori (comprese le distribuzioni delle variabili casuali) del funzionamento dell’economia. Con mercati concorrenziali e in assenza di rigidità di qualche tipo sulle variabili chiave (prezzi e salari, generalmente), questi modelli recuperano un risultato proprio dell’economia classica, ovvero la cosiddetta neutralità della moneta: la quantità di moneta non ha effetti reali, ma determina solo il livello dei prezzi. Quindi una politica monetaria perfettamente incorporata nelle aspettative degli agenti non determina nessun effetto sul livello di attività economica. Peccato che la teoria contrasti in maniera stridente con l’evidenza empirica: l’esempio di scuola riguarda gli Usa nei primissimi anni ’80, in cui l’allora neo-governatore della Fed Paul Volcker annunciò in conferenza stampa un cambio della strategia operativa della banca centrale, volto a far aumentare rapidamente i tassi d’interesse interbancari e quindi a riportare sotto controllo l’inflazione. Guardando ai dati, nei trimestri successivi la dinamica di tassi d’interesse e d’inflazione mostra il pieno raggiungimento di questi obiettivi, accompagnato però da un netto aumento della disoccupazione e da una forte recessione.

Eppure, ci ricorda Romer, accademici di grande spessore come Edward Prescott, disconoscendo la rilevanza dei fatti, hanno insegnato a generazioni di loro allievi che l’economia che studia il mercato dei servizi postali è più importante dell’economia monetaria, attraverso modelli in cui le fluttuazioni dell’economia sono determinate esclusivamente da shock aleatori che non hanno un corrispettivo reale. Cos’è esattamente uno shock di produttività? Da dove viene? Può effettivamente dirsi “microfondato” (ovvero, derivante dall’aggregazione di scelte razionali degli agenti) un modello economico (come un modello standard di ciclo reale) le cui dinamiche fondamentali sono determinate da una variabile casuale esogena che non discende in nessun modo dalle scelte degli agenti e che non si capisce a cosa possa corrispondere nella realtà? Eppure la rigorosa microfondazione della teoria macro è considerata una delle più importanti innovazioni metodologiche apportate dalla nuova macroeconomia classica e dai teorici RBC.

A questi pesanti interrogativi gli sviluppi successivi della teoria hanno preferito offrire risposte evasive, accettando in blocco l’impianto di base e limitandosi a variazioni sul tema, tipicamente attraverso l’introduzione ulteriori elementi aleatori ed esogeni: shock sulle preferenze degli agenti, parametri aleatori che introducono un certo grado di rigidità di prezzi e salari, altri shock specifici. Attraverso questi espedienti si ottengono modelli con una varietà di dinamiche decisamente più ampia, in cui, ad esempio, la moneta può avere effetti reali e le componenti di domanda possono avere un impatto sul ciclo. Ma aggiungere altre “variabili immaginarie” non migliora la ragionevolezza del costrutto teorico di base e rende ancora più complicato il confronto con la realtà, attraverso l’utilizzo dei dati. Siamo al problema dell’identificazione, tanto caro (anche) alla rivoluzione neoclassica di fine anni ’70.

Semplificando brutalmente, possiamo dire che un modello empirico si definisce identificato se a diversi punti nello spazio dei parametri corrispondono diverse realizzazioni delle variabili del modello. Un modello identificato non genera realizzazioni “equivalenti dal punto di vista dell’osservatore” come risultato di configurazioni parametriche diverse e ciò, evidentemente, è essenziale affinché la stima dei parametri abbia proprietà desiderabili (come faccio a stimare in modo affidabile il processo che ha generato i dati se il campione che ho a disposizione può essere stato generato da diversi valori dei parametri?). Nei modelli macroeconometrici l’interazione simultanea tra molte variabili dà luogo a problemi di identificazione che crescono non linearmente con l’aumentare delle variabili incluse nel modello e vanno risolti imponendo restrizioni (vincoli su alcuni dei parametri da stimare).

L’approccio vetero-keynesiano all’utilizzo dei modelli ad equazioni simultanee (SEM) fu oggetto, a ragione, di pesanti critiche: le restrizioni venivano imposte, nella migliore delle ipotesi, in base ad indicazioni teoriche, non senza un notevole grado di discrezionalità, inficiando i risultati delle analisi empiriche. D’altro canto oggi, nella stima dei DSGE, la dimensione apprezzabile dei modelli, la complessità delle equazioni strutturali e la presenza di molti parametri per cui non esistono riferimenti empirici (Fact with unkown truth value, li chiama Romer) – in parte derivante proprio dalla proliferazione degli “shock immaginari” di cui sopra – rendono molto opaca l’identificazione dei modelli: spesso e volentieri essa si ottiene attraverso ipotesi di comodo nascoste nelle pieghe delle pagine e pagine di appendici che ormai sono il fiore all’occhiello di ogni paper che si rispetti. In altre parole, l’econometrico ha a disposizione ampi spazi per far dire ai dati un po’ quel che vuole: esattamente come poteva succedere nel vecchio approccio SEM, ma senza mettere nero su bianco le ipotesi che sottostanno a certi risultati. Anziché testare la teoria con i dati, si prova a piegare l’evidenza alle convinzioni teoriche.

Allora il punto è: se non si tratta di problemi così nuovi, e se alcuni di essi sono così rilevanti, cosa impedisce che vengano seriamente affrontati come priorità assolute dagli addetti ai lavori? La risposta di Romer è che, a causa del “tribalismo” originato dalla rivoluzione degli anni ‘70, la gran parte di coloro che si occupano di macroeconomia non si comporta rispettando i canoni della scienza – ovvero, impegnandosi al rispetto di principi di onestà intellettuale elementari, che stanno alla base del progresso della conoscenza – ma rispettando piuttosto i canoni della fede, riunendosi in gruppi fortemente coesi al loro interno e totalmente chiusi verso l’esterno, in cui autorità costituite dettano una linea che non può essere contraddetta, perché – come in ogni religione – mettere in dubbio la Parola vuol dire minare alla base le fondamenta della comunità.

Ed ecco che esprimere un aperto dissenso verso le opinioni dei leader o criticarne alla luce del sole l’operato impone un costo enorme, di ordine morale e pratico, che in pochi hanno voglia o possono permettersi di sopportare. Il costo pratico consiste nel non avere (più) accesso a riviste o posizioni di prestigio (che i leader riveriti direttamente o indirettamente gestiscono), cioè rinunciare a gran parte delle proprie ambizioni professionali. Evidentemente questo problema non riguarda Paul Romer, uno dei più importanti economisti viventi, regolarmente selezionato nella lista ristretta dei candidati al Nobel da anni, attualmente capo economista della Banca Mondiale. Il costo morale consiste nell’essere considerato un traditore e nell’essere escluso da gruppi di persone con le quali, umanamente e professionalmente, si è condivisa buona parte della propria vita. Quando Romer ha iniziato a manifestare in pubblico (sul suo blog o in articoli su riviste) il proprio dissenso verso certe pratiche o verso certi argomenti, chiamando in causa alcuni pesi massimi della macroeconomia moderna – come il relatore della sua tesi di dottorato, il premio Nobel Robert Lucas – molti suoi amici e colleghi, pur condividendo privatamente i contenuti, gli hanno sconsigliato di manifestarli in pubblico o di continuare a fare espliciti riferimenti ad alcune personalità di spicco; alcuni hanno addirittura smesso di rivolgergli la parola. Qualcuno lo ha addirittura accusato di “uccidere Bob [Lucas, NdA]”.

Nel leggere l’articolo, questi toni mi hanno fatto impallidire. L’economia si confronta quasi per definizione con i temi più dibattuti e divisivi della politica. Da economista, nel mio piccolissimo, ho avuto modo varie volte di rendermi conto di quanto sia difficile, in certi casi, staccarsi del tutto dalle proprie convinzioni personali, dalla propria “visione del mondo” e confrontarsi spassionatamente con i fatti. Soprattutto perché i fatti che si analizzano sono estremamente complessi da analizzare a tutto tondo: parcellizzarli e porsi in una data prospettiva è, il più delle volte, una necessità. Ma mai, da economista, avevo avuto prima la sensazione di essere parte di una guerra di religione, con morti e feriti. O almeno, non mi pareva ce ne fossero tra gli economisti.

Schede e storico autori