Zerovirgola istituzionali

Massimiliano Tancioni si occupa della recente querelle tra Ministero dell’Economia e Ufficio Parlamentare di bilancio sulle previsioni macroeconomiche. Dopo aver ricordato che la certificazione delle previsioni macroeconomiche - e non solo dei bilanci pubblici - è un’implicazione del Fiscal Compact, Tancioni ricostruisce i passaggi del confronto sugli zerovirgola, illustra le difficoltà che avrebbero sconsigliato di richiedere una certificazione oggettiva sulle previsioni e, comunque, indica i modi migliori per farvi fronte.

Nella pianificazione di un proprio viaggio è naturale e sempre più consueto tener conto delle previsioni del tempo. Non è altrettanto naturale pensare che per poter effettivamente partire sia necessaria la certificazione di tali previsioni da parte di un organismo indipendente. Quanto meno perché il pianificatore di viaggi potrebbe chiedersi quale sia il previsore, quindi il modello meteorologico, da tenere in considerazione. Oppure, avendo risolto – magari per legge – la questione dell’ufficialità delle previsioni – ossia della modellistica rilevante – sorgerebbe il dubbio su quali siano i margini di errore ammissibili (quindi la probabilità di un evento meteorologico) per poter ottenere la certificazione.

In materia di bilancio pubblico, dove la certificazione da parte di livelli istituzionali diversi è pervasiva, il legislatore sembra risolvere tali dubbi: la legge 243/2012, in linea con quella costituzionale 1/2012, istituisce l’Ufficio Parlamentare di Bilancio (UPB), definendone le funzioni. Tale Ufficio “effettua valutazioni in merito alle previsioni macroeconomiche, all’impatto macroeconomico dei provvedimenti di maggior rilievo e all’osservanza delle regole di bilancio, anche attraverso l’elaborazione di proprie stime“.

L’attuazione del Fiscal Compact ha quindi l’implicazione sorprendente per cui, oltre ai bilanci pubblici, anche le previsioni macroeconomiche e la simulazione degli effetti delle politiche economiche diventano oggetto di certificazione.

Per necessità logica, previsioni e simulazioni assumono rilevanza istituzionale nei rapporti tra organi dello stato e in quelli che definiscono la governance di bilancio nazionale e comunitaria. Infatti:

  • il 29 settembre l’UBP valida le previsioni tendenziali del MEF per il biennio 2016-17 (rispettivamente, +0,8% e +0,6%) poiché in linea con quelle prodotte da un panel di previsori a cui partecipano, oltre all’UPB, altri tre soggetti (CER, Prometeia e REF.ricerche);
  • il 3 ottobre il presidente dell’UPB illustra le valutazioni che inducono ad “un esito non positivo del processo di validazione del quadro programmatico 2017 e, in particolare, delle stime di crescita del PIL per il prossimo anno, sia in termini reali che nominali. (…) Esse risultano infatti significativamente fuori linearispetto all’intervallo dei previsori del panel UPB (…).” Nello specifico: “nel 2017 la crescita programmatica è superiore di 0,3 p.p. rispetto alla media delle stime del panel UPB e di 0,2 p.p. rispetto al valore massimo rilevato“. Seguono reazioni e speculazioni politiche da parte dell’opposizione, generalmente sulla linea della “clamorosa bocciatura” per Renzi e Padoan;
  • Il 7 ottobre il MEF trasmette all’UPB la risposta ai rilievi critici sollevati il 3 ottobre, i cui contenuti sono ribaditi nella successiva audizione di Padoan alle Commissioni bilancio riunite. Il Ministro tiene ferma la previsione programmatica per il 2017: +1% di crescita reale, quindi +0,4 punti percentuali di PIL per effetto della manovra, che si sommano alla crescita tendenziale di 0,6 punti di PIL. Il Governo decide di presentare la sua manovra in sede comunitaria anche in assenza della certificazione dell’organo di controllo.
  • il 18 ottobre l’UBP, tenendo conto “dell’innalzamento dal 2% al 2,3% dell’obiettivo relativo al rapporto deficit/PIL per il prossimo anno” ha comunicato che la procedura di validazione “ha dato esito positivo”

Sono almeno tre i punti della vicenda che meritano una riflessione.

  1. Confrontabilità di previsioni/simulazioni prodotte attraverso modellistica diversa. Nelle sue previsioni/simulazioni, il MEF utilizza una modellistica propria, sia di ispirazione tradizionale, sia di approccio nuovo-Keynesiano. Per quanto a conoscenza di chi scrive, l’UPB utilizza una modellistica macroeconomica di ispirazione tradizionale resa disponibile dall’Istat nel quadro di un accordo di collaborazione del 2014. Per gli altri soggetti del panel, i dettagli dei modelli utilizzati non sono nella disponibilità della comunità scientifica, come non lo sono neppure i tratti essenziali minimi.

E’ necessario sottolineare che, sebbene sia del tutto possibile che modelli diversi convergano a previsioni simili, poiché strutture eterogenee possono condividere le forme ridotte stimate, questi non possono produrre simulazioni di policy confrontabili. La sovrapposizione di due simulazioni condotte con modelli diversi può avvenire solo per isomorfismo (ossia perché i modelli non sono effettivamente diversi), o per caso. Purtroppo, l’assenza di documentazione scientifica e di un dibattito franco sulle potenzialità e i limiti della modellistica in uso presso i soggetti interessati fa si che la verifica delle capacità previsive e di simulazione della stessa sia scientificamente impraticabile. E’ evidente che questa considerazione rende superflua, per i modi in cui viene condotta, qualsiasi valutazione e certificazione dei risultati di previsione/simulazione.

  1. Scientificità del metodo di confronto. Dalle note pubblicate dall’UPB si rileva che l’allineamento delle previsioni/simulazioni viene valutato confrontando la previsione puntuale del MEF con la mediana e gli estremi delle previsioni puntuali del panel UPB. Sembra quindi evidente che non si considerano gli intervalli di confidenza (ossia la significatività statistica) delle previsioni messe a confronto.

Tale metodo di confronto non è in linea con la prassi scientifica. Si consideri che una previsione è soggetta ad almeno cinque fonti di incertezza: nei cambiamenti di struttura futuri, nella corretta specificazione del modello, negli errori di misurazione dei dati disponibili, nell’accuratezza dei parametri stimati e nella sequenza e dimensione degli shock futuri. Sebbene per i primi tre punti ci sia poco da fare, gli ultimi due, insieme alla lunghezza della finestra di previsione, definiscono l’incertezza quantificabile di una previsione/simulazione.

Data la dimensione degli scostamenti rilevati sui tassi di crescita del PIL reale previsti per il 2017, e considerando l’incertezza che tipicamente caratterizza le stime puntuali ad un anno della dinamica del prodotto, è lecito congetturare che la previsione programmatica MEF e quelle del panel UPB, pur diverse nei valori puntuali, siano equiprobabili, o quantomeno che gli scostamenti siano statisticamente irrilevanti. Questo punto è implicitamente sollevato da Padoan, che sottolinea il fatto che tra le previsioni MEF e quelle del Panel ci sia “uno scarto contenuto, che a noi sembra non significativo“.

Sarebbe utile che sia il MEF, sia l’organo di certificazione, tengano in considerazione, oltre all’eterogeneità modellistica, anche la misura del grado di incertezza delle previsioni.

  1. Simulazione di policy, ossia dimensione dei moltiplicatori fiscali. Dal momento che la previsione tendenziale 2017 è validata e non lo è quella programmatica, ne consegue che la vicenda riguarda sostanzialmente la valutazione degli effetti della manovra di bilancio, ossia la dimensione dei moltiplicatori fiscali.

Si trascuri per il momento la questione della significatività statistica delle previsioni MEF/panel UPB. O meglio, si assuma che gli scostamenti siano statisticamente significativi. Ciò può giustificare una mancata certificazione? Dal momento che i modelli sono diversi, la risposta non può che essere negativa. A meno che, a seguito di un serio dibattito scientifico e di una verifica nel tempo delle capacità previsive dei diversi modelli, non sia stato possibile assegnare delle probabilità anche a questi ultimi.

Assumiamo che il confronto e controllo scientifico sia avvenuto,  che si sia concluso  e che, per qualche ragione, i modelli siano di fatto isomorfi. Ciò ancora non risolve la questione della confrontabilità delle simulazioni.

Una ricca letteratura scientifica ha recentemente messo in evidenza che non esiste, e di fatto non può esistere, un consenso sulla dimensione dei moltiplicatori fiscali che astragga dalla considerazione di specificità spaziali e temporali. Oltre a differenziarsi in base alla posta specifica di bilancio presa in considerazione, i moltiplicatori fiscali variano rispetto alla realtà economica presa in considerazione (grado di apertura agli scambi con l’estero, livello di indebitamento pubblico e privato debito rispetto al prodotto, grado di accesso al credito di famiglie e imprese) e rispetto alla situazione economica del momento. Si può mostrare che non solo la considerazione di periodi di stima/simulazione diversi può produrre risultati di simulazione diversi, ma anche e soprattutto che i dati storici utilizzati per le stime possono non essere rappresentativi della situazione economica corrente. Ciò può accadere soprattutto in corrispondenza di situazioni macroeconomiche “eccezionali”, quali quella odierna, durante le quali si possono osservare cambiamenti strutturali significativi, ossia variazioni nella dimensione dei parametri di comportamento e nelle relazioni che definiscono la struttura di un modello.

In questi casi l’incertezza parametrica e modellistica, che caratterizza qualsiasi modello dell’economia in qualsiasi fase ciclica, può crescere ad un livello tale da rendere dubbia la rilevanza statistica ed economica di qualsiasi previsione/simulazione. Ciò potrebbe suggerire l’utilizzo di strutture a maggior ancoraggio teorico, calibrate ad-hoc nei parametri più soggetti a cambiamento di struttura, simulate sotto diverse ipotesi di scenario.

Con tali osservazioni non si vuole sostenere l’idea dell’inutilità dell’utilizzo dei modelli e l’impossibilità di un livello di controllo sul loro output. All’opposto, sottolineando i problemi connessi alla scarsità di informazioni sulla natura e struttura degli stessi, nonché l’assenza di un dibattito serio sulla portata e i limiti dell’attività di previsione/simulazione, se ne vuole ribadire l’importanza nel processo di decisione e approvazione di bilancio. Soprattutto, si vuole sottolineare la necessità che il confronto e la certificazione – stabiliti per legge – rispettino le condizioni minime di scientificità condivise.

La querelle tra MEF e UPB sulle previsioni macroeconomiche, a parere di chi scrive, è il risultato paradossale ma necessario di una lettura perlomeno superficiale di una regolamentazione che, da parte sua, non ha voluto o saputo considerare la natura dell’oggetto che intendeva regolamentare. In sostanza, il legislatore ha preteso la certificazione di analisi ed esperimenti che, pur essendo internamente (quindi singolarmente) verificabili, per loro natura sono difficilmente certificabili in modo oggettivo.

Infine, un modesto suggerimento: forse i soggetti interessati alla  vicenda potrebbero avviare un utile confronto con la comunità scientifica sulla portata della loro attività istituzionale.

Schede e storico autori