L’allocazione delle risorse alle università: merito, concorrenza e discrezionalità del “Principe”

Gianfranco Viesti esamina le politiche di finanziamento delle università e si chiede se siano ispirate da una “sana concorrenza” e premino il “merito”. La risposta è negativa. Secondo Viesti i criteri di allocazione delle risorse sono discutibili e discrezionali e, per vari motivi, configurano una delle peggiori politiche pubbliche degli ultimi anni. A parere di Viesti potrebbero adottarsi altri criteri basati sulle performance ma attenti alle condizioni di contesto, capaci comunque di stimolare il miglioramento delle università

Si sente spesso dire che le politiche di finanziamento degli atenei italiani (con il fortissimo aumento delle risorse allocate in base ad una quota cosiddetta premiale nell’ambito del Fondo di Finanziamento Ordinario – FFO – degli atenei) sono ora ispirate, e lo saranno sempre più, da una “sana concorrenza” fra le sedi, volte a premiare il “merito”, a vantaggio dell’intero paese.

Guardando ciò che è avvenuto negli ultimi anni – come si prova a fare nelle analisi contenute nel rapporto “Università in declino” (Donzelli) – sorgono però molti dubbi a riguardo. I dubbi sono tali da consentire di affermare che l’allocazione delle risorse è avvenuta su basi assai discutibili e discrezionali e che i nuovi criteri di finanziamento delle università sono una delle peggiori politiche pubbliche degli ultimi anni.

Come giustificare questo giudizio?

  • E’ bene ricordare subito che nessun ateneo è ha ricevuto risorse superiori in termini reali rispetto al passato. Si è trattato solo di una ripartizione asimmetrica del maggiore taglio al finanziamento della storia italiana, che non ha paragoni con quanto è avvenuto all’estero o in altri campi dell’azione pubblica. La stessa disparità fra sedi non ha paragoni a livello internazionale (se si eccettua il caso particolare dell’Inghilterra): la quota cosiddetta premiale è entità elevatissima e senza riscontri all’estero, inoltre essa non si aggiunge al finanziamento ordinario, ma lo condiziona.
  • Dal 2009 in poi, la quota premiale è stata allocata sulla base di indicatori diversi anno dopo anno (ne sono stati adoperati in totale 22) definiti unilateralmente dal MIUR e costruiti avendo già a disposizione i dati relativi a ogni ateneo. Questo quadro è perfetto simulare gli effetti di diversi indicatori e pesi percentuali e per per consentire scelte del tutto discrezionali.   Peggio: un quadro che, con la sua grande incertezza, ha impedito agli atenei qualsiasi seria politica di miglioramento, anche rispetto agli indicatori prescelti.
  • Molti di questi indicatori sono riferiti non ai comportamenti delle università ma alle caratteristiche dei contesti in cui esse sono insediate. E’, ad esempio, il caso di quelli relativi alla velocità con cui gli studenti acquisiscono i crediti che trascurano il loro bagaglio di competenze all’iscrizione, molto diverso su base territoriale. . Ne è prova il fatto che in alcuni casi (solo in alcuni, non tutti, e di ciò sfugge la logica) il MIUR ha introdotto correttivi territoriali, anche se sempre di modestissima entità. Va ancora peggio con gli indicatori di “internazionalizzazione” introdotti dall’attuale governo: uno di essi fa riferimento alla percentuale di iscritti che trascorrono periodi all’estero nell’ambito di Erasmus, ed è correlato direttamente al reddito delle famiglie di provenienza. Il merito degli atenei è quello di avere iscritti provenienti da famiglie benestanti.
  • La quota cosiddetta premiale è stata, con intensità crescente, collegata ai risultati della Valutazione della Qualità della Ricerca (VQR) 2004-10. Il ricchissimo dibattito sulla VQR, i dubbi autorevoli che sono stati espressi sulle sue metodologie, avrebbe consigliato un uso assai più cauto dei suoi dati (adatto ad un esercizio sperimentale) e di non farli assurgere, come è accaduto, a verità rivelate. Ma c’è di più: nell’utilizzo degli esti della VQR per il FFO si sono sempre privilegiati gli indicatori con la massima varianza in modo da amplificare l’effetto allocativo (è il caso dell’Irfs1, basato solo per il 50% sulla qualità delle pubblicazioni scientifiche o del peso attribuito agli “inattivi”); sono stati usati algoritmi discrezionali, differenti nel tempo che hanno prodotto allocazioni completamente differenti a partire dagli stessi dati (è nel caso dell’indicatore Iras3 per gli anni 2013 e 2014). Più in generale i dati della VQR sono stati usati senza minimamente tenere conto che essi (anche ammesso che siano misure adeguate) si riferiscono all’output di ricerca dei diversi atenei ignorando le differenze nella disponibilità di input (alcuni esempi: la ripartizione fortemente asimmetrica fra atenei degli assegnisti di ricerca; la diversa disponibilità a livello territoriale dei fondi provenienti dalle Fondazioni di origine bancaria o dagli Enti Locali). Tutto ciò risulta dalle analisi contenute nel Rapporto già citato. Non si tratta quindi di una misura di produttività/merito. In generale, la scelta del governo Renzi di accrescere moltissimo la quota cosiddetta premiale basata sulla VQR non è dunque un premio alla concorrenza o al merito, ma un ampliamento della discrezionalità nell’allocazione alle sedi delle risorse utilizzando indicatori già noti.
  • L’allocazione del FFO è stata poi accompagnata da nuovi criteri per il turnover dei docenti. Negli algoritmi per la loro definizione ha assunto un peso molto rilevante il gettito delle tasse studentesche: che, come facilmente dimostrabile, è correlato al reddito pro capite dei diversi territori. Ciò ha comportato un’ulteriore premialità per censo (dei territori) degli atenei, con una modifica a 180° delle politiche sulla tassazione: da vincoli al gettito, a premi per chi le aumenta di più (con effetti molto gravi di selezione per censo anche degli studenti, data l’assoluta modestia delle borse di studio). Si noti, a riguardo, come nel caso della recentissima allocazione di ricercatori di tipo B fra gli atenei, anche la dimensione sia divenuta un criterio, negativo, di merito: il MIUR ha discrezionalmente premiato, senza alcuna giustificazione, le sedi più piccole, come argomentato altrove.
  • Queste scelte hanno prodotto una fortissima penalizzazione degli atenei del Centro-Sud del paese. In particolare hanno determinato, al loro interno, una forte riduzione delle risorse per le aree scientifiche di maggiore “qualità”. Tenendo conto che la varianza degli esiti della VQR (così come di altri indicatori quali la percentuali di ricercatori e associati che hanno superato l’abilitazione nazionale) è maggiore fra aree scientifiche all’interno degli atenei che fra atenei, questa politica sta colpendo aree di eccellenza che hanno il solo torto di essere all’interno di atenei relativamente “deboli”. Il contrario di ciò che andrebbe fatto. Naturalmente, la penalizzazione degli atenei localizzati nelle aree relativamente più deboli del paese potrà avere effetti rilevanti, di lungo periodo, sulle loro complessive possibilità di sviluppo: un altro esito certamente negativo per l’Italia nel suo insieme.

I sostenitori di questo “nuovo corso” sottolineano che esso ha il grande merito di aver interrotto la consuetudine di distribuire risorse agli atenei solo su base “storica”. Ma questa non era l’unica strada. Scelte meno distorsive e discrezionali sarebbero state possibili introducendo elementi di “performance-based funding” più accorti e opportuni. Ecco alcuni esempi.

  • La quota base di finanziamento è ora allocata fra gli atenei non più in base a quanto ricevuto in passato, ma in riferimento al costo standard. Si è trattato di una scelta opportuna. Tuttavia la definizione unilaterale da parte del MIUR delle modalità di calcolo del costo standard ha prodotto non pochi inconvenienti. Ad esempio tali risorse si riferiscono solo agli studenti in corso: non tengono dunque conto delle diverse velocità negli studi connesse anche ai livelli delle competenze in entrata, penalizzando, ancora una volta, e indipendentemente dal loro merito, gli atenei delle aree più deboli del paese (che razionalmente, anche se non eticamente, potrebbero adottare criteri assai più laschi nella valutazione degli studenti agli esami, aumentando il proprio merito). L’indicatore non tiene poi conto (se non in misura limitatissima, attraverso un correttivo territoriale quasi ininfluente) del fatto che la mobilità territoriale degli studenti, specie da Sud a Nord, è molto influenzata da circostanze indipendenti dagli atenei, ad esempio quelle relative alle diverse prospettive sul mercato del lavoro o all’inesistenza di servizi per il diritto allo studio al Sud. Anche alla luce delle dinamiche demografiche in corso (con un aumento dei giovani al Nord e una forte riduzione al Sud), parametrare la dimensione degli atenei all’attuale flusso di iscrizioni non pare lungimirante, considerando che le regioni del Sud sono fra le ultime fra le 272 regioni europee per percentuale di giovani laureati. Una più accorta ridefinizione del costo standard, che tenga conto delle diverse condizioni socio-economiche delle regioni, potrebbe essere un buon esempio di “performance-based funding”.
  • Le sensibili criticità del sistema degli atenei italiani (dagli abbandoni al primo anno all’elevata quota di fuoricorso; dalle procedure per il reclutamento all’impegno nella “terza missione”) potrebbero essere direttamente affrontate attraverso il ricorso ad “accordi di performance”, di cui vi è esperienza nell’ambito delle università – ad esempio in Olanda, – nonché in altri ambiti dell’azione pubblica in Italia. Con riferimento alle specifiche condizioni di ogni ateneo, il MIUR potrebbe concordare un set di indicatori-obiettivo in un arco di tempo definito, e subordinare al loro raggiungimento l’allocazione di parte delle risorse, anche attraverso forme di valutazione comparativa fra diverse università. Si tratterebbe di uno stimolo al miglioramento, misurabile e correlato agli effettivi comportamenti.
  • Una quota aggiuntiva del finanziamento delle attività di ricerca degli atenei può essere allocata su base competitiva, come avviene quasi ovunque. Va attentamente valutato se convenga farlo con esercizi estremamente costosi e assai discutibili come la VQR, o ricorrendo a meccanismi competitivi fra progetti (con il possibile vantaggio di stimolare forme di collaborazione, nella competizione, fra sedi diverse, come avviene per i fondi europei per la ricerca). Certo colpisce che l’ultimo stanziamento per i Prin (Progetti di ricerca di interesse nazionale) sia tale da determinare un tasso di successo bassissimo, stimato intorno al 2%, con un evidente spreco di tempo nella progettazione e un’alea elevatissima; e sia pari, per il prossimo triennio, a quanto destinato per un solo anno e su base interamente discrezionale, all’Istituto Italiano di Tecnologia per lo Human Technopole di Milano. E’ in generale auspicabile che l’Italia, per il suo benessere di lungo termine , disponga di un sistema dell’università e della ricerca plurale e diffuso sul territorio e non concentrato in un numero limitato di sedi a cui far affluire tutte le risorse in un panorama generale di grande debolezza.

In conclusione, sorprende e dispiace – nel momento in cui si scende dalla enunciazione di slogan alla verifica dei fatti – di dover prendere atto dell’abisso che separa l’imperante retorica del merito e della concorrenza dalla realtà: il “Principe”, anche utilizzando accortamente come schermo una gran mole di dati tecnici, in realtà alloca discrezionalmente le risorse.

Schede e storico autori