SISSCO

Società italiana per lo studio della storia contemporanea

Pubblicazioni

LA STORIA CONTEMPORANEA E IL FINANZIAMENTO DELLE RICERCHE

UN AGGIORNAMENTO

di Alfio Signorelli
Del finanziamento delle ricerche di interesse nazionale si è già occupato nel primo numero de “Il mestiere di storico” Nanni Montroni, che ha utilizzato al meglio le scarne informazioni disponibili nel sito web del ministero (allora Murst, oggi Miur) per dare una lettura convincente degli effetti del nuovo sistema sulle ricerche di storia contemporanea e sulle tendenze rilevabili nei primi tre anni di applicazione [1] : “la logica della concentrazione delle risorse di cui è figlia la nuova normativa – concludeva –sembra aver favorito un piccolo gruppo di dipartimenti e un piccolo gruppo di docenti”, con la inevitabile conseguenza che “tutti gli altri, nella povertà delle risorse del finanziamento ordinario delle università, sono doppiamente più poveri di quanto non lo fossero con i tanto vituperati finanziamenti a pioggia” (pp. 146, 149).
Il tema è di quelli che la Sissco deve tenere sotto costante osservazione, e su cui non è inutile tornar sopra, pur se a distanza di soli due anni, anche in considerazione del fatto che proprio intorno a un progetto di storia contemporanea si è creato un caso che ha fatto clamore, a cui accenneremo più avanti. Sulla base della stessa fonte utilizzata da Montroni [2], proverò dunque a sviluppare il discorso secondo la seguente scansione: il punto di partenza non può essere che l’aggiornamento al 2001 dei dati analizzati fino al 1999, per verificare in che misura le linee di tendenza individuate da Montroni trovino conferma nei due anni successivi; in secondo luogo mi soffermerò sul problema della valutazione dei progetti e sulla trasformazione dei relativi meccanismi e criteri nel corso dei primi cinque anni; in terzo luogo proporrò alcuni spunti di riflessione sull’efficacia e la validità del sistema di finanziamento dal punto di vista delle discipline umanistiche e in particolare della ricerca storica.

Le ricerche finanziate

Per aggiornare i dati relativi alle ricerche finanziate ho adottato gli stessi criteri enunciati da Montroni, prendendo in esame le tre aree scientifico-disciplinari in cui è possibile che vengano presentati progetti di storia contemporanea: l’area 11 delle Scienze storiche, filosofiche, pedagogiche e psicologiche, l’area 13 delle Scienze politiche e sociali e l’area 14 delle Scienze economiche e statistiche. Per quanto l’individuazione dei progetti ascrivibili per temi e metodi allo statuto della nostra disciplina sia opinabile e persino arbitraria, tuttavia la via empirica, come indicava già Montroni, non ha in questo caso molte alternative.
 I progetti degli ultimi due anni, elencati nella tabella 1, sono solo 20, contro i 43 del triennio precedente: una contrazione che dà una prima conferma della tendenza a concentrare le risorse nelle mani di un numero sempre più esiguo di studiosi. È da notare, tra l’altro, che ben sette dei venti coordinatori avevano già ottenuto almeno un finanziamento tra il 1997 e il 1999.
Le tabelle 2, 3 e 4 comprendono i dati dell’intero quinquennio: quelli relativi ai primi tre anni sono tratti dalle tabelle elaborate da Montroni.

Tabella 1. Progetti di storia contemporanea finanziati dal Miur-Urst (2000-2001)
Tabella 2. Cofinanziamenti Miur-Urst a progetti di storia contemporanea (1997-2001)

Anni

Progetti

Cofinanziamento

Finanziamento totale

Cofin.to / Progetti

Fin.to tot. / Progetti

Unità operative

Cofin.to / Unità op.

Fin.to tot. / Unità op.

1997

17

2.294

4.321,805

134,94

254,22

95

24,14

45,49

1998

12

1.642

2.496,180

136,83

208,01

49

33,51

50,94

1999

14

2.796

3.849,000

199,71

274,92

52

53,76

74,01

2000

12

2.365

3.588,000

197,08

299,00

63

37,54

56,95

2001

8

1.909

2.982,000

238,62

372,75

39

49,95

76,46

Totale

63

11.006

17.236,985

174,70

273,60

298

36,93

57,84

I dati della tabella 2 pre­sentano un andamento un po’ contraddittorio: da un lato, diminuzione del numero di progetti e aumento delle quote medie di cofinanziamento; dall’altro, inversione di tendenza nel numero di unità locali per singolo progetto, senza tuttavia che ne consegua una riduzione significativa del finanziamento per unità operativa, che anzi raggiunge nel 2001 il livello più alto.

Tabella 3. Cofinanziamento per atenei di appartenenza del/la coordinatore/trice nazionale

Nella tabella 3 trova conferma la concentrazione dei coordinatori nazionali in poche sedi: ai primi sei posti troviamo le stesse università che li occupano nella classifica 1997-99, con la sola differenza della Sapienza che passa dal sesto al terzo posto e di Catania che scende dal quarto al sesto. Queste sedi nei primi tre anni esprimevano 24 coordinatori (55,8%) e raccoglievano il 61,8% del cofinanziamento; sull’intero quinquennio, malgrado l’emergere di nuovi atenei, subiscono una flessione piuttosto modesta, con 33 coordinatori (52,4%) e il 58,7% dei fondi.
Un po’ diverso è il quadro della distribuzione delle risorse ai gruppi locali illustrato nella tabella 4, i cui dati da un lato confermano la graduatoria delle sedi che si assicurano le quote maggiori: le prime sette dell’elenco 1997-99, infatti, si mantengono ai primi sette po­sti, con la sola differenza della Sapienza che passa dal settimo al quarto, e di Napoli che scavalca Bari; dall’altro mostrano una tendenza al riequilibrio, in quanto so­lo poche sedi accrescono la loro quota percentuale, e non si tratta di quelle ai vertici della clas­sifica. Particolare è però il caso di Roma, i cui atenei migliorano tutti in percentuale e, considerando anche quelli privati, fanno salire i fondi ottenuti dai gruppi di ricerca della capitale dal 7,7% dei primi tre anni al 12,9% del quinquennio.

Tabella 4. Cofinanziamento alle unità locali per ateneo

Prima di affrontare la questione della valutazione, resta da chiedersi quanto l’andamento dei progetti di storia contemporanea presentati e dei fondi loro assegnati sia coerente con l’andamento di ricerche e fondi delle aree scientifico-disciplinari al cui interno sono stati valutati. La tabella 5 fornisce qualche elemento di riflessione in proposito.
Balza agli occhi il fatto che, dal 1997 al 2001, la percentuale delle ricerche di storia contem­pora­nea sul totale delle ricerche finanziate si è più che dimezzata, sia per numero di progetti (dal 14,4% al 7,1%), sia per importo del cofinanziamento (dal 16,3% al 7,9%). Questo in una situazione in cui, invece, il numero complessivo di progetti finanziati nei tre settori ha avuto oscillazioni limitate in più o in meno (1998-1999: +11,8%; 2000-2001: –15,1%) con una flessione piuttosto lieve nell’arco del quinquennio, passando dai 118 del 1997 ai 112 del 2001 (–5,1%).

Tabella 5. Numero di progetti e fondi assegnati a ricerche di storia contemporanea in rapporto alle aree scientifico-disciplinari di riferimento (1997-2001)

 

Aree scientifico-disciplinari 11 – 13 – 14

Anno

Numero di progetti cofinanziati

Cofinanziamento (in milioni di lire)

 

Totale

Storia cont.

%

Totale

Storia cont.

%

1997

118

17

14,4

14.083

2.294

16,3

1998

119

12

10,1

18.830

1.642

8,7

1999

133

14

10,5

26.698

2.796

10,5

2000

132

12

9,1

22.669

2.365

10,4

2001

112

8

7,1

24.126

1.909

7,9

1997-2001

614

63

10,3

106.406

11.006

10,3

Ciò vuol dire che la diminuzione del numero di ricerche finanziate non è determinata solo dalla concentrazione delle risorse, ma anche da una contrazione della storia contemporanea all’interno delle aree scientifico-disciplinari a cui afferisce. È difficile spiegare le cause di questa perdita di peso relativo, dato che il sito del ministero non dà alcuna informazione sui progetti non finanziati, di cui possiamo ricava­re il numero per aree disciplinari, ma senza alcuna indicazione tematica. Non è possibile dunque determinare se il calo percentuale delle ricerche di storia contemporanea rispecchi una diminuzione dei progetti presentati o se debba attribuirsi piuttosto all’applicazione dei meccanismi e dei criteri di valutazione degli stessi progetti.

La valutazione

La principale novità introdotta con il nuovo sistema di finanziamento delle ricerche di interesse nazionale ha riguardato la valutazione dei progetti, per la quale si è fatto ricorso a revisori anonimi. Solo una parte del mondo italiano della ricerca aveva dimestichezza con meccanismi di questo tipo: ben poco praticati nel campo delle discipline umanistiche, rientravano fra le esperienze comuni solo di quei ricercatori dei settori scientifici in grado di competere in campo internazionale. E infatti il sistema ha stentato non poco ad entrare in funzione, ha suscitato, e continua a suscitare, polemiche e ha subìto, nei primi cinque anni di applicazione, continui aggiustamenti.
È un po’ presto per redigere un bilancio che tenga conto di tutti gli elementi in campo. Mi limiterò a richiamare le norme che regolano l’attività di valutazione, la loro trasformazione e il modo in cui sono state applicate, fornendo delle informazioni sintetiche ed essenziali sul comitato responsabile della selezione delle ricerche, sui revisori anonimi e sul rapporto quantitativo tra progetti e valutazioni.
La Commissione di garanzia  – questo è il nome che sembra prevalere fra i tanti con cui questo organismo è stato indicato negli atti ufficiali – è nominata dal ministro per l’università. La sua composizione è determinata anno per anno dal decreto ministeriale con cui è emanato il bando per il finanziamento dei programmi di ricerca, e si è molto trasformata nel corso dei primi cinque anni. In prima applicazione della nuova normativa, nel 1997, il numero dei componenti era stabilito in cinque, scelti dal ministro all’interno di tre rose di cinque nomi indicate rispettivamente dalla Crui, dal Cun e dal Cnst [3]; la commissione si doveva rinnovare ogni anno per un terzo [4]. L’anno seguente veniva introdotta una prima modifica, in base alla quale due garanti erano nominati di libera iniziativa del ministro e solo tre si dovevano individuare nelle suddette rose; il rinnovo dell’organismo, inoltre, doveva riguardare “almeno due dei suoi componenti, di cui almeno uno scelto nelle liste di cui sopra”; e si stabiliva il limite massimo di tre anni di permanenza nella commissione [5].
Nel 1999 il numero dei componenti saliva a sette: tre di competenza diretta del ministro e quattro da trarre, soppresso ormai il Cnst,dalle altre due rose sempre di cinque nomi il numero minimo dei membri da sostituire annualmente passava a tre, da individuare uno fra i primi tre e due fra i quattro scelti dalle liste [6]. A partire dal 2001, infine, anche il ministro ha a disposizione quattro nomine di sua iniziativa, per cui la Commissione è formata oggi da otto membri, e deve essere rinnovata annualmente per almeno la metà, cioè due componenti nominati dal ministro e due tratti dalle liste Crui e Cun [7]. La tabella 6 dà il quadro completo di tutti coloro che hanno fatto parte della Commissione. Da essa risulta evidente che il meccanismo dei rinnovi, combinato con il succedersi dei ministri, ha determinato un turn over piuttosto rapido: senza considerare i quattro nuovi accessi del 2002, di cui non si può prevedere la permanenza tra i garanti, su 22 nominati, 13 sono rimasti in carica un unico anno, mentre solo in 5 hanno compiuto il triennio.
Per quel che riguarda le competenze dei commissari, l’incrocio tra sede, facoltà e settore disciplinare di appartenenza permette di individuare sia il profilo della Commissione anno per anno, sia gli ambiti geografici e scientifici più rappresentati nel tempo. Ma è un esercizio che ciascuno potrà fare per sé. Ciò su cui mi sembra invece importante richiamare l’attenzione, è la assoluta connotazione di genere dei garanti: tra i 26 commissari nominati nell’arco di sei anni non vi è neanche una don­na; il che è tanto più grave in quanto non si tratta di cariche elettive, ma di un organo nominato da ministri di governi che, almeno fino al 2001, hanno dato a vedere di recepire le indicazioni europee per promuovere la parità e le pari opportunità fra i sessi in tutti i campi, non ultimo, naturalmente, quello della ricerca [8].

Tabella 6. Commissione di garanzia (1997-2002)

Sin dal primo insediamento la Commissione ha avuto tra i suoi compiti quello di redigere una lista di revisori scientifici, che dovevano essere in numero tale da assicurare per ogni progetto almeno due pareri anonimi, come prevede la normativa. Criteri e procedure seguite nella formazione di questo archivio sono illustrate annualmente nelle relazioni finali della Commissione, che non ha mai nascosto l’inevitabile carattere empirico, e persino di casualità, che aveva, soprattutto all’inizio, questa parte del suo lavoro. La relazione del 1997 ci dice solo che era stata “costituita una base di dati comprendente 4.900 nominativi, in buona parte docenti universitari italiani e stranieri, e strutturata in larga misura secondo le indicazioni fornite dai Dipartimenti e gli Istituti universitari consultati”; e che di questi, avendo scartato gli studiosi coinvolti in programmi da giudicare, “il numero di revisori utilizzati è stato di circa 2.000” [9].
Questo avvio non molto ben organizzato della formazione di un archivio di revisori ha avuto effetti anche sul lavoro degli anni seguenti. Nel 1998 la Commissione ha proceduto a un primo controllo delle liste, che ha permesso di aggiornare la posizione di 2.500 revisori. Nel 1999 è stata avviata una verifica sistematica dell’intero archivio, resa possibile dalla disponibilità di 2 borse di studio erogate dal ministero e parzialmente rinnovate anche negli anni successivi. In base alle informazioni fornite dagli stessi garanti, solo da quell’anno la Commissione ha cominciato a disporre di una banca dati sufficientemente ampia e articolata. Un dettaglio che ci fa capire quanto fossero confuse le idee nella fase di avvio del sistema di valutazione, è la disposizione contenuta nel primo decreto ministeriale del 1997, che prevedeva che anche i revisori, così come i componenti della commissione, venissero “sostituiti di almeno un terzo ogni anno”. Naturalmente questa norma è immediatamente caduta, ed è apparso subito chiaro che, al contrario, il vero problema era quello di stabilizzare un elenco più ampio possibile e di tenerlo sempre aggiornato.

Tabella 7. Revisori anonimi stranieri e italiani (1998-2001)

Una delle caratteristiche del sistema delle valutazioni che si è andato organizzando in Italia, è il massiccio ricorso a studiosi stranieri. Come è stato notato, si tratta di una peculiarità nostrana che può interpretarsi sia come stimolo positivo ad adeguarsi in tutti i campi a standard internazionali, sia, più realisticamente, come “sintomo di provincialismo e, soprattutto, di scarsa fiducia nella capacità autovalutativa del sistema accademico italiano”[10]. Comunque sia, come mostra la tabella 7, i revisori stranieri – a partire dal 1998, quando è stato introdotto l’uso contestuale dell’inglese per la formulazione dei progetti – sono sempre stati largamente in maggioranza nell’intero albo, che nel 2001 superava i 19.000 nominativi. Tra il 1998 e il 2001 l’incremento del numero dei revisori è stato vistoso e ha riguardato, in proporzioni diverse, tutti i settori. Nell’area 11 l’aumento è stato particolarmente consistente, mentre nella 13 e nella 14 è stato uguale o inferiore a quello complessivo. Anche la prevalenza degli stranieri è comune a tutti i settori, ma nei tre umanistici qui presi in considerazione la percentuale resta al di sotto di quella dell’insieme delle aree. In questi tre settori, tuttavia, si è prodotto un sostanziale riequilibrio, che ha portato nel 2001 la percentuale dei revisori stranieri a valori compresi tra 55 e 60, contro il 64,1 del dato nazionale. La tabella 7, per la verità, mostra anche quanto i dati forniti dalla Commissione di garanzia nelle sue relazioni annuali siano organizzati a volte in modo poco comprensibile: si vedano, ad esempio, le cifre relative ai nuovi revisori aggiunti annualmente, che si sono riportate solo per completezza di informazione, ma di cui è molto difficile cogliere il significato. Infatti, se si prova a calcolare le differenze in più o in meno di revisori stranieri e italiani da un anno all’altro, si constata subito che in più di un caso i dati non sono compatibili, tranne a ipotizzare cambiamenti in massa di nazionalità.

Tabella 8. Rapporto tra progetti presentati e valutazioni effettuate  (1997-2001)

Area

1997

1998

1999

2000

2001

R

V

V/R

R

V

V/R

R

V

V/R

R

V

V/R

R

V

V/R

11

196

479

2,4

116

342

2,9

106

278

2,6

102

308

3,0

119

385

3,2

13

136

285

2,1

102

281

2,8

95

192

2,0

107

389

3,6

112

383

3,4

14

52

104

2,0

35

93

2,7

44

104

2,4

43

133

3,1

50

144

2,9

11, 13, 14

384

868

2,3

253

716

2,8

245

574

2,3

252

830

3,3

281

912

3,2

Tutte

1.645

4.153

2,5

1.358

3.987

2,9

1.345

3.976

3,0

1.718

5.178

3,0

1.991

5.967

3,0

R = richieste presentate; V = valutazioni effettuate; V/R = numero medio di valutazioni per richiesta
Come si è già detto, per ogni progetto presentato è previsto che vengano effettuate non meno di due valutazioni. Poiché disponiamo solo dei dati aggregati per anno e per area, non è possibile sapere se la commissione si sia attenuta sempre scrupolosamente a tale criterio. Dai dati della tabella 8 sembrerebbe di sì, anche se nel 1997 per l’area 14 le valutazioni sono state esattamente il doppio delle richieste; e questo lascia qualche dubbio. Comunque, il numero di valutazioni per progetto è passato in complesso da 2,5 a 3; e nelle aree 11, 13 e 14, che nei primi anni avevano un rapporto inferiore a quello globale, la situazione si è ribaltata a partire dal 2000.
Cambiamenti piuttosto rilevanti hanno subìto, quasi annualmente, anche le istruzioni impartite ai revisori sulle modalità da seguire nel formulare le valutazioni. La tabella 9 permette di apprezzare questi cambiamenti, che riguardano sia il numero sia l’oggetto delle domande alle quali il revisore deve rispondere traducendo la sua valutazione in un punteggio da 1 a 5 [11].

Tabella 9. Scheda di valutazione per il revisore anonimo. Fattori di valutazione (1997-2001)

Ne 1997, con undici “fattori di valutazione”, il punteggio massimo era di 55 punti. Il revisore, però, non era tenuto a rispondere a tutte le 11 domande ma, come chiariva una nota alla scheda di valutazione, poteva lasciare in bianco gli spazi corrispondenti a quelle su cui non voleva pronunciarsi. Questa norma non era certo un invito alla trasparenza: in pratica, mentre per i fattori valutati da 1 a 5 punti al revisore era richiesta una “breve giustificazione del punteggio”, per quelli su cui non intendeva esprimersi, assegnando così zero punti, non doveva dare alcuna motivazione. Nel determinare la graduatoria dei progetti in base alla quale la Commiss­ione disponeva l’erogazione dei fondi, oltre al punteggio finale dei fattori di valutazione, influiva anche l’esplicito giudizio richiesto al revisore sulla finanziabilità della proposta, che veniva espresso attraverso quattro livelli di merito, dalla A, che indicava “alta priorità”, alla D, che indicava insufficienza [12].
Questi due aspetti, cioè la libertà di non rispondere alle domande e il duplice metro di valutazione – punteggio da un lato, livello di finanziabilità dall’altro -, hanno mostrato, nella applicazione pratica, non pochi inconvenienti, ai quali si è cercato di porre rimedio sin dall’anno seguente. Nel 1998, infatti, la scheda di valutazione è stata semplificata, eliminando le due domande relative alla “rilevanza internazionale del programma di ricerca” e alla “congruenza fra obiettivi proposti e metodiche adottate per conseguirli”, e riorganizzando le altre nove con una nuova formulazione e secondo una diversa successione. La valutazione della finanziabilità del progetto, inoltre, è stata eliminata come giudizio separato da quello sui singoli fattori, ed è stata collegata al punteggio assegnato alle prime due domande, a cui diveniva obbligatorio per il revisore fornire risposta: i livelli di ammissibilità al finanziamento restavano gli stessi quattro dell’anno precedente, ed erano indicati con le stesse lettere, da A a D; ma la collocazione del singolo progetto all’uno o all’altro livello veniva ora determinata dal prodotto dei punteggi assegnati alle prime due domande [13]. Questa modalità di valutazione è rimasta in vigore per tre anni, con la sola modifica, introdotta nel 1999, del numero delle domande, che sono passate da nove a otto per l’accorpamento delle ultime due relative alla congruità delle risorse e dei costi previsti.
Nel 2001 il sistema è stato di nuovo sostanzialmente rivisto, con l’introduzione delle seguenti modifiche [14]:

  • i fattori di valutazione sono rimasti otto come nei due anni precedenti, ma è stata soppressa la seconda domanda relativa alla “rilevanza nazionale del progetto di ricerca”, mentre quella che era l’ottava è stata nuovamente sdoppiata nelle due domande presenti nella scheda del 1998, rispettivamente sull’adeguatezza delle risorse e sulla congruità del finanziamento (domande 4 e 5);
  • le otto domande sono state divise in due gruppi: le prime cinque riguardano la qualità del progetto e le altre tre la qualificazione scientifica dei proponenti; il revisore deve prima valutare qualità del programma e costi, esaminando il progetto “appositamente oscurato per quanto attiene ai nominativi”, e poi procedere alla valutazione dei coordinatori e dei gruppi, senza poter modificare i giudizi precedentemente espressi;
  • la risposta a tutte le domande è obbligatoria: è condizione, cioè, perché la valutazione possa essere utilizzata;
  • l’ammissibilità al finanziamento è basata sul punteggio conseguito in sette domande: sono finanziabili i progetti che ottengono una media di almeno 3,5 nelle prime tre domande e di almeno 3 nelle domande 4, 6, 7 e 8;
  • in caso di finanziabilità, la risposta alla domanda 5 è tenuta in conto per definire l’entità del finanziamento. È certamente apprezzabile lo sforzo compiuto dalla Commissione di garanzia per adeguare le modalità della valutazione alle esigenze che via via la pratica del nuovo sistema di finanziamento metteva in luce, e per ovviare ai molti inconvenienti che di anno in anno non hanno mancato di manifestarsi. Resta da chiedersi quanto l’intero meccanismo abbia corrisposto e corrisponda alle aspettative e alle prospettive delle diverse aree della ricerca. Ma questa è una questione che non può essere affrontata in termini generali, e che ci riporta dunque ad occuparci dei settori di nostra competenza, quelli umanistici, e in particolare di quello della storia contemporanea.

    Su alcuni aspetti aberranti dell’attuale sistema

    Credo che nessuno dubiti che il sistema di finanziamento della ricerca di cui si è fin qui parlato sia stato elaborato per rispondere essenzialmente alle esigenze dei set­tori scientifici, e in particolare di quelli che assorbono, e sempre più assorbiranno, la quota maggiore delle risorse [15]. Probabilmente non tutti i ricercatori di quei settori sono d’accordo sulla sua validità, o su singoli aspetti del meccanismo, o ancora sugli aggiustamenti introdotti nei primi cinque anni di applicazione. Ma è certo che nessuno di loro penserebbe di valutarne l’efficacia in base al funzionamento nei settori cosiddetti umanistici.
    Cosa, per altro, non semplice, dato che all’interno di questo vasto campo – che definiamo umanistico solo per contrapporlo a quello dei settori più propriamente scientifici – vi sono ambiti disciplinari tra di loro molto distanti non solo per tradizioni culturali o metodologie, ma anche talvolta per esigenze strumentali e materiali che ne rendono difficilmente commensurabili le ricerche. Per non ingenerare equivoci, dunque, mi riferirò in particolare alla ricerca storica, pur se con l’avvertenza che parte dei discorsi che la riguardano si possono estendere a molte altre discipline.
    Innanzitutto vorrei richiamare l’attenzione su alcuni aspetti generali del meccanismo del finanziamento, che, al di là del funzionamento o meno del sistema, sono a dir poco paradossali e hanno ricadute rilevanti sui settori che qui ci interessano. Il primo, e più generale, riguarda l’attribuzione dei fondi. Il principio del cofinanziamento è stato introdotto allo scopo di responsabilizzare gli Atenei e stimolarli ad un ruolo attivo nelle scelte relative alla ricerca. I gruppi proponenti devono mobilitare risorse ciascuno nella propria sede, consapevoli che dall’ammontare di quelle risorse dipende l’entità del finanziamento finale, in un rapporto di 40 a 100, dato che il ministero partecipa, per i progetti interuniversitari, con il 60% del costo totale ammissibile. Questo principio viene applicato in modo piuttosto automatico, con piccoli scarti rispondenti forse più all’esigenza tutta estetica di arrotondare le cifre che a una scelta della Commissione di garanzia: nei 20 progetti di storia contemporanea del biennio 2000-2001 la quota di cofinanziamento oscilla tra il 58,1% e il 69,9% del finanziamento complessivo. La Commissione, in sostanza, si ritaglia un margine di discrezionalità piuttosto esiguo sulla determinazione dei finanziamenti, il cui importo deriva in larga misura dalla capacità dei coordinatori locali di raccogliere fondi, sia rastrellando quelli già a disposizione dei singoli ricercatori coinvolti (fondi ottenuti il più delle volte per tutt’altra ricerca, che vengono conferiti volentieri al gruppo con la prospettiva di un incremento del 150%), sia ottenendo dal dipartimento o dall’Ateneo cospicue integrazioni, spesso condizionate all’approvazione del progetto.
    Il risultato è che, anziché responsabilizzare gli Atenei sugli orientamenti della ricerca, questo sistema dà luogo a competizioni che si svolgono non in sedi scientifiche ma all’interno degli organismi amministrativi delle università. Non so negli altri settori, ma è certo che nel campo delle discipline umanistiche questo ha significato e significa maggiori mezzi e maggior potere a chi dispone già di potere accademico e di risorse. E non sempre ciò è garanzia di serietà scientifica.
    Un secondo aspetto che ha effetti aberranti in molte discipline umanistiche, e in particolar modo nelle ricerche di storia moderna e contemporanea è quello, già rilevato nel commento alla tabella 7, che riguarda il ricorso massiccio a revisori stranieri. Il fatto che queste pagine compaiano in una sede “professionale” esime dallo spendere molte parole su un argomento che è del tutto evidente a chi ha familiarità con il settore della storia contemporanea: un settore che privilegia, e non solo in Italia, l’ambito nazionale, che utilizza in gran parte fonti d’archivio, da noi più che altrove molto disperse sul territorio, e che cresce in relazione a domande storiografiche più o meno intensamente segnate, anche in tempi di integrazione europea e di globalizzazione, dal contesto socio-culturale nazionale. Se si ritiene che la ricerca italiana sia affetta in molti casi da provincialismo – e su questo si può convenire – non è certo valutandola con gli occhi degli “altri” che la si può guarire: gli altri, infatti, nel caso della storia, è probabile che siano studiosi anch’essi di storia italiana, e in questo caso non è detto che si collochino a livelli alti nelle rispettive storiografie nazionali; e se non lo sono, non si capisce come possano pronunciarsi su temi a loro estranei, che è facile che valutino in sintonia con l’opinione corrente in molti ambienti della storiografia internazionale secondo la quale gli unici oggetti di ricerca degni di attenzione in Italia, oltre alla storia della chiesa, sono quelli che toccano il rinascimento e il fascismo.
    Terzo aspetto che mina l’efficacia del sistema – sempre dal punto di vista della ricerca storica, che però in questo caso si può estendere all’intero campo umanistico – è quello che potremmo definire della irresponsabilità dei garanti. È giusto ed è ovvio che i revisori siano anonimi. Ma poniamo che il coordinatore del progetto, che ha facoltà di accedere per via telematica alle schede compilate dai revisori, non sia soddisfatto dei loro giudizi e intenda contestarli. Cosa succede in questo caso, non poi tanto infrequente? Che egli presenta le sue rimostranze alla Commissione di garanzia, la quale per mano del suo presidente gli risponde che il revisore avrà forse sbagliato, ma che lui non può farci niente perché i commissari si limitano ad applicare i parametri numerici che scaturiscono dai giudizi, senza entrare nel merito dei giudizi stessi.
    Il caso a cui si è fatto cenno in apertura si presta molto bene a illustrare la situazione. Pur se la vicenda è ben nota perché ampiamente diffusa dagli interessati anche al di fuori dei confini della disciplina, se ne richiamano qui brevemente i passaggi essenziali ad uso di chi non ne fosse informato. Nel 2001 è stato inoltrato per l’area disciplinare 11 un progetto sul tema “Memoria e storia del Novecento. Interpretazioni storiografiche e uso pubblico della storia alla fine del secolo: uno studio comparato”, a cui partecipavano unità di Siena, Bologna, Firenze e Vercelli. In seguito all’esclusione del progetto dal finanziamento, Tommaso Detti, che ne era il coordinatore scientifico, si è rivolto alla Commissione di garanzia per contestare non già l’esito della valutazione, ma uno specifico parere espresso da uno dei revisori anonimi. I passaggi controversi di tale parere sono riportati nella lettera di Detti, largamente diffusa per e-mail, e da lì li riprendo:
    Punto 6 – Competenza del coordinatore scientifico: “Ha sicuramente tutta la competenza necessaria come preparazione storica e per competenza specifica. Certo è ideologicamente molto orientato e l’argomento, come è evidente, confina con la ‘politica’”.
    Punto 7 – Competenza dei gruppi proponenti: “Un po’ più disomogenea, ma vale lo stesso giudizio di cui sopra”.
    Commento generale: “Come si diceva nel commento precedente, l’argomento è di grande attualità e riguarda le sorti stesse della contemporaneistica. Difficile pretendere giudizi equilibrati quando non obiettivi. Certo questo gruppo di studiosi è molto orientato”.
    Si tratta di affermazioni a mio giudizio molto gravi, che ben giustificano il “profondo sconcerto” espresso da Detti “di fronte al fatto che un revisore possa formulare un parere del genere e soprattutto che tale parere venga preso in considerazione”. Ma ancora più grave, rispetto al tema di cui qui si discute, è il tenore della risposta del presidente della Commissione di garanzia, Tommaso Padoa Schioppa:
    «Personalmente – scrive -, io non avrei dato valutazioni di ordine ideologico se fossi stato chiamato ad esprimere un giudizio su un progetto storiografico. Però queste sono, come Lei sa perfettamente, del tutto normali e starei per dire inevitabili. […] Credo non si possa negare che in qualche caso la composizione di un gruppo di lavoro può effettivamente considerarsi, a torto o a ragione non importa, non scientificamente adeguata per lo studio di un certo fenomeno storico. Se ad esempio […] io dovessi giudicare l’adeguatezza di un gruppo di studiosi tutti appartenenti all’università statunitense dei mormoni a studiare la riforma della Chiesa di Gregorio VII ovvero il concilio Vaticano I, avrei qualche dubbio sul risultato scientifico. Dico questo […] senza minimamente entrare nel merito del giudizio espresso dal revisore in questione, giudizio che i garanti non possono comunque in alcun modo sindacare».
    Non intendo in questa sede affrontare gli enormi problemi di ordine deontologico e storiografico che tali affermazioni sollevano, sui quali tra l’altro si è aperta all’interno della lista di discussione della Sissco una riflessione che ha avuto anche qualche eco sulla stampa nazionale [16]. Mi limiterò a commentare le ultime due righe che, ai fini del discorso sul funzionamento del sistema, mi sembra che contengano un passaggio cruciale. Capisco che la Commissione non debba “entrare nel merito del giudizio espresso”, cioè sottoporre ad analisi le argomentazioni scientifiche su cui esso si fonda; capisco molto meno che non possa “in alcun modo sindacare”. Che significa? Dunque non rientra tra i compiti dei garanti una forma di controllo dei giudizi dei revisori? Dunque essi non possono ritenerne inutilizzabile uno in quanto palesemente viziato da argomentazioni del tutto esterne alla valutazione della ricerca? Sembra impossibile, ma è proprio questo che afferma la Commissione ed è così che agisce. Si deve concludere che i finanziamenti alla ricerca scientifica vengono dati sulla base di giudizi irresponsabili, nel senso che nessuno ne assume la responsabilità.
    Come ovviare? Delle due l’una: o si prevede che in caso di contenzioso non sanabile l’anonimato cada e il revisore risponda direttamente dei suoi giudizi sia di fronte agli interessati, sia di fronte alla comunità degli studiosi; oppure bisogna che i garanti nel momento in cui ammettono come utilizzabile un parere, lo facciano proprio e se ne assumano per intero la responsabilità. L’una e l’altra soluzione comportano inconvenienti e possono avere affetti perversi. Eppure qualche correttivo va introdotto se si vuole limitare l’arbitrio e, dietro l’arbitrio, le mascalzonate accademiche.

    La ricerca storica: peculiarità ed esigenze

    Ma oltre ad auspicare che si ponga rimedio agli aspetti del meccanismo di finanziamento che nei primi anni di applicazione si sono rivelati inadeguati o hanno suscitato giustificate proteste, credo sia il caso di chiedersi  se e quanto il sistema, anche nella sua applicazione ottimale, sia idoneo a sostenere la ricerca dei settori umanistici e della storia in particolare.
    Per quanto i dati ricavabili in rete siano scarni, esaminando i progetti approvati nell’ultimo biennio si possono individuare alcune delle logiche che presiedono alla formazione dei gruppi e alla definizione degli obiettivi di ricerca. In circa un terzo dei casi si tratta di gruppi organizzati attorno ad un programma piuttosto chiaro e ben definito, rispetto al quale le unità locali si presentano con tratti omogenei o in funzione complementare. Altrettanti sono i progetti che potremmo definire “omnibus”, cioè delineati in termini talmente vasti e vaghi da tenere insieme interessi di ricerca anche molto disparati. L’impressione che se ne ricava è che in questi casi il programma nazionale sia il risultato di un collage fra tanti piccoli programmi individuali (chi non si è sentito chiedere: “dammi venti righe sulla tua ricerca, da inserire nel progetto complessivo”?). Vi sono poi progetti che sono diretta espressione di gruppi accademici costituiti, e che vengono elaborati in funzione del rafforzamento di un particolare ambito di ricerca: in alcuni casi si tratta di gruppi che tendono a identificarsi con un intero settore disciplinare, o a rappresentarne la parte maggiore (storia dell’Europa orientale; storia della scienza; storia delle relazioni internazionali); in altri, di ambiti di ricerca trasversali rispetto ai settori disciplinari ma fortemente caratterizzati (storia militare, storia delle donne). Alcune altre richieste, infine, provengono da gruppi costituiti come équipe redazionali di progetti editoriali (dizionari biografici, bibliografie).
    A parte questi ultimi casi . nei quali i risultati della ricerca coincidono già in premessa con un prodotto che va sul mercato, il che vanifica ogni criterio di verifica – la definizione degli obiettivi segue la stessa logica della composizione dei gruppi: il risultato atteso è dato dalla somma delle acquisizioni a cui perverranno i contributi individuali dei singoli componenti. La breve sintesi dei progetti che compare in rete non permette un discorso analitico sui risultati prefissati. La voce “obiettivo della ricerca” consiste nella quasi totalità dei casi in una esposizione più o meno sintetica dell’ipotesi di partenza e delle lacune conoscitive che ci si propone di colmare. Più utile, ai nostri fini, è la voce “criteri di verificabilità”, che, al di là di qualche formula tautologica, come quella secondo la quale “il criterio principale di verificabilità della ricerca consiste nell’accertamento del modello esplicativo, che sarà proposto al termine della ricerca”, è redatta quasi sempre in forma schematica e permette di individuare ciò che il progetto si propone di produrre. I risultati attesi, con poche variazioni, sono i seguenti: incontri, seminari e convegni nazionali o internazionali; pubblicazione di saggi, articoli, monografie, volumi collettanei o atti di convegni; creazione di banche dati e produzione di strumenti multimediali.
    In complesso si può dire che nella maggior parte dei casi i gruppi si costituiscono per una sorta di patto di mutuo sostegno fra studiosi impegnati in ricerche con punti di convergenza o di contatto, i quali elaborano un programma le cui coordinate (cronologiche, geografiche, tematiche, metodologiche) sono determinate dalla necessità di contenere tutti i progetti coinvolti. Ciò che accomuna i componenti di un gruppo è costituito molto raramente dal risultato atteso, molto più spesso dal punto di partenza comune e ancor più di frequente dal dialogo che può intrecciarsi, durante il percorso, fra ricerche contigue. Probabilmente è inevitabile che sia così, dato che nel campo della storia – e in molti settori umanistici – la ricerca segue ancora molto più la via dell’impegno individuale che quello dell’indagine corale.
    La rigida omogeneità del sistema di finanziamento, d’altra parte, contribuisce a mantenere la situazione nel suo stato attuale, perché non stimola l’avvio di nuove ricerche basate su un effettivo lavoro di équipe. Anche l’arco di tempo di due anni ben poco si adatta all’indagine storica, che normalmente richiede, anche come attività individuale, tempi più lunghi. Credo che da parte delle discipline storiche, e di tutti i settori nei quali l’organizzazione della ricerca pone problemi analoghi, si dovrebbe chiedere con forza che il sistema di valutazione dei progetti di gruppo e di erogazione dei fondi assuma una maggiore flessibilità, in modo da poter rispondere alle esigenze specifiche dei diversi ambiti. Attualmente, invece, è la ricerca dei settori umanistici che deve adattarsi a un sistema modellato per rispondere a esigenze molto diverse.
    Non è questa la sede per avanzare proposte, che per altro sarebbe bene che giungessero a conclusione di un ampio dibattito, che finora è mancato. E tuttavia, come contributo alla discussione, vorrei suggerire una possibile direzione da seguire. Scartando ovviamente un ritorno sotto qualunque forma alla erogazione “a pioggia”, si dovrebbe mirare a finanziare le ricerche di gruppo non, come adesso, sulla base di progetti biennali complessivi, ma differenziando le diverse fasi di un percorso di indagine, dall’elaborazione del progetto alla produzione dei risultati. Si potrebbe prevedere, ad esempio, di distinguere tra i fondi destinati allo studio di fattibilità, quelli assegnati alla ricerca vera e propria e quelli necessari per divulgare i risultati (congressi, pubblicazioni). Non mancano certo i modelli e le esperienze a cui ispirarsi in questa direzione: dalle modalità del Cnr e di altri enti pubblici e privati di ricerca, fino a quelle della comunità europea. L’obiettivo dovrebbe essere comunque quello di incrinare l’alleanza perversa che si è stabilita tra i settori scientifici interessati al mantenimento e al perfezionamento del sistema attuale in quanto sembra a molti produrre buoni risultati, e quei gruppi dei settori umanistici che sono riusciti a utilizzarlo per tradurre in finanziamenti i poteri accademici preesistenti, al riparo da ogni effettiva verifica di merito sui risultati conseguiti.

    NOTE

    1- G. Montroni, Le ricerche di storia contemporanea finanziate dal Murst (1997-1999), “Il mestiere di storico – Annale Sissco” I, 2000, pp. 136-149.
    2- http://cofin.cineca.it/murst-dae/
    3- Il Cnst (Consiglio Nazionale della Scienza e della Tecnologia) era stato istituito con la L. n. 168 del 9.5.1989 (art. 11) ed è stato soppresso con il D.L. n. 204 del 5.6.1998 (art. 7 comma 3).
    4- D.M. n. 320 del 23.4.1997.
    5- D.M. n. 1451 del 4.12.1997.
    6- D.M. n. 811 del 3.12.1998.
    7- D.M. n. 10 del 23.1.2001.
    8- In una Direttiva del 27 marzo 1997 (Prodi/Finocchiaro) rivolta ai ministri del governo “allo scopo di promuovere l’empowerment delle donne e il mainstreaming di genere in tutte le azioni po­li­tiche”, si raccomandava come primo punto “la promozione della presenza delle donne in tutti gli or­gani decisionali”. Sulle direttive europee nel campo della ricerca si veda Commissione europea, Politiche scientifiche nell’Unione europea. Promuovere l’eccellenza attraverso l’uguaglianza di genere, Ufficio delle pubblicazioni ufficiali delle Comunità europee, Luxembourg 2001, da dove è tratta la precedente citazione (p. 83).
    9- http://cofin.cineca.it/informazioni/anno97/Relazione97.html.
    10- D.L. Caglioti e M. Malatesta, La valutazione della ricerca, “Bollettino Sissco”, 20, novembre 1999, p. 47.
    11- I punteggi corrispondono ai seguenti giudizi: 1 = insufficiente (nel 1997: scarso); 2 = sufficiente; 3 = discreto; 4 = buono; 5 = eccellente.
    12- http://cofin.cineca.it/informazioni/anno97/finanz.html. I quattro livelli erano: A = Da finan­ziare con alta priorità; B = Da finanziare se esistono risorse sufficienti; C = Programma interessante ma che necessita di approfondimenti; D = Programma insufficiente. Se indicava il livello D, il reviso­re doveva specificarne il motivo scegliendo tra quelli elencati da D1 a D5 (di scarsa ri­levanza nazionale; presentazione lacunosa; non sufficiente chiarezza degli obiettivi; insufficiente esperienza dei gruppi proponenti; inadeguatezza dei mezzi o dei finanziamenti).
    13- http://cofin.cineca.it/informazioni/anno98/perrevisori98.html. I quattro livelli di finanziabi­li­tà erano così determinati: A = prodotto maggiore o uguale a 20; B = maggiore o uguale a 12 e minore di 20; C = maggiore o uguale a 6 e minore di 12; D = inferiore a 6.
    14- http://cofin.cineca.it/informazioni/anno2001/perrevisori2001.html.
    15- Nelle recenti Linee guida per la politica scientifica e te­cnologica del Governo, del 19 aprile 2002 (http://miur.it/UserFiles/1029.rtf), le aree prioritarie di sviluppo della ricerca sono indivi­duate sulla base di criteri che privilegiano “il progresso scientifico e tecnologico correlato alla Bioscienza, Nanoscienza, Infoscienza” (p. 14). Nel documento si proclama anche l’impegno a incentivare “l’emergere di qualità scientifica in settori attualmente sot­todimensionati, tra i quali si segnalano quelli inerenti le scienze umanistiche e le scienze sociali, che diventano sempre più importanti per contribuire a sviluppare tecnologie socialmente, oltre che econo­micamente ed eticamente, accettabili” (p. 18). Ma questa dichiarazione d’intenti non trova ade­guato riscontro nella distribuzione degli “investi­menti pubblici aggiuntivi” previsti per il quadriennio 2003-2006: i fondi destinati ai programmi di ricerca di interesse nazionale – i soli a cui attingono i settori umanistici – dovrebbero assorbire appena l’11,5% degli investimenti eccedenti il livello del 2002 (p. 37, tab. 3).
    16- Cfr. N. Tranfaglia, Come ti scelgo gli storici adatti, «L’Unità», 9 marzo 2002 e Id., Così la destra governa la cultura, in «L’Indice dei libri del mese», marzo 2002, p. 37.