Uso ed abuso delle banche dati
nella valutazione delle riviste e della qualità
scientifica: un problema di potere
Alessandro Figà Talamanca
Università degli Studi di Roma “La Sapienza”
Dipartimento di Matematica
Ci sono due possibili punti di vista quando si affronta lo
studio di un sistema sociale. Si può, secondo un metodo prevalentemente adottato negli studi di antropologia, considerare la
comunità oggetto dello studio come una comunità chiusa in se
stessa con le sue regole, i suoi valori, i suoi conflitti e i suoi
strumenti per risolverli, oppure, seguendo il metodo più
proprio della scienza politica, si può far convergere l’attenzione sull’interazione ed i conflitti tra la comunità che si studia e il
mondo ad essa esterno. Il primo punto di vista, meno attento
alla dinamica sociale e politica globale, è quello forse più vicino
all’esigenza di ‘obiettività’ scientifica. Il secondo spesso non
può fare a meno di un giudizio morale o politico sugli avvenimenti e le strutture sociali descritte, e rischia di mescolare la
realtà osservata con i pregiudizi e le valutazioni politiche
dell’osservatore. Nello studio della comunità scientifica il
primo punto di vista mi sembra quello adottato da Robert K.
Merton e Derek De Solla Price. Il secondo punto di vista è
invece quello adottato dagli ‘autori vari’ che negli anni Settan-
27
ta sotto la guida di Marcello Cini pubblicarono il volume L’ape
e l’architetto. È probabile che tutti e due i punti di vista siano
necessari, ma dirò subito che non essendo uno ‘scienziato
sociale’, e potendomi permettere quindi una maggiore licenza
metodologica, mi trovo più vicino al punto di vista di L’ape e
l’architetto, un’opera che a suo tempo trovai interessantissima,
pur non condividendone quasi mai le conclusioni politiche.
E infatti il problema che vorrei analizzare, in relazione
all’uso e all’abuso di banche dati sulla comunicazione scientifica, per valutare la qualità delle riviste e della ricerca che vi
viene pubblicata, è prima di tutto un problema di ‘potere’.
L’esercizio del potere non può sottrarsi ad un giudizio basato
su valori morali. Alla fine quindi arriverò a mettere in questione non già e non solo la affidabilità ‘statistica’ delle banche dati,
ma piuttosto gli aspetti etici connessi al loro uso.
Il fenomeno delle banche dati sulla comunicazione scientifica si inserisce all’interno di un fenomeno più vasto e complesso che è quello dell’editoria scientifica, come si è sviluppata
negli ultimi quaranta o cinquanta anni. In questo contesto salta
prima di tutto agli occhi la grande debolezza della comunità
scientifica rispetto ad influenze ad essa estranee. Non parlo
della debolezza rispetto ai governi o ai rappresentanti dei
poteri pubblici, che, dopo tutto, finanziano la ricerca ed hanno
il diritto di indirizzarla. Parlo invece della debolezza della
comunità scientifica rispetto agli interessi delle grandi imprese
editoriali che pubblicano le riviste scientifiche.
Si assiste infatti ad una situazione del tutto paradossale. La
comunità scientifica è il solo produttore ed il solo consumatore
di letteratura scientifica. Eppure un intermediario che si è interposto tra il produttore ed il consumatore sta facendo schizzare
i prezzi del prodotto a livelli incompatibili con i finanziamenti
destinati alle biblioteche scientifiche. Il risultato di questo
aumento dei prezzi, per ora, non è quello di far diminuire gli
acquisti dei prodotti più costosi, che sono quelli sponsorizzati
dall’intermediario, ma quello di far risparmiare su altri prodotti. Quando parlo di intermediario mi riferisco, naturalmente,
agli editori commerciali di letteratura scientifica. Infatti
l’aumento dei prezzi si giustifica solo con l’aumento dei costi di
intermediazione (distribuzione e ‘marketing’) dal momento
che gli autori (i veri produttori) non ricevono alcun compenso
e il progresso tecnologico ha quasi azzerato i costi di composizione tipografica.
Non era così negli anni Sessanta. Allora l’editoria scientifica
era dominata da riviste controllate da società scientifiche,
accademie, università, consorzi di università, ed altre simili
istituzioni. Queste riviste si giovavano del lavoro volontario di
docenti universitari e pubblicavano a basso costo. Uno dei
mezzi più comuni e meno costosi di diffusione delle riviste era
lo ‘scambio’ di riviste tra istituzioni scientifiche diverse. Questo
sistema di scambi era particolarmente importante per le istituzioni scientifiche dei Paesi dell’Europa orientale, e dei Paesi in
via di sviluppo, che potevano così ricevere riviste occidentali
senza sborsare valuta pregiata.
Negli ultimi decenni, invece, il mercato è stato conquistato
dagli editori commerciali che sono riusciti a spingere fuori del
mercato quasi tutte le riviste legate a istituzioni scientifiche.
Anche qui siamo di fronte ad un paradosso: se una rivista (o un
libro) non ha un prezzo sufficientemente elevato, esso non
fornisce un adeguato ritorno al distributore e quindi non avrà
alcuna possibilità di raggiungere gli utenti istituzionali, che
sono, in massima parte, le biblioteche.
Il ruolo degli indicatori bibliometrici come l’impact factor in
questa conquista del mercato da parte di operatori mossi da
interessi commerciali è stato molto importante. La tesi propagandata dai proprietari della banca dati dell’Institute of Scientific Information (ISI) era che non valesse la pena di acquistare
riviste che non comparivano nella loro banca dati o che, pur
comparendo, non avevano un alto impact factor. Da questo
28
29
punto di vista gli indicatori bibliometrici hanno funzionato più
come uno strumento di ‘marketing’ che come oggettivi indicatori di variabili rilevanti nell’analisi della produzione scientifica.
Ma c’è un’altra conseguenza della debolezza della comunità scientifica nei confronti degli interessi delle grandi imprese
editoriali. Gli editori commerciali, attraverso le riviste ‘di
prestigio’, hanno espropriato la comunità scientifica della
capacità di esprimere autonomamente giudizi di merito sulle
ricerche svolte dai membri stessi della comunità. L’esplosione,
anche a livello individuale, del numero delle pubblicazioni, e la
relativa difficoltà di esprimere veri giudizi di valore, al di fuori
di un ambito specialistico molto ristretto, ha fatto sì che valutazioni di merito sui risultati della ricerca scientifica vengano
comunemente sostituite con affrettate e arbitrarie classifiche
dei lavori scientifici sulla base del ‘prestigio’ delle riviste che li
pubblicano. È vero che ogni rivista ha un board of editors
(comitato di redazione) che è responsabile della scelta degli
articoli e che, in teoria, dovrebbe controllarne il merito. Ma è
anche vero che dietro i gusti e gli interessi scientifici degli
esperti che selezionano i lavori per le riviste, c’è anche l’interesse dell’editore a mantenere alto il ‘prestigio’ della rivista. Ed
è a questo punto che interviene l’indicatore di ‘prestigio’ che va
per la maggiore: il cosiddetto impact factor di una rivista.
Diviene allora naturale che siano privilegiati dalle riviste gli
articoli che possono contribuire meglio a mantenere elevato o
aumentare l’impact factor della stessa rivista. Al giudizio di
qualità sul lavoro scientifico presentato per la pubblicazione, si
sostituisce un giudizio sulla convenienza per l’editore a pubblicare il lavoro stesso. A questo proposito il comportamento più
clamorosamente immorale, ma certamente diffuso, è quello di
privilegiare gli articoli che citano altri articoli della stessa
rivista. Le citazioni hanno un effetto diretto sull’impact factor.
Ma altrettanto perversa, in linea di principio, è la tendenza a
privilegiare articoli ben inseriti in una rete di citazioni recipro-
che. Insomma la delega che la comunità scientifica ha concesso
alle riviste ed al loro comitato di redazione per i giudizi di
merito scientifico non è priva di costi, anche in termini di
integrità scientifica e morale.
Da questo punto di vista non mi appassionano le analisi
statistiche che discutono l’affidabilità come indici di qualità
degli indicatori bibliometrici desunti dalle banche dati correnti1. La questione della loro affidabilità è in qualche modo secondaria. Il problema che io vedo è l’introduzione di criteri e poteri
estranei al mondo scientifico, e potenzialmente inquinanti,
nella valutazione del merito scientifico.
Eppure non si può nemmeno ignorare il fatto che la banca
dati dell’ISI è veramente inaffidabile nella attribuzione dei
lavori agli autori, alle istituzioni cui sono affiliati e ai Paesi che
le ospitano. Manca qualsiasi tentativo di identificare gli autori
e controllare le omonimie anche solo parziali. Anche l’identificazione dei lavori scientifici è molto approssimativa e non tiene
conto di banali errori e di varianti nell’identificazione della
rivista o del titolo del lavoro. La banca dati è stata evidentemente progettata senza prevedere l’incredibile espansione dei
suoi contenuti e la sua struttura non è mai stata adattata alle
funzioni che le si chiedono. È certamente singolare che seri
scienziati abituati ad osservazioni precise attribuiscano un
valore obiettivo ad indicatori che sono prodotti da dati così
poco affidabili.
Ma torniamo ora alla questione politica. Quali rimedi
possiamo proporre alla debolezza della comunità scientifica?
Ben pochi in verità. La debolezza ‘politica’ della comunità
scientifica è forse implicita nella natura stessa di una comunità
che è, giustamente, priva di strumenti di organizzazione
interna e di difesa nei confronti di poteri ad essa esterni. Tra
l’altro, questa debolezza, così chiaramente evidenziata dalla
perdita di autonomia rispetto al mondo dell’editoria scientifica,
è una conseguenza negativa di uno sviluppo in gran parte
30
31
positivo: l’internazionalizzazione, dovrei dire la globalizzazione, della scienza. In effetti, la relativa forza delle comunità scientifiche nell’Ottocento e nella prima metà del Novecento era
dovuta ad una stretta identificazione di ogni comunità scientifica con uno Stato sovrano che la proteggeva e la finanziava. La
globalizzazione degli ultimi cinquanta anni è invece un ritorno
alle condizioni di comunità internazionale della scienza che
prevalevano fino a tutto il Settecento, quando la lingua della
comunicazione scientifica era ancora, in molti casi, il latino. Non
per nulla la scienza contemporanea ha ritrovato una lingua
comune, che è una variante della lingua inglese, utilizzata nella
comunicazione scientifica che, al contrario della variante principale, è povera nei vocaboli, elementare nella sintassi, resa piatta
dall’esigenza di precisione, e totalmente priva di valore letterario. Nell’Ottocento e nella prima metà del Novecento sorsero
invece comunità scientifiche nazionali, promosse dai governi
con lo sviluppo delle università statali nell’Europa continentale.
La forza di queste comunità era la forza dei governi che le
proteggevano, una forza per la quale si pagava un prezzo. Basta
rileggere i discorsi degli scienziati italiani durante il fascismo,
pieni di ‘italianità’ e ahimè, dopo il 1938, di ‘arianità’, per
convincersi di quanto fosse alto il prezzo di questa protezione.
Ma non era solo il fascismo a promuovere assurde divisioni nel
mondo scientifico. Possiamo ricordare che nel 1928 furono i
matematici francesi, che dominavano l’Unione Matematica
Internazionale, ad opporsi con forza alla partecipazione al
Congresso Internazionale di Bologna dei matematici tedeschi,
colpevoli solo di essere cittadini di un Paese che aveva combattuto la Francia nella Prima guerra mondiale. Salvatore Pincherle, che organizzava il Congresso, dovette ricorrere allo stratagemma di fare invitare i tedeschi dal Rettore di Bologna, faticando poi non poco per convincere i tedeschi a venire a Bologna,
nonostante lo sgarbo del mancato invito ufficiale.
Al giorno d’oggi, e specialmente dopo il crollo del blocco
sovietico, non ha più senso parlare ad esempio di matematica
italiana o fisica italiana. Le stesse cordate concorsuali, che
infestano il nostro sistema di promozioni, hanno quasi sempre,
almeno nella matematica, un collegamento internazionale, ed
infatti funzionano come cordate a livello internazionale, intervenendo (con autorevoli lettere di presentazione) in tutti i processi
di promozione, anche fuori d’Italia. Queste cordate internazionali sono legate da interessi subdisciplinari, e spesso si dedicano
alla pratica di citazioni incrociate. In molti casi dispongono
addirittura di una rivista internazionale di riferimento, naturalmente ben collocata nella banca dati dell’ISI. Un tempo, nelle
grandi occasioni di conferimento di premi importanti, come la
medaglia Fields in matematica, ed il premio Nobel nelle altre
discipline, c’erano le comunità nazionali che ‘facevano il tifo’ o
si muovevano con un’azione di lobbying a favore del loro candidato. Oggi l’azione di lobbying è esercitata da cordate internazionali legate da comuni interessi di ricerca, che si tramutano facilmente in comuni interessi di promozione e di carriera.
Gli editori commerciali hanno avuto l’abilità di inserirsi in
questo mondo scientifico globale, che è diviso tuttavia da
interessi disciplinari e di settore, che si traducono in interessi di
carriera. Non possiamo pensare di difenderci dallo strapotere
degli editori con un ritorno al passato, restituendo il controllo
delle pubblicazioni scientifiche alle ‘comunità scientifiche
nazionali’ e alle istituzioni che le rappresentavano. Possiamo
però mantenere viva la nostra capacità critica evitando di
tramutarci in ignari propagandisti di un sistema all’interno del
quale si intrecciano interessi estranei alla scienza, e dove sono
possibili serie mancanze ai doveri di integrità scientifica,
mancanze che, anziché punite, vengono spesso incentivate dal
sistema. È perciò importante che in tutte le occasioni in cui
siamo chiamati a valutare la ricerca scientifica dei colleghi
tentiamo almeno di superare la tirannia dei numeri e degli
indicatori e andiamo alla ricerca della sostanza, tenendoci
32
33
lontani da indici manipolabili come quello del numero delle
citazioni. Persino la banca dati dell’ISI può aiutare in una
valutazione seria dei lavori scientifici. Ad esempio può essere
utile per cercare citazioni significative, da parte di esperti, che
indichino il ruolo dei risultati citati nello sviluppo della disciplina. Citazioni di questo tipo sono molto rare e l’esplosione del
numero delle citazioni ha reso più difficile trovarle. In qualche
modo l’abuso della banca dati dell’ISI e la corsa, più o meno
consapevole, a manipolarne gli indicatori, hanno reso impossibile utilizzarla per gli scopi, anche in termini di valutazione, per
i quali era stata originariamente creata. Eppure non c’è dubbio
che solo il contenuto delle citazioni, e naturalmente l’autorevolezza di chi cita, possono ragionevolmente fornire un’indicazione dell’impatto di un lavoro scientifico. Qualsiasi altro uso di
indicatori e numeri di citazioni è altamente sospetto.
Che sia possibile una valutazione seria della ricerca scientifica, nonostante l’esplosione del numero delle pubblicazioni,
delle riviste e delle citazioni è dimostrato dal caso dei Research
Assessment Exercises che si svolgono in Inghilterra. Non è qui il
luogo per descriverli compiutamente. Basta dire che il risultato
di queste valutazioni ha conseguenze importanti, a volte
devastanti, sulla sorte delle istituzioni universitarie britanniche
e sui singoli individui. Esse si basano sull’esame di un numero
limitato di prodotti della ricerca (quattro in cinque anni) di un
numero abbastanza esiguo di individui, e sono affidate a
commissioni nazionali a tutti note che si assumono la responsabilità delle decisioni. Siamo quindi ben lontano dal famigerato sistema degli anonymous referees utilizzato in Italia nelle
valutazioni dei progetti. Certamente anche i membri di queste
commissioni saranno influenzati dai luoghi di pubblicazione
degli articoli che esaminano. Ma sono loro stessi responsabili
per il loro giudizio e non possono celarsi dietro arcane elaborazioni di numeri provenienti da banche dati di cui nessuno è in
grado di garantire l’affidabilità.
34
Note
1 Un’analisi statistica interessante si trova, ad esempio in Per O.
Seglen, Why the Impact Factor of Journals should not be used for evaluating
Research, in “British Medical Journal”, n. 314, 1997, pp. 498-502.
35
Chi ha paura della bibliometria?
Daniele Archibugi
Consiglio Nazionale delle Ricerche, Roma
London School of Economics and Political Science
Uno dei compiti principali degli scienziati è misurare i
fenomeni. Il progresso scientifico è andato avanti di pari passo
con la possibilità di raccogliere informazioni quantitative sulla
realtà. Nel corso dei secoli, queste informazioni sono vertiginosamente aumentate, sia in termini quantitativi (si raccolgono
dati su più problemi) che in termini qualitativi (i dati raccolti
diventano più affidabili e dettagliati). La metrica è stata uno dei
fattori più rilevanti del progresso scientifico, e la capacità
immaginativa degli scienziati è stata usata per misurare l’immisurabile. Gli studiosi non hanno solo inventato metodi per
pesare le patate, ma in tempi recenti la metrica si è estesa anche
a campi del tutto immateriali. Lo stress, il grado di democraticità di uno Stato, il quoziente intellettuale di un individuo,
perfino il sex appeal sono oggi oggetto di misurazione, eseguite
molto spesso da membri della comunità scientifica.
Gli studiosi giustificano la loro funzione sociale, e il fatto di
richiedere alla società di provvedere al proprio mantenimento,
anche perché svolgono il ruolo di misuratori. Pensiamo, ad
esempio, ai dati meteorologici: non sempre questi dati sono
collegati a modelli teorici, ma sono raccolti periodicamente per
37
ragioni descrittive. Spesso ci sono anche delle ragioni strumentali: gli accademici hanno, infatti, appreso che è più facile
ottenere un finanziamento se ci si propone di creare una nuova
banca dati piuttosto che per verificare qualche propria intuizione non compresa dal committente.
La mole di dati che hanno prodotto gli scienziati nel corso
degli ultimi due secoli è impressionante, così notevole che i
contribuenti hanno accettato di buon grado di mantenerli. I
dati, infatti, sono spesso di pubblico dominio, e anche quando
uno studioso li accumula e li utilizza per fini insoddisfacenti o
del tutto sbagliati, possono poi rivelarsi utilissimi per indagini
scientifiche di altra natura.
Difficile districarsi nell’universo dell’informazione statistica
disponibile. Molti di questi dati non sono di interesse generale,
ma possono essere vitali per specifiche categorie. Ad esempio,
suppongo che le agenzie di viaggi consultino con supremo
interesse i dati della Banca Mondiale sui flussi di turisti (World
Bank, World Development Indicators, Washington, D.C., 2003,
tab. 6.14), il nostro Ministro della Pubblica istruzione farebbe
bene a leggere con attenzione i dati relativi all’alfabetizzazione
pubblicati dalle Nazioni Unite (UNDP, Annual Report 2002,
Oxford, 2002, tab. 10), le femministe e i ministri per le Pari
opportunità dovrebbero trovare istruttivi i dati sulle differenze
esistenti nella speranza di vita alla nascita pubblicati dalle
Nazioni Unite (UNDP, cit., tab. 22).
L’utilizzazione dei dati spesso prescinde dalle ragioni per
cui essi sono stati raccolti e pubblicati. Ad esempio, i dati sul
numero di ascensori sono raccolti dalle imprese produttrici per
ragioni industriali. Eppure, queste informazioni statistiche si
dimostrarono molto utili per i programmi demografici delle
Nazioni Unite. Poiché due fattori determinanti della crescita
demografica sono il reddito e la concentrazione urbana, e
poiché gli ascensori sono positivamente correlati ad entrambi i
fattori, il numero degli ascensori si dimostrò utile per fare
proiezioni demografiche (più elevato è il numero di ascensori
in un’area e più è contenuto il suo tasso di sviluppo demografico). Il caso suscitò salutare ilarità: per risolvere il problema
demografico della Cina o dell’India – disse qualcuno – basta
dunque costruire molti ascensori nel mezzo delle campagne
più popolate?
Dietro la domanda c’era la solita incomprensione tra il
metro e il fenomeno: tutti noi, da bambini, abbiamo sperato di
farci passare la febbre rompendo il termometro o immergendo
la colonnina del mercurio nell’acqua gelata. Con la maturità,
che spesso non si raggiunge neppure frequentando un dottorato di ricerca, molti – ma non tutti – hanno appreso che la causalità è leggermente diversa.
Trovo sorprendente che la comunità scientifica, gruppo di
persone che giustifica la propria funzione sociale perché genera
dati, sia così spesso ostile alla raccolta di dati che riguardano se
stessa. Questa ostilità non è totale. Non mi è mai capitato di
incontrare ostilità perché si raccolgono dati sull’età media dei
docenti universitari, sulla loro suddivisione in uomini e donne,
sulla fascia retributiva. E sono sicuro che non ci sarebbero
contestazioni neppure se qualcuno volesse raccogliere informazioni sul numero di docenti che portano gli occhiali o che
vanno all’università in bicicletta.
Ma quando si tratta di produrre dati relativi alla produzione scientifica o didattica dei docenti, si scatena un fuoco di fila.
Un rappresentante degli studenti, raccolte le lagnanze dei suoi
colleghi sulle difficoltà a trovare un docente disposto a seguirli
per le tesi di laurea, propose durante un Consiglio di Facoltà di
affiggere in bacheca il numero di laureandi di ciascun docente:
provocò una cagnara tale che il Preside fu costretto a sospendere la seduta.
Ancora più forte è l’opposizione nei confronti degli indicatori bibliometrici. In questo caso, non si tratta di un indicatore
dell’attività didattica, ma dell’attività di ricerca scientifica. Il
38
39
nervo scoperto degli accademici è così sensibile che si arriva a
vere e proprie posizioni oscurantiste, quasi che la raccolta stessa
dei dati, prima ancora che la loro utilizzazione, sia un’offesa alla
comunità scientifica e all’onore personale degli studiosi.
Come si spiega questa reazione? Gli indicatori bibliometrici
hanno infiniti usi. Tra l’altro, possono essere utilizzati per
misurare:
1) la capacità scientifica dei Paesi (quante pubblicazioni ha
prodotto in un anno l’Italia e quante la Francia?);
2) la specializzazione scientifica di un Paese (qual è la quota
delle pubblicazioni italiane nel campo della matematica e
quale nel campo della fisica?);
3) le attività scientifiche svolte nelle varie regioni (quante
pubblicazioni scientifiche vengono generate in Sicilia e
quante in Sardegna?);
4) le attività scientifiche di una università, di una facoltà o di
un dipartimento, e metterle a confronto con altre istituzioni comparabili (quante sono le pubblicazioni dell’Università di Roma e quante quelle dell’Università di Madrid? E
qual è il rapporto tra i dipartimenti di economia di Roma e
Madrid?);
5) le interazioni tra i vari settori disciplinari (quanti sono gli
articoli di matematica citati negli articoli di fisica e viceversa?);
6) le dinamiche demografiche della comunità scientifica
(come è distribuita la produzione di articoli per fasce
d’età?);
7) le differenze per fasce di età tra le varie discipline (è vero
che i fisici danno contributi rilevanti molto più precocemente degli storici?);
8) le differenze per sesso (a quanto ammonta la produzione
femminile sul totale delle pubblicazioni, e quanto sta
aumentando in Svezia e in Turchia?);
9) le collaborazioni scientifiche internazionali (quante sono le
pubblicazioni in collaborazione tra italiani e tedeschi e tra
italiani e francesi?);
10) la produttività scientifica, qualitativa e quantitativa, di
ciascuno studioso (quanti articoli hanno pubblicato Tizio e
Caio? E quante volte sono stati citati dai loro colleghi?).
40
41
La lista è, ovviamente, del tutto insoddisfacente, e basterebbe prendere le annate delle riviste che si occupano di ‘scienza
della scienza’ (tra le quali “Research Policy”, “Scientometrics”,
“Science and Public Policy”, “Technological Forecasting and
Social Change”, “Science”, “Technology and Human Values”) o
anche riviste generaliste quali “Science” e “Nature” per rendersi conto che i dati bibliometrici possono essere usati per molti
altri scopi.
Tra tutti questi usi, l’ostilità della comunità scientifica è in
genere riservata ad un solo uso, il decimo. La ragione è assai
semplice: a nessuno, neppure agli accademici, piace essere
valutato. Il problema è tutt’altro che nuovo. Quando nel nostro
Paese le banche e gli uffici postali hanno tentato di contabilizzare il numero di operazioni svolte da ciascun impiegato
addetto allo sportello, i lavoratori si sono opposti. Gli impiegati hanno fatto presente che occorreva prendere in considerazione tanti fattori diversi, e che il solo conteggio delle operazioni,
ignorando il livello di istruzione dei clienti (all’analfabeta
bisogna scrivere il modulo, al commercialista no), non consentiva di considerare affidabile l’indicatore ‘numero di operazioni svolte’. Non credo che avessero torto: è probabile che in
alcune aree, dove il livello di istruzione dei clienti è più alto, ci
sia meno lavoro per gli impiegati e viceversa, così come è
probabile che fornire un estratto conto richieda meno tempo di
dare un libretto degli assegni.
Eppure, la mente allenata di un accademico (specie quando
si trova in fila per eseguire un’operazione in banca o alla posta)
ribatte subito a queste legittime obiezioni del sindacato bancario e dei postini facendo notare che si può ponderare per il
diverso grado di istruzione dei clienti, e anche per la macchinosità delle varie operazioni di sportello. Perché la stessa cosa
non dovrebbe essere valida per quanto riguarda i dati bibliometrici?
È sempre utile guardare alle fonti statistiche con il necessario senso critico. Prima di tutto, perché i dati possono sempre
essere migliorati, e resi più precisi e dettagliati. E poi, perché i
dati, come tutto ciò che è prodotto dagli esseri umani, possono
sempre essere manipolati. Ma nei confronti di questi problemi,
l’atteggiamento può essere duplice: da una parte c’è chi intende
buttare via il bambino con l’acqua sporca, dall’altra chi vuole
migliorare e magari controllare la qualità delle informazioni
fornite.
Recentemente, ad esempio, i dati sul tasso d’inflazione (uno
degli indicatori economici più rilevanti, e che ci dice qualcosa
di molto rilevante sull’andamento del nostro tenore di vita)
sono stati criticati da più parti. Non c’è stato nessuno che ha
sostenuto che bisognava smettere di raccogliere i dati sull’andamento dei prezzi, né che bisognava smettere di usare
quell’indicatore. Ma tutti hanno richiesto verifiche indipendenti ed una maggiore precisione nella raccolta dei dati.
Mi permetto allora di fare qualche osservazione rispetto a
quanto affermato da Alessandro Figà Talamanca nella sua nota
su Uso e abuso delle banche dati nella valutazione delle riviste e della
qualità scientifica: un problema di potere.
1) È certo che le informazioni bibliometriche sono un’indicazione di potere. Non ci avvertiva già Francesco Bacone che
il sapere è potere? Lo stesso vale per le statistiche sulla
produzione, sull’inflazione, sulla criminalità, sulle interruzioni volontarie di gravidanza, sui divorzi e sugli incidenti
stradali. Di fronte a questo potere – che può essere usato e
abusato – è necessario che la comunità scientifica mantenga
la propria autonomia, che si assuma determinate responsabilità etiche e che ci sia anche un controllo democratico,
esercitato dai vari portatori d’interesse. Ma in nessun caso è
tollerabile che una fonte di informazione, solo perché fonte
di potere, debba essere ignorata o accantonata.
2) Se la comunità scientifica si è fatta soffiare il mercato delle
riviste da case editrici profit, deve solamente rimproverare
se stessa. Alcune delle riviste più diffuse sono quelle delle
società accademiche non-profit; la diffusione della rivista ai
soci membri consente di conseguire elevate tirature a
prezzi unitari modici. Queste riviste sono spesso le più
trasparenti, quelle con l’impact factor più elevato e con la
maggiore selettività. In molti casi, queste riviste hanno
conti in attivo, fino al punto che possono finanziare borse
di studio o rendere alla comunità scientifica di riferimento
servizi ausiliari. Le preoccupazioni di Figà Talamanca sono
dunque condivisibili, ma dovrebbero portare la comunità
scientifica a riprendere un maggiore controllo sui frutti del
proprio lavoro. Gestire una rivista è un compito oneroso,
che spesso implica togliere lavoro allo studio, alla ricerca e
al tempo libero. Probabilmente, le case editrici commerciali sono diventate così potenti semplicemente perché la
comunità scientifica è stata troppo pigra. Prendiamocela
allora con la nostra pigrizia, piuttosto che con l’avidità
delle case editrici.
3) L’Institute of Scientific Information ha grandi meriti, che
generano anche molti rischi. Il merito è stato di aver
aggiunto una fonte d’informazione che, se ben adoperata,
è utilissima. Il rischio è che l’Istituto ha concentrato un
potere monopolistico (già Joseph Schumpeter faceva
presente che spesso gli innovatori che creano un nuovo
prodotto si ritrovano a gestire un monopolio). Ciò significa che l’accesso è troppo oneroso e che ci possono essere
discriminazioni dovute a ragioni commerciali. Come si
42
43
risponde ad una sfida proveniente da un monopolista, per
quanto abbia avuto il merito di essere un pioniere? Tramite
la creazione di fonti alternative. La rivoluzione informatica
ha reso molto più basso il costo e molto più facile l’accesso
alle fonti. In molti settori disciplinari esistono delle banche
dati che forniscono informazioni più ricche, accurate e
dettagliate di quelle fornite dall’ISI. È facile prevedere che
le fonti disponibili, anche grazie agli avanzamenti nelle
tecnologie dell’informazione e della comunicazione,
aumenteranno.
4) Non riesco a capire in che misura l’editore (commerciale) di
una rivista possa incidere sulle scelte editoriali. Sono
membro del comitato di redazione di sei riviste con editori
commerciali, e non ho mai subito pressioni. Se il fenomeno
si manifesta (e non si può escludere) credo che sia opportuno denunciarlo pubblicamente, con nomi e cognomi.
Sarebbe sufficiente a screditare la rivista in questione.
5) Nella sua requisitoria contro l’impact factor, Figà Talamanca
sovrappone la disponibilità dei dati con la loro eventuale
utilizzazione. L’osservazione secondo la quale una rivista
privilegia l’autocitazione è giusta (non fu già Woody Allen a
mettere in guardia dal pericolo di citarsi addosso?). Singoli
studiosi, studiosi appartenenti alla stessa scuola o addirittura allo stesso Paese, così come gruppi che appartengono allo
stesso collegio invisibile, hanno la brutta, ma altrettanto
inevitabile, tendenza a citarsi tra loro. Non sempre ciò
dipende da malafede: citiamo quel che leggiamo, e spesso
leggiamo le opere delle persone a noi più vicine fisicamente. Ma per quanto riguarda l’impact factor, è da molto tempo
che chi lavora con gli indicatori bibliometrici ha affrontato il
problema: è prassi abbastanza diffusa considerare l’impact
factor includendo e escludendo le autocitazioni (ciò vale sia per
i singoli studiosi che per le riviste). Se c’è una vistosa differenza tra i due impact factor (con e senza le autocitazioni),
l’autore o la rivista viene definito auto-referenziale. In italiano si potrebbe dire che l’autore, o la rivista, se la canta e se
la suona. Non è proprio un complimento. Il punto che
voglio sottolineare è che c’è sempre la possibilità, con
banalissimi accorgimenti statistici, di superare gli ostacoli,
qualora non ci sia una volontà preconcetta di sbarazzarsi
della bibliometria. Figà Talamanca sostiene che «la questione della affidabilità [degli indicatori bibliometrici] è in
qualche modo secondaria»; si sentirebbe di sostenere la
stessa cosa per le statistiche sul tasso d’inflazione o su quelle
epidemiologiche?
Ma veniamo al nocciolo del problema, quello che scatena i
sospetti di tanti, incluso Figà Talamanca: gli indicatori bibliometrici sono utili per la valutazione della ricerca?
Ad una domanda così generale non si può dare una risposta
secca. Una risposta esauriente sarebbe necessariamente più
lunga ed articolata di quanto possa essere qui formulata. Direi
che ovviamente dipende dagli obiettivi che si prefigge la
valutazione, dal metodo applicato, dall’area disciplinare e da
tanti altri elementi. Ma provo lo stesso ad indicare alcuni
capisaldi.
Qualsiasi valutazione è meglio di nessuna valutazione. Valutare
la ricerca scientifica, come valutare qualsiasi altra attività
umana, richiede elevata responsabilità. Si ha a che fare con la
vita di esseri umani, e la cautela è d’obbligo. Ma i refrattari alla
valutazione spesso ignorano che l’assenza di valutazione è essa
stessa un tipo di valutazione, e che tra tutte è quella peggiore. I
finanziamenti pubblici per l’università e la ricerca sono comunque allocati, si fanno i concorsi e nuovi studiosi entrano nel
mondo accademico (mentre altri ne rimangono fuori) e quelli
esistenti sono promossi (mentre altri non sono promossi). Tutte
queste scelte comportano una valutazione. La valutazione può
essere casuale (le assunzioni o le promozioni si fanno tramite
44
45
sorteggio), può basarsi su criteri extra-scientifici (è assunto o
promosso il più fedele, il più bello, il figlio dell’amico o l’amica
del collega) o su criteri scientifici (è assunto il più promettente e
promosso il più bravo). Non credo che ci sia qualcuno che è oggi
soddisfatto dei criteri di valutazione esistenti nel mondo
accademico italiano. S’impone quindi la domanda: può l’attuale valutazione, essenzialmente composta dai giudizi dei più
anziani e al di fuori di qualsiasi controllo esterno, essere migliorata? La mia riposta è che, per evitare il già evidente declino
della scienza italiana, essa debba e possa essere migliorata.
La valutazione non si fa automaticamente. In nessun Paese del
mondo, neppure nel mondo anglosassone (dove pure se ne fa
largo abuso), gli indicatori bibliometrici e il temutissimo impact
factor vengono utilizzati in modo automatico. Nessuno pensa,
per fortuna, che una banca dati bibliometrica possa o debba
sostituire la capacità critica dei colleghi. Solamente in un Paese
a rapida trasformazione come la Spagna sono stati introdotti
criteri più rigidi, ma sempre subordinati ad un giudizio individuale. La polemica di Figà Talamanca mi sembra dunque fuori
bersaglio: rivela timori atavici più di quanto sia una critica nei
confronti di pratiche valutative esistenti in Italia o in qualsiasi
altra parte del mondo.
Le banche dati bibliometriche forniscono informazioni estremamente valide. Sarebbe però insensato ignorare le informazioni
provenienti dagli indicatori bibliometrici. In molti casi, queste
informazioni aiutano a compiere scelte più consapevoli. Nel
caso in cui una Facoltà debba chiamare un nuovo docente, e la
materia del docente non è quella nella quale siamo competenti, perché dobbiamo rimetterci esclusivamente al parere di un
collega? Non è più sensato verificare se le informazioni che ci
sono fornite dal collega (che in genere è colui che lo propone)
trovano anche un riscontro nella letteratura accademica? Lo
stesso vale per i concorsi accademici. Non è opportuno
valutare congiuntamente le pubblicazioni presentate ad un
concorso e il riscontro che hanno avuto nelle riviste internazionali?
La miglior valutazione si deve basare su criteri multipli. Sappiamo bene che tutti i criteri di valutazione sono soggetti a
manipolazione. Anche senza che ci sia una malafede, i ‘valutandi’ si aggiustano ai criteri di valutazione. Se tra i criteri di
valutazione di un sistema accademico si dà un peso privilegiato agli articoli pubblicati in collaborazione con studiosi di altri
Paesi, è naturale che i valutandi inizieranno a ricercare collaboratori al di fuori delle frontiere. Per questo, è importante che i
criteri di valutazione non siano solamente degli indicatori, ma
anche degli obiettivi. La valutazione esclusivamente quantitativa genera una proliferazione di pubblicazioni che diventa difficile leggere. I Research Councils britannici hanno opportunamente limitato il numero delle pubblicazioni che ciascun
studioso può sottoporre alla valutazione periodica. L’effetto è
stato quello di premiare la qualità, piuttosto che la quantità.
Una valutazione efficace si deve basare su vari criteri. Le
lettere di referenza (lì dove sono previste), le pubblicazioni, la
capacità di dirigere progetti di ricerca, la capacità didattica,
l’abilità nel formare nuovi ricercatori, l’impatto ottenuto con il
proprio lavoro sono tutti criteri che dovrebbero essere tenuti in
considerazione. Poiché il gruppo dei valutati si adegua facilmente («fatta la legge, trovato l’imbroglio», direbbero i più
scettici), non è insensato cambiare frequentemente i criteri della
valutazione.
46
47
Purtroppo, la strada che deve compiere l’accademia italiana
prima di giungere ad una valutazione consapevole e comparabile a quella esistente in altri Paesi è ancora molta. Il cammino
è arduo, e credo che le energie disponibili debbano essere
utilizzate per denunciare l’assenza di una cultura della valutazione, piuttosto che per screditare fonti statistiche che, per
quanto imperfette, sono strumenti utili.
Nota di commento di Alessandro Figà Talamanca
L’intervento di Daniele Archibugi è in gran parte condivisibile, anche quando polemizza con posizioni che mi attribuisce, e
che non mi sembra di sostenere.
C’è spazio però per alcuni commenti alle sue argomentazioni.
Non c’è dubbio che il progresso scientifico sia andato di pari
passo con la possibilità di raccogliere informazioni quantitative
sulla realtà. Ma solo a patto che le variabili misurate siano
rilevanti e, possibilmente, si inseriscano in un modello capace di
spiegare la realtà osservata. La classificazione del mondo animale
di Linneo sorprende ancora per la sua aderenza a dati, in ultima
analisi quantitativi (sul genoma), che egli non poteva misurare.
Ma se, preso dall’ansia di misurare, Linneo avesse basato la sua
classificazione sul peso degli animali non avrebbe certo potuto
riconoscere nel gatto un parente stretto del leone. Magari il gatto
sarebbe stato classificato assieme al coniglio ed il leone assieme al
bue. Un secolo fa una delle discipline più importanti e ‘moderne’
era senza dubbio l’‘antropometria’, basata sulle misurazioni dei
crani, e degli arti degli esseri umani. Eppure, nonostante l’accuratezza delle misure, e l’ingegno degli scienziati che la coltivavano, l’antropometria non ha portato ad alcun progresso nella
conoscenza dell’umanità. Giustamente questa disciplina scientifica è caduta nel dimenticatoio. Tutti speriamo che questo non
accada alla scientometria, ma ne siamo proprio sicuri?
Ha proprio ragione Daniele Archibugi quando dice che è
necessario guardare alle fonti statistiche con il necessario senso
critico, ma che non bisogna buttare via il bambino con l’acqua
sporca. Tuttavia per me il ‘bambino’ è una banca dati accurata e
affidabile come quella dell’American Mathematical Society
(AMS) che si riferisce a tutta la produzione matematica mondiale, e l’acqua sporca è la banca dati dell’Institute for Scientific
Information. La differenza è, in massima parte, dovuta agli scopi
che si propongono le organizzazioni che curano la raccolta dei
dati. L’ISI si propone, come ogni azienda privata, di arricchire i
suoi azionisti, e l’AMS di essere utile allo sviluppo delle scienze
matematiche. Sono d’accordissimo sulla necessità di creare fonti
alternative all’ISI. Quando i dati servono per valutazioni effettuate da un soggetto pubblico è indispensabile che siano completi e
affidabili. Per questo è importante creare una banca dati ufficiale
ed affidabile della produzione scientifica pubblica in Italia che ci
consenta finalmente di buttar via l’acqua sporca e mettere alla
porta i suoi zelanti venditori.
Osservo anche che denunce, con nomi e cognomi, di direttori
di riviste che hanno sollecitato dagli autori citazioni di articoli
della stessa rivista hanno, per ora, prodotto solo difese d’ufficio
da parte dell’ex proprietario dell’ISI (E. Garfield, lettera pubblicata dal “British Medical Journal”, 1997; 314:1756, 14 june, dal titolo
Editors are justified in asking authors to cite equivalent references from
the same journal). Basta comunque poco per mettere in riga gli
autori sempre desiderosi di compiacere i direttori delle riviste. Un
buon sistema di estorsione non ha bisogno di atti dimostrativi.
Sono completamente d’accordo con Archibugi quando
auspica che i criteri di valutazione non siano solo degli indicatori, ma anche degli obiettivi. Proprio per questo egli dovrebbe
essere d’accordo con me quando dico che un indicatore di qualità
dovrebbe essere giudicato principalmente sulla base dei comportamenti cui dà luogo. Se gli obiettivi che ci si propone fossero
quelli di moltiplicare il numero delle pubblicazioni scientifiche,
moltiplicare il numero delle riviste scientifiche ‘di grande prestigio internazionale’, moltiplicare il numero delle citazioni, senza
riguardo al loro contenuto, e comunque, arricchire gli azionisti
dell’ISI, anche l’impact factor risulterebbe un buon indice per
misurare qualcosa che si potrebbe anche convenzionalmente
definire ‘qualità’. Dopotutto un nome è un nome e, come dice
Giulietta: «That which we call a rose by any other name would
smell as sweet» (W. Shakespeare, Romeo and Juliet, Act II, Scene II).
48
49
Scarica

Uso e abuso delle banche dati nella valutazione delle