Paola Galimberti
CIVR e SURplus: un’esperienza di
analisi dei dati per la valutazione
della ricerca
Premessa
• Parlando di valutazione della ricerca ci si concentra spesso sui
criteri, o sulle metodiche, o sugli indicatori, dimenticando che
essi sono una conseguenza di scelte legate agli obiettivi e alle
motivazioni: perché si valuta e per chi (committente), chi trae
vantaggio dalla valutazione
• Un secondo elemento da tenere in conto è la “scala” di lettura:
le diverse dimensioni (Ateneo, Dipartimenti, Aree/gruppi di SSD,
SSD, individui) non sono direttamente scalabili o cumulabili in
quanto rispondono a criteri e metodi diversi
• Un terzo punto sono i tempi: i fenomeni che si osservano sono
dinamici e non sempre la rilevazione viene fatta nel momento
giusto
• Di conseguenza le classifiche che ne derivano sono sempre
relative e tendono alla semplificazione di fenomeni complessi
Scopo dell’analisi
• Tracciare un quadro chiaro della produzione e della
produttività dei Dipartimenti della Facoltà di Lettere
(cosa, quanto, dove e come si pubblica)
• Lavorare attraverso il modulo di business intelligence
sui dati contenuti nell’archivio istituzionale per
sperimentare nuovi indicatori e nuove metriche che
permettano di superare alcune debolezze tipiche della
valutazione nelle scienze umane (in particolare la
molteplicità degli output e i tempi di produzione)
rendendole più oggettive e dunque misurabili.
Indicatori quantitativi e indicatori qualitativi
• Gli strumenti che abbiamo ora a disposizione (indici
bibliometrici e peer review) non sono in grado di
cogliere completamente la qualità dei lavori scientifici
ma solo una proxy
• Ciò è ancora più vero per le discipline umanistiche. I
dati, soprattutto quelli quantitativi, vanno
interpretati e in molti casi le analisi automatiche
servono a rendere conto solo di una piccola parte
della produzione scientifica
Conseguenze: problemi aperti
Di cosa c’è bisogno?
In primo luogo di dati:
 Raccolti in maniera standardizzata in un unico punto
 avendo in mente il fine (valutare per conoscere,
valutare per correggere…?) che potrebbe dunque non
essere chiaro o non essere unico o variare di volta in
volta
 Affidabilità e completezza
Quali dati per la valutazione?
I dati raccolti a fini valutativi devono avere
caratteristiche specifiche e richiedono dunque una
archiviazione specifica (scelta dei metadati,
inserimento, organizzazione, validazione)
Spesso queste caratteristiche non coincidono con quelle
necessarie per l’archiviazione
Le procedure di organizzazione e soprattutto di
validazione dei dati sono costose ed implicano
l’interazione di professionalità specifiche
I dati sulla ricerca in Italia
• Manca in Italia una anagrafe della ricerca nazionale
• Il sito docente del MIUR contiene solo una parte molto
parziale di quanto prodotto dai ricercatori italiani inoltre i
dati sono “sporchi” perché non validati. Risultano dunque
inutilizzabili per la maggior parte delle analisi valutative
• I dati caricati sul sito docente sono accessibili ai singoli
ricercatori ma non in maniera cumulativa ai loro enti che per
averli devono concordare estrazioni specifiche eventualmente
a pagamento.
• La creazione di anagrafi della ricerca locali interoperabili con
l’anagrafe della ricerca nazionale è raccomandata dal
documento della CRUI “L’Open Access e la valutazione dei
prodotti della ricerca scientifica”
• La presenza di un’anagrafe locale rende più facile la
validazione dei dati contenuti
I dati e la loro elaborazione : UNIMI
• Si è scelto di raccogliere i dati relativi alle pubblicazioni
e agli incarichi scientifici dell’Ateneo attraverso un
archivio istituzionale, strumento predisposto secondo
standard internazionali e per lo scambio dei dati.
• L’archivio è integrato con una serie di strumenti
amministrativi e gestionali, in particolare il modulo di
Business intelligence effettua le estrazioni e le
elaborazioni necessarie per rispondere alle diverse
domande valutative.
L’archivio istituzionale della ricerca
• Frutto della collaborazione di professionalità diverse
(area ricerca, biblioteche, divisione sistemi informativi)
• Attivo dal 2005
• Oltre 62000 registrazioni
• Buona copertura a partire dal 2005 (fra le 10 e le 11mila
registrazioni ogni anno)
• Alimentato costantemente. Dal 2008 i dati inseriti in AIR
passano ogni giorno al sito docente del MIUR evitando ai
docenti inutili duplicazioni
• IMPORTANTE
• 2009 delibera SA individua in AIR la fonte privilegiata
per gli esercizi di valutazione interni ed esterni
Workflow
• Docenti, ricercatori, assegnisti, borsisti e dottorandi
inseriscono i metadati delle pubblicazioni entro un mese
dall’uscita. Laddove possibile aggiungono il full-text
• Un gruppo di 80 bibliotecari valida i dati inseriti,
correggendo quanto verificabile o respingendo le
registrazioni non corrette e pubblicando i record
validati.
La valutazione della ricerca in ambito
umanistico
Di cosa c’è bisogno
• Indicatori che tengano conto della specificità delle
discipline umanistiche:
 Frammentazione
 Discipline a lenta maturazione della visibilità (diverso
concetto di impatto)
 Modalità di comunicazione dei risultati e tipologie degli
output
La Facoltà di Lettere: l’esercizio pilota
• Una prima sollecitazione è venuta dalla valutazione
delle scuole di dottorato, ma con già in mente il
prossimo esercizio di valutazione nazionale.
• Situazione di partenza: scarsa chiarezza su quanto cosa
e dove pubblicano i ricercatori della facoltà
• Necessità di una indagine conoscitiva che desse
informazioni sulla produzione e sulla produttività della
facoltà a partire da Dipartimenti che avevano una
assoluta diffidenza nei confronti delle analisi
quantitative.
• Le analisi quantitative opportunamente utilizzate
possono dare indicazioni molto utili rispetto alla
produzione di ricercatori e dipartimenti
La Facoltà di Lettere: l’esercizio pilota
•
•
•
•





Arco temporale: 2006-2008
196 (associati e ordinari) 106 ricercatori
Dal 2007 8 Dipartimenti
Dati rilevanti per lo studio:
Numero pubblicazioni per docente e per ricercatore
nelle tipologie rilevanti (saggio, articolo, libro, inter. a
conv.) al fine di individuare la produttività
Utilizzo delle lingue diverse dall’inglese per una
definizione di internazionalizzazione
Pubblicazione in riviste con IF al fine di capire quanto
questo tipo di scelta sia rilevante per i diversi SSD
Produttività per ricercatore all’interno dei dipartimenti
per effettuare una comparazione interna
Editori a cui ci si rivolge
Alcuni dati
Numero pubblicazioni docenti e ricercatori
(2006-2008)
Docenti
Ricercatori
900
400
850
800
377
350
700
300
600
250
500
256
200
400
440
Docenti
355
300
294
Ricercatori
150
150
122
100
200
50
100
0
0
Articoli
Saggi
Int a conv.
libri
Numero totale di pubblicazioni sul triennio
Articoli
Saggi
Int a conv.
libri
Numero di pubblicazioni sul triennio
Il saggio risulta la tipologia di prodotto della
ricerca più diffusa fra ricercatori e docenti
Utilizzo di lingue diverse dall’italiano
Docenti
Ricercatori
Libri
Libri
Int. a convegno
italiano
lingue diverse
dall'italiano
saggi
articoli
Int. a convegno
italiano
lingue diverse
dall'italiano
saggi
articoli
0%
20% 40% 60% 80% 100%
0%
20% 40% 60% 80% 100%
Solo il 10/20% dei lavori di ricerca sono in lingue diverse dall’italiano (non
necessariamente in inglese) ad indicare la scarsa rilevanza dell’uso
dell’inglese come criterio di internazionalizzazione
Media pubblicazioni per docente all’interno
dei dipartimenti (2007-2008)
Dip. Studi linguistici, lett. e filologici
Dip. Storia delle arti, musica e spett.
Dip. Scienze dell’antichità
Dip. Scienze della storia e doc. storica
Media per docente
Dip Scienze linguaggio e lett. straniere
Dip. Geografia e scienze Umane
Dip. Filosofia
Dip Filologia Moderna
0
0.5
1
1.5
2
2.5
3
3.5
4
4.5
5
Grado di collaborazione
Media autori per tipologia e per anno
2006
2007
2008
Articolo
1,182
1,233
1,152
Saggio
1,542
1,194
1,688
Int. a convegno
1,2
1,6
1,2
libro
3,722
9,482
7,716
Gli umanisti lavorano per lo più da soli o con colleghi
della Facoltà
Scelta delle sedi editoriali
• Estremamente variegata:
• Prestigiose university press straniere (Cambridge,
Oxford)
• Editori internazionali di rilievo (Blackwell, Brill, Springer
ACM)
• University press italiane (FUP, Pisa, Bari)
• Editori Universitari (Il Mulino, Angeli, Carocci)
• Editori di varia (Mondadori, Einaudi, Bompiani, Laterza
ecc.)
• Editori a cui la Facoltà è legata da contratti
Prossimi passi
• Dopo aver preso coscienza di cosa quanto e dove
scrivono i ricercatori afferenti alla Facoltà è stata creata
una griglia che tiene conto oltre che delle pubblicazioni
anche delle cariche e degli incarichi.
• Il prossimo passo sarà quello di assegnare un peso alle
diverse voci
L’archivio e i full-text
• Gli archivi istituzionali sono predisposti anche per
accogliere i full-text dei lavori archiviati.
• Ciò ha una rilevanza particolare per ambiti disciplinari in
cui manca uno Citation index e a cui possono essere
applicati i nuovi strumenti di misurazione del web (Web
Impact factor, Usage factor) e della social scholarship
(rating, inserimento negli strumenti di social tagging
ecc.) che sono liberamente accessibili ed indipendenti
da operatori commerciali
L’archivio e i full-text
• Dopo una iniziale diffidenza (e reticenza) rispetto alla
archiviazione dei full-text si è cominciato a capire
l’importanza della visibilità data da uno strumento come
l’archivio istituzionale
• In vista del VQR l’archivio è in grado di ospitare in una
sorta di dark archive (accessibile solo ai valutatori) tutti
i PDF editoriali delle pubblicazioni che verranno
presentate (come già stato fatto per gli esercizi di
valutazione australiano e britannico)
VQR e SURplus
• L’esercizio pilota ha fornito una serie di indicazioni per
l’imminente VQR, a partire dall’individuazione dei
ricercatori inattivi o parzialmente attivi e dal conteggio
di pubblicazioni per docente nelle tipologie rilevanti.
• L’archivio istituzionale contiene la maggior parte dei
dati necessari ad una prevalutazione interna.
• Si sta pensando di raccogliere i dati mancanti (abstract,
parole chiave e full-text) attraverso un modulo di BI che
permetta all’ateneo di effettuare una scelta prima che i
dati vengano inviati
• Resta l’incognita della possibilità di trasferire i dati
raccolti da BI al sito Cineca
Conclusioni
• L’esercizio pilota si è rivelato un’esperienza positiva e ha
soprattutto fornito una serie di indicazioni di cui fino ad ora si aveva
una percezione solo indistinta.
• Se il dato meramente quantitativo può di fatto essere facilmente
confutato ad una analisi più raffinata (e ciò vale sia per le scienze
dure che per le scienze umane) esso si rivela certamente, nella
media, più solido ed atto a rendere conto di una buona parte dei
lavori prodotti.
• Il fine a cui tendere è quello di costruire metodi condivisi nella
produzione di dati robusti che pur nella loro confutabilità
permettano la comparazione.
• L’uso generalizzato degli archivi istituzionali come anagrafi della
ricerca che colloquiano con l’anagrafe centrale può portare a livello
locale ad una maggiore e trasparente disponibilità di informazioni, a
livello nazionale alla creazione di un quadro completo della
produzione scientifica, affidabile e comparabile con altri sistemi di
ricerca.
Scarica

CIVR e SURplus: un`esperienza di analisi dei dati