Istituto di ricerche sulla popolazione e le politiche sociali
Consiglio Nazionale delle Ricerche
PARTECIPARE LA SCIENZA
a cura di
Adriana Valente e Daniela Luzi
Questa è la copia stampata di un libro disponibile anche in
formato elettronico al sito www.biblink.it
I confini sono fatti per essere attraversati. O meglio,
sono delle esche irresistibili. Li vado cercando non
per saggiarli ma per tormentarli, come un cane con
l’osso […]. E una volta che mi sono smarrita oltre i
confini della ricerca scientifica, passando dal fare
scienza allo scrivere di scienza, il problema si è
addirittura aggravato perché ora i confini da
tormentare sono molto di più.
Evelyn Fox Keller, Vita, scienza & cyberscienza
È vietata la riproduzione, anche parziale,
con qualsiasi mezzo effettuata, compresa la fotocopia,
anche a uso interno e didattico
Settembre 2004
Biblink editori, Roma
Grafica di copertina di Alberto Pedro Di Santo
Indice
ADRIANA VALENTE, DANIELA LUZI, Introduzione
pag.
9
VALUTAZIONE E RESPONSABILITÀ
ALESSANDRO FIGÀ TALAMANCA,
Uso ed abuso delle banche dati nella valutazione
delle riviste e della qualità scientifica:
un problema di potere
pag. 27
DANIELE ARCHIBUGI,
Chi ha paura della bibliometria?
ALESSANDRO FIGÀ TALAMANCA,
Nota di commento
pag. 48
ANNA MARIA TAMMARO,
Indicatori di qualità delle pubblicazioni scientifiche
ed open access
pag. 51
FEDERICO DI TROCCHIO
Le patologie della comunicazione scientifica:
problema etico o socioeconomico?
pag. 91
pag. 37
VALUTAZIONE E RISORSE UMANE
LUCIA PADRIELLI, MARINA PEROTTI, FABRIZIO TUZI,
Criteri ed indicatori per la valutazione degli istituti del CNR pag. 113
7
ROSA DI CESARE, DANIELA LUZI, ADRIANA VALENTE,
La produzione scientifica del CNR nelle scienze sociali:
considerazioni di genere
pag. 133
SVEVA AVVEDUTO,
Le risorse umane per la ricerca: quali politiche?
pag. 159
DOCUMENTAZIONE E ACCESSO
LUCIA MAFFEI,
Alcune riflessioni sugli aspetti etico-politici
dell’attività di documentazione
Adriana Valente e Daniela Luzi
pag. 173
GIUSEPPE VITIELLO,
L’identificazione dei documenti nell’economia
della comunicazione scientifica
pag. 181
MADEL CRASTA,
Istituzioni della cultura: content provider per la rete
pag. 219
PAOLA CAPITANI,
Gestione della conoscenza e formazione
pag. 231
COMUNICAZIONE PUBBLICA E CONSAPEVOLEZZA
ADRIANA VALENTE,
Comunicare la scienza per partecipare la scienza
pag. 251
MAURA MISITI,
Mass media e popolazione
pag. 277
LUCIANA LIBUTTI,
Alcune riflessioni sul ruolo della documentazione
nei progetti di comunicazione della scienza
pag. 305
ELENA DEL GROSSO,
Bioetica e responsabilità sociale della scienza
e della tecnologia
pag. 313
8
Introduzione
Nel percorso delineato in questo volume, partecipare la
scienza vuol dire occuparsi di questioni – teoriche ed operative
– relative al dibattito in corso sulla comunicazione della
scienza, questioni di accesso alle informazioni, di comunicazione delle conoscenze, di valutazione ed etica della ricerca e di
risorse umane. Il riferimento a tali questioni è sia nella descrizione dello stato dell’arte, sia nella ricostruzione di filoni di
riflessione entro i quali nulla è dato per scontato mentre molto
è in divenire.
Se vi è anche una componente di auspicio, si tratta dell’auspicio a che si affermi un approccio interdisciplinare alla comunicazione della scienza, che includa le dinamiche comunicative
entro la comunità scientifica e tra scienza e società. Si tratta, rubando la metafora di Thomas, di occuparsi di «acquitrini e
paludi»: «la scelta degli esempi ha sempre a che fare con ciò che
si vuole rappresentare […] chi intenda giustificare l’affermazione “la terra è fondamentalmente diversa dall’acqua”,
sceglierebbe l’esempio dello scoglio in mare; chi invece volesse
mostrare che terra ed acqua possono completarsi a vicenda e
che spesso in tale commistione sviluppano le proprietà più
sorprendenti, dovrebbe parlare di acquitrini, pozzanghere e
ghiacciai» (Arte e scienza, 1989).
9
Questo volume segue di due anni la pubblicazione di
Trasmissione d’élite o accesso alle conoscenze? (2002). L’antitesi tra
trasmissione lineare ed accesso alle conoscenze è ancora presente
nei diversi saggi del volume ed è sottesa alle riflessioni sulla
valutazione e le risorse umane, sull’etica e la responsabilità,
sulla documentazione, percezione e consapevolezza della
scienza.
Ancora una volta ci occupiamo dei confini incerti tra scienza
e comunicazione e, nuovamente, siamo consapevoli di tralasciare un’ampia gamma di questioni epistemologiche, tecnologiche, cognitive, sociologiche, che potrebbero contribuire ad
evidenziare tratti rilevanti di questa fusione di scienza e
comunicazione.
La comunicazione non è vista solo come un veicolo di
trasmissione della scienza – tra studiosi o tra comunità scientifica e società – ma si compenetra in essa, diventa occasione di
partecipazione ai temi, ai valori della scienza. Parallelamente, il
modello utilizzato nella comunicazione sia formale che informale tra studiosi fornisce evidenza degli incerti equilibri tra
conservazione e innovazione entro le comunità scientifiche ed
a sua volta può contribuire alla loro cristallizzazione o alla loro
evoluzione. Anche l’articolo scientifico può essere considerato
nelle sue diverse dimensioni: uno strumento di comunicazione
inter o intraspecialistica; uno strumento di registrazione e certificazione di conoscenze; la base per un’attività di divulgazione
scientifica; elemento cruciale per la costruzione di indicatori
essenziali per comprendere la crescita e lo sviluppo scientifico;
uno strumento di valutazione di individui, gruppi, nazioni; ed
anche un fondamentale elemento della nuova retorica –
secondo Latour – che, grazie allo stile, all’impilamento sapiente di argomentazioni, citazioni e modelli, isola il lettore che
persevera nel dubbio.
Merton e poi Eco e tutta la moderna etnometodologia hanno
evidenziato quello che un articolo, modello dall’aspetto
immacolato, non è o che non ci comunica: poco lascia intravvedere delle intuizioni, delle false partenze, degli errori, delle
conclusioni approssimative, dei felici accidenti che ingombrano
il lavoro di dicerca.
C’è stato chi nella prima metà del Novecento ha proposto
una soluzione: fare a meno degli articoli scientifici, ma questa
proposta radicale di Bernal è stata respinta negli anni Quaranta. E allora, come ricostruire da un lato il continuum del lavoro
scientifico, dall’altro il dinamismo del dibattito scientifico – di cui
sono spesso povere le iniziative di divulgazione – così come la
complessità e la poliedricità dei modi di fare scienza, fino ad
entrare nelle scelte di politica scientifica e di valutazione?
Diverse proposte ed interpretazioni sono presenti nei capitoli
di questo libro, in cui le varie accezioni di articolo scientifico
vanno di pari passo con i significati e ruoli ricoperti oggi dalla
scienza.
La scienza è sempre meno considerata nelle sue componenti unitarie, come è testimoniato dall’evoluzione della riflessione
sulla natura, sul ruolo e sul metodo di lavoro di scienziati e
scienziate e dei relativi modelli di rappresentazione. Un’interessante contrapposizione è quella posta da Bruno Latour, con
l’immagine del Giano bifronte, tra «scienza pronta all’uso», e
cioè scienza consolidata, magari già presente in applicazioni di
uso quotidiano, e «scienza in costruzione», colta nel suo divenire. Diverse e contrastanti affermazioni sono collegate all’una o
all’altra delle due facce: vai ai fatti, dice la prima, decidi a chi
credere, la seconda. Viene prima la verità, la validità, l’usabilità,
l’efficienza di strumenti e metodi, o la persuasione, l’accettazione sociale di tutte queste cose?
L’immagine del Giano bifronte si potrebbe riportare nel
campo della documentazione e comunicazione scientifica: la
faccia che guarda agli aspetti consolidati delle discipline
documentarie, all’evoluzione di metodologie e tecnologie
sempre più efficienti ed efficaci, potrebbe dire: scegli il modo più
10
11
efficiente per trasmettere l’informazione; l’altra replicherebbe:
decidi il grado di equilibrio tra trasmissione dell’informazione e
accesso alle conoscenze.
La stessa cosa nel campo della valutazione; la prima voce
direbbe: utilizza i metodi e gli strumenti disponibili per la valutazione della scientificità; l’altra replicherebbe: decidi quali criteri e
priorità vuoi considerare nella valutazione.
La maggior parte degli articoli presenti in questo libro riportano temi collegati più al divenire della scienza che ad una sua
rappresentazione consolidata. In questa direzione si pone il
dibattito tra Alessandro Figà Talamanca e Daniele Archibugi,
sulla valutazione della produzione scientifica e sull'impact
factor in particolare. Il dibattito tra i due autori è nato in
occasione del seminario organizzato nel dicembre del 2002 dal
CNR sulla partecipazione della scienza, e ci è sembrato interessante riproporlo ai lettori nella forma originaria di ‘repliche su
intervento’.
La questione dibattuta dai due autori parte dalla considerazione che, con l’aumentare delle modalità di uso degli indici di
citazione, questi vengono utilizzati non solo per trovare riferimenti a letteratura scientifica, o come strumenti per l’analisi
storica della scienza, ma anche, spesso in maniera automatica e
poco bilanciata, nelle pratiche di valutazione scientifica. Figà
Talamanca evidenzia che l’analisi della questione dell’impact
factor nella valutazione scientifica non può esaurirsi entro il
presupposto dell’‘obiettività scientifica’, ma deve contemperare anche criteri morali e politici, formalmente esterni al fenomeno considerato, ma a questo strettamente correlati. Si tratta
soprattutto di un «problema di potere» e «l’esercizio del potere
non può sottrarsi ad un giudizio basato su valori morali».
La contrapposizione dialettica riguarda le modalità di
valutazione, mentre l'opportunità e la necessità di valutazione
sono condivise dai due autori.
Ciascuno degli articoli solleva questioni legate alla struttura
e al complesso funzionamento delle comunità scientifiche. Per
Figà Talamanca la comunità scientifica può essere analizzata da
punti di vista diversi; come una comunità chiusa, con proprie
regole e valori, ma anche come comunità che interagisce con il
mondo esterno – in questo articolo con l'editoria scientifica
commerciale; in una dimensione diacronica, si possono considerare i cambiamenti dalla comunità scientifica nazionale
dell’Ottocento e del Novecento, rispetto alla odierna «comunità internazionale legata da interessi subscientifici». La riduzione degli scienziati a «misuratori di fenomeni», riportata provocatoriamente da Archibugi, ribadisce la necessità di raccogliere
dati, ma non esclude anche quella di valutarne le fonti, di
ponderarli e di affiancarli ad altri parametri. Tanto più, allora,
assume rilievo la considerazione di Figà Talamanca per cui la
misurazione dei fenomeni deve inserirsi in un modello effettivamente «capace di spiegare la realtà osservata».
Dunque, le pratiche di valutazione della ricerca sono frutto di
particolari concezioni di scienza e di società; queste costituiscono,
nello stesso tempo, un esempio di incontro tra l’evoluzione nel
settore delle tecnologie e metodologie documentarie e lo sviluppo dei sistemi di produzione ed organizzazione delle conoscenze
scientifiche. Anna Maria Tammaro introduce, accanto all’approccio tradizionale ai sistemi di valutazione della qualità delle
pubblicazioni scientifiche, basato essenzialmente sugli indicatori
bibliometrici e sulla peer review tradizionale, quello open access,
legato allo sviluppo delle nuove tecnologie dell’informazione e
documentazione, che include l’open linking, l’open commentary e
l’open peer review. I due approcci non si contrappongono del tutto,
anche se del primo sono evidenziate le caratteristiche di dispendiosità ed inefficienza. Ciascuno dovrebbe fornire risposte ad
alcune delle funzioni cui assolvono le pubblicazioni scientifiche,
che andrebbero adeguatamente distinte: controllo di qualità,
diffusione, registrazione, riconoscimento.
12
13
La revisione degli attuali criteri di valutazione costituisce,
nell’ottica di Federico Di Trocchio, uno dei possibili rimedi alle
‘patologie’ che affliggono la comunicazione scientifica, e cioè:
proliferazione, specializzazione eccessiva, produzione di
articoli non originali, o di articoli contenenti informazione in
tutto o in parte ridondante o non veritiera, censura di articoli
incompatibili con i paradigmi dominanti. A tutte le ‘trasgressioni’ ad una corretta comunicazione tra studiosi si affiancano
quelle poste in essere da editori e referees. Questo fenomeno, se
è in parte connaturale alla struttura stessa dell’impresa scientifica dal XVII secolo in poi, si è ampliato ai nostri giorni, in vista
della professionalizzazione dell’attività di ricerca e della conseguente maggiore competizione entro le comunità scientifiche.
Tra gli antidoti ai mali moderni della comunicazione e
documentazione scientifica, la proposta dell’autore è di considerare maggiormente la qualità delle pubblicazioni rispetto ai
criteri quantitativi, e di non utilizzare i fattori d’impatto direttamente e semplicemente come base per le decisioni relative ai
finanziamenti e per le pratiche valutative in genere.
È proprio in questa ottica che si inquadra l'articolo di Lucia
Padrielli, Marina Perotti e Fabrizio Tuzi, che descrive i criteri di
valutazione utilizzati nel piano di revisione degli Organi
durante la riforma del CNR iniziata con il decreto legislativo
19/1999 – peraltro attualmente in fase di ulteriore revisione da
parte della ministra Moratti. L’analisi è rilevante in quanto dà
un peso diverso agli indicatori utilizzati nella valutazione a
seconda dell’ambito disciplinare considerato. La varietà delle
soluzioni proposte e l’articolazione della riflessione sulla situazione dinamica ed interdisciplinare del CNR conferiscono a
questo studio un valore che va oltre il contesto in cui è stato
elaborato.
Vengono utilizzati circa trenta parametri di valutazione,
ognuno dei quali viene associato a macro aree di attività corri-
spondenti ai compiti istituzionali del CNR ed ai risultati attesi.
All’interno di ciascuna macro area vengono identificati i
parametri di valutazione e la rilevanza di ognuno dipende
dall’ambito disciplinare dei diversi istituti, così che, ad
esempio, l’impact factor assume maggiore importanza per gli
istituti appartenenti alle scienze di base e della vita e viene
considerato in misura ridotta per gli istituti afferenti alle
scienze umane e sociali, a vantaggio, invece, della produzione
di monografie e capitoli di libri. Per gli istituti a carattere
prettamente tecnologico, assumono invece particolare importanza altri indicatori, quali i brevetti. I parametri elaborati sono
stati confrontati con i criteri di valuzione proposti dal Comitato di Indirizzo per la Valutazione della Ricerca (CIVR).
Il case study presentato da Rosa Di Cesare, Daniela Luzi e
Adriana Valente prende ancora una volta in considerazione il
CNR per offrire uno spaccato sulla produzione scientifica di
ricercatori e ricercatrici nelle scienze sociali. Gli studi che
analizzano la produttività scientifica in una prospettiva di
genere non sono molto numerosi, per la difficoltà di raccogliere dati disaggregati e di associarli a parametri di contesto.
Nell’articolo in questione sono stati considerati i parametri
relativi alla progressione di carriera, mettendo in dubbio
stereotipi quali quello della minore produzione scientifica delle
donne.
Gli articoli sopra indicati mostrano come la questione della
valutazione, se da un lato è fortemente connessa alla comunicazione e responsabilità della scienza, non può prescindere, in
un’ottica di intervento, dalla politica delle risorse umane per la
scienza e la tecnologia.
Di quest’ultimo aspetto si occupa in maniera centrale l’articolo di Sveva Avveduto che evidenzia come, tra le linee
programmatiche scaturite dai summit di Lisbona (2000) e di
Barcellona (2002), siano indicati espressamente diversi interventi sulle risorse umane. Oltre alla creazione di uno spazio
14
15
europeo della ricerca e alla promozione di investimenti in
capitale umano, si fa espressamente riferimento al miglioramento delle politiche per la ricerca, nel cui ambito la questione
della valutazione e comunicazione della scienza assume un
ruolo di primo piano. Maggiore controllo e migliore valutazione sono inoltre richieste a fronte di una accresciuta autonomia.
Alcuni fattori vanno considerati a fianco del controllo di qualità
delle risorse: il rafforzamento della base scientifica nazionale, il
miglioramento delle condizioni di ricerca e del livello delle
risorse scientifiche, l’intervento nella fase iniziale di reclutamento di ricercatori e ricercatrici e la valorizzazione dell’apporto delle risorse ad elevata esperienza. La questione connessa al declino di interesse verso le discipline scientifiche costituisce uno dei nodi intorno ai quali operano i progetti di
comunicazione pubblica della scienza, di cui all’ultima parte
del libro.
L’articolo di Sveva Avveduto fornisce anche evidenza del
fatto che la tecnologia sia sempre accostata alla scienza, nelle
politiche delle risorse umane così come nelle politiche scientifiche in generale.
Le dinamiche dello sviluppo tecnologico sono sottese, anche
se non sempre esplicitate, in tutte le pagine del libro, ma nella
seconda parte, e soprattutto nei capitoli dedicati alla documentazione, diventano un elemento centrale di riflessione. Ciò
dipende dal fatto che la tecnologia ha radicalmente modificato
il posto assegnatole dalla scienza, non segue più quest’ultima,
né è più confinata al ruolo di applicazione. Il percorso ideale che
dalla ricerca di base portava all’innovazione tecnologica e poi
allo sviluppo economico o, se vogliamo, che legava in stretta
sequenza ricerca scientifica-produzione di nuova conoscenza-sua
utilizzazione a fini pratici e che aveva dominato la parte centrale
del secolo scorso, non trova più rispondenza con la realtà. Ciò
è stato sottolineato da quegli autori che, a partire da Callon e
Latour, hanno evidenziato la difficoltà di distinguere tra
scienza e tecnologia (Faulkner, 1994) e da coloro che, significativamente, hanno parlato di tecnoscienza (Latour, 1998; Flichy,
1996; Longo, 2001). In questa situazione non sono solo i sociologi che intervengono negli affari tecnologici; Callon ha notato
che anche gli ingegneri nel presentare nuove tecnologie elaborano costantemente ipotesi e forme di ragionamento che, di
fatto, li «trasformano in sociologi» (Flichy, 1996).
Le teorie e pratiche della documentazione scientifica si
confrontano continuamente con la tecnologia e con il ruolo che
essa assume rispetto alla scienza o tecnoscienza, e alla società o
pantecnico. Tra le soluzioni proposte, ed in continuo divenire,
nel libro sono presentate quelle che si ricollegano ai temi della
comunicazione della scienza ed all’accesso alle conoscenze, alla
formazione ed al ruolo delle istituzioni culturali.
L’articolo di Lucia Maffei, nel presentare le riflessioni
dell’autrice sugli aspetti etico-politici dell’attività di documentazione, si pone come sintesi della prima parte del libro ed
introduzione ai capitoli che seguono sulla documentazione
scientifica. Esiste una stretta correlazione tra scelte tecnologiche
e politiche, di cui chi si occupa di gestione della documentazione e della conoscenza dovrebbe essere ben consapevole. Se una
parte del mondo occidentale si interroga sull’evoluzione di
metodi e sistemi di valutazione e si dibatte in un mercato
dell’informazione scientifica saldamente in mano a pochi
editori, la maggioranza del pianeta «si perde nelle sabbie
mobili del digital divide». Diversi progetti internazionali sono
volti a sostenere l’accesso all’informazione scientifica del ‘resto
del mondo’, e vanno senz’altro salutati con favore per quanto
riguarda l’ampliamento della partecipazione alla scienza, e
tramite questa, a migliori condizioni di vita e di salute. Tuttavia, sussiste qualche perplessità relativa ad esempio al fatto che
tali progetti siano basati sulle nuove tecnologie, ma proposti in
aree con infrastrutture inadeguate, oppure al timore che oligar-
16
17
chie editoriali possano proporre inizialmente i propri prodotti
scientifici a costi accessibili solo per preparare un mercato in
cui imporre le proprie condizioni. Sulla situazione del mercato
editoriale si sono soffermati anche Figà Talamanca e Tammaro,
ma Lucia Maffei pone all’attenzione la drammaticità della
situazione nel ‘resto del mondo’, in cui il mancato accesso ad
informazioni scientifiche ha importanti ed immediate ricadute
sulle condizioni di salute. Possiamo aggiungere che l’approccio
open access sembra poter fornire in prospettiva una risposta
adeguata alle esigenze di accesso alle conoscenze dei Paesi i via
di sviluppo, così come di tutte le aree e le organizzazioni con
minori disponibilità economiche. Tuttavia, non si vede ancora
come questo possa incidere stabilmente sulla partecipazione
dei Paesi in via di sviluppo con i propri contributi scientifici
alla costruzione delle ‘memorie collettive’ che, si auspica,
saranno presto disponibili liberamente a tutti.
Per i professionisti dell’informazione e per chi si occupa
della gestione di documentazione e conoscenza scientifica si
ripropone il dualismo tra trasmissione ed accesso ed anche loro
sono chiamati a scegliere se sostenere «uno sviluppo a senso
unico, operando per il trasferimento univoco delle conoscenze,
oppure operare per un accesso attivo, consapevole e diffuso
delle informazioni scientifiche».
Riflessioni profonde sull’accesso alle conoscenze sono
presenti anche nell’articolo di Giuseppe Vitiello, e tali riflessioni si estendono all’evoluzione della politica dell’informazione
negli ultimi quarant’anni. L’articolo analizza criticamente gli
indicatori dei documenti e delle risorse elettroniche, «uno degli
anelli più ermetici del processo di trasmissione dell’informazione». L’analisi approfondita delle caratteristiche strutturali e
funzionali non si esaurisce in un contributo tecnico. La questione degli identificatori è calata nella riflessione sull’evoluzione
della politica dell’informazione, ed in particolare si incentra
intorno al quesito se il libero mercato debba agire «da regolato-
re e da equilibratore», ovvero se l’autorità pubblica debba intervenire «a riorientare il mondo proprio dell’identificazione nel
senso dell’equità d’accesso alle conoscenze».
Le caratteristiche dei diversi identificatori, la registrazione
del livello di diffusione e di importanti funzioni quali la persistenza e l’interoperabilità, costituiscono elementi di valutazione ai quali vanno affiancate riflessioni relative ai costi ed al
perseguimento di politiche di ampio accesso. La comunità
documentaria, «vaso di coccio in mezzo ai vasi di ferro editoriali», non può modificare «business models e politiche editoriali», ma può intervenire in vario modo, ad esempio utilizzando
la tecnologia ed il sistema DOI (digital object identifier) per
mettere a punto soluzioni autonome, rendere interoperabili
archivi di pubblicazioni in rete, in ultima analisi creare una
‘sfera pubblica’ in cui sia possibile «avere accesso a un’offerta
diversificata, ampia e a prezzi ragionevoli di fonti di informazione». Ruolo delle biblioteche dovrebbe essere contribuire
proprio ad ampliare lo «spazio pubblico di accesso all’informazione», piuttosto che limitare la propria funzione entro «uno
spazio privatizzato».
Il ruolo delle istituzioni culturali rispetto all’accesso alle
informazioni è posto al centro dell’attenzione da Madel Crasta;
allargare tale accesso deve costituire un obiettivo primario.
L’uso delle tecnologie nella produzione di contenuti «non può
avvenire in modo confuso, meccanico ed indiscriminato come
risposta obbligata al trend del momento, ma deve rispondere a
progetti culturali» e non deve prescindere dalla misurabilità
dei risultati. Solo andando oltre i cataloghi ed evitando di
annegare «nei milioni di dati» disponibili in rete è possibile
costruire un «impegno di comunicazione verso un pubblico più
ampio della tradizionale comunità di studiosi che da sempre
ruota intorno alle istituzioni culturali».
Carenza o cattivo uso delle tecnologie sono imputabili
anche al contesto formativo. Nel mettere in relazione la gestio-
18
19
ne della conoscenza e la formazione, Paola Capitani individua
i punti deboli, soprattutto nel quadro nazionale, e delinea al
contempo le linee di evoluzione di un'educazione continua che
deve far fronte a contesti dinamici, soggetti a continui
mutamenti.
Se la tecnologia svolge un ruolo di primo piano nella formazione nel settore della scienza dell’informazione, la necessità di
un collegamento stretto con la società è stata evidenziata fin dal
1986 dall’Unesco che, entro il Modular curriculum in information
studies, ha dato particolare enfasi al contesto sociale nell’informazione e nella comunicazione.
Il ruolo della società nella comunicazione della scienza e
nella negoziazione di significati scientifici è l’aspetto centrale
dell’ultima parte del libro.
Tra le critiche mosse ad esponenti della nuova sociologia
della scienza e della tecnica vi è il non aver adeguatamente
considerato il ruolo attivo del pubblico nel processo culturale
di ri-definizione della scienza e della tecnica e del loro uso
(Flichy, 1996). Pur senza intervenire direttamente sulla controversia, né sulle critiche mosse all’approccio classico della
separazione tra tecnica ed uso che hanno portato anche a configurare diversi tipi e fasi di negoziazione, l’ultima parte di
questo libro si occupa proprio del pubblico, o meglio della
società in rapporto con la scienza e la tecnica. Vengono soprattutto descritte le esperienze volte a cogliere sia la percezione
della scienza-tecnica e della scienza-cultura, che lo spazio che
sistemi di diffusione delle conoscenze di tipo mass mediatico
riservano alla negoziazione di significati (quali valori della
scienza e come contribuire al dibattito pubblico) e di usi (quali
tecnologie e come utilizzarle al meglio).
L’analisi degli aspetti legati alla percezione della scienza ed
alla partecipazione al dibattito pubblico diviene tanto più
pregnante se consideriamo le suggestioni di chi ha evidenziato
quanto ognuno di noi sia parte di esperimenti collettivi o sociotecnici, che superano i confini di laboratorio (Latour, 2001). In
realtà, sembra che la grande differenza con gli esperimenti
tradizionali sia legata non tanto al luogo dell’esecuzione – fuori
dai laboratori –, quanto al fatto che gli esperimenti collettivi
coinvolgano gruppi estesi, non definibili a priori e non consapevoli dell’esperimento in corso. Qualcosa di completamente
diverso dal secentesco testimone modesto cui ha fatto riferimento Donna Haraway (2000), calato del suo ruolo ed investito della sacralità dell’esperimento scientifico o tecnologico al
quale, prescelto, assisteva.
Tali aspetti, ribaditi da quanto emerso in recenti progetti di
comunicazione pubblica della scienza, sono considerati nell’articolo di Adriana Valente; in questo si rileva anche la domanda
della collettività di essere parte del dibattito scientifico: tutte le
iniziative di divulgazione e comunicazione scientifica sia a
livello mass mediatico che promosse da ambienti scientificoaccademici vengono accolte dal pubblico con grande attenzione e, ove è possibile, con grande partecipazione.
Contemporaneamente, sembra che da parte di studiosi
sociali, promotori di progetti di comunicazione della scienza,
organismi internazionali impegnati nella promozione di
democratic governance, vi sia, oltre all’interpretazione di un
desiderio popolare di partecipazione, anche una sollecitazione,
una convinzione dell’opportunità di tale partecipazione. Per
quanto riguarda l’interesse verso la scienza, questo atteggiamento potrebbe anche essere in parte un «indicatore dell’ansia
di essere marginalizzata che è propria della comunità scientifica» parallelamente a quanto Paola Borgna ha osservato a
proposito del public understanding of science (Borgna, 2001).
Tuttavia, simili manifestazioni di interesse-indicazioni di opportunità sono evidenziate con riferimento non solo al dibattito
scientifico, ma anche al dibattito pubblico in generale (Fishkin,
2003). Viene da pensare, allora, che le parti in causa si stiano
20
21
interrogando sul nuovo significato da attribuire alla democrazia, sui nuovi modi di partecipazione alla sfera pubblica.
Maura Misiti riporta ed analizza criticamente una serie di
studi sulla comunicazione della scienza nel settore della
popolazione e demografia, temi scientifici di ampio respiro che,
alla luce degli attuali fenomeni sociali e geopolitici, suscitano
un rinnovato interesse nella società e sono particolarmente
considerati dai media. I risultati dell’European Value Survey,
condotto in 12 Paesi nel 1981 e nel 1990, hanno evidenziato la
difficoltà di definire una teoria, un modello che risolva il
problema delle modalità di azione dei valori nel comportamento sociale. La ricerca effettuata dal Cnr considera diversi
approcci metodologici relativi all’analisi dell’impatto dei media
sulla conoscenza, alle modalità con cui la popolazione acquisisce l’informazione, all’analisi statistico-testuale degli articoli e
dei contenuti di diversi media.
L’apporto delle discipline documentarie e dell’informazione
accanto a quelle più propriamente comunicative nei progetti di
comunicazione pubblica della scienza, implicito negli articoli
descritti, viene evidenziato da Luciana Libutti. La necessità di
distinguere tra le diverse categiorie di utenza, alla base di ogni
progetto documentario, è fondamentale nelle iniziative di
comunicazione della scienza; l’organizzazione del materiale
scientifico per la parte dei progetti legati alla didattica e il collegamento con il corso delle attività formative costituiscono due
ulteriori fasi di incontro di professionalità. La conoscenza
approfondita delle tipologie di fonti informative e delle tecniche di recupero dell’informazione è essenziale per un’analisi
dei documenti scientifici che tenga conto, oltre che della molteplicità delle fonti, anche di criteri quali attendibilità, internazionalità, pluralismo. In definitiva, tale incontro di competenze
è essenziale affinché la presa di contatto con la scienza sia
«quanto più possibile esente da limiti e condizionamenti,
mediante la sua attività “trasparente” di recupero delle fonti».
L’articolo di Elena del Grosso chiude idealmente il libro,
riprendendo in chiave teorica il discorso sulla comunicazione
della scienza alla luce delle considerazioni sulla responsabilità
di scienziati e scienziate.
Questi, partecipi del «mutamento profondo dalla scienza alla
tecnologia», non dovrebbero rifiutare le responsabilità legate al
loro «coinvolgimento diretto o indiretto nelle trasformazioni
sociali, politiche ed economiche indotte dal processo che loro
stessi hanno messo in atto». Le proposte dell’autrice finalizzate
alla ricostruzione dell’etica pubblica si concentrano sul ruolo
della bioetica, che non dovrebbe essere considerata solo come
un «contenitore di norme date, atte a giudicare e/o controllare
l’avanzamento tecnico-scientifico», bensì, in prospettiva, come
«un processo da costruire a partire dalla storia dello sviluppo
del pensiero scientifico e delle sue applicazioni e dalle interazioni con i diversi contesti sociali e culturali».
Il rapporto tra memoria storica come fondamento di riflessione, prospettiva futura come obiettivo degli studi e del processo
conoscitivo e realtà (tecnologica) come materiale su cui sperimentare, su cui costruire progetti ed elaborare teorie ed analisi,
è un ulteriore elemento unificante i diversi contributi del libro;
questo concetto si ritrova in parte condensato nella sintesi di
quest’ultimo articolo, laddove si evidenzia come «il futuro stia
nel passato» e «la memoria sia parte integrante di un processo
di costruzione democratica della realtà».
22
23
Le discussioni sui paradigmi implicano sempre la
stessa questione: quali problemi è più importante
risolvere?
Bibliografia
Arte e scienza (1989), a cura di Paul Feyerabend, Christian
Thomas, Roma, Armando Editore
Thomas Kuhn, La struttura delle rivoluzioni
scientifiche
PAOLA BORGNA (2001), Immagini pubbliche della scienza: gli italiani e
la ricerca scientifica e tecnologica, Torino, Edizioni di Comunità
W. FAULKNER (1994), Conceptualizing Knowledge used in Innovation. A Second Look at the Science Technology Distinction and
Industrial Innovation, in “Science, Technology and Human
Values”, 19, n. 4
JAMES S. FISHKIN (2003), La nostra voce, Venezia, Marsilio
PATRICE FLICHY (1996), L’innovazione tecnologica, Milano, Feltrinelli
DONNA J. HARAWAY (2000), Testimone_modesta@FemaleMan_incontra_oncotopo, Milano, Feltrinelli
BRUNO LATOUR (1998), La scienza in azione, Torino, Edizioni di
Comunità
BRUNO LATOUR (2001), What Rules of Method for the New Socio-Scientific Experiments?, plenary lecture, prepared for the Darmsdadt
Colloquium, 30th March 2001. http://www.ensmp.fr/~latour/poparticles/poparticle/p095.html
GIUSEPPE O. LONGO (2001), Tecnoscienza e globalizzazione, in
"Nuova Civiltà delle Macchine", n. 2
Trasmissione d’élite o accesso alle conoscenze? Percorsi e contesti
della documentazione e comunicazione scientifica (2002), a cura
di Adriana Valente, con testi di Sveva Avveduto, Anna
Baldazzi, Rosa di Cesare, Maria Guercio, Daniela Luzi,
Adriana Valente, Milano, Franco Angeli
24
Valutazione e responsabilità
Uso ed abuso delle banche dati
nella valutazione delle riviste e della qualità
scientifica: un problema di potere
Alessandro Figà Talamanca
Università degli Studi di Roma “La Sapienza”
Dipartimento di Matematica
Ci sono due possibili punti di vista quando si affronta lo
studio di un sistema sociale. Si può, secondo un metodo prevalentemente adottato negli studi di antropologia, considerare la
comunità oggetto dello studio come una comunità chiusa in se
stessa con le sue regole, i suoi valori, i suoi conflitti e i suoi
strumenti per risolverli, oppure, seguendo il metodo più
proprio della scienza politica, si può far convergere l’attenzione sull’interazione ed i conflitti tra la comunità che si studia e il
mondo ad essa esterno. Il primo punto di vista, meno attento
alla dinamica sociale e politica globale, è quello forse più vicino
all’esigenza di ‘obiettività’ scientifica. Il secondo spesso non
può fare a meno di un giudizio morale o politico sugli avvenimenti e le strutture sociali descritte, e rischia di mescolare la
realtà osservata con i pregiudizi e le valutazioni politiche
dell’osservatore. Nello studio della comunità scientifica il
primo punto di vista mi sembra quello adottato da Robert K.
Merton e Derek De Solla Price. Il secondo punto di vista è
invece quello adottato dagli ‘autori vari’ che negli anni Settan-
27
ta sotto la guida di Marcello Cini pubblicarono il volume L’ape
e l’architetto. È probabile che tutti e due i punti di vista siano
necessari, ma dirò subito che non essendo uno ‘scienziato
sociale’, e potendomi permettere quindi una maggiore licenza
metodologica, mi trovo più vicino al punto di vista di L’ape e
l’architetto, un’opera che a suo tempo trovai interessantissima,
pur non condividendone quasi mai le conclusioni politiche.
E infatti il problema che vorrei analizzare, in relazione
all’uso e all’abuso di banche dati sulla comunicazione scientifica, per valutare la qualità delle riviste e della ricerca che vi
viene pubblicata, è prima di tutto un problema di ‘potere’.
L’esercizio del potere non può sottrarsi ad un giudizio basato
su valori morali. Alla fine quindi arriverò a mettere in questione non già e non solo la affidabilità ‘statistica’ delle banche dati,
ma piuttosto gli aspetti etici connessi al loro uso.
Il fenomeno delle banche dati sulla comunicazione scientifica si inserisce all’interno di un fenomeno più vasto e complesso che è quello dell’editoria scientifica, come si è sviluppata
negli ultimi quaranta o cinquanta anni. In questo contesto salta
prima di tutto agli occhi la grande debolezza della comunità
scientifica rispetto ad influenze ad essa estranee. Non parlo
della debolezza rispetto ai governi o ai rappresentanti dei
poteri pubblici, che, dopo tutto, finanziano la ricerca ed hanno
il diritto di indirizzarla. Parlo invece della debolezza della
comunità scientifica rispetto agli interessi delle grandi imprese
editoriali che pubblicano le riviste scientifiche.
Si assiste infatti ad una situazione del tutto paradossale. La
comunità scientifica è il solo produttore ed il solo consumatore
di letteratura scientifica. Eppure un intermediario che si è interposto tra il produttore ed il consumatore sta facendo schizzare
i prezzi del prodotto a livelli incompatibili con i finanziamenti
destinati alle biblioteche scientifiche. Il risultato di questo
aumento dei prezzi, per ora, non è quello di far diminuire gli
acquisti dei prodotti più costosi, che sono quelli sponsorizzati
dall’intermediario, ma quello di far risparmiare su altri prodotti. Quando parlo di intermediario mi riferisco, naturalmente,
agli editori commerciali di letteratura scientifica. Infatti
l’aumento dei prezzi si giustifica solo con l’aumento dei costi di
intermediazione (distribuzione e ‘marketing’) dal momento
che gli autori (i veri produttori) non ricevono alcun compenso
e il progresso tecnologico ha quasi azzerato i costi di composizione tipografica.
Non era così negli anni Sessanta. Allora l’editoria scientifica
era dominata da riviste controllate da società scientifiche,
accademie, università, consorzi di università, ed altre simili
istituzioni. Queste riviste si giovavano del lavoro volontario di
docenti universitari e pubblicavano a basso costo. Uno dei
mezzi più comuni e meno costosi di diffusione delle riviste era
lo ‘scambio’ di riviste tra istituzioni scientifiche diverse. Questo
sistema di scambi era particolarmente importante per le istituzioni scientifiche dei Paesi dell’Europa orientale, e dei Paesi in
via di sviluppo, che potevano così ricevere riviste occidentali
senza sborsare valuta pregiata.
Negli ultimi decenni, invece, il mercato è stato conquistato
dagli editori commerciali che sono riusciti a spingere fuori del
mercato quasi tutte le riviste legate a istituzioni scientifiche.
Anche qui siamo di fronte ad un paradosso: se una rivista (o un
libro) non ha un prezzo sufficientemente elevato, esso non
fornisce un adeguato ritorno al distributore e quindi non avrà
alcuna possibilità di raggiungere gli utenti istituzionali, che
sono, in massima parte, le biblioteche.
Il ruolo degli indicatori bibliometrici come l’impact factor in
questa conquista del mercato da parte di operatori mossi da
interessi commerciali è stato molto importante. La tesi propagandata dai proprietari della banca dati dell’Institute of Scientific Information (ISI) era che non valesse la pena di acquistare
riviste che non comparivano nella loro banca dati o che, pur
comparendo, non avevano un alto impact factor. Da questo
28
29
punto di vista gli indicatori bibliometrici hanno funzionato più
come uno strumento di ‘marketing’ che come oggettivi indicatori di variabili rilevanti nell’analisi della produzione scientifica.
Ma c’è un’altra conseguenza della debolezza della comunità scientifica nei confronti degli interessi delle grandi imprese
editoriali. Gli editori commerciali, attraverso le riviste ‘di
prestigio’, hanno espropriato la comunità scientifica della
capacità di esprimere autonomamente giudizi di merito sulle
ricerche svolte dai membri stessi della comunità. L’esplosione,
anche a livello individuale, del numero delle pubblicazioni, e la
relativa difficoltà di esprimere veri giudizi di valore, al di fuori
di un ambito specialistico molto ristretto, ha fatto sì che valutazioni di merito sui risultati della ricerca scientifica vengano
comunemente sostituite con affrettate e arbitrarie classifiche
dei lavori scientifici sulla base del ‘prestigio’ delle riviste che li
pubblicano. È vero che ogni rivista ha un board of editors
(comitato di redazione) che è responsabile della scelta degli
articoli e che, in teoria, dovrebbe controllarne il merito. Ma è
anche vero che dietro i gusti e gli interessi scientifici degli
esperti che selezionano i lavori per le riviste, c’è anche l’interesse dell’editore a mantenere alto il ‘prestigio’ della rivista. Ed
è a questo punto che interviene l’indicatore di ‘prestigio’ che va
per la maggiore: il cosiddetto impact factor di una rivista.
Diviene allora naturale che siano privilegiati dalle riviste gli
articoli che possono contribuire meglio a mantenere elevato o
aumentare l’impact factor della stessa rivista. Al giudizio di
qualità sul lavoro scientifico presentato per la pubblicazione, si
sostituisce un giudizio sulla convenienza per l’editore a pubblicare il lavoro stesso. A questo proposito il comportamento più
clamorosamente immorale, ma certamente diffuso, è quello di
privilegiare gli articoli che citano altri articoli della stessa
rivista. Le citazioni hanno un effetto diretto sull’impact factor.
Ma altrettanto perversa, in linea di principio, è la tendenza a
privilegiare articoli ben inseriti in una rete di citazioni recipro-
che. Insomma la delega che la comunità scientifica ha concesso
alle riviste ed al loro comitato di redazione per i giudizi di
merito scientifico non è priva di costi, anche in termini di
integrità scientifica e morale.
Da questo punto di vista non mi appassionano le analisi
statistiche che discutono l’affidabilità come indici di qualità
degli indicatori bibliometrici desunti dalle banche dati correnti1. La questione della loro affidabilità è in qualche modo secondaria. Il problema che io vedo è l’introduzione di criteri e poteri
estranei al mondo scientifico, e potenzialmente inquinanti,
nella valutazione del merito scientifico.
Eppure non si può nemmeno ignorare il fatto che la banca
dati dell’ISI è veramente inaffidabile nella attribuzione dei
lavori agli autori, alle istituzioni cui sono affiliati e ai Paesi che
le ospitano. Manca qualsiasi tentativo di identificare gli autori
e controllare le omonimie anche solo parziali. Anche l’identificazione dei lavori scientifici è molto approssimativa e non tiene
conto di banali errori e di varianti nell’identificazione della
rivista o del titolo del lavoro. La banca dati è stata evidentemente progettata senza prevedere l’incredibile espansione dei
suoi contenuti e la sua struttura non è mai stata adattata alle
funzioni che le si chiedono. È certamente singolare che seri
scienziati abituati ad osservazioni precise attribuiscano un
valore obiettivo ad indicatori che sono prodotti da dati così
poco affidabili.
Ma torniamo ora alla questione politica. Quali rimedi
possiamo proporre alla debolezza della comunità scientifica?
Ben pochi in verità. La debolezza ‘politica’ della comunità
scientifica è forse implicita nella natura stessa di una comunità
che è, giustamente, priva di strumenti di organizzazione
interna e di difesa nei confronti di poteri ad essa esterni. Tra
l’altro, questa debolezza, così chiaramente evidenziata dalla
perdita di autonomia rispetto al mondo dell’editoria scientifica,
è una conseguenza negativa di uno sviluppo in gran parte
30
31
positivo: l’internazionalizzazione, dovrei dire la globalizzazione, della scienza. In effetti, la relativa forza delle comunità scientifiche nell’Ottocento e nella prima metà del Novecento era
dovuta ad una stretta identificazione di ogni comunità scientifica con uno Stato sovrano che la proteggeva e la finanziava. La
globalizzazione degli ultimi cinquanta anni è invece un ritorno
alle condizioni di comunità internazionale della scienza che
prevalevano fino a tutto il Settecento, quando la lingua della
comunicazione scientifica era ancora, in molti casi, il latino. Non
per nulla la scienza contemporanea ha ritrovato una lingua
comune, che è una variante della lingua inglese, utilizzata nella
comunicazione scientifica che, al contrario della variante principale, è povera nei vocaboli, elementare nella sintassi, resa piatta
dall’esigenza di precisione, e totalmente priva di valore letterario. Nell’Ottocento e nella prima metà del Novecento sorsero
invece comunità scientifiche nazionali, promosse dai governi
con lo sviluppo delle università statali nell’Europa continentale.
La forza di queste comunità era la forza dei governi che le
proteggevano, una forza per la quale si pagava un prezzo. Basta
rileggere i discorsi degli scienziati italiani durante il fascismo,
pieni di ‘italianità’ e ahimè, dopo il 1938, di ‘arianità’, per
convincersi di quanto fosse alto il prezzo di questa protezione.
Ma non era solo il fascismo a promuovere assurde divisioni nel
mondo scientifico. Possiamo ricordare che nel 1928 furono i
matematici francesi, che dominavano l’Unione Matematica
Internazionale, ad opporsi con forza alla partecipazione al
Congresso Internazionale di Bologna dei matematici tedeschi,
colpevoli solo di essere cittadini di un Paese che aveva combattuto la Francia nella Prima guerra mondiale. Salvatore Pincherle, che organizzava il Congresso, dovette ricorrere allo stratagemma di fare invitare i tedeschi dal Rettore di Bologna, faticando poi non poco per convincere i tedeschi a venire a Bologna,
nonostante lo sgarbo del mancato invito ufficiale.
Al giorno d’oggi, e specialmente dopo il crollo del blocco
sovietico, non ha più senso parlare ad esempio di matematica
italiana o fisica italiana. Le stesse cordate concorsuali, che
infestano il nostro sistema di promozioni, hanno quasi sempre,
almeno nella matematica, un collegamento internazionale, ed
infatti funzionano come cordate a livello internazionale, intervenendo (con autorevoli lettere di presentazione) in tutti i processi
di promozione, anche fuori d’Italia. Queste cordate internazionali sono legate da interessi subdisciplinari, e spesso si dedicano
alla pratica di citazioni incrociate. In molti casi dispongono
addirittura di una rivista internazionale di riferimento, naturalmente ben collocata nella banca dati dell’ISI. Un tempo, nelle
grandi occasioni di conferimento di premi importanti, come la
medaglia Fields in matematica, ed il premio Nobel nelle altre
discipline, c’erano le comunità nazionali che ‘facevano il tifo’ o
si muovevano con un’azione di lobbying a favore del loro candidato. Oggi l’azione di lobbying è esercitata da cordate internazionali legate da comuni interessi di ricerca, che si tramutano facilmente in comuni interessi di promozione e di carriera.
Gli editori commerciali hanno avuto l’abilità di inserirsi in
questo mondo scientifico globale, che è diviso tuttavia da
interessi disciplinari e di settore, che si traducono in interessi di
carriera. Non possiamo pensare di difenderci dallo strapotere
degli editori con un ritorno al passato, restituendo il controllo
delle pubblicazioni scientifiche alle ‘comunità scientifiche
nazionali’ e alle istituzioni che le rappresentavano. Possiamo
però mantenere viva la nostra capacità critica evitando di
tramutarci in ignari propagandisti di un sistema all’interno del
quale si intrecciano interessi estranei alla scienza, e dove sono
possibili serie mancanze ai doveri di integrità scientifica,
mancanze che, anziché punite, vengono spesso incentivate dal
sistema. È perciò importante che in tutte le occasioni in cui
siamo chiamati a valutare la ricerca scientifica dei colleghi
tentiamo almeno di superare la tirannia dei numeri e degli
indicatori e andiamo alla ricerca della sostanza, tenendoci
32
33
lontani da indici manipolabili come quello del numero delle
citazioni. Persino la banca dati dell’ISI può aiutare in una
valutazione seria dei lavori scientifici. Ad esempio può essere
utile per cercare citazioni significative, da parte di esperti, che
indichino il ruolo dei risultati citati nello sviluppo della disciplina. Citazioni di questo tipo sono molto rare e l’esplosione del
numero delle citazioni ha reso più difficile trovarle. In qualche
modo l’abuso della banca dati dell’ISI e la corsa, più o meno
consapevole, a manipolarne gli indicatori, hanno reso impossibile utilizzarla per gli scopi, anche in termini di valutazione, per
i quali era stata originariamente creata. Eppure non c’è dubbio
che solo il contenuto delle citazioni, e naturalmente l’autorevolezza di chi cita, possono ragionevolmente fornire un’indicazione dell’impatto di un lavoro scientifico. Qualsiasi altro uso di
indicatori e numeri di citazioni è altamente sospetto.
Che sia possibile una valutazione seria della ricerca scientifica, nonostante l’esplosione del numero delle pubblicazioni,
delle riviste e delle citazioni è dimostrato dal caso dei Research
Assessment Exercises che si svolgono in Inghilterra. Non è qui il
luogo per descriverli compiutamente. Basta dire che il risultato
di queste valutazioni ha conseguenze importanti, a volte
devastanti, sulla sorte delle istituzioni universitarie britanniche
e sui singoli individui. Esse si basano sull’esame di un numero
limitato di prodotti della ricerca (quattro in cinque anni) di un
numero abbastanza esiguo di individui, e sono affidate a
commissioni nazionali a tutti note che si assumono la responsabilità delle decisioni. Siamo quindi ben lontano dal famigerato sistema degli anonymous referees utilizzato in Italia nelle
valutazioni dei progetti. Certamente anche i membri di queste
commissioni saranno influenzati dai luoghi di pubblicazione
degli articoli che esaminano. Ma sono loro stessi responsabili
per il loro giudizio e non possono celarsi dietro arcane elaborazioni di numeri provenienti da banche dati di cui nessuno è in
grado di garantire l’affidabilità.
34
Note
1 Un’analisi statistica interessante si trova, ad esempio in Per O.
Seglen, Why the Impact Factor of Journals should not be used for evaluating
Research, in “British Medical Journal”, n. 314, 1997, pp. 498-502.
35
Chi ha paura della bibliometria?
Daniele Archibugi
Consiglio Nazionale delle Ricerche, Roma
London School of Economics and Political Science
Uno dei compiti principali degli scienziati è misurare i
fenomeni. Il progresso scientifico è andato avanti di pari passo
con la possibilità di raccogliere informazioni quantitative sulla
realtà. Nel corso dei secoli, queste informazioni sono vertiginosamente aumentate, sia in termini quantitativi (si raccolgono
dati su più problemi) che in termini qualitativi (i dati raccolti
diventano più affidabili e dettagliati). La metrica è stata uno dei
fattori più rilevanti del progresso scientifico, e la capacità
immaginativa degli scienziati è stata usata per misurare l’immisurabile. Gli studiosi non hanno solo inventato metodi per
pesare le patate, ma in tempi recenti la metrica si è estesa anche
a campi del tutto immateriali. Lo stress, il grado di democraticità di uno Stato, il quoziente intellettuale di un individuo,
perfino il sex appeal sono oggi oggetto di misurazione, eseguite
molto spesso da membri della comunità scientifica.
Gli studiosi giustificano la loro funzione sociale, e il fatto di
richiedere alla società di provvedere al proprio mantenimento,
anche perché svolgono il ruolo di misuratori. Pensiamo, ad
esempio, ai dati meteorologici: non sempre questi dati sono
collegati a modelli teorici, ma sono raccolti periodicamente per
37
ragioni descrittive. Spesso ci sono anche delle ragioni strumentali: gli accademici hanno, infatti, appreso che è più facile
ottenere un finanziamento se ci si propone di creare una nuova
banca dati piuttosto che per verificare qualche propria intuizione non compresa dal committente.
La mole di dati che hanno prodotto gli scienziati nel corso
degli ultimi due secoli è impressionante, così notevole che i
contribuenti hanno accettato di buon grado di mantenerli. I
dati, infatti, sono spesso di pubblico dominio, e anche quando
uno studioso li accumula e li utilizza per fini insoddisfacenti o
del tutto sbagliati, possono poi rivelarsi utilissimi per indagini
scientifiche di altra natura.
Difficile districarsi nell’universo dell’informazione statistica
disponibile. Molti di questi dati non sono di interesse generale,
ma possono essere vitali per specifiche categorie. Ad esempio,
suppongo che le agenzie di viaggi consultino con supremo
interesse i dati della Banca Mondiale sui flussi di turisti (World
Bank, World Development Indicators, Washington, D.C., 2003,
tab. 6.14), il nostro Ministro della Pubblica istruzione farebbe
bene a leggere con attenzione i dati relativi all’alfabetizzazione
pubblicati dalle Nazioni Unite (UNDP, Annual Report 2002,
Oxford, 2002, tab. 10), le femministe e i ministri per le Pari
opportunità dovrebbero trovare istruttivi i dati sulle differenze
esistenti nella speranza di vita alla nascita pubblicati dalle
Nazioni Unite (UNDP, cit., tab. 22).
L’utilizzazione dei dati spesso prescinde dalle ragioni per
cui essi sono stati raccolti e pubblicati. Ad esempio, i dati sul
numero di ascensori sono raccolti dalle imprese produttrici per
ragioni industriali. Eppure, queste informazioni statistiche si
dimostrarono molto utili per i programmi demografici delle
Nazioni Unite. Poiché due fattori determinanti della crescita
demografica sono il reddito e la concentrazione urbana, e
poiché gli ascensori sono positivamente correlati ad entrambi i
fattori, il numero degli ascensori si dimostrò utile per fare
proiezioni demografiche (più elevato è il numero di ascensori
in un’area e più è contenuto il suo tasso di sviluppo demografico). Il caso suscitò salutare ilarità: per risolvere il problema
demografico della Cina o dell’India – disse qualcuno – basta
dunque costruire molti ascensori nel mezzo delle campagne
più popolate?
Dietro la domanda c’era la solita incomprensione tra il
metro e il fenomeno: tutti noi, da bambini, abbiamo sperato di
farci passare la febbre rompendo il termometro o immergendo
la colonnina del mercurio nell’acqua gelata. Con la maturità,
che spesso non si raggiunge neppure frequentando un dottorato di ricerca, molti – ma non tutti – hanno appreso che la causalità è leggermente diversa.
Trovo sorprendente che la comunità scientifica, gruppo di
persone che giustifica la propria funzione sociale perché genera
dati, sia così spesso ostile alla raccolta di dati che riguardano se
stessa. Questa ostilità non è totale. Non mi è mai capitato di
incontrare ostilità perché si raccolgono dati sull’età media dei
docenti universitari, sulla loro suddivisione in uomini e donne,
sulla fascia retributiva. E sono sicuro che non ci sarebbero
contestazioni neppure se qualcuno volesse raccogliere informazioni sul numero di docenti che portano gli occhiali o che
vanno all’università in bicicletta.
Ma quando si tratta di produrre dati relativi alla produzione scientifica o didattica dei docenti, si scatena un fuoco di fila.
Un rappresentante degli studenti, raccolte le lagnanze dei suoi
colleghi sulle difficoltà a trovare un docente disposto a seguirli
per le tesi di laurea, propose durante un Consiglio di Facoltà di
affiggere in bacheca il numero di laureandi di ciascun docente:
provocò una cagnara tale che il Preside fu costretto a sospendere la seduta.
Ancora più forte è l’opposizione nei confronti degli indicatori bibliometrici. In questo caso, non si tratta di un indicatore
dell’attività didattica, ma dell’attività di ricerca scientifica. Il
38
39
nervo scoperto degli accademici è così sensibile che si arriva a
vere e proprie posizioni oscurantiste, quasi che la raccolta stessa
dei dati, prima ancora che la loro utilizzazione, sia un’offesa alla
comunità scientifica e all’onore personale degli studiosi.
Come si spiega questa reazione? Gli indicatori bibliometrici
hanno infiniti usi. Tra l’altro, possono essere utilizzati per
misurare:
1) la capacità scientifica dei Paesi (quante pubblicazioni ha
prodotto in un anno l’Italia e quante la Francia?);
2) la specializzazione scientifica di un Paese (qual è la quota
delle pubblicazioni italiane nel campo della matematica e
quale nel campo della fisica?);
3) le attività scientifiche svolte nelle varie regioni (quante
pubblicazioni scientifiche vengono generate in Sicilia e
quante in Sardegna?);
4) le attività scientifiche di una università, di una facoltà o di
un dipartimento, e metterle a confronto con altre istituzioni comparabili (quante sono le pubblicazioni dell’Università di Roma e quante quelle dell’Università di Madrid? E
qual è il rapporto tra i dipartimenti di economia di Roma e
Madrid?);
5) le interazioni tra i vari settori disciplinari (quanti sono gli
articoli di matematica citati negli articoli di fisica e viceversa?);
6) le dinamiche demografiche della comunità scientifica
(come è distribuita la produzione di articoli per fasce
d’età?);
7) le differenze per fasce di età tra le varie discipline (è vero
che i fisici danno contributi rilevanti molto più precocemente degli storici?);
8) le differenze per sesso (a quanto ammonta la produzione
femminile sul totale delle pubblicazioni, e quanto sta
aumentando in Svezia e in Turchia?);
9) le collaborazioni scientifiche internazionali (quante sono le
pubblicazioni in collaborazione tra italiani e tedeschi e tra
italiani e francesi?);
10) la produttività scientifica, qualitativa e quantitativa, di
ciascuno studioso (quanti articoli hanno pubblicato Tizio e
Caio? E quante volte sono stati citati dai loro colleghi?).
40
41
La lista è, ovviamente, del tutto insoddisfacente, e basterebbe prendere le annate delle riviste che si occupano di ‘scienza
della scienza’ (tra le quali “Research Policy”, “Scientometrics”,
“Science and Public Policy”, “Technological Forecasting and
Social Change”, “Science”, “Technology and Human Values”) o
anche riviste generaliste quali “Science” e “Nature” per rendersi conto che i dati bibliometrici possono essere usati per molti
altri scopi.
Tra tutti questi usi, l’ostilità della comunità scientifica è in
genere riservata ad un solo uso, il decimo. La ragione è assai
semplice: a nessuno, neppure agli accademici, piace essere
valutato. Il problema è tutt’altro che nuovo. Quando nel nostro
Paese le banche e gli uffici postali hanno tentato di contabilizzare il numero di operazioni svolte da ciascun impiegato
addetto allo sportello, i lavoratori si sono opposti. Gli impiegati hanno fatto presente che occorreva prendere in considerazione tanti fattori diversi, e che il solo conteggio delle operazioni,
ignorando il livello di istruzione dei clienti (all’analfabeta
bisogna scrivere il modulo, al commercialista no), non consentiva di considerare affidabile l’indicatore ‘numero di operazioni svolte’. Non credo che avessero torto: è probabile che in
alcune aree, dove il livello di istruzione dei clienti è più alto, ci
sia meno lavoro per gli impiegati e viceversa, così come è
probabile che fornire un estratto conto richieda meno tempo di
dare un libretto degli assegni.
Eppure, la mente allenata di un accademico (specie quando
si trova in fila per eseguire un’operazione in banca o alla posta)
ribatte subito a queste legittime obiezioni del sindacato bancario e dei postini facendo notare che si può ponderare per il
diverso grado di istruzione dei clienti, e anche per la macchinosità delle varie operazioni di sportello. Perché la stessa cosa
non dovrebbe essere valida per quanto riguarda i dati bibliometrici?
È sempre utile guardare alle fonti statistiche con il necessario senso critico. Prima di tutto, perché i dati possono sempre
essere migliorati, e resi più precisi e dettagliati. E poi, perché i
dati, come tutto ciò che è prodotto dagli esseri umani, possono
sempre essere manipolati. Ma nei confronti di questi problemi,
l’atteggiamento può essere duplice: da una parte c’è chi intende
buttare via il bambino con l’acqua sporca, dall’altra chi vuole
migliorare e magari controllare la qualità delle informazioni
fornite.
Recentemente, ad esempio, i dati sul tasso d’inflazione (uno
degli indicatori economici più rilevanti, e che ci dice qualcosa
di molto rilevante sull’andamento del nostro tenore di vita)
sono stati criticati da più parti. Non c’è stato nessuno che ha
sostenuto che bisognava smettere di raccogliere i dati sull’andamento dei prezzi, né che bisognava smettere di usare
quell’indicatore. Ma tutti hanno richiesto verifiche indipendenti ed una maggiore precisione nella raccolta dei dati.
Mi permetto allora di fare qualche osservazione rispetto a
quanto affermato da Alessandro Figà Talamanca nella sua nota
su Uso e abuso delle banche dati nella valutazione delle riviste e della
qualità scientifica: un problema di potere.
1) È certo che le informazioni bibliometriche sono un’indicazione di potere. Non ci avvertiva già Francesco Bacone che
il sapere è potere? Lo stesso vale per le statistiche sulla
produzione, sull’inflazione, sulla criminalità, sulle interruzioni volontarie di gravidanza, sui divorzi e sugli incidenti
stradali. Di fronte a questo potere – che può essere usato e
abusato – è necessario che la comunità scientifica mantenga
la propria autonomia, che si assuma determinate responsabilità etiche e che ci sia anche un controllo democratico,
esercitato dai vari portatori d’interesse. Ma in nessun caso è
tollerabile che una fonte di informazione, solo perché fonte
di potere, debba essere ignorata o accantonata.
2) Se la comunità scientifica si è fatta soffiare il mercato delle
riviste da case editrici profit, deve solamente rimproverare
se stessa. Alcune delle riviste più diffuse sono quelle delle
società accademiche non-profit; la diffusione della rivista ai
soci membri consente di conseguire elevate tirature a
prezzi unitari modici. Queste riviste sono spesso le più
trasparenti, quelle con l’impact factor più elevato e con la
maggiore selettività. In molti casi, queste riviste hanno
conti in attivo, fino al punto che possono finanziare borse
di studio o rendere alla comunità scientifica di riferimento
servizi ausiliari. Le preoccupazioni di Figà Talamanca sono
dunque condivisibili, ma dovrebbero portare la comunità
scientifica a riprendere un maggiore controllo sui frutti del
proprio lavoro. Gestire una rivista è un compito oneroso,
che spesso implica togliere lavoro allo studio, alla ricerca e
al tempo libero. Probabilmente, le case editrici commerciali sono diventate così potenti semplicemente perché la
comunità scientifica è stata troppo pigra. Prendiamocela
allora con la nostra pigrizia, piuttosto che con l’avidità
delle case editrici.
3) L’Institute of Scientific Information ha grandi meriti, che
generano anche molti rischi. Il merito è stato di aver
aggiunto una fonte d’informazione che, se ben adoperata,
è utilissima. Il rischio è che l’Istituto ha concentrato un
potere monopolistico (già Joseph Schumpeter faceva
presente che spesso gli innovatori che creano un nuovo
prodotto si ritrovano a gestire un monopolio). Ciò significa che l’accesso è troppo oneroso e che ci possono essere
discriminazioni dovute a ragioni commerciali. Come si
42
43
risponde ad una sfida proveniente da un monopolista, per
quanto abbia avuto il merito di essere un pioniere? Tramite
la creazione di fonti alternative. La rivoluzione informatica
ha reso molto più basso il costo e molto più facile l’accesso
alle fonti. In molti settori disciplinari esistono delle banche
dati che forniscono informazioni più ricche, accurate e
dettagliate di quelle fornite dall’ISI. È facile prevedere che
le fonti disponibili, anche grazie agli avanzamenti nelle
tecnologie dell’informazione e della comunicazione,
aumenteranno.
4) Non riesco a capire in che misura l’editore (commerciale) di
una rivista possa incidere sulle scelte editoriali. Sono
membro del comitato di redazione di sei riviste con editori
commerciali, e non ho mai subito pressioni. Se il fenomeno
si manifesta (e non si può escludere) credo che sia opportuno denunciarlo pubblicamente, con nomi e cognomi.
Sarebbe sufficiente a screditare la rivista in questione.
5) Nella sua requisitoria contro l’impact factor, Figà Talamanca
sovrappone la disponibilità dei dati con la loro eventuale
utilizzazione. L’osservazione secondo la quale una rivista
privilegia l’autocitazione è giusta (non fu già Woody Allen a
mettere in guardia dal pericolo di citarsi addosso?). Singoli
studiosi, studiosi appartenenti alla stessa scuola o addirittura allo stesso Paese, così come gruppi che appartengono allo
stesso collegio invisibile, hanno la brutta, ma altrettanto
inevitabile, tendenza a citarsi tra loro. Non sempre ciò
dipende da malafede: citiamo quel che leggiamo, e spesso
leggiamo le opere delle persone a noi più vicine fisicamente. Ma per quanto riguarda l’impact factor, è da molto tempo
che chi lavora con gli indicatori bibliometrici ha affrontato il
problema: è prassi abbastanza diffusa considerare l’impact
factor includendo e escludendo le autocitazioni (ciò vale sia per
i singoli studiosi che per le riviste). Se c’è una vistosa differenza tra i due impact factor (con e senza le autocitazioni),
l’autore o la rivista viene definito auto-referenziale. In italiano si potrebbe dire che l’autore, o la rivista, se la canta e se
la suona. Non è proprio un complimento. Il punto che
voglio sottolineare è che c’è sempre la possibilità, con
banalissimi accorgimenti statistici, di superare gli ostacoli,
qualora non ci sia una volontà preconcetta di sbarazzarsi
della bibliometria. Figà Talamanca sostiene che «la questione della affidabilità [degli indicatori bibliometrici] è in
qualche modo secondaria»; si sentirebbe di sostenere la
stessa cosa per le statistiche sul tasso d’inflazione o su quelle
epidemiologiche?
Ma veniamo al nocciolo del problema, quello che scatena i
sospetti di tanti, incluso Figà Talamanca: gli indicatori bibliometrici sono utili per la valutazione della ricerca?
Ad una domanda così generale non si può dare una risposta
secca. Una risposta esauriente sarebbe necessariamente più
lunga ed articolata di quanto possa essere qui formulata. Direi
che ovviamente dipende dagli obiettivi che si prefigge la
valutazione, dal metodo applicato, dall’area disciplinare e da
tanti altri elementi. Ma provo lo stesso ad indicare alcuni
capisaldi.
Qualsiasi valutazione è meglio di nessuna valutazione. Valutare
la ricerca scientifica, come valutare qualsiasi altra attività
umana, richiede elevata responsabilità. Si ha a che fare con la
vita di esseri umani, e la cautela è d’obbligo. Ma i refrattari alla
valutazione spesso ignorano che l’assenza di valutazione è essa
stessa un tipo di valutazione, e che tra tutte è quella peggiore. I
finanziamenti pubblici per l’università e la ricerca sono comunque allocati, si fanno i concorsi e nuovi studiosi entrano nel
mondo accademico (mentre altri ne rimangono fuori) e quelli
esistenti sono promossi (mentre altri non sono promossi). Tutte
queste scelte comportano una valutazione. La valutazione può
essere casuale (le assunzioni o le promozioni si fanno tramite
44
45
sorteggio), può basarsi su criteri extra-scientifici (è assunto o
promosso il più fedele, il più bello, il figlio dell’amico o l’amica
del collega) o su criteri scientifici (è assunto il più promettente e
promosso il più bravo). Non credo che ci sia qualcuno che è oggi
soddisfatto dei criteri di valutazione esistenti nel mondo
accademico italiano. S’impone quindi la domanda: può l’attuale valutazione, essenzialmente composta dai giudizi dei più
anziani e al di fuori di qualsiasi controllo esterno, essere migliorata? La mia riposta è che, per evitare il già evidente declino
della scienza italiana, essa debba e possa essere migliorata.
La valutazione non si fa automaticamente. In nessun Paese del
mondo, neppure nel mondo anglosassone (dove pure se ne fa
largo abuso), gli indicatori bibliometrici e il temutissimo impact
factor vengono utilizzati in modo automatico. Nessuno pensa,
per fortuna, che una banca dati bibliometrica possa o debba
sostituire la capacità critica dei colleghi. Solamente in un Paese
a rapida trasformazione come la Spagna sono stati introdotti
criteri più rigidi, ma sempre subordinati ad un giudizio individuale. La polemica di Figà Talamanca mi sembra dunque fuori
bersaglio: rivela timori atavici più di quanto sia una critica nei
confronti di pratiche valutative esistenti in Italia o in qualsiasi
altra parte del mondo.
Le banche dati bibliometriche forniscono informazioni estremamente valide. Sarebbe però insensato ignorare le informazioni
provenienti dagli indicatori bibliometrici. In molti casi, queste
informazioni aiutano a compiere scelte più consapevoli. Nel
caso in cui una Facoltà debba chiamare un nuovo docente, e la
materia del docente non è quella nella quale siamo competenti, perché dobbiamo rimetterci esclusivamente al parere di un
collega? Non è più sensato verificare se le informazioni che ci
sono fornite dal collega (che in genere è colui che lo propone)
trovano anche un riscontro nella letteratura accademica? Lo
stesso vale per i concorsi accademici. Non è opportuno
valutare congiuntamente le pubblicazioni presentate ad un
concorso e il riscontro che hanno avuto nelle riviste internazionali?
La miglior valutazione si deve basare su criteri multipli. Sappiamo bene che tutti i criteri di valutazione sono soggetti a
manipolazione. Anche senza che ci sia una malafede, i ‘valutandi’ si aggiustano ai criteri di valutazione. Se tra i criteri di
valutazione di un sistema accademico si dà un peso privilegiato agli articoli pubblicati in collaborazione con studiosi di altri
Paesi, è naturale che i valutandi inizieranno a ricercare collaboratori al di fuori delle frontiere. Per questo, è importante che i
criteri di valutazione non siano solamente degli indicatori, ma
anche degli obiettivi. La valutazione esclusivamente quantitativa genera una proliferazione di pubblicazioni che diventa difficile leggere. I Research Councils britannici hanno opportunamente limitato il numero delle pubblicazioni che ciascun
studioso può sottoporre alla valutazione periodica. L’effetto è
stato quello di premiare la qualità, piuttosto che la quantità.
Una valutazione efficace si deve basare su vari criteri. Le
lettere di referenza (lì dove sono previste), le pubblicazioni, la
capacità di dirigere progetti di ricerca, la capacità didattica,
l’abilità nel formare nuovi ricercatori, l’impatto ottenuto con il
proprio lavoro sono tutti criteri che dovrebbero essere tenuti in
considerazione. Poiché il gruppo dei valutati si adegua facilmente («fatta la legge, trovato l’imbroglio», direbbero i più
scettici), non è insensato cambiare frequentemente i criteri della
valutazione.
46
47
Purtroppo, la strada che deve compiere l’accademia italiana
prima di giungere ad una valutazione consapevole e comparabile a quella esistente in altri Paesi è ancora molta. Il cammino
è arduo, e credo che le energie disponibili debbano essere
utilizzate per denunciare l’assenza di una cultura della valutazione, piuttosto che per screditare fonti statistiche che, per
quanto imperfette, sono strumenti utili.
Nota di commento di Alessandro Figà Talamanca
L’intervento di Daniele Archibugi è in gran parte condivisibile, anche quando polemizza con posizioni che mi attribuisce, e
che non mi sembra di sostenere.
C’è spazio però per alcuni commenti alle sue argomentazioni.
Non c’è dubbio che il progresso scientifico sia andato di pari
passo con la possibilità di raccogliere informazioni quantitative
sulla realtà. Ma solo a patto che le variabili misurate siano
rilevanti e, possibilmente, si inseriscano in un modello capace di
spiegare la realtà osservata. La classificazione del mondo animale
di Linneo sorprende ancora per la sua aderenza a dati, in ultima
analisi quantitativi (sul genoma), che egli non poteva misurare.
Ma se, preso dall’ansia di misurare, Linneo avesse basato la sua
classificazione sul peso degli animali non avrebbe certo potuto
riconoscere nel gatto un parente stretto del leone. Magari il gatto
sarebbe stato classificato assieme al coniglio ed il leone assieme al
bue. Un secolo fa una delle discipline più importanti e ‘moderne’
era senza dubbio l’‘antropometria’, basata sulle misurazioni dei
crani, e degli arti degli esseri umani. Eppure, nonostante l’accuratezza delle misure, e l’ingegno degli scienziati che la coltivavano, l’antropometria non ha portato ad alcun progresso nella
conoscenza dell’umanità. Giustamente questa disciplina scientifica è caduta nel dimenticatoio. Tutti speriamo che questo non
accada alla scientometria, ma ne siamo proprio sicuri?
Ha proprio ragione Daniele Archibugi quando dice che è
necessario guardare alle fonti statistiche con il necessario senso
critico, ma che non bisogna buttare via il bambino con l’acqua
sporca. Tuttavia per me il ‘bambino’ è una banca dati accurata e
affidabile come quella dell’American Mathematical Society
(AMS) che si riferisce a tutta la produzione matematica mondiale, e l’acqua sporca è la banca dati dell’Institute for Scientific
Information. La differenza è, in massima parte, dovuta agli scopi
che si propongono le organizzazioni che curano la raccolta dei
dati. L’ISI si propone, come ogni azienda privata, di arricchire i
suoi azionisti, e l’AMS di essere utile allo sviluppo delle scienze
matematiche. Sono d’accordissimo sulla necessità di creare fonti
alternative all’ISI. Quando i dati servono per valutazioni effettuate da un soggetto pubblico è indispensabile che siano completi e
affidabili. Per questo è importante creare una banca dati ufficiale
ed affidabile della produzione scientifica pubblica in Italia che ci
consenta finalmente di buttar via l’acqua sporca e mettere alla
porta i suoi zelanti venditori.
Osservo anche che denunce, con nomi e cognomi, di direttori
di riviste che hanno sollecitato dagli autori citazioni di articoli
della stessa rivista hanno, per ora, prodotto solo difese d’ufficio
da parte dell’ex proprietario dell’ISI (E. Garfield, lettera pubblicata dal “British Medical Journal”, 1997; 314:1756, 14 june, dal titolo
Editors are justified in asking authors to cite equivalent references from
the same journal). Basta comunque poco per mettere in riga gli
autori sempre desiderosi di compiacere i direttori delle riviste. Un
buon sistema di estorsione non ha bisogno di atti dimostrativi.
Sono completamente d’accordo con Archibugi quando
auspica che i criteri di valutazione non siano solo degli indicatori, ma anche degli obiettivi. Proprio per questo egli dovrebbe
essere d’accordo con me quando dico che un indicatore di qualità
dovrebbe essere giudicato principalmente sulla base dei comportamenti cui dà luogo. Se gli obiettivi che ci si propone fossero
quelli di moltiplicare il numero delle pubblicazioni scientifiche,
moltiplicare il numero delle riviste scientifiche ‘di grande prestigio internazionale’, moltiplicare il numero delle citazioni, senza
riguardo al loro contenuto, e comunque, arricchire gli azionisti
dell’ISI, anche l’impact factor risulterebbe un buon indice per
misurare qualcosa che si potrebbe anche convenzionalmente
definire ‘qualità’. Dopotutto un nome è un nome e, come dice
Giulietta: «That which we call a rose by any other name would
smell as sweet» (W. Shakespeare, Romeo and Juliet, Act II, Scene II).
48
49
Indicatori di qualità delle pubblicazioni
scientifiche ed open access
Anna Maria Tammaro
Università degli Studi di Parma
Dipartimento dei Beni Culturali e dello Spettacolo
Introduzione
Nella società dell’informazione, in cui tutti i membri sono
attivamente impegnati nell’accesso alla conoscenza, si confrontano due diversi concetti di accesso: il primo che vede una disseminazione lineare della conoscenza a precisi target, l’altro che si
basa su un accesso aperto ed interattivo1. Anche nei sistemi di
valutazione della qualità delle pubblicazioni scientifiche esistono due diversi approcci, quello tradizionale e quello open access,
che ci si propone di descrivere come chiave di comprensione
delle dinamiche in corso nella comunità scientifica e soprattutto
come motivazione delle ragioni per cui si dovrebbero adottare
soluzioni aperte nel prossimo futuro. Si può qui anticipare che i
due approcci hanno finalità diverse e complementari e non si
intendono quindi presentare come contrapposti, ma come un
continuum che caratterizza l’attuale periodo di transizione.
C’è oggi un nuovo scenario per la comunicazione scientifica
che vive un periodo di grandi cambiamenti, come l’incertezza
del modello economico delle pubblicazioni scientifiche, l’im-
51
patto delle nuove tecnologie, le nuove attitudini dell’utenza
nella ricerca dell’informazione. L’attuale ricerca sui sistemi di
valutazione2 delle pubblicazioni scientifiche dà maggiore
importanza che in passato agli indicatori politici, intesi come
comprensione delle implicazioni politiche per i risultati della
ricerca e come necessità di maggiore apertura alla società.
Tuttavia, la valutazione nell’attuale sistema delle pubblicazioni
scientifiche, peraltro riconosciuto da molti come costoso ed
inefficace, si basa sul fatto che la qualità non possa essere
quantificata. Dall’analitica rassegna di Borgmann e Furner
sulla bibliometria (2002) si evidenzia che il sistema di valutazione delle pubblicazioni scientifiche determina molti dei
comportamenti conservativi degli autori. In altre parole, il
riconoscimento che gli autori si aspettano dalle pubblicazioni
potrebbe essere considerato un fattore chiave per il cambiamento del tradizionale ciclo di creazione, disseminazione ed
uso delle pubblicazioni scientifiche.
I cambiamenti esternamente più evidenti nella comunicazione scientifica sono dovuti all’impatto delle nuove tecnologie
dell’informazione e della comunicazione (ICT), come la
comunicazione informale attraverso la posta elettronica, la
collaborazione a progetti comuni a grandi distanze, la pubblicazione e la disseminazione delle pubblicazioni usando il web
ed i collegamenti ipertestuali tra articoli. Eppure questi cambiamenti di tecnologia non sembra che abbiano parallelamente
cambiato il comportamento degli autori scientifici (Kling,
McKim, 1999; Borgmann, Furner, 2002) che continuano ad
usare il canale preferenziale delle pubblicazioni a stampa.
Hanno tuttavia un grande impatto sui lettori di pubblicazioni
scientifiche, cioè soprattutto gli accademici come lettori,
facendo prevedere in futuro un’importanza maggiore di oggi
degli studi sull’utenza per la valutazione di qualità delle
pubblicazioni scientifiche (Rowlands, 2003).
Chi deve prendere decisioni politiche ha necessità diverse dai
lettori e dagli autori. Lo scopo dei politici è quello di capire il
vero impatto della produzione di conoscenza. Molti degli indicatori politici sono basati su misure di input e tendono all’efficienza. Le ristrettezze economiche spingono ad una maggiore trasparenza dei risultati della ricerca scientifica, anche per concentrare
le risorse in centri di eccellenza che sembrano ottenere migliori
rapporti costi/benefici. Questo non significa tuttavia che ci sia
sfiducia nell’attività di ricerca e che si vogliano quindi operare
dei controlli; all’opposto l’atteggiamento dell’opinione pubblica
in Europa è molto favorevole nei confronti della scienza, che
viene percepita alla base dello sviluppo economico e sociale. Per
Rowlands (2003) indicatori meramente economici non sono
soddisfacenti per la valutazione di qualità; ci si dovrebbe chiedere ad esempio: «Quali sono i collegamenti tra la ricerca ed un
migliore stato di salute?». Lo sviluppo attuale di indicatori di
qualità per le pubblicazioni scientifiche si può dire che rifletta il
rinnovato interesse della società per la ricerca scientifica. L’esigenza per i politici è quella di strumenti metodologici ancora più
flessibili ed analitici degli attuali indicatori bibliometrici.
52
53
Indicatori di qualità delle pubblicazioni scientifiche
La qualità è un concetto contestato ed ha diversi significati
per i diversi interessati (stakeholders)3. In mancanza però di un
modello di riferimento ed anche di linee guida condivise sulla
valutazione della ricerca scientifica, l’analisi dei risultati si basa
su un ventaglio di indicatori che vengono classificati spesso in
opposizione reciproca: indicatori quantitativi vs qualitativi,
indicatori di fattori produttivi (input) vs indicatori di prodotti
(output), indicatori di ricerca scientifica vs di ricerca tecnologica (De Marchi, Rocchi, 2000).
Il presente lavoro vuole essere una rassegna bibliografica
sugli indicatori di qualità delle pubblicazioni scientifiche, senza
pretesa di esaustività, ma descrivendo le opportunità e le
debolezze degli indicatori, nella transizione alle pubblicazioni
scientifiche in ambito web, per arrivare a definire le problematiche e gli ostacoli da rimuovere nell’ottica dell’apertura e della
migliore comunicazione tra politici, industria e comunità scientifica. Lo scopo è in particolare quello di focalizzare la nuova situazione creata dall’accesso aperto (open access), che ha delle implicazioni molto importanti per la scelta degli indicatori di qualità.
In sostanza, occorre capire la transizione al digitale e l’impatto
che questo avrà nella disseminazione della conoscenza.
Il modello usato per la valutazione delle pubblicazioni
scientifiche è rappresentato schematicamente nella Fig. 1.
Gli indicatori di qualità delle pubblicazioni scientifiche sono
qui rappresentati come un continuum rispetto a due importanti
variabili:
X: Giudizio chiuso o aperto: sono o non sono esplicitati criteri,
metodi e scelte interpretative. Ci si rifà al concetto di accesso,
inteso o come trasmissione lineare o come interazione e
negoziazione aperta.
Y: Autovalutazione o valutazione esterna: la valutazione può
essere interna o esterna alla comunità scientifica. In un’ottica di
apertura, la combinazione dei due approcci è inevitabile.
Il diagramma ha lo scopo di rappresentare in modo visivo le
caratteristiche fondamentali dei più diffusi sistemi di valutazione di qualità delle pubblicazioni scientifiche, che verranno
in seguito ampiamente descritti. In particolare, bisogna riconoscere i fattori in gioco che incidono sui giudizi di qualità:
Criteri della valutazione: spesso impliciti, sono strettamente
legati agli obiettivi della valutazione che i diversi stakeholders
hanno nel definire la qualità. Possono essere imposti, come nel
caso della valutazione esterna, o autodeterminati, come nel
caso della valutazione interna. Una terza possibilità potrebbe
prevedere la combinazione di criteri interni ed esterni alla
comunità scientifica, ad esempio con il riuso di indicatori di
qualità per scopi diversi.
Metodologia della misurazione: anch’essa strettamente legata
ai criteri ed agli obiettivi della valutazione, riguarda in particolare cosa viene misurato e come viene misurato (la raccolta dei
dati). Può essere controllata completamente nella valutazione
interna o autovalutazione oppure essere basata su una raccolta
di dati controllata dall’esterno.
Analisi dei risultati: non è mai ‘obiettiva’, come si tende a
definire in modo semplicistico, ma la sua scientificità deve
basarsi su criteri chiaramente espressi e su una metodologia
ben definita. In questo senso può definirsi aperta o negoziata
un’interpretazione che, oltre ad essere trasparente nel processo
seguito, consente un’interazione positiva con altri valutatori ed
i valutati e soprattutto con altri giudizi di qualità. In questo
senso, il giudizio aperto o chiuso si intende con la più generica
54
55
Figura. 1 Modello per la valutazione
delle pubblicazioni scientifiche
formulazione, sostanzialmente ingannevole, di giudizio
soggettivo e giudizio oggettivo.
Sinteticamente, gli attuali sistemi di indicatori di qualità
delle pubblicazioni scientifiche possono essere così definiti:
Tabella 1. Schema degli indicatori e giudizi per la valutazione
delle pubblicazioni scientifiche
Il sistema della comunicazione scientifica si è finora basato
prevalentemente sui giudizi di merito degli esperti, attuata
attraverso la peer review4 delle pubblicazioni. È detta valutazione formativa perché condotta nella fase ex ante, per evidenziare ed eventualmente correggere eventuali difetti, ma viene
ampiamente usata anche per la valutazione successiva alla
pubblicazione. Questo modo di filtrare la qualità ha lo scopo di
migliorare le pubblicazioni scientifiche. Il paradosso che viene
evidenziato è che la comunità scientifica, che usa da così lungo
tempo e sembra condividere determinati valori e criteri per la
valutazione delle pubblicazioni scientifiche, non sia riuscita a
comunicare questi valori di qualità al di fuori della comunità
stessa e, in particolare, ai detentori di scelte politiche ed all’opinione pubblica in genere.
Il sistema delle pubblicazioni scientifiche, a partire dagli
anni Settanta, è stato oggetto di analisi da parte della biblio-
56
metria, disciplina basata sullo studio quantitativo delle
pubblicazioni, al fine di derivarne indicatori rilevanti e
soprattutto indicatori politici per attuare una comparazione
nazionale ed internazionale (utili a prendere decisioni o a
distribuire finanziamenti). Gli indicatori bibliometrici o
quantitativi sono stati in particolare oggetto di una vivace ed
animata discussione, soprattutto quando, al ridursi del
budget, sono stati usati per la distribuzione dei finanziamenti. Sono stati spesso contrapposti agli indicatori qualitativi ed
all’autovalutazione. Entrambi i metodi hanno punti di forza
e punti di debolezza. Nel caso di indicatori meramente
bibliometrici non si è in grado di valutare la reale qualità
delle singole pubblicazioni, nel caso del giudizio di merito si
configura il rischio della autoreferenzialità, o i perversi effetti
di chiusura alle novità ad opera di scuole di pensiero
dominanti.
A livello nazionale, un giusto equilibrio è stato espresso dal
Comitato di Indirizzo per la Valutazione della Ricerca (CIVR)5:
La valutazione della ricerca è un processo fondato sull’analisi di
dati ed informazioni che conduce ad un giudizio di merito. L’obiettività della procedura presuppone:
– criteri e metodologie pre-definiti
– valutatori esterni alla struttura da valutare.
È evidente che sarà necessario arrivare ad una combinazione di analisi quantitative e di giudizi di merito, anche usando
le nuove opportunità delle tecnologie. Nel passaggio al web
della comunicazione scientifica, con lo stabilirsi di nuovi
modelli di pubblicazioni, sono emersi nuovi modi di valutazione di qualità in linea e nuove opportunità di analisi, ancora non
ben radicati sia nella comunità scientifica che tra i politici.
Quali sono gli ostacoli e le barriere al cambiamento del sistema
di valutazione? Occorre porsi alcune domande fondamentali:
Cosa si valuta? Come si valuta?
57
Cosa si valuta? Caratteristiche e tipologie
delle pubblicazioni scientifiche
La ricerca scientifica è portata avanti in un flusso di scambi
continui tra gli autori, chiamato propriamente comunicazione
scientifica. La definizione di Pierce evidenzia che la pubblicazione scientifica è un’attività essenziale della comunicazione
scientifica, in cui gli studiosi sono legati da relazioni e collegamenti. Tuttavia, ancor prima di arrivare ad una pubblicazione,
l’invisible college degli studiosi condivide e discute idee ed
ipotesi di ricerca, attraverso vari canali comunicativi, come i
convegni, la corrispondenza, i contatti personali ed attualmente usando le opportunità comunicative di Internet. In molte
discipline si è da tempo affermato un sistema di scambio di preprint, pubblicazioni in bozza, inviate ad altri autori specializzati per ricevere commenti e suggerimenti. Da questa modalità
comunicativa ha preso recentemente avvio il fenomeno più
innovativo di comunicazione scientifica: i depositi di e-print
distribuiti via web, definiti enfaticamente subversive proposal ma
che stentano a diffondersi al di fuori di alcune discipline.
Una caratteristica delle pubblicazioni scientifiche è il
sistema delle citazioni. Il sistema fa parte integrante, e secondo
alcuni necessaria, della metodologia scientifica, insieme alla
verificabilità della metodologia usata. Gardfield (1955) ha
prodotto uno schema con le quindici ragioni per cui gli autori
citano altri autori, in cui presume tra i principali motivi che
l’autore voglia citare:
– tutte quelle opere necessarie per definire lo stato dell’arte
della disciplina;
– le opere di qualità ed in ogni caso quelle opere da cui ha
ricevuto un contributo.
Questo schema tuttavia non è basato su metodi di ricerca ma
costruito in base alle intuizioni dell’autore, ed è stato successivamente il criterio fondante degli indicatori bibliometrici citazionali (Trasmissione d’élite o accesso alle conoscenze?, 2002). Nessun
lavoro scientifico verrebbe considerato tale se non facesse uso di
citazioni, secondo l’uso particolare della singola disciplina. Si
potrebbe dire che la comunicazione scientifica è come un tessuto,
in cui la pubblicazione scientifica rappresenta la trama, mentre il
sistema delle citazioni ne rappresenta l’ordito.
Secondo De Solla Price (1970) uno scienziato è: «any person
who has ever published a scientific paper». È sempre di Price la
frase «publish or perish», che viene spesso citata per dar conto
dell’attuale aumento incontrollato delle pubblicazioni scientifiche per settori sempre più specialistici (uno dei fattori più
importanti peraltro che ha portato all’aumento incontrollato
dei prezzi). Ci si potrebbe chiedere, considerato che la comunicazione è strettamente indirizzata a quei pochi ben conosciuti
che si interessano dello stesso settore, quale sia la necessità per
gli autori di rendere pubblici a tutti (significato letterale di
pubblicare) i loro risultati.
Le motivazioni che spingono gli autori a pubblicare sono
58
59
Le pubblicazioni scientifiche giustificano di per sé la loro
esistenza, tuttavia, se considerate come l’oggetto della valutazione di qualità della ricerca scientifica, occorre definirne le
caratteristiche e le peculiarità che le distinguono dalle pubblicazioni in genere.
Pierce (1980) focalizza quello che dovrebbe essere la caratteristica di base della pubblicazione scientifica:
not a piece of information, but an expression of the state of the
scholar or group of scholars at a particular time. We do not, contrary
to superstition, publish a fact, a theory, or a finding, but some complex
of these. A scientific paper is, at the same time more and less than a
concept or a datum or a hypothesis. If the paper is an expression of a
person or several persons working in the research front, we can tell
something about the relations among the people from the papers
themselves.
molteplici e sono state esaminate criticamente dalla letteratura
sull’argomento. Molti degli autori scientifici hanno una
motivazione intrinseca alla ricerca scientifica, cioè vogliono
condividere i loro risultati con quelli di altri studiosi della
stessa specializzazione, in un circuito spesso molto settoriale, in
cui la priorità è la ‘disseminazione’, cioè l’avanzamento delle
idee e della ricerca e non la diffusione al pubblico più vasto dei
risultati ottenuti o propriamente ‘divulgazione’. La diffusione è
molto più complessa della disseminazione, meno coordinabile,
almeno coi mezzi della tradizionale pubblicazione a stampa, e
difficilmente controllabile centralmente (Warner, 2003). Cronin
(1996) e Diamond (2000) hanno notato una correlazione tra
produttività (intesa come numero di lavori pubblicati), citazioni ricevute e salari: questo per evidenziare che, oltre alla
motivazione intrinseca detta sopra, deve essere considerata
una motivazione economica estrinseca.
Gli autori producono le pubblicazioni scientifiche essenzialmente per ottenere tre obiettivi (Okubo, 1997):
– diffondere la conoscenza scientifica;
– registrare la nuova conoscenza prodotta dalle loro ricerche;
– ottenere un impatto e, di conseguenza, un qualche riconoscimento.
La registrazione di una pubblicazione è realizzata al fine della
conoscenza della pubblicazione, necessaria per attivare il sistema
di indicizzazione che organizza la pubblicazione nel sistema
scientifico. È anche indirettamente una protezione da plagio e la
certificazione di priorità da parte dell’autore. Gli autori infatti
mettono a disposizione il loro lavoro, ma non vogliono venirne
defraudati. Infine ha lo scopo della conservazione nel tempo in
depositi designati, come ad esempio le biblioteche.
Il primo interesse di un autore di una pubblicazione è quello
di avere un impatto e quindi di trovare il forum più adatto che
lo metta in comunicazione con la ristretta cerchia degli altri
studiosi e gli faccia ottenere l’impatto ed il giusto riconosci-
mento del suo lavoro. Kling e McKim (1999) evidenziano che
l’interesse degli autori è quello di scegliere la tipologia di
pubblicazione e l’editore capace di far loro ottenere dalla
pubblicazione tre vantaggi:
– pubblicità,
– facilità di accesso,
– autorevolezza.
Nel selezionare una testata di periodico, un editore, o anche
attualmente un deposito istituzionale in Internet, l’autore fa un
più o meno consapevole giudizio di merito, anche basato a
volte sull’impact factor (Borgmann, Furner, 2002). Finora hanno
rivestito questo ruolo di forum privilegiato di comunicazione i
periodici scientifici. Ci sono tuttavia grosse differenze disciplinari: per alcuni settori, ad esempio nell’area umanistica, le
pubblicazioni più importanti sono le monografie, per altri
settori come l’informatica sono gli atti dei convegni. Queste
differenze disciplinari sono legate al tipo di struttura della
comunicazione nelle specifiche aree e non mutano al cambiamento del supporto informativo.
Un quarto obiettivo è individuato da altri autori (Ziman,
1968; Ravetz, 1973; Meadows, 1974):
– controllo di qualità.
Di fronte a tante pubblicazioni che possono venire prodotte,
cosa infatti può difendere il lettore dalla vanity press, cioè da
pubblicazioni non corrispondenti ai canoni di scientificità stabiliti dalla comunità e realizzate con finalità di vantaggi esclusivamente personali? Si presume quindi che il ciclo editoriale delle
pubblicazioni sia un filtro di qualità che garantisce il lettore, e
questo filtro è attuato soprattutto attraverso la peer review.
Molti degli indicatori di qualità attualmente in uso sono
stati costruiti quasi esclusivamente sugli articoli dei periodici
scientifici; tuttavia, per le caratteristiche e le differenze disciplinari della comunicazione scientifica che sono state già evidenziate, bisognerà tenere conto di una diversa tipologia di pubbli-
60
61
cazioni scientifiche che vengono considerate dai diversi ambiti
disciplinari, oltre che del peso da dare a ciascun tipo di pubblicazione. Ad esempio Le linee guida per la Valutazione della ricerca
del CIVR (2003) identificano come prodotto di ricerca: 1) libri e
capitoli di libri, 2) articoli su riviste. Non comprendono attività
genericamente editoriali, testi o software per uso didattico,
abstract di conferenze, rapporti tecnici interni. Un sistema
generalistico di valutazione incontrerà necessariamente delle
difficoltà di adozione. Il discorso è a maggior ragione rilevante
per le pubblicazioni elettroniche.
Come sarà misurata la qualità delle pubblicazioni scientifiche in ambito digitale? La transizione alle pubblicazioni digitali
(Tammaro, 2001a) è caratterizzata da nuove tipologie di
documenti (siti web e portali, blog, articoli aggregati in depositi, ecc.), nuovi modi di archiviazione (biblioteche digitali,
depositi istituzionali), nuovi modalità di ricerca dell’informazione (collegamenti ipertestuali), nuovi modelli economici (payper-view, pagamento da parte dell’autore, ecc.), nuove funzioni
editoriali (disaggregazione di funzioni, aggregazioni di interfacce di accesso, ecc.). Questi sviluppi stanno trasformando
completamente la comunicazione scientifica ed offrono grandi
opportunità per nuovi indicatori più attenti alle esigenze di
apertura ed integrazione. Il recente studio To publish or to perish
(1998), pubblicato come risultato della discussione di alcuni
responsabili di università e biblioteche promossa dall’ARL
(Association of Research Libraries) e dall’AAU (Association of
Universities), elenca tra le altre le seguenti conclusioni:
– ci dovrà essere più enfasi sulla qualità delle pubblicazioni
piuttosto che sulla quantità;
– la diffusione delle pubblicazioni scientifiche sarà sempre di
più realizzata attraverso Internet;
– dovrà essere tenuta distinta la funzione di registrazione
della pubblicazione e quella della certificazione di qualità,
attualmente integrate nella peer review.
L’esperienza già assai ricca delle pubblicazioni su Web è in
una fase ancora di grande evoluzione ed ha evidenziato che
non tutte le funzioni ed i ruoli della tradizionale editoria scientifica continueranno nello stesso modo nell’editoria digitale; in
particolare qui interessa evidenziare che alcune funzioni, come
l’identificazione della pubblicazione (Lynch, 1998) potranno
essere non più come ora aggregate a livello di editore o di
testata del periodico scientifico e alcuni degli attori nel ciclo
delle pubblicazioni, come le biblioteche, potranno aggiungere
nuove attività in un continuum che vede il ciclo della pubblicazione scientifica sempre più aperto e completamente in linea
(Tammaro, 1999).
Da questi presupposti, derivano alcune conseguenze:
– che gli autori scientifici hanno diverse motivazioni che li
spingono a pubblicare, nel senso letterale di rendere pubblici, i risultati della loro attività di ricerca;
– che deve essere registrata la nuova conoscenza come
creazione personale di uno scienziato; il solo modo per
ottenere questa protezione, almeno finora, è quella di realizzare una pubblicazione (Merton, 2000);
– che ci deve essere un impatto nel resto della comunità scientifica, realizzabile attraverso la disseminazione più ampia
della pubblicazione ed il sistema citazionale;
– inoltre l’impatto dell’opera dovrebbe costituire anche la
base di un sistema di riconoscimento all’autore, come ad
esempio un avanzamento di carriera.
62
63
Come si valuta? Peer review ed open commentary
Peer review.
Sono in molti a chiedersi se la peer review sia un efficace
sistema di controllo di qualità. Il lavoro più recente è quello di
Williamson (2002), la quale fa parte della comunità degli autori
biomedici che più di ogni altra si è interessata al problema e che
ha stabilito a Locknet nel 1994 un forum in linea per la discussione della peer review. L’autrice fa una sintesi delle possibili
manchevolezze della procedura, classificate come:
– Soggettività: riguarda il rifiuto sommario da parte del direttore della rivista anche senza mandare il lavoro ai recensori,
o la scelta da parte del direttore editoriale di recensori che si
prevede che confermino la scelta di respingere il lavoro che
lui ha già fatto.
– Malafede: riguarda ogni discriminazione contro gli autori a
causa della loro nazionalità, lingua, genere o istituzione di
appartenenza; può anche accadere che recensore ed autore
appartengano a scuole diverse di pensiero.
– Abuso: da parte degli autori riguarda il produrre diversi
articoli con lo stesso risultato di ricerca o la duplicazione di
pubblicazioni; include anche l’omissione o la subordinazione del nome di giovani autori da parte di ricercatori anziani;
da parte dei recensori include il plagio (copiare idee di
lavori non pubblicati di cui sono venuti in possesso per
recensirli) e il deliberato ritardo nella pubblicazione di
lavori potenzialmente competitivi.
– Difetti di indagine: riguarda la reale capacità o meglio
incapacità di evidenziare gli errori nel lavoro.
– Frode e cattiva condotta: comprende gli inganni di quegli
autori che fabbricano risultati, falsificano i dati e si appropriano di risultati altrui pur essendo ben consapevoli che le
idee riportate non sono loro.
Williamson fa una serie di suggerimenti per migliorare la
peer review, come adottare l’open peer review, cioè la peer review
attuata in linea, in cui sono conosciuti i nomi sia dei recensori
che degli autori; questo può aiutare a ridurre gli abusi, inoltre
dà un riconoscimento ai recensori ed aiuta a ridurre i tempi di
attesa della pubblicazione se realizzata in linea. Soggettività,
malafede e difetti di indagine possono inoltre essere evitati
dando ai recensori una checklist standard da completare con il
loro giudizio, invece di lasciare libero l’esperto di dire quel che
crede (Weller, 2001).
Alcune indagini di opinione degli autori accademici hanno
rivelato una quasi completa unanimità nel ritenere il mantenimento della peer review come primaria necessità per la qualità
delle pubblicazioni scientifiche (McKnight, Price, 1999; ALPSP,
1999, 2001, 2002; Tammaro 2002b; Whitfield, Peters, 2000).
Nell’indagine di McKnight e Price il 94% delle risposte
hanno detto di considerare importante la peer review nei periodici su carta, ma solo il 46% ha detto di ritenerla ancora importante per i periodici elettronici. L’Association of Learned and
Professional Society Publishers (ALPSP) ha effettuato nel 1999
uno studio dal titolo What authors want che è diventato un
punto di riferimento, recentemente aggiornato (ALSP, 2002).
Nello studio del 1999 circa il 70% degli autori si è dichiarato
soddisfatto o molto soddisfatto del sistema di peer review in uso,
anche se, in una ulteriore domanda sugli ostacoli da superare
per la pubblicazione, il 52% ha elencato la peer review. Nell’aggiornamento allo studio è stato chiesto agli intervistati di dire
la propria opinione sulla peer review sia come autori che come
lettori di pubblicazioni scientifiche. Il risultato dell’indagine ha
dimostrato che come lettori l’80% ritiene ancora importante la
peer review e che come autori la percentuale è praticamente la
stessa: 81%. Tuttavia alla domanda di prevedere quale sarebbe
stato il sistema più comune di controllo di qualità dopo cinque
anni, il 45% ha risposto di aspettare dei cambiamenti, il 27%
riteneva che la peer review sarebbe stata combinata con i
commenti aperti in linea (open peer commentary) dopo la pubblicazione e 16% ha detto di ritenere che i recensori non sarebbero più stati anonimi. È importante notare che solo 1% ha risposto che ci sarebbero stati solo i commenti in linea senza alcuna
peer review. Un secondo studio dell’ALSP in collaborazione con
EASE, European Association of Scientific Editors (ALSP/EASE,
64
65
2001), è in particolare dedicato alla peer review ed indirizzato
agli editori, ai membri di comitati editoriali e ad esperti che
fanno recensioni. I risultati hanno dimostrato che la maggior
parte dei recensori collabora per una sola rivista, che la media
di sottomissione di articoli per rivista è circa da 100 a 500 per
anno, con una media di tasso di accettazione di 25-50%; circa il
40% degli intervistati usa la procedura double blind e l’88% tiene
segreta l’identità del recensore.
Le indagini di Tammaro (2002b) e Whitfield e Peters (2000)
riguardano il punto di vista di due University Press che, nell’ottica della soddisfazione dell’utenza scientifica, si sono chieste
cosa è la qualità per gli autori. I risultati nell’indagine italiana
sono stati: 43% degli intervistati identifica la qualità nella peer
review; 40% nella protezione e gestione dei diritti di proprietà e
35% nella garanzia di un editore autorevole. Nella ricerca
inglese, la qualità intesa come ‘fitness for purposes’ ha evidenziato l’articolo (e non la rivista) come focus della valutazione ed
ha indicato i seguenti fattori: molto accessibile, originale, significativo per gli studiosi, significativo per i professionisti.
La procedura della peer review è stata descritta recentemente da Meadows per gli articoli nei periodici scientifici (1974).
Quando un lavoro di ricerca viene inviato ad un periodico,
l’editore può rifiutarlo immediatamente, se non corrisponde
alle finalità del periodico o se è di evidente bassa qualità,
oppure può inviarlo alla recensione critica di esperti della
materia, di solito due. A questi viene richiesto di decidere se il
lavoro debba essere pubblicato subito, oppure se è pubblicabile con alcuni miglioramenti e correzioni, oppure non pubblicabile. La scelta più diffusa è la seconda, ed in questo caso gli
esperti suggeriscono i miglioramenti necessari. Nel caso che i
due esperti non siano d’accordo si ricorre ad un terzo esperto
ed infine l’editore prende la decisione finale. Di solito gli
esperti sono anonimi e l’autore invece è noto; nel sistema
double blind esperti ed autori sono entrambi anonimi e nel
sistema open refereeing l’identità di autori ed esperti è rivelata
ad entrambi.
Rowland (2002) ha quantificato i costi della peer review in 40
dollari per pagina a stampa, evidenziando come il tempo
necessario per respingere un lavoro sia sostanzialmente lo
stesso necessario per accettarlo, con un tasso di lavori respinti
del 50%. Wood (1998), descrivendo il progetto inglese ESPERE,
ritiene che un sistema completamente elettronico di peer review
(open peer review) oltre a migliorare i giudizi di merito, riduca i
tempi ed i costi.
La peer review, che quindi la comunità accademica preferisce
come sistema di controllo di qualità, è tuttavia spesso conservativa nelle tradizioni e nelle regole accademiche. Tra gli autori
contrari al mantenimento dell’attuale sistema, De Vries (2001) è
molto critico e parla della peer review come «holy cow of
science». Inoltre, la peer review, se applicata senza correttivi,
può andare a favore di grandi istituzioni di ricerca e non delle
istituzioni migliori.
66
67
Open commentary
La proposta più ‘sovversiva’ per il sistema delle pubblicazioni scientifiche è sicuramente quella dell’open access e dei fenomeni collegati dell’autopubblicazione, dei depositi istituzionali e
dei depositi disciplinari. I paladini sono Harnard, Odlyzko e
Ginsparg, che hanno difeso le loro idee con numerosi scritti ed
animate discussioni nella partecipazione a convegni. Una realizzazione di grande importanza strategica per i possibili sviluppi
è attualmente l’archivio di letteratura biomedica che offre
accesso mondiale e libero PubMed (Odlyzko, 2001) creato da
Varmus, e la biblioteca digitale realizzata dal MIT, usando
Dspace (Lynch, 2003), che combina i protocolli e il modello OAI
dei depositi istituzionali con procedure gestite automaticamente
di peer review e di validazione delle pubblicazioni istituzionali.
L’uso di sistemi di valutazione basati sul web ha avuto come
primo risultato rilevante quello di velocizzare il processo della
peer review, eliminando i tempi e i costi della tradizionale procedura attuata attraverso la spedizione postale cartacea.
Campbell (1993) ha descritto come un editore può organizzare
l’intero ciclo editoriale in modo elettronico, incluso la peer
review. Il progetto inglese ESPERE è quello che ha più ampiamente descritto la procedura in linea della peer review, illustrandone i vantaggi (Wood, 1998). Woodward (1976), anticipando
queste prime esperienze ha proposto ad esempio un centro
condiviso di servizi per i piccoli editori.
Un possibile risultato, ancora più importante strategicamente, è stato più difficile a realizzarsi praticamente: quello di
evitare l’approccio tradizionale della peer review, ristretto
generalmente ad un numero chiuso di esperti, dando la possibilità di pubblicare in Internet sia il lavoro da recensire sia i
commenti resi pubblici dei recensori, con l’opportunità in questo
modo di poter aumentare il numero dei potenziali recensori,
oltre che rendere trasparente ed aperto il giudizio degli esperti.
Harnard, noto per la sua battaglia per l’accesso libero alle
pubblicazioni scientifiche, è un autorevole sostenitore della
open peer commentary ed ha impiegato una notevole energia per
far comprendere l’impatto della peer review sulle pubblicazioni
elettroniche (1996). Harnard definisce la differenza tra la peer
review, in cui un piccolo numero di esperti è chiamato a giudicare un lavoro, ed il commento di esperti (peer commentary), in
cui dopo la pubblicazione gli esperti possono annotare
commenti e giudizi al lavoro. Roberts (1999) ha ulteriormente
descritto queste nuove procedure di recensione dopo la pubblicazione in linea. Sandewall (2001) in Defining and certifying
electronic publication and science allega un’importante proposta
fatta da un gruppo di esperti agli editori. Weller (2000, 2001)
considera alcuni nuovi approcci alla recensione in ambito
elettronico ma conclude che la tradizionale peer review è destinata a restare.
I paladini del cambiamento ritengono che il sistema attuale
di peer review formativa (ex ante) perpetua un approccio che è
superato per la diffusione dei risultati della ricerca. La peer
review attuale era necessaria nel sistema basato sui periodici su
carta, ma nel nuovo contesto comunicativo di Internet, in particolare nei depositi istituzionali di pubblicazioni scientifiche
liberamente disponibili, questa non è più necessaria poiché gli
autori possono depositare i lavori direttamente e consentire ai
lettori di leggere quel che i lettori stessi scelgono, senza alcun
filtro preventivo di esperti. I rischi di questa procedura completamente aperta sono fin troppo evidenti e i depositi di e-print
potranno avere successo solo se gli studiosi parteciperanno
all’immissione dei lavori esercitando un’autovalutazione
critica del proprio lavoro e se i recensori esprimeranno onestamente i loro punti di vista. Va chiarito che la pubblicazione nei
depositi istituzionali o tematici è essenzialmente una prepubblicazione. I limiti di questa procedura di immissione delle
proprie pubblicazioni in rete sono soprattutto collegati al fatto
di posizionarsi come strumenti privilegiati di comunicazione
scientifica, complementari ma non sostitutivi della pubblicazione scientifica. L’esempio di successo per i depositi di e-print
è quello della fisica (archivio di Los Alamos) che comprende sia
pre-pubblicazioni senza peer review preventiva che post-print,
cioè pubblicazioni già pubblicate. Questo sistema ha dimostrato di funzionare molto bene per la fisica, tuttavia si è diffuso
solo in alcune discipline, come l’astronomia, l’informatica e la
matematica; malgrado alcuni tentativi non è ancora ben radicato in economia e in psicologia. Come già accennato, sono
importanti le differenze nelle discipline, che hanno diverse
strutture organizzative corrispondenti alle diverse comunità
scientifiche, difficili da modificare. Manca quindi alla gran
parte dei depositi di e-print il commento prima della pubblicazione che aiuta a migliorare l’articolo e, pur non essendo
generalmente ricchi di contenuto, si trovano nei depositi di
68
69
pubblicazioni scientifiche in linea una gran quantità di pubblicazioni senza filtro di qualità.
Un ulteriore approccio che è stato sperimentato è quello di
singoli autori che decidono di mettere i propri lavori in linea e
contemporaneamente sollecitano i commenti di esperti su
questi. Sulla base dei commenti ricevuti, l’autore rivede e
migliora il proprio lavoro, che viene successivamente inviato
alla tradizionale peer review e pubblicato in modo usuale, sia in
versione a stampa che su supporto elettronico. Questo sistema
elimina molte delle obiezioni alle pubblicazioni immesse in
linea senza peer review.
Un consenso diffuso è sul fatto che sistemi di open peer
commentary dopo la pubblicazione si aggiungano alla tradizionale peer review senza sostituirla. Infatti si ritiene che nessuno
abbia il tempo di leggere i lavori di bassa qualità che si trovano
nei depositi istituzionali senza filtro di qualità. La peer review,
necessaria anche se effettuata dopo l’immissione dell’articolo,
salva il tempo del lettore. I possibili punti di debolezza della
open peer commentary sono che gli esperti non trovino il tempo di
fare commenti ai lavori in linea e chi invece fa commenti potrebbe essere poco informato o avere ad esempio dei pregiudizi.
ne di ricerca, campo disciplinare, nazione, ecc. In questi primi
studi bibliometrici l’indicatore misurato era molto semplice e
limitato alla ‘produttività’ della ricerca scientifica. In campo
documentario, per esempio, è stato usato per identificare la
quantità di periodici necessari per coprire il 50% o più dell’informazione necessaria in un dato campo disciplinare.
Successivamente, sulla base dell’idea di Garfield (1955),
sono state sviluppate delle tecniche basate sulle citazioni negli
articoli e che producono indici di citazioni ed analisi di cocitazioni. Queste analisi sono usate in vario modo:
– per ottenere misure della qualità della ricerca;
– per misurare la produttività di singole nazioni, istituzioni,
gruppi di ricerca, singoli ricercatori;
– per analizzare lo sviluppo di campi scientifici disciplinari e
di reti di lavori ed autori scientifici (mappe di analisi di cocitazione).
Il primo ad usare il termine bibliometria è stato Pritchard
nel 1969, per definire meglio un tipo di studio attivo fin dagli
anni Venti e chiamato statistica bibliografica. Per Pritchard
(1969, pp. 348-349) la bibliometria è «the application of mathematical and statistical methods to books and other means of
communication».
Originariamente la bibliometria è stata dedicata a raccogliere dati sul numero di pubblicazioni scientifiche ed in particolare di articoli in periodici, raggruppati per autore e/o istituzio-
Impact Factor
Da un uso delle analisi citazionali prettamente documentario
per valutare le relazioni tra studiosi e per rispondere alla
domanda: «Chi è legato a chi?», si è passati ad un uso di indicatori bibliometrici per la valutazione che risponde alla domanda:
«Quale pubblicazione ha maggiore impatto o è migliore di
altre?» a supporto soprattutto della politica della scienza.
La gran parte dei dati bibliometrici è resa disponibile
dall’impresa privata ISI, che ha costruito un insieme di banche
dati di cui ha il monopolio. Oltre naturalmente al fondatore
Gardfield, le banche dati ISI hanno trovato numerosi estimatori, tra cui Bayer e Folger (1996) e Cole e Cole (1967). Questi
autori hanno cercato di dimostrare che c’è una correlazione tra
il conteggio delle citazioni ed altre misure di qualità come
l’indice di produttività, la peer review, l’ottenimento di finanziamenti e di borse di ricerca. Gli argomenti a favore degli indici
citazionali si basano tutti sul ‘normative argument’ (Borgmann,
70
71
Come si valuta? Indicatori bibliometrici
Furner, 2002), cioè che sia una norma scientifica citare tutte le
pubblicazioni correlate alla ricerca e soprattutto citare quelle
che si considerano di qualità.
Tra i molti che hanno discusso le falsificazioni metodologiche degli indici citazionali si può citare ad esempio McRoberts
(1987, 1996), Figà Talamanca (2000), Tammaro (2001b) e soprattutto Seglen (1997). È stato dimostrato che le motivazioni a
citare altri autori possono essere diverse da quelle suggerite dal
normative argument ed essere basate invece su motivi personali,
politici o solo servili, oltre al fatto che non tutte le pubblicazioni che dovrebbero essere citate in effetti lo siano. Oltre a queste
carenze nei presupposti teorici e metodologici degli indici
citazionali, sono state evidenziate una serie di mancanze tecniche delle banche dati ISI, relative soprattutto alla copertura:
esistono infatti dei limiti evidenti riguardanti le singole discipline, la tipologia di letteratura scientifica esaminata, le lingue
e le nazioni considerate con netta prevalenza dell’area angloamericana, che ne inficiano l’uso. Le banche dati ISI ad esempio
per questi motivi non potrebbero essere usate per la comparazione internazionale (Moed, van Leuween, 1997). Cronin et al.
(1997) inoltre hanno evidenziato come, per certe discipline,
bisogna considerare la tipologia principale di pubblicazione e
come sia rilevante l’impatto citazionale dei libri più che dei
periodici; lo stesso autore argomenta che, oltre le citazioni, sono
importanti anche i ringraziamenti espressamente indicati negli
articoli. Seglen (1997), l’autore forse più critico riguardo agli
indici citazionali, riassume le sue note affermando che quello
che si può chiedere agli indici citazionali non è l’impatto ma
solo l’informazione che certi documenti sono letti (o usati);
tuttavia non si può dimostrare che altri documenti non citati
non siano stati letti ugualmente.
Va inoltre notato che i periodici che attraverso la banca dati
ISI si trovano ad avere il maggiore impatto, hanno una posizione di dominio con una incontrollata spirale di profitti (testimo-
niata dalla realtà dei fatti, appartenendo queste riviste alle
maggiori imprese mondiali di letteratura scientifica). Ciò ha
causato una sorta di imperialismo dell’informazione, che è di
svantaggio per tutti gli altri editori e penalizza l’editoria scientifica nazionale. Questa situazione rischia di perpetuarsi per i
periodici elettronici, in quanto molte delle stesse riviste sono
ora disponibili anche in linea e gli stessi editori in posizione
privilegiata hanno investito in interfaccia di ricerca e soprattutto hanno reso disponibili servizi di cross linking (come
CrossRef). A livello di politica della ricerca, da sempre interessata agli indicatori bibliometrici ed in particolare agli indici
citazionali ISI, questo equivale a riconoscere che la diffusione
della ricerca debba avvenire a livello internazionale e non,
come sembrerebbe più corretto, a livello nazionale attraverso
un sistema condiviso di indicatori di qualità che assicurino la
comparabilità internazionale.
Malgrado gli indubbi limiti degli indici bibliometrici, questi
vanno incontro ad una diffusa esigenza di una valutazione
della ricerca che possa essere ritenuta ‘obiettiva’ e cioè soprattutto esterna alla comunità scientifica. Un’ulteriore evidenza è
che gli indici bibliometrici sono particolarmente utili a comparazioni internazionali per macroanalisi della produzione di
pubblicazioni scientifiche. La trasparenza dei risultati per gli
investimenti economici fatti nella ricerca si combina quindi in
questo caso con la necessità di comparazioni internazionali. È
interessante a questo scopo l’esperienza recente della valutazione delle pubblicazioni scientifiche in Italia.
L’esigenza di introdurre dei parametri obiettivi per la
valutazione ha convinto in Italia la CRUI (2002) ad usare le
banche dati dell’ISI per la valutazione della ricerca, mettendo a
disposizione degli atenei un sottoinsieme del Science Citation
Index, limitato alle pubblicazioni di autori italiani citate nei
settori prettamente scientifico-tecnici dal 1981 al 1999. Gli obiettivi dichiarati erano quelli di censire le pubblicazioni prodotte
72
73
in Italia (non avendo l’Italia un’anagrafe della ricerca), costruire indicatori bibliometrici oggettivi e consentire un confronto
nazionale ed internazionale. Una prima analisi è stata quindi
pubblicata (CRUI, 2002) con il calcolo di due indicatori:
– indice di produttività media dell’istituzione di ricerca
(numero di pubblicazioni/numero di ricercatori);
– indice di presenza internazionale (numero totale delle
citazioni/numero di ricercatori).
L’Osservatorio per la valutazione del sistema universitario
nel 1999 (oggi Comitato Nazionale per la Valutazione del
Sistema Universitario) ha utilizzato un altro modello, anch’esso di tipo bibliometrico: il Programma VPS (Valutazione
Pubblicazioni Scientifiche) (1999). Il Programma VPS si ispira al
metodo RAE (Research Assessment Exercise) utilizzato nel Regno
Unito per l’allocazione dei finanziamenti tra gli atenei. Il
Programma VPS classifica le pubblicazioni scientifiche (non
solo riviste scientifiche, ma anche atti di convegni, volumi editi
da case editrici specializzate e che garantiscano un’ampia
diffusione a livello nazionale ed internazionale) in cinque fasce
e due diversi livelli, basati sul grado di prestigio riconosciuto.
L’interesse della proposta PVS è che, pur usando gli indici ISI,
si basa su un numero limitato di pubblicazioni, segnalate dagli
stessi ricercatori su base volontaria come le loro pubblicazioni
di maggiore qualità. Il programma non è stato molto utilizzato
e tra i possibili motivi, come indica Modica (2002), si può sottolineare il fatto che non ha pesato in modo differente le pubblicazioni secondo le aree disciplinari e che ha proposto la classificazione in fasce sulla base del grado di prestigio delle pubblicazioni, fattore che non è obiettivamente calcolabile.
Una prima difficoltà che sembra evidente è che per l’applicazione degli indici bibliometrici a livello nazionale ed internazionale sarebbe necessaria una metodologia standard e condivisa, per assicurare la corretta comparazione. Anche gli indici
bibliometrici si trasformano in sostanza in un giudizio di
merito qualitativo, in quanto partono da presupposti e scelte
basate su criteri e valori che, esattamente come per la peer
review, spesso non si dichiarano né dimostrano. La diffusione
continua di dati ed informazioni sui risultati della valutazione
è importante unitamente alla trasparenza del processo di
valutazione.
La necessità di linee guida per una metodologia standard è
ancora più evidente a livello internazionale, considerato il
sempre maggiore uso di indicatori internazionali. Nel 1989
l’OECD ha commissionato un rapporto sullo stato dell’arte nella
bibliometria che è stato pubblicato nel 1997 (Okubo, 1997). Il
Frascati Manual dell’OECD (2002) riconosce che le statistiche da
sole non possono rendere conto dell’insieme di input/output
associate con lo sviluppo scientifico e tecnologico.
L’obiezione più importante all’uso di indicatori bibliometrici di quantità come misura del rendimento della ricerca scientifica è che viene ignorata la qualità degli articoli. Inoltre si
devono considerare queste misure insieme ad altri indicatori di
contesto: ad esempio quale è la misura ottimale dell’investimento necessario in risorse disponibili per ottenere certi risultati? Istituzioni più grandi hanno maggiori introiti dalla ricerca
ed il costo unitario varia al variare della grandezza dell’istituzione di ricerca. La produttività, ridotta a numeri, deve quindi
considerare anche altri fattori come l’adeguatezza della quantità dello staff, gli eventuali servizi bibliotecari disponibili ed
altre risorse.
Oltre ai commenti critici già esposti, è contestabile il presupposto che la qualità sia uguale all’uso e che questo possa essere
identificato come impatto. Cozzens (1989) elenca i fattori che
gonfiano o limitano l’impact factor.
Le tecniche bibliometriche si sono evolute nel tempo e
continuano a svilupparsi: la misura delle citazioni, per ottenere
l’impatto delle pubblicazioni nella comunità scientifica; la
misura delle co-citazioni (il numero di volte che due lavori
74
75
sono citati insieme nello stesso articolo), ecc. I risultati sono
presentati in vari modi, come ad esempio le mappe, per descrivere le relazioni tra elementi ed estendere i mezzi di analisi
bibliometrica.
Open linking
Per Cronin (2001) l’analisi delle citazioni diverrà sempre più
importante e centrale alla crescita delle pubblicazioni scientifiche nel web: potrebbe anzi dirsi che il sistema di citazioni ha
anticipato i collegamenti ipertestuali e trova delle incredibili
opportunità nell’ambito digitale. L’autore si chiede: se le
citazioni possono essere registrate, contate e pesate, perché non
si può fare lo stesso per i collegamenti che esistono nei siti web?
I siti con un numero più alto di collegamenti ad altri siti corrispondono ai lavori più citati. Il lavoro del Progetto Clever e lo
stesso motore di ricerca Google hanno esteso infatti l’idea di
Gardfield alla valutazione dei siti web. Anche chi non è particolarmente visibile con l’analisi delle citazioni, può ora
dimostrare la sua influenza attraverso il web. La recente
creazione di CrossRef è la più evidente prova di come possa
essere ben riuscito il matrimonio tra l’ipertesto e l’indice delle
citazioni (Cronin, 2001).
Un altro sistema innovativo recentemente realizzato è
rappresentato dagli indici citazionali che gli stessi autori
possono realizzare. È stato realizzato a Princeton dal NEC
Research Institute e si chiama Citeseer (ora ReferenceIndex): la
sua caratteristica è che estrae le citazioni dal testo insieme al
contesto in cui la citazione è stata fatta. Questo consente al
lettore di capire in quale contesto la citazione sia stata fatta e
quindi di capire meglio il suo significato.
Un approccio ancora più radicale è presentato da Smith
(1999) e dal suo ‘deconstructed journal’. L’idea, basata sul modello
e-print di Ginsparg, concorda sulla previsione che i depositi di
articoli sostituiranno i periodici come contenitori di pubblicazio-
ni scientifiche con caratteristiche di immediatezza ed autorevolezza. In questo modello di periodico destrutturato, un autore
deposita un articolo e chiede a una o più organizzazioni di
recensione (ad esempio associazioni professionali, o esperti della
materia) di valutare la pubblicazione e registrare la sua esistenza. Queste istituzioni valutano l’articolo, mandano suggerimenti, secondo il modo usuale dei recensori, ed eventualmente
approvano il lavoro. A questo punto l’autore segnala il lavoro
recensito ai punti focali disciplinari, gateway o portali semantici,
che selezionano il materiale rilevante alle loro aree di specializzazione disciplinare ed inseriscono dei link al lavoro, se lo ritengono adeguato. I punti focali disciplinari assomigliano ai gateway
e sono ciò che assomiglia di più agli attuali periodici.
Il valore del web va ben al di là del suo impatto per le
misure bibliometriche. Nel web la comunità scientifica può fare
molto di più che pubblicare o depositare i propri lavori: vi può
mettere i semi delle idee (Cronin, 2001), discutere tesi ed avere
interazione con altri autori in modi molto diversi. È iniziata una
vera rivoluzione per la comunicazione scientifica, ed alcuni
presupposti tradizionali sono stati cambiati. Tuttavia, la bibliometria ha dei problemi ad adattarsi al web. Ad esempio, finora
ha analizzato pubblicazioni in sé statiche e compiute e non le
diverse tipologie di pubblicazioni come quelle che si trovano
nel web, di natura essenzialmente dinamica. Quali potrebbero
essere ad esempio le unità di analisi con documenti multimediali che possono dar luogo a diversi output? Come tracciare i
collegamenti socio-cognitivi ora definiti dalle citazioni nei
forum di comunicazione in rete? Quali altre pubblicazioni
scientifiche potranno essere valutate? Oltre ai tradizionali
periodici, si trovano nel web una molteplicità di pubblicazioni
scientifiche come: i preprint, i working papers, i siti ed i portali,
i blog. Un ulteriore problema di natura documentaria è quello
di come identificare, localizzare ed accedere a queste pubblicazioni non tradizionali.
76
77
In un sistema di pubblicazioni scientifiche eterogeneo e
multiforme come quello che si sta sviluppando, necessariamente acquisteranno maggior rappresentatività di qualità
alcuni indicatori come la provenienza della pubblicazione, il
suo contenitore, la sua preservazione nel tempo, e di conseguenza ci sarà una molteplicità di indicatori di qualità. Saranno
tuttavia da prevedere differenti comportamenti disciplinari.
L’estensione della bibliometria e della peer review al web
potrebbe essere molto utile per meglio catturare l’impatto della
comunicazione scientifica e per nuovi modi di filtrare e
monitorare la divulgazione dei risultati della ricerca dalla
comunità scientifica alla società. L’effetto immediato delle
pubblicazioni scientifiche in ambito digitale è stato quello,
finora poco studiato, di estendere l’utenza delle pubblicazioni
scientifiche ad un nuovo utente, definito anche consumatore
(Withey, 2003), con un comportamento di ricerca e d’uso delle
pubblicazioni ancora poco conosciuto. Sulla base che l’informazione facilmente accessibile in Internet ha un maggiore
impatto anche su non esperti della materia, diventa un fattore
politico critico quello di stimolare la maggiore accessibilità
possibile dei risultati della ricerca.
Un ulteriore aspetto da considerare riguarda l’evidenza di
alcuni studi sull’utenza delle pubblicazioni elettroniche, che
descrive un aumento dell’uso dal tradizionale 80:20 (l’80%
dell’uso si ottiene con il 20% delle pubblicazioni) al 70:30 o al
60:40. Se ulteriori studi dovessero dimostrare che questo
cambiamento si ripete, la maggiore implicazione potrebbe
essere la necessità per gli autori scientifici di riconsiderare la
loro posizione attualmente piuttosto prudente per mettere le
proprie pubblicazioni in linea, ad esempio nei depositi istitu-
zionali (O’Connor, 2003).
La spinta ad usare Internet per le pubblicazioni scientifiche
riflette d’altra parte il crescente potere di ricerca dei motori del
web che assicurano uno strumento sempre più conveniente,
con la larga adozione del protocollo OAI, per annunciare ed
anche certificare nuovi risultati di ricerca. Internet aumenta in
modo impensabile sia la velocità della disseminazione scientifica che l’audience della prima circolazione delle idee (To publish
or to perish, 1998). Sono già numerosi gli autori, in particolare
alcune comunità disciplinari come i fisici, gli astronomi, gli
informatici, che pubblicano i loro lavori in depositi istituzionali per una disseminazione veloce agli studiosi con gli stessi
interessi, e che successivamente inviano gli stessi lavori per il
tradizionale processo di pubblicazione, comprendente l’iniziale filtro della peer review. In questo caso, la pubblicazione nei
periodici scientifici viene vista come un modo di assicurare
l’archiviazione e la futura memoria dell’articolo, mentre la
pubblicazione archiviata in linea è sicuramente quella più
influente (citata ed usata).
Buckland (1998) afferma che gli accademici cambieranno
comportamento quando ci sarà convenienza per loro ad usare
il web per pubblicare, e questa convenienza non è intesa come
vantaggi economici ma essenzialmente come: 1) ottenere
prestigio, 2) essere letti. Solo quando ci sarà l’evidenza che
pubblicare in Internet garantirà maggiori vantaggi di accesso
alle pubblicazioni non verranno più scelti gli editori commerciali per la funzione di disseminazione ed archiviazione e a
questo punto non ci sarà più nessun motivo di concedere il
copyright agli editori. Questo argomento della promozione e
del riconoscimento è attualmente strettamente connesso con la
certificazione e con il filtro di qualità delle pubblicazioni scientifiche, assicurato essenzialmente dalla peer review. In questo
senso, una delle più importanti idee che sono state realizzate è
stata quella di tenere separate la funzione di certificazione dalla
78
79
Conclusioni
disseminazione dei risultati attraverso Internet. Per realizzare
pienamente questa funzione, occorrerà una collaborazione tra
associazioni scientifiche ed istituzioni di ricerca. Un ulteriore
passo avanti potrà avvenire quando, ai fini dei concorsi e del
riconoscimento dei risultati della ricerca, le pubblicazioni scientifiche depositate presso gli archivi istituzionali avranno lo
stesso peso delle pubblicazioni stampate dagli editori tradizionali. A questo punto sarà il singolo autore a poter scegliere il
forum che ritiene più conveniente per la sua pubblicazione
(O’Connor, 2003). Quest’ultimo sviluppo avrà una conseguenza di fondamentale importanza per la creazione di biblioteche
digitali istituzionali, in cui sia la peer review che il filtro di
qualità, insieme alla preservazione di lungo periodo, saranno
gestite dall’istituzione di ricerca (Lynch, 2003).
Molti sono i cambiamenti che si possono prevedere per i
prossimi anni nella valutazione di qualità delle pubblicazioni
scientifiche. Molti periodici potrebbero passare alla open peer
commentary. Non è chiaro come la tradizionale peer review sarà
cambiata, oppure se le diverse comunità scientifiche accetteranno una peer review a diversi livelli. L’attuale sistema monolitico della peer review accentrata dovrà necessariamente trasformarsi e divenire più diversificato e flessibile allo stabilirsi di
nuovi modelli di pubblicazione e di citazione.
La qualità dovrà essere valutata con un insieme di modalità.
La misurazione di qualità è critica per valutare i risultati
dell’investimento politico fatto, ma è ugualmente critica per
valutare il rapporto tra produzione scientifica e supporto
fornito nelle università per la didattica e la ricerca. Ad esempio
si potrebbe misurare quante delle pubblicazioni prodotte in
una università si ritrovano nelle biblioteche universitarie.
Diverse discipline avranno comportamenti diversi: c’è
grande varietà metodologica e disciplinare e non si può presumere che certi valori siano condivisi e che la comparazione
semplicistica possa essere ben fondata. La struttura cognitiva e
sociale delle discipline è diversa, ed anche il sistema di riconoscimento di qualità delle pubblicazioni scientifiche. Non si può
quindi presumere un approccio universalistico alla comunicazione scientifica, alla misurazione di qualità delle pubblicazioni scientifiche, al filtro di qualità ed alla valutazione in genere;
occorrerà invece un pluralismo di approcci, la flessibilità dei
modi della valutazione, la combinazione di indicatori di
diverse comunità per giudizi di merito complessivi ed equilibrati. La qualità, o se vogliamo il valore, di una pubblicazione
scientifica non sembra possa essere valutata a prescindere dal
suo autore e soprattutto dal suo lettore, ma deve invece essere
analizzata in modo collaborativo o negoziato, come definito
all’inizio dell’articolo. In questa attuale situazione di incertezza
rispetto ad un modello definito di comunicazione scientifica,
nella transizione ai sistemi di pubblicazione basati sul web,
sembra oltremodo necessario che l’ago della bilancia sia l’utente. Se ci deve essere un impatto – su questo sia gli autori che i
politici sembrano concordare – allora la forza trainante sarà
quella del lettore di letteratura scientifica.
80
81
Bibliografia
SUSAN E. COZZENS (1989), What do Citations count? The Rhetoric
First Model, in “Scientometrics”, n. 15
Aslib Proceedings: New Information Perspectives (2003), 55, n.1-2
BLAISE CRONIN (1996), Rates to Return to Citation Ratio, in
“Journal of Documentation”, 52
ASSOCIATION OF LEARNED AND PROFESSIONAL SOCIETY PUBLISHERS
(1999), What Authors want, Worthing, UK: ALPSP
ASSOCIATION OF LEARNED AND PROFESSIONAL SOCIETY PUBLISHERS
(2002), Authors and Electronic Publishing, Worthing, UK: ALSP
ASSOCIATION OF LEARNED AND PROFESSIONAL SOCIETY PUBLISHERS
ALSP/EASE (2001), Peer Review Survey, accessibile a:
www.alsp.org/peerev.pdf
A.E. BAYER, J. FOLGER (1996), Some Correlates of a Citation Measure
of Productivity in Science, in “Sociology of Education”, n. 39
CHRISTINE BORGMANN, JONATHAN FURNER (2002), Scholarly
Communication and Bibliometrics, in “Annual Review of
Information Science and Technology”, n. 36
MICHAEL K. BUCKLAND, ZIMING LIU (1998), History of Information
Science, in Historical Studies in Information Science, ed. T.B.
Hahn, M. Buckland, Medford, NJ, Information Today
ROBERT CAMPBELL (1993), The Publisher’s Position: Survival in an
Electronic World, in Changing Roles in Information Distribution,
ed. A.M. Cunningham, W. Wicks, Philadelphia, National
Federation of Abstracting and Indexing
BLAISE CRONIN (2000), Semiotics and Evaluatative Bibliometrics, in
“Journal of Documentation”, 54, n. 4
BLAISE CRONIN (2001), Bibliometrics and beyond: Some Thoughts on
Web-Based Citation Anlysis, in “Journal of Information
Science” 27, n. 1
BLAISE CRONIN, HERBERT W. SNYDER, HELEN ATKINS (1997),
Comparative Citation Rankings of Authors in Monographic and
Journal Literature: A Study of Sociology, “Journal of Documentation” 53, n. 3
CRUI (2002), La valutazione della ricerca in Italia: repertorio di fonti
Web, Roma
CRUI (2002), La ricerca scientifica nelle università italiane: una
prima analisi delle citazioni della banca dati ISI, Roma
ABBY F. DAY, JOHN PETERS (1994), Quality Indicators in Scholarly
Publishing, in “Library Review”, 43
MARIO DE MARCHI, MAURIZIO ROCCHI (2000), Sunto di impostazioni alla studio degli indicatori della scienza e della tecnologia, in
Il monitoraggio della scienza e della tecnologia, Milano, Angeli
ROBERT D. CAMERON (1997), Universal Citation Database as a
Catalyst for Reform in Scholarly Communication, in “First
monday”, 2, 4, accessibile a: http://www.firstmonday.org/issues/issue2_4/cameron/index.html
DEREK J. DE SOLLA PRICE (1970), Citation Measure of Hard Science,
Soft Science, Technology and not Science, in Communication
among scientists and engineers, ed. C.E. Nelson, D.E. Pollock,
Lexington, Heath
JONATHAN COLE, STEPHEN COLE (1967) The Ortega Hypothesis, in
“Science”, n. 178
JOHN DE VRIES (2001), Peer Review: The Holy Cow of Science, in A
Century of Scientific Publishing, ed. E.H. Fredericksson,
Amsterdam, IOS Press
COMITATO DI INDIRIZZO PER LA VALUTAZIONE DELLA RICERCA (CIVR)
(2003), Linee guida per la valutazione della ricerca, Roma
ARTHUR M. DIAMOND (2000), The Complementarity of Scientome-
82
83
trics and Economics, in The Web of Knowledge. A Festschrift in
Honour of Eugene Gardfield, ed. B. Cronin, H. Atkins,
Medford, Information Today
CLYFFORD LYNCH (2003), Institutional Depositories: Essential Infrastructure for Scholarship in the Digital Age, ARL Report 226,
accessibile a: http://www.arl.org/newsltr/226/ir.html
ALESSANDRO FIGÀ TALAMANCA (2000), L’Impact factor nella valutazione della ricerca e nello sviluppo dell’editoria scientifica. IV
Seminario sistema informativo nazionale per la matematica,
Lecce, accessibile a: siba2.unile.it/sinm/interventi/figtalam.htm
CLIFF MCKNIGHT, SHEILA PRICE (1999), A Survey of Authors Attitudes and Skills in Relation to Article Publishing in Paper and
Electronic Journals, in “Journal of Documentation”, 55, n. 5
EUGENE GARDFIELD (1955), Citation Indexes for Science, in
“Science”, 122, n. 3159
PAUL GINSPARG (1994), First Steps Towards Electronic Research
Communication, in “Computers in Physics”, 8, n. 4, accessibile a: http://xxx.lanl.gov/blurb/
STEVAN HARNAD (1996), Implementing Peer Review on the Net:
Scientific Quality Control in Scholarly Electronic Journals, in
Electronic Publishing Confronts Academia: The Agenda for the
Year 2000, ed. R. Peek, G. Newby, Cambridge MA, MIT
Press, accessibile a: ftp://princeton.edu/pub/harnad/Harnad/harnad96.peer.review.html.
STEVAN HARNAD (1999), The Invisible Hand of Peer Review, in
“Exploit Interactive”, 5, accessibile a: www.exploit-lib.org/issue5/peer-review/
L. HARVEY, D. GREEN (1993), Defining Quality, in “Assessment
and Evaluation of Higher Education”, 18, n. 1
ROB KLING, GEOFFREY MCKIM (1999), Scholarly Communication
and the Continuum of Electronic Publishing, in “Journal of
ASIS”, 50, n. 10
STEVE LAWRENCE, KURT BOLLACKER, C. LEE GILES (1999), Indexing
and Retrieval of Scientific Literature, 8th International Conference on Information and Knowledge Management, Kansas
MICHAEL H. MCROBERTS, BARBARA R. MCROBERTS (1987),
Problems of Citation Analysis: A Critical Review, in “Journal of
the American Society for Information Science”, n. 40
M.H. MCROBERTS, B.R. MCROBERTS (1996), Problems of Citation
Analysis, in “Scientometrics”, n. 36
JACK A. MEADOWS (1974), Communication in Science, London,
Butterworths
ROBERT K. MERTON (2000), On the Gardfield Input to the Sociology
of Science, in The Web of Knowledge, ed. B. Croni, H.B. Atkins,
Medford NJ, Information Today
LUCIANO MODICA (2002), Prefazione a La valutazione della ricerca
in Italia. Repertorio delle fonti Web, Roma, CRUI
H.F. MOED, THED VAN LEUWEEN (1997), Impact Factors can mislead,
in “Nature”, n. 381
STEVE O’CONNOR (2003) Economic and Intellectual Value in
Existing and New Paradigms of Electronic Scholarly Communication, in “Library HiTech”, 18, n. 1
ANDREW ODLYZKO (2001), Public Library of Science and the Ongoing
Revolution in Scholarly Communication, in “Nature”, accessibile
a: www.nature.com/nature/debates/e-access/articles/odlyzko.html
CLYFFORD LYNCH (1998), Identifiers and their Role in Networked
Information Applications, “CAUSE/EFFECTS”, Winter
OECD (2002), Proposed Standard Practice for Surveys of Research
and Experimental Development. Frascati Manual, Paris, OECD
84
85
YOSHIKO OKUBO (1997), Bibliometric Indicators and Analysis of
Research Systems, Methods and Examples, Paris, OECD (STI WP
1997/1)
OSSERVATORIO PER LA VALUTAZIONE DEL SISTEMA UNIVERSITARIO,
Proposta per un programma di valutazione della produzione scientifica nelle università: il Programma VPS, Roma, 1999 (DOC 3/99)
JOHN R. PIERCE (1980), An Introduction to Information Theory:
Symbols, Signals & Noise, 2. revised ed., New York, Dover
ALAN PRITCHARD (1969), Statistical Bibliography or Bibliometrics?,
in “Journal of Documentation”, 25, n. 4
JEROME R. RAVETZ (1973), Scientific Knowledge and its Social
Problems, Harmondsworth, Penguin Books
PETER ROBERTS (1999), Scholarly Publishing, Peer Review and the
Internet, in “First Monday”, 4, n. 4, accessibile a: firstmonday.org/issues/issue4_4/proberts/
FYTTON ROWLAND (2002), The Peer Review Process, in “Learned
Publishing” 15, n. 4
IAN ROWLANDS (2002), Journal Diffusion Factors: A New Approach to
Measuring Research Influence, in “Aslib Proceedings”, 54, n. 2
IAN ROWLANDS (2003), Knowledge Production, Consumption and
Impact: Policy Indicators for a Changing World, in “Aslib
Proceedings”, New Information Perspectives, 55, n. 1/2
ERIC SANDEWALL (2001), Open Reviewing, Closed Reviewing:
Where’s the Publication?, in A Century of Scientific Publishing,
ed. E. H. Fredericksson, Amsterdam, IOS Press
JOHN W.T. SMITH (1999), The Deconstructed Journal: a New Model
for Academic Publishing, in “Learned Publishing” 12, n. 2
ANNA MARIA TAMMARO (1999), La comunicazione scientifica ed il
ruolo delle biblioteche, in “Biblioteche oggi”, n. 8
ANNA MARIA TAMMARO (2001a), Periodici elettronici: dai preprint
ai portali, in “Biblioteche oggi”, n. 10
ANNA MARIA TAMMARO (2001b), Qualità della comunicazione
scientifica, in “Biblioteche oggi”, n. 7 e Qualità della comunicazione scientifica, 2, in “Biblioteche oggi”, n. 8
ANNA MARIA TAMMARO (2002), Facilitating Scholarly Communication: Cost and benefit of a digital University Press, in Proceedings
4th Northumbria International Conference, IFLA satellite preconference, Pittsburgh 2001, Washington, ARL
To publish or to perish (1998), in “Policy Perspectives”, 7, n. 4
Trasmissione d’elite o accesso alle conoscenze? Percorsi e contesti
della documentazione e comunicazione scientifica (2002), a cura
di Adriana Valente, con testi di Sveva Avveduto, Anna Baldazzi, Rosa di Cesare, Maria Guercio, Daniela Luzi, Adriana
Valente, Milano, Franco Angeli
JULIAN WARNER (2003), Modelling the Diffusion of Specialised
Knowledge, in “Aslib Proceedings”, 55, n. 1-2
ANN C. WELLER (2000), Editorial Peer Review for Electronic
Journals: Current Issues and Emerging Models, in “Journals of
the American Society for Information Science”, 51, n. 14
ANN C. WELLER (2001), Editorial Peer Review. Its Strenghts and
Weaknesses, Silver Spring MD, ASIS
Scholarly Communication and Academic Presses (2002), ed. A.M.
Tammaro, Firenze, FUP, accessibile a: http://epress.unifi.it
ALEX WILLIAMSON (2002), What happens to Peer Review?, Paper
presented at an ALSP International Learned Journals Seminar,
London, accessibile a: www.alsp.org/wil120402.ppt
PER O. SEGLEN (1997), Why the Impact Factor of Journals should not be
used for Evaluating Research, in “British Medical Journal”, n. 314
RICHARD WHITFIELD, JOHN PETERS (2000), Quality in Scholarly
Publishing, in “Managing Service Quality”, 10, n. 3
86
87
R. WITHEY (2003), (Mis)understanding the Digital Media Revolution, in “Aslib Proceedings”, 55, n. 1-2
D.J. WOOD (1998), Peer Review and the Web: The Implications for
Electronic Peer Review for Biomedical Authors, Referees and Learned
Society Publishers, in “Journal of Documentation”, 54, n. 2
ANTHONY M. WOODWARD (1976), Editorial Processing Centres:
Scope in the UK, London, Britsh Library Research and
Development (Report 5271)
JOHN ZIMAN (1968), Public Knowledge, Cambridge, Cambridge
University Press
Note
1 Le due prospettive e le loro caratteristiche specifiche sono state
ampiamente descritte da Adriana Valente (Trasmissione d’élite o accesso alle
conoscenze?, 2002) nell’ambito più vasto della società e delle scienze
documentarie.
2 Il fascicolo speciale 1-2 di “Aslib Proceedings” del 2003, dal titolo
New Information Perspectives, è stato recentemente dedicato al tema della
valutazione della ricerca scientifica, per una migliore comprensione delle
implicazioni sociali e politiche della disseminazione ed impatto della
creazione di conoscenza.
3 Harvey e Green (1993) hanno identificato cinque concetti diversi di
qualità per le università:
– Eccezionale: si concentra sui Centri di eccellenza;
– Perfezione: focalizza l’adeguatezza dei risultati;
– Raggiungimento degli obiettivi;
– Valore dell’investimento;
– Trasformativa: sviluppo di nuova conoscenza.
4 Il sistema della peer review viene utilizzato per la valutazione di tutte
(Siti Web visitati il 30/01/04)
le attività scientifiche, come la proposta di relazioni a convegni, il finanziamento di progetti di ricerca e soprattutto l’assunzione e la promozione
in istituzioni di ricerca.
5 Il CIVR, istituito nel 1998 e formato da esperti nominati dal Governo,
ha pubblicato nel 2003 le Linee guida per la Valutazione della ricerca, basate
sul Frascati Manual dell’OECD.
88
89
Le patologie della comunicazione scientifica:
problema etico o socioeconomico?
Federico Di Trocchio
Università degli Studi di Lecce
Dipartimento di Filosofia e Scienze Sociali
Il sistema contemporaneo di comunicazione tra scienziati si
è sviluppato a partire dalla seconda metà del Seicento quando,
dalla corrispondenza epistolare che era allora comune all’interno della comunità europea degli uomini di cultura, nacque la
rivista scientifica come strumento di comunicazione e l’articolo
scientifico come nuovo genere letterario1.
Il sistema ha conosciuto successivamente uno sviluppo
prodigioso che ha comportato una proliferazione e una specializzazione eccessiva delle riviste, il che ha notevolmente ridotto
l’efficienza del sistema di comunicazione al punto che risulta
oggi virtualmente impossibile padroneggiare la letteratura
persino di singoli settori specializzati2. A tale già rilevante
problema si è aggiunto poi quello dell’inquinamento prodotto
non solo dal proliferare di articoli non originali contenenti informazione ridondante o non significativa, ma anche dalla diffusione di informazioni e dati manifestamente falsi e dalla
soppressione di articoli incompatibili con i paradigmi dominanti o, peggio, con interessi estranei alla logica della ricerca.
L’analisi di tali problemi e la valutazione della loro rilevan-
91
za in relazione all’efficienza attuale del sistema della ricerca si
collocano in genere all’interno di un’ottica astrattamente etica,
che trascura le profonde modificazioni sociali ed economiche
che hanno accompagnato, e in gran parte modificato, l’originario profilo professionale e intellettuale dello scienziato. Tale
approccio è stato fatto proprio dalla sociologia della scienza,
che tradizionalmente ha trascurato le modificazioni sociali
indotte dal cambiamento di status economico dello scienziato e
dalla nascita, agli inizi del Novecento, di programmi nazionali
di politica della ricerca, ed è oggi dominante. Esso tende a
minimizzare la gravità delle disfunzioni patologiche, e a
trattarle come problemi di dinamica interna alla comunità
scientifica e gestibili autonomamente da questa stessa comunità. Tuttavia sia le linee guida emanate in tale ottica che le
sanzioni adottate da Enti nazionali di controllo (laddove esistano) lasciano trasparire la rilevanza del sistema economico
creato attorno all’impresa scientifica. Su tali aspetti insiste un
approccio più propriamente socioeconomico al problema delle
patologie della comunicazione, che propone invece di fare
ricorso a iniziative più incisive e decise che non l’appello all’ethos dello scienziato al fine di correggere o eliminare le radici
economiche di tali disfunzioni individuabili in alcuni principi
ispiratori di politica della scienza.
Una chiara discriminazione tra questi due approcci richiederebbe l’analisi delle caratteristiche distintive e delle profonde
modifiche che hanno fatto sì che la comunità scientifica di oggi
sia qualcosa di radicalmente e sostanzialmente diverso dalla
République des Lettres che tra Quattrocento e Settecento raccoglieva gli intellettuali in una grande comunità europea, libera
dal punto di vista sia religioso e politico che economico.
Il nucleo originario della comunità scientifica moderna è
costituito dalla comunità virtuale dei filologi e filosofi umanisti
che si riconoscevano nella ‘respublica litterarum’, il cui principio
fondamentale è già in un passo del De Officiis di Cicerone ma
che venne definito e diffuso in Europa soprattutto ad opera di
Erasmo da Rotterdam a partire dal 1517, per essere poi progressivamente sviluppato alla fine del Seicento e nel corso della
Rivoluzione francese3. Si trattava di una comunità fondata sul
legame sociale costituito dalla condivisione di interessi culturali perseguiti come attività disinteressata e oziosa (nel senso che
il termine otium aveva nell’antichità), cioè non professionalizzata e non remunerata, se non eventualmente attraverso l’istituto del mecenatismo. Tra i membri vigeva, per principio, una
assoluta parità di dignità che ammetteva solo il riconoscimento dell’eccellenza sulla base di meriti puramente culturali,
riconosciuti e sanciti dal suffragio più o meno universale della
stessa comunità, nonostante non fossero stati elaborati precisi
meccanismi di scrutinio e di valutazione. La comunità non
ammetteva confini geografico-nazionali o religiosi e adottava il
principio della tolleranza e della libertà di pensiero e di critica,
che venivano ritenuti garanzia essenziale della serietà e del
valore universale del lavoro culturale, soprattutto nell’indagine
filologica. Il patrimonio culturale costituito con lo sforzo
concorde dei membri della comunità, e di quanti li avevano
preceduti nel tempo, veniva considerato patrimonio comune
per diritto naturale ed era liberalmente condiviso prima attraverso il commercio epistolare e in seguito attraverso il sistema
delle riviste.
Questa comunità era dunque effettivamente fondata sui
principi dell’universalismo, del comunitarismo, del disinteresse e dello scetticismo che Robert K. Merton nel 1942 individuerà come principi fondamentali dell’etica scientifica.
Sfuggiva però a Merton che la comunità scientifica degli
anni Quaranta non corrispondeva già più alla vecchia République des Lettres e che quei criteri non potevano più essere soddisfatti da un gruppo sociale fortemente condizionato da rapporti di dipendenza economica da strutture statali o industriali e
dalla collaborazione attiva alla difesa militare di singoli Paesi.
92
93
Purtroppo sin dalla sua fondazione la sociologia della
scienza ha sottovalutato l’importanza dei mutamenti socioeconomici che hanno accompagnato la professionalizzazione del
lavoro scientifico, sicché ancora oggi è impossibile ricondurre i
casi di conflitto di interesse, dei quali sempre più spesso si
parla in rapporto al comportamento degli scienziati, alla
incompatibilità tra i criteri mertoniani di etica scientifica e le
condizioni oggettive del lavoro dello scienziato4. Gli stessi
ricercatori non hanno in realtà mai preso consapevolezza
dell’importanza di tali mutamenti e si considerano in genere
ancora come degli intellettuali liberi e incondizionati di tipo
pre-ottocentesco.
Per questo allo stato attuale gli studi sulle disfunzioni del
sistema di comunicazione scientifica partono da una concezione astratta (condivisibile ma forse troppo vaga) dei doveri dello
scienziato in quanto membro di una comunità in mutua interazione, per poter poi definire le infrazioni e gli abusi del sistema
di interazione come contravvenzioni di natura essenzialmente
etica.
La comunità scientifica è intesa, in quest’ottica, come un
corpo sociale che coopera in modo onesto e autentico per il
progresso culturale e materiale dell’umanità, indipendentemente da ogni interesse personale, politico, economico o
razziale. La conoscenza scientifica è considerata una proprietà
comune, incrementata continuamente da individui o gruppi in
mutua cooperazione e in onesta e nobile competizione. Anche
nel mondo altamente professionalizzato e competitivo di oggi i
ricercatori sono considerati come essenzialmente impegnati nel
perseguimento disinteressato della verità e nella ricerca di
nuovi punti di vista e scoperte. L’onestà dei confronti di sé
stessi e degli altri è considerata come un fondamento ineludibile e condizione essenziale per la cooperazione e la libera
competizione, dal momento che i ricercatori dipendono l’uno
dall’altro e non possono ottenere successi se non sono nella
condizione di poter avere fiducia gli uni negli altri e in chi li ha
preceduti. Le pubblicazioni sono il mezzo essenziale attraverso
il quale gli scienziati forniscono resoconti attendibili del
proprio lavoro, operano e contribuiscono all’avanzamento
della conoscenza e aspirano al diritto di riconoscimento per le
proprie scoperte. Per questo la disonestà nella pubblicazione
non solo rende incerta la ricerca e dubbi i risultati, ma distrugge e abolisce i fondamenti stessi dell’operare scientifico.
La pubblicazione di un articolo fraudolento è il primo esito
di una frode scientifica5 che consiste nella fabbricazione, falsificazione o manipolazione di risultati sperimentali e di dati statistici, e resta la trasgressione più grave e diffusa all’etica della
pubblicazione scientifica. Essa è normalmente considerata
come parte più rilevante della patologia scientifica così come il
plagio, la deliberata presentazione di idee o testi altrui come
propri6. Paragonate a queste, infrazioni come la pubblicazione
ripetuta (dello stesso articolo su differenti riviste), la pubblicazione sequenziale (il riferire i risultati dello stesso studio con
lievi modifiche ma senza nuovi risultati), il salami slicing (la
suddivisione dello stesso studio in diverse sezioni in modo da
ottenere più pubblicazioni a partire da un’unica ricerca) e il
dare credito come autore a persone che non hanno contribuito
in realtà alla pubblicazione (guest authorship), o invece non attribuire il giusto merito a chi vi abbia contribuito (ghost authorship), sono considerate tutte come trasgressioni meno rilevanti.
Tutte queste trasgressioni hanno l’effetto di produrre una
enorme quantità di letteratura inquinata che distorce la direzione lungo la quale si muove la ricerca scientifica. È stato approssimativamente calcolato che gli articoli inattendibili o fraudolenti pubblicati sulle oltre 5.600 riviste scientifiche censite dallo
Science Citation Index ammontino a circa 10.000 all’anno. Questo
solleva ulteriori problemi e crea le condizioni di altre disfunzioni patologiche. Il primo problema è quello dell’affidabilità
del sistema di revisione (peer review), che è stato istituito per
94
95
garantire la qualità della letteratura scientifica; in secondo
luogo c’è quello del ruolo e del destino delle idee scorrette e dei
dati inaffidabili generati da pubblicazioni fraudolente.
Le riviste scientifiche di buona qualità pubblicano oggi
articoli originali solo dopo che essi siano stati esaminati da
revisori (referees), competenti sia per la loro validità che per
l’originalità. Antecedenti del sistema del peer review risalgono al
XVII secolo, quando furono create le prime società e accademie
scientifiche in Italia, Francia Inghilterra e Germania, ma il
sistema moderno si è sviluppato in modo completo e maturo
solo dopo la Seconda guerra mondiale ed è stato adottato
innanzitutto e principalmente nell’area culturale anglosassone.
Si suppone che questo sistema abbia contribuito in modo significativo all’efficienza e all’organizzazione dell’impresa scientifica sul piano professionale, ma a partire dagli anni Ottanta
esso è stato severamente criticato non solo per i suoi enormi
costi, sia in termini di tempo che in termini di denaro, ma anche
per la sua progressiva perdita di accuratezza7. Naturalmente i
revisori hanno l’obbligo morale di fare ogni sforzo necessario
per individuare manipolazioni o falsificazioni; tuttavia attendersi che sia possibile individuare con sicurezza ogni pur
piccola irregolarità sarebbe ingenuo: i dati originali non sono
infatti accessibili ai revisori e anche se lo fossero questi non
avrebbero il tempo per replicare gli esperimenti e le osservazioni. Per questo secondo molti il sistema del peer review è così
vulnerabile al comportamento disonesto.
Altri difetti sono stati individuati nella negligenza dei
revisori (si è visto ad esempio che più alto è lo status accademico e l’età del revisore più bassa è la qualità della sua analisi),
in interessi personali dei referees e in varie forme di pregiudizio
(contro particolari individui, argomenti o istituzioni), il peggiore dei quali è quello nei confronti degli innovatori particolarmente originali. Alcuni autori hanno sostenuto che il sistema di
peer review, così come oggi viene gestito, favorisce la scienza
mediocre di base e non consente di riconoscere e di promuovere la creatività, l’originalità e l’innovazione8. Anche l’anonimato dei referees è stato chiamato in causa in quanto contrario alla
norme mertoniane dell’universalismo, della communality, del
disinteresse e dello scetticismo organizzato. In effetti il sistema
di peer review comporta alcuni seri rischi per l’autore, dal
momento che idee, ritrovati della ricerca e testi che non sono
protetti da brevetti o da proprietà intellettuale sono sottoposti
a persone la cui identità è ignota agli autori e che potrebbero
essere i loro diretti competitori.
Ulteriori problemi sono sollevati dalla gestione delle informazioni scorrette diffuse in seguito a infrazioni del codice etico
di comunicazione scientifica. Per quanto riguarda il destino dei
dati non corretti o falsi generati dalle varie trasgressioni la
comunità scientifica deve infatti ancora raggiungere un
accordo sul grado di inaccuratezza richiesto per imporre la
ritrattazione piuttosto che un erratum e su chi debba incaricarsi
della ritrattazione di un articolo9. Per quanto già nel 1987 il
comitato internazionale degli editori di riviste mediche abbia
pubblicato un manuale di norme per le modalità e la terminologia delle notizie di ritrattazione, tuttavia articoli che si sa
essere fraudolenti possono anche non essere affatto ritrattati o
essere ritrattati solo in parte e con formule ambigue. In altri casi
solo parte dei dati o delle conclusioni vengono ritrattati. I direttori delle riviste hanno poche possibilità di intervenire dal
momento che pubblicare correzioni o ritrattazioni implica
rischi giuridici nel caso in cui non tutti gli autori siano d’accordo per la ritrattazione. In ogni caso ritrattazioni omesse o
ambigue non sono le uniche cause che impediscono che lavori
scorretti vengano effettivamente eliminati dalla letteratura
scientifica10.
Da un’indagine compiuta su autori americani è risultato che
dopo la ritrattazione l’informazione non valida ha continuato
ad essere usata, dal momento che la maggior parte delle ritrat-
96
97
tazioni non vengono chiaramente indicate dai giornali responsabili e che non esiste alcuna fonte affidabile e completa per
accertare se un lavoro sia stato ritrattato o sia stato giudicato
fraudolento o scorretto11.
Una notevole rilevanza etica deve essere accordata anche
alla sottile attività di censura per mezzo della quale amministrazioni e società tendono a controllare e a limitare la diffusione di conoscenze scientifiche e tecnologiche ‘sensibili’, invocando la tutela della sicurezza nazionale o ragioni economiche12.
Problemi etici di questo tipo dipendono dalla struttura
stessa dell’impresa scientifica, così come essa era stata strutturata nel XVII secolo, ma sono cresciuti in importanza ed estensione in tempi recenti. Casi di plagio o di pubblicazioni fraudolente sono stati rilevati anche nella storia della scienza passata
e alcuni di essi hanno coinvolto figure rilevanti come Tolomeo,
Luca Pacioli, Ernst Haeckel e gli stessi Galileo e Newton. Tuttavia si ammette che in genere se non il numero almeno l’importanza e l’impatto sociale delle trasgressioni all’etica della
pubblicazione scientifica siano cominciati a crescere negli anni
Quaranta. Vale a dire quando i governi occidentali iniziarono a
varare stabilmente programmi di politica della scienza in considerazione dei contributi che si supponeva la comunità scientifica potesse dare alla difesa nazionale e al progresso industriale. I nuovi criteri di finanziamento e di riconoscimento della
ricerca aumentarono la tradizionale competitività tra gli scienziati e fu proprio allora, nel 1942, che il sociologo L. Wilson
coniò l’espressione ‘publish or perish’. Non sarebbe tuttavia
corretto sostenere che nei primi trent’anni la competitività
abbia promosso un sensibile aumento di comportamenti
fraudolenti o l’inquinamento della letteratura scientifica. Il
punto di svolta è stato infatti stabilito alla fine degli anni
Settanta, quando la struttura sociale della comunità scientifica
ha subito alcuni cambiamenti cruciali dovuti essenzialmente
all’aumento esponenziale del numero di persone coinvolte
nella ricerca e al decremento proporzionale, per quanto non
assoluto, nell’attribuzione di fondi destinati a finanziare l’attività di ricerca.
La conseguente pressione economica, sulla quale le risorse
messe a disposizione da imprese private hanno avuto poco o
nessun effetto, ha generato una sempre più forte competizione
tra gli scienziati per i riconoscimenti accademici e per la carriera ma soprattutto per l’attribuzione dei fondi di ricerca. Cruciale è risultata la decisione di adottare la pubblicazione come
indicatore principale della qualità e della misura della produttività, che viene oggi valutata in base al numero di pubblicazioni in rapporto al tempo impiegato a produrle. Lo strumento
dell’analisi delle citazioni, che venne introdotto in quegli stessi
anni e che è basato sul concetto chiave di ‘fattore di impatto’
(rapporto tra il numero delle citazioni che una rivista riceve
rispetto al numero degli articoli pubblicati nel corso di un
determinato periodo), è stato poi esteso per calcolare l’impatto
del lavoro di singoli individui, di gruppi o di dipartimenti13.
L’uso di questi indici per valutare le domande di attribuzione
di fondi ha generato la corsa a produrre il minimo articolo
pubblicabile nel più breve tempo possibile sul giornale con il
più alto fattore di impatto.
Nello stesso tempo la crescita della popolazione scientifica
ha comportato un declino statistico dell’originalità e della
qualità dei contributi scientifici nonché degli standard etici,
mentre è aumentata la quantità degli articoli prodotti. La legge
di Lotka della produttività stabilisce infatti che in un certo
campo metà della letteratura scientifica viene prodotta da una
popolazione che è la radice quadrata del numero totale degli
scienziati attivi in quel settore. De Solla Price ha evidenziato
che la crescita esponenziale della popolazione scientifica
implica anche il proporzionale aumento del numero di scienziati capaci di scrivere articoli da professionisti ma non impor-
98
99
La gravità di questi problemi del sistema di comunicazione
scientifica è ormai ben chiara, ma le strategie di correzione e di
contenimento finora messe in atto sono viziate dall’incertezza
sulla natura etica o socioeconomica delle disfunzioni. O piuttosto dal diverso peso che viene attribuito ai moventi etici rispetto alle cause socioeconomiche e al rapporto che viene stabilito
tra i due ordini di motivi. Si tratta della stessa incertezza che
caratterizza la gestione del fenomeno patologico della fraudolenza scientifica, alla quale risultano strettamente legate le
maggiori questioni etiche relative alla comunicazione.
Nonostante l’aumento dell’interesse pubblico, nel corso
degli ultimi venticinque anni persino i tentativi di stabilire con
precisione le dimensioni del problema della frode scientifica
non hanno portato a risultati conclusivi: la sua magnitudine è
ancora ignota e la sua scoperta ampiamente casuale. Sono state
adottate linee guida e azioni o norme per controllare le frodi
scientifiche (e di conseguenza anche le frodi nella comunicazione scientifica), ma tali norme variano a seconda di quale dei
due principali e differenti approcci alla questione vengono
adottati.
I sociologi e la grande maggioranza degli scienziati condividono l’opinione che la frequenza e l’incidenza della frode scientifica non sia cambiata affatto in modo sensibile nel corso del XX
secolo. Essi ritengono che l’impressione che la frode sia aumentata sia il risultato dell’aumento dell’autoconsapevolezza all’interno della società moderna, assieme alle forti attese morali che
gli scienziati volti alla ricerca di conoscenza affidabile possano
raggiungere un più alto standard di probità16. Questo punto di
vista sembra essere sostenuto sia dai rapporti delle due più
importanti autorità americane responsabili del controllo dei casi
di frode – l’Office of Inspector General (OIG) della National
Science Foundation (NSF) e l’Office of Scientific Integrity (ORI)
del Public Health Service – che da quelli di analoghe autorità
nate in Danimarca, Norvegia, Finlandia e Australia. La strategia
conseguente a tale punto di vista mira sostanzialmente a garantire l’autonomia e il diritto di autoregolazione della comunità
scientifica in rapporto all’intervento legale e governativo. All’interno di quest’ottica viene anche raccomandato che le inchieste
vengano condotte innanzitutto da comitati accademici locali e
nello stesso tempo viene sottolineato il ruolo cruciale dell’educazione per elevare gli standard etici dei ricercatori.
Il punto di vista opposto sostiene invece che non esistono
dati ufficiali attendibili per valutare l’entità del problema frode,
che i rapporti noti suggeriscono che solo una parte relativamente piccola dei casi di frode viene attualmente scoperta e che
essa costituisce solo la punta di un iceberg. Secondo questo
punto di vista, l’autoregolazione e il puro appello a più rigide
norme etiche risultano inefficaci e non sostenibili17. Gli scienziati non sono infatti educati a sostenere confronti e a districarsi fra conflitti di interesse. La loro risposta immediata è usualmente scorretta: essi tendono a mettere in atto procedure che
impediscono loro di essere consapevoli della gravità o fonda-
100
101
tanti o innovativi14. Da una statistica elaborata dall’Istituto per
la informazione scientifica (ISI) risultò che il 55% degli articoli
scientifici pubblicati tra il 1981 e il 1985 su riviste censite dallo
stesso Istituto non vennero citati neppure una volta. Questo ha
indotto alcuni analisti a trarre la conclusione che più della
metà, o forse più di tre quarti, della letteratura scientifica è
inutile; altri hanno reagito contro il concetto che la maggior
parte degli articoli che non vengono citati siano privi di
valore15.
L’uso delle citazioni come misura dell’impatto e del valore
di una pubblicazione a fini di finanziamento ha creato le
premesse di un ulteriore fenomeno patologico: la costituzione
di ‘cartelli’ di citazioni e il diffondersi dell’autocitazione; è stato
stimato dallo stesso ISI che la citazione di articoli precedenti
dello stesso autore copre tra il 5% e il 20% delle citazioni totali.
tezza delle accuse e quindi di rispondere in modo adeguato;
questo comportamento rende difficile il lavoro di chi indaga e
impedisce spesso un giudizio equo basato su standard rigorosi. Da questo punto di vista risulta più ragionevole l’istituzione
di agenzie nazionali piuttosto che comitati locali. L’attenzione
viene spostata sul contesto sociale ed economico. Si assume che
queste trasgressioni riflettano semplicemente i problemi di una
scienza che oggi è troppo grande, troppo legata al mondo
imprenditoriale e troppo competitiva per garantire il suo scopo
primario: lo sviluppo culturale e materiale dell’umanità nel
modo dovuto e nel giusto rapporto con le risorse economiche e
intellettuali impiegate, nonché mantenendo lo stesso ritmo dei
tre secoli che sono trascorsi.
Per quanto riguarda le pubblicazioni scientifiche, questo
secondo approccio ha indotto il Committee on Publication
Ethics (COPE), creato in Inghilterra da venti direttori di riviste
scientifiche, a chiedere l’istituzione di un’agenzia indipendente
per scoprire, trattare e prevenire abusi nel settore della pubblicazione scientifica18.
Tuttavia non è stato possibile raggiungere un accordo
generale su questo punto di vista, che ha portato alcuni dei suoi
proponenti a raccomandare l’adozione di misure radicali di
correzione della politica della scienza innanzitutto in relazione
al rapporto tra popolazione scientifica ed entità dei finanziamenti, mentre le università, le accademie e gli enti di finanziamento e i governi si sono opposti tacitamente o apertamente a
queste proposte, e hanno insistito sull’importanza di elevare gli
standard etici attraverso l’insegnamento dell’etica della
ricerca19. Sull’effettiva efficacia di un’intensificazione dell’educazione etico-scientifica sono stati però avanzati dubbi20.
L’importanza primaria dell’educazione etica e nello stesso
tempo metodologica emerge particolarmente in rapporto ad
alcuni dei problemi della pubblicazione scientifica che sembra-
102
no meno direttamente connessi ai problemi sociali ed economici del sistema scientifico che non, piuttosto, a peculiarità di aree
di ricerca specifica che coinvolgono o implicano diversità culturali o hanno a che fare con diritti umani o animali. E infatti, per
quanto la scienza sia largamente transculturale, la comunità
umana non ha ancora sviluppato completamente un corpo di
nozioni etiche transculturali. In alcuni settori di ricerca questo
può incidere sia sulla metodologia che sull’etica. Una fiducia
acritica e ottusa sui principi che il ricercatore ha ricevuto culturalmente e sui valori relativi all’identità personale e fisica, alla
salute, agli affetti, alla sofferenza, alla morte, ecc. possono
generare dati iniziali e osservazioni potenzialmente distorte
che a loro volta possono generare divergenze sistematiche in
antropologia, psicologia, sociologia o nelle ricerche mediche,
nelle quali si possono verificare anche infrazioni sistematiche
in rapporto ai diritti umani o animali o allo sfruttamento di
popolazioni culturalmente o politicamente dipendenti21. Le
pubblicazioni scientifiche basate su tali ricerche sono in linea di
principio da considerarsi come impropriamente e scorrettamente impiantate e condotte. Gli standard etici e metodologici
correnti non includono tuttavia chiare ed efficaci norme per
autori, direttori di rivista e peer-reviewers, per quanto i problemi
che essi sollevano siano stati dibattuti in rapporto ad alcuni casi
particolarmente controversi.
Un primo generale tentativo di mitigare la pressione e la
spinta a pubblicare che sta dietro la maggior parte delle pratiche devianti è secondo molti quello di porre un limite superiore al numero di pubblicazioni che possono essere prese in
considerazione per valutare un candidato per l’avanzamento di
carriera o per il finanziamento22. Tuttavia alcuni esperti hanno
anche suggerito che il numero delle riviste scientifiche venga
drasticamente ridotto23. Sulla stessa linea, per quanto l’uso di
indicatori quantitativi dei risultati e della produttività scientifi-
103
ca sembri inevitabile, è stato raccomandato che i fattori di
impatto non vengano usati direttamente e semplicemente come
base per le decisioni relative ai finanziamenti e che la qualità
delle pubblicazioni debba essere presa in maggiore considerazione, e forse preventivamente, rispetto ai criteri quantitativi.
Per quanto non siano auspicabili misure efficaci diverse da
sanzioni severe contro le maggiori trasgressioni delle pubblicazioni scientifiche, come il plagio o la pubblicazione di dati falsi,
è stato raccomandato alle riviste di cooperare nel mettere in
atto controlli incrociati e nello stesso tempo agli istituti di
ricerca e università di conservare i dati primari sui quali sono
basate le pubblicazioni. Tutte le fonti e i metodi usati per
ottenere e analizzare questi dati dovrebbero essere a richiesta
apertamente messi a disposizione e la sparizione di dati
primari da un laboratorio dovrebbe essere considerata come
una infrazione grave ai principi basilari di un corretto operare
scientifico. D’altro canto, dal momento che non esiste una
definizione universalmente accettata di proprietà letteraria,
sono stati invocati criteri e requisiti specifici come quello di
riconoscere, con formule di ringraziamento o con nota a piè di
pagina, in ogni articolo che sia stato scritto da più autori, l’esatto contributo fornito da ognuno degli autori; oppure nel
firmare una dichiarazione nella quale ogni coautore affermi di
avere visto la versione finale dell’articolo e consenta alla sua
pubblicazione. Secondo questi criteri, nell’attribuire la qualifica
di autore in articoli a più mani si dovrebbero bilanciare i contributi intellettuali in rapporto all’ideazione di studi ed esperimenti e alla produzione, analisi e interpretazione dei dati e alla
preparazione del manoscritto che non piuttosto alla raccolta di
dati e ad altri lavori di routine. Nel caso in cui non vi sia nessun
particolare compito che possa essere ragionevolmente attribuito a un particolare individuo allora questo individuo non può
essere riconosciuto come autore in nessun modo. In linea di
principio tutti gli autori dovrebbero assumersi pubblicamente
la responsabilità del contenuto dell’articolo e non dovrebbe
essere consentito in alcun modo l’inserimento del nome di un
autore ‘onorario’. Per quanto riguarda invece le pubblicazioni
ripetitive è stata proposta fin dal 1969 la cosiddetta legge di
Ingelfinger, secondo la quale gli articoli vengono sottoposti
all’approvazione delle riviste con l’intesa che essi o la loro parte
essenziale non sono stati né pubblicati né sottoposti ad altre
riviste24. I referees devono vigilare sulle trasgressioni, e le norme
adottate da alcune riviste stabiliscono che, nel caso in cui essi
abbiano il sospetto di trovarsi di fronte a una frode, ne debbano
informare in via confidenziale il direttore. Per quanto riguarda
gli stessi referees viene ricordato che essi sono tenuti al dovere
della confidenzialità nell’analisi di un manoscritto e che sono
tenuti a palesare eventuali conflitti di interesse e a fornire
rapporti accurati e corretti in tempi ragionevoli. Il manoscritto
che viene loro sottomesso non può essere trattenuto o copiato e
sia il direttore che il referee non possono fare nessun uso di dati,
argomenti o interpretazioni in esso contenuti, a meno che non
abbiano ottenuto il permesso dell’autore. I direttori dovrebbero
considerare loro funzione l’assicurare che gli autori vengano
trattati in modo educato e corretto, e le loro decisioni di accettare o respingere un articolo dovrebbero essere basate soltanto
sull’importanza, l’originalità, la chiarezza e la qualità dell’articolo; per evitare casi di censura di articoli originali e creativi è
stato anche raccomandato che gli studi che contrastano con le
opinioni correntemente accettate siano considerati con una
particolare benevolenza e a tale scopo sia costituito presso ogni
rivista un comitato di garanti.
Sono stati anche avanzati altri suggerimenti in rapporto a
possibili pressioni esterne, come per esempio che le decisioni
editoriali non vengano influenzate dagli introiti attesi per la
pubblicità o per gli estratti, ma sembra che sia possibile fare
molto poco per quanto riguarda la segretezza imposta da
industrie come da governi su aree di ricerca sensibili.
104
105
Le azioni e le sanzioni prese in considerazione sono in
genere molto blande e comunque sicuramente meno gravi di
quelle adottate nei confronti delle frodi. Esse vanno dalla
semplice lettera di richiamo, o dall’invito a una maggiore
correttezza, alla pubblicazione di un avviso di pubblicazione
ridondante o di plagio. Nei casi più seri può essere imposta la
ritrattazione e sconfessione formale dell’articolo, che viene
eliminato dalla letteratura scientifica, informando gli altri direttori e le autorità che si occupano di indicizzare la letteratura
scientifica. Solo alcuni di tali casi più gravi vengono segnalati
ad autorità o istituzioni che abbiano titolo a compiere indagini
perché sono ravvisabili in essi vere e proprie frodi. Non si
hanno tuttavia dati chiari e affidabili sull’impatto che queste
linee guida e misure abbiano o possano avere sul lungo
termine, e molti elementi lascerebbero supporre che l’incertezza di fondo che caratterizza l’approccio al fenomeno costituisca
un serio ostacolo alla soluzione dei problemi attuali della
comunicazione scientifica.
Note
1 Charles Bazerman, Shaping Written Knowledge: The Genre and Activity of
the Experimental Article in Science, Madison, 1988 (trad. it. Le origini della scrittura scientifica: come è nata e come funziona l’argomentazione del saggio sperimentale, Bologna, 1991); David A. Kronick, A History of Scientific and Technical Periodicals, 2nd ed., Metuchen, NJ, 1976; Bernard Houghton, Scientific
Periodicals: Their Historical Development, Characteristics and Control, Hamden,
CT, and London, 1975; The Development of Science Publishing in Europe, ed. A.
Jack Meadows, Amsterdam-New York, 1980.
2 Il primo grido d’allarme venne lanciato da Georges A. Boutry,
Quantity versus Quality in Scientific Research: The Paper Explosion, in “Impact
of Science on Society”,. n. 20, 1970, pp. 195-206.
3 Gli studi più importanti sull’idea di ‘respublica literarum’ sono quelli di
Paul Dibon, Communication in the Respublica Literaria of the 17th Century, in
Respublica Literarum. Studies in the Classical Tradition, Kansas, vol. 1 (1978),
pp. 43-55; e Marc Fumaroli, La République des Lettres Redécouverte, in Il
Vocabolario della République des Lettres. Atti del Convegno Internazionale in
memoria di Paul Dibon, a cura di Marta Fattori, Firenze, 1997, pp. 41-56, che
erano stati preceduti da quelli di Annie Barnes, Jean Le Clerc (1657-1736) et
la République des Lettres, Paris, 1938 e Fritz Schalk, Erasmus und die Respublica Litteraria, in Actes du Congrès Erasme, Amsterdam-London, 1971, pp. 14-28.
4 Tuttavia proprio in rapporto alla comunicazione scientifica Merton
rilevava l’incompatibilità tra il principio della communality e la segretezza
imposta dai diritti di proprietà industriale: «Il concetto istituzionale della
scienza come parte del patrimonio comune è collegato all’imperativo della
comunicazione delle scoperte. La segretezza è l’antitesi di questa norma; la
comunicazione completa e aperta è la sua messa in atto. La pressione per la
diffusione dei risultati è rinforzata dallo scopo istituzionale di avanzare i
confini della conoscenza e dall’incentivo del riconoscimento che è, naturalmente, subordinato alla pubblicazione [...]. Il carattere comunitario della
scienza si riflette anche nel riconoscimento da parte degli scienziati della loro
dipendenza da un retaggio culturale su cui essi non avanzano pretese [...]. Il
comunitarismo dell’etica scientifica è incompatibile con la definizione del
carattere di proprietà privata in un’economia capitalistica, di scoperte tecnologiche. Scritti correnti sulla frustrazione della scienza riflettono questo
conflitto. I brevetti proclamano diritti esclusivi di uso e, spesso, di non uso.
106
107
La soppressione dell’invenzione nega la giustificazione della produzione e
della diffusione scientifica» (Rober K. Merton, Social Theory and Social Structure, trad. it. Teoria e struttura sociale, Bologna, 1966, pp. 784-785).
5 Il rapporto tra frode scientifica e infrazione ai codici che regolano la
Derek J. De Solla Price, Little Science, Big science, New York, 1963; Paul J.
Friedman, Correcting the Literature following Fraudulent Publication, in
“JAMA”, n. 263, 1990, pp. 1416-1419.
15 David P. Hamilton, Publishing by – and for? – the Numbers, in
comunicazione tra scienziati venne stabilito già negli anni Ottanta da
Robert G. Petersdorf, The Pathogenesis of Fraud in Medical Sciences, in
“Annals of Internal Medicine” n. 104, 1986, pp. 252-254.
6 Marcel LaFollette, Stealing into Print: Fraud, Plagiarism and Misconduct in
“Science”, n. 250, 1990, pp. 1331-2.
16 Marcel LaFollette, The Evolution of the “Scientific Misconduct” Issue: An
Scientific Publishing, Berkeley, 1992; Judith Serebnick, Identifying Unethical
Practices in Journal Publishing, in “Library Trends” n. 40, 1991, pp. 357-372.
7 Douglas P. Peters, Stephen J. Ceci, Peer Review Practices of Psychological
Journals: The Fate of Published Articles submitted again, in “Behavioral and
Brain Sciences”, n. 5, 1982, pp. 187-195; Steve Lock, A Difficult Balance: Editorial Peer Review in Medicine, Philadelphia, 1987.
8 David F. Horrobin, The Philosophical Basis of Peer Review and the Suppression of Innovation, in “JAMA” n. 263, 1990, pp. 1438-1441; Juan Miguel
Campanario, Have Referees rejected Some of the Most-Cited Papers of All Times?,
in “Journal of the American Society for Information Science”, n. 47, 1996,
pp. 302-310; Gordon Moran, Silencing Scientists and Scholars in Other Fields:
Power, Paradigm Controls, Peer Review and Scholarly Communication, Greenwich, CN, 1998.
9 John M. Budd, MaryEllen Sievert, Tom R. Schultz, Reasons for Retraction and Citations to the Publications, in “JAMA”, n. 280, 1998, pp. 296-7.
10 William P. Whitely, Drummond Rennie, Arthur W. Hafner, The Scientific Community’s Response to Evidence of Fraudulent Publication, in “JAMA”,
n. 272, 1994, pp. 170-173.
11 Mark P. Pfeifer, Gwendolyn L. Snodgrass, The Continued Use of Retracted, Invalid Scientific Literature, in “JAMA”, n. 263, 1990, pp. 1420-1423.
12 Harold C. Relyea, Silencing Science: National Security Controls and
Scientific Communication, Norwood, NJ, 1994.
13 Eugene Garfield, Citation Analysis as a Tool in Journal Evaluation, in
“Science”, n. 178, 1972, pp. 471-479; Eugene Garfield, Citation Indexing: Its
Theory and Application in Science, Technology and Humanities, New York, 1979.
14 Derek J. De Solla Price, Measuring the Size of Science, in “Proceedings
Historical Overview, in “Proceedings of the Society for Experimental Biology
and Medicine”, n. 224, 2000, pp. 211-215.
17 Steve Lock, Research Misconduct: A Résumé of Recent Events, in Fraud and
Misconduct in Medical Research, ed. S. Lock, F. Wells, London, 1993, pp. 5-24.
18 Committee on Publication Ethics, Annual Report 1998, London.
19 Gerlinde Sponholz, Teaching Scientific Integrity and Research Ethics, in
“Forensic Science International”, n. 113, 2000, pp. 511-514; Judy E. Stern,
Deni Elliot, The Ethics of Scientific Research. A Guide for Course Development,
Hanover-London, 1997; Research Ethics, Cases and Materials, ed. R.L. Penslar,
Bloomington, 1995.
20 B. Lo, Skepticism about Teaching Ethics. Sigma Xi The Scientific Research
Society. Ethics, Values and the Promise of Science, Forum Proceedings, Research
Triangle Park, NC, 1993, pp. 151-6.
21 Si veda ad esempio, per un caso famoso nella ricerca antropologica,
Paul Shankman, The History of Samoan Sexual Conduct and the Mead-Freeman
Controversy, in “American Anthropology”, n. 3, 1996, pp. 555-567 e per la
medicina Allan M. Brandt, Racism and Research: The Case of the Tuskegee
Syphilis Study, in “Hastings Center Report”, n. 8, 1978, pp. 21-29 e inoltre
T.P. Stossel, SPEED: An Essay on Biomedical Communication, in “The New
England Journal of Medicine”, n. 313, 1985, pp. 123-6; CIOMS, International
Guidelines for Ethical Review of Epidemiological Studies, in “Law, Medicine &
Health Care”, n. 19 (3-4), Appendix I, 1991, pp. 247-258.
22 K. Buchholz, Criteria for the Analysis of Scientific Quality, in “Scientometrics”, n. 32, 1995, pp. 195-218.
23 Gerald W. Bracey, The Time has come to abolish Research Journals: Too
many are writing too much about too little, in “Chronicle of Higher Education”,
n. 30, 1987, pp. 44-5.
24 Marcia Angell, Jerome P. Kassirer, The Ingelfinger Rule revisited, in
“The New England Journal of Medicine” n. 325, 1991, pp. 1371-1373.
of the Israel Academy of Science and Humanities”, n. 4, 1969, pp. 98-111;
108
109
Non avevo niente da temere, perché tutti quanti
hanno doti meravigliose nascoste nel profondo,
l’unica differenza è che alcuni riescono a
condividerle con il prossimo, e alcuni invece no.
Fatema Mernissi, La terrazza proibita
Valutazione e risorse umane
Criteri ed indicatori per la valutazione
degli Istituti del CNR
Lucia Padrielli*
Marina Perotti
Consiglio Nazionale delle Ricerche, Ufficio del Presidente, Roma
Fabrizio Tuzi
Consiglio Nazionale delle Ricerche
Dipartimento per le attività scientifiche e tecnologiche, Roma
Introduzione
Pur ritenendo che solo un panel di esperti del settore scientifico di competenza, selezionati in un contesto internazionale,
possa dare una corretta valutazione dell’efficacia di un Istituto
in un determinato campo, e che nessun parametro, più o meno
numerico, possa esprimere la reale visibilità, importanza e
* Lucia Padrielli durante la sua carriera ha ricoperto molte cariche di
prestigio nazionale ed internazionale, è stata direttrice dell’Istituto di
Radioastronomia e componente del Consiglio Direttivo del CNR. Ha
lasciato a coloro che l’hanno conosciuta immagini intense legate alle sue
capacità scientifiche, al rigore morale, all’interesse sociale, all’ironia. In
suo ricordo è operativo il sito http://www.ira.cnr.it/ricordo/lucia/index.html (Adriana Valente).
113
risonanza che un Istituto ha in un contesto di competizione
nazionale ed internazionale, il Consiglio Direttivo del CNR si è
comunque voluto dotare di criteri di valutazione, oggettivi ed
omogenei fra i vari Istituti.
Questi criteri hanno accompagnato i primi anni di applicazione dei nuovi regolamenti e il processo di revisione della rete
scientifica. L’analisi di vari parametri e indicatori ha infatti
permesso il confronto fra Istituti dello stesso settore, ha consentito una sorta di valutazione che è stata molto importante quale
supporto nelle scelte per le aggregazioni scientifiche, per la
distribuzione di fondi e posti e nella difficile scelta di chiudere
un certo numero di strutture (circa il 10% rispetto al numero
complessivo).
Valutazione della Ricerca (CIVR) del Ministero dell’Istruzione,
dell’Università e della Ricerca (MIUR):
Parametri per la valutazione
Appare evidente come i primi due punti rappresentino i
cardini fondamentali su cui poggia la missione dell’Ente. I
punti successivi (da 3 a 5) si configurano come iniziative direttamente conseguenti allo svolgimento ed alla promozione delle
attività di ricerca.
Il modello ha poi dovuto tenere conto anche dei criteri
generali di valutazione indicati dal Comitato di indirizzo per la
È necessario, inoltre, sottolineare che il CNR svolge e promuove attività scientifico-tecnologiche estremamente differenziate sia
in termini di azioni (progetti singoli, progetti multidisciplinari,
programmi nazionali e/o internazionali, ecc.) e relativi output ad
esse correlati, sia in termini di contenuti scientifici (carattere
‘generalista’ dell’Ente). Il modello di valutazione deve pertanto
essere articolato e flessibile, in grado da un lato di valutare le
attività inerenti le finalità istituzionali dell’Ente a differenti livelli
di aggregazione – ‘micro’ (singolo ricercatore, progetto, Istituto) e
‘macro’ (aree tematiche, Ente nel suo complesso) – ed allo stesso
tempo deve essere coerente con i criteri generali fissati dal CIVR.
Tenendo conto di questo quadro di riferimento, è stato
quindi messo a punto, in via sperimentale, un insieme di
indicatori oggettivi per la valutazione delle attività del CNR.
Nel presente rapporto, volendo focalizzare l’attenzione esclusivamente sulle attività connesse alla valutazione degli Istituti
del CNR, non verrà approfondito l’aspetto della valutazione
delle attività di promozione della ricerca, in quanto tali attività
attengono all’Ente nel suo complesso e non ai singoli Istituti.
Gli indicatori, utilizzati per la valutazione degli Istituti del
114
115
Il modello seguito per la valutazione delle attività scientifico-tecnologiche del CNR ha tenuto in considerazione i campi
operativi istituzionalmente previsti dalla missione dell’Ente
(art. 2 D.lgs. n. 19 del 30 gennaio 1999), che possono essere così
schematizzati:
1.
2.
3.
4.
5.
Ricerca intramurale
Promozione della ricerca
Trasferimento e diffusione dei risultati
Attività internazionali
Formazione
1. Produttività complessiva dell’Istituto
2. Qualità del lavoro svolto
3. Grado di internazionalizzazione
4. Prospettive d’innovazione delle ricerche
5. Interazione con il sistema produttivo e sociale
6. Impatto sul sistema produttivo e sociale
7. Grado di sinergia con altri enti
8. Grado di localizzazione degli obiettivi in relazione all’uso
ottimale delle risorse
9. Capacità di attrarre risorse
10. Capacità di gestione delle risorse.
CNR, sono stati raggruppati in cinque macro-aree di performance sulla base delle tipologie di output da analizzare:
1. Produttività e qualità scientifica
Questo parametro è chiaramente uno dei più importanti
nella valutazione dell’attività degli Istituti. Al suo valore
numerico hanno contribuito i seguenti dati, tratti dai consuntivi scientifici degli Organi di ricerca (prima della revisione) per
gli anni 1998 e 1999:
Figure 1 - 3
1.1 N° Pubblicazioni JCR (Journal of Citation Report)/N° ricercatori
1.2 N° Altre pubblicazioni internazionali /N° ricercatori
1.3 N° Volumi editi/N° ricercatori
1.4 N° Capitoli di libri e libri /N° ricercatori
1.5 N° Pubblicazioni nazionali/N° ricercatori
1.6 Impact factor medio
1.7 Relative citation rate (citazioni ottenute/citazioni attese)
Naturalmente alcuni parametri sono più significativi di
altri. Per esempio, il parametro 1.1 è il più importante per gli
Istituti che operano nel campo delle scienze così dette ‘dure’,
mentre per gli stessi Istituti i parametri 1.3, 1.4 sono meno
significativi (piccoli numeri). Viceversa questi ultimi sono
molto importanti per le attività nel campo delle scienze così
dette ‘umanistiche’ (giuridiche, storiche, sociali, beni culturali).
Per questi motivi i vari parametri sono stati analizzati dividendo gli Istituti in aree omogenee e all’interno di dette aree i
parametri sono stati considerati con diversi pesi.
Portiamo come esempio la distribuzione del parametro 1.1,
che è stato considerato come il più importante per gli Istituti e
Centri appartenenti all’area di Scienze di Base (numerati da 1 a
98) (Fig. 1), Scienze della Vita (numerati da 1 a 95) (Fig. 2),
Scienze dell’Ambiente (numerati da 1 a 41) (Fig. 3), e Scienze
Tecnologiche (numerati da 1 a 46) (Fig. 4). Il valore, riportato
per ogni singolo Organo di ricerca prima della revisione della
rete, rappresenta il numero di pubblicazioni JCR per ricercatore mediato sui due anni di riferimento.
116
117
Figura 4
Figura 6
Per le Scienze di Base e le Scienze della Vita il valore medio è
intorno a 2, con uno scarto quadratico medio piuttosto alto. Per le
Scienze dell’Ambiente il valore si abbassa a circa 1 e per gli Istituti di carattere prettamente tecnologico si abbassa ulteriormente.
Per questi ultimi, altri indicatori, quali brevetti o indicatori di
trasferimento tecnologico, cominciano ad essere più importanti.
Altro indicatore di una certa rilevanza è l’impact factor medio,
di cui diamo la distribuzione nel caso di Istituti e Centri appartenenti a Scienze di Base (98 strutture) e Scienze della Vita (95
strutture) (Fig. 5 e Fig. 6).
Le distribuzioni dei valori variano molto per i diversi
settori. Valori più alti si raggiungono per Istituti operanti nel
settore Scienza della Vita e valori praticamente nulli si hanno
per gli Istituti di carattere umanistico. Proprio per questo
motivo, tale indicatore non è stato preso in considerazione
per la valutazione degli Organi afferenti alle Scienze umanistiche.
Il passo successivo è stato quello di utilizzare in maniera
congiunta l’impact factor (IF) e le citazioni ottenute dallo
stesso set di articoli analizzati, al fine di ottenere un indicatore adimensionale dato dal rapporto tra citazioni attese
(notoriamente legate all’IF) e citazioni realmente ottenute da
ciascuna pubblicazione (relative citation rate).
Per ogni indicatore è poi stato attribuito agli Organi,
analizzati per aree omogenee, un valore correlato alla differenza fra il parametro dell’Organo e quello medio del settore
(in unità di scarto quadratico medio). Alla fine, una media
degli indicatori (pesando opportunamente gli indicatori più
importanti) ha prodotto un valore numerico unico per la
‘produzione e qualità’ per ogni Istituto. Questo processo
viene riportato nel dettaglio in appendice.
Figura 5
118
119
2. Visibilità internazionale
Per valutare il livello di internazionalizzazione dei singoli
Istituti in un quadro di riferimento principalmente europeo
sono stati tenuti in considerazione i seguenti parametri:
2.1 N° Progetti UE
2.2 N° Progetti UE/N° ricercatori
2.3 Budget UE annuo/N° ricercatori
zione ai progetti internazionali, confermando la necessità di
avere a disposizione sufficiente massa critica per la partecipazione a tali progetti. I Centri erano, infatti, ben lontani dall’avere massa critica, in termini soprattutto di risorse umane,
necessaria per presentare e gestire progetti UE.
Figure 7 - 8
A questi si sono aggiunti altri parametri che indicano la
visibilità dell’Istituto anche in un contesto più ampio di quello
europeo:
2.4 N° Incarichi internazionali/N° ricercatori
2.5 Large scale facilities internazionali (Sì/No)
2.6 N° Consorzi internazionali partecipati
2.7 Partecipazione ad Istituti internazionali (Sì/No)
Istituti
Anche in questo caso ci troviamo di fronte ad una notevole
disomogeneità; i progetti UE, infatti, dipendono dal settore di
attività dell’Istituto, così come pure la partecipazione a Consorzi o Istituti internazionali. Inoltre l’analisi è stata estesa a tutti
gli Organi preesistenti alla revisione, anche ai Centri di studio
che rispetto agli Istituti erano, generalmente, caratterizzati da
una più esigua presenza di risorse umane e finanziarie.
A scopo esemplificativo riportiamo in Fig. 7 e Fig. 8 la distribuzione del numero di progetti UE per ricercatore degli Organi
afferenti alle Scienze dell’Ambiente e quelli afferenti alle
Scienze della Vita. Si rileva che circa metà degli Organi hanno
contratti con l’UE, con un valore medio intorno a 0,15 per ricercatore. Analoghe distribuzioni si ottengono anche per le altre
aree scientifiche. Indipendentemente dall’uso che è stato fatto
di questo parametro, i risultati statistici hanno messo in risalto
una netta differenziazione tra Istituti e Centri nella partecipa-
Anche in questo caso i vari indicatori sono stati analizzati
per aree omogenee ed a ogni Istituto è stato attribuito un valore
120
121
Istituti
corrispondente alla differenza fra il parametro dell’Istituto e
quello medio del settore (in unità di sigma). Alla fine, una
media ha prodotto un valore numerico unico per la ‘visibilità
internazionale’ di ogni Istituto, escludendo dall’analisi i
parametri 2.5, 2.6, 2.7 che in questa prima fase non presentavano una documentazione omogenea delle fonti da cui prelevare
tali informazioni (i consuntivi scientifici degli Organi del CNR).
Figure 9 - 11
3. Impatto con il sistema socio-economico
Sono stati considerati vari fattori che danno in qualche
modo una misura dell’interazione degli Istituti con il sistema
socio-economico a livello nazionale ed internazionale. I
parametri valutati sono:
3.1 N° Richieste deposito Brevetti
3.2 Budget dal ‘mercato’/Budget totale (compreso il costo del
personale)
3.3 Budget dal ‘mercato’/N° ricercatori
3.4 N° Banche dati
3.5 N° Eventi (corsi, convegni, seminari, ecc.) organizzati/N°
ricercatori
3.6 N° Incarichi nazionali/N° ricercatori
Il fattore più importante in questo gruppo di indicatori è il
3.2, che ci fornisce una diretta misura della capacità dell’Istituto di attrarre finanziamenti esterni. Nelle figure che seguono
sono riportate per tutte le aree scientifiche le distribuzioni del
rapporto fra l’autofinanziamento e il finanziamento totale degli
Istituti (3.2). Le percentuali di autofinanziamento risultano
senza dubbio notevoli (fino al 60%), se si considera che nel
costo sono comprese anche le spese per il personale. Come si
vede, anche gli Istituti a carattere umanistico acquisiscono (se
pur in modo inferiore) fondi esterni all’Ente.
122
123
Figure 12 - 13
4.1 N° Borse di studio/N° ricercatori
4.2 N° Dottorandi/N° ricercatori
4.3 N° tesisti/N° ricercatori
4.4.N° Corsi universitari/N° ricercatori
4.5 N° altri corsi/N° ricercatori
Anche in questo caso i parametri non hanno tutti la stessa
importanza, e si sono attribuiti pesi diversi ai vari parametri.
Il risultato
Al termine del processo è stato possibile assegnare un valore
o meglio un indicatore unico di qualità ad ogni singolo Istituto
e Centro dell’Ente, prima del processo di revisione. A partire,
infatti, dai risultati realizzati da ciascun Organo nelle diverse
macro-aree, gli Istituti ed i Centri, nell’ambito delle rispettive
aree scientifiche di afferenza, sono stati distribuiti all’interno di
sei categorie di performance che assumevano una ripartizione
dei valori tra 0 e 3 (0,5-1-1,5-2-2,5-3). La distribuzione degli
Istituti nelle diverse categorie di performance è mostrata nelle
figure che seguono. Tutti gli Organi dismessi appartenevano
alla categoria n. 1 (valore 0,5).
Anche in questo caso si è calcolato un unico indicatore come
media pesata dei singoli valori, sempre in termini di distanza
dalla media in unità di scarto quadratico.
Figura 14
4. Formazione
L’alta formazione rappresenta una delle più importanti funzioni
affidate al CNR dalla riforma. Questa funzione mantiene attivo e
produttivo il livello di scambio tecnologico-scientifico con le
Università, produce le nuove generazioni di ricercatori e tiene vive
le scuole di eccellenza degli Istituti. È stato quindi messo a punto un
set di valori per valutare l’attività didattico-formativa degli Istituti:
124
125
Figure 15 - 18
Va, infine, segnalato che il ranking ‘oggettivo’ scaturito dagli
indici sopra riportati è stato poi confrontato con i ‘giudizi’ che,
a suo tempo, erano stati espressi dai Comitati nazionali del
CNR sui singoli Organi di ricerca, attraverso un tipico processo di peer rewieving.
È importante sottolineare che per oltre il 95% degli Organi il
giudizio ‘freddo’ degli indicatori corrispondeva a quello ‘caldo’
formulato dagli ex Comitati. Tale dato conforta in qualche
modo la qualità della scelta degli indicatori.
Modello futuro
Queste prime esperienze possono essere preziose per
sviluppare e migliorare il modello di valutazione applicabile al
CNR nel suo complesso.
A fianco dei Consigli Scientifici, che producono giudizi ‘a
caldo’, per gli Istituti possono continuare ad operare valutazioni generali e statistiche basate su indicatori. Queste analisi sono
in grado di mettere in risalto i punti di forza e dare indicazioni
sui punti di debolezza del Sistema Ricerca del nostro Ente.
Accanto agli indicatori puramente scientifici utilizzati nella
prima fase dovranno essere considerati anche indicatori di
carattere gestionale-economico, come indicato dal CIVR.
5. Gestione delle risorse
5.1 Indice di autonomia finanziaria
5.2 Indici di incidenza dei residui
5.3 Velocità di gestione (spese/entrate)
5.4 Indice di corrispondenza tra obiettivi dichiarati nel Piano
Triennale e risultati raggiunti
126
127
Confronto con i parametri indicati dal CIVR
Al fine di confrontare il modello di valutazione utilizzato
dal CNR con le indicazioni del CIVR, nella tavola successiva
vengono evidenziate le correlazioni tra le macro-aree di performance analizzate dagli indicatori adottati ed i criteri generali
proposti dal CIVR, per la ricerca intramurale (Tab. 1).
128
Tabella 1. Matrice di correlazione tra le macro-aree di performance ed i criteri generali di valutazione
proposti dal CIVR – ricerca intramurale
È opportuno segnalare che per quest’ultima tipologia di
indicatori solo a valle del processo riorganizzativo dell’Ente
sarà possibile il calcolo di ciascun indice a livello di singola
struttura scientifica.
129
APPENDICE
Criteri seguiti per le operazioni di ranking
I dati
I dati ‘sorgente’ sono stati ricavati dalle seguenti fonti:
– Consuntivi 1998 e 1999 (Dati riguardanti gli output scientifici conseguiti dagli Organi di ricerca);
– Conto Consuntivo CNR 1998 e 1999 (Dati finanziari). I
valori di autofinanziamento sono calcolati sulla base degli
importi impegnati;
– UASI/Dipartimento del Personale (Costo e numero del personale, eccetto il numero dei professori associati ai Centri di
Studio che invece è stato ricavato dai Consuntivi 1998 e 1999);
– Dipartimento Relazioni Internazionali (Dati progetti UE);
– Science Citation Index 1995, 1996, 1997, 1998 (ISI) – (Per il
calcolo del RCR);
– Journal of Citation Report 1995, 1996, 1997 e 1998 (ISI) – (Per il
calcolo del RCR e dell’IF medio).
Il numero dei ricercatori si riferisce esclusivamente ai primi
tre livelli contrattuali del CNR (Ricercatore + Primo Ricercatore + Dirigente di ricerca). Oltre al personale dell’Ente, sono stati
presi in considerazione, nel computo del N° di ricercatori,
anche il personale di ricerca universitario assegnato per
convenzione agli Organi CNR, al fine di ridurre il bias sistematico dovuto alla sottostima del numero del personale che effettivamente opera presso i Centri e che attivamente contribuisce
alla produzione scientifica degli stessi.
II. È stato poi calcolato il valore medio 98-99 di ciascun indicatore.
III. Sono stati individuati dei clusters omogenei di Organi di
ricerca per il confronto dei dati.
IV. Per ciascun indicatore, nell’ambito di una data macro-area
e del cluster selezionato, è stata effettuata l’operazione di
ranking, utilizzando la seguente equazione:
dove
R = [((xj – xmedio)/2σ)+1]*2
xj = valore dell’indicatore jesimo
xmedio =valore medio per cluster
σ = Σ(xj – xmedio)2/n-1
V. Ciascun valore R ottenuto è stato poi moltiplicato per il
‘peso’ attribuito all’indicatore cui esso si riferisce.
VI. Sulla base dei singoli valori R così calcolati, per ciascun
Organo di ricerca è stato calcolato il valore Rmedio pesato
per macro-area.
Di seguito vengo illustrati i criteri generali utilizzati per le
operazioni di ranking degli Organi di ricerca del CNR:
I. Per ciascun Organo di ricerca sono stati calcolati i valori
degli indicatori di cui alle pagine precedenti, sulla base
dei dati 1998 e 1999.
In particolare, per quel che riguarda il ranking della macroarea 1. Produttività e qualità scientifica, si è operato nel seguente
modo:
A. Costruzione dei clusters: gli Organi di ricerca ed i relativi
indicatori medi sono stati raggruppati in aree disciplinari
omogenee, sulla base dell’afferenza degli Organi agli ex
comitati, tenendo distinti gli Istituti dai Centri.
B. L’indicatore 1.3 è stato utilizzato ai fini del ranking solo per
gli Organi afferenti agli ex comitati 08, 09, 10, 15 relativi alle
Scienze umanistiche. Per gli altri Organi tale indicatore
mostrava una distribuzione estremamente irregolare.
C. Gli indicatori 1.1, 1.6, 1.7 non sono stati presi in considera-
130
131
zione per il ranking degli Organi afferenti alle aree di carattere umanistico sopra definite, in quanto non significativi
per tali discipline.
Per quel che riguarda il ranking della macro-area 2. Visibilità
internazionale, si è operato nel seguente modo:
D. Costruzione dei clusters: da un lato sono stati raggruppati gli
Organi afferenti agli ex comitati 1, 2, 3, 4, 5, 6, 7, 11, 12, 13 e
14 (Scienze di Base, della Vita, dell’Ambiente e Tecnologiche) e dall’altro gli Organi afferenti agli ex comitati 8, 9, 10,
15 (Scienze umanistiche).
E. Applicazione dei criteri generali (dal punto IV al punto VI).
F. Gli indicatori 2.5, 2.6 e 2.7 non sono stati utilizzati in quanto
i dati non sono ancora disponibili.
Per quel che riguarda il ranking della macro-area 3. Interazione con il sistema socio-economico, si è operato nel seguente modo:
G. Costruzione dei clusters: da un lato sono stati raggruppati gli
Organi afferenti agli ex comitati 1, 2, 3, 4, 5, 6, 7, 11, 12, 13 e
14 (Scienze di Base, della Vita, dell’Ambiente e Tecnologiche) e dall’altro gli Organi afferenti agli ex comitati 8, 9, 10,
15 (Scienze Umanistiche).
H. Applicazione dei criteri generali (dal punto IV al punto VI).
I. L’indicatore 3.1 non è stato utilizzato in quanto poco significativo.
Per quel che riguarda il ranking della macro-area 4. Formazione, si è operato nel seguente modo:
J. Costruzione dei clusters: sono stati costruiti due clusters,
raggruppando insieme tutti gli Istituti da un lato ed i Centri
di Studio dall’altro.
K. Applicazione dei criteri generali (dal punto IV al punto VI).
132
La produzione scientifica del CNR
nelle scienze sociali: considerazioni di genere
Rosa Di Cesare, Daniela Luzi, Adriana Valente
Consiglio Nazionale delle Ricerche
Istituto di ricerche sulla popolazione e le politiche sociali, Roma
Introduzione
Lo stereotipo della neutralità della scienza è stato messo in
discussione solo recentemente, dando il via a numerose analisi
sulla composizione di genere in Scienza e Tecnologia (S&T). Le
prime raccomandazioni di classificare il personale di ricerca
per sesso emanate dalla Division of Statistic on Science and
Technology dell’UNESCO risalgono al 1984 (UNESCO, 1984) e
alla fine degli anni Novanta anche la Commissione Europea
sottolineava la necessità di raccogliere dati disaggregati nelle
statistiche sulla scienza (EU, 2001). Per soddisfare tali richieste
è tuttavia necessaria una più attenta e sistematica raccolta di
dati, che attualmente non è invece sempre disponibile né all’interno di università ed enti di ricerca, né nelle basi bibliografiche
che riportano il cognome dell’autore/autrice delle pubblicazioni e indicano solo l’iniziale del nome.
Recenti indagini condotte in ambito europeo (EU, 2003; EU,
2002; EU, 2001) concordano nell’evidenziare che le donne sono
133
sottorappresentate nella ricerca, specialmente nelle posizioni al
vertice della carriera accademica, e confermano i risultati di
molti studi precedenti portati avanti a livello sia nazionale che
disciplinare (Nal, 2002; Pal, 2000; Ben, 1988; Wen, 1997). I risultati del Gruppo di Helsinky (EU, 2002) analizzano i dati
misurando sia la segregazione orizzontale che quella verticale.
Il primo indicatore, che rappresenta il tasso di concentrazione
delle donne nelle attività di ricerca e/o in specifici campi disciplinari, parte dal presupposto che una più equilibrata distribuzione numerica possa essere un buon risultato in termini di
eguaglianza di genere. La segregazione verticale, anche se
strettamente correlata a quella orizzontale, analizza la distribuzione femminile nei diversi livelli della carriera scientifica e
misura la mancata valorizzazione delle risorse umane femminili, nota anche con la metafora della ‘conduttura che perde’
(leaking pipeline).
Settori scientifici disciplinari influenzano entrambi gli
indicatori; per esempio c’è una minore presenza di donne nella
big science ed in ingegneria, mentre le donne sono maggiormente presenti in medicina e nelle materie umanistiche. Altri
fattori giocano un ruolo importante nel misurare le disuguaglianze di genere, quali l’organizzazione e la struttura di specifiche comunità scientifiche, il più ampio contesto scientifico
nazionale, l’istruzione scolastica, le politiche adottate a supporto delle pari opportunità, così come i ruoli ricoperti dentro e
fuori la famiglia. Tutti questi fattori rendono complessa l’analisi, tanto che studi che si rifanno a differenti Paesi e/o contesti
scientifici sono giunti a conclusioni diverse.
In genere si afferma che le donne non raggiungono alte
posizioni di responsabilità nella carriera in quanto non pubblicano tanto quanto gli uomini. Una interpretazione opposta è
stata fornita da altri autori (Lon, 2001; Gad, 2000; Lon, 1992).
Long, ad esempio, in uno studio condotto negli Stati Uniti
mostra che la differenza di produzione dipende dalle posizioni
ricoperte da uomini e donne: la posizione elevata nella carriera
e il relativo prestigio, nonché la maggiore probabilità di ricoprire ruoli dirigenziali forniscono maggiori occasioni di pubblicare. C’è tuttavia da sottolineare che il dato sulla minor produzione femminile non sempre viene confermato. Uno studio
condotto in ambito europeo (Bio, 2001; Nal, 2002) ha ad
esempio identificato differenze tra Nord e Sud: in Italia, Spagna
e Francia si registra una significativa maggioranza di autrici
rispetto a Germania, Regno Unito e Svezia. Un risultato simile
è stato ottenuto paragonando discipline diverse: le donne
pubblicano più degli uomini in biologia, biomedicina, scienze
della terra, mentre pubblicano meno in matematica.
È quindi necessario condurre ulteriori indagini, a livello sia
macro che micro, per interpretare le diverse variabili che condizionano la partecipazione femminile nella scienza, al fine di
identificare adeguate misure di superamento della segregazione e discriminazione femminile. Come più volte dichiarato a
livello internazionale, ciò richiede – come primo, importante
passo – una costante e accurata raccolta di dati che includano le
variabili di sesso e i profili professionali a livello sia istituzionale che nazionale. Ciò faciliterebbe gli studi futuri e fornirebbe un più ampio spettro di informazioni su cui basare l’interpretazione e l’analisi.
Questo lavoro intende contribuire al dibattito attualmente in
corso sulle problematiche di genere nella scienza, verificando
se e in quale misura alcune delle ipotesi della produzione
femminile siano valide per i campi disciplinari coperti dal
Social Science Citation Index (SSCI) prodotto dall’Institute for
Scientific Information (ISI). Per questa ragione è stata analizzata la produzione scientifica dei ricercatori e ricercatrici del
Consiglio Nazionale delle Ricerche che hanno pubblicato nei
periodici selezionati dal SSCI, che è generalmente il principale
indice utilizzato e abusato (Fig, 2000; Big, 2000; Ami, 2001; Di
Ces, 2002) per valutare la produzione individuale.
134
135
Materiali e metodi
Si è scelto di analizzare la produzione scientifica del personale CNR, in quanto il CNR è il maggiore ente pubblico di ricerca
italiano con 108 istituti distribuiti sull’intero territorio nazionale.
Ha una vocazione multi e interdisciplinare che comprende sia le
tradizionali scienze esatte che quelle umane e sociali, anche se
queste ultime per ragioni storiche sono numericamente e strutturalmente meno rappresentate (Sim, 2001). A partire dal 1999 il
CNR è in fase di riorganizzazione scientifica e strutturale e ciò
potrebbe aver influenzato la produzione del personale.
Per analizzare la produzione del personale CNR si è deciso
di avvalersi delle informazioni raccolte dalla sezione Source
Index della base di dati SSCI (versione CD-Rom 1999-2002),
disponibile presso la Biblioteca centrale del CNR, in quanto tale
sistema, anche se da più parti criticato rispetto alle modalità di
scelta delle riviste che recensisce (Val, 2002), viene utilizzato da
molte istituzioni scientifiche per valutare la produzione scientifica a livello sia istituzionale che di singoli ricercatori.
Dal 1999 il CNR ha inoltre incluso informazioni sul genere
nel suo Rapporto annuale (CNR, 2002a), rispondendo alle sollecitazioni sia europee che del comitato delle pari opportunità
interno all’ente. Il Rapporto Annuale, che fornisce dati e descrizioni sull’organizzazione, i risultati scientifici raggiunti in
ciascun anno e le risorse finanziarie utilizzate, rappresenta la
base per la valutazione di un comitato esterno e internazionale
delle attività scientifiche del CNR nel suo complesso, ma viene
anche usato per valutare la produttività a livello sia degli istituti di ricerca che di singolo ricercatore. Se si considera la produzione individuale, il Rapporto Annuale pone particolare enfasi
sulle pubblicazioni selezionate dall’ISI.
Il lavoro ha lo scopo di misurare la produzione del personale CNR nelle pubblicazioni selezionate dal SSCI negli anni
1999-2002 esaminando i contributi in una prospettiva di genere
e ponendo particolare attenzione ai dati sulle qualifiche professionali. Obiettivo secondario di questa analisi è di verificare le
metodologie di rilevazione di dati più idonee a rappresentare la
produttività individuale del personale di ricerca.
Per raggiungere il primo obiettivo, si è proceduto a:
– Selezionare dal SSCI le pubblicazioni che contengono
almeno uno autore/autrice dipendente del CNR;
– Identificare il genere degli autori e il relativo livello professionale consultando il libro matricola CNR (CNR 2003).
Le basi dati dell’ISI riportano l’elenco completo degli autori
e forniscono l’indicazione dell’ente di appartenenza. Gli autori
vengono riportati con il cognome e con la sola iniziale del
nome, e non esiste nessuna corrispondenza esplicita tra autore
e propria affiliazione, in quanto i nomi degli enti di appartenenza vengono riportati così come appaiono nel frontespizio
della pubblicazione. Inoltre, la denominazione dell’ente non è
soggetta a nessuna standardizzazione, così che essa può essere
riportata in molte varianti. Ciò vuol dire che la validazione dei
dati recuperati dal database diventa un compito assai delicato
soprattutto per ciò che riguarda le omonimie.
La consultazione del libro matricola ci ha permesso di
individuare sia il genere che il livello professionale e di controllare inoltre la corrispondenza tra autore/autrice e istituto di
appartenenza, in modo da eliminare i casi di omonimia. Nei
casi dubbi si è ricorsi al contatto diretto con l’autore. È stato
utilizzato un criterio restrittivo in quanto sono stati eliminati i
nominativi in cui non era certa l’appartenenza al CNR e sono
stati inoltre ignorati gli autori/autrici che hanno lasciato il
CNR da più di tre anni rispetto alla data di pubblicazione
dell’articolo. Non è stato inoltre possibile considerare il personale che opera con borse di studio o contratti atipici, in quanto
i loro nominativi non vengono riportati nel libro matricola.
Dalla base di dati del SSCI sono state inoltre recuperate le
seguenti informazioni che possono contribuire a fornire un
136
137
quadro sulle caratteristiche della produzione scientifica del
personale CNR:
– Tipo di pubblicazione secondo le definizioni utilizzate dall’ISI
(articles, review, book review, notes, letter, meeting abstract, editorial);
– Distribuzione delle riviste e individuazione delle corrispettive categorie ISI (SCI, 2000; SCCI, 2000);
– Individuazione e analisi degli articoli a cui hanno collaborato anche autori appartenenti ad altri enti nazionali e internazionali.
Per misurare la produzione scientifica sono stati utilizzati i
seguenti criteri:
– full counting, che assegna per intero la pubblicazione a
ciascun autore/autrice anche se questa è stata prodotta in
collaborazione con altri/e;
– pubblicazione equivalente, che attribuisce a ciascun autore
la quota corrispondente al numero di autori CNR che hanno
contribuito alla sua realizzazione (1/numero autori =
reciproco del numero degli autori del CNR).
Oltre ad un indicatore di contributo medio calcolato in base
alla pubblicazione equivalente, è stato utilizzato un indicatore di
produzione media (calcolato sommando le porzioni di contributo per ciascun autore secondo il genere e il livello professionale e
dividendo per il corrispondente numero di autori/autrici) che
esprime la produzione media secondo il genere e la qualifica.
È stato inoltre calcolato l’indice di femminilizzazione del personale che ha prodotto gli articoli selezionati dal SSCI che equivale al
rapporto tra autori e autrici (numero autrici/numero autori x 100).
alle analisi di genere e di livello vengono riportati nei paragrafi 3.3, 3.4 e 3.5.
3.1 Dati selezionati, tipologia di documenti e collaborazioni
Tabella 1. Numero di record recuperati dal SSCI
secondo l’anno di pubblicazione
Fonte: Nostra elaborazione su dati del SSCI 1999-2002
Per fornire un quadro generale, si riportano i risultati che
descrivono le caratteristiche generali dei dati recuperati dal
SSCI 1999-2000 nei paragrafi 3.1, 3.2, mentre i risultati relativi
La Tab. 1 mostra il numero dei record che comprendono le
pubblicazioni su periodici selezionati dal SSCI negli anni 19992002, dove almeno un autore o coautore riporta come propria
affiliazione il CNR. Tali dati costituiscono l’insieme su cui si basa
la nostra analisi. Il trend di pubblicazioni è quasi discendente, sia
pure con una variazione non molto accentuata negli anni, e ha il
suo valore massimo nel primo anno considerato. La tabella mostra inoltre il numero e le percentuali di record che, pur recuperati dalla ricerca sul database SSCI, non sono stati considerati, in
quanto non era possibile individuare con certezza l’autore/autrice CNR, o la denominazione dell’istituto di appartenenza era riportata dal database in modo scorretto e quindi non identificabile. La percentuale dei record eliminati varia nei quattro
anni dal 17% al 28% e può fornire utili indicazioni sull’attività di
pulitura dati, che impegna parte considerevole dell’analisi e rende
spesso problematiche le indagini di questo tipo (Bre, 2002).
138
139
Risultati
Figura 1. Ripartizione delle pubblicazioni
per tipologia (1999-2002)
Fonte: Nostra elaborazione su dati del SSCI 1999-2002
I record selezionati dal SSCI sono costituiti per la maggior
parte (Fig. 1) da articoli originali (77,49%), seguiti da abstract di
convegni (13%), la maggior parte dei quali concentrati nel 1999,
e da un esiguo numero di review (6, 49%). Anche considerando
che la maggioranza dei dati è costituita da articoli originali, il
termine ‘articolo’ viene di seguito usato per comprendere
l’insieme delle pubblicazioni selezionate.
Tabella 2. Articoli secondo l’affiliazione degli autori/autrici
(valori assoluti e %, 1999-2002)
Fonte: Nostra elaborazione su dati del SSCI 1999-2002
140
La Tab. 2 mostra il numero e la percentuale degli articoli
secondo l’affiliazione degli autori/autrici. Tale indicazione
permette di distinguere tra articoli che scaturiscono da una
collaborazione con altri enti italiani e/o esteri, e quelli che
rappresentano i risultati di una ricerca condotta solo in
ambito CNR. Il numero delle pubblicazioni in collaborazione
con altri enti italiani non si discosta di molto dagli articoli
scritti esclusivamente dal personale del CNR, con la sola
eccezione del 2000 (27%). La percentuale delle pubblicazioni
scritte in collaborazione con enti stranieri risulta invece
generalmente minore tranne il dato del 2000 (33%).
3.2 Riviste e aree disciplinari
I 231 articoli firmati da almeno un autore/autrice CNR
sono stati pubblicati in 153 riviste indicizzate dall’ISI nel
periodo 1999-2002 (Fig. 2). Trenta riviste contengono un
totale di 108 articoli (pari al 46,7%) con una variazione
compresa tra un minimo di due articoli per rivista (13 riviste,
con l’11% degli articoli) ed un massimo di 11 per rivista (una
rivista contiene il 4,7% di articoli). I rimanenti 123 articoli
(55,3%) sono stati pubblicati in altrettante riviste. Il grafico
mostra la distribuzione in termini percentuali delle riviste in
base al numero degli articoli pubblicati e firmati da almeno
un autore CNR.
Questi dati mostrano un’elevata dispersione nella distribuzione negli articoli selezionati nelle riviste. Per verificare se
questo dato è indice di accentuata diversificazione degli interessi scientifici dei ricercatori coinvolti nell’indagine, le riviste
sono state analizzate secondo le categorie ISI di appartenenza.
Per ciascuna rivista è stata identificata la categoria utilizzata
dall’ISI; nel caso in cui una rivista sia stata classificata dall’ISI
141
Figura 2. Distribuzione delle riviste
secondo al numero di articoli pubblicati (1999-2002)
Tabella 3. Distribuzione degli articoli per categoria (1999-2002)
Fonte: Nostra elaborazione su dati del SSCI 1999-2002
Fonte: Nostra elaborazione su dati del SSCI 1999-2002
in più categorie, è stato tenuto conto solo della prima categoria. Per semplicità di analisi, quando possibile, più categorie
ISI sono state associate sulla base della loro affinità. Nel
gruppo ‘Altri’ sono state incluse le riviste afferenti alle categorie meno rappresentate. Si tratta di 31 riviste, ognuna con un
solo articolo, afferenti a 24 categorie ISI. Come mostra la Tab.
3, l’84,4% degli articoli è classificabile in dieci categorie, e il
66,66 % nelle quattro più rappresentate. 77 articoli pari al
33,33% rientrano in ‘Psychology/Behavioral Sciences’ e
complessivamente 102 articoli, pari al 44,15% nelle categorie
collegate alla psicologia e alle neuroscienze. Questo dato
trova peraltro riscontro nella Tab. 4 sulla frequenza con cui i
ricercatori CNR pubblicano sulle riviste appartenenti alle
categorie sopra citate.
Contrariamente a quanto suggerirebbe la variabilità nella
distribuzione degli articoli nelle riviste, i dati dimostrano che
gli interessi dei ricercatori CNR, che operano nel settore delle
scienze sociali, si concentrano su di un numero limitato di
campi, per lo più a carattere multidisciplinare. Sarebbe
interessante indagare quali sono le motivazioni alla base
della scelta della rivista su cui pubblicare, e quali le cause e il
significato dell’ampia variabilità della scelta. Un approfondimento di questi temi sarà oggetto di una prossima indagine,
la quale tra l’altro, attraverso l’analisi delle citazioni, andrà a
misurare l’impatto che gli articoli firmati da autori/autrici
CNR hanno avuto sulla comunità scientifica di riferimento.
142
143
Tabella 4. Elenco delle prime dieci riviste su cui gli autori/autrici
CNR hanno pubblicato dal 1999 al 2002
3.3 Autrici e autori degli articoli
Figura 3. Distribuzione degli autori/autrici CNR per genere e livello
Fonte: Nostra elaborazione su dati del SSCI 1999-2002
Fonte: nostra elaborazione su dati ISI
144
La distribuzione per genere indica una prevalenza maschile
sul totale del personale di ricerca (69 femmine e 96 maschi). Il
numero uguale di ricercatori e ricercatrici di prima fascia (Ric I)
e quelli di fascia iniziale (Ric III) che risulta dai nostri dati fornisce già una indicazione positiva sul numero di donne che
pubblica su periodici indicizzati dal SSCI, soprattutto se si
considera che il personale di ricerca del CNR è a prevalenza
maschile (cfr. Tab. 5). Il dato più evidente riguarda invece la
differenza tra autori e autrici CNR al vertice della carriera (2
dirigenti di ricerca donne rispetto a 18 dirigenti di ricerca
uomini) e del personale tecnico (CTER).
Per valutare la presenza femminile di particolari ambiti di
145
lavoro viene utilizzato l’indice di femminilizzazione, definito
come il numero di donne per 100 uomini. Nel nostro caso tale
indice è pari a 71,88 e, anche se si riferisce alla presenza femminile di autori di pubblicazioni nel settore delle scienze sociali,
può fornire utili indicazioni se si prendono come riferimento i
dati sulla presenza femminile forniti dal CNR (Tab. 5). Tali dati,
che comprendono anche il personale a tempo determinato
aggiornati al 6 ottobre 2003, mostrano che per le ricercatrici
nella qualifica iniziale l’indice di femminilizzazione raggiunge
il valore di 84,58, mentre esso diminuisce sensibilmente a
livello di ricercatrice di prima fascia (39,22) e crolla nel caso
delle dirigenti di ricerca (13,44). I dati sull’indice di femminilizzazione delle autrici degli articoli selezionati dallo SSCI della
nostra indagine (Tab. 6) rappresentano, al contrario, una situazione più equilibrata per le ricercatrici di livello base e di prima
fascia, mentre si conferma una bassa presenza femminile a
livello dirigenziale e a quello del personale tecnico.
Tabella 5. Indice di femminilizzazione del personale
CNR (6 ottobre 2003)
Tabella 6. Indice di femminilizzazione del personale CNR
autore/autrice di articoli selezionati dal SSCI (1999-2002)
Qualifica
Dirigente di ricerca
Ricercatore I
Ricercatore III
Personale tecnico
Femmine
2
26
37
4
Maschi
18
26
37
15
Indice di femm.
11,11
100,00
100,00
26,67
TOTALE
69
96
71,88
Fonte: Nostra elaborazione su dati del SSCI 1999-2002
Anche il Rapporto annuale 2002 del CNR ha considerato
tale indicatore rispetto ai risultati ottenuti negli ultimi concorsi
pubblici e ha riportato un incremento dal 67% nell’anno 1999
all’81% nell’anno 2001 per le ricercatrici di livello base, mentre
c’è stata una diminuzione ai livelli più alti sia nella percentuale di candidate che hanno superato con successo i concorsi sia
nel numero di domande presentate (CNR, 2002a, p. 91).
Tabella 7. Distribuzione del personale CNR autore/autrice di
pubblicazioni selezionate dal SSCI per genere, qualifica e anno
Qualifica
Femmine
Maschi
Indice di femm.
Dirigente di ricerca
Ricercatore I
Ricercatore III
Personale tecnico
50
322
1251
445
372
821
1479
1254
13,44
39,22
84,58
35,49
TOTALE
2068
3926
52,67
Fonte: Nostra elaborazione su dati del CNR – Ufficio del Personale
Qualifica
1999
Femmine
Dirigente di ricerca 2
Ricercatore I
10
Ricercatore III
15
Personale tecnico 1
Maschi
11
10
16
8
2000
Femmine
2
15
10
--
Maschi
10
7
14
2
2001
Femmine
2
12
14
2
Maschi
7
10
13
5
2002
Femmine
1
7
10
1
Maschi
9
8
9
5
TOTALE
45
27
33
30
35
19
31
28
Fonte: Nostra elaborazione su dati del SSCI 1999-2002
146
147
La Tab. 7 riporta il numero dei ricercatori e delle ricercatrici
che hanno pubblicato negli anni 1999-2002 nei periodici selezionati dal SSCI. La tabella evidenzia ancora una volta una forte
maggioranza di dirigenti di ricerca rispetto alle loro colleghe,
così come del resto appariva in Fig. 2. Il rapporto tra numero di
ricercatori e ricercatrici di livello base e di prima fascia risulta
costante, ad eccezione del 2000, dove prevale il numero di ricercatrici di prima fascia (15 su 7) e quello dei ricercatori di livello
base (14 su 10). Si noti inoltre che il numero dei ricercatori di
livello base e di prima fascia decresce leggermente negli anni,
mentre quello delle loro colleghe è oscillante.
3.4 Analisi della produzione scientifica: criterio del full counting e
della pubblicazione equivalente
Tabella 8. Distribuzione delle pubblicazioni del personale
CNR in articoli selezionati dal SSCI per genere,
qualifica e anno (valori assoluti e percentuali) (full counting)
1999
2000
2001
2002
Totale
DIR RIC
Nr. %
Femmine 5
5,10
Maschi
13 13,27
Femmine 2
2,53
Maschi
16 20,25
Femmine 2
2,44
I RIC
Nr.
16
11
21
7
16
%
16,33
11,22
26,58
8,86
19,51
RIC III
Nr. %
18 18,37
24 24,49
14 17,72
16 20,25
18 21,95
CTER
Nr. %
1
1,02
10 10,2
--3
3,8
4
4,88
TOTALE
Nr. %
40 40,82
58 59,18
37 46,84
42 53,16
40 48,78
Maschi
8
Femmine 1
Maschi
14
9,76
1,41
19,72
12
15
10
14,63
21,13
14,08
17
13
10
20,73
18,31
14,08
5
1
7
6,1
1,41
9,86
42
30
41
Femmine 10
Maschi
51
16,39
83,61
68
40
62,96
37,04
63
67
48,46
51,54
6
25
19,35
80,65
147 44,55
183 55,45
100,00
108 100,00
31
100,00
330 100,00
51,22
42,25
57,75
La Tab. 8 mostra il numero delle pubblicazioni del personale CNR selezionate dal SSCI 1999-2002 distribuite per
genere e qualifica. In questa tabella è stato utilizzato il criterio
del full counting, secondo il quale le pubblicazioni realizzate
da più autori vengono assegnate per intero a ciascun autore.
Tale criterio, proprio in quanto attribuisce lo stesso peso sia
agli autori che pubblicano come singoli sia a quelli che
pubblicano in collaborazione, pone l’accento sulla pubblicazione, moltiplicandone quindi il numero.
mance positiva è data dalle ricercatrici di livello base in particolare nel 2002, negli altri casi la produzione maschile risulta in
genere nettamente superiore a quella femminile.
I dati che ne risultano vedono la prevalenza del numero di
pubblicazioni del personale di ricerca maschile sia sul totale dei
quattro anni considerati (55,45% vs. 44,45%), sia nei valori
percentuali per anno. Tale dato risulta più accentuato negli
anni 1999 (59,18% vs. 40,82%) e 2002 (57,75% vs. 42,25%). I dati
di distribuzione delle pubblicazioni per qualifica mostrano che
le I ricercatrici producono un maggior numero di pubblicazioni in tutti e quattro gli anni considerati, mentre la stessa perfor-
La Tab. 9 riporta la produttività individuale calcolata con il
criterio della pubblicazione equivalente (contributo medio): in
questo caso agli autori/autrici di pubblicazioni realizzate in
collaborazione con altri ricercatori viene assegnata la quota
corrispondente. La produzione media è stata calcolata dividendo la somma dei contributi dei quattro anni per il numero effettivo dei ricercatori/ricercatrici che hanno pubblicato in
quell’anno. (1999 = 8,7: 2 dirigenti di ricerca donna). Il totale
148
149
TOTALE
61
130 100,00
Fonte: Nostra elaborazione su dati del SSCI 1999-2002
Tabella 9. Contributi individuali del personale CNR
agli articoli selezionati dal SSCI e produzione media per genere,
anno e qualifica (criterio di pubblicazione equivalente)
ANNO
1999
2000
2001
2002
TOTALE
Produzione
media
Dirigenti
di ricerca
Femmine Maschi
5,00
8,31
1,33
12,67
1,33
5,75
1,00
11,00
Ricercatori
I fascia
Femmine Maschi
10,79 8,17
14,66 4,83
11,83 10,17
12,17 7,33
Ricercatori
III
Femmine Maschi
14,08 15,58
8,25
10,75
13,33 10,08
8,50
7,17
Personale
tecnico
Femmine
0,14
0,00
3,5
0,50
Numero di
pubblicazioni
Maschi Nr.
4,93
67
1,50
54
3,00
59
3,33
51
8,67
37,73 49,45
30,50
44,17
43,58
4,14
12,76
231
4,33
2,10
1,17
1,19
1,18
1,04
0,85
1,40
1,90
Fonte: Nostra elaborazione su dati del SSCI 1999-2002
finale dei contributi medi è stato calcolato dividendo il numero
di pubblicazioni prodotte nei quattro anni con il numero totale
di ricercatori/ricercatrici (231:165); l’1,4 è quindi un indicatore
della produzione media del personale di ricerca del CNR preso
in considerazione nel nostro studio.
La Tab. 9 fornisce i dati aggregati della produzione dei
quattro anni degli articoli selezionati dal SSCI distribuiti per
genere e livello. Il numero totale dei contributi evidenzia differenze di produzione tra i diversi livelli, ad esempio i 18 dirigenti di ricerca pubblicano nei quattro anni più di 37 articoli. Tuttavia se si considerano i contributi medi, le dirigenti di ricerca
risultano contribuire con quasi il doppio delle pubblicazioni
rispetto ai loro colleghi (4,33 rispetto a 2,10). Anche le ricercatrici di prima fascia hanno una produzione maggiore dei loro colleghi (1,72 rispetto a 1,15), confermando in questo caso il risultato
ottenuto adottando il criterio del full counting. Per ciò che riguarda personale di ricerca di livello base, il contributo medio delle
150
ricercatrici non si discosta di molto da quello dei loro colleghi (44
pubblicazioni rispetto alle 43,5 e un contributo medio di 1,19 per
le ricercatrici rispetto a 1,18 per i ricercatori).
Se si considerano i dati relativi a ciascun anno (Tabb. 10-13) si
può notare che i dati sono poco omogenei, soprattutto rispetto
alla qualifica. L’unico dato costante risulta quello della produzione delle ricercatrici di prima fascia che, tranne che nel 2001, hanno
un numero di pubblicazioni maggiori rispetto ai loro colleghi.
Tabella 10. Distribuzione dei contributi individuali
del personale CNR agli articoli selezionati dal SSCI e contributo
medio per persona per genere e qualifica. Anno 1999
Dirigenti di ricerca
Ricercatori I
Ricercatori III
Personale tecnico
Femmine
5,00
10,79
14,08
0,14
Maschi
8,31
8,17
15,58
4,93
Totale
13,31
18,95
29,67
5,07
Femmine
2,50
1,08
0,94
0,14
Maschi
0,76
0,82
0,97
0,62
TOTALE
30,01
36,99
67
1,07
0,82
Fonte: Nostra elaborazione su dati del SSCI 1999-2002
Tabella 11. Distribuzione dei contributi individuali
del personale CNR agli articoli selezionati dal SSCI e contributo
medio per persona per genere e qualifica. Anno 2000
2000
Contributo individuale
Contributo medio
Dirigenti di ricerca
Ricercatori I
Ricercatori III
Personale tecnico
Femmine
1,33
14,66
8,25
0,00
Maschi
12,67
4,83
10,75
1,50
Totale
14,00
19,50
19,00
1,50
Femmine
0,67
0,98
0,98
0,00
Maschi
1,27
0,69
0,69
0,75
TOTALE
24,25
29,75
54
0,90
0,90
Fonte: Nostra elaborazione su dati del SSCI 1999-2002
151
Tabella 12. Distribuzione dei contributi individuali del personale
CNR agli articoli selezionati dal SSCI e contributo medio per
persona per genere e qualifica. Anno 2001
2001
Contributo individuale
Contributo medio
Dirigenti di ricerca
Ricercatori I
Ricercatori III
Personale tecnico
Femmine
1,33
11,83
13,33
3,5
Maschi
5,75
10,17
10,08
3,00
Totale
7,08
22,00
23,42
6,50
Femmine
0,67
0,99
0,95
1,75
Maschi
0,82
1,02
0,78
0,60
TOTALE
30,00
29,00
59
1
0,83
anni successivi, lo stesso vale per le ricercatrici di livello base,
mentre il personale tecnico di sesso maschile pubblica in genere
più di quello femminile. L’indicatore di produzione media di
tutti e quattro gli anni risulta però in genere a favore della
produzione del personale di ricerca femminile (1,07 rispetto a
0,82 degli uomini nel 1999, 1 rispetto a 0,83 nel 2001, 1,17 rispetto a 0,93 nel 2002).
3.5 Frequenza di pubblicazione
Tabella 14. Distribuzione del personale CNR autore/autrice di
articoli selezionati dal SSCI per numero di pubblicazioni e genere
(valori assoluti e %) (1999-2002)
Fonte: Nostra elaborazione su dati del SSCI 1999-2002
Tabella 13. Distribuzione dei contributi individuali del personale
CNR agli articoli selezionati dal SSCI e contributo medio per
persona per genere e qualifica. Anno 2002
2002
Contributo individuale
Contributo medio per
persona
Dirigenti di ricerca
Ricercatori I
Ricercatori III
Personale tecnico
Femmine
1,00
12,17
8,50
0,50
Maschi
11,00
7,33
7,17
3,33
Totale
12,00
19,50
15,67
3,83
Femmine
1,00
1,74
0,85
0,50
Maschi
1,22
0,92
0,80
0,67
TOTALE
22,17
28,83
51
1,17
0,93
Nr. di pubblicazioni
FEMMINE
MASCHI
1 pub.
2 pub
3-6
>6
Nr.
39
12
15
3
%
56,52
17,39
21,74
4,35
Nr.
52
27
15
2
%
54,17
28,13
15,63
2,08
TOTALE
69
100,00
96
100,00
Fonte: Nostra elaborazione su dati del SSCI 1999-2002
I dati sulla produzione di altre qualifiche oscillano negli
anni: le dirigenti di ricerca pubblicano un numero maggiore di
articoli nel 1999, mentre la loro produzione diminuisce negli
La Tab. 14 mostra il numero di pubblicazioni prodotte dal
personale CNR nei quattro anni considerati. La maggioranza
pubblica un solo articolo in periodici selezionati dal SSCI. La
percentuale del personale di ricerca maschile che pubblica due
articoli è maggiore di quella femminile, mentre tra le donne la
percentuale di coloro che pubblicano più di tre articoli è
maggiore di quella del personale di ricerca maschile (Tra le 69
autrici CNR più del 25% ha pubblicato più di 3 articoli in
questo periodo).
152
153
Fonte: Nostra elaborazione su dati del SSCI 1999-2002
Conclusioni
I risultati dell’indagine non confermano il luogo comune
secondo cui le donne pubblicano meno degli uomini. Il
numero delle ricercatrici CNR che pubblica in periodici
selezionati dal SSCI è infatti già in partenza proporzionalmente maggiore di quello dei loro colleghi, considerando che
il personale CNR è in prevalenza maschile. Anche l’indice di
produzione media risulta più alto per le donne, le quali
pubblicano in percentuale un numero maggiore di articoli nei
quattro anni considerati.
La particolare enfasi posta in questo studio sulla variabile
qualifica ha permesso di confermare che esiste una maggiore
propensione a pubblicare ai livelli alti della carriera, ai quali
sono in genere connesse posizioni di responsabilità in progetti o gruppi di ricerca che possono fornire maggiori occasioni
di pubblicare sia per gli uomini che per le donne.
I criteri utilizzati per l’analisi dei dati influenzano molto i
risultati tanto che, tranne il caso delle ricercatrici di prima
fascia, si giunge a conclusioni discordanti quando si utilizzano il criterio del full counting o quello della pubblicazione
equivalente. Pur essendo entrambi i criteri validi per misurare la produzione, il primo sembra più adatto in analisi macroscopiche che paragonano l’attività di istituti di ricerca, mentre
il secondo criterio, proprio in quanto permette un’analisi più
dettagliata, riflette con maggior precisione la produzione
individuale. Ciò corrisponde ad una prassi che si va affermando in sede di concorsi, in cui viene sempre più di frequente richiesto di segnalare, negli articoli scritti in collaborazioni,
quali sono le parti elaborate da ciascun autore. Inoltre il criterio della pubblicazione equivalente permette di dare un
giusto peso a quei dati che risentono di una disparità di
partenza. È questo il caso ad esempio delle dirigenti di ricerca,
in cui la produzione va messa in relazione con il loro esiguo
154
numero, dipendente del resto dalla minore presenza di donne
nelle carriere direttive.
I dati sulla produzione sia maschile che femminile presentano una certa variabilità negli anni e ciò rafforza la convinzione che ci sia bisogno di ulteriori analisi, soprattutto di tipo
longitudinale, che sono possibili soltanto consolidando una
prassi di raccolta di dati basata sul genere. Tali analisi dovrebbero comprendere anche informazioni basate sul contesto, tra
cui vanno considerate ad esempio quelle relative alle riforme
organizzativo-strutturali, quali quella attualmente in corso al
CNR, e informazioni sui finanziamenti alla ricerca la cui
attuale diminuzione ha sicuramente effetti sui modelli di
comportamento delle attività di ricerca.
C’è inoltre la necessità di analizzare anche altre basi di
dati bibliografiche soprattutto nel campo delle scienze
sociali, per verificare quanto il SSCI sia rappresentativo di
questo settore.
In futuro si prevede di proseguire lo studio analizzando le
citazioni agli articoli, per verificare se ci sono differenze di
genere sull’impatto delle pubblicazioni. Si intendono analizzare sia i dati del Citation Index dell’ISI che le citazioni
reperibili su Internet e in genere collegate con sistemi di Open
Archives.
Ringraziamenti
Si ringraziano Loredana Cerbara e Fabrizio Ricci per i loro
utili suggerimenti e la Biblioteca centrale del CNR che ha reso
disponibile il CD-Rom del SSCI, e in particolare Brunella
Sebastiani.
155
Bibliografia
(Ami, 2001) MAYUR AMIN, MICHAEL MABE, Impact Factors: Use
and Abuse, in “Elsevier Science”, n. 1, Oct. 2001
(Ben, 1988) LAURA BENIGNI, ADELE MENNITI, ROSSELLA PALOMBA,
Pubblici scienziati. La carriera imperfetta, in “Sistema ricerca”,
Suppl. n. 9, 1988
(Big, 2000) GIORGIO BIGNAMI, GIOVANNI DE GIROLAMO, GIOVANNI
FAVA, ALBERTO GASTONI, PIER LUIGI MOROSINI, PAOLO PAQUINI,
VINCENZO PASTORE, MICHELE TANSELLA, L’impatto sulla letteratura internazionale della produzione scientifica dei ricercatori
italiani, nelle discipline “psichiatria” e “psicologia”. Una valutazione bibliometrica, in “Epidemiologia e Psichiatria Sociale”,
9, n. 1, 2000
(Bio, 2001) BIOSOFT SAS, Development of Bibliometric Indicators by
Gender, Final Report under European Commission’ s Contract
ERBHPV2-CT-1999-14N
(Bre, 2002) ELENA BRENO, GIOVANNI A. FAVA, VINCENZO GUARDABASSO, MARIO STEFANELLI, La ricerca scientifica nelle università
italiane, Conferenza dei Rettori dell’Università Italiane, Bologna,
CRUI, 2002
(CNR, 2002a) CNR, Report 2002. Risultati di ricerca 2001. Obiettivi 2001-2002, Roma, CNR
(CNR, 2003) CNR, Libro Matricola, accessibile su Internet al sito
http://www.dcp.cnr.it (ultima consultazione 6/10/03)
(EU, 2001) COMMISSIONE EUROPEA, [ETAN Report] Politiche
scientifiche nell’Unione Europea. Promuovere l’eccellenza attraverso l’uguaglianza di genere, ed. Mary Osborn et al., Bruxelles, Commissione Europea, 2001
(EU, 2002) EUROPEAN COMMISSION, THE HELSINKI GROUP ON
WOMEN AND SCIENCE, National Policies on Women and Science
in Europe. A Report about Women and Science in 30 Countries,
by Teresa Rees, European Commission, Brussels, 2002
(EU, 2003) EUROPEAN COMMISSION, Women in Science: What do the
Indicators reveal? in Third European Report on Science &
Technology Indicators, 2003. Towards a Knowledge-Based
Economy, European Commission, Brussels, 2003
(Fig, 2000) ALESSANDRO FIGÀ TALAMANCA, L’impact factor nella
valutazione della ricerca e nello sviluppo dell’editoria scientifica,
IV seminario sistema informativo nazionale per la matematica,
Lecce, ottobre 2000, accessibile al sito http://siba2unile.it/sinm/interventi/figatalam.htm.
(Gad, 2000) MARRY C. GADÉA, Les pères qui gagnent: descendance
et réussite professionelle chez les ingénieurs, in “Travail, genre et
sociétés”, n. 53, 2000
(ISI, 2002) ISI SOCIAL SCIENCE CITATION INDEX, Journal Citation
Reports (JCR), ISI, Philadelphia, 2002
(Lit, 2000) MARIA LITIDO, ADELE MENNITI, ELISA MOLINARI,
Pubblicazioni e genere, in Figlie di Minerva. Primo rapporto sulle
carriere femminile negli Enti pubblici di ricerca italiani, Milano,
Franco Angeli, 2000
(Lon, 1992) SCOTT J. LONG, Measures of Sex Differences in Scientific Productivity, in “Social Forces”, n. 71, 1992
(Di Ces, 2002) ROSA DI CESARE, Alcune riflessioni su bibliometria e
analisi delle citazioni, in Trasmissione d’elite o accesso alle
conoscenze? Percorsi e contesti della documentazione e comunicazione scientifica, a cura di Adriana Valente, Milano, Franco
Angeli, 2002
(Lon, 2001) From Scarcity to Visibility: Gender Differences in the
Careers of Doctoral Scientists and Engineers, Panel for the Study
of Gender Differences in Career Outcomes of Science and Enginee-
156
157
ring Ph.Ds, Committee on Women in Science and Engineering,
ed. Scott J. Long, The National Academy of Science,
Washington 2001
(Nal, 2002) FULVIO NALDI, ILARIA VANNINI PARENTI, Scientific and
Technological Performance by Gender. A Feasibility Study on
Patent and Bibliometric Indicators, vol. I: Statistical Analysis,
vol II: Methodological Report, (EUR 20309) European
Commission, 2002
(Pal, 2000) Figlie di Minerva. Primo rapporto sulle carriere femminili negli enti pubblici di ricerca italiani, a cura di Rossella
Palomba, Milano, Franco Angeli, 2000
Le risorse umane per la ricerca:
quali politiche?1
Sveva Avveduto
Consiglio Nazionale delle Ricerche
Istituto di ricerche sulla popolazione e le politiche sociali, Roma
(SCI, 2000) SCIENCE CITATION INDEX, Guide and Lists of Source
Publications, ISI, Philadelphia, 2000
(SCCI, 2000) SOCIAL SCIENCE CITATION INDEX, Guide and Lists of
Source Publications, ISI, Philadelphia, 2000
(Sim, 2001) Per una storia del Consiglio Nazionale delle Ricerche, a
cura di Raffaella Simili, Giovanni Paoloni, 2 vol., Roma-Bari,
Laterza, 2001
(UNESCO 1984) UNESCO Guide to Statistics on Science and
Technology, UNESCO, Office of Statistics, Paris, 1984
(Val, 2002) ADRIANA VALENTE, Gli indici di citazione nel circuito di
organizzazione, selezione e comunicazione di conoscenza scientifica, in Trasmissione d’elite o accesso alle conoscenze? Percorsi e
contesti della documentazione e comunicazione scientifica, a cura
di Adriana Valente, Milano, Franco Angeli, 2002
(Wen, 1997) CHRISTINE WENNERAS, AGNES WOLD, Nepotism and
Sexism in Peer-Review, in “Nature”, n. 387, 1997
158
Una politica per la ricerca scientifica e tecnologica con, al
suo interno e quale fattore propedeutico, quella per le risorse
umane, può essere possibile solo tenendo conto non solo del
quadro socio-economico ma anche degli assi sociali sui quali
essa si fonda. La giustificazione del vasto intervento pubblico,
che l’establishment scientifico chiede ai decisori, poggia sull’output sociale dell’attività di ricerca.
Premessa necessaria, dunque, per le scelte di politica scientifica, la dimensione quali-quantitativa del Paese relativamente
alle risorse umane come fattore essenziale nelle attività di
ricerca.
Un intervento su di un Paese del terzo o quarto mondo
avrebbe, ovviamente, carattere ben diverso da quello su una
società di punta o a sviluppo medio. Per ogni tipo di contesto,
comunque, vale il discorso chioma-radici: la floridezza dell’albero è cioè funzione della sua radicazione. Storicamente si
registrano casi di disequilibrio (ricerca avanzata di tipo militare soprattutto, per esempio, India e Pakistan, a fronte di un
complessivo contesto di arretratezza): ma si tratta di modelli,
159
per noi improponibili, di ricerca in funzione della politica e in
dispregio del sociale e non di corretta science policy.
La consapevolezza che lo sviluppo delle conoscenze sia di
fondamentale importanza per lo sviluppo tout court, tanto da
diventare un fattore primario della produzione, è ormai
talmente diffusa da essere un luogo comune. Tale ovvietà si
trova però oggi fortemente a confliggere con le politiche finanziarie adottate nel nostro Paese, che vedono costantemente
impoverire il plafond di risorse pubbliche destinate alla ricerca,
senza che, come per esempio avviene in altri Paesi dell’Unione
Europea, a questa tendenza faccia da contrasto un maggiore
impegno da parte del settore privato. Eppure l’affermazione «le
risorse umane sono centrali al sistema scientifico», di per sé
piuttosto evidente, apre o fa da corollario a qualsiasi discussione o analisi di politica scientifica al livello nazionale e internazionale. Per citarne una delle ultime, il volume che l’OECD
pubblica ogni biennio sull’analisi dello stato e delle prospettive
della scienza, della tecnologia e dell’industria (OECD, 2002)
dedica a questo argomento un’analisi specifica che apre con
queste parole: «Human resources in science and technology are
central to the science system. OECD countries therefore have
made considerable efforts to increase the number of R&D
personnel, in particular in the higher education sector, over the
last two decades».
L’esame qui condotto deriva anche dall’attività biennale di
studio sulle risorse umane nel sistema scientifico promossa da
CNR (Avveduto, Brandi, 2000) e quella dedicata da un gruppo
di lavoro ad hoc2 dell’OECD. A tal proposito si richiama anche
l’attività della Commissione di studio del CNR sulle risorse
umane per la scienza e la tecnologia (CORUS), i cui lavori si
svolgono con l’obiettivo di scrutinare il contesto socio-educativo del Paese e la dinamica delle risorse umane in relazione alle
politiche ed ai principali temi di analisi3.
Anche l’Unione Europea dedica al tema risorse umane una
notevole attenzione. Le linee di sviluppo, indicate e sottoscritte
dai capi di governo europei nei loro summit di Lisbona nel
marzo 2000 e di Barcellona nel marzo 20024, prefiguravano un
obiettivo da conseguire entro il 2010: rendere l’economia
europea la più competitiva e dinamica tra quelle knowledge-based.
La strategia da mettere in atto per raggiungere tale scopo
identifica una serie di requisiti che danno per sotteso il concetto che la ricerca debba fungere da motore per la crescita economica e la coesione sociale. Tra quelli ritenuti indispensabili si
citano in particolare le linee seguenti centrate sul ruolo delle
risorse umane:
1) miglioramento delle politiche per la ricerca e lo sviluppo
tecnologico e accelerazione del processo di riforma strutturale e predisposizione delle condizioni favorevoli allo sviluppo
complessivo della competitività e dell’innovazione;
2) investimenti in capitale umano attraverso il riassetto, anche
qualitativo, delle attività educative e formative;
3) creazione di uno ‘Spazio Europeo della Ricerca’ tale da
rendere l’UE un polo attrattivo anche per i ricercatori ad
essa esterni.
Per raggiungere tale scopo viene indicato un traguardo
concretamente quantificato: portare, entro il 2010, l’impegno
europeo per la ricerca e l’innovazione al 3% del PIL e ottenere i
due terzi dei nuovi investimenti in ReS dal settore privato.
Come si possono raggiungere le finalità delineate nei
summit di Lisbona e di Barcellona? Il gap tra ambizioni europee
e politica finanziaria e scientifica nazionale è enorme e, al
momento, incolmabile. La soglia del 3% è ampiamente utopica
per il nostro Paese, laddove anche l’Olanda, che si trova già
oggi oltre il 2%, si dice, per bocca del suo ministro, preoccupa-
160
161
La politica delle risorse umane per la scienza e la tecnologia
ta della realizzabilità di tale obiettivo. Le recenti scelte di politica finanziaria ci vedono allontanare ancor più, in discesa, anche
dal già modestissimo attuale 1%. Gli ultimi dati Istat mostrano
come nel settore della ricerca pubblica, con l’esclusione dell’università, le previsioni di spesa per ReS nel 2002, a prezzi
costanti 1995, siano inferiori a quelle del 2001 passando dagli
8.073 milioni di euro a 8.037.
La differenza, per la politica scientifica ed in particolare per
quella delle risorse umane, tra l’essere in un sistema che si
espande ed offre nuove opportunità e l’essere in un sistema che
si chiude e quindi limita gli accessi ai nuovi ricercatori e si
trova, al più, in uno stato stazionario, è autoesplicativa.
Il dibattito normativo sui cambiamenti nella produzione delle
conoscenze e sulla capacità della conoscenza di influenzare la
società, è tuttavia, in ambito internazionale, quanto mai vivace.
Per quanto attiene alla politica delle risorse umane per la
scienza e la tecnologia, i temi attualmente più presenti sul
piano inter e sovranazionale sono quelli relativi alla formazione,
alla mobilità, all’invecchiamento dei ricercatori ed alle questioni
di genere. La formazione dei ricercatori e l’occupazione scientifica sono in certa misura naturalmente condizionate dai
cambiamenti nelle priorità di ricerca e dall’entità e dalla
direzione dei finanziamenti per essa disponibili. Le evoluzioni
che intervengono nella struttura dei finanziamenti per la
ricerca, così come la sua accresciuta interdisciplinarietà e la
diversa qualità e intensità dei rapporti con il mondo delle
imprese, influenzano direttamente, poi, sia il percorso formativo dei futuri addetti alla ricerca, che le modalità stesse con le
quali l’offerta di occupazione si esplica, spingendo, per
esempio, da più anni a questa parte, verso una crescente flessibilità del rapporto del lavoro scientifico.
La struttura dell’occupazione nelle università e negli enti di
ricerca pubblici è cambiata nell’ultimo quinquennio, visto l’uso
162
generalizzato, anche nel connesso mercato del lavoro, di
posizioni temporanee e di contratti a termine.
Formazione per la ricerca
L’espansione del settore dell’Higher Education verificatasi in
Italia come altrove negli scorsi anni, ha portato al livello degli
studi post laurea (PhD e dottorato) i problemi tipici del livello
immediatamente inferiore. Solo per un esempio si possono citare
la rilevanza dell’equilibrio tra generalismo e specializzazione, tra
elementi di teoria e di pratica, di conoscenza specifica e di preparazione
per professioni al di fuori dell’accademia e della ricerca. Sia al livello
universitario che post laurea, si assiste al declino di interesse verso
alcune discipline, in particolare quelle scientifiche, con i connessi
problemi di attrattività degli studi scientifici prima e delle relative
carriere, poi. Forse converrebbe non aspettare un nuovo sbarco
sulla luna per scacciare questo pesante sonno dogmatico.
Alcuni Paesi membri dell’OECD hanno già intrapreso
misure adatte ad orientare la formazione degli studenti di
dottorato e gli studi post dottorato, in modo da andare incontro ad una domanda di lavoro non necessariamente pubblica,
per esempio tramite la creazione di curricula/diplomi in
scienza, più centrati sulla formazione per la ricerca applicata.
Le mutate priorità nel finanziamento e quindi nel perseguimento di specifici risultati della ricerca richiedono sia nuovi
metodi di formazione che formazione in nuove aree, mentre si
moltiplicano le iniziative per favorire collaborazioni multidisciplinari ed a rete tra ricercatori. Del pari, si registra un incremento delle politiche di preparazione dei ricercatori e di sostegno ai laureati che svolgono parte del loro cursus didattico
nell’industria con un adeguato supporto alla collaborazione tra
pubblico e privato. Il flusso dei laureati nelle discipline scienti-
163
fiche è in parte determinato dalla accresciuta domanda
industriale in certi Paesi ed in certe discipline; valgano per tutte
le computer sciences. Tuttavia non è stato possibile identificare
dai risultati delle analisi dell’OECD il grado di successo o meno
dell’immissione di questi laureati nel mercato del lavoro.
Sul versante educativo si può ipotizzare che tutto ciò conduca
ad un coinvolgimento crescente delle realtà esterne all’università su specifici percorsi quali:
1) rinnovata ideazione e sofisticata gestione delle attività
formative;
2) crescente complessità dei curricula nella direzione della
interdisciplinarietà;
3) modifica della formazione post laurea (si ipotizza in ambito
OECD l’introduzione di modelli a due cicli);
4) maggiore importanza del networking e quindi necessità di un
più penetrante controllo istituzionale.
Sul versante dell’occupazione, si assiste già ad un incremento,
sia in ambito accademico che degli enti di ricerca, dell’offerta di
posizioni a tempo determinato piuttosto che indeterminato,
appoggiate su fondi di derivazione esterna alle istituzioni che
le offrono, per lo più su progetti finanziati da soggetti, pubblici o privati, ovvero da organismi sovranazionali. In correlazione con questo fenomeno cresce, in molti Paesi OECD, l’autonomia delle università nel reclutare personale già qualificato e nel
formalizzare modalità di retribuzione fortemente legate ai
risultati raggiunti (performance-based).
La gestione delle risorse umane per la scienza e la tecnologia si pone in un quadro complesso i cui fattori di contesto
riguardano:
– la scarsità generale delle risorse;
– l’autonomia per gli enti di ricerca e le università;
– un parallelo maggior controllo ed una maggiore valutazione
a fronte della accresciuta autonomia;
– l’internazionalizzazione o almeno europeizzazione della
politica scientifica;
– i problemi di reclutamento del personale, in particolare dei
giovani, da indirizzare alle carriere scientifiche;
– la progressiva sostituzione nelle università e negli enti
pubblici delle risorse interne con quelle esterne, spesso
anch’esse di origine pubblica, e quindi l’espansione delle
fonti di finanziamento eterodirette.
Tale quadro si riflette anche sulla filiera formativa della
ricerca. La determinazione di priorità esterne all’università ed
agli enti di ricerca, insieme all’introduzione di nuovi canali di
finanziamento della formazione post laurea ed in particolare
del dottorato, di fatto influenzano la decisione sulle scelte dei
temi e dei filoni di ricerca-formazione.
Una delle questioni che a questo riguardo si sono sempre
poste è la dinamica domanda/offerta ed in particolare la discrepanza temporale tra l’offerta e la domanda di personale con
specifiche caratteristiche e quindi la difficoltà, per il sistema
formativo, di tenere il passo con il mutamento della domanda.
In un contesto, quale quello attuale, di cambiamenti veloci a
fronte di offerte di lavoro che mutano al mutare dei contratti
attivi, la questione presenta vie di soluzione ancor più difficili.
Le questioni di genere e di invecchiamento della forza lavoro
scientifica sono trasversali a quelle su delineate, così come
quella dell’attrattività delle carriere di ricerca, soprattutto nel
settore pubblico, A quest’ultimo proposito, il problema che più
fortemente si pone è quello della flessibilità del lavoro nell’ambito della ricerca. L’equilibrio tra lavoro temporaneo e lavoro
stabile, nonché la questione dello sviluppo di carriera a fronte di
una sempre accresciuta mobilità, restano questioni aperte.
Le principali tendenze comuni nella formazione e nell’occu-
164
165
Conclusioni
pazione dei ricercatori emerse dai risultati dell’analisi
dell’OECD (2002) possono essere così tracciate. Da un lato
l’affermarsi dell’occupazione temporanea anche al livello
accademico e di ricerca, fenomeno già registrato nei grandi
Paesi OECD e adesso tipico anche dei piccoli; dall’altro il rafforzarsi della ricerca multidisciplinare e delle collaborazioni tra
università e mondo produttivo, anche sul piano della formazione post laurea. Tali evidenze spingono nella direzione di una
maggiore flessibilità del lavoro di ricerca e di un conseguente
cambiamento sia nella formazione che nell’occupazione dei
ricercatori.
Il lavoro della Commissione europea sulle risorse umane
per la RST (Commission of the European Communities, 2002)
giunge a conclusioni complementari. Per favorire un compiuto
percorso di formazione ed utilizzazione di un adeguato stock
di risorse umane per la scienza, pur nella diversità di situazioni dei Paesi membri, sono state individuate una serie di tendenze comuni che portano alle seguenti conclusioni:
– l’Europa, nel processo di costituzione e utilizzo e nella
capacità di attrazione delle risorse umane per la ricerca, è,
nel suo complesso, in una posizione di inferiorità rispetto ai
Paesi, con economie basate sulla conoscenza, con i quali
compete.
– se le attuali tendenze verranno mantenute, l’offerta di
laureati ad elevata competenza per lo svolgimento di attività di ricerca, potrebbe essere insufficiente anche per mantenere lo status quo.
– le condizioni occupazionali e le remunerazioni nel settore
della RST sono inadeguate, e non così attrattive da consentire al settore di competere per assicurarsi risorse umane di
qualità.
Sulla base di tali considerazioni l’UE raccomanda ai Paesi
membri di:
a. porre in atto ogni iniziativa per rafforzare la base scientifica
nazionale a partire dal sistema scolastico secondario, apportando tutti i necessari cambiamenti anche al sistema didattico
in particolare per l’insegnamento delle materie scientifiche;
b. migliorare le condizioni di lavoro ed il livello delle risorse
destinate alla scienza ed alla tecnologia per rendere ambite
tutte le attività e le carriere connesse;
c. porre particolare attenzione alle fasi iniziali di reclutamento
dei ricercatori e dei dottori di ricerca in particolare nel
settore pubblico che risulta troppo poco competitivo;
d. predisporre ogni iniziativa atta a beneficiare dell’attività e
dell’apporto dei ricercatori ad elevata esperienza per tutto
l’arco della loro carriera.
Restano dunque aperte alcune questioni di fondo:
– quali politiche per l’occupazione scientifica?
– quali politiche per attrarre i giovani laureati?
– l’accresciuta flessibilità: attrae o respinge verso il sistema
ricerca pubblico? I contratti temporanei introducono più
flessibilità nel sistema scientifico o piuttosto non costituiscono un disincentivo ad attrarre e mantenere i ricercatori nel
sistema pubblico?
– quali iniziative per legare la formazione ed il lavoro di
ricerca?
– come favorire la multidisciplinarietà e il networking?
Ovviamente le questioni di genere intersecano i problemi
della formazione, dell’invecchiamento, della mobilità e della
spesa ed una risposta a tali questioni può prefigurarsi come
parte della soluzione a qualcuno dei problemi enunciati.
Da non sottovalutare, da ultimo, la dimensione internazionale delle attività formative e successivamente delle carriere. La
connessa mobilità dei ricercatori, più il reclutamento internazionale degli studenti, dei dottorandi e la competizione globale per
le posizioni di PhD rientrano nei processi di costituzione della
European Research Area che influenzeranno tutto il settore.
166
167
Bibliografia
Note
SVEVA AVVEDUTO, MARIA CAROLINA BRANDI (2000), Risorse umane:
quale futuro nella scienza? Formazione e occupazione, Milano,
Franco Angeli
1 Questo lavoro è una rielaborazione effettuata dall’autrice di un
precedente documento predisposto per il Consiglio Italiano delle Scienze
Sociali sul tema: la politica della ricerca in Italia.
2 Ci si riferisce ai lavori del Group on Steering and Funding of
COMMISSION OF THE EUROPEAN COMMUNITIES, STRATA-ETAN
expert working group, Benchmarking National R&D Policies,
Human Resources in RTD, Final report, 21 August 2002
OECD WORKING GROUP ‘STEERING AND FUNDING OF RESEARCH
INSTITUTIONS’, Human Resources Management Issues Relating to
Funding and Priority Setting, DSTI/STP 4, 2002, Paris, OECD
OECD (2002), Science Technology and Industry Outlook, Paris,
OECD
168
Research Institutions, sussidiario al Comitato per la Politica Scientifica
dell’OECD, che ha creato al suo interno uno specifico sottogruppo dedicato allo studio delle risorse umane.
3 Per informazioni sull’attività della CORUS è disponibile il sito
http://corus.isrds.rm.cnr.it/Corus/
4 The Lisbon European Council (March 2000); The Barcelona
European Council (March 2002).
169
Nel momento in cui, come oggi avviene,
la tecnologia offre le più ampie possibilità di
comunicazione, grazie alle quali tutti possono
contattare tutti, di pari passo procede la tecnologia
della indecifrabilità.
Patrizia Capraro, Lo stato della divulgazione,
Scienza e informazione
Documentazione e accesso
Alcune riflessioni sugli aspetti etico-politici
dell’attività di documentazione
Lucia Maffei
Università degli Studi di Siena, Biblioteca Centrale
Facoltà di Economia
La documentazione intesa come gestione della conoscenza,
a sua volta scomponibile in molteplici azioni e conseguenti
competenze di tipo analitico, valutativo, gestionale, comunicativo, si caratterizza ormai come lo strumento attraverso il quale
la società mette in circolo e fa lievitare l’asset principe del suo
sviluppo. Creatività ed innovazione sono il reale fattore competitivo e vettore di sviluppo e l’attività di knowledge management
è al centro, ormai da alcuni anni, delle riflessioni del mondo
delle professioni legate all’informazione elettronica, in campo
scientifico come in quello produttivo1. Del resto la documentazione come attività di intermediazione e comunicazione si pone
come nodo di congiunzione fra l’insieme scienza, scienza applicata, tecnologie e l’insieme contesto, sia esso sociale, politico,
economico. Essa abita ciascuno dei due insiemi e contribuisce a
creare interconnessioni fra loro. Ed essendo i due insiemi intessuti di rapporti dinamici sia al proprio interno che fra sé, la
documentazione diviene l’agente principale di queste relazioni.
Questo disegno schematico di rapporti non dà però conto
della loro ricchezza, complessità e del valore, anche etico, delle
173
questioni che ruotano intorno a queste dinamiche, questioni
che pongono la documentazione come intermediazione al loro
centro, facendola emergere come attività altamente sensibile e
niente affatto neutra.
Molti pensatori individuano l’affermazione, in questo
nostro secolo che nasce, di un pensiero tecnocratico che affonda
le sue radici teoriche all’inizio dell’era dei Lumi, e che poco
spazio lascia ad un controllo politico e perfino economico dello
sviluppo2. Anche non arrivando a condividere completamente
questo assunto, sono indubbi i segnali di un cedimento della
politica rispetto almeno agli intrecci fra economia e tecnoscienza3. In questo contesto parlare di conoscenza e della sua
trasmissione può effettivamente assumere significati completamente diversi. C’è una conoscenza interna all’élite del pensiero
scientifico occidentale che ha sviluppato i suoi canali di
comunicazione fra pari. Tale gruppo dominante tuttavia non
abita tutto l’Occidente, ma solo la porzione scientificamente e
tecnologicamente più avanzata di esso. All’interno di questa
ristretta cerchia, il cui cuore sono i Paesi di cultura anglosassone, troviamo la punta avanzata della ricerca, ma anche degli
strumenti messi a punto per la sua diffusione. È qui che si
concentrano i colossi editoriali (di editoria tradizionale ed
elettronica) che rimangono a tutt’oggi il nerbo della comunicazione scientifica interna al gruppo ed esterna ad esso.
All’esterno di questo ristretto gruppo, per cerchi concentrici, si trova un mondo via via più debole sul piano della ricerca
e delle tecnologie di comunicazione. Prima il resto del mondo
occidentale che, incapace di mettere in campo risorse quantitativamente comparabili, rischia la marginalizzazione e diventa
progressivamente sempre più dipendente dalla ricerca e dalle
tecnologie di comunicazione sviluppate nell’area anglosassone,
poi la maggioranza del pianeta che si perde nelle sabbie mobili
del digital divide. L’Occidente, si è detto, fa i conti con un
mercato dell’informazione scientifica saldamente in mano a
pochi editori che detengono una situazione di monopolio. Il
passaggio verso forme di consultazione solo elettronica di
questi documenti è tanto inevitabile (sotto la spinta combinata
del mercato, della tecnologia e degli stessi utilizzatori) quanto
foriero di una dipendenza ancora maggiore di prima e di un
indebolimento della forza degli acquirenti (università, enti di
ricerca ecc.)4.
Il resto del mondo semplicemente sta a guardare e tentativi,
pur generosi e in alcuni casi anche coronati da successi parziali, di un uso delle tecnologie della comunicazione per lo sviluppo in aree di disagio, non hanno la forza al momento di ribaltare una situazione di divario drammatico. Anzi, certi progetti
che vedono riuniti intorno alle Nazioni Unite con le sue agenzie
di sviluppo e all’Organizzazione Mondiale della Sanità, partner
no profit, ma anche tutti i maggiori editori scientifici internazionali, come il progetto Hinari, si prestano a molteplici letture. Si
tratta di un progetto interno all’United Nations Millenium
Action Plan: Health Internetwork5 varato nel settembre 2000
con l’intento di attenuare il digital divide nel campo dell’informazione biomedica. L’Action Plan prevede vari interventi nella
costruzione di una rete di servizi informativi a supporto
dell’assistenza medica nei Paesi in via di sviluppo. Hinari
(Health InterNetwork Access to Research Initiative) in particolare ha lo scopo di far accedere all’informazione medica leader
nel mondo (circa 2000 riviste) le istituzioni pubbliche dei Paesi
del terzo mondo. Gli editori che detengono il monopolio di
questa informazione si sono resi disponibili a fornire l’accesso
gratuito per tre anni a Paesi che hanno un reddito pro capite
inferiore ai $ 1000 e a prezzi scontati per i Paesi dove il reddito
pro capite è compreso fra $ 1000 e $ 3000. Si sta parlando, soprattutto riguardo al primo gruppo, di Paesi dove finora spesso
non esisteva neanche un solo abbonamento a riviste mediche in
qualsivoglia formato. Non si può quindi che salutare con
favore l’estensione a questi Paesi della possibilità di accedere
174
175
all’informazione, vitale presupposto per il miglioramento
dell’assistenza sanitaria. Rimangono alcuni dubbi, che nascono
tutte le volte che si tenta di affrontare i problemi del digital
divide con introduzione di nuove tecnologie in aree con infrastrutture inadeguate. Se manca la corrente elettrica, se le linee
telefoniche sono pressoché inesistenti, che risultati pratici
questi tentativi possono avere se queste difficoltà impediscono
di raggiungere le aree più isolate e quindi si suppone più
bisognose di aiuto? Ma in questo caso c’è anche un’altra
perplessità, legata allo specifico progetto e agli specifici partner.
Data la politica aggressiva di alcuni editori, che ben conosciamo
anche in Occidente (fornire gratis i propri periodici elettronici
per creare un’abitudine all’uso nella comunità scientifica per
poi ‘imporre’ contratti vantaggiosi per l’editore), non si riesce a
non coltivare il dubbio che per alcuni di loro questa rappresenti un’ottima occasione di prepararsi un futuro nuovo mercato.
La cosa in sé non avrebbe nessuna controindicazione, se non
fosse che stiamo parlando di un tipo di informazione, quella
sull’aggiornamento medico, di importanza letteralmente vitale
e di protagonisti del mercato che al momento esercitano tutto il
proprio potere monopolistico nei confronti di Paesi senza
nessun potere contrattuale. Le esperienze di circolazione alternativa dell’informazione scientifica (open access, self archiving
ecc.) possono giocare o meno un ruolo nel supportare la crescita dei Paesi in via di sviluppo? Le tecnologie e il mercato, in
questo caso dell’informazione, ancora una volta mostrano tutte
le loro potenzialità contraddittorie. È questo un terreno dove la
professionalità dello specialista dell’informazione è chiamata di
nuovo in causa nell’operare scelte.
Le politiche occidentali successive all’11 settembre approfondiscono in maniera drammatica e poco lungimirante le
divisioni del mondo. I massicci investimenti statunitensi per la
difesa, gli armamenti e l’intelligence avranno sicuramente, come
in passato, importanti risultati di innovazione che si trasferi-
ranno anche nella società civile, ma questo è il rovescio della
medaglia di una orgogliosa ed egoistica tecnocrazia. D’altra
parte si tratta solo di un’accelerazione impetuosa di un processo conosciuto: la guerra fredda e il conseguente sviluppo
dell’industria bellica di deterrenza, insieme alla corsa alla
conquista dello spazio che ne fu un aspetto niente affatto secondario, determinarono già negli anni Cinquanta e Sessanta
un’accelerazione tale dei processi di sviluppo delle tecnologie
legate all’informazione che negli anni Settanta questi stessi
processi, una volta riconvertiti ad usi civili, hanno dato luogo
alla rivoluzione telematica.
Questi ultimi però sono anche stati lo stimolo e la provocazione che hanno riportato alla luce quella corrente carsica di
elaborazione critica che ha accompagnato la nascita della
società moderna, sempre in bilico, in Occidente, fra tentazioni
tecnocratiche e modelli partecipativi.
Dopo la fiammata della contestazione studentesca del ’68,
che aveva elaborato infatti un pensiero critico sull’informazione, la scienza, i media, per lunghi anni è sembrato prevalere un
pensiero di tipo tecnocratico a supporto di una westernizzazione
del mondo, cioè un trasferimento al secondo e terzo mondo di
un modello di sviluppo occidentale. Lo scenario conclusivo
porta all’oggi, ai movimenti no global e alla nascita di una critica
ad un modello di sviluppo che prevede un uso della conoscenza strumentale allo sviluppo del modello socio-economico
dominante. Ancora si propone il dualismo fra trasmissione ed
accesso.
I documentalisti, bibliotecari, archivisti, tutti coloro che
possono riconoscersi sotto un’etichetta di knowledge managers,
hanno una responsabilità rilevante in questo momento, proprio
per la centralità della loro attività. Possono indirizzare la loro
professionalità a sostegno di uno sviluppo a senso unico,
operando per il trasferimento univoco delle conoscenze,
oppure operare per un accesso attivo, consapevole e diffuso
176
177
alle informazioni scientifiche. Oggi l’informazione, l’insieme
delle conoscenze che da essa derivano e le tecnologie di circolazione possono davvero determinare il destino del pianeta.
La storia di queste professioni ci dice che essa si è nutrita ed
ha operato sulla scorta di grandi utopie (Gessner ancor prima
di Otlet fino alle utopie libertarie di Internet) insieme a rapporti stretti, strumentali e talvolta acritici con le forze che guidano
il modello di sviluppo attuale. Un dualismo che si rintraccia,
per esempio, nel dibattito attuale sul diritto d’autore in epoca
digitale o sul monopolio dell’informazione scientifica da parte
delle grandi multinazionali dell’editoria. Così come anche
l’interesse per quanto attiene il knowledge management contiene
al proprio interno potenzialità con esiti contrapposti: lo sviluppo di reti di conoscenza infatti può essere funzionale al consolidamento di modelli culturali e sociali dominanti, ma anche al
potenziamento di azioni di promozione di soggetti deboli e di
creazione di un sapere alternativo. C’è materia per un’operazione di revisione critica dell’agire quotidiano che ci pone
concretamente sulla cerniera di congiunzione fra due prospettive opposte di sviluppo della società dell’informazione.
Qualche dettaglio in più relativamente all’esempio del
copyright forse può chiarire le implicazioni etiche dell’attività
professionale: quale posizione tenere di fronte ai problemi di
gestione del copyright sulle pubblicazioni scientifiche in epoca
digitale, quando questo spesso diventa un impedimento all’accesso ad informazioni vitali per larga parte del mondo,
contraddicendo nei fatti l’assioma principe della ricerca, quello
della sua libertà, senza contare le conseguenze drammatiche
sulla vita degli individui? La promozione di circuiti di diffusione scientifica alternativi gestiti direttamente da chi opera
nelle biblioteche degli enti di ricerca può rappresentare una
concreta contromisura?
Nei padri fondatori Paul Otlet e Henri La Fontaine possiamo rintracciare i fondamenti etici della professione. Nelle
attività intraprese dai due avvocati pacifisti, dal Repertorio
bibliografico universale, al Repertorio iconografico universale,
al Catalogo centrale delle biblioteche, fino alla fondazione della
Società intellettuale delle nazioni, si trovano i segni dell’interpretazione dello sviluppo tecnologico come veicolo di creazione di una rete universale di saperi e quindi di un mondo pacificato. Nel suo libro-testamento, Traité de documentation. Le livre
sur le livre, Otlet disegna una «rete universale di informazione
e documentazione». Una stupefacente capacità premonitrice gli
fa immaginare «una rete che collega centri di produzione,
distribuzione, gestione di qualunque specie e in qualunque
luogo. La grande biblioteca è dotata di schermi. Grazie al
telescopio elettronico, il libro telefonato permette di “leggere”
in casa propria libri esposti nella sala “televideo” delle grandi
biblioteche, alle pagine precedentemente richieste»6. È chiara la
visione di un uso, oggi diremmo alternativo, delle tecnologie
comunicative, e sicuramente qui sta il senso più autentico della
nostra professione.
178
179
Note
1 Per una introduzione al tema dall’ottica del documentalista cfr.
Domenico Bogliolo, KM. Knowledge Management. Prima parte, in “AIDA
Informazioni”, n. 2, 1998, pp. 18-22; Domenico Bogliolo, KM. Knowledge
Management. Seconda parte, in “AIDA Informazioni”, n. 3, 1998, pp. 8-14;
Domenico Bogliolo, KM. Knowledge Management. Terza parte, in “AIDA
Informazioni”, n. 4, 1998, pp. 16-24; Domenico Bogliolo, KM. Knowledge
Management. Aggiunta, in “AIDA Informazioni”, n. 1, 1999, pp. 8-15. Per
un aggiornamento sul tema cfr. Domenico Bogliolo, Schegge, rubrica in
“Aida Informazioni”, dal n.1, 2000. Al sito www.aidainformazioni.it/pub/km1.html si possono consultare in successione tutti gli articoli sopra
citati in formato elettronico. Per seguire l’evoluzione del dibattito sul
knowledge management dalla prospettiva di chi opera nel trattamento
dell’informazione in contesti imprenditoriali e di ricerca, cfr. Online Information Proceedings, London, Learned Information, 1998.
2 Cfr. Armand Mattelart, Storia della società dell’informazione, Torino,
2002.
3 Edoardo Boncinelli, Umberto Galimberti, Giovanni Maria Pace, E
ora? La dimensione umana e le sfide della scienza, Torino, 2000, p. 27.
4 Il tema è stato al centro del dibattito che ha animato il Seminar on
Universities and Libraries organizzato dall’Institutional Management in
Higher Education, forum OECD sui problemi della gestione delle istituzione educative a Parigi nei giorni 27-27 agosto 2002. I rappresentanti dei
Paesi partecipanti (quasi tutti responsabili di sistemi bibliotecari di
Ateneo) si sono trovati d’accordo nell’evidenziare una comune difficoltà a
conciliare le ristrettezze progressive dei budget con le pretese sempre
meno negoziabili dei grandi editori.
5 www.healthinternetwork.org (consultato il 10/03/2003).
6 La citazione da Otlet è tratta da Armand Mattelart, cit., p. 41.
180
L’identificazione dei documenti
nell’economia della comunicazione scientifica
Giuseppe Vitiello
Direttore Attività Editoriali
Istituto Superiore di Sanità
Politica e società dell’informazione
Basta comparare le definizioni di politica e di economia
dell’informazione apparse trenta e quaranta anni fa con le
proposte odierne contenute nei piani nazionali di sviluppo
della società dell’informazione per misurare quanto le tecnologie abbiano mutato la filosofia, la percezione e le pratiche
dell’accesso alle conoscenze. In quegli anni, sotto l’influenza
delle ricerche di Machlup1 e Porat2, l’informazione era considerata essenzialmente un bene di scambio. Mentre gli studiosi delineavano i contorni e la natura di questo nuovo campo
di indagine – l’economia dell’informazione – il concetto di
politica dell’informazione era limitato per ambito e obiettivi:
si trattava di identificare una ‘catena’ della comunicazione
scientifica, su cui intervenivano una serie di attori coinvolti
nelle transazioni legate alla creazione di conoscenze e alla
loro trasmissione, e di orientarne l’indirizzo o correggerne le
disparità distributive. Autori, istituti di ricerca, agenzie di
stampa e altri soggetti erano a monte del processo; brokers di
181
informazione, produttori, distributori, bibliotecari e archivisti ne erano i mediatori; utilizzatori e consumatori i beneficiari. Se gli attori della catena erano principalmente collocati
nel settore privato, alla sfera pubblica toccava la funzione di
pianificazione in una logica e un comportamento legati allo
sviluppo della società del benessere. Nelle sue punte più
incandescenti, il dibattito era concentrato sulle scelte generali che accompagnano ogni politica dell’informazione: accentramento vs. decentramento degli organismi incaricati della
diffusione delle conoscenze, loro grado d’istituzionalizzazione e soluzioni tecniche decisive per la circolazione del sapere
– ad esempio i metodi e gli standard nel trattamento dei dati.
Le autorità statali e locali intervenivano a diversi livelli e
l’UNESCO, attraverso il Programma Generale di Informazione – all’epoca forse l’unico programma internazionale
esistente – ne orientava le tendenze a beneficio degli Stati
membri3.
La nozione odierna di informazione è il risultato della
rivoluzione tecnologica avvenuta nell’ultimo decennio e dell’emergenza della società detta ‘della conoscenza’. Se nel corso
degli anni Sessanta il numero di persone impiegate nel settore
del trattamento e nella trasformazione di beni (industria
mineraria, manifatturiera, delle costruzioni) era negli Stati
Uniti il doppio di quella intenta al trattamento dell’informazione (comunicazione, finanza, assicurazione, servizi, amministrazione), negli anni Novanta i due settori hanno raggiunto pari
livelli occupazionali, anche se il secondo è destinato ad incrementare la sua percentuale. Ma ancora più importante è
l’impatto dell’informazione sulla vita sociale e degli individui,
e l’influsso che essa esercita sulle strutture culturali, le identità
personali e le capacità relazionali. La nozione di informazione
è uscita fuori dalla sfera delle organizzazioni specializzate. Essa
ha natura granulare, è ‘pervasiva’ e presente in ogni momento
della vita umana, innervata nella capacità degli individui di
comunicare attraverso le reti tecnologiche. È diventata,
insomma, un valore da condividere, uno strumento portatore
di pace (o di guerra) e una parcella di personalità4.
182
183
Prima dunque di affrontare il problema degli identificatori
– dopo tutto, uno degli anelli più ermetici del processo di
trasmissione dell’informazione – vale la pena chiarire con
quale concetto di informazione ci stiamo misurando. Con
quello contemporaneo, polverizzato, diffuso, ‘societale’, che
nelle influenze reciproche di transazioni e messaggi attraversa
ogni istante della vita umana? O con quello più tradizionale, di
una comunicazione originata nei laboratori di ricerca e nelle
università e tramandata a utilizzatori individuali e comunità
di utilizzatori?
Il concetto di politica dell’informazione utilizzato in questo
contributo è di tipo tradizionale e pone in primo piano l’informazione come oggetto formalizzato di conoscenza trasmesso
attraverso mediazioni successive utili a rielaborare, ridisegnare
e ‘re-impacchettare’ le sue componenti. Dopo avere presentato
la catena dell’informazione (in particolare scientifica) nelle sue
operazioni, soffermandoci in particolare sul segmento della
distribuzione e sulla posizione che, al suo interno, occupa l’attività di identificazione, effettueremo una rassegna dei codici
identificativi, mostrandone le caratteristiche specifiche, gli
enjeux attuali e le trasformazioni che essi hanno subito per
effetto combinato delle tecnologie e della perdita del monopolio esercitato dalle agenzie titolari dei codici. Infine, legheremo
il progresso dei sistemi identificativi a uno dei nodi classici
della politica dell’informazione: deve questo essere sviluppato
dal libero mercato, che con la sua ‘mano invisibile’ agisce da
regolatore e da equilibratore (come aveva predetto a suo tempo
Hayek5), o al contrario, deve l’autorità pubblica intervenire a
riorientare il mondo proprio dell’identificazione nel senso
dell’equità d’accesso alle conoscenze?
La catena dell’informazione:
editoria di varia e comunicazione scientifica
Per raggiungere i suoi consumatori, ogni prodotto (e
servizio) informativo ha bisogno di una catena di mediatori.
Già al tempo dell’invenzione della stampa, gli editori, che
all’epoca cumulavano le proprie funzioni con quelle di
tipografo e libraio, cercavano di utilizzare la rete di librerie
allora esistenti per smaltire in tempi brevi la produzione e
non trovarsi a gestire rimanenze: «organizzare una rete
commerciale, che permettesse di vender la produzione il più
rapidamente possibile: questa fu, a lungo, la preoccupazione
costante degli editori» – così scrivono Febvre e Martin nella
loro classica opera sui primordi della stampa in Europa6. Una
rete di ‘agenti’ pubblicava in fogli di annunci le nuove
pubblicazioni che venivano vendute nelle varie fiere (tra cui
famosa, allora come oggi, era quella di Francoforte).
Un editore che volesse oggi, come all’epoca di Gutenberg,
assumere su di sé i ruoli a valle nella catena del libro – quello
di tipografo, di distributore, di libraio – sarebbe inattuale. Se
ancora nel Novecento erano frequenti i casi di editori
proprietari di tipografie e, più spesso ancora, di editori-librai,
oggi invece queste funzioni sono attribuite a diverse figure,
con distinti retroterra formativi e economici, le quali seguono
logiche di crescita e di iniziativa del tutto autonome. Si
prenda ad esempio la catena del libro. Ciascuno dei singoli
generi – l’editoria di varia, la scientifica, i libri per ragazzi o
gli scolastici – ha un distinto canale di comunicazione che
differisce sia per prodotti commercializzati che per attori
coinvolti.
Cambiano infatti gli output della catena – il libro illustrato nell’editoria per ragazzi, la monografia per la varia, i periodici, gli atti dei congressi, le tesi e i rapporti di ricerca per la
comunicazione scientifica. Ma cambiano anche i soggetti che
184
intervengono nelle distinte filiere. Essi sono promotori,
distributori, librai, o edicolanti nel circuito ‘normale’ del
libro; librerie concessionarie, agenzie di abbonamento e
biblioteche in quello scientifico7.
Il raffronto della catena del valore nell’editoria di varia nei
suoi numerosi macroanelli di mediazione e di vendita (Fig. 1)
con la più scarna, e lineare, catena della comunicazione STM
(scientifica tecnica e medica) (Fig. 2) è eloquente. Nel primo
caso, promotori, distributori e, quali punti di vendita, librai,
edicolanti e supermercati, trasmettono il prodotto ai consumatori; nel secondo caso solo le librerie concessionarie e/o le
agenzie di abbonamento stanno a mediare tra editori e biblioteche, che sono i principali, e spesso unici, acquirenti.
Figura 1. Catena dell’informazione: editoria di varia
185
Una tale concatenazione, peraltro, non è unicamente
peculiare alla filiera editoriale. Nelle industrie musicali,
cinematografiche e audiovisive l’anello dei produttori è distinto da quello dei distributori e, a somiglianza dell’editoriale,
variano i supporti – film o DVD, ad esempio – e gli attori per
ciascuno dei circuiti di vendita. Dopo tutto, vendere un DVD in
una libreria multimediale implica transazioni e operazioni
differenti dalla distribuzione di un film in una sala cinematografica o per un’emittente televisiva.
Ora, la rappresentazione lineare delle mediazioni sulla
catena del libro e dei prodotti editoriali STM (Scientifici, Tecnici
e Medici) potrebbe ispirare la falsa percezione di una costruzione del valore aggiunto armoniosa e priva di conflittualità. In
realtà, i diversi attori, anche quando tutti presenti, sono legati
tra di loro da rapporti di forza e relazioni contrattuali impari.
Da tempo, infatti, all’interno di tale processo, il controllo del
segmento della distribuzione è diventato strategico. Il punto
archimedico, il baricentro intorno cui ruota persino la relazione
autore-editore non è oggi né l’atto della creazione, né la fucina
intellettuale degli istituti di ricerca e neanche – come si potrebbe immaginare in una situazione di perfetta concorrenza
regolata dalla ‘mano invisibile’ del mercato – il consumatore
finale, lettore o utente che sia. La chiave di volta del sistema è
l’anello distributivo, che regola il flusso di informazione e di
comunicazione e seleziona i prodotti scelti dall’acquirente, ma
secondo criteri puramente commerciali.
È il caso del libro, ad esempio, dove la selezione dei titoli e
dei contenuti corrisponde alla capacità da parte delle imprese
editoriali di influenzare i meccanismi di distribuzione e di
‘occupare’ gli scaffali in libreria. Hanno scritto due sociologi
francesi: «l’inerzia nella diffusione è sufficiente a far morire un
libro, e l’inerzia è difficile da dimostrare, tanto più che i librai
sono spesso molto reticenti quando si tratta di testimoniare
contro una major, che, con la sua politica di margine, influenza
i risultati di vendita»8.
Ma è il caso ugualmente – e, se possibile, ancora più esacerbato – del settore dell’informazione STM. Diversamente dall’editoria di varia, il segmento STM è stato infatti completamente
riconfigurato dalle nuove tecnologie. Le biblioteche, infatti,
non acquistano più fascicoli di periodici, ma intere basi di dati,
a tariffe dipendenti dalla frequenza di uso, sulla base di licenze
rilasciate dai produttori. Non solo: convertendo la totalità della
loro produzione su supporto elettronico, gli editori sono ora in
grado di poterla distribuire direttamente. Essi non affidano più
la distribuzione del proprio contenuto a un agente, ma lo distribuiscono in proprio, senza intermediari. Sono diventati cioè
degli aggregatori – con questo neologismo sono designati i
distributori di risorse elettroniche sulle reti. Science e Lexis
186
187
Figura 2. Catena dell’informazione: comunicazione scientifica
Nexis, ad esempio, entrambe facenti parte dell’impero ReedElsevier, vendono senza intermediari le loro licenze di accesso.
Concentrazione delle imprese, integrazione verticale,
dominanza dell’inglese, dimensione globale dell’impresa, sono
tutti fenomeni emersi recentemente nel mondo dell’editoria. Essi
sono da tempo radicati negli altri settori del consumo culturale.
L’industria discografica, infatti, è dominata da alcune majors;
quanto al settore cinematografico, la supremazia commerciale
hollywoodiana, fondata sui proventi realizzati sul mercato
americano, consente ai produttori di finanziare l’ulteriore espansione planetaria e può essere contrastata unicamente da politiche
pubbliche di sostegno al cinema nazionale o europeo. Il mito
della diversità culturale e del libero accesso all’informazione
rimane forse ancora guida e ideale dei soggetti che partecipano
alla catena dell’informazione. Ma tale mito è quotidianamente
calpestato da comportamenti che rivisitano le libertà di espressione e di scelta degli individui secondo interpretazioni e pratiche obbedienti a scelte di mercato o all’esigenza di mantenere
alta la quotazione in borsa dei titoli editoriali. Esattamente come
esistono politiche pubbliche nel campo della telecomunicazione
e dell’audiovisivo, allo stesso modo sono oggi perciò necessarie
politiche proprie nel campo dell’informazione, che contrastino
tali tendenze e riaffermino con forza la diversificazione culturale e informativa e il libero accesso al sapere.
Informazione è termine ambiguo, usato in Italia quasi esclusivamente in due accezioni. La prima riguarda il regime della
libertà di espressione e le pari opportunità offerte ai partiti
politici e alle organizzazioni espressione della società civile
nell’accesso alla televisione e agli altri media. La seconda, più
recente, designa le grandi tendenze nelle tecnologie e le politi-
che di innovazione intraprese dai poteri pubblici per sviluppare le competenze (empowerment) utili all’utilizzo di strumenti e
di linguaggi specifici. In entrambe le accezioni, dunque, una
politica dell’informazione coprirebbe materie riservate, tanto
per intenderci, al Garante per l’informazione o al Ministro per
l’Innovazione e le tecnologie.
In questo contributo, invece, il concetto di politica dell’informazione è inteso come capacità da parte degli individui di
accedere a condizioni e prezzi ragionevoli a un’offerta di fonti di
informazione ampia e diversificata, selezionata secondo i bisogni
degli utilizzatori e senza che la scelta sia distorta da motivazioni
di ordine commerciale. Tale risultato è raggiunto quando vi è
equilibrio di poteri tra tre categorie di attori: produttori, mediatori e utilizzatori d’informazione. Il concetto è generalizzabile,
nell’editoria come nell’audiovisivo, nell’industria musicale come
sulle reti di comunicazione. Van Cuilenberg e Verhoest hanno
scritto che una politica generale di comunicazione fondata
sull’accesso dovrebbe mirare «at the greatest freedom, for the
greatest number of communication and information suppliers,
users, and brokers, and should therefore monitor and correct any
situation in which control of access is subject to market failure
and consequently out of balance. To put it in other words, a
communication policy for access should strive for maximum
equality in the distribution of communication freedom»9.
Il nodo del problema è quindi la varietà e l’accessibilità delle
fonti di informazione. Voci allarmate in campo documentario
hanno spesso sottolineato la scarsa accessibilità delle pubblicazioni elettroniche dovuta alle alte tariffe praticate dagli editori
STM. È noto infatti che i prezzi dei periodici hanno subito
incrementi del 207% dal 1986 al 1997, mentre nello stesso
periodo l’aumento dell’indice dei prezzi dei beni di consumo e
delle remunerazioni per il personale accademico saliva, rispettivamente, del 52% e del 68%10. La reazione degli utilizzatori
non si è fatta attendere. Universitari e bibliotecari coalizzati
188
189
Le politiche nazionali dell’informazione:
offerta diversificata e sua accessibilità
hanno posto le basi per un modello alternativo di comunicazione scientifica, fondato, da un lato, sulla collocazione delle
pubblicazioni scientifiche in depositi consultabili liberamente
perché tutti costruiti sullo stesso protocollo d’accesso OAI
(Open Archives Initiative) e, dall’altro, sulla creazione di riviste
scientifiche di prestigio ed elevato impact factor ma a prezzi
sensibilmente più ridotti, in concorrenza diretta con quelle
dell’editoria STM di carattere commerciale11.
Soprattutto nei Paesi anglosassoni, la politica dell’informazione si è quindi concentrata sugli organismi coinvolti nella
‘domanda’ di sapere, mobilitati nel contrastare un’‘offerta’
giudicata poco diversificata e troppo onerosa per i consumatori. La creazione di un polo editoriale (ad accesso gratuito o a
prezzi moderati) dovrebbe avere funzione regolatrice del
mercato attraverso il suo effetto calmieratore e la parziale sostituzione del blocco commerciale dei produttori.
Non sempre è possibile comunque ricorrere a un’ipotesi così
estrema. In linea di massima, quando la concentrazione delle
imprese potrebbe portare alla formazione di cartelli e a possibili abusi di posizione dominante, si ricorre all’arma più classica
del veto posto alla fusione esercitato dagli organismi pubblici
antitrust, che sono competenti sulla concorrenza e la liberalizzazione del mercato.
Già sollecitato per casi riguardanti le industrie musicali,
cinematografiche e audiovisive, il Commissario europeo alla
concorrenza ha dovuto intervenire in campo editoriale nel
1997, ponendo il veto alla progettata fusione tra Reed Elsevier
e Wolters Kluwer. L’unione del maggiore editore STM al
mondo (il cui fatturato è, per inciso, pari al doppio di quello
realizzato dall’insieme delle industrie editoriali italiane), con
Wolters Kluwer, secondo in classifica, avrebbe comportato una
posizione di monopolio nei Paesi Bassi e un controllo quasi
totale del mercato di altri Paesi. I grandi editori STM si
muovono ormai in un mercato di nicchia che, attraverso gli
strumenti classici delle fusioni e delle acquisizioni, hanno
presto trasformato in rendita di posizione12.
Gli stessi timori attraversano oggi l’editoria di varia, un tempo
considerata come un mercato ‘aperto’ perché le barriere di ingresso per i nuovi attori sono basse e relativamente modesto è il
capitale iniziale necessario all’investimento produttivo. Anche in
questo settore si sono verificati gli stessi fenomeni di concentrazione delle imprese e di integrazione verticale tra produzione e
distribuzione. In Europa, il caso più eclatante è senza dubbio
quello francese13.
Fino al 2002 l’editoria francese era caratterizzata da un
‘duopolio a frange’14. Due gruppi si contendevano infatti la
posizione dominante: Havas publications édition (in seguito
ribattezzato Vivendi Universal Publishing) – un conglomerato
presente, oltre che nell’edizione, nella televisione, nella telefonia, nel cinema e in numerose altre attività assicurative e bancarie – e Hachette, di proprietà di Matra Lagardère, forte soprattutto nel settore degli apparecchi di precisione e nell’aereonautica. Insieme i due gruppi controllavano più dei due terzi del
mercato. L’annunciato riscatto del comparto editoriale della
Vivendi Universal Publishing da parte di Hachette ha trasformato il duopolio in (quasi) monopolio. Molte voci sono scese in
campo, chi a difendere, in nome dell’eccezione culturale, la
nazionalità francese della proprietà editoriale, chi invece a
denunciare la tentazione egemonica del gruppo Hachette.
Fuori da ogni ideologia, le analisi più obiettive sono forse
contenute nelle valutazioni di borsa eseguite dagli analisti
finanziari. Così si leggeva nel Bulletin Crédit Lyonnais Securities:
«L’impressionante posizione dominante [di Hachette] [...]
sarebbe un atout formidabile per Lagardère il quale, controllando l’intera catena del libro in Francia, potrebbe essere in grado
di rafforzare il suo pricing power nell’industria, dai fornitori di
carta ai punti di vendita, in aggiunta a Virgin Megastore – già
controllata da Lagardère»15.
190
191
Ora – e la notizia è recente – il Commissario europeo
Monti ha posto il veto alla fusione e obbligato Hachette a rivendere a terzi il patrimonio acquisito da Vivendi, conservando
unicamente il 40% delle sue attività16. Il piano è stato accettato
da Hachette. Senza l’intervento della Commissione europea,
Hachette sarebbe stata titolare del 40% del fatturato editoriale
francese e del 60% dei titoli pubblicati e, in alcuni settori, il
controllo sul mercato sarebbe stato notevole se non assoluto:
nei libri scolastici (82% del fatturato globale), nel settore dei
dizionari e delle enciclopedie (90%), nei tascabili (52%), nella
letteratura generale (41%), nel libro per ragazzi (45%) e nel libro
pratico e professionale (40%). Se dai dati assoluti si passa a
quelli relativi, vale la pena aggiungere che la produzione
dell’entità VUP-Hachette è già ora superiore a quella dell’insieme dei sei gruppi editoriali francesi più produttivi (8.764 nuovi
titoli prodotti contro 7.187 nel 2002) e il fatturato globale è otto
volte superiore a quello del secondo gruppo (1.814 milioni di
Euro contro 235 milioni di Euro nel 2002).
Ma è soprattutto nella promozione e nella distribuzione che
Hachette avrebbe avuto una posizione di assoluto predominio,
dove sarebbero state controllate il 70% delle 1.300 librerie
sparse in Francia e il 95% dei 15.000 piccoli punti di vendita (in
cui peraltro Hachette è presente fin dall’Ottocento). La capacità di fissare i prezzi e i margini di profitto (pricing power)
sarebbe stata quindi assoluta. E non è tutto. La sua presenza nel
settore dei media (Hachette Filipacchi Media), della stampa
quotidiana e di intrattenimento e nella pubblicità favorisce
quello che gli analisti definiscono ‘promozione incrociata di
interessi economici’, ossia l’amplificazione degli eventi editoriali realizzata dai media appartenenti allo stesso gruppo.
Quello della ‘promozione incrociata’ non è problema esclusivamente francese. Nei Paesi anglosassoni da tempo la proprietà
editoriale non fa più differenza tra informazione e comunicazione e travalica i confini geografici. Rupert Murdoch, proprietario
della News Corporation, associa un patrimonio cinematografico
(Twentieth-Century Fox) con un impero giornalistico (“Sun”,
“New York Post”) e un gigante editoriale (Harper Collins).
Holtzbrinck, il secondo gruppo editoriale tedesco, ha acquistato
le più prestigiose case editrici statunitensi e inglesi (Farrar,
Strauss and Giroux, Henry Holt, Macmillan, ecc.) ed è forte nel
settore della stampa finanziaria (“Handelsblatt”, “Wall Street
Journal Europe”). Infine il Pearson Group combina interessi
editoriali (Longman e Penguin) con quelli della stampa specialistica (“Financial Time”) e regionale (Westminster Press Group)17.
192
193
L’identificazione nella catena dell’informazione
È in questo contesto di oligopolio delle imprese e di stretto
controllo del segmento della distribuzione che sorge il problema dell’identificazione dei documenti. Gli identificatori sono
«nomi o stringhe che in conformità ad alcune convenzioni
assicurano, se applicate in modo appropriato, la unicità»18.
Attraverso la designazione di un prodotto unico editoriale o
mediale, essi sono un mezzo di razionalizzazione e di accelerazione del trattamento dell’informazione posto al servizio di
tutti i soggetti della catena, senza discriminazioni. Ora, nel
contesto appena descritto, possono gli identificatori essere
strumentalmente impiegati ad accrescere la posizione
dominante di alcuni attori sugli altri? Possono favorire, direttamente o indirettamente, integrazioni verticali e ulteriori
concentrazioni di imprese? Prima di dare una risposta, esaminiamo innanzitutto la posizione specifica degli identificatori
all’interno della catena dell’informazione.
Un identificatore è in genere (ma non solo) utilizzato
quando le funzioni editoriali non sono eseguite in proprio da
un editore, ma sono affidate all’esterno e la comunicazione tra
più parti deve avvenire in modo non ambiguo. La situazione
non è infrequente nell’apparato editoriale, dove gran parte
delle operazioni sono contrattate a terzi. Lo sono, ovviamente,
le funzioni autoriali, anche quando committente di un’opera è
un’istituzione, o quando un agente letterario tratta per conto di
un autore i diritti su un’opera. Esternalizzate sono anche le
attività di stampa e di riproduzione, nonché – in particolare se
la casa editrice è di piccole dimensioni – la contabilità e i
controlli gestionali. Infine, il processo di distribuzione – promozione, trasferimento materiale dei prodotti, loro vendita – passa
attraverso mediatori specializzati esterni. Sono invece di solito
funzioni interne la lettura di un manoscritto, la redazione e la
composizione (grafica, layout, eventuali illustrazioni), nonché
la scelta del canale di distribuzione e di promozione.
Gli attori maggiormente interessati all’identificazione unica
dei prodotti della creazione editoriale sono tutti sul versante
della distribuzione: promotori, diffusori, distributori propriamente detti, librai, bibliotecari. È facile capire il perché. Finché il
numero di titoli e di attori che intervengono sul loro trattamento
è ridotto – perché interni a un’organizzazione o perché, come
l’autore e il direttore di collana, ad esempio, legati tra loro da una
relazione di prossimità – è difficile che si affacci l’esigenza dell’identificazione unica. Non appena si lavora sui grandi numeri e
occorre rafforzare la solidità e la stabilità della comunicazione,
l’identificatore diventa invece indispensabile. Un identificatore
costituisce dunque il principale rimedio al rumore nella catena
dell’informazione e della comunicazione. Adottato nel segmento
distributivo per operazioni di ordine, contabilità e monitoraggio
della circolazione, l’ISBN (International Standard Book Number),
viene utilizzato ad esempio anche in libreria e presso i grossisti in
associazione al codice EAN (Electronic Article Numbering) per la
lettura ottica dei dati e, di conseguenza, la gestione dei diritti
d’autore. Infine, in biblioteca, esso viene impiegato per operazioni di cattura di registrazioni bibliografiche e per calcolare il
diritto di prestito (lending right) in quei Paesi, come la Gran Bretagna, dove esistono disposizioni legislative al riguardo.
Con la progressiva concentrazione delle case editrici in
pochi gruppi globali e la necessità di controllare informazioni
assai disparate usando un’architettura di rete, l’esercizio di
identificazione interessa ormai anche il segmento della produzione, dove era raramente applicato. Ciò corrisponde al
bisogno di seguire la pubblicazione durante tutto il ciclo di
lavorazione, dal momento della sua germinazione a quello del
consumo. Nella Fig. 3 abbiamo indicato le funzioni internalizzate vs. esternalizzate tipiche di una casa editrice, con la
designazione degli attori e delle funzioni che sono soliti utilizzare nella pratica quotidiana un identificatore.
* In rilievo sono indicate le funzioni che utilizzano correntemente gli
identificatori; le frecce di colore chiaro designano le tappe della comunicazione per le quali gli identificatori sono oramai divenuti indispensabili
194
195
Figura 3. Esternalizzazione – Internalizzazione
delle funzioni editoriali*
L’identificazione degli identificatori19
Inizialmente applicati nel mondo del libro e sostenuti dalla
comunità editoriale e documentaria, gli identificatori si sono
via via diffusi in tutti i settori dell’informazione e della comunicazione e sono diventati cruciali in specie quando, associati a
descrizioni bibliografiche, metadati e altre informazioni sulle
pubblicazioni, permettono di rispondere ai bisogni del controllo bibliografico, della presentazione delle risorse, della fornitura di documenti e del commercio elettronico. Se ne darà ora una
veloce rassegna, con notizie brevi sulla loro natura e sulle
comunità che li controllano.
circolazione, ISBN ha avuto uno sviluppo ulteriore a 13 cifre
come codice EAN (Electronic Article Numbering) per la lettura
ottica in libreria e la gestione dei diritti d’autore. In biblioteca,
l’ISBN è stato utilizzato per operazioni di cattura di registrazioni bibliografiche e per il diritto di prestito (lending right) in
quei Paesi, come la Gran Bretagna, dove questo esiste.
ISBN. Creato nel 1970 (standard ISO 2108), l’International
Standard Book Number è uno standard ‘intelligente’; la struttura del suo codice è significativa e designa: a) il gruppo nazionale, linguistico o geografico, b) l’editore, c) il titolo. L’ultimo
segmento verifica l’esattezza dell’ISBN, espresso da un numero
di controllo che serve a garantire contro possibili errori della
trascrizione manuale.
L’amministrazione dell’ISBN avviene a tre livelli. Il livello
internazionale di coordinamento è assicurato dall’International
ISBN Agency, con sede nella Staatsbibliothek di Berlino, nel cui
Consiglio di amministrazione siedono editori e bibliotecari. A
livello nazionale le agenzie che assegnano gli ISBN sono o
editori specializzati in informazione editoriale (ad esempio, in
Gran Bretagna e negli Stati Uniti), o associazioni professionali
degli editori e, talvolta, dei librai (come in Germania), o infine
dipartimenti specializzati delle biblioteche nazionali (nei Paesi
scandinavi, sudamericani e quelli dell’Europa dell’Est). Il terzo
livello è infine quello degli editori stessi, che assegnano alle
loro pubblicazioni l’ISBN, stampandolo sul retro di copertina.
Utilizzato innanzitutto nel segmento distributivo del libro,
nelle operazioni di ordine, contabilità e monitoraggio della sua
ISSN. Sulla scia del successo dell’ISBN, fu creato nel 1975
l’International Standard Serial Number (standard ISO 3297).
L’ISSN è un codice ‘muto’: la sua stringa di formulazione non
contiene infatti alcuna informazione significativa riferita al contenuto o all’origine della pubblicazione. Designante la testata del
periodico, e non un suo fascicolo, ISSN prende la forma dell’acronimo ISSN seguito da due gruppi di quattro cifre, separate da
un trattino. La sua gestione internazionale è affidata al Centro
internazionale dell’ISSN, con sede a Parigi, che pubblica il
Register, base di dati centralizzata degli ISSN, dotato di più di 1,1
milioni di titoli. La gestione nazionale è invece affidata alle
agenzie nazionali (attualmente 75): in genere, un ufficio apposito
della biblioteca nazionale (in Gran Bretagna, Francia, Spagna,
Stati Uniti, Australia, nonché nei Paesi scandinavi e nella totalità
dei nuovi e vecchi Stati dell’Europa dell’Est), o il centro documentario dell’organismo nazionale di ricerca (ciò avviene principalmente in America del Sud, India e in Italia). L’ISSN è parte
integrante del codice EAN e, soprattutto nei Paesi anglosassoni, è
usato come codice per la lettura ottica del codice a barra e per le
vendite dei periodici nei chioschi, nelle edicole, nei supermarket.
Nei Paesi dove invece la raccolta è selettiva, l’ISSN ha una
gamma di applicazioni limitata quasi esclusivamente al segmento editoriale e bibliotecario scientifico, che include anche le
agenzie di abbonamento e le librerie commissionarie. I suoi usi
riguardano quindi le operazioni di ordine dei periodici, il controllo e monitoraggio della loro gestione e, nelle biblioteche, le procedure di ricerca e di cattura delle registrazioni bibliografiche.
196
197
ISRC. Nel 1986 le industrie fonografiche elaboravano l’ISRC,
International Standard Recording Code, inteso a identificare le
registrazioni audio e audiovisive di carattere musicale
(standard ISO 3901). Standard ‘intelligente’, esso è composto di
dodici caratteri divisi in quattro elementi: Paese, entità
registrante (primo proprietario), anno di riferimento della
registrazione e della designazione del documento. Le agenzie
nazionali di assegnazione (attualmente ne esistono 43) si sono
costituite negli anni successivi (e alcune solo di recente), mentre
l’IFPI, che rappresenta le industrie musicali nel mondo, è
diventata l’agenzia internazionale nel 1989.
ISMN. Molto simile all’ISBN è l’ISMN (International
Standard Music Number), che si applica alla musica a stampa.
Adottato dall’ISO nel 1993 (ISO 10957), esso ha caratteristiche
simili all’ISBN ed è utilizzato per il controllo della musica a
stampa e la tutela del copyright. Esistono attualmente 43
agenzie nazionali, mentre il coordinamento internazionale è
affidato, come per l’ISBN, alla Biblioteca statale di Berlino.
DOI. Il Digital Object Identifier (DOI®) è uno strumento
che serve a identificare in modo persistente un frammento di
proprietà intellettuale (un testo, un’immagine, un articolo, un
diagramma) sulle reti digitali. Identificatore muto, il DOI ha
quattro componenti:
– una stringa alfanumerica ‘muta’, assegnata all’entità
oggetto di proprietà intellettuale identificata dal DOI. Tale
stringa non costituisce uno standard ISO, anche se la sua
sintassi è stata accettata dall’ente di standardizzazione
americano (ANSI/NISO z39.84-2000);
– la descrizione bibliografica dell’entità identificata dal DOI
attraverso dei metadati, inquadrati nella cornice <indecs>
e ricavabili da qualunque schema (incluso dunque il
Dublin Core);
– un meccanismo di risoluzione, basato sull’Handle system,
che permette un servizio di nomi per uso sulle reti;
– una politica generale che governa le operazioni del
sistema, in particolare la concessione in franchising del
sistema DOI ad alcune agenzie che lo applicano secondo
strategie settoriali e specifiche.
A determinarne la politica generale è l’International DOI
Foundation, creata nel 1998 con statuto non-profit. Allo stadio
attuale esistono le seguenti agenzie: CrossRef, specializzata
nell’assegnazione del DOI agli articoli di periodici scientifici,
Content Direction Inc., orientata verso l’applicazione del DOI
a libri e giornali, immagini fotografiche, audiovisivi e
documenti sonori, e-learning e registrazioni contenute nelle
basi di dati mediche, Enpia Systems Ltd., per gli oggetti in
lingua coreana, Learning Object Network (LON), che ha
sostenuto il progetto del Department of Defense americano
sull’Advanced Distributed learning (ADL), la Copyright
Agency Ltd., per le licenze di materiale di autori, giornalisti,
artisti, fotografi, e gli editori di libri, periodici e giornali. Di
recente, l’assegnazione del DOI è svolta come servizio sussi-
198
199
SICI. SICI (Serial Item and Contribution Identifier) è un
codice di identificazione unica del fascicolo di un titolo in serie
o di un contributo (ad esempio, un articolo) incluso in un fascicolo, indipendentemente dal mezzo di distribuzione (carta,
microforma o versione elettronica). Adottato dal NISO, l’organismo di standardizzazione americano nel 1996, ma non ancora
dall’ISO, esso è combinabile in modo naturale con l’ISSN, che è
una delle sue componenti. SICI è stato applicato nelle biblioteche nordamericane e nel portale di Ingenta, l’aggregatore più
importante presente attualmente sul mercato; in Italia è stato
utilizzato in seno al progetto CASA. È gratuito e la sua
assegnazione non necessita di alcuna formalità. Il SICI non
dispone né di un’agenzia nazionale di assegnazione, né di un
centro internazionale di coordinamento.
diario di TSO (The Stationery Office, editore delle pubblicazioni ufficiali in Gran Bretagna e Irlanda), e da un consorzio
di società europee, coordinato dall’Associazione Italiana
Editori, dal nome MEDRA, che lo utilizzerà, a partire dal
2004, per la citazione persistente di documenti su Internet, le
entità protette dal diritto d’autore e la certificazione del
deposito di materiale elettronico.
ISRN. L’ISRN è il codice unico di identificazione dei
rapporti, di quei documenti, cioè, spesso non commerciali,
che descrivono i risultati di una ricerca, di un’indagine e di
ogni altro studio svolto da un organismo o da una persona.
Individuato come standard ISO 10444, è applicato in genere
dagli organismi di ricerca e dalle agenzie di documentazione
scientifica, come il FIZ di Karlsruhe o il CNRS in Francia, ma
non ha una rete di agenzie nazionali, né si è dotato di
un’agenzia di coordinamento internazionale.
ro sistema e mantiene una base centralizzata di tutte le
registrazioni ISAN.
ISTC. Ancora sottoposto all’approvazione dell’ISO è
l’International Standard Textual Code (ISTC). Lo ISTC identifica le opere testuali e non i loro prodotti fisici o le altre
manifestazioni delle opere. Esso consiste di quattro elementi
nell’ordine seguente: l’elemento relativo all’agenzia di
registrazione, l’anno, l’elemento relativo all’opera e una cifra
di controllo. Il Comitato ISO TC46/SC9 sta attualmente verificando la viabilità dello standard: fino ad ora, infatti, nessuna
agenzia si è candidata a mantenere il registro centralizzato.
Caratteristiche dei codici di identificazione
ISAN. L’ISAN (International Standard Audiovisual
Number) identifica invece le opere audiovisive e le loro
espressioni, quando l’opera è in più episodi. Approvato come
standard ISO 15706 nel settembre del 2002, esso è amministrato da un’agenzia internazionale ISAN che coordina l’inte-
L’elenco che abbiamo appena compilato, tuttavia, dice assai
poco sulla natura degli identificatori, che variano non solo per
ambito di applicazione – testuale, musicale, audiovisivo – ma
anche per una serie di tratti che sono determinanti per il loro
successo nelle transazioni commerciali e documentarie.
Il primo di essi è il cosidetto livello di granularità di un
identificatore, vale a dire il livello di una pubblicazione in cui
viene fissata l’identificazione. Ad esempio, nei periodici l’informazione rilevante può essere di granularità ridotta, quando
riguarda diagrammi, immagini, illustrazioni e altri oggetti, o
più densa quando riguarda gli articoli di una rivista. Rispetto
alla proprietà intellettuale, granularità riguarda il pacchetto di
comunicazione protetto dal diritto d’autore20.
L’IFLA (International Federation of Library and Documentation Associations) ha cercato di fissare i criteri generali di
determinazione della granularità di un’opera. Con i Requisiti
Funzionali per le Registrazioni Bibliografiche, opera del
Gruppo UBCIM (Universal Bibliographic Control and International MARC) sono state individuate le entità identificate,
200
201
ISWC. L’ISWC (International Standard Musical Work
Code) è un numero di riferimento valido per l’identificazione
dei lavori musicali. Approvato dall’ISO nel 2001 (ISO 15707) è
un codice muto che identifica l’opera musicale come creazione intangibile dello spirito, e non le sue espressioni (ad
esempio, una performance) o le sue manifestazioni. Al codice è
associato un metadato. La base di dati centralizzata, amministrata dalla CISAC a Parigi, riceve i dati dalle agenzie nazionali con le quali ha stretto un accordo. Attualmente queste
sono diciassette, ma con altre dieci le trattative sono già in
corso, mentre quelle candidate sono quindici.
designate o descritte nella registrazione bibliografica. Queste
sono: l’opera, l’espressione, la manifestazione e il documento21.
Opera ed espressione riflettono il contenuto artistico e intellettuale; manifestazione e documento riguardano invece la
sua forma fisica. Un’opera può essere realizzata attraverso
una o più espressioni, mentre un’espressione è la realizzazione di una e una sola opera. Inoltre, un’espressione può
materializzarsi in una o più manifestazioni e, reciprocamente,
una manifestazione può incorporare plurime espressioni e
dare vita a uno o più documenti. Al contrario, un documento
può rappresentare una e una sola manifestazione.
In questo modo, ISBN, ISMN e ISRN riguardano la manifestazione fisica dell’espressione di un’opera. SICI opera invece
al livello delle espressioni – la realizzazione intellettuale o
artistica di un’opera. Anche l’ISRC designa le registrazioni
audio e audiovisive secondo la loro espressione: per un
produttore discografico, infatti, il tratto specifico – in questo
caso, il criterio di risoluzione del diritto d’autore – è la
registrazione effettuata da una determinata orchestra attraverso cui un’opera si realizza, quali che siano le manifestazioni (CD, audiocassetta, ecc.). Lo ISWC, invece, identifica la
creazione artistica unica, indipendentemente dalle sue espressioni. Si comprende dunque per quale ragione più identificatori possano intervenire su uno stesso prodotto: l’identificazione proposta da ISRC non corrisponde ai bisogni della
comunità degli autori, la cui preoccupazione principale è
identificare attraverso ISWC l’opera nelle espressioni e
manifestazioni che potrebbero altrimenti sfuggire al loro
controllo.
Come dimostra il caso del DOI, i princìpi di granularità
fissati dall’IFLA risultano poco praticabili in ambito elettronico. Il DOI, infatti, non designa né un’opera, né un’espressione, né una manifestazione, o meglio, le designa tutte, indifferentemente. Questo ‘metaidentificatore’ ha interpretato alla
lettera il problema della convergenza dei supporti sulle reti di
comunicazione e si applica a ogni oggetto digitale, rendendo
pertinente unicamente ciò che è rilevante per la protezione
della proprietà intellettuale. Il DOI ‘fiuta’ il valore aggiunto là
dove esso si manifesta: in una rivista di astronomia gli
elementi di maggiore valore sono, mettiamo, le immagini
relative alla circonvoluzione di un pianeta o alla rivoluzione
della Terra, senza le quali resterebbe sibillino il testo e sarebbero prive di pregnanza le note.
L’avvento delle tecnologie dell’informazione e della
comunicazione, la protezione e la gestione dei diritti d’autore
digitali, la normalizzazione delle procedure relative alle
transazioni in rete hanno imposto vincoli di sviluppo ancora
più imperiosi per i codici di identificazione e accelerato il
movimento verso la loro revisione. Tre aspetti addizionali
vengono oggi a rafforzare la dimensione tecnica di uno
standard e la sua capacità di imporsi come identificatore
idoneo a un ambiente di rete. Essi sono: l’azionabilità, la
persistenza e l’interoperabilità.
L’azionabilità è la possibilità per un utente di passare con un
solo click da un identificatore a una URL utile, sia essa un
metadato, un servizio fornito da un servizio di identificazione
o la stessa risorsa. I legami verso i metadati sono dunque
diventati un elemento strategico e la detenzione, nell’ambito di
un sistema di identificazione, di una base di registrazioni
bibliografiche comuni è l’elemento distintivo tra gli standard.
Una delle cause del ritardo nella penetrazione dell’ISRC nel
mercato dell’identificazione è stata forse proprio la mancata
concezione di una base di dati comune all’inizio della sua
applicazione. Anche il Gruppo di revisione dell’ISBN ha proposto una base di dati comune. A questo riguardo, la posizione
dell’ISSN nei confronti del suo gemello storico è più favorevole, giacché l’ISSN potrebbe teoricamente legare il Register a una
serie di URL rilevanti ed essere dunque azionabile.
202
203
204
205
Fonte: Giuseppe Vitiello, L’identificazione degli identificatori, in “Biblioteche oggi”, n. 2, 2004.
Editore, a partire dal
2003 anche biblioteche
Comunità presente
nel consiglio
d’Amministrazione
Tavola di riepilogo: gli identificatori, loro caratteristiche e mercato*
Un altro elemento è la persistenza. Muovendosi da un sito
web a un altro o localizzandosi su più siti web, le risorse
elettroniche cambiano frequentemente di indirizzo e, così
facendo, perdono il loro carattere di fissità. Questo ostacolo di
fondo va superato localizzando la risorsa in un luogo provvisto di ‘nome’, dove possa essere costantemente identificata,
quali che siano i suoi spostamenti temporanei, affinché il
catalogo elettronico possa essere integro, stabile e coerente.
DOI ha trattato il problema della persistenza come condizione stessa della sua proposta di mercato: la URL (per default)
del full text che accompagna il metadato e il codice DOI è
quella che rimarrà stabile, quali che siano le diverse localizzazioni della risorsa.
L’ultimo aspetto, infine, è l’interoperabilità tra sistemi
eterogenei, la capacità, cioè, «di un sistema o di un prodotto
di operare in combinazione con altri sistemi o prodotti senza
richiedere un impegno particolare da parte dell’utente»22. La
Fondazione internazionale DOI ha seguito una politica di
normalizzazione delle procedure e della sintassi per la gestione delle transazioni che è conforme alla cornice di metadati
<indecs>. <indecs> propone una serie di principi: identificazione unica, granularità funzionale, autorità designata e
accesso appropriato. Tra questi il più importante è senza
dubbio il principio dell’identificazione unica che deve essere
applicato obbligatoriamente. Collegato, anche se indipendente dal problema dell’interoperabilità, è quello della redirezione verso la ‘copia appropriata’, la possibilità cioè di potere
discriminare l’accesso alla copia di un documento. Tra gli
strumenti di mediazione quello di più larga utilizzazione è
l’Open URL, che assicura la redirezione verso depositi di
risorse elettroniche e, all’interno di queste, verso la copia più
conveniente per l’utente.
Le caratteristiche degli identificatori appena esposte possono essere sintetizzate nella tavola di riepilogo.
Le agenzie di identificazione: monopolio consensuale
e introduzione di elementi di concorrenza
A questo punto siamo in grado di rispondere alle questioni
centrali del nostro contributo: da un lato, se gli identificatori
possano servire a rafforzare il controllo di alcuni gruppi sul
segmento della distribuzione e, dall’altro, se il loro sviluppo
debba essere rimesso al libero gioco delle parti in causa o
invece sostenuto da una specifica politica dell’informazione.
Vale la pena sottolineare che, pur essendo talvolta società
private, le agenzie di identificazione sono quasi sempre
associazioni professionali o organismi pubblici del settore
documentario. Sui nove identificatori elencati nella Tavola di
riepilogo, i poteri pubblici di molti Paesi – in genere rappresentati da una biblioteca o un centro di documentazione – sono
presenti in un gran numero di agenzie di almeno quattro
identificatori: ISBN, ISSN, ISRN e ISMN. In genere, però,
queste ultime sono emanazione diretta di una categoria professionale e il raccordo internazionale è operato dalla federazione
internazionale delle associazioni nazionali. L’agenzia internazionale di un identificatore, l’ISSN, è addirittura un’organizzazione internazionale patrocinata dall’UNESCO.
Indipendentemente dallo statuto delle agenzie titolari del
codice, l’esercizio di identificazione ha sempre carattere parziale perché, nel continuum della tipologia documentaria, esso
pertinentizza unicamente i tratti specifici su cui si concentra
l’interesse della comunità di controllo. Ritagliato su misura per
le industrie musicali, l’ISRC, ad esempio, non tiene in conto le
istanze della comunità degli autori e dei compositori. Nello
stesso tempo, ogni identificatore deve aspirare all’universalità
se vuole allargare la sua base di utilizzatori e venire incontro ai
bisogni di utenti potenziali che sono pronti a sfruttarne i
vantaggi, pur senza condividerne la filosofia applicativa. Il
monopolio esercitato dalle agenzie di identificazione nella
pratica di assegnazione può essere dunque solo di tipo consensuale: esso è accettato dagli attori presenti sulla catena ed è
legittimato dalla natura super partes dell’associazione titolare
del codice. Piuttosto che di antagonismo, si deve parlare quindi
di complementarità e di giustapposizione tra i diversi codici,
giacché il criterio tassonomico di ripartizione del campo di
applicazione è la natura del supporto – libro, periodico,
registrazione musicale, partitura, prodotto musicale – e il criterio di competenza delle singole agenzie è quello geografico.
Ora, – ed è questa una novità nel mondo della standardizzazione documentaria – lo scenario attuale mostra che si è
passati da un regime di monopolio delle reti di identificazione
a una dinamica di coopetizione (cooperazione + competizione)
tra i diversi attori. L’arrivo del DOI – un codice non standardizzato, nato nella sfera dei produttori di informazioni, ben
deciso a sfruttare commercialmente il proprio vantaggio tecnologico nei confronti dei rivali – ha cambiato le carte in tavola.
La dinamica di coopetizione avviene a due livelli. Essa è di
cooperazione quando, ad esempio, i servizi dell’ISRC si
giustappongono a quelli forniti dall’ISWC, perché diverso è il
livello applicativo di granularità, ed è invece di competizione
quando le agenzie di entrambi gli identificatori operano in
concorrenza con quelle DOI. Inoltre, contrariamente ai codici
tradizionali, la ripartizione del lavoro delle diverse agenzie
DOI rimane elusiva: il principio del franchising adottato all’interno della rete DOI circoscrive vagamente il campo d’azione di
ciascuna di esse, ma non impedisce ai clienti di scegliere quella
che meglio corrisponde ai loro bisogni.
DOI è sicuramente l’identificatore esistente più adatto a
individuare una pubblicazione nella densità della sua granularità. Esso permette di risolvere due problemi fondamentali per
l’editoria elettronica: da un lato, l’identificazione e catalogazione
delle risorse in rete e, dall’altro, la loro persistenza, il fatto cioè
che le URL non più esistenti o mutate siano sempre riferibili a un
206
207
nome d’origine. Per gli editori, inoltre, il vantaggio più rilevante
del DOI è quello della parcellizzazione dei contenuti in modo
tale che crescano gli introiti potenziali in funzione della moltiplicazione degli oggetti in cui può essere destrutturata l’informazione: un articolo, un diagramma, un indice, una fotografia.
Malgrado l’interesse iniziale, la comunità bibliotecaria ha
nutrito il sospetto che la tecnologia di per sé neutrale servisse
solo a rafforzare i sistemi di pay-per-view per unità granulari di
contenuto in inarrestabile proliferazione. Il fatto che nel Consiglio d’Amministrazione dell’International DOI Foundation e in
quello di Crossref, l’agenzia DOI di maggiore successo, siedano
unicamente i grandi editori STM23, che le quote d’accesso siano
fuori dalla portata di piccoli e medi attori24 e che l’intera
organizzazione sia decisamente sbilanciata a favore delle
industrie cosiddette ‘del copyright’25, accresce il sentimento di
diffidenza verso la Fondazione, vista come l’espressione di un
cartello di produttori. Tali reticenze, comunque, sono state
rimosse dalla vasta gamma di servizi e di opportunità che il
codice può offrire; non a caso, un consorzio formato dalle biblioteche nazionali di Germania, Gran Bretagna e Paesi Bassi ha di
recente aderito alla Fondazione DOI, che ha esteso la partecipazione alle 43 biblioteche nazionali dei 41 Paesi europei presenti
nella Conference of European National Libraries (CENL).
Il vantaggio competitivo del DOI e la sua aggressiva politica di marketing hanno costretto tutte le agenzie responsabili
dei codici di identificazione a riposizionarsi. L’ISBN è in corso
di revisione e la nuova versione (prevista nel 2007) avrà nuovi
prefissi EAN conformi al GTIN (Global Trade Number Item) e
una serie di metadati, in vista della formazione di una base di
dati comune a tutte le agenzie nazionali. L’ISSN è ancora al
palo, ma alla Fiera del Libro di Francoforte 2003 si è parlato di
una sua possibile revisione. Ogni altro codice, dall’ISRC
all’ISWC e l’ISAN, è proiettato verso la costruzione di una base
di metadati azionabile, persistente e interoperabile26.
208
Politiche dell’identificazione nell’economia
della comunicazione scientifica
L’avvento del DOI ha portato una risposta originale a
problemi di difficile soluzione e una ventata di aria nuova in un
mondo – quello dell’identificazione dei documenti – sempre
pronto a cadere in soporifera routine. Tuttavia, va detto che la
spinta in avanti della tecnologia comporterà ulteriori disparità
e un rafforzamento del potere contrattuale delle imprese editoriali STM. Vediamo come.
Una barriera all’ingresso di nuovi attori è costituita dall’elevato prezzo dell’affiliazione DOI. Nonostante le recenti aperture, come ad esempio la possibilità di prendere in considerazione consorzi di biblioteche trattandoli come un unico membro
affiliato, le tariffe DOI rimangono troppo elevate. Un identificatore ‘popolare’ come ISBN, ad esempio, è accessibile a
qualunque editore, piccolo o grande che sia, e rimane gratuito
per le biblioteche. L’ISSN è addirittura assegnato gratuitamente (tranne in Italia dove, inspiegabilmente, è a pagamento). Il
DOI si configura attualmente come un identificatore d’élite,
anche se è probabile che il suo utilizzo massiccio possa renderlo alla portata di un numero più ampio di soggetti.
Il DOI inoltre non si limita a assegnare un codice per un
oggetto unico, ma, grazie ai linguaggi <indecs> e ONIX, è al
centro di una rete di operazioni utili per la presentazione, la
cattura, la manipolazione, la distribuzione e la consultazione di
risorse digitali. La natura non-profit delle organizzazioni che
gestiscono tali operazioni non deve far dimenticare il fatto che
ogni transazione porta immancabilmente nelle basi di dati e nei
portali in cui ritornano i grandi nomi dell’editoria STM, in
questo momento gli unici beneficiari del vantaggio tecnologico
del codice. Business is business, si potrebbe rispondere: dopo
tutto, il DOI ha rappresentato e rappresenta un investimento
tecnologico considerevole, di cui solo ora i promotori godono
209
del giusto ritorno economico. Il problema è che il nome della
proprietà editoriale che sta dietro le risorse elettroniche è visibile all’utente solo dopo che questi ha intrapreso il suo percorso
di navigazione, saltando di link in link senza essere obbligato a
ricominciare una transazione.
Facciamo un esempio. Come si è detto, Open URL è uno dei
più diffusi strumenti di redirezionamento verso depositi di
contenuti e verso la copia di documento più appropriata27.
L’International DOI Foundation ha applicato lo standard
aperto Open URL in uno schema cooperativo dove il redirezionamento persistente è svolto dal DOI e quello sensibile al
contesto informativo dall’Open URL. Ovid Technologies, un
aggregatore e fornitore di contenuti e di strumenti nel campo
dei servizi di informazione medica, l’ha adottato nella soluzione LinkSolver per redirigere gli utilizzatori di DOI verso i propri
contenuti28. Ora il nome di Ovid non deve indurre in errore;
questa sigla non è altri che una divisione operativa di Wolters
Kluwer, che la controlla al 100%.
Ma: è questa un’argomentazione? Che cosa esclude dopo
tutto altri operatori dall’entrare anch’essi nella rete di transazioni governata dagli identificatori e dagli altri metadati? Il
caso dell’editoria ‘alternativa’ mostra che questa ipotesi è in
realtà più teorica che pratica.
L’identificazione nel dispositivo OAI non è legata, come
normalmente accade, al documento o alla risorsa che vi è
ospitata, ma all’estrazione dei metadati a partire dal documento29. OAI è dunque aperto a qualunque identificatore, incluso
DOI, come viene esplicitamente riconosciuto nel testo stesso
della versione del protocollo disponibile sul sito Web30. Tuttavia, la filosofia dell’archivio aperto, con la sua natura spontanea e volontaristica, la mancanza di organismi istituzionali di
governo e un’architettura tecnica ridotta ai minimi termini,
sembra rifiutare un investimento e una gestione tanto onerosi.
Allo stadio attuale, dunque, un’intera faccia del pianeta scien-
tifico – quella più oscura, ma non per questo meno vitale – è
assente dal mondo DOI, la cui applicazione può essere forse
qualitativamente meno solida, ma commercialmente assai più
redditizia.
Quale politica dell’identificazione, dunque, nell’attuale
contesto della comunicazione scientifica? Di fronte alla manifesta insufficienza dei codici di identificazione tradizionali nell’economia di rete, la comunità documentaria ha dapprima
cercato soluzioni che potessero garantirne la ‘persistenza’ sulle
reti di comunicazione. Formulata nel 1998, la proposta di utilizzare gli attuali codici (ISBN, ISSN, SICI) come URN (Uniform
Resource Name) verso cui un sistema di risoluzione avrebbe
potuto rinviare31 non ha avuto sviluppi credibili, ma più per
incapacità delle agenzie internazionali di identificazione di
elaborare una visione applicativa che per inadeguatezza della
soluzione prospettata. Nell’occhio del ciclone è in particolare il
Centro internazionale dell’ISSN, che non ha saputo approfittare della sua posizione favorevole nel campo dei periodici e ha
sviluppato progetti ISSN-URN fondati unicamente su test
tecnologici e non proiettati verso l’elaborazione di servizi.
Entrando come membro dell’International DOI Foundation,
la comunità documentaria ha di fatto ‘esternalizzato’ la politica
dell’identificazione degli oggetti in rete. Vaso di coccio in
mezzo ai vasi di ferro editoriali, è improbabile che essa possa
fare sentire la sua voce e modificare business models o politiche
commerciali. Può però utilizzare la tecnologia e il sistema DOI
per mettere a punto soluzioni autonome che le permettano di
non lasciare più al libero mercato il compito di elaborare e
attuare le politiche in materia di identificazione. Rompendo
con un’inerzia ormai quinquennale, essa può cercare di rendere
interoperabili gli archivi di pubblicazioni in rete, i cataloghi e le
basi di dati che produce. Può accelerare l’‘azionabilità’ e la
persistenza degli identificatori sotto il suo diretto controllo. Ed
infine deve costruire una strategia globale sull’identificazione
210
211
volta a creare una pubblica sfera in cui i consumatori possano
avere accesso a un’offerta diversificata, ampia e a prezzi ragionevoli di fonti di informazione e in cui le biblioteche non si
trovino più in una situazione in cui, come si è espresso Guédon,
«invece di difendere uno spazio pubblico di accesso all’informazione […] sono messe nella posizione di restringere l’accesso a uno spazio privatizzato»32.
Note
1 Fritz Machlup, The Production and Distribution of Knowledge in the
United States. Princeton (NJ), 1962; Fritz Machlup, Kenneth Leeson and
associates, Information through the Printed Word: The Dissemination of
Scholarly, Scientific, and Intellectual Knowledge, New York, 1978-1980; Fritz
Machlup, Knowledge, its Creation, Distribution, and Economic Significance,
Princeton (NJ), 1980-1984.
2 Marc Uri Porat, The Information Economy. Definition and Measurement,
Washington DC, US Department of Commerce, Office of Telecommunication (9 voll.), 1978.
3 UNESCO, National Information Policy: Scope, Formulation and Implementation. Dubrovnik, Yugoslavia (25-29 June 1984), PGI-84/WS/17,
Paris, 1984. Già all’epoca non mancavano le voci critiche: David Lyons,
The Information Society. Issues and Illusions. Cambridge, 1988.
4 La letteratura sulla società dell’informazione è semplicemente
alluvionale. Ci limiteremo a menzionare due titoli miliari disponibili
anche in lingua italiana: Manuel Castells, L’ età dell’informazione: economia,
società, cultura. Vol. 1: La nascita della società in rete, Milano, 2002; Pierre
Lévy, L’intelligenza collettiva. Per un’antropologia del cyberspazio, Milano,
2002. Sul tema delle politiche dell’informazione sviluppate dagli Stati
europei, mi permetto di rimandare a Giuseppe Vitiello, National Information Policy and Planning, in Library and Information Work Worldwide 2000,
edited by M. Line, G. Mckenzie, P. Sturges, London, 2000, pp. 139-165.
5 «Fundamentally, in a system where the knowledge of relevant facts
is dispersed among many people, prices can act to co-ordinate the separate actions of different people» F.A. Hayek, The Knowledge in Society, citato
da Fritz Machlup, Knowledge..., cit., p. 189.
6 Lucien Febvre, Henri-Jan Martin, La nascita del libro, a cura di
Armando Petrucci, Roma-Bari, 2000, p. 271.
7 Sulla catena del valore del libro, cfr. Paola Dubini, Voltare pagina:
economia e gestione strategica nel settore dell’editoria libraria. 2. ed. aggiornata ed ampliata. Milano, 2001; fra i manuali editi dall’Editrice Bibliografica, particolarmente utili per questo aspetto: Settimio Paolo Cavalli,
Giuseppe Fioretti, Come si fa l’editore. Manuale di gestione economico-finan-
212
213
ziaria di una casa editrice, Milano, 1997; Settimio Paolo Cavalli, Il marketing
librario, Milano, 1999. Sulla comunicazione scientifica cfr. Scholarly publishing. Books, Journals, Publishers, and Libraries in the Twentieth Century, ed.
Richard E. Abel, Lyman W. Newlin, New York, 2002; Scholarly publishing.
The Electronic Frontier, ed. Robin P. Peek, Gregory B. Newby, Cambridge
(MA), London, 1996; in italiano Giuseppe Vitiello, La comunicazione scientifica e il suo mercato, in “Biblioteche oggi”, giugno 2003, pp. 37-57, disponibile anche in formato elettronico: http://www.bibliotecheoggi.it/content/200305.html. Tutti i siti menzionati sono stati visitati l’ultima volta il
29 dicembre 2003.
8 Janine Brémond, Greg Brémond, Editoria condizionata, Milano, 2003,
p. 83.
9 Jan Van Cuilenberg, Pascal Verhoest, Free and Equal Access. In Search
of Policy Models for converging Communication Systems, in “Telecommunication Policy”, vol. 22, n. 3, 1998, pp. 171-181. La citazione è a pp. 179-180.
10 I dati sono riportati da Mary M. Case, Capitalizing on Competition:
The Economic Underpinnings of SPARC. <http://www.arl.org/sparc/home/index.asp?page=f41>. Il trend non accenna a diminuire; come mostrano le statistiche dell’Association of Research Libraries, la spesa per i
periodici è cresciuta dal 1986 al 2000 del 210%, v. http://www.arl.org/stats/arlstat/graphs/2001/2001t2.html.
11 Si veda in questo volume il contributo di Anna Maria Tammaro,
Indicatori di qualità delle pubblicazioni scientifiche ed open access. Sull’editoria
alternativa la bibliografia, anche italiana, è vasta: Anna Maria Tammaro,
Modelli economici per i periodici elettronici: che fare di fronte alla spirale dei
costi, in “Biblioteche oggi”, 16, n. 5, 1998, pp. 58-63; Anna Maria Tammaro,
La comunicazione scientifica e il ruolo delle biblioteche: verso sistemi alternativi
di pubblicazione, in “Biblioteche oggi”, 17, n. 8, 1999, pp. 78-82; Anna Maria
Tammaro, Qualità della comunicazione scientifica. 1: Gli inganni dell’impact
factor e l’alternativa della biblioteca digitale, in “Biblioteche oggi”, 19, n. 7,
2001, pp. 104-107; 2: L’alternativa all’impact factor, in “Biblioteche oggi”,
19, n. 8, 2001, pp. 74-78. La monografia italiana di maggiore interesse sulla
comunicazione scientifica è, senza dubbio, Trasmissione d’élite o accesso alle
conoscenze? Percorsi e contesti della documentazione e comunicazione scientifica, a cura di Adriana Valente, Milano, 2002. Inoltre: Remo Badoer,
Antonella De Robbio, On the Road of E-Journals. Paesaggi in movimento
nell’evoluzione dei periodici elettronici, in “Bibliotime”, II, n. 3, 1999; Michele
Santoro, Pubblicazioni cartacee e pubblicazioni digitali: quale futuro per la
214
comunicazione scientifica? Relazione al Seminario Linguaggi e siti: la storia on
line, Fiesole, Istituto Universitario Europeo, 6-7 aprile 2000
<http://www.sissco.it/attivita/sem-aprile-2000/santoro.htm> (con utile
bibliografia); Eugenio Pelizzari, Crisi dei periodici e modelli emergenti nella
comunicazione scientifica, in “Biblioteche oggi”, 20, n. 9, 2002, pp. 46-56;
Luca Guerra, Paradigmi emergenti della scholarly communication e Sandra Di
Majo, La crisi della comunicazione scientifica: soluzioni a confronto, entrambi
in “Bollettino AIB”, 42, n. 4, 2002, rispettivamente pp. 413-437 e pp. 441449. Da angolazioni differenti: Lucio Piccio, La comunicazione scientifica e
l’economia dell’informazione, in “Biblioteche oggi”, 16, n. 3, 1998, pp. 28-33
e Paola Gargiulo, Il nuovo ruolo dell’autore nella comunicazione scientifica, in
“Bibliotime”, n.s. 3, n. 2, 2000, <http://www.spbo.unibo.it/bibliotime/num-iii-2/gargiulo.htm>.
12 Si segua, ad esempio, il percorso di Reed-Elsevier. Leader nei Paesi
Bassi (dove, per tradizione, gli editori scientifici hanno da tempo scelto
l’inglese come lingua di lavoro), Elsevier si è alleato con Nederlandse
Dagbladunie nel 1979 e ha costruito un impero in poco più di un decennio. Negli stessi anni, Reed ha acquistato case editrici e periodici a ritmi
da vittorie napoleoniche; 1982: Update Group; 1985: Bowker e Online
Computer Systems; 1987: Octopus Publishing Group, “Variety Magazine”, Malayan Law Journals e KG Saur Verlag; 1988: Communications
Today Ltd., “Big Farm Weekly”, Rigby International & Moving into
Maths, Macgregor Trade Show, D W Thorpe, Interfama Trade Fairs Singapore, “Printing News”, “Media International”, “Industrial Marketing
Digest”, “PC Magazine”, “Asian Plastics News”… Nel 1993 il big bang fra
Reed e Elsevier e la nascita del colosso mondiale Reed-Elsevier, rafforzato nel 2001 dall’acquisto della casa editrice statunitense più importante
nel campo dell’educazione: Harcourt Education.
13 La prestigiosa rivista “Esprit” ha dedicato buona parte di un
numero speciale al caso Hachette – Vivendi Universal Publishing; cfr.
Malaise dans l’édition, in “Esprit”, n. 295, juin 2003, pp. 40-188.
14 Ahmed Silem, Les deux géants du livre français: Havas publications
édition et Hachette Livre, in Où va le livre?, éd. Jean-Yves Mollier, Paris, 2000,
pp. 35-61.
15 Citato da Jacques Bonnet, Hachette – Vivendi: Exception culturelle ou
aberration française?, in “Esprit”, 2003, cit., pp. 48-68; la citazione è a p. 55;
si v. anche Françoise Benhamou, Concurrence pour la table du libraire?, in
“Esprit”, 2003, cit., pp. 98-115.
215
16 “Le Monde”, 4 dicembre 2003.
17 John Feather, Communicating Knowledge. Publishing in the 21st Century, München, 2003.
18 Citato da Amy Brand, Frank Daly, Barbara Meyers, Metadata demystified, 2003, p. 4, http://www.niso.org/standards/resources/Metadata_Demystified.pdf
19 Questo e il paragrafo seguente replicano alcune parti dei miei
articoli: Identifiers and Identification Systems. An Informational Look at Policies
and Roles from a Library Perspective, in “D-Lib Magazine”, January 2004,
vol. 10, n. 1 e L’identificazione degli identificatori, in “Biblioteche oggi”, 22,
n. 2, 2004, pp. 67-80.
20 Godfrey Rust, Metadata: The Right Approach. An Integrated Model for
Descriptive and Rights Metadata in E-commerce, in “D-Lib Magazine”, 1998;
http://www.dlib.org/dlib/july98/rust/07rust.html#granularity
21 IFLA Study Group on the Functional Requirements for Bibliographic Records, Functional Requirements for Bibliographic Records. Final Report.
Approved by the Standing Committee of the IFLA Section on Cataloguing, München, 1998 (anche in http://www.ifla.org/VII/s13/frbr/frbr.pdf). Sul tema cfr. Carlo Ghilli, Mauro Guerrini, Introduzione a FRBR:
Functional Requirements for Bibliographic Records. Milano, 2001, e Paul
Gabriel Weston, Il catalogo elettronico. Dalla biblioteca cartacea alla biblioteca
digitale. Roma, 2002, in particolare alle pp. 95-106.
22 Joint Information System Committee, citato da Paul Gabriel
Weston, Il catalogo elettronico, cit., p. 154.
23 Charter Members con diritto di voto sono: Association of American
Publishers, Elsevier Science, International Publishers Association, John
Wiley & Sons, McGraw-Hill, Educational and Professional Publishing
Group, Springer Verlag. La lista dei membri del Consiglio di Amministrazione dell’Agenzia di registrazione CrossRef include: John Wiley & Sons,
Inc., Elsevier Science, “Science”, American Institute of Physics, American
Psychological Association, Association for Computing Machinery, Blackwell Publishing, The Institute of Electrical and Electronics Engineers, Inc.
(IEEE), “Nature”, Oxford University Press, Sage.
24 La quota di partecipazione annuale è di $ 35,000 (ma di recente le
25 Ad esempio, Charter Members sono solo le organizzazioni che
sviluppano attività legate alla creazione o alla produzione e diffusione di
opera dell’ingegno, come definite dalla Convenzione di Berna, dai trattati WIPO.
26 Maggiori informazioni nel mio L’identificazione degli identificatori, cit.
27 Sull’Open URL cfr. i tre articoli di Herbert Van de Sompel, Patrick
Hochstenbach, Reference Linking in a Hybrid Library Environment, Part 1:
Frameworks for Linking, in “D-Lib Magazine”, 5, n. 4, 1999,
http://www.dlib.org/dlib/april99/van_de_sompel/04van_de_sompelpt1.html; Reference Linking in a Hybrid Library Environment, Part 2: SFX, a
Generic Linking Solution, in “D-Lib Magazine”, 5, n. 4, 1999,
http://www.dlib.org/dlib/april99/van_de_sompel/04van_de_sompelpt2.html; Reference Linking in a Hybrid Library Environment, Part 3: Generalizing the SFX solution in the “SFX@Ghent & SFX@LANL” experiment, in
“D-Lib Magazine”, 5, n. 10, 1999, http://www.dlib.org/dlib/october99/
van_de_sompel/10van_de_sompel.html
28 http://www.doi.org
29 <http://www.openarchives.org>
30 «The nature of a resource identifier is outside the scope of the OAIPMH. To facilitate access to the resource associated with harvested
metadata, repositories should use an element in metadata records to
establish a linkage between the record (and the identifier of its item) and
the identifier (URL, URN, DOI, etc.) of the associated resource»;
http://www.openarchives.org/OAI/openarchivesprotocol.html#Unique
Identifier
31 C. Lynch, C. Preston, R. Daniel, Using Existing Bibliographic Identifiers as Uniform Resource Names RFC2288, 1998, http://www.faqs.org/rfcs/rfc2288.htm
32 Jean-Claude Guédon, In Oldenburg’s Long Shadow: Librarians,
Research Scientists, Publishers, and the Control of Scientific Publishing; 2001,
<http://www.arl.org/arl/proceedings/138/guedon.html>
piccole imprese e organizzazioni possono ottenere uno sconto sostanziale).
216
217
Istituzioni della cultura:
content provider per la rete
Madel Crasta
Segretario generale, Consorzio Baicr Sistema cultura
Creare gli archivi digitali
I temi dell’accesso all’informazione nell’era dell’ICT sono
vissuti con logiche ed accenti diversi, legati essenzialmente al
ruolo che le istituzioni svolgono nella società. Nella filiera di
produzione dei contenuti le istituzioni della cultura volgono
essenzialmente la loro attenzione alle condizioni del trasferimento in ambiente digitale del patrimonio intellettuale esistente, alla
creazione di nuovi prodotti e servizi e ai requisiti che rendono
‘usabile’ per un grande pubblico questo enorme capitale di
conoscenza
La disponibilità di mezzi e di spazi digitali sta dunque
evidenziando, nella ricerca e nelle istituzioni di ambito storicoculturale, la difficoltà di utilizzare questi spazi sfruttandone a
pieno le potenzialità.
Sembra che il digital divide agisca anche all’interno degli studi
umanistici, e gli studiosi, sia per cause generazionali sia per le
metodologie di ricerca, sono ancora lontani dallo svolgere un
ruolo propulsivo di ideazione e progettazione per la rete, così che
non è facile, talvolta, individuare content provider e redattori
219
multimediali per progetti di editoria elettronica, on line e off line.
Tuttavia una forte minoranza qualificata di studiosi e ricercatori è
impegnata da anni nel realizzare banche dati, musei virtuali e reti,
utilizzando contributi pubblici e finanziamenti europei per la
creazione di reti e applicazioni tecnologiche innovative.
Bibliotecari ed archivisti padroneggiano delle tecnologie gli
aspetti più legati alla catalogazione e al riordino, mentre stenta ad
affermarsi un’attitudine più progettuale, che a partire dalle
raccolte offra un’informazione organizzata, una ricostruzione di
contesti e percorsi tematici con link ipertestuali. Così l’appello più
frequente che si fa dalle sedi degli innumerevoli convegni dedicati alle potenzialità della rete in termini di prodotti e servizi per la
ricerca e l’informazione, è quello di creare archivi digitali,
disegnare prodotti innovativi e implementare banche dati, trasferendo sulla rete, con modalità adeguate, parte dell’informazione
testuale ed iconografica contenuta nei mezzi tradizionali.
Naturalmente questo trasferimento non può avvenire in modo
confuso, meccanico ed indiscriminato come risposta obbligata al
trend del momento, ma deve rispondere a progetti culturali
capaci di coinvolgere le limitate risorse disponibili verso risultati
misurabili per la ricerca, la scuola, le professioni ed il tempo
libero. Solo a queste condizioni gli archivi digitali saranno in
grado di intercettare gli interessi del pubblico che ‘consuma’
cultura e di allargare effettivamente l’accesso alla conoscenza. Le
grandi banche dati catalografiche dei primi decenni dell’informatica hanno reso accessibili senza limiti geografici milioni e milioni
di informazioni prodotte dai centri di ricerca e dalle grandi biblioteche di tutto il mondo. In seguito Internet e la multimedialità,
esplose con pienezza negli anni Novanta, hanno offerto l’opportunità di integrare testi, immagini e suoni, creando un’informazione diversa: non solo più dati ma una diversa qualità di dati.
Tuttavia per cogliere pienamente questa opportunità è necessario
superare la logica ‘accumulatrice’ delle banche dati di prima
generazione per ideare progetti culturali, motivi conduttori su cui
aggregare contenuti provenienti da fonti, luoghi ed ambiti
diversi.
Cogliere possibilità di aggregazione dei contenuti significa
guardare le cose con l’ottica di un soggettista del cinema per
raccontare in una trama ciò che nella realtà si presenta distinto e
separato. Le parole d’ordine del lavoro culturale nell’età dell’informatica sono interconnessione, convergenza e trasversalità, ma
questi concetti, che sono al tempo stesso obiettivi e metodi, richiedono capacità ideativa, disponibilità a vedere con occhi diversi
ciò che si è sempre conosciuto. Esempio estremamente efficace di
questo diverso modo di vedere le cose, che è presupposto delle
applicazioni tecnologiche, sono i Parchi letterari e culturali, i
distretti culturali e i musei virtuali, reali i primi, digitali questi
ultimi ma tutti luoghi in cui aspetti e linguaggi diversi della realtà
confluiscono nella ricostruzione di storia, identità e cultura.
IL Baicr Sistema Cultura – consorzio fondato nel 1991 da
cinque Istituti Culturali (Istituto della Enciclopedia Italiana,
Istituto Sturzo, Fondazione Basso, Società Geografica Italiana ed
Istituto Gramsci) proprio per promuovere le applicazioni tecnologiche nel campo dei beni e dei contenuti culturali – si è confrontato fin dall’inizio con la necessità di andare oltre i cataloghi per
far sì che le preziose raccolte degli istituti, uniche ed irrepetibili
come valore storico, non annegassero nei milioni di dati accessibili in rete o al contrario si frantumassero in tanti piccoli siti web.
Da questo impegno di comunicazione, verso un pubblico più
ampio della tradizionale comunità di studiosi che da sempre
ruota intorno alle istituzioni culturali, nascono i progetti Archivi
del Novecento (www.archividelnovecento.it) e Novecento Italiano,
documenti per la storia delle idee e della società. Il primo è una rete di
archivi privati dei protagonisti della vita culturale e politica del
Novecento, il secondo è un CD-Rom con testi, immagini suoni
legati alle raccolte dei nove istituti che costituiscono il Polo SBN
degli Istituti Culturali di Roma; ed è in programma Novecento
Italiano in rete.
220
221
Per dare un’idea della ricchezza potenziale che affluisce
gradualmente sulla rete si dà qui di seguito l’elenco degli istituti
che partecipano alla implementazione delle banche dati:
Archivi del Novecento:
Accademia nazionale delle scienze detta dei Quaranta
Archivio nazionale cinematografico della Resistenza
Associazione nazionale per gli interessi del Mezzogiorno d’Italia
Centro studi Piero Gobetti
Flai Cgil nazionale Archivio storico “Donatella Turtura”
Fondazione Biblioteca Benedetto Croce
Fondazione Carlo Donat Cattin
Fondazione di studi storici Filippo Turati
Fondazione Ezio Franceschini
Fondazione Giovanni Gentile
Fondazione Il Vittoriale degli Italiani
Fondazione Istituto Gramsci - Roma
Fondazione Istituto piemontese Antonio Gramsci
Fondazione Lelio e Lisli Basso - Issoco
Fondazione Luigi Einaudi per studi di politica e economia
Fondazione Ugo La Malfa
Fondazione Ugo Spirito
Fondazione Vittorino Colombo
Forum delle donne - Partito della rifondazione comunista
Galleria comunale di arte moderna e contemporanea - Roma
Istituto della Enciclopedia Italiana fondata da Giovanni Treccani
Istituto Gramsci Emilia Romagna
Istituto Luigi Sturzo
Istituto nazionale di studi romani
Istituto per la storia della democrazia repubblicana
Istituto per le scienze religiose
Istituto romano per la storia d’Italia dal fascismo alla Resistenza
Istituto storico italiano per il medio evo
Istituto veneto di scienze, lettere e arti
222
Museo storico in Trento onlus
Soprintendenza speciale alla Galleria nazionale di arte moderna
Società di studi fiumani
Società geografica italiana
Università di Roma “La Sapienza” - Dipartimento di Fisica.
Novecento Italiano
Associazione Nazionale per gli interessi del Mezzogiorno d’Italia
Fondazione Istituto Gramsci
Fondazione Lelio e Lisli Basso - Issoco
Fondazione Ugo Spirito
Società Geografica Italiana
Istituto della Enciclopedia Italiana fondata da Giovanni Treccani
Istituto Italiano per l’Africa e l’Oriente (IsIAO)
Istituto Luigi Sturzo
Biblioteca di storia moderna e contemporanea
L’idea che accompagna le realizzazioni del Baicr è che gli
‘oggetti della memoria’, certamente preziosi in sé, sprigionano a
pieno il loro significato se si evidenzia la rete reale di relazioni
semantiche che attraversano i documenti e se si valorizza la
complementarietà delle raccolte, là dove la separatezza dei
luoghi di conservazione e delle metodologie descrittive ha
favorito la reciproca estraneità ed impedito l’emergere di insiemi
di significato.
La rete per partecipare la memoria
Si è appena agli inizi ma già si può cogliere il ruolo di Internet
come nuovissimo luogo della ‘memoria del sapere’. Oltre la
biblioteca, l’accademia, gli archivi e le enciclopedie, oggi la rete
consente di trasmettere con molta più velocità e pervasività di
qualsiasi mezzo precedente i contenuti della memoria, con la
223
possibilità di legami così estesi che nessuna squadra di ricercatori potrebbe attivare.
La facilità di accesso ed i costi relativamente bassi per la
pubblicazione di un sito web hanno permesso l’ingresso di nuovi
soggetti e content provider che in passato avrebbero avuto come
sbocco solo l’editoria tradizionale con tutti i filtri che conosciamo.
Oggi biblioteche, archivi, centri di documentazione, istituti,
enti pubblici e privati, cittadini e associazioni di cittadini, tutti
possono utilizzare la rete, partecipare raccolte, testimonianze,
biografie, storie individuali e collettive, immagini e interpretazioni delle immagini.
Come tutti i cambiamenti epocali, anche questo non è indolore e nasconde in sé trappole ed insidie per cui non abbiamo
ancora elaborato anticorpi, e ciò vale soprattutto per i più giovani,
i quali tendono ad attribuire indiscriminatamente il valore di
verità a tutto ciò che si vede sullo schermo: ‘voirs et savoirs’.
Tuttavia la multimedialità e la rete si offrono davvero come
una nuova occasione di rimettere la memoria e le fonti che la
trasmettono in un circuito vivo di produzione culturale, dove una
larga porzione di società può incontrarle, utilizzarle e farle
proprie.
Questo è esattamente lo spirito con cui si sta costruendo
Archivi del Novecento La Memoria in Rete, perché ciò che anima il
lavoro (lungo e costoso) di informatizzazione e digitalizzazione
delle carte è proprio la preoccupazione degli Istituti culturali che
le testimonianze della produzione di cultura del Novecento
diventino un luogo remoto, serbatoio di ricerca per pochi studiosi, estranei alla coscienza della cittadinanza.
Da Archivi del Novecento nasce Archivi della Repubblica, progetto di rete dedicato agli archivi dei partiti politici e dei gruppi
parlamentari. Gli Archivi storici della Camera e del Senato e gli
Istituti culturali che conservano le carte dei protagonisti della vita
politica e parlamentare del secondo Novecento danno vita ad una
iniziativa di largo respiro, destinata a rendere disponibili su
Internet queste carte con l’obiettivo di avvicinare ai cittadini le
testimonianze sulle idee, le discussioni e gli iter parlamentari di
scelte che riguardano l’intera società ed il suo funzionamento.
224
225
Centri virtuali di documentazione
Da una parte comunicare raccolte reali, fisicamente possedute
all’interno di biblioteche, archivi e musei, dall’altra costruire
raccolte virtuali, veri e propri centri di documentazione in rete
che raccolgono informazioni e le organizzano per gli utenti. Il
Consorzio Baicr ha voluto sperimentare questa potenzialità della
rete aggregando intorno al tema della Cultura gastronomica
(www.culturagastronomica.it) una raccolta virtuale contenente
tutte le informazioni che possono introdurre l’utente ad un
percorso conoscitivo attraverso il sapere gastronomico italiano,
una sorta di information source in italian gastronomy come si potrebbe trovare nella tradizione di reference angloamericana. Il presupposto di politica culturale che sta dietro alla scelta di pubblicare
questa guida telematica è l’aver individuato la necessità di offrire,
ad un pubblico di cultori sempre più vasto, strumenti di
conoscenza allo stesso tempo rigorosi e amichevoli. Considerando la civiltà della tavola un fattore fondante della nostra memoria
e dell’identità del territorio, si è pensato di raccogliere ed organizzare quelle fonti che consentono a ciascuno, secondo i diversi
gradi di competenza, di creare la propria biblioteca, approfondire tematiche, verificare dati, disegnare itinerari che sono insieme
gastronomici e culturali. Queste finalità hanno suscitato l’interesse di enti come le Regioni Emilia-Romagna e Piemonte e l’Università di Bologna, che con il Baicr sono diventate promotrici
dell’iniziativa. Il sito pubblicato nel 2000 ha evidentemente intercettato esigenze reali, perché intorno ad esso si è creata una rete
di relazioni e di progetti che vanno esattamente nella direzione
sperata e il messaggio che si è riusciti a comunicare è che la
qualità si fonda sulla conoscenza.
E-content management
Va da sé che la garanzia per un reale utilizzo di questo
potenziale informatico, che vive nella rete ed è in continuo
mutamento, è la facilità di incontro fra l’utente non particolarmente esperto e i contenuti dell’informazione.
Nello spazio digitale i contenuti, liberi dal vincolo fisico del
documento reale, fluttuano e si aggregano secondo relazioni
che, per quanto strutturate, sono ancora largamente inadeguate a centrare efficacemente il bersaglio semantico, come
dimostra l’esperienza dei motori di ricerca, anche dei più
potenti e sofisticati. Il rischio attuale è quello di utilizzare poco
e male il serbatoio conoscitivo disponibile in rete, che spesso
impegna un costo significativo di risorse pubbliche e private.
Questo problema è particolarmente sentito da istituti e fondazioni che costruiscono la loro presenza sulla rete non tanto sulle
quantità quanto sulle specificità dei contenuti proposti. Questa
sensibilità si traduce in una attenzione costante verso la
comunicazione – metodi e strategie – e verso gli strumenti di
rappresentazione di contenuti, dagli aspetti dell’interfaccia
grafica vista come condizione del colloquio uomo-macchina,
agli aspetti linguistici e terminologici, all’integrazione di contenuti diversi sia per formato che per finalità. Il Baicr è, a questo
proposito, impegnato sia in attività di e-learning, come agenzia
formativa accreditata dal Ministero dell’Istruzione, sia in attività di ricerca e sperimentazione in ambiente digitale. Due sono i
progetti che vedono impegnata la struttura del Consorzio:
– Il Master on line Indicizzazione in ambiente digitale (MIDA),
organizzato con l’Università di Roma “Tor Vergata”. Il corso
si propone di formare esperti nella catalogazione di
documenti cartacei, multimediali ed elettronici e si rivolge a
bibliotecari, archivisti, documentaristi e web editor.
– Le parole del Novecento. Un Thesaurus per gli archivisti di storia
delle idee e della società. Studio di fattibilità, condotto con il
226
227
contributo della Direzione Generale per gli Archivi del
Ministero per i Beni e le Attività culturali, per un thesaurus o
vocabolario controllato applicabile a banche dati nate da
fondi di storia e cultura del Novecento. Il progetto si propone
di verificare, nella concreta implementazione delle banche
dati archivistiche, la funzionalità dell’indicizzazione semantica per la ricerca ma anche per la valorizzazione dei fondi.
Nuovi soggetti
In questo scenario ruoli e professioni consolidati nei secoli
convivono con nuovi soggetti, distinzioni cristallizzate nel
tempo perdono sempre più consistenza, i confini appaiono più
sfumati e sempre meno si riesce ad essere semplicemente un
editore o un bibliotecario o uno studioso. Nella catena di
produzione dei contenuti – industrie ed istituzioni – si formano
i nuovi percorsi della mediazione culturale. Alle fondazioni
storiche, quelle per intenderci riconosciute come di rilevanza
nazionale ed inserite nella tabella di una legge dello Stato, si
aggiungono sempre nuove fondazioni, quelle nate da aziende
con una tradizione nel proprio settore, fondazioni universitarie, fondazioni bancarie, e quasi tutte hanno tra i loro scopi la
promozione della cultura e del patrimonio storico-ambientale.
In generale tutte le istituzioni culturali hanno stretto in questi
anni un rapporto più sistematico con il territorio e si incardinano con continuità nei programmi degli enti locali, affiancando
sempre più le amministrazioni nell’erogare servizi culturali e di
informazione. In effetti il territorio e la dimensione locale sono
divenuti protagonisti nella riorganizzazione dei contenuti per
lo spazio digitale, tanto che l’accesso ai dati si presenta sempre
più in modo georeferenziato, così come cresce la partecipazione di istituzioni, anche di rilevanza nazionale, alla costruzione
di sportelli telematici locali, tesi a ricostruire sotto vari aspetti
228
la fisionomia del territorio: vedi per esempio le banche dati
regionali dei beni culturali, dove confluiscono e si fondono i
dati provenienti dalle diverse strutture attive nel territorio
regionale.
Questa pluralità di soggetti, quelli nuovi e quelli ricchi di
storia, svolgono il ruolo di content provider per una domanda di
cultura che cresce costantemente. A questa domanda, che
proviene da un pubblico molto più ampio delle tradizionali
élites culturali, non possono far fronte i consolidati detentori dei
beni, delle strutture e dei servizi. Al di là del giudizio individuale sul consumo culturale di massa – dall’assalto alla
mostra/evento al turismo culturale – la partecipazione allargata ai contenuti della conoscenza e della memoria richiede di
ridisegnare strategie e linguaggi di comunicazione in un precario equilibrio fra efficacia narrativa e attendibilità scientifica.
Il ruolo delle istituzioni culturali nella costruzione degli
archivi digitali e dei servizi in rete è quello di garantire l’innovazione ma anche il rigore del metodo, a garanzia di quel particolare prodotto che è la cultura. Si tratta di una vera e propria
scommessa il cui esito è ancora tutto da vedere.
229
Gestione della conoscenza e formazione
Paola Capitani1
Consulente, Gruppo semantica e terminologia nei portali
Premessa
Durante una recente trasmissione televisiva, che ha chiamato in causa, tra gli altri argomenti, il tanto citato “Internet”, ho
visto sullo schermo nomi famosi intervistati in diretta sul tema.
I termini che sfilavano dalle loro sapienti e documentate bocche
erano: formazione, informazione, tecnologia, multimedialità, globalità, occupazione, lavoro.
Già anni fa Paolucci (amministratore delegato della Microsoft Italia), ad un seminario sui sistemi informativi (Rimini,
ottobre 1995), si definiva ‘un vecchio manager’, almeno per il
contesto Microsoft, dove un cinquantenne si sentiva già fuori
mercato. Sottolineava che la scuola e l’università erano giudicate responsabili di un’arretratezza culturale dell’Italia nel
contesto europeo perché non sanno offrire, motivare, orientare i giovani al mercato del lavoro (purtroppo i tempi sono
passati quasi inutilmente…). Denunciava un’evidente difficoltà della Microsoft a trovare persone qualificate per i livelli
funzionali richiesti a causa delle seguenti lacune nella formazione giovanile:
– non conoscenza della lingua inglese;
231
–
–
–
–
–
non conoscenza della tecnologia;
carenza di cultura scientifica;
non disponibilità alla mobilità;
carenza di legami tra scuola, università e mondo del lavoro;
mancanza di aderenza alla realtà nei percorsi educativi e
formativi.
Da questo sconsolante panorama non si allontana nemmeno
il contesto formativo, che tuttora presenta carenza di investimenti nella formazione al lavoro e in servizio, carenza di utilizzo delle tecnologie e un errato uso delle nuove tecnologie, che
spesso non comportano una modifica delle operazioni e dei
metodi ma solo una nuova elaborazione di vecchie mentalità e
procedure.
Per cui, parlando di conoscenza, o meglio di gestione della
conoscenza, occorre parlare anche di informazione e di formazione, tre concetti che vanno di pari passo. A questi parametri
si collega anche il così detto impact factor, ovvero la ricaduta
della qualità dei metodi formativi sulla conoscenza e viceversa.
Questi erano tra gli argomenti affrontati durante il seminario
Partecipare la scienza: questioni di comunicazione, accesso, valutazione2, che ha affrontato le tematiche connesse alla formazione,
alla gestione della conoscenza e all’informazione, nel tentativo
di dare dei parametri, dei criteri, delle valutazioni per percorrere i corretti percorsi.
Secondo un criterio circolare, tipico della scienza dell’informazione, occorre effettuare una continua revisione e un conseguente adattamento dei criteri per ottenere un canone comunicativo sempre più in sintonia con l’utenza e con le sue esigenze, per loro caratteristica in continuo mutamento.
Per schematizzare i concetti espressi, la gestione della
conoscenza si basa su altri concetti ad essa strettamente correlati e che passano dalla Comunicazione all’Informazione, alla
Terminologia, ai Thesauri e quindi a Internet, veicolo tecnologico obbligato di tutta la catena illustrata.
KM
Ripercorrendo la sequenza dei concetti qui evidenziati
occorre prima di tutto definire la Conoscenza, o meglio la
Gestione della conoscenza (knowledge management), per chiarire
successivamente i termini presenti nel grafico. Secondo una
definizione, datata ma sempre utilizzabile per circoscrivere e
limitare il significato, knowledge management è «A system for
gathering, organizing, refining, analyzing and disseminating of
knowledge in all of its forms within an organization. It
supports organizational functions while addressing the needs
of the individual within a purposeful context»3. Purtroppo le
attuali definizioni in circolazione collocano il concetto al centro
di aree differenti quali l’informatica, la tecnologia, la formazione, l’educazione, la ricerca, e ognuna cerca di spostare il significato dove più opportuno e utile. ……..
Comunque la si voglia intendere o definire, la gestione della
conoscenza sempre definisce gli ambiti e i contenuti e trova la
soluzione ai diversi problemi. È comunque un criterio di merito
e di metodo, insieme al concetto di formazione, che costruisce
uno schema metodologico di riferimento fondamentale nella
gestione dei servizi. Secondo la definizione precedentemente
citata «la gestione della conoscenza è un sistema per la raccolta, organizzazione, messa a punto, analisi e diffusione della
conoscenza in tutte le sue forme all’interno di una organizzazione. Essa (la conoscenza) supporta le funzioni organizzative
232
233
Conoscenza
Comunicazione
Informazione
Terminologia
Thesauri
Internet
mentre orienta le necessità degli individui all’interno di un
dato contesto». Tocca quindi tutte le fasi e le funzioni di una
struttura, da quelle legate alle risorse (umane e materiali) a
quelle dei flussi gestionali (interni ed esterni) dalla qualità
totale agli indici di gradimento, dalle verifiche e valutazioni ai
prodotti e alla loro diffusione, sia in formato cartaceo che multimediale.
Comunicazione, Informazione, Terminologia e Thesauri
sono i cardini del processo comunicativo nel quale l’informazione transita dal produttore al destinatario solo se i concetti
sono chiari e univoci, quindi strutturati secondo criteri stabili e
convenzionali, quali appunto quelli stabiliti dai thesauri o da
liste terminologiche definite e controllate.
Internet infine è l’attuale strumento tecnologico, che può
essere efficace solo se gli strumenti utilizzati sono stati costruiti con criteri validi per l’universo informativo e per l’utenza
individuata.
Dall’esperienza maturata in diversi servizi informativi,
pubblici e privati, scaturisce un quadro connotato da una forte
presenza della valenza tecnologica non suffragata da una
altrettanto efficace attenzione alle capacità professionali e alla
formazione delle risorse umane deputate a gestire l’informazione, o meglio la conoscenza. Poiché l’elemento umano gioca
un ruolo di primo piano nel settore dei servizi, e particolarmente in quelli di tipo culturale o educativo, è proprio su
questo che si deve concentrare l’attenzione del gestore del
servizio, dedicando tempo, risorse, procedure ad acquisire un
personale idoneo al compito e ad aggiornarlo continuamente,
per poter gestire con efficacia e professionalità il cambiamento,
inevitabile nel settore.
Da questo non solo consegue l’esigenza di prevedere e
perseguire percorsi formativi a livello universitario, ma addirittura di creare un costume metodologico di ricerca delle informazioni nei percorsi scolastici di base, dove lo studente può
apprendere un metodo e un criterio che padroneggerà negli
anni successivi.
In qualsiasi realtà la risorsa informazione ha un ruolo privilegiato che necessita una figura appositamente preparata, in
grado di svolgere un ruolo di intermediario tra l’impresa e
l’utenza, intendendo con il termine impresa qualsiasi realtà che
eroga il servizio.
Il panorama internazionale, contraddistinto da consapevolezza di ruoli, funzioni, metodi e strumenti, caratterizzato da
percorsi formativi modulari, finalizzato ad un servizio capillare
e mirato è ancora un lontano miraggio. Per colmare la grave
lacuna che ci separa dagli altri Paesi dell’Unione Europea occorrerebbe consolidare un ambito ‘di ricerca informativa o di
metodo della ricerca’ per evitare perdite di tempo e carenze
profonde. La quasi del tutto dimenticata ‘biblioteca scolastica’,
per troppi anni auspicata e inutilmente attesa come ‘centro di
documentazione educativa’, potrebbe rivendicare il ruolo che le
spetta di diritto e porsi veramente e di fatto come confronto e
comparazione tra le discipline per attuare la tanto sbandierata
interdisciplinarietà. Purtroppo la volontà politica e i tagli alle
risorse vedono sempre più impoveriti sia il ‘centro risorse’ o la
‘biblioteca automatizzata’ dove spesso si pensa che basti avere
un PC per etichettare come tale una povera biblioteca che non
ha libri, ma soprattutto non ha personale idoneo per gestirla. E
poi i corsi di formazione parlano di tecniche di recupero, di
informazione in linea, di sistemi di rete, di risorse multimediali.
La scuola, per l’ambito specifico che le compete, rappresenta un ampio sistema informativo in cui entrano costantemente
e quotidianamente esperienze e confronti con realtà didattiche
ed educative di altre regioni e di altre nazioni. Insomma il
234
235
Conoscenza e formazione
luogo ideale dove iniziare quella ‘educazione alla ricerca’ o
‘educazione all’informazione’ o ‘educazione alla conoscenza’
che prevede le stesse discipline, gli stessi metodi, le stesse
valutazioni applicate alle unità didattiche disciplinari, che
porterebbero, se opportunamente correlate tra loro, a risultati
fortemente innovativi.
Oggi l’attenzione è così strettamente legata alla tecnologia,
primadonna in tutti i processi innovativi, da mettere in secondo
piano la cura alla qualità dei processi e alla efficacia/efficienza
delle risorse umane. Spesso si assiste alla presenza di sistemi
tecnologicamente avanzati, non adeguatamente supportati da
risorse umane in grado di gestire i flussi con lo stesso livello di
qualità garantito dalle strutture. Si tratta di erogare non solo
moduli formativi inerenti all’acquisizione di mansioni e funzioni, ma soprattutto standard di qualità, basati e calibrati sulla
cooperazione e sulla comunicazione. Un’ottima procedura non
può essere tale se non viene veicolata nella maniera opportuna
al destinatario individuato.
Tra le caratteristiche basilari nelle diverse situazioni operative, quella sulla quale si poggiano tutte le altre è proprio una
maggiore interazione tra i ruoli e una più efficace ed efficiente
comunicazione tra i diversi soggetti appartenenti al gruppo di
lavoro, compreso l’utente, che, spesso, è solo virtualmente
nominato, ma non effettivamente coinvolto.
Per muoversi con competenza in un contesto fatto di uomini
e risorse, procedure e prodotti, indici e quozienti, prodotti e
servizi, occorre possedere gli strumenti idonei impartiti attraverso la formazione, sia essa di base che ricorrente, in presenza
che a distanza, ma soprattutto mirata agli obiettivi, alla mission,
tenendo presenti le risorse disponibili e le aspettative richieste.
La caratteristica delle fasi deve essere tuttavia ciclica, modulare e soprattutto sottoposta a continue verifiche e valutazioni,
effettuate da soggetti esterni al processo, oltre che dagli stessi
utenti. In un contesto estremamente dinamico, soggetto ai
mutamenti che la tecnologia impone e che l’utenza sollecita,
non si possono realizzare progetti stabili e fissi; tuttavia i
progetti devono avere supporti e basi concrete e affidabili nel
tempo, realizzando un’interazione fra scienza e tecnologia,
criteri e richieste, esigenze informative e variabili che dia all’intero sistema una caratterizzazione particolare e per questo
interessante e mobile.
La scienza dell’informazione, nelle sue diverse sfaccettature,
comprende diverse aree trasversali, alcune delle quali sono
contenute nell’interessante ipotesi che, già nel 1986, veniva
indicata dall’UNESCO come modular curriculum in information
studies. In questa ipotesi la formazione veniva strutturata
secondo una indicazione di massima tra moduli fondamentali di
qualsiasi iter formativo nel settore degli studi sull’informazione
e moduli aggiuntivi, relativi alla specializzazione tematica.
I moduli fondamentali sono rappresentati da: L’informazione nel contesto sociale e nella comunicazione; Gli utenti dell’informazione; Metodi quantitativi; Metodi di ricerca; Le fonti
dell’informazione; I sistemi di memorizzazione e recupero
dell’informazione; I servizi informativi; Il trattamento elettronico dei dati; Applicazioni di tecnologia dell’informazione;
Telecomunicazioni e reti dell’informazione.
A questi moduli base si aggiungono altri moduli, definiti
facoltativi, ma tuttavia basilari quali: Progettazione di sistemi
informativi automatizzati; Fonti e sistemi informativi settoriali;
Progettazione e organizzazione delle attrezzature per centri
informativi e biblioteche; Ricerca in linea; Servizi informativi e
biblioteche nell’area salute e sanità; Servizi informativi e biblioteche nell’area agricoltura; Studi sugli audiovisivi; Stampa e
conservazione; Linguistica e studi sull’informazione; Servizi
informativi di comunità; Programmazione di trattamento testi;
Psicologia e studi sull’informazione; Comunicazione e studi
sull’informazione; Epistemologia e studi sull’informazione;
Biblioteca d’impresa e servizi informativi; Biblioteca governati-
236
237
va e servizi informativi; Educazione e formazione per gli studi
dell’informazione.
In particolare viene curato il settore relativo agli studi
dell’utenza, che è la cartina di tornasole di qualsiasi servizio
informativo. Senza di essa il servizio non può essere e senza di
essa non si realizza il feedback necessario per la valutazione
della qualità non solo del metodo, ma soprattutto del contenuto e dei tempi di erogazione. Purtroppo molto spesso i servizi
sono realizzati in funzione dell’ente che li promuove, o meglio
dei consulenti che li progettano, e non invece in funzione di chi
di fatto li dovrebbe utilizzare.
Sempre più si assiste alla divaricazione tra potenzialità della
tecnologia e scarsi livelli formativi del personale, in quanto
ancora la formazione si limita a processi funzionali e meramente tecnici, sottovalutando altri processi formativi che dovrebbero abbracciare tutte le procedure e le dinamiche relazionali che
hanno come obiettivo il sistema nella sua interezza.
Il fattore tempo è inoltre una variabile determinante e non
opportunamente considerata in molti contesti lavorativi: le
necessità di formazione e di aggiornamento dei servizi devono
avere una risposta immediata pena la perdita di efficacia e
utilità. Una procedura utile oggi, se realizzata fra sei mesi è
forse superata.
Per effettuare qualsiasi tipo di ricerca, sia su basi dati che su
Internet, è fondamentale seguire alcuni criteri base, che si
fondano sulla terminologia da utilizzare e sulla strumentazione da impiegare. Sono due aspetti diversi ma complementari,
senza i quali nessuna ricerca può condurre a buon esito. Da un
lato occorre, dopo aver circoscritto il tema di interesse, riuscire
a individuare quella che oggi si chiama mappa concettuale e
che sempre ha rappresentato la suddivisione, la categorizzazione, la gerarchia indispensabile per ritrovare il concetto
cercato. Dall’altro occorre possedere quella minima competenza per orientarsi nei siti web, nei portali, nei link che ancora
offuscano la memoria di sedicenti navigatori in rete.
La terminologia, intesa come condivisione di concetti,
«vocaboli ed espressioni proprie di una data scienze, arte, disciplina» (Devoto-Oli) consente la comprensione, la comunicazione, l’interazione attraverso obiettivi condivisi. Ognuno è libero
di muoversi in perfetta autonomia, ma il contesto nel quale
operiamo ci mostra sempre più che se si vogliono perseguire
obiettivi rapidi e mirati la scelta della sinergia è premiante. Le
mappe concettuali, le ontologie, i gruppi semantici, le gerarchie
e le relazioni sono i concetti con i quali fare i conti non solo per
ottenere quella necessaria comprensione all’interno delle stesse
aree tematiche, ma anche per poter dialogare con operatori di
diverse aree geografiche. L’Europa è un insieme in continua
evoluzione: l’entrata nell’Unione Europea di Paesi dell’Est
sullo scenario comune comporta un allineamento al di là di
rigide impostazioni e miopi criteri, soprattutto nella condivisione di termini e concetti che sono le chiavi di accesso a
qualsiasi archivio condiviso.
Per realizzare momenti di confronto e di scambio tra chi si
occupa di terminologia e siti web, di thesauri e di basi dati, il
gruppo ‘Semantica e terminologia nei portali’4 è un riferimento ricco di esperienze e di tematiche che rappresenta università, enti pubblici e privati, associazioni, biblioteche, archivi,
impegnati su varie aree (diritto, economia, educazione/formazione, moda, salute e sanità, terminologia).
Da un rapido confronto su quanto avviene in Europa, sullo
stesso tema è stato attivato (ottobre 2002) il progetto Knowledge
Technologies (KT), gruppo di ricerca su Information Society
Technologies programme 2002-2006, del sesto Framework
Programme (FP6)5. Fra le decisioni del Consiglio è fondamen-
238
239
La ricerca in rete: semantica, sintassi e metadati
tale quella di adottare un programma specifico per la ricerca, lo
sviluppo e la dimostrazione tecnologica dal tema Integrazione e
consolidamento dell’area di ricerca europea (decisione del settembre 2002) sulla conoscenza e le tecnologie dell’interfaccia.
L’obiettivo è il miglioramento dell’usabilità delle applicazioni e dei servizi IST, oltre che dell’accesso alla conoscenza, al fine
di stimolare una sua più ampia adozione e velocizzare lo
sviluppo, comprendendo anche le tecnologie multimediali
relative alla ricerca. In particolare sono trattate le tecnologie
della conoscenza e il contenuto digitale: l’obiettivo è quello di
fornire soluzioni automatizzate per la creazione e l’organizzazione degli spazi virtuali di conoscenza (memorie collettive,
biblioteche digitali, ecc.) per stimolare radicalmente nuovi
contenuti e servizi e applicazioni multimediali.
Il lavoro verte soprattutto sulle tecnologie in grado di
supportare i processi di acquisizione, modellazione, navigazione e ricerca, rappresentazione e visualizzazione, interpretazione e condivisione della conoscenza. Queste funzioni saranno
integrate in sistemi costruiti su criteri semantici e sul contesto,
comprendendo strumenti cognitivi e basati sugli agenti. Il
lavoro si indirizzerà a tutte le fonti della conoscenza e alle
ontologie per facilitare l’interoperabilità dei servizi e permettere applicazioni di nuova generazione sul web semantico.
Saranno presi in considerazione sia i contenuti del web che
le piattaforme necessarie, ma soprattutto gli utenti della rete,
che stanno aumentando a ritmo vertiginoso e che stanno
cambiando completamente. Soprattutto si assiste ad una
varietà di richieste che proviene da un’utenza sempre più differente per regioni geografiche, per lingua, per genere, per
gruppo di età e per attività economica.
I sistemi informativi trattano principalmente la sintassi ma
non la semantica di un documento o di un’informazione o di
un oggetto multimediale. Gli strumenti informatici che si
basano sulla semantica possono offrire maggiori opportunità
per il trattamento delle informazioni. Stanno emergendo nuove
tecniche quali la scoperta di risorse automatiche, i contenuti
non strutturati di ricerca, le domande in linguaggio naturale, la
ricerca basata sul contenuto e una collaborativa definizione dei
profili d’utenza.
Sullo scenario europeo, grazie ai progetti in corso, è possibile incoraggiare le industrie a giocare un ruolo competitivo nello
sviluppo dei sistemi e servizi basati sulla conoscenza. Il valore
aggiunto nei progetti europei è nella stimolazione di tecnologie
e sistemi che sono idonei per mercati multiculturali e multilinguistici, in grado di soddisfare le aspettative degli utenti.
Soprattutto se si progetta in uno scenario di dieci anni a venire
dovremo tener conto di:
– acquisizione di sistemi basati sulla conoscenza per supportare il lavoro scientifico di routine;
– passaggio da acquisizione e annotazione manuale;
– nuova infrastruttura web basata sulla semantica con ontologie che utilizzano metodi automatici e apprendimento a
distanza;
– nuovi livelli di sistemi di conoscenza e sistemi di recupero
basati su profili di utenza;
– sistemi di ragionamento costruiti sulla vita reale programmati sul lungo periodo;
– modelli di nuova impostazione, su link semantici e aggiornati sui metodi di struttura dei dati e sui modelli in grado di
registrare il cambiamento.
Lo scopo prioritario è il miglioramento dell’usabilità e
dell’ampliamento dell’applicazione dei servizi e dei prodotti
dell’ICT6. Questa sarà indirizzata attraverso nuovi metodi di
trattamento della conoscenza di oggetti, risorse o processi che
possono essere trattati, guidati o supportati da sistemi ICT.
L’uso finale sarà l’analisi di informazioni automatiche, l’interpretazione, il collegamento e la visualizzazione, la fornitura di
servizi basati sul contesto in grado di supportare la progetta-
240
241
zione, la diagnosi automatica e i processi decisionali, le attività
industriali altamente collaborative, ecc. Gli strumenti e i
metodi sviluppati per queste attività contribuiranno a promuovere una interoperabilità semantica e lo scambio tra sistemi e
servizi.
La stessa IFLA7 sostiene che «il diritto alla conoscenza e la
libertà di espressione siano due aspetti dello stesso principio»8
e inoltre, al paragrafo su Fornitura agli utenti di istruzioni all’uso
della rete, il testo riporta che «le biblioteche forniranno quelle
informazioni e quelle risorse che servono per imparare in modo
efficiente ed efficace». Si può quindi vedere un notevole passo
avanti da quando il libro era gelosamente tenuto negli scaffali,
scarsamente prestato, difficilmente distribuito; attualmente si
individuano percorsi di orientamento e di formazione all’utente, non solo specializzato, ma anche generico.
L’approccio KT9 comporta la messa in comune della ricerca
in un ampio spazio di aree intercorrelate: la descrizione delle
risorse web e multimediali; la tecnologia; l’interattività e le
interfacce dell’informazione; la scoperta della conoscenza; data
and text mining; il trattamento di linguaggi naturali.
In particolare oggi la ricerca analizza tutti i servizi della
conoscenza che devono essere mediati all’utente finale attraverso supporti informativi, programmi e software in grado di
utilizzare diversi tipi di web, reti e web semantici, in grado di
essere interoperabili e di interagire uno con l’altro.
La dinamica dei processi obbliga ad una dinamica delle
attività e delle procedure che sempre più devono tenere il passo
non solo con la tecnologia, ma soprattutto con le esigenze degli
utenti, sempre più diversificati e specializzati in ambiti di
ricerca.
Un sistema estremamente flessibile, che si deve basare su
criteri definiti e stabili, ma in continua evoluzione, necessita di
un personale specializzato, formato, continuamente pronto a
rivedere scelte, procedure e funzioni, con una progettazione a
medio e lungo termine ma che si avvale di unità operative e
procedure calibrate sul breve e brevissimo tempo. Piccoli passi
e sguardo lontano su panorami soprattutto diversificati, dove
l’esperienza e il confronto giocano un ruolo fondamentale nel
risparmio di tempi e di costi e nel miglioramento degli
standard.
In tutti i nuovi progetti e nelle Raccomandazioni delle
associazioni si promuove e si facilita un accesso responsabile
all’informazione di qualità in rete per tutti gli utenti, a prescindere dalla loro competenza e dalle loro richieste. Per raggiungere questi obiettivi occorre creare un’ottima comunicazione
tra addetti ai lavori e utenti, oltre alla redazione di strumenti
cartacei e non per l’orientamento e l’utilizzo dei servizi erogati.
La libertà di accesso, la fornitura di un accesso libero, non
gravato da ostacoli, finalizzate al diritto degli utenti a cercare
l’informazione che preferiscono, con il supporto necessario agli
utenti per imparare a usare Internet sono alcuni dei punti
contenuti nel Manifesto su Internet dell’IFLA10.
Come dice Minsky in La società della mente (1989) «l’intelligenza non risiede in qualche grande elaboratore, ma è piuttosto il risultato del comportamento collettivo di un gran numero
di macchine specializzate, tra loro altamente interconnesse»,
dove il termine ‘macchine’ comprende ovviamente quella che,
per antonomasia, le comprende tutte e che riesce a gestirle: ‘la
macchina umana’.
242
243
Bibliografia
TKE ’99 Terminology and Knowledge Engineering, ed. Peter
Sandrini, Vienna, Termnet
PAOLO BISOGNO (1980), La teoria della documentazione, Milano,
Franco Angeli
PAOLO BISOGNO (1995), Il futuro della memoria. Elementi per una
teoria della documentazione, Milano, Franco Angeli
LUTHER BLISSET (1996), Net.gener@tion. Manifesto delle nuove
libertà, Milano, Mondadori
ANTONIO CALVANI, MARIO ROTTA (1999), Comunicare e apprendere
in Internet, Trento, Erickson
ANTONIO CALVANI, MARIO ROTTA (2000), Fare formazione in rete,
Trento, Erickson
PAOLA CAPITANI, Glossario multilingue di biblioteconomia e scienza
dell’informazione (italiano, inglese, francese, spagnolo, tedesco),
Milano, Editrice Bibliografica (in preparazione)
PAOLA CAPITANI (2001), Educare all’informazione: l’esigenza di
creare un costume documentario a partire dalla scuola, in “Biblioteche Oggi”, gennaio-febbraio
PAOLA CAPITANI (2003), Il servizio informativo: iter di formazione e
proposte di gestione, Milano, Editrice Bibliografica
VALENTINA COMBA (2000), Comunicare nell’era digitale, Milano,
Editrice Bibliografica
Il controllo terminologico delle risorse elettroniche in rete: Tavola
rotonda, Firenze 27 gennaio 2000, a cura di Paola Capitani,
Firenze, FUP, 2001, accessibile su Internet al sito
http://biblio.unifi.it/documents/archivio1/00/00/01/77/
index.html
PAOLA COSTANZO CAPITANI (2000), Gli standard ISO per la costruzione e l’aggiornamento di thesauri, in Reti per la salute. Seminario di studio. Atti. Perugia 22-23 aprile 1999, Perugia, SEDES
PINO DE SARIO (2002), Non solo parole. Gli strumenti della comunicazione ecologica. A casa con gli amici, nel gruppo, al lavoro…,
Milano, Franco Angeli
EuroGuida I&D dei professionisti europei dell’informazione e della
documentazione (2000), Versione ufficiale di Maria Pia
Carosella e Domenico Bogliolo, Firenze, Casalini Libri
ENRICO GUIDOTTI (1996), Internet e comunicazione: per capire come
cambia il modo di comunicare l’impresa con Internet, Milano,
Franco Angeli
BILL KATZ (2000), New Technologies and Reference Services, New
York, Haworth Information Press
Knowledge Technologies 2003-2004, Technical Background, v1 16
October 2002
ICT: le figure professionali, Rapporto FEDERCOMIN-ANASIN
(2000), Roma, Federcomin
MARSHALL MCLUHAN (1986), Gli strumenti del comunicare,
Milano, Garzanti
MARSHALL MCLUHAN (1987), Dal cliché all’archetipo, l’uomo tecnologico nel villaggio globale, Milano, SugarCo
FABIO METITIERI, RICCARDO RIDI (2002), Biblioteche in rete: istruzioni per l’uso, Roma-Bari, Laterza
MARVIN MINSKY (1989), La società della mente, Milano, Adelphi
PAOLA COSTANZO CAPITANI (1999), Multilingualism and Terminology – the Problem of Communication and Thesauri in the EU, in
Norma internazionale ISO 2788. Documentazione - Linee-guida per
la costruzione e lo sviluppo di thesauri monolingui (1996),
Milano, UNI
244
245
Norma internazionale ISO 5964. Documentazione - Linee-guida per
la costruzione e lo sviluppo di thesauri multilingui. Prima edizione 15 II 1985 (1990), Traduzione in italiano con integrazioni
all’apparato esemplificativo ed indice trilingue dei termini
tecnici, Firenze, BDP
CORRADO PETRUCCO (2002), Costruire mappe per cercare in rete: il
metodo Sewcom, in “Tecnologie Didattiche”, n. 25
ENRICO PULCINI (1998), Internet e la stampa quotidiana, Roma,
Castelvecchi
ENRICO PULCINI (1999), Dopo Internet. Storia del futuro dei media
interattivi. L’informazione personalizzata, il commercio elettronico, la televisione digitale, il teleputer, Roma, Castelvecchi
RICCARDO RIDI (1996), Internet in biblioteca, Milano, Editrice
Bibliografica
ALESSANDRO SARDELLI (2002), Dalla certificazione di qualità alla
qualità totale, Milano, Editrice Bibliografica
Semantica e terminologia nei portali. Tavola rotonda, Firenze 11-12
Dicembre 2000, a cura di Paola Capitani, Firenze, FUP, 2002,
accessibile su Internet al sito http://biblio.unifi.it/documents/archivio1/00/00/01/55/index.html
GUGLIELMO TRENTIN (2001), Dalla formazione a distanza all’apprendimento in rete, Milano, Franco Angeli
Note
1 Consulente e formatrice per sistemi informativi, autrice di saggi,
articoli, unità didattiche di formazione a distanza, attualmente coordina il
gruppo di lavoro ‘Semantica e terminologia nei portali’ (http://www.indire.it/websemantico), dove sono attivi i link e il forum con gli enti italiani
e stranieri impegnati sul versante della semantica e della terminologia.
2 Svoltosi a Roma presso il CNR, il 17 dicembre 2002.
3 Tom Davenport, Larry Prusak, Know what you know, in “CIO Magazine” (http://www.brint.com/km/whatis.htm).
4 http://www.indire.it/websemantico è il sito di riferimento dove
trovare informazioni, link, forum sulle tavole rotonde già realizzate dal
2000 ad oggi e soprattutto gli aggiornamenti in corso. Il sito è anche in
lingua inglese ed è in continua revisione. Le aree attualmente interessate
sono: Ambiente, Diritto, Economia, Educazione/Formazione, Moda,
Salute e Sanità, Terminologia.
5 http://www.cordis.lu/fp6/; http://www.cordis.lu/ist/ka3;
http://www.ktweb.org; per informazioni [email protected] e [email protected].
6 Information and Communication Technologies.
7 http://www.ifla.org.
8 http://www.feife.dk.
9 Per ulteriori informazioni sul progetto consultare: Knowledge
technologies reflection group. 15-16 May 2002, Luxembourg. http:
//www.cordis.lu/ist/fp6/workshops.htm e Knowledge Technologies –
Perspectives for 2012. An EU Expert Workshop. Luxembourg, 27-28 June
2002, http://www.cordis.lu/ist/ka3/. Sulle Knowledge Technologies sono
state inviate nell’estate 2002 numerose proposte tra le quali su: web
semantico, servizi di intelligenza Web, servizi e trattamento della
conoscenza, processi industriali, vedere in merito http:
//www.cordis.lu/fp6/eoi-analysis.htm.
10 Manifesto su Internet dell’IFLA approvato dal Governing Board
dell’IFLA il 1 maggio 2002, http://ww.ifla.org/III/misc/im-e.htm
246
247
Il laboratorio doveva essere aperto, fungere da teatro
della persuasione, e allo stesso tempo fu pensato come
uno degli spazi più regolamentati nella “cultura della
non cultura”.
Donna Haraway, Testimone_Modesta@FemaleMan_incontra_oncotopo
Comunicazione pubblica e consapevolezza
Comunicare la scienza per partecipare
la scienza
Adriana Valente
Consiglio Nazionale delle Ricerche
Istituto di ricerche sulla popolazione e le politiche sociali, Roma
Comunicazione scientifica, trasmissione e accesso
Le teorie e pratiche della comunicazione pubblica della
scienza raccolgono al proprio interno diversi modi di concepire il rapporto scienza-società. I modelli che si sono sviluppati
nel corso del tempo, e che tuttora coesistono, sono ispirati alle
diverse accezioni di comunicazione: trasmissione lineare ed unidirezionale di informazione scientifica, e condivisione di conoscenza, che presuppone la messa in comune di una molteplicità di
punti di vista, di percezioni e di saperi.
La tensione tra trasmissione mirata (lineare, specialistica)
dell’informazione scientifica ed accesso nel senso di partecipazione al processo di creazione e sviluppo delle conoscenze
(Valente 2002a, p. 30) ha subito fasi alterne non solo nell’ambito specifico della comunicazione pubblica della scienza, ma
anche, più in generale, nelle teorie dell’informazione e
documentazione scientifica.
In un’ottica centrata sull’accesso, la «décentralisation du
savoir» (Les prémisses, 1995, p. 51) si basava sul presupposto che
251
«tout travailleur scientifique et tout lecteur» fossero parte
integrante de «l’Humanité pensante»1.
Per tutto il corso del secolo passato (Trasmissione d’élite o
accesso alle conoscenze?, 2002) in Europa come in America, iniziative e proposte volte a migliorare il sistema di trasmissione di
conoscenze scientifiche si sono alternate a riflessioni sul rischio
di «aliénation culturelle» insito nel lasciare a pochi la predisposizione di «mémoire collective» (Nora, Minc, 1978).
A più di un secolo di distanza le aspirazioni dei primi
documentalisti – internazionalisti e pacifisti – se non sono
ancora completamente realizzate, non sono più considerate
‘cattive utopie’ (Fumagalli, 1986). Partendo dalla riflessione
sulla «Babele dei saperi» (Prattico, 2001), una recente prospettiva è quella che vede la «banalizzazione dei saperi» proprio
nella «produzione di saperi incapaci di generare cultura
diffusa» (Greco, 2000).
L’evoluzione delle teorie e pratiche della comunicazione
pubblica della scienza si distingue da quella della documentazione scientifica per la specificità di un presupposto di base:
almeno uno dei poli della relazione comunicativa è costituito,
per definizione, da un pubblico generico o comunque laico, di
non scienziati. Tuttavia, ciò non basta a collocare tutta la
comunicazione pubblica della scienza nella sfera dell’accesso
alle conoscenze; la dicotomia tra la trasmissione lineare ed
unidirezionale rispetto all’accesso alle conoscenze si pone
anche nei modelli di comunicazione della scienza2 ed attiene ai
livelli di specializzazione-interdiciplinarietà, al tipo di progetto
comunicativo – mass mediatico, inserito nella formazione di
base, nell’aggiornamento, nella pianificazione di percorsi
culturali – e, soprattutto, ai presupposti teorici, sociologici e
filosofici, che sostanziano le diverse teorie ed i progetti.
252
Questioni di supporto e fiducia alla base del deficit model
Sebbene iniziative di comunicazione pubblica della scienza
siano state intraprese in diverse fasi storiche (McLaughlinJenkins, 2003), è di qualche decennio fa l’avvio di una riflessione sistematica sul Public understanding of science (Pus)3.
Il Pus si è andato originariamente costituendo sul presupposto della stretta relazione che ci dovrebbe essere tra
conoscenza scientifica e supporto alla scienza, e si è basato sulla
considerazione che il pubblico è scientificamente illetterato, e
ciò costituirebbe la causa della crisi del rapporto scienza-società;
sarebbe necessario, dunque, dare al pubblico maggiore informazione scientifica affinché ci si possa attendere un maggiore
sostegno alla scienza. Brian Wynne ha chiamato questo approccio deficit model (Wynne, 1991), in quanto volto a rilevare la
misura del deficit di conoscenze nel pubblico, dunque, in fin dei
conti, la misura della sua inadeguatezza. Da simili premesse
parte l’economic model, che in più evidenzia l’importanza del
consenso per lo sviluppo economico (Rask, 2004).
Tuttavia, già dal 1991, Ziman aveva evidenziato la complessità del rapporto tra understanding e supporto alla scienza
(Ziman, 1991): questi vanno di pari passo se si considerano le
applicazioni utili della scienza, quali i computer; si potrebbe
dire, utilizzando le parole di Bruno Latour, che vanno di pari
passo se si fa riferimento alla «scienza confezionata» (Latour,
1998). Vanno in direzioni divergenti se si considerano questioni scientifiche che possono sollevare conflitti etici, ad esempio
la ricerca su embrioni umani; in altre parole, se si considera la
‘scienza in divenire’, fortemente connessa con questioni di
natura economica, sociale e culturale.
Dunque, il Pus si è affermato per fornire una risposta, in
termini di trasmissione di expertise scientifica, alla lacuna, al
deficit di conoscenze del pubblico. Ma si è affermato anche in
quanto ricerca di supporto e consenso alla scienza ufficiale ed
253
alle sue applicazioni, supporto e consenso che, se sembravano
necessari, non potevano più essere dati per scontati.
Ciò muoveva implicitamente dalla presa d’atto della crisi di
fiducia in una scienza garante di razionalità e di verità e dei
rischi connessi alle applicazioni tecnologiche, a volte percepiti
come non facilmente bilanciabili, né direzionabili, né controllabili. L’imprevedibilità degli esiti della scienza, un tempo vezzo
da laboratorio, è stata successivamente vissuta come una
minaccia oscura. La tecnologia (molti autori parlano di tecnoscienza) dinamica, potente, imprevedibile è stata dunque contrapposta alla natura materna, saggia, sicura.
Tuttavia, le conseguenze negative di questi fenomeni sul
rapporto scienza-società sembrano circoscritte, bilanciate dal
legame di fiducia che ancora lega la società a scienziati e scienziate sia come fonti d’informazione attendibile, che come
principali interpreti del processo decisionale sulle applicazioni
della scienza e tecnologia. Molti autori ritengono che sia da
superare l’oppositività tra scienza e natura: «nature, contrary to
the appearance, is a political animal» secondo Latour (Latour,
2001); anche Lévy aveva di fatto aggirato questa oppositività
nella sua ricostruzione dei quattro spazi – la terra, il territorio,
lo spazio delle merci, lo spazio del sapere (Lévy, 1996).
In tutte le indagini nazionali ed internazionali traspare una
certa fiducia nella scienza da parte della società, contemperata,
ma non contraddetta, da una richiesta di regole etiche e, soprattutto, di maggiore comunicazione da parte degli scienziati.
I risultati dell’Eurobarometro sulla scienza e tecnologia
(European Commission, 2001) mostrano che la gran parte degli
europei ritiene che gli scienziati dovrebbero informare meglio i
cittadini sui possibili rischi e, comunque, che dovrebbero
comunicare meglio la loro conoscenza scientifica.
Alcuni dati interessanti vengono dal progetto “Percezione e
consapevolezza della scienza”4, ed in particolare dall’indagine
CNR sugli Ogm (Valente, Cerbara, 2003; Avveduto, Azzaro,
Ferraria, Reale, Valente, 2003); la gran parte degli studenti delle
scuole secondarie superiori e dell’Università di Bologna
coinvolti nell’indagine, oltre ad aver considerato la comunità
scientifica come la fonte più autorevole di informazioni nel
settore, ha ritenuto che le decisioni sull’uso delle applicazioni
nel settore delle biotecnologie dovrebbero essere prese dagli
scienziati. Gli studenti hanno fatto riferimento in primo luogo,
come era prevedibile, agli scienziati dei settori direttamente
coinvolti (ad esempio genetisti ed agronomi), ma anche, come
seconda opzione, alla comunità scientifica in senso lato, tra cui
erano stati esplicitamente indicati studiosi di filosofia, etica,
storia e sociologia della scienza; ciò fa pensare che si ha fiducia
nell’intervento a livello decisionale di scienziati/e non solo in
quanto esperti-tecnici, ma anche, in una visione unitaria delle
scienze, in quanto soggetti che collaborano alla riflessione
critica sulla scienza e tecnologia. Tale compito non è lasciato
però solo agli uomini ed alle donne di scienza; come terza
opzione, è stata indicata la partecipazione di tutti i cittadini al
processo decisionale: ciò mostra, accanto alla continuità del
legame di fiducia verso gli scienziati e le scienziate, anche
l’affermarsi di un desiderio di partecipazione che va oltre la
mediazione politica ed istituzionale e che non si accontenta di
una delega al sistema scientifico. Insomma, non ci si accontenta di trasmissione, ma si richiede anche accesso in quanto ‘condivisione di risultati’, in quanto possibilità che individui anche
esterni ad una comunità scientifica siano «parte attiva nel
processo di creazione e sviluppo delle conoscenze e, conseguentemente, di controllo e verifica» (Valente, 2002a, p. 30).
254
255
Sfera del sociale e contextual model
Se, dunque, il rapporto di fiducia tra le persone comuni e la
scienza non è del tutto compromesso, l’interesse alla crescita
del dibattito pubblico nei settori scientifici non va necessaria-
mente ricercato nel desiderio di contrastare, seguendo «sirene
irrazionalistiche» (Viale, 2003), la conoscenza esperta o di
svuotarla di autorevolezza, come paventano alcuni autori;
sembra che la vera novità sia la consapevolezza del fatto che la
‘scienza in divenire’, molto più di quella già consolidata,
coinvolge un insieme di questioni economiche, sociali, etiche,
non più solo ‘tecnico-scientifiche’. Questa consapevolezza è
diffusa anche nell’opinione pubblica, quanto meno a livello di
tacit understanding. Non si tratta, in questa fase, di disquisire sul
fatto che la scienza sia o meno socialmente costruita, quanto di
considerare quali aspetti, oltre a quelli strettamente scientifici,
siano a questa intimamente collegati nella rappresentazione
sociale della scienza e della tecnologia e siano o vadano
coinvolti nei processi deliberativi di una società complessa.
Secondo alcuni autori, sostenitori del contextual model,
questo mondo sommerso che sta attorno ai processi di creazione e diffusione di conoscenza scientifica deve essere reso
maggiormente visibile alla collettività affinché tutti possano
acquisire «a clearer idea of the potentials and limitations of the
new wonders science is proclaming» (Miller, 2001). Miller
auspica un dialogo all’interno del quale scienziati e scienziate
presentino la verità scientifica, mentre la collettività si faccia
portatrice di conoscenza locale, comprensione ed interesse nei
problemi da risolvere. Il modello proposto coglie alcuni aspetti
importanti, anche se non è facilmente configurabile una situazione in cui conoscenze scientifiche e conoscenze locali, oltre a
coesistere, si pongano sullo stesso livello.
Stante, comunque, un’aumentata domanda, ed un’aumentata aspettativa, di partecipazione, le iniziative di public understanding of science vengono affiancate da quelle di partecipazione pubblica – public participation, quali consensus conference e
giurie di cittadini, in cui viene attribuito anche un ruolo deliberativo ai gruppi coinvolti – e, a livello comunitario, si discute
delle possibili forme di valorizzazione del contesto e del locali-
smo, nonché del contributo dei laici al dibattito scientifico.
Gruppi di interesse e pubblico in genere cominciano ad
essere considerati anche all’interno di quella parte del technology assessment che, più che predire l’impatto di una tecnologia,
si propone, in una logica adattativa, di massimizzare i benefici
potenziali e di minimizzare le possibili conseguenze negative
delle tecnologie. L’organizzazione di gruppi di lavoro, panel di
cittadini ed altri strumenti di partecipazione pubblica consente
di promuovere il dibattito nei gruppi e con gli esperti su una
determinata questione tecnologica e di cogliere il punto di vista
dei laici (Davison, Barns, Schibeci, 1997; Einsiedel, 2002).
Sembra che questa aspettativa di partecipazione non sia
limitata agli ambiti della documentazione e comunicazione
della scienza, ma si estenda al modo di rapportarsi col sociale e
di esprimere la volontà di deliberare sui diversi aspetti della
cultura e della società.
Fenomeni di lungo periodo si incrociano con quelli di breve
periodo, tendenze internazionali con quelle nazionali. L’interesse per le questioni pubbliche e l’apertura alla sfera del
sociale, che anche nella società italiana avevano avuto una
contrazione negli ultimi decenni, sembrano, a detta di molti
commentatori, in una fase nuovamente espansiva (Diamanti,
2004; Meghnagi, 2004).
Tutto ciò ha notevoli conseguenze sul modo in cui la collettività percepisce il proprio ruolo e quello di scienziati e scienziate, e sul modo in cui politici e amministratori cominciano a
vedere le diverse funzioni che possono essere svolte dalla
collettività o dai suoi gruppi attivi.
Dal punto di vista della collettività, si profilano spazi di
dibattito in cui ogni parte del sistema sociale si può sentire
interessata o coinvolta ed in cui le conoscenze tecnico-scientifiche si intrecciano con questioni interdisciplinari di più vasta
portata; rispetto a queste ultime, i diversi gruppi di interesse
scientifico, politico, economico o sociale possono dirsi legitti-
256
257
mati ad esprimersi con autorevolezza, e ad agire di conseguenza con responsabilità, solo con riferimento a specifiche questioni, ma non alla globalità dei fenomeni.
La specializzazione che è derivata dallo sviluppo delle
scienze fa sì che, nelle questioni di ‘scienza in divenire’, scienziati e scienziate – esperti ed autorevoli su ambiti definiti –
siano portatori di conoscenza laica per buona parte delle
questioni tecnico scientifiche collegate al proprio settore di
ricerca. Dunque, non basta far parte a pieno titolo della
comunità scientifica, ma occorrerebbe far parte contemporaneamente di tutte quelle comunità scientifiche che, di volta in
volta, hanno l’autorità di essere portatrici di verità, il che non è
facilmente configurabile.
Ciò non vuol dire squalificare l’expertise scientifica ed il suo
ruolo, ma riconoscere l’importanza ed i confini del contributo,
a volte concorrente ed a volte conflittuale, dei diversi ambiti
disciplinari che devono concorrere nell’analisi di un fenomeno;
rispetto a ciascuno di questi, il resto degli scienziati rappresenta, se non il pubblico indiscriminato, un’élite culturale, ma non
il gruppo portatore di conoscenza autorevole. Ad esempio, il
punto di vista degli epidemiologi e dei medici non coincide con
quello degli ingegneri sul tema dell’inquinamento da campi
elettromagnetici, anche se facciamo riferimento solo alla
scienza ufficiale o prevalente.
In un articolo di commento all’intervento di Latour al Politecnico di Milano5, Mauro Scanu ribadisce che nella ‘società del
rischio’ ogni gruppo o individuo controlla una fetta di sapere e
«detiene una parte di responsabilità nel funzionamento dell’intero meccanismo». E questa responsabilità non può prescindere dal controllo democratico (Scanu, 2004). Simile ragionamento va fatto per le diverse componenti del settore scientifico.
258
Modalità di partecipazione al dibattito scientifico
La volontà di partecipare al dibattito pubblico si concretizza
anche nel riappropriarsi di alcune scelte; il 94% degli europei,
ad esempio, ha dichiarato di voler avere il diritto di scelta
rispetto agli organismi geneticamente modificati (Ogm)6, a
prescindere dalla posizione assunta sul tema specifico; si tratta
quindi di una richiesta di partecipazione al processo decisionale, che prescinde dal contenuto, dall’essere favorevoli o meno
agli Ogm (European Commission, 2001).
L’indagine che il CNR ha svolto nell’ambito del progetto
“Percezione e consapevolezza della scienza” ha evidenziato
che un numero considerevole di studenti ritiene che tutti i cittadini debbano partecipare in qualche modo al processo decisionale circa l’uso delle applicazioni scientifiche.
La molteplicità dei fattori coinvolti nella riflessione sugli usi
e sulle applicazioni della scienza e tecnologia, nonché sui valori
coinvolti, nel moltiplicare i portatori di interesse e le competenze utilizzabili, dà attualità all’affermazione di Lévy per cui
«ognuno ha qualcosa da scambiare oltre i saperi ufficialmente
riconosciuti» (Lévy, 1996).
In queste condizioni, la tradizionale linea di demarcazione
tra credenze e conoscenze – che nel Seicento è stata un atto
fondante della modernità, decretando la separazione tra tecnica
e politica ed eliminando l’autorità della trascendenza nei fatti
di scienza – assume diverse sfumature nella odierna complessità delle relazioni tra scienza, economia, politica e società.
Alcune situazioni limite presentate in letteratura (EvansPritchard, 1937; Bloor, 1976; Hutchins, 1980; Hounshell, 1975;
Luria, 1976) e riassunte da Latour (Latour, 1998) rendono
ancora più ardua la separazione tra credenza e conoscenza,
soggettività ed oggettività, così come la distinzione tra cosa è
irrazionale e cosa è razionale7.
Se, dunque, le questioni scientifiche rientrano in un più vasto
259
sistema di fatti culturali – Latour parla di «Parlamenti ibridi
umani e non umani» (Latour, 2001) –, l’importanza del coinvolgimento sociale è fondamentale non solo in quanto eventuale sostegno al finanziamento di questa o quella linea di ricerca o applicazione scientifico-tecnologica (come era implicito presupposto del
deficit model e del modello economico), né solo in quanto valore
aggiunto di conoscenza locale e contestuale, ma in quanto condizione per il mantenimento dell’intero sistema sociale.
Gli obiettivi delle amministrazioni pubbliche e comunitarie
per il coinvolgimento sociale nella definizione e presentazione
delle politiche, e delle politiche scientifiche in particolare,
nonché le modalità ed i termini di questo coinvolgimento,
rientrano nelle questioni di governance e di scientific governance.
La governance attiene alle relazioni fra amministrazione e
cittadini, considerati sia singolarmente, sia come gruppi, con
riferimento ad un’ampia gamma di aree di interesse, dall’elaborazione di politiche pubbliche all’offerta e al consumo di
servizi collettivi. Gli obiettivi principali sono il miglioramento
delle politiche stesse ed il consolidamento del legame di fiducia
con i cittadini.
I principali organismi internazionali, tra cui l’Unione
Europea e l’OECD, già da alcuni anni si stanno interessando
alle questioni di governance ed hanno prodotto un insieme
articolato di documenti che fornisce importanti contributi alle
riflessioni sulla relazione scienza-società. Il libro bianco La
governance europea (Commissione delle Comunità Europee,
2001) nell’incoraggiare «a una nuova apertura e responsabilizzazione delle parti in causa», elenca i cinque principi alla base
della buona governance: apertura (al grande pubblico), partecipazione (dalla prima elaborazione all’esecuzione di politiche),
responsabilità (e definizione chiara dei ruoli), efficacia, coerenza. Tali principi, essenziali per «una governance più democratica», vanno applicati «a tutti i livelli di governo».
Per democratic governance, in particolare, si intende il rafforza-
mento dell’accesso dei cittadini all’informazione, alle consultazioni e alla partecipazione all’elaborazione delle politiche pubbliche.
Il manuale dell’OECD sulla governance (OECD, 2002) esplicita il fatto che la partecipazione presuppone una previa attività di divulgazione, formazione ed informazione del pubblico; il
dibattito politico, dunque, va supportato con procedure che, su
vasta scala, assicurino il raggiungimento della pubblica consapevolezza, forniscano adeguata valutazione scientifica e
presentino opportunità di consultazione del pubblico. Tra i
documenti preparatori al libro bianco La governance europea c’è
quello del gruppo di lavoro sulla democratizzazione dell’expertise ed i sistemi scientifici (Working Group Democratising
Expertise and Establishing European Scientific Reference
Systems, 2001), in cui si sottolinea il potere della conoscenza
esperta ed il ruolo degli esperti come attori chiave di governance. Siamo testimoni di questo paradosso: l’expertise è sempre
più ricercata per il policy making e le scelte sociali, ma è sempre
più contestata. La sua credibilità non può essere alimentata
semplicemente attraverso un processo di educazione del
pubblico, bensì agendo sulla trasparenza e sulla cooperazione,
sostenendo il dialogo tra esperti, pubblico e decisori pubblici.
Democratizzare l’expertise attiene al modo in cui questa è
sviluppata, usata e comunicata.
Diverse sono, però, le accezioni di scientific governance; non
sempre la partecipazione di forze e di competenze esterne
rispetto a quelle scientifiche è ritenuta opportuna. Riccardo
Viale identifica la scientific governance con il «ruolo degli esperti
scientifici nella formazione delle decisioni pubbliche in varie
materie, dalla salute, all’ambiente, alla sicurezza tecnologica»
(Viale, 2001); è necessario, secondo l’autore, coerentemente con
la concezione veritista della conoscenza di Goldman, «salvaguardare l’autonomia scientifica dalle influenze inquinanti di
tipo ideologico e politico».
Da un diverso punto di vista si pongono coloro che saluta-
260
261
no positivamente «the new alliance between science, citizens
and society» e ritengono che «public inputs to policy debates
are not merely opinions, but may be relevant knowledge,
values or questions which scientists have neglected» (European
Commission, 2000).
L’idea che lo scienziato dica semplicemente «come funzionano le cose» (Habermas, 1985), implica una visione idealizzata
della sua attività e dei presupposti che la guidano, oltre a dare
per scontata la possibilità di isolare un mondo oggettivo ed un
agire solo razionale, avulso dal contesto ambientale, sociale,
soggettivo (Valente, 2002b). La retorica del «testimone modesto»
(Haraway, 2000, p. 63), dello stile di scrittura ‘spoglio’, ma in
quanto tale ‘fattuale’ ed ‘autorevole’, consentiva di offrire il fatto
scientifico così come si era rivelato in laboratorio, senza orpelli
stilistici estranei al mondo della razionalità. Questo ruolo e
questa figura di scienziato sono ormai fuori dalla nostra
esperienza: nel mondo scientifico è rinvenibile una buona dose
di agire strategico (teleologico, nel linguaggio di Habermas),
accanto a quello più direttamente comunicativo. Ciò riguarda
sia i contenuti che la forma. Gli scienziati fanno sempre più
ricorso a stratagemmi comunicativi tra cui metafore e – spesso
ardite – analogie, per esprimere il proprio pensiero, per indicare percorsi di ricerca (Keller, 1996) e per con-vincere il pubblico.
E ciò a prescindere dal voler considerare, come fa Latour, l’articolo scientifico o il sistema delle citazioni come nuovi strumenti della retorica (Latour, 1998, pp. 42 sgg.); in questo caso, ogni
controversia scientifica verrebbe vista come una questione di
rapporti di potere, in cui si riconosce validità ad un enunciato
quando mancano le forze per opporvisi (Flichy, 1996, p. 101).
Non vengono qui presi in considerazione gli aspetti centrali
della contrapposizione tra costruttivismo e realismo, e cioè la
disquisizione di quanto gli scienziati siano coinvolti dal
sistema della cultura e quanto questo incida nella relazione tra
premesse e risultati scientifici.
Esiste in ogni caso, dietro le quinte della ricerca scientifica,
tutto un mondo di teorie scientifiche che si contrappongono, di
sperimentazioni scientifiche che si affiancano e si fronteggiano,
che non ha ancora subito i processi di bilanciamento – scientifici o sociali che siano – in seguito ai quali si giunge al riconoscimento ed alla stabilizzazione – almeno per un certo periodo di
tempo – di conoscenza ufficiale e dunque autorevole.
Il problema è che le applicazioni e le tecnologie sono già
pronte prima che il dibattito scientifico sia giunto ad un livello
di maturazione tale da far parlare di scienza consolidata: ci
muoviamo nella tecnoscienza, per l’appunto, in cui non è più
facilmente rinvenibile un prima di teoria scientifica ed un dopo
di applicazione tecnologica.
Latour porta queste considerazioni alle estreme conseguenze laddove sostiene che tutti partecipiamo, consapevoli o
meno, ad esperimenti collettivi o socio-tecnici: la sperimentazione supererebbe i confini di laboratorio ed entrerebbe nella
nostra vita di ogni giorno, soprattutto in materia ambientale e
sanitaria. Ma allora sarebbe necessario che la società o i gruppi
di interesse potessero dare il loro consenso informato e monitorare tali sperimentazioni; inoltre, il concetto stesso di democrazia in Europa andrebbe ripensato (Latour, 2001). La grossa
novità degli ‘esperimenti collettivi’ non sembra però risiedere,
come vorrebbe Latour, nel fuoriuscire di questi esperimenti dal
laboratorio, fatto che si era in parte realizzato nello spazio
pubblico ‘ad accesso ristretto’, ‘teatro della persuasione’, dell’epoca di Boyle (Haraway, 2000), quanto nella mancanza di
regole e, in ultima analisi, nella coincidenza di esperimento con
esperienza di persone e gruppi sociali.
262
263
Problemi di scienza e tecnologia ed esperienze
di comunicazione
Per tutti questi motivi è particolarmente indicato che i
progetti di comunicazione della scienza contribuiscano a sostenere il dibattito pubblico nella fase in cui i diversi aspetti culturali interagiscono tra di loro nel ‘calderone disordinato’ della
‘scienza in divenire’. È in questa fase che i diversi approcci
scientifici, a volte conflittuali, si fronteggiano, evidenziando
quanto sia limitato ed insoddisfacente il classico modello di
comunicazione pubblica della scienza, modello lineare ed
unidirezionale per cui alla società arriva l’eccessiva semplificazione di un fatto scientifico, mentre la pluralità delle teorie
scientifiche e degli apporti disciplinari, le diverse interpretazioni, restano fuori dalla portata del pubblico.
Nei progetti promossi dal Consiglio Nazionale delle Ricerche in collaborazione con il British Council e la Fondazione
Rosselli sulla percezione e consapevolezza della scienza, si è
cercato di sperimentare un modello, o meglio, un’articolazione
di modelli, che desse concretezza alle questioni sollevate in
questo lavoro.
Un obiettivo dei progetti è stato quello di riportare la
ricchezza e l’articolazione del dibattito scientifico, e dei temi e
problemi da questo sollevati, dentro la comunicazione pubblica della scienza. Questo obiettivo ha segnato le diverse fasi dei
progetti, a partire dalla predisposizione della documentazione
scientifica raccolta e fornita agli istituti scolastici ed universitari coinvolti. La predisposizione di documentazione scientifica
ha costituito una fase particolarmente delicata del progetto in
quanto tale documentazione, illustrata ed integrata dai docenti,
avrebbe costituito la prima presa di contatto delle scuole con
l’argomento in questione: solo successivamente a questa fase
ed al dibattito nei gruppi, gli studenti si sarebbero confrontati
con gli esperti del settore.
Per maggiore garanzia di onnicomprensività e di trasparenza, la documentazione scientifica, individuata anche su segnalazione degli esperti coinvolti, è stata selezionata secondo
diversi criteri, ma soprattutto in maniera da contemperare i
diversi punti di vista, le diverse sensibilità scientifiche sull’argomento8.
Si è voluto in tal modo evitare che la tensione tra diverse
opinioni a volte conflittuali, connaturale al pensiero scientifico
oltre che alla sua evoluzione, venisse messa da parte, confinata
al dibattito tra specialisti. Si è ritenuto, infatti, che nel comunicare la scienza la semplificazione vada senz’altro ricercata nel
linguaggio, ma non nella rimozione delle componenti critiche,
problematiche, interdisciplinari. Parlare di scienza non deve
identificarsi con la prassi di «comunicare certezze, non sollevare interrogativi», come Cini ha evidenziato (Cini, 1997). È
opinione diffusa che l’introduzione di conoscenze scientifiche
incerte o contraddittorie possa ulteriormente allontanare dalla
scienza, possa contribuire ad assottigliare quel legame di
fiducia che collega il mondo della scienza alla società civile.
Ebbene, alcuni studi stanno dimostrando il contrario (Doble,
1995; Frewer et al., 2002; Kahlor, Dunwoody, Griffin, 2002).
Sembra che sia proprio la mancata partecipazione a fare escogitare forme di resistenza, anche alla scienza (Greco, 2000).
Analizzando i dati del questionario finale compilato dagli
studenti nella prima indagine del progetto “Percezione e
consapevolezza della scienza” abbiamo potuto rilevare che, tra
gli studenti – la quasi totalità – che hanno dichiarato di avere
acquisito maggiori conoscenze in seguito alla partecipazione al
progetto, una quota piccola ma non trascurabile ha dichiarato
di avere acquisito maggiori dubbi, più che maggiori certezze
sull’argomento («maggiore interesse» è stata l’opzione scelta
dalla grande maggioranza). Dunque, gli studenti hanno
accostato la maggiore conoscenza soprattutto all’accresciuto
interesse, in diversi casi alle maggiori certezze e talvolta ai
maggiori dubbi, mostrandosi svincolati dal modello tradizionale della divulgazione che si incentrava sulla somministrazione di pillole di conoscenze certe.
264
265
Un altro presupposto importante del progetto “Percezione e
consapevolezza della scienza” è stato la centralità del dibattito
all’interno dei gruppi; dalla discussione e comunicazione nel
gruppo (la classe così come il corso universitario) emergono
delle dinamiche tali da far crescere, da far consolidare nuove
conoscenze, del tipo di quelle definite come tacit understanding
oppure come «collective wisdom» (Condit, Parrott, Harris,
2002), non necessariamente espresse in un corretto linguaggio
scientifico, ma tali da consentire ai gruppi di partecipare in
maniera più attiva e consapevole al confronto con gli esperti.
Tale confronto, nei progetti CNR-British Council, ha luogo
principalmente in occasione della partecipazione alla conferenza ed al dibattito pubblico che seguono l’avvio del lavoro di
studio e di dibattito entro i gruppi.
Il dibattito nelle classi, sotto la guida dei/delle rispettive
docenti, costituisce la fase centrale del processo deliberativo dei
gruppi, che confluisce nella redazione di un rapporto finale di
ogni classe o istituto. Questo processo include le tre componenti di una deliberazione: stabilire qualcosa, quindi prendere
posizione; da parte di più persone riunite insieme; dopo un attento
esame, quindi dopo aver seguito le diverse fasi di studio, riflessione, confronto e dibattito.
Una ulteriore finalità del progetto è stata quella di stimolare
la riflessione non solo sul tema scientifico contingente – gli
Ogm, l’elettrosmog – ma anche sulla natura ed i valori della
scienza: ed infatti, i questionari che studenti e studentesse
hanno compilato all’inizio e alla fine di ogni progetto sono
rivolti più a registrare e stimolare la riflessione sulle modalità
di relazione con la scienza e la tecnologia, sulla percezione della
natura della scienza moderna, che non a misurare il livello di
conoscenza, di alfabetizzazione scientifica. Le attività di formazione ed informazione volte ad innalzare il livello di conoscenza ovviamente sono state considerate dai progetti in quanto
sono senz’altro premesse indispensabili per un coinvolgimento
nella scienza, tanto più che i nostri progetti si inseriscono
nell’attività formativo-didattica delle scuole superiori ed
università, ma non sono state oggetto privilegiato delle indagini realizzate con i questionari. Queste ultime, invece, hanno
fatto leva sulla consapevolezza della natura della scienza
moderna e dei suoi valori, sollecitando i giovani a riflettere
anche sulle vecchie e nuove questioni dell’universalità della
conoscenza scientifica, sul ruolo del mercato, sul significato da
dare al principio di precauzione e sulla velocità del progresso
scientifico.
I progetti di comunicazione pubblica della scienza possono
essere ispirati alle più diverse finalità e realizzati in diversi
modi e coinvolgendo diverse tipologie di persone e gruppi9. Se
dunque molteplici possono essere i contributi nella direzione
della partecipazione al dibattito pubblico, ogni progetto difficilmente può fornire una metodologia esportabile nei diversi
contesti: il progetto “Percezione e consapevolezza della scienza” non fa eccezione a questa regola e, se vale la pena evidenziarne i risultati, particolarmente importante è anche la riflessione sui problemi aperti.
Una questione ancora aperta è la funzione di agenda setting
che, inevitabilmente, chi opera nella comunicazione pubblica
della scienza concorre a produrre. Klein (1985) negli anni
Ottanta aveva colto l’importanza dell’individuazione del
quesito scientifico da risolvere, che andava ben oltre la capacità di risolverlo. Latour ha evidenziato come non siano più solo
gli scienziati ad individuare problemi ed a cercare soluzioni,
bensì anche i gruppi portatori di interessi, ad esempio le
associazioni di malati. Come possono i progetti di comunicazione della scienza non condizionare le priorità che gruppi ed
individui sociali pongono nella partecipazione al dibattito
pubblico? Come evitare, non solo i rischi di una strumentalizzazione per quanto riguarda una presunta partecipazione
pubblica non ancora definita nelle sue finalità né nelle sue
266
267
condizioni di efficacia, ma anche quelli di una forzatura nell’identificazione dei temi scientifici socialmente rilevanti?
Un’ulteriore questione riguarda direttamente i progetti che,
come quelli promossi dal CNR, uniscono finalità formative/informative a quelle di indagine o di sondaggio. Focalizzandoci sulla metodologia ed astraendo dal contenuto scientifico, vengono subito in mente gli esperimenti di sondaggio
deliberativo (Fishkin, 2003), in cui gruppi di persone si riuniscono per ascoltare le argomentazioni a favore o contro una
determinata questione e dopo averne discusso faccia a faccia,
giungono ad una decisione collettiva. L’obiettivo di incoraggiare il pubblico ad esprimere giudizi ponderati invece di decisioni affrettate, a pensare più che a fare sentire la propria voce, è
sicuramente condivisibile. Tuttavia, alcune conclusioni di
Fishkin, ad esempio trasmettere i sondaggi deliberativi in
televisione per trasformare le priorità del pubblico in genere in
priorità del pubblico impegnato, possono essere del tutto
fuorvianti. L’eccessiva enfatizzazione di forme pur sempre
sperimentali e soprattutto parziali di partecipazione pubblica
sottende rischi di distorsione se non di strumentalizzazione.
Inoltre, la disponibilità a partecipare a questi progetti risente
di un insieme di condizionamenti (territoriali, culturali, di
genere) non ancora analizzati in profondità e tali che il pubblico impegnato potrebbe risolversi in un pubblico integrato, in
linea non solo con i contenuti, ma anche con le priorità determinate dai modelli sociali e culturali dominanti.
Bibliografia
SVEVA AVVEDUTO, ROSALIA AZZARO, LUCINA FERRARIA, EMANUELA
REALE, ADRIANA VALENTE (2003), Accesso alle conoscenze scientifiche: primi risultati del progetto Public Understanding of
Science, in Aida venti, Atti del 7° Convegno nazionale Aida, a
cura di Carla Basili, Domenico Bogliolo, Roma, Aida
DAVID BLOOR (1994), Knowledge and Social Imagery, London,
Routledge & Kegan Paul, 1976 (trad. it. La dimensione sociale
della scienza, Milano, Raffaello Cortina)
BODMER REPORT (1985), The public understanding of science,
London, Royal Society
MARCELLO CINI (1997), Garantire la trasparenza, in Scienza e informazione, a cura di Jader Jacobelli, Roma-Bari, Laterza
MICHAEL COLE, SYLVIA SCRIBNER (1974), Culture and Thought: A
Psychological Introduction, New York, Wiley
COMMISSIONE DELLE COMUNITÀ EUROPEE, La governance europea:
un libro bianco, Bruxelles, 25-7-2001, COMM 2001 428
CELESTE MICHELLE CONDIT, ROXANNE PARROTT, TINA M. HARRIS
(2002), Lay Understandings of the Relationship between Race and
Genetics: Development of a Collectivised Knowledge through
Shared Discourse, in “Public Understanding of Science”, n. 11
AIDAN DAVISON, IAN BARNS, RENATO SCHIBECI (1997), Problematic
Publics: A Critical Review of Surveys of Public Attitudes to Biotechnology, in “Science, Technology and Human Values”, 22, n. 3
ILVO DIAMANTI (2004), Felicità e infelicità privata, Relazione introduttiva al convegno 1994-2004: il pendolo tra speranza e disincanto, Roma, Università di Roma Tre, 20 gennaio 2004
JOHN DOBLE (1995), Public Opinion about Issues Characterised by
Technological Complexity and Scientific Uncertainty, in “Public
Understanding of Science”, n. 4
268
269
EDNA F. EINSIEDEL (2002), Assessing a Controversial Medical
Technology: Canadian Public Consultations on Xenotransplantation, in “Public Understanding of Science”, n. 11
EUROPEAN COMMISSION (2000), Directorate General Joint
Research Centre, Conclusions of the Conference Science and
Governance in a Knowledge Society: The Challenge for Europe,
16-17 October 2000, Brussels
EUROPEAN COMMISSION (2001), Research Directorate-general,
Eurobarometer 55.2 Europeans, Science and Technology, Bruxelles, European Commission, December 2001, http://europa.eu.int/comm/public_opinion/archives/special.htm
EDWARD E. EVANS-PRITCHARD (1972), Witchcraft, Oracles and
Magic among the Azande (1937), Oxford, Clarendon Press
JAMES S. FISHKIN (2003), La nostra voce, I libri di Reset, Venezia,
Marsilio
PATRICE FLICHY (1996), L’innovazione tecnologica, Milano, Feltrinelli
LYNN J. FREWER, SUSAN MILES, MARY BRENNAN, SHARON KUZENSOF, MITCHELL NESS, CHRISTOPHER RITSON (2002), Public Preferences for Informed Choice under Conditions of Risk Uncertainty,
in “Public Understanding of Science”, n. 11
GIUSEPPE FUMAGALLI (1986), La conferenza internazionale di
Bruxelles e il Repertorio Bibliografico Universale, in “Rivista
delle Biblioteche e degli archivi”, n. 6
PIETRO GRECO (2000), Il modello mediterraneo, in “Boiler”, n. 17,
novembre 2000, http://www.enel.it/it/enel/magazine/boiler/boiler17/htlm/articoli/Greco.asp
JURGEN HABERMAS (1985), Etica del discorso, Roma-Bari, Laterza
DONNA J. HARAWAY (2000), Testimone_modesta@FemaleMan_
incontra_oncotopo, Milano, Feltrinelli
vantage of being an Expert, in “Technology and Culture”, VI
HOUSE OF LORDS (2002), Science and Society, London, Her Majesty’s Stationary Office, http://www.parliament.the-stationery-office.co.uk
EDWIN HUTCHINS (1980), Culture and Inference: A Trobriand Case
Study, Cambridge Mass., Harvard University Press
LEE ANN KAHLOR, SHARON DUNWOODY, ROBERT J. GRIFFIN (2002),
Attributions in Explanations of Risk Estimates, in “Public
Understanding of Science”, n. 11
EVELINE FOX KELLER (1996), Vita, scienza e cyberscienza, Milano,
Garzanti
J. KLEIN (1985), Hegemony of Mediocrity in Contemporary Sciences,
particularly in Immunology, in “Lymphology”, n. 18
BRUNO LATOUR (1998), La scienza in azione, Torino, Edizioni di
Comunità
BRUNO LATOUR (2001), What Rules of Method for the New SocioScientific Experiments?, Plenary lecture, prepared for the
Darmsdadt Colloquium, 30th March 2001.
PIERRE LÉVY (1996), L’intelligenza collettiva, Milano, Feltrinelli,
pp. 27 sgg.
BRUCE V. LEWENSTEIN (2003), Models of Public Communication
Science and Technology, Version: 16 June 2003
ALEKSANDR R. LURIA (1976), Storia sociale dei processi cognitivi,
Firenze, Giunti-Barbera, pp. 99 sgg.
ERIN MCLAUGHLIN-JENKINS (2003), Walking the Low Road: The
Pursuit of Scientific Knowledge in Late Victorian Working-Class
Communities, in “Public understanding of science”, n. 12
D.A. HOUNSHELL (1975), Elisha Gray and the Telephone or the Disad-
DAVID MEGHNAGI (2004), Identità, differenze e valori comuni,
Relazione al convegno 1994-2004: il pendolo tra speranza e
disincanto, Roma, Università di Roma Tre, 20 gennaio 2004
270
271
STEVE MILLER (2001), Public Understanding of Science at the
Crossroad, in “Public Understanding of Science”, n. 10
Baldazzi, Rosa di Cesare, Maria Guercio, Daniela Luzi,
Adriana Valente, Milano, Franco Angeli
SIMON NORA, ALAN MINC (1978), Rapport sur l’informatisation de
la société, Paris, Editions du Seuil
ADRIANA VALENTE (2002a), Trasmissione ed accesso alle pubblicazioni scientifiche: evoluzione storica di teorie e pratiche, in Trasmissione d’élite o accesso alle conoscenze? Percorsi e contesti della
documentazione e comunicazione scientifica, a cura di Adriana
Valente, Milano, Franco Angeli
OECD (2002), Manuale sull’informazione, la consultazione e la
partecipazione alla formulazione delle politiche pubbliche – governance, (prima versione: 2000)
WALTER J. ONG (1986), Oralità e scrittura: le tecnologie della parola,
Bologna, Il Mulino
PAUL OTLET (1908), La loi d’ampliation et l’internationalisme,
Bruxelles, Polleunis & Ceuterick
FRANCO PRATTICO (2001), Anche la parola si globalizza, diventerà più
civile e universale, in “Telèma”, n. 23, http://www.fub.it/telema/TELEMA23/Pratti23.html
Les prémisses du Mundaneum: cent ans de l’Office international de
bibliographie, 1895-1995 (1995), Mons, Editions Mundaneum
MIKKO RASK (2004), The Problem of Public Inclusion in the Finnish
Biotechnology Policy, manuscript, 14 January 2004,
http://www.hut.fi/Yksikot/Rakennus/Ymp/Julkaisut/y
msynRaskPaper.rtf
GENE ROWE, LYNN J. FREWER (2000), Public Participation Methods:
A Framework for Evaluation, in “Science, Technology and
Human Values”, 25, n. 1
MAURO SCANU (2004), Tecnologia è partecipazione, in “Galileo
Magazine”, VIII, 5 marzo 2004, http://www.galileonet.it/Magazine/mag0343/0343_4.html
ADRIANA VALENTE (2002b), Riflessioni sull’agire comunicativo di
Habermas e la comunicazione scientifica, in Trasmissione d’élite o
accesso alle conoscenze? Percorsi e contesti della documentazione
e comunicazione scientifica, a cura di Adriana Valente, Milano,
Franco Angeli
ADRIANA VALENTE, LOREDANA CERBARA (2003), Sguardo di ragazze
sulla scienza e i suoi valori, in “Aida informazioni”, n. 1
RICCARDO VIALE (2001), L’onorevole non crede alla scienza, in “Il
Sole 24 Ore”, Domenicale, 11 febbraio 2001, http://www.fondazionebassetti.org/0due/docs/viale-sole.htm
RICCARDO VIALE (2003), Scienza e politica: dialogo fra sordi, in “La
Stampa”, 6 agosto 2003, http://lgxserver.uniba.it/lei/rassegna/030806.htm
BRIAN WYNNE (1991), Knowledges in Context, in “Science,
Technology and Human Values”, 16, n. 1
WOLFENDALE REPORT (1995), Committee to review the Contribution
of Scientists and Engineers to the Public Understanding of
Science, Engineering and Technology, London
WORKING GROUP “Democratising Expertise and Establishing
European Scientific Reference Systems”, Report, White
Paper on Governance Work Area 1, Broadening and enriching
the Public Debate on European Matters, 2001
Trasmissione d’élite o accesso alle conoscenze? Percorsi e contesti
della documentazione e comunicazione scientifica (2002), a cura
di Adriana Valente, con testi di Sveva Avveduto, Anna
JOHN ZIMAN (1991), Public Understanding of Science, in “Science,
Technology and Human Values”, 16, n. 1
272
273
Note
1 Tale iniziativa era legata all’utopia del Mundaneum quale sintesi
materiale dell’‘internationalisme des idées’ (Otlet, 1908, p. 30), in quanto
insieme di repertori, centri di documentazione, studi e congressi, biblioteche, musei ed università, il tutto concepito in una prospettiva universale
ed ideale in un periodo in cui si era ben lontani dall’attuale sviluppo delle
reti di telecomunicazione.
2 Recenti riflessioni sui modelli di comunicazione della scienza e sulla
relativa letteratura si trovano in Lewenstein, 2003 e Rask, 2004.
3 Per un’evoluzione degli approcci al Pus in Gran Bretagna si vedano:
Bodmer, 1985; Wolfendale, 1995; House of Lords, 2000, Miller, 2001.
4 Nelle attività di collaborazione tra Consiglio Nazionale delle Ricerche, British Council e Fondazione Rosselli sulla percezione e consapevolezza della scienza sono stati realizzati a Bologna e a Roma due progetti
rispettivamente sul tema degli Ogm (2002-2003) e dell’elettrosmog (20032004) in cui sono state coinvolte scuole secondarie superiori ed università. Nel 2004-2005 un’analoga iniziativa si terrà a Napoli presso la Città
della Scienza sul tema dello spazio. In occasione di tali iniziative, il CNR
organizza delle indagini sulla percezione della scienza e dei suoi valori.
5 Sulla conferenza che Bruno Latour ha tenuto a Milano il 17 novembre 2003 si fa rinvio alla rassegna stampa della Fondazione Bassetti curata
da Vittorio Bertolini, accessibile al sito http://www.fondazionebassetti.org/06/bertolini/2003_12_01_archive.htm. In occasione della conferenza di Latour è stata curata da Massimiano Bucchi la call for comments
‘No Innovation without Representation’, accessibile su http://www.fondazionebassetti.org/06/cfc-latour/index.htm.
6 Nell’Eurobarometro 55.2 si fa riferimento alla scelta in generale, non
va sta all’estremo nord e lì c’è sempre la neve. Di che colore sono gli orsi?»
E la risposta tipica, pressappoco: «non so, io ho visto un orso nero, altri
non ne ho visti… ogni località ha i suoi animali». Anche Ong (1986) aveva
ripreso questo esempio nella sua analisi del pensiero situazionale piuttosto che astratto nella cultura dell’oralità. Sia Ong che Latour respingono,
ognuno dal proprio punto di vista, l’accusa di irrazionalità che potrebbe
essere mossa ai contadini nel caso riportato «L’opera di Luria – nota Ong
– mostra una comprensione del pensiero orale più profonda sia di quella
di Lucine Lévi-Bruhl, per il quale il pensiero primitivo (orale) era prelogico
e magico […], sia di quella degli avversari […], che sosteneva che i popoli
primitivi pensavano esattamente come noi». La logica formale, ribadisce
Ong, è un’invenzione della cultura greca successiva all’interiorizzazione
della tecnologia della scrittura alfabetica. «I sillogismi hanno a che vedere
con il pensiero, ma nella pratica nessuno opera mediante tali schemi
formali». Anche Latour, come Ong, si rifà a Cole e Scribner (1974) ed
osserva che i contadini dell’esempio riportato non conoscono la logica che
si apprende a scuola, quella «basata sulla capacità di rispondere a
domande prive di relazione con qualunque contesto esterno all’aula
scolastica». Insomma, «non pensare le stesse cose non equivale a non
essere logici».
8 Si veda in questo volume il contributo di Luciana Libutti Alcune
riflessioni sul ruolo della documentazione nei progetti di comunicazione della
scienza.
9 Per una valutazione comparata di alcune delle più famose tipologie
di modelli di partecipazione pubblica si fa rinvio all’articolo di Rowe e
Frewer (2000).
chiarendo se si tratti della scelta relativa all’uso, alla produzione, ai finanziamenti.
7 Uno degli esempi riportati da Latour (1998) riguarda il comportamento che non segue le regole del sillogismo rilevato da Luria (1976) in
una famosa ricerca e ripreso da antropologi e sociologi. In questa ricerca,
la domanda rivolta a contadini analfabeti dell’ex Unione Sovietica era:
«all’estremo nord, dove c’è la neve, tutti gli orsi sono bianchi. La Terrano-
274
275
Mass media e popolazione
Maura Misiti
Consiglio Nazionale delle Ricerche
Istituto di ricerche sulla popolazione e le politiche sociali, Roma
Le riflessioni presentate in questo lavoro sono riferite all’analisi dei risultati di una ricerca effettuata dall’Istituto di ricerche sulla popolazione e le politiche sociali (IRPPS) in occasione
della nascita del seimiliardesimo abitante della terra. Si tratta di
uno studio che contempla diversi approcci metodologici: a
partire dall’analisi descrittiva dei dati d’indagine relativi
all’impatto dei media sulla conoscenza, a quella delle modalità
con cui la popolazione acquisisce l’informazione e alle strategie
di memorizzazione che ne conseguono; per concludere con
l’analisi statistico-testuale degli articoli pubblicati sulla stampa
nazionale e sui telegiornali sullo stesso evento oggetto di
indagine.
La valutazione e la misurazione degli effetti dei media su
atteggiamenti e comportamenti delle audiences sono problematiche al centro di un intenso dibattito, ancora in corso, tra gli
studiosi delle diverse discipline della comunicazione. La letteratura su questo tema è quindi estremamente ampia e differenziata e presenta numerose ipotesi ed interpretazioni. Nel
settore degli studi sulla popolazione il tema degli atteggiamenti, della percezione e dei valori nei comportamenti demografici
277
ha ottenuto una crescente attenzione (Dynamics of Values in
Fertility Change, 1999; Population, Family and Welfare I, 1995;
Population, Family and Welfare II, 1998); questi studi hanno
approfondito le relazioni tra transizione demografica ed
evoluzione della società, hanno indagato il fenomeno della
diffusione della conoscenza dei problemi di popolazione
(Baccaini, Van Peer, 1999; Menniti et al., 1997; Baccaini, Gani,
2002) tra gli studenti europei, ed affrontato il tema della
distanza tra gli ideali e la loro realizzazione nella vita reale
(Population, Family and Welfare I, 1995; Population, Family and
Welfare II, 1998; Bonifazi et al., 1998, “Futuribles”, 1995). Tra i
diversi risultati consolidati interessa qui porre l’accento su
quello relativo alla scarsezza e lacunosità della conoscenza dei
fatti demografici, che caratterizza la maggior parte della
popolazione. Questo a dispetto del fatto che sposarsi, fare dei
bambini, cambiare città, lasciare la casa dei genitori o assistere
i nonni, sono eventi, decisioni, attività che appartengono alla
quotidianità della vita di tutti. Una tale superficialità è
sintomo dell’assenza di una cultura demografica solida, basata
su informazioni e conoscenze strutturate ed integrate in un
sistema educativo coerente; sta di fatto, invece, che le fonti a
cui la gente comune attinge sono soprattutto di tipo generico
ed episodico, essendo limitate quasi esclusivamente all’informazione diffusa dai media.
Da qui discendono diversi tipi di problemi: uno attinente
alla divulgazione ed alla diffusione di informazioni esaurienti
e corrette, un altro relativo alle modalità di trasmissione delle
informazioni (di contenuto e linguaggio dell’informazione
trasmessa). Un terzo e più complesso problema è quello della
ricezione, cioè dell’effetto delle informazioni veicolate dai
media sui soggetti che la recepiscono. In quest’ultimo caso è
necessario seguire il processo di formazione, di evoluzione e di
attualizzazione dei valori individuali, della loro contestualizzazione sociale e familiare; e comprendere i processi di negozia-
zione con le sollecitazioni – sempre più pressanti e coinvolgenti – che provengono dal sistema della comunicazione.
278
279
Opinione pubblica e problemi demografici
I cambiamenti demografici dei Paesi occidentali, descritti
come «seconda transizione demografica» (van de Kaa, 1988),
hanno concorso allo sviluppo di un nuovo regime demografico
caratterizzato da una fecondità stabile sotto il livello di sostituzione, da un consistente invecchiamento della popolazione e, in
una prospettiva più lunga, da un declino della dimensione
demografica complessiva. È opinione diffusa che i cambiamenti demografici avvenuti ed in corso siano in larga parte il risultato di cambiamenti sociali le cui radici risiederebbero principalmente nel progressivo mutamento nei valori e nelle norme
verso un modello più individualistico, dove diritti individuali
e self-fulfilment sono elementi chiave (Lesthaeghe, 1992).
Naturalmente – sebbene i trend demografici e le loro cause
siano simili – questo non significa che non vi siano differenze
tra i Paesi europei e che si possa parlare di uniformità
demografica. Ci sono differenze non solo nei modelli demografici e nelle loro modalità di diffusione, ma anche e soprattutto
nei valori e nelle norme che ad essi sottostanno, come numerose indagini hanno dimostrato (Population, Family and Welfare II,
1998; Values in Western Societies, 1995).
Mentre, come è naturale, questi cambiamenti sono stati
l’oggetto di ampi dibattiti nella comunità scientifica, mentre i
governi nazionali sono spesso intervenuti con azioni politiche
sollecitati dall’emergenza o dalle crisi indotte dai cambiamenti
demografici, raramente l’uomo della strada è stato interpellato
per conoscere la sua opinione. Recentemente la dimensione
dell’opinione pubblica è stata messa a confronto con quella dei
governi nazionali, o con quella degli studiosi, attraverso
indagini nazionali, spesso coordinate in network europei. Si è
dunque aperta una nuova strada di studio e di analisi dei
fenomeni demografici. Per esempio i risultati delle diverse
indagini PPA (Population Policy Acceptance) hanno consentito di
conoscere e comparare le opinioni della gente comune sui trend
presenti e futuri della popolazione, sull’evoluzione delle strutture familiari, sulla crescente presenza degli stranieri nelle
diverse realtà nazionali coinvolte nelle indagini. Tra i numerosissimi risultati delle indagini emerge far l’altro l’esistenza un
legame molto stretto tra la storia demografica di un Paese, la
sua politica governativa e le opinioni espresse dagli intervistati (Bonifazi, Kamaràs, 1998). Infatti i grandi cambiamenti
demografici che hanno interessato tutta l’Europa non sono
ancora metabolizzati in un comune sentire, non hanno prodotto reazioni comuni nelle politiche governative e nelle opinioni
della gente, tant’è che peculiari differenze nazionali connesse al
recente passato permangono tuttora. A spiegazione di queste
persistenti differenze, vanno ricordate le grandi divisioni di
cultura, storia e tradizioni ancora esistenti non solo tra i diversi
Paesi ma anche all’interno delle singole realtà nazionali. Il
processo di unificazione europea è ancora storicamente troppo
acerbo per dare risultati in questi settori, e soprattutto bisogna
tenere conto che finora è stata privilegiata una integrazione
economica più che culturale e sociale.
The European Value Survey (EVS) – condotta in dodici Paesi
nel 1981 e nel 1990 – ha la finalità di indagare sui valori fondamentali della cultura europea, e di seguirne l’evoluzione nel
tempo. L’obiettivo è quello di individuare – attraverso la
tecnica del sondaggio di opinione – il sistema dei valori degli
europei. Si tratta di un approccio che contempla la prospettiva
psicologica e quella sociologica, recuperando la dimensione
individuale dei desideri, delle attitudini della persona in
relazione ai grandi problemi attuali delle istituzioni e delle
norme sociali. Quello che per noi demografi è interessante è
l’intreccio tra modelli culturali, loro evoluzione nel tempo ed il
confronto con i comportamenti, in particolare con quelli che
sono legati alla fecondità, al matrimonio, alle relazioni di
coppia, all’essere genitori.
L’analisi dei risultati delle diverse ondate dell’indagine ha
dato luogo ad una amplissima letteratura di cui è impossibile
in questa sede dare un seppur sintetico rendiconto, considerando anche il variegato ventaglio di interpretazioni che li corredano. Qui interessa evidenziare uno dei punti emersi dall’analisi dei dati: la discontinuità, il rapporto non causale che lega
valori, opinioni e comportamenti. Questo appare particolarmente vero nel campo dei valori relativi alla famiglia, al matrimonio, all’avere figli ed alla sfera delle relazioni sessuali.
Louis Roussel, commentando i dati di due indagini EVS
svolte a distanza di dieci anni, alla ricerca di uniformità, similarità o divergenze tra Paesi europei arriva alla conclusione che –
a fronte di una tendenza alla convergenza dei macro-comportamenti demografici relativi alla famiglia – è impossibile stabilire un’eventuale egemonia di un modello di riferimento, ma
soprattutto riconosce l’incertezza del dato valoriale, soprattutto ai fini della predizione dei comportamenti (Roussel, 1995).
Come emerge anche da altri studi sugli stessi dati, spesso
affiora una ambiguità tra i valori individuali dichiarati e quelli
socialmente consolidati; esemplare a questo proposito il caso
dei Paesi mediterranei, dove a fronte di comportamenti rari o
poco diffusi (come il divorzio o le coabitazioni), trovano espressione posizioni molto permissive sulla libertà sessuale, tanto da
distanziare sia la media dei Paesi europei che le opinioni dei
Paesi del nord Europa.
Da un altro punto di vista e con strumenti analitici differenti, ma sempre in riferimento a queste indagini, Simons afferma
che a livello nazionale «the cultural determinants of nonconformist sexual behaviour were not the same as the determinants of fertility, that ideas about forms of partnership could
280
281
vary independently of ideas about parenthood, and, that,
although there had been a shift towards pragmatism, fundamentalist ideas about childbearing remained influential in
most countries» (Simons, 1999, pp. 96-97).
Dunque i meccanismi che legano le opinioni, i valori ed i
comportamenti sono ancora oggetto di dibattito, sullo stesso
funzionamento della trasformazione di valori e della traduzione di questi in comportamenti, i risultati delle ricerche non
hanno fatto una completa chiarezza, anzi si palesa una certa
difficoltà a definire una teoria, un modello che risolva il problema dell’azione dei valori nel comportamento sociale, anche
perché questo è anche sottoposto ai vincoli ed alle logiche del
contesto economico e frutto di contrattazioni e strategie nella
sfera delle relazioni interpersonali (Tchernia, 1995; Roussel,
1995).
I problemi si complicano ancora di più se introduciamo nel
ragionamento un’altra variabile: i fattori che intervengono nel
cambiamento di valori. Qui – accanto a quella consolidata delle
variabili socio-economiche – emerge l’importanza esercitata dai
fattori culturali ed in particolare dalla comunicazione (sia nella
sua dimensione di massa, che nelle relazioni interpersonali
come i network familiari di gruppo o di pari).
Più in generale la funzione della comunicazione di massa
nella trasmissione di valori e di stili di vita e nella formazione
delle opinioni è un tema di grande attualità che apre nuove
prospettive di analisi e di interpretazione, ma che al tempo
stesso ne moltiplica le difficoltà.
Il rapporto fra l’informazione demografica ed i media –
specialmente in Italia – rappresenta un tema estremamente
sensibile se si considera che, fino a poco tempo fa, la popolazione era considerata un obiettivo ‘politico’, suscettibile di
manipolazioni o interpretazioni ideologiche, di forte impatto
emotivo; al contempo la conoscenza dei fenomeni demografici
non sembra poggiarsi su una base conoscitiva solida (Palomba,
Righi, 1993; Adamson et al., 2000). Ricerche recenti svolte tra gli
studenti delle scuole superiori hanno dimostrato che i giovani
europei non sono educati ad una cultura demografica né
dispongono di informazioni corrette che consentano una riflessione critica sui fenomeni di popolazione (Baccaini, van Peer,
1999; Menniti et al., 1997, Les questions de population, 1995;
Baccaini, Gani, 2002). Inoltre dalle numerose indagini IRPPS
sulla conoscenza e le opinioni degli italiani in materia di
popolazione sappiamo che le informazioni a disposizione
dell’uomo comune su temi come il calo della fecondità o più in
generale le dinamiche demografiche sono abbastanza buone;
mentre su quegli argomenti che comportano un coinvolgimento emotivo e personale più forte (come ad esempio la percezione della presenza di immigrati stranieri o il declino numerico
della popolazione italiana) grava un bias ideologico che fa
ipotizzare una scarsa base conoscitiva (Bonifazi et al., 1998; Vita
di coppia e figli, 1987; Crescita Zero, 1991).
In effetti, per gli italiani l’unica fonte di conoscenza/informazione nel campo dei fenomeni demografici è rappresentata
dai media. Gli stessi decisori politici nell’esercizio della loro
attività non sembrano fondare le loro decisioni su conoscenze
corrette e complete su temi come l’invecchiamento, l’immigrazione e in genere le dinamiche demografiche o – più in generale – non sembrano aver stabilito uno scambio sistematico con il
mondo scientifico. Non c’è dubbio tuttavia che la questione
demografica ha conquistato spazi crescenti sui media italiani
soprattutto in funzione della visibilità offerta dalle cosiddette
emergenze demografiche, come i ripetuti sbarchi di clandestini,
la crisi del sistema pensionistico o il calo progressivo della
282
283
Le opinioni, la conoscenza le fonti della conoscenza,
il ruolo dei media
fecondità. È importante perciò valutare se all’aumento di attenzione corrisponda un analogo incremento della ‘qualità’
dell’informazione. I comportamenti relativi alla coppia, alla
famiglia, all’essere genitori, all’allevare i figli sono argomenti
che non necessitano un esclusivo approccio o supporto scientifico, appartenendo alla vita quotidiana di tutti; possiamo anzi
dire che questi temi sono il territorio privilegiato di pubblicazioni, di programmi televisivi e radiofonici non solo di informazione, ma soprattutto di intrattenimento come le telenovelas,
i serial televisivi, le soap operas o le rubriche dei giornali femminili. Vedremo come e se i messaggi veicolati e trasmessi sono
recepiti, trasformati e metabolizzati dai consumatori o dai
fruitori di questi media. Finora l’attenzione degli studiosi di
popolazione verso questa convergenza è stata piuttosto limitata, ma ha dato risultati e contributi importanti. Per esempio in
Italia negli ultimi quarant’anni il contributo fornito dai giornali femminili alla diffusione di nuovi ruoli all’interno della
famiglia, e alla formazione di nuovi atteggiamenti culturali
verso l’essere genitori e la famiglia, è stato senz’altro rilevante,
attraverso la divulgazione ad un grande pubblico femminile
dei nuovi valori e comportamenti, sanciti anche dalla nuova
legislazione sulla spinta dei movimenti femministi e giovanili
(Palomba, 1994).
Un ruolo del tutto nuovo, ma che appartiene in pieno a
questo campo di studi, è quello relativo all’uso dei mass media
per diffondere messaggi relativi a politiche di controllo delle
nascite, come dimostra l’esperienza di Westoff (Westoff, 1999)
nei Paesi in via di sviluppo, la cui efficacia è anche confermata dallo sviluppo di settori come quello privato che producono programmi, soap operas televisive e radiofoniche «to
motivate individuals to adopt new attitudes and behaviours
that foster reproductive and sexual health, gender equality,
and environmental protection» (Population Communication
International, 2001).
Anche gli studi sulla recente transizione demografica in
Brasile hanno messo in evidenza il ruolo strategico della televisione – ed in particolare delle famose telenovelas – nel diffondere, rafforzare e istituzionalizzare nuovi modelli di orientamento dei valori e norme di comportamento relative alle preferenze nelle dimensioni della famiglia e nel controllo della fecondità (Faria, Potter, 1999).
Emerge dunque una gamma articolata di ruoli ed effetti
esercitati dai diversi media: dall’informazione giornalistica, ai
messaggi diretti ad influenzare gli stili di vita, a quelli più
emotivi e profondi. Ad ogni medium può essere ricondotto un
target specifico nel mercato dell’informazione: i messaggi sono
calibrati per l’audience selezionata e ricondotti nell’ambito del
linguaggio specifico del mezzo.
284
285
Il ruolo dei media sulla conoscenza degli italiani
in tema di popolazione
L’indagine IRPPS sui sei miliardi di abitanti è stata effettuata con un doppio obbiettivo: quello di valutare la conoscenza
degli italiani sulle dinamiche demografiche mondiali, europee
e italiane, e quello di stabilire il ruolo giocato dai media nel
diffondere tali informazioni. L’occasione è stata l’annunciata
nascita del seimiliardesimo abitante della terra (12 ottobre
1999), che ha coinciso con la presentazione in tutto il mondo del
Rapporto UNFPA Sei miliardi: è l’ora delle scelte. Due settimane
prima di quella data è stata effettuata la prima rilevazione; la
seconda, avvenuta alla fine del mese di ottobre 1999, oltre alle
stesse domande sulla conoscenza ne chiedeva fonti e modalità
di acquisizione. Attraverso la comparazione tra le risposte delle
due ondate di indagine è stato possibile valutare l’impatto
divulgativo delle informazioni in tema di popolazione ed il
ruolo esercitato dai diversi media osservati. Come è già emerso
da diverse indagini nazionali ed europee (Population, Family
and Welfare II, 1998; Baccaini, Van Peer, 1999; Adamson et al.,
2000; Bonifazi et al.,1998) la conoscenza delle questioni
demografiche è mediamente scarsa e solo alcuni segmenti di
popolazione, le persone con un buon livello di istruzione per
esempio, possiedono un’informazione di base discreta: anche
in questo caso solo una minoranza di italiani è stata in grado di
rispondere correttamente al quesito sull’ammontare della
popolazione mondiale nella prima indagine IRPPS. Confrontando i risultati delle due ondate si è riscontrato che l’effetto
della campagna mediatica è stato rilevante in quanto ha migliorato la correttezza delle risposte di dodici punti percentuali: se
nella prima indagine solamente l’11% degli intervistati affermava correttamente che il nostro pianeta fosse abitato da sei
miliardi di individui, nella seconda tale valore è più che
raddoppiato (23%). Infatti nei giorni intorno al 12 ottobre la
copertura dell’evento è stata elevatissima in tutto il mondo:
fondamentalmente il ruolo dell’informazione è stato di sintonizzare sul numero giusto chi già ne aveva in testa uno, ossia di
correggere un’informazione preesistente, mentre non sembra
che le informazioni diffuse dalla televisione o dai giornali
abbiano agito su coloro (la maggioranza, 55%) che non sapevano o non ricordavano quale fosse la dimensione della popolazione mondiale. Si tratta di un fenomeno interessante, in
quanto mette in luce un meccanismo di apprendimento selettivo, attivo su chi in qualche modo è già sensibilizzato, ma che
non ha alcun effetto di stimolo su chi invece ignora o non è
interessato a memorizzare l’informazione.
Televisione e stampa si sono confermate i principali riferimenti per la conoscenza di base di un fenomeno demografico
come l’ammontare della popolazione mondiale, che seppure
ridotto a mera quantificazione, è denso di significato sia per la
lettura del presente che per le implicazioni con il futuro. Molto
limitato è apparso invece il ruolo delle istituzioni educative, ma
questa non è una sorpresa quanto piuttosto una conferma dei
risultati delle indagini europee svolte dall’Eopei1 tra il 1997 ed
il 1999 (Baccaini, Van Peer, 1999); altrettanto limitato è apparso
il ruolo di Internet, il cui uso è ancora fortemente concentrato
solo in alcuni specifici segmenti di popolazione.
286
287
L’analisi testuale
Sulla scorta della positiva esperienza di ricerca finalizzata
all’analisi delle caratteristiche dell’informazione demografica
(Misiti, 1999; Misiti, Iezzi, 2000), sono state applicate tecniche di
analisi testuale sull’insieme degli articoli e dei testi dei telegiornali pubblicati nei giorni immediatamente precedenti o successivi il 12 ottobre. La coincidenza di due appuntamenti (la
presentazione alla stampa del rapporto UNFPA sulla popolazione mondiale la conferenza stampa di illustrazione dei risultati della prima tranche della indagine dell’IRRPS) ha dato
luogo ad un’ampia rassegna di articoli di diverse testate sia
quotidiane che periodiche, nonché ad una larga copertura dei
notiziari televisivi, la cui consistenza ha consentito l’applicazione delle tecniche di analisi testuale. Gli obiettivi conoscitivi
di questa parte dello studio sono diversi: dall’individuazione
della struttura di fondo dell’approccio alla notizia adottato
dalle testate esaminate, all’evidenziazione delle differenze e
delle omogeneità di trattamento dell’informazione tra i gruppi
di giornali, all’individuazione delle specificità e del linguaggio
caratteristico d’ogni gruppo di testate, al confronto con il
linguaggio contemporaneo. Ognuno di questi risultati è stato
ottenuto attraverso una specifica tecnica di analisi statistica:
l’analisi delle corrispondenze, la cluster analysis, l’analisi delle
specificità di forme e frasi del testo, e la comparazione con il
linguaggio contemporaneo attraverso il confronto tra il corpus
della rassegna stampa ed il POLIF (una lista di unità lessicali,
provenienti da un campione di oltre quattro milioni di occorrenze di linguaggio contemporaneo).
L’analisi è stata condotta sui testi degli articoli raggruppati in
gruppi omogenei. I quotidiani locali sono stati suddivisi in base
all’area geografica di appartenenza della sede di pubblicazione.
Tutte le categorie di testate2 sono entrate attivamente nell’analisi, determinando una elevata ricchezza di vocabolario (58%).
Il modello complessivo della comunicazione si può sintetizzare attraverso l’interpretazione dei risultati dell’analisi delle
corrispondenze lessicali effettuata sui testi trattati. In particolare la struttura latente dei dati si desume dall’interpretazione
dei primi fattori individuati dalla metodologia. Ogni fattore si
può rappresentare con un asse cartesiano ed è caratterizzato da
parole che si situano lungo il grafico, quelle che più lo qualificano sono poste agli estremi degli assi. Il primo – responsabile
dell’assorbimento della maggior parte della variabilità –
esprime l’approccio alla notizia adottato dall’insieme delle testate
esaminate. Sul versante positivo le parole che lo definiscono
rappresentano l’attualizzazione della notizia in chiave europea
o più in generale il ‘punto di vista’ dei Paesi sviluppati: si
situano infatti in quest’area del grafico parole che appartengono al lessico demografico tipico di queste realtà: <figlio unico>,
<genitori>, <coppia>, <famiglia>, e <mortalità>; associate a
parole ed espressioni come <riduzione>, <salute riproduttiva>,
<cristiani>, <lavoro>, <economico>, <spendere> e <quinto più
povero> che mettono in evidenza le preoccupazioni del primo
mondo (inteso in senso lato in quanto sono pure chiamati in
causa Stati Uniti e Giappone) poste dalla crescita della popolazione mondiale. Sul versante opposto l’approccio è più giornalistico, vi è spazio per la cronaca della notizia (<baby 6 miliardi>, <12 ottobre>, <ospedale>, <luce>, <terra>, <nato>,
<Sarajevo>, <ONU>), con un taglio giornalistico corredato
dall’approfondimento, (caratteristico dei magazine di informazione che infatti ricadono in quest’area del grafico fattoriale),
attraverso l’uso di termini del lessico scientifico (<modello>,
<previsione>, <incremento>, <crescita demografica>), ma
anche di enfatizzazioni tipiche del linguaggio giornalistico
come <bomba> e <esplosione demografica>.
Il secondo asse fattoriale rappresenta la fonte delle informazioni, il riferimento cioè ai due rapporti di ricerca oggetto delle
conferenze stampa che hanno coinciso con la data simbolica del
12 ottobre indicata dall’ONU. Un lato dell’asse rappresenta il
riferimento al rapporto UNFPA ed è infatti connotato – oltre
che dalla sigla stessa dell’organizzazione – dalla dimensione
internazionale, dai Paesi in via di sviluppo, dalle problematiche sottolineate dal rapporto come la <povertà>, la <salute
riproduttiva>, <esseri umani>, da verbi come <dare>, <fare>,
<venire>, da termini come <scelta>, <campagna>, <organizzazioni> <conferenza>, <conseguenze>, che indicano la cifra
operativa caratteristica del contenuto del rapporto UNFPA. Sul
versante opposto si trovano nette indicazioni all’indagine
dell’IRP3 sulla conoscenza degli italiani delle tendenze della
popolazione mondiale, sia come uso di termini ‘tecnici’
(<risposta>, <campione>, <interviste>, <demografia>, <tasso
di fertilità>), che come problematiche trattate (<pensioni>,
<immigrazione>, <assistenza>) connesse alla realtà italiana,
che come oggetto di analisi (<popolazione italiana>, <numero
abitanti>), un uso di verbi (<consumare>, <spendere>,
<ammontare>, <sapere>, <non sapere>) che connotano l’accezione più specifica e locale dell’informazione fornita. Non a
caso su questo lato dell’asse sono posizionate le agenzie di
stampa che hanno privilegiato la dimensione descrittiva più
strettamente legata alla realtà italiana, e lo stile giornalistico
caratteristico è meno interpretativo e più sobrio (raro l’uso di
aggettivi e di espressioni enfatizzanti).
La terza chiave di lettura, rappresentata appunto dal terzo
fattore, esprime la contrapposizione tra Nord e Sud del mondo ed i
relativi problemi che li caratterizzano, così come sono stati
288
289
trattati dagli articoli selezionati. Su un lato compaiono in modo
esplicito l’<India> e la <Cina>, i due giganti demografici
opposti agli <Stati Uniti>. Associate a queste connotazioni
geopolitiche troviamo parole che esprimono problematiche
connesse alla crescita della popolazione mondiale e tipiche di
ciascuna area: <lavoro>, <figlio>, <donna>, <nascita>, <cibo>,
<nord> e <sud>, <accesso>, <assistenza>, <guerra>, <tasso di
fertilità> per la prima; <spendere>, <consumare>, <dollari>,
<riduzione>, <campagna>, <salute riproduttiva>, l’aggettivo
<troppo> e quello <povero>.
La disposizione dei gruppi di testate sui piani fattoriali indica
l’esistenza di modelli di approccio alla notizia differenziati
almeno per tre tipologie di giornali (periodici, stampa cattolica e
agenzie di stampa) che, sul primo piano fattoriale, si distinguono nettamente dagli altri gruppi localizzati invece intorno al
baricentro degli assi. Una specifica posizione assumono i quotidiani indipendenti in relazione alla lettura di tipo internazionale data della notizia. L’analisi fattoriale contribuisce ad individuare il modello di senso, la struttura latente del linguaggio
della stampa sullo specifico evento demografico; in sintesi
possiamo affermare che le tematiche selezionate dai giornalisti –
quindi le informazioni ed i messaggi trasmessi ai lettori – sono
nel complesso complete e corrette, in quanto colgono sia la
dimensione globale, internazionale del tema principale, che le
sue connessioni con la dimensione locale, ma in senso lato, senza
forzature provincialistiche, assumendo una visione sovranazionale, europea o di lettura economico-culturale come quella del
mondo occidentale contrapposto al Sud. Vi è anche uno sforzo di
collegare alla cronaca dell’evento le problematiche conseguenti,
alla scala geografica, sociale ed economica individuata.
Inoltre l’uso limitato di enfatizzazioni attraverso aggettivi o
espressioni emotive – caratteristica peraltro spesso riscontrata
nel linguaggio giornalistico – fa sì che l’informazione nel suo
complesso non induca ad un approccio stereotipato o superficiale. Infine la presenza di numerosi termini ‘tecnici’ fa pensare
ad un positivo allargamento del lessico nella direzione di un
inglobamento ed una diffusione di espressioni di uso scientifico, meno suscettibili di fraintendimenti e distorsioni.
Poiché l’informazione raccolta proviene da fonti giornalistiche diverse ci è sembrato importante analizzare l’approccio ed
il trattamento dell’informazione da parte dei gruppi di testate
(aggregati per tipologia ed ispirazione culturale o politica), al
fine di valutare se sussistono differenze, bias o chiavi interpretative che utilizzino temi, problematiche o notizie in modo
differenziato, o usino un linguaggio specifico e caratteristico.
Con questi obiettivi abbiamo applicato due tecniche dell’analisi testuale che supportano questo tipo di analisi, l’analisi del
linguaggio caratteristico e l’analisi classificatoria, il cui uso
congiunto ci ha consentito di osservare le differenze e valutare
l’aggregazione utilizzata a priori.
Il primo tipo di applicazione fa riferimento alla frequenza
d’uso delle parole all’interno di ciascun gruppo di giornali:
caratteristiche sono considerate non solo quelle sovrautilizzate
(rispetto all’insieme del vocabolario del corpus) ma anche
quelle sottoutilizzate. Da queste analisi emerge un’elevata
differenziazione di approccio ed una forte connotazione di
specificità di trattamento del tema, di volta in volta rivolta al
target particolare di ogni gruppo di giornali, e coerente nel
complesso con la tipologia attesa delle aggregazioni4.
Come abbiamo già visto, le agenzie di stampa centrano i
loro comunicati soprattutto sulla trasmissione della cronaca
circostanziata dell’evento, privilegiando la dimensione locale,
nazionale in questo caso; le parole più usate sono quindi di tipo
descrittivo e legate all’indagine dell’IRP (<IRP>, <sapere>,
290
291
Analisi per tipologie di testate giornalistiche
<intervistato>, <italiani>, <domani>), mentre meno degli altri
gruppi sono <figlio> e <bambino>, più specificamente legate
alla scala globale della nascita dei seimiliardesimo abitante
della terra. Molto specifici sono i termini che emergono dai
giornali e magazine di ispirazione cattolica: qui il legame con il
lessico caratteristico (<cristiani>, <campagna ecclesiale>) è
immediato, ma anche emerge la connessione con tematiche
oggetto di grande interesse da parte del mondo cattolico come
il problema del debito dei Paesi del terzo mondo o il tema della
contraccezione, corollario della lettura cattolica dei problemi di
crescita demografica. La notizia della simbolica visita di <Kofi
Annan> a <Sarajevo> – ripresa dalla maggioranza dei media –
non è invece altrettanto utilizzata da questo gruppo di giornali, che sottoutilizzano anche i riferimenti ai macro aggregati
come <popolazione>, <Terra>, <abitanti>, <città>. L’approccio
dei giornali politici di sinistra privilegia l’uso di termini più
‘leggeri’ come <mister> o <miss> <6 miliardi> sintomatici di
un’impostazione originale e accattivante, ma meno approfondita o problematica, anche se tra le parole caratteristiche
troviamo <tasso di fertilità> e <assistenza>. Interessante è il
taglio che emerge dai giornali di centro: l’accento è posto sulla
lettura in chiave economica e storica dell’evento; la citazione di
<Malthus> accompagnata da <teorie> ne è il segno, coerentemente appaiono i termini <sovrappopolazione> e <politica di
controllo>, mentre l’elemento valutativo-emotivo è dato dall’uso di <disastro>. Di conseguenza prevalendo l’aspetto interpretativo, meno trattato risulta quello cronachistico, sicché
parole legate alla descrizione del tema come <6 miliardi>,
<bambino>, <UNFPA> e <italiani> risultano meno utilizzate
che altrove. I quotidiani di destra sembrano sottolineare la
dimensione nazionale dell’evento, considerando che le parole
più utilizzate sono <Italiani> e <realtà italiana>, mentre
<mondo>, <Sarajevo> e <bambino> sono più rare.
Per quanto riguarda il gruppo dei quotidiani indipendenti
nazionali di maggiore diffusione, la chiave di lettura adottata
punta al cuore del problema nella sua dimensione globale, la
connessione tra la crescita demografica e le problematiche
politiche di equilibrio internazionale sono rese dall’uso più
frequente rispetto agli altri gruppi della parola <figlio>, qualificata dagli aggettivi <indiano> e <cinese>, dal riferimento alla
<guerra>, e dall’uso dell’aggettivo <fatale>, che riveste di
drammaticità narrativa l’evento.
L’attenzione dei periodici femminili è concentrata sul tema
della <fecondità>, sul problema della crescita demografica e
delle <proiezioni>, sul confronto tra l’Italia con le sue caratteristiche di ‘eccentricità’ demografica e gli altri Paesi del Sud del
mondo con i problemi di <rapida> <crescita> e <sovrappopolazione>.
I periodici di informazione presentano, come già notato
nell’esame degli assi fattoriali, un approccio al tema di ampio
spettro, in cui trovano spazio sia gli aspetti descrittivi dell’evento che elementi di approfondimento trattati anche attraverso l’uso di termini mutuati dal linguaggio tecnico-scientifico
(<dinamica demografica>, <tasso di natalità>); questa caratteristica senz’altro interessante, è anche dovuta alla tipicità della
pubblicazione, connotata da un diverso approccio alla notizia,
meno legato alla sua attualità e più suscettibile all’approfondimento. Il taglio utilizzato dai quotidiani locali dà ampio risalto
alla cronaca dell’evento mediatico ‘costruito’ dall’ONU: tra le
parole più frequenti troviamo infatti tutti i termini che descrivono la visita di <Kofi Annan> all’<ospedale> di <Sarajevo>, il
<parto> avvenuto a <mezzanotte>, mentre più marginali sono
gli aspetti ‘problematici’ della notizia, comprese le connessioni
con la realtà italiana; in breve esprimono un approccio più
descrittivo che interpretativo. In questo approccio tuttavia
notiamo che i giornali del Nord tendono a sottolineare la
relazione tra la <crescita> <demografica> ed eventi drammatici come <guerre> ed <epidemie>. I tre gruppi di quotidiani
292
293
locali mostrano una forte omogeneità di comportamento
emergente da una stabile posizione rispetto alle tre proiezioni
fattoriali, a dimostrazione di un approccio affine a prescindere
dall’area geografica cui appartengono.
I telegiornali, per loro natura, hanno un approccio sintetico
alla notizia, prettamente descrittivo dell’evento: è <nato>
<simbolicamente> all’ <ospedale> di <Sarajevo> il <baby> <6
miliardi>, alla <mezzanotte>. Le parole sottoutilizzate, i temi
‘mancanti’ nei telegiornali, sono relative dunque all’interpretazione delle implicazioni economiche e sociali dell’evento:
<acqua>, <sviluppo>, <umanità>, <fecondità>, <invecchiamento>, per il contesto nazionale (<Italia>) e <mondiale>.
Il confronto con il linguaggio contemporaneo
Con valori elevati dell’indice si trovano, a seguire, i termini
del linguaggio ‘tecnico’ della demografia: <natalità>, <fertilità>, <invecchiamento>, <mortalità> e <fecondità>, ed i termini
che rimandano alle problematiche poste dalla crescita
demografica: <epidemie>, <cibo>, <acqua>, <infettive>,
<contraccezione>, <malattie>, <futuro>.
L’approccio giornalistico, di cronaca, rilevato nelle precedenti analisi, è in questa fase rappresentato dall’uso, peculiare
rispetto al linguaggio contemporaneo, dei termini descrittivi
dell’evento oggetto di interesse: <Onu>, <baby>, <miss> e
<mister>, <simbolico>, <benvenuto>, <mezzanotte>,
<evento>, <ospedale>.
Parole chiave sono anche i termini relativi ai rapporti di
ricerca presentati dall’UNFPA e dall’IRP: <demografia>,
<intervistato>, <sondaggio>, <dati>, <campione>, e quelli
specifici del lessico scientifico: <crescita>, <incremento>.
I termini sottoutilizzati (rari negli articoli rispetto al POLIF)
sono <lavoro>, <casa>, <società>, <scuola>, <chiesa>, e i riferimenti ad alcuni dei principali cardini intorno ai quali ruota
l’organizzazione della vita occidentale, <governo>, <politica>,
<società>, che non vengono inseriti nel contesto del discorso
relativo alla crescita demografica mondiale.
Il vocabolario dei termini usati negli articoli è stato confrontato con il POLIF5 per individuare, dal confronto dell’uso delle
forme comuni alle due liste, le ‘parole chiave’ del corpus degli
articoli, ovvero le parole che in essi vengono utilizzate in
maniera specifica e rara, più o meno frequentemente rispetto al
linguaggio di riferimento.
Il confronto tra i vocabolari è stato effettuato mediante lo
scarto tra l’uso normalizzato per 1.000.000 di occorrenze delle
stesse parole nei due corpus. Il valore positivo dello scarto
indica sovrautilizzo del termine negli articoli rispetto al
linguaggio di riferimento, il valore negativo il sottoutilizzo: il
forte uso di una parola in un corpus ne indica quindi una
peculiarità di contenuto, mentre il basso uso ne indica la rarità.
I termini specifici, sovrautilizzati rispetto al linguaggio contemporaneo, risultano essere relativi proprio all’oggetto degli
articoli: con il valore più elevato dello scarto uso normalizzato
emerge infatti l’aggettivo <demografico>, considerato in tutte
le sue flessioni.
È chiaro che i mass media hanno un’enorme importanza
culturale e, tra tutti, la televisione, il medium più diffuso e
popolare, in grado di offrire una diversificazione ed una diversità al momento irraggiungibile dai media a stampa e dagli altri
mezzi. Il modo in cui i mass media interpretano il mondo
modella la nostra esistenza e la nostra partecipazione all’interno della società. Usando una felice definizione possiamo dire
con Moores che la televisione può essere considerata «the site
294
295
Conclusioni
of convergence that joins the private world of the home with
the larger public worlds beyond the front door» (Moores, 1993).
A questa grande e crescente importanza si accompagna, come
abbiamo visto, un’altrettanto crescente difficoltà di individuazione degli effetti sui comportamenti, le opinioni ed il sistema
dei valori così come di definizione delle audiences. Infatti non si
tratta solo di considerare e analizzare le caratteristiche in
mutazione dei consumatori di media in un settore in perenne
evoluzione, ma anche di tenere in conto l’aspetto globale del
sistema di comunicazione, includendo per esempio le implicazioni della occidentalizzazione sulla cultura ed i comportamenti
delle popolazioni non occidentali6.
Considerando questi problemi dall’angolo visuale dello
studioso di popolazione vi sono diversi elementi di interesse,
che vanno dall’influenza che i media possono avere sui comportamenti connessi alla sfera familiare, all’utilizzazione dei media
per veicolare valori, messaggi e conoscenze, in una parola per
divulgare ‘politiche’ inerenti la popolazione. Ciò significa introdurre una distinzione di approccio e di studio modellata rispetto alle esigenze conoscitive: per quanto riguarda il primo tipo
di problemi sembra indubbio che gli studiosi di popolazione
debbano allargare la visuale teorica e la strumentazione analitica interagendo con gli studi e le discipline che affrontano i temi
della comunicazione e dei suoi effetti. Se invece l’obiettivo è
quello di utilizzare i media per specifiche istanze di comunicazione, è importante capire e approfondire i meccanismi propri
dei diversi media, dallo studio dei fruitori/consumatori, all’analisi dei contenuti (i testi) e del linguaggio, per trarre indicazioni sulle modalità di ricezione e l’impatto delle comunicazioni. L’esperienza dell’IRPPS, il percorso seguito nella presentazione del caso di studio sull’Italia e l’indagine sul seimiliardesimo abitante della terra, vanno appunto in questa direzione.
Come abbiamo visto, ai media è delegata in gran parte la
missione di divulgare notizie relative ai problemi di popolazio-
ne, ma il supporto degli addetti ai lavori, che possono tentare
di veicolare questa informazione perché arrivi con maggior
dettaglio e correttezza possibile, è indispensabile, soprattutto
in considerazione del fatto che la cultura di base acquisita dalle
scuole non produce la giusta sensibilità verso questi temi. I
fronti su cui intervenire sono dunque due: da una parte occorre
sensibilizzare gli operatori della comunicazione a dare il giusto
risalto a queste informazioni in modo che raggiungano anche
strati di popolazione poco ricettivi, dall’altra occorre intervenire alle radici della cultura, introducendo questi temi anche
nell’istruzione di base.
296
297
Bibliografia
Dynamics of Values in Fertility Change (1999), ed. R. Leete,
Oxford, Oxford University Press
D.M. ADAMSON, N. BELDEN, J. DAVANZO, S. PATTERSON (2000),
How Americans View World Population Issues, Santa Monica,
Rand
V.E. FARIA, J.E. PORTER (1999), Television, Telenovelas, and Fertility
Change in North East Brazil, in Dynamics of Values in Fertility
Change, ed. Richard Leete, Oxford, Oxford University Press
IEN ANG (1991), Desperately Seeking the ‘Audience’, London,
Routledge (trad. it. Cercasi audience disperatamente, a cura di
E. Menduni, Bologna, Il Mulino, 1998)
“Futuribles” (1995), L’evolution des valeurs des Européens,
numéro special, n. 200, Juillet-Aout 1995
ROMANA ANDÒ (1999), Il pubblico dei media, in Dizionario della
comunicazione, a cura di M. Morcellini, M. Sorice, Roma,
Editori Riuniti
BRIGITTE BACCAINI, LOUIS GANI (2002), La population en questions Une enquête sur les connaissainces et representation sociodemographiques des elèves de terminale, in “Cahiers de l’INED”, n. 146
BRIGITTE BACCAINI, CHRISTINE VAN PEER (1999), Eopei Student
Survey on Knowledge and Perceptions on Population Issues Some preliminary results, Eopei 01
JADT 1995 - Analisi statistica dei dati testuali, a cura di S. Bolasco,
L. Lebart, A. Salem, Tomo 1, Roma, CISU, 1995
SERGIO BOLASCO (1999), Analisi multidimensionale dei dati, Roma,
Carocci
CORRADO BONIFAZI, GIUSEPPE GESANO, ADELE MENNITI, MAURA
MISITI, ROSSELLA PALOMBA (1998), Gli ideali degli italiani sulla
popolazione, in WP 01/98, Roma, IRP
CORRADO BONIFAZI, FERENC KAMARÀS (1998), Perception of
Population Issues and their Consequences: Scholars, Governements, and Public Opinion, in Population, Family and Welfare A Comparative Survey of European Attitudes, ed. Heins Moors,
Rossella Palomba, Vol. II, Oxford, Clarendon Press
L’information démographique et la presse européenne: La conference
du Caire 1994 (1995), éd. A. Silvestrini, The Hague, Etudes et
Documents, 1, EOPEI, Nidi
G. KASS (1980), An Exploratory Technique for investigating Large
Quantities of Categorical Data, in “Applied Statistics”, 29, n. 2
LUDOVIC LEBART, ANDRÉ SALEM (1994), Statistique textuelle, Paris,
Dunod
RON J. LESTHAEGHE (1992), The Second Demographic Transition in
Western Countries: An Interpretation, paper presented to the
IUSSP-IRP Seminar on Gender and Family Change, Rome,
January 1992
ENRICO MENDUNI (1996), La più amata degli italiani - La televisione
tra politica e telecomunicazioni, Bologna, Il Mulino
ADELE MENNITI, ROSSELLA PALOMBA, ROBERTO ROSSI, DANTE
SABATINO (1997), Conoscenze ed atteggiamenti degli studenti
verso le tendenze demografiche - Rapporto italiano EOPEI, WP
01/97
MAURA MISITI (1999), Demographic Information in the Italian Press,
paper presented to the European Population Conference,
The Hague, August-September 1999
Crescita Zero (1991), a cura di Rossella Palomba, Firenze, La Nuova
Italia
MAURA MISITI, STELLA IEZZI (2000), La stampa italiana e l’informazione demografica: un’applicazione dell’analisi testuale, in JADT 2000,
Actes des 5es Journées internationales d’analyse statistique des Données Textuelles, éd. M. Rajman, J.C. Chappelier, 9-11 mars 2000
298
299
SHANN MOORES (1993), Interpreting Audiences: The Ethnography of
Media Consumption, London, Sage Publications
LOUIS ROUSSEL (1995), Vers une Europe des familles?, in “Futuribles”, numéro special, n. 200, Juillet-Aout 1995
MARIO MORCELLINI (1988), Spettacolo e consumi culturali, in
Immagini della società italiana, Roma, Istat-AIS
JOHN SIMONS (1999), The Cultural Significance of Western Fertility
Trends in the 1980s’, in Dynamics of Values in Fertility Change,
ed. Richard Leete, Oxford, Oxford University Press
MARIO MORCELLINI (2000), La televisione in Italia, in Mario
Morcellini, Alberto Abruzzese, La comunicazione, Viterbo,
Stampa alternativa
PEPPINO ORTOLEVA (2000), La comunicazione di massa, in Atlante
del Novecento, a cura di Luciano Gallino, Massimo L. Salvadori, Gianni Vattimo, Vol. II, Torino, UTET
SAM PACK (2000), Reception, Identity, and the Global Village: Television in the Fourth World, in “M/C: A Journal of Media and
Culture” 3, n. 1, www.uq.edu.au./mc/0003/fourth/html
ROSSELLA PALOMBA (1994), The ‘Imaginary Family’, paper presented to the IUSSP Seminar on Values and Fertility Change,
Sion, 16-19 Feb. 1994
ROSSELLA PALOMBA, ALESSANDRA RIGHI (1993), Information and
Education in Demography, Collection of Demography,
Council of Europe Press, Strasbourg
Population Communication International, 2001, www.population.org
Population, Family and Welfare - A Comparative Survey of European
Attitudes (1995), ed. Heins Moors, Rossella Palomba, Vol. I,
Oxford, Clarendon Press
Population, Family and Welfare - A Comparative Survey of European
Attitudes (1998), ed. Heins Moors, Rossella Palomba, Vol. II,
Oxford, Clarendon Press
Les questions de population dans l’enseignement secondaire (1995),
éd. Roberta Rossi, The Hague, Etudes et Documents, 1,
EOPEI, Nidi
300
MAURIZIO SORICE (2000), Le culture del consumo, in Mario Morcellini, Alberto Abruzzese, La comunicazione, Viterbo, Stampa
alternativa
JEAN-FRANÇOIS TCHERNIA (1995), Les recherches dans le domaine des
valeurs, in “Futuribles”, numéro special, n. 200, Juillet-Aout
1995
JOHN B. THOMPSON (1995), The Media and Modernity. A Social
Theory of the Media, Cambridge, Polity Press (trad. it. Mezzi
di comunicazione e modernità - Una teoria sociale dei media,
Bologna, Il Mulino, 1998)
UNPFA (1999), Lo stato della popolazione nel mondo. Sei miliardi:
l’ora delle scelte, New York/Roma, UNFPA
Values in Western Societies (1995), ed. Ruud de Moor, Tilburg,
Tilburg University Press
DICK J. VAN DE KAA (1988), The Second Demographic Transition Revisited: Theories and Expectations, paper presented to the IUSSP
Conference on Population and European Society, Firenze
Vita di coppia e figli. Le opinioni degli italiani degli anni ottanta,
Educatori antichi e moderni (1987), a cura di Rossella Palomba,
Firenze, La Nuova Italia
CHARLES WESTOFF (1999), Mass Communications and Fertility, in
Dynamics of Values in Fertility Change, ed. Richard Leete,
Oxford, Oxford University Press
ROBERT WILLIAMS (1974), Television: Technology and Cultural Form,
London, Fontana (trad. it. Televisione - Tecnologia e forma culturale, a cura di Enrico Menduni, Roma, Editori Riuniti, 2000)
301
Note
1 European Observatory for Population Education and Information.
2 Quotidiani indipendenti, quotidiani locali (nord), quotidiani
di comunicazione. In realtà processi di appropriazione e personalizzazione dei messaggi recepiti dai media sono già osservati nel ‘Fourth
World’, reazioni complesse e articolate, la cui interpretazione va oltre
la lettura del processo di ‘colonizzazione’ da parte della cultura
occidentale, per arrivare, attraverso un’attiva partecipazione, alla
ridefinizione di una identità culturale (Pack, 2000).
locali (centro), quotidiani locali (sud), quotidiani di sinistra, quotidiani di centro, quotidiani di destra, quotidiani di ispirazione cattolica,
periodici femminili, periodici di informazione, agenzie stampa,
telegiornali.
3 IRP, Istituto di ricerche sulla popolazione, è la denominazione
all’epoca dell’indagine dell’attuale IRPPS.
4 Anche la cluster analysis applicata sui risultati dell’analisi fattoriale convalida i raggruppamenti e conferma le differenze.
5 Il POLIF consiste in una lista di unità lessicali, provenienti da un
campione di oltre 4 milioni di occorrenze di linguaggio contemporaneo (Sergio Bolasco, Adolfo Morrone, La construction d’un lexique fondamental de polyformes selon leur usage, in 4èmes Journées internationales
d’Analyse statistique des Données Textuelles JADT 1998, éd. S. Mellet,
Université Sophie Antipolis de Nice, pp. 155-66).
6 Benché si parli molto della progressiva ‘globalizzazione’ della
comunicazione, vistose differenze esistono ancora tra Paesi occidentali e PVS, lo suggeriscono le divergenze tra i risultati delle esperienze
osservate nei PVS (Westoff e Faria) che indicano sostanziali relazioni
‘lineari’ tra esposizione ai media e comportamenti riproduttivi,
contrapposte alla complessità riscontrata nelle audiences occidentali
nelle modalità di ricezione, metabolizzazione ed elaborazione dei
messaggi e delle informazioni diffuse dai media. Indubbiamente alla
radice di queste differenze vi sono le differenze sostanziali nella struttura e nelle tecnologia dei sistemi di comunicazione, e quelle relative
alla cultura ed in particolare ai differenziali educativi. Queste differenze implicano produzioni e ricezioni dei media, diversi rispetto alla
‘evoluta’ esperienza di consumo occidentale. Ma è da presumere che
molto più velocemente di quanto sia avvenuto nelle società occidentali, la funzione pedagogica dei media più diffusi, tenda ad evolvere
verso sistemi più commerciali e meno aperti a prodotti di tipo educativo, innescando quindi i meccanismi che osserviamo nei nostri sistemi
302
303
Alcune riflessioni sul ruolo
della documentazione nei progetti
di comunicazione della scienza
Luciana Libutti
Consiglio Nazionale delle Ricerche
Istituto di ricerche sulla popolazione e le politiche sociali, Roma
Premessa: essere consapevoli
C’è sempre più consapevolezza della pervasività della
ricerca scientifica nella vita quotidiana, e già da qualche anno i
governi dei vari Paesi si sono posti il problema della divulgazione della scienza al pubblico, con l’impegno di promuovere
una comunicazione ampia dei problemi prodotti e delle possibili soluzioni offerte1.
Rendendo partecipe il cittadino delle grandi questioni della
scienza, coinvolgendolo nel dibattito, nelle buone pratiche, nei
codici di condotta, si svilupperà in lui una capacità critica che
gli consentirà di formarsi una propria opinione rispetto ai
grandi temi di dibattito politico-sociali, quali la tutela dell’ambiente, i diritti umani, la pace2.
Il ruolo della documentazione nella diffusione
dei progetti di comunicazione della scienza
La tecnologia, elemento che favorisce la condivisione e il
trasferimento dell’informazione, ha prodotto nuove opportuni305
tà anche per lo sviluppo sociale e culturale della società.
In questi anni è stato prodotto numeroso materiale relativo
a progetti di comunicazione della scienza, e molto di esso è
recuperabile dalla rete Internet. La documentazione, uno dei
principali veicoli per la diffusione dei risultati della ricerca
scientifica, svolge pertanto un ruolo centrale anche nel recupero e nella divulgazione dei grandi problemi della scienza. Il suo
compito non si limita al mero recupero dell’informazione, ma si
esplica soprattutto nella valutazione critica delle risorse recuperate. La metodologia adottata implica concettualizzazioni che
sono atti di rielaborazione originali3; ne consegue che l’attività
di documentazione non è solo ricerca e mediazione tra l’autore
del documento e l’utente, ma elaborazione dell’informazione e
produzione di nuovi contenuti, attraverso una sequenza di
passi:
– nella fase di recupero, l’informazione viene individuata,
selezionata, valutata;
– nella fase di disseminazione, viene generata nuova
conoscenza.
Acquisizione, recupero, criteri di selezione, acquistano un
significato preciso: documentare serve a rappresentare l’informazione, a sintetizzarla, consentendone un corretto trasferimento nella società.
Grazie alle tecnologie dell’informazione e della comunicazione (ICT), il cittadino è in grado di documentarsi e di recuperare per proprio conto una enorme quantità di risorse dalla
rete, allo scopo di accrescere la propria cultura scientifica. Ma
spesso è difficile accedere ad alcuni documenti, saper valutare
criticamente il materiale recuperato, trovare la qualità in mezzo
alla quantità4.
Una sfida primaria per il documentalista è quella di assicurarsi che le risorse recuperate siano appropriate all’audience cui
sono destinate e che le informazioni vengano organizzate in
modo tale da generare prodotti informativi di qualità.
In un contesto di progetti di comunicazione della scienza, il
documentalista può trovarsi ad interagire con varie categorie di
utenza:
– gli specialisti (scienziati, docenti universitari, politici);
– gli studenti (scuole di diverso ordine e grado, università,
formazione permanente);
– gruppi portatori di interesse (associazioni ambientalistiche e
di volontariato, associazioni di malati);
– il grande pubblico.
Nei progetti promossi dal Consiglio Nazionale delle Ricerche in collaborazione con il British Council, sulla percezione e
consapevolezza della scienza, le categorie di utenti considerate
sono state sostanzialmente le prime due5.
Nella prima categoria rientrano tutti coloro che per il loro
lavoro hanno necessità di recuperare materiale aggiornato e
ben organizzato per avere un quadro completo sul dibattito in
atto relativamente ad un determinato argomento.
Sarà compito del documentalista fornire materiale strutturato che tenga conto dei diversi punti di vista degli scienziati,
delle azioni intraprese, a livello nazionale e internazionale.
Per la seconda categoria di utenti, è necessario fare alcune
riflessioni, particolarmente se si fa riferimento a studenti di
scuola.
L’educazione scolastica è la via più sicura per una corretta
alfabetizzazione scientifica dei futuri cittadini, e di conseguenza per il documentalista, che nella specie può essere il bibliotecario scolastico, si aprono nuove opportunità e sfide. È qui che
egli è chiamato a svolgere un ruolo centrale nella formazione
dello studente, svolgendo un doppio compito, didattico ed
educativo. Nel suo ruolo di formatore, dovrà insegnare la
corretta impostazione dei problemi, guidando lo studente in
tutti i passi necessari, mettendolo in grado di sviluppare una
capacità critica e di formarsi una propria opinione6.
Un obiettivo centrale dei progetti CNR e British Council
306
307
sopra citati è stato quello di portare all’attenzione degli studenti la ricchezza ed articolazione del dibattito scientifico. Per
questo motivo, la predisposizione di documentazione selezionata in maniera tale da contemperare le diverse opinioni degli
scienziati è stata un compito fondamentale dell’intermediazione documentaria. Su questo si è basata anche la fase, rilevantissima, di dibattito nei gruppi di studenti, che ha preceduto il
confronto con gli scienziati che ha avuto luogo successivamente nelle conferenze con dibattito pubblico organizzate dal CNR
e dal British Council.
Responsabilità fondamentale del documentalista è creare le
premesse affinché la presa di contatto dei giovani con la scienza
sia quanto più possibile esente da limiti e condizionamenti,
mediante la sua attività ‘trasparente’ di recupero delle fonti.
La conoscenza approfondita di tutti i tipi di fonti e l’esperienza nelle tecniche di recupero dell’informazione rendono il
documentalista una figura centrale nell’ambito dei progetti di
comunicazione pubblica della scienza. Egli dovrà consigliare la
via da seguire, suggerire la scelta delle fonti, stabilire i parametri per una corretta impostazione di una ricerca, che dovrà
possedere i seguenti requisiti:
– attendibilità
– internazionalità
– pluralismo
– molteplicità delle fonti.
È necessario infatti che le fonti recuperate siano scientificamente corrette, che l’ente/autore che le ha pubblicate possegga
una certa autorevolezza; si dovranno considerare i punti di vista
e le azioni intraprese dai governi nei vari Paesi e in particolare si
dovrà tener conto delle diverse teorie e metodologie scientifiche
elaborate, individuando posizioni pro e contro degli scienziati
rispetto ad un medesimo problema. Si dovrà infine considerare
il materiale elaborato dai diversi enti, quali centri di ricerca,
associazioni di consumatori, enti pubblici e privati.
Oltre alle caratteristiche accennate, il documentalista dovrà
assicurarsi che le fonti recuperate siano chiare e di facile
comprensione, poiché la maggior parte dell’informazione
disponibile è molto tecnica e specializzata, e la natura tecnica
dell’informazione può agire da barriera nella comprensione dei
grandi problemi.
308
309
Bibliografia
Note
PAOLO BISOGNO (1980), Teoria della Documentazione, Milano,
Franco Angeli
1 L’Unione Europea ha creato nel 2001 un luogo di dibattito all’interno del Piano d’azione ‘Scienza e società in Europa’ allo scopo di rendere
la scienza più accessibile ai cittadini europei. Si vedano anche alcune
iniziative intraprese nei differenti Paesi, quali il Bodmer Report, Science &
Society e Science in Society pubblicati nel Regno Unito dal 1985 al 2002; in
Italia e in altri Paesi, la creazione di Science Centers con l’obiettivo di
favorire la comunicazione tra il mondo della scuola, della scienza e della
ricerca.
2 Questi alcuni concetti alla base di ‘Scienza e società in Europa’: «Il
JEAN BROWN (1990), Navigating the 90’s - The Teacher-Librarian as
Change Agent, in “Emergency Librarian”, 18, n. 1
KATHLEEN W. CRAVER (1994), School Library Media Centers in the
21st Century: Changes and Challenges, Westport, Greenwood
Press
CAROL SIMPSON, The School Librarian’s Role in the Electronic Age,
1996, disponibile on line all’indirizzo: http://www.libraryinstruction.com/school-librarians.html
ruolo che la scienza svolge nella vita quotidiana è spesso ignorato, dato per
scontato, e il più delle volte l’opinione pubblica si mobilita solo quando la
ricerca e le nuove scoperte sollevano questioni etiche. Per questo è necessario che il pubblico sia adeguatamente informato, così che ciascuno si possa
formare un’opinione […]. Se si vuole che i progressi scientifici e tecnologici
rispondano alle esigenze dei cittadini europei e ottengano il loro consenso,
è necessario che questi dispongano di informazioni comprensibili e di
qualità e beneficino di un libero accesso a questa cultura specifica».
http://europa.eu.int/comm/research/science-society/index_it.html.
3 Cfr. Paolo Bisogno, Il Futuro della memoria - Elementi per una teoria
della documentazione, in “Prometheus”, n. 18, 1994.
4 Sulla rete navigano informazioni che si possono suddividere in due
grandi gruppi:
– informazioni decontestualizzate, che compaiono sotto forma di pagine
web, filmati, immagini, ecc., che vengono recuperate tramite l’uso dei
cosiddetti motori di ricerca e in genere offerte a titolo gratuito;
– informazioni strutturate, quali banche dati bibliografiche, archivi
fattuali, cataloghi di biblioteche (Opac), periodici elettronici, ecc.
offerte a titolo gratuito ma più spesso a pagamento.
Ricercare all’interno delle informazioni del secondo gruppo implica a
volte, oltre ad un abbonamento, una conoscenza approfondita della fonte
e delle tecniche di recupero, cioè dell’uso dei linguaggi di interrogazione.
5 Per una descrizione dei progetti si rinvia alla nota n. 4 del saggio di
Adriana Valente Comunicare la scienza per partecipare la scienza, in questo
volume.
310
311
6 Per questo profilo professionale si impone un cambiamento radicale; da più parti è avvertita l‘esigenza di formare una nuova figura di
bibliotecario scolastico, impegnata nella biblioteca scolastica multimediale. Alcune università stanno attivando corsi di laurea o master per
formare una figura professionale con competenze didattico-educative,
più consona ai nostri tempi, quella del ‘bibliotecario scolastico multimediale’. Vedi ad es. l’esperienza dell’Università di Padova all’indirizzo:
http://www.formazione.unipd.it.
Bioetica e responsabilità sociale della scienza
e della tecnologia
Elena Del Grosso
Università degli Studi di Bologna, Facoltà di Scienze
Si parla molto di scienza in questo periodo. Tutti gli
strumenti di comunicazione di massa, dalla carta stampata alla
televisione ed al cinema fanno a gara per portare a conoscenza
di un più vasto pubblico ‘le sue magnifiche sorti e progressive’.
Mai come oggi siamo stati di fronte ad un pensiero unico
dominante dove, in nome dell’intoccabilità del mito del
progresso, la scelta tecnologica sembra l’unica possibile.
La scienza entra nelle case e costruisce un ‘senso comune’
che alimenta, sostiene ed amplifica una visione dogmatica della
scienza ed una credenza fideistica nelle sue capacità di innovazione e di progresso.
Negli anni Settanta, nel libro L’ape e l’architetto, un gruppo di
scienziati epistemologi dimostrava come il progresso della
scienza fosse legato alle trasformazioni produttive, e quanto e
come la ricerca scientifica risentisse del contesto sociale (Cini et
al., 1976).
Sono passati molti anni.
Alla fine del millennio e con una guerra dichiarata finita, ma
tuttora in corso, ci ritroviamo a ripensare come e perché la
scienza e le sue ricadute tecnologiche sul sociale, anziché essere
312
313
strumento di democrazia e di giustizia sociale, siano strumento di dominio, di controllo e, purtroppo, anche di distruzione.
Al confine con il terzo millennio è tempo di bilanci e di
valutazioni. Ma è anche tempo di grandi confusioni ‘storiche’: i
miti crollano, così come le barriere. Vengono creati nuovi confini
che disegnano nuove geografie. Altri assi di simmetria sembrano tagliare il mondo. Probabilmente i nostri strumenti, quelli
che fino a questo momento erano sufficienti per un minimo di
comprensione, oggi ci sembrano inadeguati e molti/e di noi, nel
chiedersi cosa sta accadendo e quali sono le forze in campo,
cercano di trovare delle risposte, ricostruendo i percorsi che
hanno definito questo contesto storico, mantenendone la
complessità ed evitando inutili e distorcenti segregazioni.
Il mondo è cambiato. A partire dalla vecchia guerra del Golfo
sono entrate nelle nostre case la potenza delle tecnologie informatiche e la realtà virtuale. Nella società della comunicazione le
tecnologie intelligenti high-tech, quelle delle C3I (ComandoControllo-Comunicazione-Intelligence), fanno scomparire i
corpi (Haraway, 1995).
Nelle nostre società opulente il nuovo feticcio, il Santo
Graal, diventa il gene, ed il suo costituente principale, il DNA,
diventa la sostanza miracolosa in grado di determinare bellezza, salute, amore, felicità e depressione, bontà e cattiveria,
ricchezza e povertà. Questo processo di genetizzazione della
società (Lippmann, 1991) pone le sue basi nel determinismo
biologico il quale sostiene che al pari dei caratteri fisici, anche i
tratti comportamentali, così come le differenze economiche e
sociali tra i gruppi umani, derivano da distinzioni innate ed
ereditarie. In questo senso la società con le sue differenze di
sesso, di classe di razza è un esatto riflesso della biologia degli
individui che la compongono.
Il determinismo è riduttivo nella misura in cui, sostenendo
una relazione lineare di causa/effetto, dà valore ontologico alle
parti rispetto agli insiemi, ed è falso nel momento in cui crede
che tutti i caratteri, semplici o complessi che siano, possano
essere reificabili, misurabili, messi in scala gerarchica in modo
da poter distinguere un minus da un plus (Lewontin, Rose,
Kamin, 1984).
Il progetto ‘Genoma Umano’ si inserisce all’interno di
questa filosofia e con lo scopo di mappare l’intero patrimonio
genetico della nostra specie ci dirà finalmente ‘cosa significa
essere umano’. In questo senso l’individuo non è che una pura
espressione di geni e non quel prodotto, unico e complesso, di
una storia di interazioni tra geni ed ambiente, fisico, chimico,
biologico e sociale.
Ultimo e non meno importante del caso.
La costruzione della responsabilità e della colpa è alla base
dell’utilità ideologica dell’essenzialismo genetico degli anni
Novanta. Il gene, come forza deterministica, rafforza e al tempo
stesso annulla la responsabilità individuale. Fatto altrettanto
significativo, la cultura vince la sua competizione con la natura:
il destino ha finalmente un nome ed è nelle nostre mani
(Nelkin, Lindee, 1995).
Tra gli scienziati ‘sensibili’ si apre una grossa discussione
per le implicazioni sociali, etiche e politiche di un tale tipo di
scienza. La dimensione etica e politica diventa parte essenziale
dell’episteme (Cappelletti, 1990).
L’analisi del contesto della scoperta diventa sempre più
legata al contesto della giustificazione. La questione della
scelta, della libertà e della responsabilità diventa parte
integrante della riflessione sull’etica della ricerca scientifica.
Nel tentativo di capire inoltre il ruolo che le soggettività
hanno nello sviluppo della conoscenza scientifica, donne e
uomini di scienza hanno elaborato modelli epistemologici
multiculturali per far sì che la scienza, avendo a che fare con la
democrazia e la giustizia sociale, diventi parte integrante della
cittadinanza (Harding, 1998).
Se si pensa che il futuro stia nel passato e che la memoria sia
314
315
parte integrante di un processo di costruzione democratica
della società, allora anche per la scienza la riflessione deve
partire analizzando il percorso di costruzione del processo
scientifico.
I fisici per primi hanno dato il loro contributo.
Marcello Cini scrive su “Il Manifesto” a proposito del
coinvolgimento degli scienziati all’uso militare delle proprie
ricerche e cita Franco Rasetti, che nel 1943 si rifiutò di partecipare al progetto Manhattan con la seguente motivazione: «Se
vuoi costruire una bomba di 100 megatoni devi fare così e così
ma la scienza non può dirci se dobbiamo costruire una bomba
di 100 megatoni. Penso quindi che gli uomini dovrebbero interrogarsi di più sulle motivazioni etiche delle loro azioni».
Carlo Bernardini ha spesso sostenuto che solo un piccolo
gruppo di fisici coinvolti tentò di opporsi all’impiego bellico
della bomba atomica; mentre molti di essi, al contrario apparivano più preoccupati della credibilità del loro lavoro, dimostrabile
tecnicamente attraverso l’uso dell’ordigno (Bernardini, 1987).
Evelyn Fox Keller, nota esponente del pensiero delle donne
sulla scienza, e a sua volta storica della scienza, nel cercare di
dipanare l’intreccio delle influenze e delle interazioni tra norme
culturali, metafore e sviluppo tecnico, ha messo in evidenza la
possibilità che politiche pubbliche regressive non solo possano
minacciare attraverso forme di manipolazione, di descrizione e
di controllo dei corpi, la sopravvivenza dell’umanità intera ma
anche, nell’immediato, possano produrre nuove forme di
stigmatizzazioni e discriminazioni sociali come appunto quelle
genetiche (Fox Keller, 1995).
Anche noi, come Coordinamento Donne-Scienza, organizzammo nel 1992 a Bologna un convegno dal titolo Bioetica, sì,
no, perché? che, come s’intuisce, mise in evidenza i dubbi, le
perplessità e gli interrogativi aperti che ciascuno di noi aveva a
proposito delle nuove tecnologie e dell’impianto scientifico che
ne faceva da supporto.
L’etica della responsabilità, che come dice Paolo Quattrocchi, «assume nelle decisioni scientifiche come in quelle politiche le componenti e le variabili culturali che storicizzano
completamente una scelta», ponendo a monte gli interrogativi
sulle conseguenze e sui rischi, ci permise di spostare la bioetica
dai problemi terminali e dalle emergenze all’impianto più
propriamente scientifico ed epistemologico (Quattrocchi, 1984).
La cultura del dubbio e la coscienza del limite rappresentarono i punti più alti della riflessione delle donne di scienza
sulle nuove biotecnologie. Fu la risposta delle donne alla
cultura della certezza e della fattibilità (Donini, 1990).
316
317
L’etica della scienza e le norme di comportamento
degli scienziati
Negli anni Ottanta, in pieno sviluppo della sociologia della
scienza, Robert K. Merton (1981, p. 270) stilava una sorta di
codice deontologico degli scienziati riassumibile in quattro
imperativi istituzionali:
– Universalismo e Oggettività: riguarda il metodo scientifico
ed i criteri universali ed impersonali;
– Comunitarismo: obbligo morale per ogni scienziato di
rendere pubblica la propria scoperta;
– Disinteresse: non anteporre il proprio interesse personale
agli interessi della comunità;
– Dubbio sistematico: la sottomissione alle prove di verifica e
confutazione.
Tali ‘imperativi istituzionali’ si ritagliavano attorno ad
un’ideale di scienza occidentale il cui obiettivo dichiarato era
ed è sempre stato una descrizione fedele ed oggettiva della
realtà attraverso l’accumulo di fatti veri, sottoposti alle prove di
verifica e all’individuazione di relazioni universalmente valide
fra loro.
Alla fine degli anni Ottanta e successivamente negli anni
Novanta si assistette sempre più all’ingresso del pubblico nel
privato. Infatti dal 1980, quando la Corte suprema negli USA
decise che anche sulle forme viventi è possibile applicare i
brevetti, si aprì, all’interno della comunità scientifica delle
cosiddette scienze della vita, un processo caratterizzato da
profondi mutamenti sul come trattare la conoscenza scientifica.
Prima dell’emergenza della tecnologia del DNA ricombinante, la pratica della biologia molecolare era largamente
guidata dall’etica tradizionale della ricerca accademica ed il
suo impegno verso lo sviluppo della conoscenza avveniva
attraverso uno sforzo essenzialmente cooperativo e comune.
Ma da quando scienziati, enti ed università, diedero il via alla
corsa dei brevetti, questa tecnologia entrò a far parte della sfera
commerciale; le regole, le norme e le pratiche furono quelle
richieste dal commercio.
La conoscenza veniva sempre più vista come una vera
proprietà, un articolo commerciale, un prodotto privato e non
una risorsa comune. La riservatezza ed il segreto industriale
cominciarono ad inibire lo scambio di informazione e di
materiale fra ricercatori. Le tecniche di pubblicità/comunicazione commerciale arrivarono ad influenzare la disseminazione
dei risultati scientifici. Ne conseguì così che alcuni risultati
furono esclusi dal pubblico dominio, mentre altri furono esagerati al puro scopo di far intravedere possibili applicazioni di
tipo industriale. Altri ancora furono annunciati prima della
pubblicazione sulle riviste scientifiche di competenza allo
scopo di mettere in allerta gli investitori sia sull’ottenimento
che sulla protezione di eventuali brevetti (Wright, 1994).
Questo tipo di trasformazione sociale dal campo accademico, in cui fino ad allora la biologia molecolare e la tecnologia del
DNA ricombinante si erano sviluppate, a quello post-accademico, economico-industriale-commerciale, oltre ad essere estremamente veloce e ampio fu tale da annullare o almeno confon-
dere i confini tra i due campi, in modo che il travaso tra l’uno e
l’altro fosse possibile in entrambe le direzioni, ed ebbe come
conseguenza un capovolgimento nella gerarchia dei valori
inerenti al processo di costruzione della scienza, quindi, ad uno
spostamento dell’etica ‘deontologica’ proposta da Merton
(Bucchi, 2002).
Di fronte a questo mutamento profondo dalla scienza alla
tecnologia, gli scienziati, che, molto spesso, trovano comodo
godere del potere contrattuale derivato loro dal riconoscimento del peso sempre crescente che la tecnologia ha nella vita di
tutti i giorni e quindi della loro funzione sociale, rifiutano,
tuttavia, le responsabilità che derivano dal loro coinvolgimento diretto o indiretto nelle trasformazioni sociali, politiche ed
economiche indotte dal processo che loro stessi hanno messo in
atto (Guizzardi, 2002).
318
319
Lo spazio pubblico della ricerca scientifica tra etica e politica:
‘Strutturare lo Spazio Europeo della ricerca’
«Viviamo momenti assai duri per la ricerca scientifica nazionale». Commenti di questo tipo sono apparsi spesso sulla
stampa italiana in seguito alle decisioni prese in sede governativa di dare il via ai processi di privatizzazione dei maggiori
centri di ricerca istituzionali di questo Paese.
Gli scienziati scendono in piazza, firmano petizioni sulla
ricerca pubblica, si scandalizzano giustamente per i tagli ai
finanziamenti, ma ancora non è ancora chiaro come vogliono
che sia il luogo pubblico che la scienza costruisce e se il loro
obiettivo è un bene pubblico condivisibile dai molti e non nelle
mani dei pochi.
D’altra parte, le politiche governative nazionali e transnazionali, appiattite ormai sulle linee guida delle grandi istituzioni internazionali (WTO, Banca Mondiale, FMI), ridefiniscono i
confini dei luoghi della scienza allargandoli di fatto ai privati
ed al mercato.
In questo quadro è significativo che in una nota informativa
sul nuovo Programma Quadro 2002-2006 di R&S della UE si
legga che il Consiglio Europeo ha deciso una proposta per un
programma di ricerca e di sviluppo tecnologico volto ad
integrare e rafforzare lo Spazio Europeo della ricerca.
Parlare di Spazio Europeo della Ricerca e non di Progetto
Europeo della Ricerca in qualche modo significa implicitamente riconoscere che la scienza non è solo una serie di procedimenti ed un insieme di conoscenze delineate da una data collettività, definite dalle esigenze delle prove logiche e delle verifiche sperimentali, sostanzialmente autonome nello spazio e nel
tempo, ma anche un luogo abitato da una pluralità di soggetti
o di attori che non riguarda solo il corpo degli scienziati e
l’insieme delle istituzioni sociali di cui essi fanno parte, ma
anche e soprattutto la società nel suo insieme.
Il riconoscimento del coinvolgimento sociale implicito nella
definizione di uno spazio di ricerca ha tuttavia conseguenze
importanti per quel che riguarda la scala di valori all’interno
della quale una ricerca scientifica va a collocarsi. Se, come dice
Demetrio Neri, la bioetica va interpretata «come un discorso
finalizzato ad elaborare e a suggerire proposte per le politiche
pubbliche nei settori di sua pertinenza», allora il giudizio dei
fatti deve tener conto dei giudizi di valore.
Ed è all’interno di questo quadro che possiamo vedere se
questo Spazio Europeo che il sesto Programma Quadro si propone
di costruire è effettivamente uno spazio pubblico che costruisce un
bene pubblico, comune e condivisibile da tutta la cittadinanza
europea, o uno spazio privato, intento a rispondere ai bisogni di
pochi, grandi o piccoli che siano, sotto la spinta del mercato.
Ancora una volta la questione non è scientifica ma etica e politica:
il giudizio dei fatti è inseparabile dal giudizio dei valori.
Ora la Comunità Europea nel suo programma ‘Strutturare lo
Spazio Europeo della ricerca’ individua come distinte tre linee
di azione, rispettivamente atte ad integrare la ricerca scientifica, a strutturare lo Spazio Europeo della ricerca, a rafforzare le
basi dello Spazio Europeo della ricerca.
Questa separazione, che nel metodo ha il significato di
separare per competenze, per settori disciplinari e quindi per
budget le diverse aree di ricerca, nel merito separa ciò che con
grande fatica in questi ultimi anni si era cercato di rimettere
insieme: il mondo dei fatti ed il mondo dei valori. La responsabilità politica, come scelte individuali e collettive che la comunità scientifica opera costantemente, viene collocata al suo
esterno. Il giudizio dei fatti viene distinto dai giudizi di valore.
Infatti, nella nota informativa che accompagna il progetto si
precisa che ‘Integrare la ricerca’ significa individuare le aree
tematiche, favorire i progetti integrati e le reti di eccellenza.
All’interno di un budget di 12.505 milioni di euro si stabilisce
un’agenda di priorità (le sette aree tematiche) che sono:
– Genomica e nuove tecnologie per la salute (2000 milioni di
euro);
– Tecnologie della società dell’informazione (3600 milioni di
euro);
– Nanotecnologie, materiali intelligenti e nuovi processi di
produzione (1300 milioni di euro);
– Aeronautica e spazio (1000 milioni di euro);
– Sicurezza alimentare e rischi per la salute (600 milioni di
euro);
– Sviluppo sostenibile e cambiamento globale (1700 milioni di
euro);
– Cittadini e governance nella società europea della conoscenza (225 milioni di euro).
Se consideriamo le coperture finanziarie delle prime quattro
aree vediamo che esse da sole (7900/12.505 milioni di euro)
rappresentano il 63,17% dell’intero budget messo a disposizione
dello Spazio Europeo della ricerca, mentre alla sicurezza alimen-
320
321
tare ed ai rischi per la salute spetta solo il 4,9%, ed il 13,7% allo
sviluppo sostenibile ed al cambiamento globale. Ciò che rimane,
il 2% circa, a quell’area tematica che più ha a che fare con la
questione della costruzione dello spazio pubblico, con la crescita
di conoscenza, con la cittadinanza, con la democrazia.
Quando le ricerche di punta riguardano in larga maggioranza le biotecnologie legate al settore medico-farmacologico e
le tecnologie intelligenti high-tech legate all’attuale società
della comunicazione, quelle delle C3I (Comando-ControlloComunicazione-Intelligence), allora la domanda d’obbligo è:
cosa significa questo processo di conoscenza scientifica così
altamente canalizzato verso l’apparato economico produttivo
e, perché no, anche militare?
L’analisi ci restituisce una dimensione dello ‘Spazio
Europeo’ appiattita su un modello unico di sviluppo della cui
sostenibilità ci si interroga poco, e la scienza e la tecnologia
sembrano dare valore aggiunto all’Europa nella competizione a
livello del mercato globale. La produzione di conoscenza scientifica come dimensione etica, ‘bene comune’ al servizio della
cittadinanza, viene, nei fatti, marginalizzata.
Non solo. Senza escludere le buone intenzioni che si celano
dietro la promozione di progetti integrati e reti di eccellenza,
nei fatti queste politiche si traducono in finanziamenti di grossi
progetti e ampie reti in cui i piccoli ricercatori e le piccole ricerche sono destinate a scomparire. E l’effetto moltiplicatore si
farà sentire nella riduzione di interi settori disciplinari, fino alla
loro definitiva scomparsa. Complice, l’impact factor, che diventa
lo strumento ‘oggettivo’ di selezione, che distinguerà le ricerche giuste da quelle sbagliate, le buone dalle cattive.
Si arriva, e lo stiamo già vedendo, al paradosso che nei
suddetti settori di punta, a fronte di una crescita esponenziale
di dati sperimentali e di letteratura scientifica come mai si è
avuto nella storia della scienza, la ridondanza e la ripetitività
sembrano prevalere sull’originalità dei modelli proposti. Anzi,
sembrano inibire la proposizione di nuovi modelli. Diventa
quindi logico pensare che ad una così forte canalizzazione
dell’esperienza scientifica aumentino non solo i pattern di
conoscenza scientifica ma anche quelli di ignoranza.
La sfera di ricaduta di questa condizione non riguarda solo
l’omogeneizzazione ed il depauperamento della scienza, ma
tutta la società nel suo insieme. Cosa resta di quel bene pubblico comune per cui si sono mobilitate le masse di scienziati in
difesa della ricerca pubblica?
322
323
Che fare? Come ri-costruire un’etica pubblica all’interno
della sfera della cittadinanza: una proposta didattica
In una società come la nostra, ossia una società dell’informazione, lo spazio pubblico della scienza si arricchisce di nuovi
attori e la comunicazione scientifica, nello spazio pubblico, non
costituisce un’appendice della ricerca scientifica ma ne rappresenta una parte integrante. Ne diventa un’altra dimensione. «Il
sapere scientifico ingloba la comunicazione, esso è nella sua
costituzione un sapere comunicato».
Qualche tempo fa, in una lettera fatta circolare all’interno
della comunità scientifica, si comunicava che l’Associazione
Europea dei Manager della Ricerca e l’INFM (Istituto Nazionale di Fisica della Materia) stavano organizzando un corso sulla
comunicazione scientifica perché «soprattutto nella corrente
globalizzazione dei mercati sapersi rapportare con diversi
interlocutori, è necessario per sapere vendere bene il proprio
prodotto».
È vero. Il problema della comunicazione scientifica è diventato un terreno di riflessione tanto importante quanto la ricerca
che si fa in laboratorio o nei campi sperimentali, perché la
comunicazione è lo strumento del consenso che rende possibile l’impresa scientifica. La comunicazione deve arrivare a più
soggetti, diversamente frammentati. Quelli della comunità
scientifica (non necessariamente devono essere molti, anzi
debbono rappresentare l’élite competente iperspecializzata),
quelli dell’impresa (pubblica e privata) quindi competenti ma
aperti all’esterno. Una massa non necessariamente scientificamente incolta, ma che si fida di ciò che l’autorità dice, abituata
a delegare all’esperto, a credere nel mito del progresso. Come
spesso accade la storia si ripete. La comunicazione diventa lo
strumento della contrattazione del consenso intorno alla
scienza e ai suoi prodotti, e può servire a tutti gli attori,
compresi i politici in senso stretto, per costruire le basi ideologiche del loro potere.
Riflettere sulle forme di comunicazione, e in questo ha
ragione Donna Haraway, è importante tanto quanto rif1ettere
sul metodo (Haraway, 1995).
E se è vero che il pubblico deve capire la scienza, è altrettanto vero che la scienza dovrebbe capire la gente: i desideri, i
bisogni e le priorità rispettive. La conoscenza e la comprensione,
ma anche gli obiettivi e le finalità dovrebbero essere reciproci.
Da qui nasce la proposta di un corso di Bioetica all’interno
della Facoltà di Scienze dell’Ateneo di Bologna per gli studenti
di Scienze biologiche e non solo, che a prescindere dalle ipotetiche figure professionali cui un corso del genere potrebbe
contribuire in termini formativi, ha l’ambizione di aprire un
dibattito intorno alla scienza a partire anche dalle sue forme di
comunicazione, e di contribuire alla costruzione di quell’etica
pubblica necessaria alla formazione di una piena cittadinanza
fruibile anche nell’arena scientifica. Una scuola, di qualsiasi
ordine e grado, è in primis non solo un luogo fisico ma uno
spazio pubblico che va abitato e gestito politicamente nel senso
alto del termine, ossia di costruzione della polis. Quindi la
scuola dovrebbe avere come diritto-dovere quello di formare
dei cittadini che in qualsiasi luogo e a qualsiasi livello siano in
grado di esercitare la sfera della cittadinanza.
Come giustamente ricordato da Giuseppe Deiana ed Emilio
D’Orazio (2001) «Tracciare percorsi entro campi disciplinari
aperti [...] nella finalità di una promozione di un’etica pubblica
(con particolare attenzione alla bioetica) e delle ‘virtù civiche’
(la legalità, la solidarietà, l’interculturalità, la tolleranza, la
biodiversità, i diritti dell’uomo, degli animali ecc.) come valori
condivisibili su cui costruire le assunzioni di responsabilità».
Demetrio Neri la chiama «scuola di cittadinanza» e vede
nello sviluppo della formazione di una coscienza critica,
nell’autonomia di giudizio, nella capacità di confronto con la
diversità, nella flessibilità del pensiero e apertura alla novità
quelle caratteristiche comportamentali che tutti/e riteniamo
essere desiderabili per essere cittadini di uno Stato democratico (Neri, 2001).
La bioetica fino ad oggi ha lavorato sull’emergenza rincorrendo i fatti. E finché si lavora su emergenze ci si ritrova ogni volta
punto e a capo. In uno dei tanti gruppi di discussione che viaggiano in rete una ragazza, a proposito dell’educazione alla solidarietà, dice: «È difficile, ma non mi va di accontentarmi della solidarietà nelle emergenze [...]. È come per i migranti: non ci si può
accontentare della solidarietà, bisogna fare sì che l’accoglienza e la
convivenza tra etnie diverse diventino senso comune».
Ma come si costruisce un senso comune? Scarpelli dice
«Come riusciamo a penetrare nel senso comune e a modificarlo e fare in modo che ad una sacralità della vita opponiamo una
dignità della vita, o alla logica del dominio la logica della
comprensione o della solidarietà?» (Scarpelli, 1998).
Come insegnare che l’etica del genere umano, a livello globale,
mondiale o planetario che dir si voglia, ha a che fare con la
democrazia, con il riconoscimento che l’uomo è una specie tra le
specie, che l’individuo è un anello tra specie e società, che la
società umana è parte della società terrestre? (Morin, 2001).
Oggi la posta in gioco è grossa ed il cambiamento scientifico e
tecnologico procede a velocità incompatibile con l’elaborazione
324
325
culturale. Quindi, di fronte alle nuove sfide, sia l’etica religiosa
(Harding, 1991) che l’etica laica si trovano inadeguate a fornire
risposte morali. Il pluralismo etico è una condizione necessaria
ma non sufficiente. Bisogna appropriarsi degli strumenti della
critica e l’analisi va fatta alla ‘scienza quale essa è’ (science as usual).
Le questioni aperte dalle tecnologie della vita non vanno affrontate a valle, ma vanno analizzate a monte, nel proprio impianto
generale. La bioetica va intesa non come giudizio o norma da
porre a valle, ma come processo da costruire all’interno della scala
dei valori entro cui si sviluppa la conoscenza scientifica.
Giovanni Berlinguer nella prefazione del suo libro Lezioni di
Bioetica pone la seguente domanda: quali principi morali
devono guidare la ricerca scientifica e le sue applicazioni
quando esse riguardano l’essenza della vita? (Berlinguer, 1997).
La parola ‘Bioetica’ fu usata la prima volta da V.R. Potter nel
1971 nel suo libro Bioethics: Bridge to the Future. Nell’Encyc1opedia
of Bioethics del 1979, il direttore V.T. Reich intende la bioetica
come «studio sistematico della condotta umana nelle aree di
scienza della vita e della cura della salute, quando tale condotta
viene esaminata sulla base di valori e principi morali». Tale
definizione delimita gli ambiti entro cui essa viene chiamata a
rispondere: la cura della salute umana e le scienze della vita. Ed
è sulla base di questi confini disciplinari, molto stretti, che oggi,
tra gli scienziati, sono soprattutto i medici a raccoglierne l’eredità e ad interpretare questa nuova disciplina come diretta emanazione della loro pratica di deontologia medica. Nell’ambito
scientifico, spetta probabilmente al biologo, ma non solo, il
compito di allargare il terreno della bioetica da quello più
propriamente medico a quello più generale che riguarda le
popolazioni, l’ambiente, le relazioni fra la specie umana e gli
altri organismi viventi. Le generazioni future.
In questo senso la bioetica non dovrebbe essere più quel
contenitore di norme date, atte a giudicare e/o controllare
l’avanzamento tecnico-scientifico, ma potrebbe diventare un
processo da costruire a partire dalla storia dello sviluppo del
pensiero scientifico e delle sue applicazioni e dalle interazioni
con i diversi contesti sociali e culturali. Si dovrebbe dunque
passare da una bioetica che, quantunque plurale, rimane antropocentrica, ad un’etica della biologia che pone al centro la
scienza stessa e le soggettività che in essa si esprimono.
Al corso di Bioetica abbiamo aggiunto nel titolo la responsabilità della scienza e della tecnologia per dare quel valore aggiunto
necessario a che essa (la bioetica) venga interpretata come afferma Neri: «discorso finalizzato ad elaborare e a suggerire proposte
per le politiche pubbliche di ricerca nei settori di pertinenza». Tale
definizione apre la scienza alle opzioni e quindi alle scelte.
Quindi la scienza non appare più come quel blocco monolitico universale e neutro che si costruisce intorno all’oggettività
scientifica, ma come un luogo abitato da una pluralità di
soggetti, uomini e donne in carne ed ossa, i cui oggetti cambiano di definizione ed identità a seconda dei contesti in cui
vengono a svilupparsi. La scienza diventa un luogo aperto,
parziale e plurale, un mondo che si misura con i suoi valori: li
analizza, li mette in campo, li mette in gioco, li sceglie. Un
mondo non più autoreferenziale: è la società nel suo insieme
che diventa il referente. Ed è con questi strumenti che il bene
comune diventa non un qualcosa di dato ma un progetto da
costruire e una pratica di un’etica pubblica, le cui dimensioni
spazio-temporali ne daranno forma e contenuto.
Oggi che la tecnologia, principale espressione di quella
scienza-conoscenza che noi abbiamo tanto amato, è diventata
sempre più invasiva e pervasiva del nostro essere nel mondo,
aprire la realtà dei laboratori, rendere esplicite e trasparenti le
scelte strategiche, progettuali ed ideologiche che sono alla base
del progresso scientifico e tecnologico significa fornire alcuni
strumenti necessari a costruire quei paletti utili a che essa
diventi strumento di democratizzazione e non di dominio e di
controllo (Del Grosso, 1997).
326
327
Bibliografia
GIOVANNI BERLINGUER (1997), Lezioni di Bioetica, Roma, Ediesse
CARLO BERNARDINI (1987), L’etica della ricerca, in “Nuova Civiltà
delle Macchine”, V, n. 3-4, p. 69
Bioetica, si, no: perché? (1992), a cura del Coordinamento DonneScienza. Atti del convegno, Bologna
MASSIMILIANO BUCCHI (2002), Scienza e società, Bologna, il
Mulino
VINCENZO CAPPELLETTI (1990), Etica della scienza e bioetica, in
Scienza e Etica. Quali limiti?, a cura di Jader Jacobelli, RomaBari, Laterza
MARCELLO CINI, GIOVANNI CICCOTTI, MICHELANGELO DE MARIA,
GIOVANNI JONA LASINIO (1976), L’Ape e l’architetto. Paradigmi
scientifici e materialismo storico, Milano, Feltrinelli
GIUSEPPE DEIANA, EMILIO D’ORAZIO (2001), Introduzione, in
Bioetica ed etica pubblica: una proposta per l’insegnamento, a
cura di Giuseppe Deiana, Emilio D’Orazio, Milano, Edizioni Unicopli
ELENA DEL GROSSO (1997), Alice attraverso i confini di scienza e
genere, in “Ecologia Politica – CNS”, nn. 2-3
ELISABETTA DONINI (1990), La nube ed il limite. Donne, scienza,
percorsi nel tempo, Torino, Rosenberg & Sellier
GUSTAVO GUIZZARDI (2002), La negoziazione della scienza nello
spazio pubblico, in La scienza negoziata. Scienze biomediche nello
spazio pubblico, a cura di Gustavo Guizzardi, Bologna, il
Mulino
DONNA J. HARAWAY (1995), Manifesto Cyborg. Donne tecnologie e
biopolitiche del corpo, Milano, Feltrinelli
SANDRA HARDING (1998), Is Science Multicultural? Post Colonialism, Feminisms, and Epistemologies, Bloomington-Indianapolis, Indiana University Press
EVELYN FOX KELLER (1995), Vita, scienza & cyberscienza, Milano,
Garzanti
R.C. LEWONTIN, STEVEN ROSE, LEON J. KAMIN (1984), Not in our
Gene: Biology, Ideology, and Human Nature, New York, Pantheon Books
ABBY LIPPMAN (1991), Prenatal Genetic Testing and Screening:
Constructing Needs and Reinforcing Inequities, in “American
Journal of Law and Medicine”, 117, n. 182
ROBER K. MERTON (1981), Sociologia della scienza, Milano, Franco
Angeli
EDGAR MORIN (2001), I sette saperi necessari all’educazione del
futuro, Milano, Raffaello Cortina
DOROTHY NELKIN, M. SUSAN LINDEE (1995), The DNA Mystique.
The Gene as Cultural Icon, New York, Freeman
DEMETRIO NERI (2001), L’etica e la filosofia nei processi formativi
della nuova scuola secondaria, in Bioetica ed etica pubblica: una
proposta per l’insegnamento, a cura di Giuseppe Deiana,
Emilio D’Orazio, Milano, Edizioni Unicopli
V.R. POTTER (1971), Bioethics: Bridge to the Future, Prestige Hall,
Englewood Cliffs
PAOLO QUATTROCCHI (1984), Etica, scienza, complessità, Milano,
Franco Angeli
W.T. REICH (1995), Encyclopaedia of Bioethics, New York, Simon
Schuster & Mac Millan
UBERTO SCARPELLI (1998), Bioetica laica, Milano, Baldini e Castoldi
SANDRA HARDING (1991), Whose Science? Whose Knowledge? Thinking
from Women’s Lives, Buckingham, Open University Press
SUSAN WRIGHT (1994), Molecular Politics: Developing American
and British Regulatory Policy for Genetic Engineering, 19721982, Chicago, The University of Chicago Press
328
329
ISBN: 88-88071-49-0
88-88071-48-2
Scarica

(a cura di) "Partecipare la scienza” , Biblink, Roma - IRPPS