Istituto di ricerche sulla popolazione e le politiche sociali Consiglio Nazionale delle Ricerche PARTECIPARE LA SCIENZA a cura di Adriana Valente e Daniela Luzi Questa è la copia stampata di un libro disponibile anche in formato elettronico al sito www.biblink.it I confini sono fatti per essere attraversati. O meglio, sono delle esche irresistibili. Li vado cercando non per saggiarli ma per tormentarli, come un cane con l’osso […]. E una volta che mi sono smarrita oltre i confini della ricerca scientifica, passando dal fare scienza allo scrivere di scienza, il problema si è addirittura aggravato perché ora i confini da tormentare sono molto di più. Evelyn Fox Keller, Vita, scienza & cyberscienza È vietata la riproduzione, anche parziale, con qualsiasi mezzo effettuata, compresa la fotocopia, anche a uso interno e didattico Settembre 2004 Biblink editori, Roma Grafica di copertina di Alberto Pedro Di Santo Indice ADRIANA VALENTE, DANIELA LUZI, Introduzione pag. 9 VALUTAZIONE E RESPONSABILITÀ ALESSANDRO FIGÀ TALAMANCA, Uso ed abuso delle banche dati nella valutazione delle riviste e della qualità scientifica: un problema di potere pag. 27 DANIELE ARCHIBUGI, Chi ha paura della bibliometria? ALESSANDRO FIGÀ TALAMANCA, Nota di commento pag. 48 ANNA MARIA TAMMARO, Indicatori di qualità delle pubblicazioni scientifiche ed open access pag. 51 FEDERICO DI TROCCHIO Le patologie della comunicazione scientifica: problema etico o socioeconomico? pag. 91 pag. 37 VALUTAZIONE E RISORSE UMANE LUCIA PADRIELLI, MARINA PEROTTI, FABRIZIO TUZI, Criteri ed indicatori per la valutazione degli istituti del CNR pag. 113 7 ROSA DI CESARE, DANIELA LUZI, ADRIANA VALENTE, La produzione scientifica del CNR nelle scienze sociali: considerazioni di genere pag. 133 SVEVA AVVEDUTO, Le risorse umane per la ricerca: quali politiche? pag. 159 DOCUMENTAZIONE E ACCESSO LUCIA MAFFEI, Alcune riflessioni sugli aspetti etico-politici dell’attività di documentazione Adriana Valente e Daniela Luzi pag. 173 GIUSEPPE VITIELLO, L’identificazione dei documenti nell’economia della comunicazione scientifica pag. 181 MADEL CRASTA, Istituzioni della cultura: content provider per la rete pag. 219 PAOLA CAPITANI, Gestione della conoscenza e formazione pag. 231 COMUNICAZIONE PUBBLICA E CONSAPEVOLEZZA ADRIANA VALENTE, Comunicare la scienza per partecipare la scienza pag. 251 MAURA MISITI, Mass media e popolazione pag. 277 LUCIANA LIBUTTI, Alcune riflessioni sul ruolo della documentazione nei progetti di comunicazione della scienza pag. 305 ELENA DEL GROSSO, Bioetica e responsabilità sociale della scienza e della tecnologia pag. 313 8 Introduzione Nel percorso delineato in questo volume, partecipare la scienza vuol dire occuparsi di questioni – teoriche ed operative – relative al dibattito in corso sulla comunicazione della scienza, questioni di accesso alle informazioni, di comunicazione delle conoscenze, di valutazione ed etica della ricerca e di risorse umane. Il riferimento a tali questioni è sia nella descrizione dello stato dell’arte, sia nella ricostruzione di filoni di riflessione entro i quali nulla è dato per scontato mentre molto è in divenire. Se vi è anche una componente di auspicio, si tratta dell’auspicio a che si affermi un approccio interdisciplinare alla comunicazione della scienza, che includa le dinamiche comunicative entro la comunità scientifica e tra scienza e società. Si tratta, rubando la metafora di Thomas, di occuparsi di «acquitrini e paludi»: «la scelta degli esempi ha sempre a che fare con ciò che si vuole rappresentare […] chi intenda giustificare l’affermazione “la terra è fondamentalmente diversa dall’acqua”, sceglierebbe l’esempio dello scoglio in mare; chi invece volesse mostrare che terra ed acqua possono completarsi a vicenda e che spesso in tale commistione sviluppano le proprietà più sorprendenti, dovrebbe parlare di acquitrini, pozzanghere e ghiacciai» (Arte e scienza, 1989). 9 Questo volume segue di due anni la pubblicazione di Trasmissione d’élite o accesso alle conoscenze? (2002). L’antitesi tra trasmissione lineare ed accesso alle conoscenze è ancora presente nei diversi saggi del volume ed è sottesa alle riflessioni sulla valutazione e le risorse umane, sull’etica e la responsabilità, sulla documentazione, percezione e consapevolezza della scienza. Ancora una volta ci occupiamo dei confini incerti tra scienza e comunicazione e, nuovamente, siamo consapevoli di tralasciare un’ampia gamma di questioni epistemologiche, tecnologiche, cognitive, sociologiche, che potrebbero contribuire ad evidenziare tratti rilevanti di questa fusione di scienza e comunicazione. La comunicazione non è vista solo come un veicolo di trasmissione della scienza – tra studiosi o tra comunità scientifica e società – ma si compenetra in essa, diventa occasione di partecipazione ai temi, ai valori della scienza. Parallelamente, il modello utilizzato nella comunicazione sia formale che informale tra studiosi fornisce evidenza degli incerti equilibri tra conservazione e innovazione entro le comunità scientifiche ed a sua volta può contribuire alla loro cristallizzazione o alla loro evoluzione. Anche l’articolo scientifico può essere considerato nelle sue diverse dimensioni: uno strumento di comunicazione inter o intraspecialistica; uno strumento di registrazione e certificazione di conoscenze; la base per un’attività di divulgazione scientifica; elemento cruciale per la costruzione di indicatori essenziali per comprendere la crescita e lo sviluppo scientifico; uno strumento di valutazione di individui, gruppi, nazioni; ed anche un fondamentale elemento della nuova retorica – secondo Latour – che, grazie allo stile, all’impilamento sapiente di argomentazioni, citazioni e modelli, isola il lettore che persevera nel dubbio. Merton e poi Eco e tutta la moderna etnometodologia hanno evidenziato quello che un articolo, modello dall’aspetto immacolato, non è o che non ci comunica: poco lascia intravvedere delle intuizioni, delle false partenze, degli errori, delle conclusioni approssimative, dei felici accidenti che ingombrano il lavoro di dicerca. C’è stato chi nella prima metà del Novecento ha proposto una soluzione: fare a meno degli articoli scientifici, ma questa proposta radicale di Bernal è stata respinta negli anni Quaranta. E allora, come ricostruire da un lato il continuum del lavoro scientifico, dall’altro il dinamismo del dibattito scientifico – di cui sono spesso povere le iniziative di divulgazione – così come la complessità e la poliedricità dei modi di fare scienza, fino ad entrare nelle scelte di politica scientifica e di valutazione? Diverse proposte ed interpretazioni sono presenti nei capitoli di questo libro, in cui le varie accezioni di articolo scientifico vanno di pari passo con i significati e ruoli ricoperti oggi dalla scienza. La scienza è sempre meno considerata nelle sue componenti unitarie, come è testimoniato dall’evoluzione della riflessione sulla natura, sul ruolo e sul metodo di lavoro di scienziati e scienziate e dei relativi modelli di rappresentazione. Un’interessante contrapposizione è quella posta da Bruno Latour, con l’immagine del Giano bifronte, tra «scienza pronta all’uso», e cioè scienza consolidata, magari già presente in applicazioni di uso quotidiano, e «scienza in costruzione», colta nel suo divenire. Diverse e contrastanti affermazioni sono collegate all’una o all’altra delle due facce: vai ai fatti, dice la prima, decidi a chi credere, la seconda. Viene prima la verità, la validità, l’usabilità, l’efficienza di strumenti e metodi, o la persuasione, l’accettazione sociale di tutte queste cose? L’immagine del Giano bifronte si potrebbe riportare nel campo della documentazione e comunicazione scientifica: la faccia che guarda agli aspetti consolidati delle discipline documentarie, all’evoluzione di metodologie e tecnologie sempre più efficienti ed efficaci, potrebbe dire: scegli il modo più 10 11 efficiente per trasmettere l’informazione; l’altra replicherebbe: decidi il grado di equilibrio tra trasmissione dell’informazione e accesso alle conoscenze. La stessa cosa nel campo della valutazione; la prima voce direbbe: utilizza i metodi e gli strumenti disponibili per la valutazione della scientificità; l’altra replicherebbe: decidi quali criteri e priorità vuoi considerare nella valutazione. La maggior parte degli articoli presenti in questo libro riportano temi collegati più al divenire della scienza che ad una sua rappresentazione consolidata. In questa direzione si pone il dibattito tra Alessandro Figà Talamanca e Daniele Archibugi, sulla valutazione della produzione scientifica e sull'impact factor in particolare. Il dibattito tra i due autori è nato in occasione del seminario organizzato nel dicembre del 2002 dal CNR sulla partecipazione della scienza, e ci è sembrato interessante riproporlo ai lettori nella forma originaria di ‘repliche su intervento’. La questione dibattuta dai due autori parte dalla considerazione che, con l’aumentare delle modalità di uso degli indici di citazione, questi vengono utilizzati non solo per trovare riferimenti a letteratura scientifica, o come strumenti per l’analisi storica della scienza, ma anche, spesso in maniera automatica e poco bilanciata, nelle pratiche di valutazione scientifica. Figà Talamanca evidenzia che l’analisi della questione dell’impact factor nella valutazione scientifica non può esaurirsi entro il presupposto dell’‘obiettività scientifica’, ma deve contemperare anche criteri morali e politici, formalmente esterni al fenomeno considerato, ma a questo strettamente correlati. Si tratta soprattutto di un «problema di potere» e «l’esercizio del potere non può sottrarsi ad un giudizio basato su valori morali». La contrapposizione dialettica riguarda le modalità di valutazione, mentre l'opportunità e la necessità di valutazione sono condivise dai due autori. Ciascuno degli articoli solleva questioni legate alla struttura e al complesso funzionamento delle comunità scientifiche. Per Figà Talamanca la comunità scientifica può essere analizzata da punti di vista diversi; come una comunità chiusa, con proprie regole e valori, ma anche come comunità che interagisce con il mondo esterno – in questo articolo con l'editoria scientifica commerciale; in una dimensione diacronica, si possono considerare i cambiamenti dalla comunità scientifica nazionale dell’Ottocento e del Novecento, rispetto alla odierna «comunità internazionale legata da interessi subscientifici». La riduzione degli scienziati a «misuratori di fenomeni», riportata provocatoriamente da Archibugi, ribadisce la necessità di raccogliere dati, ma non esclude anche quella di valutarne le fonti, di ponderarli e di affiancarli ad altri parametri. Tanto più, allora, assume rilievo la considerazione di Figà Talamanca per cui la misurazione dei fenomeni deve inserirsi in un modello effettivamente «capace di spiegare la realtà osservata». Dunque, le pratiche di valutazione della ricerca sono frutto di particolari concezioni di scienza e di società; queste costituiscono, nello stesso tempo, un esempio di incontro tra l’evoluzione nel settore delle tecnologie e metodologie documentarie e lo sviluppo dei sistemi di produzione ed organizzazione delle conoscenze scientifiche. Anna Maria Tammaro introduce, accanto all’approccio tradizionale ai sistemi di valutazione della qualità delle pubblicazioni scientifiche, basato essenzialmente sugli indicatori bibliometrici e sulla peer review tradizionale, quello open access, legato allo sviluppo delle nuove tecnologie dell’informazione e documentazione, che include l’open linking, l’open commentary e l’open peer review. I due approcci non si contrappongono del tutto, anche se del primo sono evidenziate le caratteristiche di dispendiosità ed inefficienza. Ciascuno dovrebbe fornire risposte ad alcune delle funzioni cui assolvono le pubblicazioni scientifiche, che andrebbero adeguatamente distinte: controllo di qualità, diffusione, registrazione, riconoscimento. 12 13 La revisione degli attuali criteri di valutazione costituisce, nell’ottica di Federico Di Trocchio, uno dei possibili rimedi alle ‘patologie’ che affliggono la comunicazione scientifica, e cioè: proliferazione, specializzazione eccessiva, produzione di articoli non originali, o di articoli contenenti informazione in tutto o in parte ridondante o non veritiera, censura di articoli incompatibili con i paradigmi dominanti. A tutte le ‘trasgressioni’ ad una corretta comunicazione tra studiosi si affiancano quelle poste in essere da editori e referees. Questo fenomeno, se è in parte connaturale alla struttura stessa dell’impresa scientifica dal XVII secolo in poi, si è ampliato ai nostri giorni, in vista della professionalizzazione dell’attività di ricerca e della conseguente maggiore competizione entro le comunità scientifiche. Tra gli antidoti ai mali moderni della comunicazione e documentazione scientifica, la proposta dell’autore è di considerare maggiormente la qualità delle pubblicazioni rispetto ai criteri quantitativi, e di non utilizzare i fattori d’impatto direttamente e semplicemente come base per le decisioni relative ai finanziamenti e per le pratiche valutative in genere. È proprio in questa ottica che si inquadra l'articolo di Lucia Padrielli, Marina Perotti e Fabrizio Tuzi, che descrive i criteri di valutazione utilizzati nel piano di revisione degli Organi durante la riforma del CNR iniziata con il decreto legislativo 19/1999 – peraltro attualmente in fase di ulteriore revisione da parte della ministra Moratti. L’analisi è rilevante in quanto dà un peso diverso agli indicatori utilizzati nella valutazione a seconda dell’ambito disciplinare considerato. La varietà delle soluzioni proposte e l’articolazione della riflessione sulla situazione dinamica ed interdisciplinare del CNR conferiscono a questo studio un valore che va oltre il contesto in cui è stato elaborato. Vengono utilizzati circa trenta parametri di valutazione, ognuno dei quali viene associato a macro aree di attività corri- spondenti ai compiti istituzionali del CNR ed ai risultati attesi. All’interno di ciascuna macro area vengono identificati i parametri di valutazione e la rilevanza di ognuno dipende dall’ambito disciplinare dei diversi istituti, così che, ad esempio, l’impact factor assume maggiore importanza per gli istituti appartenenti alle scienze di base e della vita e viene considerato in misura ridotta per gli istituti afferenti alle scienze umane e sociali, a vantaggio, invece, della produzione di monografie e capitoli di libri. Per gli istituti a carattere prettamente tecnologico, assumono invece particolare importanza altri indicatori, quali i brevetti. I parametri elaborati sono stati confrontati con i criteri di valuzione proposti dal Comitato di Indirizzo per la Valutazione della Ricerca (CIVR). Il case study presentato da Rosa Di Cesare, Daniela Luzi e Adriana Valente prende ancora una volta in considerazione il CNR per offrire uno spaccato sulla produzione scientifica di ricercatori e ricercatrici nelle scienze sociali. Gli studi che analizzano la produttività scientifica in una prospettiva di genere non sono molto numerosi, per la difficoltà di raccogliere dati disaggregati e di associarli a parametri di contesto. Nell’articolo in questione sono stati considerati i parametri relativi alla progressione di carriera, mettendo in dubbio stereotipi quali quello della minore produzione scientifica delle donne. Gli articoli sopra indicati mostrano come la questione della valutazione, se da un lato è fortemente connessa alla comunicazione e responsabilità della scienza, non può prescindere, in un’ottica di intervento, dalla politica delle risorse umane per la scienza e la tecnologia. Di quest’ultimo aspetto si occupa in maniera centrale l’articolo di Sveva Avveduto che evidenzia come, tra le linee programmatiche scaturite dai summit di Lisbona (2000) e di Barcellona (2002), siano indicati espressamente diversi interventi sulle risorse umane. Oltre alla creazione di uno spazio 14 15 europeo della ricerca e alla promozione di investimenti in capitale umano, si fa espressamente riferimento al miglioramento delle politiche per la ricerca, nel cui ambito la questione della valutazione e comunicazione della scienza assume un ruolo di primo piano. Maggiore controllo e migliore valutazione sono inoltre richieste a fronte di una accresciuta autonomia. Alcuni fattori vanno considerati a fianco del controllo di qualità delle risorse: il rafforzamento della base scientifica nazionale, il miglioramento delle condizioni di ricerca e del livello delle risorse scientifiche, l’intervento nella fase iniziale di reclutamento di ricercatori e ricercatrici e la valorizzazione dell’apporto delle risorse ad elevata esperienza. La questione connessa al declino di interesse verso le discipline scientifiche costituisce uno dei nodi intorno ai quali operano i progetti di comunicazione pubblica della scienza, di cui all’ultima parte del libro. L’articolo di Sveva Avveduto fornisce anche evidenza del fatto che la tecnologia sia sempre accostata alla scienza, nelle politiche delle risorse umane così come nelle politiche scientifiche in generale. Le dinamiche dello sviluppo tecnologico sono sottese, anche se non sempre esplicitate, in tutte le pagine del libro, ma nella seconda parte, e soprattutto nei capitoli dedicati alla documentazione, diventano un elemento centrale di riflessione. Ciò dipende dal fatto che la tecnologia ha radicalmente modificato il posto assegnatole dalla scienza, non segue più quest’ultima, né è più confinata al ruolo di applicazione. Il percorso ideale che dalla ricerca di base portava all’innovazione tecnologica e poi allo sviluppo economico o, se vogliamo, che legava in stretta sequenza ricerca scientifica-produzione di nuova conoscenza-sua utilizzazione a fini pratici e che aveva dominato la parte centrale del secolo scorso, non trova più rispondenza con la realtà. Ciò è stato sottolineato da quegli autori che, a partire da Callon e Latour, hanno evidenziato la difficoltà di distinguere tra scienza e tecnologia (Faulkner, 1994) e da coloro che, significativamente, hanno parlato di tecnoscienza (Latour, 1998; Flichy, 1996; Longo, 2001). In questa situazione non sono solo i sociologi che intervengono negli affari tecnologici; Callon ha notato che anche gli ingegneri nel presentare nuove tecnologie elaborano costantemente ipotesi e forme di ragionamento che, di fatto, li «trasformano in sociologi» (Flichy, 1996). Le teorie e pratiche della documentazione scientifica si confrontano continuamente con la tecnologia e con il ruolo che essa assume rispetto alla scienza o tecnoscienza, e alla società o pantecnico. Tra le soluzioni proposte, ed in continuo divenire, nel libro sono presentate quelle che si ricollegano ai temi della comunicazione della scienza ed all’accesso alle conoscenze, alla formazione ed al ruolo delle istituzioni culturali. L’articolo di Lucia Maffei, nel presentare le riflessioni dell’autrice sugli aspetti etico-politici dell’attività di documentazione, si pone come sintesi della prima parte del libro ed introduzione ai capitoli che seguono sulla documentazione scientifica. Esiste una stretta correlazione tra scelte tecnologiche e politiche, di cui chi si occupa di gestione della documentazione e della conoscenza dovrebbe essere ben consapevole. Se una parte del mondo occidentale si interroga sull’evoluzione di metodi e sistemi di valutazione e si dibatte in un mercato dell’informazione scientifica saldamente in mano a pochi editori, la maggioranza del pianeta «si perde nelle sabbie mobili del digital divide». Diversi progetti internazionali sono volti a sostenere l’accesso all’informazione scientifica del ‘resto del mondo’, e vanno senz’altro salutati con favore per quanto riguarda l’ampliamento della partecipazione alla scienza, e tramite questa, a migliori condizioni di vita e di salute. Tuttavia, sussiste qualche perplessità relativa ad esempio al fatto che tali progetti siano basati sulle nuove tecnologie, ma proposti in aree con infrastrutture inadeguate, oppure al timore che oligar- 16 17 chie editoriali possano proporre inizialmente i propri prodotti scientifici a costi accessibili solo per preparare un mercato in cui imporre le proprie condizioni. Sulla situazione del mercato editoriale si sono soffermati anche Figà Talamanca e Tammaro, ma Lucia Maffei pone all’attenzione la drammaticità della situazione nel ‘resto del mondo’, in cui il mancato accesso ad informazioni scientifiche ha importanti ed immediate ricadute sulle condizioni di salute. Possiamo aggiungere che l’approccio open access sembra poter fornire in prospettiva una risposta adeguata alle esigenze di accesso alle conoscenze dei Paesi i via di sviluppo, così come di tutte le aree e le organizzazioni con minori disponibilità economiche. Tuttavia, non si vede ancora come questo possa incidere stabilmente sulla partecipazione dei Paesi in via di sviluppo con i propri contributi scientifici alla costruzione delle ‘memorie collettive’ che, si auspica, saranno presto disponibili liberamente a tutti. Per i professionisti dell’informazione e per chi si occupa della gestione di documentazione e conoscenza scientifica si ripropone il dualismo tra trasmissione ed accesso ed anche loro sono chiamati a scegliere se sostenere «uno sviluppo a senso unico, operando per il trasferimento univoco delle conoscenze, oppure operare per un accesso attivo, consapevole e diffuso delle informazioni scientifiche». Riflessioni profonde sull’accesso alle conoscenze sono presenti anche nell’articolo di Giuseppe Vitiello, e tali riflessioni si estendono all’evoluzione della politica dell’informazione negli ultimi quarant’anni. L’articolo analizza criticamente gli indicatori dei documenti e delle risorse elettroniche, «uno degli anelli più ermetici del processo di trasmissione dell’informazione». L’analisi approfondita delle caratteristiche strutturali e funzionali non si esaurisce in un contributo tecnico. La questione degli identificatori è calata nella riflessione sull’evoluzione della politica dell’informazione, ed in particolare si incentra intorno al quesito se il libero mercato debba agire «da regolato- re e da equilibratore», ovvero se l’autorità pubblica debba intervenire «a riorientare il mondo proprio dell’identificazione nel senso dell’equità d’accesso alle conoscenze». Le caratteristiche dei diversi identificatori, la registrazione del livello di diffusione e di importanti funzioni quali la persistenza e l’interoperabilità, costituiscono elementi di valutazione ai quali vanno affiancate riflessioni relative ai costi ed al perseguimento di politiche di ampio accesso. La comunità documentaria, «vaso di coccio in mezzo ai vasi di ferro editoriali», non può modificare «business models e politiche editoriali», ma può intervenire in vario modo, ad esempio utilizzando la tecnologia ed il sistema DOI (digital object identifier) per mettere a punto soluzioni autonome, rendere interoperabili archivi di pubblicazioni in rete, in ultima analisi creare una ‘sfera pubblica’ in cui sia possibile «avere accesso a un’offerta diversificata, ampia e a prezzi ragionevoli di fonti di informazione». Ruolo delle biblioteche dovrebbe essere contribuire proprio ad ampliare lo «spazio pubblico di accesso all’informazione», piuttosto che limitare la propria funzione entro «uno spazio privatizzato». Il ruolo delle istituzioni culturali rispetto all’accesso alle informazioni è posto al centro dell’attenzione da Madel Crasta; allargare tale accesso deve costituire un obiettivo primario. L’uso delle tecnologie nella produzione di contenuti «non può avvenire in modo confuso, meccanico ed indiscriminato come risposta obbligata al trend del momento, ma deve rispondere a progetti culturali» e non deve prescindere dalla misurabilità dei risultati. Solo andando oltre i cataloghi ed evitando di annegare «nei milioni di dati» disponibili in rete è possibile costruire un «impegno di comunicazione verso un pubblico più ampio della tradizionale comunità di studiosi che da sempre ruota intorno alle istituzioni culturali». Carenza o cattivo uso delle tecnologie sono imputabili anche al contesto formativo. Nel mettere in relazione la gestio- 18 19 ne della conoscenza e la formazione, Paola Capitani individua i punti deboli, soprattutto nel quadro nazionale, e delinea al contempo le linee di evoluzione di un'educazione continua che deve far fronte a contesti dinamici, soggetti a continui mutamenti. Se la tecnologia svolge un ruolo di primo piano nella formazione nel settore della scienza dell’informazione, la necessità di un collegamento stretto con la società è stata evidenziata fin dal 1986 dall’Unesco che, entro il Modular curriculum in information studies, ha dato particolare enfasi al contesto sociale nell’informazione e nella comunicazione. Il ruolo della società nella comunicazione della scienza e nella negoziazione di significati scientifici è l’aspetto centrale dell’ultima parte del libro. Tra le critiche mosse ad esponenti della nuova sociologia della scienza e della tecnica vi è il non aver adeguatamente considerato il ruolo attivo del pubblico nel processo culturale di ri-definizione della scienza e della tecnica e del loro uso (Flichy, 1996). Pur senza intervenire direttamente sulla controversia, né sulle critiche mosse all’approccio classico della separazione tra tecnica ed uso che hanno portato anche a configurare diversi tipi e fasi di negoziazione, l’ultima parte di questo libro si occupa proprio del pubblico, o meglio della società in rapporto con la scienza e la tecnica. Vengono soprattutto descritte le esperienze volte a cogliere sia la percezione della scienza-tecnica e della scienza-cultura, che lo spazio che sistemi di diffusione delle conoscenze di tipo mass mediatico riservano alla negoziazione di significati (quali valori della scienza e come contribuire al dibattito pubblico) e di usi (quali tecnologie e come utilizzarle al meglio). L’analisi degli aspetti legati alla percezione della scienza ed alla partecipazione al dibattito pubblico diviene tanto più pregnante se consideriamo le suggestioni di chi ha evidenziato quanto ognuno di noi sia parte di esperimenti collettivi o sociotecnici, che superano i confini di laboratorio (Latour, 2001). In realtà, sembra che la grande differenza con gli esperimenti tradizionali sia legata non tanto al luogo dell’esecuzione – fuori dai laboratori –, quanto al fatto che gli esperimenti collettivi coinvolgano gruppi estesi, non definibili a priori e non consapevoli dell’esperimento in corso. Qualcosa di completamente diverso dal secentesco testimone modesto cui ha fatto riferimento Donna Haraway (2000), calato del suo ruolo ed investito della sacralità dell’esperimento scientifico o tecnologico al quale, prescelto, assisteva. Tali aspetti, ribaditi da quanto emerso in recenti progetti di comunicazione pubblica della scienza, sono considerati nell’articolo di Adriana Valente; in questo si rileva anche la domanda della collettività di essere parte del dibattito scientifico: tutte le iniziative di divulgazione e comunicazione scientifica sia a livello mass mediatico che promosse da ambienti scientificoaccademici vengono accolte dal pubblico con grande attenzione e, ove è possibile, con grande partecipazione. Contemporaneamente, sembra che da parte di studiosi sociali, promotori di progetti di comunicazione della scienza, organismi internazionali impegnati nella promozione di democratic governance, vi sia, oltre all’interpretazione di un desiderio popolare di partecipazione, anche una sollecitazione, una convinzione dell’opportunità di tale partecipazione. Per quanto riguarda l’interesse verso la scienza, questo atteggiamento potrebbe anche essere in parte un «indicatore dell’ansia di essere marginalizzata che è propria della comunità scientifica» parallelamente a quanto Paola Borgna ha osservato a proposito del public understanding of science (Borgna, 2001). Tuttavia, simili manifestazioni di interesse-indicazioni di opportunità sono evidenziate con riferimento non solo al dibattito scientifico, ma anche al dibattito pubblico in generale (Fishkin, 2003). Viene da pensare, allora, che le parti in causa si stiano 20 21 interrogando sul nuovo significato da attribuire alla democrazia, sui nuovi modi di partecipazione alla sfera pubblica. Maura Misiti riporta ed analizza criticamente una serie di studi sulla comunicazione della scienza nel settore della popolazione e demografia, temi scientifici di ampio respiro che, alla luce degli attuali fenomeni sociali e geopolitici, suscitano un rinnovato interesse nella società e sono particolarmente considerati dai media. I risultati dell’European Value Survey, condotto in 12 Paesi nel 1981 e nel 1990, hanno evidenziato la difficoltà di definire una teoria, un modello che risolva il problema delle modalità di azione dei valori nel comportamento sociale. La ricerca effettuata dal Cnr considera diversi approcci metodologici relativi all’analisi dell’impatto dei media sulla conoscenza, alle modalità con cui la popolazione acquisisce l’informazione, all’analisi statistico-testuale degli articoli e dei contenuti di diversi media. L’apporto delle discipline documentarie e dell’informazione accanto a quelle più propriamente comunicative nei progetti di comunicazione pubblica della scienza, implicito negli articoli descritti, viene evidenziato da Luciana Libutti. La necessità di distinguere tra le diverse categiorie di utenza, alla base di ogni progetto documentario, è fondamentale nelle iniziative di comunicazione della scienza; l’organizzazione del materiale scientifico per la parte dei progetti legati alla didattica e il collegamento con il corso delle attività formative costituiscono due ulteriori fasi di incontro di professionalità. La conoscenza approfondita delle tipologie di fonti informative e delle tecniche di recupero dell’informazione è essenziale per un’analisi dei documenti scientifici che tenga conto, oltre che della molteplicità delle fonti, anche di criteri quali attendibilità, internazionalità, pluralismo. In definitiva, tale incontro di competenze è essenziale affinché la presa di contatto con la scienza sia «quanto più possibile esente da limiti e condizionamenti, mediante la sua attività “trasparente” di recupero delle fonti». L’articolo di Elena del Grosso chiude idealmente il libro, riprendendo in chiave teorica il discorso sulla comunicazione della scienza alla luce delle considerazioni sulla responsabilità di scienziati e scienziate. Questi, partecipi del «mutamento profondo dalla scienza alla tecnologia», non dovrebbero rifiutare le responsabilità legate al loro «coinvolgimento diretto o indiretto nelle trasformazioni sociali, politiche ed economiche indotte dal processo che loro stessi hanno messo in atto». Le proposte dell’autrice finalizzate alla ricostruzione dell’etica pubblica si concentrano sul ruolo della bioetica, che non dovrebbe essere considerata solo come un «contenitore di norme date, atte a giudicare e/o controllare l’avanzamento tecnico-scientifico», bensì, in prospettiva, come «un processo da costruire a partire dalla storia dello sviluppo del pensiero scientifico e delle sue applicazioni e dalle interazioni con i diversi contesti sociali e culturali». Il rapporto tra memoria storica come fondamento di riflessione, prospettiva futura come obiettivo degli studi e del processo conoscitivo e realtà (tecnologica) come materiale su cui sperimentare, su cui costruire progetti ed elaborare teorie ed analisi, è un ulteriore elemento unificante i diversi contributi del libro; questo concetto si ritrova in parte condensato nella sintesi di quest’ultimo articolo, laddove si evidenzia come «il futuro stia nel passato» e «la memoria sia parte integrante di un processo di costruzione democratica della realtà». 22 23 Le discussioni sui paradigmi implicano sempre la stessa questione: quali problemi è più importante risolvere? Bibliografia Arte e scienza (1989), a cura di Paul Feyerabend, Christian Thomas, Roma, Armando Editore Thomas Kuhn, La struttura delle rivoluzioni scientifiche PAOLA BORGNA (2001), Immagini pubbliche della scienza: gli italiani e la ricerca scientifica e tecnologica, Torino, Edizioni di Comunità W. FAULKNER (1994), Conceptualizing Knowledge used in Innovation. A Second Look at the Science Technology Distinction and Industrial Innovation, in “Science, Technology and Human Values”, 19, n. 4 JAMES S. FISHKIN (2003), La nostra voce, Venezia, Marsilio PATRICE FLICHY (1996), L’innovazione tecnologica, Milano, Feltrinelli DONNA J. HARAWAY (2000), Testimone_modesta@FemaleMan_incontra_oncotopo, Milano, Feltrinelli BRUNO LATOUR (1998), La scienza in azione, Torino, Edizioni di Comunità BRUNO LATOUR (2001), What Rules of Method for the New Socio-Scientific Experiments?, plenary lecture, prepared for the Darmsdadt Colloquium, 30th March 2001. http://www.ensmp.fr/~latour/poparticles/poparticle/p095.html GIUSEPPE O. LONGO (2001), Tecnoscienza e globalizzazione, in "Nuova Civiltà delle Macchine", n. 2 Trasmissione d’élite o accesso alle conoscenze? Percorsi e contesti della documentazione e comunicazione scientifica (2002), a cura di Adriana Valente, con testi di Sveva Avveduto, Anna Baldazzi, Rosa di Cesare, Maria Guercio, Daniela Luzi, Adriana Valente, Milano, Franco Angeli 24 Valutazione e responsabilità Uso ed abuso delle banche dati nella valutazione delle riviste e della qualità scientifica: un problema di potere Alessandro Figà Talamanca Università degli Studi di Roma “La Sapienza” Dipartimento di Matematica Ci sono due possibili punti di vista quando si affronta lo studio di un sistema sociale. Si può, secondo un metodo prevalentemente adottato negli studi di antropologia, considerare la comunità oggetto dello studio come una comunità chiusa in se stessa con le sue regole, i suoi valori, i suoi conflitti e i suoi strumenti per risolverli, oppure, seguendo il metodo più proprio della scienza politica, si può far convergere l’attenzione sull’interazione ed i conflitti tra la comunità che si studia e il mondo ad essa esterno. Il primo punto di vista, meno attento alla dinamica sociale e politica globale, è quello forse più vicino all’esigenza di ‘obiettività’ scientifica. Il secondo spesso non può fare a meno di un giudizio morale o politico sugli avvenimenti e le strutture sociali descritte, e rischia di mescolare la realtà osservata con i pregiudizi e le valutazioni politiche dell’osservatore. Nello studio della comunità scientifica il primo punto di vista mi sembra quello adottato da Robert K. Merton e Derek De Solla Price. Il secondo punto di vista è invece quello adottato dagli ‘autori vari’ che negli anni Settan- 27 ta sotto la guida di Marcello Cini pubblicarono il volume L’ape e l’architetto. È probabile che tutti e due i punti di vista siano necessari, ma dirò subito che non essendo uno ‘scienziato sociale’, e potendomi permettere quindi una maggiore licenza metodologica, mi trovo più vicino al punto di vista di L’ape e l’architetto, un’opera che a suo tempo trovai interessantissima, pur non condividendone quasi mai le conclusioni politiche. E infatti il problema che vorrei analizzare, in relazione all’uso e all’abuso di banche dati sulla comunicazione scientifica, per valutare la qualità delle riviste e della ricerca che vi viene pubblicata, è prima di tutto un problema di ‘potere’. L’esercizio del potere non può sottrarsi ad un giudizio basato su valori morali. Alla fine quindi arriverò a mettere in questione non già e non solo la affidabilità ‘statistica’ delle banche dati, ma piuttosto gli aspetti etici connessi al loro uso. Il fenomeno delle banche dati sulla comunicazione scientifica si inserisce all’interno di un fenomeno più vasto e complesso che è quello dell’editoria scientifica, come si è sviluppata negli ultimi quaranta o cinquanta anni. In questo contesto salta prima di tutto agli occhi la grande debolezza della comunità scientifica rispetto ad influenze ad essa estranee. Non parlo della debolezza rispetto ai governi o ai rappresentanti dei poteri pubblici, che, dopo tutto, finanziano la ricerca ed hanno il diritto di indirizzarla. Parlo invece della debolezza della comunità scientifica rispetto agli interessi delle grandi imprese editoriali che pubblicano le riviste scientifiche. Si assiste infatti ad una situazione del tutto paradossale. La comunità scientifica è il solo produttore ed il solo consumatore di letteratura scientifica. Eppure un intermediario che si è interposto tra il produttore ed il consumatore sta facendo schizzare i prezzi del prodotto a livelli incompatibili con i finanziamenti destinati alle biblioteche scientifiche. Il risultato di questo aumento dei prezzi, per ora, non è quello di far diminuire gli acquisti dei prodotti più costosi, che sono quelli sponsorizzati dall’intermediario, ma quello di far risparmiare su altri prodotti. Quando parlo di intermediario mi riferisco, naturalmente, agli editori commerciali di letteratura scientifica. Infatti l’aumento dei prezzi si giustifica solo con l’aumento dei costi di intermediazione (distribuzione e ‘marketing’) dal momento che gli autori (i veri produttori) non ricevono alcun compenso e il progresso tecnologico ha quasi azzerato i costi di composizione tipografica. Non era così negli anni Sessanta. Allora l’editoria scientifica era dominata da riviste controllate da società scientifiche, accademie, università, consorzi di università, ed altre simili istituzioni. Queste riviste si giovavano del lavoro volontario di docenti universitari e pubblicavano a basso costo. Uno dei mezzi più comuni e meno costosi di diffusione delle riviste era lo ‘scambio’ di riviste tra istituzioni scientifiche diverse. Questo sistema di scambi era particolarmente importante per le istituzioni scientifiche dei Paesi dell’Europa orientale, e dei Paesi in via di sviluppo, che potevano così ricevere riviste occidentali senza sborsare valuta pregiata. Negli ultimi decenni, invece, il mercato è stato conquistato dagli editori commerciali che sono riusciti a spingere fuori del mercato quasi tutte le riviste legate a istituzioni scientifiche. Anche qui siamo di fronte ad un paradosso: se una rivista (o un libro) non ha un prezzo sufficientemente elevato, esso non fornisce un adeguato ritorno al distributore e quindi non avrà alcuna possibilità di raggiungere gli utenti istituzionali, che sono, in massima parte, le biblioteche. Il ruolo degli indicatori bibliometrici come l’impact factor in questa conquista del mercato da parte di operatori mossi da interessi commerciali è stato molto importante. La tesi propagandata dai proprietari della banca dati dell’Institute of Scientific Information (ISI) era che non valesse la pena di acquistare riviste che non comparivano nella loro banca dati o che, pur comparendo, non avevano un alto impact factor. Da questo 28 29 punto di vista gli indicatori bibliometrici hanno funzionato più come uno strumento di ‘marketing’ che come oggettivi indicatori di variabili rilevanti nell’analisi della produzione scientifica. Ma c’è un’altra conseguenza della debolezza della comunità scientifica nei confronti degli interessi delle grandi imprese editoriali. Gli editori commerciali, attraverso le riviste ‘di prestigio’, hanno espropriato la comunità scientifica della capacità di esprimere autonomamente giudizi di merito sulle ricerche svolte dai membri stessi della comunità. L’esplosione, anche a livello individuale, del numero delle pubblicazioni, e la relativa difficoltà di esprimere veri giudizi di valore, al di fuori di un ambito specialistico molto ristretto, ha fatto sì che valutazioni di merito sui risultati della ricerca scientifica vengano comunemente sostituite con affrettate e arbitrarie classifiche dei lavori scientifici sulla base del ‘prestigio’ delle riviste che li pubblicano. È vero che ogni rivista ha un board of editors (comitato di redazione) che è responsabile della scelta degli articoli e che, in teoria, dovrebbe controllarne il merito. Ma è anche vero che dietro i gusti e gli interessi scientifici degli esperti che selezionano i lavori per le riviste, c’è anche l’interesse dell’editore a mantenere alto il ‘prestigio’ della rivista. Ed è a questo punto che interviene l’indicatore di ‘prestigio’ che va per la maggiore: il cosiddetto impact factor di una rivista. Diviene allora naturale che siano privilegiati dalle riviste gli articoli che possono contribuire meglio a mantenere elevato o aumentare l’impact factor della stessa rivista. Al giudizio di qualità sul lavoro scientifico presentato per la pubblicazione, si sostituisce un giudizio sulla convenienza per l’editore a pubblicare il lavoro stesso. A questo proposito il comportamento più clamorosamente immorale, ma certamente diffuso, è quello di privilegiare gli articoli che citano altri articoli della stessa rivista. Le citazioni hanno un effetto diretto sull’impact factor. Ma altrettanto perversa, in linea di principio, è la tendenza a privilegiare articoli ben inseriti in una rete di citazioni recipro- che. Insomma la delega che la comunità scientifica ha concesso alle riviste ed al loro comitato di redazione per i giudizi di merito scientifico non è priva di costi, anche in termini di integrità scientifica e morale. Da questo punto di vista non mi appassionano le analisi statistiche che discutono l’affidabilità come indici di qualità degli indicatori bibliometrici desunti dalle banche dati correnti1. La questione della loro affidabilità è in qualche modo secondaria. Il problema che io vedo è l’introduzione di criteri e poteri estranei al mondo scientifico, e potenzialmente inquinanti, nella valutazione del merito scientifico. Eppure non si può nemmeno ignorare il fatto che la banca dati dell’ISI è veramente inaffidabile nella attribuzione dei lavori agli autori, alle istituzioni cui sono affiliati e ai Paesi che le ospitano. Manca qualsiasi tentativo di identificare gli autori e controllare le omonimie anche solo parziali. Anche l’identificazione dei lavori scientifici è molto approssimativa e non tiene conto di banali errori e di varianti nell’identificazione della rivista o del titolo del lavoro. La banca dati è stata evidentemente progettata senza prevedere l’incredibile espansione dei suoi contenuti e la sua struttura non è mai stata adattata alle funzioni che le si chiedono. È certamente singolare che seri scienziati abituati ad osservazioni precise attribuiscano un valore obiettivo ad indicatori che sono prodotti da dati così poco affidabili. Ma torniamo ora alla questione politica. Quali rimedi possiamo proporre alla debolezza della comunità scientifica? Ben pochi in verità. La debolezza ‘politica’ della comunità scientifica è forse implicita nella natura stessa di una comunità che è, giustamente, priva di strumenti di organizzazione interna e di difesa nei confronti di poteri ad essa esterni. Tra l’altro, questa debolezza, così chiaramente evidenziata dalla perdita di autonomia rispetto al mondo dell’editoria scientifica, è una conseguenza negativa di uno sviluppo in gran parte 30 31 positivo: l’internazionalizzazione, dovrei dire la globalizzazione, della scienza. In effetti, la relativa forza delle comunità scientifiche nell’Ottocento e nella prima metà del Novecento era dovuta ad una stretta identificazione di ogni comunità scientifica con uno Stato sovrano che la proteggeva e la finanziava. La globalizzazione degli ultimi cinquanta anni è invece un ritorno alle condizioni di comunità internazionale della scienza che prevalevano fino a tutto il Settecento, quando la lingua della comunicazione scientifica era ancora, in molti casi, il latino. Non per nulla la scienza contemporanea ha ritrovato una lingua comune, che è una variante della lingua inglese, utilizzata nella comunicazione scientifica che, al contrario della variante principale, è povera nei vocaboli, elementare nella sintassi, resa piatta dall’esigenza di precisione, e totalmente priva di valore letterario. Nell’Ottocento e nella prima metà del Novecento sorsero invece comunità scientifiche nazionali, promosse dai governi con lo sviluppo delle università statali nell’Europa continentale. La forza di queste comunità era la forza dei governi che le proteggevano, una forza per la quale si pagava un prezzo. Basta rileggere i discorsi degli scienziati italiani durante il fascismo, pieni di ‘italianità’ e ahimè, dopo il 1938, di ‘arianità’, per convincersi di quanto fosse alto il prezzo di questa protezione. Ma non era solo il fascismo a promuovere assurde divisioni nel mondo scientifico. Possiamo ricordare che nel 1928 furono i matematici francesi, che dominavano l’Unione Matematica Internazionale, ad opporsi con forza alla partecipazione al Congresso Internazionale di Bologna dei matematici tedeschi, colpevoli solo di essere cittadini di un Paese che aveva combattuto la Francia nella Prima guerra mondiale. Salvatore Pincherle, che organizzava il Congresso, dovette ricorrere allo stratagemma di fare invitare i tedeschi dal Rettore di Bologna, faticando poi non poco per convincere i tedeschi a venire a Bologna, nonostante lo sgarbo del mancato invito ufficiale. Al giorno d’oggi, e specialmente dopo il crollo del blocco sovietico, non ha più senso parlare ad esempio di matematica italiana o fisica italiana. Le stesse cordate concorsuali, che infestano il nostro sistema di promozioni, hanno quasi sempre, almeno nella matematica, un collegamento internazionale, ed infatti funzionano come cordate a livello internazionale, intervenendo (con autorevoli lettere di presentazione) in tutti i processi di promozione, anche fuori d’Italia. Queste cordate internazionali sono legate da interessi subdisciplinari, e spesso si dedicano alla pratica di citazioni incrociate. In molti casi dispongono addirittura di una rivista internazionale di riferimento, naturalmente ben collocata nella banca dati dell’ISI. Un tempo, nelle grandi occasioni di conferimento di premi importanti, come la medaglia Fields in matematica, ed il premio Nobel nelle altre discipline, c’erano le comunità nazionali che ‘facevano il tifo’ o si muovevano con un’azione di lobbying a favore del loro candidato. Oggi l’azione di lobbying è esercitata da cordate internazionali legate da comuni interessi di ricerca, che si tramutano facilmente in comuni interessi di promozione e di carriera. Gli editori commerciali hanno avuto l’abilità di inserirsi in questo mondo scientifico globale, che è diviso tuttavia da interessi disciplinari e di settore, che si traducono in interessi di carriera. Non possiamo pensare di difenderci dallo strapotere degli editori con un ritorno al passato, restituendo il controllo delle pubblicazioni scientifiche alle ‘comunità scientifiche nazionali’ e alle istituzioni che le rappresentavano. Possiamo però mantenere viva la nostra capacità critica evitando di tramutarci in ignari propagandisti di un sistema all’interno del quale si intrecciano interessi estranei alla scienza, e dove sono possibili serie mancanze ai doveri di integrità scientifica, mancanze che, anziché punite, vengono spesso incentivate dal sistema. È perciò importante che in tutte le occasioni in cui siamo chiamati a valutare la ricerca scientifica dei colleghi tentiamo almeno di superare la tirannia dei numeri e degli indicatori e andiamo alla ricerca della sostanza, tenendoci 32 33 lontani da indici manipolabili come quello del numero delle citazioni. Persino la banca dati dell’ISI può aiutare in una valutazione seria dei lavori scientifici. Ad esempio può essere utile per cercare citazioni significative, da parte di esperti, che indichino il ruolo dei risultati citati nello sviluppo della disciplina. Citazioni di questo tipo sono molto rare e l’esplosione del numero delle citazioni ha reso più difficile trovarle. In qualche modo l’abuso della banca dati dell’ISI e la corsa, più o meno consapevole, a manipolarne gli indicatori, hanno reso impossibile utilizzarla per gli scopi, anche in termini di valutazione, per i quali era stata originariamente creata. Eppure non c’è dubbio che solo il contenuto delle citazioni, e naturalmente l’autorevolezza di chi cita, possono ragionevolmente fornire un’indicazione dell’impatto di un lavoro scientifico. Qualsiasi altro uso di indicatori e numeri di citazioni è altamente sospetto. Che sia possibile una valutazione seria della ricerca scientifica, nonostante l’esplosione del numero delle pubblicazioni, delle riviste e delle citazioni è dimostrato dal caso dei Research Assessment Exercises che si svolgono in Inghilterra. Non è qui il luogo per descriverli compiutamente. Basta dire che il risultato di queste valutazioni ha conseguenze importanti, a volte devastanti, sulla sorte delle istituzioni universitarie britanniche e sui singoli individui. Esse si basano sull’esame di un numero limitato di prodotti della ricerca (quattro in cinque anni) di un numero abbastanza esiguo di individui, e sono affidate a commissioni nazionali a tutti note che si assumono la responsabilità delle decisioni. Siamo quindi ben lontano dal famigerato sistema degli anonymous referees utilizzato in Italia nelle valutazioni dei progetti. Certamente anche i membri di queste commissioni saranno influenzati dai luoghi di pubblicazione degli articoli che esaminano. Ma sono loro stessi responsabili per il loro giudizio e non possono celarsi dietro arcane elaborazioni di numeri provenienti da banche dati di cui nessuno è in grado di garantire l’affidabilità. 34 Note 1 Un’analisi statistica interessante si trova, ad esempio in Per O. Seglen, Why the Impact Factor of Journals should not be used for evaluating Research, in “British Medical Journal”, n. 314, 1997, pp. 498-502. 35 Chi ha paura della bibliometria? Daniele Archibugi Consiglio Nazionale delle Ricerche, Roma London School of Economics and Political Science Uno dei compiti principali degli scienziati è misurare i fenomeni. Il progresso scientifico è andato avanti di pari passo con la possibilità di raccogliere informazioni quantitative sulla realtà. Nel corso dei secoli, queste informazioni sono vertiginosamente aumentate, sia in termini quantitativi (si raccolgono dati su più problemi) che in termini qualitativi (i dati raccolti diventano più affidabili e dettagliati). La metrica è stata uno dei fattori più rilevanti del progresso scientifico, e la capacità immaginativa degli scienziati è stata usata per misurare l’immisurabile. Gli studiosi non hanno solo inventato metodi per pesare le patate, ma in tempi recenti la metrica si è estesa anche a campi del tutto immateriali. Lo stress, il grado di democraticità di uno Stato, il quoziente intellettuale di un individuo, perfino il sex appeal sono oggi oggetto di misurazione, eseguite molto spesso da membri della comunità scientifica. Gli studiosi giustificano la loro funzione sociale, e il fatto di richiedere alla società di provvedere al proprio mantenimento, anche perché svolgono il ruolo di misuratori. Pensiamo, ad esempio, ai dati meteorologici: non sempre questi dati sono collegati a modelli teorici, ma sono raccolti periodicamente per 37 ragioni descrittive. Spesso ci sono anche delle ragioni strumentali: gli accademici hanno, infatti, appreso che è più facile ottenere un finanziamento se ci si propone di creare una nuova banca dati piuttosto che per verificare qualche propria intuizione non compresa dal committente. La mole di dati che hanno prodotto gli scienziati nel corso degli ultimi due secoli è impressionante, così notevole che i contribuenti hanno accettato di buon grado di mantenerli. I dati, infatti, sono spesso di pubblico dominio, e anche quando uno studioso li accumula e li utilizza per fini insoddisfacenti o del tutto sbagliati, possono poi rivelarsi utilissimi per indagini scientifiche di altra natura. Difficile districarsi nell’universo dell’informazione statistica disponibile. Molti di questi dati non sono di interesse generale, ma possono essere vitali per specifiche categorie. Ad esempio, suppongo che le agenzie di viaggi consultino con supremo interesse i dati della Banca Mondiale sui flussi di turisti (World Bank, World Development Indicators, Washington, D.C., 2003, tab. 6.14), il nostro Ministro della Pubblica istruzione farebbe bene a leggere con attenzione i dati relativi all’alfabetizzazione pubblicati dalle Nazioni Unite (UNDP, Annual Report 2002, Oxford, 2002, tab. 10), le femministe e i ministri per le Pari opportunità dovrebbero trovare istruttivi i dati sulle differenze esistenti nella speranza di vita alla nascita pubblicati dalle Nazioni Unite (UNDP, cit., tab. 22). L’utilizzazione dei dati spesso prescinde dalle ragioni per cui essi sono stati raccolti e pubblicati. Ad esempio, i dati sul numero di ascensori sono raccolti dalle imprese produttrici per ragioni industriali. Eppure, queste informazioni statistiche si dimostrarono molto utili per i programmi demografici delle Nazioni Unite. Poiché due fattori determinanti della crescita demografica sono il reddito e la concentrazione urbana, e poiché gli ascensori sono positivamente correlati ad entrambi i fattori, il numero degli ascensori si dimostrò utile per fare proiezioni demografiche (più elevato è il numero di ascensori in un’area e più è contenuto il suo tasso di sviluppo demografico). Il caso suscitò salutare ilarità: per risolvere il problema demografico della Cina o dell’India – disse qualcuno – basta dunque costruire molti ascensori nel mezzo delle campagne più popolate? Dietro la domanda c’era la solita incomprensione tra il metro e il fenomeno: tutti noi, da bambini, abbiamo sperato di farci passare la febbre rompendo il termometro o immergendo la colonnina del mercurio nell’acqua gelata. Con la maturità, che spesso non si raggiunge neppure frequentando un dottorato di ricerca, molti – ma non tutti – hanno appreso che la causalità è leggermente diversa. Trovo sorprendente che la comunità scientifica, gruppo di persone che giustifica la propria funzione sociale perché genera dati, sia così spesso ostile alla raccolta di dati che riguardano se stessa. Questa ostilità non è totale. Non mi è mai capitato di incontrare ostilità perché si raccolgono dati sull’età media dei docenti universitari, sulla loro suddivisione in uomini e donne, sulla fascia retributiva. E sono sicuro che non ci sarebbero contestazioni neppure se qualcuno volesse raccogliere informazioni sul numero di docenti che portano gli occhiali o che vanno all’università in bicicletta. Ma quando si tratta di produrre dati relativi alla produzione scientifica o didattica dei docenti, si scatena un fuoco di fila. Un rappresentante degli studenti, raccolte le lagnanze dei suoi colleghi sulle difficoltà a trovare un docente disposto a seguirli per le tesi di laurea, propose durante un Consiglio di Facoltà di affiggere in bacheca il numero di laureandi di ciascun docente: provocò una cagnara tale che il Preside fu costretto a sospendere la seduta. Ancora più forte è l’opposizione nei confronti degli indicatori bibliometrici. In questo caso, non si tratta di un indicatore dell’attività didattica, ma dell’attività di ricerca scientifica. Il 38 39 nervo scoperto degli accademici è così sensibile che si arriva a vere e proprie posizioni oscurantiste, quasi che la raccolta stessa dei dati, prima ancora che la loro utilizzazione, sia un’offesa alla comunità scientifica e all’onore personale degli studiosi. Come si spiega questa reazione? Gli indicatori bibliometrici hanno infiniti usi. Tra l’altro, possono essere utilizzati per misurare: 1) la capacità scientifica dei Paesi (quante pubblicazioni ha prodotto in un anno l’Italia e quante la Francia?); 2) la specializzazione scientifica di un Paese (qual è la quota delle pubblicazioni italiane nel campo della matematica e quale nel campo della fisica?); 3) le attività scientifiche svolte nelle varie regioni (quante pubblicazioni scientifiche vengono generate in Sicilia e quante in Sardegna?); 4) le attività scientifiche di una università, di una facoltà o di un dipartimento, e metterle a confronto con altre istituzioni comparabili (quante sono le pubblicazioni dell’Università di Roma e quante quelle dell’Università di Madrid? E qual è il rapporto tra i dipartimenti di economia di Roma e Madrid?); 5) le interazioni tra i vari settori disciplinari (quanti sono gli articoli di matematica citati negli articoli di fisica e viceversa?); 6) le dinamiche demografiche della comunità scientifica (come è distribuita la produzione di articoli per fasce d’età?); 7) le differenze per fasce di età tra le varie discipline (è vero che i fisici danno contributi rilevanti molto più precocemente degli storici?); 8) le differenze per sesso (a quanto ammonta la produzione femminile sul totale delle pubblicazioni, e quanto sta aumentando in Svezia e in Turchia?); 9) le collaborazioni scientifiche internazionali (quante sono le pubblicazioni in collaborazione tra italiani e tedeschi e tra italiani e francesi?); 10) la produttività scientifica, qualitativa e quantitativa, di ciascuno studioso (quanti articoli hanno pubblicato Tizio e Caio? E quante volte sono stati citati dai loro colleghi?). 40 41 La lista è, ovviamente, del tutto insoddisfacente, e basterebbe prendere le annate delle riviste che si occupano di ‘scienza della scienza’ (tra le quali “Research Policy”, “Scientometrics”, “Science and Public Policy”, “Technological Forecasting and Social Change”, “Science”, “Technology and Human Values”) o anche riviste generaliste quali “Science” e “Nature” per rendersi conto che i dati bibliometrici possono essere usati per molti altri scopi. Tra tutti questi usi, l’ostilità della comunità scientifica è in genere riservata ad un solo uso, il decimo. La ragione è assai semplice: a nessuno, neppure agli accademici, piace essere valutato. Il problema è tutt’altro che nuovo. Quando nel nostro Paese le banche e gli uffici postali hanno tentato di contabilizzare il numero di operazioni svolte da ciascun impiegato addetto allo sportello, i lavoratori si sono opposti. Gli impiegati hanno fatto presente che occorreva prendere in considerazione tanti fattori diversi, e che il solo conteggio delle operazioni, ignorando il livello di istruzione dei clienti (all’analfabeta bisogna scrivere il modulo, al commercialista no), non consentiva di considerare affidabile l’indicatore ‘numero di operazioni svolte’. Non credo che avessero torto: è probabile che in alcune aree, dove il livello di istruzione dei clienti è più alto, ci sia meno lavoro per gli impiegati e viceversa, così come è probabile che fornire un estratto conto richieda meno tempo di dare un libretto degli assegni. Eppure, la mente allenata di un accademico (specie quando si trova in fila per eseguire un’operazione in banca o alla posta) ribatte subito a queste legittime obiezioni del sindacato bancario e dei postini facendo notare che si può ponderare per il diverso grado di istruzione dei clienti, e anche per la macchinosità delle varie operazioni di sportello. Perché la stessa cosa non dovrebbe essere valida per quanto riguarda i dati bibliometrici? È sempre utile guardare alle fonti statistiche con il necessario senso critico. Prima di tutto, perché i dati possono sempre essere migliorati, e resi più precisi e dettagliati. E poi, perché i dati, come tutto ciò che è prodotto dagli esseri umani, possono sempre essere manipolati. Ma nei confronti di questi problemi, l’atteggiamento può essere duplice: da una parte c’è chi intende buttare via il bambino con l’acqua sporca, dall’altra chi vuole migliorare e magari controllare la qualità delle informazioni fornite. Recentemente, ad esempio, i dati sul tasso d’inflazione (uno degli indicatori economici più rilevanti, e che ci dice qualcosa di molto rilevante sull’andamento del nostro tenore di vita) sono stati criticati da più parti. Non c’è stato nessuno che ha sostenuto che bisognava smettere di raccogliere i dati sull’andamento dei prezzi, né che bisognava smettere di usare quell’indicatore. Ma tutti hanno richiesto verifiche indipendenti ed una maggiore precisione nella raccolta dei dati. Mi permetto allora di fare qualche osservazione rispetto a quanto affermato da Alessandro Figà Talamanca nella sua nota su Uso e abuso delle banche dati nella valutazione delle riviste e della qualità scientifica: un problema di potere. 1) È certo che le informazioni bibliometriche sono un’indicazione di potere. Non ci avvertiva già Francesco Bacone che il sapere è potere? Lo stesso vale per le statistiche sulla produzione, sull’inflazione, sulla criminalità, sulle interruzioni volontarie di gravidanza, sui divorzi e sugli incidenti stradali. Di fronte a questo potere – che può essere usato e abusato – è necessario che la comunità scientifica mantenga la propria autonomia, che si assuma determinate responsabilità etiche e che ci sia anche un controllo democratico, esercitato dai vari portatori d’interesse. Ma in nessun caso è tollerabile che una fonte di informazione, solo perché fonte di potere, debba essere ignorata o accantonata. 2) Se la comunità scientifica si è fatta soffiare il mercato delle riviste da case editrici profit, deve solamente rimproverare se stessa. Alcune delle riviste più diffuse sono quelle delle società accademiche non-profit; la diffusione della rivista ai soci membri consente di conseguire elevate tirature a prezzi unitari modici. Queste riviste sono spesso le più trasparenti, quelle con l’impact factor più elevato e con la maggiore selettività. In molti casi, queste riviste hanno conti in attivo, fino al punto che possono finanziare borse di studio o rendere alla comunità scientifica di riferimento servizi ausiliari. Le preoccupazioni di Figà Talamanca sono dunque condivisibili, ma dovrebbero portare la comunità scientifica a riprendere un maggiore controllo sui frutti del proprio lavoro. Gestire una rivista è un compito oneroso, che spesso implica togliere lavoro allo studio, alla ricerca e al tempo libero. Probabilmente, le case editrici commerciali sono diventate così potenti semplicemente perché la comunità scientifica è stata troppo pigra. Prendiamocela allora con la nostra pigrizia, piuttosto che con l’avidità delle case editrici. 3) L’Institute of Scientific Information ha grandi meriti, che generano anche molti rischi. Il merito è stato di aver aggiunto una fonte d’informazione che, se ben adoperata, è utilissima. Il rischio è che l’Istituto ha concentrato un potere monopolistico (già Joseph Schumpeter faceva presente che spesso gli innovatori che creano un nuovo prodotto si ritrovano a gestire un monopolio). Ciò significa che l’accesso è troppo oneroso e che ci possono essere discriminazioni dovute a ragioni commerciali. Come si 42 43 risponde ad una sfida proveniente da un monopolista, per quanto abbia avuto il merito di essere un pioniere? Tramite la creazione di fonti alternative. La rivoluzione informatica ha reso molto più basso il costo e molto più facile l’accesso alle fonti. In molti settori disciplinari esistono delle banche dati che forniscono informazioni più ricche, accurate e dettagliate di quelle fornite dall’ISI. È facile prevedere che le fonti disponibili, anche grazie agli avanzamenti nelle tecnologie dell’informazione e della comunicazione, aumenteranno. 4) Non riesco a capire in che misura l’editore (commerciale) di una rivista possa incidere sulle scelte editoriali. Sono membro del comitato di redazione di sei riviste con editori commerciali, e non ho mai subito pressioni. Se il fenomeno si manifesta (e non si può escludere) credo che sia opportuno denunciarlo pubblicamente, con nomi e cognomi. Sarebbe sufficiente a screditare la rivista in questione. 5) Nella sua requisitoria contro l’impact factor, Figà Talamanca sovrappone la disponibilità dei dati con la loro eventuale utilizzazione. L’osservazione secondo la quale una rivista privilegia l’autocitazione è giusta (non fu già Woody Allen a mettere in guardia dal pericolo di citarsi addosso?). Singoli studiosi, studiosi appartenenti alla stessa scuola o addirittura allo stesso Paese, così come gruppi che appartengono allo stesso collegio invisibile, hanno la brutta, ma altrettanto inevitabile, tendenza a citarsi tra loro. Non sempre ciò dipende da malafede: citiamo quel che leggiamo, e spesso leggiamo le opere delle persone a noi più vicine fisicamente. Ma per quanto riguarda l’impact factor, è da molto tempo che chi lavora con gli indicatori bibliometrici ha affrontato il problema: è prassi abbastanza diffusa considerare l’impact factor includendo e escludendo le autocitazioni (ciò vale sia per i singoli studiosi che per le riviste). Se c’è una vistosa differenza tra i due impact factor (con e senza le autocitazioni), l’autore o la rivista viene definito auto-referenziale. In italiano si potrebbe dire che l’autore, o la rivista, se la canta e se la suona. Non è proprio un complimento. Il punto che voglio sottolineare è che c’è sempre la possibilità, con banalissimi accorgimenti statistici, di superare gli ostacoli, qualora non ci sia una volontà preconcetta di sbarazzarsi della bibliometria. Figà Talamanca sostiene che «la questione della affidabilità [degli indicatori bibliometrici] è in qualche modo secondaria»; si sentirebbe di sostenere la stessa cosa per le statistiche sul tasso d’inflazione o su quelle epidemiologiche? Ma veniamo al nocciolo del problema, quello che scatena i sospetti di tanti, incluso Figà Talamanca: gli indicatori bibliometrici sono utili per la valutazione della ricerca? Ad una domanda così generale non si può dare una risposta secca. Una risposta esauriente sarebbe necessariamente più lunga ed articolata di quanto possa essere qui formulata. Direi che ovviamente dipende dagli obiettivi che si prefigge la valutazione, dal metodo applicato, dall’area disciplinare e da tanti altri elementi. Ma provo lo stesso ad indicare alcuni capisaldi. Qualsiasi valutazione è meglio di nessuna valutazione. Valutare la ricerca scientifica, come valutare qualsiasi altra attività umana, richiede elevata responsabilità. Si ha a che fare con la vita di esseri umani, e la cautela è d’obbligo. Ma i refrattari alla valutazione spesso ignorano che l’assenza di valutazione è essa stessa un tipo di valutazione, e che tra tutte è quella peggiore. I finanziamenti pubblici per l’università e la ricerca sono comunque allocati, si fanno i concorsi e nuovi studiosi entrano nel mondo accademico (mentre altri ne rimangono fuori) e quelli esistenti sono promossi (mentre altri non sono promossi). Tutte queste scelte comportano una valutazione. La valutazione può essere casuale (le assunzioni o le promozioni si fanno tramite 44 45 sorteggio), può basarsi su criteri extra-scientifici (è assunto o promosso il più fedele, il più bello, il figlio dell’amico o l’amica del collega) o su criteri scientifici (è assunto il più promettente e promosso il più bravo). Non credo che ci sia qualcuno che è oggi soddisfatto dei criteri di valutazione esistenti nel mondo accademico italiano. S’impone quindi la domanda: può l’attuale valutazione, essenzialmente composta dai giudizi dei più anziani e al di fuori di qualsiasi controllo esterno, essere migliorata? La mia riposta è che, per evitare il già evidente declino della scienza italiana, essa debba e possa essere migliorata. La valutazione non si fa automaticamente. In nessun Paese del mondo, neppure nel mondo anglosassone (dove pure se ne fa largo abuso), gli indicatori bibliometrici e il temutissimo impact factor vengono utilizzati in modo automatico. Nessuno pensa, per fortuna, che una banca dati bibliometrica possa o debba sostituire la capacità critica dei colleghi. Solamente in un Paese a rapida trasformazione come la Spagna sono stati introdotti criteri più rigidi, ma sempre subordinati ad un giudizio individuale. La polemica di Figà Talamanca mi sembra dunque fuori bersaglio: rivela timori atavici più di quanto sia una critica nei confronti di pratiche valutative esistenti in Italia o in qualsiasi altra parte del mondo. Le banche dati bibliometriche forniscono informazioni estremamente valide. Sarebbe però insensato ignorare le informazioni provenienti dagli indicatori bibliometrici. In molti casi, queste informazioni aiutano a compiere scelte più consapevoli. Nel caso in cui una Facoltà debba chiamare un nuovo docente, e la materia del docente non è quella nella quale siamo competenti, perché dobbiamo rimetterci esclusivamente al parere di un collega? Non è più sensato verificare se le informazioni che ci sono fornite dal collega (che in genere è colui che lo propone) trovano anche un riscontro nella letteratura accademica? Lo stesso vale per i concorsi accademici. Non è opportuno valutare congiuntamente le pubblicazioni presentate ad un concorso e il riscontro che hanno avuto nelle riviste internazionali? La miglior valutazione si deve basare su criteri multipli. Sappiamo bene che tutti i criteri di valutazione sono soggetti a manipolazione. Anche senza che ci sia una malafede, i ‘valutandi’ si aggiustano ai criteri di valutazione. Se tra i criteri di valutazione di un sistema accademico si dà un peso privilegiato agli articoli pubblicati in collaborazione con studiosi di altri Paesi, è naturale che i valutandi inizieranno a ricercare collaboratori al di fuori delle frontiere. Per questo, è importante che i criteri di valutazione non siano solamente degli indicatori, ma anche degli obiettivi. La valutazione esclusivamente quantitativa genera una proliferazione di pubblicazioni che diventa difficile leggere. I Research Councils britannici hanno opportunamente limitato il numero delle pubblicazioni che ciascun studioso può sottoporre alla valutazione periodica. L’effetto è stato quello di premiare la qualità, piuttosto che la quantità. Una valutazione efficace si deve basare su vari criteri. Le lettere di referenza (lì dove sono previste), le pubblicazioni, la capacità di dirigere progetti di ricerca, la capacità didattica, l’abilità nel formare nuovi ricercatori, l’impatto ottenuto con il proprio lavoro sono tutti criteri che dovrebbero essere tenuti in considerazione. Poiché il gruppo dei valutati si adegua facilmente («fatta la legge, trovato l’imbroglio», direbbero i più scettici), non è insensato cambiare frequentemente i criteri della valutazione. 46 47 Purtroppo, la strada che deve compiere l’accademia italiana prima di giungere ad una valutazione consapevole e comparabile a quella esistente in altri Paesi è ancora molta. Il cammino è arduo, e credo che le energie disponibili debbano essere utilizzate per denunciare l’assenza di una cultura della valutazione, piuttosto che per screditare fonti statistiche che, per quanto imperfette, sono strumenti utili. Nota di commento di Alessandro Figà Talamanca L’intervento di Daniele Archibugi è in gran parte condivisibile, anche quando polemizza con posizioni che mi attribuisce, e che non mi sembra di sostenere. C’è spazio però per alcuni commenti alle sue argomentazioni. Non c’è dubbio che il progresso scientifico sia andato di pari passo con la possibilità di raccogliere informazioni quantitative sulla realtà. Ma solo a patto che le variabili misurate siano rilevanti e, possibilmente, si inseriscano in un modello capace di spiegare la realtà osservata. La classificazione del mondo animale di Linneo sorprende ancora per la sua aderenza a dati, in ultima analisi quantitativi (sul genoma), che egli non poteva misurare. Ma se, preso dall’ansia di misurare, Linneo avesse basato la sua classificazione sul peso degli animali non avrebbe certo potuto riconoscere nel gatto un parente stretto del leone. Magari il gatto sarebbe stato classificato assieme al coniglio ed il leone assieme al bue. Un secolo fa una delle discipline più importanti e ‘moderne’ era senza dubbio l’‘antropometria’, basata sulle misurazioni dei crani, e degli arti degli esseri umani. Eppure, nonostante l’accuratezza delle misure, e l’ingegno degli scienziati che la coltivavano, l’antropometria non ha portato ad alcun progresso nella conoscenza dell’umanità. Giustamente questa disciplina scientifica è caduta nel dimenticatoio. Tutti speriamo che questo non accada alla scientometria, ma ne siamo proprio sicuri? Ha proprio ragione Daniele Archibugi quando dice che è necessario guardare alle fonti statistiche con il necessario senso critico, ma che non bisogna buttare via il bambino con l’acqua sporca. Tuttavia per me il ‘bambino’ è una banca dati accurata e affidabile come quella dell’American Mathematical Society (AMS) che si riferisce a tutta la produzione matematica mondiale, e l’acqua sporca è la banca dati dell’Institute for Scientific Information. La differenza è, in massima parte, dovuta agli scopi che si propongono le organizzazioni che curano la raccolta dei dati. L’ISI si propone, come ogni azienda privata, di arricchire i suoi azionisti, e l’AMS di essere utile allo sviluppo delle scienze matematiche. Sono d’accordissimo sulla necessità di creare fonti alternative all’ISI. Quando i dati servono per valutazioni effettuate da un soggetto pubblico è indispensabile che siano completi e affidabili. Per questo è importante creare una banca dati ufficiale ed affidabile della produzione scientifica pubblica in Italia che ci consenta finalmente di buttar via l’acqua sporca e mettere alla porta i suoi zelanti venditori. Osservo anche che denunce, con nomi e cognomi, di direttori di riviste che hanno sollecitato dagli autori citazioni di articoli della stessa rivista hanno, per ora, prodotto solo difese d’ufficio da parte dell’ex proprietario dell’ISI (E. Garfield, lettera pubblicata dal “British Medical Journal”, 1997; 314:1756, 14 june, dal titolo Editors are justified in asking authors to cite equivalent references from the same journal). Basta comunque poco per mettere in riga gli autori sempre desiderosi di compiacere i direttori delle riviste. Un buon sistema di estorsione non ha bisogno di atti dimostrativi. Sono completamente d’accordo con Archibugi quando auspica che i criteri di valutazione non siano solo degli indicatori, ma anche degli obiettivi. Proprio per questo egli dovrebbe essere d’accordo con me quando dico che un indicatore di qualità dovrebbe essere giudicato principalmente sulla base dei comportamenti cui dà luogo. Se gli obiettivi che ci si propone fossero quelli di moltiplicare il numero delle pubblicazioni scientifiche, moltiplicare il numero delle riviste scientifiche ‘di grande prestigio internazionale’, moltiplicare il numero delle citazioni, senza riguardo al loro contenuto, e comunque, arricchire gli azionisti dell’ISI, anche l’impact factor risulterebbe un buon indice per misurare qualcosa che si potrebbe anche convenzionalmente definire ‘qualità’. Dopotutto un nome è un nome e, come dice Giulietta: «That which we call a rose by any other name would smell as sweet» (W. Shakespeare, Romeo and Juliet, Act II, Scene II). 48 49 Indicatori di qualità delle pubblicazioni scientifiche ed open access Anna Maria Tammaro Università degli Studi di Parma Dipartimento dei Beni Culturali e dello Spettacolo Introduzione Nella società dell’informazione, in cui tutti i membri sono attivamente impegnati nell’accesso alla conoscenza, si confrontano due diversi concetti di accesso: il primo che vede una disseminazione lineare della conoscenza a precisi target, l’altro che si basa su un accesso aperto ed interattivo1. Anche nei sistemi di valutazione della qualità delle pubblicazioni scientifiche esistono due diversi approcci, quello tradizionale e quello open access, che ci si propone di descrivere come chiave di comprensione delle dinamiche in corso nella comunità scientifica e soprattutto come motivazione delle ragioni per cui si dovrebbero adottare soluzioni aperte nel prossimo futuro. Si può qui anticipare che i due approcci hanno finalità diverse e complementari e non si intendono quindi presentare come contrapposti, ma come un continuum che caratterizza l’attuale periodo di transizione. C’è oggi un nuovo scenario per la comunicazione scientifica che vive un periodo di grandi cambiamenti, come l’incertezza del modello economico delle pubblicazioni scientifiche, l’im- 51 patto delle nuove tecnologie, le nuove attitudini dell’utenza nella ricerca dell’informazione. L’attuale ricerca sui sistemi di valutazione2 delle pubblicazioni scientifiche dà maggiore importanza che in passato agli indicatori politici, intesi come comprensione delle implicazioni politiche per i risultati della ricerca e come necessità di maggiore apertura alla società. Tuttavia, la valutazione nell’attuale sistema delle pubblicazioni scientifiche, peraltro riconosciuto da molti come costoso ed inefficace, si basa sul fatto che la qualità non possa essere quantificata. Dall’analitica rassegna di Borgmann e Furner sulla bibliometria (2002) si evidenzia che il sistema di valutazione delle pubblicazioni scientifiche determina molti dei comportamenti conservativi degli autori. In altre parole, il riconoscimento che gli autori si aspettano dalle pubblicazioni potrebbe essere considerato un fattore chiave per il cambiamento del tradizionale ciclo di creazione, disseminazione ed uso delle pubblicazioni scientifiche. I cambiamenti esternamente più evidenti nella comunicazione scientifica sono dovuti all’impatto delle nuove tecnologie dell’informazione e della comunicazione (ICT), come la comunicazione informale attraverso la posta elettronica, la collaborazione a progetti comuni a grandi distanze, la pubblicazione e la disseminazione delle pubblicazioni usando il web ed i collegamenti ipertestuali tra articoli. Eppure questi cambiamenti di tecnologia non sembra che abbiano parallelamente cambiato il comportamento degli autori scientifici (Kling, McKim, 1999; Borgmann, Furner, 2002) che continuano ad usare il canale preferenziale delle pubblicazioni a stampa. Hanno tuttavia un grande impatto sui lettori di pubblicazioni scientifiche, cioè soprattutto gli accademici come lettori, facendo prevedere in futuro un’importanza maggiore di oggi degli studi sull’utenza per la valutazione di qualità delle pubblicazioni scientifiche (Rowlands, 2003). Chi deve prendere decisioni politiche ha necessità diverse dai lettori e dagli autori. Lo scopo dei politici è quello di capire il vero impatto della produzione di conoscenza. Molti degli indicatori politici sono basati su misure di input e tendono all’efficienza. Le ristrettezze economiche spingono ad una maggiore trasparenza dei risultati della ricerca scientifica, anche per concentrare le risorse in centri di eccellenza che sembrano ottenere migliori rapporti costi/benefici. Questo non significa tuttavia che ci sia sfiducia nell’attività di ricerca e che si vogliano quindi operare dei controlli; all’opposto l’atteggiamento dell’opinione pubblica in Europa è molto favorevole nei confronti della scienza, che viene percepita alla base dello sviluppo economico e sociale. Per Rowlands (2003) indicatori meramente economici non sono soddisfacenti per la valutazione di qualità; ci si dovrebbe chiedere ad esempio: «Quali sono i collegamenti tra la ricerca ed un migliore stato di salute?». Lo sviluppo attuale di indicatori di qualità per le pubblicazioni scientifiche si può dire che rifletta il rinnovato interesse della società per la ricerca scientifica. L’esigenza per i politici è quella di strumenti metodologici ancora più flessibili ed analitici degli attuali indicatori bibliometrici. 52 53 Indicatori di qualità delle pubblicazioni scientifiche La qualità è un concetto contestato ed ha diversi significati per i diversi interessati (stakeholders)3. In mancanza però di un modello di riferimento ed anche di linee guida condivise sulla valutazione della ricerca scientifica, l’analisi dei risultati si basa su un ventaglio di indicatori che vengono classificati spesso in opposizione reciproca: indicatori quantitativi vs qualitativi, indicatori di fattori produttivi (input) vs indicatori di prodotti (output), indicatori di ricerca scientifica vs di ricerca tecnologica (De Marchi, Rocchi, 2000). Il presente lavoro vuole essere una rassegna bibliografica sugli indicatori di qualità delle pubblicazioni scientifiche, senza pretesa di esaustività, ma descrivendo le opportunità e le debolezze degli indicatori, nella transizione alle pubblicazioni scientifiche in ambito web, per arrivare a definire le problematiche e gli ostacoli da rimuovere nell’ottica dell’apertura e della migliore comunicazione tra politici, industria e comunità scientifica. Lo scopo è in particolare quello di focalizzare la nuova situazione creata dall’accesso aperto (open access), che ha delle implicazioni molto importanti per la scelta degli indicatori di qualità. In sostanza, occorre capire la transizione al digitale e l’impatto che questo avrà nella disseminazione della conoscenza. Il modello usato per la valutazione delle pubblicazioni scientifiche è rappresentato schematicamente nella Fig. 1. Gli indicatori di qualità delle pubblicazioni scientifiche sono qui rappresentati come un continuum rispetto a due importanti variabili: X: Giudizio chiuso o aperto: sono o non sono esplicitati criteri, metodi e scelte interpretative. Ci si rifà al concetto di accesso, inteso o come trasmissione lineare o come interazione e negoziazione aperta. Y: Autovalutazione o valutazione esterna: la valutazione può essere interna o esterna alla comunità scientifica. In un’ottica di apertura, la combinazione dei due approcci è inevitabile. Il diagramma ha lo scopo di rappresentare in modo visivo le caratteristiche fondamentali dei più diffusi sistemi di valutazione di qualità delle pubblicazioni scientifiche, che verranno in seguito ampiamente descritti. In particolare, bisogna riconoscere i fattori in gioco che incidono sui giudizi di qualità: Criteri della valutazione: spesso impliciti, sono strettamente legati agli obiettivi della valutazione che i diversi stakeholders hanno nel definire la qualità. Possono essere imposti, come nel caso della valutazione esterna, o autodeterminati, come nel caso della valutazione interna. Una terza possibilità potrebbe prevedere la combinazione di criteri interni ed esterni alla comunità scientifica, ad esempio con il riuso di indicatori di qualità per scopi diversi. Metodologia della misurazione: anch’essa strettamente legata ai criteri ed agli obiettivi della valutazione, riguarda in particolare cosa viene misurato e come viene misurato (la raccolta dei dati). Può essere controllata completamente nella valutazione interna o autovalutazione oppure essere basata su una raccolta di dati controllata dall’esterno. Analisi dei risultati: non è mai ‘obiettiva’, come si tende a definire in modo semplicistico, ma la sua scientificità deve basarsi su criteri chiaramente espressi e su una metodologia ben definita. In questo senso può definirsi aperta o negoziata un’interpretazione che, oltre ad essere trasparente nel processo seguito, consente un’interazione positiva con altri valutatori ed i valutati e soprattutto con altri giudizi di qualità. In questo senso, il giudizio aperto o chiuso si intende con la più generica 54 55 Figura. 1 Modello per la valutazione delle pubblicazioni scientifiche formulazione, sostanzialmente ingannevole, di giudizio soggettivo e giudizio oggettivo. Sinteticamente, gli attuali sistemi di indicatori di qualità delle pubblicazioni scientifiche possono essere così definiti: Tabella 1. Schema degli indicatori e giudizi per la valutazione delle pubblicazioni scientifiche Il sistema della comunicazione scientifica si è finora basato prevalentemente sui giudizi di merito degli esperti, attuata attraverso la peer review4 delle pubblicazioni. È detta valutazione formativa perché condotta nella fase ex ante, per evidenziare ed eventualmente correggere eventuali difetti, ma viene ampiamente usata anche per la valutazione successiva alla pubblicazione. Questo modo di filtrare la qualità ha lo scopo di migliorare le pubblicazioni scientifiche. Il paradosso che viene evidenziato è che la comunità scientifica, che usa da così lungo tempo e sembra condividere determinati valori e criteri per la valutazione delle pubblicazioni scientifiche, non sia riuscita a comunicare questi valori di qualità al di fuori della comunità stessa e, in particolare, ai detentori di scelte politiche ed all’opinione pubblica in genere. Il sistema delle pubblicazioni scientifiche, a partire dagli anni Settanta, è stato oggetto di analisi da parte della biblio- 56 metria, disciplina basata sullo studio quantitativo delle pubblicazioni, al fine di derivarne indicatori rilevanti e soprattutto indicatori politici per attuare una comparazione nazionale ed internazionale (utili a prendere decisioni o a distribuire finanziamenti). Gli indicatori bibliometrici o quantitativi sono stati in particolare oggetto di una vivace ed animata discussione, soprattutto quando, al ridursi del budget, sono stati usati per la distribuzione dei finanziamenti. Sono stati spesso contrapposti agli indicatori qualitativi ed all’autovalutazione. Entrambi i metodi hanno punti di forza e punti di debolezza. Nel caso di indicatori meramente bibliometrici non si è in grado di valutare la reale qualità delle singole pubblicazioni, nel caso del giudizio di merito si configura il rischio della autoreferenzialità, o i perversi effetti di chiusura alle novità ad opera di scuole di pensiero dominanti. A livello nazionale, un giusto equilibrio è stato espresso dal Comitato di Indirizzo per la Valutazione della Ricerca (CIVR)5: La valutazione della ricerca è un processo fondato sull’analisi di dati ed informazioni che conduce ad un giudizio di merito. L’obiettività della procedura presuppone: – criteri e metodologie pre-definiti – valutatori esterni alla struttura da valutare. È evidente che sarà necessario arrivare ad una combinazione di analisi quantitative e di giudizi di merito, anche usando le nuove opportunità delle tecnologie. Nel passaggio al web della comunicazione scientifica, con lo stabilirsi di nuovi modelli di pubblicazioni, sono emersi nuovi modi di valutazione di qualità in linea e nuove opportunità di analisi, ancora non ben radicati sia nella comunità scientifica che tra i politici. Quali sono gli ostacoli e le barriere al cambiamento del sistema di valutazione? Occorre porsi alcune domande fondamentali: Cosa si valuta? Come si valuta? 57 Cosa si valuta? Caratteristiche e tipologie delle pubblicazioni scientifiche La ricerca scientifica è portata avanti in un flusso di scambi continui tra gli autori, chiamato propriamente comunicazione scientifica. La definizione di Pierce evidenzia che la pubblicazione scientifica è un’attività essenziale della comunicazione scientifica, in cui gli studiosi sono legati da relazioni e collegamenti. Tuttavia, ancor prima di arrivare ad una pubblicazione, l’invisible college degli studiosi condivide e discute idee ed ipotesi di ricerca, attraverso vari canali comunicativi, come i convegni, la corrispondenza, i contatti personali ed attualmente usando le opportunità comunicative di Internet. In molte discipline si è da tempo affermato un sistema di scambio di preprint, pubblicazioni in bozza, inviate ad altri autori specializzati per ricevere commenti e suggerimenti. Da questa modalità comunicativa ha preso recentemente avvio il fenomeno più innovativo di comunicazione scientifica: i depositi di e-print distribuiti via web, definiti enfaticamente subversive proposal ma che stentano a diffondersi al di fuori di alcune discipline. Una caratteristica delle pubblicazioni scientifiche è il sistema delle citazioni. Il sistema fa parte integrante, e secondo alcuni necessaria, della metodologia scientifica, insieme alla verificabilità della metodologia usata. Gardfield (1955) ha prodotto uno schema con le quindici ragioni per cui gli autori citano altri autori, in cui presume tra i principali motivi che l’autore voglia citare: – tutte quelle opere necessarie per definire lo stato dell’arte della disciplina; – le opere di qualità ed in ogni caso quelle opere da cui ha ricevuto un contributo. Questo schema tuttavia non è basato su metodi di ricerca ma costruito in base alle intuizioni dell’autore, ed è stato successivamente il criterio fondante degli indicatori bibliometrici citazionali (Trasmissione d’élite o accesso alle conoscenze?, 2002). Nessun lavoro scientifico verrebbe considerato tale se non facesse uso di citazioni, secondo l’uso particolare della singola disciplina. Si potrebbe dire che la comunicazione scientifica è come un tessuto, in cui la pubblicazione scientifica rappresenta la trama, mentre il sistema delle citazioni ne rappresenta l’ordito. Secondo De Solla Price (1970) uno scienziato è: «any person who has ever published a scientific paper». È sempre di Price la frase «publish or perish», che viene spesso citata per dar conto dell’attuale aumento incontrollato delle pubblicazioni scientifiche per settori sempre più specialistici (uno dei fattori più importanti peraltro che ha portato all’aumento incontrollato dei prezzi). Ci si potrebbe chiedere, considerato che la comunicazione è strettamente indirizzata a quei pochi ben conosciuti che si interessano dello stesso settore, quale sia la necessità per gli autori di rendere pubblici a tutti (significato letterale di pubblicare) i loro risultati. Le motivazioni che spingono gli autori a pubblicare sono 58 59 Le pubblicazioni scientifiche giustificano di per sé la loro esistenza, tuttavia, se considerate come l’oggetto della valutazione di qualità della ricerca scientifica, occorre definirne le caratteristiche e le peculiarità che le distinguono dalle pubblicazioni in genere. Pierce (1980) focalizza quello che dovrebbe essere la caratteristica di base della pubblicazione scientifica: not a piece of information, but an expression of the state of the scholar or group of scholars at a particular time. We do not, contrary to superstition, publish a fact, a theory, or a finding, but some complex of these. A scientific paper is, at the same time more and less than a concept or a datum or a hypothesis. If the paper is an expression of a person or several persons working in the research front, we can tell something about the relations among the people from the papers themselves. molteplici e sono state esaminate criticamente dalla letteratura sull’argomento. Molti degli autori scientifici hanno una motivazione intrinseca alla ricerca scientifica, cioè vogliono condividere i loro risultati con quelli di altri studiosi della stessa specializzazione, in un circuito spesso molto settoriale, in cui la priorità è la ‘disseminazione’, cioè l’avanzamento delle idee e della ricerca e non la diffusione al pubblico più vasto dei risultati ottenuti o propriamente ‘divulgazione’. La diffusione è molto più complessa della disseminazione, meno coordinabile, almeno coi mezzi della tradizionale pubblicazione a stampa, e difficilmente controllabile centralmente (Warner, 2003). Cronin (1996) e Diamond (2000) hanno notato una correlazione tra produttività (intesa come numero di lavori pubblicati), citazioni ricevute e salari: questo per evidenziare che, oltre alla motivazione intrinseca detta sopra, deve essere considerata una motivazione economica estrinseca. Gli autori producono le pubblicazioni scientifiche essenzialmente per ottenere tre obiettivi (Okubo, 1997): – diffondere la conoscenza scientifica; – registrare la nuova conoscenza prodotta dalle loro ricerche; – ottenere un impatto e, di conseguenza, un qualche riconoscimento. La registrazione di una pubblicazione è realizzata al fine della conoscenza della pubblicazione, necessaria per attivare il sistema di indicizzazione che organizza la pubblicazione nel sistema scientifico. È anche indirettamente una protezione da plagio e la certificazione di priorità da parte dell’autore. Gli autori infatti mettono a disposizione il loro lavoro, ma non vogliono venirne defraudati. Infine ha lo scopo della conservazione nel tempo in depositi designati, come ad esempio le biblioteche. Il primo interesse di un autore di una pubblicazione è quello di avere un impatto e quindi di trovare il forum più adatto che lo metta in comunicazione con la ristretta cerchia degli altri studiosi e gli faccia ottenere l’impatto ed il giusto riconosci- mento del suo lavoro. Kling e McKim (1999) evidenziano che l’interesse degli autori è quello di scegliere la tipologia di pubblicazione e l’editore capace di far loro ottenere dalla pubblicazione tre vantaggi: – pubblicità, – facilità di accesso, – autorevolezza. Nel selezionare una testata di periodico, un editore, o anche attualmente un deposito istituzionale in Internet, l’autore fa un più o meno consapevole giudizio di merito, anche basato a volte sull’impact factor (Borgmann, Furner, 2002). Finora hanno rivestito questo ruolo di forum privilegiato di comunicazione i periodici scientifici. Ci sono tuttavia grosse differenze disciplinari: per alcuni settori, ad esempio nell’area umanistica, le pubblicazioni più importanti sono le monografie, per altri settori come l’informatica sono gli atti dei convegni. Queste differenze disciplinari sono legate al tipo di struttura della comunicazione nelle specifiche aree e non mutano al cambiamento del supporto informativo. Un quarto obiettivo è individuato da altri autori (Ziman, 1968; Ravetz, 1973; Meadows, 1974): – controllo di qualità. Di fronte a tante pubblicazioni che possono venire prodotte, cosa infatti può difendere il lettore dalla vanity press, cioè da pubblicazioni non corrispondenti ai canoni di scientificità stabiliti dalla comunità e realizzate con finalità di vantaggi esclusivamente personali? Si presume quindi che il ciclo editoriale delle pubblicazioni sia un filtro di qualità che garantisce il lettore, e questo filtro è attuato soprattutto attraverso la peer review. Molti degli indicatori di qualità attualmente in uso sono stati costruiti quasi esclusivamente sugli articoli dei periodici scientifici; tuttavia, per le caratteristiche e le differenze disciplinari della comunicazione scientifica che sono state già evidenziate, bisognerà tenere conto di una diversa tipologia di pubbli- 60 61 cazioni scientifiche che vengono considerate dai diversi ambiti disciplinari, oltre che del peso da dare a ciascun tipo di pubblicazione. Ad esempio Le linee guida per la Valutazione della ricerca del CIVR (2003) identificano come prodotto di ricerca: 1) libri e capitoli di libri, 2) articoli su riviste. Non comprendono attività genericamente editoriali, testi o software per uso didattico, abstract di conferenze, rapporti tecnici interni. Un sistema generalistico di valutazione incontrerà necessariamente delle difficoltà di adozione. Il discorso è a maggior ragione rilevante per le pubblicazioni elettroniche. Come sarà misurata la qualità delle pubblicazioni scientifiche in ambito digitale? La transizione alle pubblicazioni digitali (Tammaro, 2001a) è caratterizzata da nuove tipologie di documenti (siti web e portali, blog, articoli aggregati in depositi, ecc.), nuovi modi di archiviazione (biblioteche digitali, depositi istituzionali), nuovi modalità di ricerca dell’informazione (collegamenti ipertestuali), nuovi modelli economici (payper-view, pagamento da parte dell’autore, ecc.), nuove funzioni editoriali (disaggregazione di funzioni, aggregazioni di interfacce di accesso, ecc.). Questi sviluppi stanno trasformando completamente la comunicazione scientifica ed offrono grandi opportunità per nuovi indicatori più attenti alle esigenze di apertura ed integrazione. Il recente studio To publish or to perish (1998), pubblicato come risultato della discussione di alcuni responsabili di università e biblioteche promossa dall’ARL (Association of Research Libraries) e dall’AAU (Association of Universities), elenca tra le altre le seguenti conclusioni: – ci dovrà essere più enfasi sulla qualità delle pubblicazioni piuttosto che sulla quantità; – la diffusione delle pubblicazioni scientifiche sarà sempre di più realizzata attraverso Internet; – dovrà essere tenuta distinta la funzione di registrazione della pubblicazione e quella della certificazione di qualità, attualmente integrate nella peer review. L’esperienza già assai ricca delle pubblicazioni su Web è in una fase ancora di grande evoluzione ed ha evidenziato che non tutte le funzioni ed i ruoli della tradizionale editoria scientifica continueranno nello stesso modo nell’editoria digitale; in particolare qui interessa evidenziare che alcune funzioni, come l’identificazione della pubblicazione (Lynch, 1998) potranno essere non più come ora aggregate a livello di editore o di testata del periodico scientifico e alcuni degli attori nel ciclo delle pubblicazioni, come le biblioteche, potranno aggiungere nuove attività in un continuum che vede il ciclo della pubblicazione scientifica sempre più aperto e completamente in linea (Tammaro, 1999). Da questi presupposti, derivano alcune conseguenze: – che gli autori scientifici hanno diverse motivazioni che li spingono a pubblicare, nel senso letterale di rendere pubblici, i risultati della loro attività di ricerca; – che deve essere registrata la nuova conoscenza come creazione personale di uno scienziato; il solo modo per ottenere questa protezione, almeno finora, è quella di realizzare una pubblicazione (Merton, 2000); – che ci deve essere un impatto nel resto della comunità scientifica, realizzabile attraverso la disseminazione più ampia della pubblicazione ed il sistema citazionale; – inoltre l’impatto dell’opera dovrebbe costituire anche la base di un sistema di riconoscimento all’autore, come ad esempio un avanzamento di carriera. 62 63 Come si valuta? Peer review ed open commentary Peer review. Sono in molti a chiedersi se la peer review sia un efficace sistema di controllo di qualità. Il lavoro più recente è quello di Williamson (2002), la quale fa parte della comunità degli autori biomedici che più di ogni altra si è interessata al problema e che ha stabilito a Locknet nel 1994 un forum in linea per la discussione della peer review. L’autrice fa una sintesi delle possibili manchevolezze della procedura, classificate come: – Soggettività: riguarda il rifiuto sommario da parte del direttore della rivista anche senza mandare il lavoro ai recensori, o la scelta da parte del direttore editoriale di recensori che si prevede che confermino la scelta di respingere il lavoro che lui ha già fatto. – Malafede: riguarda ogni discriminazione contro gli autori a causa della loro nazionalità, lingua, genere o istituzione di appartenenza; può anche accadere che recensore ed autore appartengano a scuole diverse di pensiero. – Abuso: da parte degli autori riguarda il produrre diversi articoli con lo stesso risultato di ricerca o la duplicazione di pubblicazioni; include anche l’omissione o la subordinazione del nome di giovani autori da parte di ricercatori anziani; da parte dei recensori include il plagio (copiare idee di lavori non pubblicati di cui sono venuti in possesso per recensirli) e il deliberato ritardo nella pubblicazione di lavori potenzialmente competitivi. – Difetti di indagine: riguarda la reale capacità o meglio incapacità di evidenziare gli errori nel lavoro. – Frode e cattiva condotta: comprende gli inganni di quegli autori che fabbricano risultati, falsificano i dati e si appropriano di risultati altrui pur essendo ben consapevoli che le idee riportate non sono loro. Williamson fa una serie di suggerimenti per migliorare la peer review, come adottare l’open peer review, cioè la peer review attuata in linea, in cui sono conosciuti i nomi sia dei recensori che degli autori; questo può aiutare a ridurre gli abusi, inoltre dà un riconoscimento ai recensori ed aiuta a ridurre i tempi di attesa della pubblicazione se realizzata in linea. Soggettività, malafede e difetti di indagine possono inoltre essere evitati dando ai recensori una checklist standard da completare con il loro giudizio, invece di lasciare libero l’esperto di dire quel che crede (Weller, 2001). Alcune indagini di opinione degli autori accademici hanno rivelato una quasi completa unanimità nel ritenere il mantenimento della peer review come primaria necessità per la qualità delle pubblicazioni scientifiche (McKnight, Price, 1999; ALPSP, 1999, 2001, 2002; Tammaro 2002b; Whitfield, Peters, 2000). Nell’indagine di McKnight e Price il 94% delle risposte hanno detto di considerare importante la peer review nei periodici su carta, ma solo il 46% ha detto di ritenerla ancora importante per i periodici elettronici. L’Association of Learned and Professional Society Publishers (ALPSP) ha effettuato nel 1999 uno studio dal titolo What authors want che è diventato un punto di riferimento, recentemente aggiornato (ALSP, 2002). Nello studio del 1999 circa il 70% degli autori si è dichiarato soddisfatto o molto soddisfatto del sistema di peer review in uso, anche se, in una ulteriore domanda sugli ostacoli da superare per la pubblicazione, il 52% ha elencato la peer review. Nell’aggiornamento allo studio è stato chiesto agli intervistati di dire la propria opinione sulla peer review sia come autori che come lettori di pubblicazioni scientifiche. Il risultato dell’indagine ha dimostrato che come lettori l’80% ritiene ancora importante la peer review e che come autori la percentuale è praticamente la stessa: 81%. Tuttavia alla domanda di prevedere quale sarebbe stato il sistema più comune di controllo di qualità dopo cinque anni, il 45% ha risposto di aspettare dei cambiamenti, il 27% riteneva che la peer review sarebbe stata combinata con i commenti aperti in linea (open peer commentary) dopo la pubblicazione e 16% ha detto di ritenere che i recensori non sarebbero più stati anonimi. È importante notare che solo 1% ha risposto che ci sarebbero stati solo i commenti in linea senza alcuna peer review. Un secondo studio dell’ALSP in collaborazione con EASE, European Association of Scientific Editors (ALSP/EASE, 64 65 2001), è in particolare dedicato alla peer review ed indirizzato agli editori, ai membri di comitati editoriali e ad esperti che fanno recensioni. I risultati hanno dimostrato che la maggior parte dei recensori collabora per una sola rivista, che la media di sottomissione di articoli per rivista è circa da 100 a 500 per anno, con una media di tasso di accettazione di 25-50%; circa il 40% degli intervistati usa la procedura double blind e l’88% tiene segreta l’identità del recensore. Le indagini di Tammaro (2002b) e Whitfield e Peters (2000) riguardano il punto di vista di due University Press che, nell’ottica della soddisfazione dell’utenza scientifica, si sono chieste cosa è la qualità per gli autori. I risultati nell’indagine italiana sono stati: 43% degli intervistati identifica la qualità nella peer review; 40% nella protezione e gestione dei diritti di proprietà e 35% nella garanzia di un editore autorevole. Nella ricerca inglese, la qualità intesa come ‘fitness for purposes’ ha evidenziato l’articolo (e non la rivista) come focus della valutazione ed ha indicato i seguenti fattori: molto accessibile, originale, significativo per gli studiosi, significativo per i professionisti. La procedura della peer review è stata descritta recentemente da Meadows per gli articoli nei periodici scientifici (1974). Quando un lavoro di ricerca viene inviato ad un periodico, l’editore può rifiutarlo immediatamente, se non corrisponde alle finalità del periodico o se è di evidente bassa qualità, oppure può inviarlo alla recensione critica di esperti della materia, di solito due. A questi viene richiesto di decidere se il lavoro debba essere pubblicato subito, oppure se è pubblicabile con alcuni miglioramenti e correzioni, oppure non pubblicabile. La scelta più diffusa è la seconda, ed in questo caso gli esperti suggeriscono i miglioramenti necessari. Nel caso che i due esperti non siano d’accordo si ricorre ad un terzo esperto ed infine l’editore prende la decisione finale. Di solito gli esperti sono anonimi e l’autore invece è noto; nel sistema double blind esperti ed autori sono entrambi anonimi e nel sistema open refereeing l’identità di autori ed esperti è rivelata ad entrambi. Rowland (2002) ha quantificato i costi della peer review in 40 dollari per pagina a stampa, evidenziando come il tempo necessario per respingere un lavoro sia sostanzialmente lo stesso necessario per accettarlo, con un tasso di lavori respinti del 50%. Wood (1998), descrivendo il progetto inglese ESPERE, ritiene che un sistema completamente elettronico di peer review (open peer review) oltre a migliorare i giudizi di merito, riduca i tempi ed i costi. La peer review, che quindi la comunità accademica preferisce come sistema di controllo di qualità, è tuttavia spesso conservativa nelle tradizioni e nelle regole accademiche. Tra gli autori contrari al mantenimento dell’attuale sistema, De Vries (2001) è molto critico e parla della peer review come «holy cow of science». Inoltre, la peer review, se applicata senza correttivi, può andare a favore di grandi istituzioni di ricerca e non delle istituzioni migliori. 66 67 Open commentary La proposta più ‘sovversiva’ per il sistema delle pubblicazioni scientifiche è sicuramente quella dell’open access e dei fenomeni collegati dell’autopubblicazione, dei depositi istituzionali e dei depositi disciplinari. I paladini sono Harnard, Odlyzko e Ginsparg, che hanno difeso le loro idee con numerosi scritti ed animate discussioni nella partecipazione a convegni. Una realizzazione di grande importanza strategica per i possibili sviluppi è attualmente l’archivio di letteratura biomedica che offre accesso mondiale e libero PubMed (Odlyzko, 2001) creato da Varmus, e la biblioteca digitale realizzata dal MIT, usando Dspace (Lynch, 2003), che combina i protocolli e il modello OAI dei depositi istituzionali con procedure gestite automaticamente di peer review e di validazione delle pubblicazioni istituzionali. L’uso di sistemi di valutazione basati sul web ha avuto come primo risultato rilevante quello di velocizzare il processo della peer review, eliminando i tempi e i costi della tradizionale procedura attuata attraverso la spedizione postale cartacea. Campbell (1993) ha descritto come un editore può organizzare l’intero ciclo editoriale in modo elettronico, incluso la peer review. Il progetto inglese ESPERE è quello che ha più ampiamente descritto la procedura in linea della peer review, illustrandone i vantaggi (Wood, 1998). Woodward (1976), anticipando queste prime esperienze ha proposto ad esempio un centro condiviso di servizi per i piccoli editori. Un possibile risultato, ancora più importante strategicamente, è stato più difficile a realizzarsi praticamente: quello di evitare l’approccio tradizionale della peer review, ristretto generalmente ad un numero chiuso di esperti, dando la possibilità di pubblicare in Internet sia il lavoro da recensire sia i commenti resi pubblici dei recensori, con l’opportunità in questo modo di poter aumentare il numero dei potenziali recensori, oltre che rendere trasparente ed aperto il giudizio degli esperti. Harnard, noto per la sua battaglia per l’accesso libero alle pubblicazioni scientifiche, è un autorevole sostenitore della open peer commentary ed ha impiegato una notevole energia per far comprendere l’impatto della peer review sulle pubblicazioni elettroniche (1996). Harnard definisce la differenza tra la peer review, in cui un piccolo numero di esperti è chiamato a giudicare un lavoro, ed il commento di esperti (peer commentary), in cui dopo la pubblicazione gli esperti possono annotare commenti e giudizi al lavoro. Roberts (1999) ha ulteriormente descritto queste nuove procedure di recensione dopo la pubblicazione in linea. Sandewall (2001) in Defining and certifying electronic publication and science allega un’importante proposta fatta da un gruppo di esperti agli editori. Weller (2000, 2001) considera alcuni nuovi approcci alla recensione in ambito elettronico ma conclude che la tradizionale peer review è destinata a restare. I paladini del cambiamento ritengono che il sistema attuale di peer review formativa (ex ante) perpetua un approccio che è superato per la diffusione dei risultati della ricerca. La peer review attuale era necessaria nel sistema basato sui periodici su carta, ma nel nuovo contesto comunicativo di Internet, in particolare nei depositi istituzionali di pubblicazioni scientifiche liberamente disponibili, questa non è più necessaria poiché gli autori possono depositare i lavori direttamente e consentire ai lettori di leggere quel che i lettori stessi scelgono, senza alcun filtro preventivo di esperti. I rischi di questa procedura completamente aperta sono fin troppo evidenti e i depositi di e-print potranno avere successo solo se gli studiosi parteciperanno all’immissione dei lavori esercitando un’autovalutazione critica del proprio lavoro e se i recensori esprimeranno onestamente i loro punti di vista. Va chiarito che la pubblicazione nei depositi istituzionali o tematici è essenzialmente una prepubblicazione. I limiti di questa procedura di immissione delle proprie pubblicazioni in rete sono soprattutto collegati al fatto di posizionarsi come strumenti privilegiati di comunicazione scientifica, complementari ma non sostitutivi della pubblicazione scientifica. L’esempio di successo per i depositi di e-print è quello della fisica (archivio di Los Alamos) che comprende sia pre-pubblicazioni senza peer review preventiva che post-print, cioè pubblicazioni già pubblicate. Questo sistema ha dimostrato di funzionare molto bene per la fisica, tuttavia si è diffuso solo in alcune discipline, come l’astronomia, l’informatica e la matematica; malgrado alcuni tentativi non è ancora ben radicato in economia e in psicologia. Come già accennato, sono importanti le differenze nelle discipline, che hanno diverse strutture organizzative corrispondenti alle diverse comunità scientifiche, difficili da modificare. Manca quindi alla gran parte dei depositi di e-print il commento prima della pubblicazione che aiuta a migliorare l’articolo e, pur non essendo generalmente ricchi di contenuto, si trovano nei depositi di 68 69 pubblicazioni scientifiche in linea una gran quantità di pubblicazioni senza filtro di qualità. Un ulteriore approccio che è stato sperimentato è quello di singoli autori che decidono di mettere i propri lavori in linea e contemporaneamente sollecitano i commenti di esperti su questi. Sulla base dei commenti ricevuti, l’autore rivede e migliora il proprio lavoro, che viene successivamente inviato alla tradizionale peer review e pubblicato in modo usuale, sia in versione a stampa che su supporto elettronico. Questo sistema elimina molte delle obiezioni alle pubblicazioni immesse in linea senza peer review. Un consenso diffuso è sul fatto che sistemi di open peer commentary dopo la pubblicazione si aggiungano alla tradizionale peer review senza sostituirla. Infatti si ritiene che nessuno abbia il tempo di leggere i lavori di bassa qualità che si trovano nei depositi istituzionali senza filtro di qualità. La peer review, necessaria anche se effettuata dopo l’immissione dell’articolo, salva il tempo del lettore. I possibili punti di debolezza della open peer commentary sono che gli esperti non trovino il tempo di fare commenti ai lavori in linea e chi invece fa commenti potrebbe essere poco informato o avere ad esempio dei pregiudizi. ne di ricerca, campo disciplinare, nazione, ecc. In questi primi studi bibliometrici l’indicatore misurato era molto semplice e limitato alla ‘produttività’ della ricerca scientifica. In campo documentario, per esempio, è stato usato per identificare la quantità di periodici necessari per coprire il 50% o più dell’informazione necessaria in un dato campo disciplinare. Successivamente, sulla base dell’idea di Garfield (1955), sono state sviluppate delle tecniche basate sulle citazioni negli articoli e che producono indici di citazioni ed analisi di cocitazioni. Queste analisi sono usate in vario modo: – per ottenere misure della qualità della ricerca; – per misurare la produttività di singole nazioni, istituzioni, gruppi di ricerca, singoli ricercatori; – per analizzare lo sviluppo di campi scientifici disciplinari e di reti di lavori ed autori scientifici (mappe di analisi di cocitazione). Il primo ad usare il termine bibliometria è stato Pritchard nel 1969, per definire meglio un tipo di studio attivo fin dagli anni Venti e chiamato statistica bibliografica. Per Pritchard (1969, pp. 348-349) la bibliometria è «the application of mathematical and statistical methods to books and other means of communication». Originariamente la bibliometria è stata dedicata a raccogliere dati sul numero di pubblicazioni scientifiche ed in particolare di articoli in periodici, raggruppati per autore e/o istituzio- Impact Factor Da un uso delle analisi citazionali prettamente documentario per valutare le relazioni tra studiosi e per rispondere alla domanda: «Chi è legato a chi?», si è passati ad un uso di indicatori bibliometrici per la valutazione che risponde alla domanda: «Quale pubblicazione ha maggiore impatto o è migliore di altre?» a supporto soprattutto della politica della scienza. La gran parte dei dati bibliometrici è resa disponibile dall’impresa privata ISI, che ha costruito un insieme di banche dati di cui ha il monopolio. Oltre naturalmente al fondatore Gardfield, le banche dati ISI hanno trovato numerosi estimatori, tra cui Bayer e Folger (1996) e Cole e Cole (1967). Questi autori hanno cercato di dimostrare che c’è una correlazione tra il conteggio delle citazioni ed altre misure di qualità come l’indice di produttività, la peer review, l’ottenimento di finanziamenti e di borse di ricerca. Gli argomenti a favore degli indici citazionali si basano tutti sul ‘normative argument’ (Borgmann, 70 71 Come si valuta? Indicatori bibliometrici Furner, 2002), cioè che sia una norma scientifica citare tutte le pubblicazioni correlate alla ricerca e soprattutto citare quelle che si considerano di qualità. Tra i molti che hanno discusso le falsificazioni metodologiche degli indici citazionali si può citare ad esempio McRoberts (1987, 1996), Figà Talamanca (2000), Tammaro (2001b) e soprattutto Seglen (1997). È stato dimostrato che le motivazioni a citare altri autori possono essere diverse da quelle suggerite dal normative argument ed essere basate invece su motivi personali, politici o solo servili, oltre al fatto che non tutte le pubblicazioni che dovrebbero essere citate in effetti lo siano. Oltre a queste carenze nei presupposti teorici e metodologici degli indici citazionali, sono state evidenziate una serie di mancanze tecniche delle banche dati ISI, relative soprattutto alla copertura: esistono infatti dei limiti evidenti riguardanti le singole discipline, la tipologia di letteratura scientifica esaminata, le lingue e le nazioni considerate con netta prevalenza dell’area angloamericana, che ne inficiano l’uso. Le banche dati ISI ad esempio per questi motivi non potrebbero essere usate per la comparazione internazionale (Moed, van Leuween, 1997). Cronin et al. (1997) inoltre hanno evidenziato come, per certe discipline, bisogna considerare la tipologia principale di pubblicazione e come sia rilevante l’impatto citazionale dei libri più che dei periodici; lo stesso autore argomenta che, oltre le citazioni, sono importanti anche i ringraziamenti espressamente indicati negli articoli. Seglen (1997), l’autore forse più critico riguardo agli indici citazionali, riassume le sue note affermando che quello che si può chiedere agli indici citazionali non è l’impatto ma solo l’informazione che certi documenti sono letti (o usati); tuttavia non si può dimostrare che altri documenti non citati non siano stati letti ugualmente. Va inoltre notato che i periodici che attraverso la banca dati ISI si trovano ad avere il maggiore impatto, hanno una posizione di dominio con una incontrollata spirale di profitti (testimo- niata dalla realtà dei fatti, appartenendo queste riviste alle maggiori imprese mondiali di letteratura scientifica). Ciò ha causato una sorta di imperialismo dell’informazione, che è di svantaggio per tutti gli altri editori e penalizza l’editoria scientifica nazionale. Questa situazione rischia di perpetuarsi per i periodici elettronici, in quanto molte delle stesse riviste sono ora disponibili anche in linea e gli stessi editori in posizione privilegiata hanno investito in interfaccia di ricerca e soprattutto hanno reso disponibili servizi di cross linking (come CrossRef). A livello di politica della ricerca, da sempre interessata agli indicatori bibliometrici ed in particolare agli indici citazionali ISI, questo equivale a riconoscere che la diffusione della ricerca debba avvenire a livello internazionale e non, come sembrerebbe più corretto, a livello nazionale attraverso un sistema condiviso di indicatori di qualità che assicurino la comparabilità internazionale. Malgrado gli indubbi limiti degli indici bibliometrici, questi vanno incontro ad una diffusa esigenza di una valutazione della ricerca che possa essere ritenuta ‘obiettiva’ e cioè soprattutto esterna alla comunità scientifica. Un’ulteriore evidenza è che gli indici bibliometrici sono particolarmente utili a comparazioni internazionali per macroanalisi della produzione di pubblicazioni scientifiche. La trasparenza dei risultati per gli investimenti economici fatti nella ricerca si combina quindi in questo caso con la necessità di comparazioni internazionali. È interessante a questo scopo l’esperienza recente della valutazione delle pubblicazioni scientifiche in Italia. L’esigenza di introdurre dei parametri obiettivi per la valutazione ha convinto in Italia la CRUI (2002) ad usare le banche dati dell’ISI per la valutazione della ricerca, mettendo a disposizione degli atenei un sottoinsieme del Science Citation Index, limitato alle pubblicazioni di autori italiani citate nei settori prettamente scientifico-tecnici dal 1981 al 1999. Gli obiettivi dichiarati erano quelli di censire le pubblicazioni prodotte 72 73 in Italia (non avendo l’Italia un’anagrafe della ricerca), costruire indicatori bibliometrici oggettivi e consentire un confronto nazionale ed internazionale. Una prima analisi è stata quindi pubblicata (CRUI, 2002) con il calcolo di due indicatori: – indice di produttività media dell’istituzione di ricerca (numero di pubblicazioni/numero di ricercatori); – indice di presenza internazionale (numero totale delle citazioni/numero di ricercatori). L’Osservatorio per la valutazione del sistema universitario nel 1999 (oggi Comitato Nazionale per la Valutazione del Sistema Universitario) ha utilizzato un altro modello, anch’esso di tipo bibliometrico: il Programma VPS (Valutazione Pubblicazioni Scientifiche) (1999). Il Programma VPS si ispira al metodo RAE (Research Assessment Exercise) utilizzato nel Regno Unito per l’allocazione dei finanziamenti tra gli atenei. Il Programma VPS classifica le pubblicazioni scientifiche (non solo riviste scientifiche, ma anche atti di convegni, volumi editi da case editrici specializzate e che garantiscano un’ampia diffusione a livello nazionale ed internazionale) in cinque fasce e due diversi livelli, basati sul grado di prestigio riconosciuto. L’interesse della proposta PVS è che, pur usando gli indici ISI, si basa su un numero limitato di pubblicazioni, segnalate dagli stessi ricercatori su base volontaria come le loro pubblicazioni di maggiore qualità. Il programma non è stato molto utilizzato e tra i possibili motivi, come indica Modica (2002), si può sottolineare il fatto che non ha pesato in modo differente le pubblicazioni secondo le aree disciplinari e che ha proposto la classificazione in fasce sulla base del grado di prestigio delle pubblicazioni, fattore che non è obiettivamente calcolabile. Una prima difficoltà che sembra evidente è che per l’applicazione degli indici bibliometrici a livello nazionale ed internazionale sarebbe necessaria una metodologia standard e condivisa, per assicurare la corretta comparazione. Anche gli indici bibliometrici si trasformano in sostanza in un giudizio di merito qualitativo, in quanto partono da presupposti e scelte basate su criteri e valori che, esattamente come per la peer review, spesso non si dichiarano né dimostrano. La diffusione continua di dati ed informazioni sui risultati della valutazione è importante unitamente alla trasparenza del processo di valutazione. La necessità di linee guida per una metodologia standard è ancora più evidente a livello internazionale, considerato il sempre maggiore uso di indicatori internazionali. Nel 1989 l’OECD ha commissionato un rapporto sullo stato dell’arte nella bibliometria che è stato pubblicato nel 1997 (Okubo, 1997). Il Frascati Manual dell’OECD (2002) riconosce che le statistiche da sole non possono rendere conto dell’insieme di input/output associate con lo sviluppo scientifico e tecnologico. L’obiezione più importante all’uso di indicatori bibliometrici di quantità come misura del rendimento della ricerca scientifica è che viene ignorata la qualità degli articoli. Inoltre si devono considerare queste misure insieme ad altri indicatori di contesto: ad esempio quale è la misura ottimale dell’investimento necessario in risorse disponibili per ottenere certi risultati? Istituzioni più grandi hanno maggiori introiti dalla ricerca ed il costo unitario varia al variare della grandezza dell’istituzione di ricerca. La produttività, ridotta a numeri, deve quindi considerare anche altri fattori come l’adeguatezza della quantità dello staff, gli eventuali servizi bibliotecari disponibili ed altre risorse. Oltre ai commenti critici già esposti, è contestabile il presupposto che la qualità sia uguale all’uso e che questo possa essere identificato come impatto. Cozzens (1989) elenca i fattori che gonfiano o limitano l’impact factor. Le tecniche bibliometriche si sono evolute nel tempo e continuano a svilupparsi: la misura delle citazioni, per ottenere l’impatto delle pubblicazioni nella comunità scientifica; la misura delle co-citazioni (il numero di volte che due lavori 74 75 sono citati insieme nello stesso articolo), ecc. I risultati sono presentati in vari modi, come ad esempio le mappe, per descrivere le relazioni tra elementi ed estendere i mezzi di analisi bibliometrica. Open linking Per Cronin (2001) l’analisi delle citazioni diverrà sempre più importante e centrale alla crescita delle pubblicazioni scientifiche nel web: potrebbe anzi dirsi che il sistema di citazioni ha anticipato i collegamenti ipertestuali e trova delle incredibili opportunità nell’ambito digitale. L’autore si chiede: se le citazioni possono essere registrate, contate e pesate, perché non si può fare lo stesso per i collegamenti che esistono nei siti web? I siti con un numero più alto di collegamenti ad altri siti corrispondono ai lavori più citati. Il lavoro del Progetto Clever e lo stesso motore di ricerca Google hanno esteso infatti l’idea di Gardfield alla valutazione dei siti web. Anche chi non è particolarmente visibile con l’analisi delle citazioni, può ora dimostrare la sua influenza attraverso il web. La recente creazione di CrossRef è la più evidente prova di come possa essere ben riuscito il matrimonio tra l’ipertesto e l’indice delle citazioni (Cronin, 2001). Un altro sistema innovativo recentemente realizzato è rappresentato dagli indici citazionali che gli stessi autori possono realizzare. È stato realizzato a Princeton dal NEC Research Institute e si chiama Citeseer (ora ReferenceIndex): la sua caratteristica è che estrae le citazioni dal testo insieme al contesto in cui la citazione è stata fatta. Questo consente al lettore di capire in quale contesto la citazione sia stata fatta e quindi di capire meglio il suo significato. Un approccio ancora più radicale è presentato da Smith (1999) e dal suo ‘deconstructed journal’. L’idea, basata sul modello e-print di Ginsparg, concorda sulla previsione che i depositi di articoli sostituiranno i periodici come contenitori di pubblicazio- ni scientifiche con caratteristiche di immediatezza ed autorevolezza. In questo modello di periodico destrutturato, un autore deposita un articolo e chiede a una o più organizzazioni di recensione (ad esempio associazioni professionali, o esperti della materia) di valutare la pubblicazione e registrare la sua esistenza. Queste istituzioni valutano l’articolo, mandano suggerimenti, secondo il modo usuale dei recensori, ed eventualmente approvano il lavoro. A questo punto l’autore segnala il lavoro recensito ai punti focali disciplinari, gateway o portali semantici, che selezionano il materiale rilevante alle loro aree di specializzazione disciplinare ed inseriscono dei link al lavoro, se lo ritengono adeguato. I punti focali disciplinari assomigliano ai gateway e sono ciò che assomiglia di più agli attuali periodici. Il valore del web va ben al di là del suo impatto per le misure bibliometriche. Nel web la comunità scientifica può fare molto di più che pubblicare o depositare i propri lavori: vi può mettere i semi delle idee (Cronin, 2001), discutere tesi ed avere interazione con altri autori in modi molto diversi. È iniziata una vera rivoluzione per la comunicazione scientifica, ed alcuni presupposti tradizionali sono stati cambiati. Tuttavia, la bibliometria ha dei problemi ad adattarsi al web. Ad esempio, finora ha analizzato pubblicazioni in sé statiche e compiute e non le diverse tipologie di pubblicazioni come quelle che si trovano nel web, di natura essenzialmente dinamica. Quali potrebbero essere ad esempio le unità di analisi con documenti multimediali che possono dar luogo a diversi output? Come tracciare i collegamenti socio-cognitivi ora definiti dalle citazioni nei forum di comunicazione in rete? Quali altre pubblicazioni scientifiche potranno essere valutate? Oltre ai tradizionali periodici, si trovano nel web una molteplicità di pubblicazioni scientifiche come: i preprint, i working papers, i siti ed i portali, i blog. Un ulteriore problema di natura documentaria è quello di come identificare, localizzare ed accedere a queste pubblicazioni non tradizionali. 76 77 In un sistema di pubblicazioni scientifiche eterogeneo e multiforme come quello che si sta sviluppando, necessariamente acquisteranno maggior rappresentatività di qualità alcuni indicatori come la provenienza della pubblicazione, il suo contenitore, la sua preservazione nel tempo, e di conseguenza ci sarà una molteplicità di indicatori di qualità. Saranno tuttavia da prevedere differenti comportamenti disciplinari. L’estensione della bibliometria e della peer review al web potrebbe essere molto utile per meglio catturare l’impatto della comunicazione scientifica e per nuovi modi di filtrare e monitorare la divulgazione dei risultati della ricerca dalla comunità scientifica alla società. L’effetto immediato delle pubblicazioni scientifiche in ambito digitale è stato quello, finora poco studiato, di estendere l’utenza delle pubblicazioni scientifiche ad un nuovo utente, definito anche consumatore (Withey, 2003), con un comportamento di ricerca e d’uso delle pubblicazioni ancora poco conosciuto. Sulla base che l’informazione facilmente accessibile in Internet ha un maggiore impatto anche su non esperti della materia, diventa un fattore politico critico quello di stimolare la maggiore accessibilità possibile dei risultati della ricerca. Un ulteriore aspetto da considerare riguarda l’evidenza di alcuni studi sull’utenza delle pubblicazioni elettroniche, che descrive un aumento dell’uso dal tradizionale 80:20 (l’80% dell’uso si ottiene con il 20% delle pubblicazioni) al 70:30 o al 60:40. Se ulteriori studi dovessero dimostrare che questo cambiamento si ripete, la maggiore implicazione potrebbe essere la necessità per gli autori scientifici di riconsiderare la loro posizione attualmente piuttosto prudente per mettere le proprie pubblicazioni in linea, ad esempio nei depositi istitu- zionali (O’Connor, 2003). La spinta ad usare Internet per le pubblicazioni scientifiche riflette d’altra parte il crescente potere di ricerca dei motori del web che assicurano uno strumento sempre più conveniente, con la larga adozione del protocollo OAI, per annunciare ed anche certificare nuovi risultati di ricerca. Internet aumenta in modo impensabile sia la velocità della disseminazione scientifica che l’audience della prima circolazione delle idee (To publish or to perish, 1998). Sono già numerosi gli autori, in particolare alcune comunità disciplinari come i fisici, gli astronomi, gli informatici, che pubblicano i loro lavori in depositi istituzionali per una disseminazione veloce agli studiosi con gli stessi interessi, e che successivamente inviano gli stessi lavori per il tradizionale processo di pubblicazione, comprendente l’iniziale filtro della peer review. In questo caso, la pubblicazione nei periodici scientifici viene vista come un modo di assicurare l’archiviazione e la futura memoria dell’articolo, mentre la pubblicazione archiviata in linea è sicuramente quella più influente (citata ed usata). Buckland (1998) afferma che gli accademici cambieranno comportamento quando ci sarà convenienza per loro ad usare il web per pubblicare, e questa convenienza non è intesa come vantaggi economici ma essenzialmente come: 1) ottenere prestigio, 2) essere letti. Solo quando ci sarà l’evidenza che pubblicare in Internet garantirà maggiori vantaggi di accesso alle pubblicazioni non verranno più scelti gli editori commerciali per la funzione di disseminazione ed archiviazione e a questo punto non ci sarà più nessun motivo di concedere il copyright agli editori. Questo argomento della promozione e del riconoscimento è attualmente strettamente connesso con la certificazione e con il filtro di qualità delle pubblicazioni scientifiche, assicurato essenzialmente dalla peer review. In questo senso, una delle più importanti idee che sono state realizzate è stata quella di tenere separate la funzione di certificazione dalla 78 79 Conclusioni disseminazione dei risultati attraverso Internet. Per realizzare pienamente questa funzione, occorrerà una collaborazione tra associazioni scientifiche ed istituzioni di ricerca. Un ulteriore passo avanti potrà avvenire quando, ai fini dei concorsi e del riconoscimento dei risultati della ricerca, le pubblicazioni scientifiche depositate presso gli archivi istituzionali avranno lo stesso peso delle pubblicazioni stampate dagli editori tradizionali. A questo punto sarà il singolo autore a poter scegliere il forum che ritiene più conveniente per la sua pubblicazione (O’Connor, 2003). Quest’ultimo sviluppo avrà una conseguenza di fondamentale importanza per la creazione di biblioteche digitali istituzionali, in cui sia la peer review che il filtro di qualità, insieme alla preservazione di lungo periodo, saranno gestite dall’istituzione di ricerca (Lynch, 2003). Molti sono i cambiamenti che si possono prevedere per i prossimi anni nella valutazione di qualità delle pubblicazioni scientifiche. Molti periodici potrebbero passare alla open peer commentary. Non è chiaro come la tradizionale peer review sarà cambiata, oppure se le diverse comunità scientifiche accetteranno una peer review a diversi livelli. L’attuale sistema monolitico della peer review accentrata dovrà necessariamente trasformarsi e divenire più diversificato e flessibile allo stabilirsi di nuovi modelli di pubblicazione e di citazione. La qualità dovrà essere valutata con un insieme di modalità. La misurazione di qualità è critica per valutare i risultati dell’investimento politico fatto, ma è ugualmente critica per valutare il rapporto tra produzione scientifica e supporto fornito nelle università per la didattica e la ricerca. Ad esempio si potrebbe misurare quante delle pubblicazioni prodotte in una università si ritrovano nelle biblioteche universitarie. Diverse discipline avranno comportamenti diversi: c’è grande varietà metodologica e disciplinare e non si può presumere che certi valori siano condivisi e che la comparazione semplicistica possa essere ben fondata. La struttura cognitiva e sociale delle discipline è diversa, ed anche il sistema di riconoscimento di qualità delle pubblicazioni scientifiche. Non si può quindi presumere un approccio universalistico alla comunicazione scientifica, alla misurazione di qualità delle pubblicazioni scientifiche, al filtro di qualità ed alla valutazione in genere; occorrerà invece un pluralismo di approcci, la flessibilità dei modi della valutazione, la combinazione di indicatori di diverse comunità per giudizi di merito complessivi ed equilibrati. La qualità, o se vogliamo il valore, di una pubblicazione scientifica non sembra possa essere valutata a prescindere dal suo autore e soprattutto dal suo lettore, ma deve invece essere analizzata in modo collaborativo o negoziato, come definito all’inizio dell’articolo. In questa attuale situazione di incertezza rispetto ad un modello definito di comunicazione scientifica, nella transizione ai sistemi di pubblicazione basati sul web, sembra oltremodo necessario che l’ago della bilancia sia l’utente. Se ci deve essere un impatto – su questo sia gli autori che i politici sembrano concordare – allora la forza trainante sarà quella del lettore di letteratura scientifica. 80 81 Bibliografia SUSAN E. COZZENS (1989), What do Citations count? The Rhetoric First Model, in “Scientometrics”, n. 15 Aslib Proceedings: New Information Perspectives (2003), 55, n.1-2 BLAISE CRONIN (1996), Rates to Return to Citation Ratio, in “Journal of Documentation”, 52 ASSOCIATION OF LEARNED AND PROFESSIONAL SOCIETY PUBLISHERS (1999), What Authors want, Worthing, UK: ALPSP ASSOCIATION OF LEARNED AND PROFESSIONAL SOCIETY PUBLISHERS (2002), Authors and Electronic Publishing, Worthing, UK: ALSP ASSOCIATION OF LEARNED AND PROFESSIONAL SOCIETY PUBLISHERS ALSP/EASE (2001), Peer Review Survey, accessibile a: www.alsp.org/peerev.pdf A.E. BAYER, J. FOLGER (1996), Some Correlates of a Citation Measure of Productivity in Science, in “Sociology of Education”, n. 39 CHRISTINE BORGMANN, JONATHAN FURNER (2002), Scholarly Communication and Bibliometrics, in “Annual Review of Information Science and Technology”, n. 36 MICHAEL K. BUCKLAND, ZIMING LIU (1998), History of Information Science, in Historical Studies in Information Science, ed. T.B. Hahn, M. Buckland, Medford, NJ, Information Today ROBERT CAMPBELL (1993), The Publisher’s Position: Survival in an Electronic World, in Changing Roles in Information Distribution, ed. A.M. Cunningham, W. Wicks, Philadelphia, National Federation of Abstracting and Indexing BLAISE CRONIN (2000), Semiotics and Evaluatative Bibliometrics, in “Journal of Documentation”, 54, n. 4 BLAISE CRONIN (2001), Bibliometrics and beyond: Some Thoughts on Web-Based Citation Anlysis, in “Journal of Information Science” 27, n. 1 BLAISE CRONIN, HERBERT W. SNYDER, HELEN ATKINS (1997), Comparative Citation Rankings of Authors in Monographic and Journal Literature: A Study of Sociology, “Journal of Documentation” 53, n. 3 CRUI (2002), La valutazione della ricerca in Italia: repertorio di fonti Web, Roma CRUI (2002), La ricerca scientifica nelle università italiane: una prima analisi delle citazioni della banca dati ISI, Roma ABBY F. DAY, JOHN PETERS (1994), Quality Indicators in Scholarly Publishing, in “Library Review”, 43 MARIO DE MARCHI, MAURIZIO ROCCHI (2000), Sunto di impostazioni alla studio degli indicatori della scienza e della tecnologia, in Il monitoraggio della scienza e della tecnologia, Milano, Angeli ROBERT D. CAMERON (1997), Universal Citation Database as a Catalyst for Reform in Scholarly Communication, in “First monday”, 2, 4, accessibile a: http://www.firstmonday.org/issues/issue2_4/cameron/index.html DEREK J. DE SOLLA PRICE (1970), Citation Measure of Hard Science, Soft Science, Technology and not Science, in Communication among scientists and engineers, ed. C.E. Nelson, D.E. Pollock, Lexington, Heath JONATHAN COLE, STEPHEN COLE (1967) The Ortega Hypothesis, in “Science”, n. 178 JOHN DE VRIES (2001), Peer Review: The Holy Cow of Science, in A Century of Scientific Publishing, ed. E.H. Fredericksson, Amsterdam, IOS Press COMITATO DI INDIRIZZO PER LA VALUTAZIONE DELLA RICERCA (CIVR) (2003), Linee guida per la valutazione della ricerca, Roma ARTHUR M. DIAMOND (2000), The Complementarity of Scientome- 82 83 trics and Economics, in The Web of Knowledge. A Festschrift in Honour of Eugene Gardfield, ed. B. Cronin, H. Atkins, Medford, Information Today CLYFFORD LYNCH (2003), Institutional Depositories: Essential Infrastructure for Scholarship in the Digital Age, ARL Report 226, accessibile a: http://www.arl.org/newsltr/226/ir.html ALESSANDRO FIGÀ TALAMANCA (2000), L’Impact factor nella valutazione della ricerca e nello sviluppo dell’editoria scientifica. IV Seminario sistema informativo nazionale per la matematica, Lecce, accessibile a: siba2.unile.it/sinm/interventi/figtalam.htm CLIFF MCKNIGHT, SHEILA PRICE (1999), A Survey of Authors Attitudes and Skills in Relation to Article Publishing in Paper and Electronic Journals, in “Journal of Documentation”, 55, n. 5 EUGENE GARDFIELD (1955), Citation Indexes for Science, in “Science”, 122, n. 3159 PAUL GINSPARG (1994), First Steps Towards Electronic Research Communication, in “Computers in Physics”, 8, n. 4, accessibile a: http://xxx.lanl.gov/blurb/ STEVAN HARNAD (1996), Implementing Peer Review on the Net: Scientific Quality Control in Scholarly Electronic Journals, in Electronic Publishing Confronts Academia: The Agenda for the Year 2000, ed. R. Peek, G. Newby, Cambridge MA, MIT Press, accessibile a: ftp://princeton.edu/pub/harnad/Harnad/harnad96.peer.review.html. STEVAN HARNAD (1999), The Invisible Hand of Peer Review, in “Exploit Interactive”, 5, accessibile a: www.exploit-lib.org/issue5/peer-review/ L. HARVEY, D. GREEN (1993), Defining Quality, in “Assessment and Evaluation of Higher Education”, 18, n. 1 ROB KLING, GEOFFREY MCKIM (1999), Scholarly Communication and the Continuum of Electronic Publishing, in “Journal of ASIS”, 50, n. 10 STEVE LAWRENCE, KURT BOLLACKER, C. LEE GILES (1999), Indexing and Retrieval of Scientific Literature, 8th International Conference on Information and Knowledge Management, Kansas MICHAEL H. MCROBERTS, BARBARA R. MCROBERTS (1987), Problems of Citation Analysis: A Critical Review, in “Journal of the American Society for Information Science”, n. 40 M.H. MCROBERTS, B.R. MCROBERTS (1996), Problems of Citation Analysis, in “Scientometrics”, n. 36 JACK A. MEADOWS (1974), Communication in Science, London, Butterworths ROBERT K. MERTON (2000), On the Gardfield Input to the Sociology of Science, in The Web of Knowledge, ed. B. Croni, H.B. Atkins, Medford NJ, Information Today LUCIANO MODICA (2002), Prefazione a La valutazione della ricerca in Italia. Repertorio delle fonti Web, Roma, CRUI H.F. MOED, THED VAN LEUWEEN (1997), Impact Factors can mislead, in “Nature”, n. 381 STEVE O’CONNOR (2003) Economic and Intellectual Value in Existing and New Paradigms of Electronic Scholarly Communication, in “Library HiTech”, 18, n. 1 ANDREW ODLYZKO (2001), Public Library of Science and the Ongoing Revolution in Scholarly Communication, in “Nature”, accessibile a: www.nature.com/nature/debates/e-access/articles/odlyzko.html CLYFFORD LYNCH (1998), Identifiers and their Role in Networked Information Applications, “CAUSE/EFFECTS”, Winter OECD (2002), Proposed Standard Practice for Surveys of Research and Experimental Development. Frascati Manual, Paris, OECD 84 85 YOSHIKO OKUBO (1997), Bibliometric Indicators and Analysis of Research Systems, Methods and Examples, Paris, OECD (STI WP 1997/1) OSSERVATORIO PER LA VALUTAZIONE DEL SISTEMA UNIVERSITARIO, Proposta per un programma di valutazione della produzione scientifica nelle università: il Programma VPS, Roma, 1999 (DOC 3/99) JOHN R. PIERCE (1980), An Introduction to Information Theory: Symbols, Signals & Noise, 2. revised ed., New York, Dover ALAN PRITCHARD (1969), Statistical Bibliography or Bibliometrics?, in “Journal of Documentation”, 25, n. 4 JEROME R. RAVETZ (1973), Scientific Knowledge and its Social Problems, Harmondsworth, Penguin Books PETER ROBERTS (1999), Scholarly Publishing, Peer Review and the Internet, in “First Monday”, 4, n. 4, accessibile a: firstmonday.org/issues/issue4_4/proberts/ FYTTON ROWLAND (2002), The Peer Review Process, in “Learned Publishing” 15, n. 4 IAN ROWLANDS (2002), Journal Diffusion Factors: A New Approach to Measuring Research Influence, in “Aslib Proceedings”, 54, n. 2 IAN ROWLANDS (2003), Knowledge Production, Consumption and Impact: Policy Indicators for a Changing World, in “Aslib Proceedings”, New Information Perspectives, 55, n. 1/2 ERIC SANDEWALL (2001), Open Reviewing, Closed Reviewing: Where’s the Publication?, in A Century of Scientific Publishing, ed. E. H. Fredericksson, Amsterdam, IOS Press JOHN W.T. SMITH (1999), The Deconstructed Journal: a New Model for Academic Publishing, in “Learned Publishing” 12, n. 2 ANNA MARIA TAMMARO (1999), La comunicazione scientifica ed il ruolo delle biblioteche, in “Biblioteche oggi”, n. 8 ANNA MARIA TAMMARO (2001a), Periodici elettronici: dai preprint ai portali, in “Biblioteche oggi”, n. 10 ANNA MARIA TAMMARO (2001b), Qualità della comunicazione scientifica, in “Biblioteche oggi”, n. 7 e Qualità della comunicazione scientifica, 2, in “Biblioteche oggi”, n. 8 ANNA MARIA TAMMARO (2002), Facilitating Scholarly Communication: Cost and benefit of a digital University Press, in Proceedings 4th Northumbria International Conference, IFLA satellite preconference, Pittsburgh 2001, Washington, ARL To publish or to perish (1998), in “Policy Perspectives”, 7, n. 4 Trasmissione d’elite o accesso alle conoscenze? Percorsi e contesti della documentazione e comunicazione scientifica (2002), a cura di Adriana Valente, con testi di Sveva Avveduto, Anna Baldazzi, Rosa di Cesare, Maria Guercio, Daniela Luzi, Adriana Valente, Milano, Franco Angeli JULIAN WARNER (2003), Modelling the Diffusion of Specialised Knowledge, in “Aslib Proceedings”, 55, n. 1-2 ANN C. WELLER (2000), Editorial Peer Review for Electronic Journals: Current Issues and Emerging Models, in “Journals of the American Society for Information Science”, 51, n. 14 ANN C. WELLER (2001), Editorial Peer Review. Its Strenghts and Weaknesses, Silver Spring MD, ASIS Scholarly Communication and Academic Presses (2002), ed. A.M. Tammaro, Firenze, FUP, accessibile a: http://epress.unifi.it ALEX WILLIAMSON (2002), What happens to Peer Review?, Paper presented at an ALSP International Learned Journals Seminar, London, accessibile a: www.alsp.org/wil120402.ppt PER O. SEGLEN (1997), Why the Impact Factor of Journals should not be used for Evaluating Research, in “British Medical Journal”, n. 314 RICHARD WHITFIELD, JOHN PETERS (2000), Quality in Scholarly Publishing, in “Managing Service Quality”, 10, n. 3 86 87 R. WITHEY (2003), (Mis)understanding the Digital Media Revolution, in “Aslib Proceedings”, 55, n. 1-2 D.J. WOOD (1998), Peer Review and the Web: The Implications for Electronic Peer Review for Biomedical Authors, Referees and Learned Society Publishers, in “Journal of Documentation”, 54, n. 2 ANTHONY M. WOODWARD (1976), Editorial Processing Centres: Scope in the UK, London, Britsh Library Research and Development (Report 5271) JOHN ZIMAN (1968), Public Knowledge, Cambridge, Cambridge University Press Note 1 Le due prospettive e le loro caratteristiche specifiche sono state ampiamente descritte da Adriana Valente (Trasmissione d’élite o accesso alle conoscenze?, 2002) nell’ambito più vasto della società e delle scienze documentarie. 2 Il fascicolo speciale 1-2 di “Aslib Proceedings” del 2003, dal titolo New Information Perspectives, è stato recentemente dedicato al tema della valutazione della ricerca scientifica, per una migliore comprensione delle implicazioni sociali e politiche della disseminazione ed impatto della creazione di conoscenza. 3 Harvey e Green (1993) hanno identificato cinque concetti diversi di qualità per le università: – Eccezionale: si concentra sui Centri di eccellenza; – Perfezione: focalizza l’adeguatezza dei risultati; – Raggiungimento degli obiettivi; – Valore dell’investimento; – Trasformativa: sviluppo di nuova conoscenza. 4 Il sistema della peer review viene utilizzato per la valutazione di tutte (Siti Web visitati il 30/01/04) le attività scientifiche, come la proposta di relazioni a convegni, il finanziamento di progetti di ricerca e soprattutto l’assunzione e la promozione in istituzioni di ricerca. 5 Il CIVR, istituito nel 1998 e formato da esperti nominati dal Governo, ha pubblicato nel 2003 le Linee guida per la Valutazione della ricerca, basate sul Frascati Manual dell’OECD. 88 89 Le patologie della comunicazione scientifica: problema etico o socioeconomico? Federico Di Trocchio Università degli Studi di Lecce Dipartimento di Filosofia e Scienze Sociali Il sistema contemporaneo di comunicazione tra scienziati si è sviluppato a partire dalla seconda metà del Seicento quando, dalla corrispondenza epistolare che era allora comune all’interno della comunità europea degli uomini di cultura, nacque la rivista scientifica come strumento di comunicazione e l’articolo scientifico come nuovo genere letterario1. Il sistema ha conosciuto successivamente uno sviluppo prodigioso che ha comportato una proliferazione e una specializzazione eccessiva delle riviste, il che ha notevolmente ridotto l’efficienza del sistema di comunicazione al punto che risulta oggi virtualmente impossibile padroneggiare la letteratura persino di singoli settori specializzati2. A tale già rilevante problema si è aggiunto poi quello dell’inquinamento prodotto non solo dal proliferare di articoli non originali contenenti informazione ridondante o non significativa, ma anche dalla diffusione di informazioni e dati manifestamente falsi e dalla soppressione di articoli incompatibili con i paradigmi dominanti o, peggio, con interessi estranei alla logica della ricerca. L’analisi di tali problemi e la valutazione della loro rilevan- 91 za in relazione all’efficienza attuale del sistema della ricerca si collocano in genere all’interno di un’ottica astrattamente etica, che trascura le profonde modificazioni sociali ed economiche che hanno accompagnato, e in gran parte modificato, l’originario profilo professionale e intellettuale dello scienziato. Tale approccio è stato fatto proprio dalla sociologia della scienza, che tradizionalmente ha trascurato le modificazioni sociali indotte dal cambiamento di status economico dello scienziato e dalla nascita, agli inizi del Novecento, di programmi nazionali di politica della ricerca, ed è oggi dominante. Esso tende a minimizzare la gravità delle disfunzioni patologiche, e a trattarle come problemi di dinamica interna alla comunità scientifica e gestibili autonomamente da questa stessa comunità. Tuttavia sia le linee guida emanate in tale ottica che le sanzioni adottate da Enti nazionali di controllo (laddove esistano) lasciano trasparire la rilevanza del sistema economico creato attorno all’impresa scientifica. Su tali aspetti insiste un approccio più propriamente socioeconomico al problema delle patologie della comunicazione, che propone invece di fare ricorso a iniziative più incisive e decise che non l’appello all’ethos dello scienziato al fine di correggere o eliminare le radici economiche di tali disfunzioni individuabili in alcuni principi ispiratori di politica della scienza. Una chiara discriminazione tra questi due approcci richiederebbe l’analisi delle caratteristiche distintive e delle profonde modifiche che hanno fatto sì che la comunità scientifica di oggi sia qualcosa di radicalmente e sostanzialmente diverso dalla République des Lettres che tra Quattrocento e Settecento raccoglieva gli intellettuali in una grande comunità europea, libera dal punto di vista sia religioso e politico che economico. Il nucleo originario della comunità scientifica moderna è costituito dalla comunità virtuale dei filologi e filosofi umanisti che si riconoscevano nella ‘respublica litterarum’, il cui principio fondamentale è già in un passo del De Officiis di Cicerone ma che venne definito e diffuso in Europa soprattutto ad opera di Erasmo da Rotterdam a partire dal 1517, per essere poi progressivamente sviluppato alla fine del Seicento e nel corso della Rivoluzione francese3. Si trattava di una comunità fondata sul legame sociale costituito dalla condivisione di interessi culturali perseguiti come attività disinteressata e oziosa (nel senso che il termine otium aveva nell’antichità), cioè non professionalizzata e non remunerata, se non eventualmente attraverso l’istituto del mecenatismo. Tra i membri vigeva, per principio, una assoluta parità di dignità che ammetteva solo il riconoscimento dell’eccellenza sulla base di meriti puramente culturali, riconosciuti e sanciti dal suffragio più o meno universale della stessa comunità, nonostante non fossero stati elaborati precisi meccanismi di scrutinio e di valutazione. La comunità non ammetteva confini geografico-nazionali o religiosi e adottava il principio della tolleranza e della libertà di pensiero e di critica, che venivano ritenuti garanzia essenziale della serietà e del valore universale del lavoro culturale, soprattutto nell’indagine filologica. Il patrimonio culturale costituito con lo sforzo concorde dei membri della comunità, e di quanti li avevano preceduti nel tempo, veniva considerato patrimonio comune per diritto naturale ed era liberalmente condiviso prima attraverso il commercio epistolare e in seguito attraverso il sistema delle riviste. Questa comunità era dunque effettivamente fondata sui principi dell’universalismo, del comunitarismo, del disinteresse e dello scetticismo che Robert K. Merton nel 1942 individuerà come principi fondamentali dell’etica scientifica. Sfuggiva però a Merton che la comunità scientifica degli anni Quaranta non corrispondeva già più alla vecchia République des Lettres e che quei criteri non potevano più essere soddisfatti da un gruppo sociale fortemente condizionato da rapporti di dipendenza economica da strutture statali o industriali e dalla collaborazione attiva alla difesa militare di singoli Paesi. 92 93 Purtroppo sin dalla sua fondazione la sociologia della scienza ha sottovalutato l’importanza dei mutamenti socioeconomici che hanno accompagnato la professionalizzazione del lavoro scientifico, sicché ancora oggi è impossibile ricondurre i casi di conflitto di interesse, dei quali sempre più spesso si parla in rapporto al comportamento degli scienziati, alla incompatibilità tra i criteri mertoniani di etica scientifica e le condizioni oggettive del lavoro dello scienziato4. Gli stessi ricercatori non hanno in realtà mai preso consapevolezza dell’importanza di tali mutamenti e si considerano in genere ancora come degli intellettuali liberi e incondizionati di tipo pre-ottocentesco. Per questo allo stato attuale gli studi sulle disfunzioni del sistema di comunicazione scientifica partono da una concezione astratta (condivisibile ma forse troppo vaga) dei doveri dello scienziato in quanto membro di una comunità in mutua interazione, per poter poi definire le infrazioni e gli abusi del sistema di interazione come contravvenzioni di natura essenzialmente etica. La comunità scientifica è intesa, in quest’ottica, come un corpo sociale che coopera in modo onesto e autentico per il progresso culturale e materiale dell’umanità, indipendentemente da ogni interesse personale, politico, economico o razziale. La conoscenza scientifica è considerata una proprietà comune, incrementata continuamente da individui o gruppi in mutua cooperazione e in onesta e nobile competizione. Anche nel mondo altamente professionalizzato e competitivo di oggi i ricercatori sono considerati come essenzialmente impegnati nel perseguimento disinteressato della verità e nella ricerca di nuovi punti di vista e scoperte. L’onestà dei confronti di sé stessi e degli altri è considerata come un fondamento ineludibile e condizione essenziale per la cooperazione e la libera competizione, dal momento che i ricercatori dipendono l’uno dall’altro e non possono ottenere successi se non sono nella condizione di poter avere fiducia gli uni negli altri e in chi li ha preceduti. Le pubblicazioni sono il mezzo essenziale attraverso il quale gli scienziati forniscono resoconti attendibili del proprio lavoro, operano e contribuiscono all’avanzamento della conoscenza e aspirano al diritto di riconoscimento per le proprie scoperte. Per questo la disonestà nella pubblicazione non solo rende incerta la ricerca e dubbi i risultati, ma distrugge e abolisce i fondamenti stessi dell’operare scientifico. La pubblicazione di un articolo fraudolento è il primo esito di una frode scientifica5 che consiste nella fabbricazione, falsificazione o manipolazione di risultati sperimentali e di dati statistici, e resta la trasgressione più grave e diffusa all’etica della pubblicazione scientifica. Essa è normalmente considerata come parte più rilevante della patologia scientifica così come il plagio, la deliberata presentazione di idee o testi altrui come propri6. Paragonate a queste, infrazioni come la pubblicazione ripetuta (dello stesso articolo su differenti riviste), la pubblicazione sequenziale (il riferire i risultati dello stesso studio con lievi modifiche ma senza nuovi risultati), il salami slicing (la suddivisione dello stesso studio in diverse sezioni in modo da ottenere più pubblicazioni a partire da un’unica ricerca) e il dare credito come autore a persone che non hanno contribuito in realtà alla pubblicazione (guest authorship), o invece non attribuire il giusto merito a chi vi abbia contribuito (ghost authorship), sono considerate tutte come trasgressioni meno rilevanti. Tutte queste trasgressioni hanno l’effetto di produrre una enorme quantità di letteratura inquinata che distorce la direzione lungo la quale si muove la ricerca scientifica. È stato approssimativamente calcolato che gli articoli inattendibili o fraudolenti pubblicati sulle oltre 5.600 riviste scientifiche censite dallo Science Citation Index ammontino a circa 10.000 all’anno. Questo solleva ulteriori problemi e crea le condizioni di altre disfunzioni patologiche. Il primo problema è quello dell’affidabilità del sistema di revisione (peer review), che è stato istituito per 94 95 garantire la qualità della letteratura scientifica; in secondo luogo c’è quello del ruolo e del destino delle idee scorrette e dei dati inaffidabili generati da pubblicazioni fraudolente. Le riviste scientifiche di buona qualità pubblicano oggi articoli originali solo dopo che essi siano stati esaminati da revisori (referees), competenti sia per la loro validità che per l’originalità. Antecedenti del sistema del peer review risalgono al XVII secolo, quando furono create le prime società e accademie scientifiche in Italia, Francia Inghilterra e Germania, ma il sistema moderno si è sviluppato in modo completo e maturo solo dopo la Seconda guerra mondiale ed è stato adottato innanzitutto e principalmente nell’area culturale anglosassone. Si suppone che questo sistema abbia contribuito in modo significativo all’efficienza e all’organizzazione dell’impresa scientifica sul piano professionale, ma a partire dagli anni Ottanta esso è stato severamente criticato non solo per i suoi enormi costi, sia in termini di tempo che in termini di denaro, ma anche per la sua progressiva perdita di accuratezza7. Naturalmente i revisori hanno l’obbligo morale di fare ogni sforzo necessario per individuare manipolazioni o falsificazioni; tuttavia attendersi che sia possibile individuare con sicurezza ogni pur piccola irregolarità sarebbe ingenuo: i dati originali non sono infatti accessibili ai revisori e anche se lo fossero questi non avrebbero il tempo per replicare gli esperimenti e le osservazioni. Per questo secondo molti il sistema del peer review è così vulnerabile al comportamento disonesto. Altri difetti sono stati individuati nella negligenza dei revisori (si è visto ad esempio che più alto è lo status accademico e l’età del revisore più bassa è la qualità della sua analisi), in interessi personali dei referees e in varie forme di pregiudizio (contro particolari individui, argomenti o istituzioni), il peggiore dei quali è quello nei confronti degli innovatori particolarmente originali. Alcuni autori hanno sostenuto che il sistema di peer review, così come oggi viene gestito, favorisce la scienza mediocre di base e non consente di riconoscere e di promuovere la creatività, l’originalità e l’innovazione8. Anche l’anonimato dei referees è stato chiamato in causa in quanto contrario alla norme mertoniane dell’universalismo, della communality, del disinteresse e dello scetticismo organizzato. In effetti il sistema di peer review comporta alcuni seri rischi per l’autore, dal momento che idee, ritrovati della ricerca e testi che non sono protetti da brevetti o da proprietà intellettuale sono sottoposti a persone la cui identità è ignota agli autori e che potrebbero essere i loro diretti competitori. Ulteriori problemi sono sollevati dalla gestione delle informazioni scorrette diffuse in seguito a infrazioni del codice etico di comunicazione scientifica. Per quanto riguarda il destino dei dati non corretti o falsi generati dalle varie trasgressioni la comunità scientifica deve infatti ancora raggiungere un accordo sul grado di inaccuratezza richiesto per imporre la ritrattazione piuttosto che un erratum e su chi debba incaricarsi della ritrattazione di un articolo9. Per quanto già nel 1987 il comitato internazionale degli editori di riviste mediche abbia pubblicato un manuale di norme per le modalità e la terminologia delle notizie di ritrattazione, tuttavia articoli che si sa essere fraudolenti possono anche non essere affatto ritrattati o essere ritrattati solo in parte e con formule ambigue. In altri casi solo parte dei dati o delle conclusioni vengono ritrattati. I direttori delle riviste hanno poche possibilità di intervenire dal momento che pubblicare correzioni o ritrattazioni implica rischi giuridici nel caso in cui non tutti gli autori siano d’accordo per la ritrattazione. In ogni caso ritrattazioni omesse o ambigue non sono le uniche cause che impediscono che lavori scorretti vengano effettivamente eliminati dalla letteratura scientifica10. Da un’indagine compiuta su autori americani è risultato che dopo la ritrattazione l’informazione non valida ha continuato ad essere usata, dal momento che la maggior parte delle ritrat- 96 97 tazioni non vengono chiaramente indicate dai giornali responsabili e che non esiste alcuna fonte affidabile e completa per accertare se un lavoro sia stato ritrattato o sia stato giudicato fraudolento o scorretto11. Una notevole rilevanza etica deve essere accordata anche alla sottile attività di censura per mezzo della quale amministrazioni e società tendono a controllare e a limitare la diffusione di conoscenze scientifiche e tecnologiche ‘sensibili’, invocando la tutela della sicurezza nazionale o ragioni economiche12. Problemi etici di questo tipo dipendono dalla struttura stessa dell’impresa scientifica, così come essa era stata strutturata nel XVII secolo, ma sono cresciuti in importanza ed estensione in tempi recenti. Casi di plagio o di pubblicazioni fraudolente sono stati rilevati anche nella storia della scienza passata e alcuni di essi hanno coinvolto figure rilevanti come Tolomeo, Luca Pacioli, Ernst Haeckel e gli stessi Galileo e Newton. Tuttavia si ammette che in genere se non il numero almeno l’importanza e l’impatto sociale delle trasgressioni all’etica della pubblicazione scientifica siano cominciati a crescere negli anni Quaranta. Vale a dire quando i governi occidentali iniziarono a varare stabilmente programmi di politica della scienza in considerazione dei contributi che si supponeva la comunità scientifica potesse dare alla difesa nazionale e al progresso industriale. I nuovi criteri di finanziamento e di riconoscimento della ricerca aumentarono la tradizionale competitività tra gli scienziati e fu proprio allora, nel 1942, che il sociologo L. Wilson coniò l’espressione ‘publish or perish’. Non sarebbe tuttavia corretto sostenere che nei primi trent’anni la competitività abbia promosso un sensibile aumento di comportamenti fraudolenti o l’inquinamento della letteratura scientifica. Il punto di svolta è stato infatti stabilito alla fine degli anni Settanta, quando la struttura sociale della comunità scientifica ha subito alcuni cambiamenti cruciali dovuti essenzialmente all’aumento esponenziale del numero di persone coinvolte nella ricerca e al decremento proporzionale, per quanto non assoluto, nell’attribuzione di fondi destinati a finanziare l’attività di ricerca. La conseguente pressione economica, sulla quale le risorse messe a disposizione da imprese private hanno avuto poco o nessun effetto, ha generato una sempre più forte competizione tra gli scienziati per i riconoscimenti accademici e per la carriera ma soprattutto per l’attribuzione dei fondi di ricerca. Cruciale è risultata la decisione di adottare la pubblicazione come indicatore principale della qualità e della misura della produttività, che viene oggi valutata in base al numero di pubblicazioni in rapporto al tempo impiegato a produrle. Lo strumento dell’analisi delle citazioni, che venne introdotto in quegli stessi anni e che è basato sul concetto chiave di ‘fattore di impatto’ (rapporto tra il numero delle citazioni che una rivista riceve rispetto al numero degli articoli pubblicati nel corso di un determinato periodo), è stato poi esteso per calcolare l’impatto del lavoro di singoli individui, di gruppi o di dipartimenti13. L’uso di questi indici per valutare le domande di attribuzione di fondi ha generato la corsa a produrre il minimo articolo pubblicabile nel più breve tempo possibile sul giornale con il più alto fattore di impatto. Nello stesso tempo la crescita della popolazione scientifica ha comportato un declino statistico dell’originalità e della qualità dei contributi scientifici nonché degli standard etici, mentre è aumentata la quantità degli articoli prodotti. La legge di Lotka della produttività stabilisce infatti che in un certo campo metà della letteratura scientifica viene prodotta da una popolazione che è la radice quadrata del numero totale degli scienziati attivi in quel settore. De Solla Price ha evidenziato che la crescita esponenziale della popolazione scientifica implica anche il proporzionale aumento del numero di scienziati capaci di scrivere articoli da professionisti ma non impor- 98 99 La gravità di questi problemi del sistema di comunicazione scientifica è ormai ben chiara, ma le strategie di correzione e di contenimento finora messe in atto sono viziate dall’incertezza sulla natura etica o socioeconomica delle disfunzioni. O piuttosto dal diverso peso che viene attribuito ai moventi etici rispetto alle cause socioeconomiche e al rapporto che viene stabilito tra i due ordini di motivi. Si tratta della stessa incertezza che caratterizza la gestione del fenomeno patologico della fraudolenza scientifica, alla quale risultano strettamente legate le maggiori questioni etiche relative alla comunicazione. Nonostante l’aumento dell’interesse pubblico, nel corso degli ultimi venticinque anni persino i tentativi di stabilire con precisione le dimensioni del problema della frode scientifica non hanno portato a risultati conclusivi: la sua magnitudine è ancora ignota e la sua scoperta ampiamente casuale. Sono state adottate linee guida e azioni o norme per controllare le frodi scientifiche (e di conseguenza anche le frodi nella comunicazione scientifica), ma tali norme variano a seconda di quale dei due principali e differenti approcci alla questione vengono adottati. I sociologi e la grande maggioranza degli scienziati condividono l’opinione che la frequenza e l’incidenza della frode scientifica non sia cambiata affatto in modo sensibile nel corso del XX secolo. Essi ritengono che l’impressione che la frode sia aumentata sia il risultato dell’aumento dell’autoconsapevolezza all’interno della società moderna, assieme alle forti attese morali che gli scienziati volti alla ricerca di conoscenza affidabile possano raggiungere un più alto standard di probità16. Questo punto di vista sembra essere sostenuto sia dai rapporti delle due più importanti autorità americane responsabili del controllo dei casi di frode – l’Office of Inspector General (OIG) della National Science Foundation (NSF) e l’Office of Scientific Integrity (ORI) del Public Health Service – che da quelli di analoghe autorità nate in Danimarca, Norvegia, Finlandia e Australia. La strategia conseguente a tale punto di vista mira sostanzialmente a garantire l’autonomia e il diritto di autoregolazione della comunità scientifica in rapporto all’intervento legale e governativo. All’interno di quest’ottica viene anche raccomandato che le inchieste vengano condotte innanzitutto da comitati accademici locali e nello stesso tempo viene sottolineato il ruolo cruciale dell’educazione per elevare gli standard etici dei ricercatori. Il punto di vista opposto sostiene invece che non esistono dati ufficiali attendibili per valutare l’entità del problema frode, che i rapporti noti suggeriscono che solo una parte relativamente piccola dei casi di frode viene attualmente scoperta e che essa costituisce solo la punta di un iceberg. Secondo questo punto di vista, l’autoregolazione e il puro appello a più rigide norme etiche risultano inefficaci e non sostenibili17. Gli scienziati non sono infatti educati a sostenere confronti e a districarsi fra conflitti di interesse. La loro risposta immediata è usualmente scorretta: essi tendono a mettere in atto procedure che impediscono loro di essere consapevoli della gravità o fonda- 100 101 tanti o innovativi14. Da una statistica elaborata dall’Istituto per la informazione scientifica (ISI) risultò che il 55% degli articoli scientifici pubblicati tra il 1981 e il 1985 su riviste censite dallo stesso Istituto non vennero citati neppure una volta. Questo ha indotto alcuni analisti a trarre la conclusione che più della metà, o forse più di tre quarti, della letteratura scientifica è inutile; altri hanno reagito contro il concetto che la maggior parte degli articoli che non vengono citati siano privi di valore15. L’uso delle citazioni come misura dell’impatto e del valore di una pubblicazione a fini di finanziamento ha creato le premesse di un ulteriore fenomeno patologico: la costituzione di ‘cartelli’ di citazioni e il diffondersi dell’autocitazione; è stato stimato dallo stesso ISI che la citazione di articoli precedenti dello stesso autore copre tra il 5% e il 20% delle citazioni totali. tezza delle accuse e quindi di rispondere in modo adeguato; questo comportamento rende difficile il lavoro di chi indaga e impedisce spesso un giudizio equo basato su standard rigorosi. Da questo punto di vista risulta più ragionevole l’istituzione di agenzie nazionali piuttosto che comitati locali. L’attenzione viene spostata sul contesto sociale ed economico. Si assume che queste trasgressioni riflettano semplicemente i problemi di una scienza che oggi è troppo grande, troppo legata al mondo imprenditoriale e troppo competitiva per garantire il suo scopo primario: lo sviluppo culturale e materiale dell’umanità nel modo dovuto e nel giusto rapporto con le risorse economiche e intellettuali impiegate, nonché mantenendo lo stesso ritmo dei tre secoli che sono trascorsi. Per quanto riguarda le pubblicazioni scientifiche, questo secondo approccio ha indotto il Committee on Publication Ethics (COPE), creato in Inghilterra da venti direttori di riviste scientifiche, a chiedere l’istituzione di un’agenzia indipendente per scoprire, trattare e prevenire abusi nel settore della pubblicazione scientifica18. Tuttavia non è stato possibile raggiungere un accordo generale su questo punto di vista, che ha portato alcuni dei suoi proponenti a raccomandare l’adozione di misure radicali di correzione della politica della scienza innanzitutto in relazione al rapporto tra popolazione scientifica ed entità dei finanziamenti, mentre le università, le accademie e gli enti di finanziamento e i governi si sono opposti tacitamente o apertamente a queste proposte, e hanno insistito sull’importanza di elevare gli standard etici attraverso l’insegnamento dell’etica della ricerca19. Sull’effettiva efficacia di un’intensificazione dell’educazione etico-scientifica sono stati però avanzati dubbi20. L’importanza primaria dell’educazione etica e nello stesso tempo metodologica emerge particolarmente in rapporto ad alcuni dei problemi della pubblicazione scientifica che sembra- 102 no meno direttamente connessi ai problemi sociali ed economici del sistema scientifico che non, piuttosto, a peculiarità di aree di ricerca specifica che coinvolgono o implicano diversità culturali o hanno a che fare con diritti umani o animali. E infatti, per quanto la scienza sia largamente transculturale, la comunità umana non ha ancora sviluppato completamente un corpo di nozioni etiche transculturali. In alcuni settori di ricerca questo può incidere sia sulla metodologia che sull’etica. Una fiducia acritica e ottusa sui principi che il ricercatore ha ricevuto culturalmente e sui valori relativi all’identità personale e fisica, alla salute, agli affetti, alla sofferenza, alla morte, ecc. possono generare dati iniziali e osservazioni potenzialmente distorte che a loro volta possono generare divergenze sistematiche in antropologia, psicologia, sociologia o nelle ricerche mediche, nelle quali si possono verificare anche infrazioni sistematiche in rapporto ai diritti umani o animali o allo sfruttamento di popolazioni culturalmente o politicamente dipendenti21. Le pubblicazioni scientifiche basate su tali ricerche sono in linea di principio da considerarsi come impropriamente e scorrettamente impiantate e condotte. Gli standard etici e metodologici correnti non includono tuttavia chiare ed efficaci norme per autori, direttori di rivista e peer-reviewers, per quanto i problemi che essi sollevano siano stati dibattuti in rapporto ad alcuni casi particolarmente controversi. Un primo generale tentativo di mitigare la pressione e la spinta a pubblicare che sta dietro la maggior parte delle pratiche devianti è secondo molti quello di porre un limite superiore al numero di pubblicazioni che possono essere prese in considerazione per valutare un candidato per l’avanzamento di carriera o per il finanziamento22. Tuttavia alcuni esperti hanno anche suggerito che il numero delle riviste scientifiche venga drasticamente ridotto23. Sulla stessa linea, per quanto l’uso di indicatori quantitativi dei risultati e della produttività scientifi- 103 ca sembri inevitabile, è stato raccomandato che i fattori di impatto non vengano usati direttamente e semplicemente come base per le decisioni relative ai finanziamenti e che la qualità delle pubblicazioni debba essere presa in maggiore considerazione, e forse preventivamente, rispetto ai criteri quantitativi. Per quanto non siano auspicabili misure efficaci diverse da sanzioni severe contro le maggiori trasgressioni delle pubblicazioni scientifiche, come il plagio o la pubblicazione di dati falsi, è stato raccomandato alle riviste di cooperare nel mettere in atto controlli incrociati e nello stesso tempo agli istituti di ricerca e università di conservare i dati primari sui quali sono basate le pubblicazioni. Tutte le fonti e i metodi usati per ottenere e analizzare questi dati dovrebbero essere a richiesta apertamente messi a disposizione e la sparizione di dati primari da un laboratorio dovrebbe essere considerata come una infrazione grave ai principi basilari di un corretto operare scientifico. D’altro canto, dal momento che non esiste una definizione universalmente accettata di proprietà letteraria, sono stati invocati criteri e requisiti specifici come quello di riconoscere, con formule di ringraziamento o con nota a piè di pagina, in ogni articolo che sia stato scritto da più autori, l’esatto contributo fornito da ognuno degli autori; oppure nel firmare una dichiarazione nella quale ogni coautore affermi di avere visto la versione finale dell’articolo e consenta alla sua pubblicazione. Secondo questi criteri, nell’attribuire la qualifica di autore in articoli a più mani si dovrebbero bilanciare i contributi intellettuali in rapporto all’ideazione di studi ed esperimenti e alla produzione, analisi e interpretazione dei dati e alla preparazione del manoscritto che non piuttosto alla raccolta di dati e ad altri lavori di routine. Nel caso in cui non vi sia nessun particolare compito che possa essere ragionevolmente attribuito a un particolare individuo allora questo individuo non può essere riconosciuto come autore in nessun modo. In linea di principio tutti gli autori dovrebbero assumersi pubblicamente la responsabilità del contenuto dell’articolo e non dovrebbe essere consentito in alcun modo l’inserimento del nome di un autore ‘onorario’. Per quanto riguarda invece le pubblicazioni ripetitive è stata proposta fin dal 1969 la cosiddetta legge di Ingelfinger, secondo la quale gli articoli vengono sottoposti all’approvazione delle riviste con l’intesa che essi o la loro parte essenziale non sono stati né pubblicati né sottoposti ad altre riviste24. I referees devono vigilare sulle trasgressioni, e le norme adottate da alcune riviste stabiliscono che, nel caso in cui essi abbiano il sospetto di trovarsi di fronte a una frode, ne debbano informare in via confidenziale il direttore. Per quanto riguarda gli stessi referees viene ricordato che essi sono tenuti al dovere della confidenzialità nell’analisi di un manoscritto e che sono tenuti a palesare eventuali conflitti di interesse e a fornire rapporti accurati e corretti in tempi ragionevoli. Il manoscritto che viene loro sottomesso non può essere trattenuto o copiato e sia il direttore che il referee non possono fare nessun uso di dati, argomenti o interpretazioni in esso contenuti, a meno che non abbiano ottenuto il permesso dell’autore. I direttori dovrebbero considerare loro funzione l’assicurare che gli autori vengano trattati in modo educato e corretto, e le loro decisioni di accettare o respingere un articolo dovrebbero essere basate soltanto sull’importanza, l’originalità, la chiarezza e la qualità dell’articolo; per evitare casi di censura di articoli originali e creativi è stato anche raccomandato che gli studi che contrastano con le opinioni correntemente accettate siano considerati con una particolare benevolenza e a tale scopo sia costituito presso ogni rivista un comitato di garanti. Sono stati anche avanzati altri suggerimenti in rapporto a possibili pressioni esterne, come per esempio che le decisioni editoriali non vengano influenzate dagli introiti attesi per la pubblicità o per gli estratti, ma sembra che sia possibile fare molto poco per quanto riguarda la segretezza imposta da industrie come da governi su aree di ricerca sensibili. 104 105 Le azioni e le sanzioni prese in considerazione sono in genere molto blande e comunque sicuramente meno gravi di quelle adottate nei confronti delle frodi. Esse vanno dalla semplice lettera di richiamo, o dall’invito a una maggiore correttezza, alla pubblicazione di un avviso di pubblicazione ridondante o di plagio. Nei casi più seri può essere imposta la ritrattazione e sconfessione formale dell’articolo, che viene eliminato dalla letteratura scientifica, informando gli altri direttori e le autorità che si occupano di indicizzare la letteratura scientifica. Solo alcuni di tali casi più gravi vengono segnalati ad autorità o istituzioni che abbiano titolo a compiere indagini perché sono ravvisabili in essi vere e proprie frodi. Non si hanno tuttavia dati chiari e affidabili sull’impatto che queste linee guida e misure abbiano o possano avere sul lungo termine, e molti elementi lascerebbero supporre che l’incertezza di fondo che caratterizza l’approccio al fenomeno costituisca un serio ostacolo alla soluzione dei problemi attuali della comunicazione scientifica. Note 1 Charles Bazerman, Shaping Written Knowledge: The Genre and Activity of the Experimental Article in Science, Madison, 1988 (trad. it. Le origini della scrittura scientifica: come è nata e come funziona l’argomentazione del saggio sperimentale, Bologna, 1991); David A. Kronick, A History of Scientific and Technical Periodicals, 2nd ed., Metuchen, NJ, 1976; Bernard Houghton, Scientific Periodicals: Their Historical Development, Characteristics and Control, Hamden, CT, and London, 1975; The Development of Science Publishing in Europe, ed. A. Jack Meadows, Amsterdam-New York, 1980. 2 Il primo grido d’allarme venne lanciato da Georges A. Boutry, Quantity versus Quality in Scientific Research: The Paper Explosion, in “Impact of Science on Society”,. n. 20, 1970, pp. 195-206. 3 Gli studi più importanti sull’idea di ‘respublica literarum’ sono quelli di Paul Dibon, Communication in the Respublica Literaria of the 17th Century, in Respublica Literarum. Studies in the Classical Tradition, Kansas, vol. 1 (1978), pp. 43-55; e Marc Fumaroli, La République des Lettres Redécouverte, in Il Vocabolario della République des Lettres. Atti del Convegno Internazionale in memoria di Paul Dibon, a cura di Marta Fattori, Firenze, 1997, pp. 41-56, che erano stati preceduti da quelli di Annie Barnes, Jean Le Clerc (1657-1736) et la République des Lettres, Paris, 1938 e Fritz Schalk, Erasmus und die Respublica Litteraria, in Actes du Congrès Erasme, Amsterdam-London, 1971, pp. 14-28. 4 Tuttavia proprio in rapporto alla comunicazione scientifica Merton rilevava l’incompatibilità tra il principio della communality e la segretezza imposta dai diritti di proprietà industriale: «Il concetto istituzionale della scienza come parte del patrimonio comune è collegato all’imperativo della comunicazione delle scoperte. La segretezza è l’antitesi di questa norma; la comunicazione completa e aperta è la sua messa in atto. La pressione per la diffusione dei risultati è rinforzata dallo scopo istituzionale di avanzare i confini della conoscenza e dall’incentivo del riconoscimento che è, naturalmente, subordinato alla pubblicazione [...]. Il carattere comunitario della scienza si riflette anche nel riconoscimento da parte degli scienziati della loro dipendenza da un retaggio culturale su cui essi non avanzano pretese [...]. Il comunitarismo dell’etica scientifica è incompatibile con la definizione del carattere di proprietà privata in un’economia capitalistica, di scoperte tecnologiche. Scritti correnti sulla frustrazione della scienza riflettono questo conflitto. I brevetti proclamano diritti esclusivi di uso e, spesso, di non uso. 106 107 La soppressione dell’invenzione nega la giustificazione della produzione e della diffusione scientifica» (Rober K. Merton, Social Theory and Social Structure, trad. it. Teoria e struttura sociale, Bologna, 1966, pp. 784-785). 5 Il rapporto tra frode scientifica e infrazione ai codici che regolano la Derek J. De Solla Price, Little Science, Big science, New York, 1963; Paul J. Friedman, Correcting the Literature following Fraudulent Publication, in “JAMA”, n. 263, 1990, pp. 1416-1419. 15 David P. Hamilton, Publishing by – and for? – the Numbers, in comunicazione tra scienziati venne stabilito già negli anni Ottanta da Robert G. Petersdorf, The Pathogenesis of Fraud in Medical Sciences, in “Annals of Internal Medicine” n. 104, 1986, pp. 252-254. 6 Marcel LaFollette, Stealing into Print: Fraud, Plagiarism and Misconduct in “Science”, n. 250, 1990, pp. 1331-2. 16 Marcel LaFollette, The Evolution of the “Scientific Misconduct” Issue: An Scientific Publishing, Berkeley, 1992; Judith Serebnick, Identifying Unethical Practices in Journal Publishing, in “Library Trends” n. 40, 1991, pp. 357-372. 7 Douglas P. Peters, Stephen J. Ceci, Peer Review Practices of Psychological Journals: The Fate of Published Articles submitted again, in “Behavioral and Brain Sciences”, n. 5, 1982, pp. 187-195; Steve Lock, A Difficult Balance: Editorial Peer Review in Medicine, Philadelphia, 1987. 8 David F. Horrobin, The Philosophical Basis of Peer Review and the Suppression of Innovation, in “JAMA” n. 263, 1990, pp. 1438-1441; Juan Miguel Campanario, Have Referees rejected Some of the Most-Cited Papers of All Times?, in “Journal of the American Society for Information Science”, n. 47, 1996, pp. 302-310; Gordon Moran, Silencing Scientists and Scholars in Other Fields: Power, Paradigm Controls, Peer Review and Scholarly Communication, Greenwich, CN, 1998. 9 John M. Budd, MaryEllen Sievert, Tom R. Schultz, Reasons for Retraction and Citations to the Publications, in “JAMA”, n. 280, 1998, pp. 296-7. 10 William P. Whitely, Drummond Rennie, Arthur W. Hafner, The Scientific Community’s Response to Evidence of Fraudulent Publication, in “JAMA”, n. 272, 1994, pp. 170-173. 11 Mark P. Pfeifer, Gwendolyn L. Snodgrass, The Continued Use of Retracted, Invalid Scientific Literature, in “JAMA”, n. 263, 1990, pp. 1420-1423. 12 Harold C. Relyea, Silencing Science: National Security Controls and Scientific Communication, Norwood, NJ, 1994. 13 Eugene Garfield, Citation Analysis as a Tool in Journal Evaluation, in “Science”, n. 178, 1972, pp. 471-479; Eugene Garfield, Citation Indexing: Its Theory and Application in Science, Technology and Humanities, New York, 1979. 14 Derek J. De Solla Price, Measuring the Size of Science, in “Proceedings Historical Overview, in “Proceedings of the Society for Experimental Biology and Medicine”, n. 224, 2000, pp. 211-215. 17 Steve Lock, Research Misconduct: A Résumé of Recent Events, in Fraud and Misconduct in Medical Research, ed. S. Lock, F. Wells, London, 1993, pp. 5-24. 18 Committee on Publication Ethics, Annual Report 1998, London. 19 Gerlinde Sponholz, Teaching Scientific Integrity and Research Ethics, in “Forensic Science International”, n. 113, 2000, pp. 511-514; Judy E. Stern, Deni Elliot, The Ethics of Scientific Research. A Guide for Course Development, Hanover-London, 1997; Research Ethics, Cases and Materials, ed. R.L. Penslar, Bloomington, 1995. 20 B. Lo, Skepticism about Teaching Ethics. Sigma Xi The Scientific Research Society. Ethics, Values and the Promise of Science, Forum Proceedings, Research Triangle Park, NC, 1993, pp. 151-6. 21 Si veda ad esempio, per un caso famoso nella ricerca antropologica, Paul Shankman, The History of Samoan Sexual Conduct and the Mead-Freeman Controversy, in “American Anthropology”, n. 3, 1996, pp. 555-567 e per la medicina Allan M. Brandt, Racism and Research: The Case of the Tuskegee Syphilis Study, in “Hastings Center Report”, n. 8, 1978, pp. 21-29 e inoltre T.P. Stossel, SPEED: An Essay on Biomedical Communication, in “The New England Journal of Medicine”, n. 313, 1985, pp. 123-6; CIOMS, International Guidelines for Ethical Review of Epidemiological Studies, in “Law, Medicine & Health Care”, n. 19 (3-4), Appendix I, 1991, pp. 247-258. 22 K. Buchholz, Criteria for the Analysis of Scientific Quality, in “Scientometrics”, n. 32, 1995, pp. 195-218. 23 Gerald W. Bracey, The Time has come to abolish Research Journals: Too many are writing too much about too little, in “Chronicle of Higher Education”, n. 30, 1987, pp. 44-5. 24 Marcia Angell, Jerome P. Kassirer, The Ingelfinger Rule revisited, in “The New England Journal of Medicine” n. 325, 1991, pp. 1371-1373. of the Israel Academy of Science and Humanities”, n. 4, 1969, pp. 98-111; 108 109 Non avevo niente da temere, perché tutti quanti hanno doti meravigliose nascoste nel profondo, l’unica differenza è che alcuni riescono a condividerle con il prossimo, e alcuni invece no. Fatema Mernissi, La terrazza proibita Valutazione e risorse umane Criteri ed indicatori per la valutazione degli Istituti del CNR Lucia Padrielli* Marina Perotti Consiglio Nazionale delle Ricerche, Ufficio del Presidente, Roma Fabrizio Tuzi Consiglio Nazionale delle Ricerche Dipartimento per le attività scientifiche e tecnologiche, Roma Introduzione Pur ritenendo che solo un panel di esperti del settore scientifico di competenza, selezionati in un contesto internazionale, possa dare una corretta valutazione dell’efficacia di un Istituto in un determinato campo, e che nessun parametro, più o meno numerico, possa esprimere la reale visibilità, importanza e * Lucia Padrielli durante la sua carriera ha ricoperto molte cariche di prestigio nazionale ed internazionale, è stata direttrice dell’Istituto di Radioastronomia e componente del Consiglio Direttivo del CNR. Ha lasciato a coloro che l’hanno conosciuta immagini intense legate alle sue capacità scientifiche, al rigore morale, all’interesse sociale, all’ironia. In suo ricordo è operativo il sito http://www.ira.cnr.it/ricordo/lucia/index.html (Adriana Valente). 113 risonanza che un Istituto ha in un contesto di competizione nazionale ed internazionale, il Consiglio Direttivo del CNR si è comunque voluto dotare di criteri di valutazione, oggettivi ed omogenei fra i vari Istituti. Questi criteri hanno accompagnato i primi anni di applicazione dei nuovi regolamenti e il processo di revisione della rete scientifica. L’analisi di vari parametri e indicatori ha infatti permesso il confronto fra Istituti dello stesso settore, ha consentito una sorta di valutazione che è stata molto importante quale supporto nelle scelte per le aggregazioni scientifiche, per la distribuzione di fondi e posti e nella difficile scelta di chiudere un certo numero di strutture (circa il 10% rispetto al numero complessivo). Valutazione della Ricerca (CIVR) del Ministero dell’Istruzione, dell’Università e della Ricerca (MIUR): Parametri per la valutazione Appare evidente come i primi due punti rappresentino i cardini fondamentali su cui poggia la missione dell’Ente. I punti successivi (da 3 a 5) si configurano come iniziative direttamente conseguenti allo svolgimento ed alla promozione delle attività di ricerca. Il modello ha poi dovuto tenere conto anche dei criteri generali di valutazione indicati dal Comitato di indirizzo per la È necessario, inoltre, sottolineare che il CNR svolge e promuove attività scientifico-tecnologiche estremamente differenziate sia in termini di azioni (progetti singoli, progetti multidisciplinari, programmi nazionali e/o internazionali, ecc.) e relativi output ad esse correlati, sia in termini di contenuti scientifici (carattere ‘generalista’ dell’Ente). Il modello di valutazione deve pertanto essere articolato e flessibile, in grado da un lato di valutare le attività inerenti le finalità istituzionali dell’Ente a differenti livelli di aggregazione – ‘micro’ (singolo ricercatore, progetto, Istituto) e ‘macro’ (aree tematiche, Ente nel suo complesso) – ed allo stesso tempo deve essere coerente con i criteri generali fissati dal CIVR. Tenendo conto di questo quadro di riferimento, è stato quindi messo a punto, in via sperimentale, un insieme di indicatori oggettivi per la valutazione delle attività del CNR. Nel presente rapporto, volendo focalizzare l’attenzione esclusivamente sulle attività connesse alla valutazione degli Istituti del CNR, non verrà approfondito l’aspetto della valutazione delle attività di promozione della ricerca, in quanto tali attività attengono all’Ente nel suo complesso e non ai singoli Istituti. Gli indicatori, utilizzati per la valutazione degli Istituti del 114 115 Il modello seguito per la valutazione delle attività scientifico-tecnologiche del CNR ha tenuto in considerazione i campi operativi istituzionalmente previsti dalla missione dell’Ente (art. 2 D.lgs. n. 19 del 30 gennaio 1999), che possono essere così schematizzati: 1. 2. 3. 4. 5. Ricerca intramurale Promozione della ricerca Trasferimento e diffusione dei risultati Attività internazionali Formazione 1. Produttività complessiva dell’Istituto 2. Qualità del lavoro svolto 3. Grado di internazionalizzazione 4. Prospettive d’innovazione delle ricerche 5. Interazione con il sistema produttivo e sociale 6. Impatto sul sistema produttivo e sociale 7. Grado di sinergia con altri enti 8. Grado di localizzazione degli obiettivi in relazione all’uso ottimale delle risorse 9. Capacità di attrarre risorse 10. Capacità di gestione delle risorse. CNR, sono stati raggruppati in cinque macro-aree di performance sulla base delle tipologie di output da analizzare: 1. Produttività e qualità scientifica Questo parametro è chiaramente uno dei più importanti nella valutazione dell’attività degli Istituti. Al suo valore numerico hanno contribuito i seguenti dati, tratti dai consuntivi scientifici degli Organi di ricerca (prima della revisione) per gli anni 1998 e 1999: Figure 1 - 3 1.1 N° Pubblicazioni JCR (Journal of Citation Report)/N° ricercatori 1.2 N° Altre pubblicazioni internazionali /N° ricercatori 1.3 N° Volumi editi/N° ricercatori 1.4 N° Capitoli di libri e libri /N° ricercatori 1.5 N° Pubblicazioni nazionali/N° ricercatori 1.6 Impact factor medio 1.7 Relative citation rate (citazioni ottenute/citazioni attese) Naturalmente alcuni parametri sono più significativi di altri. Per esempio, il parametro 1.1 è il più importante per gli Istituti che operano nel campo delle scienze così dette ‘dure’, mentre per gli stessi Istituti i parametri 1.3, 1.4 sono meno significativi (piccoli numeri). Viceversa questi ultimi sono molto importanti per le attività nel campo delle scienze così dette ‘umanistiche’ (giuridiche, storiche, sociali, beni culturali). Per questi motivi i vari parametri sono stati analizzati dividendo gli Istituti in aree omogenee e all’interno di dette aree i parametri sono stati considerati con diversi pesi. Portiamo come esempio la distribuzione del parametro 1.1, che è stato considerato come il più importante per gli Istituti e Centri appartenenti all’area di Scienze di Base (numerati da 1 a 98) (Fig. 1), Scienze della Vita (numerati da 1 a 95) (Fig. 2), Scienze dell’Ambiente (numerati da 1 a 41) (Fig. 3), e Scienze Tecnologiche (numerati da 1 a 46) (Fig. 4). Il valore, riportato per ogni singolo Organo di ricerca prima della revisione della rete, rappresenta il numero di pubblicazioni JCR per ricercatore mediato sui due anni di riferimento. 116 117 Figura 4 Figura 6 Per le Scienze di Base e le Scienze della Vita il valore medio è intorno a 2, con uno scarto quadratico medio piuttosto alto. Per le Scienze dell’Ambiente il valore si abbassa a circa 1 e per gli Istituti di carattere prettamente tecnologico si abbassa ulteriormente. Per questi ultimi, altri indicatori, quali brevetti o indicatori di trasferimento tecnologico, cominciano ad essere più importanti. Altro indicatore di una certa rilevanza è l’impact factor medio, di cui diamo la distribuzione nel caso di Istituti e Centri appartenenti a Scienze di Base (98 strutture) e Scienze della Vita (95 strutture) (Fig. 5 e Fig. 6). Le distribuzioni dei valori variano molto per i diversi settori. Valori più alti si raggiungono per Istituti operanti nel settore Scienza della Vita e valori praticamente nulli si hanno per gli Istituti di carattere umanistico. Proprio per questo motivo, tale indicatore non è stato preso in considerazione per la valutazione degli Organi afferenti alle Scienze umanistiche. Il passo successivo è stato quello di utilizzare in maniera congiunta l’impact factor (IF) e le citazioni ottenute dallo stesso set di articoli analizzati, al fine di ottenere un indicatore adimensionale dato dal rapporto tra citazioni attese (notoriamente legate all’IF) e citazioni realmente ottenute da ciascuna pubblicazione (relative citation rate). Per ogni indicatore è poi stato attribuito agli Organi, analizzati per aree omogenee, un valore correlato alla differenza fra il parametro dell’Organo e quello medio del settore (in unità di scarto quadratico medio). Alla fine, una media degli indicatori (pesando opportunamente gli indicatori più importanti) ha prodotto un valore numerico unico per la ‘produzione e qualità’ per ogni Istituto. Questo processo viene riportato nel dettaglio in appendice. Figura 5 118 119 2. Visibilità internazionale Per valutare il livello di internazionalizzazione dei singoli Istituti in un quadro di riferimento principalmente europeo sono stati tenuti in considerazione i seguenti parametri: 2.1 N° Progetti UE 2.2 N° Progetti UE/N° ricercatori 2.3 Budget UE annuo/N° ricercatori zione ai progetti internazionali, confermando la necessità di avere a disposizione sufficiente massa critica per la partecipazione a tali progetti. I Centri erano, infatti, ben lontani dall’avere massa critica, in termini soprattutto di risorse umane, necessaria per presentare e gestire progetti UE. Figure 7 - 8 A questi si sono aggiunti altri parametri che indicano la visibilità dell’Istituto anche in un contesto più ampio di quello europeo: 2.4 N° Incarichi internazionali/N° ricercatori 2.5 Large scale facilities internazionali (Sì/No) 2.6 N° Consorzi internazionali partecipati 2.7 Partecipazione ad Istituti internazionali (Sì/No) Istituti Anche in questo caso ci troviamo di fronte ad una notevole disomogeneità; i progetti UE, infatti, dipendono dal settore di attività dell’Istituto, così come pure la partecipazione a Consorzi o Istituti internazionali. Inoltre l’analisi è stata estesa a tutti gli Organi preesistenti alla revisione, anche ai Centri di studio che rispetto agli Istituti erano, generalmente, caratterizzati da una più esigua presenza di risorse umane e finanziarie. A scopo esemplificativo riportiamo in Fig. 7 e Fig. 8 la distribuzione del numero di progetti UE per ricercatore degli Organi afferenti alle Scienze dell’Ambiente e quelli afferenti alle Scienze della Vita. Si rileva che circa metà degli Organi hanno contratti con l’UE, con un valore medio intorno a 0,15 per ricercatore. Analoghe distribuzioni si ottengono anche per le altre aree scientifiche. Indipendentemente dall’uso che è stato fatto di questo parametro, i risultati statistici hanno messo in risalto una netta differenziazione tra Istituti e Centri nella partecipa- Anche in questo caso i vari indicatori sono stati analizzati per aree omogenee ed a ogni Istituto è stato attribuito un valore 120 121 Istituti corrispondente alla differenza fra il parametro dell’Istituto e quello medio del settore (in unità di sigma). Alla fine, una media ha prodotto un valore numerico unico per la ‘visibilità internazionale’ di ogni Istituto, escludendo dall’analisi i parametri 2.5, 2.6, 2.7 che in questa prima fase non presentavano una documentazione omogenea delle fonti da cui prelevare tali informazioni (i consuntivi scientifici degli Organi del CNR). Figure 9 - 11 3. Impatto con il sistema socio-economico Sono stati considerati vari fattori che danno in qualche modo una misura dell’interazione degli Istituti con il sistema socio-economico a livello nazionale ed internazionale. I parametri valutati sono: 3.1 N° Richieste deposito Brevetti 3.2 Budget dal ‘mercato’/Budget totale (compreso il costo del personale) 3.3 Budget dal ‘mercato’/N° ricercatori 3.4 N° Banche dati 3.5 N° Eventi (corsi, convegni, seminari, ecc.) organizzati/N° ricercatori 3.6 N° Incarichi nazionali/N° ricercatori Il fattore più importante in questo gruppo di indicatori è il 3.2, che ci fornisce una diretta misura della capacità dell’Istituto di attrarre finanziamenti esterni. Nelle figure che seguono sono riportate per tutte le aree scientifiche le distribuzioni del rapporto fra l’autofinanziamento e il finanziamento totale degli Istituti (3.2). Le percentuali di autofinanziamento risultano senza dubbio notevoli (fino al 60%), se si considera che nel costo sono comprese anche le spese per il personale. Come si vede, anche gli Istituti a carattere umanistico acquisiscono (se pur in modo inferiore) fondi esterni all’Ente. 122 123 Figure 12 - 13 4.1 N° Borse di studio/N° ricercatori 4.2 N° Dottorandi/N° ricercatori 4.3 N° tesisti/N° ricercatori 4.4.N° Corsi universitari/N° ricercatori 4.5 N° altri corsi/N° ricercatori Anche in questo caso i parametri non hanno tutti la stessa importanza, e si sono attribuiti pesi diversi ai vari parametri. Il risultato Al termine del processo è stato possibile assegnare un valore o meglio un indicatore unico di qualità ad ogni singolo Istituto e Centro dell’Ente, prima del processo di revisione. A partire, infatti, dai risultati realizzati da ciascun Organo nelle diverse macro-aree, gli Istituti ed i Centri, nell’ambito delle rispettive aree scientifiche di afferenza, sono stati distribuiti all’interno di sei categorie di performance che assumevano una ripartizione dei valori tra 0 e 3 (0,5-1-1,5-2-2,5-3). La distribuzione degli Istituti nelle diverse categorie di performance è mostrata nelle figure che seguono. Tutti gli Organi dismessi appartenevano alla categoria n. 1 (valore 0,5). Anche in questo caso si è calcolato un unico indicatore come media pesata dei singoli valori, sempre in termini di distanza dalla media in unità di scarto quadratico. Figura 14 4. Formazione L’alta formazione rappresenta una delle più importanti funzioni affidate al CNR dalla riforma. Questa funzione mantiene attivo e produttivo il livello di scambio tecnologico-scientifico con le Università, produce le nuove generazioni di ricercatori e tiene vive le scuole di eccellenza degli Istituti. È stato quindi messo a punto un set di valori per valutare l’attività didattico-formativa degli Istituti: 124 125 Figure 15 - 18 Va, infine, segnalato che il ranking ‘oggettivo’ scaturito dagli indici sopra riportati è stato poi confrontato con i ‘giudizi’ che, a suo tempo, erano stati espressi dai Comitati nazionali del CNR sui singoli Organi di ricerca, attraverso un tipico processo di peer rewieving. È importante sottolineare che per oltre il 95% degli Organi il giudizio ‘freddo’ degli indicatori corrispondeva a quello ‘caldo’ formulato dagli ex Comitati. Tale dato conforta in qualche modo la qualità della scelta degli indicatori. Modello futuro Queste prime esperienze possono essere preziose per sviluppare e migliorare il modello di valutazione applicabile al CNR nel suo complesso. A fianco dei Consigli Scientifici, che producono giudizi ‘a caldo’, per gli Istituti possono continuare ad operare valutazioni generali e statistiche basate su indicatori. Queste analisi sono in grado di mettere in risalto i punti di forza e dare indicazioni sui punti di debolezza del Sistema Ricerca del nostro Ente. Accanto agli indicatori puramente scientifici utilizzati nella prima fase dovranno essere considerati anche indicatori di carattere gestionale-economico, come indicato dal CIVR. 5. Gestione delle risorse 5.1 Indice di autonomia finanziaria 5.2 Indici di incidenza dei residui 5.3 Velocità di gestione (spese/entrate) 5.4 Indice di corrispondenza tra obiettivi dichiarati nel Piano Triennale e risultati raggiunti 126 127 Confronto con i parametri indicati dal CIVR Al fine di confrontare il modello di valutazione utilizzato dal CNR con le indicazioni del CIVR, nella tavola successiva vengono evidenziate le correlazioni tra le macro-aree di performance analizzate dagli indicatori adottati ed i criteri generali proposti dal CIVR, per la ricerca intramurale (Tab. 1). 128 Tabella 1. Matrice di correlazione tra le macro-aree di performance ed i criteri generali di valutazione proposti dal CIVR – ricerca intramurale È opportuno segnalare che per quest’ultima tipologia di indicatori solo a valle del processo riorganizzativo dell’Ente sarà possibile il calcolo di ciascun indice a livello di singola struttura scientifica. 129 APPENDICE Criteri seguiti per le operazioni di ranking I dati I dati ‘sorgente’ sono stati ricavati dalle seguenti fonti: – Consuntivi 1998 e 1999 (Dati riguardanti gli output scientifici conseguiti dagli Organi di ricerca); – Conto Consuntivo CNR 1998 e 1999 (Dati finanziari). I valori di autofinanziamento sono calcolati sulla base degli importi impegnati; – UASI/Dipartimento del Personale (Costo e numero del personale, eccetto il numero dei professori associati ai Centri di Studio che invece è stato ricavato dai Consuntivi 1998 e 1999); – Dipartimento Relazioni Internazionali (Dati progetti UE); – Science Citation Index 1995, 1996, 1997, 1998 (ISI) – (Per il calcolo del RCR); – Journal of Citation Report 1995, 1996, 1997 e 1998 (ISI) – (Per il calcolo del RCR e dell’IF medio). Il numero dei ricercatori si riferisce esclusivamente ai primi tre livelli contrattuali del CNR (Ricercatore + Primo Ricercatore + Dirigente di ricerca). Oltre al personale dell’Ente, sono stati presi in considerazione, nel computo del N° di ricercatori, anche il personale di ricerca universitario assegnato per convenzione agli Organi CNR, al fine di ridurre il bias sistematico dovuto alla sottostima del numero del personale che effettivamente opera presso i Centri e che attivamente contribuisce alla produzione scientifica degli stessi. II. È stato poi calcolato il valore medio 98-99 di ciascun indicatore. III. Sono stati individuati dei clusters omogenei di Organi di ricerca per il confronto dei dati. IV. Per ciascun indicatore, nell’ambito di una data macro-area e del cluster selezionato, è stata effettuata l’operazione di ranking, utilizzando la seguente equazione: dove R = [((xj – xmedio)/2σ)+1]*2 xj = valore dell’indicatore jesimo xmedio =valore medio per cluster σ = Σ(xj – xmedio)2/n-1 V. Ciascun valore R ottenuto è stato poi moltiplicato per il ‘peso’ attribuito all’indicatore cui esso si riferisce. VI. Sulla base dei singoli valori R così calcolati, per ciascun Organo di ricerca è stato calcolato il valore Rmedio pesato per macro-area. Di seguito vengo illustrati i criteri generali utilizzati per le operazioni di ranking degli Organi di ricerca del CNR: I. Per ciascun Organo di ricerca sono stati calcolati i valori degli indicatori di cui alle pagine precedenti, sulla base dei dati 1998 e 1999. In particolare, per quel che riguarda il ranking della macroarea 1. Produttività e qualità scientifica, si è operato nel seguente modo: A. Costruzione dei clusters: gli Organi di ricerca ed i relativi indicatori medi sono stati raggruppati in aree disciplinari omogenee, sulla base dell’afferenza degli Organi agli ex comitati, tenendo distinti gli Istituti dai Centri. B. L’indicatore 1.3 è stato utilizzato ai fini del ranking solo per gli Organi afferenti agli ex comitati 08, 09, 10, 15 relativi alle Scienze umanistiche. Per gli altri Organi tale indicatore mostrava una distribuzione estremamente irregolare. C. Gli indicatori 1.1, 1.6, 1.7 non sono stati presi in considera- 130 131 zione per il ranking degli Organi afferenti alle aree di carattere umanistico sopra definite, in quanto non significativi per tali discipline. Per quel che riguarda il ranking della macro-area 2. Visibilità internazionale, si è operato nel seguente modo: D. Costruzione dei clusters: da un lato sono stati raggruppati gli Organi afferenti agli ex comitati 1, 2, 3, 4, 5, 6, 7, 11, 12, 13 e 14 (Scienze di Base, della Vita, dell’Ambiente e Tecnologiche) e dall’altro gli Organi afferenti agli ex comitati 8, 9, 10, 15 (Scienze umanistiche). E. Applicazione dei criteri generali (dal punto IV al punto VI). F. Gli indicatori 2.5, 2.6 e 2.7 non sono stati utilizzati in quanto i dati non sono ancora disponibili. Per quel che riguarda il ranking della macro-area 3. Interazione con il sistema socio-economico, si è operato nel seguente modo: G. Costruzione dei clusters: da un lato sono stati raggruppati gli Organi afferenti agli ex comitati 1, 2, 3, 4, 5, 6, 7, 11, 12, 13 e 14 (Scienze di Base, della Vita, dell’Ambiente e Tecnologiche) e dall’altro gli Organi afferenti agli ex comitati 8, 9, 10, 15 (Scienze Umanistiche). H. Applicazione dei criteri generali (dal punto IV al punto VI). I. L’indicatore 3.1 non è stato utilizzato in quanto poco significativo. Per quel che riguarda il ranking della macro-area 4. Formazione, si è operato nel seguente modo: J. Costruzione dei clusters: sono stati costruiti due clusters, raggruppando insieme tutti gli Istituti da un lato ed i Centri di Studio dall’altro. K. Applicazione dei criteri generali (dal punto IV al punto VI). 132 La produzione scientifica del CNR nelle scienze sociali: considerazioni di genere Rosa Di Cesare, Daniela Luzi, Adriana Valente Consiglio Nazionale delle Ricerche Istituto di ricerche sulla popolazione e le politiche sociali, Roma Introduzione Lo stereotipo della neutralità della scienza è stato messo in discussione solo recentemente, dando il via a numerose analisi sulla composizione di genere in Scienza e Tecnologia (S&T). Le prime raccomandazioni di classificare il personale di ricerca per sesso emanate dalla Division of Statistic on Science and Technology dell’UNESCO risalgono al 1984 (UNESCO, 1984) e alla fine degli anni Novanta anche la Commissione Europea sottolineava la necessità di raccogliere dati disaggregati nelle statistiche sulla scienza (EU, 2001). Per soddisfare tali richieste è tuttavia necessaria una più attenta e sistematica raccolta di dati, che attualmente non è invece sempre disponibile né all’interno di università ed enti di ricerca, né nelle basi bibliografiche che riportano il cognome dell’autore/autrice delle pubblicazioni e indicano solo l’iniziale del nome. Recenti indagini condotte in ambito europeo (EU, 2003; EU, 2002; EU, 2001) concordano nell’evidenziare che le donne sono 133 sottorappresentate nella ricerca, specialmente nelle posizioni al vertice della carriera accademica, e confermano i risultati di molti studi precedenti portati avanti a livello sia nazionale che disciplinare (Nal, 2002; Pal, 2000; Ben, 1988; Wen, 1997). I risultati del Gruppo di Helsinky (EU, 2002) analizzano i dati misurando sia la segregazione orizzontale che quella verticale. Il primo indicatore, che rappresenta il tasso di concentrazione delle donne nelle attività di ricerca e/o in specifici campi disciplinari, parte dal presupposto che una più equilibrata distribuzione numerica possa essere un buon risultato in termini di eguaglianza di genere. La segregazione verticale, anche se strettamente correlata a quella orizzontale, analizza la distribuzione femminile nei diversi livelli della carriera scientifica e misura la mancata valorizzazione delle risorse umane femminili, nota anche con la metafora della ‘conduttura che perde’ (leaking pipeline). Settori scientifici disciplinari influenzano entrambi gli indicatori; per esempio c’è una minore presenza di donne nella big science ed in ingegneria, mentre le donne sono maggiormente presenti in medicina e nelle materie umanistiche. Altri fattori giocano un ruolo importante nel misurare le disuguaglianze di genere, quali l’organizzazione e la struttura di specifiche comunità scientifiche, il più ampio contesto scientifico nazionale, l’istruzione scolastica, le politiche adottate a supporto delle pari opportunità, così come i ruoli ricoperti dentro e fuori la famiglia. Tutti questi fattori rendono complessa l’analisi, tanto che studi che si rifanno a differenti Paesi e/o contesti scientifici sono giunti a conclusioni diverse. In genere si afferma che le donne non raggiungono alte posizioni di responsabilità nella carriera in quanto non pubblicano tanto quanto gli uomini. Una interpretazione opposta è stata fornita da altri autori (Lon, 2001; Gad, 2000; Lon, 1992). Long, ad esempio, in uno studio condotto negli Stati Uniti mostra che la differenza di produzione dipende dalle posizioni ricoperte da uomini e donne: la posizione elevata nella carriera e il relativo prestigio, nonché la maggiore probabilità di ricoprire ruoli dirigenziali forniscono maggiori occasioni di pubblicare. C’è tuttavia da sottolineare che il dato sulla minor produzione femminile non sempre viene confermato. Uno studio condotto in ambito europeo (Bio, 2001; Nal, 2002) ha ad esempio identificato differenze tra Nord e Sud: in Italia, Spagna e Francia si registra una significativa maggioranza di autrici rispetto a Germania, Regno Unito e Svezia. Un risultato simile è stato ottenuto paragonando discipline diverse: le donne pubblicano più degli uomini in biologia, biomedicina, scienze della terra, mentre pubblicano meno in matematica. È quindi necessario condurre ulteriori indagini, a livello sia macro che micro, per interpretare le diverse variabili che condizionano la partecipazione femminile nella scienza, al fine di identificare adeguate misure di superamento della segregazione e discriminazione femminile. Come più volte dichiarato a livello internazionale, ciò richiede – come primo, importante passo – una costante e accurata raccolta di dati che includano le variabili di sesso e i profili professionali a livello sia istituzionale che nazionale. Ciò faciliterebbe gli studi futuri e fornirebbe un più ampio spettro di informazioni su cui basare l’interpretazione e l’analisi. Questo lavoro intende contribuire al dibattito attualmente in corso sulle problematiche di genere nella scienza, verificando se e in quale misura alcune delle ipotesi della produzione femminile siano valide per i campi disciplinari coperti dal Social Science Citation Index (SSCI) prodotto dall’Institute for Scientific Information (ISI). Per questa ragione è stata analizzata la produzione scientifica dei ricercatori e ricercatrici del Consiglio Nazionale delle Ricerche che hanno pubblicato nei periodici selezionati dal SSCI, che è generalmente il principale indice utilizzato e abusato (Fig, 2000; Big, 2000; Ami, 2001; Di Ces, 2002) per valutare la produzione individuale. 134 135 Materiali e metodi Si è scelto di analizzare la produzione scientifica del personale CNR, in quanto il CNR è il maggiore ente pubblico di ricerca italiano con 108 istituti distribuiti sull’intero territorio nazionale. Ha una vocazione multi e interdisciplinare che comprende sia le tradizionali scienze esatte che quelle umane e sociali, anche se queste ultime per ragioni storiche sono numericamente e strutturalmente meno rappresentate (Sim, 2001). A partire dal 1999 il CNR è in fase di riorganizzazione scientifica e strutturale e ciò potrebbe aver influenzato la produzione del personale. Per analizzare la produzione del personale CNR si è deciso di avvalersi delle informazioni raccolte dalla sezione Source Index della base di dati SSCI (versione CD-Rom 1999-2002), disponibile presso la Biblioteca centrale del CNR, in quanto tale sistema, anche se da più parti criticato rispetto alle modalità di scelta delle riviste che recensisce (Val, 2002), viene utilizzato da molte istituzioni scientifiche per valutare la produzione scientifica a livello sia istituzionale che di singoli ricercatori. Dal 1999 il CNR ha inoltre incluso informazioni sul genere nel suo Rapporto annuale (CNR, 2002a), rispondendo alle sollecitazioni sia europee che del comitato delle pari opportunità interno all’ente. Il Rapporto Annuale, che fornisce dati e descrizioni sull’organizzazione, i risultati scientifici raggiunti in ciascun anno e le risorse finanziarie utilizzate, rappresenta la base per la valutazione di un comitato esterno e internazionale delle attività scientifiche del CNR nel suo complesso, ma viene anche usato per valutare la produttività a livello sia degli istituti di ricerca che di singolo ricercatore. Se si considera la produzione individuale, il Rapporto Annuale pone particolare enfasi sulle pubblicazioni selezionate dall’ISI. Il lavoro ha lo scopo di misurare la produzione del personale CNR nelle pubblicazioni selezionate dal SSCI negli anni 1999-2002 esaminando i contributi in una prospettiva di genere e ponendo particolare attenzione ai dati sulle qualifiche professionali. Obiettivo secondario di questa analisi è di verificare le metodologie di rilevazione di dati più idonee a rappresentare la produttività individuale del personale di ricerca. Per raggiungere il primo obiettivo, si è proceduto a: – Selezionare dal SSCI le pubblicazioni che contengono almeno uno autore/autrice dipendente del CNR; – Identificare il genere degli autori e il relativo livello professionale consultando il libro matricola CNR (CNR 2003). Le basi dati dell’ISI riportano l’elenco completo degli autori e forniscono l’indicazione dell’ente di appartenenza. Gli autori vengono riportati con il cognome e con la sola iniziale del nome, e non esiste nessuna corrispondenza esplicita tra autore e propria affiliazione, in quanto i nomi degli enti di appartenenza vengono riportati così come appaiono nel frontespizio della pubblicazione. Inoltre, la denominazione dell’ente non è soggetta a nessuna standardizzazione, così che essa può essere riportata in molte varianti. Ciò vuol dire che la validazione dei dati recuperati dal database diventa un compito assai delicato soprattutto per ciò che riguarda le omonimie. La consultazione del libro matricola ci ha permesso di individuare sia il genere che il livello professionale e di controllare inoltre la corrispondenza tra autore/autrice e istituto di appartenenza, in modo da eliminare i casi di omonimia. Nei casi dubbi si è ricorsi al contatto diretto con l’autore. È stato utilizzato un criterio restrittivo in quanto sono stati eliminati i nominativi in cui non era certa l’appartenenza al CNR e sono stati inoltre ignorati gli autori/autrici che hanno lasciato il CNR da più di tre anni rispetto alla data di pubblicazione dell’articolo. Non è stato inoltre possibile considerare il personale che opera con borse di studio o contratti atipici, in quanto i loro nominativi non vengono riportati nel libro matricola. Dalla base di dati del SSCI sono state inoltre recuperate le seguenti informazioni che possono contribuire a fornire un 136 137 quadro sulle caratteristiche della produzione scientifica del personale CNR: – Tipo di pubblicazione secondo le definizioni utilizzate dall’ISI (articles, review, book review, notes, letter, meeting abstract, editorial); – Distribuzione delle riviste e individuazione delle corrispettive categorie ISI (SCI, 2000; SCCI, 2000); – Individuazione e analisi degli articoli a cui hanno collaborato anche autori appartenenti ad altri enti nazionali e internazionali. Per misurare la produzione scientifica sono stati utilizzati i seguenti criteri: – full counting, che assegna per intero la pubblicazione a ciascun autore/autrice anche se questa è stata prodotta in collaborazione con altri/e; – pubblicazione equivalente, che attribuisce a ciascun autore la quota corrispondente al numero di autori CNR che hanno contribuito alla sua realizzazione (1/numero autori = reciproco del numero degli autori del CNR). Oltre ad un indicatore di contributo medio calcolato in base alla pubblicazione equivalente, è stato utilizzato un indicatore di produzione media (calcolato sommando le porzioni di contributo per ciascun autore secondo il genere e il livello professionale e dividendo per il corrispondente numero di autori/autrici) che esprime la produzione media secondo il genere e la qualifica. È stato inoltre calcolato l’indice di femminilizzazione del personale che ha prodotto gli articoli selezionati dal SSCI che equivale al rapporto tra autori e autrici (numero autrici/numero autori x 100). alle analisi di genere e di livello vengono riportati nei paragrafi 3.3, 3.4 e 3.5. 3.1 Dati selezionati, tipologia di documenti e collaborazioni Tabella 1. Numero di record recuperati dal SSCI secondo l’anno di pubblicazione Fonte: Nostra elaborazione su dati del SSCI 1999-2002 Per fornire un quadro generale, si riportano i risultati che descrivono le caratteristiche generali dei dati recuperati dal SSCI 1999-2000 nei paragrafi 3.1, 3.2, mentre i risultati relativi La Tab. 1 mostra il numero dei record che comprendono le pubblicazioni su periodici selezionati dal SSCI negli anni 19992002, dove almeno un autore o coautore riporta come propria affiliazione il CNR. Tali dati costituiscono l’insieme su cui si basa la nostra analisi. Il trend di pubblicazioni è quasi discendente, sia pure con una variazione non molto accentuata negli anni, e ha il suo valore massimo nel primo anno considerato. La tabella mostra inoltre il numero e le percentuali di record che, pur recuperati dalla ricerca sul database SSCI, non sono stati considerati, in quanto non era possibile individuare con certezza l’autore/autrice CNR, o la denominazione dell’istituto di appartenenza era riportata dal database in modo scorretto e quindi non identificabile. La percentuale dei record eliminati varia nei quattro anni dal 17% al 28% e può fornire utili indicazioni sull’attività di pulitura dati, che impegna parte considerevole dell’analisi e rende spesso problematiche le indagini di questo tipo (Bre, 2002). 138 139 Risultati Figura 1. Ripartizione delle pubblicazioni per tipologia (1999-2002) Fonte: Nostra elaborazione su dati del SSCI 1999-2002 I record selezionati dal SSCI sono costituiti per la maggior parte (Fig. 1) da articoli originali (77,49%), seguiti da abstract di convegni (13%), la maggior parte dei quali concentrati nel 1999, e da un esiguo numero di review (6, 49%). Anche considerando che la maggioranza dei dati è costituita da articoli originali, il termine ‘articolo’ viene di seguito usato per comprendere l’insieme delle pubblicazioni selezionate. Tabella 2. Articoli secondo l’affiliazione degli autori/autrici (valori assoluti e %, 1999-2002) Fonte: Nostra elaborazione su dati del SSCI 1999-2002 140 La Tab. 2 mostra il numero e la percentuale degli articoli secondo l’affiliazione degli autori/autrici. Tale indicazione permette di distinguere tra articoli che scaturiscono da una collaborazione con altri enti italiani e/o esteri, e quelli che rappresentano i risultati di una ricerca condotta solo in ambito CNR. Il numero delle pubblicazioni in collaborazione con altri enti italiani non si discosta di molto dagli articoli scritti esclusivamente dal personale del CNR, con la sola eccezione del 2000 (27%). La percentuale delle pubblicazioni scritte in collaborazione con enti stranieri risulta invece generalmente minore tranne il dato del 2000 (33%). 3.2 Riviste e aree disciplinari I 231 articoli firmati da almeno un autore/autrice CNR sono stati pubblicati in 153 riviste indicizzate dall’ISI nel periodo 1999-2002 (Fig. 2). Trenta riviste contengono un totale di 108 articoli (pari al 46,7%) con una variazione compresa tra un minimo di due articoli per rivista (13 riviste, con l’11% degli articoli) ed un massimo di 11 per rivista (una rivista contiene il 4,7% di articoli). I rimanenti 123 articoli (55,3%) sono stati pubblicati in altrettante riviste. Il grafico mostra la distribuzione in termini percentuali delle riviste in base al numero degli articoli pubblicati e firmati da almeno un autore CNR. Questi dati mostrano un’elevata dispersione nella distribuzione negli articoli selezionati nelle riviste. Per verificare se questo dato è indice di accentuata diversificazione degli interessi scientifici dei ricercatori coinvolti nell’indagine, le riviste sono state analizzate secondo le categorie ISI di appartenenza. Per ciascuna rivista è stata identificata la categoria utilizzata dall’ISI; nel caso in cui una rivista sia stata classificata dall’ISI 141 Figura 2. Distribuzione delle riviste secondo al numero di articoli pubblicati (1999-2002) Tabella 3. Distribuzione degli articoli per categoria (1999-2002) Fonte: Nostra elaborazione su dati del SSCI 1999-2002 Fonte: Nostra elaborazione su dati del SSCI 1999-2002 in più categorie, è stato tenuto conto solo della prima categoria. Per semplicità di analisi, quando possibile, più categorie ISI sono state associate sulla base della loro affinità. Nel gruppo ‘Altri’ sono state incluse le riviste afferenti alle categorie meno rappresentate. Si tratta di 31 riviste, ognuna con un solo articolo, afferenti a 24 categorie ISI. Come mostra la Tab. 3, l’84,4% degli articoli è classificabile in dieci categorie, e il 66,66 % nelle quattro più rappresentate. 77 articoli pari al 33,33% rientrano in ‘Psychology/Behavioral Sciences’ e complessivamente 102 articoli, pari al 44,15% nelle categorie collegate alla psicologia e alle neuroscienze. Questo dato trova peraltro riscontro nella Tab. 4 sulla frequenza con cui i ricercatori CNR pubblicano sulle riviste appartenenti alle categorie sopra citate. Contrariamente a quanto suggerirebbe la variabilità nella distribuzione degli articoli nelle riviste, i dati dimostrano che gli interessi dei ricercatori CNR, che operano nel settore delle scienze sociali, si concentrano su di un numero limitato di campi, per lo più a carattere multidisciplinare. Sarebbe interessante indagare quali sono le motivazioni alla base della scelta della rivista su cui pubblicare, e quali le cause e il significato dell’ampia variabilità della scelta. Un approfondimento di questi temi sarà oggetto di una prossima indagine, la quale tra l’altro, attraverso l’analisi delle citazioni, andrà a misurare l’impatto che gli articoli firmati da autori/autrici CNR hanno avuto sulla comunità scientifica di riferimento. 142 143 Tabella 4. Elenco delle prime dieci riviste su cui gli autori/autrici CNR hanno pubblicato dal 1999 al 2002 3.3 Autrici e autori degli articoli Figura 3. Distribuzione degli autori/autrici CNR per genere e livello Fonte: Nostra elaborazione su dati del SSCI 1999-2002 Fonte: nostra elaborazione su dati ISI 144 La distribuzione per genere indica una prevalenza maschile sul totale del personale di ricerca (69 femmine e 96 maschi). Il numero uguale di ricercatori e ricercatrici di prima fascia (Ric I) e quelli di fascia iniziale (Ric III) che risulta dai nostri dati fornisce già una indicazione positiva sul numero di donne che pubblica su periodici indicizzati dal SSCI, soprattutto se si considera che il personale di ricerca del CNR è a prevalenza maschile (cfr. Tab. 5). Il dato più evidente riguarda invece la differenza tra autori e autrici CNR al vertice della carriera (2 dirigenti di ricerca donne rispetto a 18 dirigenti di ricerca uomini) e del personale tecnico (CTER). Per valutare la presenza femminile di particolari ambiti di 145 lavoro viene utilizzato l’indice di femminilizzazione, definito come il numero di donne per 100 uomini. Nel nostro caso tale indice è pari a 71,88 e, anche se si riferisce alla presenza femminile di autori di pubblicazioni nel settore delle scienze sociali, può fornire utili indicazioni se si prendono come riferimento i dati sulla presenza femminile forniti dal CNR (Tab. 5). Tali dati, che comprendono anche il personale a tempo determinato aggiornati al 6 ottobre 2003, mostrano che per le ricercatrici nella qualifica iniziale l’indice di femminilizzazione raggiunge il valore di 84,58, mentre esso diminuisce sensibilmente a livello di ricercatrice di prima fascia (39,22) e crolla nel caso delle dirigenti di ricerca (13,44). I dati sull’indice di femminilizzazione delle autrici degli articoli selezionati dallo SSCI della nostra indagine (Tab. 6) rappresentano, al contrario, una situazione più equilibrata per le ricercatrici di livello base e di prima fascia, mentre si conferma una bassa presenza femminile a livello dirigenziale e a quello del personale tecnico. Tabella 5. Indice di femminilizzazione del personale CNR (6 ottobre 2003) Tabella 6. Indice di femminilizzazione del personale CNR autore/autrice di articoli selezionati dal SSCI (1999-2002) Qualifica Dirigente di ricerca Ricercatore I Ricercatore III Personale tecnico Femmine 2 26 37 4 Maschi 18 26 37 15 Indice di femm. 11,11 100,00 100,00 26,67 TOTALE 69 96 71,88 Fonte: Nostra elaborazione su dati del SSCI 1999-2002 Anche il Rapporto annuale 2002 del CNR ha considerato tale indicatore rispetto ai risultati ottenuti negli ultimi concorsi pubblici e ha riportato un incremento dal 67% nell’anno 1999 all’81% nell’anno 2001 per le ricercatrici di livello base, mentre c’è stata una diminuzione ai livelli più alti sia nella percentuale di candidate che hanno superato con successo i concorsi sia nel numero di domande presentate (CNR, 2002a, p. 91). Tabella 7. Distribuzione del personale CNR autore/autrice di pubblicazioni selezionate dal SSCI per genere, qualifica e anno Qualifica Femmine Maschi Indice di femm. Dirigente di ricerca Ricercatore I Ricercatore III Personale tecnico 50 322 1251 445 372 821 1479 1254 13,44 39,22 84,58 35,49 TOTALE 2068 3926 52,67 Fonte: Nostra elaborazione su dati del CNR – Ufficio del Personale Qualifica 1999 Femmine Dirigente di ricerca 2 Ricercatore I 10 Ricercatore III 15 Personale tecnico 1 Maschi 11 10 16 8 2000 Femmine 2 15 10 -- Maschi 10 7 14 2 2001 Femmine 2 12 14 2 Maschi 7 10 13 5 2002 Femmine 1 7 10 1 Maschi 9 8 9 5 TOTALE 45 27 33 30 35 19 31 28 Fonte: Nostra elaborazione su dati del SSCI 1999-2002 146 147 La Tab. 7 riporta il numero dei ricercatori e delle ricercatrici che hanno pubblicato negli anni 1999-2002 nei periodici selezionati dal SSCI. La tabella evidenzia ancora una volta una forte maggioranza di dirigenti di ricerca rispetto alle loro colleghe, così come del resto appariva in Fig. 2. Il rapporto tra numero di ricercatori e ricercatrici di livello base e di prima fascia risulta costante, ad eccezione del 2000, dove prevale il numero di ricercatrici di prima fascia (15 su 7) e quello dei ricercatori di livello base (14 su 10). Si noti inoltre che il numero dei ricercatori di livello base e di prima fascia decresce leggermente negli anni, mentre quello delle loro colleghe è oscillante. 3.4 Analisi della produzione scientifica: criterio del full counting e della pubblicazione equivalente Tabella 8. Distribuzione delle pubblicazioni del personale CNR in articoli selezionati dal SSCI per genere, qualifica e anno (valori assoluti e percentuali) (full counting) 1999 2000 2001 2002 Totale DIR RIC Nr. % Femmine 5 5,10 Maschi 13 13,27 Femmine 2 2,53 Maschi 16 20,25 Femmine 2 2,44 I RIC Nr. 16 11 21 7 16 % 16,33 11,22 26,58 8,86 19,51 RIC III Nr. % 18 18,37 24 24,49 14 17,72 16 20,25 18 21,95 CTER Nr. % 1 1,02 10 10,2 --3 3,8 4 4,88 TOTALE Nr. % 40 40,82 58 59,18 37 46,84 42 53,16 40 48,78 Maschi 8 Femmine 1 Maschi 14 9,76 1,41 19,72 12 15 10 14,63 21,13 14,08 17 13 10 20,73 18,31 14,08 5 1 7 6,1 1,41 9,86 42 30 41 Femmine 10 Maschi 51 16,39 83,61 68 40 62,96 37,04 63 67 48,46 51,54 6 25 19,35 80,65 147 44,55 183 55,45 100,00 108 100,00 31 100,00 330 100,00 51,22 42,25 57,75 La Tab. 8 mostra il numero delle pubblicazioni del personale CNR selezionate dal SSCI 1999-2002 distribuite per genere e qualifica. In questa tabella è stato utilizzato il criterio del full counting, secondo il quale le pubblicazioni realizzate da più autori vengono assegnate per intero a ciascun autore. Tale criterio, proprio in quanto attribuisce lo stesso peso sia agli autori che pubblicano come singoli sia a quelli che pubblicano in collaborazione, pone l’accento sulla pubblicazione, moltiplicandone quindi il numero. mance positiva è data dalle ricercatrici di livello base in particolare nel 2002, negli altri casi la produzione maschile risulta in genere nettamente superiore a quella femminile. I dati che ne risultano vedono la prevalenza del numero di pubblicazioni del personale di ricerca maschile sia sul totale dei quattro anni considerati (55,45% vs. 44,45%), sia nei valori percentuali per anno. Tale dato risulta più accentuato negli anni 1999 (59,18% vs. 40,82%) e 2002 (57,75% vs. 42,25%). I dati di distribuzione delle pubblicazioni per qualifica mostrano che le I ricercatrici producono un maggior numero di pubblicazioni in tutti e quattro gli anni considerati, mentre la stessa perfor- La Tab. 9 riporta la produttività individuale calcolata con il criterio della pubblicazione equivalente (contributo medio): in questo caso agli autori/autrici di pubblicazioni realizzate in collaborazione con altri ricercatori viene assegnata la quota corrispondente. La produzione media è stata calcolata dividendo la somma dei contributi dei quattro anni per il numero effettivo dei ricercatori/ricercatrici che hanno pubblicato in quell’anno. (1999 = 8,7: 2 dirigenti di ricerca donna). Il totale 148 149 TOTALE 61 130 100,00 Fonte: Nostra elaborazione su dati del SSCI 1999-2002 Tabella 9. Contributi individuali del personale CNR agli articoli selezionati dal SSCI e produzione media per genere, anno e qualifica (criterio di pubblicazione equivalente) ANNO 1999 2000 2001 2002 TOTALE Produzione media Dirigenti di ricerca Femmine Maschi 5,00 8,31 1,33 12,67 1,33 5,75 1,00 11,00 Ricercatori I fascia Femmine Maschi 10,79 8,17 14,66 4,83 11,83 10,17 12,17 7,33 Ricercatori III Femmine Maschi 14,08 15,58 8,25 10,75 13,33 10,08 8,50 7,17 Personale tecnico Femmine 0,14 0,00 3,5 0,50 Numero di pubblicazioni Maschi Nr. 4,93 67 1,50 54 3,00 59 3,33 51 8,67 37,73 49,45 30,50 44,17 43,58 4,14 12,76 231 4,33 2,10 1,17 1,19 1,18 1,04 0,85 1,40 1,90 Fonte: Nostra elaborazione su dati del SSCI 1999-2002 finale dei contributi medi è stato calcolato dividendo il numero di pubblicazioni prodotte nei quattro anni con il numero totale di ricercatori/ricercatrici (231:165); l’1,4 è quindi un indicatore della produzione media del personale di ricerca del CNR preso in considerazione nel nostro studio. La Tab. 9 fornisce i dati aggregati della produzione dei quattro anni degli articoli selezionati dal SSCI distribuiti per genere e livello. Il numero totale dei contributi evidenzia differenze di produzione tra i diversi livelli, ad esempio i 18 dirigenti di ricerca pubblicano nei quattro anni più di 37 articoli. Tuttavia se si considerano i contributi medi, le dirigenti di ricerca risultano contribuire con quasi il doppio delle pubblicazioni rispetto ai loro colleghi (4,33 rispetto a 2,10). Anche le ricercatrici di prima fascia hanno una produzione maggiore dei loro colleghi (1,72 rispetto a 1,15), confermando in questo caso il risultato ottenuto adottando il criterio del full counting. Per ciò che riguarda personale di ricerca di livello base, il contributo medio delle 150 ricercatrici non si discosta di molto da quello dei loro colleghi (44 pubblicazioni rispetto alle 43,5 e un contributo medio di 1,19 per le ricercatrici rispetto a 1,18 per i ricercatori). Se si considerano i dati relativi a ciascun anno (Tabb. 10-13) si può notare che i dati sono poco omogenei, soprattutto rispetto alla qualifica. L’unico dato costante risulta quello della produzione delle ricercatrici di prima fascia che, tranne che nel 2001, hanno un numero di pubblicazioni maggiori rispetto ai loro colleghi. Tabella 10. Distribuzione dei contributi individuali del personale CNR agli articoli selezionati dal SSCI e contributo medio per persona per genere e qualifica. Anno 1999 Dirigenti di ricerca Ricercatori I Ricercatori III Personale tecnico Femmine 5,00 10,79 14,08 0,14 Maschi 8,31 8,17 15,58 4,93 Totale 13,31 18,95 29,67 5,07 Femmine 2,50 1,08 0,94 0,14 Maschi 0,76 0,82 0,97 0,62 TOTALE 30,01 36,99 67 1,07 0,82 Fonte: Nostra elaborazione su dati del SSCI 1999-2002 Tabella 11. Distribuzione dei contributi individuali del personale CNR agli articoli selezionati dal SSCI e contributo medio per persona per genere e qualifica. Anno 2000 2000 Contributo individuale Contributo medio Dirigenti di ricerca Ricercatori I Ricercatori III Personale tecnico Femmine 1,33 14,66 8,25 0,00 Maschi 12,67 4,83 10,75 1,50 Totale 14,00 19,50 19,00 1,50 Femmine 0,67 0,98 0,98 0,00 Maschi 1,27 0,69 0,69 0,75 TOTALE 24,25 29,75 54 0,90 0,90 Fonte: Nostra elaborazione su dati del SSCI 1999-2002 151 Tabella 12. Distribuzione dei contributi individuali del personale CNR agli articoli selezionati dal SSCI e contributo medio per persona per genere e qualifica. Anno 2001 2001 Contributo individuale Contributo medio Dirigenti di ricerca Ricercatori I Ricercatori III Personale tecnico Femmine 1,33 11,83 13,33 3,5 Maschi 5,75 10,17 10,08 3,00 Totale 7,08 22,00 23,42 6,50 Femmine 0,67 0,99 0,95 1,75 Maschi 0,82 1,02 0,78 0,60 TOTALE 30,00 29,00 59 1 0,83 anni successivi, lo stesso vale per le ricercatrici di livello base, mentre il personale tecnico di sesso maschile pubblica in genere più di quello femminile. L’indicatore di produzione media di tutti e quattro gli anni risulta però in genere a favore della produzione del personale di ricerca femminile (1,07 rispetto a 0,82 degli uomini nel 1999, 1 rispetto a 0,83 nel 2001, 1,17 rispetto a 0,93 nel 2002). 3.5 Frequenza di pubblicazione Tabella 14. Distribuzione del personale CNR autore/autrice di articoli selezionati dal SSCI per numero di pubblicazioni e genere (valori assoluti e %) (1999-2002) Fonte: Nostra elaborazione su dati del SSCI 1999-2002 Tabella 13. Distribuzione dei contributi individuali del personale CNR agli articoli selezionati dal SSCI e contributo medio per persona per genere e qualifica. Anno 2002 2002 Contributo individuale Contributo medio per persona Dirigenti di ricerca Ricercatori I Ricercatori III Personale tecnico Femmine 1,00 12,17 8,50 0,50 Maschi 11,00 7,33 7,17 3,33 Totale 12,00 19,50 15,67 3,83 Femmine 1,00 1,74 0,85 0,50 Maschi 1,22 0,92 0,80 0,67 TOTALE 22,17 28,83 51 1,17 0,93 Nr. di pubblicazioni FEMMINE MASCHI 1 pub. 2 pub 3-6 >6 Nr. 39 12 15 3 % 56,52 17,39 21,74 4,35 Nr. 52 27 15 2 % 54,17 28,13 15,63 2,08 TOTALE 69 100,00 96 100,00 Fonte: Nostra elaborazione su dati del SSCI 1999-2002 I dati sulla produzione di altre qualifiche oscillano negli anni: le dirigenti di ricerca pubblicano un numero maggiore di articoli nel 1999, mentre la loro produzione diminuisce negli La Tab. 14 mostra il numero di pubblicazioni prodotte dal personale CNR nei quattro anni considerati. La maggioranza pubblica un solo articolo in periodici selezionati dal SSCI. La percentuale del personale di ricerca maschile che pubblica due articoli è maggiore di quella femminile, mentre tra le donne la percentuale di coloro che pubblicano più di tre articoli è maggiore di quella del personale di ricerca maschile (Tra le 69 autrici CNR più del 25% ha pubblicato più di 3 articoli in questo periodo). 152 153 Fonte: Nostra elaborazione su dati del SSCI 1999-2002 Conclusioni I risultati dell’indagine non confermano il luogo comune secondo cui le donne pubblicano meno degli uomini. Il numero delle ricercatrici CNR che pubblica in periodici selezionati dal SSCI è infatti già in partenza proporzionalmente maggiore di quello dei loro colleghi, considerando che il personale CNR è in prevalenza maschile. Anche l’indice di produzione media risulta più alto per le donne, le quali pubblicano in percentuale un numero maggiore di articoli nei quattro anni considerati. La particolare enfasi posta in questo studio sulla variabile qualifica ha permesso di confermare che esiste una maggiore propensione a pubblicare ai livelli alti della carriera, ai quali sono in genere connesse posizioni di responsabilità in progetti o gruppi di ricerca che possono fornire maggiori occasioni di pubblicare sia per gli uomini che per le donne. I criteri utilizzati per l’analisi dei dati influenzano molto i risultati tanto che, tranne il caso delle ricercatrici di prima fascia, si giunge a conclusioni discordanti quando si utilizzano il criterio del full counting o quello della pubblicazione equivalente. Pur essendo entrambi i criteri validi per misurare la produzione, il primo sembra più adatto in analisi macroscopiche che paragonano l’attività di istituti di ricerca, mentre il secondo criterio, proprio in quanto permette un’analisi più dettagliata, riflette con maggior precisione la produzione individuale. Ciò corrisponde ad una prassi che si va affermando in sede di concorsi, in cui viene sempre più di frequente richiesto di segnalare, negli articoli scritti in collaborazioni, quali sono le parti elaborate da ciascun autore. Inoltre il criterio della pubblicazione equivalente permette di dare un giusto peso a quei dati che risentono di una disparità di partenza. È questo il caso ad esempio delle dirigenti di ricerca, in cui la produzione va messa in relazione con il loro esiguo 154 numero, dipendente del resto dalla minore presenza di donne nelle carriere direttive. I dati sulla produzione sia maschile che femminile presentano una certa variabilità negli anni e ciò rafforza la convinzione che ci sia bisogno di ulteriori analisi, soprattutto di tipo longitudinale, che sono possibili soltanto consolidando una prassi di raccolta di dati basata sul genere. Tali analisi dovrebbero comprendere anche informazioni basate sul contesto, tra cui vanno considerate ad esempio quelle relative alle riforme organizzativo-strutturali, quali quella attualmente in corso al CNR, e informazioni sui finanziamenti alla ricerca la cui attuale diminuzione ha sicuramente effetti sui modelli di comportamento delle attività di ricerca. C’è inoltre la necessità di analizzare anche altre basi di dati bibliografiche soprattutto nel campo delle scienze sociali, per verificare quanto il SSCI sia rappresentativo di questo settore. In futuro si prevede di proseguire lo studio analizzando le citazioni agli articoli, per verificare se ci sono differenze di genere sull’impatto delle pubblicazioni. Si intendono analizzare sia i dati del Citation Index dell’ISI che le citazioni reperibili su Internet e in genere collegate con sistemi di Open Archives. Ringraziamenti Si ringraziano Loredana Cerbara e Fabrizio Ricci per i loro utili suggerimenti e la Biblioteca centrale del CNR che ha reso disponibile il CD-Rom del SSCI, e in particolare Brunella Sebastiani. 155 Bibliografia (Ami, 2001) MAYUR AMIN, MICHAEL MABE, Impact Factors: Use and Abuse, in “Elsevier Science”, n. 1, Oct. 2001 (Ben, 1988) LAURA BENIGNI, ADELE MENNITI, ROSSELLA PALOMBA, Pubblici scienziati. La carriera imperfetta, in “Sistema ricerca”, Suppl. n. 9, 1988 (Big, 2000) GIORGIO BIGNAMI, GIOVANNI DE GIROLAMO, GIOVANNI FAVA, ALBERTO GASTONI, PIER LUIGI MOROSINI, PAOLO PAQUINI, VINCENZO PASTORE, MICHELE TANSELLA, L’impatto sulla letteratura internazionale della produzione scientifica dei ricercatori italiani, nelle discipline “psichiatria” e “psicologia”. Una valutazione bibliometrica, in “Epidemiologia e Psichiatria Sociale”, 9, n. 1, 2000 (Bio, 2001) BIOSOFT SAS, Development of Bibliometric Indicators by Gender, Final Report under European Commission’ s Contract ERBHPV2-CT-1999-14N (Bre, 2002) ELENA BRENO, GIOVANNI A. FAVA, VINCENZO GUARDABASSO, MARIO STEFANELLI, La ricerca scientifica nelle università italiane, Conferenza dei Rettori dell’Università Italiane, Bologna, CRUI, 2002 (CNR, 2002a) CNR, Report 2002. Risultati di ricerca 2001. Obiettivi 2001-2002, Roma, CNR (CNR, 2003) CNR, Libro Matricola, accessibile su Internet al sito http://www.dcp.cnr.it (ultima consultazione 6/10/03) (EU, 2001) COMMISSIONE EUROPEA, [ETAN Report] Politiche scientifiche nell’Unione Europea. Promuovere l’eccellenza attraverso l’uguaglianza di genere, ed. Mary Osborn et al., Bruxelles, Commissione Europea, 2001 (EU, 2002) EUROPEAN COMMISSION, THE HELSINKI GROUP ON WOMEN AND SCIENCE, National Policies on Women and Science in Europe. A Report about Women and Science in 30 Countries, by Teresa Rees, European Commission, Brussels, 2002 (EU, 2003) EUROPEAN COMMISSION, Women in Science: What do the Indicators reveal? in Third European Report on Science & Technology Indicators, 2003. Towards a Knowledge-Based Economy, European Commission, Brussels, 2003 (Fig, 2000) ALESSANDRO FIGÀ TALAMANCA, L’impact factor nella valutazione della ricerca e nello sviluppo dell’editoria scientifica, IV seminario sistema informativo nazionale per la matematica, Lecce, ottobre 2000, accessibile al sito http://siba2unile.it/sinm/interventi/figatalam.htm. (Gad, 2000) MARRY C. GADÉA, Les pères qui gagnent: descendance et réussite professionelle chez les ingénieurs, in “Travail, genre et sociétés”, n. 53, 2000 (ISI, 2002) ISI SOCIAL SCIENCE CITATION INDEX, Journal Citation Reports (JCR), ISI, Philadelphia, 2002 (Lit, 2000) MARIA LITIDO, ADELE MENNITI, ELISA MOLINARI, Pubblicazioni e genere, in Figlie di Minerva. Primo rapporto sulle carriere femminile negli Enti pubblici di ricerca italiani, Milano, Franco Angeli, 2000 (Lon, 1992) SCOTT J. LONG, Measures of Sex Differences in Scientific Productivity, in “Social Forces”, n. 71, 1992 (Di Ces, 2002) ROSA DI CESARE, Alcune riflessioni su bibliometria e analisi delle citazioni, in Trasmissione d’elite o accesso alle conoscenze? Percorsi e contesti della documentazione e comunicazione scientifica, a cura di Adriana Valente, Milano, Franco Angeli, 2002 (Lon, 2001) From Scarcity to Visibility: Gender Differences in the Careers of Doctoral Scientists and Engineers, Panel for the Study of Gender Differences in Career Outcomes of Science and Enginee- 156 157 ring Ph.Ds, Committee on Women in Science and Engineering, ed. Scott J. Long, The National Academy of Science, Washington 2001 (Nal, 2002) FULVIO NALDI, ILARIA VANNINI PARENTI, Scientific and Technological Performance by Gender. A Feasibility Study on Patent and Bibliometric Indicators, vol. I: Statistical Analysis, vol II: Methodological Report, (EUR 20309) European Commission, 2002 (Pal, 2000) Figlie di Minerva. Primo rapporto sulle carriere femminili negli enti pubblici di ricerca italiani, a cura di Rossella Palomba, Milano, Franco Angeli, 2000 Le risorse umane per la ricerca: quali politiche?1 Sveva Avveduto Consiglio Nazionale delle Ricerche Istituto di ricerche sulla popolazione e le politiche sociali, Roma (SCI, 2000) SCIENCE CITATION INDEX, Guide and Lists of Source Publications, ISI, Philadelphia, 2000 (SCCI, 2000) SOCIAL SCIENCE CITATION INDEX, Guide and Lists of Source Publications, ISI, Philadelphia, 2000 (Sim, 2001) Per una storia del Consiglio Nazionale delle Ricerche, a cura di Raffaella Simili, Giovanni Paoloni, 2 vol., Roma-Bari, Laterza, 2001 (UNESCO 1984) UNESCO Guide to Statistics on Science and Technology, UNESCO, Office of Statistics, Paris, 1984 (Val, 2002) ADRIANA VALENTE, Gli indici di citazione nel circuito di organizzazione, selezione e comunicazione di conoscenza scientifica, in Trasmissione d’elite o accesso alle conoscenze? Percorsi e contesti della documentazione e comunicazione scientifica, a cura di Adriana Valente, Milano, Franco Angeli, 2002 (Wen, 1997) CHRISTINE WENNERAS, AGNES WOLD, Nepotism and Sexism in Peer-Review, in “Nature”, n. 387, 1997 158 Una politica per la ricerca scientifica e tecnologica con, al suo interno e quale fattore propedeutico, quella per le risorse umane, può essere possibile solo tenendo conto non solo del quadro socio-economico ma anche degli assi sociali sui quali essa si fonda. La giustificazione del vasto intervento pubblico, che l’establishment scientifico chiede ai decisori, poggia sull’output sociale dell’attività di ricerca. Premessa necessaria, dunque, per le scelte di politica scientifica, la dimensione quali-quantitativa del Paese relativamente alle risorse umane come fattore essenziale nelle attività di ricerca. Un intervento su di un Paese del terzo o quarto mondo avrebbe, ovviamente, carattere ben diverso da quello su una società di punta o a sviluppo medio. Per ogni tipo di contesto, comunque, vale il discorso chioma-radici: la floridezza dell’albero è cioè funzione della sua radicazione. Storicamente si registrano casi di disequilibrio (ricerca avanzata di tipo militare soprattutto, per esempio, India e Pakistan, a fronte di un complessivo contesto di arretratezza): ma si tratta di modelli, 159 per noi improponibili, di ricerca in funzione della politica e in dispregio del sociale e non di corretta science policy. La consapevolezza che lo sviluppo delle conoscenze sia di fondamentale importanza per lo sviluppo tout court, tanto da diventare un fattore primario della produzione, è ormai talmente diffusa da essere un luogo comune. Tale ovvietà si trova però oggi fortemente a confliggere con le politiche finanziarie adottate nel nostro Paese, che vedono costantemente impoverire il plafond di risorse pubbliche destinate alla ricerca, senza che, come per esempio avviene in altri Paesi dell’Unione Europea, a questa tendenza faccia da contrasto un maggiore impegno da parte del settore privato. Eppure l’affermazione «le risorse umane sono centrali al sistema scientifico», di per sé piuttosto evidente, apre o fa da corollario a qualsiasi discussione o analisi di politica scientifica al livello nazionale e internazionale. Per citarne una delle ultime, il volume che l’OECD pubblica ogni biennio sull’analisi dello stato e delle prospettive della scienza, della tecnologia e dell’industria (OECD, 2002) dedica a questo argomento un’analisi specifica che apre con queste parole: «Human resources in science and technology are central to the science system. OECD countries therefore have made considerable efforts to increase the number of R&D personnel, in particular in the higher education sector, over the last two decades». L’esame qui condotto deriva anche dall’attività biennale di studio sulle risorse umane nel sistema scientifico promossa da CNR (Avveduto, Brandi, 2000) e quella dedicata da un gruppo di lavoro ad hoc2 dell’OECD. A tal proposito si richiama anche l’attività della Commissione di studio del CNR sulle risorse umane per la scienza e la tecnologia (CORUS), i cui lavori si svolgono con l’obiettivo di scrutinare il contesto socio-educativo del Paese e la dinamica delle risorse umane in relazione alle politiche ed ai principali temi di analisi3. Anche l’Unione Europea dedica al tema risorse umane una notevole attenzione. Le linee di sviluppo, indicate e sottoscritte dai capi di governo europei nei loro summit di Lisbona nel marzo 2000 e di Barcellona nel marzo 20024, prefiguravano un obiettivo da conseguire entro il 2010: rendere l’economia europea la più competitiva e dinamica tra quelle knowledge-based. La strategia da mettere in atto per raggiungere tale scopo identifica una serie di requisiti che danno per sotteso il concetto che la ricerca debba fungere da motore per la crescita economica e la coesione sociale. Tra quelli ritenuti indispensabili si citano in particolare le linee seguenti centrate sul ruolo delle risorse umane: 1) miglioramento delle politiche per la ricerca e lo sviluppo tecnologico e accelerazione del processo di riforma strutturale e predisposizione delle condizioni favorevoli allo sviluppo complessivo della competitività e dell’innovazione; 2) investimenti in capitale umano attraverso il riassetto, anche qualitativo, delle attività educative e formative; 3) creazione di uno ‘Spazio Europeo della Ricerca’ tale da rendere l’UE un polo attrattivo anche per i ricercatori ad essa esterni. Per raggiungere tale scopo viene indicato un traguardo concretamente quantificato: portare, entro il 2010, l’impegno europeo per la ricerca e l’innovazione al 3% del PIL e ottenere i due terzi dei nuovi investimenti in ReS dal settore privato. Come si possono raggiungere le finalità delineate nei summit di Lisbona e di Barcellona? Il gap tra ambizioni europee e politica finanziaria e scientifica nazionale è enorme e, al momento, incolmabile. La soglia del 3% è ampiamente utopica per il nostro Paese, laddove anche l’Olanda, che si trova già oggi oltre il 2%, si dice, per bocca del suo ministro, preoccupa- 160 161 La politica delle risorse umane per la scienza e la tecnologia ta della realizzabilità di tale obiettivo. Le recenti scelte di politica finanziaria ci vedono allontanare ancor più, in discesa, anche dal già modestissimo attuale 1%. Gli ultimi dati Istat mostrano come nel settore della ricerca pubblica, con l’esclusione dell’università, le previsioni di spesa per ReS nel 2002, a prezzi costanti 1995, siano inferiori a quelle del 2001 passando dagli 8.073 milioni di euro a 8.037. La differenza, per la politica scientifica ed in particolare per quella delle risorse umane, tra l’essere in un sistema che si espande ed offre nuove opportunità e l’essere in un sistema che si chiude e quindi limita gli accessi ai nuovi ricercatori e si trova, al più, in uno stato stazionario, è autoesplicativa. Il dibattito normativo sui cambiamenti nella produzione delle conoscenze e sulla capacità della conoscenza di influenzare la società, è tuttavia, in ambito internazionale, quanto mai vivace. Per quanto attiene alla politica delle risorse umane per la scienza e la tecnologia, i temi attualmente più presenti sul piano inter e sovranazionale sono quelli relativi alla formazione, alla mobilità, all’invecchiamento dei ricercatori ed alle questioni di genere. La formazione dei ricercatori e l’occupazione scientifica sono in certa misura naturalmente condizionate dai cambiamenti nelle priorità di ricerca e dall’entità e dalla direzione dei finanziamenti per essa disponibili. Le evoluzioni che intervengono nella struttura dei finanziamenti per la ricerca, così come la sua accresciuta interdisciplinarietà e la diversa qualità e intensità dei rapporti con il mondo delle imprese, influenzano direttamente, poi, sia il percorso formativo dei futuri addetti alla ricerca, che le modalità stesse con le quali l’offerta di occupazione si esplica, spingendo, per esempio, da più anni a questa parte, verso una crescente flessibilità del rapporto del lavoro scientifico. La struttura dell’occupazione nelle università e negli enti di ricerca pubblici è cambiata nell’ultimo quinquennio, visto l’uso 162 generalizzato, anche nel connesso mercato del lavoro, di posizioni temporanee e di contratti a termine. Formazione per la ricerca L’espansione del settore dell’Higher Education verificatasi in Italia come altrove negli scorsi anni, ha portato al livello degli studi post laurea (PhD e dottorato) i problemi tipici del livello immediatamente inferiore. Solo per un esempio si possono citare la rilevanza dell’equilibrio tra generalismo e specializzazione, tra elementi di teoria e di pratica, di conoscenza specifica e di preparazione per professioni al di fuori dell’accademia e della ricerca. Sia al livello universitario che post laurea, si assiste al declino di interesse verso alcune discipline, in particolare quelle scientifiche, con i connessi problemi di attrattività degli studi scientifici prima e delle relative carriere, poi. Forse converrebbe non aspettare un nuovo sbarco sulla luna per scacciare questo pesante sonno dogmatico. Alcuni Paesi membri dell’OECD hanno già intrapreso misure adatte ad orientare la formazione degli studenti di dottorato e gli studi post dottorato, in modo da andare incontro ad una domanda di lavoro non necessariamente pubblica, per esempio tramite la creazione di curricula/diplomi in scienza, più centrati sulla formazione per la ricerca applicata. Le mutate priorità nel finanziamento e quindi nel perseguimento di specifici risultati della ricerca richiedono sia nuovi metodi di formazione che formazione in nuove aree, mentre si moltiplicano le iniziative per favorire collaborazioni multidisciplinari ed a rete tra ricercatori. Del pari, si registra un incremento delle politiche di preparazione dei ricercatori e di sostegno ai laureati che svolgono parte del loro cursus didattico nell’industria con un adeguato supporto alla collaborazione tra pubblico e privato. Il flusso dei laureati nelle discipline scienti- 163 fiche è in parte determinato dalla accresciuta domanda industriale in certi Paesi ed in certe discipline; valgano per tutte le computer sciences. Tuttavia non è stato possibile identificare dai risultati delle analisi dell’OECD il grado di successo o meno dell’immissione di questi laureati nel mercato del lavoro. Sul versante educativo si può ipotizzare che tutto ciò conduca ad un coinvolgimento crescente delle realtà esterne all’università su specifici percorsi quali: 1) rinnovata ideazione e sofisticata gestione delle attività formative; 2) crescente complessità dei curricula nella direzione della interdisciplinarietà; 3) modifica della formazione post laurea (si ipotizza in ambito OECD l’introduzione di modelli a due cicli); 4) maggiore importanza del networking e quindi necessità di un più penetrante controllo istituzionale. Sul versante dell’occupazione, si assiste già ad un incremento, sia in ambito accademico che degli enti di ricerca, dell’offerta di posizioni a tempo determinato piuttosto che indeterminato, appoggiate su fondi di derivazione esterna alle istituzioni che le offrono, per lo più su progetti finanziati da soggetti, pubblici o privati, ovvero da organismi sovranazionali. In correlazione con questo fenomeno cresce, in molti Paesi OECD, l’autonomia delle università nel reclutare personale già qualificato e nel formalizzare modalità di retribuzione fortemente legate ai risultati raggiunti (performance-based). La gestione delle risorse umane per la scienza e la tecnologia si pone in un quadro complesso i cui fattori di contesto riguardano: – la scarsità generale delle risorse; – l’autonomia per gli enti di ricerca e le università; – un parallelo maggior controllo ed una maggiore valutazione a fronte della accresciuta autonomia; – l’internazionalizzazione o almeno europeizzazione della politica scientifica; – i problemi di reclutamento del personale, in particolare dei giovani, da indirizzare alle carriere scientifiche; – la progressiva sostituzione nelle università e negli enti pubblici delle risorse interne con quelle esterne, spesso anch’esse di origine pubblica, e quindi l’espansione delle fonti di finanziamento eterodirette. Tale quadro si riflette anche sulla filiera formativa della ricerca. La determinazione di priorità esterne all’università ed agli enti di ricerca, insieme all’introduzione di nuovi canali di finanziamento della formazione post laurea ed in particolare del dottorato, di fatto influenzano la decisione sulle scelte dei temi e dei filoni di ricerca-formazione. Una delle questioni che a questo riguardo si sono sempre poste è la dinamica domanda/offerta ed in particolare la discrepanza temporale tra l’offerta e la domanda di personale con specifiche caratteristiche e quindi la difficoltà, per il sistema formativo, di tenere il passo con il mutamento della domanda. In un contesto, quale quello attuale, di cambiamenti veloci a fronte di offerte di lavoro che mutano al mutare dei contratti attivi, la questione presenta vie di soluzione ancor più difficili. Le questioni di genere e di invecchiamento della forza lavoro scientifica sono trasversali a quelle su delineate, così come quella dell’attrattività delle carriere di ricerca, soprattutto nel settore pubblico, A quest’ultimo proposito, il problema che più fortemente si pone è quello della flessibilità del lavoro nell’ambito della ricerca. L’equilibrio tra lavoro temporaneo e lavoro stabile, nonché la questione dello sviluppo di carriera a fronte di una sempre accresciuta mobilità, restano questioni aperte. Le principali tendenze comuni nella formazione e nell’occu- 164 165 Conclusioni pazione dei ricercatori emerse dai risultati dell’analisi dell’OECD (2002) possono essere così tracciate. Da un lato l’affermarsi dell’occupazione temporanea anche al livello accademico e di ricerca, fenomeno già registrato nei grandi Paesi OECD e adesso tipico anche dei piccoli; dall’altro il rafforzarsi della ricerca multidisciplinare e delle collaborazioni tra università e mondo produttivo, anche sul piano della formazione post laurea. Tali evidenze spingono nella direzione di una maggiore flessibilità del lavoro di ricerca e di un conseguente cambiamento sia nella formazione che nell’occupazione dei ricercatori. Il lavoro della Commissione europea sulle risorse umane per la RST (Commission of the European Communities, 2002) giunge a conclusioni complementari. Per favorire un compiuto percorso di formazione ed utilizzazione di un adeguato stock di risorse umane per la scienza, pur nella diversità di situazioni dei Paesi membri, sono state individuate una serie di tendenze comuni che portano alle seguenti conclusioni: – l’Europa, nel processo di costituzione e utilizzo e nella capacità di attrazione delle risorse umane per la ricerca, è, nel suo complesso, in una posizione di inferiorità rispetto ai Paesi, con economie basate sulla conoscenza, con i quali compete. – se le attuali tendenze verranno mantenute, l’offerta di laureati ad elevata competenza per lo svolgimento di attività di ricerca, potrebbe essere insufficiente anche per mantenere lo status quo. – le condizioni occupazionali e le remunerazioni nel settore della RST sono inadeguate, e non così attrattive da consentire al settore di competere per assicurarsi risorse umane di qualità. Sulla base di tali considerazioni l’UE raccomanda ai Paesi membri di: a. porre in atto ogni iniziativa per rafforzare la base scientifica nazionale a partire dal sistema scolastico secondario, apportando tutti i necessari cambiamenti anche al sistema didattico in particolare per l’insegnamento delle materie scientifiche; b. migliorare le condizioni di lavoro ed il livello delle risorse destinate alla scienza ed alla tecnologia per rendere ambite tutte le attività e le carriere connesse; c. porre particolare attenzione alle fasi iniziali di reclutamento dei ricercatori e dei dottori di ricerca in particolare nel settore pubblico che risulta troppo poco competitivo; d. predisporre ogni iniziativa atta a beneficiare dell’attività e dell’apporto dei ricercatori ad elevata esperienza per tutto l’arco della loro carriera. Restano dunque aperte alcune questioni di fondo: – quali politiche per l’occupazione scientifica? – quali politiche per attrarre i giovani laureati? – l’accresciuta flessibilità: attrae o respinge verso il sistema ricerca pubblico? I contratti temporanei introducono più flessibilità nel sistema scientifico o piuttosto non costituiscono un disincentivo ad attrarre e mantenere i ricercatori nel sistema pubblico? – quali iniziative per legare la formazione ed il lavoro di ricerca? – come favorire la multidisciplinarietà e il networking? Ovviamente le questioni di genere intersecano i problemi della formazione, dell’invecchiamento, della mobilità e della spesa ed una risposta a tali questioni può prefigurarsi come parte della soluzione a qualcuno dei problemi enunciati. Da non sottovalutare, da ultimo, la dimensione internazionale delle attività formative e successivamente delle carriere. La connessa mobilità dei ricercatori, più il reclutamento internazionale degli studenti, dei dottorandi e la competizione globale per le posizioni di PhD rientrano nei processi di costituzione della European Research Area che influenzeranno tutto il settore. 166 167 Bibliografia Note SVEVA AVVEDUTO, MARIA CAROLINA BRANDI (2000), Risorse umane: quale futuro nella scienza? Formazione e occupazione, Milano, Franco Angeli 1 Questo lavoro è una rielaborazione effettuata dall’autrice di un precedente documento predisposto per il Consiglio Italiano delle Scienze Sociali sul tema: la politica della ricerca in Italia. 2 Ci si riferisce ai lavori del Group on Steering and Funding of COMMISSION OF THE EUROPEAN COMMUNITIES, STRATA-ETAN expert working group, Benchmarking National R&D Policies, Human Resources in RTD, Final report, 21 August 2002 OECD WORKING GROUP ‘STEERING AND FUNDING OF RESEARCH INSTITUTIONS’, Human Resources Management Issues Relating to Funding and Priority Setting, DSTI/STP 4, 2002, Paris, OECD OECD (2002), Science Technology and Industry Outlook, Paris, OECD 168 Research Institutions, sussidiario al Comitato per la Politica Scientifica dell’OECD, che ha creato al suo interno uno specifico sottogruppo dedicato allo studio delle risorse umane. 3 Per informazioni sull’attività della CORUS è disponibile il sito http://corus.isrds.rm.cnr.it/Corus/ 4 The Lisbon European Council (March 2000); The Barcelona European Council (March 2002). 169 Nel momento in cui, come oggi avviene, la tecnologia offre le più ampie possibilità di comunicazione, grazie alle quali tutti possono contattare tutti, di pari passo procede la tecnologia della indecifrabilità. Patrizia Capraro, Lo stato della divulgazione, Scienza e informazione Documentazione e accesso Alcune riflessioni sugli aspetti etico-politici dell’attività di documentazione Lucia Maffei Università degli Studi di Siena, Biblioteca Centrale Facoltà di Economia La documentazione intesa come gestione della conoscenza, a sua volta scomponibile in molteplici azioni e conseguenti competenze di tipo analitico, valutativo, gestionale, comunicativo, si caratterizza ormai come lo strumento attraverso il quale la società mette in circolo e fa lievitare l’asset principe del suo sviluppo. Creatività ed innovazione sono il reale fattore competitivo e vettore di sviluppo e l’attività di knowledge management è al centro, ormai da alcuni anni, delle riflessioni del mondo delle professioni legate all’informazione elettronica, in campo scientifico come in quello produttivo1. Del resto la documentazione come attività di intermediazione e comunicazione si pone come nodo di congiunzione fra l’insieme scienza, scienza applicata, tecnologie e l’insieme contesto, sia esso sociale, politico, economico. Essa abita ciascuno dei due insiemi e contribuisce a creare interconnessioni fra loro. Ed essendo i due insiemi intessuti di rapporti dinamici sia al proprio interno che fra sé, la documentazione diviene l’agente principale di queste relazioni. Questo disegno schematico di rapporti non dà però conto della loro ricchezza, complessità e del valore, anche etico, delle 173 questioni che ruotano intorno a queste dinamiche, questioni che pongono la documentazione come intermediazione al loro centro, facendola emergere come attività altamente sensibile e niente affatto neutra. Molti pensatori individuano l’affermazione, in questo nostro secolo che nasce, di un pensiero tecnocratico che affonda le sue radici teoriche all’inizio dell’era dei Lumi, e che poco spazio lascia ad un controllo politico e perfino economico dello sviluppo2. Anche non arrivando a condividere completamente questo assunto, sono indubbi i segnali di un cedimento della politica rispetto almeno agli intrecci fra economia e tecnoscienza3. In questo contesto parlare di conoscenza e della sua trasmissione può effettivamente assumere significati completamente diversi. C’è una conoscenza interna all’élite del pensiero scientifico occidentale che ha sviluppato i suoi canali di comunicazione fra pari. Tale gruppo dominante tuttavia non abita tutto l’Occidente, ma solo la porzione scientificamente e tecnologicamente più avanzata di esso. All’interno di questa ristretta cerchia, il cui cuore sono i Paesi di cultura anglosassone, troviamo la punta avanzata della ricerca, ma anche degli strumenti messi a punto per la sua diffusione. È qui che si concentrano i colossi editoriali (di editoria tradizionale ed elettronica) che rimangono a tutt’oggi il nerbo della comunicazione scientifica interna al gruppo ed esterna ad esso. All’esterno di questo ristretto gruppo, per cerchi concentrici, si trova un mondo via via più debole sul piano della ricerca e delle tecnologie di comunicazione. Prima il resto del mondo occidentale che, incapace di mettere in campo risorse quantitativamente comparabili, rischia la marginalizzazione e diventa progressivamente sempre più dipendente dalla ricerca e dalle tecnologie di comunicazione sviluppate nell’area anglosassone, poi la maggioranza del pianeta che si perde nelle sabbie mobili del digital divide. L’Occidente, si è detto, fa i conti con un mercato dell’informazione scientifica saldamente in mano a pochi editori che detengono una situazione di monopolio. Il passaggio verso forme di consultazione solo elettronica di questi documenti è tanto inevitabile (sotto la spinta combinata del mercato, della tecnologia e degli stessi utilizzatori) quanto foriero di una dipendenza ancora maggiore di prima e di un indebolimento della forza degli acquirenti (università, enti di ricerca ecc.)4. Il resto del mondo semplicemente sta a guardare e tentativi, pur generosi e in alcuni casi anche coronati da successi parziali, di un uso delle tecnologie della comunicazione per lo sviluppo in aree di disagio, non hanno la forza al momento di ribaltare una situazione di divario drammatico. Anzi, certi progetti che vedono riuniti intorno alle Nazioni Unite con le sue agenzie di sviluppo e all’Organizzazione Mondiale della Sanità, partner no profit, ma anche tutti i maggiori editori scientifici internazionali, come il progetto Hinari, si prestano a molteplici letture. Si tratta di un progetto interno all’United Nations Millenium Action Plan: Health Internetwork5 varato nel settembre 2000 con l’intento di attenuare il digital divide nel campo dell’informazione biomedica. L’Action Plan prevede vari interventi nella costruzione di una rete di servizi informativi a supporto dell’assistenza medica nei Paesi in via di sviluppo. Hinari (Health InterNetwork Access to Research Initiative) in particolare ha lo scopo di far accedere all’informazione medica leader nel mondo (circa 2000 riviste) le istituzioni pubbliche dei Paesi del terzo mondo. Gli editori che detengono il monopolio di questa informazione si sono resi disponibili a fornire l’accesso gratuito per tre anni a Paesi che hanno un reddito pro capite inferiore ai $ 1000 e a prezzi scontati per i Paesi dove il reddito pro capite è compreso fra $ 1000 e $ 3000. Si sta parlando, soprattutto riguardo al primo gruppo, di Paesi dove finora spesso non esisteva neanche un solo abbonamento a riviste mediche in qualsivoglia formato. Non si può quindi che salutare con favore l’estensione a questi Paesi della possibilità di accedere 174 175 all’informazione, vitale presupposto per il miglioramento dell’assistenza sanitaria. Rimangono alcuni dubbi, che nascono tutte le volte che si tenta di affrontare i problemi del digital divide con introduzione di nuove tecnologie in aree con infrastrutture inadeguate. Se manca la corrente elettrica, se le linee telefoniche sono pressoché inesistenti, che risultati pratici questi tentativi possono avere se queste difficoltà impediscono di raggiungere le aree più isolate e quindi si suppone più bisognose di aiuto? Ma in questo caso c’è anche un’altra perplessità, legata allo specifico progetto e agli specifici partner. Data la politica aggressiva di alcuni editori, che ben conosciamo anche in Occidente (fornire gratis i propri periodici elettronici per creare un’abitudine all’uso nella comunità scientifica per poi ‘imporre’ contratti vantaggiosi per l’editore), non si riesce a non coltivare il dubbio che per alcuni di loro questa rappresenti un’ottima occasione di prepararsi un futuro nuovo mercato. La cosa in sé non avrebbe nessuna controindicazione, se non fosse che stiamo parlando di un tipo di informazione, quella sull’aggiornamento medico, di importanza letteralmente vitale e di protagonisti del mercato che al momento esercitano tutto il proprio potere monopolistico nei confronti di Paesi senza nessun potere contrattuale. Le esperienze di circolazione alternativa dell’informazione scientifica (open access, self archiving ecc.) possono giocare o meno un ruolo nel supportare la crescita dei Paesi in via di sviluppo? Le tecnologie e il mercato, in questo caso dell’informazione, ancora una volta mostrano tutte le loro potenzialità contraddittorie. È questo un terreno dove la professionalità dello specialista dell’informazione è chiamata di nuovo in causa nell’operare scelte. Le politiche occidentali successive all’11 settembre approfondiscono in maniera drammatica e poco lungimirante le divisioni del mondo. I massicci investimenti statunitensi per la difesa, gli armamenti e l’intelligence avranno sicuramente, come in passato, importanti risultati di innovazione che si trasferi- ranno anche nella società civile, ma questo è il rovescio della medaglia di una orgogliosa ed egoistica tecnocrazia. D’altra parte si tratta solo di un’accelerazione impetuosa di un processo conosciuto: la guerra fredda e il conseguente sviluppo dell’industria bellica di deterrenza, insieme alla corsa alla conquista dello spazio che ne fu un aspetto niente affatto secondario, determinarono già negli anni Cinquanta e Sessanta un’accelerazione tale dei processi di sviluppo delle tecnologie legate all’informazione che negli anni Settanta questi stessi processi, una volta riconvertiti ad usi civili, hanno dato luogo alla rivoluzione telematica. Questi ultimi però sono anche stati lo stimolo e la provocazione che hanno riportato alla luce quella corrente carsica di elaborazione critica che ha accompagnato la nascita della società moderna, sempre in bilico, in Occidente, fra tentazioni tecnocratiche e modelli partecipativi. Dopo la fiammata della contestazione studentesca del ’68, che aveva elaborato infatti un pensiero critico sull’informazione, la scienza, i media, per lunghi anni è sembrato prevalere un pensiero di tipo tecnocratico a supporto di una westernizzazione del mondo, cioè un trasferimento al secondo e terzo mondo di un modello di sviluppo occidentale. Lo scenario conclusivo porta all’oggi, ai movimenti no global e alla nascita di una critica ad un modello di sviluppo che prevede un uso della conoscenza strumentale allo sviluppo del modello socio-economico dominante. Ancora si propone il dualismo fra trasmissione ed accesso. I documentalisti, bibliotecari, archivisti, tutti coloro che possono riconoscersi sotto un’etichetta di knowledge managers, hanno una responsabilità rilevante in questo momento, proprio per la centralità della loro attività. Possono indirizzare la loro professionalità a sostegno di uno sviluppo a senso unico, operando per il trasferimento univoco delle conoscenze, oppure operare per un accesso attivo, consapevole e diffuso 176 177 alle informazioni scientifiche. Oggi l’informazione, l’insieme delle conoscenze che da essa derivano e le tecnologie di circolazione possono davvero determinare il destino del pianeta. La storia di queste professioni ci dice che essa si è nutrita ed ha operato sulla scorta di grandi utopie (Gessner ancor prima di Otlet fino alle utopie libertarie di Internet) insieme a rapporti stretti, strumentali e talvolta acritici con le forze che guidano il modello di sviluppo attuale. Un dualismo che si rintraccia, per esempio, nel dibattito attuale sul diritto d’autore in epoca digitale o sul monopolio dell’informazione scientifica da parte delle grandi multinazionali dell’editoria. Così come anche l’interesse per quanto attiene il knowledge management contiene al proprio interno potenzialità con esiti contrapposti: lo sviluppo di reti di conoscenza infatti può essere funzionale al consolidamento di modelli culturali e sociali dominanti, ma anche al potenziamento di azioni di promozione di soggetti deboli e di creazione di un sapere alternativo. C’è materia per un’operazione di revisione critica dell’agire quotidiano che ci pone concretamente sulla cerniera di congiunzione fra due prospettive opposte di sviluppo della società dell’informazione. Qualche dettaglio in più relativamente all’esempio del copyright forse può chiarire le implicazioni etiche dell’attività professionale: quale posizione tenere di fronte ai problemi di gestione del copyright sulle pubblicazioni scientifiche in epoca digitale, quando questo spesso diventa un impedimento all’accesso ad informazioni vitali per larga parte del mondo, contraddicendo nei fatti l’assioma principe della ricerca, quello della sua libertà, senza contare le conseguenze drammatiche sulla vita degli individui? La promozione di circuiti di diffusione scientifica alternativi gestiti direttamente da chi opera nelle biblioteche degli enti di ricerca può rappresentare una concreta contromisura? Nei padri fondatori Paul Otlet e Henri La Fontaine possiamo rintracciare i fondamenti etici della professione. Nelle attività intraprese dai due avvocati pacifisti, dal Repertorio bibliografico universale, al Repertorio iconografico universale, al Catalogo centrale delle biblioteche, fino alla fondazione della Società intellettuale delle nazioni, si trovano i segni dell’interpretazione dello sviluppo tecnologico come veicolo di creazione di una rete universale di saperi e quindi di un mondo pacificato. Nel suo libro-testamento, Traité de documentation. Le livre sur le livre, Otlet disegna una «rete universale di informazione e documentazione». Una stupefacente capacità premonitrice gli fa immaginare «una rete che collega centri di produzione, distribuzione, gestione di qualunque specie e in qualunque luogo. La grande biblioteca è dotata di schermi. Grazie al telescopio elettronico, il libro telefonato permette di “leggere” in casa propria libri esposti nella sala “televideo” delle grandi biblioteche, alle pagine precedentemente richieste»6. È chiara la visione di un uso, oggi diremmo alternativo, delle tecnologie comunicative, e sicuramente qui sta il senso più autentico della nostra professione. 178 179 Note 1 Per una introduzione al tema dall’ottica del documentalista cfr. Domenico Bogliolo, KM. Knowledge Management. Prima parte, in “AIDA Informazioni”, n. 2, 1998, pp. 18-22; Domenico Bogliolo, KM. Knowledge Management. Seconda parte, in “AIDA Informazioni”, n. 3, 1998, pp. 8-14; Domenico Bogliolo, KM. Knowledge Management. Terza parte, in “AIDA Informazioni”, n. 4, 1998, pp. 16-24; Domenico Bogliolo, KM. Knowledge Management. Aggiunta, in “AIDA Informazioni”, n. 1, 1999, pp. 8-15. Per un aggiornamento sul tema cfr. Domenico Bogliolo, Schegge, rubrica in “Aida Informazioni”, dal n.1, 2000. Al sito www.aidainformazioni.it/pub/km1.html si possono consultare in successione tutti gli articoli sopra citati in formato elettronico. Per seguire l’evoluzione del dibattito sul knowledge management dalla prospettiva di chi opera nel trattamento dell’informazione in contesti imprenditoriali e di ricerca, cfr. Online Information Proceedings, London, Learned Information, 1998. 2 Cfr. Armand Mattelart, Storia della società dell’informazione, Torino, 2002. 3 Edoardo Boncinelli, Umberto Galimberti, Giovanni Maria Pace, E ora? La dimensione umana e le sfide della scienza, Torino, 2000, p. 27. 4 Il tema è stato al centro del dibattito che ha animato il Seminar on Universities and Libraries organizzato dall’Institutional Management in Higher Education, forum OECD sui problemi della gestione delle istituzione educative a Parigi nei giorni 27-27 agosto 2002. I rappresentanti dei Paesi partecipanti (quasi tutti responsabili di sistemi bibliotecari di Ateneo) si sono trovati d’accordo nell’evidenziare una comune difficoltà a conciliare le ristrettezze progressive dei budget con le pretese sempre meno negoziabili dei grandi editori. 5 www.healthinternetwork.org (consultato il 10/03/2003). 6 La citazione da Otlet è tratta da Armand Mattelart, cit., p. 41. 180 L’identificazione dei documenti nell’economia della comunicazione scientifica Giuseppe Vitiello Direttore Attività Editoriali Istituto Superiore di Sanità Politica e società dell’informazione Basta comparare le definizioni di politica e di economia dell’informazione apparse trenta e quaranta anni fa con le proposte odierne contenute nei piani nazionali di sviluppo della società dell’informazione per misurare quanto le tecnologie abbiano mutato la filosofia, la percezione e le pratiche dell’accesso alle conoscenze. In quegli anni, sotto l’influenza delle ricerche di Machlup1 e Porat2, l’informazione era considerata essenzialmente un bene di scambio. Mentre gli studiosi delineavano i contorni e la natura di questo nuovo campo di indagine – l’economia dell’informazione – il concetto di politica dell’informazione era limitato per ambito e obiettivi: si trattava di identificare una ‘catena’ della comunicazione scientifica, su cui intervenivano una serie di attori coinvolti nelle transazioni legate alla creazione di conoscenze e alla loro trasmissione, e di orientarne l’indirizzo o correggerne le disparità distributive. Autori, istituti di ricerca, agenzie di stampa e altri soggetti erano a monte del processo; brokers di 181 informazione, produttori, distributori, bibliotecari e archivisti ne erano i mediatori; utilizzatori e consumatori i beneficiari. Se gli attori della catena erano principalmente collocati nel settore privato, alla sfera pubblica toccava la funzione di pianificazione in una logica e un comportamento legati allo sviluppo della società del benessere. Nelle sue punte più incandescenti, il dibattito era concentrato sulle scelte generali che accompagnano ogni politica dell’informazione: accentramento vs. decentramento degli organismi incaricati della diffusione delle conoscenze, loro grado d’istituzionalizzazione e soluzioni tecniche decisive per la circolazione del sapere – ad esempio i metodi e gli standard nel trattamento dei dati. Le autorità statali e locali intervenivano a diversi livelli e l’UNESCO, attraverso il Programma Generale di Informazione – all’epoca forse l’unico programma internazionale esistente – ne orientava le tendenze a beneficio degli Stati membri3. La nozione odierna di informazione è il risultato della rivoluzione tecnologica avvenuta nell’ultimo decennio e dell’emergenza della società detta ‘della conoscenza’. Se nel corso degli anni Sessanta il numero di persone impiegate nel settore del trattamento e nella trasformazione di beni (industria mineraria, manifatturiera, delle costruzioni) era negli Stati Uniti il doppio di quella intenta al trattamento dell’informazione (comunicazione, finanza, assicurazione, servizi, amministrazione), negli anni Novanta i due settori hanno raggiunto pari livelli occupazionali, anche se il secondo è destinato ad incrementare la sua percentuale. Ma ancora più importante è l’impatto dell’informazione sulla vita sociale e degli individui, e l’influsso che essa esercita sulle strutture culturali, le identità personali e le capacità relazionali. La nozione di informazione è uscita fuori dalla sfera delle organizzazioni specializzate. Essa ha natura granulare, è ‘pervasiva’ e presente in ogni momento della vita umana, innervata nella capacità degli individui di comunicare attraverso le reti tecnologiche. È diventata, insomma, un valore da condividere, uno strumento portatore di pace (o di guerra) e una parcella di personalità4. 182 183 Prima dunque di affrontare il problema degli identificatori – dopo tutto, uno degli anelli più ermetici del processo di trasmissione dell’informazione – vale la pena chiarire con quale concetto di informazione ci stiamo misurando. Con quello contemporaneo, polverizzato, diffuso, ‘societale’, che nelle influenze reciproche di transazioni e messaggi attraversa ogni istante della vita umana? O con quello più tradizionale, di una comunicazione originata nei laboratori di ricerca e nelle università e tramandata a utilizzatori individuali e comunità di utilizzatori? Il concetto di politica dell’informazione utilizzato in questo contributo è di tipo tradizionale e pone in primo piano l’informazione come oggetto formalizzato di conoscenza trasmesso attraverso mediazioni successive utili a rielaborare, ridisegnare e ‘re-impacchettare’ le sue componenti. Dopo avere presentato la catena dell’informazione (in particolare scientifica) nelle sue operazioni, soffermandoci in particolare sul segmento della distribuzione e sulla posizione che, al suo interno, occupa l’attività di identificazione, effettueremo una rassegna dei codici identificativi, mostrandone le caratteristiche specifiche, gli enjeux attuali e le trasformazioni che essi hanno subito per effetto combinato delle tecnologie e della perdita del monopolio esercitato dalle agenzie titolari dei codici. Infine, legheremo il progresso dei sistemi identificativi a uno dei nodi classici della politica dell’informazione: deve questo essere sviluppato dal libero mercato, che con la sua ‘mano invisibile’ agisce da regolatore e da equilibratore (come aveva predetto a suo tempo Hayek5), o al contrario, deve l’autorità pubblica intervenire a riorientare il mondo proprio dell’identificazione nel senso dell’equità d’accesso alle conoscenze? La catena dell’informazione: editoria di varia e comunicazione scientifica Per raggiungere i suoi consumatori, ogni prodotto (e servizio) informativo ha bisogno di una catena di mediatori. Già al tempo dell’invenzione della stampa, gli editori, che all’epoca cumulavano le proprie funzioni con quelle di tipografo e libraio, cercavano di utilizzare la rete di librerie allora esistenti per smaltire in tempi brevi la produzione e non trovarsi a gestire rimanenze: «organizzare una rete commerciale, che permettesse di vender la produzione il più rapidamente possibile: questa fu, a lungo, la preoccupazione costante degli editori» – così scrivono Febvre e Martin nella loro classica opera sui primordi della stampa in Europa6. Una rete di ‘agenti’ pubblicava in fogli di annunci le nuove pubblicazioni che venivano vendute nelle varie fiere (tra cui famosa, allora come oggi, era quella di Francoforte). Un editore che volesse oggi, come all’epoca di Gutenberg, assumere su di sé i ruoli a valle nella catena del libro – quello di tipografo, di distributore, di libraio – sarebbe inattuale. Se ancora nel Novecento erano frequenti i casi di editori proprietari di tipografie e, più spesso ancora, di editori-librai, oggi invece queste funzioni sono attribuite a diverse figure, con distinti retroterra formativi e economici, le quali seguono logiche di crescita e di iniziativa del tutto autonome. Si prenda ad esempio la catena del libro. Ciascuno dei singoli generi – l’editoria di varia, la scientifica, i libri per ragazzi o gli scolastici – ha un distinto canale di comunicazione che differisce sia per prodotti commercializzati che per attori coinvolti. Cambiano infatti gli output della catena – il libro illustrato nell’editoria per ragazzi, la monografia per la varia, i periodici, gli atti dei congressi, le tesi e i rapporti di ricerca per la comunicazione scientifica. Ma cambiano anche i soggetti che 184 intervengono nelle distinte filiere. Essi sono promotori, distributori, librai, o edicolanti nel circuito ‘normale’ del libro; librerie concessionarie, agenzie di abbonamento e biblioteche in quello scientifico7. Il raffronto della catena del valore nell’editoria di varia nei suoi numerosi macroanelli di mediazione e di vendita (Fig. 1) con la più scarna, e lineare, catena della comunicazione STM (scientifica tecnica e medica) (Fig. 2) è eloquente. Nel primo caso, promotori, distributori e, quali punti di vendita, librai, edicolanti e supermercati, trasmettono il prodotto ai consumatori; nel secondo caso solo le librerie concessionarie e/o le agenzie di abbonamento stanno a mediare tra editori e biblioteche, che sono i principali, e spesso unici, acquirenti. Figura 1. Catena dell’informazione: editoria di varia 185 Una tale concatenazione, peraltro, non è unicamente peculiare alla filiera editoriale. Nelle industrie musicali, cinematografiche e audiovisive l’anello dei produttori è distinto da quello dei distributori e, a somiglianza dell’editoriale, variano i supporti – film o DVD, ad esempio – e gli attori per ciascuno dei circuiti di vendita. Dopo tutto, vendere un DVD in una libreria multimediale implica transazioni e operazioni differenti dalla distribuzione di un film in una sala cinematografica o per un’emittente televisiva. Ora, la rappresentazione lineare delle mediazioni sulla catena del libro e dei prodotti editoriali STM (Scientifici, Tecnici e Medici) potrebbe ispirare la falsa percezione di una costruzione del valore aggiunto armoniosa e priva di conflittualità. In realtà, i diversi attori, anche quando tutti presenti, sono legati tra di loro da rapporti di forza e relazioni contrattuali impari. Da tempo, infatti, all’interno di tale processo, il controllo del segmento della distribuzione è diventato strategico. Il punto archimedico, il baricentro intorno cui ruota persino la relazione autore-editore non è oggi né l’atto della creazione, né la fucina intellettuale degli istituti di ricerca e neanche – come si potrebbe immaginare in una situazione di perfetta concorrenza regolata dalla ‘mano invisibile’ del mercato – il consumatore finale, lettore o utente che sia. La chiave di volta del sistema è l’anello distributivo, che regola il flusso di informazione e di comunicazione e seleziona i prodotti scelti dall’acquirente, ma secondo criteri puramente commerciali. È il caso del libro, ad esempio, dove la selezione dei titoli e dei contenuti corrisponde alla capacità da parte delle imprese editoriali di influenzare i meccanismi di distribuzione e di ‘occupare’ gli scaffali in libreria. Hanno scritto due sociologi francesi: «l’inerzia nella diffusione è sufficiente a far morire un libro, e l’inerzia è difficile da dimostrare, tanto più che i librai sono spesso molto reticenti quando si tratta di testimoniare contro una major, che, con la sua politica di margine, influenza i risultati di vendita»8. Ma è il caso ugualmente – e, se possibile, ancora più esacerbato – del settore dell’informazione STM. Diversamente dall’editoria di varia, il segmento STM è stato infatti completamente riconfigurato dalle nuove tecnologie. Le biblioteche, infatti, non acquistano più fascicoli di periodici, ma intere basi di dati, a tariffe dipendenti dalla frequenza di uso, sulla base di licenze rilasciate dai produttori. Non solo: convertendo la totalità della loro produzione su supporto elettronico, gli editori sono ora in grado di poterla distribuire direttamente. Essi non affidano più la distribuzione del proprio contenuto a un agente, ma lo distribuiscono in proprio, senza intermediari. Sono diventati cioè degli aggregatori – con questo neologismo sono designati i distributori di risorse elettroniche sulle reti. Science e Lexis 186 187 Figura 2. Catena dell’informazione: comunicazione scientifica Nexis, ad esempio, entrambe facenti parte dell’impero ReedElsevier, vendono senza intermediari le loro licenze di accesso. Concentrazione delle imprese, integrazione verticale, dominanza dell’inglese, dimensione globale dell’impresa, sono tutti fenomeni emersi recentemente nel mondo dell’editoria. Essi sono da tempo radicati negli altri settori del consumo culturale. L’industria discografica, infatti, è dominata da alcune majors; quanto al settore cinematografico, la supremazia commerciale hollywoodiana, fondata sui proventi realizzati sul mercato americano, consente ai produttori di finanziare l’ulteriore espansione planetaria e può essere contrastata unicamente da politiche pubbliche di sostegno al cinema nazionale o europeo. Il mito della diversità culturale e del libero accesso all’informazione rimane forse ancora guida e ideale dei soggetti che partecipano alla catena dell’informazione. Ma tale mito è quotidianamente calpestato da comportamenti che rivisitano le libertà di espressione e di scelta degli individui secondo interpretazioni e pratiche obbedienti a scelte di mercato o all’esigenza di mantenere alta la quotazione in borsa dei titoli editoriali. Esattamente come esistono politiche pubbliche nel campo della telecomunicazione e dell’audiovisivo, allo stesso modo sono oggi perciò necessarie politiche proprie nel campo dell’informazione, che contrastino tali tendenze e riaffermino con forza la diversificazione culturale e informativa e il libero accesso al sapere. Informazione è termine ambiguo, usato in Italia quasi esclusivamente in due accezioni. La prima riguarda il regime della libertà di espressione e le pari opportunità offerte ai partiti politici e alle organizzazioni espressione della società civile nell’accesso alla televisione e agli altri media. La seconda, più recente, designa le grandi tendenze nelle tecnologie e le politi- che di innovazione intraprese dai poteri pubblici per sviluppare le competenze (empowerment) utili all’utilizzo di strumenti e di linguaggi specifici. In entrambe le accezioni, dunque, una politica dell’informazione coprirebbe materie riservate, tanto per intenderci, al Garante per l’informazione o al Ministro per l’Innovazione e le tecnologie. In questo contributo, invece, il concetto di politica dell’informazione è inteso come capacità da parte degli individui di accedere a condizioni e prezzi ragionevoli a un’offerta di fonti di informazione ampia e diversificata, selezionata secondo i bisogni degli utilizzatori e senza che la scelta sia distorta da motivazioni di ordine commerciale. Tale risultato è raggiunto quando vi è equilibrio di poteri tra tre categorie di attori: produttori, mediatori e utilizzatori d’informazione. Il concetto è generalizzabile, nell’editoria come nell’audiovisivo, nell’industria musicale come sulle reti di comunicazione. Van Cuilenberg e Verhoest hanno scritto che una politica generale di comunicazione fondata sull’accesso dovrebbe mirare «at the greatest freedom, for the greatest number of communication and information suppliers, users, and brokers, and should therefore monitor and correct any situation in which control of access is subject to market failure and consequently out of balance. To put it in other words, a communication policy for access should strive for maximum equality in the distribution of communication freedom»9. Il nodo del problema è quindi la varietà e l’accessibilità delle fonti di informazione. Voci allarmate in campo documentario hanno spesso sottolineato la scarsa accessibilità delle pubblicazioni elettroniche dovuta alle alte tariffe praticate dagli editori STM. È noto infatti che i prezzi dei periodici hanno subito incrementi del 207% dal 1986 al 1997, mentre nello stesso periodo l’aumento dell’indice dei prezzi dei beni di consumo e delle remunerazioni per il personale accademico saliva, rispettivamente, del 52% e del 68%10. La reazione degli utilizzatori non si è fatta attendere. Universitari e bibliotecari coalizzati 188 189 Le politiche nazionali dell’informazione: offerta diversificata e sua accessibilità hanno posto le basi per un modello alternativo di comunicazione scientifica, fondato, da un lato, sulla collocazione delle pubblicazioni scientifiche in depositi consultabili liberamente perché tutti costruiti sullo stesso protocollo d’accesso OAI (Open Archives Initiative) e, dall’altro, sulla creazione di riviste scientifiche di prestigio ed elevato impact factor ma a prezzi sensibilmente più ridotti, in concorrenza diretta con quelle dell’editoria STM di carattere commerciale11. Soprattutto nei Paesi anglosassoni, la politica dell’informazione si è quindi concentrata sugli organismi coinvolti nella ‘domanda’ di sapere, mobilitati nel contrastare un’‘offerta’ giudicata poco diversificata e troppo onerosa per i consumatori. La creazione di un polo editoriale (ad accesso gratuito o a prezzi moderati) dovrebbe avere funzione regolatrice del mercato attraverso il suo effetto calmieratore e la parziale sostituzione del blocco commerciale dei produttori. Non sempre è possibile comunque ricorrere a un’ipotesi così estrema. In linea di massima, quando la concentrazione delle imprese potrebbe portare alla formazione di cartelli e a possibili abusi di posizione dominante, si ricorre all’arma più classica del veto posto alla fusione esercitato dagli organismi pubblici antitrust, che sono competenti sulla concorrenza e la liberalizzazione del mercato. Già sollecitato per casi riguardanti le industrie musicali, cinematografiche e audiovisive, il Commissario europeo alla concorrenza ha dovuto intervenire in campo editoriale nel 1997, ponendo il veto alla progettata fusione tra Reed Elsevier e Wolters Kluwer. L’unione del maggiore editore STM al mondo (il cui fatturato è, per inciso, pari al doppio di quello realizzato dall’insieme delle industrie editoriali italiane), con Wolters Kluwer, secondo in classifica, avrebbe comportato una posizione di monopolio nei Paesi Bassi e un controllo quasi totale del mercato di altri Paesi. I grandi editori STM si muovono ormai in un mercato di nicchia che, attraverso gli strumenti classici delle fusioni e delle acquisizioni, hanno presto trasformato in rendita di posizione12. Gli stessi timori attraversano oggi l’editoria di varia, un tempo considerata come un mercato ‘aperto’ perché le barriere di ingresso per i nuovi attori sono basse e relativamente modesto è il capitale iniziale necessario all’investimento produttivo. Anche in questo settore si sono verificati gli stessi fenomeni di concentrazione delle imprese e di integrazione verticale tra produzione e distribuzione. In Europa, il caso più eclatante è senza dubbio quello francese13. Fino al 2002 l’editoria francese era caratterizzata da un ‘duopolio a frange’14. Due gruppi si contendevano infatti la posizione dominante: Havas publications édition (in seguito ribattezzato Vivendi Universal Publishing) – un conglomerato presente, oltre che nell’edizione, nella televisione, nella telefonia, nel cinema e in numerose altre attività assicurative e bancarie – e Hachette, di proprietà di Matra Lagardère, forte soprattutto nel settore degli apparecchi di precisione e nell’aereonautica. Insieme i due gruppi controllavano più dei due terzi del mercato. L’annunciato riscatto del comparto editoriale della Vivendi Universal Publishing da parte di Hachette ha trasformato il duopolio in (quasi) monopolio. Molte voci sono scese in campo, chi a difendere, in nome dell’eccezione culturale, la nazionalità francese della proprietà editoriale, chi invece a denunciare la tentazione egemonica del gruppo Hachette. Fuori da ogni ideologia, le analisi più obiettive sono forse contenute nelle valutazioni di borsa eseguite dagli analisti finanziari. Così si leggeva nel Bulletin Crédit Lyonnais Securities: «L’impressionante posizione dominante [di Hachette] [...] sarebbe un atout formidabile per Lagardère il quale, controllando l’intera catena del libro in Francia, potrebbe essere in grado di rafforzare il suo pricing power nell’industria, dai fornitori di carta ai punti di vendita, in aggiunta a Virgin Megastore – già controllata da Lagardère»15. 190 191 Ora – e la notizia è recente – il Commissario europeo Monti ha posto il veto alla fusione e obbligato Hachette a rivendere a terzi il patrimonio acquisito da Vivendi, conservando unicamente il 40% delle sue attività16. Il piano è stato accettato da Hachette. Senza l’intervento della Commissione europea, Hachette sarebbe stata titolare del 40% del fatturato editoriale francese e del 60% dei titoli pubblicati e, in alcuni settori, il controllo sul mercato sarebbe stato notevole se non assoluto: nei libri scolastici (82% del fatturato globale), nel settore dei dizionari e delle enciclopedie (90%), nei tascabili (52%), nella letteratura generale (41%), nel libro per ragazzi (45%) e nel libro pratico e professionale (40%). Se dai dati assoluti si passa a quelli relativi, vale la pena aggiungere che la produzione dell’entità VUP-Hachette è già ora superiore a quella dell’insieme dei sei gruppi editoriali francesi più produttivi (8.764 nuovi titoli prodotti contro 7.187 nel 2002) e il fatturato globale è otto volte superiore a quello del secondo gruppo (1.814 milioni di Euro contro 235 milioni di Euro nel 2002). Ma è soprattutto nella promozione e nella distribuzione che Hachette avrebbe avuto una posizione di assoluto predominio, dove sarebbero state controllate il 70% delle 1.300 librerie sparse in Francia e il 95% dei 15.000 piccoli punti di vendita (in cui peraltro Hachette è presente fin dall’Ottocento). La capacità di fissare i prezzi e i margini di profitto (pricing power) sarebbe stata quindi assoluta. E non è tutto. La sua presenza nel settore dei media (Hachette Filipacchi Media), della stampa quotidiana e di intrattenimento e nella pubblicità favorisce quello che gli analisti definiscono ‘promozione incrociata di interessi economici’, ossia l’amplificazione degli eventi editoriali realizzata dai media appartenenti allo stesso gruppo. Quello della ‘promozione incrociata’ non è problema esclusivamente francese. Nei Paesi anglosassoni da tempo la proprietà editoriale non fa più differenza tra informazione e comunicazione e travalica i confini geografici. Rupert Murdoch, proprietario della News Corporation, associa un patrimonio cinematografico (Twentieth-Century Fox) con un impero giornalistico (“Sun”, “New York Post”) e un gigante editoriale (Harper Collins). Holtzbrinck, il secondo gruppo editoriale tedesco, ha acquistato le più prestigiose case editrici statunitensi e inglesi (Farrar, Strauss and Giroux, Henry Holt, Macmillan, ecc.) ed è forte nel settore della stampa finanziaria (“Handelsblatt”, “Wall Street Journal Europe”). Infine il Pearson Group combina interessi editoriali (Longman e Penguin) con quelli della stampa specialistica (“Financial Time”) e regionale (Westminster Press Group)17. 192 193 L’identificazione nella catena dell’informazione È in questo contesto di oligopolio delle imprese e di stretto controllo del segmento della distribuzione che sorge il problema dell’identificazione dei documenti. Gli identificatori sono «nomi o stringhe che in conformità ad alcune convenzioni assicurano, se applicate in modo appropriato, la unicità»18. Attraverso la designazione di un prodotto unico editoriale o mediale, essi sono un mezzo di razionalizzazione e di accelerazione del trattamento dell’informazione posto al servizio di tutti i soggetti della catena, senza discriminazioni. Ora, nel contesto appena descritto, possono gli identificatori essere strumentalmente impiegati ad accrescere la posizione dominante di alcuni attori sugli altri? Possono favorire, direttamente o indirettamente, integrazioni verticali e ulteriori concentrazioni di imprese? Prima di dare una risposta, esaminiamo innanzitutto la posizione specifica degli identificatori all’interno della catena dell’informazione. Un identificatore è in genere (ma non solo) utilizzato quando le funzioni editoriali non sono eseguite in proprio da un editore, ma sono affidate all’esterno e la comunicazione tra più parti deve avvenire in modo non ambiguo. La situazione non è infrequente nell’apparato editoriale, dove gran parte delle operazioni sono contrattate a terzi. Lo sono, ovviamente, le funzioni autoriali, anche quando committente di un’opera è un’istituzione, o quando un agente letterario tratta per conto di un autore i diritti su un’opera. Esternalizzate sono anche le attività di stampa e di riproduzione, nonché – in particolare se la casa editrice è di piccole dimensioni – la contabilità e i controlli gestionali. Infine, il processo di distribuzione – promozione, trasferimento materiale dei prodotti, loro vendita – passa attraverso mediatori specializzati esterni. Sono invece di solito funzioni interne la lettura di un manoscritto, la redazione e la composizione (grafica, layout, eventuali illustrazioni), nonché la scelta del canale di distribuzione e di promozione. Gli attori maggiormente interessati all’identificazione unica dei prodotti della creazione editoriale sono tutti sul versante della distribuzione: promotori, diffusori, distributori propriamente detti, librai, bibliotecari. È facile capire il perché. Finché il numero di titoli e di attori che intervengono sul loro trattamento è ridotto – perché interni a un’organizzazione o perché, come l’autore e il direttore di collana, ad esempio, legati tra loro da una relazione di prossimità – è difficile che si affacci l’esigenza dell’identificazione unica. Non appena si lavora sui grandi numeri e occorre rafforzare la solidità e la stabilità della comunicazione, l’identificatore diventa invece indispensabile. Un identificatore costituisce dunque il principale rimedio al rumore nella catena dell’informazione e della comunicazione. Adottato nel segmento distributivo per operazioni di ordine, contabilità e monitoraggio della circolazione, l’ISBN (International Standard Book Number), viene utilizzato ad esempio anche in libreria e presso i grossisti in associazione al codice EAN (Electronic Article Numbering) per la lettura ottica dei dati e, di conseguenza, la gestione dei diritti d’autore. Infine, in biblioteca, esso viene impiegato per operazioni di cattura di registrazioni bibliografiche e per calcolare il diritto di prestito (lending right) in quei Paesi, come la Gran Bretagna, dove esistono disposizioni legislative al riguardo. Con la progressiva concentrazione delle case editrici in pochi gruppi globali e la necessità di controllare informazioni assai disparate usando un’architettura di rete, l’esercizio di identificazione interessa ormai anche il segmento della produzione, dove era raramente applicato. Ciò corrisponde al bisogno di seguire la pubblicazione durante tutto il ciclo di lavorazione, dal momento della sua germinazione a quello del consumo. Nella Fig. 3 abbiamo indicato le funzioni internalizzate vs. esternalizzate tipiche di una casa editrice, con la designazione degli attori e delle funzioni che sono soliti utilizzare nella pratica quotidiana un identificatore. * In rilievo sono indicate le funzioni che utilizzano correntemente gli identificatori; le frecce di colore chiaro designano le tappe della comunicazione per le quali gli identificatori sono oramai divenuti indispensabili 194 195 Figura 3. Esternalizzazione – Internalizzazione delle funzioni editoriali* L’identificazione degli identificatori19 Inizialmente applicati nel mondo del libro e sostenuti dalla comunità editoriale e documentaria, gli identificatori si sono via via diffusi in tutti i settori dell’informazione e della comunicazione e sono diventati cruciali in specie quando, associati a descrizioni bibliografiche, metadati e altre informazioni sulle pubblicazioni, permettono di rispondere ai bisogni del controllo bibliografico, della presentazione delle risorse, della fornitura di documenti e del commercio elettronico. Se ne darà ora una veloce rassegna, con notizie brevi sulla loro natura e sulle comunità che li controllano. circolazione, ISBN ha avuto uno sviluppo ulteriore a 13 cifre come codice EAN (Electronic Article Numbering) per la lettura ottica in libreria e la gestione dei diritti d’autore. In biblioteca, l’ISBN è stato utilizzato per operazioni di cattura di registrazioni bibliografiche e per il diritto di prestito (lending right) in quei Paesi, come la Gran Bretagna, dove questo esiste. ISBN. Creato nel 1970 (standard ISO 2108), l’International Standard Book Number è uno standard ‘intelligente’; la struttura del suo codice è significativa e designa: a) il gruppo nazionale, linguistico o geografico, b) l’editore, c) il titolo. L’ultimo segmento verifica l’esattezza dell’ISBN, espresso da un numero di controllo che serve a garantire contro possibili errori della trascrizione manuale. L’amministrazione dell’ISBN avviene a tre livelli. Il livello internazionale di coordinamento è assicurato dall’International ISBN Agency, con sede nella Staatsbibliothek di Berlino, nel cui Consiglio di amministrazione siedono editori e bibliotecari. A livello nazionale le agenzie che assegnano gli ISBN sono o editori specializzati in informazione editoriale (ad esempio, in Gran Bretagna e negli Stati Uniti), o associazioni professionali degli editori e, talvolta, dei librai (come in Germania), o infine dipartimenti specializzati delle biblioteche nazionali (nei Paesi scandinavi, sudamericani e quelli dell’Europa dell’Est). Il terzo livello è infine quello degli editori stessi, che assegnano alle loro pubblicazioni l’ISBN, stampandolo sul retro di copertina. Utilizzato innanzitutto nel segmento distributivo del libro, nelle operazioni di ordine, contabilità e monitoraggio della sua ISSN. Sulla scia del successo dell’ISBN, fu creato nel 1975 l’International Standard Serial Number (standard ISO 3297). L’ISSN è un codice ‘muto’: la sua stringa di formulazione non contiene infatti alcuna informazione significativa riferita al contenuto o all’origine della pubblicazione. Designante la testata del periodico, e non un suo fascicolo, ISSN prende la forma dell’acronimo ISSN seguito da due gruppi di quattro cifre, separate da un trattino. La sua gestione internazionale è affidata al Centro internazionale dell’ISSN, con sede a Parigi, che pubblica il Register, base di dati centralizzata degli ISSN, dotato di più di 1,1 milioni di titoli. La gestione nazionale è invece affidata alle agenzie nazionali (attualmente 75): in genere, un ufficio apposito della biblioteca nazionale (in Gran Bretagna, Francia, Spagna, Stati Uniti, Australia, nonché nei Paesi scandinavi e nella totalità dei nuovi e vecchi Stati dell’Europa dell’Est), o il centro documentario dell’organismo nazionale di ricerca (ciò avviene principalmente in America del Sud, India e in Italia). L’ISSN è parte integrante del codice EAN e, soprattutto nei Paesi anglosassoni, è usato come codice per la lettura ottica del codice a barra e per le vendite dei periodici nei chioschi, nelle edicole, nei supermarket. Nei Paesi dove invece la raccolta è selettiva, l’ISSN ha una gamma di applicazioni limitata quasi esclusivamente al segmento editoriale e bibliotecario scientifico, che include anche le agenzie di abbonamento e le librerie commissionarie. I suoi usi riguardano quindi le operazioni di ordine dei periodici, il controllo e monitoraggio della loro gestione e, nelle biblioteche, le procedure di ricerca e di cattura delle registrazioni bibliografiche. 196 197 ISRC. Nel 1986 le industrie fonografiche elaboravano l’ISRC, International Standard Recording Code, inteso a identificare le registrazioni audio e audiovisive di carattere musicale (standard ISO 3901). Standard ‘intelligente’, esso è composto di dodici caratteri divisi in quattro elementi: Paese, entità registrante (primo proprietario), anno di riferimento della registrazione e della designazione del documento. Le agenzie nazionali di assegnazione (attualmente ne esistono 43) si sono costituite negli anni successivi (e alcune solo di recente), mentre l’IFPI, che rappresenta le industrie musicali nel mondo, è diventata l’agenzia internazionale nel 1989. ISMN. Molto simile all’ISBN è l’ISMN (International Standard Music Number), che si applica alla musica a stampa. Adottato dall’ISO nel 1993 (ISO 10957), esso ha caratteristiche simili all’ISBN ed è utilizzato per il controllo della musica a stampa e la tutela del copyright. Esistono attualmente 43 agenzie nazionali, mentre il coordinamento internazionale è affidato, come per l’ISBN, alla Biblioteca statale di Berlino. DOI. Il Digital Object Identifier (DOI®) è uno strumento che serve a identificare in modo persistente un frammento di proprietà intellettuale (un testo, un’immagine, un articolo, un diagramma) sulle reti digitali. Identificatore muto, il DOI ha quattro componenti: – una stringa alfanumerica ‘muta’, assegnata all’entità oggetto di proprietà intellettuale identificata dal DOI. Tale stringa non costituisce uno standard ISO, anche se la sua sintassi è stata accettata dall’ente di standardizzazione americano (ANSI/NISO z39.84-2000); – la descrizione bibliografica dell’entità identificata dal DOI attraverso dei metadati, inquadrati nella cornice <indecs> e ricavabili da qualunque schema (incluso dunque il Dublin Core); – un meccanismo di risoluzione, basato sull’Handle system, che permette un servizio di nomi per uso sulle reti; – una politica generale che governa le operazioni del sistema, in particolare la concessione in franchising del sistema DOI ad alcune agenzie che lo applicano secondo strategie settoriali e specifiche. A determinarne la politica generale è l’International DOI Foundation, creata nel 1998 con statuto non-profit. Allo stadio attuale esistono le seguenti agenzie: CrossRef, specializzata nell’assegnazione del DOI agli articoli di periodici scientifici, Content Direction Inc., orientata verso l’applicazione del DOI a libri e giornali, immagini fotografiche, audiovisivi e documenti sonori, e-learning e registrazioni contenute nelle basi di dati mediche, Enpia Systems Ltd., per gli oggetti in lingua coreana, Learning Object Network (LON), che ha sostenuto il progetto del Department of Defense americano sull’Advanced Distributed learning (ADL), la Copyright Agency Ltd., per le licenze di materiale di autori, giornalisti, artisti, fotografi, e gli editori di libri, periodici e giornali. Di recente, l’assegnazione del DOI è svolta come servizio sussi- 198 199 SICI. SICI (Serial Item and Contribution Identifier) è un codice di identificazione unica del fascicolo di un titolo in serie o di un contributo (ad esempio, un articolo) incluso in un fascicolo, indipendentemente dal mezzo di distribuzione (carta, microforma o versione elettronica). Adottato dal NISO, l’organismo di standardizzazione americano nel 1996, ma non ancora dall’ISO, esso è combinabile in modo naturale con l’ISSN, che è una delle sue componenti. SICI è stato applicato nelle biblioteche nordamericane e nel portale di Ingenta, l’aggregatore più importante presente attualmente sul mercato; in Italia è stato utilizzato in seno al progetto CASA. È gratuito e la sua assegnazione non necessita di alcuna formalità. Il SICI non dispone né di un’agenzia nazionale di assegnazione, né di un centro internazionale di coordinamento. diario di TSO (The Stationery Office, editore delle pubblicazioni ufficiali in Gran Bretagna e Irlanda), e da un consorzio di società europee, coordinato dall’Associazione Italiana Editori, dal nome MEDRA, che lo utilizzerà, a partire dal 2004, per la citazione persistente di documenti su Internet, le entità protette dal diritto d’autore e la certificazione del deposito di materiale elettronico. ISRN. L’ISRN è il codice unico di identificazione dei rapporti, di quei documenti, cioè, spesso non commerciali, che descrivono i risultati di una ricerca, di un’indagine e di ogni altro studio svolto da un organismo o da una persona. Individuato come standard ISO 10444, è applicato in genere dagli organismi di ricerca e dalle agenzie di documentazione scientifica, come il FIZ di Karlsruhe o il CNRS in Francia, ma non ha una rete di agenzie nazionali, né si è dotato di un’agenzia di coordinamento internazionale. ro sistema e mantiene una base centralizzata di tutte le registrazioni ISAN. ISTC. Ancora sottoposto all’approvazione dell’ISO è l’International Standard Textual Code (ISTC). Lo ISTC identifica le opere testuali e non i loro prodotti fisici o le altre manifestazioni delle opere. Esso consiste di quattro elementi nell’ordine seguente: l’elemento relativo all’agenzia di registrazione, l’anno, l’elemento relativo all’opera e una cifra di controllo. Il Comitato ISO TC46/SC9 sta attualmente verificando la viabilità dello standard: fino ad ora, infatti, nessuna agenzia si è candidata a mantenere il registro centralizzato. Caratteristiche dei codici di identificazione ISAN. L’ISAN (International Standard Audiovisual Number) identifica invece le opere audiovisive e le loro espressioni, quando l’opera è in più episodi. Approvato come standard ISO 15706 nel settembre del 2002, esso è amministrato da un’agenzia internazionale ISAN che coordina l’inte- L’elenco che abbiamo appena compilato, tuttavia, dice assai poco sulla natura degli identificatori, che variano non solo per ambito di applicazione – testuale, musicale, audiovisivo – ma anche per una serie di tratti che sono determinanti per il loro successo nelle transazioni commerciali e documentarie. Il primo di essi è il cosidetto livello di granularità di un identificatore, vale a dire il livello di una pubblicazione in cui viene fissata l’identificazione. Ad esempio, nei periodici l’informazione rilevante può essere di granularità ridotta, quando riguarda diagrammi, immagini, illustrazioni e altri oggetti, o più densa quando riguarda gli articoli di una rivista. Rispetto alla proprietà intellettuale, granularità riguarda il pacchetto di comunicazione protetto dal diritto d’autore20. L’IFLA (International Federation of Library and Documentation Associations) ha cercato di fissare i criteri generali di determinazione della granularità di un’opera. Con i Requisiti Funzionali per le Registrazioni Bibliografiche, opera del Gruppo UBCIM (Universal Bibliographic Control and International MARC) sono state individuate le entità identificate, 200 201 ISWC. L’ISWC (International Standard Musical Work Code) è un numero di riferimento valido per l’identificazione dei lavori musicali. Approvato dall’ISO nel 2001 (ISO 15707) è un codice muto che identifica l’opera musicale come creazione intangibile dello spirito, e non le sue espressioni (ad esempio, una performance) o le sue manifestazioni. Al codice è associato un metadato. La base di dati centralizzata, amministrata dalla CISAC a Parigi, riceve i dati dalle agenzie nazionali con le quali ha stretto un accordo. Attualmente queste sono diciassette, ma con altre dieci le trattative sono già in corso, mentre quelle candidate sono quindici. designate o descritte nella registrazione bibliografica. Queste sono: l’opera, l’espressione, la manifestazione e il documento21. Opera ed espressione riflettono il contenuto artistico e intellettuale; manifestazione e documento riguardano invece la sua forma fisica. Un’opera può essere realizzata attraverso una o più espressioni, mentre un’espressione è la realizzazione di una e una sola opera. Inoltre, un’espressione può materializzarsi in una o più manifestazioni e, reciprocamente, una manifestazione può incorporare plurime espressioni e dare vita a uno o più documenti. Al contrario, un documento può rappresentare una e una sola manifestazione. In questo modo, ISBN, ISMN e ISRN riguardano la manifestazione fisica dell’espressione di un’opera. SICI opera invece al livello delle espressioni – la realizzazione intellettuale o artistica di un’opera. Anche l’ISRC designa le registrazioni audio e audiovisive secondo la loro espressione: per un produttore discografico, infatti, il tratto specifico – in questo caso, il criterio di risoluzione del diritto d’autore – è la registrazione effettuata da una determinata orchestra attraverso cui un’opera si realizza, quali che siano le manifestazioni (CD, audiocassetta, ecc.). Lo ISWC, invece, identifica la creazione artistica unica, indipendentemente dalle sue espressioni. Si comprende dunque per quale ragione più identificatori possano intervenire su uno stesso prodotto: l’identificazione proposta da ISRC non corrisponde ai bisogni della comunità degli autori, la cui preoccupazione principale è identificare attraverso ISWC l’opera nelle espressioni e manifestazioni che potrebbero altrimenti sfuggire al loro controllo. Come dimostra il caso del DOI, i princìpi di granularità fissati dall’IFLA risultano poco praticabili in ambito elettronico. Il DOI, infatti, non designa né un’opera, né un’espressione, né una manifestazione, o meglio, le designa tutte, indifferentemente. Questo ‘metaidentificatore’ ha interpretato alla lettera il problema della convergenza dei supporti sulle reti di comunicazione e si applica a ogni oggetto digitale, rendendo pertinente unicamente ciò che è rilevante per la protezione della proprietà intellettuale. Il DOI ‘fiuta’ il valore aggiunto là dove esso si manifesta: in una rivista di astronomia gli elementi di maggiore valore sono, mettiamo, le immagini relative alla circonvoluzione di un pianeta o alla rivoluzione della Terra, senza le quali resterebbe sibillino il testo e sarebbero prive di pregnanza le note. L’avvento delle tecnologie dell’informazione e della comunicazione, la protezione e la gestione dei diritti d’autore digitali, la normalizzazione delle procedure relative alle transazioni in rete hanno imposto vincoli di sviluppo ancora più imperiosi per i codici di identificazione e accelerato il movimento verso la loro revisione. Tre aspetti addizionali vengono oggi a rafforzare la dimensione tecnica di uno standard e la sua capacità di imporsi come identificatore idoneo a un ambiente di rete. Essi sono: l’azionabilità, la persistenza e l’interoperabilità. L’azionabilità è la possibilità per un utente di passare con un solo click da un identificatore a una URL utile, sia essa un metadato, un servizio fornito da un servizio di identificazione o la stessa risorsa. I legami verso i metadati sono dunque diventati un elemento strategico e la detenzione, nell’ambito di un sistema di identificazione, di una base di registrazioni bibliografiche comuni è l’elemento distintivo tra gli standard. Una delle cause del ritardo nella penetrazione dell’ISRC nel mercato dell’identificazione è stata forse proprio la mancata concezione di una base di dati comune all’inizio della sua applicazione. Anche il Gruppo di revisione dell’ISBN ha proposto una base di dati comune. A questo riguardo, la posizione dell’ISSN nei confronti del suo gemello storico è più favorevole, giacché l’ISSN potrebbe teoricamente legare il Register a una serie di URL rilevanti ed essere dunque azionabile. 202 203 204 205 Fonte: Giuseppe Vitiello, L’identificazione degli identificatori, in “Biblioteche oggi”, n. 2, 2004. Editore, a partire dal 2003 anche biblioteche Comunità presente nel consiglio d’Amministrazione Tavola di riepilogo: gli identificatori, loro caratteristiche e mercato* Un altro elemento è la persistenza. Muovendosi da un sito web a un altro o localizzandosi su più siti web, le risorse elettroniche cambiano frequentemente di indirizzo e, così facendo, perdono il loro carattere di fissità. Questo ostacolo di fondo va superato localizzando la risorsa in un luogo provvisto di ‘nome’, dove possa essere costantemente identificata, quali che siano i suoi spostamenti temporanei, affinché il catalogo elettronico possa essere integro, stabile e coerente. DOI ha trattato il problema della persistenza come condizione stessa della sua proposta di mercato: la URL (per default) del full text che accompagna il metadato e il codice DOI è quella che rimarrà stabile, quali che siano le diverse localizzazioni della risorsa. L’ultimo aspetto, infine, è l’interoperabilità tra sistemi eterogenei, la capacità, cioè, «di un sistema o di un prodotto di operare in combinazione con altri sistemi o prodotti senza richiedere un impegno particolare da parte dell’utente»22. La Fondazione internazionale DOI ha seguito una politica di normalizzazione delle procedure e della sintassi per la gestione delle transazioni che è conforme alla cornice di metadati <indecs>. <indecs> propone una serie di principi: identificazione unica, granularità funzionale, autorità designata e accesso appropriato. Tra questi il più importante è senza dubbio il principio dell’identificazione unica che deve essere applicato obbligatoriamente. Collegato, anche se indipendente dal problema dell’interoperabilità, è quello della redirezione verso la ‘copia appropriata’, la possibilità cioè di potere discriminare l’accesso alla copia di un documento. Tra gli strumenti di mediazione quello di più larga utilizzazione è l’Open URL, che assicura la redirezione verso depositi di risorse elettroniche e, all’interno di queste, verso la copia più conveniente per l’utente. Le caratteristiche degli identificatori appena esposte possono essere sintetizzate nella tavola di riepilogo. Le agenzie di identificazione: monopolio consensuale e introduzione di elementi di concorrenza A questo punto siamo in grado di rispondere alle questioni centrali del nostro contributo: da un lato, se gli identificatori possano servire a rafforzare il controllo di alcuni gruppi sul segmento della distribuzione e, dall’altro, se il loro sviluppo debba essere rimesso al libero gioco delle parti in causa o invece sostenuto da una specifica politica dell’informazione. Vale la pena sottolineare che, pur essendo talvolta società private, le agenzie di identificazione sono quasi sempre associazioni professionali o organismi pubblici del settore documentario. Sui nove identificatori elencati nella Tavola di riepilogo, i poteri pubblici di molti Paesi – in genere rappresentati da una biblioteca o un centro di documentazione – sono presenti in un gran numero di agenzie di almeno quattro identificatori: ISBN, ISSN, ISRN e ISMN. In genere, però, queste ultime sono emanazione diretta di una categoria professionale e il raccordo internazionale è operato dalla federazione internazionale delle associazioni nazionali. L’agenzia internazionale di un identificatore, l’ISSN, è addirittura un’organizzazione internazionale patrocinata dall’UNESCO. Indipendentemente dallo statuto delle agenzie titolari del codice, l’esercizio di identificazione ha sempre carattere parziale perché, nel continuum della tipologia documentaria, esso pertinentizza unicamente i tratti specifici su cui si concentra l’interesse della comunità di controllo. Ritagliato su misura per le industrie musicali, l’ISRC, ad esempio, non tiene in conto le istanze della comunità degli autori e dei compositori. Nello stesso tempo, ogni identificatore deve aspirare all’universalità se vuole allargare la sua base di utilizzatori e venire incontro ai bisogni di utenti potenziali che sono pronti a sfruttarne i vantaggi, pur senza condividerne la filosofia applicativa. Il monopolio esercitato dalle agenzie di identificazione nella pratica di assegnazione può essere dunque solo di tipo consensuale: esso è accettato dagli attori presenti sulla catena ed è legittimato dalla natura super partes dell’associazione titolare del codice. Piuttosto che di antagonismo, si deve parlare quindi di complementarità e di giustapposizione tra i diversi codici, giacché il criterio tassonomico di ripartizione del campo di applicazione è la natura del supporto – libro, periodico, registrazione musicale, partitura, prodotto musicale – e il criterio di competenza delle singole agenzie è quello geografico. Ora, – ed è questa una novità nel mondo della standardizzazione documentaria – lo scenario attuale mostra che si è passati da un regime di monopolio delle reti di identificazione a una dinamica di coopetizione (cooperazione + competizione) tra i diversi attori. L’arrivo del DOI – un codice non standardizzato, nato nella sfera dei produttori di informazioni, ben deciso a sfruttare commercialmente il proprio vantaggio tecnologico nei confronti dei rivali – ha cambiato le carte in tavola. La dinamica di coopetizione avviene a due livelli. Essa è di cooperazione quando, ad esempio, i servizi dell’ISRC si giustappongono a quelli forniti dall’ISWC, perché diverso è il livello applicativo di granularità, ed è invece di competizione quando le agenzie di entrambi gli identificatori operano in concorrenza con quelle DOI. Inoltre, contrariamente ai codici tradizionali, la ripartizione del lavoro delle diverse agenzie DOI rimane elusiva: il principio del franchising adottato all’interno della rete DOI circoscrive vagamente il campo d’azione di ciascuna di esse, ma non impedisce ai clienti di scegliere quella che meglio corrisponde ai loro bisogni. DOI è sicuramente l’identificatore esistente più adatto a individuare una pubblicazione nella densità della sua granularità. Esso permette di risolvere due problemi fondamentali per l’editoria elettronica: da un lato, l’identificazione e catalogazione delle risorse in rete e, dall’altro, la loro persistenza, il fatto cioè che le URL non più esistenti o mutate siano sempre riferibili a un 206 207 nome d’origine. Per gli editori, inoltre, il vantaggio più rilevante del DOI è quello della parcellizzazione dei contenuti in modo tale che crescano gli introiti potenziali in funzione della moltiplicazione degli oggetti in cui può essere destrutturata l’informazione: un articolo, un diagramma, un indice, una fotografia. Malgrado l’interesse iniziale, la comunità bibliotecaria ha nutrito il sospetto che la tecnologia di per sé neutrale servisse solo a rafforzare i sistemi di pay-per-view per unità granulari di contenuto in inarrestabile proliferazione. Il fatto che nel Consiglio d’Amministrazione dell’International DOI Foundation e in quello di Crossref, l’agenzia DOI di maggiore successo, siedano unicamente i grandi editori STM23, che le quote d’accesso siano fuori dalla portata di piccoli e medi attori24 e che l’intera organizzazione sia decisamente sbilanciata a favore delle industrie cosiddette ‘del copyright’25, accresce il sentimento di diffidenza verso la Fondazione, vista come l’espressione di un cartello di produttori. Tali reticenze, comunque, sono state rimosse dalla vasta gamma di servizi e di opportunità che il codice può offrire; non a caso, un consorzio formato dalle biblioteche nazionali di Germania, Gran Bretagna e Paesi Bassi ha di recente aderito alla Fondazione DOI, che ha esteso la partecipazione alle 43 biblioteche nazionali dei 41 Paesi europei presenti nella Conference of European National Libraries (CENL). Il vantaggio competitivo del DOI e la sua aggressiva politica di marketing hanno costretto tutte le agenzie responsabili dei codici di identificazione a riposizionarsi. L’ISBN è in corso di revisione e la nuova versione (prevista nel 2007) avrà nuovi prefissi EAN conformi al GTIN (Global Trade Number Item) e una serie di metadati, in vista della formazione di una base di dati comune a tutte le agenzie nazionali. L’ISSN è ancora al palo, ma alla Fiera del Libro di Francoforte 2003 si è parlato di una sua possibile revisione. Ogni altro codice, dall’ISRC all’ISWC e l’ISAN, è proiettato verso la costruzione di una base di metadati azionabile, persistente e interoperabile26. 208 Politiche dell’identificazione nell’economia della comunicazione scientifica L’avvento del DOI ha portato una risposta originale a problemi di difficile soluzione e una ventata di aria nuova in un mondo – quello dell’identificazione dei documenti – sempre pronto a cadere in soporifera routine. Tuttavia, va detto che la spinta in avanti della tecnologia comporterà ulteriori disparità e un rafforzamento del potere contrattuale delle imprese editoriali STM. Vediamo come. Una barriera all’ingresso di nuovi attori è costituita dall’elevato prezzo dell’affiliazione DOI. Nonostante le recenti aperture, come ad esempio la possibilità di prendere in considerazione consorzi di biblioteche trattandoli come un unico membro affiliato, le tariffe DOI rimangono troppo elevate. Un identificatore ‘popolare’ come ISBN, ad esempio, è accessibile a qualunque editore, piccolo o grande che sia, e rimane gratuito per le biblioteche. L’ISSN è addirittura assegnato gratuitamente (tranne in Italia dove, inspiegabilmente, è a pagamento). Il DOI si configura attualmente come un identificatore d’élite, anche se è probabile che il suo utilizzo massiccio possa renderlo alla portata di un numero più ampio di soggetti. Il DOI inoltre non si limita a assegnare un codice per un oggetto unico, ma, grazie ai linguaggi <indecs> e ONIX, è al centro di una rete di operazioni utili per la presentazione, la cattura, la manipolazione, la distribuzione e la consultazione di risorse digitali. La natura non-profit delle organizzazioni che gestiscono tali operazioni non deve far dimenticare il fatto che ogni transazione porta immancabilmente nelle basi di dati e nei portali in cui ritornano i grandi nomi dell’editoria STM, in questo momento gli unici beneficiari del vantaggio tecnologico del codice. Business is business, si potrebbe rispondere: dopo tutto, il DOI ha rappresentato e rappresenta un investimento tecnologico considerevole, di cui solo ora i promotori godono 209 del giusto ritorno economico. Il problema è che il nome della proprietà editoriale che sta dietro le risorse elettroniche è visibile all’utente solo dopo che questi ha intrapreso il suo percorso di navigazione, saltando di link in link senza essere obbligato a ricominciare una transazione. Facciamo un esempio. Come si è detto, Open URL è uno dei più diffusi strumenti di redirezionamento verso depositi di contenuti e verso la copia di documento più appropriata27. L’International DOI Foundation ha applicato lo standard aperto Open URL in uno schema cooperativo dove il redirezionamento persistente è svolto dal DOI e quello sensibile al contesto informativo dall’Open URL. Ovid Technologies, un aggregatore e fornitore di contenuti e di strumenti nel campo dei servizi di informazione medica, l’ha adottato nella soluzione LinkSolver per redirigere gli utilizzatori di DOI verso i propri contenuti28. Ora il nome di Ovid non deve indurre in errore; questa sigla non è altri che una divisione operativa di Wolters Kluwer, che la controlla al 100%. Ma: è questa un’argomentazione? Che cosa esclude dopo tutto altri operatori dall’entrare anch’essi nella rete di transazioni governata dagli identificatori e dagli altri metadati? Il caso dell’editoria ‘alternativa’ mostra che questa ipotesi è in realtà più teorica che pratica. L’identificazione nel dispositivo OAI non è legata, come normalmente accade, al documento o alla risorsa che vi è ospitata, ma all’estrazione dei metadati a partire dal documento29. OAI è dunque aperto a qualunque identificatore, incluso DOI, come viene esplicitamente riconosciuto nel testo stesso della versione del protocollo disponibile sul sito Web30. Tuttavia, la filosofia dell’archivio aperto, con la sua natura spontanea e volontaristica, la mancanza di organismi istituzionali di governo e un’architettura tecnica ridotta ai minimi termini, sembra rifiutare un investimento e una gestione tanto onerosi. Allo stadio attuale, dunque, un’intera faccia del pianeta scien- tifico – quella più oscura, ma non per questo meno vitale – è assente dal mondo DOI, la cui applicazione può essere forse qualitativamente meno solida, ma commercialmente assai più redditizia. Quale politica dell’identificazione, dunque, nell’attuale contesto della comunicazione scientifica? Di fronte alla manifesta insufficienza dei codici di identificazione tradizionali nell’economia di rete, la comunità documentaria ha dapprima cercato soluzioni che potessero garantirne la ‘persistenza’ sulle reti di comunicazione. Formulata nel 1998, la proposta di utilizzare gli attuali codici (ISBN, ISSN, SICI) come URN (Uniform Resource Name) verso cui un sistema di risoluzione avrebbe potuto rinviare31 non ha avuto sviluppi credibili, ma più per incapacità delle agenzie internazionali di identificazione di elaborare una visione applicativa che per inadeguatezza della soluzione prospettata. Nell’occhio del ciclone è in particolare il Centro internazionale dell’ISSN, che non ha saputo approfittare della sua posizione favorevole nel campo dei periodici e ha sviluppato progetti ISSN-URN fondati unicamente su test tecnologici e non proiettati verso l’elaborazione di servizi. Entrando come membro dell’International DOI Foundation, la comunità documentaria ha di fatto ‘esternalizzato’ la politica dell’identificazione degli oggetti in rete. Vaso di coccio in mezzo ai vasi di ferro editoriali, è improbabile che essa possa fare sentire la sua voce e modificare business models o politiche commerciali. Può però utilizzare la tecnologia e il sistema DOI per mettere a punto soluzioni autonome che le permettano di non lasciare più al libero mercato il compito di elaborare e attuare le politiche in materia di identificazione. Rompendo con un’inerzia ormai quinquennale, essa può cercare di rendere interoperabili gli archivi di pubblicazioni in rete, i cataloghi e le basi di dati che produce. Può accelerare l’‘azionabilità’ e la persistenza degli identificatori sotto il suo diretto controllo. Ed infine deve costruire una strategia globale sull’identificazione 210 211 volta a creare una pubblica sfera in cui i consumatori possano avere accesso a un’offerta diversificata, ampia e a prezzi ragionevoli di fonti di informazione e in cui le biblioteche non si trovino più in una situazione in cui, come si è espresso Guédon, «invece di difendere uno spazio pubblico di accesso all’informazione […] sono messe nella posizione di restringere l’accesso a uno spazio privatizzato»32. Note 1 Fritz Machlup, The Production and Distribution of Knowledge in the United States. Princeton (NJ), 1962; Fritz Machlup, Kenneth Leeson and associates, Information through the Printed Word: The Dissemination of Scholarly, Scientific, and Intellectual Knowledge, New York, 1978-1980; Fritz Machlup, Knowledge, its Creation, Distribution, and Economic Significance, Princeton (NJ), 1980-1984. 2 Marc Uri Porat, The Information Economy. Definition and Measurement, Washington DC, US Department of Commerce, Office of Telecommunication (9 voll.), 1978. 3 UNESCO, National Information Policy: Scope, Formulation and Implementation. Dubrovnik, Yugoslavia (25-29 June 1984), PGI-84/WS/17, Paris, 1984. Già all’epoca non mancavano le voci critiche: David Lyons, The Information Society. Issues and Illusions. Cambridge, 1988. 4 La letteratura sulla società dell’informazione è semplicemente alluvionale. Ci limiteremo a menzionare due titoli miliari disponibili anche in lingua italiana: Manuel Castells, L’ età dell’informazione: economia, società, cultura. Vol. 1: La nascita della società in rete, Milano, 2002; Pierre Lévy, L’intelligenza collettiva. Per un’antropologia del cyberspazio, Milano, 2002. Sul tema delle politiche dell’informazione sviluppate dagli Stati europei, mi permetto di rimandare a Giuseppe Vitiello, National Information Policy and Planning, in Library and Information Work Worldwide 2000, edited by M. Line, G. Mckenzie, P. Sturges, London, 2000, pp. 139-165. 5 «Fundamentally, in a system where the knowledge of relevant facts is dispersed among many people, prices can act to co-ordinate the separate actions of different people» F.A. Hayek, The Knowledge in Society, citato da Fritz Machlup, Knowledge..., cit., p. 189. 6 Lucien Febvre, Henri-Jan Martin, La nascita del libro, a cura di Armando Petrucci, Roma-Bari, 2000, p. 271. 7 Sulla catena del valore del libro, cfr. Paola Dubini, Voltare pagina: economia e gestione strategica nel settore dell’editoria libraria. 2. ed. aggiornata ed ampliata. Milano, 2001; fra i manuali editi dall’Editrice Bibliografica, particolarmente utili per questo aspetto: Settimio Paolo Cavalli, Giuseppe Fioretti, Come si fa l’editore. Manuale di gestione economico-finan- 212 213 ziaria di una casa editrice, Milano, 1997; Settimio Paolo Cavalli, Il marketing librario, Milano, 1999. Sulla comunicazione scientifica cfr. Scholarly publishing. Books, Journals, Publishers, and Libraries in the Twentieth Century, ed. Richard E. Abel, Lyman W. Newlin, New York, 2002; Scholarly publishing. The Electronic Frontier, ed. Robin P. Peek, Gregory B. Newby, Cambridge (MA), London, 1996; in italiano Giuseppe Vitiello, La comunicazione scientifica e il suo mercato, in “Biblioteche oggi”, giugno 2003, pp. 37-57, disponibile anche in formato elettronico: http://www.bibliotecheoggi.it/content/200305.html. Tutti i siti menzionati sono stati visitati l’ultima volta il 29 dicembre 2003. 8 Janine Brémond, Greg Brémond, Editoria condizionata, Milano, 2003, p. 83. 9 Jan Van Cuilenberg, Pascal Verhoest, Free and Equal Access. In Search of Policy Models for converging Communication Systems, in “Telecommunication Policy”, vol. 22, n. 3, 1998, pp. 171-181. La citazione è a pp. 179-180. 10 I dati sono riportati da Mary M. Case, Capitalizing on Competition: The Economic Underpinnings of SPARC. <http://www.arl.org/sparc/home/index.asp?page=f41>. Il trend non accenna a diminuire; come mostrano le statistiche dell’Association of Research Libraries, la spesa per i periodici è cresciuta dal 1986 al 2000 del 210%, v. http://www.arl.org/stats/arlstat/graphs/2001/2001t2.html. 11 Si veda in questo volume il contributo di Anna Maria Tammaro, Indicatori di qualità delle pubblicazioni scientifiche ed open access. Sull’editoria alternativa la bibliografia, anche italiana, è vasta: Anna Maria Tammaro, Modelli economici per i periodici elettronici: che fare di fronte alla spirale dei costi, in “Biblioteche oggi”, 16, n. 5, 1998, pp. 58-63; Anna Maria Tammaro, La comunicazione scientifica e il ruolo delle biblioteche: verso sistemi alternativi di pubblicazione, in “Biblioteche oggi”, 17, n. 8, 1999, pp. 78-82; Anna Maria Tammaro, Qualità della comunicazione scientifica. 1: Gli inganni dell’impact factor e l’alternativa della biblioteca digitale, in “Biblioteche oggi”, 19, n. 7, 2001, pp. 104-107; 2: L’alternativa all’impact factor, in “Biblioteche oggi”, 19, n. 8, 2001, pp. 74-78. La monografia italiana di maggiore interesse sulla comunicazione scientifica è, senza dubbio, Trasmissione d’élite o accesso alle conoscenze? Percorsi e contesti della documentazione e comunicazione scientifica, a cura di Adriana Valente, Milano, 2002. Inoltre: Remo Badoer, Antonella De Robbio, On the Road of E-Journals. Paesaggi in movimento nell’evoluzione dei periodici elettronici, in “Bibliotime”, II, n. 3, 1999; Michele Santoro, Pubblicazioni cartacee e pubblicazioni digitali: quale futuro per la 214 comunicazione scientifica? Relazione al Seminario Linguaggi e siti: la storia on line, Fiesole, Istituto Universitario Europeo, 6-7 aprile 2000 <http://www.sissco.it/attivita/sem-aprile-2000/santoro.htm> (con utile bibliografia); Eugenio Pelizzari, Crisi dei periodici e modelli emergenti nella comunicazione scientifica, in “Biblioteche oggi”, 20, n. 9, 2002, pp. 46-56; Luca Guerra, Paradigmi emergenti della scholarly communication e Sandra Di Majo, La crisi della comunicazione scientifica: soluzioni a confronto, entrambi in “Bollettino AIB”, 42, n. 4, 2002, rispettivamente pp. 413-437 e pp. 441449. Da angolazioni differenti: Lucio Piccio, La comunicazione scientifica e l’economia dell’informazione, in “Biblioteche oggi”, 16, n. 3, 1998, pp. 28-33 e Paola Gargiulo, Il nuovo ruolo dell’autore nella comunicazione scientifica, in “Bibliotime”, n.s. 3, n. 2, 2000, <http://www.spbo.unibo.it/bibliotime/num-iii-2/gargiulo.htm>. 12 Si segua, ad esempio, il percorso di Reed-Elsevier. Leader nei Paesi Bassi (dove, per tradizione, gli editori scientifici hanno da tempo scelto l’inglese come lingua di lavoro), Elsevier si è alleato con Nederlandse Dagbladunie nel 1979 e ha costruito un impero in poco più di un decennio. Negli stessi anni, Reed ha acquistato case editrici e periodici a ritmi da vittorie napoleoniche; 1982: Update Group; 1985: Bowker e Online Computer Systems; 1987: Octopus Publishing Group, “Variety Magazine”, Malayan Law Journals e KG Saur Verlag; 1988: Communications Today Ltd., “Big Farm Weekly”, Rigby International & Moving into Maths, Macgregor Trade Show, D W Thorpe, Interfama Trade Fairs Singapore, “Printing News”, “Media International”, “Industrial Marketing Digest”, “PC Magazine”, “Asian Plastics News”… Nel 1993 il big bang fra Reed e Elsevier e la nascita del colosso mondiale Reed-Elsevier, rafforzato nel 2001 dall’acquisto della casa editrice statunitense più importante nel campo dell’educazione: Harcourt Education. 13 La prestigiosa rivista “Esprit” ha dedicato buona parte di un numero speciale al caso Hachette – Vivendi Universal Publishing; cfr. Malaise dans l’édition, in “Esprit”, n. 295, juin 2003, pp. 40-188. 14 Ahmed Silem, Les deux géants du livre français: Havas publications édition et Hachette Livre, in Où va le livre?, éd. Jean-Yves Mollier, Paris, 2000, pp. 35-61. 15 Citato da Jacques Bonnet, Hachette – Vivendi: Exception culturelle ou aberration française?, in “Esprit”, 2003, cit., pp. 48-68; la citazione è a p. 55; si v. anche Françoise Benhamou, Concurrence pour la table du libraire?, in “Esprit”, 2003, cit., pp. 98-115. 215 16 “Le Monde”, 4 dicembre 2003. 17 John Feather, Communicating Knowledge. Publishing in the 21st Century, München, 2003. 18 Citato da Amy Brand, Frank Daly, Barbara Meyers, Metadata demystified, 2003, p. 4, http://www.niso.org/standards/resources/Metadata_Demystified.pdf 19 Questo e il paragrafo seguente replicano alcune parti dei miei articoli: Identifiers and Identification Systems. An Informational Look at Policies and Roles from a Library Perspective, in “D-Lib Magazine”, January 2004, vol. 10, n. 1 e L’identificazione degli identificatori, in “Biblioteche oggi”, 22, n. 2, 2004, pp. 67-80. 20 Godfrey Rust, Metadata: The Right Approach. An Integrated Model for Descriptive and Rights Metadata in E-commerce, in “D-Lib Magazine”, 1998; http://www.dlib.org/dlib/july98/rust/07rust.html#granularity 21 IFLA Study Group on the Functional Requirements for Bibliographic Records, Functional Requirements for Bibliographic Records. Final Report. Approved by the Standing Committee of the IFLA Section on Cataloguing, München, 1998 (anche in http://www.ifla.org/VII/s13/frbr/frbr.pdf). Sul tema cfr. Carlo Ghilli, Mauro Guerrini, Introduzione a FRBR: Functional Requirements for Bibliographic Records. Milano, 2001, e Paul Gabriel Weston, Il catalogo elettronico. Dalla biblioteca cartacea alla biblioteca digitale. Roma, 2002, in particolare alle pp. 95-106. 22 Joint Information System Committee, citato da Paul Gabriel Weston, Il catalogo elettronico, cit., p. 154. 23 Charter Members con diritto di voto sono: Association of American Publishers, Elsevier Science, International Publishers Association, John Wiley & Sons, McGraw-Hill, Educational and Professional Publishing Group, Springer Verlag. La lista dei membri del Consiglio di Amministrazione dell’Agenzia di registrazione CrossRef include: John Wiley & Sons, Inc., Elsevier Science, “Science”, American Institute of Physics, American Psychological Association, Association for Computing Machinery, Blackwell Publishing, The Institute of Electrical and Electronics Engineers, Inc. (IEEE), “Nature”, Oxford University Press, Sage. 24 La quota di partecipazione annuale è di $ 35,000 (ma di recente le 25 Ad esempio, Charter Members sono solo le organizzazioni che sviluppano attività legate alla creazione o alla produzione e diffusione di opera dell’ingegno, come definite dalla Convenzione di Berna, dai trattati WIPO. 26 Maggiori informazioni nel mio L’identificazione degli identificatori, cit. 27 Sull’Open URL cfr. i tre articoli di Herbert Van de Sompel, Patrick Hochstenbach, Reference Linking in a Hybrid Library Environment, Part 1: Frameworks for Linking, in “D-Lib Magazine”, 5, n. 4, 1999, http://www.dlib.org/dlib/april99/van_de_sompel/04van_de_sompelpt1.html; Reference Linking in a Hybrid Library Environment, Part 2: SFX, a Generic Linking Solution, in “D-Lib Magazine”, 5, n. 4, 1999, http://www.dlib.org/dlib/april99/van_de_sompel/04van_de_sompelpt2.html; Reference Linking in a Hybrid Library Environment, Part 3: Generalizing the SFX solution in the “SFX@Ghent & SFX@LANL” experiment, in “D-Lib Magazine”, 5, n. 10, 1999, http://www.dlib.org/dlib/october99/ van_de_sompel/10van_de_sompel.html 28 http://www.doi.org 29 <http://www.openarchives.org> 30 «The nature of a resource identifier is outside the scope of the OAIPMH. To facilitate access to the resource associated with harvested metadata, repositories should use an element in metadata records to establish a linkage between the record (and the identifier of its item) and the identifier (URL, URN, DOI, etc.) of the associated resource»; http://www.openarchives.org/OAI/openarchivesprotocol.html#Unique Identifier 31 C. Lynch, C. Preston, R. Daniel, Using Existing Bibliographic Identifiers as Uniform Resource Names RFC2288, 1998, http://www.faqs.org/rfcs/rfc2288.htm 32 Jean-Claude Guédon, In Oldenburg’s Long Shadow: Librarians, Research Scientists, Publishers, and the Control of Scientific Publishing; 2001, <http://www.arl.org/arl/proceedings/138/guedon.html> piccole imprese e organizzazioni possono ottenere uno sconto sostanziale). 216 217 Istituzioni della cultura: content provider per la rete Madel Crasta Segretario generale, Consorzio Baicr Sistema cultura Creare gli archivi digitali I temi dell’accesso all’informazione nell’era dell’ICT sono vissuti con logiche ed accenti diversi, legati essenzialmente al ruolo che le istituzioni svolgono nella società. Nella filiera di produzione dei contenuti le istituzioni della cultura volgono essenzialmente la loro attenzione alle condizioni del trasferimento in ambiente digitale del patrimonio intellettuale esistente, alla creazione di nuovi prodotti e servizi e ai requisiti che rendono ‘usabile’ per un grande pubblico questo enorme capitale di conoscenza La disponibilità di mezzi e di spazi digitali sta dunque evidenziando, nella ricerca e nelle istituzioni di ambito storicoculturale, la difficoltà di utilizzare questi spazi sfruttandone a pieno le potenzialità. Sembra che il digital divide agisca anche all’interno degli studi umanistici, e gli studiosi, sia per cause generazionali sia per le metodologie di ricerca, sono ancora lontani dallo svolgere un ruolo propulsivo di ideazione e progettazione per la rete, così che non è facile, talvolta, individuare content provider e redattori 219 multimediali per progetti di editoria elettronica, on line e off line. Tuttavia una forte minoranza qualificata di studiosi e ricercatori è impegnata da anni nel realizzare banche dati, musei virtuali e reti, utilizzando contributi pubblici e finanziamenti europei per la creazione di reti e applicazioni tecnologiche innovative. Bibliotecari ed archivisti padroneggiano delle tecnologie gli aspetti più legati alla catalogazione e al riordino, mentre stenta ad affermarsi un’attitudine più progettuale, che a partire dalle raccolte offra un’informazione organizzata, una ricostruzione di contesti e percorsi tematici con link ipertestuali. Così l’appello più frequente che si fa dalle sedi degli innumerevoli convegni dedicati alle potenzialità della rete in termini di prodotti e servizi per la ricerca e l’informazione, è quello di creare archivi digitali, disegnare prodotti innovativi e implementare banche dati, trasferendo sulla rete, con modalità adeguate, parte dell’informazione testuale ed iconografica contenuta nei mezzi tradizionali. Naturalmente questo trasferimento non può avvenire in modo confuso, meccanico ed indiscriminato come risposta obbligata al trend del momento, ma deve rispondere a progetti culturali capaci di coinvolgere le limitate risorse disponibili verso risultati misurabili per la ricerca, la scuola, le professioni ed il tempo libero. Solo a queste condizioni gli archivi digitali saranno in grado di intercettare gli interessi del pubblico che ‘consuma’ cultura e di allargare effettivamente l’accesso alla conoscenza. Le grandi banche dati catalografiche dei primi decenni dell’informatica hanno reso accessibili senza limiti geografici milioni e milioni di informazioni prodotte dai centri di ricerca e dalle grandi biblioteche di tutto il mondo. In seguito Internet e la multimedialità, esplose con pienezza negli anni Novanta, hanno offerto l’opportunità di integrare testi, immagini e suoni, creando un’informazione diversa: non solo più dati ma una diversa qualità di dati. Tuttavia per cogliere pienamente questa opportunità è necessario superare la logica ‘accumulatrice’ delle banche dati di prima generazione per ideare progetti culturali, motivi conduttori su cui aggregare contenuti provenienti da fonti, luoghi ed ambiti diversi. Cogliere possibilità di aggregazione dei contenuti significa guardare le cose con l’ottica di un soggettista del cinema per raccontare in una trama ciò che nella realtà si presenta distinto e separato. Le parole d’ordine del lavoro culturale nell’età dell’informatica sono interconnessione, convergenza e trasversalità, ma questi concetti, che sono al tempo stesso obiettivi e metodi, richiedono capacità ideativa, disponibilità a vedere con occhi diversi ciò che si è sempre conosciuto. Esempio estremamente efficace di questo diverso modo di vedere le cose, che è presupposto delle applicazioni tecnologiche, sono i Parchi letterari e culturali, i distretti culturali e i musei virtuali, reali i primi, digitali questi ultimi ma tutti luoghi in cui aspetti e linguaggi diversi della realtà confluiscono nella ricostruzione di storia, identità e cultura. IL Baicr Sistema Cultura – consorzio fondato nel 1991 da cinque Istituti Culturali (Istituto della Enciclopedia Italiana, Istituto Sturzo, Fondazione Basso, Società Geografica Italiana ed Istituto Gramsci) proprio per promuovere le applicazioni tecnologiche nel campo dei beni e dei contenuti culturali – si è confrontato fin dall’inizio con la necessità di andare oltre i cataloghi per far sì che le preziose raccolte degli istituti, uniche ed irrepetibili come valore storico, non annegassero nei milioni di dati accessibili in rete o al contrario si frantumassero in tanti piccoli siti web. Da questo impegno di comunicazione, verso un pubblico più ampio della tradizionale comunità di studiosi che da sempre ruota intorno alle istituzioni culturali, nascono i progetti Archivi del Novecento (www.archividelnovecento.it) e Novecento Italiano, documenti per la storia delle idee e della società. Il primo è una rete di archivi privati dei protagonisti della vita culturale e politica del Novecento, il secondo è un CD-Rom con testi, immagini suoni legati alle raccolte dei nove istituti che costituiscono il Polo SBN degli Istituti Culturali di Roma; ed è in programma Novecento Italiano in rete. 220 221 Per dare un’idea della ricchezza potenziale che affluisce gradualmente sulla rete si dà qui di seguito l’elenco degli istituti che partecipano alla implementazione delle banche dati: Archivi del Novecento: Accademia nazionale delle scienze detta dei Quaranta Archivio nazionale cinematografico della Resistenza Associazione nazionale per gli interessi del Mezzogiorno d’Italia Centro studi Piero Gobetti Flai Cgil nazionale Archivio storico “Donatella Turtura” Fondazione Biblioteca Benedetto Croce Fondazione Carlo Donat Cattin Fondazione di studi storici Filippo Turati Fondazione Ezio Franceschini Fondazione Giovanni Gentile Fondazione Il Vittoriale degli Italiani Fondazione Istituto Gramsci - Roma Fondazione Istituto piemontese Antonio Gramsci Fondazione Lelio e Lisli Basso - Issoco Fondazione Luigi Einaudi per studi di politica e economia Fondazione Ugo La Malfa Fondazione Ugo Spirito Fondazione Vittorino Colombo Forum delle donne - Partito della rifondazione comunista Galleria comunale di arte moderna e contemporanea - Roma Istituto della Enciclopedia Italiana fondata da Giovanni Treccani Istituto Gramsci Emilia Romagna Istituto Luigi Sturzo Istituto nazionale di studi romani Istituto per la storia della democrazia repubblicana Istituto per le scienze religiose Istituto romano per la storia d’Italia dal fascismo alla Resistenza Istituto storico italiano per il medio evo Istituto veneto di scienze, lettere e arti 222 Museo storico in Trento onlus Soprintendenza speciale alla Galleria nazionale di arte moderna Società di studi fiumani Società geografica italiana Università di Roma “La Sapienza” - Dipartimento di Fisica. Novecento Italiano Associazione Nazionale per gli interessi del Mezzogiorno d’Italia Fondazione Istituto Gramsci Fondazione Lelio e Lisli Basso - Issoco Fondazione Ugo Spirito Società Geografica Italiana Istituto della Enciclopedia Italiana fondata da Giovanni Treccani Istituto Italiano per l’Africa e l’Oriente (IsIAO) Istituto Luigi Sturzo Biblioteca di storia moderna e contemporanea L’idea che accompagna le realizzazioni del Baicr è che gli ‘oggetti della memoria’, certamente preziosi in sé, sprigionano a pieno il loro significato se si evidenzia la rete reale di relazioni semantiche che attraversano i documenti e se si valorizza la complementarietà delle raccolte, là dove la separatezza dei luoghi di conservazione e delle metodologie descrittive ha favorito la reciproca estraneità ed impedito l’emergere di insiemi di significato. La rete per partecipare la memoria Si è appena agli inizi ma già si può cogliere il ruolo di Internet come nuovissimo luogo della ‘memoria del sapere’. Oltre la biblioteca, l’accademia, gli archivi e le enciclopedie, oggi la rete consente di trasmettere con molta più velocità e pervasività di qualsiasi mezzo precedente i contenuti della memoria, con la 223 possibilità di legami così estesi che nessuna squadra di ricercatori potrebbe attivare. La facilità di accesso ed i costi relativamente bassi per la pubblicazione di un sito web hanno permesso l’ingresso di nuovi soggetti e content provider che in passato avrebbero avuto come sbocco solo l’editoria tradizionale con tutti i filtri che conosciamo. Oggi biblioteche, archivi, centri di documentazione, istituti, enti pubblici e privati, cittadini e associazioni di cittadini, tutti possono utilizzare la rete, partecipare raccolte, testimonianze, biografie, storie individuali e collettive, immagini e interpretazioni delle immagini. Come tutti i cambiamenti epocali, anche questo non è indolore e nasconde in sé trappole ed insidie per cui non abbiamo ancora elaborato anticorpi, e ciò vale soprattutto per i più giovani, i quali tendono ad attribuire indiscriminatamente il valore di verità a tutto ciò che si vede sullo schermo: ‘voirs et savoirs’. Tuttavia la multimedialità e la rete si offrono davvero come una nuova occasione di rimettere la memoria e le fonti che la trasmettono in un circuito vivo di produzione culturale, dove una larga porzione di società può incontrarle, utilizzarle e farle proprie. Questo è esattamente lo spirito con cui si sta costruendo Archivi del Novecento La Memoria in Rete, perché ciò che anima il lavoro (lungo e costoso) di informatizzazione e digitalizzazione delle carte è proprio la preoccupazione degli Istituti culturali che le testimonianze della produzione di cultura del Novecento diventino un luogo remoto, serbatoio di ricerca per pochi studiosi, estranei alla coscienza della cittadinanza. Da Archivi del Novecento nasce Archivi della Repubblica, progetto di rete dedicato agli archivi dei partiti politici e dei gruppi parlamentari. Gli Archivi storici della Camera e del Senato e gli Istituti culturali che conservano le carte dei protagonisti della vita politica e parlamentare del secondo Novecento danno vita ad una iniziativa di largo respiro, destinata a rendere disponibili su Internet queste carte con l’obiettivo di avvicinare ai cittadini le testimonianze sulle idee, le discussioni e gli iter parlamentari di scelte che riguardano l’intera società ed il suo funzionamento. 224 225 Centri virtuali di documentazione Da una parte comunicare raccolte reali, fisicamente possedute all’interno di biblioteche, archivi e musei, dall’altra costruire raccolte virtuali, veri e propri centri di documentazione in rete che raccolgono informazioni e le organizzano per gli utenti. Il Consorzio Baicr ha voluto sperimentare questa potenzialità della rete aggregando intorno al tema della Cultura gastronomica (www.culturagastronomica.it) una raccolta virtuale contenente tutte le informazioni che possono introdurre l’utente ad un percorso conoscitivo attraverso il sapere gastronomico italiano, una sorta di information source in italian gastronomy come si potrebbe trovare nella tradizione di reference angloamericana. Il presupposto di politica culturale che sta dietro alla scelta di pubblicare questa guida telematica è l’aver individuato la necessità di offrire, ad un pubblico di cultori sempre più vasto, strumenti di conoscenza allo stesso tempo rigorosi e amichevoli. Considerando la civiltà della tavola un fattore fondante della nostra memoria e dell’identità del territorio, si è pensato di raccogliere ed organizzare quelle fonti che consentono a ciascuno, secondo i diversi gradi di competenza, di creare la propria biblioteca, approfondire tematiche, verificare dati, disegnare itinerari che sono insieme gastronomici e culturali. Queste finalità hanno suscitato l’interesse di enti come le Regioni Emilia-Romagna e Piemonte e l’Università di Bologna, che con il Baicr sono diventate promotrici dell’iniziativa. Il sito pubblicato nel 2000 ha evidentemente intercettato esigenze reali, perché intorno ad esso si è creata una rete di relazioni e di progetti che vanno esattamente nella direzione sperata e il messaggio che si è riusciti a comunicare è che la qualità si fonda sulla conoscenza. E-content management Va da sé che la garanzia per un reale utilizzo di questo potenziale informatico, che vive nella rete ed è in continuo mutamento, è la facilità di incontro fra l’utente non particolarmente esperto e i contenuti dell’informazione. Nello spazio digitale i contenuti, liberi dal vincolo fisico del documento reale, fluttuano e si aggregano secondo relazioni che, per quanto strutturate, sono ancora largamente inadeguate a centrare efficacemente il bersaglio semantico, come dimostra l’esperienza dei motori di ricerca, anche dei più potenti e sofisticati. Il rischio attuale è quello di utilizzare poco e male il serbatoio conoscitivo disponibile in rete, che spesso impegna un costo significativo di risorse pubbliche e private. Questo problema è particolarmente sentito da istituti e fondazioni che costruiscono la loro presenza sulla rete non tanto sulle quantità quanto sulle specificità dei contenuti proposti. Questa sensibilità si traduce in una attenzione costante verso la comunicazione – metodi e strategie – e verso gli strumenti di rappresentazione di contenuti, dagli aspetti dell’interfaccia grafica vista come condizione del colloquio uomo-macchina, agli aspetti linguistici e terminologici, all’integrazione di contenuti diversi sia per formato che per finalità. Il Baicr è, a questo proposito, impegnato sia in attività di e-learning, come agenzia formativa accreditata dal Ministero dell’Istruzione, sia in attività di ricerca e sperimentazione in ambiente digitale. Due sono i progetti che vedono impegnata la struttura del Consorzio: – Il Master on line Indicizzazione in ambiente digitale (MIDA), organizzato con l’Università di Roma “Tor Vergata”. Il corso si propone di formare esperti nella catalogazione di documenti cartacei, multimediali ed elettronici e si rivolge a bibliotecari, archivisti, documentaristi e web editor. – Le parole del Novecento. Un Thesaurus per gli archivisti di storia delle idee e della società. Studio di fattibilità, condotto con il 226 227 contributo della Direzione Generale per gli Archivi del Ministero per i Beni e le Attività culturali, per un thesaurus o vocabolario controllato applicabile a banche dati nate da fondi di storia e cultura del Novecento. Il progetto si propone di verificare, nella concreta implementazione delle banche dati archivistiche, la funzionalità dell’indicizzazione semantica per la ricerca ma anche per la valorizzazione dei fondi. Nuovi soggetti In questo scenario ruoli e professioni consolidati nei secoli convivono con nuovi soggetti, distinzioni cristallizzate nel tempo perdono sempre più consistenza, i confini appaiono più sfumati e sempre meno si riesce ad essere semplicemente un editore o un bibliotecario o uno studioso. Nella catena di produzione dei contenuti – industrie ed istituzioni – si formano i nuovi percorsi della mediazione culturale. Alle fondazioni storiche, quelle per intenderci riconosciute come di rilevanza nazionale ed inserite nella tabella di una legge dello Stato, si aggiungono sempre nuove fondazioni, quelle nate da aziende con una tradizione nel proprio settore, fondazioni universitarie, fondazioni bancarie, e quasi tutte hanno tra i loro scopi la promozione della cultura e del patrimonio storico-ambientale. In generale tutte le istituzioni culturali hanno stretto in questi anni un rapporto più sistematico con il territorio e si incardinano con continuità nei programmi degli enti locali, affiancando sempre più le amministrazioni nell’erogare servizi culturali e di informazione. In effetti il territorio e la dimensione locale sono divenuti protagonisti nella riorganizzazione dei contenuti per lo spazio digitale, tanto che l’accesso ai dati si presenta sempre più in modo georeferenziato, così come cresce la partecipazione di istituzioni, anche di rilevanza nazionale, alla costruzione di sportelli telematici locali, tesi a ricostruire sotto vari aspetti 228 la fisionomia del territorio: vedi per esempio le banche dati regionali dei beni culturali, dove confluiscono e si fondono i dati provenienti dalle diverse strutture attive nel territorio regionale. Questa pluralità di soggetti, quelli nuovi e quelli ricchi di storia, svolgono il ruolo di content provider per una domanda di cultura che cresce costantemente. A questa domanda, che proviene da un pubblico molto più ampio delle tradizionali élites culturali, non possono far fronte i consolidati detentori dei beni, delle strutture e dei servizi. Al di là del giudizio individuale sul consumo culturale di massa – dall’assalto alla mostra/evento al turismo culturale – la partecipazione allargata ai contenuti della conoscenza e della memoria richiede di ridisegnare strategie e linguaggi di comunicazione in un precario equilibrio fra efficacia narrativa e attendibilità scientifica. Il ruolo delle istituzioni culturali nella costruzione degli archivi digitali e dei servizi in rete è quello di garantire l’innovazione ma anche il rigore del metodo, a garanzia di quel particolare prodotto che è la cultura. Si tratta di una vera e propria scommessa il cui esito è ancora tutto da vedere. 229 Gestione della conoscenza e formazione Paola Capitani1 Consulente, Gruppo semantica e terminologia nei portali Premessa Durante una recente trasmissione televisiva, che ha chiamato in causa, tra gli altri argomenti, il tanto citato “Internet”, ho visto sullo schermo nomi famosi intervistati in diretta sul tema. I termini che sfilavano dalle loro sapienti e documentate bocche erano: formazione, informazione, tecnologia, multimedialità, globalità, occupazione, lavoro. Già anni fa Paolucci (amministratore delegato della Microsoft Italia), ad un seminario sui sistemi informativi (Rimini, ottobre 1995), si definiva ‘un vecchio manager’, almeno per il contesto Microsoft, dove un cinquantenne si sentiva già fuori mercato. Sottolineava che la scuola e l’università erano giudicate responsabili di un’arretratezza culturale dell’Italia nel contesto europeo perché non sanno offrire, motivare, orientare i giovani al mercato del lavoro (purtroppo i tempi sono passati quasi inutilmente…). Denunciava un’evidente difficoltà della Microsoft a trovare persone qualificate per i livelli funzionali richiesti a causa delle seguenti lacune nella formazione giovanile: – non conoscenza della lingua inglese; 231 – – – – – non conoscenza della tecnologia; carenza di cultura scientifica; non disponibilità alla mobilità; carenza di legami tra scuola, università e mondo del lavoro; mancanza di aderenza alla realtà nei percorsi educativi e formativi. Da questo sconsolante panorama non si allontana nemmeno il contesto formativo, che tuttora presenta carenza di investimenti nella formazione al lavoro e in servizio, carenza di utilizzo delle tecnologie e un errato uso delle nuove tecnologie, che spesso non comportano una modifica delle operazioni e dei metodi ma solo una nuova elaborazione di vecchie mentalità e procedure. Per cui, parlando di conoscenza, o meglio di gestione della conoscenza, occorre parlare anche di informazione e di formazione, tre concetti che vanno di pari passo. A questi parametri si collega anche il così detto impact factor, ovvero la ricaduta della qualità dei metodi formativi sulla conoscenza e viceversa. Questi erano tra gli argomenti affrontati durante il seminario Partecipare la scienza: questioni di comunicazione, accesso, valutazione2, che ha affrontato le tematiche connesse alla formazione, alla gestione della conoscenza e all’informazione, nel tentativo di dare dei parametri, dei criteri, delle valutazioni per percorrere i corretti percorsi. Secondo un criterio circolare, tipico della scienza dell’informazione, occorre effettuare una continua revisione e un conseguente adattamento dei criteri per ottenere un canone comunicativo sempre più in sintonia con l’utenza e con le sue esigenze, per loro caratteristica in continuo mutamento. Per schematizzare i concetti espressi, la gestione della conoscenza si basa su altri concetti ad essa strettamente correlati e che passano dalla Comunicazione all’Informazione, alla Terminologia, ai Thesauri e quindi a Internet, veicolo tecnologico obbligato di tutta la catena illustrata. KM Ripercorrendo la sequenza dei concetti qui evidenziati occorre prima di tutto definire la Conoscenza, o meglio la Gestione della conoscenza (knowledge management), per chiarire successivamente i termini presenti nel grafico. Secondo una definizione, datata ma sempre utilizzabile per circoscrivere e limitare il significato, knowledge management è «A system for gathering, organizing, refining, analyzing and disseminating of knowledge in all of its forms within an organization. It supports organizational functions while addressing the needs of the individual within a purposeful context»3. Purtroppo le attuali definizioni in circolazione collocano il concetto al centro di aree differenti quali l’informatica, la tecnologia, la formazione, l’educazione, la ricerca, e ognuna cerca di spostare il significato dove più opportuno e utile. …….. Comunque la si voglia intendere o definire, la gestione della conoscenza sempre definisce gli ambiti e i contenuti e trova la soluzione ai diversi problemi. È comunque un criterio di merito e di metodo, insieme al concetto di formazione, che costruisce uno schema metodologico di riferimento fondamentale nella gestione dei servizi. Secondo la definizione precedentemente citata «la gestione della conoscenza è un sistema per la raccolta, organizzazione, messa a punto, analisi e diffusione della conoscenza in tutte le sue forme all’interno di una organizzazione. Essa (la conoscenza) supporta le funzioni organizzative 232 233 Conoscenza Comunicazione Informazione Terminologia Thesauri Internet mentre orienta le necessità degli individui all’interno di un dato contesto». Tocca quindi tutte le fasi e le funzioni di una struttura, da quelle legate alle risorse (umane e materiali) a quelle dei flussi gestionali (interni ed esterni) dalla qualità totale agli indici di gradimento, dalle verifiche e valutazioni ai prodotti e alla loro diffusione, sia in formato cartaceo che multimediale. Comunicazione, Informazione, Terminologia e Thesauri sono i cardini del processo comunicativo nel quale l’informazione transita dal produttore al destinatario solo se i concetti sono chiari e univoci, quindi strutturati secondo criteri stabili e convenzionali, quali appunto quelli stabiliti dai thesauri o da liste terminologiche definite e controllate. Internet infine è l’attuale strumento tecnologico, che può essere efficace solo se gli strumenti utilizzati sono stati costruiti con criteri validi per l’universo informativo e per l’utenza individuata. Dall’esperienza maturata in diversi servizi informativi, pubblici e privati, scaturisce un quadro connotato da una forte presenza della valenza tecnologica non suffragata da una altrettanto efficace attenzione alle capacità professionali e alla formazione delle risorse umane deputate a gestire l’informazione, o meglio la conoscenza. Poiché l’elemento umano gioca un ruolo di primo piano nel settore dei servizi, e particolarmente in quelli di tipo culturale o educativo, è proprio su questo che si deve concentrare l’attenzione del gestore del servizio, dedicando tempo, risorse, procedure ad acquisire un personale idoneo al compito e ad aggiornarlo continuamente, per poter gestire con efficacia e professionalità il cambiamento, inevitabile nel settore. Da questo non solo consegue l’esigenza di prevedere e perseguire percorsi formativi a livello universitario, ma addirittura di creare un costume metodologico di ricerca delle informazioni nei percorsi scolastici di base, dove lo studente può apprendere un metodo e un criterio che padroneggerà negli anni successivi. In qualsiasi realtà la risorsa informazione ha un ruolo privilegiato che necessita una figura appositamente preparata, in grado di svolgere un ruolo di intermediario tra l’impresa e l’utenza, intendendo con il termine impresa qualsiasi realtà che eroga il servizio. Il panorama internazionale, contraddistinto da consapevolezza di ruoli, funzioni, metodi e strumenti, caratterizzato da percorsi formativi modulari, finalizzato ad un servizio capillare e mirato è ancora un lontano miraggio. Per colmare la grave lacuna che ci separa dagli altri Paesi dell’Unione Europea occorrerebbe consolidare un ambito ‘di ricerca informativa o di metodo della ricerca’ per evitare perdite di tempo e carenze profonde. La quasi del tutto dimenticata ‘biblioteca scolastica’, per troppi anni auspicata e inutilmente attesa come ‘centro di documentazione educativa’, potrebbe rivendicare il ruolo che le spetta di diritto e porsi veramente e di fatto come confronto e comparazione tra le discipline per attuare la tanto sbandierata interdisciplinarietà. Purtroppo la volontà politica e i tagli alle risorse vedono sempre più impoveriti sia il ‘centro risorse’ o la ‘biblioteca automatizzata’ dove spesso si pensa che basti avere un PC per etichettare come tale una povera biblioteca che non ha libri, ma soprattutto non ha personale idoneo per gestirla. E poi i corsi di formazione parlano di tecniche di recupero, di informazione in linea, di sistemi di rete, di risorse multimediali. La scuola, per l’ambito specifico che le compete, rappresenta un ampio sistema informativo in cui entrano costantemente e quotidianamente esperienze e confronti con realtà didattiche ed educative di altre regioni e di altre nazioni. Insomma il 234 235 Conoscenza e formazione luogo ideale dove iniziare quella ‘educazione alla ricerca’ o ‘educazione all’informazione’ o ‘educazione alla conoscenza’ che prevede le stesse discipline, gli stessi metodi, le stesse valutazioni applicate alle unità didattiche disciplinari, che porterebbero, se opportunamente correlate tra loro, a risultati fortemente innovativi. Oggi l’attenzione è così strettamente legata alla tecnologia, primadonna in tutti i processi innovativi, da mettere in secondo piano la cura alla qualità dei processi e alla efficacia/efficienza delle risorse umane. Spesso si assiste alla presenza di sistemi tecnologicamente avanzati, non adeguatamente supportati da risorse umane in grado di gestire i flussi con lo stesso livello di qualità garantito dalle strutture. Si tratta di erogare non solo moduli formativi inerenti all’acquisizione di mansioni e funzioni, ma soprattutto standard di qualità, basati e calibrati sulla cooperazione e sulla comunicazione. Un’ottima procedura non può essere tale se non viene veicolata nella maniera opportuna al destinatario individuato. Tra le caratteristiche basilari nelle diverse situazioni operative, quella sulla quale si poggiano tutte le altre è proprio una maggiore interazione tra i ruoli e una più efficace ed efficiente comunicazione tra i diversi soggetti appartenenti al gruppo di lavoro, compreso l’utente, che, spesso, è solo virtualmente nominato, ma non effettivamente coinvolto. Per muoversi con competenza in un contesto fatto di uomini e risorse, procedure e prodotti, indici e quozienti, prodotti e servizi, occorre possedere gli strumenti idonei impartiti attraverso la formazione, sia essa di base che ricorrente, in presenza che a distanza, ma soprattutto mirata agli obiettivi, alla mission, tenendo presenti le risorse disponibili e le aspettative richieste. La caratteristica delle fasi deve essere tuttavia ciclica, modulare e soprattutto sottoposta a continue verifiche e valutazioni, effettuate da soggetti esterni al processo, oltre che dagli stessi utenti. In un contesto estremamente dinamico, soggetto ai mutamenti che la tecnologia impone e che l’utenza sollecita, non si possono realizzare progetti stabili e fissi; tuttavia i progetti devono avere supporti e basi concrete e affidabili nel tempo, realizzando un’interazione fra scienza e tecnologia, criteri e richieste, esigenze informative e variabili che dia all’intero sistema una caratterizzazione particolare e per questo interessante e mobile. La scienza dell’informazione, nelle sue diverse sfaccettature, comprende diverse aree trasversali, alcune delle quali sono contenute nell’interessante ipotesi che, già nel 1986, veniva indicata dall’UNESCO come modular curriculum in information studies. In questa ipotesi la formazione veniva strutturata secondo una indicazione di massima tra moduli fondamentali di qualsiasi iter formativo nel settore degli studi sull’informazione e moduli aggiuntivi, relativi alla specializzazione tematica. I moduli fondamentali sono rappresentati da: L’informazione nel contesto sociale e nella comunicazione; Gli utenti dell’informazione; Metodi quantitativi; Metodi di ricerca; Le fonti dell’informazione; I sistemi di memorizzazione e recupero dell’informazione; I servizi informativi; Il trattamento elettronico dei dati; Applicazioni di tecnologia dell’informazione; Telecomunicazioni e reti dell’informazione. A questi moduli base si aggiungono altri moduli, definiti facoltativi, ma tuttavia basilari quali: Progettazione di sistemi informativi automatizzati; Fonti e sistemi informativi settoriali; Progettazione e organizzazione delle attrezzature per centri informativi e biblioteche; Ricerca in linea; Servizi informativi e biblioteche nell’area salute e sanità; Servizi informativi e biblioteche nell’area agricoltura; Studi sugli audiovisivi; Stampa e conservazione; Linguistica e studi sull’informazione; Servizi informativi di comunità; Programmazione di trattamento testi; Psicologia e studi sull’informazione; Comunicazione e studi sull’informazione; Epistemologia e studi sull’informazione; Biblioteca d’impresa e servizi informativi; Biblioteca governati- 236 237 va e servizi informativi; Educazione e formazione per gli studi dell’informazione. In particolare viene curato il settore relativo agli studi dell’utenza, che è la cartina di tornasole di qualsiasi servizio informativo. Senza di essa il servizio non può essere e senza di essa non si realizza il feedback necessario per la valutazione della qualità non solo del metodo, ma soprattutto del contenuto e dei tempi di erogazione. Purtroppo molto spesso i servizi sono realizzati in funzione dell’ente che li promuove, o meglio dei consulenti che li progettano, e non invece in funzione di chi di fatto li dovrebbe utilizzare. Sempre più si assiste alla divaricazione tra potenzialità della tecnologia e scarsi livelli formativi del personale, in quanto ancora la formazione si limita a processi funzionali e meramente tecnici, sottovalutando altri processi formativi che dovrebbero abbracciare tutte le procedure e le dinamiche relazionali che hanno come obiettivo il sistema nella sua interezza. Il fattore tempo è inoltre una variabile determinante e non opportunamente considerata in molti contesti lavorativi: le necessità di formazione e di aggiornamento dei servizi devono avere una risposta immediata pena la perdita di efficacia e utilità. Una procedura utile oggi, se realizzata fra sei mesi è forse superata. Per effettuare qualsiasi tipo di ricerca, sia su basi dati che su Internet, è fondamentale seguire alcuni criteri base, che si fondano sulla terminologia da utilizzare e sulla strumentazione da impiegare. Sono due aspetti diversi ma complementari, senza i quali nessuna ricerca può condurre a buon esito. Da un lato occorre, dopo aver circoscritto il tema di interesse, riuscire a individuare quella che oggi si chiama mappa concettuale e che sempre ha rappresentato la suddivisione, la categorizzazione, la gerarchia indispensabile per ritrovare il concetto cercato. Dall’altro occorre possedere quella minima competenza per orientarsi nei siti web, nei portali, nei link che ancora offuscano la memoria di sedicenti navigatori in rete. La terminologia, intesa come condivisione di concetti, «vocaboli ed espressioni proprie di una data scienze, arte, disciplina» (Devoto-Oli) consente la comprensione, la comunicazione, l’interazione attraverso obiettivi condivisi. Ognuno è libero di muoversi in perfetta autonomia, ma il contesto nel quale operiamo ci mostra sempre più che se si vogliono perseguire obiettivi rapidi e mirati la scelta della sinergia è premiante. Le mappe concettuali, le ontologie, i gruppi semantici, le gerarchie e le relazioni sono i concetti con i quali fare i conti non solo per ottenere quella necessaria comprensione all’interno delle stesse aree tematiche, ma anche per poter dialogare con operatori di diverse aree geografiche. L’Europa è un insieme in continua evoluzione: l’entrata nell’Unione Europea di Paesi dell’Est sullo scenario comune comporta un allineamento al di là di rigide impostazioni e miopi criteri, soprattutto nella condivisione di termini e concetti che sono le chiavi di accesso a qualsiasi archivio condiviso. Per realizzare momenti di confronto e di scambio tra chi si occupa di terminologia e siti web, di thesauri e di basi dati, il gruppo ‘Semantica e terminologia nei portali’4 è un riferimento ricco di esperienze e di tematiche che rappresenta università, enti pubblici e privati, associazioni, biblioteche, archivi, impegnati su varie aree (diritto, economia, educazione/formazione, moda, salute e sanità, terminologia). Da un rapido confronto su quanto avviene in Europa, sullo stesso tema è stato attivato (ottobre 2002) il progetto Knowledge Technologies (KT), gruppo di ricerca su Information Society Technologies programme 2002-2006, del sesto Framework Programme (FP6)5. Fra le decisioni del Consiglio è fondamen- 238 239 La ricerca in rete: semantica, sintassi e metadati tale quella di adottare un programma specifico per la ricerca, lo sviluppo e la dimostrazione tecnologica dal tema Integrazione e consolidamento dell’area di ricerca europea (decisione del settembre 2002) sulla conoscenza e le tecnologie dell’interfaccia. L’obiettivo è il miglioramento dell’usabilità delle applicazioni e dei servizi IST, oltre che dell’accesso alla conoscenza, al fine di stimolare una sua più ampia adozione e velocizzare lo sviluppo, comprendendo anche le tecnologie multimediali relative alla ricerca. In particolare sono trattate le tecnologie della conoscenza e il contenuto digitale: l’obiettivo è quello di fornire soluzioni automatizzate per la creazione e l’organizzazione degli spazi virtuali di conoscenza (memorie collettive, biblioteche digitali, ecc.) per stimolare radicalmente nuovi contenuti e servizi e applicazioni multimediali. Il lavoro verte soprattutto sulle tecnologie in grado di supportare i processi di acquisizione, modellazione, navigazione e ricerca, rappresentazione e visualizzazione, interpretazione e condivisione della conoscenza. Queste funzioni saranno integrate in sistemi costruiti su criteri semantici e sul contesto, comprendendo strumenti cognitivi e basati sugli agenti. Il lavoro si indirizzerà a tutte le fonti della conoscenza e alle ontologie per facilitare l’interoperabilità dei servizi e permettere applicazioni di nuova generazione sul web semantico. Saranno presi in considerazione sia i contenuti del web che le piattaforme necessarie, ma soprattutto gli utenti della rete, che stanno aumentando a ritmo vertiginoso e che stanno cambiando completamente. Soprattutto si assiste ad una varietà di richieste che proviene da un’utenza sempre più differente per regioni geografiche, per lingua, per genere, per gruppo di età e per attività economica. I sistemi informativi trattano principalmente la sintassi ma non la semantica di un documento o di un’informazione o di un oggetto multimediale. Gli strumenti informatici che si basano sulla semantica possono offrire maggiori opportunità per il trattamento delle informazioni. Stanno emergendo nuove tecniche quali la scoperta di risorse automatiche, i contenuti non strutturati di ricerca, le domande in linguaggio naturale, la ricerca basata sul contenuto e una collaborativa definizione dei profili d’utenza. Sullo scenario europeo, grazie ai progetti in corso, è possibile incoraggiare le industrie a giocare un ruolo competitivo nello sviluppo dei sistemi e servizi basati sulla conoscenza. Il valore aggiunto nei progetti europei è nella stimolazione di tecnologie e sistemi che sono idonei per mercati multiculturali e multilinguistici, in grado di soddisfare le aspettative degli utenti. Soprattutto se si progetta in uno scenario di dieci anni a venire dovremo tener conto di: – acquisizione di sistemi basati sulla conoscenza per supportare il lavoro scientifico di routine; – passaggio da acquisizione e annotazione manuale; – nuova infrastruttura web basata sulla semantica con ontologie che utilizzano metodi automatici e apprendimento a distanza; – nuovi livelli di sistemi di conoscenza e sistemi di recupero basati su profili di utenza; – sistemi di ragionamento costruiti sulla vita reale programmati sul lungo periodo; – modelli di nuova impostazione, su link semantici e aggiornati sui metodi di struttura dei dati e sui modelli in grado di registrare il cambiamento. Lo scopo prioritario è il miglioramento dell’usabilità e dell’ampliamento dell’applicazione dei servizi e dei prodotti dell’ICT6. Questa sarà indirizzata attraverso nuovi metodi di trattamento della conoscenza di oggetti, risorse o processi che possono essere trattati, guidati o supportati da sistemi ICT. L’uso finale sarà l’analisi di informazioni automatiche, l’interpretazione, il collegamento e la visualizzazione, la fornitura di servizi basati sul contesto in grado di supportare la progetta- 240 241 zione, la diagnosi automatica e i processi decisionali, le attività industriali altamente collaborative, ecc. Gli strumenti e i metodi sviluppati per queste attività contribuiranno a promuovere una interoperabilità semantica e lo scambio tra sistemi e servizi. La stessa IFLA7 sostiene che «il diritto alla conoscenza e la libertà di espressione siano due aspetti dello stesso principio»8 e inoltre, al paragrafo su Fornitura agli utenti di istruzioni all’uso della rete, il testo riporta che «le biblioteche forniranno quelle informazioni e quelle risorse che servono per imparare in modo efficiente ed efficace». Si può quindi vedere un notevole passo avanti da quando il libro era gelosamente tenuto negli scaffali, scarsamente prestato, difficilmente distribuito; attualmente si individuano percorsi di orientamento e di formazione all’utente, non solo specializzato, ma anche generico. L’approccio KT9 comporta la messa in comune della ricerca in un ampio spazio di aree intercorrelate: la descrizione delle risorse web e multimediali; la tecnologia; l’interattività e le interfacce dell’informazione; la scoperta della conoscenza; data and text mining; il trattamento di linguaggi naturali. In particolare oggi la ricerca analizza tutti i servizi della conoscenza che devono essere mediati all’utente finale attraverso supporti informativi, programmi e software in grado di utilizzare diversi tipi di web, reti e web semantici, in grado di essere interoperabili e di interagire uno con l’altro. La dinamica dei processi obbliga ad una dinamica delle attività e delle procedure che sempre più devono tenere il passo non solo con la tecnologia, ma soprattutto con le esigenze degli utenti, sempre più diversificati e specializzati in ambiti di ricerca. Un sistema estremamente flessibile, che si deve basare su criteri definiti e stabili, ma in continua evoluzione, necessita di un personale specializzato, formato, continuamente pronto a rivedere scelte, procedure e funzioni, con una progettazione a medio e lungo termine ma che si avvale di unità operative e procedure calibrate sul breve e brevissimo tempo. Piccoli passi e sguardo lontano su panorami soprattutto diversificati, dove l’esperienza e il confronto giocano un ruolo fondamentale nel risparmio di tempi e di costi e nel miglioramento degli standard. In tutti i nuovi progetti e nelle Raccomandazioni delle associazioni si promuove e si facilita un accesso responsabile all’informazione di qualità in rete per tutti gli utenti, a prescindere dalla loro competenza e dalle loro richieste. Per raggiungere questi obiettivi occorre creare un’ottima comunicazione tra addetti ai lavori e utenti, oltre alla redazione di strumenti cartacei e non per l’orientamento e l’utilizzo dei servizi erogati. La libertà di accesso, la fornitura di un accesso libero, non gravato da ostacoli, finalizzate al diritto degli utenti a cercare l’informazione che preferiscono, con il supporto necessario agli utenti per imparare a usare Internet sono alcuni dei punti contenuti nel Manifesto su Internet dell’IFLA10. Come dice Minsky in La società della mente (1989) «l’intelligenza non risiede in qualche grande elaboratore, ma è piuttosto il risultato del comportamento collettivo di un gran numero di macchine specializzate, tra loro altamente interconnesse», dove il termine ‘macchine’ comprende ovviamente quella che, per antonomasia, le comprende tutte e che riesce a gestirle: ‘la macchina umana’. 242 243 Bibliografia TKE ’99 Terminology and Knowledge Engineering, ed. Peter Sandrini, Vienna, Termnet PAOLO BISOGNO (1980), La teoria della documentazione, Milano, Franco Angeli PAOLO BISOGNO (1995), Il futuro della memoria. Elementi per una teoria della documentazione, Milano, Franco Angeli LUTHER BLISSET (1996), Net.gener@tion. Manifesto delle nuove libertà, Milano, Mondadori ANTONIO CALVANI, MARIO ROTTA (1999), Comunicare e apprendere in Internet, Trento, Erickson ANTONIO CALVANI, MARIO ROTTA (2000), Fare formazione in rete, Trento, Erickson PAOLA CAPITANI, Glossario multilingue di biblioteconomia e scienza dell’informazione (italiano, inglese, francese, spagnolo, tedesco), Milano, Editrice Bibliografica (in preparazione) PAOLA CAPITANI (2001), Educare all’informazione: l’esigenza di creare un costume documentario a partire dalla scuola, in “Biblioteche Oggi”, gennaio-febbraio PAOLA CAPITANI (2003), Il servizio informativo: iter di formazione e proposte di gestione, Milano, Editrice Bibliografica VALENTINA COMBA (2000), Comunicare nell’era digitale, Milano, Editrice Bibliografica Il controllo terminologico delle risorse elettroniche in rete: Tavola rotonda, Firenze 27 gennaio 2000, a cura di Paola Capitani, Firenze, FUP, 2001, accessibile su Internet al sito http://biblio.unifi.it/documents/archivio1/00/00/01/77/ index.html PAOLA COSTANZO CAPITANI (2000), Gli standard ISO per la costruzione e l’aggiornamento di thesauri, in Reti per la salute. Seminario di studio. Atti. Perugia 22-23 aprile 1999, Perugia, SEDES PINO DE SARIO (2002), Non solo parole. Gli strumenti della comunicazione ecologica. A casa con gli amici, nel gruppo, al lavoro…, Milano, Franco Angeli EuroGuida I&D dei professionisti europei dell’informazione e della documentazione (2000), Versione ufficiale di Maria Pia Carosella e Domenico Bogliolo, Firenze, Casalini Libri ENRICO GUIDOTTI (1996), Internet e comunicazione: per capire come cambia il modo di comunicare l’impresa con Internet, Milano, Franco Angeli BILL KATZ (2000), New Technologies and Reference Services, New York, Haworth Information Press Knowledge Technologies 2003-2004, Technical Background, v1 16 October 2002 ICT: le figure professionali, Rapporto FEDERCOMIN-ANASIN (2000), Roma, Federcomin MARSHALL MCLUHAN (1986), Gli strumenti del comunicare, Milano, Garzanti MARSHALL MCLUHAN (1987), Dal cliché all’archetipo, l’uomo tecnologico nel villaggio globale, Milano, SugarCo FABIO METITIERI, RICCARDO RIDI (2002), Biblioteche in rete: istruzioni per l’uso, Roma-Bari, Laterza MARVIN MINSKY (1989), La società della mente, Milano, Adelphi PAOLA COSTANZO CAPITANI (1999), Multilingualism and Terminology – the Problem of Communication and Thesauri in the EU, in Norma internazionale ISO 2788. Documentazione - Linee-guida per la costruzione e lo sviluppo di thesauri monolingui (1996), Milano, UNI 244 245 Norma internazionale ISO 5964. Documentazione - Linee-guida per la costruzione e lo sviluppo di thesauri multilingui. Prima edizione 15 II 1985 (1990), Traduzione in italiano con integrazioni all’apparato esemplificativo ed indice trilingue dei termini tecnici, Firenze, BDP CORRADO PETRUCCO (2002), Costruire mappe per cercare in rete: il metodo Sewcom, in “Tecnologie Didattiche”, n. 25 ENRICO PULCINI (1998), Internet e la stampa quotidiana, Roma, Castelvecchi ENRICO PULCINI (1999), Dopo Internet. Storia del futuro dei media interattivi. L’informazione personalizzata, il commercio elettronico, la televisione digitale, il teleputer, Roma, Castelvecchi RICCARDO RIDI (1996), Internet in biblioteca, Milano, Editrice Bibliografica ALESSANDRO SARDELLI (2002), Dalla certificazione di qualità alla qualità totale, Milano, Editrice Bibliografica Semantica e terminologia nei portali. Tavola rotonda, Firenze 11-12 Dicembre 2000, a cura di Paola Capitani, Firenze, FUP, 2002, accessibile su Internet al sito http://biblio.unifi.it/documents/archivio1/00/00/01/55/index.html GUGLIELMO TRENTIN (2001), Dalla formazione a distanza all’apprendimento in rete, Milano, Franco Angeli Note 1 Consulente e formatrice per sistemi informativi, autrice di saggi, articoli, unità didattiche di formazione a distanza, attualmente coordina il gruppo di lavoro ‘Semantica e terminologia nei portali’ (http://www.indire.it/websemantico), dove sono attivi i link e il forum con gli enti italiani e stranieri impegnati sul versante della semantica e della terminologia. 2 Svoltosi a Roma presso il CNR, il 17 dicembre 2002. 3 Tom Davenport, Larry Prusak, Know what you know, in “CIO Magazine” (http://www.brint.com/km/whatis.htm). 4 http://www.indire.it/websemantico è il sito di riferimento dove trovare informazioni, link, forum sulle tavole rotonde già realizzate dal 2000 ad oggi e soprattutto gli aggiornamenti in corso. Il sito è anche in lingua inglese ed è in continua revisione. Le aree attualmente interessate sono: Ambiente, Diritto, Economia, Educazione/Formazione, Moda, Salute e Sanità, Terminologia. 5 http://www.cordis.lu/fp6/; http://www.cordis.lu/ist/ka3; http://www.ktweb.org; per informazioni [email protected] e [email protected]. 6 Information and Communication Technologies. 7 http://www.ifla.org. 8 http://www.feife.dk. 9 Per ulteriori informazioni sul progetto consultare: Knowledge technologies reflection group. 15-16 May 2002, Luxembourg. http: //www.cordis.lu/ist/fp6/workshops.htm e Knowledge Technologies – Perspectives for 2012. An EU Expert Workshop. Luxembourg, 27-28 June 2002, http://www.cordis.lu/ist/ka3/. Sulle Knowledge Technologies sono state inviate nell’estate 2002 numerose proposte tra le quali su: web semantico, servizi di intelligenza Web, servizi e trattamento della conoscenza, processi industriali, vedere in merito http: //www.cordis.lu/fp6/eoi-analysis.htm. 10 Manifesto su Internet dell’IFLA approvato dal Governing Board dell’IFLA il 1 maggio 2002, http://ww.ifla.org/III/misc/im-e.htm 246 247 Il laboratorio doveva essere aperto, fungere da teatro della persuasione, e allo stesso tempo fu pensato come uno degli spazi più regolamentati nella “cultura della non cultura”. Donna Haraway, Testimone_Modesta@FemaleMan_incontra_oncotopo Comunicazione pubblica e consapevolezza Comunicare la scienza per partecipare la scienza Adriana Valente Consiglio Nazionale delle Ricerche Istituto di ricerche sulla popolazione e le politiche sociali, Roma Comunicazione scientifica, trasmissione e accesso Le teorie e pratiche della comunicazione pubblica della scienza raccolgono al proprio interno diversi modi di concepire il rapporto scienza-società. I modelli che si sono sviluppati nel corso del tempo, e che tuttora coesistono, sono ispirati alle diverse accezioni di comunicazione: trasmissione lineare ed unidirezionale di informazione scientifica, e condivisione di conoscenza, che presuppone la messa in comune di una molteplicità di punti di vista, di percezioni e di saperi. La tensione tra trasmissione mirata (lineare, specialistica) dell’informazione scientifica ed accesso nel senso di partecipazione al processo di creazione e sviluppo delle conoscenze (Valente 2002a, p. 30) ha subito fasi alterne non solo nell’ambito specifico della comunicazione pubblica della scienza, ma anche, più in generale, nelle teorie dell’informazione e documentazione scientifica. In un’ottica centrata sull’accesso, la «décentralisation du savoir» (Les prémisses, 1995, p. 51) si basava sul presupposto che 251 «tout travailleur scientifique et tout lecteur» fossero parte integrante de «l’Humanité pensante»1. Per tutto il corso del secolo passato (Trasmissione d’élite o accesso alle conoscenze?, 2002) in Europa come in America, iniziative e proposte volte a migliorare il sistema di trasmissione di conoscenze scientifiche si sono alternate a riflessioni sul rischio di «aliénation culturelle» insito nel lasciare a pochi la predisposizione di «mémoire collective» (Nora, Minc, 1978). A più di un secolo di distanza le aspirazioni dei primi documentalisti – internazionalisti e pacifisti – se non sono ancora completamente realizzate, non sono più considerate ‘cattive utopie’ (Fumagalli, 1986). Partendo dalla riflessione sulla «Babele dei saperi» (Prattico, 2001), una recente prospettiva è quella che vede la «banalizzazione dei saperi» proprio nella «produzione di saperi incapaci di generare cultura diffusa» (Greco, 2000). L’evoluzione delle teorie e pratiche della comunicazione pubblica della scienza si distingue da quella della documentazione scientifica per la specificità di un presupposto di base: almeno uno dei poli della relazione comunicativa è costituito, per definizione, da un pubblico generico o comunque laico, di non scienziati. Tuttavia, ciò non basta a collocare tutta la comunicazione pubblica della scienza nella sfera dell’accesso alle conoscenze; la dicotomia tra la trasmissione lineare ed unidirezionale rispetto all’accesso alle conoscenze si pone anche nei modelli di comunicazione della scienza2 ed attiene ai livelli di specializzazione-interdiciplinarietà, al tipo di progetto comunicativo – mass mediatico, inserito nella formazione di base, nell’aggiornamento, nella pianificazione di percorsi culturali – e, soprattutto, ai presupposti teorici, sociologici e filosofici, che sostanziano le diverse teorie ed i progetti. 252 Questioni di supporto e fiducia alla base del deficit model Sebbene iniziative di comunicazione pubblica della scienza siano state intraprese in diverse fasi storiche (McLaughlinJenkins, 2003), è di qualche decennio fa l’avvio di una riflessione sistematica sul Public understanding of science (Pus)3. Il Pus si è andato originariamente costituendo sul presupposto della stretta relazione che ci dovrebbe essere tra conoscenza scientifica e supporto alla scienza, e si è basato sulla considerazione che il pubblico è scientificamente illetterato, e ciò costituirebbe la causa della crisi del rapporto scienza-società; sarebbe necessario, dunque, dare al pubblico maggiore informazione scientifica affinché ci si possa attendere un maggiore sostegno alla scienza. Brian Wynne ha chiamato questo approccio deficit model (Wynne, 1991), in quanto volto a rilevare la misura del deficit di conoscenze nel pubblico, dunque, in fin dei conti, la misura della sua inadeguatezza. Da simili premesse parte l’economic model, che in più evidenzia l’importanza del consenso per lo sviluppo economico (Rask, 2004). Tuttavia, già dal 1991, Ziman aveva evidenziato la complessità del rapporto tra understanding e supporto alla scienza (Ziman, 1991): questi vanno di pari passo se si considerano le applicazioni utili della scienza, quali i computer; si potrebbe dire, utilizzando le parole di Bruno Latour, che vanno di pari passo se si fa riferimento alla «scienza confezionata» (Latour, 1998). Vanno in direzioni divergenti se si considerano questioni scientifiche che possono sollevare conflitti etici, ad esempio la ricerca su embrioni umani; in altre parole, se si considera la ‘scienza in divenire’, fortemente connessa con questioni di natura economica, sociale e culturale. Dunque, il Pus si è affermato per fornire una risposta, in termini di trasmissione di expertise scientifica, alla lacuna, al deficit di conoscenze del pubblico. Ma si è affermato anche in quanto ricerca di supporto e consenso alla scienza ufficiale ed 253 alle sue applicazioni, supporto e consenso che, se sembravano necessari, non potevano più essere dati per scontati. Ciò muoveva implicitamente dalla presa d’atto della crisi di fiducia in una scienza garante di razionalità e di verità e dei rischi connessi alle applicazioni tecnologiche, a volte percepiti come non facilmente bilanciabili, né direzionabili, né controllabili. L’imprevedibilità degli esiti della scienza, un tempo vezzo da laboratorio, è stata successivamente vissuta come una minaccia oscura. La tecnologia (molti autori parlano di tecnoscienza) dinamica, potente, imprevedibile è stata dunque contrapposta alla natura materna, saggia, sicura. Tuttavia, le conseguenze negative di questi fenomeni sul rapporto scienza-società sembrano circoscritte, bilanciate dal legame di fiducia che ancora lega la società a scienziati e scienziate sia come fonti d’informazione attendibile, che come principali interpreti del processo decisionale sulle applicazioni della scienza e tecnologia. Molti autori ritengono che sia da superare l’oppositività tra scienza e natura: «nature, contrary to the appearance, is a political animal» secondo Latour (Latour, 2001); anche Lévy aveva di fatto aggirato questa oppositività nella sua ricostruzione dei quattro spazi – la terra, il territorio, lo spazio delle merci, lo spazio del sapere (Lévy, 1996). In tutte le indagini nazionali ed internazionali traspare una certa fiducia nella scienza da parte della società, contemperata, ma non contraddetta, da una richiesta di regole etiche e, soprattutto, di maggiore comunicazione da parte degli scienziati. I risultati dell’Eurobarometro sulla scienza e tecnologia (European Commission, 2001) mostrano che la gran parte degli europei ritiene che gli scienziati dovrebbero informare meglio i cittadini sui possibili rischi e, comunque, che dovrebbero comunicare meglio la loro conoscenza scientifica. Alcuni dati interessanti vengono dal progetto “Percezione e consapevolezza della scienza”4, ed in particolare dall’indagine CNR sugli Ogm (Valente, Cerbara, 2003; Avveduto, Azzaro, Ferraria, Reale, Valente, 2003); la gran parte degli studenti delle scuole secondarie superiori e dell’Università di Bologna coinvolti nell’indagine, oltre ad aver considerato la comunità scientifica come la fonte più autorevole di informazioni nel settore, ha ritenuto che le decisioni sull’uso delle applicazioni nel settore delle biotecnologie dovrebbero essere prese dagli scienziati. Gli studenti hanno fatto riferimento in primo luogo, come era prevedibile, agli scienziati dei settori direttamente coinvolti (ad esempio genetisti ed agronomi), ma anche, come seconda opzione, alla comunità scientifica in senso lato, tra cui erano stati esplicitamente indicati studiosi di filosofia, etica, storia e sociologia della scienza; ciò fa pensare che si ha fiducia nell’intervento a livello decisionale di scienziati/e non solo in quanto esperti-tecnici, ma anche, in una visione unitaria delle scienze, in quanto soggetti che collaborano alla riflessione critica sulla scienza e tecnologia. Tale compito non è lasciato però solo agli uomini ed alle donne di scienza; come terza opzione, è stata indicata la partecipazione di tutti i cittadini al processo decisionale: ciò mostra, accanto alla continuità del legame di fiducia verso gli scienziati e le scienziate, anche l’affermarsi di un desiderio di partecipazione che va oltre la mediazione politica ed istituzionale e che non si accontenta di una delega al sistema scientifico. Insomma, non ci si accontenta di trasmissione, ma si richiede anche accesso in quanto ‘condivisione di risultati’, in quanto possibilità che individui anche esterni ad una comunità scientifica siano «parte attiva nel processo di creazione e sviluppo delle conoscenze e, conseguentemente, di controllo e verifica» (Valente, 2002a, p. 30). 254 255 Sfera del sociale e contextual model Se, dunque, il rapporto di fiducia tra le persone comuni e la scienza non è del tutto compromesso, l’interesse alla crescita del dibattito pubblico nei settori scientifici non va necessaria- mente ricercato nel desiderio di contrastare, seguendo «sirene irrazionalistiche» (Viale, 2003), la conoscenza esperta o di svuotarla di autorevolezza, come paventano alcuni autori; sembra che la vera novità sia la consapevolezza del fatto che la ‘scienza in divenire’, molto più di quella già consolidata, coinvolge un insieme di questioni economiche, sociali, etiche, non più solo ‘tecnico-scientifiche’. Questa consapevolezza è diffusa anche nell’opinione pubblica, quanto meno a livello di tacit understanding. Non si tratta, in questa fase, di disquisire sul fatto che la scienza sia o meno socialmente costruita, quanto di considerare quali aspetti, oltre a quelli strettamente scientifici, siano a questa intimamente collegati nella rappresentazione sociale della scienza e della tecnologia e siano o vadano coinvolti nei processi deliberativi di una società complessa. Secondo alcuni autori, sostenitori del contextual model, questo mondo sommerso che sta attorno ai processi di creazione e diffusione di conoscenza scientifica deve essere reso maggiormente visibile alla collettività affinché tutti possano acquisire «a clearer idea of the potentials and limitations of the new wonders science is proclaming» (Miller, 2001). Miller auspica un dialogo all’interno del quale scienziati e scienziate presentino la verità scientifica, mentre la collettività si faccia portatrice di conoscenza locale, comprensione ed interesse nei problemi da risolvere. Il modello proposto coglie alcuni aspetti importanti, anche se non è facilmente configurabile una situazione in cui conoscenze scientifiche e conoscenze locali, oltre a coesistere, si pongano sullo stesso livello. Stante, comunque, un’aumentata domanda, ed un’aumentata aspettativa, di partecipazione, le iniziative di public understanding of science vengono affiancate da quelle di partecipazione pubblica – public participation, quali consensus conference e giurie di cittadini, in cui viene attribuito anche un ruolo deliberativo ai gruppi coinvolti – e, a livello comunitario, si discute delle possibili forme di valorizzazione del contesto e del locali- smo, nonché del contributo dei laici al dibattito scientifico. Gruppi di interesse e pubblico in genere cominciano ad essere considerati anche all’interno di quella parte del technology assessment che, più che predire l’impatto di una tecnologia, si propone, in una logica adattativa, di massimizzare i benefici potenziali e di minimizzare le possibili conseguenze negative delle tecnologie. L’organizzazione di gruppi di lavoro, panel di cittadini ed altri strumenti di partecipazione pubblica consente di promuovere il dibattito nei gruppi e con gli esperti su una determinata questione tecnologica e di cogliere il punto di vista dei laici (Davison, Barns, Schibeci, 1997; Einsiedel, 2002). Sembra che questa aspettativa di partecipazione non sia limitata agli ambiti della documentazione e comunicazione della scienza, ma si estenda al modo di rapportarsi col sociale e di esprimere la volontà di deliberare sui diversi aspetti della cultura e della società. Fenomeni di lungo periodo si incrociano con quelli di breve periodo, tendenze internazionali con quelle nazionali. L’interesse per le questioni pubbliche e l’apertura alla sfera del sociale, che anche nella società italiana avevano avuto una contrazione negli ultimi decenni, sembrano, a detta di molti commentatori, in una fase nuovamente espansiva (Diamanti, 2004; Meghnagi, 2004). Tutto ciò ha notevoli conseguenze sul modo in cui la collettività percepisce il proprio ruolo e quello di scienziati e scienziate, e sul modo in cui politici e amministratori cominciano a vedere le diverse funzioni che possono essere svolte dalla collettività o dai suoi gruppi attivi. Dal punto di vista della collettività, si profilano spazi di dibattito in cui ogni parte del sistema sociale si può sentire interessata o coinvolta ed in cui le conoscenze tecnico-scientifiche si intrecciano con questioni interdisciplinari di più vasta portata; rispetto a queste ultime, i diversi gruppi di interesse scientifico, politico, economico o sociale possono dirsi legitti- 256 257 mati ad esprimersi con autorevolezza, e ad agire di conseguenza con responsabilità, solo con riferimento a specifiche questioni, ma non alla globalità dei fenomeni. La specializzazione che è derivata dallo sviluppo delle scienze fa sì che, nelle questioni di ‘scienza in divenire’, scienziati e scienziate – esperti ed autorevoli su ambiti definiti – siano portatori di conoscenza laica per buona parte delle questioni tecnico scientifiche collegate al proprio settore di ricerca. Dunque, non basta far parte a pieno titolo della comunità scientifica, ma occorrerebbe far parte contemporaneamente di tutte quelle comunità scientifiche che, di volta in volta, hanno l’autorità di essere portatrici di verità, il che non è facilmente configurabile. Ciò non vuol dire squalificare l’expertise scientifica ed il suo ruolo, ma riconoscere l’importanza ed i confini del contributo, a volte concorrente ed a volte conflittuale, dei diversi ambiti disciplinari che devono concorrere nell’analisi di un fenomeno; rispetto a ciascuno di questi, il resto degli scienziati rappresenta, se non il pubblico indiscriminato, un’élite culturale, ma non il gruppo portatore di conoscenza autorevole. Ad esempio, il punto di vista degli epidemiologi e dei medici non coincide con quello degli ingegneri sul tema dell’inquinamento da campi elettromagnetici, anche se facciamo riferimento solo alla scienza ufficiale o prevalente. In un articolo di commento all’intervento di Latour al Politecnico di Milano5, Mauro Scanu ribadisce che nella ‘società del rischio’ ogni gruppo o individuo controlla una fetta di sapere e «detiene una parte di responsabilità nel funzionamento dell’intero meccanismo». E questa responsabilità non può prescindere dal controllo democratico (Scanu, 2004). Simile ragionamento va fatto per le diverse componenti del settore scientifico. 258 Modalità di partecipazione al dibattito scientifico La volontà di partecipare al dibattito pubblico si concretizza anche nel riappropriarsi di alcune scelte; il 94% degli europei, ad esempio, ha dichiarato di voler avere il diritto di scelta rispetto agli organismi geneticamente modificati (Ogm)6, a prescindere dalla posizione assunta sul tema specifico; si tratta quindi di una richiesta di partecipazione al processo decisionale, che prescinde dal contenuto, dall’essere favorevoli o meno agli Ogm (European Commission, 2001). L’indagine che il CNR ha svolto nell’ambito del progetto “Percezione e consapevolezza della scienza” ha evidenziato che un numero considerevole di studenti ritiene che tutti i cittadini debbano partecipare in qualche modo al processo decisionale circa l’uso delle applicazioni scientifiche. La molteplicità dei fattori coinvolti nella riflessione sugli usi e sulle applicazioni della scienza e tecnologia, nonché sui valori coinvolti, nel moltiplicare i portatori di interesse e le competenze utilizzabili, dà attualità all’affermazione di Lévy per cui «ognuno ha qualcosa da scambiare oltre i saperi ufficialmente riconosciuti» (Lévy, 1996). In queste condizioni, la tradizionale linea di demarcazione tra credenze e conoscenze – che nel Seicento è stata un atto fondante della modernità, decretando la separazione tra tecnica e politica ed eliminando l’autorità della trascendenza nei fatti di scienza – assume diverse sfumature nella odierna complessità delle relazioni tra scienza, economia, politica e società. Alcune situazioni limite presentate in letteratura (EvansPritchard, 1937; Bloor, 1976; Hutchins, 1980; Hounshell, 1975; Luria, 1976) e riassunte da Latour (Latour, 1998) rendono ancora più ardua la separazione tra credenza e conoscenza, soggettività ed oggettività, così come la distinzione tra cosa è irrazionale e cosa è razionale7. Se, dunque, le questioni scientifiche rientrano in un più vasto 259 sistema di fatti culturali – Latour parla di «Parlamenti ibridi umani e non umani» (Latour, 2001) –, l’importanza del coinvolgimento sociale è fondamentale non solo in quanto eventuale sostegno al finanziamento di questa o quella linea di ricerca o applicazione scientifico-tecnologica (come era implicito presupposto del deficit model e del modello economico), né solo in quanto valore aggiunto di conoscenza locale e contestuale, ma in quanto condizione per il mantenimento dell’intero sistema sociale. Gli obiettivi delle amministrazioni pubbliche e comunitarie per il coinvolgimento sociale nella definizione e presentazione delle politiche, e delle politiche scientifiche in particolare, nonché le modalità ed i termini di questo coinvolgimento, rientrano nelle questioni di governance e di scientific governance. La governance attiene alle relazioni fra amministrazione e cittadini, considerati sia singolarmente, sia come gruppi, con riferimento ad un’ampia gamma di aree di interesse, dall’elaborazione di politiche pubbliche all’offerta e al consumo di servizi collettivi. Gli obiettivi principali sono il miglioramento delle politiche stesse ed il consolidamento del legame di fiducia con i cittadini. I principali organismi internazionali, tra cui l’Unione Europea e l’OECD, già da alcuni anni si stanno interessando alle questioni di governance ed hanno prodotto un insieme articolato di documenti che fornisce importanti contributi alle riflessioni sulla relazione scienza-società. Il libro bianco La governance europea (Commissione delle Comunità Europee, 2001) nell’incoraggiare «a una nuova apertura e responsabilizzazione delle parti in causa», elenca i cinque principi alla base della buona governance: apertura (al grande pubblico), partecipazione (dalla prima elaborazione all’esecuzione di politiche), responsabilità (e definizione chiara dei ruoli), efficacia, coerenza. Tali principi, essenziali per «una governance più democratica», vanno applicati «a tutti i livelli di governo». Per democratic governance, in particolare, si intende il rafforza- mento dell’accesso dei cittadini all’informazione, alle consultazioni e alla partecipazione all’elaborazione delle politiche pubbliche. Il manuale dell’OECD sulla governance (OECD, 2002) esplicita il fatto che la partecipazione presuppone una previa attività di divulgazione, formazione ed informazione del pubblico; il dibattito politico, dunque, va supportato con procedure che, su vasta scala, assicurino il raggiungimento della pubblica consapevolezza, forniscano adeguata valutazione scientifica e presentino opportunità di consultazione del pubblico. Tra i documenti preparatori al libro bianco La governance europea c’è quello del gruppo di lavoro sulla democratizzazione dell’expertise ed i sistemi scientifici (Working Group Democratising Expertise and Establishing European Scientific Reference Systems, 2001), in cui si sottolinea il potere della conoscenza esperta ed il ruolo degli esperti come attori chiave di governance. Siamo testimoni di questo paradosso: l’expertise è sempre più ricercata per il policy making e le scelte sociali, ma è sempre più contestata. La sua credibilità non può essere alimentata semplicemente attraverso un processo di educazione del pubblico, bensì agendo sulla trasparenza e sulla cooperazione, sostenendo il dialogo tra esperti, pubblico e decisori pubblici. Democratizzare l’expertise attiene al modo in cui questa è sviluppata, usata e comunicata. Diverse sono, però, le accezioni di scientific governance; non sempre la partecipazione di forze e di competenze esterne rispetto a quelle scientifiche è ritenuta opportuna. Riccardo Viale identifica la scientific governance con il «ruolo degli esperti scientifici nella formazione delle decisioni pubbliche in varie materie, dalla salute, all’ambiente, alla sicurezza tecnologica» (Viale, 2001); è necessario, secondo l’autore, coerentemente con la concezione veritista della conoscenza di Goldman, «salvaguardare l’autonomia scientifica dalle influenze inquinanti di tipo ideologico e politico». Da un diverso punto di vista si pongono coloro che saluta- 260 261 no positivamente «the new alliance between science, citizens and society» e ritengono che «public inputs to policy debates are not merely opinions, but may be relevant knowledge, values or questions which scientists have neglected» (European Commission, 2000). L’idea che lo scienziato dica semplicemente «come funzionano le cose» (Habermas, 1985), implica una visione idealizzata della sua attività e dei presupposti che la guidano, oltre a dare per scontata la possibilità di isolare un mondo oggettivo ed un agire solo razionale, avulso dal contesto ambientale, sociale, soggettivo (Valente, 2002b). La retorica del «testimone modesto» (Haraway, 2000, p. 63), dello stile di scrittura ‘spoglio’, ma in quanto tale ‘fattuale’ ed ‘autorevole’, consentiva di offrire il fatto scientifico così come si era rivelato in laboratorio, senza orpelli stilistici estranei al mondo della razionalità. Questo ruolo e questa figura di scienziato sono ormai fuori dalla nostra esperienza: nel mondo scientifico è rinvenibile una buona dose di agire strategico (teleologico, nel linguaggio di Habermas), accanto a quello più direttamente comunicativo. Ciò riguarda sia i contenuti che la forma. Gli scienziati fanno sempre più ricorso a stratagemmi comunicativi tra cui metafore e – spesso ardite – analogie, per esprimere il proprio pensiero, per indicare percorsi di ricerca (Keller, 1996) e per con-vincere il pubblico. E ciò a prescindere dal voler considerare, come fa Latour, l’articolo scientifico o il sistema delle citazioni come nuovi strumenti della retorica (Latour, 1998, pp. 42 sgg.); in questo caso, ogni controversia scientifica verrebbe vista come una questione di rapporti di potere, in cui si riconosce validità ad un enunciato quando mancano le forze per opporvisi (Flichy, 1996, p. 101). Non vengono qui presi in considerazione gli aspetti centrali della contrapposizione tra costruttivismo e realismo, e cioè la disquisizione di quanto gli scienziati siano coinvolti dal sistema della cultura e quanto questo incida nella relazione tra premesse e risultati scientifici. Esiste in ogni caso, dietro le quinte della ricerca scientifica, tutto un mondo di teorie scientifiche che si contrappongono, di sperimentazioni scientifiche che si affiancano e si fronteggiano, che non ha ancora subito i processi di bilanciamento – scientifici o sociali che siano – in seguito ai quali si giunge al riconoscimento ed alla stabilizzazione – almeno per un certo periodo di tempo – di conoscenza ufficiale e dunque autorevole. Il problema è che le applicazioni e le tecnologie sono già pronte prima che il dibattito scientifico sia giunto ad un livello di maturazione tale da far parlare di scienza consolidata: ci muoviamo nella tecnoscienza, per l’appunto, in cui non è più facilmente rinvenibile un prima di teoria scientifica ed un dopo di applicazione tecnologica. Latour porta queste considerazioni alle estreme conseguenze laddove sostiene che tutti partecipiamo, consapevoli o meno, ad esperimenti collettivi o socio-tecnici: la sperimentazione supererebbe i confini di laboratorio ed entrerebbe nella nostra vita di ogni giorno, soprattutto in materia ambientale e sanitaria. Ma allora sarebbe necessario che la società o i gruppi di interesse potessero dare il loro consenso informato e monitorare tali sperimentazioni; inoltre, il concetto stesso di democrazia in Europa andrebbe ripensato (Latour, 2001). La grossa novità degli ‘esperimenti collettivi’ non sembra però risiedere, come vorrebbe Latour, nel fuoriuscire di questi esperimenti dal laboratorio, fatto che si era in parte realizzato nello spazio pubblico ‘ad accesso ristretto’, ‘teatro della persuasione’, dell’epoca di Boyle (Haraway, 2000), quanto nella mancanza di regole e, in ultima analisi, nella coincidenza di esperimento con esperienza di persone e gruppi sociali. 262 263 Problemi di scienza e tecnologia ed esperienze di comunicazione Per tutti questi motivi è particolarmente indicato che i progetti di comunicazione della scienza contribuiscano a sostenere il dibattito pubblico nella fase in cui i diversi aspetti culturali interagiscono tra di loro nel ‘calderone disordinato’ della ‘scienza in divenire’. È in questa fase che i diversi approcci scientifici, a volte conflittuali, si fronteggiano, evidenziando quanto sia limitato ed insoddisfacente il classico modello di comunicazione pubblica della scienza, modello lineare ed unidirezionale per cui alla società arriva l’eccessiva semplificazione di un fatto scientifico, mentre la pluralità delle teorie scientifiche e degli apporti disciplinari, le diverse interpretazioni, restano fuori dalla portata del pubblico. Nei progetti promossi dal Consiglio Nazionale delle Ricerche in collaborazione con il British Council e la Fondazione Rosselli sulla percezione e consapevolezza della scienza, si è cercato di sperimentare un modello, o meglio, un’articolazione di modelli, che desse concretezza alle questioni sollevate in questo lavoro. Un obiettivo dei progetti è stato quello di riportare la ricchezza e l’articolazione del dibattito scientifico, e dei temi e problemi da questo sollevati, dentro la comunicazione pubblica della scienza. Questo obiettivo ha segnato le diverse fasi dei progetti, a partire dalla predisposizione della documentazione scientifica raccolta e fornita agli istituti scolastici ed universitari coinvolti. La predisposizione di documentazione scientifica ha costituito una fase particolarmente delicata del progetto in quanto tale documentazione, illustrata ed integrata dai docenti, avrebbe costituito la prima presa di contatto delle scuole con l’argomento in questione: solo successivamente a questa fase ed al dibattito nei gruppi, gli studenti si sarebbero confrontati con gli esperti del settore. Per maggiore garanzia di onnicomprensività e di trasparenza, la documentazione scientifica, individuata anche su segnalazione degli esperti coinvolti, è stata selezionata secondo diversi criteri, ma soprattutto in maniera da contemperare i diversi punti di vista, le diverse sensibilità scientifiche sull’argomento8. Si è voluto in tal modo evitare che la tensione tra diverse opinioni a volte conflittuali, connaturale al pensiero scientifico oltre che alla sua evoluzione, venisse messa da parte, confinata al dibattito tra specialisti. Si è ritenuto, infatti, che nel comunicare la scienza la semplificazione vada senz’altro ricercata nel linguaggio, ma non nella rimozione delle componenti critiche, problematiche, interdisciplinari. Parlare di scienza non deve identificarsi con la prassi di «comunicare certezze, non sollevare interrogativi», come Cini ha evidenziato (Cini, 1997). È opinione diffusa che l’introduzione di conoscenze scientifiche incerte o contraddittorie possa ulteriormente allontanare dalla scienza, possa contribuire ad assottigliare quel legame di fiducia che collega il mondo della scienza alla società civile. Ebbene, alcuni studi stanno dimostrando il contrario (Doble, 1995; Frewer et al., 2002; Kahlor, Dunwoody, Griffin, 2002). Sembra che sia proprio la mancata partecipazione a fare escogitare forme di resistenza, anche alla scienza (Greco, 2000). Analizzando i dati del questionario finale compilato dagli studenti nella prima indagine del progetto “Percezione e consapevolezza della scienza” abbiamo potuto rilevare che, tra gli studenti – la quasi totalità – che hanno dichiarato di avere acquisito maggiori conoscenze in seguito alla partecipazione al progetto, una quota piccola ma non trascurabile ha dichiarato di avere acquisito maggiori dubbi, più che maggiori certezze sull’argomento («maggiore interesse» è stata l’opzione scelta dalla grande maggioranza). Dunque, gli studenti hanno accostato la maggiore conoscenza soprattutto all’accresciuto interesse, in diversi casi alle maggiori certezze e talvolta ai maggiori dubbi, mostrandosi svincolati dal modello tradizionale della divulgazione che si incentrava sulla somministrazione di pillole di conoscenze certe. 264 265 Un altro presupposto importante del progetto “Percezione e consapevolezza della scienza” è stato la centralità del dibattito all’interno dei gruppi; dalla discussione e comunicazione nel gruppo (la classe così come il corso universitario) emergono delle dinamiche tali da far crescere, da far consolidare nuove conoscenze, del tipo di quelle definite come tacit understanding oppure come «collective wisdom» (Condit, Parrott, Harris, 2002), non necessariamente espresse in un corretto linguaggio scientifico, ma tali da consentire ai gruppi di partecipare in maniera più attiva e consapevole al confronto con gli esperti. Tale confronto, nei progetti CNR-British Council, ha luogo principalmente in occasione della partecipazione alla conferenza ed al dibattito pubblico che seguono l’avvio del lavoro di studio e di dibattito entro i gruppi. Il dibattito nelle classi, sotto la guida dei/delle rispettive docenti, costituisce la fase centrale del processo deliberativo dei gruppi, che confluisce nella redazione di un rapporto finale di ogni classe o istituto. Questo processo include le tre componenti di una deliberazione: stabilire qualcosa, quindi prendere posizione; da parte di più persone riunite insieme; dopo un attento esame, quindi dopo aver seguito le diverse fasi di studio, riflessione, confronto e dibattito. Una ulteriore finalità del progetto è stata quella di stimolare la riflessione non solo sul tema scientifico contingente – gli Ogm, l’elettrosmog – ma anche sulla natura ed i valori della scienza: ed infatti, i questionari che studenti e studentesse hanno compilato all’inizio e alla fine di ogni progetto sono rivolti più a registrare e stimolare la riflessione sulle modalità di relazione con la scienza e la tecnologia, sulla percezione della natura della scienza moderna, che non a misurare il livello di conoscenza, di alfabetizzazione scientifica. Le attività di formazione ed informazione volte ad innalzare il livello di conoscenza ovviamente sono state considerate dai progetti in quanto sono senz’altro premesse indispensabili per un coinvolgimento nella scienza, tanto più che i nostri progetti si inseriscono nell’attività formativo-didattica delle scuole superiori ed università, ma non sono state oggetto privilegiato delle indagini realizzate con i questionari. Queste ultime, invece, hanno fatto leva sulla consapevolezza della natura della scienza moderna e dei suoi valori, sollecitando i giovani a riflettere anche sulle vecchie e nuove questioni dell’universalità della conoscenza scientifica, sul ruolo del mercato, sul significato da dare al principio di precauzione e sulla velocità del progresso scientifico. I progetti di comunicazione pubblica della scienza possono essere ispirati alle più diverse finalità e realizzati in diversi modi e coinvolgendo diverse tipologie di persone e gruppi9. Se dunque molteplici possono essere i contributi nella direzione della partecipazione al dibattito pubblico, ogni progetto difficilmente può fornire una metodologia esportabile nei diversi contesti: il progetto “Percezione e consapevolezza della scienza” non fa eccezione a questa regola e, se vale la pena evidenziarne i risultati, particolarmente importante è anche la riflessione sui problemi aperti. Una questione ancora aperta è la funzione di agenda setting che, inevitabilmente, chi opera nella comunicazione pubblica della scienza concorre a produrre. Klein (1985) negli anni Ottanta aveva colto l’importanza dell’individuazione del quesito scientifico da risolvere, che andava ben oltre la capacità di risolverlo. Latour ha evidenziato come non siano più solo gli scienziati ad individuare problemi ed a cercare soluzioni, bensì anche i gruppi portatori di interessi, ad esempio le associazioni di malati. Come possono i progetti di comunicazione della scienza non condizionare le priorità che gruppi ed individui sociali pongono nella partecipazione al dibattito pubblico? Come evitare, non solo i rischi di una strumentalizzazione per quanto riguarda una presunta partecipazione pubblica non ancora definita nelle sue finalità né nelle sue 266 267 condizioni di efficacia, ma anche quelli di una forzatura nell’identificazione dei temi scientifici socialmente rilevanti? Un’ulteriore questione riguarda direttamente i progetti che, come quelli promossi dal CNR, uniscono finalità formative/informative a quelle di indagine o di sondaggio. Focalizzandoci sulla metodologia ed astraendo dal contenuto scientifico, vengono subito in mente gli esperimenti di sondaggio deliberativo (Fishkin, 2003), in cui gruppi di persone si riuniscono per ascoltare le argomentazioni a favore o contro una determinata questione e dopo averne discusso faccia a faccia, giungono ad una decisione collettiva. L’obiettivo di incoraggiare il pubblico ad esprimere giudizi ponderati invece di decisioni affrettate, a pensare più che a fare sentire la propria voce, è sicuramente condivisibile. Tuttavia, alcune conclusioni di Fishkin, ad esempio trasmettere i sondaggi deliberativi in televisione per trasformare le priorità del pubblico in genere in priorità del pubblico impegnato, possono essere del tutto fuorvianti. L’eccessiva enfatizzazione di forme pur sempre sperimentali e soprattutto parziali di partecipazione pubblica sottende rischi di distorsione se non di strumentalizzazione. Inoltre, la disponibilità a partecipare a questi progetti risente di un insieme di condizionamenti (territoriali, culturali, di genere) non ancora analizzati in profondità e tali che il pubblico impegnato potrebbe risolversi in un pubblico integrato, in linea non solo con i contenuti, ma anche con le priorità determinate dai modelli sociali e culturali dominanti. Bibliografia SVEVA AVVEDUTO, ROSALIA AZZARO, LUCINA FERRARIA, EMANUELA REALE, ADRIANA VALENTE (2003), Accesso alle conoscenze scientifiche: primi risultati del progetto Public Understanding of Science, in Aida venti, Atti del 7° Convegno nazionale Aida, a cura di Carla Basili, Domenico Bogliolo, Roma, Aida DAVID BLOOR (1994), Knowledge and Social Imagery, London, Routledge & Kegan Paul, 1976 (trad. it. La dimensione sociale della scienza, Milano, Raffaello Cortina) BODMER REPORT (1985), The public understanding of science, London, Royal Society MARCELLO CINI (1997), Garantire la trasparenza, in Scienza e informazione, a cura di Jader Jacobelli, Roma-Bari, Laterza MICHAEL COLE, SYLVIA SCRIBNER (1974), Culture and Thought: A Psychological Introduction, New York, Wiley COMMISSIONE DELLE COMUNITÀ EUROPEE, La governance europea: un libro bianco, Bruxelles, 25-7-2001, COMM 2001 428 CELESTE MICHELLE CONDIT, ROXANNE PARROTT, TINA M. HARRIS (2002), Lay Understandings of the Relationship between Race and Genetics: Development of a Collectivised Knowledge through Shared Discourse, in “Public Understanding of Science”, n. 11 AIDAN DAVISON, IAN BARNS, RENATO SCHIBECI (1997), Problematic Publics: A Critical Review of Surveys of Public Attitudes to Biotechnology, in “Science, Technology and Human Values”, 22, n. 3 ILVO DIAMANTI (2004), Felicità e infelicità privata, Relazione introduttiva al convegno 1994-2004: il pendolo tra speranza e disincanto, Roma, Università di Roma Tre, 20 gennaio 2004 JOHN DOBLE (1995), Public Opinion about Issues Characterised by Technological Complexity and Scientific Uncertainty, in “Public Understanding of Science”, n. 4 268 269 EDNA F. EINSIEDEL (2002), Assessing a Controversial Medical Technology: Canadian Public Consultations on Xenotransplantation, in “Public Understanding of Science”, n. 11 EUROPEAN COMMISSION (2000), Directorate General Joint Research Centre, Conclusions of the Conference Science and Governance in a Knowledge Society: The Challenge for Europe, 16-17 October 2000, Brussels EUROPEAN COMMISSION (2001), Research Directorate-general, Eurobarometer 55.2 Europeans, Science and Technology, Bruxelles, European Commission, December 2001, http://europa.eu.int/comm/public_opinion/archives/special.htm EDWARD E. EVANS-PRITCHARD (1972), Witchcraft, Oracles and Magic among the Azande (1937), Oxford, Clarendon Press JAMES S. FISHKIN (2003), La nostra voce, I libri di Reset, Venezia, Marsilio PATRICE FLICHY (1996), L’innovazione tecnologica, Milano, Feltrinelli LYNN J. FREWER, SUSAN MILES, MARY BRENNAN, SHARON KUZENSOF, MITCHELL NESS, CHRISTOPHER RITSON (2002), Public Preferences for Informed Choice under Conditions of Risk Uncertainty, in “Public Understanding of Science”, n. 11 GIUSEPPE FUMAGALLI (1986), La conferenza internazionale di Bruxelles e il Repertorio Bibliografico Universale, in “Rivista delle Biblioteche e degli archivi”, n. 6 PIETRO GRECO (2000), Il modello mediterraneo, in “Boiler”, n. 17, novembre 2000, http://www.enel.it/it/enel/magazine/boiler/boiler17/htlm/articoli/Greco.asp JURGEN HABERMAS (1985), Etica del discorso, Roma-Bari, Laterza DONNA J. HARAWAY (2000), Testimone_modesta@FemaleMan_ incontra_oncotopo, Milano, Feltrinelli vantage of being an Expert, in “Technology and Culture”, VI HOUSE OF LORDS (2002), Science and Society, London, Her Majesty’s Stationary Office, http://www.parliament.the-stationery-office.co.uk EDWIN HUTCHINS (1980), Culture and Inference: A Trobriand Case Study, Cambridge Mass., Harvard University Press LEE ANN KAHLOR, SHARON DUNWOODY, ROBERT J. GRIFFIN (2002), Attributions in Explanations of Risk Estimates, in “Public Understanding of Science”, n. 11 EVELINE FOX KELLER (1996), Vita, scienza e cyberscienza, Milano, Garzanti J. KLEIN (1985), Hegemony of Mediocrity in Contemporary Sciences, particularly in Immunology, in “Lymphology”, n. 18 BRUNO LATOUR (1998), La scienza in azione, Torino, Edizioni di Comunità BRUNO LATOUR (2001), What Rules of Method for the New SocioScientific Experiments?, Plenary lecture, prepared for the Darmsdadt Colloquium, 30th March 2001. PIERRE LÉVY (1996), L’intelligenza collettiva, Milano, Feltrinelli, pp. 27 sgg. BRUCE V. LEWENSTEIN (2003), Models of Public Communication Science and Technology, Version: 16 June 2003 ALEKSANDR R. LURIA (1976), Storia sociale dei processi cognitivi, Firenze, Giunti-Barbera, pp. 99 sgg. ERIN MCLAUGHLIN-JENKINS (2003), Walking the Low Road: The Pursuit of Scientific Knowledge in Late Victorian Working-Class Communities, in “Public understanding of science”, n. 12 D.A. HOUNSHELL (1975), Elisha Gray and the Telephone or the Disad- DAVID MEGHNAGI (2004), Identità, differenze e valori comuni, Relazione al convegno 1994-2004: il pendolo tra speranza e disincanto, Roma, Università di Roma Tre, 20 gennaio 2004 270 271 STEVE MILLER (2001), Public Understanding of Science at the Crossroad, in “Public Understanding of Science”, n. 10 Baldazzi, Rosa di Cesare, Maria Guercio, Daniela Luzi, Adriana Valente, Milano, Franco Angeli SIMON NORA, ALAN MINC (1978), Rapport sur l’informatisation de la société, Paris, Editions du Seuil ADRIANA VALENTE (2002a), Trasmissione ed accesso alle pubblicazioni scientifiche: evoluzione storica di teorie e pratiche, in Trasmissione d’élite o accesso alle conoscenze? Percorsi e contesti della documentazione e comunicazione scientifica, a cura di Adriana Valente, Milano, Franco Angeli OECD (2002), Manuale sull’informazione, la consultazione e la partecipazione alla formulazione delle politiche pubbliche – governance, (prima versione: 2000) WALTER J. ONG (1986), Oralità e scrittura: le tecnologie della parola, Bologna, Il Mulino PAUL OTLET (1908), La loi d’ampliation et l’internationalisme, Bruxelles, Polleunis & Ceuterick FRANCO PRATTICO (2001), Anche la parola si globalizza, diventerà più civile e universale, in “Telèma”, n. 23, http://www.fub.it/telema/TELEMA23/Pratti23.html Les prémisses du Mundaneum: cent ans de l’Office international de bibliographie, 1895-1995 (1995), Mons, Editions Mundaneum MIKKO RASK (2004), The Problem of Public Inclusion in the Finnish Biotechnology Policy, manuscript, 14 January 2004, http://www.hut.fi/Yksikot/Rakennus/Ymp/Julkaisut/y msynRaskPaper.rtf GENE ROWE, LYNN J. FREWER (2000), Public Participation Methods: A Framework for Evaluation, in “Science, Technology and Human Values”, 25, n. 1 MAURO SCANU (2004), Tecnologia è partecipazione, in “Galileo Magazine”, VIII, 5 marzo 2004, http://www.galileonet.it/Magazine/mag0343/0343_4.html ADRIANA VALENTE (2002b), Riflessioni sull’agire comunicativo di Habermas e la comunicazione scientifica, in Trasmissione d’élite o accesso alle conoscenze? Percorsi e contesti della documentazione e comunicazione scientifica, a cura di Adriana Valente, Milano, Franco Angeli ADRIANA VALENTE, LOREDANA CERBARA (2003), Sguardo di ragazze sulla scienza e i suoi valori, in “Aida informazioni”, n. 1 RICCARDO VIALE (2001), L’onorevole non crede alla scienza, in “Il Sole 24 Ore”, Domenicale, 11 febbraio 2001, http://www.fondazionebassetti.org/0due/docs/viale-sole.htm RICCARDO VIALE (2003), Scienza e politica: dialogo fra sordi, in “La Stampa”, 6 agosto 2003, http://lgxserver.uniba.it/lei/rassegna/030806.htm BRIAN WYNNE (1991), Knowledges in Context, in “Science, Technology and Human Values”, 16, n. 1 WOLFENDALE REPORT (1995), Committee to review the Contribution of Scientists and Engineers to the Public Understanding of Science, Engineering and Technology, London WORKING GROUP “Democratising Expertise and Establishing European Scientific Reference Systems”, Report, White Paper on Governance Work Area 1, Broadening and enriching the Public Debate on European Matters, 2001 Trasmissione d’élite o accesso alle conoscenze? Percorsi e contesti della documentazione e comunicazione scientifica (2002), a cura di Adriana Valente, con testi di Sveva Avveduto, Anna JOHN ZIMAN (1991), Public Understanding of Science, in “Science, Technology and Human Values”, 16, n. 1 272 273 Note 1 Tale iniziativa era legata all’utopia del Mundaneum quale sintesi materiale dell’‘internationalisme des idées’ (Otlet, 1908, p. 30), in quanto insieme di repertori, centri di documentazione, studi e congressi, biblioteche, musei ed università, il tutto concepito in una prospettiva universale ed ideale in un periodo in cui si era ben lontani dall’attuale sviluppo delle reti di telecomunicazione. 2 Recenti riflessioni sui modelli di comunicazione della scienza e sulla relativa letteratura si trovano in Lewenstein, 2003 e Rask, 2004. 3 Per un’evoluzione degli approcci al Pus in Gran Bretagna si vedano: Bodmer, 1985; Wolfendale, 1995; House of Lords, 2000, Miller, 2001. 4 Nelle attività di collaborazione tra Consiglio Nazionale delle Ricerche, British Council e Fondazione Rosselli sulla percezione e consapevolezza della scienza sono stati realizzati a Bologna e a Roma due progetti rispettivamente sul tema degli Ogm (2002-2003) e dell’elettrosmog (20032004) in cui sono state coinvolte scuole secondarie superiori ed università. Nel 2004-2005 un’analoga iniziativa si terrà a Napoli presso la Città della Scienza sul tema dello spazio. In occasione di tali iniziative, il CNR organizza delle indagini sulla percezione della scienza e dei suoi valori. 5 Sulla conferenza che Bruno Latour ha tenuto a Milano il 17 novembre 2003 si fa rinvio alla rassegna stampa della Fondazione Bassetti curata da Vittorio Bertolini, accessibile al sito http://www.fondazionebassetti.org/06/bertolini/2003_12_01_archive.htm. In occasione della conferenza di Latour è stata curata da Massimiano Bucchi la call for comments ‘No Innovation without Representation’, accessibile su http://www.fondazionebassetti.org/06/cfc-latour/index.htm. 6 Nell’Eurobarometro 55.2 si fa riferimento alla scelta in generale, non va sta all’estremo nord e lì c’è sempre la neve. Di che colore sono gli orsi?» E la risposta tipica, pressappoco: «non so, io ho visto un orso nero, altri non ne ho visti… ogni località ha i suoi animali». Anche Ong (1986) aveva ripreso questo esempio nella sua analisi del pensiero situazionale piuttosto che astratto nella cultura dell’oralità. Sia Ong che Latour respingono, ognuno dal proprio punto di vista, l’accusa di irrazionalità che potrebbe essere mossa ai contadini nel caso riportato «L’opera di Luria – nota Ong – mostra una comprensione del pensiero orale più profonda sia di quella di Lucine Lévi-Bruhl, per il quale il pensiero primitivo (orale) era prelogico e magico […], sia di quella degli avversari […], che sosteneva che i popoli primitivi pensavano esattamente come noi». La logica formale, ribadisce Ong, è un’invenzione della cultura greca successiva all’interiorizzazione della tecnologia della scrittura alfabetica. «I sillogismi hanno a che vedere con il pensiero, ma nella pratica nessuno opera mediante tali schemi formali». Anche Latour, come Ong, si rifà a Cole e Scribner (1974) ed osserva che i contadini dell’esempio riportato non conoscono la logica che si apprende a scuola, quella «basata sulla capacità di rispondere a domande prive di relazione con qualunque contesto esterno all’aula scolastica». Insomma, «non pensare le stesse cose non equivale a non essere logici». 8 Si veda in questo volume il contributo di Luciana Libutti Alcune riflessioni sul ruolo della documentazione nei progetti di comunicazione della scienza. 9 Per una valutazione comparata di alcune delle più famose tipologie di modelli di partecipazione pubblica si fa rinvio all’articolo di Rowe e Frewer (2000). chiarendo se si tratti della scelta relativa all’uso, alla produzione, ai finanziamenti. 7 Uno degli esempi riportati da Latour (1998) riguarda il comportamento che non segue le regole del sillogismo rilevato da Luria (1976) in una famosa ricerca e ripreso da antropologi e sociologi. In questa ricerca, la domanda rivolta a contadini analfabeti dell’ex Unione Sovietica era: «all’estremo nord, dove c’è la neve, tutti gli orsi sono bianchi. La Terrano- 274 275 Mass media e popolazione Maura Misiti Consiglio Nazionale delle Ricerche Istituto di ricerche sulla popolazione e le politiche sociali, Roma Le riflessioni presentate in questo lavoro sono riferite all’analisi dei risultati di una ricerca effettuata dall’Istituto di ricerche sulla popolazione e le politiche sociali (IRPPS) in occasione della nascita del seimiliardesimo abitante della terra. Si tratta di uno studio che contempla diversi approcci metodologici: a partire dall’analisi descrittiva dei dati d’indagine relativi all’impatto dei media sulla conoscenza, a quella delle modalità con cui la popolazione acquisisce l’informazione e alle strategie di memorizzazione che ne conseguono; per concludere con l’analisi statistico-testuale degli articoli pubblicati sulla stampa nazionale e sui telegiornali sullo stesso evento oggetto di indagine. La valutazione e la misurazione degli effetti dei media su atteggiamenti e comportamenti delle audiences sono problematiche al centro di un intenso dibattito, ancora in corso, tra gli studiosi delle diverse discipline della comunicazione. La letteratura su questo tema è quindi estremamente ampia e differenziata e presenta numerose ipotesi ed interpretazioni. Nel settore degli studi sulla popolazione il tema degli atteggiamenti, della percezione e dei valori nei comportamenti demografici 277 ha ottenuto una crescente attenzione (Dynamics of Values in Fertility Change, 1999; Population, Family and Welfare I, 1995; Population, Family and Welfare II, 1998); questi studi hanno approfondito le relazioni tra transizione demografica ed evoluzione della società, hanno indagato il fenomeno della diffusione della conoscenza dei problemi di popolazione (Baccaini, Van Peer, 1999; Menniti et al., 1997; Baccaini, Gani, 2002) tra gli studenti europei, ed affrontato il tema della distanza tra gli ideali e la loro realizzazione nella vita reale (Population, Family and Welfare I, 1995; Population, Family and Welfare II, 1998; Bonifazi et al., 1998, “Futuribles”, 1995). Tra i diversi risultati consolidati interessa qui porre l’accento su quello relativo alla scarsezza e lacunosità della conoscenza dei fatti demografici, che caratterizza la maggior parte della popolazione. Questo a dispetto del fatto che sposarsi, fare dei bambini, cambiare città, lasciare la casa dei genitori o assistere i nonni, sono eventi, decisioni, attività che appartengono alla quotidianità della vita di tutti. Una tale superficialità è sintomo dell’assenza di una cultura demografica solida, basata su informazioni e conoscenze strutturate ed integrate in un sistema educativo coerente; sta di fatto, invece, che le fonti a cui la gente comune attinge sono soprattutto di tipo generico ed episodico, essendo limitate quasi esclusivamente all’informazione diffusa dai media. Da qui discendono diversi tipi di problemi: uno attinente alla divulgazione ed alla diffusione di informazioni esaurienti e corrette, un altro relativo alle modalità di trasmissione delle informazioni (di contenuto e linguaggio dell’informazione trasmessa). Un terzo e più complesso problema è quello della ricezione, cioè dell’effetto delle informazioni veicolate dai media sui soggetti che la recepiscono. In quest’ultimo caso è necessario seguire il processo di formazione, di evoluzione e di attualizzazione dei valori individuali, della loro contestualizzazione sociale e familiare; e comprendere i processi di negozia- zione con le sollecitazioni – sempre più pressanti e coinvolgenti – che provengono dal sistema della comunicazione. 278 279 Opinione pubblica e problemi demografici I cambiamenti demografici dei Paesi occidentali, descritti come «seconda transizione demografica» (van de Kaa, 1988), hanno concorso allo sviluppo di un nuovo regime demografico caratterizzato da una fecondità stabile sotto il livello di sostituzione, da un consistente invecchiamento della popolazione e, in una prospettiva più lunga, da un declino della dimensione demografica complessiva. È opinione diffusa che i cambiamenti demografici avvenuti ed in corso siano in larga parte il risultato di cambiamenti sociali le cui radici risiederebbero principalmente nel progressivo mutamento nei valori e nelle norme verso un modello più individualistico, dove diritti individuali e self-fulfilment sono elementi chiave (Lesthaeghe, 1992). Naturalmente – sebbene i trend demografici e le loro cause siano simili – questo non significa che non vi siano differenze tra i Paesi europei e che si possa parlare di uniformità demografica. Ci sono differenze non solo nei modelli demografici e nelle loro modalità di diffusione, ma anche e soprattutto nei valori e nelle norme che ad essi sottostanno, come numerose indagini hanno dimostrato (Population, Family and Welfare II, 1998; Values in Western Societies, 1995). Mentre, come è naturale, questi cambiamenti sono stati l’oggetto di ampi dibattiti nella comunità scientifica, mentre i governi nazionali sono spesso intervenuti con azioni politiche sollecitati dall’emergenza o dalle crisi indotte dai cambiamenti demografici, raramente l’uomo della strada è stato interpellato per conoscere la sua opinione. Recentemente la dimensione dell’opinione pubblica è stata messa a confronto con quella dei governi nazionali, o con quella degli studiosi, attraverso indagini nazionali, spesso coordinate in network europei. Si è dunque aperta una nuova strada di studio e di analisi dei fenomeni demografici. Per esempio i risultati delle diverse indagini PPA (Population Policy Acceptance) hanno consentito di conoscere e comparare le opinioni della gente comune sui trend presenti e futuri della popolazione, sull’evoluzione delle strutture familiari, sulla crescente presenza degli stranieri nelle diverse realtà nazionali coinvolte nelle indagini. Tra i numerosissimi risultati delle indagini emerge far l’altro l’esistenza un legame molto stretto tra la storia demografica di un Paese, la sua politica governativa e le opinioni espresse dagli intervistati (Bonifazi, Kamaràs, 1998). Infatti i grandi cambiamenti demografici che hanno interessato tutta l’Europa non sono ancora metabolizzati in un comune sentire, non hanno prodotto reazioni comuni nelle politiche governative e nelle opinioni della gente, tant’è che peculiari differenze nazionali connesse al recente passato permangono tuttora. A spiegazione di queste persistenti differenze, vanno ricordate le grandi divisioni di cultura, storia e tradizioni ancora esistenti non solo tra i diversi Paesi ma anche all’interno delle singole realtà nazionali. Il processo di unificazione europea è ancora storicamente troppo acerbo per dare risultati in questi settori, e soprattutto bisogna tenere conto che finora è stata privilegiata una integrazione economica più che culturale e sociale. The European Value Survey (EVS) – condotta in dodici Paesi nel 1981 e nel 1990 – ha la finalità di indagare sui valori fondamentali della cultura europea, e di seguirne l’evoluzione nel tempo. L’obiettivo è quello di individuare – attraverso la tecnica del sondaggio di opinione – il sistema dei valori degli europei. Si tratta di un approccio che contempla la prospettiva psicologica e quella sociologica, recuperando la dimensione individuale dei desideri, delle attitudini della persona in relazione ai grandi problemi attuali delle istituzioni e delle norme sociali. Quello che per noi demografi è interessante è l’intreccio tra modelli culturali, loro evoluzione nel tempo ed il confronto con i comportamenti, in particolare con quelli che sono legati alla fecondità, al matrimonio, alle relazioni di coppia, all’essere genitori. L’analisi dei risultati delle diverse ondate dell’indagine ha dato luogo ad una amplissima letteratura di cui è impossibile in questa sede dare un seppur sintetico rendiconto, considerando anche il variegato ventaglio di interpretazioni che li corredano. Qui interessa evidenziare uno dei punti emersi dall’analisi dei dati: la discontinuità, il rapporto non causale che lega valori, opinioni e comportamenti. Questo appare particolarmente vero nel campo dei valori relativi alla famiglia, al matrimonio, all’avere figli ed alla sfera delle relazioni sessuali. Louis Roussel, commentando i dati di due indagini EVS svolte a distanza di dieci anni, alla ricerca di uniformità, similarità o divergenze tra Paesi europei arriva alla conclusione che – a fronte di una tendenza alla convergenza dei macro-comportamenti demografici relativi alla famiglia – è impossibile stabilire un’eventuale egemonia di un modello di riferimento, ma soprattutto riconosce l’incertezza del dato valoriale, soprattutto ai fini della predizione dei comportamenti (Roussel, 1995). Come emerge anche da altri studi sugli stessi dati, spesso affiora una ambiguità tra i valori individuali dichiarati e quelli socialmente consolidati; esemplare a questo proposito il caso dei Paesi mediterranei, dove a fronte di comportamenti rari o poco diffusi (come il divorzio o le coabitazioni), trovano espressione posizioni molto permissive sulla libertà sessuale, tanto da distanziare sia la media dei Paesi europei che le opinioni dei Paesi del nord Europa. Da un altro punto di vista e con strumenti analitici differenti, ma sempre in riferimento a queste indagini, Simons afferma che a livello nazionale «the cultural determinants of nonconformist sexual behaviour were not the same as the determinants of fertility, that ideas about forms of partnership could 280 281 vary independently of ideas about parenthood, and, that, although there had been a shift towards pragmatism, fundamentalist ideas about childbearing remained influential in most countries» (Simons, 1999, pp. 96-97). Dunque i meccanismi che legano le opinioni, i valori ed i comportamenti sono ancora oggetto di dibattito, sullo stesso funzionamento della trasformazione di valori e della traduzione di questi in comportamenti, i risultati delle ricerche non hanno fatto una completa chiarezza, anzi si palesa una certa difficoltà a definire una teoria, un modello che risolva il problema dell’azione dei valori nel comportamento sociale, anche perché questo è anche sottoposto ai vincoli ed alle logiche del contesto economico e frutto di contrattazioni e strategie nella sfera delle relazioni interpersonali (Tchernia, 1995; Roussel, 1995). I problemi si complicano ancora di più se introduciamo nel ragionamento un’altra variabile: i fattori che intervengono nel cambiamento di valori. Qui – accanto a quella consolidata delle variabili socio-economiche – emerge l’importanza esercitata dai fattori culturali ed in particolare dalla comunicazione (sia nella sua dimensione di massa, che nelle relazioni interpersonali come i network familiari di gruppo o di pari). Più in generale la funzione della comunicazione di massa nella trasmissione di valori e di stili di vita e nella formazione delle opinioni è un tema di grande attualità che apre nuove prospettive di analisi e di interpretazione, ma che al tempo stesso ne moltiplica le difficoltà. Il rapporto fra l’informazione demografica ed i media – specialmente in Italia – rappresenta un tema estremamente sensibile se si considera che, fino a poco tempo fa, la popolazione era considerata un obiettivo ‘politico’, suscettibile di manipolazioni o interpretazioni ideologiche, di forte impatto emotivo; al contempo la conoscenza dei fenomeni demografici non sembra poggiarsi su una base conoscitiva solida (Palomba, Righi, 1993; Adamson et al., 2000). Ricerche recenti svolte tra gli studenti delle scuole superiori hanno dimostrato che i giovani europei non sono educati ad una cultura demografica né dispongono di informazioni corrette che consentano una riflessione critica sui fenomeni di popolazione (Baccaini, van Peer, 1999; Menniti et al., 1997, Les questions de population, 1995; Baccaini, Gani, 2002). Inoltre dalle numerose indagini IRPPS sulla conoscenza e le opinioni degli italiani in materia di popolazione sappiamo che le informazioni a disposizione dell’uomo comune su temi come il calo della fecondità o più in generale le dinamiche demografiche sono abbastanza buone; mentre su quegli argomenti che comportano un coinvolgimento emotivo e personale più forte (come ad esempio la percezione della presenza di immigrati stranieri o il declino numerico della popolazione italiana) grava un bias ideologico che fa ipotizzare una scarsa base conoscitiva (Bonifazi et al., 1998; Vita di coppia e figli, 1987; Crescita Zero, 1991). In effetti, per gli italiani l’unica fonte di conoscenza/informazione nel campo dei fenomeni demografici è rappresentata dai media. Gli stessi decisori politici nell’esercizio della loro attività non sembrano fondare le loro decisioni su conoscenze corrette e complete su temi come l’invecchiamento, l’immigrazione e in genere le dinamiche demografiche o – più in generale – non sembrano aver stabilito uno scambio sistematico con il mondo scientifico. Non c’è dubbio tuttavia che la questione demografica ha conquistato spazi crescenti sui media italiani soprattutto in funzione della visibilità offerta dalle cosiddette emergenze demografiche, come i ripetuti sbarchi di clandestini, la crisi del sistema pensionistico o il calo progressivo della 282 283 Le opinioni, la conoscenza le fonti della conoscenza, il ruolo dei media fecondità. È importante perciò valutare se all’aumento di attenzione corrisponda un analogo incremento della ‘qualità’ dell’informazione. I comportamenti relativi alla coppia, alla famiglia, all’essere genitori, all’allevare i figli sono argomenti che non necessitano un esclusivo approccio o supporto scientifico, appartenendo alla vita quotidiana di tutti; possiamo anzi dire che questi temi sono il territorio privilegiato di pubblicazioni, di programmi televisivi e radiofonici non solo di informazione, ma soprattutto di intrattenimento come le telenovelas, i serial televisivi, le soap operas o le rubriche dei giornali femminili. Vedremo come e se i messaggi veicolati e trasmessi sono recepiti, trasformati e metabolizzati dai consumatori o dai fruitori di questi media. Finora l’attenzione degli studiosi di popolazione verso questa convergenza è stata piuttosto limitata, ma ha dato risultati e contributi importanti. Per esempio in Italia negli ultimi quarant’anni il contributo fornito dai giornali femminili alla diffusione di nuovi ruoli all’interno della famiglia, e alla formazione di nuovi atteggiamenti culturali verso l’essere genitori e la famiglia, è stato senz’altro rilevante, attraverso la divulgazione ad un grande pubblico femminile dei nuovi valori e comportamenti, sanciti anche dalla nuova legislazione sulla spinta dei movimenti femministi e giovanili (Palomba, 1994). Un ruolo del tutto nuovo, ma che appartiene in pieno a questo campo di studi, è quello relativo all’uso dei mass media per diffondere messaggi relativi a politiche di controllo delle nascite, come dimostra l’esperienza di Westoff (Westoff, 1999) nei Paesi in via di sviluppo, la cui efficacia è anche confermata dallo sviluppo di settori come quello privato che producono programmi, soap operas televisive e radiofoniche «to motivate individuals to adopt new attitudes and behaviours that foster reproductive and sexual health, gender equality, and environmental protection» (Population Communication International, 2001). Anche gli studi sulla recente transizione demografica in Brasile hanno messo in evidenza il ruolo strategico della televisione – ed in particolare delle famose telenovelas – nel diffondere, rafforzare e istituzionalizzare nuovi modelli di orientamento dei valori e norme di comportamento relative alle preferenze nelle dimensioni della famiglia e nel controllo della fecondità (Faria, Potter, 1999). Emerge dunque una gamma articolata di ruoli ed effetti esercitati dai diversi media: dall’informazione giornalistica, ai messaggi diretti ad influenzare gli stili di vita, a quelli più emotivi e profondi. Ad ogni medium può essere ricondotto un target specifico nel mercato dell’informazione: i messaggi sono calibrati per l’audience selezionata e ricondotti nell’ambito del linguaggio specifico del mezzo. 284 285 Il ruolo dei media sulla conoscenza degli italiani in tema di popolazione L’indagine IRPPS sui sei miliardi di abitanti è stata effettuata con un doppio obbiettivo: quello di valutare la conoscenza degli italiani sulle dinamiche demografiche mondiali, europee e italiane, e quello di stabilire il ruolo giocato dai media nel diffondere tali informazioni. L’occasione è stata l’annunciata nascita del seimiliardesimo abitante della terra (12 ottobre 1999), che ha coinciso con la presentazione in tutto il mondo del Rapporto UNFPA Sei miliardi: è l’ora delle scelte. Due settimane prima di quella data è stata effettuata la prima rilevazione; la seconda, avvenuta alla fine del mese di ottobre 1999, oltre alle stesse domande sulla conoscenza ne chiedeva fonti e modalità di acquisizione. Attraverso la comparazione tra le risposte delle due ondate di indagine è stato possibile valutare l’impatto divulgativo delle informazioni in tema di popolazione ed il ruolo esercitato dai diversi media osservati. Come è già emerso da diverse indagini nazionali ed europee (Population, Family and Welfare II, 1998; Baccaini, Van Peer, 1999; Adamson et al., 2000; Bonifazi et al.,1998) la conoscenza delle questioni demografiche è mediamente scarsa e solo alcuni segmenti di popolazione, le persone con un buon livello di istruzione per esempio, possiedono un’informazione di base discreta: anche in questo caso solo una minoranza di italiani è stata in grado di rispondere correttamente al quesito sull’ammontare della popolazione mondiale nella prima indagine IRPPS. Confrontando i risultati delle due ondate si è riscontrato che l’effetto della campagna mediatica è stato rilevante in quanto ha migliorato la correttezza delle risposte di dodici punti percentuali: se nella prima indagine solamente l’11% degli intervistati affermava correttamente che il nostro pianeta fosse abitato da sei miliardi di individui, nella seconda tale valore è più che raddoppiato (23%). Infatti nei giorni intorno al 12 ottobre la copertura dell’evento è stata elevatissima in tutto il mondo: fondamentalmente il ruolo dell’informazione è stato di sintonizzare sul numero giusto chi già ne aveva in testa uno, ossia di correggere un’informazione preesistente, mentre non sembra che le informazioni diffuse dalla televisione o dai giornali abbiano agito su coloro (la maggioranza, 55%) che non sapevano o non ricordavano quale fosse la dimensione della popolazione mondiale. Si tratta di un fenomeno interessante, in quanto mette in luce un meccanismo di apprendimento selettivo, attivo su chi in qualche modo è già sensibilizzato, ma che non ha alcun effetto di stimolo su chi invece ignora o non è interessato a memorizzare l’informazione. Televisione e stampa si sono confermate i principali riferimenti per la conoscenza di base di un fenomeno demografico come l’ammontare della popolazione mondiale, che seppure ridotto a mera quantificazione, è denso di significato sia per la lettura del presente che per le implicazioni con il futuro. Molto limitato è apparso invece il ruolo delle istituzioni educative, ma questa non è una sorpresa quanto piuttosto una conferma dei risultati delle indagini europee svolte dall’Eopei1 tra il 1997 ed il 1999 (Baccaini, Van Peer, 1999); altrettanto limitato è apparso il ruolo di Internet, il cui uso è ancora fortemente concentrato solo in alcuni specifici segmenti di popolazione. 286 287 L’analisi testuale Sulla scorta della positiva esperienza di ricerca finalizzata all’analisi delle caratteristiche dell’informazione demografica (Misiti, 1999; Misiti, Iezzi, 2000), sono state applicate tecniche di analisi testuale sull’insieme degli articoli e dei testi dei telegiornali pubblicati nei giorni immediatamente precedenti o successivi il 12 ottobre. La coincidenza di due appuntamenti (la presentazione alla stampa del rapporto UNFPA sulla popolazione mondiale la conferenza stampa di illustrazione dei risultati della prima tranche della indagine dell’IRRPS) ha dato luogo ad un’ampia rassegna di articoli di diverse testate sia quotidiane che periodiche, nonché ad una larga copertura dei notiziari televisivi, la cui consistenza ha consentito l’applicazione delle tecniche di analisi testuale. Gli obiettivi conoscitivi di questa parte dello studio sono diversi: dall’individuazione della struttura di fondo dell’approccio alla notizia adottato dalle testate esaminate, all’evidenziazione delle differenze e delle omogeneità di trattamento dell’informazione tra i gruppi di giornali, all’individuazione delle specificità e del linguaggio caratteristico d’ogni gruppo di testate, al confronto con il linguaggio contemporaneo. Ognuno di questi risultati è stato ottenuto attraverso una specifica tecnica di analisi statistica: l’analisi delle corrispondenze, la cluster analysis, l’analisi delle specificità di forme e frasi del testo, e la comparazione con il linguaggio contemporaneo attraverso il confronto tra il corpus della rassegna stampa ed il POLIF (una lista di unità lessicali, provenienti da un campione di oltre quattro milioni di occorrenze di linguaggio contemporaneo). L’analisi è stata condotta sui testi degli articoli raggruppati in gruppi omogenei. I quotidiani locali sono stati suddivisi in base all’area geografica di appartenenza della sede di pubblicazione. Tutte le categorie di testate2 sono entrate attivamente nell’analisi, determinando una elevata ricchezza di vocabolario (58%). Il modello complessivo della comunicazione si può sintetizzare attraverso l’interpretazione dei risultati dell’analisi delle corrispondenze lessicali effettuata sui testi trattati. In particolare la struttura latente dei dati si desume dall’interpretazione dei primi fattori individuati dalla metodologia. Ogni fattore si può rappresentare con un asse cartesiano ed è caratterizzato da parole che si situano lungo il grafico, quelle che più lo qualificano sono poste agli estremi degli assi. Il primo – responsabile dell’assorbimento della maggior parte della variabilità – esprime l’approccio alla notizia adottato dall’insieme delle testate esaminate. Sul versante positivo le parole che lo definiscono rappresentano l’attualizzazione della notizia in chiave europea o più in generale il ‘punto di vista’ dei Paesi sviluppati: si situano infatti in quest’area del grafico parole che appartengono al lessico demografico tipico di queste realtà: <figlio unico>, <genitori>, <coppia>, <famiglia>, e <mortalità>; associate a parole ed espressioni come <riduzione>, <salute riproduttiva>, <cristiani>, <lavoro>, <economico>, <spendere> e <quinto più povero> che mettono in evidenza le preoccupazioni del primo mondo (inteso in senso lato in quanto sono pure chiamati in causa Stati Uniti e Giappone) poste dalla crescita della popolazione mondiale. Sul versante opposto l’approccio è più giornalistico, vi è spazio per la cronaca della notizia (<baby 6 miliardi>, <12 ottobre>, <ospedale>, <luce>, <terra>, <nato>, <Sarajevo>, <ONU>), con un taglio giornalistico corredato dall’approfondimento, (caratteristico dei magazine di informazione che infatti ricadono in quest’area del grafico fattoriale), attraverso l’uso di termini del lessico scientifico (<modello>, <previsione>, <incremento>, <crescita demografica>), ma anche di enfatizzazioni tipiche del linguaggio giornalistico come <bomba> e <esplosione demografica>. Il secondo asse fattoriale rappresenta la fonte delle informazioni, il riferimento cioè ai due rapporti di ricerca oggetto delle conferenze stampa che hanno coinciso con la data simbolica del 12 ottobre indicata dall’ONU. Un lato dell’asse rappresenta il riferimento al rapporto UNFPA ed è infatti connotato – oltre che dalla sigla stessa dell’organizzazione – dalla dimensione internazionale, dai Paesi in via di sviluppo, dalle problematiche sottolineate dal rapporto come la <povertà>, la <salute riproduttiva>, <esseri umani>, da verbi come <dare>, <fare>, <venire>, da termini come <scelta>, <campagna>, <organizzazioni> <conferenza>, <conseguenze>, che indicano la cifra operativa caratteristica del contenuto del rapporto UNFPA. Sul versante opposto si trovano nette indicazioni all’indagine dell’IRP3 sulla conoscenza degli italiani delle tendenze della popolazione mondiale, sia come uso di termini ‘tecnici’ (<risposta>, <campione>, <interviste>, <demografia>, <tasso di fertilità>), che come problematiche trattate (<pensioni>, <immigrazione>, <assistenza>) connesse alla realtà italiana, che come oggetto di analisi (<popolazione italiana>, <numero abitanti>), un uso di verbi (<consumare>, <spendere>, <ammontare>, <sapere>, <non sapere>) che connotano l’accezione più specifica e locale dell’informazione fornita. Non a caso su questo lato dell’asse sono posizionate le agenzie di stampa che hanno privilegiato la dimensione descrittiva più strettamente legata alla realtà italiana, e lo stile giornalistico caratteristico è meno interpretativo e più sobrio (raro l’uso di aggettivi e di espressioni enfatizzanti). La terza chiave di lettura, rappresentata appunto dal terzo fattore, esprime la contrapposizione tra Nord e Sud del mondo ed i relativi problemi che li caratterizzano, così come sono stati 288 289 trattati dagli articoli selezionati. Su un lato compaiono in modo esplicito l’<India> e la <Cina>, i due giganti demografici opposti agli <Stati Uniti>. Associate a queste connotazioni geopolitiche troviamo parole che esprimono problematiche connesse alla crescita della popolazione mondiale e tipiche di ciascuna area: <lavoro>, <figlio>, <donna>, <nascita>, <cibo>, <nord> e <sud>, <accesso>, <assistenza>, <guerra>, <tasso di fertilità> per la prima; <spendere>, <consumare>, <dollari>, <riduzione>, <campagna>, <salute riproduttiva>, l’aggettivo <troppo> e quello <povero>. La disposizione dei gruppi di testate sui piani fattoriali indica l’esistenza di modelli di approccio alla notizia differenziati almeno per tre tipologie di giornali (periodici, stampa cattolica e agenzie di stampa) che, sul primo piano fattoriale, si distinguono nettamente dagli altri gruppi localizzati invece intorno al baricentro degli assi. Una specifica posizione assumono i quotidiani indipendenti in relazione alla lettura di tipo internazionale data della notizia. L’analisi fattoriale contribuisce ad individuare il modello di senso, la struttura latente del linguaggio della stampa sullo specifico evento demografico; in sintesi possiamo affermare che le tematiche selezionate dai giornalisti – quindi le informazioni ed i messaggi trasmessi ai lettori – sono nel complesso complete e corrette, in quanto colgono sia la dimensione globale, internazionale del tema principale, che le sue connessioni con la dimensione locale, ma in senso lato, senza forzature provincialistiche, assumendo una visione sovranazionale, europea o di lettura economico-culturale come quella del mondo occidentale contrapposto al Sud. Vi è anche uno sforzo di collegare alla cronaca dell’evento le problematiche conseguenti, alla scala geografica, sociale ed economica individuata. Inoltre l’uso limitato di enfatizzazioni attraverso aggettivi o espressioni emotive – caratteristica peraltro spesso riscontrata nel linguaggio giornalistico – fa sì che l’informazione nel suo complesso non induca ad un approccio stereotipato o superficiale. Infine la presenza di numerosi termini ‘tecnici’ fa pensare ad un positivo allargamento del lessico nella direzione di un inglobamento ed una diffusione di espressioni di uso scientifico, meno suscettibili di fraintendimenti e distorsioni. Poiché l’informazione raccolta proviene da fonti giornalistiche diverse ci è sembrato importante analizzare l’approccio ed il trattamento dell’informazione da parte dei gruppi di testate (aggregati per tipologia ed ispirazione culturale o politica), al fine di valutare se sussistono differenze, bias o chiavi interpretative che utilizzino temi, problematiche o notizie in modo differenziato, o usino un linguaggio specifico e caratteristico. Con questi obiettivi abbiamo applicato due tecniche dell’analisi testuale che supportano questo tipo di analisi, l’analisi del linguaggio caratteristico e l’analisi classificatoria, il cui uso congiunto ci ha consentito di osservare le differenze e valutare l’aggregazione utilizzata a priori. Il primo tipo di applicazione fa riferimento alla frequenza d’uso delle parole all’interno di ciascun gruppo di giornali: caratteristiche sono considerate non solo quelle sovrautilizzate (rispetto all’insieme del vocabolario del corpus) ma anche quelle sottoutilizzate. Da queste analisi emerge un’elevata differenziazione di approccio ed una forte connotazione di specificità di trattamento del tema, di volta in volta rivolta al target particolare di ogni gruppo di giornali, e coerente nel complesso con la tipologia attesa delle aggregazioni4. Come abbiamo già visto, le agenzie di stampa centrano i loro comunicati soprattutto sulla trasmissione della cronaca circostanziata dell’evento, privilegiando la dimensione locale, nazionale in questo caso; le parole più usate sono quindi di tipo descrittivo e legate all’indagine dell’IRP (<IRP>, <sapere>, 290 291 Analisi per tipologie di testate giornalistiche <intervistato>, <italiani>, <domani>), mentre meno degli altri gruppi sono <figlio> e <bambino>, più specificamente legate alla scala globale della nascita dei seimiliardesimo abitante della terra. Molto specifici sono i termini che emergono dai giornali e magazine di ispirazione cattolica: qui il legame con il lessico caratteristico (<cristiani>, <campagna ecclesiale>) è immediato, ma anche emerge la connessione con tematiche oggetto di grande interesse da parte del mondo cattolico come il problema del debito dei Paesi del terzo mondo o il tema della contraccezione, corollario della lettura cattolica dei problemi di crescita demografica. La notizia della simbolica visita di <Kofi Annan> a <Sarajevo> – ripresa dalla maggioranza dei media – non è invece altrettanto utilizzata da questo gruppo di giornali, che sottoutilizzano anche i riferimenti ai macro aggregati come <popolazione>, <Terra>, <abitanti>, <città>. L’approccio dei giornali politici di sinistra privilegia l’uso di termini più ‘leggeri’ come <mister> o <miss> <6 miliardi> sintomatici di un’impostazione originale e accattivante, ma meno approfondita o problematica, anche se tra le parole caratteristiche troviamo <tasso di fertilità> e <assistenza>. Interessante è il taglio che emerge dai giornali di centro: l’accento è posto sulla lettura in chiave economica e storica dell’evento; la citazione di <Malthus> accompagnata da <teorie> ne è il segno, coerentemente appaiono i termini <sovrappopolazione> e <politica di controllo>, mentre l’elemento valutativo-emotivo è dato dall’uso di <disastro>. Di conseguenza prevalendo l’aspetto interpretativo, meno trattato risulta quello cronachistico, sicché parole legate alla descrizione del tema come <6 miliardi>, <bambino>, <UNFPA> e <italiani> risultano meno utilizzate che altrove. I quotidiani di destra sembrano sottolineare la dimensione nazionale dell’evento, considerando che le parole più utilizzate sono <Italiani> e <realtà italiana>, mentre <mondo>, <Sarajevo> e <bambino> sono più rare. Per quanto riguarda il gruppo dei quotidiani indipendenti nazionali di maggiore diffusione, la chiave di lettura adottata punta al cuore del problema nella sua dimensione globale, la connessione tra la crescita demografica e le problematiche politiche di equilibrio internazionale sono rese dall’uso più frequente rispetto agli altri gruppi della parola <figlio>, qualificata dagli aggettivi <indiano> e <cinese>, dal riferimento alla <guerra>, e dall’uso dell’aggettivo <fatale>, che riveste di drammaticità narrativa l’evento. L’attenzione dei periodici femminili è concentrata sul tema della <fecondità>, sul problema della crescita demografica e delle <proiezioni>, sul confronto tra l’Italia con le sue caratteristiche di ‘eccentricità’ demografica e gli altri Paesi del Sud del mondo con i problemi di <rapida> <crescita> e <sovrappopolazione>. I periodici di informazione presentano, come già notato nell’esame degli assi fattoriali, un approccio al tema di ampio spettro, in cui trovano spazio sia gli aspetti descrittivi dell’evento che elementi di approfondimento trattati anche attraverso l’uso di termini mutuati dal linguaggio tecnico-scientifico (<dinamica demografica>, <tasso di natalità>); questa caratteristica senz’altro interessante, è anche dovuta alla tipicità della pubblicazione, connotata da un diverso approccio alla notizia, meno legato alla sua attualità e più suscettibile all’approfondimento. Il taglio utilizzato dai quotidiani locali dà ampio risalto alla cronaca dell’evento mediatico ‘costruito’ dall’ONU: tra le parole più frequenti troviamo infatti tutti i termini che descrivono la visita di <Kofi Annan> all’<ospedale> di <Sarajevo>, il <parto> avvenuto a <mezzanotte>, mentre più marginali sono gli aspetti ‘problematici’ della notizia, comprese le connessioni con la realtà italiana; in breve esprimono un approccio più descrittivo che interpretativo. In questo approccio tuttavia notiamo che i giornali del Nord tendono a sottolineare la relazione tra la <crescita> <demografica> ed eventi drammatici come <guerre> ed <epidemie>. I tre gruppi di quotidiani 292 293 locali mostrano una forte omogeneità di comportamento emergente da una stabile posizione rispetto alle tre proiezioni fattoriali, a dimostrazione di un approccio affine a prescindere dall’area geografica cui appartengono. I telegiornali, per loro natura, hanno un approccio sintetico alla notizia, prettamente descrittivo dell’evento: è <nato> <simbolicamente> all’ <ospedale> di <Sarajevo> il <baby> <6 miliardi>, alla <mezzanotte>. Le parole sottoutilizzate, i temi ‘mancanti’ nei telegiornali, sono relative dunque all’interpretazione delle implicazioni economiche e sociali dell’evento: <acqua>, <sviluppo>, <umanità>, <fecondità>, <invecchiamento>, per il contesto nazionale (<Italia>) e <mondiale>. Il confronto con il linguaggio contemporaneo Con valori elevati dell’indice si trovano, a seguire, i termini del linguaggio ‘tecnico’ della demografia: <natalità>, <fertilità>, <invecchiamento>, <mortalità> e <fecondità>, ed i termini che rimandano alle problematiche poste dalla crescita demografica: <epidemie>, <cibo>, <acqua>, <infettive>, <contraccezione>, <malattie>, <futuro>. L’approccio giornalistico, di cronaca, rilevato nelle precedenti analisi, è in questa fase rappresentato dall’uso, peculiare rispetto al linguaggio contemporaneo, dei termini descrittivi dell’evento oggetto di interesse: <Onu>, <baby>, <miss> e <mister>, <simbolico>, <benvenuto>, <mezzanotte>, <evento>, <ospedale>. Parole chiave sono anche i termini relativi ai rapporti di ricerca presentati dall’UNFPA e dall’IRP: <demografia>, <intervistato>, <sondaggio>, <dati>, <campione>, e quelli specifici del lessico scientifico: <crescita>, <incremento>. I termini sottoutilizzati (rari negli articoli rispetto al POLIF) sono <lavoro>, <casa>, <società>, <scuola>, <chiesa>, e i riferimenti ad alcuni dei principali cardini intorno ai quali ruota l’organizzazione della vita occidentale, <governo>, <politica>, <società>, che non vengono inseriti nel contesto del discorso relativo alla crescita demografica mondiale. Il vocabolario dei termini usati negli articoli è stato confrontato con il POLIF5 per individuare, dal confronto dell’uso delle forme comuni alle due liste, le ‘parole chiave’ del corpus degli articoli, ovvero le parole che in essi vengono utilizzate in maniera specifica e rara, più o meno frequentemente rispetto al linguaggio di riferimento. Il confronto tra i vocabolari è stato effettuato mediante lo scarto tra l’uso normalizzato per 1.000.000 di occorrenze delle stesse parole nei due corpus. Il valore positivo dello scarto indica sovrautilizzo del termine negli articoli rispetto al linguaggio di riferimento, il valore negativo il sottoutilizzo: il forte uso di una parola in un corpus ne indica quindi una peculiarità di contenuto, mentre il basso uso ne indica la rarità. I termini specifici, sovrautilizzati rispetto al linguaggio contemporaneo, risultano essere relativi proprio all’oggetto degli articoli: con il valore più elevato dello scarto uso normalizzato emerge infatti l’aggettivo <demografico>, considerato in tutte le sue flessioni. È chiaro che i mass media hanno un’enorme importanza culturale e, tra tutti, la televisione, il medium più diffuso e popolare, in grado di offrire una diversificazione ed una diversità al momento irraggiungibile dai media a stampa e dagli altri mezzi. Il modo in cui i mass media interpretano il mondo modella la nostra esistenza e la nostra partecipazione all’interno della società. Usando una felice definizione possiamo dire con Moores che la televisione può essere considerata «the site 294 295 Conclusioni of convergence that joins the private world of the home with the larger public worlds beyond the front door» (Moores, 1993). A questa grande e crescente importanza si accompagna, come abbiamo visto, un’altrettanto crescente difficoltà di individuazione degli effetti sui comportamenti, le opinioni ed il sistema dei valori così come di definizione delle audiences. Infatti non si tratta solo di considerare e analizzare le caratteristiche in mutazione dei consumatori di media in un settore in perenne evoluzione, ma anche di tenere in conto l’aspetto globale del sistema di comunicazione, includendo per esempio le implicazioni della occidentalizzazione sulla cultura ed i comportamenti delle popolazioni non occidentali6. Considerando questi problemi dall’angolo visuale dello studioso di popolazione vi sono diversi elementi di interesse, che vanno dall’influenza che i media possono avere sui comportamenti connessi alla sfera familiare, all’utilizzazione dei media per veicolare valori, messaggi e conoscenze, in una parola per divulgare ‘politiche’ inerenti la popolazione. Ciò significa introdurre una distinzione di approccio e di studio modellata rispetto alle esigenze conoscitive: per quanto riguarda il primo tipo di problemi sembra indubbio che gli studiosi di popolazione debbano allargare la visuale teorica e la strumentazione analitica interagendo con gli studi e le discipline che affrontano i temi della comunicazione e dei suoi effetti. Se invece l’obiettivo è quello di utilizzare i media per specifiche istanze di comunicazione, è importante capire e approfondire i meccanismi propri dei diversi media, dallo studio dei fruitori/consumatori, all’analisi dei contenuti (i testi) e del linguaggio, per trarre indicazioni sulle modalità di ricezione e l’impatto delle comunicazioni. L’esperienza dell’IRPPS, il percorso seguito nella presentazione del caso di studio sull’Italia e l’indagine sul seimiliardesimo abitante della terra, vanno appunto in questa direzione. Come abbiamo visto, ai media è delegata in gran parte la missione di divulgare notizie relative ai problemi di popolazio- ne, ma il supporto degli addetti ai lavori, che possono tentare di veicolare questa informazione perché arrivi con maggior dettaglio e correttezza possibile, è indispensabile, soprattutto in considerazione del fatto che la cultura di base acquisita dalle scuole non produce la giusta sensibilità verso questi temi. I fronti su cui intervenire sono dunque due: da una parte occorre sensibilizzare gli operatori della comunicazione a dare il giusto risalto a queste informazioni in modo che raggiungano anche strati di popolazione poco ricettivi, dall’altra occorre intervenire alle radici della cultura, introducendo questi temi anche nell’istruzione di base. 296 297 Bibliografia Dynamics of Values in Fertility Change (1999), ed. R. Leete, Oxford, Oxford University Press D.M. ADAMSON, N. BELDEN, J. DAVANZO, S. PATTERSON (2000), How Americans View World Population Issues, Santa Monica, Rand V.E. FARIA, J.E. PORTER (1999), Television, Telenovelas, and Fertility Change in North East Brazil, in Dynamics of Values in Fertility Change, ed. Richard Leete, Oxford, Oxford University Press IEN ANG (1991), Desperately Seeking the ‘Audience’, London, Routledge (trad. it. Cercasi audience disperatamente, a cura di E. Menduni, Bologna, Il Mulino, 1998) “Futuribles” (1995), L’evolution des valeurs des Européens, numéro special, n. 200, Juillet-Aout 1995 ROMANA ANDÒ (1999), Il pubblico dei media, in Dizionario della comunicazione, a cura di M. Morcellini, M. Sorice, Roma, Editori Riuniti BRIGITTE BACCAINI, LOUIS GANI (2002), La population en questions Une enquête sur les connaissainces et representation sociodemographiques des elèves de terminale, in “Cahiers de l’INED”, n. 146 BRIGITTE BACCAINI, CHRISTINE VAN PEER (1999), Eopei Student Survey on Knowledge and Perceptions on Population Issues Some preliminary results, Eopei 01 JADT 1995 - Analisi statistica dei dati testuali, a cura di S. Bolasco, L. Lebart, A. Salem, Tomo 1, Roma, CISU, 1995 SERGIO BOLASCO (1999), Analisi multidimensionale dei dati, Roma, Carocci CORRADO BONIFAZI, GIUSEPPE GESANO, ADELE MENNITI, MAURA MISITI, ROSSELLA PALOMBA (1998), Gli ideali degli italiani sulla popolazione, in WP 01/98, Roma, IRP CORRADO BONIFAZI, FERENC KAMARÀS (1998), Perception of Population Issues and their Consequences: Scholars, Governements, and Public Opinion, in Population, Family and Welfare A Comparative Survey of European Attitudes, ed. Heins Moors, Rossella Palomba, Vol. II, Oxford, Clarendon Press L’information démographique et la presse européenne: La conference du Caire 1994 (1995), éd. A. Silvestrini, The Hague, Etudes et Documents, 1, EOPEI, Nidi G. KASS (1980), An Exploratory Technique for investigating Large Quantities of Categorical Data, in “Applied Statistics”, 29, n. 2 LUDOVIC LEBART, ANDRÉ SALEM (1994), Statistique textuelle, Paris, Dunod RON J. LESTHAEGHE (1992), The Second Demographic Transition in Western Countries: An Interpretation, paper presented to the IUSSP-IRP Seminar on Gender and Family Change, Rome, January 1992 ENRICO MENDUNI (1996), La più amata degli italiani - La televisione tra politica e telecomunicazioni, Bologna, Il Mulino ADELE MENNITI, ROSSELLA PALOMBA, ROBERTO ROSSI, DANTE SABATINO (1997), Conoscenze ed atteggiamenti degli studenti verso le tendenze demografiche - Rapporto italiano EOPEI, WP 01/97 MAURA MISITI (1999), Demographic Information in the Italian Press, paper presented to the European Population Conference, The Hague, August-September 1999 Crescita Zero (1991), a cura di Rossella Palomba, Firenze, La Nuova Italia MAURA MISITI, STELLA IEZZI (2000), La stampa italiana e l’informazione demografica: un’applicazione dell’analisi testuale, in JADT 2000, Actes des 5es Journées internationales d’analyse statistique des Données Textuelles, éd. M. Rajman, J.C. Chappelier, 9-11 mars 2000 298 299 SHANN MOORES (1993), Interpreting Audiences: The Ethnography of Media Consumption, London, Sage Publications LOUIS ROUSSEL (1995), Vers une Europe des familles?, in “Futuribles”, numéro special, n. 200, Juillet-Aout 1995 MARIO MORCELLINI (1988), Spettacolo e consumi culturali, in Immagini della società italiana, Roma, Istat-AIS JOHN SIMONS (1999), The Cultural Significance of Western Fertility Trends in the 1980s’, in Dynamics of Values in Fertility Change, ed. Richard Leete, Oxford, Oxford University Press MARIO MORCELLINI (2000), La televisione in Italia, in Mario Morcellini, Alberto Abruzzese, La comunicazione, Viterbo, Stampa alternativa PEPPINO ORTOLEVA (2000), La comunicazione di massa, in Atlante del Novecento, a cura di Luciano Gallino, Massimo L. Salvadori, Gianni Vattimo, Vol. II, Torino, UTET SAM PACK (2000), Reception, Identity, and the Global Village: Television in the Fourth World, in “M/C: A Journal of Media and Culture” 3, n. 1, www.uq.edu.au./mc/0003/fourth/html ROSSELLA PALOMBA (1994), The ‘Imaginary Family’, paper presented to the IUSSP Seminar on Values and Fertility Change, Sion, 16-19 Feb. 1994 ROSSELLA PALOMBA, ALESSANDRA RIGHI (1993), Information and Education in Demography, Collection of Demography, Council of Europe Press, Strasbourg Population Communication International, 2001, www.population.org Population, Family and Welfare - A Comparative Survey of European Attitudes (1995), ed. Heins Moors, Rossella Palomba, Vol. I, Oxford, Clarendon Press Population, Family and Welfare - A Comparative Survey of European Attitudes (1998), ed. Heins Moors, Rossella Palomba, Vol. II, Oxford, Clarendon Press Les questions de population dans l’enseignement secondaire (1995), éd. Roberta Rossi, The Hague, Etudes et Documents, 1, EOPEI, Nidi 300 MAURIZIO SORICE (2000), Le culture del consumo, in Mario Morcellini, Alberto Abruzzese, La comunicazione, Viterbo, Stampa alternativa JEAN-FRANÇOIS TCHERNIA (1995), Les recherches dans le domaine des valeurs, in “Futuribles”, numéro special, n. 200, Juillet-Aout 1995 JOHN B. THOMPSON (1995), The Media and Modernity. A Social Theory of the Media, Cambridge, Polity Press (trad. it. Mezzi di comunicazione e modernità - Una teoria sociale dei media, Bologna, Il Mulino, 1998) UNPFA (1999), Lo stato della popolazione nel mondo. Sei miliardi: l’ora delle scelte, New York/Roma, UNFPA Values in Western Societies (1995), ed. Ruud de Moor, Tilburg, Tilburg University Press DICK J. VAN DE KAA (1988), The Second Demographic Transition Revisited: Theories and Expectations, paper presented to the IUSSP Conference on Population and European Society, Firenze Vita di coppia e figli. Le opinioni degli italiani degli anni ottanta, Educatori antichi e moderni (1987), a cura di Rossella Palomba, Firenze, La Nuova Italia CHARLES WESTOFF (1999), Mass Communications and Fertility, in Dynamics of Values in Fertility Change, ed. Richard Leete, Oxford, Oxford University Press ROBERT WILLIAMS (1974), Television: Technology and Cultural Form, London, Fontana (trad. it. Televisione - Tecnologia e forma culturale, a cura di Enrico Menduni, Roma, Editori Riuniti, 2000) 301 Note 1 European Observatory for Population Education and Information. 2 Quotidiani indipendenti, quotidiani locali (nord), quotidiani di comunicazione. In realtà processi di appropriazione e personalizzazione dei messaggi recepiti dai media sono già osservati nel ‘Fourth World’, reazioni complesse e articolate, la cui interpretazione va oltre la lettura del processo di ‘colonizzazione’ da parte della cultura occidentale, per arrivare, attraverso un’attiva partecipazione, alla ridefinizione di una identità culturale (Pack, 2000). locali (centro), quotidiani locali (sud), quotidiani di sinistra, quotidiani di centro, quotidiani di destra, quotidiani di ispirazione cattolica, periodici femminili, periodici di informazione, agenzie stampa, telegiornali. 3 IRP, Istituto di ricerche sulla popolazione, è la denominazione all’epoca dell’indagine dell’attuale IRPPS. 4 Anche la cluster analysis applicata sui risultati dell’analisi fattoriale convalida i raggruppamenti e conferma le differenze. 5 Il POLIF consiste in una lista di unità lessicali, provenienti da un campione di oltre 4 milioni di occorrenze di linguaggio contemporaneo (Sergio Bolasco, Adolfo Morrone, La construction d’un lexique fondamental de polyformes selon leur usage, in 4èmes Journées internationales d’Analyse statistique des Données Textuelles JADT 1998, éd. S. Mellet, Université Sophie Antipolis de Nice, pp. 155-66). 6 Benché si parli molto della progressiva ‘globalizzazione’ della comunicazione, vistose differenze esistono ancora tra Paesi occidentali e PVS, lo suggeriscono le divergenze tra i risultati delle esperienze osservate nei PVS (Westoff e Faria) che indicano sostanziali relazioni ‘lineari’ tra esposizione ai media e comportamenti riproduttivi, contrapposte alla complessità riscontrata nelle audiences occidentali nelle modalità di ricezione, metabolizzazione ed elaborazione dei messaggi e delle informazioni diffuse dai media. Indubbiamente alla radice di queste differenze vi sono le differenze sostanziali nella struttura e nelle tecnologia dei sistemi di comunicazione, e quelle relative alla cultura ed in particolare ai differenziali educativi. Queste differenze implicano produzioni e ricezioni dei media, diversi rispetto alla ‘evoluta’ esperienza di consumo occidentale. Ma è da presumere che molto più velocemente di quanto sia avvenuto nelle società occidentali, la funzione pedagogica dei media più diffusi, tenda ad evolvere verso sistemi più commerciali e meno aperti a prodotti di tipo educativo, innescando quindi i meccanismi che osserviamo nei nostri sistemi 302 303 Alcune riflessioni sul ruolo della documentazione nei progetti di comunicazione della scienza Luciana Libutti Consiglio Nazionale delle Ricerche Istituto di ricerche sulla popolazione e le politiche sociali, Roma Premessa: essere consapevoli C’è sempre più consapevolezza della pervasività della ricerca scientifica nella vita quotidiana, e già da qualche anno i governi dei vari Paesi si sono posti il problema della divulgazione della scienza al pubblico, con l’impegno di promuovere una comunicazione ampia dei problemi prodotti e delle possibili soluzioni offerte1. Rendendo partecipe il cittadino delle grandi questioni della scienza, coinvolgendolo nel dibattito, nelle buone pratiche, nei codici di condotta, si svilupperà in lui una capacità critica che gli consentirà di formarsi una propria opinione rispetto ai grandi temi di dibattito politico-sociali, quali la tutela dell’ambiente, i diritti umani, la pace2. Il ruolo della documentazione nella diffusione dei progetti di comunicazione della scienza La tecnologia, elemento che favorisce la condivisione e il trasferimento dell’informazione, ha prodotto nuove opportuni305 tà anche per lo sviluppo sociale e culturale della società. In questi anni è stato prodotto numeroso materiale relativo a progetti di comunicazione della scienza, e molto di esso è recuperabile dalla rete Internet. La documentazione, uno dei principali veicoli per la diffusione dei risultati della ricerca scientifica, svolge pertanto un ruolo centrale anche nel recupero e nella divulgazione dei grandi problemi della scienza. Il suo compito non si limita al mero recupero dell’informazione, ma si esplica soprattutto nella valutazione critica delle risorse recuperate. La metodologia adottata implica concettualizzazioni che sono atti di rielaborazione originali3; ne consegue che l’attività di documentazione non è solo ricerca e mediazione tra l’autore del documento e l’utente, ma elaborazione dell’informazione e produzione di nuovi contenuti, attraverso una sequenza di passi: – nella fase di recupero, l’informazione viene individuata, selezionata, valutata; – nella fase di disseminazione, viene generata nuova conoscenza. Acquisizione, recupero, criteri di selezione, acquistano un significato preciso: documentare serve a rappresentare l’informazione, a sintetizzarla, consentendone un corretto trasferimento nella società. Grazie alle tecnologie dell’informazione e della comunicazione (ICT), il cittadino è in grado di documentarsi e di recuperare per proprio conto una enorme quantità di risorse dalla rete, allo scopo di accrescere la propria cultura scientifica. Ma spesso è difficile accedere ad alcuni documenti, saper valutare criticamente il materiale recuperato, trovare la qualità in mezzo alla quantità4. Una sfida primaria per il documentalista è quella di assicurarsi che le risorse recuperate siano appropriate all’audience cui sono destinate e che le informazioni vengano organizzate in modo tale da generare prodotti informativi di qualità. In un contesto di progetti di comunicazione della scienza, il documentalista può trovarsi ad interagire con varie categorie di utenza: – gli specialisti (scienziati, docenti universitari, politici); – gli studenti (scuole di diverso ordine e grado, università, formazione permanente); – gruppi portatori di interesse (associazioni ambientalistiche e di volontariato, associazioni di malati); – il grande pubblico. Nei progetti promossi dal Consiglio Nazionale delle Ricerche in collaborazione con il British Council, sulla percezione e consapevolezza della scienza, le categorie di utenti considerate sono state sostanzialmente le prime due5. Nella prima categoria rientrano tutti coloro che per il loro lavoro hanno necessità di recuperare materiale aggiornato e ben organizzato per avere un quadro completo sul dibattito in atto relativamente ad un determinato argomento. Sarà compito del documentalista fornire materiale strutturato che tenga conto dei diversi punti di vista degli scienziati, delle azioni intraprese, a livello nazionale e internazionale. Per la seconda categoria di utenti, è necessario fare alcune riflessioni, particolarmente se si fa riferimento a studenti di scuola. L’educazione scolastica è la via più sicura per una corretta alfabetizzazione scientifica dei futuri cittadini, e di conseguenza per il documentalista, che nella specie può essere il bibliotecario scolastico, si aprono nuove opportunità e sfide. È qui che egli è chiamato a svolgere un ruolo centrale nella formazione dello studente, svolgendo un doppio compito, didattico ed educativo. Nel suo ruolo di formatore, dovrà insegnare la corretta impostazione dei problemi, guidando lo studente in tutti i passi necessari, mettendolo in grado di sviluppare una capacità critica e di formarsi una propria opinione6. Un obiettivo centrale dei progetti CNR e British Council 306 307 sopra citati è stato quello di portare all’attenzione degli studenti la ricchezza ed articolazione del dibattito scientifico. Per questo motivo, la predisposizione di documentazione selezionata in maniera tale da contemperare le diverse opinioni degli scienziati è stata un compito fondamentale dell’intermediazione documentaria. Su questo si è basata anche la fase, rilevantissima, di dibattito nei gruppi di studenti, che ha preceduto il confronto con gli scienziati che ha avuto luogo successivamente nelle conferenze con dibattito pubblico organizzate dal CNR e dal British Council. Responsabilità fondamentale del documentalista è creare le premesse affinché la presa di contatto dei giovani con la scienza sia quanto più possibile esente da limiti e condizionamenti, mediante la sua attività ‘trasparente’ di recupero delle fonti. La conoscenza approfondita di tutti i tipi di fonti e l’esperienza nelle tecniche di recupero dell’informazione rendono il documentalista una figura centrale nell’ambito dei progetti di comunicazione pubblica della scienza. Egli dovrà consigliare la via da seguire, suggerire la scelta delle fonti, stabilire i parametri per una corretta impostazione di una ricerca, che dovrà possedere i seguenti requisiti: – attendibilità – internazionalità – pluralismo – molteplicità delle fonti. È necessario infatti che le fonti recuperate siano scientificamente corrette, che l’ente/autore che le ha pubblicate possegga una certa autorevolezza; si dovranno considerare i punti di vista e le azioni intraprese dai governi nei vari Paesi e in particolare si dovrà tener conto delle diverse teorie e metodologie scientifiche elaborate, individuando posizioni pro e contro degli scienziati rispetto ad un medesimo problema. Si dovrà infine considerare il materiale elaborato dai diversi enti, quali centri di ricerca, associazioni di consumatori, enti pubblici e privati. Oltre alle caratteristiche accennate, il documentalista dovrà assicurarsi che le fonti recuperate siano chiare e di facile comprensione, poiché la maggior parte dell’informazione disponibile è molto tecnica e specializzata, e la natura tecnica dell’informazione può agire da barriera nella comprensione dei grandi problemi. 308 309 Bibliografia Note PAOLO BISOGNO (1980), Teoria della Documentazione, Milano, Franco Angeli 1 L’Unione Europea ha creato nel 2001 un luogo di dibattito all’interno del Piano d’azione ‘Scienza e società in Europa’ allo scopo di rendere la scienza più accessibile ai cittadini europei. Si vedano anche alcune iniziative intraprese nei differenti Paesi, quali il Bodmer Report, Science & Society e Science in Society pubblicati nel Regno Unito dal 1985 al 2002; in Italia e in altri Paesi, la creazione di Science Centers con l’obiettivo di favorire la comunicazione tra il mondo della scuola, della scienza e della ricerca. 2 Questi alcuni concetti alla base di ‘Scienza e società in Europa’: «Il JEAN BROWN (1990), Navigating the 90’s - The Teacher-Librarian as Change Agent, in “Emergency Librarian”, 18, n. 1 KATHLEEN W. CRAVER (1994), School Library Media Centers in the 21st Century: Changes and Challenges, Westport, Greenwood Press CAROL SIMPSON, The School Librarian’s Role in the Electronic Age, 1996, disponibile on line all’indirizzo: http://www.libraryinstruction.com/school-librarians.html ruolo che la scienza svolge nella vita quotidiana è spesso ignorato, dato per scontato, e il più delle volte l’opinione pubblica si mobilita solo quando la ricerca e le nuove scoperte sollevano questioni etiche. Per questo è necessario che il pubblico sia adeguatamente informato, così che ciascuno si possa formare un’opinione […]. Se si vuole che i progressi scientifici e tecnologici rispondano alle esigenze dei cittadini europei e ottengano il loro consenso, è necessario che questi dispongano di informazioni comprensibili e di qualità e beneficino di un libero accesso a questa cultura specifica». http://europa.eu.int/comm/research/science-society/index_it.html. 3 Cfr. Paolo Bisogno, Il Futuro della memoria - Elementi per una teoria della documentazione, in “Prometheus”, n. 18, 1994. 4 Sulla rete navigano informazioni che si possono suddividere in due grandi gruppi: – informazioni decontestualizzate, che compaiono sotto forma di pagine web, filmati, immagini, ecc., che vengono recuperate tramite l’uso dei cosiddetti motori di ricerca e in genere offerte a titolo gratuito; – informazioni strutturate, quali banche dati bibliografiche, archivi fattuali, cataloghi di biblioteche (Opac), periodici elettronici, ecc. offerte a titolo gratuito ma più spesso a pagamento. Ricercare all’interno delle informazioni del secondo gruppo implica a volte, oltre ad un abbonamento, una conoscenza approfondita della fonte e delle tecniche di recupero, cioè dell’uso dei linguaggi di interrogazione. 5 Per una descrizione dei progetti si rinvia alla nota n. 4 del saggio di Adriana Valente Comunicare la scienza per partecipare la scienza, in questo volume. 310 311 6 Per questo profilo professionale si impone un cambiamento radicale; da più parti è avvertita l‘esigenza di formare una nuova figura di bibliotecario scolastico, impegnata nella biblioteca scolastica multimediale. Alcune università stanno attivando corsi di laurea o master per formare una figura professionale con competenze didattico-educative, più consona ai nostri tempi, quella del ‘bibliotecario scolastico multimediale’. Vedi ad es. l’esperienza dell’Università di Padova all’indirizzo: http://www.formazione.unipd.it. Bioetica e responsabilità sociale della scienza e della tecnologia Elena Del Grosso Università degli Studi di Bologna, Facoltà di Scienze Si parla molto di scienza in questo periodo. Tutti gli strumenti di comunicazione di massa, dalla carta stampata alla televisione ed al cinema fanno a gara per portare a conoscenza di un più vasto pubblico ‘le sue magnifiche sorti e progressive’. Mai come oggi siamo stati di fronte ad un pensiero unico dominante dove, in nome dell’intoccabilità del mito del progresso, la scelta tecnologica sembra l’unica possibile. La scienza entra nelle case e costruisce un ‘senso comune’ che alimenta, sostiene ed amplifica una visione dogmatica della scienza ed una credenza fideistica nelle sue capacità di innovazione e di progresso. Negli anni Settanta, nel libro L’ape e l’architetto, un gruppo di scienziati epistemologi dimostrava come il progresso della scienza fosse legato alle trasformazioni produttive, e quanto e come la ricerca scientifica risentisse del contesto sociale (Cini et al., 1976). Sono passati molti anni. Alla fine del millennio e con una guerra dichiarata finita, ma tuttora in corso, ci ritroviamo a ripensare come e perché la scienza e le sue ricadute tecnologiche sul sociale, anziché essere 312 313 strumento di democrazia e di giustizia sociale, siano strumento di dominio, di controllo e, purtroppo, anche di distruzione. Al confine con il terzo millennio è tempo di bilanci e di valutazioni. Ma è anche tempo di grandi confusioni ‘storiche’: i miti crollano, così come le barriere. Vengono creati nuovi confini che disegnano nuove geografie. Altri assi di simmetria sembrano tagliare il mondo. Probabilmente i nostri strumenti, quelli che fino a questo momento erano sufficienti per un minimo di comprensione, oggi ci sembrano inadeguati e molti/e di noi, nel chiedersi cosa sta accadendo e quali sono le forze in campo, cercano di trovare delle risposte, ricostruendo i percorsi che hanno definito questo contesto storico, mantenendone la complessità ed evitando inutili e distorcenti segregazioni. Il mondo è cambiato. A partire dalla vecchia guerra del Golfo sono entrate nelle nostre case la potenza delle tecnologie informatiche e la realtà virtuale. Nella società della comunicazione le tecnologie intelligenti high-tech, quelle delle C3I (ComandoControllo-Comunicazione-Intelligence), fanno scomparire i corpi (Haraway, 1995). Nelle nostre società opulente il nuovo feticcio, il Santo Graal, diventa il gene, ed il suo costituente principale, il DNA, diventa la sostanza miracolosa in grado di determinare bellezza, salute, amore, felicità e depressione, bontà e cattiveria, ricchezza e povertà. Questo processo di genetizzazione della società (Lippmann, 1991) pone le sue basi nel determinismo biologico il quale sostiene che al pari dei caratteri fisici, anche i tratti comportamentali, così come le differenze economiche e sociali tra i gruppi umani, derivano da distinzioni innate ed ereditarie. In questo senso la società con le sue differenze di sesso, di classe di razza è un esatto riflesso della biologia degli individui che la compongono. Il determinismo è riduttivo nella misura in cui, sostenendo una relazione lineare di causa/effetto, dà valore ontologico alle parti rispetto agli insiemi, ed è falso nel momento in cui crede che tutti i caratteri, semplici o complessi che siano, possano essere reificabili, misurabili, messi in scala gerarchica in modo da poter distinguere un minus da un plus (Lewontin, Rose, Kamin, 1984). Il progetto ‘Genoma Umano’ si inserisce all’interno di questa filosofia e con lo scopo di mappare l’intero patrimonio genetico della nostra specie ci dirà finalmente ‘cosa significa essere umano’. In questo senso l’individuo non è che una pura espressione di geni e non quel prodotto, unico e complesso, di una storia di interazioni tra geni ed ambiente, fisico, chimico, biologico e sociale. Ultimo e non meno importante del caso. La costruzione della responsabilità e della colpa è alla base dell’utilità ideologica dell’essenzialismo genetico degli anni Novanta. Il gene, come forza deterministica, rafforza e al tempo stesso annulla la responsabilità individuale. Fatto altrettanto significativo, la cultura vince la sua competizione con la natura: il destino ha finalmente un nome ed è nelle nostre mani (Nelkin, Lindee, 1995). Tra gli scienziati ‘sensibili’ si apre una grossa discussione per le implicazioni sociali, etiche e politiche di un tale tipo di scienza. La dimensione etica e politica diventa parte essenziale dell’episteme (Cappelletti, 1990). L’analisi del contesto della scoperta diventa sempre più legata al contesto della giustificazione. La questione della scelta, della libertà e della responsabilità diventa parte integrante della riflessione sull’etica della ricerca scientifica. Nel tentativo di capire inoltre il ruolo che le soggettività hanno nello sviluppo della conoscenza scientifica, donne e uomini di scienza hanno elaborato modelli epistemologici multiculturali per far sì che la scienza, avendo a che fare con la democrazia e la giustizia sociale, diventi parte integrante della cittadinanza (Harding, 1998). Se si pensa che il futuro stia nel passato e che la memoria sia 314 315 parte integrante di un processo di costruzione democratica della società, allora anche per la scienza la riflessione deve partire analizzando il percorso di costruzione del processo scientifico. I fisici per primi hanno dato il loro contributo. Marcello Cini scrive su “Il Manifesto” a proposito del coinvolgimento degli scienziati all’uso militare delle proprie ricerche e cita Franco Rasetti, che nel 1943 si rifiutò di partecipare al progetto Manhattan con la seguente motivazione: «Se vuoi costruire una bomba di 100 megatoni devi fare così e così ma la scienza non può dirci se dobbiamo costruire una bomba di 100 megatoni. Penso quindi che gli uomini dovrebbero interrogarsi di più sulle motivazioni etiche delle loro azioni». Carlo Bernardini ha spesso sostenuto che solo un piccolo gruppo di fisici coinvolti tentò di opporsi all’impiego bellico della bomba atomica; mentre molti di essi, al contrario apparivano più preoccupati della credibilità del loro lavoro, dimostrabile tecnicamente attraverso l’uso dell’ordigno (Bernardini, 1987). Evelyn Fox Keller, nota esponente del pensiero delle donne sulla scienza, e a sua volta storica della scienza, nel cercare di dipanare l’intreccio delle influenze e delle interazioni tra norme culturali, metafore e sviluppo tecnico, ha messo in evidenza la possibilità che politiche pubbliche regressive non solo possano minacciare attraverso forme di manipolazione, di descrizione e di controllo dei corpi, la sopravvivenza dell’umanità intera ma anche, nell’immediato, possano produrre nuove forme di stigmatizzazioni e discriminazioni sociali come appunto quelle genetiche (Fox Keller, 1995). Anche noi, come Coordinamento Donne-Scienza, organizzammo nel 1992 a Bologna un convegno dal titolo Bioetica, sì, no, perché? che, come s’intuisce, mise in evidenza i dubbi, le perplessità e gli interrogativi aperti che ciascuno di noi aveva a proposito delle nuove tecnologie e dell’impianto scientifico che ne faceva da supporto. L’etica della responsabilità, che come dice Paolo Quattrocchi, «assume nelle decisioni scientifiche come in quelle politiche le componenti e le variabili culturali che storicizzano completamente una scelta», ponendo a monte gli interrogativi sulle conseguenze e sui rischi, ci permise di spostare la bioetica dai problemi terminali e dalle emergenze all’impianto più propriamente scientifico ed epistemologico (Quattrocchi, 1984). La cultura del dubbio e la coscienza del limite rappresentarono i punti più alti della riflessione delle donne di scienza sulle nuove biotecnologie. Fu la risposta delle donne alla cultura della certezza e della fattibilità (Donini, 1990). 316 317 L’etica della scienza e le norme di comportamento degli scienziati Negli anni Ottanta, in pieno sviluppo della sociologia della scienza, Robert K. Merton (1981, p. 270) stilava una sorta di codice deontologico degli scienziati riassumibile in quattro imperativi istituzionali: – Universalismo e Oggettività: riguarda il metodo scientifico ed i criteri universali ed impersonali; – Comunitarismo: obbligo morale per ogni scienziato di rendere pubblica la propria scoperta; – Disinteresse: non anteporre il proprio interesse personale agli interessi della comunità; – Dubbio sistematico: la sottomissione alle prove di verifica e confutazione. Tali ‘imperativi istituzionali’ si ritagliavano attorno ad un’ideale di scienza occidentale il cui obiettivo dichiarato era ed è sempre stato una descrizione fedele ed oggettiva della realtà attraverso l’accumulo di fatti veri, sottoposti alle prove di verifica e all’individuazione di relazioni universalmente valide fra loro. Alla fine degli anni Ottanta e successivamente negli anni Novanta si assistette sempre più all’ingresso del pubblico nel privato. Infatti dal 1980, quando la Corte suprema negli USA decise che anche sulle forme viventi è possibile applicare i brevetti, si aprì, all’interno della comunità scientifica delle cosiddette scienze della vita, un processo caratterizzato da profondi mutamenti sul come trattare la conoscenza scientifica. Prima dell’emergenza della tecnologia del DNA ricombinante, la pratica della biologia molecolare era largamente guidata dall’etica tradizionale della ricerca accademica ed il suo impegno verso lo sviluppo della conoscenza avveniva attraverso uno sforzo essenzialmente cooperativo e comune. Ma da quando scienziati, enti ed università, diedero il via alla corsa dei brevetti, questa tecnologia entrò a far parte della sfera commerciale; le regole, le norme e le pratiche furono quelle richieste dal commercio. La conoscenza veniva sempre più vista come una vera proprietà, un articolo commerciale, un prodotto privato e non una risorsa comune. La riservatezza ed il segreto industriale cominciarono ad inibire lo scambio di informazione e di materiale fra ricercatori. Le tecniche di pubblicità/comunicazione commerciale arrivarono ad influenzare la disseminazione dei risultati scientifici. Ne conseguì così che alcuni risultati furono esclusi dal pubblico dominio, mentre altri furono esagerati al puro scopo di far intravedere possibili applicazioni di tipo industriale. Altri ancora furono annunciati prima della pubblicazione sulle riviste scientifiche di competenza allo scopo di mettere in allerta gli investitori sia sull’ottenimento che sulla protezione di eventuali brevetti (Wright, 1994). Questo tipo di trasformazione sociale dal campo accademico, in cui fino ad allora la biologia molecolare e la tecnologia del DNA ricombinante si erano sviluppate, a quello post-accademico, economico-industriale-commerciale, oltre ad essere estremamente veloce e ampio fu tale da annullare o almeno confon- dere i confini tra i due campi, in modo che il travaso tra l’uno e l’altro fosse possibile in entrambe le direzioni, ed ebbe come conseguenza un capovolgimento nella gerarchia dei valori inerenti al processo di costruzione della scienza, quindi, ad uno spostamento dell’etica ‘deontologica’ proposta da Merton (Bucchi, 2002). Di fronte a questo mutamento profondo dalla scienza alla tecnologia, gli scienziati, che, molto spesso, trovano comodo godere del potere contrattuale derivato loro dal riconoscimento del peso sempre crescente che la tecnologia ha nella vita di tutti i giorni e quindi della loro funzione sociale, rifiutano, tuttavia, le responsabilità che derivano dal loro coinvolgimento diretto o indiretto nelle trasformazioni sociali, politiche ed economiche indotte dal processo che loro stessi hanno messo in atto (Guizzardi, 2002). 318 319 Lo spazio pubblico della ricerca scientifica tra etica e politica: ‘Strutturare lo Spazio Europeo della ricerca’ «Viviamo momenti assai duri per la ricerca scientifica nazionale». Commenti di questo tipo sono apparsi spesso sulla stampa italiana in seguito alle decisioni prese in sede governativa di dare il via ai processi di privatizzazione dei maggiori centri di ricerca istituzionali di questo Paese. Gli scienziati scendono in piazza, firmano petizioni sulla ricerca pubblica, si scandalizzano giustamente per i tagli ai finanziamenti, ma ancora non è ancora chiaro come vogliono che sia il luogo pubblico che la scienza costruisce e se il loro obiettivo è un bene pubblico condivisibile dai molti e non nelle mani dei pochi. D’altra parte, le politiche governative nazionali e transnazionali, appiattite ormai sulle linee guida delle grandi istituzioni internazionali (WTO, Banca Mondiale, FMI), ridefiniscono i confini dei luoghi della scienza allargandoli di fatto ai privati ed al mercato. In questo quadro è significativo che in una nota informativa sul nuovo Programma Quadro 2002-2006 di R&S della UE si legga che il Consiglio Europeo ha deciso una proposta per un programma di ricerca e di sviluppo tecnologico volto ad integrare e rafforzare lo Spazio Europeo della ricerca. Parlare di Spazio Europeo della Ricerca e non di Progetto Europeo della Ricerca in qualche modo significa implicitamente riconoscere che la scienza non è solo una serie di procedimenti ed un insieme di conoscenze delineate da una data collettività, definite dalle esigenze delle prove logiche e delle verifiche sperimentali, sostanzialmente autonome nello spazio e nel tempo, ma anche un luogo abitato da una pluralità di soggetti o di attori che non riguarda solo il corpo degli scienziati e l’insieme delle istituzioni sociali di cui essi fanno parte, ma anche e soprattutto la società nel suo insieme. Il riconoscimento del coinvolgimento sociale implicito nella definizione di uno spazio di ricerca ha tuttavia conseguenze importanti per quel che riguarda la scala di valori all’interno della quale una ricerca scientifica va a collocarsi. Se, come dice Demetrio Neri, la bioetica va interpretata «come un discorso finalizzato ad elaborare e a suggerire proposte per le politiche pubbliche nei settori di sua pertinenza», allora il giudizio dei fatti deve tener conto dei giudizi di valore. Ed è all’interno di questo quadro che possiamo vedere se questo Spazio Europeo che il sesto Programma Quadro si propone di costruire è effettivamente uno spazio pubblico che costruisce un bene pubblico, comune e condivisibile da tutta la cittadinanza europea, o uno spazio privato, intento a rispondere ai bisogni di pochi, grandi o piccoli che siano, sotto la spinta del mercato. Ancora una volta la questione non è scientifica ma etica e politica: il giudizio dei fatti è inseparabile dal giudizio dei valori. Ora la Comunità Europea nel suo programma ‘Strutturare lo Spazio Europeo della ricerca’ individua come distinte tre linee di azione, rispettivamente atte ad integrare la ricerca scientifica, a strutturare lo Spazio Europeo della ricerca, a rafforzare le basi dello Spazio Europeo della ricerca. Questa separazione, che nel metodo ha il significato di separare per competenze, per settori disciplinari e quindi per budget le diverse aree di ricerca, nel merito separa ciò che con grande fatica in questi ultimi anni si era cercato di rimettere insieme: il mondo dei fatti ed il mondo dei valori. La responsabilità politica, come scelte individuali e collettive che la comunità scientifica opera costantemente, viene collocata al suo esterno. Il giudizio dei fatti viene distinto dai giudizi di valore. Infatti, nella nota informativa che accompagna il progetto si precisa che ‘Integrare la ricerca’ significa individuare le aree tematiche, favorire i progetti integrati e le reti di eccellenza. All’interno di un budget di 12.505 milioni di euro si stabilisce un’agenda di priorità (le sette aree tematiche) che sono: – Genomica e nuove tecnologie per la salute (2000 milioni di euro); – Tecnologie della società dell’informazione (3600 milioni di euro); – Nanotecnologie, materiali intelligenti e nuovi processi di produzione (1300 milioni di euro); – Aeronautica e spazio (1000 milioni di euro); – Sicurezza alimentare e rischi per la salute (600 milioni di euro); – Sviluppo sostenibile e cambiamento globale (1700 milioni di euro); – Cittadini e governance nella società europea della conoscenza (225 milioni di euro). Se consideriamo le coperture finanziarie delle prime quattro aree vediamo che esse da sole (7900/12.505 milioni di euro) rappresentano il 63,17% dell’intero budget messo a disposizione dello Spazio Europeo della ricerca, mentre alla sicurezza alimen- 320 321 tare ed ai rischi per la salute spetta solo il 4,9%, ed il 13,7% allo sviluppo sostenibile ed al cambiamento globale. Ciò che rimane, il 2% circa, a quell’area tematica che più ha a che fare con la questione della costruzione dello spazio pubblico, con la crescita di conoscenza, con la cittadinanza, con la democrazia. Quando le ricerche di punta riguardano in larga maggioranza le biotecnologie legate al settore medico-farmacologico e le tecnologie intelligenti high-tech legate all’attuale società della comunicazione, quelle delle C3I (Comando-ControlloComunicazione-Intelligence), allora la domanda d’obbligo è: cosa significa questo processo di conoscenza scientifica così altamente canalizzato verso l’apparato economico produttivo e, perché no, anche militare? L’analisi ci restituisce una dimensione dello ‘Spazio Europeo’ appiattita su un modello unico di sviluppo della cui sostenibilità ci si interroga poco, e la scienza e la tecnologia sembrano dare valore aggiunto all’Europa nella competizione a livello del mercato globale. La produzione di conoscenza scientifica come dimensione etica, ‘bene comune’ al servizio della cittadinanza, viene, nei fatti, marginalizzata. Non solo. Senza escludere le buone intenzioni che si celano dietro la promozione di progetti integrati e reti di eccellenza, nei fatti queste politiche si traducono in finanziamenti di grossi progetti e ampie reti in cui i piccoli ricercatori e le piccole ricerche sono destinate a scomparire. E l’effetto moltiplicatore si farà sentire nella riduzione di interi settori disciplinari, fino alla loro definitiva scomparsa. Complice, l’impact factor, che diventa lo strumento ‘oggettivo’ di selezione, che distinguerà le ricerche giuste da quelle sbagliate, le buone dalle cattive. Si arriva, e lo stiamo già vedendo, al paradosso che nei suddetti settori di punta, a fronte di una crescita esponenziale di dati sperimentali e di letteratura scientifica come mai si è avuto nella storia della scienza, la ridondanza e la ripetitività sembrano prevalere sull’originalità dei modelli proposti. Anzi, sembrano inibire la proposizione di nuovi modelli. Diventa quindi logico pensare che ad una così forte canalizzazione dell’esperienza scientifica aumentino non solo i pattern di conoscenza scientifica ma anche quelli di ignoranza. La sfera di ricaduta di questa condizione non riguarda solo l’omogeneizzazione ed il depauperamento della scienza, ma tutta la società nel suo insieme. Cosa resta di quel bene pubblico comune per cui si sono mobilitate le masse di scienziati in difesa della ricerca pubblica? 322 323 Che fare? Come ri-costruire un’etica pubblica all’interno della sfera della cittadinanza: una proposta didattica In una società come la nostra, ossia una società dell’informazione, lo spazio pubblico della scienza si arricchisce di nuovi attori e la comunicazione scientifica, nello spazio pubblico, non costituisce un’appendice della ricerca scientifica ma ne rappresenta una parte integrante. Ne diventa un’altra dimensione. «Il sapere scientifico ingloba la comunicazione, esso è nella sua costituzione un sapere comunicato». Qualche tempo fa, in una lettera fatta circolare all’interno della comunità scientifica, si comunicava che l’Associazione Europea dei Manager della Ricerca e l’INFM (Istituto Nazionale di Fisica della Materia) stavano organizzando un corso sulla comunicazione scientifica perché «soprattutto nella corrente globalizzazione dei mercati sapersi rapportare con diversi interlocutori, è necessario per sapere vendere bene il proprio prodotto». È vero. Il problema della comunicazione scientifica è diventato un terreno di riflessione tanto importante quanto la ricerca che si fa in laboratorio o nei campi sperimentali, perché la comunicazione è lo strumento del consenso che rende possibile l’impresa scientifica. La comunicazione deve arrivare a più soggetti, diversamente frammentati. Quelli della comunità scientifica (non necessariamente devono essere molti, anzi debbono rappresentare l’élite competente iperspecializzata), quelli dell’impresa (pubblica e privata) quindi competenti ma aperti all’esterno. Una massa non necessariamente scientificamente incolta, ma che si fida di ciò che l’autorità dice, abituata a delegare all’esperto, a credere nel mito del progresso. Come spesso accade la storia si ripete. La comunicazione diventa lo strumento della contrattazione del consenso intorno alla scienza e ai suoi prodotti, e può servire a tutti gli attori, compresi i politici in senso stretto, per costruire le basi ideologiche del loro potere. Riflettere sulle forme di comunicazione, e in questo ha ragione Donna Haraway, è importante tanto quanto rif1ettere sul metodo (Haraway, 1995). E se è vero che il pubblico deve capire la scienza, è altrettanto vero che la scienza dovrebbe capire la gente: i desideri, i bisogni e le priorità rispettive. La conoscenza e la comprensione, ma anche gli obiettivi e le finalità dovrebbero essere reciproci. Da qui nasce la proposta di un corso di Bioetica all’interno della Facoltà di Scienze dell’Ateneo di Bologna per gli studenti di Scienze biologiche e non solo, che a prescindere dalle ipotetiche figure professionali cui un corso del genere potrebbe contribuire in termini formativi, ha l’ambizione di aprire un dibattito intorno alla scienza a partire anche dalle sue forme di comunicazione, e di contribuire alla costruzione di quell’etica pubblica necessaria alla formazione di una piena cittadinanza fruibile anche nell’arena scientifica. Una scuola, di qualsiasi ordine e grado, è in primis non solo un luogo fisico ma uno spazio pubblico che va abitato e gestito politicamente nel senso alto del termine, ossia di costruzione della polis. Quindi la scuola dovrebbe avere come diritto-dovere quello di formare dei cittadini che in qualsiasi luogo e a qualsiasi livello siano in grado di esercitare la sfera della cittadinanza. Come giustamente ricordato da Giuseppe Deiana ed Emilio D’Orazio (2001) «Tracciare percorsi entro campi disciplinari aperti [...] nella finalità di una promozione di un’etica pubblica (con particolare attenzione alla bioetica) e delle ‘virtù civiche’ (la legalità, la solidarietà, l’interculturalità, la tolleranza, la biodiversità, i diritti dell’uomo, degli animali ecc.) come valori condivisibili su cui costruire le assunzioni di responsabilità». Demetrio Neri la chiama «scuola di cittadinanza» e vede nello sviluppo della formazione di una coscienza critica, nell’autonomia di giudizio, nella capacità di confronto con la diversità, nella flessibilità del pensiero e apertura alla novità quelle caratteristiche comportamentali che tutti/e riteniamo essere desiderabili per essere cittadini di uno Stato democratico (Neri, 2001). La bioetica fino ad oggi ha lavorato sull’emergenza rincorrendo i fatti. E finché si lavora su emergenze ci si ritrova ogni volta punto e a capo. In uno dei tanti gruppi di discussione che viaggiano in rete una ragazza, a proposito dell’educazione alla solidarietà, dice: «È difficile, ma non mi va di accontentarmi della solidarietà nelle emergenze [...]. È come per i migranti: non ci si può accontentare della solidarietà, bisogna fare sì che l’accoglienza e la convivenza tra etnie diverse diventino senso comune». Ma come si costruisce un senso comune? Scarpelli dice «Come riusciamo a penetrare nel senso comune e a modificarlo e fare in modo che ad una sacralità della vita opponiamo una dignità della vita, o alla logica del dominio la logica della comprensione o della solidarietà?» (Scarpelli, 1998). Come insegnare che l’etica del genere umano, a livello globale, mondiale o planetario che dir si voglia, ha a che fare con la democrazia, con il riconoscimento che l’uomo è una specie tra le specie, che l’individuo è un anello tra specie e società, che la società umana è parte della società terrestre? (Morin, 2001). Oggi la posta in gioco è grossa ed il cambiamento scientifico e tecnologico procede a velocità incompatibile con l’elaborazione 324 325 culturale. Quindi, di fronte alle nuove sfide, sia l’etica religiosa (Harding, 1991) che l’etica laica si trovano inadeguate a fornire risposte morali. Il pluralismo etico è una condizione necessaria ma non sufficiente. Bisogna appropriarsi degli strumenti della critica e l’analisi va fatta alla ‘scienza quale essa è’ (science as usual). Le questioni aperte dalle tecnologie della vita non vanno affrontate a valle, ma vanno analizzate a monte, nel proprio impianto generale. La bioetica va intesa non come giudizio o norma da porre a valle, ma come processo da costruire all’interno della scala dei valori entro cui si sviluppa la conoscenza scientifica. Giovanni Berlinguer nella prefazione del suo libro Lezioni di Bioetica pone la seguente domanda: quali principi morali devono guidare la ricerca scientifica e le sue applicazioni quando esse riguardano l’essenza della vita? (Berlinguer, 1997). La parola ‘Bioetica’ fu usata la prima volta da V.R. Potter nel 1971 nel suo libro Bioethics: Bridge to the Future. Nell’Encyc1opedia of Bioethics del 1979, il direttore V.T. Reich intende la bioetica come «studio sistematico della condotta umana nelle aree di scienza della vita e della cura della salute, quando tale condotta viene esaminata sulla base di valori e principi morali». Tale definizione delimita gli ambiti entro cui essa viene chiamata a rispondere: la cura della salute umana e le scienze della vita. Ed è sulla base di questi confini disciplinari, molto stretti, che oggi, tra gli scienziati, sono soprattutto i medici a raccoglierne l’eredità e ad interpretare questa nuova disciplina come diretta emanazione della loro pratica di deontologia medica. Nell’ambito scientifico, spetta probabilmente al biologo, ma non solo, il compito di allargare il terreno della bioetica da quello più propriamente medico a quello più generale che riguarda le popolazioni, l’ambiente, le relazioni fra la specie umana e gli altri organismi viventi. Le generazioni future. In questo senso la bioetica non dovrebbe essere più quel contenitore di norme date, atte a giudicare e/o controllare l’avanzamento tecnico-scientifico, ma potrebbe diventare un processo da costruire a partire dalla storia dello sviluppo del pensiero scientifico e delle sue applicazioni e dalle interazioni con i diversi contesti sociali e culturali. Si dovrebbe dunque passare da una bioetica che, quantunque plurale, rimane antropocentrica, ad un’etica della biologia che pone al centro la scienza stessa e le soggettività che in essa si esprimono. Al corso di Bioetica abbiamo aggiunto nel titolo la responsabilità della scienza e della tecnologia per dare quel valore aggiunto necessario a che essa (la bioetica) venga interpretata come afferma Neri: «discorso finalizzato ad elaborare e a suggerire proposte per le politiche pubbliche di ricerca nei settori di pertinenza». Tale definizione apre la scienza alle opzioni e quindi alle scelte. Quindi la scienza non appare più come quel blocco monolitico universale e neutro che si costruisce intorno all’oggettività scientifica, ma come un luogo abitato da una pluralità di soggetti, uomini e donne in carne ed ossa, i cui oggetti cambiano di definizione ed identità a seconda dei contesti in cui vengono a svilupparsi. La scienza diventa un luogo aperto, parziale e plurale, un mondo che si misura con i suoi valori: li analizza, li mette in campo, li mette in gioco, li sceglie. Un mondo non più autoreferenziale: è la società nel suo insieme che diventa il referente. Ed è con questi strumenti che il bene comune diventa non un qualcosa di dato ma un progetto da costruire e una pratica di un’etica pubblica, le cui dimensioni spazio-temporali ne daranno forma e contenuto. Oggi che la tecnologia, principale espressione di quella scienza-conoscenza che noi abbiamo tanto amato, è diventata sempre più invasiva e pervasiva del nostro essere nel mondo, aprire la realtà dei laboratori, rendere esplicite e trasparenti le scelte strategiche, progettuali ed ideologiche che sono alla base del progresso scientifico e tecnologico significa fornire alcuni strumenti necessari a costruire quei paletti utili a che essa diventi strumento di democratizzazione e non di dominio e di controllo (Del Grosso, 1997). 326 327 Bibliografia GIOVANNI BERLINGUER (1997), Lezioni di Bioetica, Roma, Ediesse CARLO BERNARDINI (1987), L’etica della ricerca, in “Nuova Civiltà delle Macchine”, V, n. 3-4, p. 69 Bioetica, si, no: perché? (1992), a cura del Coordinamento DonneScienza. Atti del convegno, Bologna MASSIMILIANO BUCCHI (2002), Scienza e società, Bologna, il Mulino VINCENZO CAPPELLETTI (1990), Etica della scienza e bioetica, in Scienza e Etica. Quali limiti?, a cura di Jader Jacobelli, RomaBari, Laterza MARCELLO CINI, GIOVANNI CICCOTTI, MICHELANGELO DE MARIA, GIOVANNI JONA LASINIO (1976), L’Ape e l’architetto. Paradigmi scientifici e materialismo storico, Milano, Feltrinelli GIUSEPPE DEIANA, EMILIO D’ORAZIO (2001), Introduzione, in Bioetica ed etica pubblica: una proposta per l’insegnamento, a cura di Giuseppe Deiana, Emilio D’Orazio, Milano, Edizioni Unicopli ELENA DEL GROSSO (1997), Alice attraverso i confini di scienza e genere, in “Ecologia Politica – CNS”, nn. 2-3 ELISABETTA DONINI (1990), La nube ed il limite. Donne, scienza, percorsi nel tempo, Torino, Rosenberg & Sellier GUSTAVO GUIZZARDI (2002), La negoziazione della scienza nello spazio pubblico, in La scienza negoziata. Scienze biomediche nello spazio pubblico, a cura di Gustavo Guizzardi, Bologna, il Mulino DONNA J. HARAWAY (1995), Manifesto Cyborg. Donne tecnologie e biopolitiche del corpo, Milano, Feltrinelli SANDRA HARDING (1998), Is Science Multicultural? Post Colonialism, Feminisms, and Epistemologies, Bloomington-Indianapolis, Indiana University Press EVELYN FOX KELLER (1995), Vita, scienza & cyberscienza, Milano, Garzanti R.C. LEWONTIN, STEVEN ROSE, LEON J. KAMIN (1984), Not in our Gene: Biology, Ideology, and Human Nature, New York, Pantheon Books ABBY LIPPMAN (1991), Prenatal Genetic Testing and Screening: Constructing Needs and Reinforcing Inequities, in “American Journal of Law and Medicine”, 117, n. 182 ROBER K. MERTON (1981), Sociologia della scienza, Milano, Franco Angeli EDGAR MORIN (2001), I sette saperi necessari all’educazione del futuro, Milano, Raffaello Cortina DOROTHY NELKIN, M. SUSAN LINDEE (1995), The DNA Mystique. The Gene as Cultural Icon, New York, Freeman DEMETRIO NERI (2001), L’etica e la filosofia nei processi formativi della nuova scuola secondaria, in Bioetica ed etica pubblica: una proposta per l’insegnamento, a cura di Giuseppe Deiana, Emilio D’Orazio, Milano, Edizioni Unicopli V.R. POTTER (1971), Bioethics: Bridge to the Future, Prestige Hall, Englewood Cliffs PAOLO QUATTROCCHI (1984), Etica, scienza, complessità, Milano, Franco Angeli W.T. REICH (1995), Encyclopaedia of Bioethics, New York, Simon Schuster & Mac Millan UBERTO SCARPELLI (1998), Bioetica laica, Milano, Baldini e Castoldi SANDRA HARDING (1991), Whose Science? Whose Knowledge? Thinking from Women’s Lives, Buckingham, Open University Press SUSAN WRIGHT (1994), Molecular Politics: Developing American and British Regulatory Policy for Genetic Engineering, 19721982, Chicago, The University of Chicago Press 328 329 ISBN: 88-88071-49-0 88-88071-48-2