1 Il principio di Precauzione I COSTI DELLA NON-SCIENZA Associazione Galileo 2001, Il Principio di Precauzione: i costi della non-scienza © 2004 21mo SECOLO s.a.s. di Roberto Irsuti e C. Via Piacenza 24, 20135 Milano Tel. 02-5456061, Fax 02-54100453 www.21mosecolo.it [email protected] Tutti i diritti riservati ISBN: 88-87731-23- Grafica: Claudio Rossi In copertina: xxxx. ASSOCIAZIONE GALILEO 2001 per la libertà e dignità della scienza IL PRINCIPIO DI PRECAUZIONE I COSTI DELLA NON-SCIENZA 21mo SECOLO 5 INDICE Presentazione Manifesto Organi Costituzionali dell’Associazione Galileo 2001 VII IX XIII Introduzione del Prof. Giorgio Salvini 1 Roberto De Mattei Indirizzo di saluto 5 Renato Angelo Ricci Perché Galileo 2001 11 Umberto Veronesi Un’alleanza per la scienza 21 Franco Battaglia Il Principio di Precauzione: precauzione o rischio? 27 Carlo Bernardini Radici filosofiche e utilizzazione sociale del Principio di Precauzione 65 Tullio Regge Il Principio di Precauzione: un trucco verbale 71 Umberto Tirelli Il Principio di Precauzione e la salute 75 Francesco Sala Piante GM: una grande opportunità per l’agricoltura italiana 81 6 I costi della non-scienza Ingo Potrykus Green biotechnology could save millions of lives, but it cannot because of anti-scientific, extreme-precautionary regulation Le biotecnologie in agricoltura potrebbero salvare milioni di vite, ma normative anti-scientifiche ed eccessivamente precauzionali lo impediscono 89 Paolo Sequi Il Principio di Precauzione e le problematiche ambientali relative al suolo 111 Paolo Vecchia Il Principio di Precauzione per i campi elettromagnetici: giustificazione ed efficacia 141 Luciano Caglioti Il paradosso dei rifiuti 155 Cesare Marchetti Prospettive dell’economia a idrogeno 161 Giovanni Vittorio Pallottino Sfogliando i libri di testo di scienza per la scuola 171 Ernesto Pedrocchi Il Principio di Precauzione 177 Silvano Fuso Principio di Precauzione e pseudoscienze 181 Ringraziamenti 189 7 GALILEO 2001 PER LA LIBERTÀ E LA DIGNITÀ DELLA SCIENZA MANIFESTO U n fantasma si aggira da tempo nel Paese, un fantasma che sparge allarmi ed evoca catastrofi, terrorizza le persone, addita la scienza e la tecnologia astrattamente intese come nemiche dell’uomo e della natura e induce ad atteggiamenti antiscientifici facendo leva su ingiustificate paure che oscurano le vie della ragione. Questo fantasma si chiama oscurantismo. Si manifesta in varie forme, tra cui le più pericolose per contenuto regressivo ed irrazionale sono il fondamentalismo ambientalista e l’opposizione al progresso tecnico-scientifico. Ambedue influenzano l’opinione pubblica e la politica attraverso una comunicazione subdola: l’invocazione ingiustificata del Principio di Precauzione nell’applicare nuove conoscenze e tecnologie diviene una copertura per lanciare anatemi contro il progresso, profetizzare catastrofi, demonizzare la scienza. Non si tratta, quindi, di una giustificabile preoccupazione per le ripercussioni indesiderate di uno sviluppo industriale ed economico non sempre controllato, ma di un vero e proprio attacco contro il progresso. L’arroganza e la demagogia che lo caratterizzano non solo umiliano la ricerca scientifica – attribuendole significati pericolosi ed imponendole vincoli aprioristici ed arbitrari – ma calpestano il patrimonio di conoscenze che le comunità scientifiche vanno accumulando e verificando, senza pretese dogmatiche, con la consapevolezza di offrire ragionevoli certezze basate su dati statisticamente affidabili e sperimentalmente controllabili. Il fatto che le conoscenze scientifiche, per la natura stessa del metodo di indagine e di verifica dei risultati, si accreditino con spazi di dubbio, sempre riducibili ma mai eliminabili, costituisce l’antidoto principale – che è proprio dell’attività scientifica – verso ogni forma di 8 I costi della non-scienza dogmatismo, scientismo, intolleranza e illiberalità; ma non puó giustificare il considerare tali conoscenze opinabili o, peggio, inattendibili. La voce della scienza è certamente più affidabile e anche umanamente – oltre che intellettualmente – più consapevole delle voci incontrollate e dogmatiche che, fuori di ogni rilevanza scientifica, pretendono di affermare “verità” basate sull’emotività irrazionale tipica delle culture oscurantiste. Da questa cultura regressiva nascono, ad esempio: • l’attribuzione quasi esclusivamente alle attività antropiche di effetti, pur preoccupanti data la posta in gioco, quali i cambiamenti climatici che da milioni di anni sono caratteristici del pianeta Terra, mentre il problema della loro origine è tuttora aperto; • le limitazioni alla ricerca biotecnologica che impediscono ai nostri ricercatori di cooperare al raggiungimento di conquiste scientifiche che potrebbero, tra l’altro, combattere gravi patologie e contribuire ad alleviare i problemi di alimentazione dell’umanità; • la ricerca e l’esaltazione acritica di pratiche mediche miracolistiche che sono ritenute affidabili solo perché “alternative” alla medicina scientifica; • il terrorismo sui rischi sanitari dei campi elettromagnetici, che vuole imporre limiti precauzionali ingiustificati, enormemente piú bassi di quelli accreditati dalla comunità scientifica internazionale e adottati in tutti i paesi industriali; • il permanere di una condizione di emergenza nel trattamento e nello smaltimento dei rifiuti di ogni tipo, condizione che è figlia del rifiuto aprioristico di soluzioni tecnologiche adottate da decenni in tutti i paesi industriali avanzati; • la sistematica opposizione ad ogni tentativo di dotare il Paese di infrastrutture vitali per la continuità dello sviluppo e per il miglioramento della qualità della vita della popolazione; • la preclusione dogmatica dell’energia nucleare, che penalizza il Paese non solo sul piano economico e dello sviluppo, ma anche nel raggiungimento di obiettivi di razionalizzazione e compatibilità ambientale nel sistema energetico. Il clima di oscurantismo in atto rischia di contribuire all’allontanamento dei giovani dai corsi di studio a indirizzo scientifico, ormai connotati di significati antiumanitari e antiambientali, alimentando un Galileo 2001 9 processo che rischia di prefigurare un futuro di dipendenza anche culturale, oltre che economica, del Paese. La scienza non produce miracoli e non è, di per sè, foriera di catastrofi. Da sempre essa è parte integrante e trainante dell’evoluzione della società umana, motore primario di progresso sociale, economico, sanitario e ambientale. Sulla base di questa consapevolezza, scienziati, ricercatori, tecnici di ogni estrazione culturale e di ogni credo, estranei ad ogni interesse industriale e consci del fatto che l’impegno scientifico non deve confondersi con le pur legittime convinzioni di ordine ideologico, politico e religioso, si levano a contrastare questa opera di disinformazione e di arretramento culturale, rivendicando il valore della scienza come fonte primaria delle conoscenze funzionali al progresso civile, senza distorsioni e filtri inaccettabili. Ci costituiamo nel movimento Galileo 2001 per la libertà e la dignità della Scienza, aperti alle adesioni più qualificate, sincere e disinteressate. Chiediamo alle associazioni scientifiche e culturali di impegnarsi disinteressatamente, assieme alle istituzioni, in una indifferibile battaglia per un’informazione competente e deontologicamente corretta. Ci rivolgiamo alla società civile, agli operatori dell’informazione più attenti e ai rappresentanti politici più avveduti perché sappiano raccogliere questo messaggio e ci aiutino a superare le barriere del fondamentalismo e della disinformazione. Vogliamo che il nuovo secolo sia anche per il nostro Paese – che ha dato i natali a Galileo, Volta, Marconi e Fermi – quello della verità scientifica e della ragione, tanto più consapevoli quanto più basate sulle conoscenze e sul sapere. Esse forse non saranno sufficienti, ma sono certamente necessarie. Membri Fondatori: Franco Battaglia, Università di Roma Tre Carlo Bernardini, Università di Roma La Sapienza Tullio Regge, Premio Einstein per la Fisica Renato Angelo Ricci, Presidente onorario Società Italiana di Fisica; già Presidente Società Europea di Fisica 10 I costi della non-scienza Giorgio Salvini, Accademico dei Lincei, già Ministro della Ricerca Scientifica Gian Tommaso Scarascia Mugnozza, Professore emerito, Università della Tuscia; Accademia Nazionale delle Scienze Ugo Spezia, Segretario Generale Centro Internazionale per la Documentazione e l’Informazione Scientifica (CIDIS) Umberto Tirelli, Direttore Divisione Oncologia Medica, Istituto Nazionale Tumori di Aviano Membri del Comitato Promotore: Franco Bassani, Presidente Società Italiana di Fisica Argeo Benco, già Presidente Associazione Italiana di Radioprotezione Paolo Blasi, già Rettore Università di Firenze Edoardo Boncinelli, Istituto San Raffaele, Milano Luciano Caglioti, Università di Roma La Sapienza Cinzia Caporale, Università di Siena Giovanni Carboni, Università di Roma Tor Vergata Francesco Cognetti, Presidente Associazione Italiana di Oncologia Medica Guido Fano, Università di Bologna Gianni Fochi, Scuola Normale Superiore di Pisa, Università di Pisa Andrea Frova, Università di Roma La Sapienza Silvio Garattini, Istituto Mario Negri, Milano Roberto Irsuti, Direttore 21mo Secolo, Milano Silvio Monfardini, Direttore Divisione Oncologia Medica, Ospedale Universitario di Padova Giovanni Vittorio Pallottino, Università di Roma La Sapienza Franco Panizon, Professore emerito, Università di Trieste Ernesto Pedrocchi, Politecnico di Milano Carlo A. Pelanda, Condirettore Globis, University of Georgia, USA Carlo Salvetti, Vice-Presidente Associazione Italiana Nucleare Paolo Sequi, Presidente della Società Italiana per la Scienza del Suolo Angelo Spena, Università di Verona Paolo Vecchia, Dirigente di Ricerca, Istituto Superiore di Sanità Giancarlo Vecchio, Università di Napoli, Presidente Società Italiana di Cancerologia Igino Zavatti, Coordinatore Associazione Nuova Civiltà delle Macchine 11 Consiglio Direttivo RICCI Prof. Renato Angelo SALVINI Prof. Giorgio VERONESI Prof. Umberto BATTAGLIA Prof. Franco BERNARDINI Prof. Carlo REGGE Prof. Tullio TIRELLI Prof. Umberto Presidente Presidente Onorario Presidente Onorario Vice Presidente Vicario Vice Presidente Vice Presidente Vice Presidente Consiglieri CAGLIOTI Prof. Luciano CAPORALE Prof.ssa Cinzia PALLOTTINO Prof. Giovanni Vittorio SALA Prof. Francesco Giuseppe SALVETTI Prof. Carlo SCARASCIA MUGNOZZA Prof. Gian Tommaso SEQUI Prof. Paolo SPEZIA Ing. Ugo TRENTA Prof. Giorgio Nazzareno VECCHIA Prof. Paolo Collegio Sindacale ROMITI Dr. Bruno CARBONI Prof. Giovanni COGNETTI Prof. Francesco BRESSANI Prof. Tullio FANO Prof. Guido Presidente Sindaco Effettivo Sindaco Effettivo Sindaco Supplente Sindaco Supplente Segretario Generale ROSATI Sig.ra Angela 13 INTRODUZIONE Giorgio Salvini 1 Presidente Onorario Galileo 2001 L’ Associazione Galileo 2001 ha molto appropriatamente scelto il tema del Principio di Precauzione per presentarsi per la prima volta all’attenzione del pubblico, degli organi d’informazione e dei responsabili politici. Il titolo più preciso del volume – che raccoglie le relazioni presentate al I Convegno Nazionale dell’Associazione, tenutosi a Roma il 19 febbraio 2004, ospitato nella sede del Consiglio Nazionale delle Ricerche – che è anche quello del convegno stesso, è Il Principio di Precauzione: i costi della non-scienza. Il volume comincia con le prolusioni del presidente, Renato Angelo Ricci e di Umberto Veronesi, che assieme a me ricopre la carica di presidente onorario dell’associazione. Ricci, che è stato per 17 anni presidente – ora onorario – della Società Italiana di Fisica. Ricci, che durante la sua carriera di fisico non ha mai trascurato un ininterrotto impegno civico di partecipazione alla vita del nostro paese, ci spiega le motivazioni della nascita dell’Associazione. Un’alleanza per la scienza, la chiama Umberto Veronesi, una figura ben nota al grande pubblico e che, per l’impegno profuso nella lotta contro uno dei più terribili mali che affliggono l’umanità e per la sua carica di umanità è nel cuore di tutti gli italiani. Le relazioni vere e proprie sul tema cominciano con quella di Franco Battaglia, cui va il riconoscimento di aver voluto che quello del Principio di Precauzione fosse il tema della conferenza. Battaglia, dopo averci reso partecipe degli eventi personali che lo hanno convinto ad impegnarsi ad affermare le finalità di Galileo 2001, discute con dovizia di particolari i limiti e, soprattutto, i rischi del Principio di Precau- 1 Ex Ministro alla Ricerca Scientifica 14 I costi della non-scienza zione. Più disincantati – a tratti divertenti, ma non per questo meno efficaci – sono le relazioni di Carlo Bernardini e di Tullio Regge, due pilastri della fisica italiana d’oggi. Le implicazioni dell’applicazione letterale del Principio di Precauzione alla medicina sono invece considerate da Umberto Tirelli, direttore di una divisione di oncologia al Centro Tumori di Aviano. Il resto del volume contiene trattazioni dettagliate su specifici esempi. Francesco Sala, direttore degli Orti Botanici dell’Università di Milano, avverte come l’applicazione del Principio di Precauzione per limitare l’uso dell’ingegneria genetica in agricoltura può rivelarsi un vero suicidio in ordine alla salvaguardia dei nostri prodotti tipici. Una limitazione che, invece – avverte Ingo Potrykus, professore emerito di Biologia vegetale all’Università di Zurigo – diventa quasi omicidio: centinaia di migliaia di bambini poveri del mondo muoiono o diventano ciechi per carenza di vitamina A, essendo questa assente nel loro quasi unico cibo, il riso. Di cui ne esiste una varietà, geneticamente modificata, ricca di beta-carotene, precursore metabolico della vitamina A. Le distorsioni dell’applicazione del Principio di Precauzione alla prevenzione dell’inquinamento dei suoli sono ben illustrate da Paolo Sequi, direttore dell’Istituto Nazionale di Nutrizione delle Piante. Paolo Vecchia, uno dei maggiori esperti italiani degli effetti sanitari dei campi elettromagnetici, e da poco nominato presidente dell’ICNIRP (la Commissione internazionale per la protezione dalle radiazioni non-ionizzanti), invece, ben ci spiega come sia priva di fondamento la preoccupazione eccessiva, recentemente nata in Italia, in ordine ai rischi derivanti dall’esposizione a quei campi. Ci ricorda Paolo Vecchia come ogni spesa eseguita per proteggerci da quei campi, senza salvare nessuno da nessun rischio, sottrae di fatto risorse pubbliche da emergenze reali e accertate. In nome del Principio di Precauzione molte realtà locali del nostro paese rifiutano quel che altrove è la norma: la messa in opera di inceneritori per i rifiuti. Il risultato paradossale – il paese esporta rifiuti – diventa inquietante, visto che il “prodotto” esportato abbisogna della scorta militare: del paradosso dei rifiuti ci rende partecipe Luciano Caglioti. L’ultima relazione è di Cesare Marchetti, che ci parla di economia a Introduzione 15 idrogeno. L’idrogeno è il nuovo sex symbol energetico. Difficile dire se esso sarà mai il protagonista dell’economia del futuro. In ogni caso, avverte Marchetti, le dimensioni dei volumi energetici richiedono la fonte nucleare per la produzione dell’idrogeno di cui il mondo avrebbe bisogno. Al momento, il Principio di Precauzione frena, nell’opinione pubblica, lo sviluppo di quella fonte. In Italia, più che un freno vi è stato un abbandono. Ma non una rinuncia: il 18% dell’energia elettrica che consumiamo la importiamo dalle fonti nucleari d’oltralpe. Ce n’è quanto basta per riflettere. 16 I costi della non-scienza 17 INDIRIZZO DI SALUTO Roberto De Mattei Sub-Commissario CNR Signore e Signori, porto con piacere il saluto del Consiglio Nazionale delle Ricerche e mio personale al convegno sul Principio di Precauzione che si apre oggi, per iniziativa dell’Associazione Galileo 2001, nelle sale del CNR. Il vostro convegno contribuirà certamente a far maggior luce su un “principio” che resta ancora avvolto da un velo di mistero per l’ambiguità che lo contraddistingue e che ne rende estremamente difficile una definizione. Più che di principio giuridico, si dovrebbe parlare, a mio avviso, di un generico “approccio”, che si situa in un incerta zona di confine tra la scienza, il diritto, la politica e l’etica. La prima e la più nota esplicitazione del principio di precauzione, quella della Conferenza di Rio del 1992, recita all’articolo 15, che «in caso di rischi di danni gravi o irreversibili, l’assenza di certezze scientifiche non deve servire come pretesto per rinviare l’adozione di misure efficaci volte a prevenire il degrado dell’ambiente»: una affermazione che sembra implicare, sicut litterae sonant, un trasferimento di diritti dall’uomo, che è il soggetto giuridico per eccellenza, all’ambiente, entità indefinibile a cui riesce ben difficile attribuire personalità giuridica. Le successive formulazioni del Principio di Precauzione, che ne hanno fatto un cardine della politica ambientale in Europa – come quelle dei trattati di Maastricht e di Amsterdam, la Comunicazione della Commissione del 2 febbraio 2000, la direttiva comunitaria del 17 aprile 2001 e le sentenze della Corte Europea di giustizia – hanno affiancato all’ambiente l’uomo come possibile soggetto a rischio, affermando la necessità di «tutelare preventivamente, accanto all’ambiente, la salute umana». Questo secondo tipo di formulazione può sembrare giudiziosa e come tale viene percepita dall’opinione pubblica, che vede nell’idea di 18 I costi della non-scienza “precauzione” uno strumento di difesa di fronte allo sviluppo vertiginoso delle nuove tecnologie e alla loro diffusione. Tuttavia, anche l’espressione più mitigata del principio di precauzione pone molti problemi. Va ricordato, innanzitutto, che il Principio di Precauzione non deve essere equiparato al principio di prevenzione. Quest’ultimo prevede l’utilizzo di mezzi finalizzati alla rimozione di un rischio scientificamente accertato e dimostrabile, mentre il Principio di Precauzione ha lo scopo di fornire elementi per un intervento di base quando la scienza non è in grado di dare risposte certe su rischi inaccettabili per la collettività. Il Principio di Precauzione scatta cioè, tutte le volte che ci si trova in presenza di una situazione di incertezza scientifica, fa dell’incertezza scientifica il suo presupposto. Ma proprio la premessa del Principio di Precauzione (l’assenza di certezza scientifica), come è stato notato, può essere usata come un grimaldello per tutto e il contrario di tutto. La certezza scientifica è sempre assente, per la natura stessa della ricerca. Uno scienziato non potrà mai dirsi sicuro che una sostanza non abbia alcun effetto negativo, perché, per fare una simile affermazione, dovrebbe aver testato tutti i possibili effetti negativi, il che è praticamente e logicamente impossibile 1. Non a torto, il prof. Franco Battaglia afferma che «il Principio di Precauzione si sostituisce arbitrariamente ad un’analisi e gestione dei rischi effettuata in modo scientifico» e «dà l’occasione per sostituire il dubbio presente in ogni affermazione scientifica con arbitrarie certezze» 2. Battaglia aggiunge che «il rischio del principio di precauzione è che quello spazio di dubbio lasciato dalla scienza potrebbe venir riempito da affermazioni arbitrarie che, dando voce solo ai singoli risultati della scienza che tornano di volta in volta comodi, consente ad alcuni la razionalizzazione dei loro interessi di parte in aperto contrasto con gli interessi della collettività e con l’analisi critica della totalità delle acquisizioni scientifiche» 3. Fondato, sull’enfatizzazione del rischio, il 1 Steven Milloy, Science without Sense, Cato Institute, Washington, DC, 1996 Franco Battaglia, Elettrosmog, un’emergenza creata ad arte, Leonardo Facco Editore, 2002, p. 109 3 Franco Battaglia, loc. cit. p. 109 2 Indirizzo di saluto 19 Principio di Precauzione corre a sua volta un grave rischio: quello di ridursi a semplice “precauzione mediatica” da parte di chi teme di assumersi delle responsabilità davanti alle preoccupazioni della comunità politica che rappresenta. Il rischio è, cioè, che il Principio di Precauzione finisca con l’essere uno strumento di interessi politici, guidato dai media, piuttosto che una garanzia della salute dei cittadini. Sul piano giuridico, l’elemento costitutivo del Principio di Precauzione è l’inversione di un principio fondamentale del diritto occidentale: il principio dell’onere della prova. Il Principio di Precauzione afferma infatti che l’uomo è responsabile non solo di ciò che sa, o dovrebbe sapere, ma anche di ciò che ignora o su cui dubita: diversamente da quanto avviene in base al principio “chi inquina paga”, nel Principio di Precauzione la dimostrazione di un rapporto causale tra l’attività umana e il danno ambientale non spetta ex post ai danneggiati, ma ex ante ai produttori dell’ipotetico danno 4. Il concetto che emerge è quello di una giustificazione previa, che dovrà costituire il culmine di un procedimento a carico del produttore 5. Significativa appare a questo proposito la definizione di Jean Malafosse: “Il Principio di Precauzione si traduce nell’inversione dell’onere della prova con lo scopo della tutela dell’ambiente” 6. Si potrebbe obiettare che il principio dell’onere della prova rappresenta un cardine del diritto privato, ma non si applica in maniera altrettanto chiara ed automatica al diritto pubblico, in cui l’interesse della collettività deve prevalere su quello del singolo. Ma se il soggetto tutelato deve essere prima dell’ambiente l’uomo, anche sotto questo aspetto, il Principio di Precauzione non risolve, ma anzi apre il delicato problema del rapporto, non solo economico, tra costi e benefici. In una situazione di incertezza scientifica infatti l’approccio cautelare non apporta necessariamente un beneficio al soggetto che vuole tute- 4 Alexandre Kiss-Dinah Shelton, Traitè de Droit Eeuropéen de l’Environment, Frison Roche, Paris 1995, p. 42. 5 Cathèrine Giraud, Le Droit et le principe de précaution: leçons d’Australie, “Revuè Juridique de l’Environnement”, p. 33. 6 Jean Malafosse, La Semaine Juridique-Edition Génerale n. 52 (1998), pp. 2273-2276. 20 I costi della non-scienza lare. In assenza di certezze scientifiche, chi può dire infatti se una azione innovativa comporti per l’uomo maggiori rischi o benefici? Il Principio di Precauzione quindi a dispetto del suo nome, può rivelarsi estremamente rischioso, come è emerso dall’incidente aereo di Linate dell’ottobre 2001, che si sarebbe potuto evitare se si fosse installato un adeguato radar. In nome della tutela da inquinamento elettromagnetico, grazie alle norme volute sulla base del Principio di Precauzione, l’installazione di quel radar subì 10 mesi di ulteriore ritardo, e molte vite sono andate perdute. In realtà, la storia del progresso umano è inseparabile dall’idea di rischio. D’altra parte se il Principio di Precauzione fosse condotto alla sua ultima coerenza giuridica dovrebbe condurre a una forma di “proibizionismo” assoluto, vietando non solo l’uso degli alcolici e dei tabacchi e limitando drasticamente quello delle automobili, ma ogni innovazione e scoperta scientifica che, in quanto nuova, comporta sempre, per definizione, un margine di incertezza e di rischio. Permettetemi di aggiungere che questo proibizionismo non ha nulla a che fare con quello della morale tradizionale. Nel suo rapporto con la scienza, l’etica non nega il progresso, ma solo un suo sviluppo disordinato, mentre l’idea di precauzione, assunta a nuovo principio etico-giuridico implica la negazione dell’idea stessa di ogni progresso e rischia di trasformarsi dunque in principio di regressione dell’umanità. Su questi temi io sono intervenuto da umanista voi parlerete con ben maggior competenza da scienziati. Vi formulo i miei più sinceri auguri di buon lavoro. 21 PERCHÉ GALILEO 2001 Renato Angelo Ricci Presidente dell’Associazione Galileo 2001 E sattamente un anno fa – il 19 febbraio 2003 – si è costituita la nostra Associazione. Per questo, il 19 febbraio sarà d’ora in poi la data del nostro Convegno Nazionale. Ma Galileo 2001 era già un movimento nato due anni prima, il 17 luglio 2001, a seguito di una serie di iniziative che si proponevano di dare corpo ad una esigenza ormai esplicita di buona parte della comunità scientifica nazionale: affermare la necessità del valore primario della scienza, in particolare nelle questioni ambientali. Oggi l’ufficio o compito di occuparsi delle sorti del pianeta, della salvaguardia dell’ambiente naturale, dell’habitat umano, della salute, viene svolto da molti – panel internazionali, agenzie, commissioni, associazioni varie, organizzazioni più o meno volontarie – e si rifà non solo e non tanto a vocazione o idealità, ma ormai – il che potrebbe essere inteso come dovere sociale e assenso politico necessario – a impegno socio-economico che dovrebbe avere un solido supporto tecnico-scientifico. Tuttavia, mentre il dato socio-politico e la sua estrapolazione economica e perfino finanziaria (il business ecologico) è più che acquisito, tanto da esser divenuto – negli ultimi decenni – patrimonio della burocrazia di potere, oltre che strumento di condizionamento pubblico, il dato tecnico-scientifico, indispensabile per comprendere e governare il problema è lungi dall’essere adeguatamente assicurato. Ne consegue che la consapevolezza sociale e la responsabilità politica non sempre si trovano nella condizione o nella capacità cognitiva di seguire, approfondire ed accettare l’evoluzione scientifica e le sue ricadute tecnologiche, e di appropriarsi di una cultura adeguata e diffusa, necessaria alla definizione di posizioni e decisioni conseguenti e basate su conoscenze affidabili. 22 I costi della non-scienza Nella difficile fase decisionale, al fine di affrontare un problema d’interesse per la salvaguardia dell’ambiente e della salute e che vede i responsabili politici coinvolti in prima persona, occorre tener presente, per ogni singolo problema, quali siano i fattori dominanti e concentrare su di essi l’attenzione se non si vuole correre il rischio di impiegare risorse, a volte anche ingenti, senza ottenere giovamenti apprezzabili. In altri termini, il contributo scientifico alla valutazione dei problemi ambientali impone un approccio quantitativo che è condizione almeno necessaria per la corretta interpretazione dei criteri precauzionali e della loro collocazione in termini della cosiddetta sostenibilità dello sviluppo della civiltà umana. Pertanto, chiave di volta di questo processo – che, per essere virtuoso, deve liberarsi da condizionamenti ideologici – è l’informazione. Da tempo ormai si pone la questione dell’informazione scientifica ai fini di una cultura adatta all’attuale evoluzione della società, in particolare nei paesi industrialmente avanzati. Assumono particolare rilievo le conoscenze scientifiche che si confrontano con posizioni ambientaliste che, anche se dettate apparentemente da preoccupazioni legittime per il rispetto della natura e la salvaguardia della salute umana, si contraddistinguono per la carenza di fondamenti scientifici accertati e per il loro dogmatismo fondamentalista, foriero di allarmismi infondati. Casi esemplari sono la demonizzazione dell’energia nucleare, l’ostracismo alle ricerche biotecnologiche e ai procedimenti tecnologici avanzati in tema di smaltimento dei rifiuti, il problema dei residui radioattivi, il problema dell’uranio impoverito, il catastrofismo correlato ai cambiamenti climatici imputati all’effetto serra di origine antropica e, infine, il cosiddetto elettrosmog o inquinamento elettromagnetico. È un paradosso della società moderna – e in particolare nel nostro paese – che, mentre da una parte gli aspetti scientifici e tecnologici diventano sempre più importanti per il nostro modo di vivere, dall’altra l’educazione scientifica del pubblico in generale continua a ridursi. Questo si traduce in un allontanamento dalla concezione scientifica di ogni valutazione che abbia a che fare con problemi socio-economici e – ciò che è ancora più grave – con decisioni politiche riguardanti lo sviluppo culturale, l’ambiente e la salute, con in più l’aggra- Introduzione 23 vante culturale di considerare, quasi preliminarmente, ogni azione umana non solo criticabile ma addirittura pericolosa. Per questo deve essere respinta un’impostazione ideologica che metta l’uomo sul banco degli accusati (e quali sarebbero gli accusatori degni di un tribunale totalitario?) con paradossale atteggiamento masochista, e ponga la natura su un piedestallo come un totem immacolato ed immutabile. Due sono i motivi di preoccupazione al riguardo: l’irrazionalità delle posizioni di un ambientalismo radicale che fa leva sull’emotività delle popolazioni senza alcun serio riscontro scientifico, da una parte, e una informazione, da parte dei mass-media, che privilegia il catastrofismo e la notizia spettacolare spesso deformata, se non addirittura falsa, dall’altra. Questi fantasmi che si aggirano fra la gente, portatori di un oscurantismo antiscientifico che imputa alla scienza catastrofi immaginarie pretendendone d’altra parte interventi e miracoli impossibili (quasi a titolo espiatorio) rischiano di abbassare il livello culturale e la capacità critica dell’opinione pubblica nonché la consapevolezza degli amministratori pubblici. Vi sono ormai numerosi esempi non solo di disinformazione ma anche e soprattutto di ingannevole diffusione di pseudo conoscenze e di dati incerti e inaffidabili che, lungi dal portare un doveroso contributo alle conoscenze necessarie alle valutazioni sociali e utili alle decisioni politiche, distorcono i messaggi e confondono l’opinione pubblica. Un caso significativo, che del resto ha costituito il motivo di partenza delle iniziative che hanno spinto alcuni di noi alla costituzione del Movimento Galileo 2001, è stato e rimane quello del cosiddetto elettrosmog. Questo problema, che dovrebbe semmai riferirsi come rischio sanitario da campi elettromagnetici è esemplare per il battage catastrofista di buona parte degli organi di comunicazione e l’inquinamento – qui è il caso di dirlo – culturale e sociale che ha prodotto e tuttora sta producendo. Ciò ha costretto buona parte della comunità scientifica a prendere posizione nel corso della passata legislatura e ad inviare un appello al Presidente della Repubblica al riguardo. Cito un passo significativo: «Recentemente in Italia, nell’incuranza dell’analisi critica di tutte le risultanze scientifiche effettuate da molteplici organismi scientifici in- 24 I costi della non-scienza dipendenti e ufficialmente riconosciuti, per affrontare il cosiddetto inquinamento elettromagnetico si sono predisposti atti e normative che, dal punto di vista della rilevanza sanitaria, sono destituiti di ogni fondamento scientifico». Un altro esempio illuminante è quello delle posizioni acritiche e demagogiche riguardanti la ricerca e l’utilizzazione degli OGM (organismi geneticamente modificati), in particolare nel campo agroalimentare. Anche in questo caso, nel 2001 si assistette alla clamorosa protesta dei mille scienziati (i premi Nobel Renato Dulbecco e Rita Levi Montalcini in testa, ma anche Edoardo Boncinelli, Silvio Garattini, Tullio Regge, Angelo Spena, fin oltre 1.500, in verità) contro un vero e proprio atteggiamento oscurantista dell’allora Ministero delle Politiche Agricole (ministro in carica Pecoraro Scanio) nei riguardi della ricerca scientifica sugli OGM. Non ci soddisfò allora il modo in cui tale manifestazione fu ricondotta a più miti consigli né, del resto, ci soddisfa oggi una politica ministeriale che non sembra accogliere né comprendere il vero significato culturale e sociale delle ricerche in campo biotecnologico. E ci preoccupano iniziative demagogiche di certi governi regionali che, sulla scia dei messaggi di un certo fondamentalismo ambientalista miope e oscurantista, assumono posizioni e sollecitano timori popolari ingiustificati e, a volte, purtroppo, incontrollabili. Il modo stesso in cui sono considerati altri problemi, quali lo sviluppo tecnico-economico, la questione energetica e lo smaltimento dei rifiuti, in particolare quelli tossici e radioattivi, e la difficoltà nel trattarli e nell’avviarli a soluzione, rendono queste preoccupazioni ancora più pesanti se si pensa che, all’origine di tali difficoltà, vi è essenzialmente una carenza di considerazione delle analisi e delle conoscenze scientifiche. Mi piace qui sottolineare alcune indicazioni che, nel 2001, allora come Commissario Straordinario dell’ANPA (Agenzia Nazionale per la Protezione dell’Ambiente – oggi APAT) segnalai per affrontare al meglio i problemi ambientali in sede istituzionale: «• considerare essenziali, e quindi promuovere, il patrimonio di conoscenze e competenze tecnico-scientifiche esistente all’interno delle Istituzioni e collegarle maggiormente con il sistema informativo; • privilegiare scientificamente ed operativamente la qualità della Perché Galileo 2001 25 raccolta, dell’analisi e della diffusione dei dati e delle conoscenze ambientali con riferimento all’approccio quantitativo». Occorre far rilevare come questo approccio quantitativo abbia valore non dogmatico, ma anche che l’oggettività scientifica, entro i suoi limiti operativi, è comunque la più affidabile. Sono la portata e il significato dell’indagine scientifica che devono essere meglio conosciuti. Per questo noi dicevamo e diciamo: «Il fatto che le conoscenze scientifiche, per la natura stessa del metodo d’indagine e di verifica dei risultati, si accreditino con spazi di dubbio sempre riducibili ma mai eliminabili, costituisce l’antidoto principale verso ogni forma di dogmatismo, scientismo, intolleranza e illiberalità, ma non può giustificare il considerare tali conoscenze opinabili e, peggio, inattendibili. La voce della scienza è certamente più affidabile e anche umanamente – oltre che intellettualmente – più consapevole delle voci incontrollate e dogmatiche che, fuori di ogni rilevanza scientifica, pretendono di affermare verità basate sull’emotività irrazionale tipica delle culture oscurantiste». È in effetti fuorviante la pretesa di richiamarsi alle incertezze scientifiche da cui deriverebbero le contraddizioni nell’informazione e le confusioni nell’interpretazione, di nuovo per difetto di conoscenza della metodologia scientifica. Sarebbe interessante ricordare osservazioni, opinioni ed illazioni che da tempo si sono manifestate e si manifestano confondendo i problemi sotto analisi e i dati sotto verifica con affermazioni intempestive e non dotate della sufficiente cautela in tema di acquisizione. È curioso – val la pena di notare – come il Principio di Precauzione che viene invocato ad ogni pie’ sospinto qualunque sia la portata di un eventuale segnale di attenzione – anche in contrasto con chiare indicazioni tecnico-scientifiche, ambientali e sanitarie – non viene adottato per evitare allarmismi ingiustificati (a proposito: che ne è del reato di procurato allarme?), sostituendoli con raccomandazioni più serene ed anche – pure questo è un dovere – con segnali più rassicuranti. Un caso tipico, oltre a quelli già citati, è quello dei cambiamenti climatici, che non possono essere delegati soltanto all’invenzione di modelli sempre più sofisticati, assumendo come ipotesi – sia pure neces- 26 I costi della non-scienza sarie, ma non sufficienti, parziali e riduttive – quali l’effetto serra di origine antropica, e richiedono una valutazione più approfondita di ricerche e dati osservazionali e storico-geofisici, in termini scientificamente affidabili. E qui occorre un riferimento esplicito: sulla base del Principio di Precauzione e partendo da considerazioni eccessivamente allarmistiche relative all’eccesso di contributi antropici alla emissione di gas-serra, si è costruito il paradosso del Protocollo di Kyoto che, da una parte, sancisce le restrizioni atte a ridurre tali emissioni (al 95% di quelle del 1990 entro il 2012),1 dall’altra non affronta quantitativamente l’effetto di tali interventi (non più dello 0,05 per mille sul contenuto totale di CO2 in atmosfera) di fronte ai costi (notevoli, per non dire enormi) dell’operazione. Interviene qui pertanto un confronto emblematico tra un criterio puramente politico quale il Principio di Precauzione e uno scientificamente e socialmente più accettabile quale il rapporto rischi/benefici. In effetti, i 3 concetti fondanti della cultura ambientale corrente sono: lo sviluppo sostenibile, il Principio di Precauzione e il rapporto rischi/benefici. Val la pena di ricordare come il primo (dizione classica: lo sviluppo è sostenibile se soddisfa i bisogni del presente senza compromettere le possibilità delle future generazioni di soddisfare i propri) sia un criterio originariamente economico in cui ci si pone il problema del futuro (occhio al futuro), tanto è vero che il termine “sostenibile”, che deriva dalla traduzione del testo inglese “sustainable”, è in realtà associato all’originaria espressione in francese “developpement durable” (sviluppo durevole). Le due espressioni non pongono soltanto una questione nominalistica, ma hanno finito per assumere significati concettuali diversi o complementari in cui la questione ambientale diventa un elemento indispensabile (sostenibilità), oppure integrata nel progresso socio-economico (durata). 1 Trascurando il fatto che già oggi, per esempio in Europa, si è in largo eccesso rispetto all’obbiettivo proposto di una riduzione globale del 6%; in Italia, di fronte a un eccesso attuale del 4,4%, la riduzione prevista del 6,5% diventerebbe quindi dell’11%. Perché Galileo 2001 27 Da ciò, le interpretazioni estremistiche (ambientalismo radicale) e quelle razionali (compatibilità funzionale al progresso). La prima accentua i limiti e i freni del concetto di precauzione, la seconda tende a privilegiare – ed è questo il nostro punto di vista – il rapporto rischi/benefici. È in effetti il secondo criterio, cioè il Principio di Precauzione (oggetto del nostro dibattito) a costituire gli elementi di maggiore ambiguità. L’enunciato standard adottato, ad esempio, dal trattato di Maastricht (U.E. 1992) non è diretto ma circonvoluto (e quindi è tutt’altro che un criterio scientifico) e sostiene che: Al fine di proteggere l’ambiente, il P.d.P. deve essere largamente applicato dagli Stati a seconda delle loro possibilità. Quando vi siano pericoli (minacce) di danni seri e irreversibili (ecco quindi la definizione più o meno chiara) la mancanza di certezza scientifica piena non dovrà essere usata come una ragione per posporre misure economicamente efficaci per prevenire il degrado ambientale. Che sia un criterio ambiguo, o per lo meno tortuoso, è dimostrato da termini quali la «certezza scientifica piena (sic!)» e concetti quali «non posporre per prevenire». Lascio ai colleghi, in particolare a Tullio Regge, l’illustrazione dei trucchi verbali che ammantano tale Principio nelle innumerevoli enunciazioni. Mi basterà qui accennare al ripiego cui lo stesso trattato della U.E. ricorre con il paragrafo 3, ove cerca di correre ai ripari affermando che «nel preparare la sua politica ambientale la Comunità dovrà tener conto dei dati scientifici e tecnici disponibili così come dei benefici potenziali e dei costi, sia delle azioni (prese) che della mancanza di azioni». Se dovessimo applicare tale raccomandazione al Protocollo di Kyoto, per esempio, dovremmo dar ragione agli Stati Uniti e alla Russia che non hanno ratificato e non ratificheranno tale trattato. E siamo, ovviamente, al rapporto costi/benefici (intendendo costi in senso lato, economici, sociali, ambientali, sanitari o anche di vite umane). Questo stesso criterio, come ho già accennato, è non solo il più ragionevole e comprensibile (si definisce da solo), ma effettivamente l’unico praticabile, anche in termini quantitativi e quindi scientificamente e socialmente più accettabile. Per dirla con l’amico Franco Battaglia, esso precede o contiene il principio di priorità, che specifica e quantifica gli interventi correnti con una valutazione con- 28 I costi della non-scienza creta delle conseguenze delle nostre azioni in senso sia negativo che positivo. Una volta introdotto, il criterio del rapporto rischi/benefici diviene uno strumento, se concepito in termini integrati (economia, salute, ambiente, scientificità), più adeguato per gestire i veri problemi e le possibili emergenze. Può essere interessante far notare come tale concetto sia collegato ad una evoluzione socio-politica che, partendo da posizioni concettuali esagerate in un senso (minimizzazione dei rischi ed enfatizzazione dei benefici) abbia via via portato ad una esagerazione opposta (enfatizzazione dei rischi e minimizzazione dei benefici). Il tutto certamente legato a valutazioni spesso troppo qualitative. È la scienza che ha dato e può dare un inestimabile contributo (perché misurabile e quantitativo) al bilanciamento corretto dei due termini-confronto. In effetti, si consideri come ci si rapporta rispetto ad ogni processo evolutivo (dinamica della società).2 Un cambiamento può rendere il mondo o più sicuro o più pericoloso. Bisogna prendere in considerazione entrambi i casi. In un mondo perfetto si potrebbe sempre distinguere fra i due casi in modo schematico (si/no). Nel mondo reale ciò non è possibile, e si presentano due tipi di errori. L’errore di primo tipo può enunciarsi così: Un cambiamento, in realtà pericoloso, viene ritenuto invece tale da rendere il mondo più sicuro (esempi tipici: l’uso dell’amianto e del talidomide). L’errore di secondo tipo è così esprimibile: Un cambiamento che migliora la sicurezza (sostanzialmente benefico) viene invece considerato pericoloso (esempi: beta bloccanti, DDT, OGM). È chiaro che il concetto di cambiamento qui va inteso in senso lato relativo all’utilizzazione di strumenti, di tecnologie, di approcci innovativi, etc. La sfida intellettuale, ma anche socio-politica, è trovare il giusto punto di equilibrio, ed è evidente che il parametro di misura è il rapporto rischio/beneficio. Da una parte vi è il pericolo di correre troppo 2 Queste considerazioni sono riprese da Statistica e teorie della decisione di Fred Smith (Competitive Enterprise Institure, Conferenza ALEPS, Parigi, 2000). Perché Galileo 2001 29 (futuribilità, innovazione esasperata), dall’altra quella di star fermi (immobilismo tecnologico). A questi due estremi corrispondono le due concezioni limite sopra accennate: da un lato un mondo sotto-cautelato (processi di industrializzazione forzata, ad esempio) dall’altro un mondo sopra-cautelato (principio di precauzione esasperato). Cum granu salis verrebbe da dire e forse, o senza forse, la scienza ha da dire la sua. La scienza non è foriera di catastrofi né dispensatrice di miracoli. Malgrado sia un messaggio difficile da far passare – a causa dell’educazione e dell’informazione comune – occorre ribadire l’informazione corretta sulla metodologia scientifica che procede fra dubbi e verifiche e che su questa base dà ragionevoli certezze e non si affida a dogmi di sorta. La chiave di volta – ripeto – è l’informazione scientifica, un’informazione serena ed obiettiva, che deve costruire un doveroso riferimento per gli addetti alla comunicazione da una parte e, dall’altra, un impegno delle comunità scientifiche per evitarne la distorsione e l’uso strumentale interessato. 31 UN’ALLEANZA PER LA SCIENZA Umberto Veronesi 1 Presidente Onorario dell’Associazione Galileo 2001 R ingrazio gli organizzatori per questo invito. Sono stato tra i primi sostenitori di questo Movimento, quindi mi fa piacere vedere come stia crescendo e stia avendo anche il successo di pubblico che si merita. Partendo proprio dall’osservazione del distacco che si è creato tra il mondo della scienza e la società, un distacco non nuovo, accentuato dal fatto che la scienza di oggi ha assunto un’evoluzione vigorosa, grazie al fatto che sono entrate nel mondo scientifico nuove aree di sviluppo, quali: l’informatica, le biotecnologie, le telecomunicazioni, che non esistevano fino a pochi decenni fa e che hanno dato un’accelerazione notevole. Come sempre, quando si va molto velocemente c’è una reazione che è proporzionale e contraria alla velocità dell’evoluzione. D’altro canto, questa dissociazione non è nuova se pensiamo all’enunciazione della teoria eliocentrica di Copernico che è del 1543. Se andiamo a guardare la storia del secolo successivo, il cittadino europeo ha incominciato a pensare che forse Copernico aveva ragione solo verso la fine del ’600, quindi un secolo e mezzo dopo. C’è sempre un lungo periodo di riflessione – chiamiamolo così – prima di accettare le grandi novità. D’altra parte la storia della scienza è stata una storia a singhiozzo. Abbiamo avuto periodi di grandi accelerazioni e di battute d’arresto, se pensate che nella Mesopotamia di 4000 anni fa nel giro di cento anni è stato scoperto l’aratro, l’irrigazione, l’astronomia, la scuola, buona parte del linguaggio; per poi avere un lungo periodo di silenzio fino al 1 Ex Ministro alla Salute 32 I costi della non-scienza quarto/quinto secolo avanti Cristo, quando in Grecia Talete, Zenone, Empedocle, Pitagora, per non parlare di Aristotele e di Platone, hanno di nuovo messo le basi per il pensiero logico e per la razionalità del pensiero scientifico. Poi di nuovo silenzio, fino a quando Ibn Rushd e Ibn Sina hanno ripreso e riscoperto il pensiero greco, per poi arrivare all’Umanesimo e al Rinascimento e all’avvio, con l’Illuminismo, del pensiero scientifico moderno di cui oggi vediamo i frutti. Una storia difficile, influenzata dai fattori che hanno sempre condizionato, e che anche oggi condizionano, lo sviluppo scientifico, e cioè il potere politico da una parte, e il potere religioso e i movimenti di opinione da un’altra. Molto è stato già detto sul potere politico e sulle sue influenze sulla scienza. Per molti secoli nel mondo dell’assolutismo lo scienziato è stato visto con sospetto, perché chi è ricco di conoscenza ha un potere che può essere minaccioso. Lo scienziato è ancor oggi visto con diffidenza e il mondo della scienza è fortemente condizionato dal pensiero politico. Certamente non c’è molto amore per la scienza in gran parte degli uomini politici. Per di più oggi si è sovrapposto un fenomeno contingente: che lo sviluppo scientifico e la ricerca di oggi sono sempre più costosi e richiedono sempre più finanziamenti. Finanziamenti che non possono che essere prevalentemente pubblici. Per questo vengono premiate quelle ricerche promettenti risultati a breve termine che sono quelli, dal politico stesso, in qualche maniera fruibili. Questo porta ad uno spostamento dell’impegno finanziario a favore della ricerca applicata penalizzando fortemente la ricerca di base, problema che abbiamo davanti a noi quotidianamente: tutti sappiamo che senza una forte ricerca di base la ricerca applicata si impoverirà. Ecco che, soprattutto in un mondo in cui il ricambio dei governi è abbastanza rapido, il pensiero di chi regge le sorti del Paese è quello di avere risultati a breve termine, e questo non può che venire dalla ricerca applicata. La ricerca pura è una ricerca che richiede una cultura strategica che spesso manca nel mondo politico di oggi. Per quanto riguarda il potere religioso, sappiamo che c’è una base logica per il dissidio tra il mondo della scienza ed il mondo della religione. Il mondo della scienza si sviluppa all’interno di un orizzonte razionale ed il mondo della religione si sviluppa all’interno di un orizzonte di fede, metafisico. Non è quindi facile conciliare i due elementi. Non voglio dare giudizi storici, ma basta ricordarsi che Socrate do- Un’alleanza per la scienza 33 vette bere la cicuta per aver affermato di non credere negli dei dell’Olimpo. E poi il nostro sodalizio si chiama “Galileo” e questo già ci ricorda come Galileo Galilei abbia rappresentato la grande dimostrazione della difficoltà della scienza a svilupparsi all’interno di un mondo pervaso dalla fede. Ci sono state delle eccezioni certamente: Gregor Mendel, un monaco all’interno di un convento, ha scoperto le basi della genetica, e Copernico stesso era un religioso, era un canonico, aveva preso i voti. Infatti, io mi sorprendo sempre come abbia potuto (in quel periodo, la metà del ’500) aver scritto un libro così forte, così violento nei riguardi anche delle concezioni bibliche del mondo, il famoso volume De Revolutionibus orbium coelestium e che fu posto sul suo letto di morte due giorni prima che concludesse la sua esistenza. Mi chiedo come abbia potuto avere questo coraggio: un libro che ha lasciato in eredità un rivolgimento delle idee, che doveva avere influenze enormi sulla visione del ruolo dell’uomo nell’universo, giacché da quel momento l’uomo doveva smettere di credersi al centro dell’universo. Quindi un capovolgimento anche filosofico di grandi proporzioni. Se ci pensiamo bene, Copernico ha potuto fare questo perché l’Europa era scossa da una fortissima incertezza a livello teologico dovuta allo scisma luterano di pochi anni prima. Se guardiamo in questi giorni la legge sulla fecondazione assistita, vediamo che è fortemente influenzata da pensieri che non sono razionali, che non sono pensieri di scienza ma sono pensieri di fede e quindi dobbiamo renderci conto che ancora oggi siamo in questo dibattito, forse meno violento (non ci porterà certo a guerre di religione), ma dobbiamo rendercene conto e prenderne atto, e naturalmente agire con la nostra solita fermezza. Lasciando libero ad ognuno il proprio pensiero, la propria fede, ma pensando che in un mondo che è sempre più pluralistico, sempre più policonfessionale, una religione non deve avere il sopravvento sulle altre o su chi non ha il bisogno della fede. Il terzo problema che è venuto fuori e da cui voglio prendere spunto dopo le bellissime parole del nostro presidente, è quello della reazione popolare da cui è nato proprio il PdP, perché è un principio ideologico e politico, non certo un principio scientifico. La precauzione non è quantificabile, è un atteggiamento dell’uomo come la prudenza, come il coraggio o come la voglia di conoscere. Sono tutti atteggiamenti naturali che si sono sviluppati nei millenni e quindi niente 34 I costi della non-scienza hanno a che vedere con l’indagine e la riflessione scientifica. Per secoli la scienza è stata un fenomeno elitario ristretto a pochissime persone, fino a quando nel ’600 (e poi nel ’700 con l’Encyclopedie di D’Alambert e di Diderot) ha incominciato a conquistare al mondo della scienza la classe borghese, conquista che poi è stata tra le premesse della rivoluzione francese. Successivamente, questa divulgazione della scienza si è estesa in maniera così considerevole che oggi la scienza è alla portata di tutti grazie ai mezzi di comunicazione di massa, alla stampa, alla televisione e alla radio e ad internet. Questo va benissimo sotto certi aspetti: non possiamo che essere lieti che la scienza penetri nel pensiero della popolazione. Ma, purtroppo, gli strumenti di informazione non sono certamente alla ricerca della verità, sono alla ricerca di sensazionalismo, di vendere i giornali o di avere più audience, e quindi questo inevitabilmente porta ad una distorsione dell’informazione. Questo diverso modo di comunicare la scienza a sua volta può essere strumentalizzato. I giornali possono essere influenzati da pensieri ideologici o da movimenti politici o da movimenti popolari o dal bisogno di creare un livello di sottocultura nella popolazione, perché la popolazione meno colta è più facilmente manovrabile, e l’abbiamo visto nel PdP come negli OGM. Come si fa a non reagire al fatto che in questo decennio vengono messi a fuoco alcuni ettari di mais perché contengono lo 0,5 per mille di mais modificato, quando tutto il mondo sa che il mais geneticamente modificato è chiaramente migliore del mais naturale? Il presidente del Comitato Nazionale Biosicurezza e Biotecnologia, Leonardo Santi, ha parlato del caso Di Bella come di un caso sintomatico. Io ho vissuto il caso della mucca pazza, altrettanto sintomatico: un allarmismo assolutamente ingiustificabile. Oggi la popolazione è persa, non sa cosa pensare degli embrioni soprannumerari, della fecondazione assistita, del diritto a non farsi curare, del diritto o del dovere alle cure, del consenso informato, degli OGM o dell’utero in affitto o della clonazione terapeutica, o della futura clonazione dell’uomo, che arriverà prima o poi. Hanno clonato una pecora, poi un cavallo, poi un asino e quindi arriverà un giorno in cui troveremo una donna che ci dirà: «questo bambino l’ho clonato da me stessa». Ormai siamo alle soglie di questi avvenimenti e quindi è proprio su questa base che noi tempo fa avevamo detto: «guardate che le potenzialità delle biotecnologie come quelle Un’alleanza per la scienza 35 dell’informatica, come quelle delle telecomunicazioni sono esplosive e siamo solo all’inizio. Siamo solo ai primi vagiti di una scienza che ha possibilità enormi». Questo ci impone il dovere di sederci intorno ad un tavolo e di pensare che l’Europa crei una “camera alta” che non sia politica, che sia l’insieme di uomini di scienza ma anche di filosofi, di teologi, che discutano e che comincino a disegnare la società del futuro, perché certamente questa rivoluzione scientifica, deve continuare ad avere una funzione civilizzatrice, ma ci porrà davanti a temi certamente difficili. I limiti che devono essere posti non devono essere dettati dalla paura, perché la paura è sempre una cattiva consigliera. Per concludere, ripeto sempre che il nostro più grande nemico è l’ignoranza. A mio parere occorre una grande umiltà per non schierarsi senza approfondimenti perché l’ignoranza non dà nessun diritto né a credere né a non credere, e l’etica deve avere una funzione di guida e non di freno allo sviluppo del pensiero scientifico. 37 IL PRINCIPIO DI PRECAUZIONE: PRECAUZIONE O RISCHIO? Franco Battaglia Università di Roma Tre Sommario S osterremo qui l’opportunità, se non la necessità, di sopprimere il Principio di Precauzione (PdP). Il PdP è, innanzitutto, mal posto: la certezza scientifica è sempre assente. Poi, esso è ambiguo, visto che può essere invocato sia per intraprendere un’azione che la sua opposta. Infine, il PdP è, a dispetto del suo nome, rischiosissimo, come numerosi esempi testimoniano. Con le facili critiche cui l’enunciato si espone, chiamarlo “principio” è quanto meno azzardato. Quindi, l’enunciato del PdP non ha nulla che gli consente di fregiarsi dell’appellativo di “principio”, e non ha nulla a che vedere con la “precauzione”. Termino con un appello alle società scientifiche affinché riflettano sull’opportunità di promuovere, presso i livelli istituzionali, azioni atte alla soppressione del PdP ed, eventualmente, se proprio si sentisse il bisogno di un principio guida, di sostituirlo col Principio di Priorità, che viene enunciato. Breve storia della nascita di Galileo 2001 In considerazione del fatto che questa relazione è presentata in occasione del I congresso nazionale dell’associazione Galileo 2001 – l’evento con cui l’associazione stessa si presenta al pubblico – mi fa piacere far precedere la relazione vera e propria dal racconto di come l’associazione nacque. Tutto cominciò nel 1999 – mia figlia Cleis andava ancora alla scuola materna – quando mia moglie mi chiese se ci saremmo dovuti preoccupare dell’elettrosmog. Se ne sentiva parlare, quasi tutti i gior- 38 I costi della non-scienza ni, in tutti i canali radiotelevisivi, nazionali e locali, e se ne leggeva in tutta la carta stampata, quotidiana, settimanale e mensile: centinaia di bambini in Italia, si diceva e scriveva, avevano contratto la leucemia a causa dell’inquinamento elettromagnetico. A difenderci da questa nuova peste – venivamo nel contempo informati – ci avrebbe pensato il Ministero dell’Ambiente, per diretto e personale interesse (un interesse indubbiamente molto personale, vedremo) del ministro di allora, Willer Bordon e del suo sottosegretario Valerio Calzolaio, approntando leggi severissime che, con la modica spesa di centomila miliardi di vecchie lire, avrebbero salvato i nostri bambini. Per rispondere alla preoccupata domanda di mia moglie, consultai i rapporti, contenenti l’analisi critica della totalità delle risultanze scientifiche, rilasciati dalle più accreditate istituzioni: Associazione americana di fisica (APS), Organizzazione mondiale della sanità (OMS), Agenzia internazionale per la ricerca sul cancro (IARC), Commissione internazionale per la protezione dalle radiazioni non-ionizzanti (ICNIRP), Associazione americana di medicina, l’americano Istituto nazionale di cancerologia (NCI). Dopo un paio d’ore di lettura, ebbi la risposta per mia moglie: l’elettrosmog non esiste. Avevo passato anni della mia vita ad eseguire, nell’isolamento del mio studio, calcoli quantomeccanici su sistemi molecolari che, tutto sommato, interessavano me e altri quattro gatti al mondo. La sorte mi aveva offerto l’opportunità di rendermi utile, e così decisi di telefonare alla redazione di quello che ritenevo fosse il più rispettabile quotidiano italiano, chiedendo di parlare con un capo-redattore. – Mi chiamo Franco Battaglia – esordii – e sono docente al Dipartimento di Fisica dell’Università di Roma Tre: v’interessa un articolo sull’elettrosmog? – E come no, professore, è l’argomento del giorno! Ma, mi raccomando, non sia troppo tecnico. Sa… i nostri lettori… Piuttosto, cosa vorrebbe scrivere? – Beh, scriverei, e motiverei, che l’elettrosmog non esiste. – Allora no, non c’interessa. – Ma come… le leucemie… i bambini… la gente terrorizzata… Riprovai con altri quotidiani. Niente da fare: lo schema della conversazione fu lo stesso. Finché Il Giornale di Cervi e Belpietro si mostrò interessato, e accettò l’articolo «Elettrosmog: tanti allarmismi per Il principio di precauzione: precauzione o rischio? 39 nulla» 1. Iniziò così una collaborazione, e altri articoli seguirono: «Da Copernico al biotech, la guerra alla scienza», «L’auspicabile ritorno al nucleare», «La bufala dell’effetto serra», «Bugie sugli OGM», «L’eccessiva paura alle radiazioni» 2. Gli articoli dovettero solleticare l’attenzione di Maurizio Belpietro, che incaricò una delle sue penne più brillanti d’intervistarmi. Giancarlo Perna produsse un’intervista che uscì a piena pagina, con tanto di mia foto 3. Succo dell’intervista: in tutto quello che avevo scritto nei miei precedenti articoli non v’era una parola di mio, essendomi io limitato a riportare la voce della comunità scientifica accreditata. A tamburo battente, il ministro verde Gianni Mattioli telefonò al Giornale chiedendo un’intervista anche per lui: di nuovo, piena pagina con tanto di foto del ministro 4. Succo dell’intervista a Mattioli: Battaglia è un asino. Perna – che dev’essere uno spirito scientifico – aveva bisogno di un terzo parere, e andò da Tullio Regge: per la terza volta, piena pagina con foto (di Regge) 5. Il verdetto del premio Einstein per la fisica ed ex europarlamentare del Pci non fu salomonico: il somaro è Gianni Mattioli 6. Tutta questa pubblicità mi portò all’attenzione di Renato Angelo Ricci, presidente per 17 anni (ora onorario) della Società Italiana di 1 Il Giornale, 27.9.2000. Si veda Il Giornale, alle date: 18.7.2000, 4.9.2000, 15.9.2000, 27.9.2000. 3 G. Perna, «Il catastrofismo è un’arma elettorale», Il Giornale, 22.10.2000. 4 G. Perna, «Il ministro va alla guerra contro il Prof. Battaglia», Il Giornale, 31.10.2000. 5 G. Perna, «L’astrofisico assolve l’ammazza-ecologisti», Il Giornale, 12.11.2000. 6 Inutile specificarlo, Regge – da gentiluomo qual è – non apostrofò così Mattioli, ma certamente lo sconfessò su ogni tema affrontato nelle interviste di Perna. Anche se – mi ha raccontato più di un collega – corre il pettegolezzo che Mattioli sia stato così apostrofato in pubblico da Edoardo Amaldi, a proposito delle stravaganti idee che lo stesso Mattioli andava diffondendo in tema di energia nucleare. Non so se il pettegolezzo sia fondato, però sono incline a ritenerlo plausibile. Il mio parere personale è che Amaldi – altrimenti fiore all’occhiello della fisica italiana – quella volta non azzeccò proprio la valutazione su quel suo studente, come inconfutabilmente i fatti dimostrano: il primo, deve aver serbato nel cuore, sino all’ultimo giorno della sua vita, l’amarezza di aver assistito allo smantellamento della fisica e dell’ingegneria nucleare in Italia; il secondo ha saputo bruciare in modo folgorante tutte le tappe della carriera politica, così inconfutabilmente dimostrando d’essere tutto fuorché un asino. 2 40 I costi della non-scienza Fisica. Ricci volle conoscermi e, al nostro primo incontro, dopo avermi informato che per vent’anni egli aveva cercato di smascherare le numerose bugie ambientaliste, osservò che – a quello scopo – bisognava unire le forze della comunità scientifica sensibili alle bugie degli ambientalisti e compiere una qualche azione significativa. Decidemmo di inviare al Presidente Ciampi una lettera aperta, nella quale gli aprivamo gli occhi sulla bugia di tutte le bugie: l’elettrosmog. La firmammo in cinque ma, una volta diffusa, fu sottoscritta da centinaia di fisici, biologi, oncologi, pediatri e radioprotezionisti 7. Un giorno ci trovavamo – Ricci, l’ingegnere nucleare Ugo Spezia, l’oncologo Umberto Tirelli e io – ad attendere una giornalista della Rai che voleva intervistarci sull’elettrosmog. Eravamo in una saletta dell’ospedale S. Raffaele di Roma. Durante l’attesa, Ugo Spezia disse che avremmo dovuto costituire un Movimento, Renato Ricci aggiunse che l’avremmo potuto chiamare Movimento Galileo, che Umberto Tirelli corresse in Galileo 2001. Io, che sono un inguaribile individualista e non provo alcun entusiasmo per le azioni “collettive”, credo mugugnai disinteresse o, forse, contrarietà. Comunque, sulla mia isolata apatia prevalse l’entusiasmo degli altri tre: nacque così il Movimento Galileo 2001. Bisogna anche sapere che Renato Angelo Ricci gode – presso qualcuna delle persone a lui amiche – dell’appellativo di uomo bionico 8. Se lo merita: il giorno dopo quel meeting al S. Raffaele, Ricci trasmise a noi altri tre il testo del Manifesto del Movimento Galileo 2001, per eventuali correzioni o aggiunte. Non ne fu necessaria alcuna: il testo fu distribuito, così come partorito da Ricci la notte precedente, a tutti i sottoscrittori dell’appello a Ciampi sull’elettrosmog, i quali rinnovarono quella sottoscrizione. Da parte sua, il presidente Ciampi ci partecipò della sua simpatia decidendo di mettere il neonato Movimento Galileo 2001 sotto le ali protettive del Suo alto patronato. Rivelando, il nostro stimato Presidente della Repubblica, una tanto gradevole quanto inattesa vena rivoluzionaria. 7 Per il testo della lettera a Ciampi e l’elenco dei firmatari, si consulti il sito dell’associazione: www.galileo2001.it 8 Comunicazione personale della signora Angela Rosati (ora Segretario Generale dell’Associazione). Il principio di precauzione: precauzione o rischio? 41 La stessa vena, però, mancava proprio ai fondatori del Movimento. Infatti, quando alcune vicende parallele portarono alcuni di noi a ricoprire l’incarico di membri del comitato scientifico dell’Agenzia nazionale protezione ambiente (ANPA), di cui Ricci era appena stato nominato Commissario governativo, pensammo bene che quelle questioni ambientali che ci stavano a cuore avremmo potuto riportarle entro i binari delle conoscenze scientifiche accreditate attraverso la via “istituzionale”. Il Movimento Galileo 2001 subì un periodo di sosta, ma all’ANPA il comitato scientifico – da me coordinato – si mise al lavoro per produrre rapporti (ne produsse nove) su quei temi che erano stati oggetto dei miei primi articoli sul Giornale. Nel comitato scientifico dell’ANPA c’erano, tra gli altri, Paolo Vecchia (che ora è presidente dell’ICNIRP), Franco Panizon (professore emerito di clinica pediatrica all’Università di Trieste), Francesco Sala (Direttore degli Orti botanici dell’Università di Milano), Argeo Benco (ex presidente dell’Associazione italiana di radioprotezione). C’erano, insomma, sui temi di cui il comitato si sarebbe dovuto occupare, elementi tra i migliori rappresentanti della comunità scientifica italiana. I rapporti di quel comitato sono oggi leggibili sia dal sito del Ministero dell’Ambiente che da quello dell’Associazione Galileo 2001, www.galileo2001.it. L’associazione nacque quando – concluso il periodo di commissariamento dell’ANPA e quindi esauriti i doveri istituzionali di alcuni di noi (tra cui, soprattutto, quelli di Ricci, che del Movimento Galileo 2001 era la forza trainante) – ci si rese conto che molto lavoro sarebbe stato ancora da fare in ordine alla diffusione della corretta informazione scientifica su questioni in cui i movimenti ambientalisti e le loro bugie l’avevano fatta da padroni. E così, ripresa l’iniziativa da dove era stata lasciata durante la parentesi all’ANPA, il 19 febbraio 2003 ci si ritrovò di nuovo tutti 9, e di fronte al notaio si diede vita all’Associazione Galileo 2001, per la libertà e dignità della scienza. 9 In ordine alfabetico: Franco Battaglia, Argeo Benco, Carlo Bernardini, Tullio Bressani, Luciano Caglioti, Cinzia Caporale, Giovanni Carboni, Francesco Cognetti, Guido Fano, Rodolfo Federico, Gianni Fochi, Gianvittorio Pallottino, Tullio Regge, Renato Angelo Ricci, Angela Rosati, Francesco Sala, Carlo Salvetti, Giorgio Salvini, Tommaso Scarascia Mugnozza, Paolo Sequi, Ugo Spezia, Umberto Tirelli, Giorgio Trenta, Paolo Vecchia, Umberto Veronesi. 42 I costi della non-scienza Il primo importante impegno dell’associazione è stato l’organizzazione del convegno nazionale annuale. Il tema del convegno – il Principio di Precauzione – nasce dalla seguente considerazione. Numerose azioni che alcuni vorrebbero intraprendere (o hanno intrapreso) in nome della protezione dell’ambiente, non avrebbero alcuna giustificazione essendo fondate su falsità scientifiche, cioè su bugie. Per attuare quelle azioni sarebbe stata necessaria una giustificazione giuridica cui appigliarsi, ed è stata trovata, appunto – penso io – nel Principio di Precauzione. Enunciato del principio Recentemente abbiamo avuto modo di sentire invocato il Principio di Precauzione (PdP) a sostegno di scelte politiche su questioni di protezione della salute o dell’ambiente. Penso che il principio andrebbe al più presto soppresso per le ragioni che ora esporrò. Sia ben chiaro: la precauzione è una cosa tanto sacrosanta quanto difficilmente contestabile, e senz’altro da prendere in ogni attività umana. Ma il PdP, tentativo di dare forma giuridica all’azione della precauzione, sembra essersi rivelato un fallimento, non solo inutile ma anche, come vedremo, dannoso. Il PdP può enunciarsi come formulato nell’articolo 15 della Dichiarazione di Rio del 1992: «Where there are threats of serious or irreversible damage, lack of full scientific certainty shall not be used as a reason for postponing cost-effective measures to prevent environmental degradation». Mi si consenta di tradurlo così 10: «Ove vi siano minacce di danno serio o irreversibile, l’assenza di piena certezza scientifica non deve servire come pretesto per posporre l’adozione di misure, efficaci rispetto ai costi, volte a prevenire il degrado ambientale». Il principio di precauzione è malposto ed ambiguo Solo a chi non ha un’educazione scientifica può passare inosservato il fatto che esso è malposto: la piena certezza scientifica è sempre as10 F. Battaglia, Le Scienze 394, 110 (2001). Il principio di precauzione: precauzione o rischio? 43 sente. Certamente non è passato inosservato alla Commissione dell’UE, che però, anziché rifiutare il principio, ha tentato, un po’ arrampicandosi sugli specchi e aggiungendo problemi anziché risolverne, di giustificarlo e di stabilirne i limiti d’applicabilità. In ogni caso, secondo il rapporto della commissione dell’UE, una condizione necessaria (ma non sufficiente!) per invocare (non per applicare!) il principio, è che i rischi siano stati individuati: non è sufficiente ipotizzarli 11. Come detto, la «piena certezza scientifica» è sempre assente, giacché il dubbio è nella natura stessa della Scienza. Il rischio del PdP è che quello spazio di dubbio lasciato dalla Scienza potrebbe essere riempito da affermazioni arbitrarie che, dando voce solo ai singoli risultati scientifici che tornano di volta in volta comodi, consentano ad alcuni la razionalizzazione dei loro interessi di parte in aperto contrasto con quelli della collettività e con l’analisi critica della totalità delle acquisizioni scientifiche. E il passo da affermazione arbitraria a (finta) certezza è breve. Il Pdp, inoltre, è ambiguo: esso può essere invocato sia per adottare una certa misura, sia per adottare la misura opposta. Un esempio chiarirà la situazione che potrebbe prospettarsi. La scienza ci dà la piena certezza che un’infezione evolva spontaneamente verso la guarigione? No, quindi, in nome del PdP, decidiamo di somministrare la penicillina. Ma la scienza ci dà la piena certezza che la penicillina non provochi uno shock anafilattico, e finanche la morte? No, quindi, sempre in nome del PdP, ci asteniamo dal somministrare l’antibiotico. Il principio di precauzione è rischiosissimo Il più grave difetto del PdP, però, è che esso è rischiosissimo, il che suonerebbe alquanto ironico se non fosse tremendamente tragico. Ancora una volta, alcuni esempi chiariranno i termini della questione. a) Nella bibbia ambientalista, la Primavera silenziosa di Rachael Carson, scritta poco meno di 50 anni fa, il DDT veniva bollato come «elisir della morte». A Ceylon, nel 1948, si avevano 2 milioni di casi di malaria, che si ridussero a 31 casi nel 1962 grazie al DDT. Dopo la sua 11 http://europa.eu.int/comm/dgs/health_consumer/library/pub/pub07en.pdf. 44 I costi della non-scienza abolizione, in nome, potremmo dire, di un PdP ante litteram, la malaria ha ripreso a colpire milioni di persone. b) Alla fine degli anni Settanta fu modificato in Inghilterra il metodo di lavorazione delle carcasse di ovini (per ottenere un integratore alimentare proteico): mentre il procedimento precedente distruggeva il prione (l’agente del morbo della mucca pazza), quello nuovo non era in grado di farlo. Di per sé, l’uso di scarti di macelleria per produrre mangime arricchito di proteine non ha nulla di grave 12 (certamente, però, per precauzione, non si sarebbero dovute usare carcasse di bestie malate). Per eliminare l’acqua e il grasso, gli scarti venivano ridotti in polpa, riscaldati a 130°C sotto pressione e trattati con uno dei tanti solventi organici adatto a sciogliere i grassi. La migliore scelta non poteva che cadere sul diclorometano. Si sarebbe prodotto grasso e mangime d’ottima qualità. E non contaminato dal prione infettivo, che veniva distrutto dal procedimento. Sennonché i soliti ambientalisti avviarono una lotta al diclorometano, fondandosi su due argomentazioni. La prima, alquanto cervellotica, sosteneva che siccome i clorofluorocarburi (CFC) – che contengono atomi di cloro legati ad un atomo di carbonio – distruggono l’ozono, lo stesso forse avrebbe fatto il diclorometano (anch’esso contenente due atomi di cloro legati ad un carbonio). La seconda argomentazione si faceva forte di una singola pubblicazione scientifica che riportava l’aumento d’incidenza di cancro su topi esposti a diclorometano (topi che, peraltro, erano stati geneticamente modificati in modo da essere particolarmente predisposti a contrarre tumori). Le imprese britanniche vennero indotte ad abbandonare il diclorometano e ad adottare un procedimento che, senza far uso di solventi, trattava a soli 80°C le carcasse e poi le pressava. Con quel procedimento il prione rimase inalterato, e si trasmise così dal mangime alle vacche. Oggi sappiamo – magra consolazione – che 12 Qualcuno ha detto che la causa del caso della mucca pazza andava ricercata nel fatto che erbivori erano stati forzati a diventare carnivori. Come osservato, l’uso di quelle farine come integratore alimentare è perfettamente legittimo. D’altra parte, alcuni anni fa fu necessario sterminare tutti i visoni di diversi allevamenti nel Wisconsin che avevano contratto quel morbo per essere stati nutriti con farine animali infette: ma i visoni sono carnivori. Il principio di precauzione: precauzione o rischio? 45 il diclorometano non è cancerogeno, e per azione della luce e dell’ossigeno si ossida decomponendosi rapidamente senza nuocere all’ozono. Non è lontano dal vero sostenere che il caso mucca pazza è nato, ancora una volta, da un uso inappropriato di un PdP ante litteram. c) Come tutti sappiamo, la clorazione delle acque è forse il metodo più efficace di purificazione dell’acqua potabile: basta una piccola concentrazione di ipoclorito per mantenere l’acqua libera da germi patogeni pericolosi per la nostra salute. Forse l’acqua clorata non è il massimo del gradimento, ma dobbiamo scegliere: il sapore cristallino o l’assenza di pericolosi germi. Sempre grazie al solito articolo scientifico che ipotizzava la rischiosità della clorazione delle acque in quanto avrebbe potuto, presumibilmente, trasformare i residui organici presenti nell’acqua in composti organoclorurati che, sempre presumibilmente, avrebbero potuto favorire l’insorgere di tumori, alla fine degli anni Ottanta fu dichiarata la guerra al procedimento di clorazione delle acque. Nonostante la IARC (Agenzia Internazionale per la Ricerca sul Cancro) e l’OMS (Organizzazione Mondiale della Sanità) avessero pubblicato, nel 1991, un rapporto che affermava che non vi erano prove tali da destare allarme e che, comunque, il rischio ipotetico andava confrontato con quello certo che verrebbe dal bere acqua non clorata, il governo peruviano, in quello stesso anno e in nome di un PdP ante litteram, decise di interrompere la clorazione dell’acqua potabile. Ne conseguì un’epidemia di colera che colpì, nei successivi 5 anni, un milione di persone, uccidendone diecimila. d) Il PdP fu invocato nel momento in cui si chiesero le moratorie sulle pallottole all’uranio impoverito. Per non far nascere lo scandalo, bastava osservare che l’uranio subisce il decadimento con emissione di particelle alfa (che sono fermate da un semplice foglio di carta), ha un tempo di dimezzamento di 4,5 miliardi d’anni, è stato inserito dalla IARC, rispetto al suo eventuale potere cancerogeno, nella stessa classe ove vi è il tè, ed è naturalmente presente nella crosta terrestre con una concentrazione di 1-10 mg/Kg (ad esempio, la Lombardia è una zona ricca d’uranio e nei primi venti centimetri di crosta terrestre, intorno a Milano, e per un’estensione pari a quella del Kosovo, la quantità d’uranio è 10.000 volte superiore a quella sparata con i proiettili). For- 46 I costi della non-scienza se la moratoria andrebbe fatta sulle guerre: ancora una volta, il PdP sposta l’attenzione da un problema reale verso uno finto. e) Il PdP viene invocato per giustificare l’abbandono del nucleare come fonte energetica. In realtà, questo abbandono viene motivato, oltre che con la necessità di evitare potenziali rischi da incidenti e da contaminazione radioattiva, con altre tre scuse: l’energia nucleare sarebbe costosa, non esiste soluzione al problema dei rifiuti radioattivi, il mondo la sta progressivamente abbandonando. A noi interessano gli aspetti del rischio, visto che di PdP si sta trattando. Tuttavia, un breve commento sulle altre tre scuse non ce lo risparmiamo. Ad esempio, si deve notare che l’energia elettrica in Francia (ove, per l’80%, si produce con le 60 centrali nucleari lì attive) costa meno della metà che in Italia. E anche a noi, quella che importiamo da fonte nucleare da Francia, Svizzera e Slovenia, costa di meno di quella che noi stessi produciamo in altri modi. Non esiste alcuna attività umana che si prenda cura dei propri rifiuti con la stessa sicurezza e professionalità dell’attività nucleare. A questo proposito, rimando al libro di Piero Risoluti – uno dei massimi esperti italiani nella gestione dei rifiuti radioattivi – che, con linguaggio semplice ma preciso, ci apre gli occhi su quest’ennesima bugia ambientalista 13: la realizzazione di un sito appropriato non è un’opzione, ma un dovere civico verso noi stessi e verso le generazioni future. La nota protesta occorsa nel 2003 a Scanzano Jonico in occasione del tentativo da parte dell’attuale governo di realizzare un deposito unico nazionale per i rifiuti radioattivi, è stata un mirabile esempio di effetto placebo all’incontrario: la gente di Scanzano Jonico ha protestato senza rendersi conto, con la mancata realizzazione di quel deposito, di stare a perdere l’occasione di veder realizzato in quel luogo un importante centro tecnologico e di ricerca 14 e di diventare così la comunità meglio radioprotetta del Paese 15. 13 Piero Risoluti, I rifiuti nucleari: sfida tecnologica o politica? (con prefazione di Tullio Regge), Armando editore, Roma 2003. 14 Perché questo è, un deposito di rifiuti radioattivi, e non “una discarica” come viene spacciato. 15 Anche se le quantità di rifiuti radioattivi italiani non giustificherebbero, forse, la realizzazione sotterranea del deposito, le recenti raccomandazioni inter- Il principio di precauzione: precauzione o rischio? 47 Non è vero che il mondo sta abbandonando il nucleare. Lo decise la Svezia nel 1980 quando aveva 12 centrali attive: oggi le centrali attive in Svezia sono 11, gli svedesi stanno ancora pagando le conseguenze di quell’unica centrale chiusa e, comunque, la metà dell’energia elettrica consumata in Svezia è da fonte nucleare. Lo decise il governo tedesco diversi anni fa – quando le centrali nucleari erano 19 – per accontentare i Verdi, senza i quali non avrebbe potuto governare: oggi le centrali nucleari tedesche attive sono ancora 19. Tutte decisioni, quindi, rimaste lettera morta. Nel mondo, piuttosto, vi sono attualmente una quarantina di centrali in costruzione, di cui due in Ucraina (la patria di Chernobyl), ove la metà dell’energia elettrica continua ad essere da fonte nucleare. Le centrali nucleari si fermarono veramente solo in Italia. Ma il Paese – contrariamente a quel che si dice – non ha “rinunciato” al nucleare: non potevano esserci referendum “contro” il nucleare (lo vieta la nostra Costituzione). Ed infatti, in conseguenza dei noti referendum, venne deciso non l’abbandono ma una moratoria di 5 anni, e in qualunque momento si potrebbe riprendere ad utilizzare questa fonte che, lontano dall’avervi rinunciato, è diventata per noi una nuova forma d’importazione (il 17% dell’energia elettrica che consumiamo la importiamo dalle centrali nucleari d’oltralpe): l’Italia ha rinunciato, semmai, alle ricadute economiche, tecnologiche e occupazionali del nucleare 16. Ma veniamo ai millantati rischi. Essi sarebbero di due tipi: la contaminazione radioattiva dell’ambiente e la possibilità di incidenti del tipo di quello di Chernobyl. Tutti noi siamo esposti alla radiazione naturale. La dose media annua che ciascuno di noi assorbe dalle fonti naturali è di circa 2,2 milliSievert (mSv). Le attività umane aumentano quella dose di circa il 20%, di cui oltre il 90% è dovuto alla diagnostica medica (tutti noi subiamo, prima o poi, una radiografia). Comunque, esistono diverse aree della Terra (in Brasile, in India) ove vi sono popolazioni esposte a nazionali – conseguenti ai fatti dell’11 settembre – caldeggiano questa soluzione. Inoltre, non è escluso – anzi, chi scrive nutre pochi dubbi in proposito – che in Italia vi sia un ripensamento sul nucleare, ed avere già un sito geologico per i rifiuti sarebbe più che auspicabile. 16 U. Spezia (a cura di), Energia nucleare, 21mo Secolo, Milano 1998. 48 I costi della non-scienza dosi annue di anche 100 mSv, senza che si siano riscontrate in esse maggiori incidenze di alcun tipo di malattia correlabile alle radiazioni. Allora, le centinaia di test nucleari che le ragioni militari hanno purtroppo voluto, hanno influito pressoché zero sulla dose media di radioattività, e così sarebbe anche se tutta la radioattività da tutte le centrali nucleari esistenti, per un’ipotetica serie d’incidenti, andasse a contaminare l’ambiente. In definitiva, il rischio di contaminazione radioattiva dall’uso del nucleare è semplicemente inesistente 17. Rimane il rischio di incidente. Effettivamente, questo esiste (ma qual è l’attività umana che ne è esente?), come gli incidenti di ThreeMile Island (1979) e di Chernobyl (1986) dimostrano. Il primo non ha avuto effetti sanitari di nessuna natura. Il secondo è stato l’incidente più grave mai occorso in 50 anni di uso civile del nucleare. Esso, però, lungi dal dimostrare che il nucleare è pericoloso, ne testimonia, piuttosto, la sicurezza. L’UNSCEAR (la Commissione Onu sugli effetti delle radiazioni atomiche) ha prodotto inequivocabili rapporti sugli effetti, a 15 anni di distanza, dell’incidente di Chernobyl. Ebbene, il verdetto è il seguente. Il giorno dell’incidente morirono 3 lavoratori della centrale (2 sotto le macerie dell’esplosione e uno d’infarto). Nel mese successivo furono ricoverati in ospedale 237 – tra lavoratori alla centrale e soccorritori – per dosi eccessive di radiazione; di essi 28 morirono nei successivi tre mesi. Dei rimanenti 209, ne sono morti, a oggi, altri 14 (di cui uno in un incidente automobilistico): gli altri 195, di quei 237 ricoverati per dosi eccessive di radiazione, sono ancora vivi. L’unico effetto sanitario statisticamente anomalo e, quindi, attribuibile alla contaminazione radioattiva conseguente all’incidente, è stato un enorme aumento nell’incidenza dei tumori alla tiroide in individui che nel 1986 erano bambini: sono stati riportati, sino ad oggi, quasi 2000 casi. Di questi, 3 hanno degenerato sino al decesso del malato. In conclusione, all’incidente di Chernobyl, il più grave incidente dell’uso civile del nucleare, non sono attribuibili, sino ad oggi, più di 48 morti: 31 (3+28) immediati, gli altri 17 (14+3) nell’arco di 15 anni. Secondo il rapporto dell’UNSCEAR, nessun altro disordine sanitario attribuibile alle radiazioni, diverso da quell’abnorme aumento di casi di tumore alla tiroide, è stato subito dalle popola17 Z. Jaworowski, Radiation risk and ethics, in: Physics Today 52, 24 (1999). Il principio di precauzione: precauzione o rischio? 49 zioni vicine alla centrale. Se a questi 48 si aggiungono gli altri casi di decesso a causa dell’attività nucleare per usi civili negli ultimi 50 anni nel mondo, si perviene ad un totale di circa 100 morti. Il numero è deprecabile quanto si vuole, ma l’attività di produzione energetica coi combustibili fossili ha comportato, in soli 15 anni, 10.000 decessi per incidenti 18. Ecco perché, dicevo prima, l’incidente di Chernobyl – coi suoi 48 morti il più grave mai avvenuto – del nucleare ne dimostra non la pericolosità ma, semmai, l’affidabilità. f) Il PdP è stato invocato per bandire i prodotti agricoli geneticamente modificati. Senza che ci si rendesse conto che ogni eventuale rischio non è nella tecnica in sé, ma va individuato caso per caso. Ingo Potrykus, professore emerito di Botanica all’università di Zurigo, ha inventato il golden rice, un riso che, mediante l’inserimento di tre geni nel suo patrimonio genetico, diventa ricco di beta-carotene, la molecola precursore della vitamina A. Milioni di persone nel mondo, a causa delle condizioni di povertà, si alimentano quasi esclusivamente di riso che, però, è un alimento totalmente privo di quell’importante vitamina. La cui carenza destina alla cecità, quando non alla morte, quei milioni che di essa soffrono. Per tutto ciò va ringraziato il PdP, che è tuttora invocato per non immettere nel mercato il riso dorato del prof. Potrykus. g) Curiosamente, il PdP non viene invocato per bandire dal mercato i prodotti biologici. Anzi, viene invocato per vieppiù diffonderli. Eppure, essi sono i peggiori in commercio, dal punto di vista della sicurezza alimentare. Vediamo perché. Bruce Ames, tossicologo di fama mondiale, direttore del centro di salute ambientale a Berkeley e membro dell’Accademia nazionale americana delle scienze, è stato l’inventore di un test – che da lui prende il nome – per individuare la presenza di sostanze mutagene. Ebbene, il test di Ames ha provato che il 50% delle sostanze di sintesi è cancerogeno, nel senso che su circa 500 sostanze sintetiche esaminate e somministrate a cavie con la massima dose tollerabile, circa la metà è risultata positiva al test. Sennonché, lo stesso test, eseguito con sostanze naturalmente presenti nei prodotti 18 U. Spezia (a cura di), loc. cit. (1998). 50 I costi della non-scienza alimentari che comunemente ingeriamo, ha rivelato che anche tra queste sostanze il 50% è cancerogeno. In ordine alfabetico, dall’aglio e dall’albicocca, passando per la lattuga e il mais, sino alla soia e all’uva, sono centinaia i prodotti che contengono altrettanti cancerogeni naturali. Quindi, “naturale” non è meglio di “sintetico”. Ma qual è la percentuale relativa di cancerogeni naturali e di cancerogeni di sintesi che tutti noi abitualmente ingeriamo? La risposta ce la conferma lo stesso Ames: il 99,99% delle sostanze potenzialmente tossiche che ingeriamo è già naturalmente presente nel cibo, e solo lo 0,01% è di provenienza sintetica. Ho precisato “potenzialmente” perché la tossicità di una sostanza è stata determinata somministrandola a cavie in dosi vicine a quella massima tollerabile (oltre la quale le povere bestie morirebbero avvelenate). In pratica, di quelle sostanze ne ingeriamo dosi migliaia o anche milioni di volte inferiori di quelle che sono risultate dannose ai topi. E quelle naturali sono centomila volte più abbondanti di quelle che rimangono nei cibi trattati con i fitofarmaci di sintesi. Ma le piante non possono fare a meno di fitofarmaci 19. Se non glieli somministra l’uomo in quantità controllate, la pianta se lo produce da sé il proprio fitofarmaco naturale e, a questo scopo, non usa certo riguardi verso chi poi se la mangerà 20. È il caso di una varietà di sedano biologico che induceva eczemi alla pelle dei coltivatori e dei commercianti che lo maneggiavano in gran quantità: il sedano, per difendersi da insetti parassiti, aveva decuplicato la produzione di psolareni, molecole con azione irritante; e anche cancerogena, visto che si legano irreversibilmente al Dna, favorendo le mutazioni. Ed è il caso di una patata biologica, rapidamente tolta dal mercato: per analoghe ragioni, aveva più che decuplicato la produzione di solanina, risultando, anche se cotta, tossica ai bambini delle scuole le cui mense erano rifornite con cibo biologico 21. Ed è il caso dell’abnorme aumento di 19 Paolo Sequi, Il racket ambientale, 21mo Secolo, Milano 1997. G. Fochi, Il segreto della chimica, Longanesi editore, 2001. 21 Meno danno ha fatto il caso, occorso nel settembre del 2002, nella mensa della scuola elementare Mario Galli di Sesto S. Giovanni: i bambini si sono ritrovati a masticare, assieme al riso, anche vermicelli, con quei chicchi mimetizzati. La ditta fornitrice si difese precisando che la presenza di quei vermi era dovuta al fatto che il riso impiegato era, appunto, rigorosamente biologico. 20 Il principio di precauzione: precauzione o rischio? 51 aflatossine – pericolosi cancerogeni – riscontrato in varietà agricole non trattate con fungicidi. La tecnica di produzione biologica prevede anche che si usino rimedi omeopatici in caso di malattie. Chiunque sappia cos’è il numero di Avogadro, sa anche che i prodotti omeopatici non possono avere alcun effetto (diverso, eventualmente, da quello placebo) 22. La ragione è molto semplice. La natura molecolare della materia vieta la possibilità di preparare soluzioni aventi concentrazioni arbitrariamente piccole di soluti: mediante il procedimento delle diluizioni successive con le quali si preparano i prodotti omeopatici, già in una soluzione acquosa omeopatica classificata rispetto alla diluizione come CH12 non vi è neanche una molecola di soluto, e ogni procedura di diluizione successiva è priva d’ogni senso scientifico, essendo essa equivalente a diluire acqua con acqua. Sennonché, le tipiche soluzioni omeopatiche hanno diluizioni classificate come CH60, CH100 o anche CH200: senza timore di essere smentiti esse non sono altro che, appunto, acqua pura (a parte eventuali eccipienti). Allora – ci sarebbe da chiedersi – che garanzie si hanno sulla fettina biologica ottenuta da un manzo che, eventualmente ammalatosi, sia stato curato con i prodotti omeopatici, come la pratica biologica prescrive? In conclusione: le tracce di fitofarmaci normalmente presenti nei prodotti tradizionali non aggiungono nulla alle sostanze potenzialmente tossiche e naturalmente presenti in quei prodotti. Le varietà biologiche, invece, rischiano di contenere quantità abnormi di tossine naturali, sia perché la pianta se le produce da sé, sia perché eventuali malattie non sono trattate con metodi scientificamente codificati. Qui si vede tutta l’ambiguità del PdP, che viene invocato non per bandire i prodotti biologici, ma, addirittura per promuoverli. 22 Si potrebbe essere tentati di sostenere: tutto sommato, se il paziente sta “meglio”, foss’anche solo in conseguenza dell’effetto placebo, perché non dare alla pratica omeopatica la stessa dignità delle pratiche che godono del sostegno della scienza? La tentazione è allettante, ma bisogna essere consapevoli che questa posizione comporterebbe che bisognerebbe dare così pari dignità anche a tutte quelle cure del cancro che si sono rivelate inefficaci, e anche alle pratiche astrologiche e cartomantiche, dovesse chi a esse si rivolge riconoscerne gli effetti benefici (e come non potrebbe, visto che, appunto, vi si rivolge?). 52 I costi della non-scienza h) Un altro caso – forse il più clamoroso – d’invocazione del PdP, a sproposito e con conseguenti danni, è quello in ordine al problema del cosiddetto elettrosmog 23. Riguardo ai campi elettromagnetici, bisogna distinguere quelli a radiofrequenza da quelli a frequenza industriale. Per i primi, ogni studio epidemiologico (di cui uno su 420.000 danesi) ha concluso che il fattore di rischio degli esposti rispetto ai non esposti è addirittura minore di 1: solo un’analisi affrettata farebbe concludere che quei campi sono benefici; ma nessuna analisi ponderata potrebbe far concludere che essi sono dannosi! Quindi, per i campi a radiofrequenza non vi sono le condizioni non solo per applicare, ma neanche per invocare il PdP: semplicemente non sono stati individuati rischi. Sennonché: (i) Le norme protezionistiche italiane, uniche al mondo, volute in nome del PdP, han fatto sì che dei sei anni di ritardo subìto dall’installazione del radar di Linate, dieci mesi sono da addebitare proprio a quelle norme (bisognava verificare che il radar fosse compatibile con le leggi italiane volute in nome del PdP). (ii) Queste leggi – che i radioprotezionisti italiani, subendone l’umiliazione, hanno sentito definire “stupide” da colleghi stranieri in sede di convegni internazionali 24 – prevedono campi particolarmente bassi in prossimità di strutture considerate a rischio (scuole, ospedali): furono 19 i morti nell’incendio, occorso alla fine del 2001, nella struttura per disabili vicino a Salerno, ove gli infermieri non poterono chiamare soccorso con i loro cellulari a causa dell’assenza di sufficiente campo. (iii). Nel luglio del 2002, al largo della spiaggia di Pesaro, morirono anne23 F. Battaglia, Elettrosmog: un’emergenza creata ad arte (con prefazione di Umberto Veronesi), Leonardo Facco Editore, Treviglio 2002. 24 Ecco come recita il parere della Commissione internazionale nominata dall’attuale governo col compito di esprimere parere sulla normativa italiana in tema di protezione dai campi elettromagnetici: «I decreti italiani non riportano giustificazioni scientifiche, per cui le basi su cui sono stati fissati i limiti di esposizione sono puramente arbitrarie. Pertanto, il livello di protezione sanitaria fornito da tali limiti è del tutto sconosciuto. E se il livello di tutela sanitaria è ignoto, l’enorme costo supplementare che l’attuazione di tale legge comporterebbe potrebbe, benissimo, non recare alcun beneficio alla salute. Emerge così che tale legge è intrinsecamente incoerente e scientificamente debole. Alla luce delle informazioni scientifiche correnti, essa non fornisce alcuna tutela aggiuntiva alla popolazione italiana». Il principio di precauzione: precauzione o rischio? 53 gati un bimbo e la sua maestra di un centro estivo: chi stava sulla spiaggia non riuscì a chiamare soccorso col cellulare per debolezza di campo elettromagnetico, tenuto basso a causa delle leggi italiane volute in nome del PdP. Chi ha voluto quelle norme deve essere considerato corresponsabile morale dell’incidente aereo accaduto nell’ottobre 2001 a Linate, di quei 19 disabili morti nell’incendio nel salernitano, e dei 2 poveretti annegati vicino a Pesaro. Riguardo ai campi a frequenza industriale, la situazione è la seguente: l’unico individuato (non accertato!) è il rischio raddoppiato di leucemie puerili per esposizioni a campi magnetici superiori a mezzo microtesla. L’uomo della strada si allarma nel sentire che il rischio è raddoppiato. Per fargli apprezzare il reale significato di questa affermazione, forse basterebbe ricordargli che anche chi compra due biglietti della lotteria ha una probabilità doppia di vincere rispetto a chi compra un solo biglietto. La IARC apprezza questi fatti, tant’è che ha inserito la componente magnetica dei campi a frequenza industriale nella terza classe rispetto a eventuali effetti cancerogeni, assieme al caffè e alle verdure sottaceto, e ha inserito la componente elettrica nella quarta classe, assieme al tè (il fumo, la pillola anticoncezionale, le radiazioni solari sono nella prima classe). Anche l’OMS apprezza quei fatti, e suggerisce che si adotti per il campo magnetico a frequenza industriale il valore protezionistico raccomandato dall’ICNIRP, che è 100 microtesla. Un valore, avverte l’OMS, che garantisce sicurezza se non superato, ma che non implica necessariamente rischio se viene superato. In pratica, però, nessuno è mai esposto a campi superiori ad un microtesla. In ogni caso, ammesso che si possa effettivamente azzerare il numero d’esposti a campi superiori a mezzo microtesla, quanti bambini si “salverebbero” dall’ipotetica leucemia? Il conto è presto fatto. Ogni anno, in Italia, contraggono la leucemia circa 400 bambini, mentre la popolazione esposta a campi superiori a mezzo microtesla è pari allo 0,3% 25. Impostando l’equazione 400 = 0.997 y + 2 · 0.003 y 25 G. Carboni, comunicazione privata. 54 I costi della non-scienza (ove il fattore 2 tiene conto del rischio raddoppiato degli esposti), risolvendo per y e sostituendo, si ottiene (approssimando a valori interi) 400 = 398 + 2: di quei 400 bimbi, 398 hanno contratto la leucemia per ragioni diverse dai campi elettromagnetici. E gli altri due? Si può dire che la leucemia di 2 bimbi è statisticamente addebitabile ai campi? No! Lo si potrebbe dire solo se i campi fossero un rischio, cioè se la IARC li avesse inseriti nella classe prima anziché terza. Ma anche quando si volessero interrare i cavi degli elettrodotti ed operare tutte le bonifiche che purtroppo molte regioni italiane (Emilia Romagna in testa) stanno effettuando, si eliminerebbero questi due ipotetici casi? No, perché a venti metri da un elettrodotto il campo magnetico è comparabile a quello presente comunque in ogni casa a causa degli impianti domestici. Invocare il PdP per eliminare una causa presunta di leucemia evitando così, al più, un caso aggiuntivo, è scientificamente ingiustificato e, direi, immorale nei confronti di quei 400 bambini che hanno contratto il male per cause certamente diverse dall’esposizione ai campi elettromagnetici. L’unico effetto della legislazione (voluta in nome del PdP) contro l’inesistente elettrosmog è quello di arricchire tutte quelle aziende, più o meno private, incaricate di misurare i campi elettromagnetici in giro nelle città (misurazioni peraltro non necessarie, visto che le equazioni della fisica ci danno i valori dei campi una volta note le sorgenti), e tutte quelle incaricate di mettere a norma i vari impianti. Un affare – è stato stimato dall’ANPA in un rapporto che venne tenuto nascosto sinché l’Agenzia venne commissariata e Renato Ricci, nominato commissario, lo fece pubblicare – di 30 miliardi di euro 26. E questo è l’unico dato che possa fornire giustificazione razionale alla pervicacia – altrimenti inspiegabile – con la quale l’ex ministro Willer Bordon (Margherita) e il suo vice, Valerio Calzolaio (Ds), insistevano per l’approvazione dei loro decreti. Val la pena citare l’editoriale del New England Journal of Medicine che nel 1997 pubblicò un resoconto di un’esaustiva ricerca del National Cancer Institute americano sui legami (esclusi da quella ricerca) tra esposizione ai campi elettromagnetici a frequenza industriale e leuce26 Valutazione tecnico-economica degli interventi di risanamento ambientale delle linee elettriche del sistema nazionale, Anpa, Rapporto 3/2001. Il principio di precauzione: precauzione o rischio? 55 mie puerili: «È triste che centinaia di milioni di dollari siano andati dispersi in studi privi della benché minima promessa di evitare la tragedia del cancro nei bambini. L’abbondanza di studi inconcludenti e inattendibili ha generato ingiustificate preoccupazioni e paure. Diciotto anni di ricerca 27 hanno prodotto considerevole paranoia, senza aggiungere la benché minima conoscenza, e senza alcun guadagno in prevenzione. È tempo di interrompere la dispersione delle nostre risorse, che dovrebbero invece essere dirette verso quella ricerca in grado di offrire promesse, scientificamente fondate, della scoperta delle vere cause biologiche dello sviluppo dei cloni leucemici che tanto minacciano la vita di alcuni bambini». Il documento dell’UE Abbiamo già citato il documento del 2 febbraio 2000 con cui la Commissione dell’UE stabilisce le condizioni d’applicabilità del PdP 28. Abbiamo anche manifestato forti perplessità sull’intero documento assieme al parere dell’opportunità di respingere tout court il principio. Non vogliamo analizzare quel documento nei dettagli: per i nostri scopi, basti sapere che in esso, a dimostrazione dell’opportunità di avere un PdP, si adducono due esempi che, secondo il documento della Commissione, sarebbero due casi di uso con successo del PdP stesso. I due esempi (gli unici addotti) sono il bando planetario dei clorofluorocarburi (CFC) e il protocollo di Kyoto. Sennonché, proprio questi due esempi dimostrano, ancora una volta, quanto inappropriato sia l’uso del PdP. a. Il bando dei CFC 29 Un trattato del 1987 ha bandito dal mondo intero, grazie a una delle tante oziose battaglie ambientaliste e in nome, ancora una volta, di un PdP ante litteram, l’uso dei CFC, usati come refrigeranti e che, se 27 Risale al 1979 il primo articolo in cui s’ipotizzò la possibilità di legame tra esposizione ai campi elettromagnetici a frequenza industriale e leucemia puerile. Quell’ipotesi poi non resse ad ogni successiva indagine. 28 http://europa.eu.int/comm/dgs/health_consumer/library/pub/pub07_en.pdf. 29 R. Ehrlich, Sun exposure is beneficial, in: Nine crazy ideas in Science, Ch. 4, Princeton University Press, 2001. 56 I costi della non-scienza dispersi nell’ambiente, partecipano a reazioni chimiche che contribuiscono a diminuire l’ozono alle alte quote. L’ozono assorbe, alle alte quote, parte della radiazione solare, svolgendo un’azione protettiva da essa. Il sole, infatti, è un agente cancerogeno, nel senso che l’esposizione ad esso aumenta il rischio di melanoma alla pelle, un tumore di cui rimangono vittime, solo in Italia, oltre un migliaio di persone all’anno. Quindi, la motivazione del bando dei CFC va ricercata nel fatto che con essi nell’ambiente saremmo tutti più esposti alle radiazioni ultraviolette del sole e quindi a maggior rischio di melanoma alla pelle. Va ora detto che alcuni agenti dannosi manifestano il fenomeno dell’ormesi, secondo cui o una bassa esposizione all’agente è addirittura protettiva rispetto al danno che l’agente causa a dosi più elevate o, semplicemente, l’agente è responsabile di effetti sia dannosi che benefici e, in quest’ultimo caso, solo un’analisi accurata del rapporto danno/beneficio può dare informazioni sull’opportunità di esporsi ad esso. Sono forti i sospetti che l’esposizione al sole abbia entrambi i tipi di effetto ormetico. Riguardo al primo tipo, sembra che l’esposizione eccessiva e intermittente, soprattutto se accompagnata da scottature, aumenti il rischio di melanoma, mentre un’esposizione protetta, anche se continua, riduca invece quel rischio. Riguardo al secondo tipo di ormesi, sono svariati i benefìci accertati dell’esposizione al sole, il più significativo dei quali sembra essere la riduzione del rischio di malattie coronariche, che sono la forma più comune di malattie cardiache. Ad esempio, è stato trovato che l’incidenza delle malattie coronariche aumenta con la latitudine (con la quale decresce anche l’esposizione al sole). Naturalmente, questa semplice associazione non è sufficiente a stabilire l’effetto ormetico: è necessario individuare un meccanismo. Il più accreditato nasce dalla constatazione che sia la vitamina D (la cui produzione è indotta dalla radiazione solare) sia il colesterolo (responsabile di aumento di rischi di malattie coronariche), hanno uno stesso precursore (la molecola di squalene), per cui ove maggiore è la presenza di vitamina D minore dovrebbe essere quella di colesterolo, e viceversa. Effettivamente, è stato trovato che la concentrazione di vitamina D è inferiore al normale tra le vittime di attacchi cardiaci, e che la concentrazione media di colesterolo aumenta in popolazioni delle Il principio di precauzione: precauzione o rischio? 57 alte latitudini aumentando nei mesi invernali. Ed è stato anche trovato che l’incidenza di mortalità da malattie coronariche aumenta tra le persone che nella loro vita si sono meno esposte al sole. Ancora una volta, tutte queste associazioni e correlazioni non devono indurre a conclusioni affrettate: bisogna anche escludere svariati fattori confondenti. Ad esempio, ci si potrebbe chiedere se per caso non sia la temperatura, piuttosto che l’esposizione al sole, il fattore che protegge dalle malattie coronariche. Sennonché non è stato osservato alcun aumento nell’incidenza di queste malattie con l’aumento di altezza dal livello del mare, né è stato osservato alcun aumento nel passare da una realtà “più calda” come quella di Los Angeles a una “più fredda” come quella di New York. Anche se altri fattori confondenti, come la dieta, sono stati considerati, la scienza, con tutta la sua doverosa cautela, ritiene plausibile l’idea che l’esposizione al sole sia un agente significativamente protettivo rispetto alle malattie coronariche. Plausibile, ma non convincente. Tuttavia ci si può legittimamente porre una domanda. Premesso che l’incidenza di mortalità da malattie coronariche è 100 volte maggiore di quella da melanoma alla pelle, anche assumendo un raddoppio di rischio di melanoma a causa della diminuzione di ozono, basterebbe solo l’1% di corrispondente diminuzione di rischio di mortalità per malattie coronariche per chiedersi se non sia il caso di rivedere la decisione del 1987 che bandiva i CFC. La domanda è ovviamente accademica, perché gli ambientalisti – come in altri casi – farebbero tanto chiasso da renderla politicamente improponibile, ancorché dovesse rivelarsi saggia. Rimane sempre la domanda se non sia stata quanto meno affrettata quella decisione del 1987 e se non sia il caso, per eventuali decisioni future di analoga natura, di ignorare ogni affermazione emotiva delle associazioni ambientaliste, il cui sole brilla soprattutto per analfabetismo scientifico, e di rimettersi, più che al PdP, all’analisi, scientificamente condotta, del rapporto rischi/benefici. b. Il protocollo di Kyoto 30 Secondo un recente rapporto dell’IPCC (Comitato intergovernativo sui cambiamenti climatici) – un organismo internazionale che com30 R. Ehrlich, Should you worry about global warming?, in: Eight preposterous propositions, Ch. 6, Princeton University Press, 2003. 58 I costi della non-scienza prende scienziati da 100 paesi – «il riscaldamento globale previsto per il prossimo secolo potrebbe risultare senza precedenti negli ultimi 10.000 anni». Ma, secondo Richard Lindzen, uno degli estensori di quel rapporto e membro dell’Accademia Nazionale delle Scienze americana, «la possibilità di un eccezionale riscaldamento globale, anche se non escludibile, è priva di basi scientifiche». Il riscaldamento globale viene ritenuto essere la conseguenza di vari fattori tra cui anche un incremento della concentrazione atmosferica di gas-serra (soprattutto CO2 e, in misura molto minore, metano e altri gas-serra). Siccome nell’ultimo secolo sono progressivamente aumentati sia l’uso mondiale dei combustibili fossili sia le concentrazioni atmosferiche di CO2, si potrebbe pensare che, assumendo che questi aumenti continuino senza sosta, il raggiungimento di livelli pericolosi sia solo questione di tempo, e che più aspettiamo più difficile potrebbe essere affrontare il problema. Il sillogismo logico, secondo alcuni, sarebbe allora il seguente: (1) i gas-serra stanno aumentando senza sosta, (2) ogni cosa che aumenta senza sosta raggiunge prima o poi livelli catastrofici, (3) la catastrofe non può evitarsi se non si blocca quell’aumento. Ma, piaccia o no, le cose non sono così semplici. Ad esempio, le previsioni del futuro riscaldamento globale assumono che la crescita di popolazione s’interromperà in alcuni decenni: se così non fosse, avremmo ben altro – prima ancora del riscaldamento globale – di cui preoccuparci. E, d’altra parte, dovesse la popolazione mondiale stabilizzarsi, il timore dell’aumento senza sosta dei gas-serra non sarebbe più giustificato. Secondo altri, invece: non vi è alcuna evidenza che il riscaldamento sia reale; ammesso che lo sia, esso è minimo e non vi è alcuna evidenza che sia stato indotto dalle attività umane; e, infine, esso potrebbe essere addirittura benefico. Naturalmente, finché nessuna delle due parti comprende solo isolati casi di dissenzienti (e non è questo il caso), non ha importanza sapere quale pensiero ha il maggior numero di sostenitori: i risultati della scienza non si acquisiscono a maggioranza. Seguiamo allora Robert Ehrlich, e poniamoci le seguenti quattro domande: Il riscaldamento globale è reale? Qualora lo fosse, la causa dominante è d’origine antropica? Qualora anche questo fosse il caso, quale aumento di temperatura media globale potremmo realisticamente attenderci fra, ponia- Il principio di precauzione: precauzione o rischio? 59 mo, 100 anni? L’aumento realisticamente prevedibile in caso di contributo antropogenico determinante, apporterà, globalmente, danni o benefìci? Il riscaldamento globale è reale? Anche se misure dirette in grado di fornire informazioni sulle temperature medie globali sono state effettuate solo recentemente, vari dati indiretti (in particolare le concentrazioni relative di 16O e 18O nelle “carote” di ghiaccio estratte in Groenlandia) ci permettono di concludere che attualmente la Terra si trova tra due ere glaciali (che avvengono ogni 100.000 anni circa). Durante l’ultima era glaciale le temperature erano 10 gradi più fredde di ora e, probabilmente, il pianeta è più caldo adesso che non in ogni altro periodo degli ultimi 1000 anni; un riscaldamento, quello di questo millennio, che è avvenuto gradualmente per ragioni certamente indipendenti dalle attività umane. Il problema che nasce è se per caso queste ultime abbiano o no, sul riscaldamento globale, un’influenza significativa sovrapposta alle cause naturali. A questo scopo, è necessario limitarsi a osservare le variazioni negli ultimi 150 anni, cioè dall’avvento dell’industrializzazione. Ebbene, vi è concordanza nella comunità scientifica che le misurazioni di temperatura effettuate da stazioni sulla Terra rivelano valori che negli ultimi 150 anni sono aumentati di circa mezzo grado. I maggiori aumenti si sono registrati nei periodi 1910-1945 e 1975-2000. Però – va detto – nel periodo 1945-1975 si è osservato non un aumento ma una diminuzione di temperatura. Se però ci si chiede se queste misurazioni corrispondano alla temperatura media globale, ci si imbatte in una prima seria difficoltà: non vi è garanzia che l’aumento osservato non sia da attribuire al fatto che nell’intorno delle stazioni di misura si sviluppava, nei decenni, un’urbanizzazione, e che è ad essa che dovrebbe quell’aumento attribuirsi. L’assenza di quella garanzia nasce anche dal fatto che i tentativi di aggiustare i dati in modo tale da tenere conto di questo “effetto da urbanizzazione” – mediante soppressione dei dati più recenti dalle stazioni “incerte” – aumenta sgradevolmente l’incertezza sull’analisi finale, visto che è proprio nei tempi più recenti che si ha bisogno di dati abbondanti e accurati. Per farla breve: potrebbe benissimo essere che il riscaldamento osservato successivamente al 1975 (circa 0,15 gradi per 60 I costi della non-scienza decennio) sia da attribuirsi totalmente all’effetto dell’urbanizzazione attorno alle stazioni di misura. Nel periodo successivo al 1975 si ha però disponibilità di dati satellitari. I satelliti non registrano la temperatura della Terra, ma quella dell’atmosfera, misurando la quantità di radiazione a microonde emessa dalle molecole che costituiscono l’aria sino a circa 8 km di distanza dalla Terra. Le misure satellitari sono ovviamente più attendibili, sia perché i satelliti riescono a campionare contemporaneamente una porzione di globo più ampia, sia perché esse non sono viziate dall’effetto di urbanizzazione. Ebbene, il risultato è che le misure satellitari non registrano l’aumento di temperatura registrato dalle misure sulla Terra. Un risultato, questo, che trova conforto nelle misure effettuate, sin dal 1960, dai palloni aerostatici, dai quali, pure, non si registra alcun aumento di temperatura. Qual è il contributo d’origine antropica al presunto riscaldamento globale? Stabilite le incertezze su cui si fonda l’esistenza stessa del riscaldamento globale, passiamo a valutarne, nell’ipotesi che esso sia reale, il contributo antropogenico 31. Indubbiamente, i gas-serra (innanzi tutto acqua, e poi anidride carbonica) tengono la Terra calda: senza di essi, avremmo 33 gradi di meno. Ma l’anidride carbonica (il secondo componente naturale, dopo il vapore acqueo, responsabile dell’effetto serra “naturale”) è anche immessa nell’atmosfera dall’uomo ogni volta che si bruciano combustibili fossili. Effettivamente, si osserva che, nel tempo, le concentrazioni atmosferiche di CO2 e le temperature hanno seguito un comportamento parallelo: a diminuzioni o aumenti delle prime corrispondono diminuzioni o aumenti delle seconde. È però importante essere consapevoli del fatto che comportamenti paralleli di questo tipo non implicano necessariamente una relazione di causa-effetto; e, dovesse essa esserci, non rivelano qual è la causa e quale l’effetto. In particolare, sembra che gli aumenti di temperatura alla fine delle ultime tre ere glaciali abbiano preceduto (e non seguito) corrispondenti aumenti di concentrazione di CO2. Purtroppo, le incertezze 31 Comitato scientifico ANPA, «Sul contributo antropogenico ai cambiamenti climatici», in: Scienza e ambiente, vol. 2, cap. 4, ANPA, Roma 2002. Il principio di precauzione: precauzione o rischio? 61 di questo dato non permettono di assumerlo per assodato e definitivo. In ogni caso, non vi è dubbio che la Terra potrebbe riscaldarsi per altre ragioni – l’attività solare, ad esempio – che disturbino il bilancio tra la radiazione proveniente dal Sole e quella che la Terra rispedisce indietro nello spazio. Alcuni, infatti, ritengono che le variazioni di temperatura registrate negli ultimi 150 anni siano da attribuire esclusivamente a variazioni dell’attività solare. In particolare, il numero delle macchie solari (osservabili facilmente con un modesto telescopio) è stato accuratamente registrato negli ultimi 400 anni (e segue un ben noto ciclo con periodo di 11 anni). Ed effettivamente, esattamente come avveniva tra concentrazione di CO2 e temperatura della Terra, si è osservato che, nel tempo, l’attività solare e le temperature hanno seguito un comportamento parallelo, come mostra la figura seguente, nella quale si riportano, in funzione del tempo (dal 1860 al 1990), due curve: quella grigia rappresenta la lunghezza dei cicli di attività solare (indicata lungo l’asse verticale sinistro), quella nera rappresenta le variazioni di temperatura globale media (indicate lungo l’asse verticale destro) 32. Solo che, in questo caso – dovesse esserci una relazione di causaeffetto – non ci sarebbero dubbi sull’attribuzione della causa e dell’effetto. Va però detto che il tentativo di valutare, dagli aumenti osservati di attività solare, la consistenza degli aumenti di temperatura attesi, ha portato alla conclusione che questi sono inferiori agli aumenti di temperatura osservati. Allora, vi è, forse, ancora spazio per attribuire all’uomo almeno una parte dell’aumento di temperatura osservato (ammesso che esso sia reale). Per cercare di togliersi il dubbio non c’è altro da fare che affidarsi a modelli matematici e tentare di simulare la realtà al calcolatore. 32 E. Friis-Christensen and K. Lassen, Science 254, 698 (1991). 62 I costi della non-scienza Questi modelli sono, essenzialmente, dello stesso tipo di quelli che si usano per fare le previsioni meteorologiche. Ecco in breve come funzionano. (1) La superficie della Terra è suddivisa in cellette bidimensionali da una griglia tracciata lungo i meridiani e i paralleli, e l’atmosfera sopra ogni celletta è quindi suddivisa in strati: l’intera atmosfera è così ripartita in tante “scatole”. (2) Entro ognuna di esse si fissano, ad un particolare istante di tempo, i valori delle grandezze fisiche significative (temperatura, pressione, umidità, velocità e direzione del vento, etc.). (3) Si usano le equazioni del modello per far evolvere nel tempo la situazione iniziale, calcolando i valori futuri delle grandezze fisiche significative in ogni “scatola”. L’attendibilità di un modello dipende dalla sua capacità di predire… il passato: si parte dalle condizioni iniziali, poniamo, nel 1860; si usa il modello per riprodurre le condizioni presenti; se queste non sono riprodotte, si modificano le condizioni iniziali e i parametri del modello sino a che non si ottengono da esso previsioni in accordo col futuro (rispetto al 1860) che conosciamo già (cioè sino ad oggi). Questo modo di procedere è senz’altro il migliore possibile, viste le enormi difficoltà del problema; ma non bisogna dimenticare che variando a piacimento un gran numero di parametri si è in grado di riprodurre qualunque cosa si voglia: la verità è che un modello costruito su un numero sufficiente di parametri è in grado di riprodurre tutto e il contrario di tutto da qualunque insieme di dati. Ad ogni modo, l’IPCC, in un rapporto firmato da 515 (sic!) autori, osserva che i modelli matematici riprodurrebbero l’attuale riscaldamento globale solo a patto che siano incluse le emissioni antropogeniche di gas-serra, e pertanto conclude che «tenendo conto dei pro e dei contro dei fatti, sembra che vi sia una ben distinguibile influenza umana sui cambiamenti climatici». Alcuni ritengono la conclusione azzardata. Innanzitutto, a causa dei limiti già detti inerenti a modelli che contengono un gran numero di parametri. In secondo luogo, perché i modelli considerati dall’IPCC falliscono quando s’includono in essi i contributi provenienti dagli aerosol, che sono particelle – principalmente di solfati – che si formano dalle emissioni vulcaniche e antropogeniche: includendo gli aerosol, le temperature calcolate dai modelli Il principio di precauzione: precauzione o rischio? 63 sono inferiori a quelle osservate. Infine, perché modelli diversi danno risultati molto diversi tra loro, a causa della difficoltà connessa alla trattazione delle masse di nuvole; per appropriatamente includerle nei modelli, bisognerebbe dividere l’atmosfera in “scatole” molto più piccole, e quindi molto più numerose, fatto che renderebbe però impraticabili i già complessi calcoli. Quali temperature potremmo attenderci fra 100 anni? Se si assumono attendibili le misure satellitari e se ne compie un’estrapolazione da qui a 100 anni, per allora la temperatura media globale sarà aumentata di mezzo grado, con un’incertezza di 1,5 gradi. Se invece – come fa l’IPCC – si assumono fedeli le misure dalle stazioni a Terra e si attribuisce esclusivamente all’uomo la causa del riscaldamento globale, le previsioni da qui a 100 anni dipendono da molteplici considerazioni (economiche, politiche, tecnologiche, etc.) sullo sviluppo dell’umanità; e che si riflettono, alla fine, sulla reale consistenza futura di emissioni di gas-serra. Ebbene, l’IPCC, assumendo fedeli le temperature registrate sulla Terra e attribuendo all’uomo la principale responsabilità del riscaldamento, esamina 40 possibili scenari, prende nota dei due scenari che prevedono l’aumento minore e l’aumento maggiore di temperatura, e conclude che per il 2100 ci si deve attendere un aumento di temperatura compreso fra 1,4 e 5,8 gradi. Curiosamente, l’IPCC non riporta né l’incertezza di ciascun valore di temperatura previsto da ciascuno degli scenari, né la probabilità che questi scenari hanno di realizzarsi. Ad esempio, gli scenari che prospettano i maggiori aumenti di temperatura sono quelli che assumono che tutti i paesi in via di sviluppo avranno nel frattempo raggiunto standard di vita uguali a quelli dei paesi industrializzati. Un’assunzione, questa, che, anche se desiderabile col cuore, sembra francamente lontana da ogni oggettiva realtà delle cose. Anche se noi che scriviamo possiamo prenderci la libertà di essere così “politicamente poco corretti”, l’IPCC, un organismo intergovernativo comprendente rappresentanze da un centinaio di paesi, molti dei quali in via di sviluppo, non può evidentemente prendersi quella stessa libertà. Certamente non sino al punto da escludere dai propri rapporti quei fantasiosi scenari. Se si fa questa “scrematura” (ed è sta- 64 I costi della non-scienza ta fatta in studi indipendenti) 33 l’aumento massimo di temperatura da attendersi per il 2100 (nell’ipotesi che siano le attività umane le responsabili principali del presunto global warming) non è superiore a 3 gradi. Se invece il contributo antropogenico fosse irrisorio, dai dati disponibili sull’attività solare possiamo attenderci, fra 100 anni, variazioni di temperatura comprese fra -1,0 e 2,0 gradi. Un eventuale riscaldamento globale, che sia di realistica entità, sarebbe dannoso o benefico per l’umanità? Innanzi tutto, è chiaro che – a meno di credere che la temperatura oggi sia esattamente la migliore concepibile – è ragionevole pensare che il mondo potrebbe trarre benefìci da modeste variazioni di temperatura. Bisogna stabilire se questi benefìci verrebbero da una modesta diminuzione o da un modesto riscaldamento. a) L’incidenza di mortalità è certamente correlata alle temperature: sia il caldo che il freddo estremo favoriscono i decessi, ma è stato dimostrato che condizioni di freddo estremo hanno un’incidenza doppia di quelle di caldo estremo. Inoltre, se si tiene conto del fatto che un eventuale global warming comporterà maggiori aumenti di temperatura nelle stagioni fredde che non in quelle calde, si può concludere che, rispetto alla mortalità umana, un modesto global warming avrebbe effetti benèfici. b) Gli scenari dell’IPCC prevedono, per il 2100, un innalzamento dei mari compreso fra 9 e 90 centimetri. Ma bisogna osservare due fatti. Innanzi tutto, il mondo riesce benissimo ad affrontare questo problema, come testimonia l’Olanda, col suo imponente sistema di dighe che la difende dal mare. Naturalmente, si potrebbe obiettare che un paese come il Bangladesh, la cui popolazione vive, per il 25%, in zone costiere a circa un metro sul livello del mare, potrebbe non essere in grado, per la sua povertà, di prendere le adeguate misure protettive. Non bisogna tuttavia dimenticare che i “peggiori” scenari previsti dall’IPCC (in questo caso, l’innalzamento dei mari di 90 centimetri) assumono che i paesi poveri abbiano raggiunto lo stesso benessere 33 T.M.L. Wigley and S.C.B. Raper, Science 293, 451 (2001). Il principio di precauzione: precauzione o rischio? 65 economico dei paesi ricchi, per cui, in quel caso, come oggi l’Olanda, anche il Bangladesh saprebbe come affrontare il problema. In secondo luogo, va precisato che il livello del mare sta aumentando da millenni. Da quando la Terra è uscita dall’ultima glaciazione, il livello del mare è aumentato di ben 100 metri, per due cause principali: la fusione dei ghiacciai e la dilatazione termica delle acque. La prima, è un evento in corso a partire dalla fine dell’ultima era glaciale, e non ha avuto alcuna accelerazione nell’ultimo secolo. Anzi, non è escluso che un clima più caldo possa interromperla, in conseguenza di aumentate precipitazioni, che ai poli si depositerebbero come neve. c) I benefici sull’agricoltura da un modesto global warming sono indubbi. Anzi, in questo caso l’aumento di temperatura è sinergico con l’aumento di concentrazione di CO2: nelle serre tecnologicamente più avanzate si pompa, appunto, CO2 per ottenere rendimenti più alti. In conclusione, nell’ipotesi che effettivamente l’uomo contribuisca significativamente al riscaldamento globale, non c’è da attenderselo, realisticamente, superiore a 2-3 gradi da qui al 2100. Ma, in questo caso, esso avrebbe, nel complesso, effetti benefici per l’umanità. Naturalmente, sarebbe insensato che l’umanità si sforzi di raggiungere artificialmente la temperatura che si ritenga essere la migliore possibile. Ma, allo stesso modo, dovremmo convenire che sarebbe parimenti insensato ogni sforzo, per di più in nome del PdP, per evitare di raggiungere quella condizione ideale. Un’ultima osservazione va fatta, in ordine al presunto eccezionale ed eccezionalmente rapido cambiamento climatico di cui saremmo testimoni: d’eccezionale non c’è né l’attuale presunto cambiamento climatico né la sua rapidità 34. Un fatto è certo: il clima del pianeta può radicalmente cambiare, come le ere glaciali inconfutabilmente attestano. Cinquant’anni fa, quando ancora si riteneva che ciò potesse avvenire solo con tempi dell’ordine delle decine di migliaia d’anni, ci si è confrontati con l’evidenza che seri cambiamenti climatici avvennero anche nell’arco di pochi millenni; ridotti a pochi secoli dai risultati delle ricerche nei successivi 20 anni, e ulteriormente ridotti ad un solo 34 S. Weart, Physics Today 56, 30 (2003). 66 I costi della non-scienza secolo dai resoconti scientifici degli anni Settanta e Ottanta. Oggi, la scienza sa che cambiamenti climatici, nel passato, sono avvenuti anche nell’arco di pochi decenni. Nel 1955, datazioni al 14C effettuate su reperti scandinavi rivelarono che il passaggio, circa 12000 anni fa, da clima caldo a clima freddo, avvenne durante un millennio. Un periodo che fu definito “rapido”, vista l’universale convinzione che tali cambiamenti potevano avvenire solo in tempi di decine di migliaia d’anni. Conferme vennero da altre ricerche: ad esempio, quella dell’anno successivo che accertò che l’ultima era glaciale finì col “rapido” aumento di un grado per millennio della temperatura globale media; e quella di 4 anni dopo, secondo cui vi furono nel passato, e nell’arco di un solo millennio, aumenti di temperatura anche di 10 gradi. E altre ancora, finché nel 1972 il climatologo Murray Mitchell ammetteva che le evidenze degli ultimi 20 anni forzavano a sostituire la vecchia visione di un grande, ritmico ciclo con quella di una successione rapida e irregolare di periodi glaciali e interglaciali all’interno di un millennio. Anche se, allora, il timore dominante era la possibilità che la fine del secolo avrebbe potuto segnare l’inizio di un periodo glaciale con evoluzione rapida (cioè in pochi secoli) verso condizioni “fredde” catastrofiche per l’umanità) non mancava, tuttavia, chi avvertiva del pericolo opposto: il riscaldamento globale a causa delle emissioni umane. In quello stesso 1972, infatti, il climatologo M. Budyko dichiarava che alla velocità con cui l’uomo immetteva CO2 nell’atmosfera, i ghiacciai ai poli si sarebbero completamente sciolti entro il 2050. Insomma, ancora 30 anni fa gli scienziati non si erano messi d’accordo se un’eventuale minaccia proveniva dal troppo freddo o dal troppo caldo. Mentre erano concordi su una cosa, che di troppo era certamente: la loro ignoranza. E invocarono – giustamente – maggiori risorse. Grazie alle quali andarono in Groenlandia ove, dopo 10 anni di tenace lavoro, estrassero, dalle profondità fino ad oltre 2 km, “carote” di ghiaccio di 10 cm di diametro. Dalle analisi dell’abbondanza relativa degli isotopi dell’ossigeno nei diversi strati di ghiaccio (il più profondo dei quali conserva le informazioni sulle temperature di 14mila anni fa) si ebbe la conferma che drammatiche diminuzioni di temperatura erano avvenute in pochi secoli. Il principio di precauzione: precauzione o rischio? 67 Ma fu solo una decina d’anni fa – nel 1993 – che gli scienziati rimasero, è il caso di dire, di ghiaccio: quando scoprirono, da nuovi carotaggi, che la Groenlandia aveva subito aumenti di anche 7 gradi nell’arco di soli 50 anni; e, a volte, con drastiche oscillazioni anche di soli 5 anni! Anche se «questi rapidissimi cambiamenti del passato non hanno ancora una spiegazione», come dichiara un recente rapporto dell’Accademia Nazionale delle Scienze americana, la scienza ha accettato l’idea di un sistema climatico la cui variabilità naturale si può manifestare anche nell’arco di pochi decenni. Non c’è nessuna ragione – di là da quella che ci rassicura psicologicamente – per ritenere che essi non debbano manifestarsi oggi. Vi sono invece tutte le ragioni per ritenere che quella secondo cui l’uomo avrebbe influenzato i cambiamenti climatici sia un’idea – come tutte quelle dei Verdi, ad essere franchi – priva di fondamento; e per ritenere, semmai, che sono i cambiamenti climatici ad aver influenzato l’uomo e il percorso della civiltà. Una cosa senz’altro certa è la circostanza secondo cui i vincoli del protocollo di Kyoto (ridurre del 5%, rispetto a quelle del 1990, le emissioni di gas serra da parte dei paesi industrializzati) avrebbero effetto identicamente nullo sul clima: nell’atmosfera vi sono 3000 miliardi di tonnellate di CO2, l’uomo ne immette, ogni anno, 6 miliardi di tonnellate, di cui 3 provengono dai paesi industrializzati, pertanto il protocollo di Kyoto equivarrebbe a immettere nell’atmosfera 5,85 miliardi di tonnellate di CO2 anziché 6 miliardi. Un primo passo, dicono gli ambientalisti; ma anche montare su uno sgabello è un primo passo per raggiungere la Luna! (Né, d’altra parte, veniamo informati di quali sarebbero gli altri passi) 35. Insomma, la temuta temperatura che l’umanità potrebbe dover sopportare nel 2100, se si applicasse il protocollo 35 Tanto più che, curiosamente (o schizofreneticamente, direbbe qualcuno) viene respinta la possibilità di servirsi dell’unica fonte energetica – quella nucleare – che, veramente competitiva coi combustibili fossili, permetterebbe, se massicciamente impiegata, di raggiungere gli obbiettivi non di uno ma di diversi “protocolli di Kyoto”: la Francia, ad esempio, raggiunge già quegli obbiettivi e la Svezia è addirittura in credito rispetto alle emissioni di gas-serra. Per converso, la Danimarca, il paese al mondo che più investe sulle energie rinnovabili (principalmente nell’eolico), deve ridurre le proprie emissioni di gas-serra di un buon 21% per allinearsi coi vincoli di Kyoto. 68 I costi della non-scienza di Kyoto verrebbe ritardata al 2101! Sennonché, gli sforzi economici conseguenti al rendere operativo quel protocollo sarebbero disastrosi: nel caso dell’Italia, quel disastro – è stato valutato – comporterebbe, tra le altre cose, la perdita di decine di migliaia (51.000 nel 2010, sino a 277.000 nel 2025) di posti di lavoro per ridotta produttività 36. Quindi, come si vede, gli unici due casi che, secondo il rapporto della Commissione dell’UE, “dimostrerebbero” la valenza positiva del PdP, dimostrano invece esattamente il contrario. Alla fine, non sembra sia possibile citare alcun caso – neanche uno – in cui l’applicazione del PdP abbia scongiurato un danno, ridotto un rischio, o apportato benefici. Qualcuno pensa di poter addurre casi in cui il PdP non sarebbe stato applicato; ove invece, se lo fosse stato, si sarebbero potuti evitare dei danni. Tipicamente, si cita il caso dell’amianto, e si usa dire: se questo materiale fosse stato bandito da subito, non ci sarebbero stati gli spiacevoli casi di asbestosi verificatisi tra i lavoratori a esso esposti. La verità è un’altra. Innanzitutto, quando circa un secolo fa si cominciò ad usare l’amianto, nessuno poteva sospettare nulla. I primi sospetti vennero alcuni decenni dopo, perché questi sono i tempi tra esposizione all’amianto e manifestazioni patologiche. In ogni caso, quando quei sospetti vennero, la scienza non rimase con le mani in mano, ma studiò il caso; e nel 1954 decretò con certezza la pericolosità di quel materiale. Che venne messo al bando, per lo meno in Italia, ben 40 anni dopo! Quindi, non ci fu nessun PdP che non venne applicato. Quella che non venne applicata fu l’elementare precauzione su una sostanza di cui si era riconosciuta, alla fine, la pericolosità: ancora una volta, fu il legislatore, cioè la politica, il soggetto inadempiente e sordo alla voce della comunità scientifica. Conclusioni Concludo con una riflessione e una proposta. Innanzitutto, bisognerebbe ricordare che l’analisi e la gestione del rischio può procedere 36 M. Thorning, The impact of Eu climate-change policy on economic competitiveness, Atti della conferenza Dall’effetto serra al dirigismo ecologico, Istituto Bruno Leoni, Milano 29 novembre 2003. Il principio di precauzione: precauzione o rischio? 69 seguendo il metodo scientifico, e avvalendosi di commissioni di organismi che siano scientificamente accreditati, ufficialmente riconosciuti e indipendenti da eventuali interessi economici attinenti al problema in questione. Non vi sarebbe nessuna necessità di invocare un principio ad hoc, soprattutto se esso intenda scavalcare ogni analisi e gestione del rischio fatta col metodo scientifico e sostituire i detti organismi coi responsabili politici. Costoro, piuttosto, sulle questioni indagabili scientificamente hanno il dovere di adeguarsi ai risultati di quelle indagini: potrebbero essere, come visto, inestimabili i danni conseguenti a comportamenti non conformi alle indicazioni dell’indagine scientifica, magari nell’ottica dell’affermazione di un generico, acritico e a priori “primato della politica”. Il rifiuto del “primato della politica” su quelle scelte che possono essere guidate dall’indagine scientifica è un dovere che ognuno, soprattutto se scienziato, deve esercitare: la scienza, infatti, per sua stessa natura, rifiuta l’autorità, qualunque autorità diversa da quella che i fatti e la Natura impongono. Se proprio si sentisse la necessità di un principio guida, forse può essere elemento di riflessione la seguente riformulazione, da me proposta, del PdP (da confrontarsi con quella data all’inizio): «Ove vi siano minacce scientificamente accertate di danno serio o irreversibile, i responsabili politici hanno l’obbligo di non posporre misure – anche non a costo zero ma purché efficaci – volte a prevenire il temuto degrado ambientale». Lo chiamerei, questo, “principio di (tripla) priorità”: (i) priorità dell’analisi scientifica rispetto alle preoccupazioni emotive (e ciò significa adottare una scala di priorità che tenga conto del rapporto costi/benefici); (ii) priorità della ragione scientifica rispetto a quella politica; (iii) priorità della salvaguardia ambientale rispetto all’onere economico. In definitiva, il vero rischio del PdP è che tramite esso le conoscenze della fisica, chimica, biologia, medicina – della scienza in genere, insomma – vadano riscritte nelle aule dei parlamenti, prima, e dei tribunali, poi. Ebbene, possiamo dire che l’associazione Galileo 2001 si propone di impedire che ciò avvenga. 71 RADICI FILOSOFICHE E UTILIZZAZIONE SOCIALE DEL PRINCIPIO DI PRECAUZIONE Carlo Bernardini Università di Roma La Sapienza U no dei motivi per cui anche persone colte e non particolarmente credule fanno i rituali scongiuri suggeriti da molte delle superstizioni classiche (soprattutto in occasione dell’incontro di speciali individui detti o presunti “jettatori”) è quello determinato dalla “prudenza in condizioni di ignoranza”: non è detto che il pericolo sia reale ma, dal momento che lo scongiuro è a buon mercato e alla portata di tutti, meglio praticarlo per prudenza. Pare che un illustre difensore di questo punto di vista fosse addirittura Benedetto Croce (la frase che gli è attribuita, esattamente, suona così: «Non è vero, ma prendo le mie precauzioni», a quanto dichiara Massimo Polidoro del CICAP); e non si può negare che questo semplice ragionamento di cautela in favore degli scongiuri abbia la sua rilevanza. Sulla scorta di questo ormai antico esempio, possiamo allora dire che il Principio di Precauzione ha una sua solida base crociana, compatibile con le filosofie idealiste e dunque, più che mai, con quelle antiscientifiche che ancora tanto spazio hanno nel pensiero contemporaneo. Non annovererei tra i precursori del Principio di Precauzione, invece, l’ex presidente della repubblica Giovanni Leone, grande esperto praticante di scongiuri: Leone ci credeva e la sua non era precauzione ma convinzione, ovvero elemento costitutivo di una tradizione culturale. Informazioni più estese si possono ottenere sul sito http://www.cicap.org. Proprio in ragione di questa matrice più colta, devo riconoscere che i miei colleghi e io stesso commettiamo abitualmente un grave errore, che è quello di perdere le staffe di fronte a princìpi e convinzioni che ai più, invece, appaiono come dotate di un fondamento; ovvero, che ai più appaiono addirittura come proposizioni di senso comune, elementarmente inconfutabili. Effettivamente, in questo come in 72 I costi della non-scienza altri casi che implicano “credenze”, ci troviamo di fronte a una affermazione vagamente antinomica, che meriterebbe almeno una tesi di laurea. La formulo così: «Non è possibile dimostrare razionalmente la non-esistenza di qualcosa che non esiste». L’affermazione si aggrava tramutandola perentoriamente in: «Non può esistere la dimostrazione razionale della non-esistenza di qualcosa che non esiste». Un bel rompicapo, dovuto a un concetto di quelli che Ludovico Geymonat chiamava “predicabili”, cioè appartenenti alla «classe che contiene se stessa come elemento» (per esempio, il concetto di astratto è predicabile, essendo esso stesso astratto; il concetto di virtuoso è, invece, impredicabile). In realtà, uno dei motivi per cui non ci cimentiamo razionalmente con i fenomeni di credulità e bruciamo le tappe dando in escandescenze apodittiche è che non sopportiamo che alcuni nostri colleghi furbacchioni rivestano la filosofia della «prudenza in presunte condizioni di ignoranza» di argomentazioni che appaiono scientifiche solo perché espresse da sedicenti scienziati, ma hanno in realtà finalità di altra natura: politiche, in genere, cioè, di consenso e di affermazione di un potere. Questa sì che è una importante scoperta fatta da alcune frange dell’ambiente scientifico: l’uso ideologico della scienza, una opportunità sino a poco fa forse impensabile. La scoperta, a prima vista di altra natura, mutatis mutandis è simile a quella di chi capisce che una applicazione tecnologica può far guadagnare molti soldi. Dunque, vi invito a riflettere sulla nostra abitudine di minacciare con anatemi i nostri colleghi disponibili all’uso psicopolitico della credulità. In realtà, faremmo meglio a cercare di travolgerli con usi in qualche modo “vantaggiosi” della credulità. Questo non è banale: promesse sui benefici futuri della ricerca non fanno più alcuna presa sull’opinione pubblica e sono banalmente confutabili perfino da giornalisti avveduti. No, bisogna usare in modo positivo proprio quella paura che rende efficace il Principio di Precauzione; ma salvaguardando la nostra rispettabilità e credibilità. Vi faccio un esempio, che mi fu suggerito da una vicenda reale. Anni fa, una notissima astronoma italiana fu consultata da alcuni sindacalisti di Pordenone che avevano appreso da un ufficiale americano che il rilevamento della radioattività nelle cantine di Aviano e dintorni adibite a bettole aveva dato valori molto alti. I sindacalisti chiesero se questo era attribuibile alla presen- Radici filosofiche e utilizzazione sociale del PdP 73 za delle numerose testate nucleari nella base. L’onesta astronoma rispose: «Non me ne intendo, perciò non posso escludere». Il giorno dopo, il quotidiano locale uscì con un titolone: «La nota professoressa XY dichiara che molto probabilmente…». Successe il finimondo. Mi telefonarono e mi sforzai invano di spiegare che no, non poteva essere; le cantine hanno sempre attività naturale più elevata a causa del radon proveniente dal sottosuolo; inoltre, è inverosimile che le radiazioni del materiale fissile di un ordigno nucleare superino l’involucro delle bombe. Fui sospettato di connivenza con i militari. Allora svegliai, di notte, i dirigenti di quel tempo dell’ENEA: Umberto Colombo (Presidente), Giovanni Naschi (Divisione Sicurezza e Protezione) e Fabio Pistella (Direttore Generale). Avevo consultato, per tranquillità, l’amica e collega Silvana Ricci Piermattei, esperta di radon, che aveva confermato la mia banale conclusione. Tuttavia, sapevo che una dichiarazione autorevole e responsabile valeva di più dei nostri pareri. Perciò, insistetti: «Fate qualcosa, fate un comunicato ufficiale dell’ENEA». Mi dissero che era una questione delicata. Insomma, sembrava che temessero di giocarsi il posto. Il clima era simile a quello che abbiamo vissuto con Scanzano Jonico. Però, a me venne, qualche tempo dopo, un’idea. La frase magica, l’abracadabra, è: «Non posso escludere». Qualunque scienziato, se non sa niente di qualcosa, copre così la sua ignoranza. Non dice “non so” ma dice che “non può escludere”: anche questa è precauzione, a suo modo. Fateci caso: i giornalisti adorano consultare i premi Nobel, specie i nazionali. Un premio Nobel è il moderno oracolo e deve salvaguardare la propria attendibilità, che non è tanto quella legata a una sua competenza specialistica quanto quella associata a una presunta capacità di ragionare in modo originale. Difficile, perciò, che escluda una eventualità minimamente possibile di cui in realtà non sa nulla: se può, copre la sua ignoranza con un espediente retorico ambiguo. Ma allora – e questa è l’idea che mi venne mentre pensavo con rancore che avrei raccontato la pavidità del vertice ENEA sul radon ad Aviano in ogni occasione che mi si offrisse – vediamo cosa si può fare di buono con un autorevole “non posso escludere”. Immaginate, per esempio, che una équipe di luminari della medicina si risolva a dichiarare in un importante canale televisivo e in fascia oraria di massimo ascolto, magari sapientemente sollecitata da 74 I costi della non-scienza giornalisti che hanno studiato queste tecniche: «Non possiamo escludere che la lunga permanenza al volante di un’auto nel traffico cittadino produca un sensibile calo delle prestazioni sessuali, oltre a favorire l’obesità e alcuni specifici disturbi neurologici». Ebbene, sarei pronto a scommettere che il traffico cittadino si ridurrebbe di punto in bianco di non meno del 30%, per ridursi poi ulteriormente nei giorni successivi grazie ad una campagna giornalistica ben congegnata. Padronissimi, i luminari, di dichiarare che non sono sicurissimi, che la loro affermazione è solo precauzionale… Ma, ci pensate? Ridurre il traffico con il Principio di Precauzione: un risultato socialmente straordinario! Lascio perdere la possibilità che il programma TV sia sponsorizzato da una fabbrica di biciclette, o pattini, o monopattini: di queste opportunità venali noi scienziati non ci occupiamo. Molti altri risultati potrebbero essere così ottenuti. Certo, le fabbriche di auto correrebbero ai ripari. Allora, pensiamone altre. Si aprirebbe un ventaglio enorme di possibilità. «Non si può escludere che buttare rifiuti di ogni genere per strada o nei luoghi pubblici o nelle campagne produca nuovi microorganismi in grado di determinare nuove e gravi malattie infantili». «Non si può escludere che il piercing sia la causa di particolari tumori»; «Non si può escludere che… (inventate voi qualcosa che vi dà fastidio e mettetela fuori gioco con una precauzione mirata)». Insomma, anziché proibire o imporre come un qualsiasi tiranno, fate apparire la norma come una saggia precauzione: proibizioni e imposizioni sono cause di conflitti, meglio accontentarsi di realizzarle “come misure precauzionali”. È anche assai più democratico: ciascuno è libero di decidere se cautelarsi, “chi non lo fa, su’ danno”. Non chiediamo più di così: vogliamo forse metterci al livello di chi vuole proibire normativamente gli OGM, o gli anticoncezionali, o le linee elettriche, o le centrali nucleari? Se non imbocchiamo questa strada, illustri colleghi, perderemo in qualunque faccia a faccia contro chi, della scienza, diffida e invita a diffidare per principio. Riconosciamo dunque che «c’è del metodo in quella – che a noi appare – follia», e allora usiamo il metodo. A me piacerebbe addirittura approfittare dell’opportunità, ma mi sembra rischioso. Forse, non si possono proporre cose come «il politico X mi sembra pericolosamente antipatico e non posso escludere che lo sia veramente: per precauzione, non votatelo più». Non è certo un Radici filosofiche e utilizzazione sociale del PdP 75 caso, comunque, che i colleghi che hanno fatto fortune mondane con l’ambientalismo oltranzista siano animati da una vena di moralismo mistico che ha contagiato particolarmente la sinistra estrema, gli ex sessantottini e altri eterni tormentati dalla razionalità. Tra gli ambientalisti, ci sono due tipi di “caratteristi” che si danno manforte, ciascuno dalla propria parte: i guru e gli attivisti. Usando la nomenclatura dei fisici, i guru sarebbero un po’ l’equivalente dei “teorici”, gli attivisti sarebbero l’equivalente degli “sperimentali”. I guru parlano in un linguaggio canonico intriso di diffidenza verso categorie classiche come la “scienza ufficiale”, il “progresso”, la stessa “razionalità” o il “metodo”; sono al confine della New Age, si riferiscono almeno a George Bateson, amavano Barry Commoner e oggi Jeremy Rifkin, e così via. Gli attivisti pescano “evidenze” con le metodologie più deprecabili: certificazioni di medici privati, testimonianze di gente comune (su epidemie infantili o su vitelli a due teste, peraltro mai esibiti in televisione, con la fame di mostri che c’è). Le dichiarazioni di individui isterici resi insonni dalle onde elettromagnetiche sono pregnanti e spettacolari. Ma soprattutto, a parte la descrizione fenomenologica di presunti immani danni ambientali imputabili alla spregiudicatezza della scienza ufficiale accoppiata ad interessi economici mondiali, il cavallo di Troia del Principio di Precauzione sono gli argomenti inquietanti, atti a produrre disagio. Per esempio: interrogare la pubblica opinione sulla liceità dell’uso di un farmaco che guarisce il raffreddore ma è letale in un caso su un milione. Se prendete un milione di persone e chiedete se assumerebbero quel farmaco, scoprirete che ciascuno pensa di essere il caso eccezionale; a nulla varrà far notare che il rischio di incidenti d’auto o di caduta massi o di folgorazione è ben più grande. L’accidente è accidente e pertanto accettato, la letalità eccezionale di un farmaco è un attentato deliberato della scienza. Colleghi, cambiamo metodo di gioco. Nell’affrontare la pubblica opinione, cominciamo a “non poter escludere” che se si vuole vivere a rischio zero oggi, domani moriremo di freddo e di fame. Siate razionali con giudizio, armatevi di capacità di comunicazione. Per quanto mi riguarda, mi limito a proporre con forza una riforma didattica che ci riguarda da vicino. Le scienze, così come sono insegnate, appaiono stupidamente deterministiche (cioè “risolutive”). Nessuno di noi, però, s’azzarderebbe a valutare più che una probabilità che accada ciò 76 I costi della non-scienza che tentiamo di prevedere. Ma la gente vuole certezze e noi sbagliamo a cercare di darle o di aggirare la domanda per non darle. Dedichiamoci all’insegnamento sistematico, sin dalle scuole dell’infanzia, del concetto di probabilità. Ricordatevi che il Principio di Precauzione ha la forza del determinismo: non fare, è l’unica cosa proponibile che appaia ingannevolmente certa. Ma le conseguenze del non fare sono valutabili soltanto probabilisticamente: è qui che i guru imbrogliano, perché spacciano per salvezza certa l’esito del non fare. Vanno confutati su questo piano. Coraggio. 77 IL PRINCIPIO DI PRECAUZIONE: UN TRUCCO VERBALE Tullio Regge Premio Einstein per la Fisica L’ abbreviazione PdP è considerata blasfema e vilipendio da noti oppositori; ho già ricevuto in proposito infuocate lettere di protesta. La vicenda del PdP è ormai vecchia di anni e temo che sia l’inizio, l’equivalente del decalogo – se volete – di una nuova religione basata sulla mistica ambientalista. Quando ero deputato al Parlamento Europeo, durante una conversazione fuori seduta con alcuni colleghi, fui interrotto da un Verde con l’annuncio che era stato scoperto un gigantesco deposito di uranio in Canada. Il Verde ha subito aggiunto, con un sorriso e una strizzatina d’occhio, che il deposito era situato sotto un lago, chiaro messaggio della natura che non voleva fosse sfruttato. La natura, vista dal collega, mi apparve come divinità che legiferava e diceva “voglio o non voglio”: ho visto sul nascere il sorgere di una nuova religione. Ho risposto al collega che non si poteva parimenti tirare l’acqua su dai pozzi perché era sotto terra, e questi se ne andò via infuriato. Lo straordinario sviluppo scientifico e tecnologico del XX secolo scatena ondate mistiche che prendono di mira di volta in volta il nucleare, gli OGM, interventi – anche a scopo di cura – sul genoma umano e, infine, il cosiddetto elettrosmog. La caratteristica saliente di queste proteste a livello popolare è l’uso di tesi aberranti, scarso o nullo ricorso ad una seria analisi dei fatti, sviluppi legislativi onerosi e la creazione di strutture burocratiche di regola tanto dispendiose quanto dannose. La prima formulazione della legge sull’elettrosmog, opera dell’allora ministro Bordon, avrebbe contemplato in Italia investimenti e spese correttive del tutto inutili, dell’ordine di circa 3-4 “Parmalat”. La cifra è stata poi ridotta e credo che oggi sia aggiri sul mezzo “Parmalat”. Si tratta pur sempre di soldi buttati via. Le indagini epi- 78 I costi della non-scienza demiologiche svolte in tempi recenti indicano che l’impatto dell’elettrosmog sulla salute è minimo – se non assente – e del tutto trascurabile rispetto all’impatto del fumo e in ogni caso ben controllato dalle norme della OMS adottate da ben 40 paesi di tutto il mondo. Abbiamo fermato le centrali elettronucleari, impresa folle e costosissima, paghiamo gli stipendi al personale senza produrre elettricità e senza alcun miglioramento nelle condizioni di sicurezza. Le proteste ambientaliste contro i depositi di scorie non hanno migliorato le condizioni di sicurezza, semmai le hanno peggiorate. Le proteste hanno bloccato con estrema efficienza per decenni la sistemazione delle scorie in un sito ad alta sicurezza e hanno avuto come unico risultato quello di aumentare la tensione e il terrore del nucleare. E, naturalmente, quello di guadagnare voti dallo stato di massimo pericolo. Fra l’altro, non esiste un unico PdP, un anno fa ne esistevano ben quattordici versioni in continua evoluzione darwiniana. D’altra parte, il testo del PdP è irrelevante e non viene quasi mai citato. Conta esclusivamente l’uso a scopo demagogico. Mi ricordo a questo proposito una puntata di Excalibur 1 a cui ha partecipato anche il nostro Ricci, in cui in fase di chiusura ben due ambientalisti hanno usato verbatim la stessa formula «questo non si può fare per via del Principio di Precauzione». Il PdP è in pratica uno scongiuro: basta il titolo. Il testo è irrilevante e non vale la pena di discuterlo. La pretesa di regolare il futuro dell’ambiente e dell’umanità anche solo per pochi decenni è assurda ed arrogante. La natura è un ecosistema estremamente complesso che l’uomo può seguire solamente in minima parte. Il PdP di Rio, il primo della serie, richiedeva l’assoluta sicurezza, una pretesa assurda. Se preso alla lettera, la nostra riunione di oggi non poteva aver luogo, non dovremmo viaggiare in auto e neppure su di un treno. Il PdP è in realtà concepito come principio per bloccare le iniziative ideologicamente sgradite. Quasi tutte le versioni considerano l’impatto di singoli ritrovati tecnici, farmaco o pesticida o antenna radar che siano, e trascurano le interazioni. La natura è un sistema complesso in cui possono interagire anche centinaia di fattori diversi, ed è molto difficile predire il risultato finale a lungo termine. A distanza di anni un interven1 Trasmissione televisiva di Rai Due condotta da Antonio Socci. Il principio di precauzione: un trucco verbale 79 to può rivelarsi benefico o dannoso. Il tentativo di adattare il PdP a situazioni di estrema complessità non è realistico. Siamo condannati alla navigazione a vista, forse potremo evitare gravi incidenti a breve termine, forse 10 anni, ma certamente non 50 anni. L’andare oltre è velleitario e anche costoso; è destino dell’uomo applicare la propria intelligenza. L’altro punto di cui si è parlato è il ruolo e i limiti della ricerca scientifica. Non sono religioso, ma ricordo molto bene i tempi del liceo e il mio professore di religione, persona di cui ho un caro ricordo. Don Carena ricordava che errare humanum est e su questo punto credo che siamo tutti d’accordo, però aggiungeva anche perseverare diabolicum, ed io ho sempre apprezzato questa aggiunta. Signori, virtù della scienza non è l’infallibilità bensì quella di non perseverare nell’errore, l’errore è inevitabile ed ha anche una funzione creativa, a volte apre le porte a nuove scoperte. Le irregolarità nel moto del pianeta Mercurio all’inizio apparvero come una violazione inesplicabile della legge di Newton, ma in realtà furono punto di svolta di enorme importanza che ci ha condotti alla relatività generale. Quindi, tutto questo significa che dobbiamo imparare dall’errore, ammettere che l’errore fa parte della ricerca e darci da fare. Vorrei infine occuparmi di un tema molto attuale. La manipolazione del genoma di esseri viventi è tema scottante che solleva problemi etici che agitano la nostra società. Non manca chi vorrebbe porre fine alla ricerca ed a qualsiasi manipolazione del genoma, foss’anche a scopo curativo. La mia opinione è che se la natura commette errori, causa di gravi malattie e di inaudite sofferenze, abbiamo tutto il diritto e il dovere di intervenire. Noto purtroppo una chiara assenza di pietà umana in molti critici della ricerca scientifica. Ricordo un collega del Parlamento Europeo a cui avevo riferito il caso di una bambina affetta da immunodeficienza congenita e curata al S. Raffaele con un intervento sul genoma, il primo caso trattato in Europa. I ricercatori hanno modificato il midollo osseo della bambina che ha finalmente ottenuto un suo sistema immunitario e, a quanto mi hanno riferito, frequenta oggi regolarmente la scuola. Ottenni una reazione gelida, il collega furioso replicò che «non si sa cosa possa fare all’ambiente», una delle tante frasi fatte che vengono ripetute fino alla nausea. 80 I costi della non-scienza Rivolgo a questo proposito un caldo invito ai colleghi, vorrei che qualcuno incaricasse uno studente volonteroso che raccolga e analizzi le frasi ossessive e ripetitive che caratterizzano le polemiche ambientaliste. Quella da me citata è ben nota. Un’altra litania recita «tutti i brevetti degli OGM sono nelle mani delle multinazionali». La ripetizione ossessiva di slogan sarebbe ridicola se non fosse vergognosa. Nel caso da me citato l’intervento ha posto fine alle sofferenze di una bambina che soffriva di una malattia molto grave, condannata altrimenti a trascorrere tutta la sua vita in una bolla di plastica. Tutto questo mi ricorda una frase di Mencken che definiva il puritano come «un signore che soffre intensamente al pensiero che qualcuno da qualche parte nel mondo sia felice». Signori, i puritani sono ancora fra di noi. 81 IL PRINCIPIO DI PRECAUZIONE E LA SALUTE Umberto Tirelli Direttore Dipartimento di Oncologia Medica Istituto Nazionale Tumori di Aviano S econdo la definizione che la Commissione Europea ha dato nel 1998, «il Principio di Precauzione (PdP) è un approccio alla gestione del rischio che si applica in circostanze di incertezza scientifica e che riflette l’esigenza di intraprendere delle azioni a fronte di un rischio potenzialmente serio senza attendere i risultati della ricerca scientifica». Ma, come è stato osservato più volte durante il corso di questa conferenza, la certezza scientifica è sempre assente. La scienza, a differenza delle parascienze, della cartomanzia e dell’astrologia, non offre certezze. Il rischio del PdP è che quello spazio di dubbio lasciato dalla scienza venga riempito da affermazioni arbitrarie, dando voce solo alle emozioni della gente o comunque a persone non competenti che vogliono sfruttare questi sentimenti, consentendo una strumentalizzazione in aperto contrasto con gli interessi della collettività e con l’analisi critica delle acquisizioni scientifiche. Il PdP è perciò impossibile da applicarsi per la salute, perché fa appello alla incertezza scientifica, ma l’incertezza è intrinseca alla scienza. Il PdP non è un criterio scientifico, ma è un atteggiamento socio-politico, che non ha niente a che fare con la scienza. Invece del PdP, è la prevenzione dai rischi accertati sulla base dei dati scientifici che dovrebbe essere la guida dei nostri comportamenti. Per esempio, gli incidenti stradali sono la prima causa di morte nei giovani, ed è come se un aereo cadesse in ogni week-end non soltanto in Italia, ma in ogni singolo paese occidentale. La prevenzione si basa sulla riduzione della velocità mentre si guida, sul bandire alcool e qualsiasi droga al conducente, sull’impiego della cintura di sicurezza, sul non utilizzo del telefonino alla guida. Mentre questa è prevenzione, il PdP applicato all’utilizzo della macchina prescriverebbe che non si andasse in macchina per non rischiare incidenti stradali o comunque l’inquina- 82 I costi della non-scienza mento atmosferico urbano, che dipende all’80%, nel suo complesso, dall’utilizzo delle macchine. Ma ecco un esempio di come l’invocazione del PdP sia stata sconfessata da un organismo internazionale come l’OMS. Un rapporto dell’OMS del marzo 2000 recita: «Le condizioni di applicabilità del Principio di Precauzione espresse dalla Commissione dell’UE non sussistono né per i campi a frequenza industriale né per quelli a radiofrequenze». Stranamente, il rapporto dell’OMS non viene mai menzionato quando si cita il PdP a questo proposito. Secondo la Commissione Europea (2000), «il ricorso al PdP presuppone l’identificazione di effetti potenzialmente negativi che derivino da un fenomeno, da un prodotto o da una procedura, nonché una valutazione scientifica del rischio». Quindi perché venga invocato il PdP è necessario che sia stata chiaramente identificata la sua natura di potenziale danno alla salute, anche se con incertezze sull’entità dei rischi ipotizzati e sull’effettivo nesso causale. Questo chiarimento della Commissione Europea risolve solo parzialmente il problema. Infatti, la letteratura epidemiologica abbonda di studi che segnalano associazioni statistiche tutte da verificare sul piano eziologico; la letteratura medica riporta innumerevoli case reports interpretabili come primo segnale di un problema sanitario, ma che potrebbe poi rivelarsi infondato. Il PdP crea quindi una situazione di conflitto con il metodo scientifico che può essere superata solo rispondendo a due domande: • Quale grado di evidenza scientifica è necessario perché un rischio sanitario o ambientale possa dirsi “identificato”? E, di converso, • Quanta mancanza di evidenza scientifica è necessaria perché un agente, un fenomeno o un’attività umana possano essere considerati “innocui”? Le due domande sono solo apparentemente speculari. Mentre infatti solidi studi positivi, nel senso che indicano un effetto, possono fornire la “prova di pericolosità”, nessuno studio negativo, per quanto ampio e solido può fornire la “prova di innocuità”. Significativo in proposito è il fatto che la classificazione dell’Agenzia Internazionale sulla Ricerca sul Cancro (IARC) prevede, ad un estremo, la categoria delle sostanze “cancerogene”, ma all’altro estre- Il principio di precauzione e la salute 83 mo non va oltre la definizione di “probabilmente non cancerogene”. La parola “innocuo” dovrebbe quindi a rigore scomparire dal dizionario scientifico; il problema che si pone è stabilire quanta evidenza scientifica negativa (nel senso sopraindicato) deve accumularsi perché qualche cosa corrisponda a ciò che, nel parlare e nel sentire comune, viene considerato come “innocuo”. La risposta non è univoca perché è soggettivo non solo il concetto di innocuità, ma anche la percezione dei rischi, influenzata spesso più da fattori psicologici che dalle conoscenze scientificamente oggettive. Tutto ciò rende inutilmente difficile la gestione di molti problemi sanitari, di potenziali farmaci e di farmaci già in commercio. O del problema dei campi elettromagnetici sopra accennato. E ancora: il richiamo alla responsabilità professionale degli addetti ai lavori è pressante nell’impianto normativo in vigore nell’Unione Europea: esso sottintende l’ipotesi che le moderne tecnologie biologiche siano potenzialmente pericolose e che sia quindi necessario ottenere un progressivo consenso sociale sulle loro utilizzazioni produttive in ambito sanitario, agricolo ed industriale. Per quanto riguarda la salute in generale, se tenessimo conto del PdP, che viene spesso portato come paladino della difesa della salute e dell’ambiente, come ci dovremmo comportare con l’inquinamento prodotto dalle macchine e dal riscaldamento che notoriamente può portare a malattie respiratorie ed oncologiche? Chiedere la rottamazione delle auto e vivere al freddo? La scienza non risolve ovviamente i problemi della salute, ma se ci sono dei problemi correlati alla salute sia per quanto riguarda i nuovi farmaci che altri problemi generali, il metodo scientifico offre le risposte più attendibili perché l’indagine e la verifica dei risultati poggia sul rigore critico della comunità scientifica e certamente non sulle emozioni della gente o sui preconcetti o peggio ancora sulle idee politiche. Pertanto al PdP, che non è un criterio scientifico, va senz’altro sostituito il metodo scientifico. Esso si basa sui seguenti passaggi: ANALISI PRELIMINARE: Domande alle quali dare una risposta. Per esempio: Qual è la causa dell’AIDS? TEORIA: Sulla base delle conoscenze disponibili viene formulata una teoria: l’AIDS è una malattia infettiva che dipende da un virus. 84 I costi della non-scienza IPOTESI SPERIMENTALE: 1) Se l’AIDS dipende da un virus dobbiamo trovare un virus nel paziente; 2) Il virus isolato dovrebbe provocare in un modello sperimentale di laboratorio danni simili a quelli della malattia. SPERIMENTAZIONE: Analizzando il sangue dei pazienti si trova sempre il virus HIV e questo conferma la solidità della teoria virale. CONFERMA E RIPRODUCIBILITÀ DEI DATI: Pubblicati questi dati su riviste scientifiche autorevoli, questi dati devono essere confermati. Se non venissero confermati si ritorna alle fasi precedenti. L’HAART ha rivoluzionato la storia naturale dell’HIV/AIDS, trasformandola da una malattia evolutiva e spesso mortale in pochi anni a malattia cronica sostanzialmente gestibile, con una riduzione significativa del passaggio da HIV ad AIDS e di mortalità in pazienti con AIDS. L’HAART è stato uno dei più grandi progressi medici del secolo scorso in campo farmacologico. L’AIDS è stato descritto per la prima volta nel 1981, vi è stata la scoperta del virus che lo causa nel 1983, sono stati disponibili un test del sangue nel 1985 e, dopo pochi anni, una terapia in grado di rendere spesso cronica questa infezione, che prima era mortale in tutti i casi. E pensare che c’è chi dice che l’HIV non è la causa dell’AIDS, come ad esempio il presidente del Sud Africa che si basa su affermazioni screditate dello scienziato Duesberg. Nel frattempo vi è chi si lamenta perché i farmaci anti-HIV non vengono resi disponibili al Sud Africa. Di fronte ad una sopravvivenza sostanzialmente migliorata in poco tempo per merito dell’HAART, non sarebbe stato accettabile pensare agli eventuali effetti secondari tossici a medio e lungo termine causati dai farmaci dell’HAART. Cosa avrebbero potuto dire i pazienti con HIV/AIDS se qualcuno avesse proposto di attendere 5-10 anni per valutare gli eventuali effetti collaterali dell’HAART (che poi si sono effettivamente riscontrati, per esempio lipodistrofia ed altri, come d’altra parte succede quasi sempre con una terapia cronica)? Altre circostanze nelle quali il PdP dovrebbe essere sostituito dall’applicazione del metodo scientifico sono il cosiddetto elettrosmog, l’agricoltura che usa OGM e quella biologica, l’energia nucleare e l’uranio impoverito. Come detto in precedenza, la scienza non risolve ovviamente i problemi della salute, ma se ci sono dei problemi correlati alla salute sia Il principio di precauzione e la salute 85 per quanto riguarda i nuovi farmaci che altri problemi generali, è il metodo scientifico che offre le risposte più attendibili. Pertanto, il PdP va senz’altro sostituito dal metodo scientifico e comunque da quanto le Agenzie nazionali ed internazionali preposte, costituite da ricercatori esperti nell’argomento, e che si basano su quanto gli scienziati hanno riportato sull’argomento, possano enunciare. Infine va ribadito che tutti noi quando riportiamo dei dati scientifici, dovremmo sempre ricordare di citare le Agenzie nazionali ed internazionali che riportano quanto stiamo dicendo, oppure ricerche pubblicate sulle riviste più autorevoli e che sono confermate da altri. Se così non fosse, il nostro discorso dovrebbe essere sempre molto cauto e comunque mai definitivo. 87 PIANTE GM: UNA GRANDE OPPORTUNITÀ PER L’AGRICOLTURA ITALIANA Francesco Sala Università di Milano «I o mangio cibi naturali perché sono sicuri»: due errori in una frase. Primo errore: tutte le piante coltivate dall’uomo per produrre cibo, mangimi per animali e prodotti di interesse industriale, non sono “naturali”. Il pomodoro, il frumento, il riso, il mais sono il risultato di incroci, mutazioni e selezioni operate negli ultimi millenni e, soprattutto, nel secolo appena concluso. Secondo errore: la correlazione “cibo naturale/assenza di rischi” è scientificamente infondata. La maggior parte delle piante produce veleni, tossine e sostanze cancerogene. Ciò ha un significato biologico ed evolutivo: la pianta produce questi composti per difendersi dai suoi parassiti (insetti, funghi, virus, animali che se ne cibano). L’uomo, ha selezionato piante che, apparentemente, non gli sono tossiche o ha imparato a renderle commestibili. Oggi la scienza ci aiuta in questa selezione; ad esempio, si è di recente scoperto che le giovani piantine di basilico usate per il “pesto genovese” contengono metil-eugenolo, una sostanza che può provocare tumori. Ma la scienza ha anche chiarito che la concentrazione di questa sostanza scende al di sotto del livello di guardia nelle foglie di piante adulte: basta preparare il pesto con piante più alte di 10 centimetri. Un altro esempio del fatto che i rischi accompagnino anche l’alimentazione, sia tradizionale sia biologica: nel novembre 2003 la Regione Lombardia dovette ordinare la distruzione del 20% del latte ivi prodotto perché contaminato da aflatossine. Si tratta di molecole che causano diverse gravi patologie, tra cui anche tumori.1 Il fatto è stato circoscritto alla Lombardia perché questa è stata l’unica regione che abbia effettuato appropriati 1 Turner et al., Mutation Research 443, p. 81-93 (1999). 88 I costi della non-scienza controlli, ma non vi è ragione di escludere che anche il resto dell’Italia sia a rischio. Perché le aflatossine nel latte? Perché un componente importante della dieta degli animali da latte è il mais. Su quest’ultimo spesso cresce un fungo parassita che produce micotossine, tra cui le aflatossine stesse. Queste, assorbite dall’animale, vengono accumulate nel latte. Tabella 1. Alcuni rischi della agricoltura tradizionale e di quella biologica Per la salute umana: 1. Sostanze tossiche o tumorigene nella pianta (es.: basilico giovane contiene metileugenolo, un cancerogeno) 2. Sostanze allergeniche (es.: 15 allergeni nel Kiwi) 3. Residui di composti chimici usati come fitofamaci in agricoltura (fertilizzanti, diserbanti, insetticidi, fungicidi) 4. Presenza di tossine fungine nei prodotti agricoli (aflatossine, fumosine, ocratossine). Per l’ambiente: 1. Diffusione di polline (es.: pioppo coltivato che, con il suo polline, riduce la biodiversità del pioppo naturale) 2. Colonizzazione di ecosistemi (es.: robinia, Ailantus, un melo infestante nel Parco del Ticino) 3. Impoverimento dei suoli 4. Eutrofizzazione delle acque 5. Inquinamento delle falde acquifere (es.: atrazina nelle risaie degli anni Sessanta-Settanta). È dimostrato che il rischio aflatossine è molto più alto nelle coltivazioni biologiche ove il controllo del fungo è più problematico rispetto al mais tradizionale e, soprattutto al mais-Bt, una pianta transgenica che ha acquisito un gene che conferisce resistenza alla piralide, un in- Piante GM: una grande opportunità … 89 setto parassita. Ma cosa c’entra l’insetto con i funghi che producono aflatossine? I dati sperimentali mostrano che un mais che cresca sano, perché non attaccato dalla piralide, il suo principale parassita nei nostri campi, riesce a resistere meglio alle infezioni fungine. In esso le aflatossine risultano dunque assenti o ridotte a tracce. L’agricoltura, ed i suoi prodotti, non sono dunque esenti da rischi. Alcuni di questi sono riassunti in Tabella 1. Eppure oggi il Principio di Precauzione viene invocato solo quando si tratti di piante transgeniche (conosciute anche come piante geneticamente modificate, o piante GM). Quante volte nei dibattiti pubblici mi sono sentito chiedere: «Lei, come scienziato, ci può dare la sicurezza che le piante GM siano assolutamente esenti da rischi, sia presenti che futuri? Se la scienza non ci dà questa certezza, meglio il non-fare!». La mia risposta è sempre stata articolata su due punti fondamentali: il primo è che la scienza, in qualsiasi settore, non dà mai sicurezze assolute. Con i suoi metodi di indagine, sempre più sofisticati, può dare altissime garanzie, ma mai la sicurezza assoluta. Il secondo concerne il fatto che, in tutte le attività umane, la sicurezza è sempre un concetto relativo: in ogni specifica situazione essa è correlata con il livello di tolleranza del rischio che si accetta in confronto con i benefici che derivano dall’attività stessa. Il rischio zero non esiste in alcuna attività umana. Di fronte alle innovazioni tecnologiche, ed in ogni attività quotidiana, noi eseguiamo, anche inconsciamente, un’analisi dei rischi e dei benefici; ed agiamo di conseguenza. Ma questo non sempre segue regole razionali. La decisione è soggettiva. L’irrazionalità e la paura viscerale del nuovo giocano ruoli spesso rilevanti. Consideriamo rischi accettabili quelli legati alla motorizzazione anche se ogni anno, solo in Italia, questa uccide 6.000 persone, ne rende disabili altre 200.000, inquina le città, danneggia l’ambiente ed il patrimonio artistico. L’accettiamo perché, comunque, pensiamo che i benefici dell’usare l’auto siano superiori ai rischi. Ma, allo stesso tempo, ci spaventa la notizia che un vaccino, come il Sabin, che pur previene la poliomielite, causi la malattia in un vaccinato ogni 2 milioni. La maggioranza degli italiani si dichiara poi contraria ai cibi GM anche se questi, dopo dieci anni d’uso in molti paesi del mondo non hanno mai scatenato nemmeno un raffreddore. 90 I costi della non-scienza Eppure oggi, nel nostro Paese, e solo nel caso delle piante GM, il Principio di Precauzione è stato trasformato in Principio di Blocco. Gruppi di opinione (e di interesse economico ed anche politico) hanno condotto una ben orchestrata campagna contro le biotecnologie vegetali, ingigantendone alcuni rischi, quelli comuni alle pratiche agricole in genere, ed inventandone altri. Di conseguenza, alcune Regioni si sono dichiarate GM-free; e il Governo, delle piante GM, ha bloccato sia l’uso sia la ricerca. A nulla vale la considerazione che miliardi di persone nel mondo producono e usano piante GM. E ciò dopo che i loro governi hanno condotto approfondite analisi dei rischi; la ricerca ha dimostrato che non vi è stato un solo caso riconosciuto di tossicità per l’uomo, di induzione di allergenicità, di danni ambientali, di flusso genico, di attentato alla biodiversità. Tutte le accuse mosse alle piante GM fanno dunque parte del “potrebbe”, del “non è da escludere che”, non dello “scientificamente dimostrato”. I controlli preventivi hanno dunque funzionato! Le piante GM «Sono più sicure di quelle tradizionali perché accuratamente controllate»; questa è la conclusione cui è giunto Philippe Busquin, il Commissario Europeo per la Ricerca Scientifica nella prefazione del libro, edito dalla Comunità Europea, dal titolo EC-sponsored Research on Safety of Genetically Modified Organisms. Busquin è pienamente autorizzato a fare questa affermazione, in quanto basata su di una ricerca condotta per 15 anni in 400 istituti di ricerca europei con una spesa di 70 milioni di euro. Eppure, ancora oggi nel nostro Paese si pretende che le piante GM siano bloccate sino a che non avremo la sicurezza assoluta dell’assenza di rischi attuali e futuri. Rischi esisteranno sempre in agricoltura (sia biologica, sia tradizionale, sia GM) come in tutte le altre attività umane. Compito della scienza non può essere che quello di verificare, caso per caso, il livello di rischio ed offrire alla società parametri per le decisioni sulla accettabilità di ogni nuova varietà vegetale proposta per l’uso agricolo. E ciò nonostante che le leggi oggi vigenti stabiliscano che una nuova varietà debba essere approfonditamente controllata per eventuali rischi per la salute umana e per l’ambiente nel caso in cui questa sia classificata come GM. I controlli devono essere effettuati prima di ricevere la licenza di uso agricolo. Non è così per le piante Piante GM: una grande opportunità … 91 migliorate geneticamente per incrocio o per mutagenesi con radiazioni o con composti chimici mutageni. Queste ricevono sempre il permesso di coltivazione se solo dimostrano di essere una nuova varietà, non una copia di una varietà già esistente. Eventuali rischi saranno verificati a posteriori sulla salute dei consumatori o sull’ambiente ove saranno coltivate! Eppure le precauzioni prese nel caso delle piante GM non sono ritenute sufficienti. Si è instaurata una spirale perversa: se le piante GM sono controllate è perché sono pericolose. Questa è il messaggio che arriva all’opinione pubblica. Ma se sono pericolose, è auspicabile che vi siano ulteriori controlli e restrizioni. E così l’autorità politica va incontro alla domanda del pubblico ed introduce ulteriori controlli e restrizioni. Ma allora sono davvero molto pericolose! E ciò porta alla richiesta di ulteriori controlli: si è creato il mostro, anzi, il cibo di Frankestein! Al contrario, il prodotto agricolo tradizionale non è controllato. Il messaggio per l’opinione pubblica è che questo non abbia rischi. Non parliamo del cibo biologico, oggi vicino alla santificazione: è il cibo bucolico dei nostri nonni! Sapori meravigliosi e assenza di rischio, almeno nell’immaginario creato da una interessata e ben orchestrata campagna pubblicitaria. Interessata perché la principale caratteristica del prodotto biologico è il “maggior valore aggiunto”; in parole povere, il maggior guadagno da parte del produttore e del venditore. La domanda è: è sensato proporre che si valuti il rapporto rischi/benefici delle piante GM e che le si blocchino se sarà evidenziato un rapporto inaccettabile, ma le si accettino quando i rischi risultino ridotti ed i benefici notevoli? La logica impone che il rapporto rischi/benefici sia valutato caso per caso, in quanto dipenderà sia dalla specie di pianta, sia dal gene integrato, sia anche dal sito geografico ove si intende coltivare la pianta. Ma qual è il livello di rischio accettabile? Non è difficile stabilirne il valore soglia. La regola potrebbe essere: si confronti, sempre caso per caso, il rapporto rischi/benefici offerto oggi da una specifica coltivazione (ad esempio mais) con quella resa possibile dalla disponibilità della stessa pianta migliorata per inserimento di uno specifico gene (ad esempio, mais-Bt, che resiste agli attacchi della piralide senza necessità di insetticidi). Sarebbe auspicabile che procedure di valutazione analoghe venissero adottate anche nel caso delle piante non-GM (incluse quelle usa- 92 I costi della non-scienza te nella cosiddetta agricoltura biologica). Ma forse oggi è sperare troppo nel nostro paese! Oggi è anche troppo proporre che il nostro paese riprenda gli studi sui rischi e sui benefici delle piante GM: semplicemente, è oggi proibito produrre le piante GM su cui fare tali studi. «Ma il messaggio basato sulla sola scienza non sembra far presa», questa è l’opinione espressa anche dal commissario U.E. per la salute e la protezione dei consumatori, David Byrne, che, affrontando in un recente Convegno il tema piante GM dal punto di vista del contrasto tra paura irrazionale e giusta preoccupazione, ha rilevato che «il fumo uccide, ma molti continuano a fumare, mentre le stesse persone non vogliono mangiare un biscotto GM, anche se tutte le prove scientifiche relative agli alimenti GM dicono che sono sicuri almeno quanto gli alimenti tradizionali». Perché siamo arrivati a tanto? Probabilmente perché una ben organizzata campagna condotta sui mass media, ed in tutte le possibili occasioni mediatiche, ha ormai snaturato il senso del Principio di Precauzione. Questo, che avrebbe dovuto essere il principio logico su cui basare tutte le decisioni riguardanti i nuovi sviluppi tecnologici, è divenuto, per la sua aleatorietà, un mezzo per difendere posizioni integraliste contro sviluppi tecnologici indesiderati. Inoltre, non è facilmente percepito dal cittadino il fatto che spesso, nelle attività umane, il non-fare può avere conseguenze più gravi del fare. Si prendano gli esempi del passato: chi autorizzerebbe oggi, in base all’estrema cautela che si pretende per le piante GM, la sperimentazione dei vaccini contro le malattie infettive: l’iniezione di batteri o virus patogeni ancora vivi per stimolare la risposta immunitaria sarebbe considerata pura follia! Chi autorizzerebbe oggi, in base alla stessa cautela, l’introduzione nella dieta europea, dalle Americhe, di un cibo esotico quale la patata, che contiene solanina, una sostanza tossica che inattiviamo con la cottura? Eppure abbiamo appena introdotto un nuovo cibo esotico, il kiwi, con le sue 15 proteine allergeniche: ma non è GM! In definitiva, ciò che è realisticamente possibile chiedere alle piante GM non è l’eliminazione totale dei rischi, ma la riduzione del loro livello già accettato nell’agricoltura attuale e l’aumento dei benefici. Questo è quello che si deve chiedere allo scienziato, non una impossibile sicurezza assoluta. Piante GM: una grande opportunità … 93 L’attuale uso restrittivo del Principio di Precauzione sta portando l’agricoltura italiana alla morte e quella europea alla perdita di competitività con le agricolture americana, asiatica ed africana. Senza innovazione tecnologica, stiamo assistendo ad un invecchiamento delle nostre varietà coltivate, all’aumento dei costi dei prodotti agricoli, all’aumento dei rischi alimentari correlati con la presenza di livelli preoccupanti di micotossine e batteri patogeni nei cibi tradizionali e, soprattutto, nei cibi biologici. 95 GREEN BIOTECHNOLOGY COULD SAVE MILLIONS OF LIVES – BUT IT CANNOT BECAUSE OF ANTISCIENTIFIC, EXTREME-PRECAUTIONARY REGULATION Ingo Potrykus Professor emeritus in Plant Sciences, ETH Zürich, Switzerland Biofortification can complement traditional interventions against malnutrition I n developing countries 500,000 per year become blind and up to 6,000 per day die from vitamin A-malnutrition. And this is despite enormous efforts from public and philanthropic institutions to reduce this medical problem with the help of traditional interventions such as supplementation, fortification, encouragement for diet diversification, etc. This heavy toll poor people in developing countries are paying to vitamin A-malnutrition will continue year by year, if we do not find a way to complement traditional interventions by sustainable and unconventional ones. One of those could be based on nutritional improvement of basic staple crops via “bio-fortification” – genetic improvement with regards to micronutrients and vitamins. Plant breeding and genetic engineering offer two complementing approaches. The major micronutrient deficiencies concern iron, zinc, and vitamin A. Vitamin A-deficiency is wide-spread amongst ricedepending poor because rice does not contain any pro-vitamin A (Plants do not produce vitamin A but pro-vitamin A (carotenoids), which our body converts into vitamin A). Dependence on rice as the predominant food source, therefore, necessarily leads to vitamin Adeficiency if poverty prevents a diversified diet, most severely affecting children and pregnant women. The medical consequences for the vitamin A-deficient 400 million rice-consuming poor are severe: impaired vision – in the extreme case irreversible blindness – impaired epithelial integrity against infections, reduced immune 96 I costi della non-scienza response, heamopoieses, skelettal growth, etc. Rice containing provitamin A could substantially reduce the problem, but “biofortification” of rice for pro-vitamin A is not possible without genetic engineering. The transgenic concept, therefore, was based on the idea to introduce all genes necessary to activate the biochemical pathway leading to synthesis and accumulation of pro-vitamin A in the endosperm (the starch storage tissue of the seed). The scientific breakthrough with pro-vitamin A Golden Rice contains the genes necessary to activate the biochemical pathway for pro-vitamin A. This pathway is activated exclusively in the endosperm. The intensity of the “golden colour” represents the concentration of pro-vitamin A. There are different lines with different concentrations. We aim at concentrations, where a daily diet of 200g of rice will provide enough pro-vitamin A to substantially reduce vitamin A deficiency. The concentration required for this purpose can only be determined, when data from bioavailability studies are available. Experiments on these lines are in progress, but will take until end of 2005. So far we are working with lines in which -theoretically – the concentration is high enough for our goal. The novel trait has been transferred into several Indica rice varieties – especially IR 64, the most popular rice variety of Southeast Asia – and “regulatory clean” events have been selected to facilitate the processing through the deregulatory process. [Ye, X., Al-Babili, S., Klöti, A., Zhang, J., Lucca, P., Beyer, P., Potrykus, I. (2000), «Engineering provitamin A (β-carotene) biosynthetic pathway into (carotenoid-free) rice endosperm», Science 287, 303-305. Beyer P, AlBabili S, Ye X, Lucca P, Schaub P, Welsch R, Potrykus I (2002), «Golden Rice, introducing the β-carotene biosynthetic pathway into rice endosperm by genetic engineering to defeat vitamin-A deficiency», J. Nutrition 132, 506S-510S. Tran Thi Cuc Hoa, Salim AlBabili, Patrick Schaub, Ingo Potrykus, and Peter Beyer (2003), «Golden Indica and Japonica rice lines amenable to deregulation», Plant Physiology 133, 161-169]. Green biotechnology could save millions of lives… 97 Golden Rice will be made freely available in a humanitarian project Golden Rice will be made available to developing countries in the framework of a “Humanitarian Golden Rice Project”. This was from the beginning a public research project, designed to reduce malnutrition in developing countries. Thanks to strong support from the private sector and donations of “free licences for humanitarian use” for intellectual property rights involved in the basic technology, the hurdle of extended IPR linked to the technology used in the scientific project could be overcome. This enables us to collaborate with public rice research institutions in developing countries on the basis of “freedom-to-operate” towards the development of locally adapted Golden Rice varieties. Once Golden Rice varieties have passed the national bio-safety procedures, it will be made available to subsistence farmers free of charge and limitations. It will become their property and they can – year after year – use part of their harvest for the next sowing (without paying anything to anybody). The farmers will use their traditional farming systems and they will not require any additional agronomic inputs. Therefore, there will be no “new dependencies” from anyone. And there is no conceivable risk to any environment which would justify not to grow Golden Rice in the field for breeding and up-scaling reasons. This progress since the scientific breakthrough in 1999 was possible thanks to a novel type of “publicprivate-partnership”. Thanks to an agreement with Syngenta and other agbiotech industries, the use of Golden Rice is free of licenses for “humanitarian use”, defined as “income from Golden Rice per year and farmer below $ 10.000 “Commercial use”, however, (above $ 10.000 per year) requires a license from Syngenta. Humanitarian use is based on (license-free) sublicenses from the Humanitarian Golden Rice Board to public rice research institutions. This sublicense agreement ensures that the material is handled according to established GMO rules and regulations, and that the target population – subsistence farmer and urban poor -receive the material without any additional cost for the trait. 98 I costi della non-scienza Locally adapted varieties are being developed in national institutions in the framework of a Humanitarian Golden Rice Network under the guidance of a Humanitarian Golden Rice Board Development of locally adapted Golden Rice varieties as well as application to national bio-regulatory authorities for field testing and deregulation is in the hands of national and international public rice research institutions. To date this “Humanitarian Golden Rice Network” includes 16 such institutions in Bangladesh, China, India, Indonesia, South Africa, The Philippines, and Vietnam. The network is under the strategic guidance of the Humanitarian Golden Rice Board, and under the management of a network coordinator with office at the International Rice Research Institute (IRRI), Philippines. The Humanitarian Board has, so far, no legal status and benefits from the expertise of international authorities such as Dr. Gurdev Khush, retired from IRRI (rice breeding), Prof. Robert Russell, Laboratory for Human Nutrition, Tufts University Boston (vitamin A-malnutrition), Dr. Howarth Bouis, International Food Policy Research Institute (IFPRI) Washington (bio-fortification), Dr. Gary Toenniessen, The Rockefeller Foundation New York (food security in developing countries), Dr. Robert Bertram, USAid Washington (development in Third World agriculture), Dr. Adrian Dubock, Syngenta (product development and intellectual property rights), Dr. Ren Wang / Dr. William Padolina IRRI (international cooperation in rice research), Professor Peter Beyer (coinventor) university of Freiburg (scientific progress underlying biofortification in pro-vitamin A and other micronutrients), Dr. Katharina Jenny, Swiss Development Cooperation Bern (technology transfer and trans-sectorial issues), and Professor Ingo Potrykus (co-inventor), retired from ETH Zuerich, chairman (public relations and information). Biofortified seeds have an unmet potential for sustained solutions Bio-fortification (complementation for missing micro-nutrients with the help of genetic complementation) of the basic staple crops for poor populations in developing countries is, most probably, the most sustainable and cost-effective approach to reduction in micro-nutrient malnutrition. (For more information on the concept of bio-fortification Green biotechnology could save millions of lives… 99 and a recent challenge program of the CGIAR see homepage www.harvestplus.org). Golden Rice represents the first example of biofortification achieved via genetic engineering. Research investment for this trait (bio-fortification for pro-vitamin A) was relatively modest ($ 2,4 million over 9 years) and financed from funds for basic research. Product development, however, from this scientific brake-through is time consuming and requires additional funding, but again one-time only for each event. Expenses are increasing really dramatically when working through the bio-safety assessments required for deregulation. But again this is a one-time investment. As soon as a novel biofortified variety is deregulated and can be handed out to the farmer, the system demonstrates its unique potential, because from this point on, the technology is built into each and every seed and does not require any additional investment, for an unlimited period of time. Just consider the potential of a single Golden Rice seed: Put into soil it will grow to a plant which produces, at least, 1 000 seeds; a repitition will yield at least 1 000 000 seeds; next generation produces already 1 000 000 000 seeds and in the fourth generation we arrive at 1 000 000 000 000 seeds. These are 20 000 metric tons of rice and it takes only two years to produce them. From these 20 000 tons of rice 100’ 000 poor can survive for one year, and if they use Golden Rice they have an automatic vitamin A supplementation reducing their vitamin Amalnutrition, and this protection is cost-free and sustainable. All a farmer needs to benefit from the technology is one seed! There is no additional input required compared to “normal rice”. And for urban poor there is no premium on vitamin A-rice. There are enough seeds to be handed out to many farmers, but this can not be done, because Golden Rice is a “GMO” (genetically modified organism) and those are highly regulated. And the Humanitarian Golden Rice Board has decided to follow the established rules and regulations. Extreme precautionary regulation, however, prevents use so far and ignores the potential benefits Considering the history of Golden Rice (the technology is often considered risky because it is so fast!) it took 10 years (from 1980 to 1990) to develop the necessary technology of placing genes into rice. It 100 I costi della non-scienza took further 9 years (from 1990 to 1999) to introduce the genes required to establish the biochemical pathway leading to pro-vitamin A in the seed. And it took further 5 years (from 1999 to 2004) to develop a Golden Rice “product” and carry it across a series of GMOspecific hurdles such as IPRs. And it will take, probably, at least 5 more years to advance the first Golden Rice product through the deregulatory procedure: Therefore, it took 30 years if we include technology development, and it took still 20 years for the single specific case. Considering that Golden Rice could substantially reduce blindness (500 000 per year) and death (2-3 million per year) 20 years are a very long time period, and I do not think that anyone should complain that this was “to fast”! If it were possible to shorten the time from science to the deregulated product, we could prevent blindness for hundreds of thousands of children! However, the next 5 years will have to be spent on the required “bio-safety assessments” to guarantee that there is no putative harm from Golden Rice for the environment and the consumer. Nothing speaks against a cautious approach, but present regulatory praxis follows an extreme interpretation of the “precautionary principle” with the understanding that not even the slightest hypothetical risks can be accepted or left untested, and at the same time all putative benefits are totally ignored. Looking at Golden Rice and the problem of environmental risk assessment discloses how irrational the present system operates : The author has, over the last four years, not found any ecologist, including those from the “professional GMO-opposition”, who could construct a half-way realistic hypothetical risk from Golden Rice to any agronomic or wild environment. This is not surprising because the entire biology of the system – low amounts of additional b-carotene in the endosperm in plants which are loaded with b-carotene in every organ except for the root – does not provide for any selective advantage in any environment, and therefore can not pose any substantial risk. Despite this fact Golden Rice is still awaiting the first permission for the first small-scale field release, in which environmental risks have to be studied experimentally! So far to the “risk” side of the equation. And the “benefit”? Golden Rice could prevent blindness and death of hundreds of thousands of children but can not do so, so far, because risk assessment notoriously is ignoring a risk-benefit analysis! Green biotechnology could save millions of lives… 101 Present Deregulation is extremely demanding on time and financial resources What then is required for the deregulatory procedure? First of all, it is advisable to focus on one carefully selected transgenic event, which is as “regulatory clean” as possible – that is, it must not include characters which are a priori unpopular with regulatory authorities, such as “multiple integrations”, “rearrangements”, “read-through across T-DNA borders”, “microbial origins of replication”, “ballast DNA”, etc. This requires the production of many hundreds of similar transgenic events with the same DNA construct. This construct itself must have been assembled taking into account the requirements of the regulatory authorities in the later deregulation process. Only when working on the basis of a “regulatory clean construct” and with “regulatory clean transformation technology” there is a chance to survive the deregulation. Such a carefully selected event can then be used to start the series of bio-safety assessment experiments traditionally expected to prove or disprove any putative bio-safety hazard. (It is a waste of time to enter the process with material which is not “regulatory clean” at the onset). The consequence of this approach is, that nearly 99% of transgenic events, and often those with the highest levels of expression, have to be discarded. Already this first step of mass production of many hundreds of similar events and subsequent destruction of most is beyond the scope of any public research institution, not only in developing but also in developed countries. No funding agency would be willing to finance this step. This is, however, the first prerequisite for entering the deregulation procedure with some chance for success. Once the right material is ready, bio-safety assessment can start. There are “event-independent” studies which refer to the introduced genes and their function in general, and which are valid for all events produced with these genes. “Exposure evaluation” for the novel trait, (e.g., pro-vitamin A in rice) studies the intended use and bioavailability. This study alone takes about 3 years, because the material has to be produced in specific plant growth chambers due to the lack of permission for field release (see above!). “Protein production and equivalence” analyses the proteins through which the genes fulfil their 102 I costi della non-scienza function. For this purpose the proteins have to be isolated from the plant, biochemically characterized, and their function confirmed. Lack of homology to toxins and allergens, rapid degradation in gastric/intestinal studies, heat lability, acute toxicity in rodent feeding, screening for further putative allergens and toxins are assumed to ensure that no unintended toxin or allergen will be consumed with Golden Rice. This seems reasonable if we ignore that most people have eaten these genes and gene-products throughout his/her life from other food sources. To study, as has been proposed, whether Daffodil toxins have been introduced into Golden Rice (one gene is from Daffodil and it is not advisable to consume Daffodil ) demonstrates how far an assessment can be from science: what has been transferred is one defined piece of DNA with no relation whatsoever to any toxin or allergen!). These studies take at least 2 years of intensive work in a well equipped biochemistry laboratory. What has been described, so far, was only an introduction; the real work comes with the “event-dependent” studies: “Molecular characterization and genetic stability” (single copy effect; marker gene at same locus; simple integration; Mendelian inheritance over at least three generations; no potential gene disruption; no unknown open reading frames; no DNA transfer beyond borders; no antibiotic resistance gene or origin of replication; insert limited to the minimum necessary; insert plus flanking regions sequenced; phenotypic evidence and biochemical evidence for stability over three generations). “Expression profiling” (Gene expression levels at key growth stages; evidence for seed-specific expression); “Phenotype analysis” (Field performance, typical agronomic traits, yield compared to isogenic lines; pest and disease status same as origin). “Compositional analysis” (Data from two seasons times six locations times three replications on proximates, macro- and micro-nutrients, anti-nutrients, toxins, allergens; data generated on modified and isogenic background). “Environmental risk assessment”. This requires 4-5 years of an entire research team. Green biotechnology could save millions of lives… 103 No public scientist or institution can afford such a deregulation procedure It is rather obvious, that no scientist nor scientific institution in the public domain has the potential, or funding, or motivation to perform such bio-safety experiments. It is, therefore, no surprise, that virtually all transgenic events, so far, taken through the deregulatory procedure are (directly or indirectly) from the private sector and carry the potential for substantial financial reward. Humanitarian projects to the benefit of the poor obviously do not fall into this category, although the benefit would apply to many millions. There is a lot of good intention world wide in the public sector to exploit the potential of green biotechnology for the benefit of the poor in developing countries. If our society, however, continues with the present “extreme precautionary” approach to bio-safety assessment, it is absolutely unrealistic to invest any further funds into public research for this purpose. Of course, there would be interesting scientific progress, but there will be no product, and especially no product passing through regulation. And, consequently, all this work will have no practical output and nobody in the target population would have any benefit. Extreme precautionary regulation is there for a number of reasons, but none of those is justified Why then do we have this GMO-regulation? First of all, there are historic reasons. At the beginning of GMO-technology development it was sensible to be careful (“precautionary”) and the scientists themselves – at that time working not with plants but with humanpathogenic micro-organisms – established regulations based on the notion that the consequence of the technology could lead to “unpredictable genome alterations”. Experience, after more than 20 years with transgenic plants and their practical application on 50 million hectares farmland as well as from many hundreds of “biosafety” experiments in which bio-safety questions in context with transgenic plants have been carefully studied, led to numerous original publications and reports from academic institutions which all 104 I costi della non-scienza come to the conclusion, that there is no specific risk associated with the technology, which would exceed risks inherent anyhow to traditional plant breeding or natural evolution. (For a discussion on the moral imperative of the use of genetically modified crops in developing countries please see Nuffield Council On Bioethics, Followup discussion paper January 2004, www.nuffieldbioethics.org). Why then do we maintain GMO regulation and even extend it to ever more extreme precautionary regulation? The answer to this question often follows the notion that we have to do so to built trust in the technology for its acceptance by the consumer. Experience with this strategy over the last 10 years, however, demonstrates clearly that this approach did not work in Europe and many developing countries, and this is not surprising. How should a “normal” citizen understand that his/her government is regulating a technology in an extreme restrictive manner, if this technology is without specific risks. Every unbiased citizen will, of course, assume that his/her government is taking rational decisions and the technology must be as dangerous as the regulation implies. Consequently, maintenance of extreme precautionary regulation builds mistrust instead of trust. Why then do we not at least clear regulation from all scientifically unjustified and opportunistic ballast to build a rational regulatory procedure? It seems that not many institutions have an interest or the political power to do so. If we consider the potential GMO technology has with regards to food security in developing countries than numerous international organizations should have an interest, but neither FAO, nor WHO or UNIDO will have the courage and power to do so. What prize is our society paying for this opportunistic attitude towards an established “extreme precautionary regulatory” system, in function world-wide? Very clearly: GMO-technology will not reduce hunger and malnutrition, and will not protect the environment in developing countries. The use of the technology will be restricted to “luxury projects”, with safe financial returns, of the private sector and in developed countries. There will, of course, be some spin-offs from these projects into developing countries, and these may even carry some benefits for the poor – such as “insect-resistant cotton”, but there will be no product development focussing on urgent and specific needs of the poor in developing countries, such as “food security”! Green biotechnology could save millions of lives… 105 Justification for extreme precautionary regulation ignores the basic genetic facts of traditional crop varieties GMO technology has the potential to support and to complement traditional plant breeding. In the context of the discussion on GMOregulation, which is justified with the argument that genetic engineering leads to “unpredictable genome alterations” it may be helpful to remember a few basic facts concerning all our plant-based food which is derived from crop plant varieties, which, without any exception, have been developed through traditional plant breeding. Traditional Plant breeding leads to totally unpredictable and most severe alterations of the genome Plant breeding is using the technique of “crossing followed by selection” to combine traits of agronomic and nutritional interest and to exclude undesired traits. Starting material for this procedure are “landraces” of crop plants, originally identified and selected by indigenous farmers. Landraces differ from each other in traits because they differ in “mutations”. Mutations are “unpredictable genome alterations.” In the course of traditional breeding the technology adds un-deliberately and automatically further (in parts very dramatic) “unpredictable genome alterations such as “recombinations”, “translocations”, “deletions”, “inversions”, etc. These “unpredictable” and “most severe” genome alterations are accumulated at every breeding step and each new traditionally bred variety is thus based on, and characterized by an increasing array of such genome alterations. With the progress of the breeding process varieties are combined with varieties, often with related wild relatives of the crop plants, often further altered in their genome by induced mutations. All our modern crop varieties – from which we derive our food – have a long history and are composed of numerous previous varieties and there is not the slightest doubt possible, that all our traditionally bred crop varieties are most extensively “genetically modified” by hundreds if not thousands of “unpredictable genome alterations”. This is, of course, also true for those varieties used by organic farmers. We just do not call them “GMO’s”! 106 I costi della non-scienza Every traditionally bred modern crop variety is most intensively “genetically modified” All this is exemplified in the “breeding tree” leading to IR64, the most popular Indica rice variety, developed at the International Rice Research Institute, Philippines and grown all over Southeast Asia. The pictures shows graphically how intensively the original rice genome (represented by blue boxes) has been “genetically modified” by “mutations” (yellow bars), “recombinations” (red bars), “translocations” (blue bars) and “deletions” (light-blue bars) to finally arrive at the genome of IR64. Neither this variety, nor anyone of those who have been channelled into the breeding tree have ever experienced any “bio-safety assessment” and billions of consumers in developing countries have consumed IR64 (as all the other rice or crop varieties) and survived on this and the preceding varieties without any harm, and there was no unpredictable harm to the environment as well. And this holds true for all the other varieties in all the other crops – despite of all the “most dramatic and unpredictable alterations to the genome”! Actually, nobody could survive without eating food from “genetically modified” crops. “Genetically engineered” varieties differ from the “genetically modified” ones in small, precise, similar, and well studied alterations For Golden Rice we have taken this variety IR64 and added two precisely defined genes into the 50 000 gene-genome of rice, using a technology which is by orders of magnitude more precise than traditional breeding, to provide pro-vitamin A in the seed to reduce vitamin A-malnutrition. This is now an example of a “genetically engineered” variety – a “GMO” – and such a plant is now falling under “extreme precautionary” regulations despite the fact, that the engineering step is, in comparison to the history of IR64 extremely small, perfectly predictable, most detailed studied and without any greater risk to the consumer or the environment. The reader is invited to find the difference between IR64 and Golden IR64 in the picture above! Green biotechnology could save millions of lives… 107 There is no scientific justification to treat “genetically engineered” crops different from “genetically modified” ones Our experience with traditionally developed crop varieties tells us very clearly that “unpredictable genome alterations” are not an argument for extreme regulation. Why are they now, and beyond any logic, the key argument for extreme regulation of “genetically engineered” plants? The argument that genes may come from different organisms and would never have found their way into a GMO can not be accepted as well. We all know that genes are connected by a continuum in evolution and are closely related and the “crossing barrier” between species is a mechanism to advance evolution within a species, but not to prevent introduction of genes. Why are GMO’s singled out from the normal breeding tree and treated according to the established rules and regulations of an extreme precautionary principle, thus preventing their sensible use to the benefit of the poor. This, to the authors understanding, is against any logic and takes us back into the historical time period of “Middle Ages” and before the “Age of Enlightenment”. As this attitude is singling out “green biotechnology” from nearly all other modern technologies, it seems obvious, that there is a deliberate campaign with a hidden political agenda. Extreme precautionary regulation without risk-benefit analysis is immoral and highly destructive What are the consequences of the extreme precautionary regulation of green biotechnology for public research towards food security in developing countries? There are numerous scientists and institutions in developing countries who have the capacity, motivation, and often even funding to work towards scientific progress in the areas of pest-, disease-, drought-, heat-, cold-, saline-, heavy metal resistance with the potential to rescue harvests and to expand agricultural productivity to hostile environments; to improve photosynthetic efficiency and to enhance the exploitation of natural resources to increase productivity; to enhance nutritional content to reduce malnutrition with regards to micro-nutrients such as vitamin A etc. Very few of those, however, 108 I costi della non-scienza have the financial and mental capacity to transform a scientific success into an applicable “product”, which is the first prerequisite for benefit of the poor from a scientific advance. Probably no scientist nor institution in the public domain, however, have the resources, experience, and determination to carry a single GMO product across the hurdles of to days extreme precautionary regulatory procedures. Regulatory authorities in developing countries are less experienced, more insecure, and therefore, more stringent than their colleagues in developed countries. Even with support from the experienced private sector deregulation of a novel GMO product has become a gigantic task. It is, therefore, very obvious that, if we continue with the present regulatory standards, the potential of green biotechnology will not reach the poor. In the 19th century a cultural taboo let to the tragic death of an 18 year old princess In the 21st century ignorance of our society leads to avoidable misery and death of millions “Genetically engineered” plants are not unusual plants, filled with mysterious dangers for the consumer and the environment. Europe can be proud of its cultural heritage of the “Age of Enlightenment” and should rather listen to the advice of science than that of “witch hunters”. It is Europe’s responsibility to help developing countries to harness the potential of green biotechnology, however the European attitude badly affects the attitude in developing countries. Europe can afford such an attitude because it can buy whatever it wants on the world market. However, for developing countries this attitude leads to unnecessary death and misery of many millions. With citations from the follow-up discussion paper of the Nuffield Council on Bioethics 2004: “The European Union is ignoring a “moral imperative” to promote genetically modified crops for their great potential for helping the developing world.” “We beleive EU regulators have not paid enough attention to the impact of EU regulations on agriculture in developing countries.” Our societies have wasted too much time in phase of “risk-obsession”. Stop following the “wrong prophets”! 109 LE BIOTECNOLOGIE IN AGRICOLTURA POTREBBERO SALVARE MILIONI DI VITE, MA NORMATIVE ANTI-SCIENTIFICHE ED ECCESSIVAMENTE PRECAUZIONALI LO IMPEDISCONO1 Ingo Potrykus Professor emeritus in Plant Sciences, ETH Zuerich, Switzerland Il bio-arricchimento può aiutare gli interventi tradizionali contro la denutrizione N ei paesi in via di sviluppo 500.000 persone ogni anno diventano cieche e fino a 6.000 ogni giorno muoiono a causa di carenza di vitamina A. Questo, nonostante gli enormi sforzi delle istituzioni pubbliche e filantropiche per ridurre questo problema medico con l’ausilio dei metodi tradizionali quali arricchimento, fortificazione e incoraggiamenti alla diversificazione della dieta, etc. Questo prezzo elevatissimo che i poveri dei paesi in via di sviluppo stanno pagando alla “carenza di vitamina A” continuerà anno dopo anno se non troveremo un modo per affiancare gli interventi tradizionali con altri non convenzionali e sostenibili. Uno di questi potrebbe essere basato sul miglioramento nutrizionale delle colture di sussistenza attraverso il “bio-arricchimento”, il miglioramento genetico del contenuto di micronutrienti e vitamine. Il miglioramento genetico vegetale e l’ingegneria genetica offrono due approcci complementari. Le principali carenze di micronutrienti riguardano il ferro, lo zinco e la vitamina A. La carenza di vitamina A è largamente diffusa tra quei poveri che hanno come alimento di base il riso, in quanto il riso non contiene pro-vitamina A (le piante non producono vitamina A, ma pro-vitamina A (carotenoidi), che il nostro corpo converte in vitamina A). La dipendenza dal riso come prevalente fonte di cibo, pertanto, porta necessariamente a carenza di vitamina A, se la povertà è 1 Traduzione curata da Davide Ederle 110 I costi della non-scienza tale da non consentire diversificazioni della dieta, colpendo soprattutto bambini e donne in gravidanza. Le conseguenze a livello medico per i 400 milioni di consumatori di riso, carente di vitamina A, sono gravi: indebolimento della vista, nei casi più estremi cecità irreversibile, deterioramento dell’integrità epiteliale contro infezioni, riduzione delle difese immunitarie, dell’emopoiesi e della crescita delle ossa, etc. Un riso contenente la pro-vitamina A potrebbe ridurre notevolmente il problema, ma il “bio-arricchimento” del riso per la pro-vitamina A non è possibile senza l’utilizzo dell’ingegneria genetica. L’approccio transgenico, quindi, è stato basato sull’idea di introdurre tutti i geni necessari ad attivare la via metabolica di sintesi ed accumulo di provitamina A nell’endosperma (il tessuto di immagazzinamento dell’amido nel seme). La scoperta scientifica per la pro-vitamina A Il Golden Rice contiene i geni necessari per attivare la via metabolica per la sintesi di pro-vitamina A. Questa via è attivata solo nell’endosperma. L’intensità della “colorazione dorata” indica la concentrazione di pro-vitamina A (Figura 1). Esistono diverse linee vegetali con diverse concentrazioni. Noi puntiamo a concentrazioni per le quali una assunzione giornaliera di 200 grammi di riso fornisca abbastanza pro-vitamina A da ridurre notevolmente la carenza vitaminica. La concentrazione richiesta a tale scopo potrà essere determinata solo quando saranno disponibili i dati degli studi sulla biodisponibilità. Gli esperimenti su queste linee sono in corso, ma bisognerà aspettare fino alla fine del 2005. Per ora stiamo lavorando con linee vegetali in cui, teoricamente, le concentrazioni soddisfano i nostri obiettivi. Il nuovo carattere è stato inserito in diverse varietà di riso Indica – in particolare IR 64, la varietà di riso più comune nel sudest asiatico – e sono stati selezionati eventi che sono stati ritenuti “in regola con la normativa” per facilitare il processo di autorizzazione. [Ye, X., Al-Babili, S., Klöti, A., Zhang, J., Lucca, P., Beyer, P., Potrykus, I. (2000), «Engineering provitamin A (β-carotene) biosynthetic pathway into (carotenoid-free) rice endosperm», Science 287, 303-305. Beyer P, AlBabili S, Ye X, Lucca P, Schaub P, Welsch R, Potrykus I (2002), «Gol- Le biotecnologie in agricoltura potrebbero salvare … 111 den Rice, introducing the β-carotene biosynthetic pathway into rice endosperm by genetic engineering to defeat vitamin-A deficiency», J. Nutrition 132, 506S-510S. Tran Thi Cuc Hoa, Salim AlBabili, Patrick Schaub, Ingo Potrykus, and Peter Beyer (2003), «Golden Indica and Japonica rice lines amenable to deregulation», Plant Physiology 133, 161-169]. Il Golden Rice sarà reso disponibile gratuitamente in un progetto umanitario Il Golden Rice verrà messo a disposizione dei paesi in via di sviluppo all’interno del “Progetto Umanitario Golden Rice”, che fin dall’inizio è stato un progetto di ricerca pubblico pensato per ridurre la malnutrizione dei paesi in via di sviluppo. Grazie al forte sostegno del settore privato e alle donazioni di “brevetti a titolo gratuito per scopi umanitari” sulle tecnologie di base, si sono superati gli ostacoli legati alla proprietà intellettuale relativa alla tecnologia usata in questo progetto. Questo ci consente di collaborare con i centri di ricerca pubblici dei paesi in via di sviluppo sul riso sulla base di una “libertà di operare” per sviluppare varietà di riso adatte alle condizioni locali. Quando il Golden Rice avrà superato le procedure di biosicurezza nazionali, verrà reso disponibile a chi fa agricoltura di sussistenza gratuitamente e senza alcuna limitazione. Diventerà di loro proprietà ed essi potranno, anno dopo anno, usare parte del raccolto per la semina successiva (senza pagare niente a nessuno). Gli agricoltori useranno le loro tradizionali tecniche agricole e non avranno bisogno di alcun nuovo input agronomico. Non ci sarà quindi alcuna “nuova dipendenza” da nessuno. E non è concepibile alcun rischio a qualunque ambiente che giustifichi la scelta di non coltivare il Golden Rice in campo aperto per la selezione o la riproduzione. Questo sviluppo, dalla scoperta del 1999, è stato possibile grazie ad un nuovo tipo di collaborazione tra pubblico e privato. Grazie ad un accordo con Syngenta ed altre industrie biotech, l’uso del Golden Rice è libero da brevetti per “uso umanitario”, inteso come “un reddito da Golden Rice per anno e per agricoltore inferiore ai $ 10.000”. L’uso commerciale, invece, (sopra i 10.000 dollari per anno) richiede una licenza di Syngenta. L’uso a scopi umanitari è basato su una “sottolicenza” (senza royalties) della Commis- 112 I costi della non-scienza sione Umanitaria Golden Rice agli istituti pubblici di ricerca sul riso. Questo accordo assicura che il materiale sia stato trattato secondo le leggi ed i regolamenti stabiliti per gli OGM, e che la popolazione per cui è stato pensato, agricoltori di sussistenza e poveri, riceva il materiale senza alcun costo aggiuntivo per questo carattere. Varietà adatte alle condizioni locali sono state sviluppate da istituti nazionali all’interno del Network Umanitario Golden Rice sotto la guida della Commissione Umanitaria Golden Rice Lo sviluppo di varietà di Golden Rice adattate alle condizioni locali, così come la richiesta alle autorità nazionali per le sperimentazioni in campo e l’autorizzazione, sono nelle mani degli istituti di ricerca pubblici sul riso nazionali ed internazionali. Ad oggi il “Network Umanitario Golden Rice” comprende 16 istituzioni in Bangladesh, Cina, India, Indonesia, Sud Africa, Filippine, e Vietnam. Il network è sotto la guida strategica della Commissione Umanitaria Golden Rice, e la gestione è affidata ad un coordinatore che ha base presso l’International Rice Research Institute (IRRI), nelle Filippine. La Commissione Umanitaria, per ora, non ha validità legale e beneficia della competenza di autorità internazionali quali Dr. Gurdev Khush, in pensione dall’IRRI (miglioramento genetico del riso), Robert Russell, Laboratorio di Nutrizione Umana, Tufts University Boston (malnutrizione legata alla vitamina A), Dr. Howarth Bouis, International Food Policy Research Institute (IFPRI) Washington (bio-arricchimento), Dr. Gary Toenniessen, The Rockefeller Foundation, New York (sicurezza alimentare nei paesi in via di sviluppo), Dr. Robert Bertram, USAid Washington (sviluppo dell’agricoltura nel terzo mondo), Dr. Adrian Dubock, Syngenta (sviluppo del prodotto e diritti di proprietà intellettuale), Dr. Ren Wang/Dr. William Padolina IRRI (cooperazione internazionale di ricerca sul riso), Professor Peter Beyer (co-inventore) University of Freiburg (progresso scientifico, in particolare bioarricchimento in pro-vitamina A ed altri micronutrienti), Dr. Katharina Jenny, Swiss Development Cooperation Bern (trasferimento tecnologico e questioni trans-settoriali), e Professor Ingo Potrykus (co-inventore), presidente in pensione dell’ETH di Zurigo (relazioni pubbliche e informazioni). Le biotecnologie in agricoltura potrebbero salvare … 113 I semi bio-arricchiti hanno potenzialità ineguagliabili per ottenere soluzioni durevoli Il bio-arricchimento (aggiunta di micronutrienti carenti attraverso la genetica) delle coltivazioni più utilizzate dalla popolazione povera nei paesi in via di sviluppo è, molto probabilmente, l’approccio più sostenibile ed economicamente vantaggioso per la riduzione della malnutrizione da micronutrienti. (Per maggiori informazioni sul concetto di bio-arricchimento e su un recente programma del CGIAR si visiti il sito www.harvestplus.org). Il Golden Rice rappresenta il primo esempio di bio-arricchimento ottenuto attraverso l’ingegneria genetica. L’investimento per la ricerca su questo carattere (bio-arricchimento in pro-vitamina A) è stato relativamente modesto (2,4 milioni di dollari in 9 anni) e finanziato con fondi per la ricerca di base. Lo sviluppo del prodotto, tuttavia, dal momento della scoperta scientifica richiede molto tempo e ulteriori fondi, ma comunque è un investimento che va fatto una sola volta per evento. Le spese stanno drammaticamente aumentando da quando lavoriamo sulla valutazione della biosicurezza, richiesta per il processo di autorizzazione, ma anche in questo caso è un investimento che va fatto una sola volta. Appena una nuova varietà bio-arricchita viene autorizzata e può essere consegnata all’agricoltore, il sistema mostra come il suo potenziale sia unico, poiché da questo punto in poi la tecnologia è racchiusa in ciascun seme e non richiede nessun ulteriore investimento per un periodo di tempo illimitato. Considerate il potenziale di un singolo seme di Golden Rice. Messo in campo diventerà una pianta che produce, almeno 1000 semi. Ripetendo l’operazione si otterranno 1.000.000 semi; la generazione successiva produrrà già 1.000.000.000 semi e con la quarta generazione si arriverà a 1.000.000.000.000. Questo significa 20.000 tonnellate di riso in soli due anni. Con 20.000 tonnellate di riso possono sopravvivere per un anno 100.000 poveri, e se si usa Golden Rice essi avranno un supplemento di vitamina A in grado di ridurre la loro malnutrizione, e questa protezione è gratuita e sostenibile. Un agricoltore per trarre beneficio dalla tecnologia ha bisogno solo di un seme! Nessun input addizionale rispetto al “riso normale”. Per la popolazione povera che vive nelle città inoltre non c’è alcuna maggiorazione di prezzo per l’acquisto del Golden Rice (Figura 2). 114 I costi della non-scienza Sono disponibili semi a sufficienza per molti agricoltori, ma questo non può essere fatto perché il Golden Rice è un “OGM” (organismo geneticamente modificato), e quindi strettamente regolamentato. E la Commissione Umanitaria per il Golden Rice ha deciso di sottostare alle leggi ed ai regolamenti in vigore. Normative eccessivamente precauzionali, comunque, ne hanno impedito l’uso e ignorano i potenziali benefici Considerando la storia del Golden Rice (la tecnologia è spesso considerata rischiosa perchè avanza molto velocemente!), ci sono voluti 10 anni (dal 1980 al 1990) per sviluppare la tecnologia necessaria per introdurre geni nel riso. Ci sono voluti altri 9 anni (dal 1990 al 1999) per inserire i geni della via metabolica che porta alla produzione di pro-vitamina A nel seme. E altri 5 anni (dal 1999 al 2004) per sviluppare il “prodotto” Golden Rice e superare quella serie di ostacoli specifici per gli OGM, come i diritti di proprietà intelletuale. Probabilmente ci vorranno almeno altri 5 anni prima che il primo prodotto Golden Rice venga approvato. Ci sono voluti quindi 30 anni, comprendendo i tempi di sviluppo della tecnologia, 20 per un singolo caso specifico. Tenendo presente che il Golden Rice può ridurre notevolmente la cecità (500.000 casi all’anno) e i decessi (2-3 milioni all’anno), ci si rende conto che 20 anni sono un lungo periodo di tempo, e credo che nessuno possa lamentarsi della rapidità! Se fosse stato possibile abbreviare il periodo di tempo tra la fine della fase scientifica e l’approvazione del prodotto, centinaia di migliaia di bambini sarebbero stati salvati dalla cecità! Comunque, i prossimi 5 anni dovranno essere spesi per la valutazione della biosicurezza, al fine di garantire che il Golden Rice non presenti rischi per l’ambiente ed i consumatori. Nessuno intende parlar male di un approccio cauto, ma la normativa vigente ha fatto sua una interpretazione radicale del principio di precauzione, tale per cui neanche il più piccolo rischio può essere accettato o non testato, e allo stesso tempo tutti i possibili benefici vengono ignorati. Considerando il caso del Golden Rice e tutto il problema della valutazione dei rischi ambientali, si rivela l’irrazionalità dell’attuale sistema: l’autore del presente intervento, negli ultimi quattro anni, non ha trovato nessun ecologista, incluso quelli che fanno dell’opposi- Le biotecnologie in agricoltura potrebbero salvare … 115 zione agli OGM una professione, che abbia potuto costruire un’ipotesi di rischio agronomico o ambientale per il Golden Rice. Questo non stupisce poichè l’intera biologia del sistema, piccole quantità addizionali di beta-carotene nell’endosperma di piante che lo contengono in tutti gli organi tranne che nelle radici, non fornisce nessun vantaggio selettivo, in nessuna condizione, e quindi non apporta alcun rischio sostanziale. Nonostante ciò il Golden Rice è ancora in attesa del primo permesso riguardante il primo rilascio su piccola scala, in cui i rischi ambientali dovranno essere studiati sperimentalmente! Fin qui i rischi, e i benefici? Il Golden Rice potrebbe evitare la cecità e la morte di centinaia di migliaia di bambini, ma non lo può fare perchè la valutazione del rischio, come è noto, non tiene conto di un’analisi rischibenefici! L’attuale sistema di autorizzazione richiede molto tempo e molte risorse finanziarie Cos’è dunque richiesto per l’approvazione? Innanzitutto, è consigliabile focalizzarsi attentamente su di un unico evento transgenico selezionato, che deve essere il più “a posto” possibile secondo la normativa, il che significa che non deve includere caratteristiche che sono a priori poco popolari tra gli organismi di controllo come “integrazioni multiple”, “riarrangiamenti”, “read-through attorno al T-DNA”, “origini di replicazione microbiche”, “ballast DNA”, etc. Questo richiede la produzione di diverse centinaia di eventi transgenici simili, con lo stesso costrutto di DNA. Il costrutto stesso deve essere costruito considerando le richieste degli organismi che nelle fasi successive di approvazione lo valuteranno. Solo lavorando con un “costrutto a posto” da un punto di vista normativo si ha una probabilità di sopravvivere al processo di approvazione. Un evento selezionato con tale accuratezza può essere usato per iniziare la serie di esperimenti per la valutazione della bio-sicurezza che in genere ci si aspetta provino o escludano ogni putativo rischio legato alla biosicurezza. (È una perdita di tempo iniziare il processo con materiale che non sia “a posto” fin dall’inizio). La conseguenza di questo approccio è che circa il 99% degli eventi transgenici, e spesso quelli con i più alti livelli di espressione, devono essere scartati. Già questo primo passaggio di produzione di un gran 116 I costi della non-scienza numero di eventi simili e la seguente distruzione della maggior parte di essi, è ben oltre lo scopo di ogni centro di ricerca pubblico, non solo nei paesi in via di sviluppo, ma anche in quelli sviluppati. Nessuna agenzia finanzierebbe questo passaggio. Questo comunque è il primo prerequisito per entrare nella procedura di autorizzazione con qualche possibilità di successo. Una volta che il materiale “buono” è pronto, può iniziare la valutazione della biosicurezza. Ci sono degli studi che sono “indipendenti dall’evento transgenico scelto” che sono centrati sui geni introdotti e sulla loro funzione in generale, e quindi validi per ciascun evento prodotto con quei geni. La “valutazione dell’esposizione” per il nuovo carattere (come la pro-vitamina A nel caso del riso) studia l’utilizzo ipotizzato e la biodisponibilità. Ci vogliono 3 anni solo per questo studio, perché il materiale deve essere prodotto in speciali camere di crescita, a causa della mancanza del permesso di coltivazione in campo (vedi sopra!). Le analisi di “produzione della proteina ed equivalenza” analizzano le proteine attraverso cui i geni svolgono la loro funzione. A questo scopo le proteine devono essere isolate dalla pianta, vengono caratterizzate biochimicamente e ne viene confermata la funzione. Per essere sicuri che nessuna tossina o allergene siano ingeriti con il riso, vengono effettuati studi su: omologia con tossine o allergeni, degradazione nel tratto gastro-intestinale, labilità al calore, tossicità acuta su roditori, ed uno studio per ulteriori possibili allergeni e tossine. Questo sembra ragionevole solo se si ignora che la maggior parte delle persone ha già ingerito in vita sua questi geni o i loro prodotti attraverso altre fonti alimentari. La richiesta di studiare, come è stato proposto, se fosse stata introdotta nel Golden Rice anche qualche tossina della Giunchiglia (un gene viene dalla Giunchiglia e non è consigliabile mangiare Giunchiglie) dimostra quanto la procedura di valutazione sia lontana dalla scienza: ciò che è stato trasferito è un determinato tratto di DNA che non ha alcuna relazione con tossine o allergeni! Questo studio ha richiesto 2 anni di intenso lavoro in un laboratorio biochimico ben attrezzato. Ciò che è stato fin qui descritto è solo l’inizio: il vero lavoro comincia con gli studi “evento-dipendenti”: “caratterizzazione molecolare e stabilità genetica” (effetto del gene a singola copia; del marker genico nello stesso locus; l’integrazione semplice; l’eredità mendeliana per almeno tre generazioni; nessun richio di rot- Le biotecnologie in agricoltura potrebbero salvare … 117 tura del gene; nessuna open reading frame sconosciuta; nessun trasferimento di DNA oltre i bordi del T-DNA; nessun gene di resistenza agli antibiotici o origine di replicazione; inserto limitato al minimo necessario; sequenza dell’inserto più le sequenze fiancheggianti; evidenza fenotipica e biochimica di stabilità su 3 generazioni). “Profilo di espressione” (livelli di espressione genica agli stadi chiave dello sviluppo; evidenza di espressione seme-specifica); “Analisi fenotipica” (prestazioni in campo, tratti agronomici tipici, resa rispetto alle linee isogeniche; resistenza ai parassiti e alle malattie comparabile a quelle iniziali); “Analisi composizionale” (dati su 2 stagioni per 6 località ripetute 3 volte, macro e micronutrienti, anti-nutrizionali, tossine, allergeni; con dati generati rispetto alle linee modificate e isogeniche); “Valutazione del rischio ambientale”. Questo da solo richiede 4-5 anni di un intero gruppo di ricerca (Figura 3). Nessun istituto pubblico può affrontare una tale procedura di approvazione È abbastanza ovvio che nessuno scienziato né istituto scientifico pubblico ha il potenziale, o i finanziamenti, o le motivazioni per svolgere tali esperimenti sulla biosicurezza. Non deve quindi sorprendere il fatto che praticamente tutti gli eventi transgenici sottoposti alla trafila di approvazione provengano (direttamente o indirettamente) dal settore privato e abbiano il potenziale per un significativo ritorno economico. I progetti umanitari a beneficio della popolazione povera ovviamente non rientrano in questa categoria, pur avendo effetti benefici su milioni di persone. C’è molta buona volontà nel mondo, all’interno del settore pubblico, a far fruttare il potenziale delle biotecnologie “verdi” a beneficio dei poveri nei paesi in via di sviluppo. Se però la nostra società continua a portare avanti questo approccio estremamente precauzionale è assolutamente irrealistico investire ulteriori fondi pubblici a questo scopo. Naturalmente, ci saranno interessanti progressi scientifici, ma nessun prodotto, e in particolare nessun prodotto autorizzato; e, di conseguenza, tutto questo lavoro non avrebbe applicazioni pratiche e nessuna delle persone per cui sono stati pensati ne avrà beneficio. 118 I costi della non-scienza Una normativa estremamente precauzionale c’è per molte ragioni, ma nessuna di queste è giustificabile Perché allora abbiamo questa normativa sugli OGM? Innanzitutto abbiamo motivazioni storiche. All’inizio dello sviluppo della tecnologia OGM era ragionevole essere cauti (precauzionali) e gli stessi scienziati, che in quel momento non lavoravano con piante bensì con microrganismi patogeni per gli esseri umani, stabilirono delle normative basate sull’idea che la conseguenza della tecnologia potesse portare a “imprevedibili alterazioni del genoma”. L’esperienza, dopo più di 20 anni di lavoro su piante transgeniche e sul loro utilizzo su 50 milioni di ettari, così come le diverse centinaia di esperimenti in cui si è studiata con molta attenzione la biosicurezza delle piante transgeniche portando a numerose pubblicazioni e resoconti di istituti accademici, conducono alla conclusione che non c’è alcun rischio particolare associato alla tecnologia oltre a quelli che si possono verificare con il miglioramento genetico tradizionale o l’evoluzione naturale (per una discussione sugli imperativi morali dell’uso di colture geneticamente modificate nei paesi in via di sviluppo si veda Nuffield Council On Bioethics, follow-up discussion paper January 2004, nel sito Internet www.nuffieldbioethics.org). Perché quindi si mantiene una tale normativa e, anzi, si tende a farla diventare sempre più precauzionale? La risposta a questa domanda spesso prende le mosse dall’idea che questo serve per creare fiducia nella tecnologia e renderla accettabile al consumatore. L’esperienza degli ultimi 10 anni, in ogni caso, dimostra chiaramente che questo approccio non ha funzionato in Europa e in molti paesi in via di sviluppo, e questo non stupisce. Un cittadino “qualunque” come dovrebbe interpretare il fatto che il suo governo sta regolamentando una tecnologia in modo estremamente restrittivo, se questa tecnologia non presenta rischi particolari? Ogni cittadino obiettivo, naturalmente, penserà che il suo governo sta prendendo delle decisioni ragionevoli, e che la tecnologia è tanto più regolamentata quanto più pericolosa. Il mantenimento di normative eccessivamente precauzionali, di conseguenza, porta a sfiducia invece che fiducia. Perché quindi non si crea una normativa libera da qualsiasi zavorra scientificamente non giustificabile e non si mette a punto una procedura di approvazione razionale? Sembra che poche istituzioni abbiano l’interesse o il potere politi- Le biotecnologie in agricoltura potrebbero salvare … 119 co di farlo. Se consideriamo il potenziale della tecnologia OGM in tema di sicurezza alimentare2 nei paesi in via di sviluppo, allora risulta chiaro che molte organizzazioni internazionali dovrebbero essere interessate in tal senso, ma né FAO, né WHO, né UNIDO hanno il coraggio e il potere di farlo. Che prezzo sta pagando la nostra società a causa di un atteggiamento opportunistico nei confronti di un radicato “sistema normativo estremamente precauzionale”, che opera su scala mondiale? Detto molto chiaramente: la tecnologia OGM a queste condizioni non potrà contribuire a ridurre la fame nel mondo né la malnutrizione, e non potrà proteggere l’ambiente nei paesi in via di sviluppo. L’uso di tale tecnologia sarà ristretto a “progetti di lusso”, con sicuri ritorni economici del settore privato nei paesi sviluppati. Ci saranno certamente dei risultati ottenuti da questi progetti anche verso i paesi in via di sviluppo, e potranno portare anche qualche beneficio ai poveri, come il “cotone resistente agli insetti”, ma non ci sarà alcun sviluppo di prodotti focalizzati sulle urgenti necessità dei poveri nei paesi in via di sviluppo, come ad esempio la “sicurezza alimentare”! La giustificazione di una normativa estremamente precauzionale non tiene conto delle basilari conoscenze genetiche che abbiamo delle varietà tradizionali La tecnologia OGM ha il potenziale per sostenere e integrare il miglioramento genetico tradizionale. Nel contesto di una discussione sulla normativa OGM, che si basa sull’idea che l’ingegneria genetica possa portare a “imprevedibili alterazioni del genoma”, sarebbe utile ricordare qualche dato di base riguardo tutti i nostri alimenti di derivazione vegetale, che provengono da varietà sviluppate, senza alcuna eccezione, grazie al miglioramento genetico tradizionale. Il miglioramento genetico tradizionale porta a alterazioni del genoma drammatiche e totalmente imprevedibili Il miglioramento genetico utilizza la tecnica “incrocio-selezione” per combinare caratteri di interesse agronomico e nutrizionale ed 2 Intesa in termini di security (disponibilità) e non di safety (salubrità) 120 I costi della non-scienza escludere i caratteri indesiderati. Il materiale di partenza per questo processo sono “varietà locali” delle piante coltivate, originalmente selezionate dai contadini locali. Le varietà locali differiscono tra loro per alcune caratteristiche dovute a “mutazione”. Le mutazioni sono “imprevedibili alterazioni del genoma”. Pertanto, nel corso del miglioramento genetico tradizionale la tecnologia involontariamente e automaticamente favorisce (in alcuni casi anche molto grandi) “alterazioni imprevedibili del genoma” quali “ricombianazioni”, “traslocazioni”, “delezioni”, “inversioni”, etc. Queste “imprevedibili” e “importanti” alterazioni del genoma vengono accumulate ad ogni passaggio di selezione e ciascuna nuova varietà tradizionale è quindi basata su, e caratterizzata da, una crescente serie di tali alterazioni del genoma. Con l’avanzamento del processo di selezione le varietà vengono combinate con altre varietà, a volte anche con parenti selvatici delle piante coltivate; a volte invece il loro genoma viene alterato inducendo mutazioni. Tutte le nostre varietà moderne, dalle quali deriva il nostro cibo, hanno un lunga storia e sono derivate da numerose altre varietà precedenti e non c’è il minimo dubbio che tutte le nostre varietà migliorate con metodi tradizionali siano estensivamente “modificate geneticamente” da centinaia se non migliaia di “imprevedibili alterazioni genomiche”. Questo, naturalmente, è vero anche per le varietà utilizzate dagli agricoltori biologici. Solo che noi non le chiamiamo “OGM”! (Figura 4) Ogni moderna varietà ottenuta con metodi tradizionali è profondamente “modificata geneticamente” Un esempio di tutto ciò lo troviamo nella storia del miglioramento genetico che ha condotto all’IR64, la varietà di riso Indica più diffusa, sviluppata dall’Istituto Internazionale per la Ricerca sul Riso delle Filippine e coltivata un po’ ovunque nel sudest asiatico. La figura mostra graficamente quanto profondamente il genoma originale del riso (rappresentato dal box blu) sia stato “modificato geneticamente” da “mutazioni” (barre gialle), “ricombinazioni” (rosse), “traslocazioni” (blu-scuro) e delezioni (azzurre) per arrivare infine al genoma dell’IR64 (Figura 5). Né questa varietà né nessun’altra di quelle che sono state utilizzate nel corso della selezione hanno subito alcun tipo di “valutazione di Le biotecnologie in agricoltura potrebbero salvare … 121 biosicurezza” e miliardi di consumatori nei paesi in via di sviluppo si sono alimentati con IR64 (così come tutte le altre varietà di riso o di altre colture) e sono sopravvissuti a questo e alle precedenti varietà senza alcun danno, e tantomeno vi è stato alcun imprevisto danno all’ambiente. Questo è vero anche per tutte le altre varietà di tutte le altre piante coltivate, nonostante tutte le “profonde ed imprevedibili alterazioni del genoma”! In verità, nessuno può sopravvivere senza mangiare cibo derivato da piante “geneticamente modificate”. Varietà “geneticamente ingegnerizzate” differiscono da quelle “geneticamente modificate” per piccole, precise, similari e ben studiate modificazioni Per il Golden Rice noi abbiamo adottato la varietà IR64 aggiungendole 2 geni ben definiti all’interno dei 50.000 contenuti nel genoma del riso, utilizzando una tecnologia che è alcuni ordini di grandezza più precisa di quella del miglioramento genetico tradizionale, per far produrre pro-vitamina A nei semi e per ridurre la carenza di vitamina A. Questo è un esempio di varietà “geneticamente ingegnerizzata”, un “OGM”, e questa pianta oggi rientra all’interno di una normativa “estremamente precauzionale”, nonostante il fatto che il passaggio “ingegneristico” sia, rispetto alla storia dell’IR64, estremamente ridotto, perfettamente prevedibile, studiato con maggior dettaglio e senza rischi superiori per l’uomo e per l’ambiente. Invito il lettore, nella figura 6, a trovare la differenza tra l’IR64 e il Golden IR64! Non vi è alcuna giustificazione scientifica per trattare le piante “geneticamente ingegnerizzate” in modo diverso da quelle “geneticamente modificate” La nostra esperienza con le varietà sviluppate con metodi tradizionali ci dice molto chiaramente che le “imprevedibili alterazioni del genoma” non sono un argomento per richiedere una regolamentazione estrema. Perché allora, contro ogni logica, questo è l’argomento chiave per giustificare la normativa sulle piante “geneticamente ingegnerizzate”? Analogamente, l’argomentazione che i geni vengono da organismi diversi e che non avrebbero mai potuto arrivare da soli in un 122 I costi della non-scienza OGM dovrebbe essere rigettata. Tutti noi sappiamo che i geni sono collegati da un continuum all’interno dell’evoluzione e sono fortemente correlati tra loro e che la “barriera di fertilità” tra le specie è un meccanismo per promuovere l’evoluzione all’interno della specie, ma questa non impedisce l’introduzione di singoli geni. Perché gli OGM dovrebbero uscire dalla normale procedura di breeding ed essere trattati secondo norme e regole stabilite secondo un rigidissimo Principio di Precauzione, impedendo così un loro uso sensato a favore dei poveri? Questo, per gli autori, è contro ogni logica e ci riporta al Medioevo, prima dell’Illuminismo. Dato che questo comportamento sta isolando le “biotecnologie verdi” praticamente da tutte le altre moderne tecnologie, pare evidente che è in atto una campagna organizzata che nasconde in realtà obiettivi politici. Una regolamentazione estremamente precauzionale senza un’analisi rischi/benefici è immorale e altamente distruttiva Quali sono le conseguenze, di una normativa estremamente precauzionale sulle “biotecnologie verdi”, per la ricerca pubblica sulla sicurezza alimentare nei paesi in via di sviluppo? Ci sono numerosi scienziati ed istituzioni nei paesi in via di sviluppo che hanno la capacità, la motivazione e spesso anche i fondi per lavorare per l’avanzamento scientifico nei settori della resistenza delle piante ai parassiti, alle malattie, alla siccità, al calore, al freddo, alla salinità, ai metalli pesanti, con il potenziale di salvare i raccolti e di espandere la produttività agricola agli ambienti poco adatti; di aumentare l’efficienza fotosintetica e di accrescere lo sfruttamento delle risorse naturali per aumentare la produttività; di accrescere il contenuto nutrizionale per ridurre la malnutrizione per i micronutrienti come la vitamina A, etc. Molto pochi, però, hanno la capacità finanziaria e mentale per trasformare un successo scientifico in un “prodotto” utilizzabile, che è il prerequisito per consentire ai poveri di beneficiare di un avanzamento scientifico. Probabilmente nessuno scienziato o istituzione pubblica, in ogni caso, ha le risorse, l’esperienza e la determinazione per traghettare un singolo prodotto OGM attraverso gli ostacoli delle attuali procedure autorizzative estremamente precauzionali. Le Autorità di controllo dei paesi in via di sviluppo hanno meno esperienza, sono più Le biotecnologie in agricoltura potrebbero salvare … 123 insicure e quindi più rigorose delle loro controparti nei paesi sviluppati. Anche con l’aiuto di uno specifico settore privato l’autorizzazione di un nuovo prodotto OGM è diventato un compito spaventoso. È quindi ovvio che, se si continuerà con gli attuali standard normativi, le potenzialità delle biotecnologie verdi non raggiungeranno i poveri. Nel XIX secolo un tabù culturale portò alla tragica morte di una principessa di 18 anni (Figura 7) Nel XXI secolo l’ignoranza della nostra società porta ad una ovviabile miseria e alla morte per milioni di persone Le piante “geneticamente ingegnerizzate” non sono piante inusuali, piene di misteriosi pericoli per i consumatori e l’ambiente. L’Europa può essere orgogliosa della sua eredità culturale illuminista e dovrebbe ascoltare i consigli della scienza piuttosto che quelli dei “cacciatori di streghe”. È una responsabilità dell’Europa aiutare i paesi in via di sviluppo ad esplorare il potenziale delle biotecnologie verdi, invece il suo comportamento influenza negativamente il comportamento dei paesi in via di sviluppo. L’Europa può permettersi questo comportamento dato che può comprare ciò che preferisce sul mercato mondiale. Però, per i paesi in via di sviluppo, questo comportamento è fonte di morte e miseria non necessaria per molti milioni di persone. Citando il documento del 2004 del Nuffield Council sulla Bioetica: «L’Unione Europea sta ignorando l’“imperativo morale” di promuovere le piante geneticamente modificate per il loro grande potenziale di aiutare i paesi in via di sviluppo». Noi crediamo che i legislatori dell’Unione Europea non abbiamo prestato sufficiente attenzione all’impatto che la normativa dell’Unione Europea ha sull’agricoltura dei paesi in via di sviluppo. Le nostre società hanno sprecato troppo tempo in questa fase di “ossessione del rischio”. Smettiamola di seguire i “cattivi profeti”! 125 IL PRINCIPIO DI PRECAUZIONE E LE PROBLEMATICHE AMBIENTALI RELATIVE AL SUOLO Paolo Sequi e Fabio Tittarelli Istituto Sperimentale per la Nutrizione delle Piante – Roma Introduzione I l ricorso ad un generico Principio di Precauzione (o principio precauzionale) è stato previsto, durante gli ultimi anni, da numerosi trattati internazionali, ma si è imposto all’attenzione dell’opinione pubblica nel 1992. La formulazione più largamente conosciuta ed accettata del Principio di Precauzione è quella riportata nel Principio 15 della Dichiarazione Finale della Conferenza delle Nazioni Unite sull’Ambiente e sullo Sviluppo che si è tenuta a Rio de Janeiro (UNCED, 1992), la quale stabilisce che: «Al fine di proteggere l’ambiente, l’approccio precauzionale sarà ampiamente applicato dagli Stati secondo le rispettive capacità. Laddove ci siano minacce di danni seri o irreversibili, la mancanza di piene certezze scientifiche non potrà costituire un motivo per ritardare l’adozione di misure, efficaci in termini di costi, volte a prevenire il degrado ambientale». Da allora, il Principio di Precauzione è stato introdotto in numerose convenzioni e trattati internazionali, incluso, tra gli altri, il Trattato di Maastricht sull’Unione Europea (EU, 1992), svolgendo un ruolo sempre più importante nello sviluppo delle politiche ambientali. Allo stesso tempo, il problema relativo a quando e come utilizzare il Principio di Precauzione ha dato origine a numerosi dibattiti a causa della percezione che in alcuni casi si sia fatto ricorso ad un approccio semplificato o arbitrario. Negli ultimi anni l’adozione di decisioni accettate e l’uso di argomentazioni non scientifiche, come conseguenza di interpretazioni spesso fuorvianti, ha portato a lunghe discussioni sul Principio di Precauzione ed ha allarmato la comunità scientifica. Ciò si è verificato anche per tutte le discipline scientifiche riconducibili alla scienza del suolo. In particolare, i ricerca- 126 I costi della non-scienza tori impegnati in tali settori scientifici che per le loro competenze sono stati coinvolti, a livello sia nazionale che internazionale, in gruppi di lavoro e commissioni sulle principali problematiche ambientali e sanitarie che hanno recentemente spaventato l’opinione pubblica (il riscaldamento globale del pianeta, il rilascio di organismi geneticamente modificati, la TSE/BSE,1 i POP,2 etc.), hanno molto spesso rilevato un uso improprio del Principio di Precauzione. La mancanza di dati, l’enorme varietà di suoli e di condizioni pedoclimatiche rendono praticamente impossibile il raggiungimento di una condizione di “piena certezza scientifica” nella determinazione del rischio associato a queste problematiche, creando il presupposto per il ricorso ad un vago Principio di Precauzione. La comunità scientifica ha, pertanto, cominciato a chiedere ed a lavorare per definire una metodologia applicativa del Principio di Precauzione, che di per sé non viene rifiutato da tutti, ma di cui viene messo in discussione l’uso strumentale per prendere delle decisioni arbitrarie. L’obiettivo di questo lavoro è di presentare un’analisi critica della definizione di Principio di Precauzione e delle linee guida per ridurre il rischio di una sua applicazione arbitraria ai problemi del suolo, come nodo degli equilibri ambientali. Inoltre, lo scopo del presente studio è quello di sottolineare il ruolo che i ricercatori che si occupano di questa disciplina potrebbero svolgere nella valutazione del rischio, nella gestione delle problematiche sanitarie ed ambientali che coinvolgono il comparto suolo e nell’individuazione degli abusi che si possono commettere nel ricorso al Principio di Precauzione, trascurando magari altri problemi che vengono invece sfiorati. Incertezza scientifica e principio di precauzione Come sopra evidenziato, il Principio di Precauzione costituisce uno strumento molto potente nelle mani dei politici, in quanto è previsto in molti trattati e convenzioni delle Nazioni Unite. Tuttavia un suo uso improprio potrebbe provocare una serie di effetti negativi sulla società 1 Encefalopatia Spongiforme Trasmissibile/Encefalopatia Spongiforme Bovi- 2 Persistent Organic Pollutant. na. Il PdP e le problematiche ambientali relative al suolo 127 nel suo complesso. L’origine della controversia fra la comunità scientifica ed i proponenti del Principio di Precauzione, in risposta ad una condizione di incertezza scientifica rispetto ad una specifica relazione pericolo-danno, è probabilmente semantica e sostanziale allo stesso tempo. Da una parte, sappiamo che la conoscenza scientifica può essere suscettibile di essere fraintesa, anche quando non è neanche parzialmente erronea. In ogni campo della scienza, infatti, non esiste la certezza che nuove argomentazioni e/o nuovi risultati sperimentali non possano in un futuro anche vicino sostituire alcune delle acquisizioni scientifiche precedenti. È nella stessa natura degli esperimenti scientifici lasciare uno spazio al dubbio. Ciò potrebbe portare ad ulteriori verifiche ed eventualmente alla correzione e/o sostituzione anche di conoscenze di carattere generale ampiamente accettate. D’altra parte, ed in contrasto con il significato ed i limiti della conoscenza scientifica, c’è il significato della parola “principio”: un enunciato al quale si attribuisce validità universale in un determinato settore. Così, il Principio di Precauzione potrebbe essere interpretato o come una mera applicazione del comune buon senso oppure come una legge di base, volta ad evitare la più remota possibilità di danno ogni qualvolta si proponga una nuova relazione pericolo-danno (Rogers, 2001). Secondo quest’ultima interpretazione, il Principio di Precauzione potrebbe impedire la maggior parte delle attività delle nostre moderne società. Il problema fondamentale è pertanto il possibile uso distorto del Principio di Precauzione ed un argomento critico è quello relativo alla definizione delle condizioni entro le quali applicarlo. Logicamente, per quanto riportato sopra, il Principio di Precauzione non può essere invocato ogni volta che si presenti una condizione di incertezza scientifica, in quanto sussiste sempre un grado di incertezza. Per questo motivo il riferimento alla “mancanza di piena certezza scientifica” della maggior parte delle Convenzioni e dei trattati internazionali è fuorviante e inaccettabile. Un altro aspetto altrettanto importante e mai sufficientemente considerato è che ogni normativa provoca conseguenze anche di notevole portata dal punto di vista economico. Ogni provvedimento legislativo in campo igienico-sanitario e ambientale può mettere in moto o incrementare l’attività di industrie e di imprese produttive e di servizi. L’incertezza scientifica può quindi essere utilizzata come motore dell’economia o per lo meno di qualche settore economico, magari avvantag- 128 I costi della non-scienza giandolo rispetto ad altri. La legislazione in campo igienico-sanitario è relativamente più cauta, così come quella collegata nel settore dell’alimentazione umana ed animale. Quella in campo ambientale lo è molto meno, dato che gli equilibri ambientali di carattere generale sono molto complessi e meno intuitivi ed è facile perseguire uno scopo di risanamento di un ecosistema senza adombrare alcune controindicazioni e provocare effetti negativi, anche inconsapevolmente, che possono provocare danni molto più gravi degli effetti positivi che ci si propone di conseguire. Se si considera che gli obiettivi di miglioramento igienico-sanitario e ambientale trovano di per sé non solo spinte favorevoli nelle industrie e imprese interessate, ma anche un consenso quasi automatico nei decisori politici, nei mezzi di comunicazione di massa e nella popolazione in genere, si può capire che questo aspetto è tutt’altro che secondario. E se può apparire quasi occasionale il dover portare all’attenzione della pubblica opinione la considerazione che alcuni farmaci possono essere dannosi per la salute pubblica è assai difficile convincere la stessa opinione e, a ritroso, tutta la catena dei soggetti interessati fino ai decisori politici, che le iniziative prese allo scopo di prevenire un qualche fatto negativo di carattere ambientale possono essere in realtà foriere di sviluppi estremamente pericolosi se non catastrofici. Il suolo, come si vedrà, è al centro di questi errori legislativi che ne mettono in forse la fertilità e le funzioni, anche perché la sua più importante funzione naturale, quella di autodepurazione e di nodo degli equilibri biologici, può contrastare con gli specifici interessi di potenti gruppi economici. C’è da mettere in rilievo l’importante contributo al dibattito sull’interpretazione del Principio di Precauzione e sui criteri generali per la sua applicazione venuto recentemente dalla Commissione delle Comunità Europee (2000), che ha sottolineato la necessità di considerarlo all’interno di un approccio strutturato all’analisi del rischio e, in particolare, alla gestione del rischio. La Commissione delle Comunità Europee ed il Principio di Precauzione Le principali finalità del documento prodotto dalla Commissione delle Comunità Europee sono quelle di stabilire un punto di vista co- Il PdP e le problematiche ambientali relative al suolo 129 mune sui fattori che fanno scattare il ricorso al Principio di Precauzione e sul suo ruolo nel processo decisionale. Inoltre, il documento si pone la finalità di stabilire delle linee guida, basate su dei principi coerenti, per l’applicazione del principio stesso. Per quanto riguarda il ricorso al Principio di Precauzione, esso deve presupporre l’esistenza delle seguenti condizioni: • l’identificazione di effetti potenzialmente negativi che risultano da un fenomeno, un prodotto od una procedura; • una valutazione scientifica del rischio che la situazione in esame, per l’insufficienza dei dati, il loro carattere non concludente o la loro imprecisione, non consente di determinare con sufficiente certezza. Pertanto, l’identificazione di azioni appropriate e/o di misure basate sul Principio di Precauzione dovrebbe sempre partire da una valutazione scientifica dei dati disponibili e, ogni qualvolta risulti necessario, da un esame completo delle prove, delle lacune nella conoscenza di un determinato fenomeno e del livello di incertezza scientifica ad esso associato. Una volta che è stata effettuata la valutazione scientifica, essa può fornire le basi per invocare l’applicazione del Principio di Precauzione. Applicazione comunque che non può essere acritica, ma deve essere subordinata al rispetto di cinque principi generali, che devono del resto essere osservati in tutte le misure di gestione di un rischio. I cinque principi generali costituiscono vere e proprie linee guida e sono i seguenti: • la proporzionalità, • la non-discriminazione, • la coerenza, • l’esame dei vantaggi e delle conseguenze negative derivanti dall’azione o dalla inazione, • l’esame dell’evoluzione scientifica. Proporzionalità – Secondo questo principio, le misure non possono essere sproporzionate al livello desiderato di protezione. Inoltre, non devono mirare al raggiungimento di un “rischio zero”, un livello di rischio che può richiedere uno sforzo teoricamente infinito, concettualmente e scientificamente non concepibile. Il pieno rispetto di questo principio non consente, soprattutto nel caso dell’applicazione del Principio di Precauzione, il bando totale di un prodotto o di una tecnologia poiché una tale scelta non potrebbe essere considerata una ri- 130 I costi della non-scienza sposta proporzionale ad un rischio potenziale, ossia non misurabile. Non-discriminazione – Il principio di non-discriminazione si riferisce alla necessità di trattare situazioni paragonabili nello stesso modo, a meno che non sussistano delle condizioni obiettive che impongono un comportamento differente. Tutti i provvedimenti decisi invocando il Principio di Precauzione non dovrebbero mai applicare misure diverse che sarebbero adottate in modo arbitrario sulla base, ad esempio, non solo del campo ambientale considerato ma anche dell’origine geografica o della natura della produzione. Coerenza – Il principio di coerenza stabilisce che le misure dovrebbero essere coerenti con quelle già prese in circostanze simili e/o adottando approcci simili. In altre parole, se l’assenza di sufficienti dati scientifici rende impossibile la valutazione del livello di rischio, le misure precauzionali adottate dovrebbero essere comparabili con quelle precedentemente prese in situazioni analoghe nelle quali i dati scientifici sono disponibili. Esame dei vantaggi e delle conseguenze negative derivanti dall’azione o dall’inazione – Ogni misura adottata dovrebbe essere esaminata in termini di benefici e costi dell’azione e dell’inazione. Pertanto, ogni qualvolta sia fattibile ed appropriato, dovrebbe essere effettuata l’analisi economica dei costi e dei benefici, anche se, in alcune circostanze, i responsabili delle amministrazioni preposte possono essere guidati da considerazioni non economiche. Esame dell’evoluzione scientifica – Questo principio generale dovrebbe essere applicato in ogni provvedimento legislativo, ma diviene ancora più importante quando si tratta di provvedimenti per i quali si è ricorso al Principio di Precauzione. Le misure adottate devono essere mantenute finché i dati scientifici rimangono insufficienti, imprecisi o non conclusivi e finché il rischio viene considerato troppo alto per poter essere sostenuto dalla società. Comunque, l’acquisizione di nuovi dati scientifici potrebbero rendere possibile il processo di valutazione del rischio e consentire la modifica oppure l’eliminazione di misure precauzionali. Le cinque linee guida riportate sopra rappresentano un contributo importante ed influente al dibattito esistente sul Principio di Precauzione per un suo uso politicamente trasparente. In effetti, come si è già sopra sottolineato, con queste linee guida la Commissione ha sta- Il PdP e le problematiche ambientali relative al suolo 131 bilito che anche le misure che risultano dal ricorso al Principio di Precauzione devono conformarsi ai principi generali applicabili alle misure di gestione del rischio. Inoltre, viene sottolineato il carattere provvisorio delle misure basate sul Principio di Precauzione, mentre viene enfatizzata la necessità di un’attenta raccolta ed analisi dei dati scientifici disponibili (Foster et al., 2000). In ogni caso, nonostante gli aspetti positivi riportati sopra, mancano ancora delle linee guida chiare per definire il peso delle prove necessarie per far scattare il Principio di Precauzione e per decidere quali misure dovrebbero essere applicate in ogni data circostanza. A tale proposito, un lavoro particolarmente interessante sulla valutazione e la gestione del rischio è quello scritto da Renn e Klinke (1999). Tale studio fornisce un importante contributo alle problematiche che riguardano la classificazione del rischio e le strategie per una sua razionale gestione. Nelle pagine seguenti saranno trattati i principali aspetti della classificazione e gestione del rischio, ma si consiglia vivamente, per un’esauriente dissertazione sull’argomento, il lavoro menzionato precedentemente e quello di Stirling (1999). Si può sottolineare intanto che, come si era osservato, molti provvedimenti legislativi vengono proposti ed emanati nell’interesse dichiarato della salute pubblica e della protezione dell’ambiente. Già solo una tale dichiarazione di intenti giustifica la loro adozione agli occhi della popolazione e dei decisori politici. Se tuttavia si esaminano le categorie di rischio (processi di degradazione) che si pongono secondo l’OCSE nei confronti dell’ecosistema suolo, che abbiamo definito il nodo degli equilibri ambientali, possiamo osservare che su quattordici categorie di rischio 3 la legislazione attuale italiana e comunitaria ha cercato di prenderne in considerazione in maniera organica soprattutto due, quelle elencate nella tabella 1 ai numeri 10 e 13, e che solo recentemente essa sta cercando di normare le emissioni di cui al punto 14. Per di più, preoccupandosi delle sostanze tossiche, essa ha teso al raggiungimento di un teorico livello zero, contravvenendo a quanto viene stabilito dal principio di proporzionalità. Occupandosi 3 Alle quattordici categorie di rischio ne abbiamo aggiunta una quindicesima che può apparire paradossale, a quasi due secoli dalla nascita di Justus von Liebig, e dalla scienza della fertilizzazione: su di essa si ritornerà. 132 I costi della non-scienza delle sostanze tossiche, spesso, le norme hanno riguardato ammendanti organici o fanghi che potevano essere dirottati ed alimentare le discariche o altri sistemi di smaltimento, favorendo pertanto interessi diversi da quelli ambientali. Per di più anche occupandosi di lisciviazione (n. 13) e di volatilizzazione (n. 14), la legislazione risulta avere a cuore più la salute di comparti ambientali acqua e aria che le buone condizioni della fertilità, della produttività e della salute del suolo, contravvenendo anche alle linee guida della non-discriminazione e della coerenza. Le linee guida che chiedono di esaminare i vantaggi e le conseguenze negative dell’azione e della non azione, oltre che di tener conto dell’evoluzione scientifica, appaiono totalmente disattese. Quel che risulta più grave, comunque, è che nel caso della protezione del suolo dai processi di degradazione, si hanno carenze proprio nella legislazione ordinaria. Ma torniamo all’applicazione del Principio di Precauzione. Valutazione e classificazione del rischio Secondo Renn e Klinke (1999), i principali criteri per la valutazione del rischio sono i seguenti: Gravità del danno: dimensione potenziale delle conseguenze negative determinate dal fattore di rischio (azione dell’uomo od anche eventi naturali); Probabilità che si verifichi il danno: dato che dipende dalle informazioni sulla frequenza del danno, pur nell’incertezza sul momento esatto in cui si può verificare; Certezza della stima: grado di affidabilità associato alla stima della gravità del danno e della probabilità con cui esso si verifica, ossia probabilità di collegamento causa-effetto; Ubiquità: dispersione geografica del potenziale danno; Persistenza: estensione temporale dei danni potenziali; Reversibilità: possibilità di ripristinare la situazione nello stato precedente rispetto a quello determinato dal danno; Effetto ritardato: periodo di latenza che può intercorrere fra il momento iniziale in cui si verifica un evento ed il momento in cui si manifesta il reale impatto del danno; Potenziale di mobilitazione: violazione potenziale di interessi e di Il PdP e le problematiche ambientali relative al suolo 133 valori di individui e/o gruppi sociali che generano conflitti e reazioni da parte di individui e gruppi che sentono di sopportare il peso delle conseguenze del rischio. Prendendo in considerazione principalmente gravità del danno e probabilità che il danno si verifichi, come criteri di base per cominciare un processo razionale di valutazione del rischio, si possono distinguere tre principali livelli di rischio: • la categoria normale, • la categoria intermedia, • la categoria intollerabile. I rischi che appartengono alla categoria normale sono caratterizzati da un buon grado di certezza statistica ed in prima approssimazione, se i processi vengono contrastati in una fase non avanzata, da un basso potenziale catastrofico, oltre che da un basso grado di persistenza e di ubiquità e da un elevato grado di reversibilità. A causa della loro bassa complessità, lo strumento principale di valutazione per i rischi che rientrano nella cosiddetta categoria normale è l’analisi rischio-beneficio. I rischi che rientrano nelle categorie intermedia ed intollerabile causano maggiori problemi. In questi casi, la certezza della stima è contestata, il potenziale effetto catastrofico può essere elevato e non sono disponibili sufficienti conoscenze circa la distribuzione delle conseguenze. In questi casi il rapporto rischio-beneficio è inadeguato in quanto non è possibile escludere conseguenze negative molto gravi e, pertanto, prevalgono le strategie precauzionali di controllo del rischio (ad esempio nuove strategie di contenimento del danno e di elusione del rischio). L’uso degli otto criteri sopra riportati porterebbe all’identificazione di un numero enorme di tipologie di rischio, che non sarebbe utile per realizzare una classificazione del rischio gestibile. Così, diversi rischi sono raggruppati secondo uno o più criteri per i quali raggiungono i valori estremi del loro intervallo di variazione. Questa classificazione porta a classi di rischio che sono state identificate con nomi provenienti dalla mitologia greco-romana (Tabella 2). Sei delle sette classi sono state proposte da Stirling (1999) e vengono qui adottate con qualche piccola modifica. Ad esse ne abbiamo aggiunta una settima, denominata Prometeo. 134 I costi della non-scienza Diversi sono i rischi tecnologici che appartengono a ciascuna delle categorie di rischio individuate e gli esempi riportati di seguito non possono essere considerati esaustivi. Fra gli altri, alcuni dei rischi elencati sono associati a dissesti ambientali ed a potenziali danni all’ecosistema del suolo. È questo un campo di interesse specifico dei ricercatori delle diverse discipline afferenti alla scienza del suolo il cui coinvolgimento, nella stima del rischio e nella gestione delle nuove tecnologie che hanno un impatto su tale comparto, sta aumentando anno dopo anno. Classe di rischio Ciclopi I Ciclopi erano giganti con un occhio solo. La mancanza di un occhio simboleggia una visione parziale della realtà; ciò, applicato al rischio, riguarda quelle fonti di rischio delle quali è possibile stimare la probabilità che si verifichi un evento oppure la gravità del danno determinato da tale evento, mentre l’altra componente rimane incerta. I rischi che appartengono alla classe Ciclopi sono quelli la cui estensione del danno può essere estremamente elevata, a livello di cataclismi, ma stimata solo a posteriori, mentre rimane incerto il livello di probabilità su dove e soprattutto su quando il danno si verificherà. Di solito eventi naturali quali i terremoti, le alluvioni e le eruzioni vulcaniche appartengono a questa categoria di rischio. Classe di rischio Cassandra Cassandra, profetessa dei troiani, predisse la vittoria dei greci, ma non fu presa seriamente in considerazione da parte dei suoi concittadini. In questa classe sono raggruppati tutti i rischi che possono provocare danni, dei quali sono ben noti sia la gravità sia la probabilità che si verifichino. Inoltre, tipica di questa classe di rischio è la lunghezza del periodo di tempo che intercorre tra l’evento iniziale ed il momento in cui il danno si manifesta sull’ecosistema. Un esempio di questa classe di rischio sono i cambiamenti climatici, alcuni dei quali sono attualmente considerati di possibile origine antropica (un classico esempio e l’emissione di clorofluorocarburi). Classe di rischio Damocle Secondo la mitologia, Damocle fu invitato dal suo re ad un banchetto, ma il suo posto a tavola era proprio sotto ad una spada appesa Il PdP e le problematiche ambientali relative al suolo 135 al soffitto con un filo molto sottile. Il rischio simboleggiato dalla spada di Damocle riguarda la possibilità che un evento fatale per Damocle possa verificarsi in qualunque momento, anche se con una probabilità molto bassa. Pertanto, questa classe di rischio è relativa a fonti di rischio che sono caratterizzate da un potenziale di danno molto elevato, ma con una probabilità che si verifichi molto bassa. Tecnologie come gli impianti chimici di grandi dimensioni e le dighe appartengono a questa classe di rischio. Classe di rischio Prometeo Fu lo stesso Prometeo, secondo alcuni autori greci, a modellare gli uomini impastandoli dalla terra ed a favorirli in ogni modo nei primi stadi della loro storia. Il più importante dono fatto agli uomini fu il fuoco, che era appannaggio degli Dei e che fu loro rubato per consentire una prima forma di civiltà: per questo motivo Prometeo fu condannato da Giove ad un atroce supplizio. Il fuoco è ancora motivo di altri rischi nella nostra storia di tutti i giorni e gli incendi provocano danni potenzialmente anche molto gravi, pur se in teoria prevedibili; essi obbligano tutte le comunità umane a mantenere agenti specializzati per la vigilanza, la prevenzione ed il contenimento dei danni. Questa classe di rischio simboleggia ogni avanzamento nella ricerca scientifica e tecnologica, che deve prevedere tipicamente un apporto attivo di difesa corale da parte delle comunità umane, accanto alla caratteristica, altrettanto tipicamente da essa posseduta, dell’assoluta irrinunciabilità. Dal fuoco mitologico di Prometeo, gli esempi possono ricomprendere le odierne esperienze spaziali, oltre, come si è detto, a molte ricerche di interesse strategico. Classe di rischio Pizia In caso di incertezza, gli antichi greci si rivolgevano agli oracoli. Pizia, una delle più famose profetesse dell’antichità, era solita fare delle profezie ambigue su gravi pericoli la cui ubicazione geografica, gravità del danno e probabilità che si verificasse rimanevano sostanzialmente incerte o per lo meno da interpretare caso per caso. È possibile che, nonostante nel suo tempio di Delfi potesse contare sulla protezione diretta di Apollo, essa temesse di essere perseguita nel caso di vaticini troppo chiari, così come parecchi secoli più tardi successe a Nostradamus. Le possibili conseguenze dell’impiego di colture geneticamente 136 I costi della non-scienza modificate senza opportune precauzioni, la diffusione della TSE/BSE e talora gli stessi rischi associati agli interventi dell’uomo sugli ecosistemi appartengono a questa classe di rischio. Classe di rischio Pandora Pandora ricevette da Giove un vaso contenente tutti i mali. Se essi fossero rimasti all’interno del vaso non si sarebbe verificato nessun danno, ma una volta che Pandora aprì il vaso tutti i mali furono rilasciati e si diffusero in maniera persistente in tutto il mondo. Questa classe di rischio è caratterizzata da incertezza in termini di gravità del danno e possibilità che si verifichi e da un elevato grado di persistenza degli effetti determinati dall’accadimento dell’evento temuto. La produzione e l’uso di sostanze potenzialmente inquinanti di natura organica ad alta persistenza può essere considerata un esempio tipico di questa categoria di rischio. Classe di rischio Medusa Medusa era una delle tre terrificanti Gorgoni la cui apparizione trasformava gli astanti in pietra. Alcune delle nuove tecnologie sembrano provocare effetti egualmente spaventosi sull’uomo moderno il quale respinge queste innovazioni, nonostante il fatto che esse difficilmente possano essere considerate pericolose sulla base della documentazione scientifica disponibile. La caratteristica di questa categoria di rischio è che le fonti di rischio sono rifiutate in modo irrazionale dalla popolazione (alto grado di potenziale di mobilitazione). Gli esperti nella stima dei rischi collocano di solito questi rischi nell’area normale ed il solo modo per combattere la paura che generano è di migliorare la comunicazione al pubblico con efficaci argomentazioni scientifiche. I campi elettromagnetici sono considerati un esempio tipico di questa tipologia di rischio. Differenti strategie per differenti classi di rischio Lo scopo principale di questa classificazione è di fornire uno strumento a chi gestisce il rischio per la definizione di specifiche strategie di intervento per ogni classe di rischio. Una volta che i criteri che caratterizzano i diversi rischi sono conosciuti, è possibile individuare le strategie appropriate per spostare i rischi dalla categoria intermedia a Il PdP e le problematiche ambientali relative al suolo 137 quella normale dove possono essere gestiti mediante misure basate su dati scientifici. Sulla base di quanto stabilito sopra, solo i rischi riconducibili alle categorie Pizia e Cassandra richiedono necessariamente strategie precauzionali. Investimenti in ricerca di base, sussidi allo sviluppo di sistemi di produzione alternativi, trasferimenti di tecnologia, aggiornamenti e divieti rigidi, se necessario, sono alcuni degli strumenti precauzionali disponibili. I rischi che appartengono alle categorie Damocle, Ciclopi e Prometeo necessitano di una combinazione di strategie precauzionali e basate su dati scientifici. Misure adeguate a queste tipologie di rischio possono essere considerate le misure tecniche volte a ridurre i potenziali danni ed a calcolare la probabilità che l’evento si verifichi nei casi di elevata incertezza, così come il monitoraggio nazionale ed internazionale e l’applicazione, se necessario, di divieti molto rigidi. I rischi Cassandra e Medusa rappresentano le classi di rischio che, per ragioni diverse, possono essere gestite mediante strategie di comunicazione. In particolare, i rischi Cassandra, essendo caratterizzati da un lungo periodo di tempo che intercorre fra l’evento iniziale ed il momento in cui si verifica il danno, necessitano di un’educazione ambientale, un codice di comportamento e la costruzione di una consapevolezza sociale per quanto riguarda i pericoli che si manifestano nel tempo. D’altra parte, la classe Medusa rappresenta rischi dei quali la certezza della stima è considerata soddisfacente. Il principale criterio che caratterizza questa tipologia di rischio è il potenziale di mobilitazione. Le persone comuni sono spaventate da queste fonti di rischio e rifiutano di accettare, irrazionalmente, la tecnologia che è causa della loro paura. Gli strumenti volti ad aumentare la fiducia e la confidenza con una nuova tecnologia ed a sostenere la ricerca di base per migliorare ulteriormente la certezza della stima, sono tutti atti ad informare la popolazione della reale dimensione del danno e della reale probabilità che esso si verifichi. L’applicazione del principio di precauzione alle problematiche ambientali del comparto suolo Secondo quanto riportato nella Comunicazione della Commissione sul Principio di Precauzione (2000) e nei lavori di Renn e Klinke 138 I costi della non-scienza (1999), Stirling (1999) e Rip (1999), l’invocazione del Principio di Precauzione non è una questione riconducibile semplicemente all’applicazione del comune buon senso. Inoltre, nessuna decisione arbitraria può essere presa, per nessuna problematica di carattere ambientale e/o sanitaria, invocando un vago Principio di Precauzione, in quanto la sua applicazione deve essere conforme con i cinque principi generali a cui si fa di solito riferimento nelle misure di gestione del rischio. Queste considerazioni dovrebbero essere riprese dai ricercatori delle scienze del suolo ogniqualvolta si invochi l’applicazione del Principio di Precauzione alle problematiche sanitarie ed ambientali di tale comparto. La classificazione di rischio proposta da Renn e Klinke (1999) non è certamente né completa né esauriente di tutte le tipologie di rischio, ma può rappresentare, per i ricercatori, un importante approccio di stima del rischio e uno strumento d’individuazione delle più appropriate strategie e degli strumenti volti alla riduzione dell’incertezza relativa alla probabilità che si verifichi un danno ed alla gravità del danno stesso. Un altro aspetto, di non secondaria importanza per i ricercatori delle scienze del suolo, riguarda l’assunzione di responsabilità su qualunque tematica che riguarda la gestione del suolo. Solo i ricercatori impegnati nello studio delle scienze del suolo possono raccogliere le informazioni che riguardano gli otto principali criteri di valutazione del rischio e solo attraverso la loro esperienza possono elaborare uno “stato dell’arte” della conoscenza del rischio. In linea di principio, per i rischi che rientrano nella categoria normale di cui si è precedentemente parlato non dovrebbe essere applicata che una legislazione ordinaria, nel senso che non occorre il ricorso al Principio di Precauzione. Molto spesso si tratta infatti di processi la cui direzione è nota e può essere indirizzata in senso favorevole o sfavorevole mediante l’adozione di pratiche opportune. Negli altri casi invece, quelli delle categorie intermedia e intollerabile, un andamento negativo potrebbe provocare impatti catastrofici, ed è questo il motivo per il quale diviene indispensabile e giustificato il ricorso al Principio di Precauzione. Se torniamo ai processi di degradazione del suolo illustrati precedentemente nella Tabella 1, possiamo considerare che in condizioni attribuibili ad una categoria normale l’adozione di corrette pratiche agricole può essere sufficiente a limitare o a controllare completamen- Il PdP e le problematiche ambientali relative al suolo 139 te i rischi. È ovvio pertanto che sarebbe sufficiente una legislazione ordinaria che tenesse nella dovuta considerazione la necessità di privilegiare un’attività multifunzionale dell’agricoltura per evitare l’instaurarsi di condizioni drammatiche per l’ambiente, quali sono quelle rappresentate nella colonna di destra della stessa Tabella 1. In realtà, la società d’oggi si trova a dovere fronteggiare in via ormai ordinaria cataclismi e situazioni catastrofiche che dipendono dall’ignoranza, dalla cattiva considerazione o dall’esclusione delle funzioni dell’ecosistema suolo negli approcci seguiti per la protezione dell’ambiente. L’esclusione del suolo nasconde a volte gli interessi di soggetti coinvolti in colossali giri d’affari, ma a volte rivela solo ignoranza degli aspetti tecnici del problema. Alcuni casi particolarmente preoccupanti di comportamenti pericolosi delle società d’oggi, pericolosi al punto da provocare disfunzioni strutturali, sono riportati nella Tabella 3. Le diverse normative che riguardano direttamente od indirettamente il suolo sono sempre state pubblicate partendo dall’assunto che tutte le sostanze o gli elementi introdotti nell’ambiente dall’uomo fossero pericolose, indipendentemente dalle loro concentrazioni. D’altra parte le sostanze di origine naturale non sono mai state oggetto di limitazioni come se la loro “naturalità”, secondo alcuni, contenesse automaticamente la caratteristica di innocuità. Ad esempio, il suolo non è mai stato considerato sufficientemente nella legislazione relativa alla qualità delle acque, tanto che la stessa gloriosa Legge Merli (319/76) non ha preso in considerazione il sodio fra gli elementi per i quali era necessario porre un limite: come possibile conseguenza, un’acqua irrigua diveniva un potenziale strumento di sterilità dei suoli. Ma neppure i più recenti provvedimenti legislativi europei, come la Decisione n. 2455/2000/CE del Parlamento Europeo e del Consiglio, pubblicata sulla G.U. L 331 del 15 dicembre 2001,4 annoverano sostanze pericolose per il suolo e la sua funzionalità fra quelle di interesse prioritario per le acque: vi si legge l’alachor, l’atrazina, l’esaclorobenzene, il nichel e il cloroformio, ma non c’è traccia di cloruro sodico e di sodio. 4 Con candore inappellabile la Decisione ci spiega una volta di più, fin dalla terza “considerazione” delle premesse, che per le sostanze sintetiche antropogeniche le concentrazioni devono essere vicine allo zero. 140 I costi della non-scienza Raro è anche che si parli di sodio e di cloruro sodico, nonostante le catastrofi storiche che hanno determinato la caduta della civiltà Assiro-Babilonese in tempi remoti e vanno provocando la sterilizzazione di molte vaste superfici di suoli anche in epoca moderna. Si tiene conto di acque, insomma, ma non del loro utilizzo. I collassi strutturali possono essere provocati da alte percentuali di sodio nel complesso di scambio, ma anche dalla degradazione del carbonio organico, che può contribuire almeno in ambiente mediterraneo ad un apporto di anidride carbonica in atmosfera di un ordine di grandezza pari, se non superiore, a quello apportato dalle combustioni dei fossili. L’ultimo caso da considerare, anch’esso potenzialmente catastrofico, è quello dell’immissione senza ritorno nelle acque di elementi nutritivi provenienti dallo sfruttamento di rocce e minerali: trasformate in fertilizzanti, essi entrano nella catena suolo-pianta-uomo e animale, ma possono non fare più ritorno alla loro destinazione naturale, il suolo, quando si impedisce per legge la riutilizzazione come fertilizzante del pozzo nero e di altri effluenti. I cicli degli elementi nutritivi, in altre parole, sono così spezzati (Sequi, 1990). Sembra pertanto che le leggi non considerino a sufficienza il suolo, indipendentemente dal ricorso al Principio di Precauzione. Ma se si collocano i vari eventi pericolosi nelle varie categorie di rischio fin qui considerate si possono avere diverse sorprese (Tabella 4). Gli eventi catastrofici che interessano direttamente il suolo (frane e collassi strutturali da alluvioni, desertificazione, acidificazione e sommersione, perdita del patrimonio degli elementi nutritivi) devono essere considerati nelle classi dove la gravità del rischio è più elevata, mentre gli eventi che si originano nel suolo, ma che possono colpire altri ecosistemi, fanno parte delle classi di rischio la cui gravità è incerta o bassa e altrettanto bassa la probabilità: si tenga conto, per esempio, che i limiti al contenuto di erbicidi nelle acque potabili sono dettati dal concetto che essi devono essere prossimi alla soglia della rilevabilità analitica. Tali limiti sembrano indotti da un generico Principio di Precauzione che dovrebbe riguardare considerazioni igienico-sanitarie ma che più spesso sembra nascondere ragioni puramente commerciali, quali l’avvicendamento di nuove generazioni di erbicidi efficaci a concentrazioni molto più basse. Si tratta di rischi per i quali i mezzi di comunicazione di massa hanno promosso un alto potenziale di mobilitazione, e Il PdP e le problematiche ambientali relative al suolo 141 che dovrebbero essere ridimensionati con un’opportuna campagna di educazione pubblica. Sembra insomma che la legislazione vigente tenda a proteggere più gli ecosistemi facili e visibili di quelli strutturali e complessi. Questa tendenza appare ancora più accentuata se si considera che i comportamenti antropici che colpiscono gravemente l’integrità del suolo e la sua funzionalità sono favoriti dalla legislazione vigente. Sarebbe tempo che gli scienziati del comparto cercassero di riprendere in mano la situazione, in quanto ogni comportamento passivo, in queste circostanze, dovrà essere ritenuto colpevole. Un esempio finale di uso distorto del Principio di Precauzione per affrontare delle problematiche di origine ambientale e sanitaria del comparto suolo e dell’importanza del ruolo degli scienziati di tale comparto per una classificazione razionale del rischio e per l’identificazione di adeguate strategie e misure per la relativa gestione di tali rischi, è la fissazione dei contenuti massimi di metalli pesanti nei fertilizzanti da somministrare ai suoli agricoli. Naturalmente, poiché tale problema è estremamente complesso ed ogni elemento meriterebbe una dissertazione esauriente a parte, si riportano di seguito solo alcuni principali aspetti critici e paradossali, che riguardano il contesto europeo. Tenori massimi consentiti di metalli pesanti nei fertilizzanti organici In conseguenza del crescente interesse per le problematiche ambientali relative alla gestione dei rifiuti, molti convegni si sono tenuti, su tali argomenti, a livello nazionale ed europeo negli ultimi anni. Uno degli aspetti di maggiore preoccupazione e dibattito fra i funzionari del Ministero dell’Ambiente, del Ministero dell’Agricoltura, delle organizzazioni professionali e delle associazioni di consumatori che partecipano a questi convegni è stato la qualità ambientale dei fertilizzanti organici in generale, e specificamente dei fanghi degli impianti di depurazione e del compost prodotto mediante trattamenti biologici di rifiuti biodegradabili. Nello specifico, è stata spesso oggetto di discussione la fissazione dei contenuti massimi di metalli pesanti nel prodotto finale. Sfortunatamente, non sempre sono state considerate per ogni singolo elemento le proprietà fisico-chimiche, le concentrazioni naturalmente presenti nei singoli comparti ambientali, il loro ruolo, se 142 I costi della non-scienza esiste, nel metabolismo delle piante e degli animali, i meccanismi di asportazione e regolazione, il potenziale accumulo, la competizione con altri elementi, le concentrazioni per le quali si evidenziano sintomi di carenza e di tossicità per le diverse specie nella catena alimentare. Al contrario, frequentemente, la discussione è stata guidata dal riferimento ad un vago concetto di precauzione se non proprio dall’invocazione del Principio di Precauzione, assumendo, non dichiaratamente, che, quando si tratta di metalli pesanti, i valori migliori sono i più bassi. Più che Principio di Precauzione si potrebbe parlare in questi casi di precauzione senza principio, come si legge nella bella introduzione al libro di A. Meldolesi sugli OGM. Già diversi secoli or sono, ci ricordano Nicolini e D’Agnolo (2001), Paracelso aveva affermato che «ogni sostanza è un veleno, ma è il dosaggio che la vuole velenosa». L’applicazione fuorviante del concetto di precauzione ha determinato anno dopo anno la perdita di un approccio scientifico al problema e la proposta di livello massimo ammissibile di contaminanti in compost indipendentemente dalle considerazioni tecniche e scientifiche di base. Inoltre, la mancanza di un approccio strutturato alla gestione del rischio ha portato a conclusioni contraddittorie e, talvolta, paradossali. Nonostante ed indipendentemente dall’instancabile lavoro dei singoli funzionari della DG Ambiente della Commissione Europea, il cui scopo finale è di fornire l’Unione Europea di una direttiva sulla gestione dei rifiuti, l’Allegato III della seconda bozza del documento di lavoro Trattamento biologico dei rifiuti biodegradabili rappresenta un classico esempio di quanto riportato sopra. Per quanto riguarda il contenuto di metalli pesanti di compost o del residuo solido della digestione anaerobica di classe 1, le concentrazioni massime proposte sono quelle riportate in tabella 5, nella quale viene riportata per confronto la concentrazione ammessa dall’U.S. Environmental Protection Agency per i biosolidi che possono essere somministrati al suolo. Alcune considerazioni sono necessarie specialmente se focalizziamo l’attenzione su rame, cromo e piombo. Gli scienziati che svolgono un’attività di ricerca nelle discipline scientifiche riconducibili alla branca delle scienze del suolo (chimici agrari, biologi, agronomi, fisiologi vegetali, etc.) sanno, che fra i metalli presenti sulla crosta terrestre, molti sono essenziali per la vita. Gli organismi viventi necessitano Il PdP e le problematiche ambientali relative al suolo 143 di un rifornimento costante di questi elementi, per evitare fenomeni di carenza, in quanto sono deputati a svolgere importanti funzioni biologiche. Altri metalli, di cui non è stata mai scoperta una funzione vitale in nessun organismo vivente, sono chiamati elementi non-essenziali. Mentre quantitativi eccessivi di elementi essenziali possono essere causa di un potenziale danno agli organismi viventi, anche piccole quantità di elementi non-essenziali possono essere pericolose per gli stessi organismi viventi. Il rame ed il cromo sono elementi essenziali, mentre il piombo è un elemento non-essenziale. Anche se questa semplice considerazione dovrebbe essere sufficiente per differenziare la concentrazione massima ammissibile per il rame ed il cromo da una parte e per il piombo dall’altra, gli esaurienti lavori di Landner e Lindestrom (1999) ed il volume edito da Canali et al. (1997), per il rame ed il cromo rispettivamente, forniscono le informazioni scientifiche ed il database necessari per operare una gestione razionale del rischio. In effetti è stato osservato che il rame, oltre ad essere un elemento essenziale, ha un’elevata efficacia come promotore della crescita nei maiali tanto che, per questo motivo, tradizionalmente si sono aggiunte elevate dosi di rame (fino a 200 mg Cu per kg di mangime) ai mangimi utilizzati per l’alimentazione dei suini, per aumentarne le prestazioni produttive (Landner e Lindestrom, 1999). Inoltre, il Gruppo di Lavoro sul rame dell’IPCS (International Program on Chemical Safety) ha stabilito che, specialmente in Europa ed in America, c’è un maggiore rischio per la salute a causa di una carenza che per un’assunzione eccessiva di rame (1996). Simili conclusioni possono essere tratte per il cromo. Nel 1959 Schwartz e Mertz dimostrarono che il cromo era un elemento fondamentale nella costituzione del GTF (Glucose Tolerance Factor) che regola l’assunzione ed il metabolismo degli zuccheri. Successivamente è stato dimostrato che il GTF è indispensabile per il normale metabolismo degli zuccheri, dei lipidi e delle proteine in gatti, conigli, polli, maiali, vitelli ed anche nell’uomo (Anderson, 1988). Quando il cromo viene somministrato ad animali allevati per la produzione di carne, può cambiare la composizione della carcassa. Esperimenti realizzati da Page et al. (1993) sui maiali hanno dimostrato che era evidenziabile un aumento della massa muscolare e una riduzione dello spessore del grasso sottocutaneo. Negli esseri umani, d’altra parte, il cromo addi- 144 I costi della non-scienza zionato in forma organica alla dieta, sembra aumentare lo sviluppo dei muscoli scheletrici (Evans and Pouchink, 1993). Infine, Anderson (1987) ha stimato che nel 90% dei casi, a seguito del consumo di prodotti raffinati, un adulto americano ha una dieta che copre solo il 4060% del reale fabbisogno di cromo. Pertanto, per quanto sopra riportato, sia per il rame che per il cromo, mentre le istituzioni nazionali ed internazionali che si occupano di agricoltura ed ambiente definiscono la concentrazione massima di elementi essenziali (rame e cromo) nei compost allo stesso livello di quello imposto per gli elementi non essenziali (piombo), le industrie farmaceutiche invadono il mercato con prodotti da banco (integratori minerali) che contengono, fra gli altri elementi, appunto proprio il rame ed il cromo. I moderni sistemi di produzione agricola ed i processi di raffinazione e trasformazione dei prodotti alimentari sono considerati responsabili per il basso contenuto in elementi essenziali delle nostre diete e, per tale motivo, gli integratori minerali sono raccomandati specialmente in soggetti sottoposti a fatica fisica ed a stress come nel caso degli atleti e delle donne in stato di gravidanza. Infine, specifici prodotti da banco a base di cromo vengono pubblicizzati e venduti per aumentare l’efficienza del metabolismo degli zuccheri e dei lipidi a supporto di diete a basso contenuto di calorie messe a punto per il trattamento dell’obesità. Pertanto, secondo quanto riportato dalla letteratura scientifica sull’argomento, sembra ragionevole affermare che il rischio associato all’uso in agricoltura di compost che contenga un quantitativo di rame e cromo moderatamente superiore ai 100 mg per kg di sostanza secca appartenga alla categoria di rischio Medusa che è caratterizzata da un basso potenziale di danno, da una bassa probabilità che tale danno si verifichi e da un alto potenziale di mobilitazione. La gente comune è spaventata dai “metalli pesanti” in generale e li rifiuta nel loro insieme senza distinguere fra elementi essenziali e non essenziali. Non c’è alcun bisogno di invocare misure precauzionali per trattare con questa classe di rischio, mentre sembrano degli strumenti più appropriati quelli volti ad aumentare la confidenza della popolazione con queste problematiche attraverso la costituzione di istituzioni indipendenti per l’informazione e di controllo internazionale e mediante il miglioramento del livello di certezza della stima. Tutti gli scienziati impegnati Il PdP e le problematiche ambientali relative al suolo 145 in attività di ricerca attinenti il suolo svolgono un ruolo fondamentale in ciascuna delle misure menzionate sopra. Un caso a parte è quello che riguarda il cadmio. In effetti, l’applicazione del Principio di Precauzione è invocato con maggiore enfasi quando si tratta di elementi non essenziali come nel caso del cadmio. Anche se il cadmio come elemento non essenziale è più tossico del rame e del cromo, il rischio associato all’uso del compost con diversi livelli di cadmio potrebbe essere valutato con un’analisi rischio-beneficio in quanto è caratterizzato da un basso impatto di danno potenziale, da un basso valore per il criterio che riguarda l’ubiquità delle conseguenze del rischio e potrebbe, pertanto, essere oggetto di una semplice routine di gestione del rischio. Ciononostante, anche se il Principio di Precauzione fosse applicato, sarebbe regolato dall’osservazione dei cinque principi riportati sopra e messi a punto per evitare qualunque tentativo di un suo uso arbitrario. In particolare, il principio di coerenza è di specifico interesse in questo caso. Recentemente è stato pubblicato il Regolamento della Commissione (EC) N. 466/2001 dell’8 marzo 2001 che definisce il contenuto massimo di certi contaminanti negli alimenti. Il contenuto massimo di cadmio (Cd) consentito nella frutta e negli ortaggi (codice di prodotto 3.2.11) è di 0,05 mg per kg di peso fresco. Tenendo presente che il contenuto di sostanza secca di una bacca di pomodoro, come esempio di ortaggio, è pari a circa il 5%, ne consegue che il massimo contenuto di Cd consentito è pari a 1 mg per kg di sostanza secca. Questo valore è più alto del 50% rispetto al contenuto massimo di Cd consentito nel compost/digestato di classe 1 (tabella 2). Il paradosso è di consentire, negli alimenti, un livello di contaminanti che è maggiore di quello permesso per i compost da utilizzare come ammendanti su suoli agricoli. Logicamente, se la bacca di pomodoro venisse compostata il suo contenuto di Cd sarebbe sottoposto ad un processo di concentrazione che porterebbe il livello di questo metallo pesante, nel compost finale, ad un valore compreso fra 2,5-3,0 mg per kg di sostanza secca. Poiché il principio di coerenza stabilisce che ogni misura debba essere coerente con misure già prese in simili circostanze e/o adottando approcci simili, la definizione dei limiti in Cd per i compost così come viene riportato nell’Allegato III della seconda bozza del documento di lavoro Trattamento biologico dei rifiuti biodegradabili (2001) dovrebbe essere respinto in 146 I costi della non-scienza quanto arbitrario. In effetti, sarebbe veramente irrazionale se un ortaggio idoneo per l’alimentazione umana non potesse essere utilizzato come matrice organica per la produzione di compost. Conclusioni Il Principio di Precauzione è previsto da molti trattati e Convenzioni delle Nazioni Unite, ma la sua applicazione è respinta dalla comunità scientifica che lo identifica come uno strumento atto a prendere delle decisioni arbitrarie. La forte richiesta di una metodologia per l’applicazione del Principio di Precauzione ha portato la Commissione Europea a stabilire delle linee guida, per una sua applicazione, basate su dei principi coerenti. Anche se molto deve essere ancora fatto per ridurre l’uso improprio e/o l’interpretazione errata del Principio di Precauzione, nel documento della Commissione viene enfatizzato il ruolo degli scienziati nella valutazione e gestione del rischio. Per quanto riguarda le problematiche ambientali legate al comparto suolo, i ricercatori svolgono un ruolo fondamentale nel valutare se e quando il Principio di Precauzione possa essere invocato e, nel caso in cui ciò si verificasse, per ridurre il livello di arbitrarietà determinato da una sua applicazione. Bibliografia Anderson R A (1987) Chromium. In Trace elements in human and animal nutrition. W Mertz (Ed.) (5th Ed.) pp.225-244. Academic Press, Inc. San Diego-CA. Anderson R. A. (1988) Chromium. In Trace minerals in foods. Ed. K. Smith pp. 237-247. Marcel Dekker Inc., New York, U.S.A. ARPA Piemonte (2001). Relazione sullo Stato dell’Ambiente. Canali S. Tittarelli F. and Sequi P. (Editors) (1997). Chromium environmental issues. Franco Angeli, Milano, Italy, 295 pp. Commission of the European Communities (2000) Communication from the Commission on the precautionary principle. Brussels, 02.02.2000 COM (2000) 1. EU (1992) Treaty on European Union (the Maastricht Treaty), 17 february 1992, Office for Official Publications of the European Communities, Luxenbourg. Il PdP e le problematiche ambientali relative al suolo 147 Evans G.W. and Pouchink D.J. (1993) Composition and biological activity of chromium-pipidine-carbonilate complexes. J. Inorg. Biochem. 49, 117187. Foster K.R., Vecchia P., Repacholi M.H. (2000) Science and the precautionary principle. Science 288: 979-981. IPCS (1996) Environmental Health Criteria for Copper. Draft Report (IPCS/-EHC 96.28. Landner L. & Lindestrom L. (1999) Copper in society and in the environment. An account of the facts on fluxes, amounts and the effects of copper in Sweden. 2nd revised edition, Landner L. and Lindestrom L., Swedish Environmental Research Group (MFG). Meldolesi A. (2001). Organismi geneticamente modificati: storia di un dibattito truccato. Giulio Einaudi Ed., Torino. Nicolini L. & D’Agnolo G. (2001). Il dibattito sulle piante modificate geneticamente: legislazione e valutazione di rischio. Analysis, (3), 26-39. Page T G, Souther L L, Ward T L e Thompson D L (1993) Effect of chromium picolinate on growth and serum and carcass traits of growing-finishing pigs J Anim Sci 71, 656-662. Renn O. and Klinke A. (1999) Risk evaluation and Risk Management for Institutional and Regulatory Policy. Final Report (ESTO project Technological Risk and the Management of Uncertainty), pp 1-37. Rip A. (1999) Contributions from social studies of science and constructive technology assessment. Scoping paper (ESTO project Technological Risk and the Management of Uncertainty, pp 1-36. Rogers M.D. (2001) Scientific and technological uncertainty, the precautionary principle, scenarios and risk management. Journal of Risk Research 4 (1), pp 1-15. Schwarz K e Mertz W (1959) Chromium (III) and the glucose tolerance factor. Arch.Biochem Biophys 85, 292-295. Sequi P. (1990). Il ruolo dell’agricoltura nel ciclo degli elementi nutritivi. Alma mater studiorum, III (2), 155-190. Stirling A. (1999) On science and precaution in the management of technological risk. An ESTO Project Report prepared for European Commission – JRC Institute Prospective Technological Studies, Seville, edited by European Commission Joint Research Centre EUR 19056 EN. UNCED (1992) Principle 15, final declaration of the UN conference on Environment and Development. Rio de Janeiro. 148 I costi della non-scienza Tabella 1 – Principali processi di degradazione del suolo e possibili conseguenze estreme N. 1 2 Processo* Erosione Alterazione da scorrimento superficiale delle acque condizioni favorevoli per le alluvioni 3 Desertificazione 4 5 Salinizzazione Sodicizzazione 6 Perdita di sostanza organica 7 Degradazione struttura da frammentazione degli aggregati o dispersione delle argille in essi contenute Compattamento della superficie da calpestio animale Formazione di croste superficiali o profonde (“pan”) 8 9 10 11 Accumulo di sostanze tossiche (ivi inclusi i metalli pesanti) Acidificazione 12 Sommersione 13 Danno grave o catastrofico Frane, alluvioni Grave erosione superficiale, indisponibilità di acque per la vegetazione, Inabitabilità da temperature troppo alte o basse (ghiacci) Inabitabilità da deserti salati Dispersione colloidi e collasso strutturale (cfr. 7) Perdita di buone proprietà fisiche (ritenzione idrica, lavorabilità, collasso strutturale – cfr. 7) Collasso strutturale Formazione di strati superficiali improduttivi (cfr. 9) Formazione di strati improduttivi da migrazione argille, indurimento carbonati, lavorazioni, ecc. Sterilità e possibile pericolosità per vegetazione e catene alimentari Accumuli di sostanze acidificanti da parte di coperture vegetali che si autodistruggono (foreste di conifere che si trasformano in torbiere) Torbificazione con emissione di metano e solfuri Perdita del patrimonio di elementi nutritivi e di altre sostanze in genere Perdita della dotazione azotata Perdite di elementi nutritivi e di altre sostanze per lisciviazione 14 Perdite di elementi nutritivi e di altre sostanze per volatilizzazione 15 Perdite di elementi nutritivi per Perdita del patrimonio di elementi nutritivi mancata restituzione essenziali per la vegetazione, con innesto del processo miniere-mare * da OCSE, modificato. Il PdP e le problematiche ambientali relative al suolo 149 Tabella 2 – Tassonomia schematica delle classi di rischio (da Stirling, 1999, modificata) Nome Probabilità Gravità del danno Altro Esempi CICLOPI Certa: meno certo dove, incerto il quando Alta Effetto potenzialmente ritardato – persistente Terremoti, alluvioni, eruzioni vulcaniche CASSANDRA Non sempre certa Alta Effetto ritardato Cambiamenti climatici di origine antropica DAMOCLE Molto bassa Alta PROMETEO Relativamente bassa Potenzialmente Irrinunciabilità Novità anche alta scientifiche e tecnologiche PIZIA Incerta Incerta PANDORA Non sempre certa Incerta Alta persistenza Inquinanti organici persistenti (POPs) MEDUSA Bassa Bassa Alta mobilitazione Campi elettromagnetici Impianti chimici, dighe BSE, OGM 150 I costi della non-scienza Tabella 3 – Comportamenti antropici anomali nella società di oggi che possano rendere catastrofica la situazione per il comparto suolo Processo* Causa 1 (2) Alluvioni e frane In montagna: cattivo uso del suolo per sfruttamento irrazionale della vocazionalità o per mancanza di operatori sul territorio. In pianura: consumo di suolo, con concentrazione e impatto delle acque su superfici sempre minori. A livello di bacino: captazione delle acque sempre più a monte, con diminuzione dei tempi di corrivazione 4-5 (3) Desertificazione Salinità delle acque e presenza incontrollata di sodio e altri elementi potenzialmente fitotossici (es. boro) 5-6 (7) Collassi strutturali e Degradazione della sostanza organica presente nel suolo aumento delle concentrazioni e mancata considerazione degli indirizzi colturali di CO2 nell’aria atmosferica appropriati 15 Inquinamento delle acque Cicli nutritivi spezzati per mancata restituzione al suolo (es. costrizione al reintegro con i fertilizzanti dei fosfati asportati dal suolo, che seguono perciò un cammino anomalo dalle miniere ai mari via piante-animali) * I numeri si riferiscono a quelli individuati nella tab. 1. Il PdP e le problematiche ambientali relative al suolo 151 Tabella 4 – Classi di rischio di eventi relativi al suolo e pericolosi, o ritenuti tali. I numeri fra parentesi si riferiscono ai processi elencati in tabella 1 Eventi che interessano direttamente il suolo Comportamenti antropici che colpiscono il suolo CICLOPI Frane (1.2) Collassi strutturali (5,6,7,8,9) Cattivo uso del suolo (1,2) Consumo di suolo (1,2) Diminuzione tempi di corrivazione (1,2) CASSANDRA Desertificazione Degradazione sostanza organica (6) Cattiva qualità acque (Na C1, ecc.) DAMOCLE Acidificazione e sommersione (11, 12) Perdita del patrimonio di elementi nutritivi (15) Cicli spezzati (15) Biodiversità microbica (6,10 ...) PROMETEO Uso di piante geneticamente modificate PIZIA Accumulo metalli pesanti da fertilizzazione (10) PANDORA Deterioram. qualità atmosfera (N2O,CH4) (14) deterioram. qualità acque (13) MEDUSA Perdita di potabilità delle acque (13) Deterioram. qualità atmosfera (NH3) (14) EVENTI CHE DAL SUOLO POSSONO COLPIRE ALTRI ECOSISTEMI 152 I costi della non-scienza Tabella 5: Massima concentrazione di metalli nel compost/residuo solido della digestione anaerobica di classe 1 (proposta a livello di Commissione Europea) e nei biosolidi secondo la Environmental Protection Agency degli Stati Uniti d’America*. Parametro Compost/residuo anaerobico di classe 1* U.S. EPA Cd (mg kg-1 s.s.) 0,7 85 Cr (mg kg-1 s.s.) 100** nessun limite*** Cu (mg kg-1 s.s.) 100 4300 Hg (mg kg-1 s.s.) 0,5 57 Ni (mg kg-1 s.s.) 50 420 Pb (mg kg-1 s.s.) 100 840 Zn (mg kg-1 s.s.) 200 7200 * Si tratta in ambedue i casi di materiali che possono essere utilizzati secondo criteri di buona pratica agricola senza ulteriori restrizioni ** Anche per il Cr(III) *** Neppure per il Cr(VI) 153 IL PRINCIPIO DI PRECAUZIONE PER I CAMPI ELETTROMAGNETICI: GIUSTIFICAZIONE ED EFFICACIA Paolo Vecchia Istituto Superiore di Sanità, Roma Presidente ICNIRP P er pochi agenti, sostanze o tecnologie il Principio di Precauzione viene invocato tanto frequentemente e con tanta insistenza quanto per i campi elettromagnetici. Ma l’adozione di questo principio è realmente giustificata? E le misure che in nome del principio vengono proposte (o quelle che, in particolare in Italia, sono già state adottate) sono realmente efficaci? Alla prima domanda sono in molti, nella comunità scientifica, ad aver risposto in modo negativo. Particolarmente significativa ed esplicita è la posizione dell’Organizzazione Mondiale della Sanità (OMS), secondo la quale «una politica cautelativa per i campi elettromagnetici dovrebbe essere adottata solo con grande attenzione e consapevolezza. I requisiti per tale politica […] non sembrano soddisfatti né nel caso dei campi elettromagnetici a frequenza industriale, né in quello dei campi a radiofrequenza» [1]. Per comprendere le motivazioni di questo giudizio, occorre riflettere su quando, e come, il Principio di Precauzione debba essere applicato. A questo scopo, sono particolarmente utili due documenti emanati dalla Commissione Europea (CE) [2-3], ai quali l’OMS fa esplicito riferimento. Un primo criterio, che la Commissione considera come una vera e propria condizione pregiudiziale, stabilisce che affinché il Principio di Precauzione venga invocato, prima ancora che applicato, un rischio potenzialmente grave sia stato identificato e scientificamente valutato. Nei casi in cui questa condizione sia verificata, e si decida quindi di adottare delle misure precauzionali, gli ulteriori criteri stabiliscono che le misure stesse siano proporzionate ai rischi che si intende prevenire, coerenti con altre misure già adottate in casi analoghi, non discri- 154 I costi della non-scienza minatorie nella loro applicazione, basate su un’analisi di costi e benefici, e a carattere temporaneo. I campi magnetici a bassa frequenza, che sono generati dalle linee elettriche ad alta tensione ma anche dai normali circuiti domestici e da qualunque dispositivo a funzionamento elettrico, sono stati recentemente classificati dall’Agenzia Internazionale per la Ricerca sul Cancro (IARC) come «forse cancerogeni per l’uomo» (gruppo 2B della classificazione IARC) [4] sulla base di alcune osservazioni epidemiologiche di aumenti dell’incidenza di leucemia. La presenza di altri studi con risultati opposti, le indicazioni pressoché unanimemente negative di effetti cancerogeni negli animali da esperimento, la mancanza di dati a supporto da parte degli studi biologici in vivo e l’impossibilità fino ad oggi di individuare un plausibile meccanismo di interazione giustifica il fatto che i campi magnetici non siano stati classificati come certamente cancerogeni (gruppo 1) o come probabilmente cancerogeni (gruppo 2A). Comunque, per questo tipo di campi un rischio sanitario, indubbiamene grave nella sua natura, è stato chiaramente identificato. Per quanto riguarda invece i campi elettromagnetici ad alta frequenza (o a radiofrequenza, nella terminologia tecnica), come quelli propri dei sistemi di telecomunicazione, un altro documento dell’OMS sottolinea che «una rassegna della letteratura ha concluso che non esiste nessuna chiara evidenza che l’esposizione a campi a radiofrequenza abbrevi la durata della vita umana, né che induca o favorisca il cancro» [5]. Riassumendo, il Principio di Precauzione può quindi essere invocato per i campi magnetici a frequenza industriale, ma non per i campi elettromagnetici ad alta frequenza. Ma quali misure potrebbero essere adottate nel primo caso? Una normativa proposta qualche anno fa in Italia prevedeva un limite cautelativo di esposizione ai campi magnetici pari a 0,5 µT (microtesla), nonché interventi sugli elettrodotti esistenti per ricondurre le esposizioni all’interno di abitazioni, scuole, ospedali ed altri siti “sensibili” al di sotto di tale valore. Secondo stime sull’entità della popolazione esposta effettuate dall’Istituto Superiore di Sanità [6], tali misure avrebbero comportato per il paese, nell’ipotesi che i campi magnetici siano effettivamente cancerogeni, la prevenzione di un nuovo Il PdP per i campi elettromagnetici … 155 caso incidente di leucemia infantile ogni due anni e di un caso di morte ogni cinque anni circa. A queste azioni corrispondevano costi, stimati all’epoca in lire, di oltre 40.000 miliardi [7]. Considerata la vita media degli impianti, ciò equivale ad un costo dell’ordine di 2-3 miliardi di euro per vita umana ipoteticamente salvata, un valore da molti giudicato inaccettabile per la società, o quanto meno sproporzionato a quanto si è disposti a spendere per altri rischi meglio accertati e più gravi. Tra i sostenitori di questa tesi figurava il ministro della Sanità che si oppose all’approvazione della norma a cui si è sopra accennato. Il ricorso al Principio di Precauzione, almeno così come definito e raccomandato dalla Commissione Europea, è dunque ingiustificato. Ciò nonostante, in Italia esso è ancora continuamente invocato ed in suo nome sono state adottate tutta una serie di misure, che vanno dall’emanazione di norme di protezione particolarmente restrittive a prescrizioni per l’allontanamento di antenne e linee elettriche dalle abitazioni, se non al loro smantellamento. Tutte queste misure hanno dei costi, sia in termini strettamente economici, sia di sviluppo tecnologico e di qualità del servizio, che dovrebbero essere largamente compensati dal beneficio sanitario. Ma questo beneficio esiste davvero? Siamo cioè certi che le misure cautelative comportino, a prescindere da ogni altra considerazione, un beneficio per la salute? Una serie di esempi sembra dimostrare il contrario. In vari casi è stato proposto, o imposto, lo spostamento di un tratto di elettrodotto per allontanarlo da qualche abitazione o altro luogo “sensibile” dove si riteneva che i livelli di esposizione fossero inaccettabili. Per valutare razionalmente l’efficacia di tale operazione occorre tenere presente che gli eventuali effetti a lungo termine di campi magnetici sono di natura stocastica e che in assenza di qualunque indicazione sui sottostanti meccanismi di azione è corretto (e prudenziale) assumere che l’entità degli effetti sia legata a quella dell’esposizione, riducendosi a zero soltanto quando l’esposizione si riduce a zero. L’allontanamento di una linea elettrica da alcuni edifici provoca inevitabilmente l’avvicinamento ad altri dal lato opposto. In un paese densamente popolato come l’Italia questo effetto dovrebbe essere significativo e non si può escludere che il numero di abitazioni che verrebbero avvicinate alla linea sia molto maggiore di quelle che se ne allontanano. Non è quindi scontato a priori che, in termini di esposizione col- 156 I costi della non-scienza lettiva, la soluzione finale sia migliore di quella di partenza, anche nel caso in cui le distanze in gioco fossero molto diverse. Ancora più eclatante è il caso delle stazioni radio base per telefonia cellulare. In nome del Principio di Precauzione, molte amministrazioni hanno imposto l’allontanamento delle antenne dai centri abitati. Questa soluzione in genere aumenta l’intensità media del campo elettromagnetico, che nell’abitato deve comunque mantenersi a un livello sufficiente per il servizio, mentre è molto più alta in prossimità dell’antenna che deve necessariamente emettere una potenza maggiore. Ma l’effetto più vistoso è quello che si manifesta sui telefonini. Questi sono dotati di un dispositivo, detto controllo adattativo della potenza, che consente di ridurre la potenza emessa dall’antenna al minimo necessario per una buona comunicazione con la stazione radio base. Il potenziale di riduzione è molto elevato: il livello di potenza più basso previsto dallo standard GSM è infatti circa 1000 volte inferiore al valore massimo. Un funzionamento del telefono a bassa potenza avrebbe dei vantaggi per l’autonomia della batteria (è questa la ragione principale per cui il dispositivo è stato realizzato), ma anche per l’esposizione dell’utente perché a ogni riduzione della potenza emessa corrisponde una riduzione proporzionale dell’energia elettromagnetica assorbita nella testa. Per comprendere appieno quest’ultimo vantaggio occorre tenere presente che l’esposizione dovuta ai telefonini è di ordini di grandezza (tipicamente 100-1000 volte) maggiore di quella dovuta a una stazione radio base, anche nelle situazioni più sfavorevoli. Naturalmente, perché si abbia una buona comunicazione – e quindi un’apprezzabile riduzione della potenza – occorre che la stazione radio base sia vicina all’utente, il più possibile libera da ostacoli e disponibile per il servizio (in caso contrario, il collegamento viene stabilito con un’altra antenna, che può essere anche molto più lontana e schermata da edifici e altre bariere). Misure come l’allontanamento delle antenne, o la riduzione del loro numero, adottate al fine di diminuire precauzionalmente di una piccola frazione percentuale i livelli di “inquinamento” ambientale, non solo non raggiungono questo obiettivo, ma aumentano drasticamente quelle esposizioni che, già in partenza, sono le più elevate. È significativo che, a fronte di un potenziale di riduzione quale quello già citato, in Italia i telefoni cellulari funzionino, in media, a potenze superiori al 50% della massima [8]. Il PdP per i campi elettromagnetici … 157 Un aspetto peculiare delle politiche cautelative è la speciale attenzione per i siti “sensibili”, primi tra tutti scuole e ospedali, motivata più dalle reazioni emotive dei cittadini che da una reale consapevolezza dei problemi e da adeguate valutazioni tecnico-scientifiche. Il problema non è soltanto italiano, anche se nel nostro paese si presenta in modo assai più evidente che altrove. Un rapporto parlamentare francese cita «ciò che è avvenuto a Marsiglia: una scuola, che aveva ottenuto lo smantellamento di un’antenna installata sul tetto del suo edificio, ha constatato che il livello di radiazioni nel cortile era aumentato in seguito a questa esposizione. In effetti, le reti di telefonia mobile aggiustano la potenza emessa dalle stazioni radio base in modo da assicurare una buona copertura del territorio. Eliminando l’emittente situata sulla scuola, si era provocato l’aumento delle antenne vicine. Ciò nonostante, residenti ed associazioni continuano a reclamare l’allontanamento o lo smantellamento delle stazioni radio base» [9]. In realtà, scuole, asili nido e altri luoghi deputati all’infanzia costituiscono nel nostro paese un tabù, e la proibizione di installare antenne nelle loro vicinanze costituisce un dogma. Lo stesso vale per ospedali e case di cura, dove abbondano proibizioni e restrizioni per tutto ciò che riguarda, ad esempio, la telefonia mobile. Non è raro incontrare segnali di divieto dell’uso del telefono cellulare in ambienti come corsie, sale di aspetto, sale gessi o locali di fisioterapia, quando il divieto non sia addirittura esteso all’intero complesso ospedaliero. Per quanto riguarda le stazioni radio base, la loro installazione all’interno di una struttura sanitaria o nelle sue immediate vicinanze è probabilmente inconcepibile per il cittadino comune e di fatto vietata da molte amministrazioni. L’uso dei telefoni cellulari in ospedale presenta invece notevoli vantaggi, sia per i pazienti in termini di conforto psicologico, sia per i medici in termini di reperibilità e di rapido scambio di informazioni. È significativo che dagli stessi medici giungano, anche attraverso riviste autorevoli, appelli per agevolarlo [10]. Per contro, i problemi che i telefoni pongono sono limitati, ben compresi e, come tali, del tutto prevenibili con azioni adeguate. I segnali emessi da un telefono cellulare possono interferire con apparati elettromedicali, introducendo segnali spuri in strumenti diagnostici come elettrocardiografi ed elettroencefalografi, o causando mal- 158 I costi della non-scienza funzionamenti di vario genere. Per prevenire questi effetti e garantire la cosiddetta compatibilità elettromagnetica esistono però delle norme tecniche, che stabiliscono dei livelli minimi di campo elettrico o magnetico ai quali i dispositivi elettromedicali devono essere immuni. Alle frequenze proprie della telefonia cellulare questo livello, in termini di campo elettrico, è di 3 V/m (volt al metro), un valore che il campo prodotto da un telefonino che funzioni al massimo della potenza può superare entro un raggio di circa 3 metri [11]. Sarebbe quindi sufficiente raccomandare questa distanza di sicurezza per prevenire qualunque inconveniente; per maggior sicurezza, e per semplicità di applicazione, si potrebbe comunque proibire l’uso dei telefoni cellulari in ambienti ben precisi come sale operatorie, di rianimazione e di terapia intensiva, o vicino ad apparecchiature particolari. Raccomandazioni in questo senso vengono sia dagli esperti tecnici [12], sia dalla comunità protezionistica [13]. Le stesse fonti fanno anche notare che, come già discusso in queste note, la potenza emessa dal telefono, e conseguentemente la probabilità e la gravità delle interferenze, è tanto più bassa quanto più la stazione radio base è vicina; pertanto non solo non si proibisce, ma addirittura si raccomanda l’installazione di antenne all’interno degli ospedali, una prassi effettivamente diffusa in molti paesi diversi dal nostro. Le misure pratiche adottate a titolo precauzionale possono quindi, in molte circostanze, aggravare oggettivamente la situazione, aumentando i livelli di esposizione e conseguentemente i rischi, sia quelli ipotetici di effetti diretti sulla salute, sia quelli reali di effetti indiretti connessi a malfunzionamenti degli apparati medicali. Ma le implicazioni di una politica ispirata al Principio di Precauzione vanno molto al di là dell’efficacia delle misure di riduzione del presunto inquinamento ed interessano la salute umana sotto altri profili. A questo proposito, è opportuno chiedersi se la domanda di politiche cautelative sia motivata da rischi che sono stati effettivamente indicati dalla ricerca scientifica o, piuttosto, dalla percezione che degli stessi rischi i cittadini maturano per effetto delle informazioni che ricevono. La già citata OMS raccomanda infatti di adottare misure diverse nei due casi: nei confronti di effetti sulla salute che siano stati accertati e scientificamente valutati è opportuno agire con norme coercitive (come l’imposizione di limiti di esposizione), mentre per Il PdP per i campi elettromagnetici … 159 fronteggiare le preoccupazioni del pubblico si può considerare, accanto ad una corretta informazione, anche l’opportunità di misure di precauzione su base volontaria. Siccome gli obiettivi sono diversi, anche l’efficacia delle misure adottate deve essere valutata in modo diverso: nel primo caso si deve considerare quanto esse possano ridurre i casi sanitari documentati, nel secondo quanto possano ridurre le preoccupazioni dei cittadini e le tensioni sociali. Si possono esaminare in quest’ottica le recenti normative italiane che prevedono, come è noto, sia limiti di esposizione inferiori a quelli accettati internazionalmente (chiamati valori di attenzione), sia la minimizzazione delle esposizioni mediante il perseguimento di obiettivi di qualità. Appaiono significative in proposito le considerazioni di un comitato internazionale di esperti, incaricato dal governo italiano di esprimere un giudizio sulle nostre normative nazionali [14]. Per quanto riguarda i valori di attenzione il comitato rileva che «la scelta di limiti di esposizione impossibili da giustificare, sia scientificamente, sia logicamente, ha già creato una certa sfiducia nella scienza, e nelle autorità». In questa critica concorda con l’OMS, la quale fa notare che «un requisito di principio è che [le politiche cautelative] siano adottate solo a condizione che valutazioni di rischio e limiti di esposizione fondati su basi scientifiche non siano minati dall’adozione di approcci cautelativi arbitrari. Ciò si verificherebbe, ad esempio, se i valori limite venissero abbassati fino a livelli tali da non avere alcuna relazione con i rischi accertati, o se fossero modificati in modo improprio ed arbitrario per tener conto delle incertezze scientifiche». La “minimizzazione” corrisponde invece al criterio di ridurre le esposizioni causate da una determinata tecnologia al livello minimo compatibile con la qualità del servizio. Questo livello minimo corrisponde, nella legge quadro italiana per la protezione dai campi elettromagnetici, all’obiettivo di qualità. Prescindendo dalle difficoltà e dalle possibili arbitrarietà nella valutazione della bontà del servizio, anche questo criterio non può essere sostenuto senza solide conoscenze e giustificazioni. Il comitato internazionale nota in proposito che «in assenza di un criterio costo-beneficio e di una spiegazione delle considerazioni di ordine sociale e politico, minimizzare l’esposizione non ha senso, poiché se ulteriori riduzioni sono (quasi) sempre possibili, esse però, verosimilmente, avranno effetti nulli o discutibili per la salute». 160 I costi della non-scienza Anche la qualità del servizio ha comunque una sua importanza non solo dal punto di vista pratico – come è ovvio – ma anche da quello sanitario. Negli Stati Uniti si stima che se il telefono cellulare venisse usato solo per il 10% delle chiamate di emergenza e il suo uso riducesse solo del 10% i tempi di intervento, si salverebbero nel paese circa 100 vite umane all’anno [15]. Una rete telefonica in cui le antenne fossero ridotte al minimo o posizionate in modo non ottimale, eventualmente per motivi precauzionali, causerebbe inevitabilmente mancati collegamenti e cadute di linea. Non sono disponibili dati su questi disservizi in Italia (anche per comprensibili ragioni commerciali), ma non è irragionevole ipotizzare un numero significativo di mancati o ritardati interventi di emergenza. Alcuni casi, particolarmente drammatici, sono stati peraltro riportati anche dai mezzi di informazione. Tornando alle valutazioni del comitato internazionale, quest’ultimo ritiene che “l’adozione di limiti di esposizione ai campi elettromagnetici restrittivi ed arbitrari da parte di singoli paesi tende ad accrescere la preoccupazione del pubblico, piuttosto che a ridurre le perplessità e le controversie”. Questa osservazione è fondamentale, e può essere estesa dalle norme di legge alle azioni cautelative in genere: qualunque misura adottata in nome del Principio di Precauzione, anche se a costo zero o minimo, viene facilmente interpretata dal pubblico come la prova dell’effettiva esistenza di un rischio. Una prova spesso più convincente di qualunque dato scientifico. Esemplare in questo senso è l’esperienza della Francia. Un rapporto dell’Agenzia Francese per la Sicurezza Sanitaria Ambientale [16] discute ampiamente, in relazione alla presenza di stazioni radio base, il caso dei siti “sensibili”, come scuole, ospedali e asili nido. Per questi, un precedente documento aveva raccomandato che, nel caso di distanze dall’antenna inferiori a 100 metri, il fascio di irradiazione non investisse direttamente gli edifici. Una raccomandazione molto più blanda delle prescrizioni italiane, ma che aveva comunque «come principale obiettivo di cercare di attenuare alcune apprensioni del pubblico, che tuttora permangono senza giustificazione sanitaria». A distanza di soli due anni, l’AFSSE, mentre ribadisce che «non sembravano esistere giustificazioni sanitarie per questa specificità dei siti sensibili, essendo la sensibilità legata alla percezione del rischio e non a un rischio sanitario identificato» constata che «la raccomandazione Il PdP per i campi elettromagnetici … 161 del rapporto del 2001, che mirava a rassicurare, ha sortito l’effetto opposto. Il gruppo di esperti non sostiene quindi più la necessità di questa nozione di sito sensibile in relazione alle stazioni radio base. Questa conclusione si applica in modo particolare alle scuole, per le quali la percezione del rischio è stata la più acuta». Le politiche precauzionali possono quindi facilmente far aumentare la percezione dei rischi, che a sua volta dà luogo ad una richiesta di maggior precauzione innescando così un circolo vizioso. In ogni caso, le preoccupazioni e le tensioni sociali che vengono a crearsi o ad esasperarsi costituiscono un danno oggettivo per la salute, intesa nel suo significato più ampio. La salute viene infatti definita dall’OMS come «uno stato di completo benessere fisico, mentale e sociale e non semplicemente l’assenza di malattie o infermità» [17]. Qualunque politica sanitaria, comprese quelle ispirate alla precauzione, deve prestare uguale attenzione a tutte e tre queste componenti. In conclusione, il Principio di Precauzione sembra valere più come una linea di indirizzo che come uno strumento operativo. Di fronte agli sviluppi tecnologici e agli interrogativi che questi pongono è senz’altro opportuno agire, per i campi elettromagnetici come per qualunque altro agente, all’interno di un quadro di cautela, in cui tutti gli elementi scientifici e sociali siano tenuti in conto. La precauzione è però giustificata e doverosa nei limiti in cui contribuisce ad un’effettiva riduzione dei rischi e ad un’effettiva tutela della salute. L’esperienza dimostra che presunte misure precauzionali adottate senza adeguate basi scientifiche e competenze tecniche accrescono invece le preoccupazioni dei cittadini e possono talvolta addirittura aumentare, anziché diminuire, le esposizioni. Riferimenti [1] OMS (2000). Campi elettromagnetici e salute pubblica – Politiche cautelative. Promemoria Marzo 2000. www.who.int/docstore/peh-emf /publications/facts_press/ifact/cautionary-FS-italian.htm [2] European Commission – DG XXIV (1998). Guidelines on the application of the precautionary principle. HB/hb d (98). 17/10/1998. [3] Commissione Europea (2000) Comunicazione della Commissione sul Principio di Precauzione COM(2000) 1 02/02/2000 www.europa.eu.int/comm/dgs/health_consumer/library/pub/pub07_it.pdf 162 I costi della non-scienza [4] I criteri di classificazione dell’Agenzia Internazionale per la Ricerca sul Cancro, così come l’elenco completo degli agenti classificati, sono disponibili sul sito della IARC: www.iarc.fr [5] OMS (1998). Campi elettromagnetici e salute pubblica. Effetti sanitari dei campi a radiofrequenza. Promemoria n. 183 www.who.int/docstore/peh-emf/publications/facts_press//ifact/ it_183.html [6] Petrini C., Polichetti A., Vecchia P., Lagorio S. (2001). Assessment of exposure to 50 Hz magnetic fields from power lines in Italy. In: Proceedings of the 5th International Congress of the European Bioelectromagnetics Association (EBEA). Helsinki, 6-8 September 2001, pp. 139-141. [7] Curcuruto S., Elia L., Franchi A., Andreuccetti D., Vecchia P., Martuzzi M., D’Amore M. (2001). Valutazione tecnico-economica degli interventi di risanamento ambientale delle linee elettriche del sistema nazionale. Rapporto 3/2001. ANPA, Roma [8] Ardoino L., Barbieri E., Vecchia P. (In press). Determinants of exposure to electromagnetic fields from mobile phones. Radiation Protection Dosimetry. [9] Lorrain J.J., Raoul D. (2002). Rapport sur l’incidence éventuelle de la téléphonie mobile sur la santé. Assemblée National N. 346; Sénat N. 52. www.senat.fr/rap/r02-052/r02-052.html [10] Myerson S.G., Mitchell A.R.J. (2003). Mobile phones in hospitals. Are not as hazardous as believed and should be allowed at least in non-clinical areas. British Medical Journal 326:460-461 (Editorial). [11] Sykes S. (Ed.) (1996). Electromagnetic compatibility for medical devices. Association for the Advancement of Medical Instrumentation (AAMI). Arlington, VA. [12] Morrisey J.J., Swicord M., Balzano Q. (2002). Characterization of electromagnetic interference of medical devices in the hospital due to cell phones. Health Physics 82:45-51. [13] Hietanen M., Sibakov V., Hällfors S., von Nandelstadh P. (2000). Safe use of mobile phones in hospitals. Health Physics 79 (Supplement 2):S77-S84. [14] ANPA (2002). Dichiarazione del Comitato internazionale di valutazione per l’indagine sui rischi sanitari dell’esposizione ai campi elettrici, magnetici ed elettromagnetici (CEM). Agenzia Nazionale per la Protezione dell’Ambiente, Roma. [15] Dati comunicati nel corso della “Conference on mobile communications: Health, environment and society” organizzata da Commissione Europea, GSM Europe e MMF. Bruxelles, 20-21 gennaio 2004. Il PdP per i campi elettromagnetici … 163 [16] AFSSE (2003). Téléphonie mobile et santé. Rapport à l’Agence Française de Securité Sanitaire Environmentale. 21/03/2003. www.afsse.fr/documents/AFSSE_TM_experts.pdf [17] Dallo Statuto dell’Organizzazione Mondiale della Sanità. www.who.int 165 IL PARADOSSO DEI RIFIUTI Luciano Caglioti Università di Roma La Sapienza D evo confessare di avere sempre avuto un atteggiamento ottimista nei confronti del nostro paese, che ritengo sia uno dei paesi più vivaci in assoluto e che certamente ha un pregio preciso: una persona si sveglia la mattina e sa che prima di sera avrà imparato qualcosa di particolare, di strano, ma, in genere, intelligente. Un giorno, ero rientrato in casa alle 20:30 e non mi era ancora successo nulla di interessante sotto il profilo sopra accennato. Ma, accendendo il televisore, al telegiornale vidi quello che ritengo il massimo. Il massimo era costituito da una notizia, illustrata da un filmato, in cui si vedeva un treno che partendo dalla Campania andava in Germania carico di rifiuti. E fin qui non si era ancora raggiunto il massimo. Che invece si raggiunse nel commento del cronista, che diceva: «scortato dalle forze dell’ordine». Allora, l’idea che un treno carico di rifiuti urbani parta dalla Campania per andare in Germania scortato dalla polizia, a guisa di film di 007 con l’oro di Fort Knox, raggiunge quasi il massimo tra le cose da imparare che l’Italia quotidianamente ci propina. Riavutomi dall’ammirato stupore mi sono detto: qui c’è qualche cosa di fantastico e qui c’è quello che si chiama il “paradosso dei rifiuti” cioè un sistema così ingarbugliato, così pazzesco, che merita qualche considerazione. Io credo che alla base del fenomeno dei rifiuti – che è un fenomeno di accettazione sociale, di pressioni e di malavita – ci sia una pecca del sistema-Italia. Lessi una volta sul giornale una frase di Nenni che mi sono ritagliato e che considero bellissima (cito a memoria): «se io dovessi dire, dopo tanti anni di militanza socialista, quello che più rimpiango, è l’aver negletto e trascurato delle cose che si potevano fare – di modeste dimensioni ma utili – nell’attesa di qualcosa di 166 I costi della non-scienza bellissimo, formidabile, ma impossibile». È questo il massimalismo. In Italia o si fa qualcosa di perfetto o non si fa nulla: la centrale è perfetta o non si costruisce, l’inceneritore o è perfetto o non si installa e questo è un qualcosa che fa da trampolino per tutto quello che è l’ambientalismo. Io ho lavorato per un certo periodo come collaboratore dell’ENEL, dove cercavamo di salvare il salvabile dalle numerose accuse che quest’ente riceveva per quanto riguardava i progetti di nuove centrali. Qual era il punto? Si era scatenato il massimalismo che consisteva in questo: siccome non si riesce a costruire una centrale nuova e perfetta si lasciano in funzione delle centrali che, essendo state costruite 30 anni prima, inevitabilmente non possono fruire di tanti accorgimenti tecnologici di cautela. Qualcosa d’analogo avviene per i farmaci. Le normative sulla registrazione dei farmaci consentono di approvare solo medicamenti “perfetti”. Il che significa che se una ditta mette a punto un analgesico migliore di quelli in commercio ma non perfetto, non riesce a smerciarlo e così si rinuncia a priori ad un progresso parziale nel nome, nell’attesa, nell’ansia, di chissà mai cosa. Questa mentalità, credo, è veramente alla base di un combinato disposto di ignoranza, debolezza del governo (quale esso sia) e di malavita, e quindi un miscuglio dirompente. È chiaro che l’esempio del treno – e, soprattutto, della scorta – lasciano pensare che c’è qualcosa che non va. E ricordo di aver letto sul Corriere della Sera – era il 1995 o il 1996 – che una procura aveva incriminato, per associazione a delinquere di stampo mafioso, un gruppo di persone che avevano incitato gli ecologisti a bloccare un inceneritore. Evidentemente in certi casi c’è una serie di interessi per cui arrivare ad un controllo sereno e serio è certamente una impresa improba. Dove andava questo treno? Andava in Germania perché lì ci sono degli inceneritori efficienti, mentre in Italia questi inceneritori ci sono fino ad un certo punto ed alcune volte non ci sono proprio. Vediamo le dimensioni del problema. Grazie alla documentazione fornitami cortesemente dal Prof. Liuzzo, risultano: 30 milioni di rifiuti urbani prodotti in un anno, 450 chili a persona, 2.300 kcal di potere combustibile, quindi una metà o un quarto rispetto all’olio combustibile. Qualcosa che si potrebbe certamente utilizzare purché si accetti Il paradosso dei rifiuti 167 l’incenerimento. In Europa, il 25% dei rifiuti viene bruciato ed utilizzato per la produzione di energia elettrica e di calore, con un ciclo combinato da sfruttare come riscaldamento domestico. In Italia, solo l’8% viene bruciato (soprattutto nelle regioni del Nord), il 72% va in discarica, il 10% va a formare del combustibile da rifiuti, che qualche volta viene utilizzato e qualche altra no. Produrre energia elettrica attraverso un incenerimento significa anche avere un guadagno ambientale, in quanto gli inceneritori sono più controllati delle centrali e quella frazione di energia elettrica che si produce bruciando rifiuti, la si produce con degli accorgimenti ambientali migliori di quelli (peraltro già ottimi), delle normali centrali elettriche. Per cui bruciando i rifiuti si ha addirittura un vantaggio. Qui scatta l’altro fenomeno della serie “occhio non vede cuore non duole”, perché quando si trascura completamente il problema e si affida la gestione dei rifiuti ad un sistema in rilevante parte clandestino, è evidente che i gestori non prenderanno tutti gli accorgimenti, però l’importante è che qualcuno se ne occupi. Vediamo se siamo noi che siamo più bravi degli altri in quanto riusciamo a mandarli via, sia pure a pagamento, in Germania o sono gli altri che sono dei suicidi ad accettarli. Zurigo, Vienna, Londra, Parigi e Francoforte hanno, in piena città, degli inceneritori da 1.000 a 1.500 tonnellate al giorno di capacità, mentre New York ha una centrale nucleare a circa 20 km dalla città. Cosa significa questo? Vuol dire che la gente si rende conto che se vuoi fare un appartamento devi costruire un gabinetto e uno scarico e quindi c’è una parte che potrebbe essere fastidiosa ma della quale ci si deve occupare. Questa mattina qualcuno ha detto: mai prendere in assoluto un problema ma cercare di inquadrarlo nel relativo, cioè nel contesto di cose simili tra le quali questo problema si verifica. Bene, prendiamo gli inceneritori che hanno un impatto ambientale minimo: rispetto all’inquinamento, stare un mese sotto un inceneritore corrisponde a stare un quarto d’ora in Via del Tritone a Roma. Per coloro che amano la campagna, un taglia-erba a due tempi equivale a 156 automobili; i 4 inceneritori della Regione Lazio sono equivalenti – rispetto all’ossido di carbonio – a 9 ciclomotori; rispetto ai composti organici volatili e incombusti equivalgono a 3 motorini. Nel 1977, un anno dopo Seveso, nell’inceneritore di Amsterdam qualcuno ebbe la ventura di trova- 168 I costi della non-scienza re della diossina, e allora ci fu un inasprimento per la diossina, che divenne di colpo il punto di massima osservazione e di massimo timore. Ricordo che col prof. Righi, andammo in un deposito di alternatori dell’ENEL chiuso e inarrivabile, ove il problema era se l’olio contenesse o meno più di 10-14 (numeri pazzeschi) di furani o diossine, e se si doveva considerare “rifiuto pericoloso” solo l’olio o tutto l’impianto, compreso l’alternatore. Nel qual caso la quantità di “rifiuto pericoloso” ovviamente cresceva: soldi persi, dedicati a problemi insignificanti, rispetto a quello dei rifiuti veri in giro in piena estate. Tre inceneritori sono pari ad un’automobile come emissione, l’inceneritore emette l’1,3% rispetto alla dieta quotidiana di ognuno di noi. Come stare un minuto davanti ad un barbecue o fumare una sigaretta. Eppure, si è arrivati ad una sofisticazione di misure di sicurezza oltre che alta anche sproporzionata. In particolare, se si pensa che di automobili e di taglia-erba in giro ce ne sono tanti, risulta chiaro che si può pure pretendere la cosa migliore possibile in materia di inceneritori e in materia di diossina, ma rimane ancora tutto il resto del quale ti devi occupare. Per i rifiuti radioattivi, ci sono decine di depositi che non sono concepiti come tali, ma sono dei luoghi in cui qualcuno mette rifiuti radioattivi che il paese produce (quelli della diagnostica medica o quelli provenienti dalle centrali dismesse). Sinceramente, l’idea di confinare rifiuti, siano essi radioattivi, o particolarmente tossici e nocivi, in miniere di sale o zolfo, in cui, quindi, non c’è acqua, e c’è una cuffia assorbente intorno (come quelle di carbone), sembrerebbe ragionevolissima, andrebbe percorsa e invece sembra non sia all’ordine del giorno. Viviamo un periodo di sostanziale deindustrializzazione perché la maggior parte delle industrie stanno andando via, il nostro sistema produttivo è a bassa-media tecnologia; da un altro telegiornale abbiamo potuto apprendere queste due cose: che era possibile che la Krupp cedesse ai coreani la produzione dell’acciaio, e c’era la notizia che i coreani avevano fatto per scopi di approvvigionamento di materiale utile potenzialmente per terapia, una clonazione umana a pochissimi stadi di sviluppo. Allora la convinzione che noi venissimo erosi dai coreani e cinesi solo per la parte a bassa tecnologia non è esatta: in realtà, c’è chi verticalizza anche fra i paesi emergenti, che fanno clona- Il paradosso dei rifiuti 169 zioni per scopi terapeutici. Il che implica il possesso di una cultura di fondo, che ci deve far riflettere giacché da noi manca. Quello dei rifiuti è l’esempio di uno spreco di denaro, di un’incapacità di azione senza uguali, e anche di peggio per quanto riguarda le scorte necessarie al trasporto. In Italia, purtroppo, sta prendendo la mano questa deindustrializzazione, questo fatto che gli acquirenti stranieri delle nostre imprese spesso ridimensionano i centri di ricerca, in un momento in cui i paesi emergenti si mettono a fare medicina e probabilmente riusciranno prima di noi. Tutto questo, purtroppo, dà ragione a chi si pone il problema dell’avvenire: noi, infatti, mandiamo i carri armati a distruggere i campi di mais per paura del transgenico, noi proibiamo le cellule staminali, noi stiamo chiudendo totalmente settori che sono invece pieni di prospettive e di possibilità per la creazione di ricchezza. 170 I costi della non-scienza 171 PROSPETTIVE DELL’ECONOMIA A IDROGENO Cesare Marchetti IIASA, Laxenburg, Austria V erso la metà degli anni Sessanta, meditando sul futuro dell’energia, venni alla conclusione che per liberarsi dalla stretta dei combustibili fossili bisognava agganciare il sistema energetico al nucleare per il 100%. All’epoca si pensava alla produzione dell’elettricità come tetto per l’utilizzo del nucleare, ma poiché questa assorbirà al limite il 50% delle risorse primarie, basta un raddoppio dei consumi per tornare al punto di partenza. Il consumo di energia è raddoppiato ogni trenta anni negli ultimi duecento anni e, con due terzi dell’umanità in rincorsa per il benessere, continuerà a raddoppiare ancora per un po’. Si parlò, all’epoca, di fare un sistema tutto elettrico, ma a parte che molte tecnologie sarebbero ancora da inventare, la sostanziale non accumulabilità dell’energia elettrica costringerebbe a dimensionare tutto il sistema sulla domanda di picco. Appare dunque molto opportuno un vettore energetico chimico per i consumi non elettrici. La facile scelta cadde sull’idrogeno, che nasce dall’acqua e torna all’acqua, non inquina e si trasporta facilmente come il gas metano. L’idrogeno d’altronde, è una vecchia conoscenza energetica: il gas di città che illuminava e riscaldava le grandi città europee fino alla seconda guerra mondiale era anche idrogeno. Incidentalmente, anche il primo motore a scoppio di Matteucci-Barsanti andava ad idrogeno. Feci una ricerca bibliografica per vedere come si stava a tecnologie d’uso e trovai con sorpresa che ogni genere di uso finale era all’epoca studiato da qualcuno. C’erano perfino le lampade fluorescenti, in cui il fosforo veniva direttamente eccitato dalla ossidazione dell’idrogeno catalizzata dal fosforo stesso. Negli anni Cinquanta un aereo militare americano aveva volato usando idrogeno, cosa che del resto facevano 172 I costi della non-scienza gli Zeppelin per utilizzare l’idrogeno di ballast che altrimenti sarebbe andato perduto. Ma la cosa più affascinante che uscì dalla ricerca era la possibilità di produrre alimenti per gli astronauti usando idrogeno come materia prima. C’è qui la possibilità di liberare l’uomo dall’agricoltura, con tutte le conseguenze sociali e politiche che questo comporta. La cosa era da attendersi visto che in ultima analisi la clorofilla usa l’energia solare per decomporre l’acqua in idrogeno ed ossigeno e l’idrogeno per poi ridurre la CO2 a carboidrati. Uno dei problemi non sufficientemente sviscerati e su cui lavorai negli anni Settanta fu quello del perché l’uomo negli ultimi due secoli è passato dal legno al carbone e poi al petrolio per soddisfare i propri bisogni energetici. La banale risposta che si trova sui libri è che le foreste erano state super-sfruttate e dunque esaurite. La cosa può esser vera localmente, ma ancora oggi le foreste nel mondo hanno, diciamo, 100 TW sotto forma di biomassa. L’umanità consuma circa 10 TW, non si vede dunque il problema delle risorse. Si può dire che le foreste sono sparse per il mondo, ma lo stesso vale per i campi petroliferi. Un ragionamento analogo si può fare per il carbone. Il punto chiave secondo me è che lo sfruttamento delle foreste non ha molte economie di scala: tagliare due alberi costa il doppio che tagliare un albero. Neppure l’argomento della facilità di uso ha molto peso. È vero che mandare un’auto a legna impiccerebbe, ma le grandi città come Parigi nel secolo scorso facevano un grande uso di metanolo, distillato dal legno, ed ottimo combustibile per le auto. D’altra parte, nessuno usa petrolio greggio per accendere i motori, ma ci vuole l’elaborazione di complesse raffinerie. Dopo un’attenta analisi delle transizioni, sono giunto alla conclusione che il parametro chiave che porta alla sostituzione sono le economie di scala. La forza propulsiva viene dall’espansione del mercato, cioè il consumo totale, ed anche dalla densità spaziale del consumo. Questo processo di trascinamento si vede più chiaramente all’interno di una data tecnologia. Consideriamo, ad esempio, il sistema elettrico. Qui una centrale “vede” attraverso le sue linee di distribuzione un certo mercato definito dai costi di trasporto e dalla densità spaziale dell’uso di energia elettrica. La potenza del generatore è aggiustata di conseguenza. Se la densità spaziale del consumo cresce, il mercato “vi- Prospettive dell’economia a idrogeno 173 sto” dalla centrale cresce anche più rapidamente perché le linee possono usare tensioni più alte e portare l’energia più lontano. Le splendide statistiche del mercato americano permettono di seguire il processo più o meno fin dal tempo di Edison e mostrano, a fianco di un raddoppio dei consumi ogni sette anni, un raddoppio delle potenze unitarie dei generatori ogni sei anni. In soli 100 anni questi generatori sono passati dai 10 kWe del Jumbo Dinamo di Edison al gigawatt dei generatori di oggi. Un incredibile salto di un fattore 100.000. Senza effetti così teatrali la capacità degli aerei misurata in passeggeri-km/ora è aumentata di 100 volte in 50 anni in stretta concomitanza con l’aumento del traffico, cosìcché il numero degli aerei commerciali è rimasto costante fino a pochi anni fa (regola interrotta dalla mancanza di un aereo da 1.000 posti, ora in costruzione). La sostanza di tutte queste osservazioni è che se vogliamo sfruttare una tecnologia destinata al successo dobbiamo far sì che le economie di scala facciano parte della sua evoluzione. Dal punto di vista della distribuzione, l’idrogeno, come vettore energetico, pone già solide basi. In effetti, esso possiede un’alta trasportabilità come gas. Con l’aiuto della SNAM facemmo un po’ di conti ad ISPRA trovando che il trasporto in grandi pipelines costava più o meno come quello del metano. Una centrale di produzione potrebbe così “vedere” un continente. Se si pensa all’H2 trasportato da cryotankers simili alle metaniere, il mondo diventa il mercato. Dal punto di vista della produzione siamo ancora all’anno zero. I reattori ci sono, però con taglie adattate al mercato elettrico e dunque nell’ordine del GW. Il mercato mondiale dell’energia appoggiato ai cryotankers ci porta sull’ordine del terawatt, cioè tre ordini di grandezza di più. Inoltre, anche il processo di decomposizione dell’acqua deve avere la possibilità della grande taglia e di economie di scala conseguenti. Per quanto riguarda i reattori, negli anni Sessanta, quando i costi erano ancora trasparenti, trovai che per reattori di caratteristiche simili il costo cresceva con la radice quadrata delle dimensioni, una relazione – questa – paragonabile a quella per gli impianti chimici. La logica strategica ci porta dunque verso grandissimi reattori nucleari associati ad impianti chimici per la produzione dell’idrogeno. Il nucleare ha sofferto di una cattiva informazione negli ultimi anni ma, come dimostrai in un paper di 15 anni fa, Nuclear Energy and Society, 174 I costi della non-scienza la caduta nel ritmo di costruzione delle centrali è legata ai cicli economici di Kondratiev e la loro costruzione rispetta perfettamente il modello. Anche le acciaierie e le fabbriche di automobili, d’altronde, hanno seguito una stasi parallela. Previdi anche che la costruzione di centrali sarebbe ripartita con il ciclo successivo, cioè ora. È molto curioso osservare come in parallelo si stiano ammorbidendo le posizioni degli antinuclearisti. È di questi giorni la dichiarazione di James Lovelock, padre del concetto di Gaia ed ovviamente molto ecologista: «Nuclear Power is the only green solution. We have no time to experiment with visionary energy sources: civilization is in imminent danger» 1. Incidentalmente, gli USA pur senza costruire nuove centrali hanno aumentato la produzione di quelle esistenti di un buon 30% migliorando la loro disponibilità e ne hanno prolungato la vita di vari decenni. Sulle scelte strategiche per l’idrogeno come vettore dell’energia nucleare Una volta identificato il vettore, nel mio laboratorio di Ispra, cominciammo a pensare come produrlo, a partire dall’acqua e dal calore nucleare. La soluzione banale fu di farlo per elettrolisi ma la scartammo con vari argomenti: primo, l’elettrolisi è un processo in serie, il che aumenta i costi e diminuisce i rendimenti; secondo, esso non ha economie di scala, venendo così contro ad uno dei criteri strategici. Bisogna infatti sempre tener presente la dimensione del sistema energetico: 10 TW o 10 miliardi di tonnellate di carbone equivalente all’anno sono tanti, l’industria energetica è la più grande del mondo da qualsiasi parte la si guardi, e chi si gingilla con il solare od il vento non ha afferrato la dimensione del problema, presente e futuro. Ci concentrammo così sui metodi chimici i cui impianti hanno di solito forti economie di scala. Cominciammo a sviluppare, di conseguenza, una serie di processi, i Mark-X, che possono essere visti come scatole nere in cui da un lato 1 L’energia nucleare è la sola soluzione verde. Non abbiamo tempo per fare esperimenti con immaginifiche sorgenti di energia: la civiltà sta correndo un imminente pericolo (24 maggio 2004). Prospettive dell’economia a idrogeno 175 entrano acqua e calore ad alta temperatura, e dall’altro escono idrogeno, ossigeno, e calore a bassa temperatura. Tutta la chimica interna è a ciclo chiuso. Inventare un buon Mark è difficile perché ci sono tante condizioni al contorno. I composti chimici devono essere a buon mercato, compatibili con materiali più o meno esistenti; i prodotti devono essere facilmente separabili, etc. etc. Mettemmo in opera anche il computer che sulla base delle proprietà termodinamiche dei composti inventava dei cicli, ma fu un disastro per una ragione inaspettata: la maggior parte delle reazioni chimiche proposte, sia pur banali, non erano mai state studiate. La chimica inorganica, contrariamente a quello che si pensa, è tutta da scoprire. Pensammo astutamente di chiedere a dei professori universitari di far studiare queste reazioni come esercizi per gli studenti. La risposta unanime fu che loro non facevano “perder tempo” agli studenti per studiare reazioni “esotiche”. Così tutti i Mark X – ne abbiamo elencati una ventina, ma quelli possibili sono un numero infinito e questo dà speranza di trovarne uno supremo – sono usciti dalle fertili menti dei chimici. L’idea di base è che le temperature che un reattore nucleare può fornire sono insufficienti per fare un cracking diretto dell’acqua. I fusionisti ed i solari ci hanno fatto un pensierino, ma il problema è difficile, anche perché poi bisogna separare i prodotti in temperatura affinché non si ricombinino. Si può però rimediare facendo l’operazione in due tappe: in una si separa, ad esempio, l’idrogeno attaccando l’ossigeno ad una molecola che fornisce una certa energia libera; nella seconda si separa l’ossigeno. Ciascuna operazione si può fare con i cambi di energie libere accessibili con le temperature del reattore. Si devono però mandare le sostanze avanti ed indietro, per cui questi processi hanno tipicamente quattro reazioni. Termodinamicamente, però, si potrebbe far tutto in un solo colpo appoggiandosi ad una molecola che abbia una variazione di energia libera, nel campo delle temperature disponibili, equivalente a quella della decomposizione dell’acqua. La decomposizione dell’acido solforico non va molto lontano da questo obbiettivo, e per questo vari processi si appoggiano alla decomposizione termica dell’acido solforico con chiusure di varia ingegnosità. Con vari anni di lavoro li portammo fino a livello di table top e parziale dimostrazione, ma la burocrazia di Bruxelles intervenne dichiarando il tutto eccessivamente futuristico per i bisogni della Comunità 176 I costi della non-scienza Europea, e nel 1976 chiuse i fondi per le ricerche. Si da il caso, però, che nel 1973 avevo fatto una tournée in Giappone vendendo l’idea. In contemporanea, pubblicai sulla rivista CEER, giapponese, una visione globale e dettagliata sul funzionamento di una società tecnologica basata sull’idrogeno come vettore energetico in una memoria dal titolo Hydrogen and Energy. Il concetto di economia dell’idrogeno è già tutto lì. Un particolare che prelude alla dimensione del sistema è la Energy Island impiantata all’interno di un atollo nel Pacifico e capace di produrre, in termini energetici, l’equivalente di un Medio Oriente: un Terawatt. La dimensione è definita dal mercato che il sistema di distribuzione “vede” e il cryotanker, come detto, vede il mondo. La feci anche operare in un renewable energy mode, più che altro per prendere in giro quelli che fanno del solare un feticcio perché dicono che non si esaurisce. Osservando che l’acqua di raffreddamento, pompata ad una certa profondità per ragioni termiche, trasporta un ordine di grandezza in più di uranio rispetto a quello fissionato nei reattori, proposi di estrarne una parte e mandare avanti i reattori con quello. Essendo pompata sotto la termoclina e buttata alla temperatura della superficie del mare (tanto per non lasciare firme termiche), quest’acqua non torna indietro. Tenuto conto delle dinamiche oceaniche si può andare avanti tranquillamente a estrarre per 10.000 anni. Nell’isola c’è anche incluso un sink ad auto-affondamento termico: i prodotti di fissione producono calore ed in opportuna configurazione fondono il terreno, e, essendo più densi, affondano. Il processo può durare per anni e le profondità finali possono essere di 10-20 km, abbastanza per sentirsi sicuri ed in più il sistema fa tutto da sé. Per verificare le equazioni, facemmo ad Ispra una serie di esperimenti in vivo usando dei giganteschi blocchi di salgemma portati su dalla Sicilia. Anche questo fu bloccato dalla commissione dei saggi con l’argomento che il problema del waste disposal era risolto e la nostra ricerca era ridondante. Però l’avevamo gia conclusa. L’Energy Island entusiasmò i giapponesi, che intravidero l’indipendenza energetica oltre alla possibilità di esportare auto con la dote di combustibile per farle funzionare. Sia pure con sforzo limitato, hanno poi sempre continuato a lavorare sui vari problemi ed ora hanno due processi di water splitting buoni (con rendimenti di almeno il 50%, e che possono naturalmente aumentare con lo sviluppo tecnologico, co- Prospettive dell’economia a idrogeno 177 me succede di solito), tre processi di estrazione di uranio dall’acqua di mare, ed un reattore ad alta temperatura appena finito di costruire. Argonne ha prodotto, ancora sulla carta, un breeder che funziona a 1.000 °C in bagno di piombo, è auto-regolante, non richiede refueling e si sostituisce dopo 25 anni. Le tecnologie convergono anche senza un coordinamento formale. Una volta prodotto, l’idrogeno va portato al consumatore finale. Marciando a ritroso, la distribuzione agli utenti con tubi non presenta problemi. A parte le vecchie città che erano cablate con il gas di città, ci sono oggi nel mondo migliaia di km di pipeline che portano idrogeno a pressioni varie per usi industriali. Nello studio che facemmo ad Ispra con l’aiuto della SNAM, venne fuori che il trasporto a distanza costa più o meno come quello del metano. Per il trasporto marino la scelta inevitabile è l’idrogeno liquido. Costa farlo, ma feci sparire il costo aggiuntivo nelle economie di scala che il mercato globale permette. Nel frattempo, c’è molto da fare nelle tecnologie di liquefazione. Per la tecnica, le metaniere servono da modello. Nella memoria sopra citata, schematizzai delle idrogeniere da un milione di tonnellate. Da uno studio precedente avevo visto, infatti, che la stazza delle petroliere dipende dalle tonnellate-km di petrolio trasportato, e il rapporto è in effetti una frazione fissa: essendo, in questo schema, tutta l’energia trasportata per mare, le ton-km sono molte. Quanto ci vuole a rendere il tutto operativo? In uno studio che ho fatto sull’interazione tra la società e le nuove tecnologie, come il treno o l’auto, si vede che per digerire l’idea ci vogliono trenta anni. Questi sono appena finiti e si osserva in effetti tutto un pullulare di iniziative per far qualcosa. I congressi per anno sono una cinquantina e ci sono anche i rallies per auto ad idrogeno. Queste iniziative imbarcheranno la tecnologia nel tessuto sociale e per questo ci vogliono altri trenta anni. In questo periodo l’idrogeno sostituirà gli altri combustibili in ordine sparso, come del resto è successo per carbone, petrolio e gas naturale che sono penetrati con simili costanti di tempo. Sia ben chiaro: viste le dimensioni del mercato, qualche percento di penetrazione mette in gioco mercati ricchissimi. C’è naturalmente il problema di dove cominciare. In un congresso a Mosca, una decina di anni fa, feci una proposta che appare ancora ragionevole ed ha degli importanti risvolti strategici. La Russia esporta oggi, cifra tonda, duecento miliardi 178 I costi della non-scienza di metri cubi di metano in Europa con poche grandi pipelines. La proposta era di fare il reforming di frazioni crescenti di questo metano usando calore nucleare e mettendo la CO2 in giacimenti petroliferi lungo la strada per stimolare la produzione terziaria, mescolando poi l’idrogeno prodotto al metano trasportato. La cosa è tecnicamente fattibile perché è stata studiata per almeno vent’anni nel centro nucleare di Julich dal professor Schulten con il suo reattore a grafite. Schulten pensava di trasportare il calore nucleare disfacendo e rifacendo il metano, ma la cosa non ha avuto successo industriale. I processi però restano e danno una base tecnica a quanto propongo. Lo scopo del congresso e la mia motivazione formale era quella di dare un po’ di contesto economico al processo di disposal della CO2 di cui miriadi di persone parlavano senza che poi si fosse fatto molto. C’erano dietro però altri due obbiettivi strategici. Innanzitutto, la dimensione dei reattori per fare energia elettrica è oggi di qualche GW perché questo richiede il mercato elettrico. Visti i flussi di metano in gioco questo reforming può accettare e magari richiedere reattori anche dieci volte più grandi. Si sarebbe così creato un “vivaio” per i reattori grandissimi che la produzione di idrogeno e l’isola energetica prediligono. Secondo, l’idrogeno si può mescolare al metano senza creare problemi agli utenti finali, diciamo fino al 20%. Questa miscela verrebbe automaticmente distribuita in tutta Europa e potrebbe aiutare a risolvere il problema di dove reperire l’idrogeno per tutte le iniziative, specie nel campo dei trasporti, che stanno oggi pullulando. Poiché è facile tirar fuori l’idrogeno dal metano, ci sarebbe così idrogeno per alimentare le auto e le varie altre sperimentazioni, con una infrastruttura continentale già operativa. I trasporti consumano forse il 30% dell’energia primaria, e sono un mercato interessante anche perché assai inquinante. In effetti tutti i produttori d’auto sgambettano per arrivare con un modello plausibile. Ce ne sono in giro una cinquantina. Anche la Fiat si dà da fare con una Seicento adattata all’uso dell’idrogeno con un pack di fuel cells da 50 kW. Essendo l’idrogeno un gas, il problema è come portarselo dietro. Ci sono molte soluzioni, nessuna del tutto soddisfacente. La Fiat usa quella più conservativa, le bombole di gas di cui oggi esistono modelli sofisticati, sviluppati appunto per l’idrogeno. Poiché l’idrogeno Prospettive dell’economia a idrogeno 179 nella tavola di Mendeleev è un metallo alcalino, ci si può aspettare che faccia delle leghe: le fa, e molte si decompongono a temperatura ambiente con pressioni di qualche atmosfera. Sono nati così una miriade di serbatoi ad idruri metallici, funzionali anche se un po’ pesanti. Per l’aereo l’unica soluzione è l’idrogeno liquido per cui non resta che costruirci l’aereo intorno: Airbus dedica un sostanziale sforzo alla sua progettazione. Anche costruttori di auto come BMW hanno optato per l’idrogeno liquido e messo in piedi un sistema completo all’aeroporto di Monaco con auto e bus. A questo punto nasce inevitabile la domanda: ma quanto costa? I prezzi, a priori, sono sempre piuttosto utopici. La pratica permette non solo di definirli, ma di diminuirli. La configurazione Isola Energetica contiene praticamente solo capitale, i costi discendono da interessi ed ammortamento. Più miti sono i costi dell’idrogeno da reforming del metano secondo lo schema presentato a Mosca. Vendendo la CO2 a dei petrolieri disposti a usarla in loco per il recupero terziario, i costi del reforming verrebbero riassorbiti. Ad ogni buon conto, il fisco tedesco si è già svegliato (buon segno), fissando una tassa per l’idrogeno da usare nei veicoli di circa 1,5 centesimi di Euro per kWh, fino al 2020. Questo è un punto fermo ed il prezzo parte da lì. Approfittando delle risorse della tecnologia non riporto bibliografia o note, si può scaricare tutto dal mio sito web http://www.cesaremarchetti.org/ 180 I costi della non-scienza 181 SFOGLIANDO I LIBRI DI TESTO DI SCIENZE PER LA SCUOLA Giovanni Vittorio Pallottino Università di Roma La Sapienza S fogliare con qualche attenzione i libri di testo di Scienze per le scuole è un esercizio che può risultare deprimente, ma che tuttavia è utile per capire molte cose che ci riguardano assai da vi- cino. La prima osservazione è che questi manuali sono generalmente noiosissimi: stile pedante, alla “Dicesi punto di rugiada …”, impiego disattento di terminologie inutilmente astruse, ed altro ancora 1. Ciò spiega le diffuse reazioni di rigetto dei ragazzi nei confronti di discipline che sono invece al tempo stesso affascinanti e di grande portata pratica. Un rigetto che non si manifesta poi soltanto nel basso livello della cultura scientifica della popolazione, ma arreca anche un contributo decisivo alla caduta dello status della scienza nella visione comune. La seconda osservazione è che quei libri sono costellati di ingenuità, di baggianate e di errori di fatto: vi si può addirittura trovare la proposta ai ragazzi, fatta in tutta serietà, di realizzare un moto perpetuo. La terza osservazione è per noi la più delicata. Si trova infatti che le questioni riguardanti l’energia e l’ambiente sono generalmente trattate seguendo gli indirizzi del più vieto ecologismo. Qui si riscontrano distorsioni dei fatti, omissioni mirate e accettazione acritica di quanto è ritenuto dagli autori “politicamente corretto”. Ciò contribuisce a spiegare, accanto all’opera dei mass media, la diffusione fra il pubblico di idee stravaganti. Del resto, se è vero che in Italia si legge poco, è anche vero che i libri scolastici penetrano in tutte le famiglie. E se questo 1 G. Flaccavento e N. Romano, La materia e la natura – La Terra nell’Universo, Fabbri Editori, 1998, pag. 20. 182 I costi della non-scienza è l’indottrinamento standard, propinato dalla scuola di stato, c’è poco da lamentarsi poi per i suoi effetti. Gli svarioni Qualche anno fa, sfogliando il già citato libro di testo di scienze per la scuola media – uno dei più diffusi – trovai una interessante proposta di esperimento nel paragrafo intitolato “L’acqua va… in salita”. Si suggeriva di sollevare dell’acqua da un recipiente in basso a uno in alto utilizzando una cordicella con un capo immerso nel primo recipiente e l’altro disposto al di sopra del secondo. L’Autore spiegava che l’acqua «per capillarità, sale lungo la corda e, raggiunta l’altra estremità, cade goccia dopo goccia nel recipiente posto in alto». Come del resto inequivocabilmente dimostrava una apposita chiarissima illustrazione. La proposta mi parve affascinante. Sia perché didatticamente assai efficace, dato che l’esperimento, facilmente realizzabile dall’allievo, aderiva pienamente al moderno paradigma del learning by doing; sia perché l’idea era densa di prospettive concettuali come dimostrazione pratica non soltanto del fenomeno della capillarità, ma soprattutto della fattibilità di un moto perpetuo. Sia, infine, come forte contributo al dibattito che avanza soluzioni semplici ed efficaci come alternative agli eccessi della big science: perché affrontare i problemi energetici attraverso costose e impegnative ricerche sulla fusione nucleare o sulle tecnologie fotovoltaiche quando soluzioni economiche ed ecologiche al tempo stesso sono a portata di mano? Ma l’episodio è tutt’altro che isolato. In quello stesso manuale e in altri consimili si può trovare una ricca messe di svarioni, a livello concettuale (come nel caso detto prima), a livello fattuale, e anche nei suggerimenti per le attività sperimentali e operative che vengono proposte ai ragazzi. Si può leggere, per esempio, che «ormai quasi tutti i tipi di aereo, militari o di linea, superano, ampiamente e in piena sicurezza, il muro del suono. Su ogni aereo è perciò installato uno strumento, il machmetro», e che, restando in argomento, il volo supersonico permette agli aerei militari “di arrivare sui bersagli prima che possa giungervi il rumore dei loro motori, evitando così di essere avvistati”. Troviamo anche che «un watt equivale a circa 1000 calorie» (non prima, però, di aver puntualizzato che «il watt, come la caloria, è Sfogliando i libri di testo di scienze per la scuola 183 una unità di misura dell’energia»). Oppure che «il gas inerte usato nelle lampadine ha la proprietà di rallentare la carbonizzazione del tungsteno». Suggerendo poi ai ragazzi osservazioni del tipo: «Se osservi tutto ciò che emette luce, vedrai che si tratta di corpi caldissimi», con buona pace delle lampade a scarica, dei LED e anche delle lucciole. E dedicando spazi incongrui (ben due pagine) ad argomenti come la cromoterapia, non mancando qui di stabilire puntualmente che il viola «è il colore più carico di energia, attenua il senso di appetito, riduce il ristagno dei liquidi ed è utile in caso di caduta dei capelli», con analoghe disquisizioni per tutti gli altri principali colori. Nulla ho trovato, invece, sulla cristalloterapia, ma a questa grave carenza si può facilmente rimediare collegandosi al sito ufficiale dell’Enel 2. Un’attenzione particolare trova l’argomento del moto perpetuo, dove a volte si propongono improbabili esperimenti, come quello menzionato prima, altre volte ci si limita a informare che: «Con il nome di moto perpetuo si indicano dei meccanismi che, pure essendo possibili in teoria, non possono mai essere realizzati nella pratica». Ma anche gli atomi sono ben rappresentati: «L’atomo è costituito da un nucleo, formato a sua volta da due tipi di particelle, i protoni e i neutroni, e da orbitali, spazi in cui è possibile trovare particelle di un altro tipo, gli elettroni». Sappiamo bene che delle scienze studiate a scuola nei crani dei ragazzi resta ben poco, certamente assai meno che delle materie umanistiche. Che si tratti, per quanto si è detto, di un caso fortunato? O vogliamo consolarci leggendo su Physics Today 3 che anche in Usa la situazione a questo riguardo è tutt’altro che rosea? Il terrorismo Più pericoloso degli svarioni, tuttavia, in quanto veramente insidioso, è il tono di fondamentalismo ambientalista e di opposizione al progresso tecnico-scientifico che emerge spesso nei contenuti dei manuali scolastici. Che a volte sembrano veramente ispirati dal fantasma evo2 http://www.enel.it/astroluce/newage/cristalloterapia/cose.asp J. Hubisz, «Middle-School Texts Don’t Make the Grade», Physics Today, 5, 50 (2003). 3 184 I costi della non-scienza cato nel Manifesto dell’associazione Galileo 2001: quel «fantasma che si aggira da tempo nel Paese, un fantasma che sparge allarmi ed evoca catastrofi, terrorizza le persone, addita la scienza e la tecnologia astrattamente intese come nemiche dell’Uomo e della Natura e induce ad atteggiamenti antiscientifici facendo leva su ingiustificate paure che oscurano le vie della ragione». Questa azione è particolarmente subdola in quanto sfrutta il canale istituzionale della scuola e si rivolge a una massa sterminata di ragazzi, naturalmente disposti a prendere per buono tutto quello che trovano scritto sui loro libri di testo (e non ci è chiaro se dovremmo sperare che li leggano o no). Alimentando così quelle forme di repulsione verso la scienza, e la tecnologia in generale, che sono oggi tanto diffuse nell’opinione corrente. Proprio nel momento, d’altra parte, in cui alla società si pongono scelte, sempre più difficili, su questioni che richiedono assieme cultura scientifica ed equilibrio. Si deve osservare, inoltre, che questo tipo di materiale appare chiaramente derivato dalla lettura degli articoli dei giornali, sempre aperti al catastrofismo, trascurando invece di avvalersi delle conoscenze messe assieme dalla comunità scientifica, rappresentate dalla letteratura scientifica e soprattutto dalle elaborazioni e dalle conclusioni degli organismi, nazionali e internazionali, a cui è affidato il compito istituzionale di stabilire i criteri di sicurezza per la salute e la protezione dell’ambiente. E del resto, proprio come avviene sui media, i rischi meno “rischiosi” vengono assai più evidenziati dei rischi reali. Fra i pericoli derivanti dalla tecnologia, quelli relativi al nucleare sono maggiormente posti in luce, ricordando sempre ad abundantiam il disastro di Chernobyl, ma dimenticando di spiegare di che centrale si trattasse, di quali protezioni essa disponesse e cosa avvenne effettivamente nella tragica notte del 26 aprile 1986. E trascurando anche di ricordare che il nostro paese, ormai da decenni, deve ricorrere all’importazione di grandi quantità di elettricità nucleare (che alimenta anche quei nostri comuni che sono denuclearizzati) e, se viene a mancare il sistema elettrico nazionale, entra in crisi. Ai toni allarmistici si accompagnano poi innumerevoli stravaganti spiegazioni. Così possiamo leggere che le esplosioni atomiche emettono «radiazioni gamma che salgono nell’atmosfera e, trasportate dai venti, possono raggiungere località molto lontane». Oppure, a proposito della radioattività artifi- Sfogliando i libri di testo di scienze per la scuola 185 ciale, che «tutto ciò ha determinato un tale aumento della radioattività che essa ha raggiunto ormai livelli pericolosi per l’ambiente e gli esseri viventi». Sicché non resterebbe che emigrare su Marte. Sugli argomenti relativi all’energia la disinformazione domina: su un testo di qualche anno addietro si poteva leggere che in Italia «si sta ora progettando la conversione delle centrali nucleari esistenti per poterle usare con altri combustibili». Come se ciò fosse possibile: ma proprio questo si leggeva allora sui quotidiani e nelle dichiarazioni di importanti uomini politici. Mentre su un altro manuale si prevedeva che entro la fine del secolo (quello appena concluso) sarebbero potute entrare in funzione le prime centrali nucleari a fusione. Un altro argomento su cui si richiama l’attenzione dei ragazzi è quello del cosiddetto “elettrosmog”. Con i soliti allarmismi nei confronti di elettrodotti e antenne radio, e a volte fornendo una serie di suggerimenti “pratici” la cui applicazione condurrebbe a muoversi in casa come se ci trovassimo in un campo minato («stare sempre ad almeno mezzo metro dall’impianto hi-fi», «meglio non sedersi entro un raggio di 50 cm dal frigorifero», «il campo elettromagnetico del televisore arriva entro un raggio di 3 metri»). Ma c’è spazio anche per la chimica, per esempio dove, drasticamente e senza appello si stabilisce che «i prodotti chimici comunemente usati in agricoltura aggiungono al suolo veleni in genere, che eliminano anche tutti i microrganismi e gli insetti utili», prefigurando “primavere silenziose” seguite da altre stagioni egualmente taciturne. I ragazzi di campagna, certo, rideranno nel leggere questa baggianata, ma quelli di città potrebbero anche crederci. Per concludere, una domanda puntuale: come mai non funzionano i meccanismi istituzionali che dovrebbero condurre a produrre, e poi a selezionare, trattazioni ragionevoli, senza troppi errori e senza eccessive distorsioni? 186 I costi della non-scienza 187 IL PRINCIPIO DI PRECAUZIONE Ernesto Pedrocchi Politecnico di Milano I l dibattito ora in corso sul Protocollo di Kyoto, mi stimola a fare qualche riflessione generale sul Principio di Precauzione (PdP) e sulla sua applicabilità al caso particolare dei cambiamenti del clima globale e al Protocollo di Kyoto. La formulazione del PdP come risulta dall’art. 15 della dichiarazione di Rio del 1992 è la seguente: «Where there are threats of serious or irreversible damage, lack of full scientific certainty shall not be used as a reason for postponing cost-effective measures to prevent enviromental degradation» la traduzione italiana più fedele potrebbe essere questa. «Ove vi siano minacce di danno grave o irreversibile, l’assenza di certezze scientifiche non deve servire come pretesto per posporre l’adozione di misure, efficaci rispetto ai costi, volte a prevenire il degrado ambientale». L’interpretazione e la traduzione corretta del testo crea problemi e non è improbabile che anche chi ha formulato il principio non avesse un’idea chiara di quanto veramente volesse esprimere. F. Battaglia 1 scrive: «Solo a chi non ha un’educazione scientifica può passare inosservata la vacuità del principio sovra esposto: la certezza scientifica è sempre assente. Certamente non è passata inosservata alla Commissione dell’UE che, però, anziché rifiutare il principio, ha tentato, un po’ arrampicandosi sugli specchi e aggiungendo problemi anziché risolverne, di giustificarlo e di stabilirne i limiti di applicabilità». Il PdP è un concetto, essenziale al buon funzionamento della società, che può essere applicato ad ogni problema tecnico-scientifico ed è strettissimo parente del “coefficiente di sicurezza” che costituisce la base della formazione dell’ingegnere. Ma G. Bramoullé su Liberal 1 F. Battaglia, Le Scienze 394, 110 (2001). 188 I costi della non-scienza (agosto 2001) scrive: «Uscito dal suo contesto iniziale – la società civile – per diventare il leit motiv della società politica, il principio di precauzione si trasforma da libero esercizio di saggezza a un pretesto mistificatorio per una regolazione liberticida. Nuovo alibi per i responsabili che non vogliono essere colpevolizzati, cavallo di Troia di un’estensione indefinita delle prerogative dello Stato, il Principio di Precauzione, nella sua accezione corrente, è il principio costitutivo di una società basata su una prevenzione che mantiene stazionarie le condizioni esistenti». Bisogna quindi riportare il PdP nel suo giusto ambito evitando una generalizzazione acritica e distorta. Il PdP trae origine culturale dall’opera di Hans Jonas e in particolare dal suo scritto Il principio di responsabilità. Jonas è un ecologista che denuncia l’umanesimo e inneggia a una mistica naturalistica. Sempre G. Bramoullé afferma «In nome dell’irreversibilità delle azioni umane e dei pericoli del progresso tecnico e scientifico, Jonas vuole affidare a un’élite di uomini di stato, ritenuti capaci di assumersi eticamente la responsabilità per le generazioni future, la direzione del pianeta». Una linea culturale di questo tipo esaspera il Principio di Precauzione, promuove una forte ostilità ad ogni forma di rischio e di fatto risulta illiberale e tecnofoba. Il PdP ha dato corpo a un’ondata di paure che ha portato con sé un’accozzaglia di incertezze e di semplificazioni che soffocano l’innovazione e frenano lo sviluppo. L’ambientalismo integralista ha fatto del PdP il suo punto di forza e ne ha estremizzato le conseguenze: basta una pubblicazione, fra mille contrarie, che ipotizzi un sospetto pur remoto di danno ambientale o alla salute dell’uomo per osteggiare o demonizzare una qualsiasi innovazione tecnica. Tutta l’umanità, pur non accorgendosene, rischia di pagare caramente l’uso perverso del PdP. Non si riesce a capire chi abbia un’autorità superiore a quella degli scienziati competenti per prendere decisioni così gravi. Può darsi che la scienza non sia sufficiente per prendere queste decisioni, ma è indubbio che è indispensabile. Quando una persona nella nostra società ha problemi di salute consulta i medici, magari diversi, ma a loro si affida non ai politici o alle fattucchiere; non si riesce a capire perché quando i problemi pur sempre scientifici riguardano l’intera società l’autorità scientifica non debba essere il riferimento primario. La divulgazione scientifica, spesso sinonimo di grave disinformazione, ac- Il Principio di Precauzione 189 centua sempre gli aspetti negativi ed emotivi: basti pensare che nei dibattiti televisivi si tende a dare eguale credito a scienziati di chiara fama e a sedicenti esperti ambientali senza nessuna preparazione scientifica. Il problema del deposito delle scorie radioattive in Italia è solo l’esempio più recente: tutto il mondo scientifico concorda con la soluzione proposta e che non presenta alcun rischio. Anzi. Ma i politici per esigenze di consenso sociale istigato dall’ambientalismo più ideologizzato hanno ceduto. Nel caso particolare dei cambiamenti del clima globale il PdP raggiunge il massimo della sua equivocità. In questo caso non solo è molto incerto che il danno derivi da azioni antropiche, ma anche le misure proposte per contrastarlo sono difficilmente attuabili, alcune costose e di certa inefficacia. È questa una situazione ben diversa da quella in cui si voglia prevenire un danno ipotetico, ma con un intervento attuabile e ragionevolmente efficace. Il Protocollo di Kyoto, che trova le sue radici nel PdP, non è stato sufficientemente meditato; ne è risultato un documento di difficile applicazione che gli stessi estensori hanno progressivamente modificato, derubricandolo da strumento “salva mondo” a semplice esercizio, più psicologico che effettivo, di virtuosismo ambientale. Il furore ambientalista e la mancanza di una meditata riflessione hanno portato in tutto il mondo a una proliferazione di normative pseudoscientifiche, sempre farraginose, senza nessuna possibilità di essere concretamente applicate e che daranno luogo a contenziosi di difficile risoluzione tra stati e istituzioni pubbliche e private. 190 I costi della non-scienza 191 PRINCIPIO DI PRECAUZIONE E PSEUDOSCIENZE Silvano Fuso CICAP 1 – Genova N el Manifesto dell’associazione Galileo 2001 si legge il seguente brano: «La voce della scienza è certamente più affidabile e anche umanamente – oltre che intellettualmente – più consapevole delle voci incontrollate e dogmatiche che, fuori di ogni rilevanza scientifica, pretendono di affermare “verità” basate sull’emotività irrazionale tipica delle culture oscurantiste». La pretesa di affermare verità basate sull’emotività irrazionale e fuori da ogni rilevanza scientifica è caratteristica di quelle discipline “alternative” che tanta popolarità stanno riscuotendo nella società. Parallelamente al diffondersi di un atteggiamento antiscientifico si assiste, infatti, al proliferare di discipline pseudoscientifiche che ipotizzano livelli di realtà, sconosciuti alla scienza, in cui agirebbero poteri, forze ed energie che, se non opportunamente controllate, potrebbero risultare estremamente pericolose. Inutile dire che dal punto di vista scientifico le affermazioni di queste discipline sono del tutto prive di fondamento, non essendo mai emersa alcuna evidenza che renda minimamente plausibile l’esistenza delle realtà da esse ipotizzate. Ciò nonostante, i dati statistici mostrano che la diffusione delle credenze paranormali e pseudoscientifiche tra la popolazione raggiunge livelli molto preoccupanti. La preoccupazione diventa ancora più forte quando si osserva che istituzioni e soggetti che possiedono responsabilità pubbliche, dando credito alle affermazioni pseudoscientifiche, intraprendono iniziative operative. Purtroppo, non mancano gli esempi. Vi sono stati dei pubblici amministratori che, invocando il Principio di Precauzione e appellandosi a un generico “… nel dubbio è me1 Comitato Italiano per il Controllo delle Affermazioni sul Paranormale. 192 I costi della non-scienza glio prendere provvedimenti”, hanno agito in modo palesemente irrazionale. Per ora, fortunatamente, i danni di queste iniziative irrazionali sono stati abbastanza limitati. È però facile immaginare che, se non si porrà un argine alla diffusione delle discipline pseudoscientifiche e se a livello politico si cederà alle pressioni di quei movimenti di pensiero che richiedono per esse un riconoscimento giuridico, le conseguenze per la società potrebbero essere anche molto gravi. L’ufficio anti-malocchio di Aulla Un primo esempio di atto pubblico motivato da credenze irrazionali e pseudoscientifiche risale al 1998, quando il sindaco del Comune di Aulla (provincia di Massa-Carrara), Lucio Barani, suscitò grande clamore istituendo un “ufficio anti-malocchio”. In municipio i cittadini di Aulla possono così trovare, oltre all’anagrafe, ai vigili urbani e agli altri servizi tradizionali, anche un apposito sportello gestito da uno staff di maghi ed esorcisti ai quali possono richiedere interventi finalizzati alla prevenzione e alla difesa dagli influssi negativi derivanti da fatture e malefìci. Da notare che l’ufficio ha solamente finalità… difensive: per nessuna ragione i cittadini potranno richiedere interventi magici per causare danno a qualcuno. È piuttosto evidente che la trovata del sindaco abbia avuto principalmente motivazioni pubblicitarie (il primo cittadino di Aulla si era, infatti, già distinto altre volte per iniziative clamorose). È tuttavia indubbio che un’iniziativa del genere abbia un costo economico che grava sulla collettività e favorisca la diffusione di credenze oscurantiste e superstiziose. È interessante conoscere le motivazioni che lo stesso sindaco ha fornito durante un’intervista: «Quella della magia e dell’esoterismo è una tradizione culturale radicata nella nostra zone dalla notte dei tempi. Perché nasconderla o far finta di nulla? Comunque, da quando abbiamo preso quest’iniziativa vengono decine e decine di persone, anche le più insospettabili, a togliersi il malocchio gratis. Ormai Aulla è una città senza sfiga» 2. 2 Tratto da: Simone Caffaz, Dalla Prima Repubblica al Terzo Millennio – Undici storie, un decennio, una provincia italiana, edizioni La Cometa. Principio di Precauzione e pseudoscienze 193 Il bio-architetto rabdomante ingaggiato dal comune di Siena La credenza nel malocchio può far sorridere molte persone che non esitano a definirla una semplice superstizione. Vi sono tuttavia altre credenze che, pur essendo egualmente assurde, riscuotono maggior credito, semplicemente perché appaiono fondate scientificamente. Un esempio significativo è quello delle cosiddette reti di Hartmann. Poiché forse non tutti sanno di cosa si tratta, vale la pena descriverle. Ernst Hartmann (1915-1992) era un medico dell’Università di Heidelberg che, tra gli anni Cinquanta e gli anni Settanta, elaborò una bizzarra teoria secondo la quale la superficie terrestre sarebbe avvolta da una griglia di linee di forza, da molti ritenute di origine magnetica. Queste linee di forza avrebbero un effetto patogeno e le zone a maggior rischio sarebbero i punti in cui queste linee di forza si incrociano (nodi di Hartmann). Il rischio sarebbe poi particolarmente elevato se sotto al nodo (anche a elevata profondità) ci dovessero essere falde acquifere oppure faglie, che sono ritenute in grado di intensificare le “radiazioni nocive” sviluppate dal nodo. Gli inconvenienti fisici che sarebbero causati dalla griglia di Hartmann vengono genericamente indicati con il termine “geopatologie”. La cosa curiosa (e che fa comprendere quale possa essere la fondatezza scientifica di questa teoria) è che le linee di forza e i nodi non possono essere individuati da alcuno strumento di misura, ma solamente da rabdomanti e sensitivi, che avviserebbero particolari vibrazioni in loro prossimità. Prima di Hartmann qualcun’altro aveva già elaborato teorie simili: un certo Peyré sosteneva l’esistenza di una griglia analoga (le maglie però misuravano 8 metri di lato, contro i 2,50 previsti da Hartmann); e negli anni Cinquanta un certo Curry affermava che le maglie misuravano invece 3,15 m per 16 m. Inutile dire che l’esistenza della rete di Hartmann non è mai stata dimostrata da nessuno (com’è noto tutti i controlli diretti ad accertare i presunti poteri dei rabdomanti hanno sempre dato esiti assolutamente negativi). Inoltre, la sua esistenza contrasterebbe palesemente con le conoscenze fisiche. Le linee di forza di un campo magnetico, infatti, non possono incrociarsi, e sostenere il contrario dimostra soltanto una preoccupante ignoranza scientifica. Occorre tuttavia osservare che non 194 I costi della non-scienza tutti i sostenitori delle reti di Hartmann affermano che si tratti di campi magnetici. Ad esempio, due autori di nome Endros e Lotz sostengono che esse sarebbero costituite da “raggi tellurici” causati da un irraggiamento di neutroni termici a 0,025 eV. È superfluo dire che anche una tale emissione neutronica non è mai stata rilevata da nessuno. La teoria delle reti di Hartmann è dunque pseudoscienza pura, priva di ogni fondamento. Quello che preoccupa è che in certi ambienti è presa sul serio. Ad esempio, la cosiddetta Bioarchitettura® (questa parola è un marchio registrato), disciplina architettonica che prende in considerazione gli aspetti biologici ed ecologici legati alle costruzioni, fa spesso riferimento alle reti di Hartmann. Un noto manuale di architettura usato a livello universitario 3 dedica un intero paragrafo alle geopatologie indotte dalle reti di Hartmann, con tanto di grafici e precise indicazioni su come posizionare il letto per minimizzare i danni. Nel libro vi sono vere e proprie perle. Ad esempio, vi si può leggere che: «Disponendo su tutta la sfera terrestre una cosiddetta griglia globale costituita da onde verticali si provocano azioni geologiche apparentemente come quelle provocate dal Sole, ma la loro regolarità anche secondo Hartmann potrebbe far pensare ad un irraggiamento terrestre, proveniente dall’interno del globo, che si dispone come una griglia a rete per effetto dei cristalli esistenti nella crosta terrestre». E poi continua sullo stesso tono. Chiunque abbia un minimo di conoscenze scientifiche può scegliere se inorridire o ridere di fronte a simili affermazioni. Sul mercato esistono numerose ditte specializzate (spesso gestite dagli stessi rabdomanti) che commercializzano costosi dispositivi che sarebbero in grado di schermare i nodi di Hartmann, fornendo protezione nei confronti dei loro presunti nefasti effetti. Una prova che sarebbe certamente interessante condurre su rabdomanti e sensitivi sarebbe la seguente. Bisognerebbe far loro individuare i nodi di Hartmann in un certo ambiente. Dopodiché bisognerebbe coprire i nodi con tappetini schermanti e con tappetini fasulli, appositamente preparati, questi ultimi, per renderli indistinguibili dai primi. A questo punto i rabdomanti dovrebbero essere in grado di stabilire quali tappetini sono reali e quali sono fasulli. Naturalmente nessun 3 E. Neufert, Enciclopedia pratica per progettare e costruire, Hoepli Principio di Precauzione e pseudoscienze 195 sensitivo ha mai accettato questa sfida: alcuni sostengono la non validità di una simile prova affermando che la rete di Hartmann si muove. A questo punto nasce spontanea una domanda: se la rete di Hartmann è in movimento, che senso ha studiare accuratamente la disposizione degli edifici o del letto o collocare costosi dispositivi di protezione in punti attentamente individuati? È evidente che un amministratore pubblico al quale viene paventato il “rischio” delle reti di Harmann, prima di intraprendere qualsiasi iniziativa, dovrebbe documentarsi e consultare qualche fonte scientificamente attendibile. Purtroppo, però, questa procedura non è così scontata, come ha dimostrato nel 1997 la giunta comunale di Siena, presieduta dal sindaco Pierluigi Piccini. Con la delibera comunale n. 179, del 3 febbraio 1997, la giunta comunale di Siena decise, infatti, all’unanimità di affidare il compito di eseguire una mappatura dei nodi di Hartmann nelle cinque scuole materne del Comune al bio-architetto e rabdomante Fosco Firmati. Quest’ultimo, che già aveva operato a Grosseto e ad Arezzo, aveva allertato l’amministrazione comunale di Siena sostenendo che i nodi di Hartmann mettevano a repentaglio la salute dei bambini poiché avrebbero favorito l’insorgenza di leucemia infantile. Nella delibera, la giunta stabilisce anche in sette milioni e mezzo di lire il compenso spettante al Firmati per la sua prestazione. Per fortuna, in seguito a un intervento del CICAP, che lo informava della totale infondatezza scientifica della teoria di Hartmann, il sindaco decise successivamente di bloccare il progetto. Se la cosa fosse andata avanti è ragionevole pensare che il costo per l’amministrazione sarebbe stato sicuramente più elevato dei sette milioni e mezzo pattuiti per il bioarchitetto. Infatti, una volta eseguita la mappatura, si sarebbero dovuti poi intraprendere provvedimenti per proteggere gli asili o addirittura spostarli in luoghi ritenuti meno pericolosi. Rischi immaginari e rischi reali I due esempi precedentemente riportati fanno comprendere come l’accettazione acritica di affermazioni pseudoscientifiche e la conseguente credenza nei rischi da esse paventati possano condurre a scelte irrazionali e sostanzialmente nocive per la collettività. Analizzando il comportamento del sindaco di Aulla e della giunta 196 I costi della non-scienza comunale di Siena ci si può facilmente rendere conto che esso è sostanzialmente coerente con il Principio di Precauzione così come appare nella formulazione fornita dal principio 15 della Dichiarazione di Rio del 1992: «Laddove vi siano minacce di danni seri o irreversibili, la mancanza di piene certezze scientifiche non potrà costituire un motivo per ritardare l’adozione di misure, efficaci rispetto ai costi, volte a prevenire il degrado ambientale». Le “piene certezze scientifiche” non esistono mai, neanche relativamente a ciò che la scienza può dire riguardo ai contenuti delle pseudoscienze. In linea di principio, nessuno può affermare con assoluta certezza che il malocchio o le linee di Hartmann non esistono. Quello che le attuali conoscenze scientifiche ci consentono di dire è che fino a oggi non è mai emersa nessuna evidenza che ne renda plausibile l’esistenza. In sostanza non è la scienza che deve dimostrare l’infondatezza delle pseudoscienze, ma sono queste ultime che devono dimostrare la validità delle loro affermazioni. La differenza è sottile ma importante. Nel sia pur piccolo margine di incertezza che inevitabilmente la scienza lascia scoperto, possono insinuarsi le scelte irrazionali di coloro che, contro rischi altamente improbabili, intraprendono iniziative gravose per la collettività. Si arriva in tal modo alla situazione paradossale in cui rifiutando la scienza a causa della sua inevitabile natura dubitativa, ci si affida alle “certezze”, apparentemente apodittiche ma in realtà del tutto illusorie, delle pseudoscienze. Tra i tanti rischi immaginari, questo è un rischio reale. Oltre ai danni immediati derivanti da scelte irrazionali, il rischio principale è di tipo culturale. La scienza, almeno relativamente al suo dominio di competenza, ci fornisce strumenti insostituibili. Non sono perfetti, ma finché l’umanità non riuscirà a trovarne di migliori saremo costretti a farvi ricorso, se non vogliamo correre il rischio di un regresso culturale in cui il dogmatismo e il principio di autorità tornino a dominare. 197 RINGRAZIAMENTI Questo volume raccoglie gli interventi presentati al I Congresso nazionale dell’Associazione Galileo 2001, tenutosi a Roma, il 19 febbraio 2004, presso i locali del Consiglio Nazionale delle Ricerche. Oltre che il CNR per aver ospitato il convegno, l’Associazione Galileo 2001 ringrazia: • Il Presidente della Repubblica, per aver concesso il Suo alto patronato; • la Presidenza del Consiglio dei Ministri, • il Ministero degli Affari Esteri, • il Ministero dell’Ambiente e della Tutela del Territorio, per aver patrocinato l’evento; • il Ministero dell’Ambiente e della Tutela del Territorio, • l’Istituto Nazionale di Fisica Nucleare, • il Comune di Roma, • l’ENEA, • l’Assobiotec (Associazione nazionale per lo sviluppo delle biotecnologie), • l’Associazione italiana nucleare, per i contributi elargiti e che hanno reso possibile il convegno e la pubblicazione del presente volume. Si ringraziano, naturalmente, gli oltre 200 partecipanti, che sono stati determinanti per il successo dell’iniziativa e, in particolare, gli studenti e gli insegnanti della scuola IIS Pacinotti-Gobetti “sezione classica” di Fondi (Latina) per l’entusiastico interesse. Un grazie anche alla Multimedia sas di Valter Cirillo & Partners per il generoso impegno profuso nella cura del sito dell’Associazione, www.galileo2001.it . Infine, ma non ultimi, per aver curato con competenza gli aspetti organizzativi del convegno si ringrazia la signora Angela Rosati e, in particolare, Cristiano Bucaioni per aver anche svolto il lavoro necessario a trasformare le relazioni orali nel presente volume.