1
Il principio di Precauzione
I COSTI DELLA NON-SCIENZA
Associazione Galileo 2001,
Il Principio di Precauzione: i costi della non-scienza
© 2004 21mo SECOLO s.a.s. di Roberto Irsuti e C.
Via Piacenza 24, 20135 Milano
Tel. 02-5456061, Fax 02-54100453
www.21mosecolo.it
[email protected]
Tutti i diritti riservati
ISBN: 88-87731-23-
Grafica: Claudio Rossi
In copertina: xxxx.
ASSOCIAZIONE GALILEO 2001
per la libertà e dignità della scienza
IL PRINCIPIO DI PRECAUZIONE
I COSTI DELLA
NON-SCIENZA
21mo SECOLO
5
INDICE
Presentazione
Manifesto
Organi Costituzionali dell’Associazione Galileo 2001
VII
IX
XIII
Introduzione del Prof. Giorgio Salvini
1
Roberto De Mattei
Indirizzo di saluto
5
Renato Angelo Ricci
Perché Galileo 2001
11
Umberto Veronesi
Un’alleanza per la scienza
21
Franco Battaglia
Il Principio di Precauzione: precauzione o rischio?
27
Carlo Bernardini
Radici filosofiche e utilizzazione sociale del Principio
di Precauzione
65
Tullio Regge
Il Principio di Precauzione: un trucco verbale
71
Umberto Tirelli
Il Principio di Precauzione e la salute
75
Francesco Sala
Piante GM: una grande opportunità per l’agricoltura italiana
81
6
I costi della non-scienza
Ingo Potrykus
Green biotechnology could save millions of lives, but it cannot
because of anti-scientific, extreme-precautionary regulation
Le biotecnologie in agricoltura potrebbero salvare milioni di vite,
ma normative anti-scientifiche ed eccessivamente precauzionali
lo impediscono
89
Paolo Sequi
Il Principio di Precauzione e le problematiche ambientali
relative al suolo
111
Paolo Vecchia
Il Principio di Precauzione per i campi elettromagnetici:
giustificazione ed efficacia
141
Luciano Caglioti
Il paradosso dei rifiuti
155
Cesare Marchetti
Prospettive dell’economia a idrogeno
161
Giovanni Vittorio Pallottino
Sfogliando i libri di testo di scienza per la scuola
171
Ernesto Pedrocchi
Il Principio di Precauzione
177
Silvano Fuso
Principio di Precauzione e pseudoscienze
181
Ringraziamenti
189
7
GALILEO 2001
PER LA LIBERTÀ E LA DIGNITÀ DELLA SCIENZA
MANIFESTO
U
n fantasma si aggira da tempo nel Paese, un fantasma che
sparge allarmi ed evoca catastrofi, terrorizza le persone, addita la scienza e la tecnologia astrattamente intese come nemiche dell’uomo e della natura e induce ad atteggiamenti antiscientifici
facendo leva su ingiustificate paure che oscurano le vie della ragione.
Questo fantasma si chiama oscurantismo. Si manifesta in varie forme, tra cui le più pericolose per contenuto regressivo ed irrazionale
sono il fondamentalismo ambientalista e l’opposizione al progresso
tecnico-scientifico. Ambedue influenzano l’opinione pubblica e la politica attraverso una comunicazione subdola: l’invocazione ingiustificata del Principio di Precauzione nell’applicare nuove conoscenze e
tecnologie diviene una copertura per lanciare anatemi contro il progresso, profetizzare catastrofi, demonizzare la scienza.
Non si tratta, quindi, di una giustificabile preoccupazione per le ripercussioni indesiderate di uno sviluppo industriale ed economico
non sempre controllato, ma di un vero e proprio attacco contro il progresso. L’arroganza e la demagogia che lo caratterizzano non solo umiliano la ricerca scientifica – attribuendole significati pericolosi ed imponendole vincoli aprioristici ed arbitrari – ma calpestano il patrimonio di conoscenze che le comunità scientifiche vanno accumulando e
verificando, senza pretese dogmatiche, con la consapevolezza di offrire ragionevoli certezze basate su dati statisticamente affidabili e sperimentalmente controllabili.
Il fatto che le conoscenze scientifiche, per la natura stessa del metodo di indagine e di verifica dei risultati, si accreditino con spazi di
dubbio, sempre riducibili ma mai eliminabili, costituisce l’antidoto
principale – che è proprio dell’attività scientifica – verso ogni forma di
8
I costi della non-scienza
dogmatismo, scientismo, intolleranza e illiberalità; ma non puó giustificare il considerare tali conoscenze opinabili o, peggio, inattendibili.
La voce della scienza è certamente più affidabile e anche umanamente – oltre che intellettualmente – più consapevole delle voci incontrollate e dogmatiche che, fuori di ogni rilevanza scientifica, pretendono di affermare “verità” basate sull’emotività irrazionale tipica
delle culture oscurantiste.
Da questa cultura regressiva nascono, ad esempio:
• l’attribuzione quasi esclusivamente alle attività antropiche di effetti, pur preoccupanti data la posta in gioco, quali i cambiamenti climatici che da milioni di anni sono caratteristici del pianeta Terra,
mentre il problema della loro origine è tuttora aperto;
• le limitazioni alla ricerca biotecnologica che impediscono ai nostri
ricercatori di cooperare al raggiungimento di conquiste scientifiche
che potrebbero, tra l’altro, combattere gravi patologie e contribuire ad alleviare i problemi di alimentazione dell’umanità;
• la ricerca e l’esaltazione acritica di pratiche mediche miracolistiche
che sono ritenute affidabili solo perché “alternative” alla medicina
scientifica;
• il terrorismo sui rischi sanitari dei campi elettromagnetici, che vuole imporre limiti precauzionali ingiustificati, enormemente piú bassi di quelli accreditati dalla comunità scientifica internazionale e
adottati in tutti i paesi industriali;
• il permanere di una condizione di emergenza nel trattamento e nello smaltimento dei rifiuti di ogni tipo, condizione che è figlia del rifiuto aprioristico di soluzioni tecnologiche adottate da decenni in
tutti i paesi industriali avanzati;
• la sistematica opposizione ad ogni tentativo di dotare il Paese di infrastrutture vitali per la continuità dello sviluppo e per il miglioramento della qualità della vita della popolazione;
• la preclusione dogmatica dell’energia nucleare, che penalizza il
Paese non solo sul piano economico e dello sviluppo, ma anche nel
raggiungimento di obiettivi di razionalizzazione e compatibilità
ambientale nel sistema energetico.
Il clima di oscurantismo in atto rischia di contribuire all’allontanamento dei giovani dai corsi di studio a indirizzo scientifico, ormai connotati di significati antiumanitari e antiambientali, alimentando un
Galileo 2001
9
processo che rischia di prefigurare un futuro di dipendenza anche culturale, oltre che economica, del Paese.
La scienza non produce miracoli e non è, di per sè, foriera di catastrofi. Da sempre essa è parte integrante e trainante dell’evoluzione
della società umana, motore primario di progresso sociale, economico,
sanitario e ambientale.
Sulla base di questa consapevolezza, scienziati, ricercatori, tecnici
di ogni estrazione culturale e di ogni credo, estranei ad ogni interesse
industriale e consci del fatto che l’impegno scientifico non deve
confondersi con le pur legittime convinzioni di ordine ideologico, politico e religioso, si levano a contrastare questa opera di disinformazione e di arretramento culturale, rivendicando il valore della scienza come fonte primaria delle conoscenze funzionali al progresso civile, senza distorsioni e filtri inaccettabili.
Ci costituiamo nel movimento Galileo 2001 per la libertà e la dignità della Scienza, aperti alle adesioni più qualificate, sincere e disinteressate.
Chiediamo alle associazioni scientifiche e culturali di impegnarsi
disinteressatamente, assieme alle istituzioni, in una indifferibile battaglia per un’informazione competente e deontologicamente corretta.
Ci rivolgiamo alla società civile, agli operatori dell’informazione
più attenti e ai rappresentanti politici più avveduti perché sappiano
raccogliere questo messaggio e ci aiutino a superare le barriere del
fondamentalismo e della disinformazione.
Vogliamo che il nuovo secolo sia anche per il nostro Paese – che ha
dato i natali a Galileo, Volta, Marconi e Fermi – quello della verità
scientifica e della ragione, tanto più consapevoli quanto più basate sulle conoscenze e sul sapere. Esse forse non saranno sufficienti, ma sono
certamente necessarie.
Membri Fondatori:
Franco Battaglia, Università di Roma Tre
Carlo Bernardini, Università di Roma La Sapienza
Tullio Regge, Premio Einstein per la Fisica
Renato Angelo Ricci, Presidente onorario Società Italiana di Fisica; già
Presidente Società Europea di Fisica
10
I costi della non-scienza
Giorgio Salvini, Accademico dei Lincei, già Ministro della Ricerca
Scientifica
Gian Tommaso Scarascia Mugnozza, Professore emerito, Università
della Tuscia; Accademia Nazionale delle Scienze
Ugo Spezia, Segretario Generale Centro Internazionale per la
Documentazione e l’Informazione Scientifica (CIDIS)
Umberto Tirelli, Direttore Divisione Oncologia Medica, Istituto
Nazionale Tumori di Aviano
Membri del Comitato Promotore:
Franco Bassani, Presidente Società Italiana di Fisica
Argeo Benco, già Presidente Associazione Italiana di Radioprotezione
Paolo Blasi, già Rettore Università di Firenze
Edoardo Boncinelli, Istituto San Raffaele, Milano
Luciano Caglioti, Università di Roma La Sapienza
Cinzia Caporale, Università di Siena
Giovanni Carboni, Università di Roma Tor Vergata
Francesco Cognetti, Presidente Associazione Italiana di Oncologia
Medica
Guido Fano, Università di Bologna
Gianni Fochi, Scuola Normale Superiore di Pisa, Università di Pisa
Andrea Frova, Università di Roma La Sapienza
Silvio Garattini, Istituto Mario Negri, Milano
Roberto Irsuti, Direttore 21mo Secolo, Milano
Silvio Monfardini, Direttore Divisione Oncologia Medica, Ospedale
Universitario di Padova
Giovanni Vittorio Pallottino, Università di Roma La Sapienza
Franco Panizon, Professore emerito, Università di Trieste
Ernesto Pedrocchi, Politecnico di Milano
Carlo A. Pelanda, Condirettore Globis, University of Georgia, USA
Carlo Salvetti, Vice-Presidente Associazione Italiana Nucleare
Paolo Sequi, Presidente della Società Italiana per la Scienza del Suolo
Angelo Spena, Università di Verona
Paolo Vecchia, Dirigente di Ricerca, Istituto Superiore di Sanità
Giancarlo Vecchio, Università di Napoli, Presidente Società Italiana di
Cancerologia
Igino Zavatti, Coordinatore Associazione Nuova Civiltà delle Macchine
11
Consiglio Direttivo
RICCI Prof. Renato Angelo
SALVINI Prof. Giorgio
VERONESI Prof. Umberto
BATTAGLIA Prof. Franco
BERNARDINI Prof. Carlo
REGGE Prof. Tullio
TIRELLI Prof. Umberto
Presidente
Presidente Onorario
Presidente Onorario
Vice Presidente Vicario
Vice Presidente
Vice Presidente
Vice Presidente
Consiglieri
CAGLIOTI Prof. Luciano
CAPORALE Prof.ssa Cinzia
PALLOTTINO Prof. Giovanni Vittorio
SALA Prof. Francesco Giuseppe
SALVETTI Prof. Carlo
SCARASCIA MUGNOZZA Prof. Gian Tommaso
SEQUI Prof. Paolo
SPEZIA Ing. Ugo
TRENTA Prof. Giorgio Nazzareno
VECCHIA Prof. Paolo
Collegio Sindacale
ROMITI Dr. Bruno
CARBONI Prof. Giovanni
COGNETTI Prof. Francesco
BRESSANI Prof. Tullio
FANO Prof. Guido
Presidente
Sindaco Effettivo
Sindaco Effettivo
Sindaco Supplente
Sindaco Supplente
Segretario Generale
ROSATI Sig.ra Angela
13
INTRODUZIONE
Giorgio Salvini 1
Presidente Onorario Galileo 2001
L’
Associazione Galileo 2001 ha molto appropriatamente scelto il
tema del Principio di Precauzione per presentarsi per la prima
volta all’attenzione del pubblico, degli organi d’informazione e
dei responsabili politici. Il titolo più preciso del volume – che raccoglie le relazioni presentate al I Convegno Nazionale dell’Associazione,
tenutosi a Roma il 19 febbraio 2004, ospitato nella sede del Consiglio
Nazionale delle Ricerche – che è anche quello del convegno stesso, è
Il Principio di Precauzione: i costi della non-scienza.
Il volume comincia con le prolusioni del presidente, Renato Angelo Ricci e di Umberto Veronesi, che assieme a me ricopre la carica di
presidente onorario dell’associazione. Ricci, che è stato per 17 anni
presidente – ora onorario – della Società Italiana di Fisica. Ricci, che
durante la sua carriera di fisico non ha mai trascurato un ininterrotto
impegno civico di partecipazione alla vita del nostro paese, ci spiega le
motivazioni della nascita dell’Associazione. Un’alleanza per la scienza,
la chiama Umberto Veronesi, una figura ben nota al grande pubblico
e che, per l’impegno profuso nella lotta contro uno dei più terribili
mali che affliggono l’umanità e per la sua carica di umanità è nel cuore
di tutti gli italiani.
Le relazioni vere e proprie sul tema cominciano con quella di Franco Battaglia, cui va il riconoscimento di aver voluto che quello del
Principio di Precauzione fosse il tema della conferenza. Battaglia, dopo
averci reso partecipe degli eventi personali che lo hanno convinto ad
impegnarsi ad affermare le finalità di Galileo 2001, discute con dovizia di particolari i limiti e, soprattutto, i rischi del Principio di Precau-
1
Ex Ministro alla Ricerca Scientifica
14
I costi della non-scienza
zione. Più disincantati – a tratti divertenti, ma non per questo meno
efficaci – sono le relazioni di Carlo Bernardini e di Tullio Regge, due
pilastri della fisica italiana d’oggi. Le implicazioni dell’applicazione
letterale del Principio di Precauzione alla medicina sono invece considerate da Umberto Tirelli, direttore di una divisione di oncologia al
Centro Tumori di Aviano.
Il resto del volume contiene trattazioni dettagliate su specifici
esempi. Francesco Sala, direttore degli Orti Botanici dell’Università di
Milano, avverte come l’applicazione del Principio di Precauzione per
limitare l’uso dell’ingegneria genetica in agricoltura può rivelarsi un
vero suicidio in ordine alla salvaguardia dei nostri prodotti tipici. Una
limitazione che, invece – avverte Ingo Potrykus, professore emerito di
Biologia vegetale all’Università di Zurigo – diventa quasi omicidio:
centinaia di migliaia di bambini poveri del mondo muoiono o diventano ciechi per carenza di vitamina A, essendo questa assente nel loro
quasi unico cibo, il riso. Di cui ne esiste una varietà, geneticamente
modificata, ricca di beta-carotene, precursore metabolico della vitamina A.
Le distorsioni dell’applicazione del Principio di Precauzione alla prevenzione dell’inquinamento dei suoli sono ben illustrate da Paolo Sequi, direttore dell’Istituto Nazionale di Nutrizione delle Piante. Paolo
Vecchia, uno dei maggiori esperti italiani degli effetti sanitari dei campi
elettromagnetici, e da poco nominato presidente dell’ICNIRP (la Commissione internazionale per la protezione dalle radiazioni non-ionizzanti), invece, ben ci spiega come sia priva di fondamento la preoccupazione eccessiva, recentemente nata in Italia, in ordine ai rischi derivanti dall’esposizione a quei campi. Ci ricorda Paolo Vecchia come
ogni spesa eseguita per proteggerci da quei campi, senza salvare nessuno da nessun rischio, sottrae di fatto risorse pubbliche da emergenze
reali e accertate.
In nome del Principio di Precauzione molte realtà locali del nostro
paese rifiutano quel che altrove è la norma: la messa in opera di inceneritori per i rifiuti. Il risultato paradossale – il paese esporta rifiuti –
diventa inquietante, visto che il “prodotto” esportato abbisogna della
scorta militare: del paradosso dei rifiuti ci rende partecipe Luciano
Caglioti.
L’ultima relazione è di Cesare Marchetti, che ci parla di economia a
Introduzione
15
idrogeno. L’idrogeno è il nuovo sex symbol energetico. Difficile dire se
esso sarà mai il protagonista dell’economia del futuro. In ogni caso,
avverte Marchetti, le dimensioni dei volumi energetici richiedono la
fonte nucleare per la produzione dell’idrogeno di cui il mondo avrebbe bisogno. Al momento, il Principio di Precauzione frena, nell’opinione pubblica, lo sviluppo di quella fonte. In Italia, più che un freno vi è
stato un abbandono. Ma non una rinuncia: il 18% dell’energia elettrica che consumiamo la importiamo dalle fonti nucleari d’oltralpe.
Ce n’è quanto basta per riflettere.
16
I costi della non-scienza
17
INDIRIZZO DI SALUTO
Roberto De Mattei
Sub-Commissario CNR
Signore e Signori,
porto con piacere il saluto del Consiglio Nazionale delle Ricerche e
mio personale al convegno sul Principio di Precauzione che si apre oggi, per iniziativa dell’Associazione Galileo 2001, nelle sale del CNR.
Il vostro convegno contribuirà certamente a far maggior luce su un
“principio” che resta ancora avvolto da un velo di mistero per l’ambiguità che lo contraddistingue e che ne rende estremamente difficile
una definizione. Più che di principio giuridico, si dovrebbe parlare, a
mio avviso, di un generico “approccio”, che si situa in un incerta zona
di confine tra la scienza, il diritto, la politica e l’etica.
La prima e la più nota esplicitazione del principio di precauzione,
quella della Conferenza di Rio del 1992, recita all’articolo 15, che «in
caso di rischi di danni gravi o irreversibili, l’assenza di certezze scientifiche non deve servire come pretesto per rinviare l’adozione di misure
efficaci volte a prevenire il degrado dell’ambiente»: una affermazione
che sembra implicare, sicut litterae sonant, un trasferimento di diritti
dall’uomo, che è il soggetto giuridico per eccellenza, all’ambiente, entità indefinibile a cui riesce ben difficile attribuire personalità giuridica.
Le successive formulazioni del Principio di Precauzione, che ne
hanno fatto un cardine della politica ambientale in Europa – come
quelle dei trattati di Maastricht e di Amsterdam, la Comunicazione
della Commissione del 2 febbraio 2000, la direttiva comunitaria del 17
aprile 2001 e le sentenze della Corte Europea di giustizia – hanno affiancato all’ambiente l’uomo come possibile soggetto a rischio, affermando la necessità di «tutelare preventivamente, accanto all’ambiente, la salute umana».
Questo secondo tipo di formulazione può sembrare giudiziosa e
come tale viene percepita dall’opinione pubblica, che vede nell’idea di
18
I costi della non-scienza
“precauzione” uno strumento di difesa di fronte allo sviluppo vertiginoso delle nuove tecnologie e alla loro diffusione.
Tuttavia, anche l’espressione più mitigata del principio di precauzione pone molti problemi.
Va ricordato, innanzitutto, che il Principio di Precauzione non deve
essere equiparato al principio di prevenzione. Quest’ultimo prevede
l’utilizzo di mezzi finalizzati alla rimozione di un rischio scientificamente accertato e dimostrabile, mentre il Principio di Precauzione ha
lo scopo di fornire elementi per un intervento di base quando la scienza non è in grado di dare risposte certe su rischi inaccettabili per la
collettività.
Il Principio di Precauzione scatta cioè, tutte le volte che ci si trova
in presenza di una situazione di incertezza scientifica, fa dell’incertezza scientifica il suo presupposto. Ma proprio la premessa del Principio
di Precauzione (l’assenza di certezza scientifica), come è stato notato,
può essere usata come un grimaldello per tutto e il contrario di tutto.
La certezza scientifica è sempre assente, per la natura stessa della ricerca. Uno scienziato non potrà mai dirsi sicuro che una sostanza non
abbia alcun effetto negativo, perché, per fare una simile affermazione,
dovrebbe aver testato tutti i possibili effetti negativi, il che è praticamente e logicamente impossibile 1.
Non a torto, il prof. Franco Battaglia afferma che «il Principio di
Precauzione si sostituisce arbitrariamente ad un’analisi e gestione dei
rischi effettuata in modo scientifico» e «dà l’occasione per sostituire il
dubbio presente in ogni affermazione scientifica con arbitrarie certezze» 2. Battaglia aggiunge che «il rischio del principio di precauzione è
che quello spazio di dubbio lasciato dalla scienza potrebbe venir riempito da affermazioni arbitrarie che, dando voce solo ai singoli risultati
della scienza che tornano di volta in volta comodi, consente ad alcuni
la razionalizzazione dei loro interessi di parte in aperto contrasto con
gli interessi della collettività e con l’analisi critica della totalità delle
acquisizioni scientifiche» 3. Fondato, sull’enfatizzazione del rischio, il
1
Steven Milloy, Science without Sense, Cato Institute, Washington, DC, 1996
Franco Battaglia, Elettrosmog, un’emergenza creata ad arte, Leonardo Facco
Editore, 2002, p. 109
3 Franco Battaglia, loc. cit. p. 109
2
Indirizzo di saluto
19
Principio di Precauzione corre a sua volta un grave rischio: quello di ridursi a semplice “precauzione mediatica” da parte di chi teme di assumersi delle responsabilità davanti alle preoccupazioni della comunità
politica che rappresenta.
Il rischio è, cioè, che il Principio di Precauzione finisca con l’essere
uno strumento di interessi politici, guidato dai media, piuttosto che
una garanzia della salute dei cittadini.
Sul piano giuridico, l’elemento costitutivo del Principio di Precauzione è l’inversione di un principio fondamentale del diritto occidentale: il principio dell’onere della prova. Il Principio di Precauzione afferma infatti che l’uomo è responsabile non solo di ciò che sa, o dovrebbe sapere, ma anche di ciò che ignora o su cui dubita: diversamente da quanto avviene in base al principio “chi inquina paga”, nel
Principio di Precauzione la dimostrazione di un rapporto causale tra
l’attività umana e il danno ambientale non spetta ex post ai danneggiati, ma ex ante ai produttori dell’ipotetico danno 4.
Il concetto che emerge è quello di una giustificazione previa, che
dovrà costituire il culmine di un procedimento a carico del produttore 5. Significativa appare a questo proposito la definizione di Jean Malafosse: “Il Principio di Precauzione si traduce nell’inversione dell’onere
della prova con lo scopo della tutela dell’ambiente” 6.
Si potrebbe obiettare che il principio dell’onere della prova rappresenta un cardine del diritto privato, ma non si applica in maniera
altrettanto chiara ed automatica al diritto pubblico, in cui l’interesse
della collettività deve prevalere su quello del singolo. Ma se il soggetto
tutelato deve essere prima dell’ambiente l’uomo, anche sotto questo
aspetto, il Principio di Precauzione non risolve, ma anzi apre il delicato
problema del rapporto, non solo economico, tra costi e benefici. In
una situazione di incertezza scientifica infatti l’approccio cautelare
non apporta necessariamente un beneficio al soggetto che vuole tute-
4 Alexandre Kiss-Dinah Shelton, Traitè de Droit Eeuropéen de l’Environment,
Frison Roche, Paris 1995, p. 42.
5 Cathèrine Giraud, Le Droit et le principe de précaution: leçons d’Australie,
“Revuè Juridique de l’Environnement”, p. 33.
6 Jean Malafosse, La Semaine Juridique-Edition Génerale n. 52 (1998), pp.
2273-2276.
20
I costi della non-scienza
lare. In assenza di certezze scientifiche, chi può dire infatti se una
azione innovativa comporti per l’uomo maggiori rischi o benefici?
Il Principio di Precauzione quindi a dispetto del suo nome, può rivelarsi estremamente rischioso, come è emerso dall’incidente aereo di
Linate dell’ottobre 2001, che si sarebbe potuto evitare se si fosse installato un adeguato radar. In nome della tutela da inquinamento elettromagnetico, grazie alle norme volute sulla base del Principio di Precauzione, l’installazione di quel radar subì 10 mesi di ulteriore ritardo,
e molte vite sono andate perdute.
In realtà, la storia del progresso umano è inseparabile dall’idea di
rischio. D’altra parte se il Principio di Precauzione fosse condotto alla
sua ultima coerenza giuridica dovrebbe condurre a una forma di
“proibizionismo” assoluto, vietando non solo l’uso degli alcolici e dei
tabacchi e limitando drasticamente quello delle automobili, ma ogni
innovazione e scoperta scientifica che, in quanto nuova, comporta
sempre, per definizione, un margine di incertezza e di rischio. Permettetemi di aggiungere che questo proibizionismo non ha nulla a che fare con quello della morale tradizionale. Nel suo rapporto con la scienza, l’etica non nega il progresso, ma solo un suo sviluppo disordinato,
mentre l’idea di precauzione, assunta a nuovo principio etico-giuridico implica la negazione dell’idea stessa di ogni progresso e rischia di
trasformarsi dunque in principio di regressione dell’umanità.
Su questi temi io sono intervenuto da umanista voi parlerete con
ben maggior competenza da scienziati. Vi formulo i miei più sinceri
auguri di buon lavoro.
21
PERCHÉ GALILEO 2001
Renato Angelo Ricci
Presidente dell’Associazione Galileo 2001
E
sattamente un anno fa – il 19 febbraio 2003 – si è costituita la
nostra Associazione. Per questo, il 19 febbraio sarà d’ora in
poi la data del nostro Convegno Nazionale. Ma Galileo 2001
era già un movimento nato due anni prima, il 17 luglio 2001, a seguito
di una serie di iniziative che si proponevano di dare corpo ad una esigenza ormai esplicita di buona parte della comunità scientifica nazionale: affermare la necessità del valore primario della scienza, in particolare nelle questioni ambientali.
Oggi l’ufficio o compito di occuparsi delle sorti del pianeta, della
salvaguardia dell’ambiente naturale, dell’habitat umano, della salute,
viene svolto da molti – panel internazionali, agenzie, commissioni, associazioni varie, organizzazioni più o meno volontarie – e si rifà non solo
e non tanto a vocazione o idealità, ma ormai – il che potrebbe essere inteso come dovere sociale e assenso politico necessario – a impegno socio-economico che dovrebbe avere un solido supporto tecnico-scientifico.
Tuttavia, mentre il dato socio-politico e la sua estrapolazione economica e perfino finanziaria (il business ecologico) è più che acquisito,
tanto da esser divenuto – negli ultimi decenni – patrimonio della burocrazia di potere, oltre che strumento di condizionamento pubblico,
il dato tecnico-scientifico, indispensabile per comprendere e governare
il problema è lungi dall’essere adeguatamente assicurato.
Ne consegue che la consapevolezza sociale e la responsabilità politica non sempre si trovano nella condizione o nella capacità cognitiva
di seguire, approfondire ed accettare l’evoluzione scientifica e le sue
ricadute tecnologiche, e di appropriarsi di una cultura adeguata e diffusa, necessaria alla definizione di posizioni e decisioni conseguenti e
basate su conoscenze affidabili.
22
I costi della non-scienza
Nella difficile fase decisionale, al fine di affrontare un problema
d’interesse per la salvaguardia dell’ambiente e della salute e che vede i
responsabili politici coinvolti in prima persona, occorre tener presente, per ogni singolo problema, quali siano i fattori dominanti e concentrare su di essi l’attenzione se non si vuole correre il rischio di impiegare risorse, a volte anche ingenti, senza ottenere giovamenti apprezzabili. In altri termini, il contributo scientifico alla valutazione dei
problemi ambientali impone un approccio quantitativo che è condizione almeno necessaria per la corretta interpretazione dei criteri precauzionali e della loro collocazione in termini della cosiddetta sostenibilità dello sviluppo della civiltà umana.
Pertanto, chiave di volta di questo processo – che, per essere virtuoso, deve liberarsi da condizionamenti ideologici – è l’informazione.
Da tempo ormai si pone la questione dell’informazione scientifica
ai fini di una cultura adatta all’attuale evoluzione della società, in particolare nei paesi industrialmente avanzati.
Assumono particolare rilievo le conoscenze scientifiche che si confrontano con posizioni ambientaliste che, anche se dettate apparentemente da preoccupazioni legittime per il rispetto della natura e la salvaguardia della salute umana, si contraddistinguono per la carenza di
fondamenti scientifici accertati e per il loro dogmatismo fondamentalista, foriero di allarmismi infondati.
Casi esemplari sono la demonizzazione dell’energia nucleare,
l’ostracismo alle ricerche biotecnologiche e ai procedimenti tecnologici avanzati in tema di smaltimento dei rifiuti, il problema dei residui radioattivi, il problema dell’uranio impoverito, il catastrofismo
correlato ai cambiamenti climatici imputati all’effetto serra di origine
antropica e, infine, il cosiddetto elettrosmog o inquinamento elettromagnetico.
È un paradosso della società moderna – e in particolare nel nostro
paese – che, mentre da una parte gli aspetti scientifici e tecnologici diventano sempre più importanti per il nostro modo di vivere, dall’altra
l’educazione scientifica del pubblico in generale continua a ridursi.
Questo si traduce in un allontanamento dalla concezione scientifica di ogni valutazione che abbia a che fare con problemi socio-economici e – ciò che è ancora più grave – con decisioni politiche riguardanti lo sviluppo culturale, l’ambiente e la salute, con in più l’aggra-
Introduzione
23
vante culturale di considerare, quasi preliminarmente, ogni azione
umana non solo criticabile ma addirittura pericolosa.
Per questo deve essere respinta un’impostazione ideologica che
metta l’uomo sul banco degli accusati (e quali sarebbero gli accusatori
degni di un tribunale totalitario?) con paradossale atteggiamento masochista, e ponga la natura su un piedestallo come un totem immacolato ed immutabile.
Due sono i motivi di preoccupazione al riguardo: l’irrazionalità
delle posizioni di un ambientalismo radicale che fa leva sull’emotività
delle popolazioni senza alcun serio riscontro scientifico, da una parte,
e una informazione, da parte dei mass-media, che privilegia il catastrofismo e la notizia spettacolare spesso deformata, se non addirittura falsa, dall’altra.
Questi fantasmi che si aggirano fra la gente, portatori di un oscurantismo antiscientifico che imputa alla scienza catastrofi immaginarie
pretendendone d’altra parte interventi e miracoli impossibili (quasi a
titolo espiatorio) rischiano di abbassare il livello culturale e la capacità
critica dell’opinione pubblica nonché la consapevolezza degli amministratori pubblici.
Vi sono ormai numerosi esempi non solo di disinformazione ma anche e soprattutto di ingannevole diffusione di pseudo conoscenze e di
dati incerti e inaffidabili che, lungi dal portare un doveroso contributo
alle conoscenze necessarie alle valutazioni sociali e utili alle decisioni
politiche, distorcono i messaggi e confondono l’opinione pubblica.
Un caso significativo, che del resto ha costituito il motivo di partenza delle iniziative che hanno spinto alcuni di noi alla costituzione
del Movimento Galileo 2001, è stato e rimane quello del cosiddetto
elettrosmog. Questo problema, che dovrebbe semmai riferirsi come rischio sanitario da campi elettromagnetici è esemplare per il battage catastrofista di buona parte degli organi di comunicazione e l’inquinamento – qui è il caso di dirlo – culturale e sociale che ha prodotto e
tuttora sta producendo. Ciò ha costretto buona parte della comunità
scientifica a prendere posizione nel corso della passata legislatura e ad
inviare un appello al Presidente della Repubblica al riguardo.
Cito un passo significativo:
«Recentemente in Italia, nell’incuranza dell’analisi critica di tutte le
risultanze scientifiche effettuate da molteplici organismi scientifici in-
24
I costi della non-scienza
dipendenti e ufficialmente riconosciuti, per affrontare il cosiddetto inquinamento elettromagnetico si sono predisposti atti e normative che,
dal punto di vista della rilevanza sanitaria, sono destituiti di ogni fondamento scientifico».
Un altro esempio illuminante è quello delle posizioni acritiche e
demagogiche riguardanti la ricerca e l’utilizzazione degli OGM (organismi geneticamente modificati), in particolare nel campo agroalimentare. Anche in questo caso, nel 2001 si assistette alla clamorosa protesta dei mille scienziati (i premi Nobel Renato Dulbecco e Rita Levi
Montalcini in testa, ma anche Edoardo Boncinelli, Silvio Garattini,
Tullio Regge, Angelo Spena, fin oltre 1.500, in verità) contro un vero e
proprio atteggiamento oscurantista dell’allora Ministero delle Politiche Agricole (ministro in carica Pecoraro Scanio) nei riguardi della ricerca scientifica sugli OGM.
Non ci soddisfò allora il modo in cui tale manifestazione fu ricondotta a più miti consigli né, del resto, ci soddisfa oggi una politica ministeriale che non sembra accogliere né comprendere il vero significato culturale e sociale delle ricerche in campo biotecnologico. E ci
preoccupano iniziative demagogiche di certi governi regionali che,
sulla scia dei messaggi di un certo fondamentalismo ambientalista
miope e oscurantista, assumono posizioni e sollecitano timori popolari
ingiustificati e, a volte, purtroppo, incontrollabili.
Il modo stesso in cui sono considerati altri problemi, quali lo sviluppo tecnico-economico, la questione energetica e lo smaltimento dei
rifiuti, in particolare quelli tossici e radioattivi, e la difficoltà nel trattarli e nell’avviarli a soluzione, rendono queste preoccupazioni ancora
più pesanti se si pensa che, all’origine di tali difficoltà, vi è essenzialmente una carenza di considerazione delle analisi e delle conoscenze
scientifiche.
Mi piace qui sottolineare alcune indicazioni che, nel 2001, allora
come Commissario Straordinario dell’ANPA (Agenzia Nazionale per
la Protezione dell’Ambiente – oggi APAT) segnalai per affrontare al
meglio i problemi ambientali in sede istituzionale:
«• considerare essenziali, e quindi promuovere, il patrimonio di
conoscenze e competenze tecnico-scientifiche esistente all’interno delle Istituzioni e collegarle maggiormente con il sistema informativo;
• privilegiare scientificamente ed operativamente la qualità della
Perché Galileo 2001
25
raccolta, dell’analisi e della diffusione dei dati e delle conoscenze ambientali con riferimento all’approccio quantitativo».
Occorre far rilevare come questo approccio quantitativo abbia valore non dogmatico, ma anche che l’oggettività scientifica, entro i suoi
limiti operativi, è comunque la più affidabile.
Sono la portata e il significato dell’indagine scientifica che devono
essere meglio conosciuti. Per questo noi dicevamo e diciamo:
«Il fatto che le conoscenze scientifiche, per la natura stessa del metodo d’indagine e di verifica dei risultati, si accreditino con spazi di
dubbio sempre riducibili ma mai eliminabili, costituisce l’antidoto
principale verso ogni forma di dogmatismo, scientismo, intolleranza e
illiberalità, ma non può giustificare il considerare tali conoscenze opinabili e, peggio, inattendibili.
La voce della scienza è certamente più affidabile e anche umanamente – oltre che intellettualmente – più consapevole delle voci incontrollate e dogmatiche che, fuori di ogni rilevanza scientifica, pretendono di affermare verità basate sull’emotività irrazionale tipica delle culture oscurantiste».
È in effetti fuorviante la pretesa di richiamarsi alle incertezze scientifiche da cui deriverebbero le contraddizioni nell’informazione e le
confusioni nell’interpretazione, di nuovo per difetto di conoscenza
della metodologia scientifica. Sarebbe interessante ricordare osservazioni, opinioni ed illazioni che da tempo si sono manifestate e si manifestano confondendo i problemi sotto analisi e i dati sotto verifica con
affermazioni intempestive e non dotate della sufficiente cautela in tema
di acquisizione.
È curioso – val la pena di notare – come il Principio di Precauzione
che viene invocato ad ogni pie’ sospinto qualunque sia la portata di un
eventuale segnale di attenzione – anche in contrasto con chiare indicazioni tecnico-scientifiche, ambientali e sanitarie – non viene adottato
per evitare allarmismi ingiustificati (a proposito: che ne è del reato di
procurato allarme?), sostituendoli con raccomandazioni più serene ed
anche – pure questo è un dovere – con segnali più rassicuranti.
Un caso tipico, oltre a quelli già citati, è quello dei cambiamenti climatici, che non possono essere delegati soltanto all’invenzione di modelli sempre più sofisticati, assumendo come ipotesi – sia pure neces-
26
I costi della non-scienza
sarie, ma non sufficienti, parziali e riduttive – quali l’effetto serra di
origine antropica, e richiedono una valutazione più approfondita di ricerche e dati osservazionali e storico-geofisici, in termini scientificamente affidabili.
E qui occorre un riferimento esplicito: sulla base del Principio di
Precauzione e partendo da considerazioni eccessivamente allarmistiche
relative all’eccesso di contributi antropici alla emissione di gas-serra, si
è costruito il paradosso del Protocollo di Kyoto che, da una parte, sancisce le restrizioni atte a ridurre tali emissioni (al 95% di quelle del
1990 entro il 2012),1 dall’altra non affronta quantitativamente l’effetto
di tali interventi (non più dello 0,05 per mille sul contenuto totale di
CO2 in atmosfera) di fronte ai costi (notevoli, per non dire enormi)
dell’operazione.
Interviene qui pertanto un confronto emblematico tra un criterio
puramente politico quale il Principio di Precauzione e uno scientificamente e socialmente più accettabile quale il rapporto rischi/benefici.
In effetti, i 3 concetti fondanti della cultura ambientale corrente
sono: lo sviluppo sostenibile, il Principio di Precauzione e il rapporto rischi/benefici.
Val la pena di ricordare come il primo (dizione classica: lo sviluppo
è sostenibile se soddisfa i bisogni del presente senza compromettere le
possibilità delle future generazioni di soddisfare i propri) sia un criterio
originariamente economico in cui ci si pone il problema del futuro
(occhio al futuro), tanto è vero che il termine “sostenibile”, che deriva
dalla traduzione del testo inglese “sustainable”, è in realtà associato
all’originaria espressione in francese “developpement durable” (sviluppo durevole).
Le due espressioni non pongono soltanto una questione nominalistica, ma hanno finito per assumere significati concettuali diversi o
complementari in cui la questione ambientale diventa un elemento indispensabile (sostenibilità), oppure integrata nel progresso socio-economico (durata).
1 Trascurando il fatto che già oggi, per esempio in Europa, si è in largo eccesso rispetto all’obbiettivo proposto di una riduzione globale del 6%; in Italia, di
fronte a un eccesso attuale del 4,4%, la riduzione prevista del 6,5% diventerebbe
quindi dell’11%.
Perché Galileo 2001
27
Da ciò, le interpretazioni estremistiche (ambientalismo radicale) e
quelle razionali (compatibilità funzionale al progresso).
La prima accentua i limiti e i freni del concetto di precauzione, la
seconda tende a privilegiare – ed è questo il nostro punto di vista – il
rapporto rischi/benefici.
È in effetti il secondo criterio, cioè il Principio di Precauzione (oggetto del nostro dibattito) a costituire gli elementi di maggiore ambiguità. L’enunciato standard adottato, ad esempio, dal trattato di Maastricht (U.E. 1992) non è diretto ma circonvoluto (e quindi è tutt’altro
che un criterio scientifico) e sostiene che: Al fine di proteggere l’ambiente, il P.d.P. deve essere largamente applicato dagli Stati a seconda
delle loro possibilità. Quando vi siano pericoli (minacce) di danni seri e
irreversibili (ecco quindi la definizione più o meno chiara) la mancanza di certezza scientifica piena non dovrà essere usata come una ragione
per posporre misure economicamente efficaci per prevenire il degrado
ambientale.
Che sia un criterio ambiguo, o per lo meno tortuoso, è dimostrato
da termini quali la «certezza scientifica piena (sic!)» e concetti quali
«non posporre per prevenire». Lascio ai colleghi, in particolare a Tullio Regge, l’illustrazione dei trucchi verbali che ammantano tale Principio nelle innumerevoli enunciazioni. Mi basterà qui accennare al ripiego cui lo stesso trattato della U.E. ricorre con il paragrafo 3, ove
cerca di correre ai ripari affermando che «nel preparare la sua politica
ambientale la Comunità dovrà tener conto dei dati scientifici e tecnici
disponibili così come dei benefici potenziali e dei costi, sia delle azioni
(prese) che della mancanza di azioni».
Se dovessimo applicare tale raccomandazione al Protocollo di Kyoto, per esempio, dovremmo dar ragione agli Stati Uniti e alla Russia
che non hanno ratificato e non ratificheranno tale trattato.
E siamo, ovviamente, al rapporto costi/benefici (intendendo costi
in senso lato, economici, sociali, ambientali, sanitari o anche di vite
umane). Questo stesso criterio, come ho già accennato, è non solo il
più ragionevole e comprensibile (si definisce da solo), ma effettivamente l’unico praticabile, anche in termini quantitativi e quindi
scientificamente e socialmente più accettabile. Per dirla con l’amico
Franco Battaglia, esso precede o contiene il principio di priorità, che
specifica e quantifica gli interventi correnti con una valutazione con-
28
I costi della non-scienza
creta delle conseguenze delle nostre azioni in senso sia negativo che
positivo.
Una volta introdotto, il criterio del rapporto rischi/benefici diviene
uno strumento, se concepito in termini integrati (economia, salute,
ambiente, scientificità), più adeguato per gestire i veri problemi e le
possibili emergenze.
Può essere interessante far notare come tale concetto sia collegato
ad una evoluzione socio-politica che, partendo da posizioni concettuali esagerate in un senso (minimizzazione dei rischi ed enfatizzazione
dei benefici) abbia via via portato ad una esagerazione opposta (enfatizzazione dei rischi e minimizzazione dei benefici). Il tutto certamente legato a valutazioni spesso troppo qualitative. È la scienza che ha
dato e può dare un inestimabile contributo (perché misurabile e quantitativo) al bilanciamento corretto dei due termini-confronto.
In effetti, si consideri come ci si rapporta rispetto ad ogni processo
evolutivo (dinamica della società).2 Un cambiamento può rendere il
mondo o più sicuro o più pericoloso. Bisogna prendere in considerazione entrambi i casi.
In un mondo perfetto si potrebbe sempre distinguere fra i due casi
in modo schematico (si/no). Nel mondo reale ciò non è possibile, e si
presentano due tipi di errori.
L’errore di primo tipo può enunciarsi così:
Un cambiamento, in realtà pericoloso, viene ritenuto invece tale da
rendere il mondo più sicuro (esempi tipici: l’uso dell’amianto e del talidomide).
L’errore di secondo tipo è così esprimibile:
Un cambiamento che migliora la sicurezza (sostanzialmente benefico) viene invece considerato pericoloso (esempi: beta bloccanti, DDT,
OGM). È chiaro che il concetto di cambiamento qui va inteso in senso lato relativo all’utilizzazione di strumenti, di tecnologie, di approcci
innovativi, etc.
La sfida intellettuale, ma anche socio-politica, è trovare il giusto
punto di equilibrio, ed è evidente che il parametro di misura è il rapporto rischio/beneficio. Da una parte vi è il pericolo di correre troppo
2
Queste considerazioni sono riprese da Statistica e teorie della decisione di
Fred Smith (Competitive Enterprise Institure, Conferenza ALEPS, Parigi, 2000).
Perché Galileo 2001
29
(futuribilità, innovazione esasperata), dall’altra quella di star fermi
(immobilismo tecnologico).
A questi due estremi corrispondono le due concezioni limite sopra
accennate: da un lato un mondo sotto-cautelato (processi di industrializzazione forzata, ad esempio) dall’altro un mondo sopra-cautelato
(principio di precauzione esasperato). Cum granu salis verrebbe da dire e forse, o senza forse, la scienza ha da dire la sua.
La scienza non è foriera di catastrofi né dispensatrice di miracoli.
Malgrado sia un messaggio difficile da far passare – a causa dell’educazione e dell’informazione comune – occorre ribadire l’informazione
corretta sulla metodologia scientifica che procede fra dubbi e verifiche e che su questa base dà ragionevoli certezze e non si affida a dogmi di sorta.
La chiave di volta – ripeto – è l’informazione scientifica, un’informazione serena ed obiettiva, che deve costruire un doveroso riferimento per gli addetti alla comunicazione da una parte e, dall’altra, un
impegno delle comunità scientifiche per evitarne la distorsione e l’uso
strumentale interessato.
31
UN’ALLEANZA PER LA SCIENZA
Umberto Veronesi 1
Presidente Onorario dell’Associazione Galileo 2001
R
ingrazio gli organizzatori per questo invito. Sono stato tra i primi sostenitori di questo Movimento, quindi mi fa piacere vedere come stia crescendo e stia avendo anche il successo di pubblico che si merita.
Partendo proprio dall’osservazione del distacco che si è creato tra
il mondo della scienza e la società, un distacco non nuovo, accentuato
dal fatto che la scienza di oggi ha assunto un’evoluzione vigorosa, grazie al fatto che sono entrate nel mondo scientifico nuove aree di sviluppo, quali: l’informatica, le biotecnologie, le telecomunicazioni, che
non esistevano fino a pochi decenni fa e che hanno dato un’accelerazione notevole. Come sempre, quando si va molto velocemente c’è
una reazione che è proporzionale e contraria alla velocità dell’evoluzione.
D’altro canto, questa dissociazione non è nuova se pensiamo
all’enunciazione della teoria eliocentrica di Copernico che è del 1543.
Se andiamo a guardare la storia del secolo successivo, il cittadino europeo ha incominciato a pensare che forse Copernico aveva ragione
solo verso la fine del ’600, quindi un secolo e mezzo dopo. C’è sempre
un lungo periodo di riflessione – chiamiamolo così – prima di accettare le grandi novità.
D’altra parte la storia della scienza è stata una storia a singhiozzo.
Abbiamo avuto periodi di grandi accelerazioni e di battute d’arresto,
se pensate che nella Mesopotamia di 4000 anni fa nel giro di cento anni è stato scoperto l’aratro, l’irrigazione, l’astronomia, la scuola, buona
parte del linguaggio; per poi avere un lungo periodo di silenzio fino al
1
Ex Ministro alla Salute
32
I costi della non-scienza
quarto/quinto secolo avanti Cristo, quando in Grecia Talete, Zenone,
Empedocle, Pitagora, per non parlare di Aristotele e di Platone, hanno di nuovo messo le basi per il pensiero logico e per la razionalità del
pensiero scientifico. Poi di nuovo silenzio, fino a quando Ibn Rushd e
Ibn Sina hanno ripreso e riscoperto il pensiero greco, per poi arrivare
all’Umanesimo e al Rinascimento e all’avvio, con l’Illuminismo, del
pensiero scientifico moderno di cui oggi vediamo i frutti.
Una storia difficile, influenzata dai fattori che hanno sempre condizionato, e che anche oggi condizionano, lo sviluppo scientifico, e cioè il
potere politico da una parte, e il potere religioso e i movimenti di opinione da un’altra. Molto è stato già detto sul potere politico e sulle sue
influenze sulla scienza. Per molti secoli nel mondo dell’assolutismo lo
scienziato è stato visto con sospetto, perché chi è ricco di conoscenza
ha un potere che può essere minaccioso. Lo scienziato è ancor oggi visto con diffidenza e il mondo della scienza è fortemente condizionato
dal pensiero politico. Certamente non c’è molto amore per la scienza in
gran parte degli uomini politici. Per di più oggi si è sovrapposto un fenomeno contingente: che lo sviluppo scientifico e la ricerca di oggi sono sempre più costosi e richiedono sempre più finanziamenti. Finanziamenti che non possono che essere prevalentemente pubblici. Per
questo vengono premiate quelle ricerche promettenti risultati a breve
termine che sono quelli, dal politico stesso, in qualche maniera fruibili.
Questo porta ad uno spostamento dell’impegno finanziario a favore
della ricerca applicata penalizzando fortemente la ricerca di base, problema che abbiamo davanti a noi quotidianamente: tutti sappiamo che
senza una forte ricerca di base la ricerca applicata si impoverirà. Ecco
che, soprattutto in un mondo in cui il ricambio dei governi è abbastanza rapido, il pensiero di chi regge le sorti del Paese è quello di avere risultati a breve termine, e questo non può che venire dalla ricerca applicata. La ricerca pura è una ricerca che richiede una cultura strategica
che spesso manca nel mondo politico di oggi.
Per quanto riguarda il potere religioso, sappiamo che c’è una base
logica per il dissidio tra il mondo della scienza ed il mondo della religione. Il mondo della scienza si sviluppa all’interno di un orizzonte razionale ed il mondo della religione si sviluppa all’interno di un orizzonte di fede, metafisico. Non è quindi facile conciliare i due elementi. Non voglio dare giudizi storici, ma basta ricordarsi che Socrate do-
Un’alleanza per la scienza
33
vette bere la cicuta per aver affermato di non credere negli dei
dell’Olimpo. E poi il nostro sodalizio si chiama “Galileo” e questo già
ci ricorda come Galileo Galilei abbia rappresentato la grande dimostrazione della difficoltà della scienza a svilupparsi all’interno di un
mondo pervaso dalla fede. Ci sono state delle eccezioni certamente:
Gregor Mendel, un monaco all’interno di un convento, ha scoperto le
basi della genetica, e Copernico stesso era un religioso, era un canonico, aveva preso i voti. Infatti, io mi sorprendo sempre come abbia potuto (in quel periodo, la metà del ’500) aver scritto un libro così forte,
così violento nei riguardi anche delle concezioni bibliche del mondo,
il famoso volume De Revolutionibus orbium coelestium e che fu posto
sul suo letto di morte due giorni prima che concludesse la sua esistenza. Mi chiedo come abbia potuto avere questo coraggio: un libro che
ha lasciato in eredità un rivolgimento delle idee, che doveva avere influenze enormi sulla visione del ruolo dell’uomo nell’universo, giacché
da quel momento l’uomo doveva smettere di credersi al centro
dell’universo. Quindi un capovolgimento anche filosofico di grandi
proporzioni. Se ci pensiamo bene, Copernico ha potuto fare questo
perché l’Europa era scossa da una fortissima incertezza a livello teologico dovuta allo scisma luterano di pochi anni prima.
Se guardiamo in questi giorni la legge sulla fecondazione assistita,
vediamo che è fortemente influenzata da pensieri che non sono razionali, che non sono pensieri di scienza ma sono pensieri di fede e quindi dobbiamo renderci conto che ancora oggi siamo in questo dibattito, forse meno violento (non ci porterà certo a guerre di religione), ma
dobbiamo rendercene conto e prenderne atto, e naturalmente agire
con la nostra solita fermezza. Lasciando libero ad ognuno il proprio
pensiero, la propria fede, ma pensando che in un mondo che è sempre
più pluralistico, sempre più policonfessionale, una religione non deve
avere il sopravvento sulle altre o su chi non ha il bisogno della fede.
Il terzo problema che è venuto fuori e da cui voglio prendere spunto dopo le bellissime parole del nostro presidente, è quello della reazione popolare da cui è nato proprio il PdP, perché è un principio
ideologico e politico, non certo un principio scientifico. La precauzione non è quantificabile, è un atteggiamento dell’uomo come la prudenza, come il coraggio o come la voglia di conoscere. Sono tutti atteggiamenti naturali che si sono sviluppati nei millenni e quindi niente
34
I costi della non-scienza
hanno a che vedere con l’indagine e la riflessione scientifica. Per secoli
la scienza è stata un fenomeno elitario ristretto a pochissime persone,
fino a quando nel ’600 (e poi nel ’700 con l’Encyclopedie di D’Alambert e di Diderot) ha incominciato a conquistare al mondo della scienza la classe borghese, conquista che poi è stata tra le premesse della rivoluzione francese. Successivamente, questa divulgazione della scienza si è estesa in maniera così considerevole che oggi la scienza è alla
portata di tutti grazie ai mezzi di comunicazione di massa, alla stampa,
alla televisione e alla radio e ad internet.
Questo va benissimo sotto certi aspetti: non possiamo che essere
lieti che la scienza penetri nel pensiero della popolazione. Ma, purtroppo, gli strumenti di informazione non sono certamente alla ricerca
della verità, sono alla ricerca di sensazionalismo, di vendere i giornali
o di avere più audience, e quindi questo inevitabilmente porta ad una
distorsione dell’informazione. Questo diverso modo di comunicare la
scienza a sua volta può essere strumentalizzato. I giornali possono essere influenzati da pensieri ideologici o da movimenti politici o da
movimenti popolari o dal bisogno di creare un livello di sottocultura
nella popolazione, perché la popolazione meno colta è più facilmente
manovrabile, e l’abbiamo visto nel PdP come negli OGM. Come si fa
a non reagire al fatto che in questo decennio vengono messi a fuoco
alcuni ettari di mais perché contengono lo 0,5 per mille di mais modificato, quando tutto il mondo sa che il mais geneticamente modificato
è chiaramente migliore del mais naturale? Il presidente del Comitato
Nazionale Biosicurezza e Biotecnologia, Leonardo Santi, ha parlato
del caso Di Bella come di un caso sintomatico. Io ho vissuto il caso
della mucca pazza, altrettanto sintomatico: un allarmismo assolutamente ingiustificabile. Oggi la popolazione è persa, non sa cosa pensare degli embrioni soprannumerari, della fecondazione assistita, del diritto a non farsi curare, del diritto o del dovere alle cure, del consenso
informato, degli OGM o dell’utero in affitto o della clonazione terapeutica, o della futura clonazione dell’uomo, che arriverà prima o poi.
Hanno clonato una pecora, poi un cavallo, poi un asino e quindi arriverà un giorno in cui troveremo una donna che ci dirà: «questo bambino l’ho clonato da me stessa». Ormai siamo alle soglie di questi avvenimenti e quindi è proprio su questa base che noi tempo fa avevamo
detto: «guardate che le potenzialità delle biotecnologie come quelle
Un’alleanza per la scienza
35
dell’informatica, come quelle delle telecomunicazioni sono esplosive e
siamo solo all’inizio. Siamo solo ai primi vagiti di una scienza che ha
possibilità enormi». Questo ci impone il dovere di sederci intorno ad
un tavolo e di pensare che l’Europa crei una “camera alta” che non sia
politica, che sia l’insieme di uomini di scienza ma anche di filosofi, di
teologi, che discutano e che comincino a disegnare la società del futuro, perché certamente questa rivoluzione scientifica, deve continuare
ad avere una funzione civilizzatrice, ma ci porrà davanti a temi certamente difficili. I limiti che devono essere posti non devono essere dettati dalla paura, perché la paura è sempre una cattiva consigliera.
Per concludere, ripeto sempre che il nostro più grande nemico è
l’ignoranza. A mio parere occorre una grande umiltà per non schierarsi senza approfondimenti perché l’ignoranza non dà nessun diritto né
a credere né a non credere, e l’etica deve avere una funzione di guida
e non di freno allo sviluppo del pensiero scientifico.
37
IL PRINCIPIO DI PRECAUZIONE:
PRECAUZIONE O RISCHIO?
Franco Battaglia
Università di Roma Tre
Sommario
S
osterremo qui l’opportunità, se non la necessità, di sopprimere
il Principio di Precauzione (PdP). Il PdP è, innanzitutto, mal posto: la certezza scientifica è sempre assente. Poi, esso è ambiguo,
visto che può essere invocato sia per intraprendere un’azione che la
sua opposta. Infine, il PdP è, a dispetto del suo nome, rischiosissimo,
come numerosi esempi testimoniano. Con le facili critiche cui l’enunciato si espone, chiamarlo “principio” è quanto meno azzardato.
Quindi, l’enunciato del PdP non ha nulla che gli consente di fregiarsi
dell’appellativo di “principio”, e non ha nulla a che vedere con la
“precauzione”. Termino con un appello alle società scientifiche affinché riflettano sull’opportunità di promuovere, presso i livelli istituzionali, azioni atte alla soppressione del PdP ed, eventualmente, se proprio si sentisse il bisogno di un principio guida, di sostituirlo col Principio di Priorità, che viene enunciato.
Breve storia della nascita di Galileo 2001
In considerazione del fatto che questa relazione è presentata in occasione del I congresso nazionale dell’associazione Galileo 2001 –
l’evento con cui l’associazione stessa si presenta al pubblico – mi fa
piacere far precedere la relazione vera e propria dal racconto di come
l’associazione nacque.
Tutto cominciò nel 1999 – mia figlia Cleis andava ancora alla scuola materna – quando mia moglie mi chiese se ci saremmo dovuti
preoccupare dell’elettrosmog. Se ne sentiva parlare, quasi tutti i gior-
38
I costi della non-scienza
ni, in tutti i canali radiotelevisivi, nazionali e locali, e se ne leggeva in
tutta la carta stampata, quotidiana, settimanale e mensile: centinaia di
bambini in Italia, si diceva e scriveva, avevano contratto la leucemia a
causa dell’inquinamento elettromagnetico. A difenderci da questa
nuova peste – venivamo nel contempo informati – ci avrebbe pensato
il Ministero dell’Ambiente, per diretto e personale interesse (un interesse indubbiamente molto personale, vedremo) del ministro di allora,
Willer Bordon e del suo sottosegretario Valerio Calzolaio, approntando leggi severissime che, con la modica spesa di centomila miliardi di
vecchie lire, avrebbero salvato i nostri bambini.
Per rispondere alla preoccupata domanda di mia moglie, consultai
i rapporti, contenenti l’analisi critica della totalità delle risultanze
scientifiche, rilasciati dalle più accreditate istituzioni: Associazione
americana di fisica (APS), Organizzazione mondiale della sanità
(OMS), Agenzia internazionale per la ricerca sul cancro (IARC),
Commissione internazionale per la protezione dalle radiazioni non-ionizzanti (ICNIRP), Associazione americana di medicina, l’americano
Istituto nazionale di cancerologia (NCI). Dopo un paio d’ore di lettura, ebbi la risposta per mia moglie: l’elettrosmog non esiste.
Avevo passato anni della mia vita ad eseguire, nell’isolamento del
mio studio, calcoli quantomeccanici su sistemi molecolari che, tutto
sommato, interessavano me e altri quattro gatti al mondo. La sorte mi
aveva offerto l’opportunità di rendermi utile, e così decisi di telefonare alla redazione di quello che ritenevo fosse il più rispettabile quotidiano italiano, chiedendo di parlare con un capo-redattore.
– Mi chiamo Franco Battaglia – esordii – e sono docente al Dipartimento di Fisica dell’Università di Roma Tre: v’interessa un articolo
sull’elettrosmog?
– E come no, professore, è l’argomento del giorno! Ma, mi raccomando, non sia troppo tecnico. Sa… i nostri lettori… Piuttosto, cosa
vorrebbe scrivere?
– Beh, scriverei, e motiverei, che l’elettrosmog non esiste.
– Allora no, non c’interessa.
– Ma come… le leucemie… i bambini… la gente terrorizzata…
Riprovai con altri quotidiani. Niente da fare: lo schema della conversazione fu lo stesso. Finché Il Giornale di Cervi e Belpietro si mostrò interessato, e accettò l’articolo «Elettrosmog: tanti allarmismi per
Il principio di precauzione: precauzione o rischio?
39
nulla» 1. Iniziò così una collaborazione, e altri articoli seguirono: «Da
Copernico al biotech, la guerra alla scienza», «L’auspicabile ritorno al
nucleare», «La bufala dell’effetto serra», «Bugie sugli OGM», «L’eccessiva paura alle radiazioni» 2.
Gli articoli dovettero solleticare l’attenzione di Maurizio Belpietro,
che incaricò una delle sue penne più brillanti d’intervistarmi. Giancarlo
Perna produsse un’intervista che uscì a piena pagina, con tanto di mia
foto 3. Succo dell’intervista: in tutto quello che avevo scritto nei miei
precedenti articoli non v’era una parola di mio, essendomi io limitato a
riportare la voce della comunità scientifica accreditata. A tamburo battente, il ministro verde Gianni Mattioli telefonò al Giornale chiedendo
un’intervista anche per lui: di nuovo, piena pagina con tanto di foto del
ministro 4. Succo dell’intervista a Mattioli: Battaglia è un asino. Perna –
che dev’essere uno spirito scientifico – aveva bisogno di un terzo parere,
e andò da Tullio Regge: per la terza volta, piena pagina con foto (di
Regge) 5. Il verdetto del premio Einstein per la fisica ed ex europarlamentare del Pci non fu salomonico: il somaro è Gianni Mattioli 6.
Tutta questa pubblicità mi portò all’attenzione di Renato Angelo
Ricci, presidente per 17 anni (ora onorario) della Società Italiana di
1
Il Giornale, 27.9.2000.
Si veda Il Giornale, alle date: 18.7.2000, 4.9.2000, 15.9.2000, 27.9.2000.
3 G. Perna, «Il catastrofismo è un’arma elettorale», Il Giornale, 22.10.2000.
4 G. Perna, «Il ministro va alla guerra contro il Prof. Battaglia», Il Giornale,
31.10.2000.
5 G. Perna, «L’astrofisico assolve l’ammazza-ecologisti», Il Giornale,
12.11.2000.
6 Inutile specificarlo, Regge – da gentiluomo qual è – non apostrofò così Mattioli, ma certamente lo sconfessò su ogni tema affrontato nelle interviste di Perna.
Anche se – mi ha raccontato più di un collega – corre il pettegolezzo che Mattioli
sia stato così apostrofato in pubblico da Edoardo Amaldi, a proposito delle stravaganti idee che lo stesso Mattioli andava diffondendo in tema di energia nucleare. Non so se il pettegolezzo sia fondato, però sono incline a ritenerlo plausibile.
Il mio parere personale è che Amaldi – altrimenti fiore all’occhiello della fisica
italiana – quella volta non azzeccò proprio la valutazione su quel suo studente,
come inconfutabilmente i fatti dimostrano: il primo, deve aver serbato nel cuore,
sino all’ultimo giorno della sua vita, l’amarezza di aver assistito allo smantellamento della fisica e dell’ingegneria nucleare in Italia; il secondo ha saputo bruciare in modo folgorante tutte le tappe della carriera politica, così inconfutabilmente dimostrando d’essere tutto fuorché un asino.
2
40
I costi della non-scienza
Fisica. Ricci volle conoscermi e, al nostro primo incontro, dopo avermi informato che per vent’anni egli aveva cercato di smascherare le
numerose bugie ambientaliste, osservò che – a quello scopo – bisognava unire le forze della comunità scientifica sensibili alle bugie degli
ambientalisti e compiere una qualche azione significativa. Decidemmo
di inviare al Presidente Ciampi una lettera aperta, nella quale gli aprivamo gli occhi sulla bugia di tutte le bugie: l’elettrosmog. La firmammo in cinque ma, una volta diffusa, fu sottoscritta da centinaia di fisici, biologi, oncologi, pediatri e radioprotezionisti 7.
Un giorno ci trovavamo – Ricci, l’ingegnere nucleare Ugo Spezia,
l’oncologo Umberto Tirelli e io – ad attendere una giornalista della
Rai che voleva intervistarci sull’elettrosmog. Eravamo in una saletta
dell’ospedale S. Raffaele di Roma. Durante l’attesa, Ugo Spezia disse
che avremmo dovuto costituire un Movimento, Renato Ricci aggiunse
che l’avremmo potuto chiamare Movimento Galileo, che Umberto Tirelli corresse in Galileo 2001. Io, che sono un inguaribile individualista e non provo alcun entusiasmo per le azioni “collettive”, credo mugugnai disinteresse o, forse, contrarietà. Comunque, sulla mia isolata
apatia prevalse l’entusiasmo degli altri tre: nacque così il Movimento
Galileo 2001.
Bisogna anche sapere che Renato Angelo Ricci gode – presso qualcuna delle persone a lui amiche – dell’appellativo di uomo bionico 8. Se
lo merita: il giorno dopo quel meeting al S. Raffaele, Ricci trasmise a
noi altri tre il testo del Manifesto del Movimento Galileo 2001, per
eventuali correzioni o aggiunte. Non ne fu necessaria alcuna: il testo
fu distribuito, così come partorito da Ricci la notte precedente, a tutti
i sottoscrittori dell’appello a Ciampi sull’elettrosmog, i quali rinnovarono quella sottoscrizione. Da parte sua, il presidente Ciampi ci partecipò della sua simpatia decidendo di mettere il neonato Movimento
Galileo 2001 sotto le ali protettive del Suo alto patronato. Rivelando,
il nostro stimato Presidente della Repubblica, una tanto gradevole
quanto inattesa vena rivoluzionaria.
7
Per il testo della lettera a Ciampi e l’elenco dei firmatari, si consulti il sito
dell’associazione: www.galileo2001.it
8 Comunicazione personale della signora Angela Rosati (ora Segretario Generale dell’Associazione).
Il principio di precauzione: precauzione o rischio?
41
La stessa vena, però, mancava proprio ai fondatori del Movimento.
Infatti, quando alcune vicende parallele portarono alcuni di noi a ricoprire l’incarico di membri del comitato scientifico dell’Agenzia nazionale protezione ambiente (ANPA), di cui Ricci era appena stato nominato Commissario governativo, pensammo bene che quelle questioni
ambientali che ci stavano a cuore avremmo potuto riportarle entro i
binari delle conoscenze scientifiche accreditate attraverso la via “istituzionale”. Il Movimento Galileo 2001 subì un periodo di sosta, ma
all’ANPA il comitato scientifico – da me coordinato – si mise al lavoro
per produrre rapporti (ne produsse nove) su quei temi che erano stati
oggetto dei miei primi articoli sul Giornale. Nel comitato scientifico
dell’ANPA c’erano, tra gli altri, Paolo Vecchia (che ora è presidente
dell’ICNIRP), Franco Panizon (professore emerito di clinica pediatrica all’Università di Trieste), Francesco Sala (Direttore degli Orti botanici dell’Università di Milano), Argeo Benco (ex presidente dell’Associazione italiana di radioprotezione). C’erano, insomma, sui temi di
cui il comitato si sarebbe dovuto occupare, elementi tra i migliori rappresentanti della comunità scientifica italiana. I rapporti di quel comitato sono oggi leggibili sia dal sito del Ministero dell’Ambiente che da
quello dell’Associazione Galileo 2001, www.galileo2001.it.
L’associazione nacque quando – concluso il periodo di commissariamento dell’ANPA e quindi esauriti i doveri istituzionali di alcuni di
noi (tra cui, soprattutto, quelli di Ricci, che del Movimento Galileo
2001 era la forza trainante) – ci si rese conto che molto lavoro sarebbe
stato ancora da fare in ordine alla diffusione della corretta informazione scientifica su questioni in cui i movimenti ambientalisti e le loro
bugie l’avevano fatta da padroni. E così, ripresa l’iniziativa da dove
era stata lasciata durante la parentesi all’ANPA, il 19 febbraio 2003 ci
si ritrovò di nuovo tutti 9, e di fronte al notaio si diede vita all’Associazione Galileo 2001, per la libertà e dignità della scienza.
9 In ordine alfabetico: Franco Battaglia, Argeo Benco, Carlo Bernardini, Tullio Bressani, Luciano Caglioti, Cinzia Caporale, Giovanni Carboni, Francesco
Cognetti, Guido Fano, Rodolfo Federico, Gianni Fochi, Gianvittorio Pallottino,
Tullio Regge, Renato Angelo Ricci, Angela Rosati, Francesco Sala, Carlo Salvetti,
Giorgio Salvini, Tommaso Scarascia Mugnozza, Paolo Sequi, Ugo Spezia, Umberto Tirelli, Giorgio Trenta, Paolo Vecchia, Umberto Veronesi.
42
I costi della non-scienza
Il primo importante impegno dell’associazione è stato l’organizzazione del convegno nazionale annuale. Il tema del convegno – il Principio di Precauzione – nasce dalla seguente considerazione. Numerose
azioni che alcuni vorrebbero intraprendere (o hanno intrapreso) in
nome della protezione dell’ambiente, non avrebbero alcuna giustificazione essendo fondate su falsità scientifiche, cioè su bugie. Per attuare
quelle azioni sarebbe stata necessaria una giustificazione giuridica cui
appigliarsi, ed è stata trovata, appunto – penso io – nel Principio di
Precauzione.
Enunciato del principio
Recentemente abbiamo avuto modo di sentire invocato il Principio
di Precauzione (PdP) a sostegno di scelte politiche su questioni di protezione della salute o dell’ambiente. Penso che il principio andrebbe
al più presto soppresso per le ragioni che ora esporrò. Sia ben chiaro:
la precauzione è una cosa tanto sacrosanta quanto difficilmente contestabile, e senz’altro da prendere in ogni attività umana. Ma il PdP, tentativo di dare forma giuridica all’azione della precauzione, sembra essersi rivelato un fallimento, non solo inutile ma anche, come vedremo,
dannoso. Il PdP può enunciarsi come formulato nell’articolo 15 della
Dichiarazione di Rio del 1992:
«Where there are threats of serious or irreversible damage, lack of
full scientific certainty shall not be used as a reason for postponing
cost-effective measures to prevent environmental degradation».
Mi si consenta di tradurlo così 10:
«Ove vi siano minacce di danno serio o irreversibile, l’assenza di
piena certezza scientifica non deve servire come pretesto per posporre
l’adozione di misure, efficaci rispetto ai costi, volte a prevenire il degrado ambientale».
Il principio di precauzione è malposto ed ambiguo
Solo a chi non ha un’educazione scientifica può passare inosservato il fatto che esso è malposto: la piena certezza scientifica è sempre as10
F. Battaglia, Le Scienze 394, 110 (2001).
Il principio di precauzione: precauzione o rischio?
43
sente. Certamente non è passato inosservato alla Commissione dell’UE, che però, anziché rifiutare il principio, ha tentato, un po’ arrampicandosi sugli specchi e aggiungendo problemi anziché risolverne, di
giustificarlo e di stabilirne i limiti d’applicabilità. In ogni caso, secondo il rapporto della commissione dell’UE, una condizione necessaria
(ma non sufficiente!) per invocare (non per applicare!) il principio, è
che i rischi siano stati individuati: non è sufficiente ipotizzarli 11.
Come detto, la «piena certezza scientifica» è sempre assente, giacché il dubbio è nella natura stessa della Scienza. Il rischio del PdP è
che quello spazio di dubbio lasciato dalla Scienza potrebbe essere
riempito da affermazioni arbitrarie che, dando voce solo ai singoli risultati scientifici che tornano di volta in volta comodi, consentano ad
alcuni la razionalizzazione dei loro interessi di parte in aperto contrasto con quelli della collettività e con l’analisi critica della totalità delle
acquisizioni scientifiche. E il passo da affermazione arbitraria a (finta)
certezza è breve.
Il Pdp, inoltre, è ambiguo: esso può essere invocato sia per adottare
una certa misura, sia per adottare la misura opposta. Un esempio chiarirà la situazione che potrebbe prospettarsi. La scienza ci dà la piena
certezza che un’infezione evolva spontaneamente verso la guarigione?
No, quindi, in nome del PdP, decidiamo di somministrare la penicillina. Ma la scienza ci dà la piena certezza che la penicillina non provochi uno shock anafilattico, e finanche la morte? No, quindi, sempre in
nome del PdP, ci asteniamo dal somministrare l’antibiotico.
Il principio di precauzione è rischiosissimo
Il più grave difetto del PdP, però, è che esso è rischiosissimo, il che
suonerebbe alquanto ironico se non fosse tremendamente tragico. Ancora una volta, alcuni esempi chiariranno i termini della questione.
a) Nella bibbia ambientalista, la Primavera silenziosa di Rachael
Carson, scritta poco meno di 50 anni fa, il DDT veniva bollato come
«elisir della morte». A Ceylon, nel 1948, si avevano 2 milioni di casi di
malaria, che si ridussero a 31 casi nel 1962 grazie al DDT. Dopo la sua
11
http://europa.eu.int/comm/dgs/health_consumer/library/pub/pub07en.pdf.
44
I costi della non-scienza
abolizione, in nome, potremmo dire, di un PdP ante litteram, la malaria ha ripreso a colpire milioni di persone.
b) Alla fine degli anni Settanta fu modificato in Inghilterra il metodo di lavorazione delle carcasse di ovini (per ottenere un integratore
alimentare proteico): mentre il procedimento precedente distruggeva
il prione (l’agente del morbo della mucca pazza), quello nuovo non
era in grado di farlo. Di per sé, l’uso di scarti di macelleria per produrre mangime arricchito di proteine non ha nulla di grave 12 (certamente, però, per precauzione, non si sarebbero dovute usare carcasse
di bestie malate). Per eliminare l’acqua e il grasso, gli scarti venivano
ridotti in polpa, riscaldati a 130°C sotto pressione e trattati con uno
dei tanti solventi organici adatto a sciogliere i grassi. La migliore scelta
non poteva che cadere sul diclorometano. Si sarebbe prodotto grasso
e mangime d’ottima qualità. E non contaminato dal prione infettivo,
che veniva distrutto dal procedimento. Sennonché i soliti ambientalisti avviarono una lotta al diclorometano, fondandosi su due argomentazioni. La prima, alquanto cervellotica, sosteneva che siccome i clorofluorocarburi (CFC) – che contengono atomi di cloro legati ad un atomo di carbonio – distruggono l’ozono, lo stesso forse avrebbe fatto il
diclorometano (anch’esso contenente due atomi di cloro legati ad un
carbonio). La seconda argomentazione si faceva forte di una singola
pubblicazione scientifica che riportava l’aumento d’incidenza di cancro su topi esposti a diclorometano (topi che, peraltro, erano stati geneticamente modificati in modo da essere particolarmente predisposti
a contrarre tumori). Le imprese britanniche vennero indotte ad abbandonare il diclorometano e ad adottare un procedimento che, senza
far uso di solventi, trattava a soli 80°C le carcasse e poi le pressava.
Con quel procedimento il prione rimase inalterato, e si trasmise così
dal mangime alle vacche. Oggi sappiamo – magra consolazione – che
12 Qualcuno ha detto che la causa del caso della mucca pazza andava ricercata
nel fatto che erbivori erano stati forzati a diventare carnivori. Come osservato,
l’uso di quelle farine come integratore alimentare è perfettamente legittimo. D’altra parte, alcuni anni fa fu necessario sterminare tutti i visoni di diversi allevamenti nel Wisconsin che avevano contratto quel morbo per essere stati nutriti
con farine animali infette: ma i visoni sono carnivori.
Il principio di precauzione: precauzione o rischio?
45
il diclorometano non è cancerogeno, e per azione della luce e dell’ossigeno si ossida decomponendosi rapidamente senza nuocere all’ozono. Non è lontano dal vero sostenere che il caso mucca pazza è nato,
ancora una volta, da un uso inappropriato di un PdP ante litteram.
c) Come tutti sappiamo, la clorazione delle acque è forse il metodo più efficace di purificazione dell’acqua potabile: basta una piccola
concentrazione di ipoclorito per mantenere l’acqua libera da germi
patogeni pericolosi per la nostra salute. Forse l’acqua clorata non è il
massimo del gradimento, ma dobbiamo scegliere: il sapore cristallino
o l’assenza di pericolosi germi. Sempre grazie al solito articolo scientifico che ipotizzava la rischiosità della clorazione delle acque in quanto
avrebbe potuto, presumibilmente, trasformare i residui organici presenti nell’acqua in composti organoclorurati che, sempre presumibilmente, avrebbero potuto favorire l’insorgere di tumori, alla fine degli
anni Ottanta fu dichiarata la guerra al procedimento di clorazione delle acque. Nonostante la IARC (Agenzia Internazionale per la Ricerca
sul Cancro) e l’OMS (Organizzazione Mondiale della Sanità) avessero
pubblicato, nel 1991, un rapporto che affermava che non vi erano
prove tali da destare allarme e che, comunque, il rischio ipotetico andava confrontato con quello certo che verrebbe dal bere acqua non
clorata, il governo peruviano, in quello stesso anno e in nome di un
PdP ante litteram, decise di interrompere la clorazione dell’acqua potabile. Ne conseguì un’epidemia di colera che colpì, nei successivi 5
anni, un milione di persone, uccidendone diecimila.
d) Il PdP fu invocato nel momento in cui si chiesero le moratorie
sulle pallottole all’uranio impoverito. Per non far nascere lo scandalo,
bastava osservare che l’uranio subisce il decadimento con emissione di
particelle alfa (che sono fermate da un semplice foglio di carta), ha un
tempo di dimezzamento di 4,5 miliardi d’anni, è stato inserito dalla
IARC, rispetto al suo eventuale potere cancerogeno, nella stessa classe
ove vi è il tè, ed è naturalmente presente nella crosta terrestre con una
concentrazione di 1-10 mg/Kg (ad esempio, la Lombardia è una zona
ricca d’uranio e nei primi venti centimetri di crosta terrestre, intorno a
Milano, e per un’estensione pari a quella del Kosovo, la quantità
d’uranio è 10.000 volte superiore a quella sparata con i proiettili). For-
46
I costi della non-scienza
se la moratoria andrebbe fatta sulle guerre: ancora una volta, il PdP
sposta l’attenzione da un problema reale verso uno finto.
e) Il PdP viene invocato per giustificare l’abbandono del nucleare come fonte energetica. In realtà, questo abbandono viene motivato,
oltre che con la necessità di evitare potenziali rischi da incidenti e da
contaminazione radioattiva, con altre tre scuse: l’energia nucleare sarebbe costosa, non esiste soluzione al problema dei rifiuti radioattivi,
il mondo la sta progressivamente abbandonando. A noi interessano gli
aspetti del rischio, visto che di PdP si sta trattando. Tuttavia, un breve
commento sulle altre tre scuse non ce lo risparmiamo.
Ad esempio, si deve notare che l’energia elettrica in Francia (ove,
per l’80%, si produce con le 60 centrali nucleari lì attive) costa meno
della metà che in Italia. E anche a noi, quella che importiamo da fonte
nucleare da Francia, Svizzera e Slovenia, costa di meno di quella che
noi stessi produciamo in altri modi.
Non esiste alcuna attività umana che si prenda cura dei propri rifiuti con la stessa sicurezza e professionalità dell’attività nucleare. A
questo proposito, rimando al libro di Piero Risoluti – uno dei massimi
esperti italiani nella gestione dei rifiuti radioattivi – che, con linguaggio semplice ma preciso, ci apre gli occhi su quest’ennesima bugia ambientalista 13: la realizzazione di un sito appropriato non è un’opzione,
ma un dovere civico verso noi stessi e verso le generazioni future. La
nota protesta occorsa nel 2003 a Scanzano Jonico in occasione del tentativo da parte dell’attuale governo di realizzare un deposito unico nazionale per i rifiuti radioattivi, è stata un mirabile esempio di effetto
placebo all’incontrario: la gente di Scanzano Jonico ha protestato senza rendersi conto, con la mancata realizzazione di quel deposito, di
stare a perdere l’occasione di veder realizzato in quel luogo un importante centro tecnologico e di ricerca 14 e di diventare così la comunità
meglio radioprotetta del Paese 15.
13 Piero Risoluti, I rifiuti nucleari: sfida tecnologica o politica? (con prefazione
di Tullio Regge), Armando editore, Roma 2003.
14 Perché questo è, un deposito di rifiuti radioattivi, e non “una discarica” come viene spacciato.
15 Anche se le quantità di rifiuti radioattivi italiani non giustificherebbero,
forse, la realizzazione sotterranea del deposito, le recenti raccomandazioni inter-
Il principio di precauzione: precauzione o rischio?
47
Non è vero che il mondo sta abbandonando il nucleare. Lo decise
la Svezia nel 1980 quando aveva 12 centrali attive: oggi le centrali attive in Svezia sono 11, gli svedesi stanno ancora pagando le conseguenze di quell’unica centrale chiusa e, comunque, la metà dell’energia
elettrica consumata in Svezia è da fonte nucleare.
Lo decise il governo tedesco diversi anni fa – quando le centrali
nucleari erano 19 – per accontentare i Verdi, senza i quali non avrebbe potuto governare: oggi le centrali nucleari tedesche attive sono ancora 19. Tutte decisioni, quindi, rimaste lettera morta. Nel mondo,
piuttosto, vi sono attualmente una quarantina di centrali in costruzione, di cui due in Ucraina (la patria di Chernobyl), ove la metà
dell’energia elettrica continua ad essere da fonte nucleare. Le centrali
nucleari si fermarono veramente solo in Italia. Ma il Paese – contrariamente a quel che si dice – non ha “rinunciato” al nucleare: non potevano esserci referendum “contro” il nucleare (lo vieta la nostra Costituzione).
Ed infatti, in conseguenza dei noti referendum, venne deciso non
l’abbandono ma una moratoria di 5 anni, e in qualunque momento si
potrebbe riprendere ad utilizzare questa fonte che, lontano dall’avervi
rinunciato, è diventata per noi una nuova forma d’importazione (il
17% dell’energia elettrica che consumiamo la importiamo dalle centrali nucleari d’oltralpe): l’Italia ha rinunciato, semmai, alle ricadute
economiche, tecnologiche e occupazionali del nucleare 16.
Ma veniamo ai millantati rischi. Essi sarebbero di due tipi: la contaminazione radioattiva dell’ambiente e la possibilità di incidenti del
tipo di quello di Chernobyl.
Tutti noi siamo esposti alla radiazione naturale. La dose media annua che ciascuno di noi assorbe dalle fonti naturali è di circa 2,2 milliSievert (mSv). Le attività umane aumentano quella dose di circa il
20%, di cui oltre il 90% è dovuto alla diagnostica medica (tutti noi
subiamo, prima o poi, una radiografia). Comunque, esistono diverse
aree della Terra (in Brasile, in India) ove vi sono popolazioni esposte a
nazionali – conseguenti ai fatti dell’11 settembre – caldeggiano questa soluzione.
Inoltre, non è escluso – anzi, chi scrive nutre pochi dubbi in proposito – che in
Italia vi sia un ripensamento sul nucleare, ed avere già un sito geologico per i rifiuti sarebbe più che auspicabile.
16 U. Spezia (a cura di), Energia nucleare, 21mo Secolo, Milano 1998.
48
I costi della non-scienza
dosi annue di anche 100 mSv, senza che si siano riscontrate in esse
maggiori incidenze di alcun tipo di malattia correlabile alle radiazioni.
Allora, le centinaia di test nucleari che le ragioni militari hanno purtroppo voluto, hanno influito pressoché zero sulla dose media di radioattività, e così sarebbe anche se tutta la radioattività da tutte le centrali nucleari esistenti, per un’ipotetica serie d’incidenti, andasse a
contaminare l’ambiente. In definitiva, il rischio di contaminazione radioattiva dall’uso del nucleare è semplicemente inesistente 17.
Rimane il rischio di incidente. Effettivamente, questo esiste (ma
qual è l’attività umana che ne è esente?), come gli incidenti di ThreeMile Island (1979) e di Chernobyl (1986) dimostrano. Il primo non ha
avuto effetti sanitari di nessuna natura. Il secondo è stato l’incidente
più grave mai occorso in 50 anni di uso civile del nucleare. Esso, però,
lungi dal dimostrare che il nucleare è pericoloso, ne testimonia, piuttosto, la sicurezza. L’UNSCEAR (la Commissione Onu sugli effetti
delle radiazioni atomiche) ha prodotto inequivocabili rapporti sugli
effetti, a 15 anni di distanza, dell’incidente di Chernobyl.
Ebbene, il verdetto è il seguente. Il giorno dell’incidente morirono
3 lavoratori della centrale (2 sotto le macerie dell’esplosione e uno
d’infarto). Nel mese successivo furono ricoverati in ospedale 237 – tra
lavoratori alla centrale e soccorritori – per dosi eccessive di radiazione; di essi 28 morirono nei successivi tre mesi. Dei rimanenti 209, ne
sono morti, a oggi, altri 14 (di cui uno in un incidente automobilistico): gli altri 195, di quei 237 ricoverati per dosi eccessive di radiazione, sono ancora vivi. L’unico effetto sanitario statisticamente anomalo
e, quindi, attribuibile alla contaminazione radioattiva conseguente
all’incidente, è stato un enorme aumento nell’incidenza dei tumori alla
tiroide in individui che nel 1986 erano bambini: sono stati riportati, sino ad oggi, quasi 2000 casi. Di questi, 3 hanno degenerato sino al decesso del malato. In conclusione, all’incidente di Chernobyl, il più
grave incidente dell’uso civile del nucleare, non sono attribuibili, sino
ad oggi, più di 48 morti: 31 (3+28) immediati, gli altri 17 (14+3)
nell’arco di 15 anni. Secondo il rapporto dell’UNSCEAR, nessun altro
disordine sanitario attribuibile alle radiazioni, diverso da quell’abnorme aumento di casi di tumore alla tiroide, è stato subito dalle popola17
Z. Jaworowski, Radiation risk and ethics, in: Physics Today 52, 24 (1999).
Il principio di precauzione: precauzione o rischio?
49
zioni vicine alla centrale. Se a questi 48 si aggiungono gli altri casi di
decesso a causa dell’attività nucleare per usi civili negli ultimi 50 anni
nel mondo, si perviene ad un totale di circa 100 morti. Il numero è deprecabile quanto si vuole, ma l’attività di produzione energetica coi
combustibili fossili ha comportato, in soli 15 anni, 10.000 decessi per
incidenti 18. Ecco perché, dicevo prima, l’incidente di Chernobyl – coi
suoi 48 morti il più grave mai avvenuto – del nucleare ne dimostra
non la pericolosità ma, semmai, l’affidabilità.
f) Il PdP è stato invocato per bandire i prodotti agricoli geneticamente modificati. Senza che ci si rendesse conto che ogni eventuale rischio non è nella tecnica in sé, ma va individuato caso per caso. Ingo
Potrykus, professore emerito di Botanica all’università di Zurigo, ha
inventato il golden rice, un riso che, mediante l’inserimento di tre geni
nel suo patrimonio genetico, diventa ricco di beta-carotene, la molecola precursore della vitamina A. Milioni di persone nel mondo, a
causa delle condizioni di povertà, si alimentano quasi esclusivamente
di riso che, però, è un alimento totalmente privo di quell’importante
vitamina. La cui carenza destina alla cecità, quando non alla morte,
quei milioni che di essa soffrono. Per tutto ciò va ringraziato il PdP,
che è tuttora invocato per non immettere nel mercato il riso dorato
del prof. Potrykus.
g) Curiosamente, il PdP non viene invocato per bandire dal mercato i prodotti biologici. Anzi, viene invocato per vieppiù diffonderli.
Eppure, essi sono i peggiori in commercio, dal punto di vista della sicurezza alimentare. Vediamo perché. Bruce Ames, tossicologo di fama
mondiale, direttore del centro di salute ambientale a Berkeley e membro dell’Accademia nazionale americana delle scienze, è stato l’inventore di un test – che da lui prende il nome – per individuare la presenza di sostanze mutagene. Ebbene, il test di Ames ha provato che il
50% delle sostanze di sintesi è cancerogeno, nel senso che su circa 500
sostanze sintetiche esaminate e somministrate a cavie con la massima
dose tollerabile, circa la metà è risultata positiva al test. Sennonché, lo
stesso test, eseguito con sostanze naturalmente presenti nei prodotti
18
U. Spezia (a cura di), loc. cit. (1998).
50
I costi della non-scienza
alimentari che comunemente ingeriamo, ha rivelato che anche tra queste sostanze il 50% è cancerogeno. In ordine alfabetico, dall’aglio e
dall’albicocca, passando per la lattuga e il mais, sino alla soia e all’uva,
sono centinaia i prodotti che contengono altrettanti cancerogeni naturali. Quindi, “naturale” non è meglio di “sintetico”. Ma qual è la percentuale relativa di cancerogeni naturali e di cancerogeni di sintesi che
tutti noi abitualmente ingeriamo? La risposta ce la conferma lo stesso
Ames: il 99,99% delle sostanze potenzialmente tossiche che ingeriamo
è già naturalmente presente nel cibo, e solo lo 0,01% è di provenienza
sintetica. Ho precisato “potenzialmente” perché la tossicità di una sostanza è stata determinata somministrandola a cavie in dosi vicine a
quella massima tollerabile (oltre la quale le povere bestie morirebbero
avvelenate). In pratica, di quelle sostanze ne ingeriamo dosi migliaia o
anche milioni di volte inferiori di quelle che sono risultate dannose ai
topi. E quelle naturali sono centomila volte più abbondanti di quelle
che rimangono nei cibi trattati con i fitofarmaci di sintesi.
Ma le piante non possono fare a meno di fitofarmaci 19. Se non
glieli somministra l’uomo in quantità controllate, la pianta se lo produce da sé il proprio fitofarmaco naturale e, a questo scopo, non usa
certo riguardi verso chi poi se la mangerà 20. È il caso di una varietà di
sedano biologico che induceva eczemi alla pelle dei coltivatori e dei
commercianti che lo maneggiavano in gran quantità: il sedano, per difendersi da insetti parassiti, aveva decuplicato la produzione di psolareni, molecole con azione irritante; e anche cancerogena, visto che si
legano irreversibilmente al Dna, favorendo le mutazioni. Ed è il caso
di una patata biologica, rapidamente tolta dal mercato: per analoghe
ragioni, aveva più che decuplicato la produzione di solanina, risultando, anche se cotta, tossica ai bambini delle scuole le cui mense erano
rifornite con cibo biologico 21. Ed è il caso dell’abnorme aumento di
19
Paolo Sequi, Il racket ambientale, 21mo Secolo, Milano 1997.
G. Fochi, Il segreto della chimica, Longanesi editore, 2001.
21 Meno danno ha fatto il caso, occorso nel settembre del 2002, nella mensa
della scuola elementare Mario Galli di Sesto S. Giovanni: i bambini si sono ritrovati a masticare, assieme al riso, anche vermicelli, con quei chicchi mimetizzati.
La ditta fornitrice si difese precisando che la presenza di quei vermi era dovuta al
fatto che il riso impiegato era, appunto, rigorosamente biologico.
20
Il principio di precauzione: precauzione o rischio?
51
aflatossine – pericolosi cancerogeni – riscontrato in varietà agricole
non trattate con fungicidi.
La tecnica di produzione biologica prevede anche che si usino rimedi omeopatici in caso di malattie. Chiunque sappia cos’è il numero
di Avogadro, sa anche che i prodotti omeopatici non possono avere alcun effetto (diverso, eventualmente, da quello placebo) 22. La ragione è
molto semplice.
La natura molecolare della materia vieta la possibilità di preparare
soluzioni aventi concentrazioni arbitrariamente piccole di soluti: mediante il procedimento delle diluizioni successive con le quali si preparano i prodotti omeopatici, già in una soluzione acquosa omeopatica classificata rispetto alla diluizione come CH12 non vi è neanche
una molecola di soluto, e ogni procedura di diluizione successiva è
priva d’ogni senso scientifico, essendo essa equivalente a diluire acqua
con acqua. Sennonché, le tipiche soluzioni omeopatiche hanno diluizioni classificate come CH60, CH100 o anche CH200: senza timore di
essere smentiti esse non sono altro che, appunto, acqua pura (a parte
eventuali eccipienti). Allora – ci sarebbe da chiedersi – che garanzie si
hanno sulla fettina biologica ottenuta da un manzo che, eventualmente ammalatosi, sia stato curato con i prodotti omeopatici, come la pratica biologica prescrive?
In conclusione: le tracce di fitofarmaci normalmente presenti nei
prodotti tradizionali non aggiungono nulla alle sostanze potenzialmente tossiche e naturalmente presenti in quei prodotti. Le varietà
biologiche, invece, rischiano di contenere quantità abnormi di tossine
naturali, sia perché la pianta se le produce da sé, sia perché eventuali
malattie non sono trattate con metodi scientificamente codificati. Qui
si vede tutta l’ambiguità del PdP, che viene invocato non per bandire i
prodotti biologici, ma, addirittura per promuoverli.
22
Si potrebbe essere tentati di sostenere: tutto sommato, se il paziente sta
“meglio”, foss’anche solo in conseguenza dell’effetto placebo, perché non dare alla pratica omeopatica la stessa dignità delle pratiche che godono del sostegno
della scienza? La tentazione è allettante, ma bisogna essere consapevoli che questa posizione comporterebbe che bisognerebbe dare così pari dignità anche a tutte quelle cure del cancro che si sono rivelate inefficaci, e anche alle pratiche
astrologiche e cartomantiche, dovesse chi a esse si rivolge riconoscerne gli effetti
benefici (e come non potrebbe, visto che, appunto, vi si rivolge?).
52
I costi della non-scienza
h) Un altro caso – forse il più clamoroso – d’invocazione del PdP,
a sproposito e con conseguenti danni, è quello in ordine al problema
del cosiddetto elettrosmog 23.
Riguardo ai campi elettromagnetici, bisogna distinguere quelli a radiofrequenza da quelli a frequenza industriale. Per i primi, ogni studio
epidemiologico (di cui uno su 420.000 danesi) ha concluso che il fattore di rischio degli esposti rispetto ai non esposti è addirittura minore di 1: solo un’analisi affrettata farebbe concludere che quei campi
sono benefici; ma nessuna analisi ponderata potrebbe far concludere
che essi sono dannosi! Quindi, per i campi a radiofrequenza non vi
sono le condizioni non solo per applicare, ma neanche per invocare il
PdP: semplicemente non sono stati individuati rischi.
Sennonché: (i) Le norme protezionistiche italiane, uniche al mondo, volute in nome del PdP, han fatto sì che dei sei anni di ritardo
subìto dall’installazione del radar di Linate, dieci mesi sono da addebitare proprio a quelle norme (bisognava verificare che il radar fosse
compatibile con le leggi italiane volute in nome del PdP). (ii) Queste
leggi – che i radioprotezionisti italiani, subendone l’umiliazione, hanno sentito definire “stupide” da colleghi stranieri in sede di convegni
internazionali 24 – prevedono campi particolarmente bassi in prossimità di strutture considerate a rischio (scuole, ospedali): furono 19 i
morti nell’incendio, occorso alla fine del 2001, nella struttura per disabili vicino a Salerno, ove gli infermieri non poterono chiamare soccorso con i loro cellulari a causa dell’assenza di sufficiente campo. (iii).
Nel luglio del 2002, al largo della spiaggia di Pesaro, morirono anne23
F. Battaglia, Elettrosmog: un’emergenza creata ad arte (con prefazione di
Umberto Veronesi), Leonardo Facco Editore, Treviglio 2002.
24 Ecco come recita il parere della Commissione internazionale nominata
dall’attuale governo col compito di esprimere parere sulla normativa italiana in
tema di protezione dai campi elettromagnetici: «I decreti italiani non riportano
giustificazioni scientifiche, per cui le basi su cui sono stati fissati i limiti di esposizione sono puramente arbitrarie. Pertanto, il livello di protezione sanitaria fornito da tali limiti è del tutto sconosciuto. E se il livello di tutela sanitaria è ignoto,
l’enorme costo supplementare che l’attuazione di tale legge comporterebbe potrebbe, benissimo, non recare alcun beneficio alla salute. Emerge così che tale
legge è intrinsecamente incoerente e scientificamente debole. Alla luce delle
informazioni scientifiche correnti, essa non fornisce alcuna tutela aggiuntiva alla
popolazione italiana».
Il principio di precauzione: precauzione o rischio?
53
gati un bimbo e la sua maestra di un centro estivo: chi stava sulla
spiaggia non riuscì a chiamare soccorso col cellulare per debolezza di
campo elettromagnetico, tenuto basso a causa delle leggi italiane volute in nome del PdP. Chi ha voluto quelle norme deve essere considerato corresponsabile morale dell’incidente aereo accaduto nell’ottobre
2001 a Linate, di quei 19 disabili morti nell’incendio nel salernitano, e
dei 2 poveretti annegati vicino a Pesaro.
Riguardo ai campi a frequenza industriale, la situazione è la seguente: l’unico individuato (non accertato!) è il rischio raddoppiato di
leucemie puerili per esposizioni a campi magnetici superiori a mezzo
microtesla. L’uomo della strada si allarma nel sentire che il rischio è
raddoppiato. Per fargli apprezzare il reale significato di questa affermazione, forse basterebbe ricordargli che anche chi compra due biglietti della lotteria ha una probabilità doppia di vincere rispetto a chi
compra un solo biglietto.
La IARC apprezza questi fatti, tant’è che ha inserito la componente magnetica dei campi a frequenza industriale nella terza classe rispetto a eventuali effetti cancerogeni, assieme al caffè e alle verdure
sottaceto, e ha inserito la componente elettrica nella quarta classe, assieme al tè (il fumo, la pillola anticoncezionale, le radiazioni solari sono nella prima classe). Anche l’OMS apprezza quei fatti, e suggerisce
che si adotti per il campo magnetico a frequenza industriale il valore
protezionistico raccomandato dall’ICNIRP, che è 100 microtesla. Un
valore, avverte l’OMS, che garantisce sicurezza se non superato, ma
che non implica necessariamente rischio se viene superato. In pratica,
però, nessuno è mai esposto a campi superiori ad un microtesla.
In ogni caso, ammesso che si possa effettivamente azzerare il numero d’esposti a campi superiori a mezzo microtesla, quanti bambini
si “salverebbero” dall’ipotetica leucemia? Il conto è presto fatto. Ogni
anno, in Italia, contraggono la leucemia circa 400 bambini, mentre la
popolazione esposta a campi superiori a mezzo microtesla è pari allo
0,3% 25. Impostando l’equazione
400 = 0.997 y + 2 · 0.003 y
25
G. Carboni, comunicazione privata.
54
I costi della non-scienza
(ove il fattore 2 tiene conto del rischio raddoppiato degli esposti), risolvendo per y e sostituendo, si ottiene (approssimando a valori interi)
400 = 398 + 2: di quei 400 bimbi, 398 hanno contratto la leucemia per
ragioni diverse dai campi elettromagnetici.
E gli altri due? Si può dire che la leucemia di 2 bimbi è statisticamente addebitabile ai campi? No! Lo si potrebbe dire solo se i campi
fossero un rischio, cioè se la IARC li avesse inseriti nella classe prima
anziché terza. Ma anche quando si volessero interrare i cavi degli elettrodotti ed operare tutte le bonifiche che purtroppo molte regioni italiane (Emilia Romagna in testa) stanno effettuando, si eliminerebbero
questi due ipotetici casi? No, perché a venti metri da un elettrodotto il
campo magnetico è comparabile a quello presente comunque in ogni
casa a causa degli impianti domestici.
Invocare il PdP per eliminare una causa presunta di leucemia evitando così, al più, un caso aggiuntivo, è scientificamente ingiustificato
e, direi, immorale nei confronti di quei 400 bambini che hanno contratto il male per cause certamente diverse dall’esposizione ai campi
elettromagnetici. L’unico effetto della legislazione (voluta in nome del
PdP) contro l’inesistente elettrosmog è quello di arricchire tutte quelle aziende, più o meno private, incaricate di misurare i campi elettromagnetici in giro nelle città (misurazioni peraltro non necessarie, visto
che le equazioni della fisica ci danno i valori dei campi una volta note
le sorgenti), e tutte quelle incaricate di mettere a norma i vari impianti. Un affare – è stato stimato dall’ANPA in un rapporto che venne tenuto nascosto sinché l’Agenzia venne commissariata e Renato Ricci,
nominato commissario, lo fece pubblicare – di 30 miliardi di euro 26.
E questo è l’unico dato che possa fornire giustificazione razionale alla
pervicacia – altrimenti inspiegabile – con la quale l’ex ministro Willer
Bordon (Margherita) e il suo vice, Valerio Calzolaio (Ds), insistevano
per l’approvazione dei loro decreti.
Val la pena citare l’editoriale del New England Journal of Medicine
che nel 1997 pubblicò un resoconto di un’esaustiva ricerca del National Cancer Institute americano sui legami (esclusi da quella ricerca) tra
esposizione ai campi elettromagnetici a frequenza industriale e leuce26 Valutazione tecnico-economica degli interventi di risanamento ambientale
delle linee elettriche del sistema nazionale, Anpa, Rapporto 3/2001.
Il principio di precauzione: precauzione o rischio?
55
mie puerili: «È triste che centinaia di milioni di dollari siano andati dispersi in studi privi della benché minima promessa di evitare la tragedia del cancro nei bambini. L’abbondanza di studi inconcludenti e
inattendibili ha generato ingiustificate preoccupazioni e paure. Diciotto anni di ricerca 27 hanno prodotto considerevole paranoia, senza aggiungere la benché minima conoscenza, e senza alcun guadagno in
prevenzione. È tempo di interrompere la dispersione delle nostre risorse, che dovrebbero invece essere dirette verso quella ricerca in grado di offrire promesse, scientificamente fondate, della scoperta delle
vere cause biologiche dello sviluppo dei cloni leucemici che tanto minacciano la vita di alcuni bambini».
Il documento dell’UE
Abbiamo già citato il documento del 2 febbraio 2000 con cui la
Commissione dell’UE stabilisce le condizioni d’applicabilità del
PdP 28. Abbiamo anche manifestato forti perplessità sull’intero documento assieme al parere dell’opportunità di respingere tout court il
principio. Non vogliamo analizzare quel documento nei dettagli: per i
nostri scopi, basti sapere che in esso, a dimostrazione dell’opportunità
di avere un PdP, si adducono due esempi che, secondo il documento
della Commissione, sarebbero due casi di uso con successo del PdP
stesso. I due esempi (gli unici addotti) sono il bando planetario dei
clorofluorocarburi (CFC) e il protocollo di Kyoto. Sennonché, proprio questi due esempi dimostrano, ancora una volta, quanto inappropriato sia l’uso del PdP.
a. Il bando dei CFC 29
Un trattato del 1987 ha bandito dal mondo intero, grazie a una delle tante oziose battaglie ambientaliste e in nome, ancora una volta, di
un PdP ante litteram, l’uso dei CFC, usati come refrigeranti e che, se
27 Risale al 1979 il primo articolo in cui s’ipotizzò la possibilità di legame tra
esposizione ai campi elettromagnetici a frequenza industriale e leucemia puerile.
Quell’ipotesi poi non resse ad ogni successiva indagine.
28 http://europa.eu.int/comm/dgs/health_consumer/library/pub/pub07_en.pdf.
29 R. Ehrlich, Sun exposure is beneficial, in: Nine crazy ideas in Science, Ch. 4,
Princeton University Press, 2001.
56
I costi della non-scienza
dispersi nell’ambiente, partecipano a reazioni chimiche che contribuiscono a diminuire l’ozono alle alte quote. L’ozono assorbe, alle alte
quote, parte della radiazione solare, svolgendo un’azione protettiva da
essa. Il sole, infatti, è un agente cancerogeno, nel senso che l’esposizione ad esso aumenta il rischio di melanoma alla pelle, un tumore di cui
rimangono vittime, solo in Italia, oltre un migliaio di persone all’anno.
Quindi, la motivazione del bando dei CFC va ricercata nel fatto che
con essi nell’ambiente saremmo tutti più esposti alle radiazioni ultraviolette del sole e quindi a maggior rischio di melanoma alla pelle.
Va ora detto che alcuni agenti dannosi manifestano il fenomeno
dell’ormesi, secondo cui o una bassa esposizione all’agente è addirittura protettiva rispetto al danno che l’agente causa a dosi più elevate o,
semplicemente, l’agente è responsabile di effetti sia dannosi che benefici e, in quest’ultimo caso, solo un’analisi accurata del rapporto danno/beneficio può dare informazioni sull’opportunità di esporsi ad esso. Sono forti i sospetti che l’esposizione al sole abbia entrambi i tipi
di effetto ormetico.
Riguardo al primo tipo, sembra che l’esposizione eccessiva e intermittente, soprattutto se accompagnata da scottature, aumenti il rischio di melanoma, mentre un’esposizione protetta, anche se continua, riduca invece quel rischio.
Riguardo al secondo tipo di ormesi, sono svariati i benefìci accertati dell’esposizione al sole, il più significativo dei quali sembra essere la
riduzione del rischio di malattie coronariche, che sono la forma più
comune di malattie cardiache. Ad esempio, è stato trovato che l’incidenza delle malattie coronariche aumenta con la latitudine (con la
quale decresce anche l’esposizione al sole).
Naturalmente, questa semplice associazione non è sufficiente a stabilire l’effetto ormetico: è necessario individuare un meccanismo. Il
più accreditato nasce dalla constatazione che sia la vitamina D (la cui
produzione è indotta dalla radiazione solare) sia il colesterolo (responsabile di aumento di rischi di malattie coronariche), hanno uno stesso
precursore (la molecola di squalene), per cui ove maggiore è la presenza di vitamina D minore dovrebbe essere quella di colesterolo, e viceversa. Effettivamente, è stato trovato che la concentrazione di vitamina D è inferiore al normale tra le vittime di attacchi cardiaci, e che
la concentrazione media di colesterolo aumenta in popolazioni delle
Il principio di precauzione: precauzione o rischio?
57
alte latitudini aumentando nei mesi invernali. Ed è stato anche trovato
che l’incidenza di mortalità da malattie coronariche aumenta tra le
persone che nella loro vita si sono meno esposte al sole.
Ancora una volta, tutte queste associazioni e correlazioni non devono indurre a conclusioni affrettate: bisogna anche escludere svariati
fattori confondenti. Ad esempio, ci si potrebbe chiedere se per caso
non sia la temperatura, piuttosto che l’esposizione al sole, il fattore che
protegge dalle malattie coronariche. Sennonché non è stato osservato
alcun aumento nell’incidenza di queste malattie con l’aumento di altezza dal livello del mare, né è stato osservato alcun aumento nel passare
da una realtà “più calda” come quella di Los Angeles a una “più fredda” come quella di New York. Anche se altri fattori confondenti, come
la dieta, sono stati considerati, la scienza, con tutta la sua doverosa cautela, ritiene plausibile l’idea che l’esposizione al sole sia un agente significativamente protettivo rispetto alle malattie coronariche.
Plausibile, ma non convincente. Tuttavia ci si può legittimamente
porre una domanda. Premesso che l’incidenza di mortalità da malattie
coronariche è 100 volte maggiore di quella da melanoma alla pelle, anche assumendo un raddoppio di rischio di melanoma a causa della diminuzione di ozono, basterebbe solo l’1% di corrispondente diminuzione
di rischio di mortalità per malattie coronariche per chiedersi se non sia il
caso di rivedere la decisione del 1987 che bandiva i CFC. La domanda è
ovviamente accademica, perché gli ambientalisti – come in altri casi – farebbero tanto chiasso da renderla politicamente improponibile, ancorché dovesse rivelarsi saggia. Rimane sempre la domanda se non sia stata
quanto meno affrettata quella decisione del 1987 e se non sia il caso, per
eventuali decisioni future di analoga natura, di ignorare ogni affermazione emotiva delle associazioni ambientaliste, il cui sole brilla soprattutto
per analfabetismo scientifico, e di rimettersi, più che al PdP, all’analisi,
scientificamente condotta, del rapporto rischi/benefici.
b. Il protocollo di Kyoto 30
Secondo un recente rapporto dell’IPCC (Comitato intergovernativo sui cambiamenti climatici) – un organismo internazionale che com30 R. Ehrlich, Should you worry about global warming?, in: Eight preposterous
propositions, Ch. 6, Princeton University Press, 2003.
58
I costi della non-scienza
prende scienziati da 100 paesi – «il riscaldamento globale previsto per
il prossimo secolo potrebbe risultare senza precedenti negli ultimi
10.000 anni». Ma, secondo Richard Lindzen, uno degli estensori di
quel rapporto e membro dell’Accademia Nazionale delle Scienze americana, «la possibilità di un eccezionale riscaldamento globale, anche
se non escludibile, è priva di basi scientifiche».
Il riscaldamento globale viene ritenuto essere la conseguenza di vari fattori tra cui anche un incremento della concentrazione atmosferica
di gas-serra (soprattutto CO2 e, in misura molto minore, metano e altri gas-serra). Siccome nell’ultimo secolo sono progressivamente aumentati sia l’uso mondiale dei combustibili fossili sia le concentrazioni
atmosferiche di CO2, si potrebbe pensare che, assumendo che questi
aumenti continuino senza sosta, il raggiungimento di livelli pericolosi
sia solo questione di tempo, e che più aspettiamo più difficile potrebbe essere affrontare il problema.
Il sillogismo logico, secondo alcuni, sarebbe allora il seguente: (1) i
gas-serra stanno aumentando senza sosta, (2) ogni cosa che aumenta
senza sosta raggiunge prima o poi livelli catastrofici, (3) la catastrofe
non può evitarsi se non si blocca quell’aumento. Ma, piaccia o no, le
cose non sono così semplici. Ad esempio, le previsioni del futuro riscaldamento globale assumono che la crescita di popolazione s’interromperà in alcuni decenni: se così non fosse, avremmo ben altro – prima ancora del riscaldamento globale – di cui preoccuparci. E, d’altra
parte, dovesse la popolazione mondiale stabilizzarsi, il timore dell’aumento senza sosta dei gas-serra non sarebbe più giustificato.
Secondo altri, invece: non vi è alcuna evidenza che il riscaldamento
sia reale; ammesso che lo sia, esso è minimo e non vi è alcuna evidenza
che sia stato indotto dalle attività umane; e, infine, esso potrebbe essere addirittura benefico.
Naturalmente, finché nessuna delle due parti comprende solo isolati casi di dissenzienti (e non è questo il caso), non ha importanza sapere quale pensiero ha il maggior numero di sostenitori: i risultati della scienza non si acquisiscono a maggioranza. Seguiamo allora Robert
Ehrlich, e poniamoci le seguenti quattro domande: Il riscaldamento
globale è reale? Qualora lo fosse, la causa dominante è d’origine antropica? Qualora anche questo fosse il caso, quale aumento di temperatura media globale potremmo realisticamente attenderci fra, ponia-
Il principio di precauzione: precauzione o rischio?
59
mo, 100 anni? L’aumento realisticamente prevedibile in caso di contributo antropogenico determinante, apporterà, globalmente, danni o
benefìci?
Il riscaldamento globale è reale?
Anche se misure dirette in grado di fornire informazioni sulle temperature medie globali sono state effettuate solo recentemente, vari
dati indiretti (in particolare le concentrazioni relative di 16O e 18O nelle “carote” di ghiaccio estratte in Groenlandia) ci permettono di concludere che attualmente la Terra si trova tra due ere glaciali (che avvengono ogni 100.000 anni circa). Durante l’ultima era glaciale le temperature erano 10 gradi più fredde di ora e, probabilmente, il pianeta
è più caldo adesso che non in ogni altro periodo degli ultimi 1000 anni; un riscaldamento, quello di questo millennio, che è avvenuto gradualmente per ragioni certamente indipendenti dalle attività umane.
Il problema che nasce è se per caso queste ultime abbiano o no, sul
riscaldamento globale, un’influenza significativa sovrapposta alle cause naturali. A questo scopo, è necessario limitarsi a osservare le variazioni negli ultimi 150 anni, cioè dall’avvento dell’industrializzazione.
Ebbene, vi è concordanza nella comunità scientifica che le misurazioni di temperatura effettuate da stazioni sulla Terra rivelano valori che
negli ultimi 150 anni sono aumentati di circa mezzo grado. I maggiori
aumenti si sono registrati nei periodi 1910-1945 e 1975-2000. Però –
va detto – nel periodo 1945-1975 si è osservato non un aumento ma
una diminuzione di temperatura.
Se però ci si chiede se queste misurazioni corrispondano alla temperatura media globale, ci si imbatte in una prima seria difficoltà: non
vi è garanzia che l’aumento osservato non sia da attribuire al fatto che
nell’intorno delle stazioni di misura si sviluppava, nei decenni, un’urbanizzazione, e che è ad essa che dovrebbe quell’aumento attribuirsi.
L’assenza di quella garanzia nasce anche dal fatto che i tentativi di aggiustare i dati in modo tale da tenere conto di questo “effetto da urbanizzazione” – mediante soppressione dei dati più recenti dalle stazioni
“incerte” – aumenta sgradevolmente l’incertezza sull’analisi finale, visto che è proprio nei tempi più recenti che si ha bisogno di dati abbondanti e accurati. Per farla breve: potrebbe benissimo essere che il
riscaldamento osservato successivamente al 1975 (circa 0,15 gradi per
60
I costi della non-scienza
decennio) sia da attribuirsi totalmente all’effetto dell’urbanizzazione
attorno alle stazioni di misura.
Nel periodo successivo al 1975 si ha però disponibilità di dati satellitari. I satelliti non registrano la temperatura della Terra, ma quella
dell’atmosfera, misurando la quantità di radiazione a microonde emessa dalle molecole che costituiscono l’aria sino a circa 8 km di distanza
dalla Terra. Le misure satellitari sono ovviamente più attendibili, sia
perché i satelliti riescono a campionare contemporaneamente una
porzione di globo più ampia, sia perché esse non sono viziate dall’effetto di urbanizzazione. Ebbene, il risultato è che le misure satellitari
non registrano l’aumento di temperatura registrato dalle misure sulla
Terra. Un risultato, questo, che trova conforto nelle misure effettuate,
sin dal 1960, dai palloni aerostatici, dai quali, pure, non si registra alcun aumento di temperatura.
Qual è il contributo d’origine antropica
al presunto riscaldamento globale?
Stabilite le incertezze su cui si fonda l’esistenza stessa del riscaldamento globale, passiamo a valutarne, nell’ipotesi che esso sia reale, il
contributo antropogenico 31. Indubbiamente, i gas-serra (innanzi tutto
acqua, e poi anidride carbonica) tengono la Terra calda: senza di essi,
avremmo 33 gradi di meno. Ma l’anidride carbonica (il secondo componente naturale, dopo il vapore acqueo, responsabile dell’effetto serra “naturale”) è anche immessa nell’atmosfera dall’uomo ogni volta
che si bruciano combustibili fossili. Effettivamente, si osserva che, nel
tempo, le concentrazioni atmosferiche di CO2 e le temperature hanno
seguito un comportamento parallelo: a diminuzioni o aumenti delle
prime corrispondono diminuzioni o aumenti delle seconde. È però
importante essere consapevoli del fatto che comportamenti paralleli di
questo tipo non implicano necessariamente una relazione di causa-effetto; e, dovesse essa esserci, non rivelano qual è la causa e quale l’effetto. In particolare, sembra che gli aumenti di temperatura alla fine
delle ultime tre ere glaciali abbiano preceduto (e non seguito) corrispondenti aumenti di concentrazione di CO2. Purtroppo, le incertezze
31 Comitato scientifico ANPA, «Sul contributo antropogenico ai cambiamenti
climatici», in: Scienza e ambiente, vol. 2, cap. 4, ANPA, Roma 2002.
Il principio di precauzione: precauzione o rischio?
61
di questo dato non permettono di assumerlo per assodato e definitivo.
In ogni caso, non vi è dubbio che la Terra potrebbe riscaldarsi per altre ragioni – l’attività solare, ad esempio – che disturbino il bilancio
tra la radiazione proveniente dal Sole e quella che la Terra rispedisce
indietro nello spazio.
Alcuni, infatti, ritengono che le variazioni di temperatura registrate
negli ultimi 150 anni siano da attribuire esclusivamente a variazioni
dell’attività solare. In particolare, il numero delle macchie solari (osservabili facilmente con un modesto telescopio) è stato accuratamente
registrato negli ultimi 400 anni (e segue un ben noto ciclo con periodo
di 11 anni). Ed effettivamente, esattamente come avveniva tra concentrazione di CO2 e temperatura della Terra, si è osservato che, nel tempo, l’attività solare e le temperature hanno seguito un comportamento
parallelo, come mostra la figura seguente, nella quale si riportano, in
funzione del tempo (dal 1860 al
1990), due curve: quella grigia rappresenta la lunghezza dei cicli di attività solare (indicata lungo l’asse
verticale sinistro), quella nera rappresenta le variazioni di temperatura globale media (indicate lungo
l’asse verticale destro) 32.
Solo che, in questo caso – dovesse esserci una relazione di causaeffetto – non ci sarebbero dubbi sull’attribuzione della causa e dell’effetto. Va però detto che il tentativo di valutare, dagli aumenti osservati
di attività solare, la consistenza degli aumenti di temperatura attesi, ha
portato alla conclusione che questi sono inferiori agli aumenti di temperatura osservati. Allora, vi è, forse, ancora spazio per attribuire
all’uomo almeno una parte dell’aumento di temperatura osservato
(ammesso che esso sia reale). Per cercare di togliersi il dubbio non c’è
altro da fare che affidarsi a modelli matematici e tentare di simulare la
realtà al calcolatore.
32
E. Friis-Christensen and K. Lassen, Science 254, 698 (1991).
62
I costi della non-scienza
Questi modelli sono, essenzialmente, dello stesso tipo di quelli che
si usano per fare le previsioni meteorologiche. Ecco in breve come
funzionano.
(1) La superficie della Terra è suddivisa in cellette bidimensionali
da una griglia tracciata lungo i meridiani e i paralleli, e l’atmosfera sopra ogni celletta è quindi suddivisa in strati: l’intera atmosfera è così
ripartita in tante “scatole”.
(2) Entro ognuna di esse si fissano, ad un particolare istante di
tempo, i valori delle grandezze fisiche significative (temperatura, pressione, umidità, velocità e direzione del vento, etc.).
(3) Si usano le equazioni del modello per far evolvere nel tempo la
situazione iniziale, calcolando i valori futuri delle grandezze fisiche significative in ogni “scatola”.
L’attendibilità di un modello dipende dalla sua capacità di predire… il passato: si parte dalle condizioni iniziali, poniamo, nel 1860; si
usa il modello per riprodurre le condizioni presenti; se queste non sono riprodotte, si modificano le condizioni iniziali e i parametri del
modello sino a che non si ottengono da esso previsioni in accordo col
futuro (rispetto al 1860) che conosciamo già (cioè sino ad oggi). Questo modo di procedere è senz’altro il migliore possibile, viste le enormi difficoltà del problema; ma non bisogna dimenticare che variando
a piacimento un gran numero di parametri si è in grado di riprodurre
qualunque cosa si voglia: la verità è che un modello costruito su un
numero sufficiente di parametri è in grado di riprodurre tutto e il contrario di tutto da qualunque insieme di dati.
Ad ogni modo, l’IPCC, in un rapporto firmato da 515 (sic!) autori,
osserva che i modelli matematici riprodurrebbero l’attuale riscaldamento globale solo a patto che siano incluse le emissioni antropogeniche di gas-serra, e pertanto conclude che «tenendo conto dei pro e dei
contro dei fatti, sembra che vi sia una ben distinguibile influenza umana sui cambiamenti climatici». Alcuni ritengono la conclusione azzardata. Innanzitutto, a causa dei limiti già detti inerenti a modelli che
contengono un gran numero di parametri. In secondo luogo, perché i
modelli considerati dall’IPCC falliscono quando s’includono in essi i
contributi provenienti dagli aerosol, che sono particelle – principalmente di solfati – che si formano dalle emissioni vulcaniche e antropogeniche: includendo gli aerosol, le temperature calcolate dai modelli
Il principio di precauzione: precauzione o rischio?
63
sono inferiori a quelle osservate. Infine, perché modelli diversi danno
risultati molto diversi tra loro, a causa della difficoltà connessa alla
trattazione delle masse di nuvole; per appropriatamente includerle nei
modelli, bisognerebbe dividere l’atmosfera in “scatole” molto più piccole, e quindi molto più numerose, fatto che renderebbe però impraticabili i già complessi calcoli.
Quali temperature potremmo attenderci fra 100 anni?
Se si assumono attendibili le misure satellitari e se ne compie
un’estrapolazione da qui a 100 anni, per allora la temperatura media
globale sarà aumentata di mezzo grado, con un’incertezza di 1,5 gradi.
Se invece – come fa l’IPCC – si assumono fedeli le misure dalle stazioni a Terra e si attribuisce esclusivamente all’uomo la causa del riscaldamento globale, le previsioni da qui a 100 anni dipendono da molteplici considerazioni (economiche, politiche, tecnologiche, etc.) sullo
sviluppo dell’umanità; e che si riflettono, alla fine, sulla reale consistenza futura di emissioni di gas-serra.
Ebbene, l’IPCC, assumendo fedeli le temperature registrate sulla
Terra e attribuendo all’uomo la principale responsabilità del riscaldamento, esamina 40 possibili scenari, prende nota dei due scenari che
prevedono l’aumento minore e l’aumento maggiore di temperatura, e
conclude che per il 2100 ci si deve attendere un aumento di temperatura compreso fra 1,4 e 5,8 gradi. Curiosamente, l’IPCC non riporta
né l’incertezza di ciascun valore di temperatura previsto da ciascuno
degli scenari, né la probabilità che questi scenari hanno di realizzarsi.
Ad esempio, gli scenari che prospettano i maggiori aumenti di temperatura sono quelli che assumono che tutti i paesi in via di sviluppo
avranno nel frattempo raggiunto standard di vita uguali a quelli dei
paesi industrializzati. Un’assunzione, questa, che, anche se desiderabile col cuore, sembra francamente lontana da ogni oggettiva realtà delle cose.
Anche se noi che scriviamo possiamo prenderci la libertà di essere
così “politicamente poco corretti”, l’IPCC, un organismo intergovernativo comprendente rappresentanze da un centinaio di paesi, molti
dei quali in via di sviluppo, non può evidentemente prendersi quella
stessa libertà. Certamente non sino al punto da escludere dai propri
rapporti quei fantasiosi scenari. Se si fa questa “scrematura” (ed è sta-
64
I costi della non-scienza
ta fatta in studi indipendenti) 33 l’aumento massimo di temperatura da
attendersi per il 2100 (nell’ipotesi che siano le attività umane le responsabili principali del presunto global warming) non è superiore a 3
gradi. Se invece il contributo antropogenico fosse irrisorio, dai dati disponibili sull’attività solare possiamo attenderci, fra 100 anni, variazioni di temperatura comprese fra -1,0 e 2,0 gradi.
Un eventuale riscaldamento globale, che sia di realistica entità, sarebbe
dannoso o benefico per l’umanità?
Innanzi tutto, è chiaro che – a meno di credere che la temperatura
oggi sia esattamente la migliore concepibile – è ragionevole pensare
che il mondo potrebbe trarre benefìci da modeste variazioni di temperatura. Bisogna stabilire se questi benefìci verrebbero da una modesta
diminuzione o da un modesto riscaldamento.
a) L’incidenza di mortalità è certamente correlata alle temperature: sia il caldo che il freddo estremo favoriscono i decessi, ma è stato
dimostrato che condizioni di freddo estremo hanno un’incidenza doppia di quelle di caldo estremo. Inoltre, se si tiene conto del fatto che
un eventuale global warming comporterà maggiori aumenti di temperatura nelle stagioni fredde che non in quelle calde, si può concludere
che, rispetto alla mortalità umana, un modesto global warming avrebbe effetti benèfici.
b) Gli scenari dell’IPCC prevedono, per il 2100, un innalzamento
dei mari compreso fra 9 e 90 centimetri. Ma bisogna osservare due
fatti. Innanzi tutto, il mondo riesce benissimo ad affrontare questo
problema, come testimonia l’Olanda, col suo imponente sistema di dighe che la difende dal mare. Naturalmente, si potrebbe obiettare che
un paese come il Bangladesh, la cui popolazione vive, per il 25%, in
zone costiere a circa un metro sul livello del mare, potrebbe non essere in grado, per la sua povertà, di prendere le adeguate misure protettive. Non bisogna tuttavia dimenticare che i “peggiori” scenari previsti dall’IPCC (in questo caso, l’innalzamento dei mari di 90 centimetri) assumono che i paesi poveri abbiano raggiunto lo stesso benessere
33
T.M.L. Wigley and S.C.B. Raper, Science 293, 451 (2001).
Il principio di precauzione: precauzione o rischio?
65
economico dei paesi ricchi, per cui, in quel caso, come oggi l’Olanda,
anche il Bangladesh saprebbe come affrontare il problema.
In secondo luogo, va precisato che il livello del mare sta aumentando da millenni. Da quando la Terra è uscita dall’ultima glaciazione, il
livello del mare è aumentato di ben 100 metri, per due cause principali: la fusione dei ghiacciai e la dilatazione termica delle acque. La prima, è un evento in corso a partire dalla fine dell’ultima era glaciale, e
non ha avuto alcuna accelerazione nell’ultimo secolo. Anzi, non è
escluso che un clima più caldo possa interromperla, in conseguenza di
aumentate precipitazioni, che ai poli si depositerebbero come neve.
c) I benefici sull’agricoltura da un modesto global warming sono
indubbi. Anzi, in questo caso l’aumento di temperatura è sinergico
con l’aumento di concentrazione di CO2: nelle serre tecnologicamente
più avanzate si pompa, appunto, CO2 per ottenere rendimenti più alti.
In conclusione, nell’ipotesi che effettivamente l’uomo contribuisca
significativamente al riscaldamento globale, non c’è da attenderselo,
realisticamente, superiore a 2-3 gradi da qui al 2100. Ma, in questo caso, esso avrebbe, nel complesso, effetti benefici per l’umanità. Naturalmente, sarebbe insensato che l’umanità si sforzi di raggiungere artificialmente la temperatura che si ritenga essere la migliore possibile.
Ma, allo stesso modo, dovremmo convenire che sarebbe parimenti insensato ogni sforzo, per di più in nome del PdP, per evitare di raggiungere quella condizione ideale.
Un’ultima osservazione va fatta, in ordine al presunto eccezionale
ed eccezionalmente rapido cambiamento climatico di cui saremmo testimoni: d’eccezionale non c’è né l’attuale presunto cambiamento climatico né la sua rapidità 34. Un fatto è certo: il clima del pianeta può
radicalmente cambiare, come le ere glaciali inconfutabilmente attestano. Cinquant’anni fa, quando ancora si riteneva che ciò potesse avvenire solo con tempi dell’ordine delle decine di migliaia d’anni, ci si è
confrontati con l’evidenza che seri cambiamenti climatici avvennero
anche nell’arco di pochi millenni; ridotti a pochi secoli dai risultati
delle ricerche nei successivi 20 anni, e ulteriormente ridotti ad un solo
34
S. Weart, Physics Today 56, 30 (2003).
66
I costi della non-scienza
secolo dai resoconti scientifici degli anni Settanta e Ottanta. Oggi, la
scienza sa che cambiamenti climatici, nel passato, sono avvenuti anche
nell’arco di pochi decenni.
Nel 1955, datazioni al 14C effettuate su reperti scandinavi rivelarono che il passaggio, circa 12000 anni fa, da clima caldo a clima freddo,
avvenne durante un millennio. Un periodo che fu definito “rapido”,
vista l’universale convinzione che tali cambiamenti potevano avvenire
solo in tempi di decine di migliaia d’anni. Conferme vennero da altre
ricerche: ad esempio, quella dell’anno successivo che accertò che l’ultima era glaciale finì col “rapido” aumento di un grado per millennio
della temperatura globale media; e quella di 4 anni dopo, secondo cui
vi furono nel passato, e nell’arco di un solo millennio, aumenti di temperatura anche di 10 gradi. E altre ancora, finché nel 1972 il climatologo Murray Mitchell ammetteva che le evidenze degli ultimi 20 anni
forzavano a sostituire la vecchia visione di un grande, ritmico ciclo
con quella di una successione rapida e irregolare di periodi glaciali e
interglaciali all’interno di un millennio.
Anche se, allora, il timore dominante era la possibilità che la fine
del secolo avrebbe potuto segnare l’inizio di un periodo glaciale con
evoluzione rapida (cioè in pochi secoli) verso condizioni “fredde” catastrofiche per l’umanità) non mancava, tuttavia, chi avvertiva del pericolo opposto: il riscaldamento globale a causa delle emissioni umane. In quello stesso 1972, infatti, il climatologo M. Budyko dichiarava
che alla velocità con cui l’uomo immetteva CO2 nell’atmosfera, i
ghiacciai ai poli si sarebbero completamente sciolti entro il 2050. Insomma, ancora 30 anni fa gli scienziati non si erano messi d’accordo
se un’eventuale minaccia proveniva dal troppo freddo o dal troppo
caldo.
Mentre erano concordi su una cosa, che di troppo era certamente:
la loro ignoranza. E invocarono – giustamente – maggiori risorse. Grazie alle quali andarono in Groenlandia ove, dopo 10 anni di tenace lavoro, estrassero, dalle profondità fino ad oltre 2 km, “carote” di
ghiaccio di 10 cm di diametro. Dalle analisi dell’abbondanza relativa
degli isotopi dell’ossigeno nei diversi strati di ghiaccio (il più profondo dei quali conserva le informazioni sulle temperature di 14mila anni
fa) si ebbe la conferma che drammatiche diminuzioni di temperatura
erano avvenute in pochi secoli.
Il principio di precauzione: precauzione o rischio?
67
Ma fu solo una decina d’anni fa – nel 1993 – che gli scienziati rimasero, è il caso di dire, di ghiaccio: quando scoprirono, da nuovi carotaggi, che la Groenlandia aveva subito aumenti di anche 7 gradi
nell’arco di soli 50 anni; e, a volte, con drastiche oscillazioni anche di
soli 5 anni!
Anche se «questi rapidissimi cambiamenti del passato non hanno
ancora una spiegazione», come dichiara un recente rapporto dell’Accademia Nazionale delle Scienze americana, la scienza ha accettato
l’idea di un sistema climatico la cui variabilità naturale si può manifestare anche nell’arco di pochi decenni. Non c’è nessuna ragione – di là
da quella che ci rassicura psicologicamente – per ritenere che essi non
debbano manifestarsi oggi. Vi sono invece tutte le ragioni per ritenere
che quella secondo cui l’uomo avrebbe influenzato i cambiamenti climatici sia un’idea – come tutte quelle dei Verdi, ad essere franchi –
priva di fondamento; e per ritenere, semmai, che sono i cambiamenti
climatici ad aver influenzato l’uomo e il percorso della civiltà.
Una cosa senz’altro certa è la circostanza secondo cui i vincoli del
protocollo di Kyoto (ridurre del 5%, rispetto a quelle del 1990, le
emissioni di gas serra da parte dei paesi industrializzati) avrebbero effetto identicamente nullo sul clima: nell’atmosfera vi sono 3000 miliardi di tonnellate di CO2, l’uomo ne immette, ogni anno, 6 miliardi di
tonnellate, di cui 3 provengono dai paesi industrializzati, pertanto il
protocollo di Kyoto equivarrebbe a immettere nell’atmosfera 5,85 miliardi di tonnellate di CO2 anziché 6 miliardi. Un primo passo, dicono
gli ambientalisti; ma anche montare su uno sgabello è un primo passo
per raggiungere la Luna! (Né, d’altra parte, veniamo informati di quali
sarebbero gli altri passi) 35. Insomma, la temuta temperatura che l’umanità potrebbe dover sopportare nel 2100, se si applicasse il protocollo
35
Tanto più che, curiosamente (o schizofreneticamente, direbbe qualcuno)
viene respinta la possibilità di servirsi dell’unica fonte energetica – quella nucleare – che, veramente competitiva coi combustibili fossili, permetterebbe, se massicciamente impiegata, di raggiungere gli obbiettivi non di uno ma di diversi
“protocolli di Kyoto”: la Francia, ad esempio, raggiunge già quegli obbiettivi e la
Svezia è addirittura in credito rispetto alle emissioni di gas-serra. Per converso, la
Danimarca, il paese al mondo che più investe sulle energie rinnovabili (principalmente nell’eolico), deve ridurre le proprie emissioni di gas-serra di un buon 21%
per allinearsi coi vincoli di Kyoto.
68
I costi della non-scienza
di Kyoto verrebbe ritardata al 2101! Sennonché, gli sforzi economici
conseguenti al rendere operativo quel protocollo sarebbero disastrosi:
nel caso dell’Italia, quel disastro – è stato valutato – comporterebbe,
tra le altre cose, la perdita di decine di migliaia (51.000 nel 2010, sino a
277.000 nel 2025) di posti di lavoro per ridotta produttività 36.
Quindi, come si vede, gli unici due casi che, secondo il rapporto
della Commissione dell’UE, “dimostrerebbero” la valenza positiva del
PdP, dimostrano invece esattamente il contrario. Alla fine, non sembra sia possibile citare alcun caso – neanche uno – in cui l’applicazione del PdP abbia scongiurato un danno, ridotto un rischio, o apportato benefici.
Qualcuno pensa di poter addurre casi in cui il PdP non sarebbe
stato applicato; ove invece, se lo fosse stato, si sarebbero potuti evitare
dei danni. Tipicamente, si cita il caso dell’amianto, e si usa dire: se
questo materiale fosse stato bandito da subito, non ci sarebbero stati
gli spiacevoli casi di asbestosi verificatisi tra i lavoratori a esso esposti.
La verità è un’altra. Innanzitutto, quando circa un secolo fa si cominciò ad usare l’amianto, nessuno poteva sospettare nulla. I primi sospetti vennero alcuni decenni dopo, perché questi sono i tempi tra
esposizione all’amianto e manifestazioni patologiche. In ogni caso,
quando quei sospetti vennero, la scienza non rimase con le mani in
mano, ma studiò il caso; e nel 1954 decretò con certezza la pericolosità di quel materiale. Che venne messo al bando, per lo meno in Italia, ben 40 anni dopo! Quindi, non ci fu nessun PdP che non venne
applicato. Quella che non venne applicata fu l’elementare precauzione
su una sostanza di cui si era riconosciuta, alla fine, la pericolosità: ancora una volta, fu il legislatore, cioè la politica, il soggetto inadempiente e sordo alla voce della comunità scientifica.
Conclusioni
Concludo con una riflessione e una proposta. Innanzitutto, bisognerebbe ricordare che l’analisi e la gestione del rischio può procedere
36 M. Thorning, The impact of Eu climate-change policy on economic competitiveness, Atti della conferenza Dall’effetto serra al dirigismo ecologico, Istituto Bruno Leoni, Milano 29 novembre 2003.
Il principio di precauzione: precauzione o rischio?
69
seguendo il metodo scientifico, e avvalendosi di commissioni di organismi che siano scientificamente accreditati, ufficialmente riconosciuti e
indipendenti da eventuali interessi economici attinenti al problema in
questione. Non vi sarebbe nessuna necessità di invocare un principio
ad hoc, soprattutto se esso intenda scavalcare ogni analisi e gestione del
rischio fatta col metodo scientifico e sostituire i detti organismi coi responsabili politici. Costoro, piuttosto, sulle questioni indagabili scientificamente hanno il dovere di adeguarsi ai risultati di quelle indagini:
potrebbero essere, come visto, inestimabili i danni conseguenti a comportamenti non conformi alle indicazioni dell’indagine scientifica, magari nell’ottica dell’affermazione di un generico, acritico e a priori “primato della politica”. Il rifiuto del “primato della politica” su quelle
scelte che possono essere guidate dall’indagine scientifica è un dovere
che ognuno, soprattutto se scienziato, deve esercitare: la scienza, infatti, per sua stessa natura, rifiuta l’autorità, qualunque autorità diversa da
quella che i fatti e la Natura impongono.
Se proprio si sentisse la necessità di un principio guida, forse può
essere elemento di riflessione la seguente riformulazione, da me proposta, del PdP (da confrontarsi con quella data all’inizio):
«Ove vi siano minacce scientificamente accertate di danno serio o
irreversibile, i responsabili politici hanno l’obbligo di non posporre
misure – anche non a costo zero ma purché efficaci – volte a prevenire
il temuto degrado ambientale».
Lo chiamerei, questo, “principio di (tripla) priorità”: (i) priorità
dell’analisi scientifica rispetto alle preoccupazioni emotive (e ciò significa adottare una scala di priorità che tenga conto del rapporto
costi/benefici); (ii) priorità della ragione scientifica rispetto a quella
politica; (iii) priorità della salvaguardia ambientale rispetto all’onere
economico.
In definitiva, il vero rischio del PdP è che tramite esso le conoscenze della fisica, chimica, biologia, medicina – della scienza in genere,
insomma – vadano riscritte nelle aule dei parlamenti, prima, e dei tribunali, poi. Ebbene, possiamo dire che l’associazione Galileo 2001 si
propone di impedire che ciò avvenga.
71
RADICI FILOSOFICHE E UTILIZZAZIONE SOCIALE
DEL PRINCIPIO DI PRECAUZIONE
Carlo Bernardini
Università di Roma La Sapienza
U
no dei motivi per cui anche persone colte e non particolarmente credule fanno i rituali scongiuri suggeriti da molte delle
superstizioni classiche (soprattutto in occasione dell’incontro
di speciali individui detti o presunti “jettatori”) è quello determinato
dalla “prudenza in condizioni di ignoranza”: non è detto che il pericolo sia reale ma, dal momento che lo scongiuro è a buon mercato e alla
portata di tutti, meglio praticarlo per prudenza. Pare che un illustre difensore di questo punto di vista fosse addirittura Benedetto Croce (la
frase che gli è attribuita, esattamente, suona così: «Non è vero, ma
prendo le mie precauzioni», a quanto dichiara Massimo Polidoro del
CICAP); e non si può negare che questo semplice ragionamento di
cautela in favore degli scongiuri abbia la sua rilevanza. Sulla scorta di
questo ormai antico esempio, possiamo allora dire che il Principio di
Precauzione ha una sua solida base crociana, compatibile con le filosofie idealiste e dunque, più che mai, con quelle antiscientifiche che ancora tanto spazio hanno nel pensiero contemporaneo. Non annovererei
tra i precursori del Principio di Precauzione, invece, l’ex presidente della repubblica Giovanni Leone, grande esperto praticante di scongiuri:
Leone ci credeva e la sua non era precauzione ma convinzione, ovvero
elemento costitutivo di una tradizione culturale. Informazioni più estese si possono ottenere sul sito http://www.cicap.org.
Proprio in ragione di questa matrice più colta, devo riconoscere
che i miei colleghi e io stesso commettiamo abitualmente un grave errore, che è quello di perdere le staffe di fronte a princìpi e convinzioni che ai più, invece, appaiono come dotate di un fondamento; ovvero, che ai più appaiono addirittura come proposizioni di senso comune, elementarmente inconfutabili. Effettivamente, in questo come in
72
I costi della non-scienza
altri casi che implicano “credenze”, ci troviamo di fronte a una affermazione vagamente antinomica, che meriterebbe almeno una tesi di
laurea. La formulo così: «Non è possibile dimostrare razionalmente
la non-esistenza di qualcosa che non esiste». L’affermazione si aggrava tramutandola perentoriamente in: «Non può esistere la dimostrazione razionale della non-esistenza di qualcosa che non esiste». Un
bel rompicapo, dovuto a un concetto di quelli che Ludovico Geymonat chiamava “predicabili”, cioè appartenenti alla «classe che contiene se stessa come elemento» (per esempio, il concetto di astratto è
predicabile, essendo esso stesso astratto; il concetto di virtuoso è, invece, impredicabile). In realtà, uno dei motivi per cui non ci cimentiamo razionalmente con i fenomeni di credulità e bruciamo le tappe
dando in escandescenze apodittiche è che non sopportiamo che alcuni nostri colleghi furbacchioni rivestano la filosofia della «prudenza
in presunte condizioni di ignoranza» di argomentazioni che appaiono
scientifiche solo perché espresse da sedicenti scienziati, ma hanno in
realtà finalità di altra natura: politiche, in genere, cioè, di consenso e
di affermazione di un potere. Questa sì che è una importante scoperta fatta da alcune frange dell’ambiente scientifico: l’uso ideologico
della scienza, una opportunità sino a poco fa forse impensabile. La
scoperta, a prima vista di altra natura, mutatis mutandis è simile a
quella di chi capisce che una applicazione tecnologica può far guadagnare molti soldi.
Dunque, vi invito a riflettere sulla nostra abitudine di minacciare
con anatemi i nostri colleghi disponibili all’uso psicopolitico della credulità. In realtà, faremmo meglio a cercare di travolgerli con usi in
qualche modo “vantaggiosi” della credulità. Questo non è banale:
promesse sui benefici futuri della ricerca non fanno più alcuna presa
sull’opinione pubblica e sono banalmente confutabili perfino da giornalisti avveduti. No, bisogna usare in modo positivo proprio quella
paura che rende efficace il Principio di Precauzione; ma salvaguardando la nostra rispettabilità e credibilità. Vi faccio un esempio, che mi fu
suggerito da una vicenda reale. Anni fa, una notissima astronoma italiana fu consultata da alcuni sindacalisti di Pordenone che avevano
appreso da un ufficiale americano che il rilevamento della radioattività
nelle cantine di Aviano e dintorni adibite a bettole aveva dato valori
molto alti. I sindacalisti chiesero se questo era attribuibile alla presen-
Radici filosofiche e utilizzazione sociale del PdP
73
za delle numerose testate nucleari nella base. L’onesta astronoma rispose: «Non me ne intendo, perciò non posso escludere». Il giorno
dopo, il quotidiano locale uscì con un titolone: «La nota professoressa
XY dichiara che molto probabilmente…». Successe il finimondo. Mi
telefonarono e mi sforzai invano di spiegare che no, non poteva essere; le cantine hanno sempre attività naturale più elevata a causa del radon proveniente dal sottosuolo; inoltre, è inverosimile che le radiazioni del materiale fissile di un ordigno nucleare superino l’involucro delle bombe. Fui sospettato di connivenza con i militari. Allora svegliai,
di notte, i dirigenti di quel tempo dell’ENEA: Umberto Colombo
(Presidente), Giovanni Naschi (Divisione Sicurezza e Protezione) e
Fabio Pistella (Direttore Generale). Avevo consultato, per tranquillità,
l’amica e collega Silvana Ricci Piermattei, esperta di radon, che aveva
confermato la mia banale conclusione. Tuttavia, sapevo che una dichiarazione autorevole e responsabile valeva di più dei nostri pareri.
Perciò, insistetti: «Fate qualcosa, fate un comunicato ufficiale dell’ENEA». Mi dissero che era una questione delicata. Insomma, sembrava che temessero di giocarsi il posto. Il clima era simile a quello
che abbiamo vissuto con Scanzano Jonico. Però, a me venne, qualche
tempo dopo, un’idea.
La frase magica, l’abracadabra, è: «Non posso escludere». Qualunque scienziato, se non sa niente di qualcosa, copre così la sua ignoranza. Non dice “non so” ma dice che “non può escludere”: anche questa
è precauzione, a suo modo. Fateci caso: i giornalisti adorano consultare i premi Nobel, specie i nazionali. Un premio Nobel è il moderno
oracolo e deve salvaguardare la propria attendibilità, che non è tanto
quella legata a una sua competenza specialistica quanto quella associata a una presunta capacità di ragionare in modo originale. Difficile,
perciò, che escluda una eventualità minimamente possibile di cui in
realtà non sa nulla: se può, copre la sua ignoranza con un espediente
retorico ambiguo. Ma allora – e questa è l’idea che mi venne mentre
pensavo con rancore che avrei raccontato la pavidità del vertice
ENEA sul radon ad Aviano in ogni occasione che mi si offrisse – vediamo cosa si può fare di buono con un autorevole “non posso escludere”. Immaginate, per esempio, che una équipe di luminari della medicina si risolva a dichiarare in un importante canale televisivo e in fascia oraria di massimo ascolto, magari sapientemente sollecitata da
74
I costi della non-scienza
giornalisti che hanno studiato queste tecniche: «Non possiamo escludere che la lunga permanenza al volante di un’auto nel traffico cittadino produca un sensibile calo delle prestazioni sessuali, oltre a favorire
l’obesità e alcuni specifici disturbi neurologici». Ebbene, sarei pronto
a scommettere che il traffico cittadino si ridurrebbe di punto in bianco di non meno del 30%, per ridursi poi ulteriormente nei giorni successivi grazie ad una campagna giornalistica ben congegnata. Padronissimi, i luminari, di dichiarare che non sono sicurissimi, che la loro
affermazione è solo precauzionale… Ma, ci pensate? Ridurre il traffico con il Principio di Precauzione: un risultato socialmente straordinario! Lascio perdere la possibilità che il programma TV sia sponsorizzato da una fabbrica di biciclette, o pattini, o monopattini: di queste
opportunità venali noi scienziati non ci occupiamo.
Molti altri risultati potrebbero essere così ottenuti. Certo, le fabbriche di auto correrebbero ai ripari. Allora, pensiamone altre. Si aprirebbe un ventaglio enorme di possibilità. «Non si può escludere che
buttare rifiuti di ogni genere per strada o nei luoghi pubblici o nelle
campagne produca nuovi microorganismi in grado di determinare
nuove e gravi malattie infantili». «Non si può escludere che il piercing
sia la causa di particolari tumori»; «Non si può escludere che… (inventate voi qualcosa che vi dà fastidio e mettetela fuori gioco con una
precauzione mirata)». Insomma, anziché proibire o imporre come un
qualsiasi tiranno, fate apparire la norma come una saggia precauzione:
proibizioni e imposizioni sono cause di conflitti, meglio accontentarsi
di realizzarle “come misure precauzionali”. È anche assai più democratico: ciascuno è libero di decidere se cautelarsi, “chi non lo fa, su’
danno”. Non chiediamo più di così: vogliamo forse metterci al livello
di chi vuole proibire normativamente gli OGM, o gli anticoncezionali,
o le linee elettriche, o le centrali nucleari? Se non imbocchiamo questa
strada, illustri colleghi, perderemo in qualunque faccia a faccia contro
chi, della scienza, diffida e invita a diffidare per principio. Riconosciamo dunque che «c’è del metodo in quella – che a noi appare – follia»,
e allora usiamo il metodo.
A me piacerebbe addirittura approfittare dell’opportunità, ma mi
sembra rischioso. Forse, non si possono proporre cose come «il politico X mi sembra pericolosamente antipatico e non posso escludere che
lo sia veramente: per precauzione, non votatelo più». Non è certo un
Radici filosofiche e utilizzazione sociale del PdP
75
caso, comunque, che i colleghi che hanno fatto fortune mondane con
l’ambientalismo oltranzista siano animati da una vena di moralismo
mistico che ha contagiato particolarmente la sinistra estrema, gli ex
sessantottini e altri eterni tormentati dalla razionalità. Tra gli ambientalisti, ci sono due tipi di “caratteristi” che si danno manforte, ciascuno dalla propria parte: i guru e gli attivisti. Usando la nomenclatura
dei fisici, i guru sarebbero un po’ l’equivalente dei “teorici”, gli attivisti sarebbero l’equivalente degli “sperimentali”. I guru parlano in un
linguaggio canonico intriso di diffidenza verso categorie classiche come la “scienza ufficiale”, il “progresso”, la stessa “razionalità” o il
“metodo”; sono al confine della New Age, si riferiscono almeno a
George Bateson, amavano Barry Commoner e oggi Jeremy Rifkin, e
così via. Gli attivisti pescano “evidenze” con le metodologie più deprecabili: certificazioni di medici privati, testimonianze di gente comune (su epidemie infantili o su vitelli a due teste, peraltro mai esibiti
in televisione, con la fame di mostri che c’è). Le dichiarazioni di individui isterici resi insonni dalle onde elettromagnetiche sono pregnanti
e spettacolari. Ma soprattutto, a parte la descrizione fenomenologica
di presunti immani danni ambientali imputabili alla spregiudicatezza
della scienza ufficiale accoppiata ad interessi economici mondiali, il
cavallo di Troia del Principio di Precauzione sono gli argomenti inquietanti, atti a produrre disagio. Per esempio: interrogare la pubblica opinione sulla liceità dell’uso di un farmaco che guarisce il raffreddore
ma è letale in un caso su un milione. Se prendete un milione di persone e chiedete se assumerebbero quel farmaco, scoprirete che ciascuno
pensa di essere il caso eccezionale; a nulla varrà far notare che il rischio di incidenti d’auto o di caduta massi o di folgorazione è ben più
grande. L’accidente è accidente e pertanto accettato, la letalità eccezionale di un farmaco è un attentato deliberato della scienza.
Colleghi, cambiamo metodo di gioco. Nell’affrontare la pubblica
opinione, cominciamo a “non poter escludere” che se si vuole vivere a
rischio zero oggi, domani moriremo di freddo e di fame. Siate razionali con giudizio, armatevi di capacità di comunicazione. Per quanto mi
riguarda, mi limito a proporre con forza una riforma didattica che ci
riguarda da vicino. Le scienze, così come sono insegnate, appaiono
stupidamente deterministiche (cioè “risolutive”). Nessuno di noi,
però, s’azzarderebbe a valutare più che una probabilità che accada ciò
76
I costi della non-scienza
che tentiamo di prevedere. Ma la gente vuole certezze e noi sbagliamo
a cercare di darle o di aggirare la domanda per non darle.
Dedichiamoci all’insegnamento sistematico, sin dalle scuole dell’infanzia, del concetto di probabilità. Ricordatevi che il Principio di Precauzione ha la forza del determinismo: non fare, è l’unica cosa proponibile che appaia ingannevolmente certa. Ma le conseguenze del non
fare sono valutabili soltanto probabilisticamente: è qui che i guru imbrogliano, perché spacciano per salvezza certa l’esito del non fare.
Vanno confutati su questo piano.
Coraggio.
77
IL PRINCIPIO DI PRECAUZIONE:
UN TRUCCO VERBALE
Tullio Regge
Premio Einstein per la Fisica
L’
abbreviazione PdP è considerata blasfema e vilipendio da noti
oppositori; ho già ricevuto in proposito infuocate lettere di
protesta. La vicenda del PdP è ormai vecchia di anni e temo
che sia l’inizio, l’equivalente del decalogo – se volete – di una nuova
religione basata sulla mistica ambientalista.
Quando ero deputato al Parlamento Europeo, durante una conversazione fuori seduta con alcuni colleghi, fui interrotto da un Verde
con l’annuncio che era stato scoperto un gigantesco deposito di uranio in Canada. Il Verde ha subito aggiunto, con un sorriso e una strizzatina d’occhio, che il deposito era situato sotto un lago, chiaro messaggio della natura che non voleva fosse sfruttato. La natura, vista dal
collega, mi apparve come divinità che legiferava e diceva “voglio o
non voglio”: ho visto sul nascere il sorgere di una nuova religione. Ho
risposto al collega che non si poteva parimenti tirare l’acqua su dai
pozzi perché era sotto terra, e questi se ne andò via infuriato.
Lo straordinario sviluppo scientifico e tecnologico del XX secolo
scatena ondate mistiche che prendono di mira di volta in volta il nucleare, gli OGM, interventi – anche a scopo di cura – sul genoma
umano e, infine, il cosiddetto elettrosmog. La caratteristica saliente di
queste proteste a livello popolare è l’uso di tesi aberranti, scarso o nullo ricorso ad una seria analisi dei fatti, sviluppi legislativi onerosi e la
creazione di strutture burocratiche di regola tanto dispendiose quanto
dannose. La prima formulazione della legge sull’elettrosmog, opera
dell’allora ministro Bordon, avrebbe contemplato in Italia investimenti e spese correttive del tutto inutili, dell’ordine di circa 3-4 “Parmalat”. La cifra è stata poi ridotta e credo che oggi sia aggiri sul mezzo
“Parmalat”. Si tratta pur sempre di soldi buttati via. Le indagini epi-
78
I costi della non-scienza
demiologiche svolte in tempi recenti indicano che l’impatto dell’elettrosmog sulla salute è minimo – se non assente – e del tutto trascurabile rispetto all’impatto del fumo e in ogni caso ben controllato dalle
norme della OMS adottate da ben 40 paesi di tutto il mondo. Abbiamo fermato le centrali elettronucleari, impresa folle e costosissima, paghiamo gli stipendi al personale senza produrre elettricità e senza alcun miglioramento nelle condizioni di sicurezza. Le proteste ambientaliste contro i depositi di scorie non hanno migliorato le condizioni di
sicurezza, semmai le hanno peggiorate. Le proteste hanno bloccato
con estrema efficienza per decenni la sistemazione delle scorie in un
sito ad alta sicurezza e hanno avuto come unico risultato quello di aumentare la tensione e il terrore del nucleare. E, naturalmente, quello
di guadagnare voti dallo stato di massimo pericolo.
Fra l’altro, non esiste un unico PdP, un anno fa ne esistevano ben
quattordici versioni in continua evoluzione darwiniana. D’altra parte,
il testo del PdP è irrelevante e non viene quasi mai citato. Conta esclusivamente l’uso a scopo demagogico. Mi ricordo a questo proposito
una puntata di Excalibur 1 a cui ha partecipato anche il nostro Ricci, in
cui in fase di chiusura ben due ambientalisti hanno usato verbatim la
stessa formula «questo non si può fare per via del Principio di Precauzione».
Il PdP è in pratica uno scongiuro: basta il titolo. Il testo è irrilevante e non vale la pena di discuterlo. La pretesa di regolare il futuro
dell’ambiente e dell’umanità anche solo per pochi decenni è assurda
ed arrogante. La natura è un ecosistema estremamente complesso che
l’uomo può seguire solamente in minima parte. Il PdP di Rio, il primo
della serie, richiedeva l’assoluta sicurezza, una pretesa assurda. Se preso alla lettera, la nostra riunione di oggi non poteva aver luogo, non
dovremmo viaggiare in auto e neppure su di un treno. Il PdP è in
realtà concepito come principio per bloccare le iniziative ideologicamente sgradite. Quasi tutte le versioni considerano l’impatto di singoli
ritrovati tecnici, farmaco o pesticida o antenna radar che siano, e trascurano le interazioni. La natura è un sistema complesso in cui possono interagire anche centinaia di fattori diversi, ed è molto difficile predire il risultato finale a lungo termine. A distanza di anni un interven1
Trasmissione televisiva di Rai Due condotta da Antonio Socci.
Il principio di precauzione: un trucco verbale
79
to può rivelarsi benefico o dannoso. Il tentativo di adattare il PdP a situazioni di estrema complessità non è realistico. Siamo condannati alla
navigazione a vista, forse potremo evitare gravi incidenti a breve termine, forse 10 anni, ma certamente non 50 anni. L’andare oltre è velleitario e anche costoso; è destino dell’uomo applicare la propria intelligenza.
L’altro punto di cui si è parlato è il ruolo e i limiti della ricerca
scientifica. Non sono religioso, ma ricordo molto bene i tempi del liceo e il mio professore di religione, persona di cui ho un caro ricordo.
Don Carena ricordava che errare humanum est e su questo punto credo che siamo tutti d’accordo, però aggiungeva anche perseverare diabolicum, ed io ho sempre apprezzato questa aggiunta.
Signori, virtù della scienza non è l’infallibilità bensì quella di non
perseverare nell’errore, l’errore è inevitabile ed ha anche una funzione
creativa, a volte apre le porte a nuove scoperte. Le irregolarità nel moto del pianeta Mercurio all’inizio apparvero come una violazione inesplicabile della legge di Newton, ma in realtà furono punto di svolta
di enorme importanza che ci ha condotti alla relatività generale. Quindi, tutto questo significa che dobbiamo imparare dall’errore, ammettere che l’errore fa parte della ricerca e darci da fare.
Vorrei infine occuparmi di un tema molto attuale. La manipolazione del genoma di esseri viventi è tema scottante che solleva problemi
etici che agitano la nostra società. Non manca chi vorrebbe porre fine
alla ricerca ed a qualsiasi manipolazione del genoma, foss’anche a scopo curativo. La mia opinione è che se la natura commette errori, causa
di gravi malattie e di inaudite sofferenze, abbiamo tutto il diritto e il
dovere di intervenire.
Noto purtroppo una chiara assenza di pietà umana in molti critici
della ricerca scientifica. Ricordo un collega del Parlamento Europeo a
cui avevo riferito il caso di una bambina affetta da immunodeficienza
congenita e curata al S. Raffaele con un intervento sul genoma, il primo caso trattato in Europa. I ricercatori hanno modificato il midollo
osseo della bambina che ha finalmente ottenuto un suo sistema immunitario e, a quanto mi hanno riferito, frequenta oggi regolarmente la
scuola. Ottenni una reazione gelida, il collega furioso replicò che «non
si sa cosa possa fare all’ambiente», una delle tante frasi fatte che vengono ripetute fino alla nausea.
80
I costi della non-scienza
Rivolgo a questo proposito un caldo invito ai colleghi, vorrei che
qualcuno incaricasse uno studente volonteroso che raccolga e analizzi
le frasi ossessive e ripetitive che caratterizzano le polemiche ambientaliste. Quella da me citata è ben nota. Un’altra litania recita «tutti i brevetti degli OGM sono nelle mani delle multinazionali». La ripetizione
ossessiva di slogan sarebbe ridicola se non fosse vergognosa. Nel caso
da me citato l’intervento ha posto fine alle sofferenze di una bambina
che soffriva di una malattia molto grave, condannata altrimenti a trascorrere tutta la sua vita in una bolla di plastica. Tutto questo mi ricorda una frase di Mencken che definiva il puritano come «un signore
che soffre intensamente al pensiero che qualcuno da qualche parte nel
mondo sia felice».
Signori, i puritani sono ancora fra di noi.
81
IL PRINCIPIO DI PRECAUZIONE E LA SALUTE
Umberto Tirelli
Direttore Dipartimento di Oncologia Medica
Istituto Nazionale Tumori di Aviano
S
econdo la definizione che la Commissione Europea ha dato nel
1998, «il Principio di Precauzione (PdP) è un approccio alla gestione del rischio che si applica in circostanze di incertezza
scientifica e che riflette l’esigenza di intraprendere delle azioni a fronte di un rischio potenzialmente serio senza attendere i risultati della ricerca scientifica». Ma, come è stato osservato più volte durante il corso di questa conferenza, la certezza scientifica è sempre assente. La
scienza, a differenza delle parascienze, della cartomanzia e dell’astrologia, non offre certezze. Il rischio del PdP è che quello spazio di dubbio lasciato dalla scienza venga riempito da affermazioni arbitrarie,
dando voce solo alle emozioni della gente o comunque a persone non
competenti che vogliono sfruttare questi sentimenti, consentendo una
strumentalizzazione in aperto contrasto con gli interessi della collettività e con l’analisi critica delle acquisizioni scientifiche.
Il PdP è perciò impossibile da applicarsi per la salute, perché fa
appello alla incertezza scientifica, ma l’incertezza è intrinseca alla
scienza. Il PdP non è un criterio scientifico, ma è un atteggiamento socio-politico, che non ha niente a che fare con la scienza. Invece del
PdP, è la prevenzione dai rischi accertati sulla base dei dati scientifici
che dovrebbe essere la guida dei nostri comportamenti. Per esempio,
gli incidenti stradali sono la prima causa di morte nei giovani, ed è come se un aereo cadesse in ogni week-end non soltanto in Italia, ma in
ogni singolo paese occidentale. La prevenzione si basa sulla riduzione
della velocità mentre si guida, sul bandire alcool e qualsiasi droga al
conducente, sull’impiego della cintura di sicurezza, sul non utilizzo
del telefonino alla guida. Mentre questa è prevenzione, il PdP applicato all’utilizzo della macchina prescriverebbe che non si andasse in
macchina per non rischiare incidenti stradali o comunque l’inquina-
82
I costi della non-scienza
mento atmosferico urbano, che dipende all’80%, nel suo complesso,
dall’utilizzo delle macchine.
Ma ecco un esempio di come l’invocazione del PdP sia stata sconfessata da un organismo internazionale come l’OMS. Un rapporto
dell’OMS del marzo 2000 recita: «Le condizioni di applicabilità del
Principio di Precauzione espresse dalla Commissione dell’UE non sussistono né per i campi a frequenza industriale né per quelli a radiofrequenze». Stranamente, il rapporto dell’OMS non viene mai menzionato quando si cita il PdP a questo proposito.
Secondo la Commissione Europea (2000), «il ricorso al PdP presuppone l’identificazione di effetti potenzialmente negativi che derivino da un fenomeno, da un prodotto o da una procedura, nonché
una valutazione scientifica del rischio». Quindi perché venga invocato il PdP è necessario che sia stata chiaramente identificata la sua natura di potenziale danno alla salute, anche se con incertezze sull’entità dei rischi ipotizzati e sull’effettivo nesso causale. Questo chiarimento della Commissione Europea risolve solo parzialmente il problema. Infatti, la letteratura epidemiologica abbonda di studi che segnalano associazioni statistiche tutte da verificare sul piano eziologico; la letteratura medica riporta innumerevoli case reports interpretabili come primo segnale di un problema sanitario, ma che potrebbe
poi rivelarsi infondato.
Il PdP crea quindi una situazione di conflitto con il metodo scientifico che può essere superata solo rispondendo a due domande:
• Quale grado di evidenza scientifica è necessario perché un rischio sanitario o ambientale possa dirsi “identificato”?
E, di converso,
• Quanta mancanza di evidenza scientifica è necessaria perché
un agente, un fenomeno o un’attività umana possano essere considerati “innocui”?
Le due domande sono solo apparentemente speculari. Mentre infatti solidi studi positivi, nel senso che indicano un effetto, possono
fornire la “prova di pericolosità”, nessuno studio negativo, per quanto
ampio e solido può fornire la “prova di innocuità”.
Significativo in proposito è il fatto che la classificazione dell’Agenzia Internazionale sulla Ricerca sul Cancro (IARC) prevede, ad un
estremo, la categoria delle sostanze “cancerogene”, ma all’altro estre-
Il principio di precauzione e la salute
83
mo non va oltre la definizione di “probabilmente non cancerogene”.
La parola “innocuo” dovrebbe quindi a rigore scomparire dal dizionario scientifico; il problema che si pone è stabilire quanta evidenza
scientifica negativa (nel senso sopraindicato) deve accumularsi perché
qualche cosa corrisponda a ciò che, nel parlare e nel sentire comune,
viene considerato come “innocuo”. La risposta non è univoca perché
è soggettivo non solo il concetto di innocuità, ma anche la percezione
dei rischi, influenzata spesso più da fattori psicologici che dalle conoscenze scientificamente oggettive. Tutto ciò rende inutilmente difficile
la gestione di molti problemi sanitari, di potenziali farmaci e di farmaci già in commercio. O del problema dei campi elettromagnetici sopra
accennato.
E ancora: il richiamo alla responsabilità professionale degli addetti
ai lavori è pressante nell’impianto normativo in vigore nell’Unione
Europea: esso sottintende l’ipotesi che le moderne tecnologie biologiche siano potenzialmente pericolose e che sia quindi necessario ottenere un progressivo consenso sociale sulle loro utilizzazioni produttive in ambito sanitario, agricolo ed industriale.
Per quanto riguarda la salute in generale, se tenessimo conto del
PdP, che viene spesso portato come paladino della difesa della salute e
dell’ambiente, come ci dovremmo comportare con l’inquinamento
prodotto dalle macchine e dal riscaldamento che notoriamente può
portare a malattie respiratorie ed oncologiche? Chiedere la rottamazione delle auto e vivere al freddo?
La scienza non risolve ovviamente i problemi della salute, ma se ci
sono dei problemi correlati alla salute sia per quanto riguarda i nuovi
farmaci che altri problemi generali, il metodo scientifico offre le risposte più attendibili perché l’indagine e la verifica dei risultati poggia sul
rigore critico della comunità scientifica e certamente non sulle emozioni della gente o sui preconcetti o peggio ancora sulle idee politiche.
Pertanto al PdP, che non è un criterio scientifico, va senz’altro sostituito il metodo scientifico. Esso si basa sui seguenti passaggi:
ANALISI PRELIMINARE: Domande alle quali dare una risposta.
Per esempio: Qual è la causa dell’AIDS?
TEORIA: Sulla base delle conoscenze disponibili viene formulata
una teoria: l’AIDS è una malattia infettiva che dipende da un virus.
84
I costi della non-scienza
IPOTESI SPERIMENTALE: 1) Se l’AIDS dipende da un virus
dobbiamo trovare un virus nel paziente; 2) Il virus isolato dovrebbe
provocare in un modello sperimentale di laboratorio danni simili a
quelli della malattia.
SPERIMENTAZIONE: Analizzando il sangue dei pazienti si trova
sempre il virus HIV e questo conferma la solidità della teoria virale.
CONFERMA E RIPRODUCIBILITÀ DEI DATI: Pubblicati questi dati su riviste scientifiche autorevoli, questi dati devono essere confermati. Se non venissero confermati si ritorna alle fasi precedenti.
L’HAART ha rivoluzionato la storia naturale dell’HIV/AIDS, trasformandola da una malattia evolutiva e spesso mortale in pochi anni a
malattia cronica sostanzialmente gestibile, con una riduzione significativa del passaggio da HIV ad AIDS e di mortalità in pazienti con
AIDS. L’HAART è stato uno dei più grandi progressi medici del secolo
scorso in campo farmacologico. L’AIDS è stato descritto per la prima
volta nel 1981, vi è stata la scoperta del virus che lo causa nel 1983, sono stati disponibili un test del sangue nel 1985 e, dopo pochi anni, una
terapia in grado di rendere spesso cronica questa infezione, che prima
era mortale in tutti i casi. E pensare che c’è chi dice che l’HIV non è la
causa dell’AIDS, come ad esempio il presidente del Sud Africa che si
basa su affermazioni screditate dello scienziato Duesberg. Nel frattempo vi è chi si lamenta perché i farmaci anti-HIV non vengono resi disponibili al Sud Africa.
Di fronte ad una sopravvivenza sostanzialmente migliorata in poco
tempo per merito dell’HAART, non sarebbe stato accettabile pensare
agli eventuali effetti secondari tossici a medio e lungo termine causati
dai farmaci dell’HAART. Cosa avrebbero potuto dire i pazienti con
HIV/AIDS se qualcuno avesse proposto di attendere 5-10 anni per
valutare gli eventuali effetti collaterali dell’HAART (che poi si sono
effettivamente riscontrati, per esempio lipodistrofia ed altri, come
d’altra parte succede quasi sempre con una terapia cronica)?
Altre circostanze nelle quali il PdP dovrebbe essere sostituito dall’applicazione del metodo scientifico sono il cosiddetto elettrosmog,
l’agricoltura che usa OGM e quella biologica, l’energia nucleare e
l’uranio impoverito.
Come detto in precedenza, la scienza non risolve ovviamente i problemi della salute, ma se ci sono dei problemi correlati alla salute sia
Il principio di precauzione e la salute
85
per quanto riguarda i nuovi farmaci che altri problemi generali, è il
metodo scientifico che offre le risposte più attendibili. Pertanto, il
PdP va senz’altro sostituito dal metodo scientifico e comunque da
quanto le Agenzie nazionali ed internazionali preposte, costituite da
ricercatori esperti nell’argomento, e che si basano su quanto gli scienziati hanno riportato sull’argomento, possano enunciare.
Infine va ribadito che tutti noi quando riportiamo dei dati scientifici, dovremmo sempre ricordare di citare le Agenzie nazionali ed internazionali che riportano quanto stiamo dicendo, oppure ricerche pubblicate sulle riviste più autorevoli e che sono confermate da altri. Se
così non fosse, il nostro discorso dovrebbe essere sempre molto cauto
e comunque mai definitivo.
87
PIANTE GM:
UNA GRANDE OPPORTUNITÀ PER
L’AGRICOLTURA ITALIANA
Francesco Sala
Università di Milano
«I
o mangio cibi naturali perché sono sicuri»: due errori in una
frase. Primo errore: tutte le piante coltivate dall’uomo per
produrre cibo, mangimi per animali e prodotti di interesse
industriale, non sono “naturali”. Il pomodoro, il frumento, il riso, il
mais sono il risultato di incroci, mutazioni e selezioni operate negli ultimi millenni e, soprattutto, nel secolo appena concluso.
Secondo errore: la correlazione “cibo naturale/assenza di rischi” è
scientificamente infondata. La maggior parte delle piante produce veleni, tossine e sostanze cancerogene. Ciò ha un significato biologico ed
evolutivo: la pianta produce questi composti per difendersi dai suoi
parassiti (insetti, funghi, virus, animali che se ne cibano).
L’uomo, ha selezionato piante che, apparentemente, non gli sono
tossiche o ha imparato a renderle commestibili. Oggi la scienza ci aiuta in questa selezione; ad esempio, si è di recente scoperto che le giovani piantine di basilico usate per il “pesto genovese” contengono metil-eugenolo, una sostanza che può provocare tumori. Ma la scienza ha
anche chiarito che la concentrazione di questa sostanza scende al di
sotto del livello di guardia nelle foglie di piante adulte: basta preparare il pesto con piante più alte di 10 centimetri. Un altro esempio del
fatto che i rischi accompagnino anche l’alimentazione, sia tradizionale
sia biologica: nel novembre 2003 la Regione Lombardia dovette ordinare la distruzione del 20% del latte ivi prodotto perché contaminato
da aflatossine. Si tratta di molecole che causano diverse gravi patologie, tra cui anche tumori.1 Il fatto è stato circoscritto alla Lombardia
perché questa è stata l’unica regione che abbia effettuato appropriati
1
Turner et al., Mutation Research 443, p. 81-93 (1999).
88
I costi della non-scienza
controlli, ma non vi è ragione di escludere che anche il resto dell’Italia
sia a rischio. Perché le aflatossine nel latte? Perché un componente
importante della dieta degli animali da latte è il mais. Su quest’ultimo
spesso cresce un fungo parassita che produce micotossine, tra cui le
aflatossine stesse. Queste, assorbite dall’animale, vengono accumulate
nel latte.
Tabella 1.
Alcuni rischi della agricoltura tradizionale e di quella biologica
Per la salute umana:
1. Sostanze tossiche o tumorigene nella pianta (es.: basilico giovane
contiene metileugenolo, un cancerogeno)
2. Sostanze allergeniche (es.: 15 allergeni nel Kiwi)
3. Residui di composti chimici usati come fitofamaci in agricoltura
(fertilizzanti, diserbanti, insetticidi, fungicidi)
4. Presenza di tossine fungine nei prodotti agricoli (aflatossine, fumosine, ocratossine).
Per l’ambiente:
1. Diffusione di polline (es.: pioppo coltivato che, con il suo polline,
riduce la biodiversità del pioppo naturale)
2. Colonizzazione di ecosistemi (es.: robinia, Ailantus, un melo infestante nel Parco del Ticino)
3. Impoverimento dei suoli
4. Eutrofizzazione delle acque
5. Inquinamento delle falde acquifere (es.: atrazina nelle risaie degli
anni Sessanta-Settanta).
È dimostrato che il rischio aflatossine è molto più alto nelle coltivazioni biologiche ove il controllo del fungo è più problematico rispetto
al mais tradizionale e, soprattutto al mais-Bt, una pianta transgenica
che ha acquisito un gene che conferisce resistenza alla piralide, un in-
Piante GM: una grande opportunità …
89
setto parassita. Ma cosa c’entra l’insetto con i funghi che producono
aflatossine? I dati sperimentali mostrano che un mais che cresca sano,
perché non attaccato dalla piralide, il suo principale parassita nei nostri campi, riesce a resistere meglio alle infezioni fungine. In esso le
aflatossine risultano dunque assenti o ridotte a tracce. L’agricoltura,
ed i suoi prodotti, non sono dunque esenti da rischi. Alcuni di questi
sono riassunti in Tabella 1.
Eppure oggi il Principio di Precauzione viene invocato solo quando
si tratti di piante transgeniche (conosciute anche come piante geneticamente modificate, o piante GM). Quante volte nei dibattiti pubblici
mi sono sentito chiedere: «Lei, come scienziato, ci può dare la sicurezza che le piante GM siano assolutamente esenti da rischi, sia presenti
che futuri? Se la scienza non ci dà questa certezza, meglio il non-fare!». La mia risposta è sempre stata articolata su due punti fondamentali: il primo è che la scienza, in qualsiasi settore, non dà mai sicurezze
assolute. Con i suoi metodi di indagine, sempre più sofisticati, può dare altissime garanzie, ma mai la sicurezza assoluta. Il secondo concerne il fatto che, in tutte le attività umane, la sicurezza è sempre un concetto relativo: in ogni specifica situazione essa è correlata con il livello
di tolleranza del rischio che si accetta in confronto con i benefici che
derivano dall’attività stessa.
Il rischio zero non esiste in alcuna attività umana. Di fronte alle
innovazioni tecnologiche, ed in ogni attività quotidiana, noi eseguiamo, anche inconsciamente, un’analisi dei rischi e dei benefici; ed
agiamo di conseguenza. Ma questo non sempre segue regole razionali. La decisione è soggettiva. L’irrazionalità e la paura viscerale del
nuovo giocano ruoli spesso rilevanti. Consideriamo rischi accettabili
quelli legati alla motorizzazione anche se ogni anno, solo in Italia,
questa uccide 6.000 persone, ne rende disabili altre 200.000, inquina
le città, danneggia l’ambiente ed il patrimonio artistico. L’accettiamo
perché, comunque, pensiamo che i benefici dell’usare l’auto siano
superiori ai rischi. Ma, allo stesso tempo, ci spaventa la notizia che
un vaccino, come il Sabin, che pur previene la poliomielite, causi la
malattia in un vaccinato ogni 2 milioni. La maggioranza degli italiani
si dichiara poi contraria ai cibi GM anche se questi, dopo dieci anni
d’uso in molti paesi del mondo non hanno mai scatenato nemmeno
un raffreddore.
90
I costi della non-scienza
Eppure oggi, nel nostro Paese, e solo nel caso delle piante GM, il
Principio di Precauzione è stato trasformato in Principio di Blocco.
Gruppi di opinione (e di interesse economico ed anche politico) hanno condotto una ben orchestrata campagna contro le biotecnologie
vegetali, ingigantendone alcuni rischi, quelli comuni alle pratiche agricole in genere, ed inventandone altri. Di conseguenza, alcune Regioni
si sono dichiarate GM-free; e il Governo, delle piante GM, ha bloccato sia l’uso sia la ricerca.
A nulla vale la considerazione che miliardi di persone nel mondo
producono e usano piante GM. E ciò dopo che i loro governi hanno
condotto approfondite analisi dei rischi; la ricerca ha dimostrato che
non vi è stato un solo caso riconosciuto di tossicità per l’uomo, di induzione di allergenicità, di danni ambientali, di flusso genico, di attentato alla biodiversità. Tutte le accuse mosse alle piante GM fanno dunque parte del “potrebbe”, del “non è da escludere che”, non dello
“scientificamente dimostrato”.
I controlli preventivi hanno dunque funzionato! Le piante GM
«Sono più sicure di quelle tradizionali perché accuratamente controllate»; questa è la conclusione cui è giunto Philippe Busquin, il Commissario Europeo per la Ricerca Scientifica nella prefazione del libro,
edito dalla Comunità Europea, dal titolo EC-sponsored Research on
Safety of Genetically Modified Organisms. Busquin è pienamente autorizzato a fare questa affermazione, in quanto basata su di una ricerca
condotta per 15 anni in 400 istituti di ricerca europei con una spesa di
70 milioni di euro.
Eppure, ancora oggi nel nostro Paese si pretende che le piante GM
siano bloccate sino a che non avremo la sicurezza assoluta dell’assenza
di rischi attuali e futuri. Rischi esisteranno sempre in agricoltura (sia
biologica, sia tradizionale, sia GM) come in tutte le altre attività umane. Compito della scienza non può essere che quello di verificare, caso
per caso, il livello di rischio ed offrire alla società parametri per le decisioni sulla accettabilità di ogni nuova varietà vegetale proposta per
l’uso agricolo. E ciò nonostante che le leggi oggi vigenti stabiliscano
che una nuova varietà debba essere approfonditamente controllata
per eventuali rischi per la salute umana e per l’ambiente nel caso in
cui questa sia classificata come GM. I controlli devono essere effettuati prima di ricevere la licenza di uso agricolo. Non è così per le piante
Piante GM: una grande opportunità …
91
migliorate geneticamente per incrocio o per mutagenesi con radiazioni o con composti chimici mutageni. Queste ricevono sempre il permesso di coltivazione se solo dimostrano di essere una nuova varietà,
non una copia di una varietà già esistente. Eventuali rischi saranno verificati a posteriori sulla salute dei consumatori o sull’ambiente ove saranno coltivate!
Eppure le precauzioni prese nel caso delle piante GM non sono ritenute sufficienti. Si è instaurata una spirale perversa: se le piante GM
sono controllate è perché sono pericolose. Questa è il messaggio che
arriva all’opinione pubblica. Ma se sono pericolose, è auspicabile che
vi siano ulteriori controlli e restrizioni. E così l’autorità politica va incontro alla domanda del pubblico ed introduce ulteriori controlli e restrizioni. Ma allora sono davvero molto pericolose! E ciò porta alla richiesta di ulteriori controlli: si è creato il mostro, anzi, il cibo di
Frankestein! Al contrario, il prodotto agricolo tradizionale non è controllato. Il messaggio per l’opinione pubblica è che questo non abbia
rischi. Non parliamo del cibo biologico, oggi vicino alla santificazione:
è il cibo bucolico dei nostri nonni! Sapori meravigliosi e assenza di rischio, almeno nell’immaginario creato da una interessata e ben orchestrata campagna pubblicitaria. Interessata perché la principale caratteristica del prodotto biologico è il “maggior valore aggiunto”; in parole
povere, il maggior guadagno da parte del produttore e del venditore.
La domanda è: è sensato proporre che si valuti il rapporto
rischi/benefici delle piante GM e che le si blocchino se sarà evidenziato un rapporto inaccettabile, ma le si accettino quando i rischi risultino ridotti ed i benefici notevoli? La logica impone che il rapporto rischi/benefici sia valutato caso per caso, in quanto dipenderà sia dalla
specie di pianta, sia dal gene integrato, sia anche dal sito geografico
ove si intende coltivare la pianta. Ma qual è il livello di rischio accettabile? Non è difficile stabilirne il valore soglia. La regola potrebbe essere: si confronti, sempre caso per caso, il rapporto rischi/benefici offerto oggi da una specifica coltivazione (ad esempio mais) con quella resa
possibile dalla disponibilità della stessa pianta migliorata per inserimento di uno specifico gene (ad esempio, mais-Bt, che resiste agli attacchi della piralide senza necessità di insetticidi).
Sarebbe auspicabile che procedure di valutazione analoghe venissero adottate anche nel caso delle piante non-GM (incluse quelle usa-
92
I costi della non-scienza
te nella cosiddetta agricoltura biologica). Ma forse oggi è sperare troppo nel nostro paese! Oggi è anche troppo proporre che il nostro paese
riprenda gli studi sui rischi e sui benefici delle piante GM: semplicemente, è oggi proibito produrre le piante GM su cui fare tali studi.
«Ma il messaggio basato sulla sola scienza non sembra far presa»,
questa è l’opinione espressa anche dal commissario U.E. per la salute
e la protezione dei consumatori, David Byrne, che, affrontando in un
recente Convegno il tema piante GM dal punto di vista del contrasto
tra paura irrazionale e giusta preoccupazione, ha rilevato che «il fumo
uccide, ma molti continuano a fumare, mentre le stesse persone non
vogliono mangiare un biscotto GM, anche se tutte le prove scientifiche relative agli alimenti GM dicono che sono sicuri almeno quanto
gli alimenti tradizionali».
Perché siamo arrivati a tanto? Probabilmente perché una ben organizzata campagna condotta sui mass media, ed in tutte le possibili occasioni mediatiche, ha ormai snaturato il senso del Principio di Precauzione. Questo, che avrebbe dovuto essere il principio logico su cui basare tutte le decisioni riguardanti i nuovi sviluppi tecnologici, è divenuto, per la sua aleatorietà, un mezzo per difendere posizioni integraliste contro sviluppi tecnologici indesiderati.
Inoltre, non è facilmente percepito dal cittadino il fatto che spesso,
nelle attività umane, il non-fare può avere conseguenze più gravi del
fare. Si prendano gli esempi del passato: chi autorizzerebbe oggi, in
base all’estrema cautela che si pretende per le piante GM, la sperimentazione dei vaccini contro le malattie infettive: l’iniezione di batteri o virus patogeni ancora vivi per stimolare la risposta immunitaria sarebbe considerata pura follia! Chi autorizzerebbe oggi, in base alla
stessa cautela, l’introduzione nella dieta europea, dalle Americhe, di
un cibo esotico quale la patata, che contiene solanina, una sostanza
tossica che inattiviamo con la cottura? Eppure abbiamo appena introdotto un nuovo cibo esotico, il kiwi, con le sue 15 proteine allergeniche: ma non è GM!
In definitiva, ciò che è realisticamente possibile chiedere alle piante
GM non è l’eliminazione totale dei rischi, ma la riduzione del loro livello già accettato nell’agricoltura attuale e l’aumento dei benefici.
Questo è quello che si deve chiedere allo scienziato, non una impossibile sicurezza assoluta.
Piante GM: una grande opportunità …
93
L’attuale uso restrittivo del Principio di Precauzione sta portando
l’agricoltura italiana alla morte e quella europea alla perdita di competitività con le agricolture americana, asiatica ed africana. Senza innovazione tecnologica, stiamo assistendo ad un invecchiamento delle nostre varietà coltivate, all’aumento dei costi dei prodotti agricoli, all’aumento dei rischi alimentari correlati con la presenza di livelli preoccupanti di micotossine e batteri patogeni nei cibi tradizionali e, soprattutto, nei cibi biologici.
95
GREEN BIOTECHNOLOGY COULD SAVE MILLIONS
OF LIVES – BUT IT CANNOT BECAUSE OF ANTISCIENTIFIC, EXTREME-PRECAUTIONARY
REGULATION
Ingo Potrykus
Professor emeritus in Plant Sciences, ETH Zürich, Switzerland
Biofortification can complement traditional interventions against
malnutrition
I
n developing countries 500,000 per year become blind and up to
6,000 per day die from vitamin A-malnutrition. And this is
despite enormous efforts from public and philanthropic
institutions to reduce this medical problem with the help of
traditional interventions such as supplementation, fortification,
encouragement for diet diversification, etc. This heavy toll poor
people in developing countries are paying to vitamin A-malnutrition
will continue year by year, if we do not find a way to complement
traditional interventions by sustainable and unconventional ones. One
of those could be based on nutritional improvement of basic staple
crops via “bio-fortification” – genetic improvement with regards to
micronutrients and vitamins. Plant breeding and genetic engineering
offer two complementing approaches.
The major micronutrient deficiencies concern iron, zinc, and
vitamin A. Vitamin A-deficiency is wide-spread amongst ricedepending poor because rice does not contain any pro-vitamin A
(Plants do not produce vitamin A but pro-vitamin A (carotenoids),
which our body converts into vitamin A). Dependence on rice as the
predominant food source, therefore, necessarily leads to vitamin Adeficiency if poverty prevents a diversified diet, most severely
affecting children and pregnant women. The medical consequences
for the vitamin A-deficient 400 million rice-consuming poor are
severe: impaired vision – in the extreme case irreversible blindness –
impaired epithelial integrity against infections, reduced immune
96
I costi della non-scienza
response, heamopoieses, skelettal growth, etc. Rice containing provitamin A could substantially reduce the problem, but “biofortification” of rice for pro-vitamin A is not possible without genetic
engineering. The transgenic concept, therefore, was based on the idea
to introduce all genes necessary to activate the biochemical pathway
leading to synthesis and accumulation of pro-vitamin A in the
endosperm (the starch storage tissue of the seed).
The scientific breakthrough with pro-vitamin A
Golden Rice contains the genes necessary to activate the
biochemical pathway for pro-vitamin A. This pathway is activated
exclusively in the endosperm. The intensity of the “golden colour”
represents the concentration of pro-vitamin A. There are different
lines with different concentrations. We aim at concentrations, where a
daily diet of 200g of rice will provide enough pro-vitamin A to
substantially reduce vitamin A deficiency. The concentration required
for this purpose can only be determined, when data from bioavailability studies are available. Experiments on these lines are in
progress, but will take until end of 2005. So far we are working with
lines in which -theoretically – the concentration is high enough for
our goal.
The novel trait has been transferred into several Indica rice
varieties – especially IR 64, the most popular rice variety of Southeast
Asia – and “regulatory clean” events have been selected to facilitate
the processing through the deregulatory process. [Ye, X., Al-Babili,
S., Klöti, A., Zhang, J., Lucca, P., Beyer, P., Potrykus, I. (2000),
«Engineering provitamin A (β-carotene) biosynthetic pathway into
(carotenoid-free) rice endosperm», Science 287, 303-305. Beyer P, AlBabili S, Ye X, Lucca P, Schaub P, Welsch R, Potrykus I (2002),
«Golden Rice, introducing the β-carotene biosynthetic pathway into
rice endosperm by genetic engineering to defeat vitamin-A
deficiency», J. Nutrition 132, 506S-510S. Tran Thi Cuc Hoa, Salim
AlBabili, Patrick Schaub, Ingo Potrykus, and Peter Beyer (2003),
«Golden Indica and Japonica rice lines amenable to deregulation»,
Plant Physiology 133, 161-169].
Green biotechnology could save millions of lives…
97
Golden Rice will be made freely available in a humanitarian project
Golden Rice will be made available to developing countries in the
framework of a “Humanitarian Golden Rice Project”. This was from
the beginning a public research project, designed to reduce
malnutrition in developing countries. Thanks to strong support from
the private sector and donations of “free licences for humanitarian
use” for intellectual property rights involved in the basic technology,
the hurdle of extended IPR linked to the technology used in the
scientific project could be overcome. This enables us to collaborate
with public rice research institutions in developing countries on the
basis of “freedom-to-operate” towards the development of locally
adapted Golden Rice varieties. Once Golden Rice varieties have
passed the national bio-safety procedures, it will be made available to
subsistence farmers free of charge and limitations. It will become their
property and they can – year after year – use part of their harvest for
the next sowing (without paying anything to anybody). The farmers
will use their traditional farming systems and they will not require any
additional agronomic inputs. Therefore, there will be no “new
dependencies” from anyone. And there is no conceivable risk to any
environment which would justify not to grow Golden Rice in the field
for breeding and up-scaling reasons. This progress since the scientific
breakthrough in 1999 was possible thanks to a novel type of “publicprivate-partnership”. Thanks to an agreement with Syngenta and
other agbiotech industries, the use of Golden Rice is free of licenses
for “humanitarian use”, defined as “income from Golden Rice per
year and farmer below $ 10.000 “Commercial use”, however, (above $
10.000 per year) requires a license from Syngenta. Humanitarian use
is based on (license-free) sublicenses from the Humanitarian Golden
Rice Board to public rice research institutions. This sublicense
agreement ensures that the material is handled according to
established GMO rules and regulations, and that the target
population – subsistence farmer and urban poor -receive the material
without any additional cost for the trait.
98
I costi della non-scienza
Locally adapted varieties are being developed in national institutions
in the framework of a Humanitarian Golden Rice Network
under the guidance of a Humanitarian Golden Rice Board
Development of locally adapted Golden Rice varieties as well as
application to national bio-regulatory authorities for field testing and
deregulation is in the hands of national and international public rice
research institutions. To date this “Humanitarian Golden Rice
Network” includes 16 such institutions in Bangladesh, China, India,
Indonesia, South Africa, The Philippines, and Vietnam. The network is
under the strategic guidance of the Humanitarian Golden Rice Board,
and under the management of a network coordinator with office at the
International Rice Research Institute (IRRI), Philippines. The
Humanitarian Board has, so far, no legal status and benefits from the
expertise of international authorities such as Dr. Gurdev Khush, retired
from IRRI (rice breeding), Prof. Robert Russell, Laboratory for Human
Nutrition, Tufts University Boston (vitamin A-malnutrition), Dr.
Howarth Bouis, International Food Policy Research Institute (IFPRI)
Washington (bio-fortification), Dr. Gary Toenniessen, The Rockefeller
Foundation New York (food security in developing countries), Dr.
Robert Bertram, USAid Washington (development in Third World
agriculture), Dr. Adrian Dubock, Syngenta (product development and
intellectual property rights), Dr. Ren Wang / Dr. William Padolina IRRI
(international cooperation in rice research), Professor Peter Beyer (coinventor) university of Freiburg (scientific progress underlying biofortification in pro-vitamin A and other micronutrients), Dr. Katharina
Jenny, Swiss Development Cooperation Bern (technology transfer and
trans-sectorial issues), and Professor Ingo Potrykus (co-inventor),
retired from ETH Zuerich, chairman (public relations and information).
Biofortified seeds have an unmet potential for sustained solutions
Bio-fortification (complementation for missing micro-nutrients with
the help of genetic complementation) of the basic staple crops for poor
populations in developing countries is, most probably, the most
sustainable and cost-effective approach to reduction in micro-nutrient
malnutrition. (For more information on the concept of bio-fortification
Green biotechnology could save millions of lives…
99
and a recent challenge program of the CGIAR see homepage
www.harvestplus.org). Golden Rice represents the first example of biofortification achieved via genetic engineering. Research investment for
this trait (bio-fortification for pro-vitamin A) was relatively modest ($
2,4 million over 9 years) and financed from funds for basic research.
Product development, however, from this scientific brake-through
is time consuming and requires additional funding, but again one-time
only for each event. Expenses are increasing really dramatically when
working through the bio-safety assessments required for deregulation.
But again this is a one-time investment. As soon as a novel biofortified
variety is deregulated and can be handed out to the farmer, the system
demonstrates its unique potential, because from this point on, the
technology is built into each and every seed and does not require any
additional investment, for an unlimited period of time. Just consider
the potential of a single Golden Rice seed: Put into soil it will grow to a
plant which produces, at least, 1 000 seeds; a repitition will yield at
least 1 000 000 seeds; next generation produces already 1 000 000 000
seeds and in the fourth generation we arrive at 1 000 000 000 000
seeds. These are 20 000 metric tons of rice and it takes only two years
to produce them. From these 20 000 tons of rice 100’ 000 poor can
survive for one year, and if they use Golden Rice they have an
automatic vitamin A supplementation reducing their vitamin Amalnutrition, and this protection is cost-free and sustainable. All a
farmer needs to benefit from the technology is one seed! There is no
additional input required compared to “normal rice”. And for urban
poor there is no premium on vitamin A-rice. There are enough seeds
to be handed out to many farmers, but this can not be done, because
Golden Rice is a “GMO” (genetically modified organism) and those
are highly regulated. And the Humanitarian Golden Rice Board has
decided to follow the established rules and regulations.
Extreme precautionary regulation, however, prevents use so far and
ignores the potential benefits
Considering the history of Golden Rice (the technology is often
considered risky because it is so fast!) it took 10 years (from 1980 to
1990) to develop the necessary technology of placing genes into rice. It
100
I costi della non-scienza
took further 9 years (from 1990 to 1999) to introduce the genes
required to establish the biochemical pathway leading to pro-vitamin
A in the seed. And it took further 5 years (from 1999 to 2004) to
develop a Golden Rice “product” and carry it across a series of GMOspecific hurdles such as IPRs. And it will take, probably, at least 5
more years to advance the first Golden Rice product through the
deregulatory procedure: Therefore, it took 30 years if we include
technology development, and it took still 20 years for the single
specific case. Considering that Golden Rice could substantially reduce
blindness (500 000 per year) and death (2-3 million per year) 20 years
are a very long time period, and I do not think that anyone should
complain that this was “to fast”! If it were possible to shorten the time
from science to the deregulated product, we could prevent blindness
for hundreds of thousands of children! However, the next 5 years will
have to be spent on the required “bio-safety assessments” to guarantee
that there is no putative harm from Golden Rice for the environment
and the consumer. Nothing speaks against a cautious approach, but
present regulatory praxis follows an extreme interpretation of the
“precautionary principle” with the understanding that not even the
slightest hypothetical risks can be accepted or left untested, and at the
same time all putative benefits are totally ignored. Looking at Golden
Rice and the problem of environmental risk assessment discloses how
irrational the present system operates : The author has, over the last
four years, not found any ecologist, including those from the
“professional GMO-opposition”, who could construct a half-way
realistic hypothetical risk from Golden Rice to any agronomic or wild
environment. This is not surprising because the entire biology of the
system – low amounts of additional b-carotene in the endosperm in
plants which are loaded with b-carotene in every organ except for the
root – does not provide for any selective advantage in any
environment, and therefore can not pose any substantial risk. Despite
this fact Golden Rice is still awaiting the first permission for the first
small-scale field release, in which environmental risks have to be
studied experimentally! So far to the “risk” side of the equation. And
the “benefit”? Golden Rice could prevent blindness and death of
hundreds of thousands of children but can not do so, so far, because
risk assessment notoriously is ignoring a risk-benefit analysis!
Green biotechnology could save millions of lives…
101
Present Deregulation is extremely demanding on time and financial
resources
What then is required for the deregulatory procedure? First of all,
it is advisable to focus on one carefully selected transgenic event,
which is as “regulatory clean” as possible – that is, it must not include
characters which are a priori unpopular with regulatory authorities,
such as “multiple integrations”, “rearrangements”, “read-through
across T-DNA borders”, “microbial origins of replication”, “ballast
DNA”, etc. This requires the production of many hundreds of similar
transgenic events with the same DNA construct. This construct itself
must have been assembled taking into account the requirements of
the regulatory authorities in the later deregulation process. Only when
working on the basis of a “regulatory clean construct” and with
“regulatory clean transformation technology” there is a chance to
survive the deregulation. Such a carefully selected event can then be
used to start the series of bio-safety assessment experiments
traditionally expected to prove or disprove any putative bio-safety
hazard. (It is a waste of time to enter the process with material which
is not “regulatory clean” at the onset). The consequence of this
approach is, that nearly 99% of transgenic events, and often those
with the highest levels of expression, have to be discarded. Already
this first step of mass production of many hundreds of similar events
and subsequent destruction of most is beyond the scope of any public
research institution, not only in developing but also in developed
countries. No funding agency would be willing to finance this step.
This is, however, the first prerequisite for entering the deregulation
procedure with some chance for success.
Once the right material is ready, bio-safety assessment can start.
There are “event-independent” studies which refer to the introduced
genes and their function in general, and which are valid for all events
produced with these genes. “Exposure evaluation” for the novel trait,
(e.g., pro-vitamin A in rice) studies the intended use and bioavailability. This study alone takes about 3 years, because the material
has to be produced in specific plant growth chambers due to the lack
of permission for field release (see above!). “Protein production and
equivalence” analyses the proteins through which the genes fulfil their
102
I costi della non-scienza
function. For this purpose the proteins have to be isolated from the
plant, biochemically characterized, and their function confirmed.
Lack of homology to toxins and allergens, rapid degradation in
gastric/intestinal studies, heat lability, acute toxicity in rodent feeding,
screening for further putative allergens and toxins are assumed to
ensure that no unintended toxin or allergen will be consumed with
Golden Rice. This seems reasonable if we ignore that most people
have eaten these genes and gene-products throughout his/her life
from other food sources. To study, as has been proposed, whether
Daffodil toxins have been introduced into Golden Rice (one gene is
from Daffodil and it is not advisable to consume Daffodil )
demonstrates how far an assessment can be from science: what has
been transferred is one defined piece of DNA with no relation
whatsoever to any toxin or allergen!). These studies take at least 2
years of intensive work in a well equipped biochemistry laboratory.
What has been described, so far, was only an introduction; the real
work comes with the “event-dependent” studies: “Molecular
characterization and genetic stability” (single copy effect; marker gene
at same locus; simple integration; Mendelian inheritance over at least
three generations; no potential gene disruption; no unknown open
reading frames; no DNA transfer beyond borders; no antibiotic
resistance gene or origin of replication; insert limited to the minimum
necessary; insert plus flanking regions sequenced; phenotypic
evidence and biochemical evidence for stability over three
generations). “Expression profiling” (Gene expression levels at key
growth stages; evidence for seed-specific expression); “Phenotype
analysis” (Field performance, typical agronomic traits, yield compared
to isogenic lines; pest and disease status same as origin).
“Compositional analysis” (Data from two seasons times six locations
times three replications on proximates, macro- and micro-nutrients,
anti-nutrients, toxins, allergens; data generated on modified and
isogenic background). “Environmental risk assessment”. This requires
4-5 years of an entire research team.
Green biotechnology could save millions of lives…
103
No public scientist or institution can afford such a deregulation
procedure
It is rather obvious, that no scientist nor scientific institution in the
public domain has the potential, or funding, or motivation to perform
such bio-safety experiments. It is, therefore, no surprise, that virtually
all transgenic events, so far, taken through the deregulatory procedure
are (directly or indirectly) from the private sector and carry the
potential for substantial financial reward. Humanitarian projects to
the benefit of the poor obviously do not fall into this category,
although the benefit would apply to many millions. There is a lot of
good intention world wide in the public sector to exploit the potential
of green biotechnology for the benefit of the poor in developing
countries. If our society, however, continues with the present
“extreme precautionary” approach to bio-safety assessment, it is
absolutely unrealistic to invest any further funds into public research
for this purpose. Of course, there would be interesting scientific
progress, but there will be no product, and especially no product
passing through regulation. And, consequently, all this work will have
no practical output and nobody in the target population would have
any benefit.
Extreme precautionary regulation is there for a number of reasons,
but none of those is justified
Why then do we have this GMO-regulation? First of all, there are
historic reasons. At the beginning of GMO-technology development
it was sensible to be careful (“precautionary”) and the scientists
themselves – at that time working not with plants but with humanpathogenic micro-organisms – established regulations based on the
notion that the consequence of the technology could lead to
“unpredictable genome alterations”. Experience, after more than 20
years with transgenic plants and their practical application on 50
million hectares farmland as well as from many hundreds of “biosafety” experiments in which bio-safety questions in context with
transgenic plants have been carefully studied, led to numerous
original publications and reports from academic institutions which all
104
I costi della non-scienza
come to the conclusion, that there is no specific risk associated with
the technology, which would exceed risks inherent anyhow to
traditional plant breeding or natural evolution. (For a discussion on
the moral imperative of the use of genetically modified crops in
developing countries please see Nuffield Council On Bioethics, Followup discussion paper January 2004, www.nuffieldbioethics.org).
Why then do we maintain GMO regulation and even extend it to
ever more extreme precautionary regulation? The answer to this
question often follows the notion that we have to do so to built trust in
the technology for its acceptance by the consumer. Experience with
this strategy over the last 10 years, however, demonstrates clearly that
this approach did not work in Europe and many developing countries,
and this is not surprising. How should a “normal” citizen understand
that his/her government is regulating a technology in an extreme
restrictive manner, if this technology is without specific risks. Every
unbiased citizen will, of course, assume that his/her government is
taking rational decisions and the technology must be as dangerous as
the regulation implies. Consequently, maintenance of extreme
precautionary regulation builds mistrust instead of trust. Why then do
we not at least clear regulation from all scientifically unjustified and
opportunistic ballast to build a rational regulatory procedure? It seems
that not many institutions have an interest or the political power to do
so. If we consider the potential GMO technology has with regards to
food security in developing countries than numerous international
organizations should have an interest, but neither FAO, nor WHO or
UNIDO will have the courage and power to do so. What prize is our
society paying for this opportunistic attitude towards an established
“extreme precautionary regulatory” system, in function world-wide?
Very clearly: GMO-technology will not reduce hunger and malnutrition,
and will not protect the environment in developing countries. The use of
the technology will be restricted to “luxury projects”, with safe
financial returns, of the private sector and in developed countries.
There will, of course, be some spin-offs from these projects into
developing countries, and these may even carry some benefits for the
poor – such as “insect-resistant cotton”, but there will be no product
development focussing on urgent and specific needs of the poor in
developing countries, such as “food security”!
Green biotechnology could save millions of lives…
105
Justification for extreme precautionary regulation ignores the basic
genetic facts of traditional crop varieties
GMO technology has the potential to support and to complement
traditional plant breeding. In the context of the discussion on GMOregulation, which is justified with the argument that genetic
engineering leads to “unpredictable genome alterations” it may be
helpful to remember a few basic facts concerning all our plant-based
food which is derived from crop plant varieties, which, without any
exception, have been developed through traditional plant breeding.
Traditional Plant breeding leads to totally unpredictable and most
severe alterations of the genome
Plant breeding is using the technique of “crossing followed by
selection” to combine traits of agronomic and nutritional interest and
to exclude undesired traits. Starting material for this procedure are
“landraces” of crop plants, originally identified and selected by
indigenous farmers. Landraces differ from each other in traits because
they differ in “mutations”. Mutations are “unpredictable genome
alterations.” In the course of traditional breeding the technology adds
un-deliberately and automatically further (in parts very dramatic)
“unpredictable genome alterations such as “recombinations”,
“translocations”, “deletions”, “inversions”, etc. These
“unpredictable” and “most severe” genome alterations are
accumulated at every breeding step and each new traditionally bred
variety is thus based on, and characterized by an increasing array of
such genome alterations. With the progress of the breeding process
varieties are combined with varieties, often with related wild relatives
of the crop plants, often further altered in their genome by induced
mutations. All our modern crop varieties – from which we derive our
food – have a long history and are composed of numerous previous
varieties and there is not the slightest doubt possible, that all our
traditionally bred crop varieties are most extensively “genetically
modified” by hundreds if not thousands of “unpredictable genome
alterations”. This is, of course, also true for those varieties used by
organic farmers. We just do not call them “GMO’s”!
106
I costi della non-scienza
Every traditionally bred modern crop variety is most intensively
“genetically modified”
All this is exemplified in the “breeding tree” leading to IR64, the
most popular Indica rice variety, developed at the International Rice
Research Institute, Philippines and grown all over Southeast Asia.
The pictures shows graphically how intensively the original rice
genome (represented by blue boxes) has been “genetically modified”
by “mutations” (yellow bars), “recombinations” (red bars),
“translocations” (blue bars) and “deletions” (light-blue bars) to finally
arrive at the genome of IR64. Neither this variety, nor anyone of those
who have been channelled into the breeding tree have ever
experienced any “bio-safety assessment” and billions of consumers in
developing countries have consumed IR64 (as all the other rice or
crop varieties) and survived on this and the preceding varieties
without any harm, and there was no unpredictable harm to the
environment as well. And this holds true for all the other varieties in
all the other crops – despite of all the “most dramatic and
unpredictable alterations to the genome”! Actually, nobody could
survive without eating food from “genetically modified” crops.
“Genetically engineered” varieties differ from the “genetically
modified” ones in small, precise, similar, and well studied
alterations
For Golden Rice we have taken this variety IR64 and added two
precisely defined genes into the 50 000 gene-genome of rice, using a
technology which is by orders of magnitude more precise than
traditional breeding, to provide pro-vitamin A in the seed to reduce
vitamin A-malnutrition. This is now an example of a “genetically
engineered” variety – a “GMO” – and such a plant is now falling
under “extreme precautionary” regulations despite the fact, that the
engineering step is, in comparison to the history of IR64 extremely
small, perfectly predictable, most detailed studied and without any
greater risk to the consumer or the environment. The reader is invited
to find the difference between IR64 and Golden IR64 in the picture
above!
Green biotechnology could save millions of lives…
107
There is no scientific justification to treat “genetically engineered”
crops different from “genetically modified” ones
Our experience with traditionally developed crop varieties tells us
very clearly that “unpredictable genome alterations” are not an
argument for extreme regulation. Why are they now, and beyond any
logic, the key argument for extreme regulation of “genetically
engineered” plants? The argument that genes may come from
different organisms and would never have found their way into a
GMO can not be accepted as well. We all know that genes are
connected by a continuum in evolution and are closely related and the
“crossing barrier” between species is a mechanism to advance
evolution within a species, but not to prevent introduction of genes.
Why are GMO’s singled out from the normal breeding tree and
treated according to the established rules and regulations of an
extreme precautionary principle, thus preventing their sensible use to
the benefit of the poor. This, to the authors understanding, is against
any logic and takes us back into the historical time period of “Middle
Ages” and before the “Age of Enlightenment”. As this attitude is
singling out “green biotechnology” from nearly all other modern
technologies, it seems obvious, that there is a deliberate campaign
with a hidden political agenda.
Extreme precautionary regulation without risk-benefit analysis is
immoral and highly destructive
What are the consequences of the extreme precautionary regulation
of green biotechnology for public research towards food security in
developing countries? There are numerous scientists and institutions in
developing countries who have the capacity, motivation, and often
even funding to work towards scientific progress in the areas of pest-,
disease-, drought-, heat-, cold-, saline-, heavy metal resistance with the
potential to rescue harvests and to expand agricultural productivity to
hostile environments; to improve photosynthetic efficiency and to
enhance the exploitation of natural resources to increase productivity;
to enhance nutritional content to reduce malnutrition with regards to
micro-nutrients such as vitamin A etc. Very few of those, however,
108
I costi della non-scienza
have the financial and mental capacity to transform a scientific success
into an applicable “product”, which is the first prerequisite for benefit
of the poor from a scientific advance. Probably no scientist nor
institution in the public domain, however, have the resources,
experience, and determination to carry a single GMO product across
the hurdles of to days extreme precautionary regulatory procedures.
Regulatory authorities in developing countries are less experienced,
more insecure, and therefore, more stringent than their colleagues in
developed countries. Even with support from the experienced private
sector deregulation of a novel GMO product has become a gigantic
task. It is, therefore, very obvious that, if we continue with the present
regulatory standards, the potential of green biotechnology will not
reach the poor.
In the 19th century a cultural taboo let to the tragic death of an 18
year old princess
In the 21st century ignorance of our society leads to avoidable misery
and death of millions
“Genetically engineered” plants are not unusual plants, filled with
mysterious dangers for the consumer and the environment. Europe
can be proud of its cultural heritage of the “Age of Enlightenment”
and should rather listen to the advice of science than that of “witch
hunters”. It is Europe’s responsibility to help developing countries to
harness the potential of green biotechnology, however the European
attitude badly affects the attitude in developing countries. Europe can
afford such an attitude because it can buy whatever it wants on the
world market. However, for developing countries this attitude leads to
unnecessary death and misery of many millions. With citations from
the follow-up discussion paper of the Nuffield Council on Bioethics
2004: “The European Union is ignoring a “moral imperative” to
promote genetically modified crops for their great potential for
helping the developing world.” “We beleive EU regulators have not
paid enough attention to the impact of EU regulations on agriculture
in developing countries.” Our societies have wasted too much time in
phase of “risk-obsession”. Stop following the “wrong prophets”!
109
LE BIOTECNOLOGIE IN AGRICOLTURA
POTREBBERO SALVARE MILIONI DI VITE, MA
NORMATIVE ANTI-SCIENTIFICHE ED
ECCESSIVAMENTE PRECAUZIONALI LO
IMPEDISCONO1
Ingo Potrykus
Professor emeritus in Plant Sciences, ETH Zuerich, Switzerland
Il bio-arricchimento può aiutare gli interventi tradizionali
contro la denutrizione
N
ei paesi in via di sviluppo 500.000 persone ogni anno diventano cieche e fino a 6.000 ogni giorno muoiono a causa di carenza di vitamina A. Questo, nonostante gli enormi sforzi
delle istituzioni pubbliche e filantropiche per ridurre questo problema
medico con l’ausilio dei metodi tradizionali quali arricchimento, fortificazione e incoraggiamenti alla diversificazione della dieta, etc. Questo prezzo elevatissimo che i poveri dei paesi in via di sviluppo stanno
pagando alla “carenza di vitamina A” continuerà anno dopo anno se
non troveremo un modo per affiancare gli interventi tradizionali con
altri non convenzionali e sostenibili. Uno di questi potrebbe essere basato sul miglioramento nutrizionale delle colture di sussistenza attraverso il “bio-arricchimento”, il miglioramento genetico del contenuto
di micronutrienti e vitamine. Il miglioramento genetico vegetale e l’ingegneria genetica offrono due approcci complementari.
Le principali carenze di micronutrienti riguardano il ferro, lo zinco e la vitamina A. La carenza di vitamina A è largamente diffusa tra
quei poveri che hanno come alimento di base il riso, in quanto il riso
non contiene pro-vitamina A (le piante non producono vitamina A,
ma pro-vitamina A (carotenoidi), che il nostro corpo converte in vitamina A). La dipendenza dal riso come prevalente fonte di cibo, pertanto, porta necessariamente a carenza di vitamina A, se la povertà è
1
Traduzione curata da Davide Ederle
110
I costi della non-scienza
tale da non consentire diversificazioni della dieta, colpendo soprattutto bambini e donne in gravidanza. Le conseguenze a livello medico
per i 400 milioni di consumatori di riso, carente di vitamina A, sono
gravi: indebolimento della vista, nei casi più estremi cecità irreversibile, deterioramento dell’integrità epiteliale contro infezioni, riduzione
delle difese immunitarie, dell’emopoiesi e della crescita delle ossa, etc.
Un riso contenente la pro-vitamina A potrebbe ridurre notevolmente
il problema, ma il “bio-arricchimento” del riso per la pro-vitamina A
non è possibile senza l’utilizzo dell’ingegneria genetica. L’approccio
transgenico, quindi, è stato basato sull’idea di introdurre tutti i geni
necessari ad attivare la via metabolica di sintesi ed accumulo di provitamina A nell’endosperma (il tessuto di immagazzinamento dell’amido nel seme).
La scoperta scientifica per la pro-vitamina A
Il Golden Rice contiene i geni necessari per attivare la via metabolica per la sintesi di pro-vitamina A. Questa via è attivata solo nell’endosperma. L’intensità della “colorazione dorata” indica la concentrazione di pro-vitamina A (Figura 1). Esistono diverse linee vegetali con
diverse concentrazioni. Noi puntiamo a concentrazioni per le quali
una assunzione giornaliera di 200 grammi di riso fornisca abbastanza
pro-vitamina A da ridurre notevolmente la carenza vitaminica. La
concentrazione richiesta a tale scopo potrà essere determinata solo
quando saranno disponibili i dati degli studi sulla biodisponibilità. Gli
esperimenti su queste linee sono in corso, ma bisognerà aspettare fino
alla fine del 2005. Per ora stiamo lavorando con linee vegetali in cui,
teoricamente, le concentrazioni soddisfano i nostri obiettivi.
Il nuovo carattere è stato inserito in diverse varietà di riso Indica –
in particolare IR 64, la varietà di riso più comune nel sudest asiatico –
e sono stati selezionati eventi che sono stati ritenuti “in regola con la
normativa” per facilitare il processo di autorizzazione. [Ye, X., Al-Babili, S., Klöti, A., Zhang, J., Lucca, P., Beyer, P., Potrykus, I. (2000),
«Engineering provitamin A (β-carotene) biosynthetic pathway into
(carotenoid-free) rice endosperm», Science 287, 303-305. Beyer P, AlBabili S, Ye X, Lucca P, Schaub P, Welsch R, Potrykus I (2002), «Gol-
Le biotecnologie in agricoltura potrebbero salvare …
111
den Rice, introducing the β-carotene biosynthetic pathway into rice
endosperm by genetic engineering to defeat vitamin-A deficiency», J.
Nutrition 132, 506S-510S. Tran Thi Cuc Hoa, Salim AlBabili, Patrick
Schaub, Ingo Potrykus, and Peter Beyer (2003), «Golden Indica and
Japonica rice lines amenable to deregulation», Plant Physiology 133,
161-169].
Il Golden Rice sarà reso disponibile gratuitamente in un progetto
umanitario
Il Golden Rice verrà messo a disposizione dei paesi in via di sviluppo all’interno del “Progetto Umanitario Golden Rice”, che fin dall’inizio è stato un progetto di ricerca pubblico pensato per ridurre la malnutrizione dei paesi in via di sviluppo. Grazie al forte sostegno del settore privato e alle donazioni di “brevetti a titolo gratuito per scopi
umanitari” sulle tecnologie di base, si sono superati gli ostacoli legati
alla proprietà intellettuale relativa alla tecnologia usata in questo progetto. Questo ci consente di collaborare con i centri di ricerca pubblici dei paesi in via di sviluppo sul riso sulla base di una “libertà di operare” per sviluppare varietà di riso adatte alle condizioni locali. Quando il Golden Rice avrà superato le procedure di biosicurezza nazionali,
verrà reso disponibile a chi fa agricoltura di sussistenza gratuitamente
e senza alcuna limitazione. Diventerà di loro proprietà ed essi potranno, anno dopo anno, usare parte del raccolto per la semina successiva
(senza pagare niente a nessuno). Gli agricoltori useranno le loro tradizionali tecniche agricole e non avranno bisogno di alcun nuovo input
agronomico. Non ci sarà quindi alcuna “nuova dipendenza” da nessuno. E non è concepibile alcun rischio a qualunque ambiente che giustifichi la scelta di non coltivare il Golden Rice in campo aperto per la
selezione o la riproduzione. Questo sviluppo, dalla scoperta del 1999,
è stato possibile grazie ad un nuovo tipo di collaborazione tra pubblico e privato. Grazie ad un accordo con Syngenta ed altre industrie
biotech, l’uso del Golden Rice è libero da brevetti per “uso umanitario”, inteso come “un reddito da Golden Rice per anno e per agricoltore inferiore ai $ 10.000”. L’uso commerciale, invece, (sopra i 10.000
dollari per anno) richiede una licenza di Syngenta. L’uso a scopi umanitari è basato su una “sottolicenza” (senza royalties) della Commis-
112
I costi della non-scienza
sione Umanitaria Golden Rice agli istituti pubblici di ricerca sul riso.
Questo accordo assicura che il materiale sia stato trattato secondo le
leggi ed i regolamenti stabiliti per gli OGM, e che la popolazione per
cui è stato pensato, agricoltori di sussistenza e poveri, riceva il materiale senza alcun costo aggiuntivo per questo carattere.
Varietà adatte alle condizioni locali sono state sviluppate da istituti
nazionali all’interno del Network Umanitario Golden Rice sotto
la guida della Commissione Umanitaria Golden Rice
Lo sviluppo di varietà di Golden Rice adattate alle condizioni locali, così come la richiesta alle autorità nazionali per le sperimentazioni
in campo e l’autorizzazione, sono nelle mani degli istituti di ricerca
pubblici sul riso nazionali ed internazionali. Ad oggi il “Network
Umanitario Golden Rice” comprende 16 istituzioni in Bangladesh, Cina, India, Indonesia, Sud Africa, Filippine, e Vietnam. Il network è
sotto la guida strategica della Commissione Umanitaria Golden Rice, e
la gestione è affidata ad un coordinatore che ha base presso l’International Rice Research Institute (IRRI), nelle Filippine. La Commissione
Umanitaria, per ora, non ha validità legale e beneficia della competenza di autorità internazionali quali Dr. Gurdev Khush, in pensione
dall’IRRI (miglioramento genetico del riso), Robert Russell, Laboratorio di Nutrizione Umana, Tufts University Boston (malnutrizione legata alla vitamina A), Dr. Howarth Bouis, International Food Policy Research Institute (IFPRI) Washington (bio-arricchimento), Dr. Gary
Toenniessen, The Rockefeller Foundation, New York (sicurezza alimentare nei paesi in via di sviluppo), Dr. Robert Bertram, USAid Washington (sviluppo dell’agricoltura nel terzo mondo), Dr. Adrian Dubock, Syngenta (sviluppo del prodotto e diritti di proprietà intellettuale), Dr. Ren Wang/Dr. William Padolina IRRI (cooperazione internazionale di ricerca sul riso), Professor Peter Beyer (co-inventore)
University of Freiburg (progresso scientifico, in particolare bioarricchimento in pro-vitamina A ed altri micronutrienti), Dr. Katharina
Jenny, Swiss Development Cooperation Bern (trasferimento tecnologico e questioni trans-settoriali), e Professor Ingo Potrykus (co-inventore), presidente in pensione dell’ETH di Zurigo (relazioni pubbliche e
informazioni).
Le biotecnologie in agricoltura potrebbero salvare …
113
I semi bio-arricchiti hanno potenzialità ineguagliabili per ottenere
soluzioni durevoli
Il bio-arricchimento (aggiunta di micronutrienti carenti attraverso
la genetica) delle coltivazioni più utilizzate dalla popolazione povera
nei paesi in via di sviluppo è, molto probabilmente, l’approccio più
sostenibile ed economicamente vantaggioso per la riduzione della
malnutrizione da micronutrienti. (Per maggiori informazioni sul concetto di bio-arricchimento e su un recente programma del CGIAR si
visiti il sito www.harvestplus.org). Il Golden Rice rappresenta il primo
esempio di bio-arricchimento ottenuto attraverso l’ingegneria genetica. L’investimento per la ricerca su questo carattere (bio-arricchimento in pro-vitamina A) è stato relativamente modesto (2,4 milioni di
dollari in 9 anni) e finanziato con fondi per la ricerca di base.
Lo sviluppo del prodotto, tuttavia, dal momento della scoperta
scientifica richiede molto tempo e ulteriori fondi, ma comunque è un
investimento che va fatto una sola volta per evento. Le spese stanno
drammaticamente aumentando da quando lavoriamo sulla valutazione
della biosicurezza, richiesta per il processo di autorizzazione, ma anche in questo caso è un investimento che va fatto una sola volta. Appena una nuova varietà bio-arricchita viene autorizzata e può essere
consegnata all’agricoltore, il sistema mostra come il suo potenziale sia
unico, poiché da questo punto in poi la tecnologia è racchiusa in ciascun seme e non richiede nessun ulteriore investimento per un periodo di tempo illimitato. Considerate il potenziale di un singolo seme di
Golden Rice. Messo in campo diventerà una pianta che produce, almeno 1000 semi. Ripetendo l’operazione si otterranno 1.000.000 semi;
la generazione successiva produrrà già 1.000.000.000 semi e con la
quarta generazione si arriverà a 1.000.000.000.000. Questo significa
20.000 tonnellate di riso in soli due anni. Con 20.000 tonnellate di riso
possono sopravvivere per un anno 100.000 poveri, e se si usa Golden
Rice essi avranno un supplemento di vitamina A in grado di ridurre la
loro malnutrizione, e questa protezione è gratuita e sostenibile. Un
agricoltore per trarre beneficio dalla tecnologia ha bisogno solo di un
seme! Nessun input addizionale rispetto al “riso normale”. Per la popolazione povera che vive nelle città inoltre non c’è alcuna maggiorazione di prezzo per l’acquisto del Golden Rice (Figura 2).
114
I costi della non-scienza
Sono disponibili semi a sufficienza per molti agricoltori, ma questo
non può essere fatto perché il Golden Rice è un “OGM” (organismo
geneticamente modificato), e quindi strettamente regolamentato. E la
Commissione Umanitaria per il Golden Rice ha deciso di sottostare alle leggi ed ai regolamenti in vigore.
Normative eccessivamente precauzionali, comunque, ne hanno
impedito l’uso e ignorano i potenziali benefici
Considerando la storia del Golden Rice (la tecnologia è spesso considerata rischiosa perchè avanza molto velocemente!), ci sono voluti
10 anni (dal 1980 al 1990) per sviluppare la tecnologia necessaria per
introdurre geni nel riso. Ci sono voluti altri 9 anni (dal 1990 al 1999)
per inserire i geni della via metabolica che porta alla produzione di
pro-vitamina A nel seme. E altri 5 anni (dal 1999 al 2004) per sviluppare il “prodotto” Golden Rice e superare quella serie di ostacoli specifici per gli OGM, come i diritti di proprietà intelletuale. Probabilmente ci vorranno almeno altri 5 anni prima che il primo prodotto
Golden Rice venga approvato. Ci sono voluti quindi 30 anni, comprendendo i tempi di sviluppo della tecnologia, 20 per un singolo caso
specifico. Tenendo presente che il Golden Rice può ridurre notevolmente la cecità (500.000 casi all’anno) e i decessi (2-3 milioni all’anno), ci si rende conto che 20 anni sono un lungo periodo di tempo, e
credo che nessuno possa lamentarsi della rapidità! Se fosse stato possibile abbreviare il periodo di tempo tra la fine della fase scientifica e
l’approvazione del prodotto, centinaia di migliaia di bambini sarebbero stati salvati dalla cecità! Comunque, i prossimi 5 anni dovranno essere spesi per la valutazione della biosicurezza, al fine di garantire che
il Golden Rice non presenti rischi per l’ambiente ed i consumatori.
Nessuno intende parlar male di un approccio cauto, ma la normativa
vigente ha fatto sua una interpretazione radicale del principio di precauzione, tale per cui neanche il più piccolo rischio può essere accettato o non testato, e allo stesso tempo tutti i possibili benefici vengono
ignorati. Considerando il caso del Golden Rice e tutto il problema della valutazione dei rischi ambientali, si rivela l’irrazionalità dell’attuale
sistema: l’autore del presente intervento, negli ultimi quattro anni,
non ha trovato nessun ecologista, incluso quelli che fanno dell’opposi-
Le biotecnologie in agricoltura potrebbero salvare …
115
zione agli OGM una professione, che abbia potuto costruire un’ipotesi di rischio agronomico o ambientale per il Golden Rice. Questo non
stupisce poichè l’intera biologia del sistema, piccole quantità addizionali di beta-carotene nell’endosperma di piante che lo contengono in
tutti gli organi tranne che nelle radici, non fornisce nessun vantaggio
selettivo, in nessuna condizione, e quindi non apporta alcun rischio
sostanziale. Nonostante ciò il Golden Rice è ancora in attesa del primo
permesso riguardante il primo rilascio su piccola scala, in cui i rischi
ambientali dovranno essere studiati sperimentalmente! Fin qui i rischi, e i benefici? Il Golden Rice potrebbe evitare la cecità e la morte
di centinaia di migliaia di bambini, ma non lo può fare perchè la valutazione del rischio, come è noto, non tiene conto di un’analisi rischibenefici!
L’attuale sistema di autorizzazione richiede molto tempo e molte
risorse finanziarie
Cos’è dunque richiesto per l’approvazione? Innanzitutto, è consigliabile focalizzarsi attentamente su di un unico evento transgenico selezionato, che deve essere il più “a posto” possibile secondo la normativa, il che significa che non deve includere caratteristiche che sono a
priori poco popolari tra gli organismi di controllo come “integrazioni
multiple”, “riarrangiamenti”, “read-through attorno al T-DNA”, “origini di replicazione microbiche”, “ballast DNA”, etc. Questo richiede
la produzione di diverse centinaia di eventi transgenici simili, con lo
stesso costrutto di DNA. Il costrutto stesso deve essere costruito considerando le richieste degli organismi che nelle fasi successive di approvazione lo valuteranno. Solo lavorando con un “costrutto a posto”
da un punto di vista normativo si ha una probabilità di sopravvivere al
processo di approvazione. Un evento selezionato con tale accuratezza
può essere usato per iniziare la serie di esperimenti per la valutazione
della bio-sicurezza che in genere ci si aspetta provino o escludano
ogni putativo rischio legato alla biosicurezza. (È una perdita di tempo
iniziare il processo con materiale che non sia “a posto” fin dall’inizio).
La conseguenza di questo approccio è che circa il 99% degli eventi
transgenici, e spesso quelli con i più alti livelli di espressione, devono
essere scartati. Già questo primo passaggio di produzione di un gran
116
I costi della non-scienza
numero di eventi simili e la seguente distruzione della maggior parte
di essi, è ben oltre lo scopo di ogni centro di ricerca pubblico, non solo nei paesi in via di sviluppo, ma anche in quelli sviluppati. Nessuna
agenzia finanzierebbe questo passaggio. Questo comunque è il primo
prerequisito per entrare nella procedura di autorizzazione con qualche possibilità di successo.
Una volta che il materiale “buono” è pronto, può iniziare la valutazione della biosicurezza. Ci sono degli studi che sono “indipendenti
dall’evento transgenico scelto” che sono centrati sui geni introdotti e
sulla loro funzione in generale, e quindi validi per ciascun evento prodotto con quei geni. La “valutazione dell’esposizione” per il nuovo carattere (come la pro-vitamina A nel caso del riso) studia l’utilizzo ipotizzato e la biodisponibilità. Ci vogliono 3 anni solo per questo studio,
perché il materiale deve essere prodotto in speciali camere di crescita,
a causa della mancanza del permesso di coltivazione in campo (vedi
sopra!). Le analisi di “produzione della proteina ed equivalenza” analizzano le proteine attraverso cui i geni svolgono la loro funzione. A
questo scopo le proteine devono essere isolate dalla pianta, vengono
caratterizzate biochimicamente e ne viene confermata la funzione. Per
essere sicuri che nessuna tossina o allergene siano ingeriti con il riso,
vengono effettuati studi su: omologia con tossine o allergeni, degradazione nel tratto gastro-intestinale, labilità al calore, tossicità acuta su
roditori, ed uno studio per ulteriori possibili allergeni e tossine. Questo sembra ragionevole solo se si ignora che la maggior parte delle
persone ha già ingerito in vita sua questi geni o i loro prodotti attraverso altre fonti alimentari. La richiesta di studiare, come è stato proposto, se fosse stata introdotta nel Golden Rice anche qualche tossina
della Giunchiglia (un gene viene dalla Giunchiglia e non è consigliabile mangiare Giunchiglie) dimostra quanto la procedura di valutazione
sia lontana dalla scienza: ciò che è stato trasferito è un determinato
tratto di DNA che non ha alcuna relazione con tossine o allergeni!
Questo studio ha richiesto 2 anni di intenso lavoro in un laboratorio
biochimico ben attrezzato. Ciò che è stato fin qui descritto è solo l’inizio: il vero lavoro comincia con gli studi “evento-dipendenti”: “caratterizzazione molecolare e stabilità genetica” (effetto del gene a singola
copia; del marker genico nello stesso locus; l’integrazione semplice;
l’eredità mendeliana per almeno tre generazioni; nessun richio di rot-
Le biotecnologie in agricoltura potrebbero salvare …
117
tura del gene; nessuna open reading frame sconosciuta; nessun trasferimento di DNA oltre i bordi del T-DNA; nessun gene di resistenza agli
antibiotici o origine di replicazione; inserto limitato al minimo necessario; sequenza dell’inserto più le sequenze fiancheggianti; evidenza
fenotipica e biochimica di stabilità su 3 generazioni). “Profilo di
espressione” (livelli di espressione genica agli stadi chiave dello sviluppo; evidenza di espressione seme-specifica); “Analisi fenotipica” (prestazioni in campo, tratti agronomici tipici, resa rispetto alle linee isogeniche; resistenza ai parassiti e alle malattie comparabile a quelle iniziali); “Analisi composizionale” (dati su 2 stagioni per 6 località ripetute 3 volte, macro e micronutrienti, anti-nutrizionali, tossine, allergeni; con dati generati rispetto alle linee modificate e isogeniche); “Valutazione del rischio ambientale”. Questo da solo richiede 4-5 anni di
un intero gruppo di ricerca (Figura 3).
Nessun istituto pubblico può affrontare una tale procedura di
approvazione
È abbastanza ovvio che nessuno scienziato né istituto scientifico
pubblico ha il potenziale, o i finanziamenti, o le motivazioni per svolgere tali esperimenti sulla biosicurezza. Non deve quindi sorprendere
il fatto che praticamente tutti gli eventi transgenici sottoposti alla trafila di approvazione provengano (direttamente o indirettamente) dal
settore privato e abbiano il potenziale per un significativo ritorno economico. I progetti umanitari a beneficio della popolazione povera ovviamente non rientrano in questa categoria, pur avendo effetti benefici
su milioni di persone. C’è molta buona volontà nel mondo, all’interno
del settore pubblico, a far fruttare il potenziale delle biotecnologie
“verdi” a beneficio dei poveri nei paesi in via di sviluppo. Se però la
nostra società continua a portare avanti questo approccio estremamente precauzionale è assolutamente irrealistico investire ulteriori
fondi pubblici a questo scopo. Naturalmente, ci saranno interessanti
progressi scientifici, ma nessun prodotto, e in particolare nessun prodotto autorizzato; e, di conseguenza, tutto questo lavoro non avrebbe
applicazioni pratiche e nessuna delle persone per cui sono stati pensati ne avrà beneficio.
118
I costi della non-scienza
Una normativa estremamente precauzionale c’è per molte ragioni,
ma nessuna di queste è giustificabile
Perché allora abbiamo questa normativa sugli OGM? Innanzitutto
abbiamo motivazioni storiche. All’inizio dello sviluppo della tecnologia
OGM era ragionevole essere cauti (precauzionali) e gli stessi scienziati,
che in quel momento non lavoravano con piante bensì con microrganismi patogeni per gli esseri umani, stabilirono delle normative basate
sull’idea che la conseguenza della tecnologia potesse portare a “imprevedibili alterazioni del genoma”. L’esperienza, dopo più di 20 anni di lavoro su piante transgeniche e sul loro utilizzo su 50 milioni di ettari, così come le diverse centinaia di esperimenti in cui si è studiata con molta
attenzione la biosicurezza delle piante transgeniche portando a numerose pubblicazioni e resoconti di istituti accademici, conducono alla conclusione che non c’è alcun rischio particolare associato alla tecnologia
oltre a quelli che si possono verificare con il miglioramento genetico tradizionale o l’evoluzione naturale (per una discussione sugli imperativi
morali dell’uso di colture geneticamente modificate nei paesi in via di
sviluppo si veda Nuffield Council On Bioethics, follow-up discussion paper January 2004, nel sito Internet www.nuffieldbioethics.org).
Perché quindi si mantiene una tale normativa e, anzi, si tende a farla diventare sempre più precauzionale? La risposta a questa domanda
spesso prende le mosse dall’idea che questo serve per creare fiducia
nella tecnologia e renderla accettabile al consumatore. L’esperienza
degli ultimi 10 anni, in ogni caso, dimostra chiaramente che questo
approccio non ha funzionato in Europa e in molti paesi in via di sviluppo, e questo non stupisce. Un cittadino “qualunque” come dovrebbe interpretare il fatto che il suo governo sta regolamentando una
tecnologia in modo estremamente restrittivo, se questa tecnologia non
presenta rischi particolari? Ogni cittadino obiettivo, naturalmente,
penserà che il suo governo sta prendendo delle decisioni ragionevoli,
e che la tecnologia è tanto più regolamentata quanto più pericolosa. Il
mantenimento di normative eccessivamente precauzionali, di conseguenza, porta a sfiducia invece che fiducia. Perché quindi non si crea
una normativa libera da qualsiasi zavorra scientificamente non giustificabile e non si mette a punto una procedura di approvazione razionale? Sembra che poche istituzioni abbiano l’interesse o il potere politi-
Le biotecnologie in agricoltura potrebbero salvare …
119
co di farlo. Se consideriamo il potenziale della tecnologia OGM in tema di sicurezza alimentare2 nei paesi in via di sviluppo, allora risulta
chiaro che molte organizzazioni internazionali dovrebbero essere interessate in tal senso, ma né FAO, né WHO, né UNIDO hanno il coraggio e il potere di farlo. Che prezzo sta pagando la nostra società a
causa di un atteggiamento opportunistico nei confronti di un radicato
“sistema normativo estremamente precauzionale”, che opera su scala
mondiale? Detto molto chiaramente: la tecnologia OGM a queste condizioni non potrà contribuire a ridurre la fame nel mondo né la malnutrizione, e non potrà proteggere l’ambiente nei paesi in via di sviluppo.
L’uso di tale tecnologia sarà ristretto a “progetti di lusso”, con sicuri
ritorni economici del settore privato nei paesi sviluppati. Ci saranno
certamente dei risultati ottenuti da questi progetti anche verso i paesi
in via di sviluppo, e potranno portare anche qualche beneficio ai poveri, come il “cotone resistente agli insetti”, ma non ci sarà alcun sviluppo di prodotti focalizzati sulle urgenti necessità dei poveri nei paesi in via di sviluppo, come ad esempio la “sicurezza alimentare”!
La giustificazione di una normativa estremamente precauzionale non
tiene conto delle basilari conoscenze genetiche che abbiamo
delle varietà tradizionali
La tecnologia OGM ha il potenziale per sostenere e integrare il miglioramento genetico tradizionale. Nel contesto di una discussione
sulla normativa OGM, che si basa sull’idea che l’ingegneria genetica
possa portare a “imprevedibili alterazioni del genoma”, sarebbe utile
ricordare qualche dato di base riguardo tutti i nostri alimenti di derivazione vegetale, che provengono da varietà sviluppate, senza alcuna
eccezione, grazie al miglioramento genetico tradizionale.
Il miglioramento genetico tradizionale porta a alterazioni del genoma
drammatiche e totalmente imprevedibili
Il miglioramento genetico utilizza la tecnica “incrocio-selezione”
per combinare caratteri di interesse agronomico e nutrizionale ed
2
Intesa in termini di security (disponibilità) e non di safety (salubrità)
120
I costi della non-scienza
escludere i caratteri indesiderati. Il materiale di partenza per questo
processo sono “varietà locali” delle piante coltivate, originalmente selezionate dai contadini locali. Le varietà locali differiscono tra loro per
alcune caratteristiche dovute a “mutazione”. Le mutazioni sono “imprevedibili alterazioni del genoma”. Pertanto, nel corso del miglioramento genetico tradizionale la tecnologia involontariamente e automaticamente favorisce (in alcuni casi anche molto grandi) “alterazioni imprevedibili del genoma” quali “ricombianazioni”, “traslocazioni”, “delezioni”, “inversioni”, etc. Queste “imprevedibili” e “importanti” alterazioni del genoma vengono accumulate ad ogni passaggio di selezione
e ciascuna nuova varietà tradizionale è quindi basata su, e caratterizzata da, una crescente serie di tali alterazioni del genoma. Con l’avanzamento del processo di selezione le varietà vengono combinate con altre varietà, a volte anche con parenti selvatici delle piante coltivate; a
volte invece il loro genoma viene alterato inducendo mutazioni. Tutte
le nostre varietà moderne, dalle quali deriva il nostro cibo, hanno un
lunga storia e sono derivate da numerose altre varietà precedenti e non
c’è il minimo dubbio che tutte le nostre varietà migliorate con metodi
tradizionali siano estensivamente “modificate geneticamente” da centinaia se non migliaia di “imprevedibili alterazioni genomiche”. Questo,
naturalmente, è vero anche per le varietà utilizzate dagli agricoltori
biologici. Solo che noi non le chiamiamo “OGM”! (Figura 4)
Ogni moderna varietà ottenuta con metodi tradizionali è
profondamente “modificata geneticamente”
Un esempio di tutto ciò lo troviamo nella storia del miglioramento
genetico che ha condotto all’IR64, la varietà di riso Indica più diffusa,
sviluppata dall’Istituto Internazionale per la Ricerca sul Riso delle Filippine e coltivata un po’ ovunque nel sudest asiatico. La figura mostra graficamente quanto profondamente il genoma originale del riso
(rappresentato dal box blu) sia stato “modificato geneticamente” da
“mutazioni” (barre gialle), “ricombinazioni” (rosse), “traslocazioni”
(blu-scuro) e delezioni (azzurre) per arrivare infine al genoma dell’IR64 (Figura 5).
Né questa varietà né nessun’altra di quelle che sono state utilizzate
nel corso della selezione hanno subito alcun tipo di “valutazione di
Le biotecnologie in agricoltura potrebbero salvare …
121
biosicurezza” e miliardi di consumatori nei paesi in via di sviluppo si
sono alimentati con IR64 (così come tutte le altre varietà di riso o di
altre colture) e sono sopravvissuti a questo e alle precedenti varietà
senza alcun danno, e tantomeno vi è stato alcun imprevisto danno
all’ambiente. Questo è vero anche per tutte le altre varietà di tutte le
altre piante coltivate, nonostante tutte le “profonde ed imprevedibili
alterazioni del genoma”! In verità, nessuno può sopravvivere senza
mangiare cibo derivato da piante “geneticamente modificate”.
Varietà “geneticamente ingegnerizzate” differiscono da quelle
“geneticamente modificate” per piccole, precise, similari e ben
studiate modificazioni
Per il Golden Rice noi abbiamo adottato la varietà IR64 aggiungendole 2 geni ben definiti all’interno dei 50.000 contenuti nel genoma del
riso, utilizzando una tecnologia che è alcuni ordini di grandezza più
precisa di quella del miglioramento genetico tradizionale, per far produrre pro-vitamina A nei semi e per ridurre la carenza di vitamina A.
Questo è un esempio di varietà “geneticamente ingegnerizzata”, un
“OGM”, e questa pianta oggi rientra all’interno di una normativa
“estremamente precauzionale”, nonostante il fatto che il passaggio
“ingegneristico” sia, rispetto alla storia dell’IR64, estremamente ridotto, perfettamente prevedibile, studiato con maggior dettaglio e senza
rischi superiori per l’uomo e per l’ambiente. Invito il lettore, nella figura 6, a trovare la differenza tra l’IR64 e il Golden IR64!
Non vi è alcuna giustificazione scientifica per trattare le piante
“geneticamente ingegnerizzate” in modo diverso da quelle
“geneticamente modificate”
La nostra esperienza con le varietà sviluppate con metodi tradizionali ci dice molto chiaramente che le “imprevedibili alterazioni del genoma” non sono un argomento per richiedere una regolamentazione
estrema. Perché allora, contro ogni logica, questo è l’argomento chiave per giustificare la normativa sulle piante “geneticamente ingegnerizzate”? Analogamente, l’argomentazione che i geni vengono da organismi diversi e che non avrebbero mai potuto arrivare da soli in un
122
I costi della non-scienza
OGM dovrebbe essere rigettata. Tutti noi sappiamo che i geni sono
collegati da un continuum all’interno dell’evoluzione e sono fortemente correlati tra loro e che la “barriera di fertilità” tra le specie è un
meccanismo per promuovere l’evoluzione all’interno della specie, ma
questa non impedisce l’introduzione di singoli geni. Perché gli OGM
dovrebbero uscire dalla normale procedura di breeding ed essere trattati secondo norme e regole stabilite secondo un rigidissimo Principio
di Precauzione, impedendo così un loro uso sensato a favore dei poveri? Questo, per gli autori, è contro ogni logica e ci riporta al Medioevo, prima dell’Illuminismo. Dato che questo comportamento sta isolando le “biotecnologie verdi” praticamente da tutte le altre moderne
tecnologie, pare evidente che è in atto una campagna organizzata che
nasconde in realtà obiettivi politici.
Una regolamentazione estremamente precauzionale senza un’analisi
rischi/benefici è immorale e altamente distruttiva
Quali sono le conseguenze, di una normativa estremamente precauzionale sulle “biotecnologie verdi”, per la ricerca pubblica sulla sicurezza alimentare nei paesi in via di sviluppo? Ci sono numerosi
scienziati ed istituzioni nei paesi in via di sviluppo che hanno la capacità, la motivazione e spesso anche i fondi per lavorare per l’avanzamento scientifico nei settori della resistenza delle piante ai parassiti,
alle malattie, alla siccità, al calore, al freddo, alla salinità, ai metalli pesanti, con il potenziale di salvare i raccolti e di espandere la produttività agricola agli ambienti poco adatti; di aumentare l’efficienza fotosintetica e di accrescere lo sfruttamento delle risorse naturali per aumentare la produttività; di accrescere il contenuto nutrizionale per ridurre la malnutrizione per i micronutrienti come la vitamina A, etc.
Molto pochi, però, hanno la capacità finanziaria e mentale per trasformare un successo scientifico in un “prodotto” utilizzabile, che è il prerequisito per consentire ai poveri di beneficiare di un avanzamento
scientifico. Probabilmente nessuno scienziato o istituzione pubblica,
in ogni caso, ha le risorse, l’esperienza e la determinazione per traghettare un singolo prodotto OGM attraverso gli ostacoli delle attuali
procedure autorizzative estremamente precauzionali. Le Autorità di
controllo dei paesi in via di sviluppo hanno meno esperienza, sono più
Le biotecnologie in agricoltura potrebbero salvare …
123
insicure e quindi più rigorose delle loro controparti nei paesi sviluppati. Anche con l’aiuto di uno specifico settore privato l’autorizzazione di un nuovo prodotto OGM è diventato un compito spaventoso. È
quindi ovvio che, se si continuerà con gli attuali standard normativi, le
potenzialità delle biotecnologie verdi non raggiungeranno i poveri.
Nel XIX secolo un tabù culturale portò alla tragica morte di una
principessa di 18 anni (Figura 7)
Nel XXI secolo l’ignoranza della nostra società porta ad una
ovviabile miseria e alla morte per milioni di persone
Le piante “geneticamente ingegnerizzate” non sono piante inusuali, piene di misteriosi pericoli per i consumatori e l’ambiente. L’Europa può essere orgogliosa della sua eredità culturale illuminista e dovrebbe ascoltare i consigli della scienza piuttosto che quelli dei “cacciatori di streghe”. È una responsabilità dell’Europa aiutare i paesi in
via di sviluppo ad esplorare il potenziale delle biotecnologie verdi, invece il suo comportamento influenza negativamente il comportamento
dei paesi in via di sviluppo. L’Europa può permettersi questo comportamento dato che può comprare ciò che preferisce sul mercato mondiale. Però, per i paesi in via di sviluppo, questo comportamento è
fonte di morte e miseria non necessaria per molti milioni di persone.
Citando il documento del 2004 del Nuffield Council sulla Bioetica:
«L’Unione Europea sta ignorando l’“imperativo morale” di promuovere le piante geneticamente modificate per il loro grande potenziale
di aiutare i paesi in via di sviluppo».
Noi crediamo che i legislatori dell’Unione Europea non abbiamo
prestato sufficiente attenzione all’impatto che la normativa dell’Unione Europea ha sull’agricoltura dei paesi in via di sviluppo. Le nostre
società hanno sprecato troppo tempo in questa fase di “ossessione del
rischio”. Smettiamola di seguire i “cattivi profeti”!
125
IL PRINCIPIO DI PRECAUZIONE E LE
PROBLEMATICHE AMBIENTALI RELATIVE AL
SUOLO
Paolo Sequi e Fabio Tittarelli
Istituto Sperimentale per la Nutrizione delle Piante – Roma
Introduzione
I
l ricorso ad un generico Principio di Precauzione (o principio precauzionale) è stato previsto, durante gli ultimi anni, da numerosi
trattati internazionali, ma si è imposto all’attenzione dell’opinione
pubblica nel 1992. La formulazione più largamente conosciuta ed accettata del Principio di Precauzione è quella riportata nel Principio 15
della Dichiarazione Finale della Conferenza delle Nazioni Unite
sull’Ambiente e sullo Sviluppo che si è tenuta a Rio de Janeiro (UNCED, 1992), la quale stabilisce che: «Al fine di proteggere l’ambiente,
l’approccio precauzionale sarà ampiamente applicato dagli Stati secondo le rispettive capacità. Laddove ci siano minacce di danni seri o irreversibili, la mancanza di piene certezze scientifiche non potrà costituire
un motivo per ritardare l’adozione di misure, efficaci in termini di costi, volte a prevenire il degrado ambientale». Da allora, il Principio di
Precauzione è stato introdotto in numerose convenzioni e trattati internazionali, incluso, tra gli altri, il Trattato di Maastricht sull’Unione Europea (EU, 1992), svolgendo un ruolo sempre più importante nello sviluppo delle politiche ambientali. Allo stesso tempo, il problema relativo a quando e come utilizzare il Principio di Precauzione ha dato origine a numerosi dibattiti a causa della percezione che in alcuni casi si sia
fatto ricorso ad un approccio semplificato o arbitrario. Negli ultimi anni l’adozione di decisioni accettate e l’uso di argomentazioni non scientifiche, come conseguenza di interpretazioni spesso fuorvianti, ha portato a lunghe discussioni sul Principio di Precauzione ed ha allarmato la
comunità scientifica. Ciò si è verificato anche per tutte le discipline
scientifiche riconducibili alla scienza del suolo. In particolare, i ricerca-
126
I costi della non-scienza
tori impegnati in tali settori scientifici che per le loro competenze sono
stati coinvolti, a livello sia nazionale che internazionale, in gruppi di lavoro e commissioni sulle principali problematiche ambientali e sanitarie che hanno recentemente spaventato l’opinione pubblica (il riscaldamento globale del pianeta, il rilascio di organismi geneticamente modificati, la TSE/BSE,1 i POP,2 etc.), hanno molto spesso rilevato un uso
improprio del Principio di Precauzione.
La mancanza di dati, l’enorme varietà di suoli e di condizioni pedoclimatiche rendono praticamente impossibile il raggiungimento di
una condizione di “piena certezza scientifica” nella determinazione
del rischio associato a queste problematiche, creando il presupposto
per il ricorso ad un vago Principio di Precauzione. La comunità scientifica ha, pertanto, cominciato a chiedere ed a lavorare per definire una
metodologia applicativa del Principio di Precauzione, che di per sé non
viene rifiutato da tutti, ma di cui viene messo in discussione l’uso strumentale per prendere delle decisioni arbitrarie.
L’obiettivo di questo lavoro è di presentare un’analisi critica della
definizione di Principio di Precauzione e delle linee guida per ridurre il
rischio di una sua applicazione arbitraria ai problemi del suolo, come
nodo degli equilibri ambientali. Inoltre, lo scopo del presente studio è
quello di sottolineare il ruolo che i ricercatori che si occupano di questa disciplina potrebbero svolgere nella valutazione del rischio, nella
gestione delle problematiche sanitarie ed ambientali che coinvolgono
il comparto suolo e nell’individuazione degli abusi che si possono
commettere nel ricorso al Principio di Precauzione, trascurando magari
altri problemi che vengono invece sfiorati.
Incertezza scientifica e principio di precauzione
Come sopra evidenziato, il Principio di Precauzione costituisce uno
strumento molto potente nelle mani dei politici, in quanto è previsto in
molti trattati e convenzioni delle Nazioni Unite. Tuttavia un suo uso
improprio potrebbe provocare una serie di effetti negativi sulla società
1
Encefalopatia Spongiforme Trasmissibile/Encefalopatia Spongiforme Bovi-
2
Persistent Organic Pollutant.
na.
Il PdP e le problematiche ambientali relative al suolo
127
nel suo complesso. L’origine della controversia fra la comunità scientifica ed i proponenti del Principio di Precauzione, in risposta ad una
condizione di incertezza scientifica rispetto ad una specifica relazione
pericolo-danno, è probabilmente semantica e sostanziale allo stesso
tempo. Da una parte, sappiamo che la conoscenza scientifica può essere suscettibile di essere fraintesa, anche quando non è neanche parzialmente erronea. In ogni campo della scienza, infatti, non esiste la certezza che nuove argomentazioni e/o nuovi risultati sperimentali non possano in un futuro anche vicino sostituire alcune delle acquisizioni
scientifiche precedenti. È nella stessa natura degli esperimenti scientifici lasciare uno spazio al dubbio. Ciò potrebbe portare ad ulteriori verifiche ed eventualmente alla correzione e/o sostituzione anche di conoscenze di carattere generale ampiamente accettate. D’altra parte, ed in
contrasto con il significato ed i limiti della conoscenza scientifica, c’è il
significato della parola “principio”: un enunciato al quale si attribuisce
validità universale in un determinato settore. Così, il Principio di Precauzione potrebbe essere interpretato o come una mera applicazione
del comune buon senso oppure come una legge di base, volta ad evitare la più remota possibilità di danno ogni qualvolta si proponga una
nuova relazione pericolo-danno (Rogers, 2001). Secondo quest’ultima
interpretazione, il Principio di Precauzione potrebbe impedire la maggior parte delle attività delle nostre moderne società. Il problema fondamentale è pertanto il possibile uso distorto del Principio di Precauzione ed un argomento critico è quello relativo alla definizione delle condizioni entro le quali applicarlo. Logicamente, per quanto riportato sopra, il Principio di Precauzione non può essere invocato ogni volta che
si presenti una condizione di incertezza scientifica, in quanto sussiste
sempre un grado di incertezza. Per questo motivo il riferimento alla
“mancanza di piena certezza scientifica” della maggior parte delle Convenzioni e dei trattati internazionali è fuorviante e inaccettabile.
Un altro aspetto altrettanto importante e mai sufficientemente considerato è che ogni normativa provoca conseguenze anche di notevole
portata dal punto di vista economico. Ogni provvedimento legislativo
in campo igienico-sanitario e ambientale può mettere in moto o incrementare l’attività di industrie e di imprese produttive e di servizi. L’incertezza scientifica può quindi essere utilizzata come motore dell’economia o per lo meno di qualche settore economico, magari avvantag-
128
I costi della non-scienza
giandolo rispetto ad altri. La legislazione in campo igienico-sanitario è
relativamente più cauta, così come quella collegata nel settore dell’alimentazione umana ed animale. Quella in campo ambientale lo è molto meno, dato che gli equilibri ambientali di carattere generale sono
molto complessi e meno intuitivi ed è facile perseguire uno scopo di
risanamento di un ecosistema senza adombrare alcune controindicazioni e provocare effetti negativi, anche inconsapevolmente, che possono provocare danni molto più gravi degli effetti positivi che ci si
propone di conseguire.
Se si considera che gli obiettivi di miglioramento igienico-sanitario e
ambientale trovano di per sé non solo spinte favorevoli nelle industrie
e imprese interessate, ma anche un consenso quasi automatico nei decisori politici, nei mezzi di comunicazione di massa e nella popolazione
in genere, si può capire che questo aspetto è tutt’altro che secondario.
E se può apparire quasi occasionale il dover portare all’attenzione della
pubblica opinione la considerazione che alcuni farmaci possono essere
dannosi per la salute pubblica è assai difficile convincere la stessa opinione e, a ritroso, tutta la catena dei soggetti interessati fino ai decisori
politici, che le iniziative prese allo scopo di prevenire un qualche fatto
negativo di carattere ambientale possono essere in realtà foriere di sviluppi estremamente pericolosi se non catastrofici. Il suolo, come si vedrà, è al centro di questi errori legislativi che ne mettono in forse la fertilità e le funzioni, anche perché la sua più importante funzione naturale, quella di autodepurazione e di nodo degli equilibri biologici, può
contrastare con gli specifici interessi di potenti gruppi economici.
C’è da mettere in rilievo l’importante contributo al dibattito sull’interpretazione del Principio di Precauzione e sui criteri generali per
la sua applicazione venuto recentemente dalla Commissione delle Comunità Europee (2000), che ha sottolineato la necessità di considerarlo all’interno di un approccio strutturato all’analisi del rischio e, in
particolare, alla gestione del rischio.
La Commissione delle Comunità Europee ed il Principio di
Precauzione
Le principali finalità del documento prodotto dalla Commissione
delle Comunità Europee sono quelle di stabilire un punto di vista co-
Il PdP e le problematiche ambientali relative al suolo
129
mune sui fattori che fanno scattare il ricorso al Principio di Precauzione e sul suo ruolo nel processo decisionale. Inoltre, il documento si
pone la finalità di stabilire delle linee guida, basate su dei principi coerenti, per l’applicazione del principio stesso.
Per quanto riguarda il ricorso al Principio di Precauzione, esso deve
presupporre l’esistenza delle seguenti condizioni:
• l’identificazione di effetti potenzialmente negativi che risultano da
un fenomeno, un prodotto od una procedura;
• una valutazione scientifica del rischio che la situazione in esame, per
l’insufficienza dei dati, il loro carattere non concludente o la loro
imprecisione, non consente di determinare con sufficiente certezza.
Pertanto, l’identificazione di azioni appropriate e/o di misure basate sul Principio di Precauzione dovrebbe sempre partire da una valutazione scientifica dei dati disponibili e, ogni qualvolta risulti necessario,
da un esame completo delle prove, delle lacune nella conoscenza di un
determinato fenomeno e del livello di incertezza scientifica ad esso associato. Una volta che è stata effettuata la valutazione scientifica, essa
può fornire le basi per invocare l’applicazione del Principio di Precauzione. Applicazione comunque che non può essere acritica, ma deve
essere subordinata al rispetto di cinque principi generali, che devono
del resto essere osservati in tutte le misure di gestione di un rischio.
I cinque principi generali costituiscono vere e proprie linee guida e
sono i seguenti:
• la proporzionalità,
• la non-discriminazione,
• la coerenza,
• l’esame dei vantaggi e delle conseguenze negative derivanti
dall’azione o dalla inazione,
• l’esame dell’evoluzione scientifica.
Proporzionalità – Secondo questo principio, le misure non possono essere sproporzionate al livello desiderato di protezione. Inoltre,
non devono mirare al raggiungimento di un “rischio zero”, un livello
di rischio che può richiedere uno sforzo teoricamente infinito, concettualmente e scientificamente non concepibile. Il pieno rispetto di questo principio non consente, soprattutto nel caso dell’applicazione del
Principio di Precauzione, il bando totale di un prodotto o di una tecnologia poiché una tale scelta non potrebbe essere considerata una ri-
130
I costi della non-scienza
sposta proporzionale ad un rischio potenziale, ossia non misurabile.
Non-discriminazione – Il principio di non-discriminazione si riferisce alla necessità di trattare situazioni paragonabili nello stesso modo, a meno che non sussistano delle condizioni obiettive che impongono un comportamento differente. Tutti i provvedimenti decisi invocando il Principio di Precauzione non dovrebbero mai applicare misure diverse che sarebbero adottate in modo arbitrario sulla base, ad
esempio, non solo del campo ambientale considerato ma anche
dell’origine geografica o della natura della produzione.
Coerenza – Il principio di coerenza stabilisce che le misure dovrebbero essere coerenti con quelle già prese in circostanze simili e/o
adottando approcci simili. In altre parole, se l’assenza di sufficienti
dati scientifici rende impossibile la valutazione del livello di rischio, le
misure precauzionali adottate dovrebbero essere comparabili con
quelle precedentemente prese in situazioni analoghe nelle quali i dati
scientifici sono disponibili.
Esame dei vantaggi e delle conseguenze negative derivanti dall’azione o dall’inazione – Ogni misura adottata dovrebbe essere esaminata in termini di benefici e costi dell’azione e dell’inazione. Pertanto, ogni qualvolta sia fattibile ed appropriato, dovrebbe essere effettuata l’analisi economica dei costi e dei benefici, anche se, in alcune
circostanze, i responsabili delle amministrazioni preposte possono essere guidati da considerazioni non economiche.
Esame dell’evoluzione scientifica – Questo principio generale dovrebbe essere applicato in ogni provvedimento legislativo, ma diviene
ancora più importante quando si tratta di provvedimenti per i quali si
è ricorso al Principio di Precauzione. Le misure adottate devono essere
mantenute finché i dati scientifici rimangono insufficienti, imprecisi o
non conclusivi e finché il rischio viene considerato troppo alto per poter essere sostenuto dalla società. Comunque, l’acquisizione di nuovi
dati scientifici potrebbero rendere possibile il processo di valutazione
del rischio e consentire la modifica oppure l’eliminazione di misure
precauzionali.
Le cinque linee guida riportate sopra rappresentano un contributo
importante ed influente al dibattito esistente sul Principio di Precauzione per un suo uso politicamente trasparente. In effetti, come si è
già sopra sottolineato, con queste linee guida la Commissione ha sta-
Il PdP e le problematiche ambientali relative al suolo
131
bilito che anche le misure che risultano dal ricorso al Principio di Precauzione devono conformarsi ai principi generali applicabili alle misure di gestione del rischio. Inoltre, viene sottolineato il carattere provvisorio delle misure basate sul Principio di Precauzione, mentre viene enfatizzata la necessità di un’attenta raccolta ed analisi dei dati scientifici
disponibili (Foster et al., 2000). In ogni caso, nonostante gli aspetti
positivi riportati sopra, mancano ancora delle linee guida chiare per
definire il peso delle prove necessarie per far scattare il Principio di
Precauzione e per decidere quali misure dovrebbero essere applicate
in ogni data circostanza. A tale proposito, un lavoro particolarmente
interessante sulla valutazione e la gestione del rischio è quello scritto
da Renn e Klinke (1999). Tale studio fornisce un importante contributo alle problematiche che riguardano la classificazione del rischio e le
strategie per una sua razionale gestione. Nelle pagine seguenti saranno
trattati i principali aspetti della classificazione e gestione del rischio,
ma si consiglia vivamente, per un’esauriente dissertazione sull’argomento, il lavoro menzionato precedentemente e quello di Stirling
(1999).
Si può sottolineare intanto che, come si era osservato, molti provvedimenti legislativi vengono proposti ed emanati nell’interesse dichiarato della salute pubblica e della protezione dell’ambiente. Già
solo una tale dichiarazione di intenti giustifica la loro adozione agli
occhi della popolazione e dei decisori politici. Se tuttavia si esaminano
le categorie di rischio (processi di degradazione) che si pongono secondo l’OCSE nei confronti dell’ecosistema suolo, che abbiamo definito il nodo degli equilibri ambientali, possiamo osservare che su
quattordici categorie di rischio 3 la legislazione attuale italiana e comunitaria ha cercato di prenderne in considerazione in maniera organica
soprattutto due, quelle elencate nella tabella 1 ai numeri 10 e 13, e che
solo recentemente essa sta cercando di normare le emissioni di cui al
punto 14. Per di più, preoccupandosi delle sostanze tossiche, essa ha
teso al raggiungimento di un teorico livello zero, contravvenendo a
quanto viene stabilito dal principio di proporzionalità. Occupandosi
3 Alle quattordici categorie di rischio ne abbiamo aggiunta una quindicesima
che può apparire paradossale, a quasi due secoli dalla nascita di Justus von Liebig, e dalla scienza della fertilizzazione: su di essa si ritornerà.
132
I costi della non-scienza
delle sostanze tossiche, spesso, le norme hanno riguardato ammendanti organici o fanghi che potevano essere dirottati ed alimentare le
discariche o altri sistemi di smaltimento, favorendo pertanto interessi
diversi da quelli ambientali. Per di più anche occupandosi di lisciviazione (n. 13) e di volatilizzazione (n. 14), la legislazione risulta avere a
cuore più la salute di comparti ambientali acqua e aria che le buone
condizioni della fertilità, della produttività e della salute del suolo,
contravvenendo anche alle linee guida della non-discriminazione e
della coerenza. Le linee guida che chiedono di esaminare i vantaggi e
le conseguenze negative dell’azione e della non azione, oltre che di tener conto dell’evoluzione scientifica, appaiono totalmente disattese.
Quel che risulta più grave, comunque, è che nel caso della protezione del suolo dai processi di degradazione, si hanno carenze proprio
nella legislazione ordinaria. Ma torniamo all’applicazione del Principio
di Precauzione.
Valutazione e classificazione del rischio
Secondo Renn e Klinke (1999), i principali criteri per la valutazione del rischio sono i seguenti:
Gravità del danno: dimensione potenziale delle conseguenze negative determinate dal fattore di rischio (azione dell’uomo od anche
eventi naturali);
Probabilità che si verifichi il danno: dato che dipende dalle informazioni sulla frequenza del danno, pur nell’incertezza sul momento
esatto in cui si può verificare;
Certezza della stima: grado di affidabilità associato alla stima della
gravità del danno e della probabilità con cui esso si verifica, ossia probabilità di collegamento causa-effetto;
Ubiquità: dispersione geografica del potenziale danno;
Persistenza: estensione temporale dei danni potenziali;
Reversibilità: possibilità di ripristinare la situazione nello stato precedente rispetto a quello determinato dal danno;
Effetto ritardato: periodo di latenza che può intercorrere fra il momento iniziale in cui si verifica un evento ed il momento in cui si manifesta il reale impatto del danno;
Potenziale di mobilitazione: violazione potenziale di interessi e di
Il PdP e le problematiche ambientali relative al suolo
133
valori di individui e/o gruppi sociali che generano conflitti e reazioni
da parte di individui e gruppi che sentono di sopportare il peso delle
conseguenze del rischio.
Prendendo in considerazione principalmente gravità del danno e
probabilità che il danno si verifichi, come criteri di base per cominciare
un processo razionale di valutazione del rischio, si possono distinguere tre principali livelli di rischio:
• la categoria normale,
• la categoria intermedia,
• la categoria intollerabile.
I rischi che appartengono alla categoria normale sono caratterizzati
da un buon grado di certezza statistica ed in prima approssimazione, se
i processi vengono contrastati in una fase non avanzata, da un basso
potenziale catastrofico, oltre che da un basso grado di persistenza e di
ubiquità e da un elevato grado di reversibilità. A causa della loro bassa
complessità, lo strumento principale di valutazione per i rischi che
rientrano nella cosiddetta categoria normale è l’analisi rischio-beneficio.
I rischi che rientrano nelle categorie intermedia ed intollerabile causano maggiori problemi. In questi casi, la certezza della stima è contestata, il potenziale effetto catastrofico può essere elevato e non sono
disponibili sufficienti conoscenze circa la distribuzione delle conseguenze. In questi casi il rapporto rischio-beneficio è inadeguato in
quanto non è possibile escludere conseguenze negative molto gravi e,
pertanto, prevalgono le strategie precauzionali di controllo del rischio
(ad esempio nuove strategie di contenimento del danno e di elusione
del rischio).
L’uso degli otto criteri sopra riportati porterebbe all’identificazione
di un numero enorme di tipologie di rischio, che non sarebbe utile per
realizzare una classificazione del rischio gestibile. Così, diversi rischi
sono raggruppati secondo uno o più criteri per i quali raggiungono i
valori estremi del loro intervallo di variazione. Questa classificazione
porta a classi di rischio che sono state identificate con nomi provenienti dalla mitologia greco-romana (Tabella 2). Sei delle sette classi
sono state proposte da Stirling (1999) e vengono qui adottate con
qualche piccola modifica. Ad esse ne abbiamo aggiunta una settima,
denominata Prometeo.
134
I costi della non-scienza
Diversi sono i rischi tecnologici che appartengono a ciascuna delle
categorie di rischio individuate e gli esempi riportati di seguito non
possono essere considerati esaustivi. Fra gli altri, alcuni dei rischi elencati sono associati a dissesti ambientali ed a potenziali danni all’ecosistema del suolo. È questo un campo di interesse specifico dei ricercatori delle diverse discipline afferenti alla scienza del suolo il cui coinvolgimento, nella stima del rischio e nella gestione delle nuove tecnologie che hanno un impatto su tale comparto, sta aumentando anno
dopo anno.
Classe di rischio Ciclopi
I Ciclopi erano giganti con un occhio solo. La mancanza di un occhio simboleggia una visione parziale della realtà; ciò, applicato al rischio, riguarda quelle fonti di rischio delle quali è possibile stimare la
probabilità che si verifichi un evento oppure la gravità del danno determinato da tale evento, mentre l’altra componente rimane incerta. I
rischi che appartengono alla classe Ciclopi sono quelli la cui estensione del danno può essere estremamente elevata, a livello di cataclismi,
ma stimata solo a posteriori, mentre rimane incerto il livello di probabilità su dove e soprattutto su quando il danno si verificherà. Di solito
eventi naturali quali i terremoti, le alluvioni e le eruzioni vulcaniche
appartengono a questa categoria di rischio.
Classe di rischio Cassandra
Cassandra, profetessa dei troiani, predisse la vittoria dei greci, ma
non fu presa seriamente in considerazione da parte dei suoi concittadini. In questa classe sono raggruppati tutti i rischi che possono provocare danni, dei quali sono ben noti sia la gravità sia la probabilità
che si verifichino. Inoltre, tipica di questa classe di rischio è la lunghezza del periodo di tempo che intercorre tra l’evento iniziale ed il
momento in cui il danno si manifesta sull’ecosistema. Un esempio di
questa classe di rischio sono i cambiamenti climatici, alcuni dei quali
sono attualmente considerati di possibile origine antropica (un classico esempio e l’emissione di clorofluorocarburi).
Classe di rischio Damocle
Secondo la mitologia, Damocle fu invitato dal suo re ad un banchetto, ma il suo posto a tavola era proprio sotto ad una spada appesa
Il PdP e le problematiche ambientali relative al suolo
135
al soffitto con un filo molto sottile. Il rischio simboleggiato dalla spada di Damocle riguarda la possibilità che un evento fatale per Damocle possa verificarsi in qualunque momento, anche se con una probabilità molto bassa. Pertanto, questa classe di rischio è relativa a fonti
di rischio che sono caratterizzate da un potenziale di danno molto elevato, ma con una probabilità che si verifichi molto bassa. Tecnologie
come gli impianti chimici di grandi dimensioni e le dighe appartengono a questa classe di rischio.
Classe di rischio Prometeo
Fu lo stesso Prometeo, secondo alcuni autori greci, a modellare gli
uomini impastandoli dalla terra ed a favorirli in ogni modo nei primi
stadi della loro storia. Il più importante dono fatto agli uomini fu il
fuoco, che era appannaggio degli Dei e che fu loro rubato per consentire una prima forma di civiltà: per questo motivo Prometeo fu condannato da Giove ad un atroce supplizio. Il fuoco è ancora motivo di
altri rischi nella nostra storia di tutti i giorni e gli incendi provocano
danni potenzialmente anche molto gravi, pur se in teoria prevedibili;
essi obbligano tutte le comunità umane a mantenere agenti specializzati per la vigilanza, la prevenzione ed il contenimento dei danni.
Questa classe di rischio simboleggia ogni avanzamento nella ricerca
scientifica e tecnologica, che deve prevedere tipicamente un apporto
attivo di difesa corale da parte delle comunità umane, accanto alla caratteristica, altrettanto tipicamente da essa posseduta, dell’assoluta irrinunciabilità. Dal fuoco mitologico di Prometeo, gli esempi possono
ricomprendere le odierne esperienze spaziali, oltre, come si è detto, a
molte ricerche di interesse strategico.
Classe di rischio Pizia
In caso di incertezza, gli antichi greci si rivolgevano agli oracoli. Pizia, una delle più famose profetesse dell’antichità, era solita fare delle
profezie ambigue su gravi pericoli la cui ubicazione geografica, gravità
del danno e probabilità che si verificasse rimanevano sostanzialmente
incerte o per lo meno da interpretare caso per caso. È possibile che,
nonostante nel suo tempio di Delfi potesse contare sulla protezione
diretta di Apollo, essa temesse di essere perseguita nel caso di vaticini
troppo chiari, così come parecchi secoli più tardi successe a Nostradamus. Le possibili conseguenze dell’impiego di colture geneticamente
136
I costi della non-scienza
modificate senza opportune precauzioni, la diffusione della TSE/BSE
e talora gli stessi rischi associati agli interventi dell’uomo sugli ecosistemi appartengono a questa classe di rischio.
Classe di rischio Pandora
Pandora ricevette da Giove un vaso contenente tutti i mali. Se essi
fossero rimasti all’interno del vaso non si sarebbe verificato nessun
danno, ma una volta che Pandora aprì il vaso tutti i mali furono rilasciati e si diffusero in maniera persistente in tutto il mondo. Questa
classe di rischio è caratterizzata da incertezza in termini di gravità del
danno e possibilità che si verifichi e da un elevato grado di persistenza
degli effetti determinati dall’accadimento dell’evento temuto. La produzione e l’uso di sostanze potenzialmente inquinanti di natura organica ad alta persistenza può essere considerata un esempio tipico di
questa categoria di rischio.
Classe di rischio Medusa
Medusa era una delle tre terrificanti Gorgoni la cui apparizione
trasformava gli astanti in pietra. Alcune delle nuove tecnologie sembrano provocare effetti egualmente spaventosi sull’uomo moderno il
quale respinge queste innovazioni, nonostante il fatto che esse difficilmente possano essere considerate pericolose sulla base della documentazione scientifica disponibile. La caratteristica di questa categoria di rischio è che le fonti di rischio sono rifiutate in modo irrazionale
dalla popolazione (alto grado di potenziale di mobilitazione). Gli
esperti nella stima dei rischi collocano di solito questi rischi nell’area
normale ed il solo modo per combattere la paura che generano è di
migliorare la comunicazione al pubblico con efficaci argomentazioni
scientifiche. I campi elettromagnetici sono considerati un esempio tipico di questa tipologia di rischio.
Differenti strategie per differenti classi di rischio
Lo scopo principale di questa classificazione è di fornire uno strumento a chi gestisce il rischio per la definizione di specifiche strategie
di intervento per ogni classe di rischio. Una volta che i criteri che caratterizzano i diversi rischi sono conosciuti, è possibile individuare le
strategie appropriate per spostare i rischi dalla categoria intermedia a
Il PdP e le problematiche ambientali relative al suolo
137
quella normale dove possono essere gestiti mediante misure basate su
dati scientifici. Sulla base di quanto stabilito sopra, solo i rischi riconducibili alle categorie Pizia e Cassandra richiedono necessariamente
strategie precauzionali. Investimenti in ricerca di base, sussidi allo sviluppo di sistemi di produzione alternativi, trasferimenti di tecnologia,
aggiornamenti e divieti rigidi, se necessario, sono alcuni degli strumenti precauzionali disponibili.
I rischi che appartengono alle categorie Damocle, Ciclopi e Prometeo necessitano di una combinazione di strategie precauzionali e basate su dati scientifici. Misure adeguate a queste tipologie di rischio possono essere considerate le misure tecniche volte a ridurre i potenziali
danni ed a calcolare la probabilità che l’evento si verifichi nei casi di
elevata incertezza, così come il monitoraggio nazionale ed internazionale e l’applicazione, se necessario, di divieti molto rigidi.
I rischi Cassandra e Medusa rappresentano le classi di rischio che,
per ragioni diverse, possono essere gestite mediante strategie di comunicazione. In particolare, i rischi Cassandra, essendo caratterizzati da
un lungo periodo di tempo che intercorre fra l’evento iniziale ed il
momento in cui si verifica il danno, necessitano di un’educazione ambientale, un codice di comportamento e la costruzione di una consapevolezza sociale per quanto riguarda i pericoli che si manifestano nel
tempo. D’altra parte, la classe Medusa rappresenta rischi dei quali la
certezza della stima è considerata soddisfacente. Il principale criterio
che caratterizza questa tipologia di rischio è il potenziale di mobilitazione. Le persone comuni sono spaventate da queste fonti di rischio e
rifiutano di accettare, irrazionalmente, la tecnologia che è causa della
loro paura. Gli strumenti volti ad aumentare la fiducia e la confidenza
con una nuova tecnologia ed a sostenere la ricerca di base per migliorare ulteriormente la certezza della stima, sono tutti atti ad informare
la popolazione della reale dimensione del danno e della reale probabilità che esso si verifichi.
L’applicazione del principio di precauzione alle problematiche
ambientali del comparto suolo
Secondo quanto riportato nella Comunicazione della Commissione
sul Principio di Precauzione (2000) e nei lavori di Renn e Klinke
138
I costi della non-scienza
(1999), Stirling (1999) e Rip (1999), l’invocazione del Principio di Precauzione non è una questione riconducibile semplicemente all’applicazione del comune buon senso. Inoltre, nessuna decisione arbitraria
può essere presa, per nessuna problematica di carattere ambientale
e/o sanitaria, invocando un vago Principio di Precauzione, in quanto la
sua applicazione deve essere conforme con i cinque principi generali a
cui si fa di solito riferimento nelle misure di gestione del rischio. Queste considerazioni dovrebbero essere riprese dai ricercatori delle
scienze del suolo ogniqualvolta si invochi l’applicazione del Principio
di Precauzione alle problematiche sanitarie ed ambientali di tale comparto. La classificazione di rischio proposta da Renn e Klinke (1999)
non è certamente né completa né esauriente di tutte le tipologie di rischio, ma può rappresentare, per i ricercatori, un importante approccio di stima del rischio e uno strumento d’individuazione delle più appropriate strategie e degli strumenti volti alla riduzione dell’incertezza
relativa alla probabilità che si verifichi un danno ed alla gravità del
danno stesso. Un altro aspetto, di non secondaria importanza per i ricercatori delle scienze del suolo, riguarda l’assunzione di responsabilità su qualunque tematica che riguarda la gestione del suolo. Solo i ricercatori impegnati nello studio delle scienze del suolo possono raccogliere le informazioni che riguardano gli otto principali criteri di valutazione del rischio e solo attraverso la loro esperienza possono elaborare uno “stato dell’arte” della conoscenza del rischio.
In linea di principio, per i rischi che rientrano nella categoria normale di cui si è precedentemente parlato non dovrebbe essere applicata che una legislazione ordinaria, nel senso che non occorre il ricorso
al Principio di Precauzione. Molto spesso si tratta infatti di processi la
cui direzione è nota e può essere indirizzata in senso favorevole o sfavorevole mediante l’adozione di pratiche opportune. Negli altri casi
invece, quelli delle categorie intermedia e intollerabile, un andamento
negativo potrebbe provocare impatti catastrofici, ed è questo il motivo
per il quale diviene indispensabile e giustificato il ricorso al Principio
di Precauzione.
Se torniamo ai processi di degradazione del suolo illustrati precedentemente nella Tabella 1, possiamo considerare che in condizioni
attribuibili ad una categoria normale l’adozione di corrette pratiche
agricole può essere sufficiente a limitare o a controllare completamen-
Il PdP e le problematiche ambientali relative al suolo
139
te i rischi. È ovvio pertanto che sarebbe sufficiente una legislazione
ordinaria che tenesse nella dovuta considerazione la necessità di privilegiare un’attività multifunzionale dell’agricoltura per evitare l’instaurarsi di condizioni drammatiche per l’ambiente, quali sono quelle rappresentate nella colonna di destra della stessa Tabella 1.
In realtà, la società d’oggi si trova a dovere fronteggiare in via ormai ordinaria cataclismi e situazioni catastrofiche che dipendono
dall’ignoranza, dalla cattiva considerazione o dall’esclusione delle funzioni dell’ecosistema suolo negli approcci seguiti per la protezione
dell’ambiente. L’esclusione del suolo nasconde a volte gli interessi di
soggetti coinvolti in colossali giri d’affari, ma a volte rivela solo ignoranza degli aspetti tecnici del problema. Alcuni casi particolarmente
preoccupanti di comportamenti pericolosi delle società d’oggi, pericolosi al punto da provocare disfunzioni strutturali, sono riportati nella
Tabella 3.
Le diverse normative che riguardano direttamente od indirettamente il suolo sono sempre state pubblicate partendo dall’assunto che
tutte le sostanze o gli elementi introdotti nell’ambiente dall’uomo fossero pericolose, indipendentemente dalle loro concentrazioni. D’altra
parte le sostanze di origine naturale non sono mai state oggetto di limitazioni come se la loro “naturalità”, secondo alcuni, contenesse automaticamente la caratteristica di innocuità. Ad esempio, il suolo non
è mai stato considerato sufficientemente nella legislazione relativa alla
qualità delle acque, tanto che la stessa gloriosa Legge Merli (319/76)
non ha preso in considerazione il sodio fra gli elementi per i quali era
necessario porre un limite: come possibile conseguenza, un’acqua irrigua diveniva un potenziale strumento di sterilità dei suoli. Ma neppure i più recenti provvedimenti legislativi europei, come la Decisione n.
2455/2000/CE del Parlamento Europeo e del Consiglio, pubblicata
sulla G.U. L 331 del 15 dicembre 2001,4 annoverano sostanze pericolose per il suolo e la sua funzionalità fra quelle di interesse prioritario
per le acque: vi si legge l’alachor, l’atrazina, l’esaclorobenzene, il nichel e il cloroformio, ma non c’è traccia di cloruro sodico e di sodio.
4 Con candore inappellabile la Decisione ci spiega una volta di più, fin dalla
terza “considerazione” delle premesse, che per le sostanze sintetiche antropogeniche le concentrazioni devono essere vicine allo zero.
140
I costi della non-scienza
Raro è anche che si parli di sodio e di cloruro sodico, nonostante le
catastrofi storiche che hanno determinato la caduta della civiltà Assiro-Babilonese in tempi remoti e vanno provocando la sterilizzazione
di molte vaste superfici di suoli anche in epoca moderna. Si tiene conto di acque, insomma, ma non del loro utilizzo. I collassi strutturali
possono essere provocati da alte percentuali di sodio nel complesso di
scambio, ma anche dalla degradazione del carbonio organico, che può
contribuire almeno in ambiente mediterraneo ad un apporto di anidride carbonica in atmosfera di un ordine di grandezza pari, se non
superiore, a quello apportato dalle combustioni dei fossili. L’ultimo
caso da considerare, anch’esso potenzialmente catastrofico, è quello
dell’immissione senza ritorno nelle acque di elementi nutritivi provenienti dallo sfruttamento di rocce e minerali: trasformate in fertilizzanti, essi entrano nella catena suolo-pianta-uomo e animale, ma possono non fare più ritorno alla loro destinazione naturale, il suolo,
quando si impedisce per legge la riutilizzazione come fertilizzante del
pozzo nero e di altri effluenti. I cicli degli elementi nutritivi, in altre
parole, sono così spezzati (Sequi, 1990).
Sembra pertanto che le leggi non considerino a sufficienza il suolo,
indipendentemente dal ricorso al Principio di Precauzione. Ma se si
collocano i vari eventi pericolosi nelle varie categorie di rischio fin qui
considerate si possono avere diverse sorprese (Tabella 4). Gli eventi
catastrofici che interessano direttamente il suolo (frane e collassi strutturali da alluvioni, desertificazione, acidificazione e sommersione, perdita del patrimonio degli elementi nutritivi) devono essere considerati
nelle classi dove la gravità del rischio è più elevata, mentre gli eventi
che si originano nel suolo, ma che possono colpire altri ecosistemi,
fanno parte delle classi di rischio la cui gravità è incerta o bassa e altrettanto bassa la probabilità: si tenga conto, per esempio, che i limiti
al contenuto di erbicidi nelle acque potabili sono dettati dal concetto
che essi devono essere prossimi alla soglia della rilevabilità analitica.
Tali limiti sembrano indotti da un generico Principio di Precauzione
che dovrebbe riguardare considerazioni igienico-sanitarie ma che più
spesso sembra nascondere ragioni puramente commerciali, quali l’avvicendamento di nuove generazioni di erbicidi efficaci a concentrazioni molto più basse. Si tratta di rischi per i quali i mezzi di comunicazione di massa hanno promosso un alto potenziale di mobilitazione, e
Il PdP e le problematiche ambientali relative al suolo
141
che dovrebbero essere ridimensionati con un’opportuna campagna di
educazione pubblica. Sembra insomma che la legislazione vigente tenda a proteggere più gli ecosistemi facili e visibili di quelli strutturali e
complessi. Questa tendenza appare ancora più accentuata se si considera che i comportamenti antropici che colpiscono gravemente l’integrità del suolo e la sua funzionalità sono favoriti dalla legislazione vigente. Sarebbe tempo che gli scienziati del comparto cercassero di riprendere in mano la situazione, in quanto ogni comportamento passivo, in queste circostanze, dovrà essere ritenuto colpevole.
Un esempio finale di uso distorto del Principio di Precauzione per
affrontare delle problematiche di origine ambientale e sanitaria del
comparto suolo e dell’importanza del ruolo degli scienziati di tale
comparto per una classificazione razionale del rischio e per l’identificazione di adeguate strategie e misure per la relativa gestione di tali
rischi, è la fissazione dei contenuti massimi di metalli pesanti nei fertilizzanti da somministrare ai suoli agricoli. Naturalmente, poiché tale
problema è estremamente complesso ed ogni elemento meriterebbe
una dissertazione esauriente a parte, si riportano di seguito solo alcuni principali aspetti critici e paradossali, che riguardano il contesto
europeo.
Tenori massimi consentiti di metalli pesanti nei fertilizzanti organici
In conseguenza del crescente interesse per le problematiche ambientali relative alla gestione dei rifiuti, molti convegni si sono tenuti,
su tali argomenti, a livello nazionale ed europeo negli ultimi anni. Uno
degli aspetti di maggiore preoccupazione e dibattito fra i funzionari
del Ministero dell’Ambiente, del Ministero dell’Agricoltura, delle organizzazioni professionali e delle associazioni di consumatori che partecipano a questi convegni è stato la qualità ambientale dei fertilizzanti organici in generale, e specificamente dei fanghi degli impianti di
depurazione e del compost prodotto mediante trattamenti biologici di
rifiuti biodegradabili. Nello specifico, è stata spesso oggetto di discussione la fissazione dei contenuti massimi di metalli pesanti nel prodotto finale. Sfortunatamente, non sempre sono state considerate per
ogni singolo elemento le proprietà fisico-chimiche, le concentrazioni
naturalmente presenti nei singoli comparti ambientali, il loro ruolo, se
142
I costi della non-scienza
esiste, nel metabolismo delle piante e degli animali, i meccanismi di
asportazione e regolazione, il potenziale accumulo, la competizione
con altri elementi, le concentrazioni per le quali si evidenziano sintomi
di carenza e di tossicità per le diverse specie nella catena alimentare.
Al contrario, frequentemente, la discussione è stata guidata dal riferimento ad un vago concetto di precauzione se non proprio dall’invocazione del Principio di Precauzione, assumendo, non dichiaratamente,
che, quando si tratta di metalli pesanti, i valori migliori sono i più bassi. Più che Principio di Precauzione si potrebbe parlare in questi casi di
precauzione senza principio, come si legge nella bella introduzione al
libro di A. Meldolesi sugli OGM. Già diversi secoli or sono, ci ricordano Nicolini e D’Agnolo (2001), Paracelso aveva affermato che «ogni
sostanza è un veleno, ma è il dosaggio che la vuole velenosa».
L’applicazione fuorviante del concetto di precauzione ha determinato anno dopo anno la perdita di un approccio scientifico al problema e la proposta di livello massimo ammissibile di contaminanti in
compost indipendentemente dalle considerazioni tecniche e scientifiche di base. Inoltre, la mancanza di un approccio strutturato alla gestione del rischio ha portato a conclusioni contraddittorie e, talvolta,
paradossali.
Nonostante ed indipendentemente dall’instancabile lavoro dei singoli funzionari della DG Ambiente della Commissione Europea, il cui
scopo finale è di fornire l’Unione Europea di una direttiva sulla gestione dei rifiuti, l’Allegato III della seconda bozza del documento di
lavoro Trattamento biologico dei rifiuti biodegradabili rappresenta un
classico esempio di quanto riportato sopra. Per quanto riguarda il
contenuto di metalli pesanti di compost o del residuo solido della digestione anaerobica di classe 1, le concentrazioni massime proposte sono quelle riportate in tabella 5, nella quale viene riportata per confronto la concentrazione ammessa dall’U.S. Environmental Protection
Agency per i biosolidi che possono essere somministrati al suolo.
Alcune considerazioni sono necessarie specialmente se focalizziamo l’attenzione su rame, cromo e piombo. Gli scienziati che svolgono
un’attività di ricerca nelle discipline scientifiche riconducibili alla
branca delle scienze del suolo (chimici agrari, biologi, agronomi, fisiologi vegetali, etc.) sanno, che fra i metalli presenti sulla crosta terrestre, molti sono essenziali per la vita. Gli organismi viventi necessitano
Il PdP e le problematiche ambientali relative al suolo
143
di un rifornimento costante di questi elementi, per evitare fenomeni di
carenza, in quanto sono deputati a svolgere importanti funzioni biologiche. Altri metalli, di cui non è stata mai scoperta una funzione vitale
in nessun organismo vivente, sono chiamati elementi non-essenziali.
Mentre quantitativi eccessivi di elementi essenziali possono essere
causa di un potenziale danno agli organismi viventi, anche piccole
quantità di elementi non-essenziali possono essere pericolose per gli
stessi organismi viventi.
Il rame ed il cromo sono elementi essenziali, mentre il piombo è un
elemento non-essenziale. Anche se questa semplice considerazione
dovrebbe essere sufficiente per differenziare la concentrazione massima ammissibile per il rame ed il cromo da una parte e per il piombo
dall’altra, gli esaurienti lavori di Landner e Lindestrom (1999) ed il
volume edito da Canali et al. (1997), per il rame ed il cromo rispettivamente, forniscono le informazioni scientifiche ed il database necessari
per operare una gestione razionale del rischio. In effetti è stato osservato che il rame, oltre ad essere un elemento essenziale, ha un’elevata
efficacia come promotore della crescita nei maiali tanto che, per questo motivo, tradizionalmente si sono aggiunte elevate dosi di rame (fino a 200 mg Cu per kg di mangime) ai mangimi utilizzati per l’alimentazione dei suini, per aumentarne le prestazioni produttive (Landner e
Lindestrom, 1999). Inoltre, il Gruppo di Lavoro sul rame dell’IPCS
(International Program on Chemical Safety) ha stabilito che, specialmente in Europa ed in America, c’è un maggiore rischio per la salute a
causa di una carenza che per un’assunzione eccessiva di rame (1996).
Simili conclusioni possono essere tratte per il cromo. Nel 1959
Schwartz e Mertz dimostrarono che il cromo era un elemento fondamentale nella costituzione del GTF (Glucose Tolerance Factor) che regola l’assunzione ed il metabolismo degli zuccheri. Successivamente è
stato dimostrato che il GTF è indispensabile per il normale metabolismo degli zuccheri, dei lipidi e delle proteine in gatti, conigli, polli,
maiali, vitelli ed anche nell’uomo (Anderson, 1988). Quando il cromo
viene somministrato ad animali allevati per la produzione di carne,
può cambiare la composizione della carcassa. Esperimenti realizzati
da Page et al. (1993) sui maiali hanno dimostrato che era evidenziabile
un aumento della massa muscolare e una riduzione dello spessore del
grasso sottocutaneo. Negli esseri umani, d’altra parte, il cromo addi-
144
I costi della non-scienza
zionato in forma organica alla dieta, sembra aumentare lo sviluppo dei
muscoli scheletrici (Evans and Pouchink, 1993). Infine, Anderson
(1987) ha stimato che nel 90% dei casi, a seguito del consumo di prodotti raffinati, un adulto americano ha una dieta che copre solo il 4060% del reale fabbisogno di cromo.
Pertanto, per quanto sopra riportato, sia per il rame che per il cromo, mentre le istituzioni nazionali ed internazionali che si occupano
di agricoltura ed ambiente definiscono la concentrazione massima di
elementi essenziali (rame e cromo) nei compost allo stesso livello di
quello imposto per gli elementi non essenziali (piombo), le industrie
farmaceutiche invadono il mercato con prodotti da banco (integratori
minerali) che contengono, fra gli altri elementi, appunto proprio il rame ed il cromo. I moderni sistemi di produzione agricola ed i processi
di raffinazione e trasformazione dei prodotti alimentari sono considerati responsabili per il basso contenuto in elementi essenziali delle nostre diete e, per tale motivo, gli integratori minerali sono raccomandati specialmente in soggetti sottoposti a fatica fisica ed a stress come nel
caso degli atleti e delle donne in stato di gravidanza. Infine, specifici
prodotti da banco a base di cromo vengono pubblicizzati e venduti
per aumentare l’efficienza del metabolismo degli zuccheri e dei lipidi
a supporto di diete a basso contenuto di calorie messe a punto per il
trattamento dell’obesità.
Pertanto, secondo quanto riportato dalla letteratura scientifica
sull’argomento, sembra ragionevole affermare che il rischio associato
all’uso in agricoltura di compost che contenga un quantitativo di rame
e cromo moderatamente superiore ai 100 mg per kg di sostanza secca
appartenga alla categoria di rischio Medusa che è caratterizzata da un
basso potenziale di danno, da una bassa probabilità che tale danno si
verifichi e da un alto potenziale di mobilitazione. La gente comune è
spaventata dai “metalli pesanti” in generale e li rifiuta nel loro insieme
senza distinguere fra elementi essenziali e non essenziali. Non c’è alcun bisogno di invocare misure precauzionali per trattare con questa
classe di rischio, mentre sembrano degli strumenti più appropriati
quelli volti ad aumentare la confidenza della popolazione con queste
problematiche attraverso la costituzione di istituzioni indipendenti
per l’informazione e di controllo internazionale e mediante il miglioramento del livello di certezza della stima. Tutti gli scienziati impegnati
Il PdP e le problematiche ambientali relative al suolo
145
in attività di ricerca attinenti il suolo svolgono un ruolo fondamentale
in ciascuna delle misure menzionate sopra.
Un caso a parte è quello che riguarda il cadmio. In effetti, l’applicazione del Principio di Precauzione è invocato con maggiore enfasi
quando si tratta di elementi non essenziali come nel caso del cadmio.
Anche se il cadmio come elemento non essenziale è più tossico del rame e del cromo, il rischio associato all’uso del compost con diversi livelli di cadmio potrebbe essere valutato con un’analisi rischio-beneficio in quanto è caratterizzato da un basso impatto di danno potenziale, da un basso valore per il criterio che riguarda l’ubiquità delle conseguenze del rischio e potrebbe, pertanto, essere oggetto di una semplice routine di gestione del rischio. Ciononostante, anche se il Principio di Precauzione fosse applicato, sarebbe regolato dall’osservazione
dei cinque principi riportati sopra e messi a punto per evitare qualunque tentativo di un suo uso arbitrario. In particolare, il principio di
coerenza è di specifico interesse in questo caso. Recentemente è stato
pubblicato il Regolamento della Commissione (EC) N. 466/2001
dell’8 marzo 2001 che definisce il contenuto massimo di certi contaminanti negli alimenti. Il contenuto massimo di cadmio (Cd) consentito nella frutta e negli ortaggi (codice di prodotto 3.2.11) è di 0,05 mg
per kg di peso fresco. Tenendo presente che il contenuto di sostanza
secca di una bacca di pomodoro, come esempio di ortaggio, è pari a
circa il 5%, ne consegue che il massimo contenuto di Cd consentito è
pari a 1 mg per kg di sostanza secca. Questo valore è più alto del 50%
rispetto al contenuto massimo di Cd consentito nel compost/digestato
di classe 1 (tabella 2). Il paradosso è di consentire, negli alimenti, un
livello di contaminanti che è maggiore di quello permesso per i compost da utilizzare come ammendanti su suoli agricoli. Logicamente, se la
bacca di pomodoro venisse compostata il suo contenuto di Cd sarebbe sottoposto ad un processo di concentrazione che porterebbe il livello di questo metallo pesante, nel compost finale, ad un valore compreso fra 2,5-3,0 mg per kg di sostanza secca. Poiché il principio di
coerenza stabilisce che ogni misura debba essere coerente con misure
già prese in simili circostanze e/o adottando approcci simili, la definizione dei limiti in Cd per i compost così come viene riportato nell’Allegato III della seconda bozza del documento di lavoro Trattamento
biologico dei rifiuti biodegradabili (2001) dovrebbe essere respinto in
146
I costi della non-scienza
quanto arbitrario. In effetti, sarebbe veramente irrazionale se un ortaggio idoneo per l’alimentazione umana non potesse essere utilizzato
come matrice organica per la produzione di compost.
Conclusioni
Il Principio di Precauzione è previsto da molti trattati e Convenzioni delle Nazioni Unite, ma la sua applicazione è respinta dalla comunità scientifica che lo identifica come uno strumento atto a prendere
delle decisioni arbitrarie. La forte richiesta di una metodologia per
l’applicazione del Principio di Precauzione ha portato la Commissione
Europea a stabilire delle linee guida, per una sua applicazione, basate
su dei principi coerenti. Anche se molto deve essere ancora fatto per
ridurre l’uso improprio e/o l’interpretazione errata del Principio di
Precauzione, nel documento della Commissione viene enfatizzato il
ruolo degli scienziati nella valutazione e gestione del rischio. Per
quanto riguarda le problematiche ambientali legate al comparto suolo,
i ricercatori svolgono un ruolo fondamentale nel valutare se e quando
il Principio di Precauzione possa essere invocato e, nel caso in cui ciò si
verificasse, per ridurre il livello di arbitrarietà determinato da una sua
applicazione.
Bibliografia
Anderson R A (1987) Chromium. In Trace elements in human and animal
nutrition. W Mertz (Ed.) (5th Ed.) pp.225-244. Academic Press, Inc. San
Diego-CA.
Anderson R. A. (1988) Chromium. In Trace minerals in foods. Ed. K. Smith
pp. 237-247. Marcel Dekker Inc., New York, U.S.A.
ARPA Piemonte (2001). Relazione sullo Stato dell’Ambiente.
Canali S. Tittarelli F. and Sequi P. (Editors) (1997). Chromium environmental issues. Franco Angeli, Milano, Italy, 295 pp.
Commission of the European Communities (2000) Communication from the
Commission on the precautionary principle. Brussels, 02.02.2000 COM
(2000) 1.
EU (1992) Treaty on European Union (the Maastricht Treaty), 17 february
1992, Office for Official Publications of the European Communities,
Luxenbourg.
Il PdP e le problematiche ambientali relative al suolo
147
Evans G.W. and Pouchink D.J. (1993) Composition and biological activity of
chromium-pipidine-carbonilate complexes. J. Inorg. Biochem. 49, 117187.
Foster K.R., Vecchia P., Repacholi M.H. (2000) Science and the precautionary principle. Science 288: 979-981.
IPCS (1996) Environmental Health Criteria for Copper. Draft Report
(IPCS/-EHC 96.28.
Landner L. & Lindestrom L. (1999) Copper in society and in the environment. An account of the facts on fluxes, amounts and the effects of copper in Sweden. 2nd revised edition, Landner L. and Lindestrom L., Swedish Environmental Research Group (MFG).
Meldolesi A. (2001). Organismi geneticamente modificati: storia di un dibattito truccato. Giulio Einaudi Ed., Torino.
Nicolini L. & D’Agnolo G. (2001). Il dibattito sulle piante modificate geneticamente: legislazione e valutazione di rischio. Analysis, (3), 26-39.
Page T G, Souther L L, Ward T L e Thompson D L (1993) Effect of chromium picolinate on growth and serum and carcass traits of growing-finishing pigs J Anim Sci 71, 656-662.
Renn O. and Klinke A. (1999) Risk evaluation and Risk Management for Institutional and Regulatory Policy. Final Report (ESTO project Technological Risk and the Management of Uncertainty), pp 1-37.
Rip A. (1999) Contributions from social studies of science and constructive
technology assessment. Scoping paper (ESTO project Technological Risk
and the Management of Uncertainty, pp 1-36.
Rogers M.D. (2001) Scientific and technological uncertainty, the precautionary principle, scenarios and risk management. Journal of Risk Research
4 (1), pp 1-15.
Schwarz K e Mertz W (1959) Chromium (III) and the glucose tolerance factor. Arch.Biochem Biophys 85, 292-295.
Sequi P. (1990). Il ruolo dell’agricoltura nel ciclo degli elementi nutritivi. Alma mater studiorum, III (2), 155-190.
Stirling A. (1999) On science and precaution in the management of technological risk. An ESTO Project Report prepared for European Commission
– JRC Institute Prospective Technological Studies, Seville, edited by European Commission Joint Research Centre EUR 19056 EN.
UNCED (1992) Principle 15, final declaration of the UN conference on Environment and Development. Rio de Janeiro.
148
I costi della non-scienza
Tabella 1 – Principali processi di degradazione del suolo e possibili
conseguenze estreme
N.
1
2
Processo*
Erosione
Alterazione da scorrimento
superficiale delle acque
condizioni favorevoli per le alluvioni
3
Desertificazione
4
5
Salinizzazione
Sodicizzazione
6
Perdita di sostanza organica
7
Degradazione struttura da
frammentazione degli
aggregati o dispersione delle
argille in essi contenute
Compattamento della superficie
da calpestio animale
Formazione di croste
superficiali o profonde (“pan”)
8
9
10
11
Accumulo di sostanze tossiche
(ivi inclusi i metalli pesanti)
Acidificazione
12
Sommersione
13
Danno grave o catastrofico
Frane, alluvioni
Grave erosione superficiale,
indisponibilità di acque per la vegetazione,
Inabitabilità da temperature troppo alte
o basse (ghiacci)
Inabitabilità da deserti salati
Dispersione colloidi e collasso strutturale
(cfr. 7)
Perdita di buone proprietà fisiche
(ritenzione idrica, lavorabilità, collasso
strutturale – cfr. 7)
Collasso strutturale
Formazione di strati superficiali
improduttivi (cfr. 9)
Formazione di strati improduttivi da
migrazione argille, indurimento carbonati,
lavorazioni, ecc.
Sterilità e possibile pericolosità per
vegetazione e catene alimentari
Accumuli di sostanze acidificanti da parte
di coperture vegetali che si autodistruggono
(foreste di conifere che si trasformano in
torbiere)
Torbificazione con emissione di metano e
solfuri
Perdita del patrimonio di elementi nutritivi
e di altre sostanze in genere
Perdita della dotazione azotata
Perdite di elementi nutritivi e di
altre sostanze per lisciviazione
14 Perdite di elementi nutritivi e di
altre sostanze per volatilizzazione
15 Perdite di elementi nutritivi per Perdita del patrimonio di elementi nutritivi
mancata restituzione
essenziali per la vegetazione, con innesto del
processo miniere-mare
* da OCSE, modificato.
Il PdP e le problematiche ambientali relative al suolo
149
Tabella 2 – Tassonomia schematica delle classi di rischio (da Stirling,
1999, modificata)
Nome
Probabilità
Gravità
del danno
Altro
Esempi
CICLOPI
Certa: meno
certo dove,
incerto il
quando
Alta
Effetto
potenzialmente
ritardato –
persistente
Terremoti,
alluvioni,
eruzioni
vulcaniche
CASSANDRA Non sempre
certa
Alta
Effetto
ritardato
Cambiamenti
climatici di
origine antropica
DAMOCLE
Molto bassa
Alta
PROMETEO
Relativamente
bassa
Potenzialmente Irrinunciabilità Novità
anche alta
scientifiche e
tecnologiche
PIZIA
Incerta
Incerta
PANDORA
Non sempre
certa
Incerta
Alta
persistenza
Inquinanti
organici
persistenti
(POPs)
MEDUSA
Bassa
Bassa
Alta
mobilitazione
Campi
elettromagnetici
Impianti chimici,
dighe
BSE, OGM
150
I costi della non-scienza
Tabella 3 – Comportamenti antropici anomali nella società di oggi
che possano rendere catastrofica la situazione per il comparto
suolo
Processo*
Causa
1 (2) Alluvioni e frane
In montagna: cattivo uso del suolo per sfruttamento
irrazionale della vocazionalità o per mancanza di
operatori sul territorio.
In pianura: consumo di suolo, con concentrazione e
impatto delle acque su superfici sempre minori.
A livello di bacino: captazione delle acque sempre più a
monte, con diminuzione dei tempi di corrivazione
4-5 (3) Desertificazione
Salinità delle acque e presenza incontrollata di sodio e
altri elementi potenzialmente fitotossici (es. boro)
5-6 (7) Collassi strutturali e
Degradazione della sostanza organica presente nel suolo
aumento delle concentrazioni e mancata considerazione degli indirizzi colturali
di CO2 nell’aria atmosferica
appropriati
15 Inquinamento delle acque
Cicli nutritivi spezzati per mancata restituzione al suolo
(es. costrizione al reintegro con i fertilizzanti dei fosfati
asportati dal suolo, che seguono perciò un cammino
anomalo dalle miniere ai mari via piante-animali)
* I numeri si riferiscono a quelli individuati nella tab. 1.
Il PdP e le problematiche ambientali relative al suolo
151
Tabella 4 – Classi di rischio di eventi relativi al suolo e pericolosi, o
ritenuti tali.
I numeri fra parentesi si riferiscono ai processi elencati in tabella 1
Eventi che interessano
direttamente il suolo
Comportamenti antropici
che colpiscono il suolo
CICLOPI
Frane (1.2)
Collassi strutturali
(5,6,7,8,9)
Cattivo uso del suolo (1,2)
Consumo di suolo (1,2)
Diminuzione tempi di
corrivazione (1,2)
CASSANDRA
Desertificazione
Degradazione sostanza
organica (6)
Cattiva qualità acque
(Na C1, ecc.)
DAMOCLE
Acidificazione e
sommersione (11, 12)
Perdita del patrimonio di
elementi nutritivi (15)
Cicli spezzati (15)
Biodiversità microbica (6,10 ...)
PROMETEO
Uso di piante
geneticamente modificate
PIZIA
Accumulo metalli pesanti
da fertilizzazione (10)
PANDORA
Deterioram. qualità atmosfera (N2O,CH4) (14)
deterioram. qualità acque (13)
MEDUSA
Perdita di potabilità delle
acque (13)
Deterioram. qualità atmosfera
(NH3) (14)
EVENTI CHE DAL SUOLO POSSONO COLPIRE ALTRI ECOSISTEMI
152
I costi della non-scienza
Tabella 5: Massima concentrazione di metalli nel compost/residuo
solido della digestione anaerobica di classe 1 (proposta a livello
di Commissione Europea) e nei biosolidi secondo la
Environmental Protection Agency degli Stati Uniti d’America*.
Parametro
Compost/residuo
anaerobico di classe 1*
U.S. EPA
Cd (mg kg-1 s.s.)
0,7
85
Cr (mg kg-1 s.s.)
100**
nessun limite***
Cu (mg kg-1 s.s.)
100
4300
Hg (mg kg-1 s.s.)
0,5
57
Ni (mg
kg-1
s.s.)
50
420
Pb (mg
kg-1
s.s.)
100
840
Zn (mg
kg-1
s.s.)
200
7200
* Si tratta in ambedue i casi di materiali che possono essere utilizzati secondo
criteri di buona pratica agricola senza ulteriori restrizioni
** Anche per il Cr(III)
*** Neppure per il Cr(VI)
153
IL PRINCIPIO DI PRECAUZIONE PER I CAMPI
ELETTROMAGNETICI:
GIUSTIFICAZIONE ED EFFICACIA
Paolo Vecchia
Istituto Superiore di Sanità, Roma
Presidente ICNIRP
P
er pochi agenti, sostanze o tecnologie il Principio di Precauzione viene invocato tanto frequentemente e con tanta insistenza
quanto per i campi elettromagnetici. Ma l’adozione di questo
principio è realmente giustificata? E le misure che in nome del principio vengono proposte (o quelle che, in particolare in Italia, sono già
state adottate) sono realmente efficaci?
Alla prima domanda sono in molti, nella comunità scientifica, ad
aver risposto in modo negativo. Particolarmente significativa ed esplicita è la posizione dell’Organizzazione Mondiale della Sanità (OMS),
secondo la quale «una politica cautelativa per i campi elettromagnetici
dovrebbe essere adottata solo con grande attenzione e consapevolezza. I requisiti per tale politica […] non sembrano soddisfatti né nel caso dei campi elettromagnetici a frequenza industriale, né in quello dei
campi a radiofrequenza» [1].
Per comprendere le motivazioni di questo giudizio, occorre riflettere su quando, e come, il Principio di Precauzione debba essere applicato. A questo scopo, sono particolarmente utili due documenti emanati dalla Commissione Europea (CE) [2-3], ai quali l’OMS fa esplicito riferimento.
Un primo criterio, che la Commissione considera come una vera e
propria condizione pregiudiziale, stabilisce che affinché il Principio di
Precauzione venga invocato, prima ancora che applicato, un rischio
potenzialmente grave sia stato identificato e scientificamente valutato.
Nei casi in cui questa condizione sia verificata, e si decida quindi di
adottare delle misure precauzionali, gli ulteriori criteri stabiliscono
che le misure stesse siano proporzionate ai rischi che si intende prevenire, coerenti con altre misure già adottate in casi analoghi, non discri-
154
I costi della non-scienza
minatorie nella loro applicazione, basate su un’analisi di costi e benefici, e a carattere temporaneo.
I campi magnetici a bassa frequenza, che sono generati dalle linee
elettriche ad alta tensione ma anche dai normali circuiti domestici e da
qualunque dispositivo a funzionamento elettrico, sono stati recentemente classificati dall’Agenzia Internazionale per la Ricerca sul Cancro (IARC) come «forse cancerogeni per l’uomo» (gruppo 2B della
classificazione IARC) [4] sulla base di alcune osservazioni epidemiologiche di aumenti dell’incidenza di leucemia. La presenza di altri studi con risultati opposti, le indicazioni pressoché unanimemente negative di effetti cancerogeni negli animali da esperimento, la mancanza
di dati a supporto da parte degli studi biologici in vivo e l’impossibilità fino ad oggi di individuare un plausibile meccanismo di interazione giustifica il fatto che i campi magnetici non siano stati classificati
come certamente cancerogeni (gruppo 1) o come probabilmente cancerogeni (gruppo 2A). Comunque, per questo tipo di campi un rischio sanitario, indubbiamene grave nella sua natura, è stato chiaramente identificato.
Per quanto riguarda invece i campi elettromagnetici ad alta frequenza (o a radiofrequenza, nella terminologia tecnica), come quelli
propri dei sistemi di telecomunicazione, un altro documento dell’OMS sottolinea che «una rassegna della letteratura ha concluso che
non esiste nessuna chiara evidenza che l’esposizione a campi a radiofrequenza abbrevi la durata della vita umana, né che induca o favorisca il cancro» [5].
Riassumendo, il Principio di Precauzione può quindi essere invocato
per i campi magnetici a frequenza industriale, ma non per i campi
elettromagnetici ad alta frequenza. Ma quali misure potrebbero essere
adottate nel primo caso?
Una normativa proposta qualche anno fa in Italia prevedeva un limite cautelativo di esposizione ai campi magnetici pari a 0,5 µT (microtesla), nonché interventi sugli elettrodotti esistenti per ricondurre
le esposizioni all’interno di abitazioni, scuole, ospedali ed altri siti
“sensibili” al di sotto di tale valore. Secondo stime sull’entità della popolazione esposta effettuate dall’Istituto Superiore di Sanità [6], tali
misure avrebbero comportato per il paese, nell’ipotesi che i campi magnetici siano effettivamente cancerogeni, la prevenzione di un nuovo
Il PdP per i campi elettromagnetici …
155
caso incidente di leucemia infantile ogni due anni e di un caso di morte ogni cinque anni circa. A queste azioni corrispondevano costi, stimati all’epoca in lire, di oltre 40.000 miliardi [7]. Considerata la vita
media degli impianti, ciò equivale ad un costo dell’ordine di 2-3 miliardi di euro per vita umana ipoteticamente salvata, un valore da molti
giudicato inaccettabile per la società, o quanto meno sproporzionato a
quanto si è disposti a spendere per altri rischi meglio accertati e più
gravi. Tra i sostenitori di questa tesi figurava il ministro della Sanità
che si oppose all’approvazione della norma a cui si è sopra accennato.
Il ricorso al Principio di Precauzione, almeno così come definito e
raccomandato dalla Commissione Europea, è dunque ingiustificato.
Ciò nonostante, in Italia esso è ancora continuamente invocato ed in
suo nome sono state adottate tutta una serie di misure, che vanno
dall’emanazione di norme di protezione particolarmente restrittive a
prescrizioni per l’allontanamento di antenne e linee elettriche dalle
abitazioni, se non al loro smantellamento. Tutte queste misure hanno
dei costi, sia in termini strettamente economici, sia di sviluppo tecnologico e di qualità del servizio, che dovrebbero essere largamente
compensati dal beneficio sanitario. Ma questo beneficio esiste davvero? Siamo cioè certi che le misure cautelative comportino, a prescindere da ogni altra considerazione, un beneficio per la salute? Una serie di esempi sembra dimostrare il contrario.
In vari casi è stato proposto, o imposto, lo spostamento di un tratto di elettrodotto per allontanarlo da qualche abitazione o altro luogo
“sensibile” dove si riteneva che i livelli di esposizione fossero inaccettabili. Per valutare razionalmente l’efficacia di tale operazione occorre
tenere presente che gli eventuali effetti a lungo termine di campi magnetici sono di natura stocastica e che in assenza di qualunque indicazione sui sottostanti meccanismi di azione è corretto (e prudenziale)
assumere che l’entità degli effetti sia legata a quella dell’esposizione,
riducendosi a zero soltanto quando l’esposizione si riduce a zero. L’allontanamento di una linea elettrica da alcuni edifici provoca inevitabilmente l’avvicinamento ad altri dal lato opposto. In un paese densamente popolato come l’Italia questo effetto dovrebbe essere significativo e non si può escludere che il numero di abitazioni che verrebbero
avvicinate alla linea sia molto maggiore di quelle che se ne allontanano. Non è quindi scontato a priori che, in termini di esposizione col-
156
I costi della non-scienza
lettiva, la soluzione finale sia migliore di quella di partenza, anche nel
caso in cui le distanze in gioco fossero molto diverse.
Ancora più eclatante è il caso delle stazioni radio base per telefonia
cellulare. In nome del Principio di Precauzione, molte amministrazioni
hanno imposto l’allontanamento delle antenne dai centri abitati. Questa soluzione in genere aumenta l’intensità media del campo elettromagnetico, che nell’abitato deve comunque mantenersi a un livello sufficiente per il servizio, mentre è molto più alta in prossimità dell’antenna
che deve necessariamente emettere una potenza maggiore.
Ma l’effetto più vistoso è quello che si manifesta sui telefonini. Questi sono dotati di un dispositivo, detto controllo adattativo della potenza, che consente di ridurre la potenza emessa dall’antenna al minimo
necessario per una buona comunicazione con la stazione radio base. Il
potenziale di riduzione è molto elevato: il livello di potenza più basso
previsto dallo standard GSM è infatti circa 1000 volte inferiore al valore massimo. Un funzionamento del telefono a bassa potenza avrebbe
dei vantaggi per l’autonomia della batteria (è questa la ragione principale per cui il dispositivo è stato realizzato), ma anche per l’esposizione
dell’utente perché a ogni riduzione della potenza emessa corrisponde
una riduzione proporzionale dell’energia elettromagnetica assorbita
nella testa. Per comprendere appieno quest’ultimo vantaggio occorre
tenere presente che l’esposizione dovuta ai telefonini è di ordini di
grandezza (tipicamente 100-1000 volte) maggiore di quella dovuta a
una stazione radio base, anche nelle situazioni più sfavorevoli.
Naturalmente, perché si abbia una buona comunicazione – e quindi un’apprezzabile riduzione della potenza – occorre che la stazione
radio base sia vicina all’utente, il più possibile libera da ostacoli e disponibile per il servizio (in caso contrario, il collegamento viene stabilito con un’altra antenna, che può essere anche molto più lontana e
schermata da edifici e altre bariere). Misure come l’allontanamento
delle antenne, o la riduzione del loro numero, adottate al fine di diminuire precauzionalmente di una piccola frazione percentuale i livelli di
“inquinamento” ambientale, non solo non raggiungono questo obiettivo, ma aumentano drasticamente quelle esposizioni che, già in partenza, sono le più elevate. È significativo che, a fronte di un potenziale
di riduzione quale quello già citato, in Italia i telefoni cellulari funzionino, in media, a potenze superiori al 50% della massima [8].
Il PdP per i campi elettromagnetici …
157
Un aspetto peculiare delle politiche cautelative è la speciale attenzione per i siti “sensibili”, primi tra tutti scuole e ospedali, motivata
più dalle reazioni emotive dei cittadini che da una reale consapevolezza dei problemi e da adeguate valutazioni tecnico-scientifiche. Il problema non è soltanto italiano, anche se nel nostro paese si presenta in
modo assai più evidente che altrove. Un rapporto parlamentare francese cita «ciò che è avvenuto a Marsiglia: una scuola, che aveva ottenuto lo smantellamento di un’antenna installata sul tetto del suo edificio, ha constatato che il livello di radiazioni nel cortile era aumentato
in seguito a questa esposizione. In effetti, le reti di telefonia mobile aggiustano la potenza emessa dalle stazioni radio base in modo da assicurare una buona copertura del territorio. Eliminando l’emittente situata sulla scuola, si era provocato l’aumento delle antenne vicine. Ciò
nonostante, residenti ed associazioni continuano a reclamare l’allontanamento o lo smantellamento delle stazioni radio base» [9].
In realtà, scuole, asili nido e altri luoghi deputati all’infanzia costituiscono nel nostro paese un tabù, e la proibizione di installare antenne nelle loro vicinanze costituisce un dogma. Lo stesso vale per ospedali e case di cura, dove abbondano proibizioni e restrizioni per tutto
ciò che riguarda, ad esempio, la telefonia mobile. Non è raro incontrare segnali di divieto dell’uso del telefono cellulare in ambienti come
corsie, sale di aspetto, sale gessi o locali di fisioterapia, quando il divieto non sia addirittura esteso all’intero complesso ospedaliero. Per
quanto riguarda le stazioni radio base, la loro installazione all’interno
di una struttura sanitaria o nelle sue immediate vicinanze è probabilmente inconcepibile per il cittadino comune e di fatto vietata da molte
amministrazioni.
L’uso dei telefoni cellulari in ospedale presenta invece notevoli
vantaggi, sia per i pazienti in termini di conforto psicologico, sia per i
medici in termini di reperibilità e di rapido scambio di informazioni.
È significativo che dagli stessi medici giungano, anche attraverso riviste autorevoli, appelli per agevolarlo [10]. Per contro, i problemi che i
telefoni pongono sono limitati, ben compresi e, come tali, del tutto
prevenibili con azioni adeguate.
I segnali emessi da un telefono cellulare possono interferire con apparati elettromedicali, introducendo segnali spuri in strumenti diagnostici come elettrocardiografi ed elettroencefalografi, o causando mal-
158
I costi della non-scienza
funzionamenti di vario genere. Per prevenire questi effetti e garantire
la cosiddetta compatibilità elettromagnetica esistono però delle norme
tecniche, che stabiliscono dei livelli minimi di campo elettrico o magnetico ai quali i dispositivi elettromedicali devono essere immuni. Alle frequenze proprie della telefonia cellulare questo livello, in termini
di campo elettrico, è di 3 V/m (volt al metro), un valore che il campo
prodotto da un telefonino che funzioni al massimo della potenza può
superare entro un raggio di circa 3 metri [11]. Sarebbe quindi sufficiente raccomandare questa distanza di sicurezza per prevenire qualunque inconveniente; per maggior sicurezza, e per semplicità di applicazione, si potrebbe comunque proibire l’uso dei telefoni cellulari
in ambienti ben precisi come sale operatorie, di rianimazione e di terapia intensiva, o vicino ad apparecchiature particolari. Raccomandazioni in questo senso vengono sia dagli esperti tecnici [12], sia dalla
comunità protezionistica [13]. Le stesse fonti fanno anche notare che,
come già discusso in queste note, la potenza emessa dal telefono, e
conseguentemente la probabilità e la gravità delle interferenze, è tanto
più bassa quanto più la stazione radio base è vicina; pertanto non solo
non si proibisce, ma addirittura si raccomanda l’installazione di antenne all’interno degli ospedali, una prassi effettivamente diffusa in molti
paesi diversi dal nostro.
Le misure pratiche adottate a titolo precauzionale possono quindi,
in molte circostanze, aggravare oggettivamente la situazione, aumentando i livelli di esposizione e conseguentemente i rischi, sia quelli
ipotetici di effetti diretti sulla salute, sia quelli reali di effetti indiretti
connessi a malfunzionamenti degli apparati medicali. Ma le implicazioni di una politica ispirata al Principio di Precauzione vanno molto al
di là dell’efficacia delle misure di riduzione del presunto inquinamento ed interessano la salute umana sotto altri profili.
A questo proposito, è opportuno chiedersi se la domanda di politiche cautelative sia motivata da rischi che sono stati effettivamente indicati dalla ricerca scientifica o, piuttosto, dalla percezione che degli
stessi rischi i cittadini maturano per effetto delle informazioni che ricevono. La già citata OMS raccomanda infatti di adottare misure diverse nei due casi: nei confronti di effetti sulla salute che siano stati
accertati e scientificamente valutati è opportuno agire con norme
coercitive (come l’imposizione di limiti di esposizione), mentre per
Il PdP per i campi elettromagnetici …
159
fronteggiare le preoccupazioni del pubblico si può considerare, accanto ad una corretta informazione, anche l’opportunità di misure di precauzione su base volontaria. Siccome gli obiettivi sono diversi, anche
l’efficacia delle misure adottate deve essere valutata in modo diverso:
nel primo caso si deve considerare quanto esse possano ridurre i casi
sanitari documentati, nel secondo quanto possano ridurre le preoccupazioni dei cittadini e le tensioni sociali.
Si possono esaminare in quest’ottica le recenti normative italiane
che prevedono, come è noto, sia limiti di esposizione inferiori a quelli
accettati internazionalmente (chiamati valori di attenzione), sia la minimizzazione delle esposizioni mediante il perseguimento di obiettivi
di qualità. Appaiono significative in proposito le considerazioni di un
comitato internazionale di esperti, incaricato dal governo italiano di
esprimere un giudizio sulle nostre normative nazionali [14].
Per quanto riguarda i valori di attenzione il comitato rileva che «la
scelta di limiti di esposizione impossibili da giustificare, sia scientificamente, sia logicamente, ha già creato una certa sfiducia nella scienza, e
nelle autorità». In questa critica concorda con l’OMS, la quale fa notare che «un requisito di principio è che [le politiche cautelative] siano adottate solo a condizione che valutazioni di rischio e limiti di
esposizione fondati su basi scientifiche non siano minati dall’adozione
di approcci cautelativi arbitrari. Ciò si verificherebbe, ad esempio, se i
valori limite venissero abbassati fino a livelli tali da non avere alcuna
relazione con i rischi accertati, o se fossero modificati in modo improprio ed arbitrario per tener conto delle incertezze scientifiche».
La “minimizzazione” corrisponde invece al criterio di ridurre le
esposizioni causate da una determinata tecnologia al livello minimo
compatibile con la qualità del servizio. Questo livello minimo corrisponde, nella legge quadro italiana per la protezione dai campi elettromagnetici, all’obiettivo di qualità. Prescindendo dalle difficoltà e dalle
possibili arbitrarietà nella valutazione della bontà del servizio, anche
questo criterio non può essere sostenuto senza solide conoscenze e giustificazioni. Il comitato internazionale nota in proposito che «in assenza di un criterio costo-beneficio e di una spiegazione delle considerazioni di ordine sociale e politico, minimizzare l’esposizione non ha senso, poiché se ulteriori riduzioni sono (quasi) sempre possibili, esse
però, verosimilmente, avranno effetti nulli o discutibili per la salute».
160
I costi della non-scienza
Anche la qualità del servizio ha comunque una sua importanza non
solo dal punto di vista pratico – come è ovvio – ma anche da quello
sanitario. Negli Stati Uniti si stima che se il telefono cellulare venisse
usato solo per il 10% delle chiamate di emergenza e il suo uso riducesse solo del 10% i tempi di intervento, si salverebbero nel paese circa 100 vite umane all’anno [15]. Una rete telefonica in cui le antenne
fossero ridotte al minimo o posizionate in modo non ottimale, eventualmente per motivi precauzionali, causerebbe inevitabilmente mancati collegamenti e cadute di linea. Non sono disponibili dati su questi
disservizi in Italia (anche per comprensibili ragioni commerciali), ma
non è irragionevole ipotizzare un numero significativo di mancati o ritardati interventi di emergenza. Alcuni casi, particolarmente drammatici, sono stati peraltro riportati anche dai mezzi di informazione.
Tornando alle valutazioni del comitato internazionale, quest’ultimo
ritiene che “l’adozione di limiti di esposizione ai campi elettromagnetici restrittivi ed arbitrari da parte di singoli paesi tende ad accrescere
la preoccupazione del pubblico, piuttosto che a ridurre le perplessità
e le controversie”. Questa osservazione è fondamentale, e può essere
estesa dalle norme di legge alle azioni cautelative in genere: qualunque
misura adottata in nome del Principio di Precauzione, anche se a costo
zero o minimo, viene facilmente interpretata dal pubblico come la
prova dell’effettiva esistenza di un rischio. Una prova spesso più convincente di qualunque dato scientifico.
Esemplare in questo senso è l’esperienza della Francia. Un rapporto dell’Agenzia Francese per la Sicurezza Sanitaria Ambientale [16]
discute ampiamente, in relazione alla presenza di stazioni radio base,
il caso dei siti “sensibili”, come scuole, ospedali e asili nido. Per questi, un precedente documento aveva raccomandato che, nel caso di distanze dall’antenna inferiori a 100 metri, il fascio di irradiazione non
investisse direttamente gli edifici. Una raccomandazione molto più
blanda delle prescrizioni italiane, ma che aveva comunque «come
principale obiettivo di cercare di attenuare alcune apprensioni del
pubblico, che tuttora permangono senza giustificazione sanitaria». A
distanza di soli due anni, l’AFSSE, mentre ribadisce che «non sembravano esistere giustificazioni sanitarie per questa specificità dei siti sensibili, essendo la sensibilità legata alla percezione del rischio e non a
un rischio sanitario identificato» constata che «la raccomandazione
Il PdP per i campi elettromagnetici …
161
del rapporto del 2001, che mirava a rassicurare, ha sortito l’effetto opposto. Il gruppo di esperti non sostiene quindi più la necessità di questa nozione di sito sensibile in relazione alle stazioni radio base. Questa conclusione si applica in modo particolare alle scuole, per le quali
la percezione del rischio è stata la più acuta».
Le politiche precauzionali possono quindi facilmente far aumentare la percezione dei rischi, che a sua volta dà luogo ad una richiesta di
maggior precauzione innescando così un circolo vizioso. In ogni caso,
le preoccupazioni e le tensioni sociali che vengono a crearsi o ad esasperarsi costituiscono un danno oggettivo per la salute, intesa nel suo
significato più ampio. La salute viene infatti definita dall’OMS come
«uno stato di completo benessere fisico, mentale e sociale e non semplicemente l’assenza di malattie o infermità» [17]. Qualunque politica
sanitaria, comprese quelle ispirate alla precauzione, deve prestare
uguale attenzione a tutte e tre queste componenti.
In conclusione, il Principio di Precauzione sembra valere più come
una linea di indirizzo che come uno strumento operativo. Di fronte
agli sviluppi tecnologici e agli interrogativi che questi pongono è
senz’altro opportuno agire, per i campi elettromagnetici come per
qualunque altro agente, all’interno di un quadro di cautela, in cui tutti
gli elementi scientifici e sociali siano tenuti in conto. La precauzione è
però giustificata e doverosa nei limiti in cui contribuisce ad un’effettiva riduzione dei rischi e ad un’effettiva tutela della salute. L’esperienza
dimostra che presunte misure precauzionali adottate senza adeguate
basi scientifiche e competenze tecniche accrescono invece le preoccupazioni dei cittadini e possono talvolta addirittura aumentare, anziché
diminuire, le esposizioni.
Riferimenti
[1] OMS (2000). Campi elettromagnetici e salute pubblica – Politiche cautelative. Promemoria Marzo 2000.
www.who.int/docstore/peh-emf
/publications/facts_press/ifact/cautionary-FS-italian.htm
[2] European Commission – DG XXIV (1998). Guidelines on the application of the precautionary principle. HB/hb d (98). 17/10/1998.
[3] Commissione Europea (2000) Comunicazione della Commissione sul
Principio di Precauzione COM(2000) 1 02/02/2000
www.europa.eu.int/comm/dgs/health_consumer/library/pub/pub07_it.pdf
162
I costi della non-scienza
[4] I criteri di classificazione dell’Agenzia Internazionale per la Ricerca sul
Cancro, così come l’elenco completo degli agenti classificati, sono disponibili sul sito della IARC: www.iarc.fr
[5] OMS (1998). Campi elettromagnetici e salute pubblica. Effetti sanitari
dei campi a radiofrequenza. Promemoria n. 183
www.who.int/docstore/peh-emf/publications/facts_press//ifact/
it_183.html
[6] Petrini C., Polichetti A., Vecchia P., Lagorio S. (2001). Assessment of
exposure to 50 Hz magnetic fields from power lines in Italy. In: Proceedings of the 5th International Congress of the European Bioelectromagnetics Association (EBEA). Helsinki, 6-8 September 2001, pp. 139-141.
[7] Curcuruto S., Elia L., Franchi A., Andreuccetti D., Vecchia P., Martuzzi M., D’Amore M. (2001). Valutazione tecnico-economica degli interventi di risanamento ambientale delle linee elettriche del sistema nazionale. Rapporto 3/2001. ANPA, Roma
[8] Ardoino L., Barbieri E., Vecchia P. (In press). Determinants of exposure to electromagnetic fields from mobile phones. Radiation Protection
Dosimetry.
[9] Lorrain J.J., Raoul D. (2002). Rapport sur l’incidence éventuelle de la
téléphonie mobile sur la santé. Assemblée National N. 346; Sénat N. 52.
www.senat.fr/rap/r02-052/r02-052.html
[10] Myerson S.G., Mitchell A.R.J. (2003). Mobile phones in hospitals. Are
not as hazardous as believed and should be allowed at least in non-clinical areas. British Medical Journal 326:460-461 (Editorial).
[11] Sykes S. (Ed.) (1996). Electromagnetic compatibility for medical devices.
Association for the Advancement of Medical Instrumentation (AAMI).
Arlington, VA.
[12] Morrisey J.J., Swicord M., Balzano Q. (2002). Characterization of electromagnetic interference of medical devices in the hospital due to cell
phones. Health Physics 82:45-51.
[13] Hietanen M., Sibakov V., Hällfors S., von Nandelstadh P. (2000). Safe
use of mobile phones in hospitals. Health Physics 79 (Supplement
2):S77-S84.
[14] ANPA (2002). Dichiarazione del Comitato internazionale di valutazione
per l’indagine sui rischi sanitari dell’esposizione ai campi elettrici, magnetici ed elettromagnetici (CEM). Agenzia Nazionale per la Protezione
dell’Ambiente, Roma.
[15] Dati comunicati nel corso della “Conference on mobile communications:
Health, environment and society” organizzata da Commissione Europea,
GSM Europe e MMF. Bruxelles, 20-21 gennaio 2004.
Il PdP per i campi elettromagnetici …
163
[16] AFSSE (2003). Téléphonie mobile et santé. Rapport à l’Agence Française
de Securité Sanitaire Environmentale. 21/03/2003.
www.afsse.fr/documents/AFSSE_TM_experts.pdf
[17] Dallo Statuto dell’Organizzazione Mondiale della Sanità. www.who.int
165
IL PARADOSSO DEI RIFIUTI
Luciano Caglioti
Università di Roma La Sapienza
D
evo confessare di avere sempre avuto un atteggiamento ottimista nei confronti del nostro paese, che ritengo sia uno dei
paesi più vivaci in assoluto e che certamente ha un pregio
preciso: una persona si sveglia la mattina e sa che prima di sera avrà
imparato qualcosa di particolare, di strano, ma, in genere, intelligente.
Un giorno, ero rientrato in casa alle 20:30 e non mi era ancora
successo nulla di interessante sotto il profilo sopra accennato. Ma, accendendo il televisore, al telegiornale vidi quello che ritengo il massimo. Il massimo era costituito da una notizia, illustrata da un filmato,
in cui si vedeva un treno che partendo dalla Campania andava in Germania carico di rifiuti. E fin qui non si era ancora raggiunto il massimo. Che invece si raggiunse nel commento del cronista, che diceva:
«scortato dalle forze dell’ordine». Allora, l’idea che un treno carico di
rifiuti urbani parta dalla Campania per andare in Germania scortato
dalla polizia, a guisa di film di 007 con l’oro di Fort Knox, raggiunge
quasi il massimo tra le cose da imparare che l’Italia quotidianamente
ci propina. Riavutomi dall’ammirato stupore mi sono detto: qui c’è
qualche cosa di fantastico e qui c’è quello che si chiama il “paradosso
dei rifiuti” cioè un sistema così ingarbugliato, così pazzesco, che merita qualche considerazione.
Io credo che alla base del fenomeno dei rifiuti – che è un fenomeno di accettazione sociale, di pressioni e di malavita – ci sia una pecca del sistema-Italia. Lessi una volta sul giornale una frase di Nenni
che mi sono ritagliato e che considero bellissima (cito a memoria):
«se io dovessi dire, dopo tanti anni di militanza socialista, quello che
più rimpiango, è l’aver negletto e trascurato delle cose che si potevano fare – di modeste dimensioni ma utili – nell’attesa di qualcosa di
166
I costi della non-scienza
bellissimo, formidabile, ma impossibile». È questo il massimalismo.
In Italia o si fa qualcosa di perfetto o non si fa nulla: la centrale è
perfetta o non si costruisce, l’inceneritore o è perfetto o non si installa e questo è un qualcosa che fa da trampolino per tutto quello
che è l’ambientalismo.
Io ho lavorato per un certo periodo come collaboratore dell’ENEL,
dove cercavamo di salvare il salvabile dalle numerose accuse che quest’ente riceveva per quanto riguardava i progetti di nuove centrali.
Qual era il punto? Si era scatenato il massimalismo che consisteva in
questo: siccome non si riesce a costruire una centrale nuova e perfetta
si lasciano in funzione delle centrali che, essendo state costruite 30 anni prima, inevitabilmente non possono fruire di tanti accorgimenti tecnologici di cautela. Qualcosa d’analogo avviene per i farmaci. Le normative sulla registrazione dei farmaci consentono di approvare solo
medicamenti “perfetti”. Il che significa che se una ditta mette a punto
un analgesico migliore di quelli in commercio ma non perfetto, non
riesce a smerciarlo e così si rinuncia a priori ad un progresso parziale
nel nome, nell’attesa, nell’ansia, di chissà mai cosa. Questa mentalità,
credo, è veramente alla base di un combinato disposto di ignoranza,
debolezza del governo (quale esso sia) e di malavita, e quindi un miscuglio dirompente.
È chiaro che l’esempio del treno – e, soprattutto, della scorta – lasciano pensare che c’è qualcosa che non va. E ricordo di aver letto
sul Corriere della Sera – era il 1995 o il 1996 – che una procura aveva
incriminato, per associazione a delinquere di stampo mafioso, un
gruppo di persone che avevano incitato gli ecologisti a bloccare un
inceneritore. Evidentemente in certi casi c’è una serie di interessi per
cui arrivare ad un controllo sereno e serio è certamente una impresa
improba.
Dove andava questo treno? Andava in Germania perché lì ci sono
degli inceneritori efficienti, mentre in Italia questi inceneritori ci sono
fino ad un certo punto ed alcune volte non ci sono proprio.
Vediamo le dimensioni del problema. Grazie alla documentazione
fornitami cortesemente dal Prof. Liuzzo, risultano: 30 milioni di rifiuti
urbani prodotti in un anno, 450 chili a persona, 2.300 kcal di potere
combustibile, quindi una metà o un quarto rispetto all’olio combustibile. Qualcosa che si potrebbe certamente utilizzare purché si accetti
Il paradosso dei rifiuti
167
l’incenerimento. In Europa, il 25% dei rifiuti viene bruciato ed utilizzato per la produzione di energia elettrica e di calore, con un ciclo
combinato da sfruttare come riscaldamento domestico. In Italia, solo
l’8% viene bruciato (soprattutto nelle regioni del Nord), il 72% va in
discarica, il 10% va a formare del combustibile da rifiuti, che qualche
volta viene utilizzato e qualche altra no.
Produrre energia elettrica attraverso un incenerimento significa anche avere un guadagno ambientale, in quanto gli inceneritori sono più
controllati delle centrali e quella frazione di energia elettrica che si
produce bruciando rifiuti, la si produce con degli accorgimenti ambientali migliori di quelli (peraltro già ottimi), delle normali centrali
elettriche. Per cui bruciando i rifiuti si ha addirittura un vantaggio.
Qui scatta l’altro fenomeno della serie “occhio non vede cuore non
duole”, perché quando si trascura completamente il problema e si affida la gestione dei rifiuti ad un sistema in rilevante parte clandestino,
è evidente che i gestori non prenderanno tutti gli accorgimenti, però
l’importante è che qualcuno se ne occupi.
Vediamo se siamo noi che siamo più bravi degli altri in quanto riusciamo a mandarli via, sia pure a pagamento, in Germania o sono gli
altri che sono dei suicidi ad accettarli. Zurigo, Vienna, Londra, Parigi
e Francoforte hanno, in piena città, degli inceneritori da 1.000 a 1.500
tonnellate al giorno di capacità, mentre New York ha una centrale nucleare a circa 20 km dalla città. Cosa significa questo? Vuol dire che la
gente si rende conto che se vuoi fare un appartamento devi costruire
un gabinetto e uno scarico e quindi c’è una parte che potrebbe essere
fastidiosa ma della quale ci si deve occupare.
Questa mattina qualcuno ha detto: mai prendere in assoluto un
problema ma cercare di inquadrarlo nel relativo, cioè nel contesto di
cose simili tra le quali questo problema si verifica. Bene, prendiamo
gli inceneritori che hanno un impatto ambientale minimo: rispetto
all’inquinamento, stare un mese sotto un inceneritore corrisponde a
stare un quarto d’ora in Via del Tritone a Roma. Per coloro che amano la campagna, un taglia-erba a due tempi equivale a 156 automobili;
i 4 inceneritori della Regione Lazio sono equivalenti – rispetto all’ossido di carbonio – a 9 ciclomotori; rispetto ai composti organici volatili
e incombusti equivalgono a 3 motorini. Nel 1977, un anno dopo Seveso, nell’inceneritore di Amsterdam qualcuno ebbe la ventura di trova-
168
I costi della non-scienza
re della diossina, e allora ci fu un inasprimento per la diossina, che divenne di colpo il punto di massima osservazione e di massimo timore.
Ricordo che col prof. Righi, andammo in un deposito di alternatori
dell’ENEL chiuso e inarrivabile, ove il problema era se l’olio contenesse o meno più di 10-14 (numeri pazzeschi) di furani o diossine, e se
si doveva considerare “rifiuto pericoloso” solo l’olio o tutto l’impianto, compreso l’alternatore. Nel qual caso la quantità di “rifiuto pericoloso” ovviamente cresceva: soldi persi, dedicati a problemi insignificanti, rispetto a quello dei rifiuti veri in giro in piena estate.
Tre inceneritori sono pari ad un’automobile come emissione, l’inceneritore emette l’1,3% rispetto alla dieta quotidiana di ognuno di
noi. Come stare un minuto davanti ad un barbecue o fumare una sigaretta. Eppure, si è arrivati ad una sofisticazione di misure di sicurezza
oltre che alta anche sproporzionata. In particolare, se si pensa che di
automobili e di taglia-erba in giro ce ne sono tanti, risulta chiaro che si
può pure pretendere la cosa migliore possibile in materia di inceneritori e in materia di diossina, ma rimane ancora tutto il resto del quale
ti devi occupare.
Per i rifiuti radioattivi, ci sono decine di depositi che non sono
concepiti come tali, ma sono dei luoghi in cui qualcuno mette rifiuti
radioattivi che il paese produce (quelli della diagnostica medica o
quelli provenienti dalle centrali dismesse). Sinceramente, l’idea di
confinare rifiuti, siano essi radioattivi, o particolarmente tossici e nocivi, in miniere di sale o zolfo, in cui, quindi, non c’è acqua, e c’è una
cuffia assorbente intorno (come quelle di carbone), sembrerebbe ragionevolissima, andrebbe percorsa e invece sembra non sia all’ordine
del giorno.
Viviamo un periodo di sostanziale deindustrializzazione perché la
maggior parte delle industrie stanno andando via, il nostro sistema
produttivo è a bassa-media tecnologia; da un altro telegiornale abbiamo potuto apprendere queste due cose: che era possibile che la
Krupp cedesse ai coreani la produzione dell’acciaio, e c’era la notizia
che i coreani avevano fatto per scopi di approvvigionamento di materiale utile potenzialmente per terapia, una clonazione umana a pochissimi stadi di sviluppo. Allora la convinzione che noi venissimo erosi
dai coreani e cinesi solo per la parte a bassa tecnologia non è esatta: in
realtà, c’è chi verticalizza anche fra i paesi emergenti, che fanno clona-
Il paradosso dei rifiuti
169
zioni per scopi terapeutici. Il che implica il possesso di una cultura di
fondo, che ci deve far riflettere giacché da noi manca.
Quello dei rifiuti è l’esempio di uno spreco di denaro, di un’incapacità di azione senza uguali, e anche di peggio per quanto riguarda le
scorte necessarie al trasporto. In Italia, purtroppo, sta prendendo la
mano questa deindustrializzazione, questo fatto che gli acquirenti stranieri delle nostre imprese spesso ridimensionano i centri di ricerca, in
un momento in cui i paesi emergenti si mettono a fare medicina e probabilmente riusciranno prima di noi. Tutto questo, purtroppo, dà ragione a chi si pone il problema dell’avvenire: noi, infatti, mandiamo i
carri armati a distruggere i campi di mais per paura del transgenico,
noi proibiamo le cellule staminali, noi stiamo chiudendo totalmente
settori che sono invece pieni di prospettive e di possibilità per la creazione di ricchezza.
170
I costi della non-scienza
171
PROSPETTIVE DELL’ECONOMIA A IDROGENO
Cesare Marchetti
IIASA, Laxenburg, Austria
V
erso la metà degli anni Sessanta, meditando sul futuro
dell’energia, venni alla conclusione che per liberarsi dalla
stretta dei combustibili fossili bisognava agganciare il sistema
energetico al nucleare per il 100%. All’epoca si pensava alla produzione dell’elettricità come tetto per l’utilizzo del nucleare, ma poiché
questa assorbirà al limite il 50% delle risorse primarie, basta un raddoppio dei consumi per tornare al punto di partenza. Il consumo di
energia è raddoppiato ogni trenta anni negli ultimi duecento anni e,
con due terzi dell’umanità in rincorsa per il benessere, continuerà a
raddoppiare ancora per un po’. Si parlò, all’epoca, di fare un sistema
tutto elettrico, ma a parte che molte tecnologie sarebbero ancora da
inventare, la sostanziale non accumulabilità dell’energia elettrica costringerebbe a dimensionare tutto il sistema sulla domanda di picco.
Appare dunque molto opportuno un vettore energetico chimico per i
consumi non elettrici. La facile scelta cadde sull’idrogeno, che nasce
dall’acqua e torna all’acqua, non inquina e si trasporta facilmente come il gas metano. L’idrogeno d’altronde, è una vecchia conoscenza
energetica: il gas di città che illuminava e riscaldava le grandi città europee fino alla seconda guerra mondiale era anche idrogeno. Incidentalmente, anche il primo motore a scoppio di Matteucci-Barsanti andava ad idrogeno.
Feci una ricerca bibliografica per vedere come si stava a tecnologie
d’uso e trovai con sorpresa che ogni genere di uso finale era all’epoca
studiato da qualcuno. C’erano perfino le lampade fluorescenti, in cui
il fosforo veniva direttamente eccitato dalla ossidazione dell’idrogeno
catalizzata dal fosforo stesso. Negli anni Cinquanta un aereo militare
americano aveva volato usando idrogeno, cosa che del resto facevano
172
I costi della non-scienza
gli Zeppelin per utilizzare l’idrogeno di ballast che altrimenti sarebbe
andato perduto. Ma la cosa più affascinante che uscì dalla ricerca era
la possibilità di produrre alimenti per gli astronauti usando idrogeno
come materia prima. C’è qui la possibilità di liberare l’uomo dall’agricoltura, con tutte le conseguenze sociali e politiche che questo comporta. La cosa era da attendersi visto che in ultima analisi la clorofilla
usa l’energia solare per decomporre l’acqua in idrogeno ed ossigeno e
l’idrogeno per poi ridurre la CO2 a carboidrati.
Uno dei problemi non sufficientemente sviscerati e su cui lavorai
negli anni Settanta fu quello del perché l’uomo negli ultimi due secoli
è passato dal legno al carbone e poi al petrolio per soddisfare i propri
bisogni energetici. La banale risposta che si trova sui libri è che le foreste erano state super-sfruttate e dunque esaurite. La cosa può esser
vera localmente, ma ancora oggi le foreste nel mondo hanno, diciamo,
100 TW sotto forma di biomassa. L’umanità consuma circa 10 TW,
non si vede dunque il problema delle risorse. Si può dire che le foreste
sono sparse per il mondo, ma lo stesso vale per i campi petroliferi. Un
ragionamento analogo si può fare per il carbone.
Il punto chiave secondo me è che lo sfruttamento delle foreste non
ha molte economie di scala: tagliare due alberi costa il doppio che tagliare un albero.
Neppure l’argomento della facilità di uso ha molto peso. È vero
che mandare un’auto a legna impiccerebbe, ma le grandi città come
Parigi nel secolo scorso facevano un grande uso di metanolo, distillato
dal legno, ed ottimo combustibile per le auto. D’altra parte, nessuno
usa petrolio greggio per accendere i motori, ma ci vuole l’elaborazione
di complesse raffinerie.
Dopo un’attenta analisi delle transizioni, sono giunto alla conclusione che il parametro chiave che porta alla sostituzione sono le economie di scala. La forza propulsiva viene dall’espansione del mercato,
cioè il consumo totale, ed anche dalla densità spaziale del consumo.
Questo processo di trascinamento si vede più chiaramente all’interno
di una data tecnologia. Consideriamo, ad esempio, il sistema elettrico.
Qui una centrale “vede” attraverso le sue linee di distribuzione un
certo mercato definito dai costi di trasporto e dalla densità spaziale
dell’uso di energia elettrica. La potenza del generatore è aggiustata di
conseguenza. Se la densità spaziale del consumo cresce, il mercato “vi-
Prospettive dell’economia a idrogeno
173
sto” dalla centrale cresce anche più rapidamente perché le linee possono usare tensioni più alte e portare l’energia più lontano. Le splendide statistiche del mercato americano permettono di seguire il processo più o meno fin dal tempo di Edison e mostrano, a fianco di un
raddoppio dei consumi ogni sette anni, un raddoppio delle potenze
unitarie dei generatori ogni sei anni. In soli 100 anni questi generatori
sono passati dai 10 kWe del Jumbo Dinamo di Edison al gigawatt dei
generatori di oggi. Un incredibile salto di un fattore 100.000.
Senza effetti così teatrali la capacità degli aerei misurata in passeggeri-km/ora è aumentata di 100 volte in 50 anni in stretta concomitanza con l’aumento del traffico, cosìcché il numero degli aerei commerciali è rimasto costante fino a pochi anni fa (regola interrotta dalla
mancanza di un aereo da 1.000 posti, ora in costruzione).
La sostanza di tutte queste osservazioni è che se vogliamo sfruttare
una tecnologia destinata al successo dobbiamo far sì che le economie
di scala facciano parte della sua evoluzione. Dal punto di vista della
distribuzione, l’idrogeno, come vettore energetico, pone già solide basi. In effetti, esso possiede un’alta trasportabilità come gas. Con l’aiuto
della SNAM facemmo un po’ di conti ad ISPRA trovando che il trasporto in grandi pipelines costava più o meno come quello del metano. Una centrale di produzione potrebbe così “vedere” un continente.
Se si pensa all’H2 trasportato da cryotankers simili alle metaniere, il
mondo diventa il mercato.
Dal punto di vista della produzione siamo ancora all’anno zero. I
reattori ci sono, però con taglie adattate al mercato elettrico e dunque
nell’ordine del GW. Il mercato mondiale dell’energia appoggiato ai
cryotankers ci porta sull’ordine del terawatt, cioè tre ordini di grandezza di più. Inoltre, anche il processo di decomposizione dell’acqua
deve avere la possibilità della grande taglia e di economie di scala conseguenti. Per quanto riguarda i reattori, negli anni Sessanta, quando i
costi erano ancora trasparenti, trovai che per reattori di caratteristiche
simili il costo cresceva con la radice quadrata delle dimensioni, una relazione – questa – paragonabile a quella per gli impianti chimici.
La logica strategica ci porta dunque verso grandissimi reattori nucleari associati ad impianti chimici per la produzione dell’idrogeno. Il
nucleare ha sofferto di una cattiva informazione negli ultimi anni ma,
come dimostrai in un paper di 15 anni fa, Nuclear Energy and Society,
174
I costi della non-scienza
la caduta nel ritmo di costruzione delle centrali è legata ai cicli economici di Kondratiev e la loro costruzione rispetta perfettamente il modello. Anche le acciaierie e le fabbriche di automobili, d’altronde,
hanno seguito una stasi parallela. Previdi anche che la costruzione di
centrali sarebbe ripartita con il ciclo successivo, cioè ora.
È molto curioso osservare come in parallelo si stiano ammorbidendo le posizioni degli antinuclearisti. È di questi giorni la dichiarazione
di James Lovelock, padre del concetto di Gaia ed ovviamente molto
ecologista: «Nuclear Power is the only green solution. We have no time to experiment with visionary energy sources: civilization is in imminent danger» 1.
Incidentalmente, gli USA pur senza costruire nuove centrali hanno
aumentato la produzione di quelle esistenti di un buon 30% migliorando la loro disponibilità e ne hanno prolungato la vita di vari decenni.
Sulle scelte strategiche per l’idrogeno come vettore dell’energia
nucleare
Una volta identificato il vettore, nel mio laboratorio di Ispra, cominciammo a pensare come produrlo, a partire dall’acqua e dal calore
nucleare. La soluzione banale fu di farlo per elettrolisi ma la scartammo con vari argomenti: primo, l’elettrolisi è un processo in serie, il che
aumenta i costi e diminuisce i rendimenti; secondo, esso non ha economie di scala, venendo così contro ad uno dei criteri strategici.
Bisogna infatti sempre tener presente la dimensione del sistema
energetico: 10 TW o 10 miliardi di tonnellate di carbone equivalente
all’anno sono tanti, l’industria energetica è la più grande del mondo
da qualsiasi parte la si guardi, e chi si gingilla con il solare od il vento
non ha afferrato la dimensione del problema, presente e futuro. Ci
concentrammo così sui metodi chimici i cui impianti hanno di solito
forti economie di scala.
Cominciammo a sviluppare, di conseguenza, una serie di processi, i
Mark-X, che possono essere visti come scatole nere in cui da un lato
1 L’energia nucleare è la sola soluzione verde. Non abbiamo tempo per fare
esperimenti con immaginifiche sorgenti di energia: la civiltà sta correndo un imminente pericolo (24 maggio 2004).
Prospettive dell’economia a idrogeno
175
entrano acqua e calore ad alta temperatura, e dall’altro escono idrogeno, ossigeno, e calore a bassa temperatura. Tutta la chimica interna è a
ciclo chiuso. Inventare un buon Mark è difficile perché ci sono tante
condizioni al contorno. I composti chimici devono essere a buon mercato, compatibili con materiali più o meno esistenti; i prodotti devono
essere facilmente separabili, etc. etc. Mettemmo in opera anche il
computer che sulla base delle proprietà termodinamiche dei composti
inventava dei cicli, ma fu un disastro per una ragione inaspettata: la
maggior parte delle reazioni chimiche proposte, sia pur banali, non
erano mai state studiate. La chimica inorganica, contrariamente a
quello che si pensa, è tutta da scoprire. Pensammo astutamente di
chiedere a dei professori universitari di far studiare queste reazioni come esercizi per gli studenti. La risposta unanime fu che loro non facevano “perder tempo” agli studenti per studiare reazioni “esotiche”.
Così tutti i Mark X – ne abbiamo elencati una ventina, ma quelli possibili sono un numero infinito e questo dà speranza di trovarne uno
supremo – sono usciti dalle fertili menti dei chimici.
L’idea di base è che le temperature che un reattore nucleare può
fornire sono insufficienti per fare un cracking diretto dell’acqua. I fusionisti ed i solari ci hanno fatto un pensierino, ma il problema è difficile, anche perché poi bisogna separare i prodotti in temperatura affinché non si ricombinino. Si può però rimediare facendo l’operazione
in due tappe: in una si separa, ad esempio, l’idrogeno attaccando l’ossigeno ad una molecola che fornisce una certa energia libera; nella seconda si separa l’ossigeno. Ciascuna operazione si può fare con i cambi di energie libere accessibili con le temperature del reattore. Si devono però mandare le sostanze avanti ed indietro, per cui questi processi
hanno tipicamente quattro reazioni. Termodinamicamente, però, si
potrebbe far tutto in un solo colpo appoggiandosi ad una molecola
che abbia una variazione di energia libera, nel campo delle temperature disponibili, equivalente a quella della decomposizione dell’acqua.
La decomposizione dell’acido solforico non va molto lontano da questo obbiettivo, e per questo vari processi si appoggiano alla decomposizione termica dell’acido solforico con chiusure di varia ingegnosità.
Con vari anni di lavoro li portammo fino a livello di table top e parziale dimostrazione, ma la burocrazia di Bruxelles intervenne dichiarando il tutto eccessivamente futuristico per i bisogni della Comunità
176
I costi della non-scienza
Europea, e nel 1976 chiuse i fondi per le ricerche. Si da il caso, però,
che nel 1973 avevo fatto una tournée in Giappone vendendo l’idea. In
contemporanea, pubblicai sulla rivista CEER, giapponese, una visione
globale e dettagliata sul funzionamento di una società tecnologica basata sull’idrogeno come vettore energetico in una memoria dal titolo
Hydrogen and Energy. Il concetto di economia dell’idrogeno è già tutto lì. Un particolare che prelude alla dimensione del sistema è la
Energy Island impiantata all’interno di un atollo nel Pacifico e capace
di produrre, in termini energetici, l’equivalente di un Medio Oriente:
un Terawatt. La dimensione è definita dal mercato che il sistema di distribuzione “vede” e il cryotanker, come detto, vede il mondo. La feci
anche operare in un renewable energy mode, più che altro per prendere in giro quelli che fanno del solare un feticcio perché dicono che
non si esaurisce. Osservando che l’acqua di raffreddamento, pompata
ad una certa profondità per ragioni termiche, trasporta un ordine di
grandezza in più di uranio rispetto a quello fissionato nei reattori, proposi di estrarne una parte e mandare avanti i reattori con quello. Essendo pompata sotto la termoclina e buttata alla temperatura della superficie del mare (tanto per non lasciare firme termiche), quest’acqua
non torna indietro. Tenuto conto delle dinamiche oceaniche si può
andare avanti tranquillamente a estrarre per 10.000 anni. Nell’isola c’è
anche incluso un sink ad auto-affondamento termico: i prodotti di fissione producono calore ed in opportuna configurazione fondono il
terreno, e, essendo più densi, affondano. Il processo può durare per
anni e le profondità finali possono essere di 10-20 km, abbastanza per
sentirsi sicuri ed in più il sistema fa tutto da sé. Per verificare le equazioni, facemmo ad Ispra una serie di esperimenti in vivo usando dei
giganteschi blocchi di salgemma portati su dalla Sicilia. Anche questo
fu bloccato dalla commissione dei saggi con l’argomento che il problema del waste disposal era risolto e la nostra ricerca era ridondante.
Però l’avevamo gia conclusa.
L’Energy Island entusiasmò i giapponesi, che intravidero l’indipendenza energetica oltre alla possibilità di esportare auto con la dote di
combustibile per farle funzionare. Sia pure con sforzo limitato, hanno
poi sempre continuato a lavorare sui vari problemi ed ora hanno due
processi di water splitting buoni (con rendimenti di almeno il 50%, e
che possono naturalmente aumentare con lo sviluppo tecnologico, co-
Prospettive dell’economia a idrogeno
177
me succede di solito), tre processi di estrazione di uranio dall’acqua di
mare, ed un reattore ad alta temperatura appena finito di costruire.
Argonne ha prodotto, ancora sulla carta, un breeder che funziona a
1.000 °C in bagno di piombo, è auto-regolante, non richiede refueling
e si sostituisce dopo 25 anni. Le tecnologie convergono anche senza
un coordinamento formale.
Una volta prodotto, l’idrogeno va portato al consumatore finale.
Marciando a ritroso, la distribuzione agli utenti con tubi non presenta
problemi. A parte le vecchie città che erano cablate con il gas di città,
ci sono oggi nel mondo migliaia di km di pipeline che portano idrogeno a pressioni varie per usi industriali. Nello studio che facemmo ad
Ispra con l’aiuto della SNAM, venne fuori che il trasporto a distanza
costa più o meno come quello del metano. Per il trasporto marino la
scelta inevitabile è l’idrogeno liquido. Costa farlo, ma feci sparire il
costo aggiuntivo nelle economie di scala che il mercato globale permette. Nel frattempo, c’è molto da fare nelle tecnologie di liquefazione. Per la tecnica, le metaniere servono da modello. Nella memoria
sopra citata, schematizzai delle idrogeniere da un milione di tonnellate. Da uno studio precedente avevo visto, infatti, che la stazza delle
petroliere dipende dalle tonnellate-km di petrolio trasportato, e il rapporto è in effetti una frazione fissa: essendo, in questo schema, tutta
l’energia trasportata per mare, le ton-km sono molte.
Quanto ci vuole a rendere il tutto operativo? In uno studio che ho
fatto sull’interazione tra la società e le nuove tecnologie, come il treno
o l’auto, si vede che per digerire l’idea ci vogliono trenta anni. Questi
sono appena finiti e si osserva in effetti tutto un pullulare di iniziative
per far qualcosa. I congressi per anno sono una cinquantina e ci sono
anche i rallies per auto ad idrogeno. Queste iniziative imbarcheranno
la tecnologia nel tessuto sociale e per questo ci vogliono altri trenta
anni. In questo periodo l’idrogeno sostituirà gli altri combustibili in
ordine sparso, come del resto è successo per carbone, petrolio e gas
naturale che sono penetrati con simili costanti di tempo. Sia ben chiaro: viste le dimensioni del mercato, qualche percento di penetrazione
mette in gioco mercati ricchissimi. C’è naturalmente il problema di
dove cominciare. In un congresso a Mosca, una decina di anni fa, feci
una proposta che appare ancora ragionevole ed ha degli importanti risvolti strategici. La Russia esporta oggi, cifra tonda, duecento miliardi
178
I costi della non-scienza
di metri cubi di metano in Europa con poche grandi pipelines. La proposta era di fare il reforming di frazioni crescenti di questo metano
usando calore nucleare e mettendo la CO2 in giacimenti petroliferi
lungo la strada per stimolare la produzione terziaria, mescolando poi
l’idrogeno prodotto al metano trasportato.
La cosa è tecnicamente fattibile perché è stata studiata per almeno
vent’anni nel centro nucleare di Julich dal professor Schulten con il
suo reattore a grafite. Schulten pensava di trasportare il calore nucleare disfacendo e rifacendo il metano, ma la cosa non ha avuto successo
industriale. I processi però restano e danno una base tecnica a quanto
propongo. Lo scopo del congresso e la mia motivazione formale era
quella di dare un po’ di contesto economico al processo di disposal
della CO2 di cui miriadi di persone parlavano senza che poi si fosse
fatto molto. C’erano dietro però altri due obbiettivi strategici.
Innanzitutto, la dimensione dei reattori per fare energia elettrica è
oggi di qualche GW perché questo richiede il mercato elettrico. Visti i
flussi di metano in gioco questo reforming può accettare e magari richiedere reattori anche dieci volte più grandi. Si sarebbe così creato
un “vivaio” per i reattori grandissimi che la produzione di idrogeno e
l’isola energetica prediligono.
Secondo, l’idrogeno si può mescolare al metano senza creare problemi agli utenti finali, diciamo fino al 20%. Questa miscela verrebbe
automaticmente distribuita in tutta Europa e potrebbe aiutare a risolvere il problema di dove reperire l’idrogeno per tutte le iniziative, specie nel campo dei trasporti, che stanno oggi pullulando. Poiché è facile tirar fuori l’idrogeno dal metano, ci sarebbe così idrogeno per alimentare le auto e le varie altre sperimentazioni, con una infrastruttura
continentale già operativa.
I trasporti consumano forse il 30% dell’energia primaria, e sono
un mercato interessante anche perché assai inquinante. In effetti tutti i
produttori d’auto sgambettano per arrivare con un modello plausibile.
Ce ne sono in giro una cinquantina. Anche la Fiat si dà da fare con
una Seicento adattata all’uso dell’idrogeno con un pack di fuel cells da
50 kW. Essendo l’idrogeno un gas, il problema è come portarselo dietro. Ci sono molte soluzioni, nessuna del tutto soddisfacente. La Fiat
usa quella più conservativa, le bombole di gas di cui oggi esistono modelli sofisticati, sviluppati appunto per l’idrogeno. Poiché l’idrogeno
Prospettive dell’economia a idrogeno
179
nella tavola di Mendeleev è un metallo alcalino, ci si può aspettare che
faccia delle leghe: le fa, e molte si decompongono a temperatura ambiente con pressioni di qualche atmosfera. Sono nati così una miriade
di serbatoi ad idruri metallici, funzionali anche se un po’ pesanti. Per
l’aereo l’unica soluzione è l’idrogeno liquido per cui non resta che costruirci l’aereo intorno: Airbus dedica un sostanziale sforzo alla sua
progettazione. Anche costruttori di auto come BMW hanno optato
per l’idrogeno liquido e messo in piedi un sistema completo all’aeroporto di Monaco con auto e bus.
A questo punto nasce inevitabile la domanda: ma quanto costa? I
prezzi, a priori, sono sempre piuttosto utopici. La pratica permette
non solo di definirli, ma di diminuirli. La configurazione Isola Energetica contiene praticamente solo capitale, i costi discendono da interessi ed ammortamento. Più miti sono i costi dell’idrogeno da reforming
del metano secondo lo schema presentato a Mosca. Vendendo la CO2
a dei petrolieri disposti a usarla in loco per il recupero terziario, i costi
del reforming verrebbero riassorbiti. Ad ogni buon conto, il fisco tedesco si è già svegliato (buon segno), fissando una tassa per l’idrogeno
da usare nei veicoli di circa 1,5 centesimi di Euro per kWh, fino al
2020. Questo è un punto fermo ed il prezzo parte da lì.
Approfittando delle risorse della tecnologia non riporto bibliografia o note, si può scaricare tutto dal mio sito web http://www.cesaremarchetti.org/
180
I costi della non-scienza
181
SFOGLIANDO I LIBRI DI TESTO DI SCIENZE
PER LA SCUOLA
Giovanni Vittorio Pallottino
Università di Roma La Sapienza
S
fogliare con qualche attenzione i libri di testo di Scienze per le
scuole è un esercizio che può risultare deprimente, ma che tuttavia è utile per capire molte cose che ci riguardano assai da vi-
cino.
La prima osservazione è che questi manuali sono generalmente
noiosissimi: stile pedante, alla “Dicesi punto di rugiada …”, impiego
disattento di terminologie inutilmente astruse, ed altro ancora 1. Ciò
spiega le diffuse reazioni di rigetto dei ragazzi nei confronti di discipline che sono invece al tempo stesso affascinanti e di grande portata
pratica. Un rigetto che non si manifesta poi soltanto nel basso livello
della cultura scientifica della popolazione, ma arreca anche un contributo decisivo alla caduta dello status della scienza nella visione comune.
La seconda osservazione è che quei libri sono costellati di ingenuità,
di baggianate e di errori di fatto: vi si può addirittura trovare la proposta ai ragazzi, fatta in tutta serietà, di realizzare un moto perpetuo.
La terza osservazione è per noi la più delicata. Si trova infatti che le
questioni riguardanti l’energia e l’ambiente sono generalmente trattate
seguendo gli indirizzi del più vieto ecologismo. Qui si riscontrano distorsioni dei fatti, omissioni mirate e accettazione acritica di quanto è
ritenuto dagli autori “politicamente corretto”. Ciò contribuisce a spiegare, accanto all’opera dei mass media, la diffusione fra il pubblico di
idee stravaganti. Del resto, se è vero che in Italia si legge poco, è anche vero che i libri scolastici penetrano in tutte le famiglie. E se questo
1 G. Flaccavento e N. Romano, La materia e la natura – La Terra nell’Universo, Fabbri Editori, 1998, pag. 20.
182
I costi della non-scienza
è l’indottrinamento standard, propinato dalla scuola di stato, c’è poco
da lamentarsi poi per i suoi effetti.
Gli svarioni
Qualche anno fa, sfogliando il già citato libro di testo di scienze
per la scuola media – uno dei più diffusi – trovai una interessante proposta di esperimento nel paragrafo intitolato “L’acqua va… in salita”.
Si suggeriva di sollevare dell’acqua da un recipiente in basso a uno in
alto utilizzando una cordicella con un capo immerso nel primo recipiente e l’altro disposto al di sopra del secondo. L’Autore spiegava che
l’acqua «per capillarità, sale lungo la corda e, raggiunta l’altra estremità, cade goccia dopo goccia nel recipiente posto in alto». Come del
resto inequivocabilmente dimostrava una apposita chiarissima illustrazione. La proposta mi parve affascinante. Sia perché didatticamente
assai efficace, dato che l’esperimento, facilmente realizzabile dall’allievo, aderiva pienamente al moderno paradigma del learning by doing;
sia perché l’idea era densa di prospettive concettuali come dimostrazione pratica non soltanto del fenomeno della capillarità, ma soprattutto della fattibilità di un moto perpetuo. Sia, infine, come forte contributo al dibattito che avanza soluzioni semplici ed efficaci come alternative agli eccessi della big science: perché affrontare i problemi
energetici attraverso costose e impegnative ricerche sulla fusione nucleare o sulle tecnologie fotovoltaiche quando soluzioni economiche
ed ecologiche al tempo stesso sono a portata di mano?
Ma l’episodio è tutt’altro che isolato. In quello stesso manuale e in
altri consimili si può trovare una ricca messe di svarioni, a livello concettuale (come nel caso detto prima), a livello fattuale, e anche nei
suggerimenti per le attività sperimentali e operative che vengono proposte ai ragazzi. Si può leggere, per esempio, che «ormai quasi tutti i
tipi di aereo, militari o di linea, superano, ampiamente e in piena sicurezza, il muro del suono. Su ogni aereo è perciò installato uno strumento, il machmetro», e che, restando in argomento, il volo supersonico permette agli aerei militari “di arrivare sui bersagli prima che
possa giungervi il rumore dei loro motori, evitando così di essere avvistati”. Troviamo anche che «un watt equivale a circa 1000 calorie»
(non prima, però, di aver puntualizzato che «il watt, come la caloria, è
Sfogliando i libri di testo di scienze per la scuola
183
una unità di misura dell’energia»). Oppure che «il gas inerte usato
nelle lampadine ha la proprietà di rallentare la carbonizzazione del
tungsteno». Suggerendo poi ai ragazzi osservazioni del tipo: «Se osservi tutto ciò che emette luce, vedrai che si tratta di corpi caldissimi»,
con buona pace delle lampade a scarica, dei LED e anche delle lucciole. E dedicando spazi incongrui (ben due pagine) ad argomenti come
la cromoterapia, non mancando qui di stabilire puntualmente che il
viola «è il colore più carico di energia, attenua il senso di appetito, riduce il ristagno dei liquidi ed è utile in caso di caduta dei capelli», con
analoghe disquisizioni per tutti gli altri principali colori. Nulla ho trovato, invece, sulla cristalloterapia, ma a questa grave carenza si può facilmente rimediare collegandosi al sito ufficiale dell’Enel 2.
Un’attenzione particolare trova l’argomento del moto perpetuo,
dove a volte si propongono improbabili esperimenti, come quello
menzionato prima, altre volte ci si limita a informare che: «Con il nome di moto perpetuo si indicano dei meccanismi che, pure essendo
possibili in teoria, non possono mai essere realizzati nella pratica». Ma
anche gli atomi sono ben rappresentati: «L’atomo è costituito da un
nucleo, formato a sua volta da due tipi di particelle, i protoni e i neutroni, e da orbitali, spazi in cui è possibile trovare particelle di un altro
tipo, gli elettroni».
Sappiamo bene che delle scienze studiate a scuola nei crani dei ragazzi resta ben poco, certamente assai meno che delle materie umanistiche. Che si tratti, per quanto si è detto, di un caso fortunato? O vogliamo consolarci leggendo su Physics Today 3 che anche in Usa la situazione a questo riguardo è tutt’altro che rosea?
Il terrorismo
Più pericoloso degli svarioni, tuttavia, in quanto veramente insidioso, è il tono di fondamentalismo ambientalista e di opposizione al progresso tecnico-scientifico che emerge spesso nei contenuti dei manuali
scolastici. Che a volte sembrano veramente ispirati dal fantasma evo2
http://www.enel.it/astroluce/newage/cristalloterapia/cose.asp
J. Hubisz, «Middle-School Texts Don’t Make the Grade», Physics Today, 5,
50 (2003).
3
184
I costi della non-scienza
cato nel Manifesto dell’associazione Galileo 2001: quel «fantasma che
si aggira da tempo nel Paese, un fantasma che sparge allarmi ed evoca
catastrofi, terrorizza le persone, addita la scienza e la tecnologia astrattamente intese come nemiche dell’Uomo e della Natura e induce ad
atteggiamenti antiscientifici facendo leva su ingiustificate paure che
oscurano le vie della ragione». Questa azione è particolarmente subdola in quanto sfrutta il canale istituzionale della scuola e si rivolge a
una massa sterminata di ragazzi, naturalmente disposti a prendere per
buono tutto quello che trovano scritto sui loro libri di testo (e non ci è
chiaro se dovremmo sperare che li leggano o no). Alimentando così
quelle forme di repulsione verso la scienza, e la tecnologia in generale,
che sono oggi tanto diffuse nell’opinione corrente. Proprio nel momento, d’altra parte, in cui alla società si pongono scelte, sempre più
difficili, su questioni che richiedono assieme cultura scientifica ed
equilibrio.
Si deve osservare, inoltre, che questo tipo di materiale appare chiaramente derivato dalla lettura degli articoli dei giornali, sempre aperti
al catastrofismo, trascurando invece di avvalersi delle conoscenze messe assieme dalla comunità scientifica, rappresentate dalla letteratura
scientifica e soprattutto dalle elaborazioni e dalle conclusioni degli organismi, nazionali e internazionali, a cui è affidato il compito istituzionale di stabilire i criteri di sicurezza per la salute e la protezione
dell’ambiente. E del resto, proprio come avviene sui media, i rischi
meno “rischiosi” vengono assai più evidenziati dei rischi reali.
Fra i pericoli derivanti dalla tecnologia, quelli relativi al nucleare
sono maggiormente posti in luce, ricordando sempre ad abundantiam
il disastro di Chernobyl, ma dimenticando di spiegare di che centrale
si trattasse, di quali protezioni essa disponesse e cosa avvenne effettivamente nella tragica notte del 26 aprile 1986. E trascurando anche di
ricordare che il nostro paese, ormai da decenni, deve ricorrere all’importazione di grandi quantità di elettricità nucleare (che alimenta anche quei nostri comuni che sono denuclearizzati) e, se viene a mancare
il sistema elettrico nazionale, entra in crisi. Ai toni allarmistici si accompagnano poi innumerevoli stravaganti spiegazioni. Così possiamo
leggere che le esplosioni atomiche emettono «radiazioni gamma che
salgono nell’atmosfera e, trasportate dai venti, possono raggiungere
località molto lontane». Oppure, a proposito della radioattività artifi-
Sfogliando i libri di testo di scienze per la scuola
185
ciale, che «tutto ciò ha determinato un tale aumento della radioattività
che essa ha raggiunto ormai livelli pericolosi per l’ambiente e gli esseri
viventi». Sicché non resterebbe che emigrare su Marte.
Sugli argomenti relativi all’energia la disinformazione domina: su
un testo di qualche anno addietro si poteva leggere che in Italia «si sta
ora progettando la conversione delle centrali nucleari esistenti per poterle usare con altri combustibili». Come se ciò fosse possibile: ma
proprio questo si leggeva allora sui quotidiani e nelle dichiarazioni di
importanti uomini politici. Mentre su un altro manuale si prevedeva
che entro la fine del secolo (quello appena concluso) sarebbero potute
entrare in funzione le prime centrali nucleari a fusione.
Un altro argomento su cui si richiama l’attenzione dei ragazzi è
quello del cosiddetto “elettrosmog”. Con i soliti allarmismi nei confronti di elettrodotti e antenne radio, e a volte fornendo una serie di
suggerimenti “pratici” la cui applicazione condurrebbe a muoversi in
casa come se ci trovassimo in un campo minato («stare sempre ad almeno mezzo metro dall’impianto hi-fi», «meglio non sedersi entro un
raggio di 50 cm dal frigorifero», «il campo elettromagnetico del televisore arriva entro un raggio di 3 metri»). Ma c’è spazio anche per la
chimica, per esempio dove, drasticamente e senza appello si stabilisce
che «i prodotti chimici comunemente usati in agricoltura aggiungono
al suolo veleni in genere, che eliminano anche tutti i microrganismi e
gli insetti utili», prefigurando “primavere silenziose” seguite da altre
stagioni egualmente taciturne. I ragazzi di campagna, certo, rideranno nel leggere questa baggianata, ma quelli di città potrebbero anche
crederci.
Per concludere, una domanda puntuale: come mai non funzionano
i meccanismi istituzionali che dovrebbero condurre a produrre, e poi
a selezionare, trattazioni ragionevoli, senza troppi errori e senza eccessive distorsioni?
186
I costi della non-scienza
187
IL PRINCIPIO DI PRECAUZIONE
Ernesto Pedrocchi
Politecnico di Milano
I
l dibattito ora in corso sul Protocollo di Kyoto, mi stimola a fare
qualche riflessione generale sul Principio di Precauzione (PdP) e
sulla sua applicabilità al caso particolare dei cambiamenti del clima globale e al Protocollo di Kyoto.
La formulazione del PdP come risulta dall’art. 15 della dichiarazione di Rio del 1992 è la seguente: «Where there are threats of serious or
irreversible damage, lack of full scientific certainty shall not be used as
a reason for postponing cost-effective measures to prevent enviromental degradation» la traduzione italiana più fedele potrebbe essere questa. «Ove vi siano minacce di danno grave o irreversibile, l’assenza di
certezze scientifiche non deve servire come pretesto per posporre
l’adozione di misure, efficaci rispetto ai costi, volte a prevenire il degrado ambientale». L’interpretazione e la traduzione corretta del testo
crea problemi e non è improbabile che anche chi ha formulato il principio non avesse un’idea chiara di quanto veramente volesse esprimere.
F. Battaglia 1 scrive: «Solo a chi non ha un’educazione scientifica può
passare inosservata la vacuità del principio sovra esposto: la certezza
scientifica è sempre assente. Certamente non è passata inosservata alla
Commissione dell’UE che, però, anziché rifiutare il principio, ha tentato, un po’ arrampicandosi sugli specchi e aggiungendo problemi anziché risolverne, di giustificarlo e di stabilirne i limiti di applicabilità».
Il PdP è un concetto, essenziale al buon funzionamento della società, che può essere applicato ad ogni problema tecnico-scientifico
ed è strettissimo parente del “coefficiente di sicurezza” che costituisce
la base della formazione dell’ingegnere. Ma G. Bramoullé su Liberal
1
F. Battaglia, Le Scienze 394, 110 (2001).
188
I costi della non-scienza
(agosto 2001) scrive: «Uscito dal suo contesto iniziale – la società civile – per diventare il leit motiv della società politica, il principio di precauzione si trasforma da libero esercizio di saggezza a un pretesto mistificatorio per una regolazione liberticida. Nuovo alibi per i responsabili che non vogliono essere colpevolizzati, cavallo di Troia di
un’estensione indefinita delle prerogative dello Stato, il Principio di
Precauzione, nella sua accezione corrente, è il principio costitutivo di
una società basata su una prevenzione che mantiene stazionarie le
condizioni esistenti». Bisogna quindi riportare il PdP nel suo giusto
ambito evitando una generalizzazione acritica e distorta.
Il PdP trae origine culturale dall’opera di Hans Jonas e in particolare dal suo scritto Il principio di responsabilità. Jonas è un ecologista
che denuncia l’umanesimo e inneggia a una mistica naturalistica. Sempre G. Bramoullé afferma «In nome dell’irreversibilità delle azioni
umane e dei pericoli del progresso tecnico e scientifico, Jonas vuole
affidare a un’élite di uomini di stato, ritenuti capaci di assumersi eticamente la responsabilità per le generazioni future, la direzione del pianeta». Una linea culturale di questo tipo esaspera il Principio di Precauzione, promuove una forte ostilità ad ogni forma di rischio e di fatto risulta illiberale e tecnofoba.
Il PdP ha dato corpo a un’ondata di paure che ha portato con sé
un’accozzaglia di incertezze e di semplificazioni che soffocano l’innovazione e frenano lo sviluppo. L’ambientalismo integralista ha fatto
del PdP il suo punto di forza e ne ha estremizzato le conseguenze: basta una pubblicazione, fra mille contrarie, che ipotizzi un sospetto pur
remoto di danno ambientale o alla salute dell’uomo per osteggiare o
demonizzare una qualsiasi innovazione tecnica. Tutta l’umanità, pur
non accorgendosene, rischia di pagare caramente l’uso perverso del
PdP. Non si riesce a capire chi abbia un’autorità superiore a quella degli scienziati competenti per prendere decisioni così gravi. Può darsi
che la scienza non sia sufficiente per prendere queste decisioni, ma è
indubbio che è indispensabile. Quando una persona nella nostra società ha problemi di salute consulta i medici, magari diversi, ma a loro
si affida non ai politici o alle fattucchiere; non si riesce a capire perché
quando i problemi pur sempre scientifici riguardano l’intera società
l’autorità scientifica non debba essere il riferimento primario. La divulgazione scientifica, spesso sinonimo di grave disinformazione, ac-
Il Principio di Precauzione
189
centua sempre gli aspetti negativi ed emotivi: basti pensare che nei dibattiti televisivi si tende a dare eguale credito a scienziati di chiara fama e a sedicenti esperti ambientali senza nessuna preparazione scientifica. Il problema del deposito delle scorie radioattive in Italia è solo
l’esempio più recente: tutto il mondo scientifico concorda con la soluzione proposta e che non presenta alcun rischio. Anzi. Ma i politici
per esigenze di consenso sociale istigato dall’ambientalismo più ideologizzato hanno ceduto.
Nel caso particolare dei cambiamenti del clima globale il PdP raggiunge il massimo della sua equivocità. In questo caso non solo è molto
incerto che il danno derivi da azioni antropiche, ma anche le misure
proposte per contrastarlo sono difficilmente attuabili, alcune costose e
di certa inefficacia. È questa una situazione ben diversa da quella in cui
si voglia prevenire un danno ipotetico, ma con un intervento attuabile
e ragionevolmente efficace. Il Protocollo di Kyoto, che trova le sue radici nel PdP, non è stato sufficientemente meditato; ne è risultato un documento di difficile applicazione che gli stessi estensori hanno progressivamente modificato, derubricandolo da strumento “salva mondo” a
semplice esercizio, più psicologico che effettivo, di virtuosismo ambientale. Il furore ambientalista e la mancanza di una meditata riflessione hanno portato in tutto il mondo a una proliferazione di normative pseudoscientifiche, sempre farraginose, senza nessuna possibilità di
essere concretamente applicate e che daranno luogo a contenziosi di
difficile risoluzione tra stati e istituzioni pubbliche e private.
190
I costi della non-scienza
191
PRINCIPIO DI PRECAUZIONE E PSEUDOSCIENZE
Silvano Fuso
CICAP 1 – Genova
N
el Manifesto dell’associazione Galileo 2001 si legge il seguente brano: «La voce della scienza è certamente più affidabile e
anche umanamente – oltre che intellettualmente – più consapevole delle voci incontrollate e dogmatiche che, fuori di ogni rilevanza scientifica, pretendono di affermare “verità” basate sull’emotività
irrazionale tipica delle culture oscurantiste».
La pretesa di affermare verità basate sull’emotività irrazionale e
fuori da ogni rilevanza scientifica è caratteristica di quelle discipline
“alternative” che tanta popolarità stanno riscuotendo nella società.
Parallelamente al diffondersi di un atteggiamento antiscientifico si assiste, infatti, al proliferare di discipline pseudoscientifiche che ipotizzano livelli di realtà, sconosciuti alla scienza, in cui agirebbero poteri,
forze ed energie che, se non opportunamente controllate, potrebbero
risultare estremamente pericolose. Inutile dire che dal punto di vista
scientifico le affermazioni di queste discipline sono del tutto prive di
fondamento, non essendo mai emersa alcuna evidenza che renda minimamente plausibile l’esistenza delle realtà da esse ipotizzate. Ciò nonostante, i dati statistici mostrano che la diffusione delle credenze paranormali e pseudoscientifiche tra la popolazione raggiunge livelli
molto preoccupanti. La preoccupazione diventa ancora più forte
quando si osserva che istituzioni e soggetti che possiedono responsabilità pubbliche, dando credito alle affermazioni pseudoscientifiche,
intraprendono iniziative operative. Purtroppo, non mancano gli esempi. Vi sono stati dei pubblici amministratori che, invocando il Principio di Precauzione e appellandosi a un generico “… nel dubbio è me1
Comitato Italiano per il Controllo delle Affermazioni sul Paranormale.
192
I costi della non-scienza
glio prendere provvedimenti”, hanno agito in modo palesemente irrazionale. Per ora, fortunatamente, i danni di queste iniziative irrazionali
sono stati abbastanza limitati. È però facile immaginare che, se non si
porrà un argine alla diffusione delle discipline pseudoscientifiche e se
a livello politico si cederà alle pressioni di quei movimenti di pensiero
che richiedono per esse un riconoscimento giuridico, le conseguenze
per la società potrebbero essere anche molto gravi.
L’ufficio anti-malocchio di Aulla
Un primo esempio di atto pubblico motivato da credenze irrazionali e pseudoscientifiche risale al 1998, quando il sindaco del Comune
di Aulla (provincia di Massa-Carrara), Lucio Barani, suscitò grande
clamore istituendo un “ufficio anti-malocchio”. In municipio i cittadini di Aulla possono così trovare, oltre all’anagrafe, ai vigili urbani e
agli altri servizi tradizionali, anche un apposito sportello gestito da
uno staff di maghi ed esorcisti ai quali possono richiedere interventi
finalizzati alla prevenzione e alla difesa dagli influssi negativi derivanti
da fatture e malefìci. Da notare che l’ufficio ha solamente finalità…
difensive: per nessuna ragione i cittadini potranno richiedere interventi magici per causare danno a qualcuno.
È piuttosto evidente che la trovata del sindaco abbia avuto principalmente motivazioni pubblicitarie (il primo cittadino di Aulla si era,
infatti, già distinto altre volte per iniziative clamorose). È tuttavia indubbio che un’iniziativa del genere abbia un costo economico che
grava sulla collettività e favorisca la diffusione di credenze oscurantiste e superstiziose. È interessante conoscere le motivazioni che lo stesso sindaco ha fornito durante un’intervista: «Quella della magia e
dell’esoterismo è una tradizione culturale radicata nella nostra zone
dalla notte dei tempi. Perché nasconderla o far finta di nulla? Comunque, da quando abbiamo preso quest’iniziativa vengono decine e decine di persone, anche le più insospettabili, a togliersi il malocchio gratis. Ormai Aulla è una città senza sfiga» 2.
2 Tratto da: Simone Caffaz, Dalla Prima Repubblica al Terzo Millennio – Undici storie, un decennio, una provincia italiana, edizioni La Cometa.
Principio di Precauzione e pseudoscienze
193
Il bio-architetto rabdomante ingaggiato dal comune di Siena
La credenza nel malocchio può far sorridere molte persone che
non esitano a definirla una semplice superstizione. Vi sono tuttavia altre credenze che, pur essendo egualmente assurde, riscuotono maggior credito, semplicemente perché appaiono fondate scientificamente. Un esempio significativo è quello delle cosiddette reti di Hartmann. Poiché forse non tutti sanno di cosa si tratta, vale la pena descriverle.
Ernst Hartmann (1915-1992) era un medico dell’Università di Heidelberg che, tra gli anni Cinquanta e gli anni Settanta, elaborò una
bizzarra teoria secondo la quale la superficie terrestre sarebbe avvolta
da una griglia di linee di forza, da molti ritenute di origine magnetica.
Queste linee di forza avrebbero un effetto patogeno e le zone a maggior rischio sarebbero i punti in cui queste linee di forza si incrociano
(nodi di Hartmann). Il rischio sarebbe poi particolarmente elevato se
sotto al nodo (anche a elevata profondità) ci dovessero essere falde acquifere oppure faglie, che sono ritenute in grado di intensificare le
“radiazioni nocive” sviluppate dal nodo.
Gli inconvenienti fisici che sarebbero causati dalla griglia di Hartmann vengono genericamente indicati con il termine “geopatologie”.
La cosa curiosa (e che fa comprendere quale possa essere la fondatezza scientifica di questa teoria) è che le linee di forza e i nodi non possono essere individuati da alcuno strumento di misura, ma solamente
da rabdomanti e sensitivi, che avviserebbero particolari vibrazioni in
loro prossimità. Prima di Hartmann qualcun’altro aveva già elaborato
teorie simili: un certo Peyré sosteneva l’esistenza di una griglia analoga
(le maglie però misuravano 8 metri di lato, contro i 2,50 previsti da
Hartmann); e negli anni Cinquanta un certo Curry affermava che le
maglie misuravano invece 3,15 m per 16 m.
Inutile dire che l’esistenza della rete di Hartmann non è mai stata
dimostrata da nessuno (com’è noto tutti i controlli diretti ad accertare i
presunti poteri dei rabdomanti hanno sempre dato esiti assolutamente
negativi). Inoltre, la sua esistenza contrasterebbe palesemente con le
conoscenze fisiche. Le linee di forza di un campo magnetico, infatti,
non possono incrociarsi, e sostenere il contrario dimostra soltanto una
preoccupante ignoranza scientifica. Occorre tuttavia osservare che non
194
I costi della non-scienza
tutti i sostenitori delle reti di Hartmann affermano che si tratti di campi magnetici. Ad esempio, due autori di nome Endros e Lotz sostengono che esse sarebbero costituite da “raggi tellurici” causati da un irraggiamento di neutroni termici a 0,025 eV. È superfluo dire che anche
una tale emissione neutronica non è mai stata rilevata da nessuno.
La teoria delle reti di Hartmann è dunque pseudoscienza pura, priva di ogni fondamento. Quello che preoccupa è che in certi ambienti
è presa sul serio. Ad esempio, la cosiddetta Bioarchitettura® (questa
parola è un marchio registrato), disciplina architettonica che prende
in considerazione gli aspetti biologici ed ecologici legati alle costruzioni, fa spesso riferimento alle reti di Hartmann.
Un noto manuale di architettura usato a livello universitario 3 dedica un intero paragrafo alle geopatologie indotte dalle reti di Hartmann, con tanto di grafici e precise indicazioni su come posizionare il
letto per minimizzare i danni. Nel libro vi sono vere e proprie perle.
Ad esempio, vi si può leggere che: «Disponendo su tutta la sfera terrestre una cosiddetta griglia globale costituita da onde verticali si provocano azioni geologiche apparentemente come quelle provocate dal Sole, ma la loro regolarità anche secondo Hartmann potrebbe far pensare ad un irraggiamento terrestre, proveniente dall’interno del globo,
che si dispone come una griglia a rete per effetto dei cristalli esistenti
nella crosta terrestre». E poi continua sullo stesso tono. Chiunque abbia un minimo di conoscenze scientifiche può scegliere se inorridire o
ridere di fronte a simili affermazioni.
Sul mercato esistono numerose ditte specializzate (spesso gestite
dagli stessi rabdomanti) che commercializzano costosi dispositivi che
sarebbero in grado di schermare i nodi di Hartmann, fornendo protezione nei confronti dei loro presunti nefasti effetti.
Una prova che sarebbe certamente interessante condurre su rabdomanti e sensitivi sarebbe la seguente. Bisognerebbe far loro individuare i nodi di Hartmann in un certo ambiente. Dopodiché bisognerebbe
coprire i nodi con tappetini schermanti e con tappetini fasulli, appositamente preparati, questi ultimi, per renderli indistinguibili dai primi.
A questo punto i rabdomanti dovrebbero essere in grado di stabilire
quali tappetini sono reali e quali sono fasulli. Naturalmente nessun
3
E. Neufert, Enciclopedia pratica per progettare e costruire, Hoepli
Principio di Precauzione e pseudoscienze
195
sensitivo ha mai accettato questa sfida: alcuni sostengono la non validità di una simile prova affermando che la rete di Hartmann si muove.
A questo punto nasce spontanea una domanda: se la rete di Hartmann
è in movimento, che senso ha studiare accuratamente la disposizione
degli edifici o del letto o collocare costosi dispositivi di protezione in
punti attentamente individuati?
È evidente che un amministratore pubblico al quale viene paventato il “rischio” delle reti di Harmann, prima di intraprendere qualsiasi
iniziativa, dovrebbe documentarsi e consultare qualche fonte scientificamente attendibile. Purtroppo, però, questa procedura non è così
scontata, come ha dimostrato nel 1997 la giunta comunale di Siena,
presieduta dal sindaco Pierluigi Piccini. Con la delibera comunale n.
179, del 3 febbraio 1997, la giunta comunale di Siena decise, infatti,
all’unanimità di affidare il compito di eseguire una mappatura dei nodi di Hartmann nelle cinque scuole materne del Comune al bio-architetto e rabdomante Fosco Firmati. Quest’ultimo, che già aveva operato a Grosseto e ad Arezzo, aveva allertato l’amministrazione comunale
di Siena sostenendo che i nodi di Hartmann mettevano a repentaglio
la salute dei bambini poiché avrebbero favorito l’insorgenza di leucemia infantile. Nella delibera, la giunta stabilisce anche in sette milioni
e mezzo di lire il compenso spettante al Firmati per la sua prestazione.
Per fortuna, in seguito a un intervento del CICAP, che lo informava
della totale infondatezza scientifica della teoria di Hartmann, il sindaco decise successivamente di bloccare il progetto. Se la cosa fosse andata avanti è ragionevole pensare che il costo per l’amministrazione
sarebbe stato sicuramente più elevato dei sette milioni e mezzo pattuiti per il bioarchitetto. Infatti, una volta eseguita la mappatura, si sarebbero dovuti poi intraprendere provvedimenti per proteggere gli
asili o addirittura spostarli in luoghi ritenuti meno pericolosi.
Rischi immaginari e rischi reali
I due esempi precedentemente riportati fanno comprendere come
l’accettazione acritica di affermazioni pseudoscientifiche e la conseguente credenza nei rischi da esse paventati possano condurre a scelte
irrazionali e sostanzialmente nocive per la collettività.
Analizzando il comportamento del sindaco di Aulla e della giunta
196
I costi della non-scienza
comunale di Siena ci si può facilmente rendere conto che esso è sostanzialmente coerente con il Principio di Precauzione così come appare nella formulazione fornita dal principio 15 della Dichiarazione di
Rio del 1992: «Laddove vi siano minacce di danni seri o irreversibili,
la mancanza di piene certezze scientifiche non potrà costituire un motivo per ritardare l’adozione di misure, efficaci rispetto ai costi, volte a
prevenire il degrado ambientale».
Le “piene certezze scientifiche” non esistono mai, neanche relativamente a ciò che la scienza può dire riguardo ai contenuti delle pseudoscienze. In linea di principio, nessuno può affermare con assoluta
certezza che il malocchio o le linee di Hartmann non esistono. Quello
che le attuali conoscenze scientifiche ci consentono di dire è che fino a
oggi non è mai emersa nessuna evidenza che ne renda plausibile l’esistenza. In sostanza non è la scienza che deve dimostrare l’infondatezza
delle pseudoscienze, ma sono queste ultime che devono dimostrare la
validità delle loro affermazioni. La differenza è sottile ma importante.
Nel sia pur piccolo margine di incertezza che inevitabilmente la scienza lascia scoperto, possono insinuarsi le scelte irrazionali di coloro
che, contro rischi altamente improbabili, intraprendono iniziative gravose per la collettività. Si arriva in tal modo alla situazione paradossale
in cui rifiutando la scienza a causa della sua inevitabile natura dubitativa, ci si affida alle “certezze”, apparentemente apodittiche ma in
realtà del tutto illusorie, delle pseudoscienze.
Tra i tanti rischi immaginari, questo è un rischio reale. Oltre ai
danni immediati derivanti da scelte irrazionali, il rischio principale è
di tipo culturale. La scienza, almeno relativamente al suo dominio di
competenza, ci fornisce strumenti insostituibili. Non sono perfetti, ma
finché l’umanità non riuscirà a trovarne di migliori saremo costretti a
farvi ricorso, se non vogliamo correre il rischio di un regresso culturale in cui il dogmatismo e il principio di autorità tornino a dominare.
197
RINGRAZIAMENTI
Questo volume raccoglie gli interventi presentati al I Congresso nazionale
dell’Associazione Galileo 2001, tenutosi a Roma, il 19 febbraio 2004,
presso i locali del Consiglio Nazionale delle Ricerche. Oltre che il CNR
per aver ospitato il convegno, l’Associazione Galileo 2001 ringrazia:
• Il Presidente della Repubblica, per aver concesso il Suo alto patronato;
• la Presidenza del Consiglio dei Ministri,
• il Ministero degli Affari Esteri,
• il Ministero dell’Ambiente e della Tutela del Territorio,
per aver patrocinato l’evento;
• il Ministero dell’Ambiente e della Tutela del Territorio,
• l’Istituto Nazionale di Fisica Nucleare,
• il Comune di Roma,
• l’ENEA,
• l’Assobiotec (Associazione nazionale per lo sviluppo delle biotecnologie),
• l’Associazione italiana nucleare,
per i contributi elargiti e che hanno reso possibile il convegno e la pubblicazione del presente volume.
Si ringraziano, naturalmente, gli oltre 200 partecipanti, che sono stati determinanti per il successo dell’iniziativa e, in particolare, gli studenti e gli
insegnanti della scuola IIS Pacinotti-Gobetti “sezione classica” di Fondi
(Latina) per l’entusiastico interesse.
Un grazie anche alla Multimedia sas di Valter Cirillo & Partners per il generoso impegno profuso nella cura del sito dell’Associazione, www.galileo2001.it .
Infine, ma non ultimi, per aver curato con competenza gli aspetti organizzativi del convegno si ringrazia la signora Angela Rosati e, in particolare,
Cristiano Bucaioni per aver anche svolto il lavoro necessario a trasformare le relazioni orali nel presente volume.
Scarica

clicca qui - Galileo 2001