1° Forum2012
Internazionale
Sviluppo Ambiente Salute
Atti
"Ricerca e tecnologie avanzate
per ambiente e salute:
nuovi motori per lo sviluppo"
Arezzo, 20 - 23 novembre
20 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
"Apertura Forum" .........................................................................................
Pag. 10
Bettoni Monica Direttore Generale Istituto Superiore di Sanità
Giannotti Vasco Presidente Fondazione Sicurezza in Sanità
Marroni Luigi Assessore Diritto alla Salute Regione Toscana
Clini Corrado Ministro dell’Ambiente e della Tutela del Territorio e del Mare
"Corretto utilizzo e salvaguardia della risorsa acqua" ......................
Pag. 19
Nannini Paolo Presidente Nuove Acque
Checcucci Gaia Segretario Autorità Bacino Arno
Bossola Andrea ACEA
Giani Giovanni Ondeo Italia
Menabuoni Francesca Amministratore Delegato Nuove Acque
Calzolai Roberto Regione Toscana
Franchi Alessandro Resp. Settore VIA VAS ARPAT Toscana
Bianco Andrea ISPRA
D’Ascenzi Mauro Vice Presidente Feder Utility
Pineschi Giorgio Ministero dell’Ambiente
"La valutazione della salute in Siti Contaminati" ................................
Pag. 41
Musmeci Loredana Istituto Superiore di Sanità
Clini Corrado Ministro dell’Ambiente e della Tutela del Territorio e del Mare
Comba Pietro Istituto Superiore di Sanità
Serraino Diego IRCCS Aviano
Conti Susanna Istituto Superiore di Sanità
Iavarone Ivano Istituto Superiore di Sanità
D’Aprile Laura ISPRA
Guerriero Carla London School of Hiygiene and Tropical Medicine
Sallese Domenico Direttore Dip. Prevenzione USL 8 Arezzo
"Energie rinnovabili: occasione di innovazione e sviluppo sostenibile" .....
Rossi Albertini Valerio CNR
Montemaggi Massimo Enel Green Power
Serra Sebastiano Ministero dell’Ambiente della tutela del territorio e del mare
Renzi Fabio SYMBOLA
Bramerini Anna Rita Assessore Regionale Ambiente Regione Toscana
de Feo Stefania Confindustria
Di Carlo Luca Centro Studi GSE
Farri Averaldo Power-One
4
Arezzo 20 - 23 novembre 2012
Pag. 63
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
21 Novembre
"Inquinamento dell’aria outdoor/indoor e salute: considerazioni
per il risk management" .............................................................................
Pag. 83
Viegi Giovanni CNR Palermo
Settimo Gaetano Istituto Superiore di Sanità
Carrer Paolo Università di Milano
Sestini Piersante Università di Siena
Kephalopoulos Stylianos JRC Commissione Europea
De Martino Annamaria Ministero della Salute
Moscato Umberto Università Cattolica di Roma
Colaiacomo Elisabetta Ministero dell’Ambiente
Frateiacci Sandra Presidente Federasma
Allegrini Ivo Ministero dell’Ambiente
"La valutazione di impatto sanitario (VIS) come strumento
decisionale per uno sviluppo sostenibile" ............................................
Pag. 113
Bettoni Monica Direttore Generale Istituto Superiore di Sanità
Cadum Ennio ARPA Piemonte
Natali Marinella Regione Emilia-Romagna
Biggeri Annibale Università di Firenze
Marino Carmela ENEA
Marsili Giovanni Istituto Superiore di Sanità
Assennato Giorgio ARPA Puglia
Chellini Elisabetta ISPO
Cirillo Mario ISPRA
Baccini Michela Dipartimento di Statistica Università di Firenze
Romizi Roberto Presidente ISDE Italia
"Verso MILANO EXPO 2015 - Agricoltura, sostenibilità e salute" ..
Pag. 142
Veggia Ezio Confagricoltura
Favretti Michela IZS delle Venezie
Vitale Margherita Ministero dell’Ambiente
Tocci Augusto Istituto Sperimentale Selvicoltura
Marmiroli Nelson Università di Parma
Tamino Gianni Università di Padova
Arezzo 20 - 23 novembre 2012
5
21 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
"Verso MILANO EXPO 2015 - Ambiente, sostenibilità e salute" ..
Pag. 157
Borrello Silvio Ministero della Salute
Frazzi Piero Regione Lombardia
Cinotti Stefano IZS Lombardia Emilia- Romagna
Restani Patrizia Università degli Studi di Milano
Marinovich Marina Università di Milano
Manzo Alberto Ministero delle Politiche Agricole Alimentari e Forestali
Mollica Amilcare Avvocato
Capasso Monica Ministero della Salute
Rossi Lucilla Ministero della Salute
"Microinquinanti e catena alimentare: valutazione del rischio
sanitario" .........................................................................................................
Di Sandro Alessandra Ministero della Salute
Beccaloni Eleonora Istituto Superiore di Sanità
Carere Mario Istituto Superiore di Sanità
Stacchini Paolo Istituto Superiore di Sanità
Vanni Fabiana Istituto Superiore di Sanità
6
Arezzo 20 - 23 novembre 2012
Pag. 177
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
22 Novembre
"Cambiamenti ambientali globali, rischio chimico e infettivo:
verso una prevenzione integrata" ............................................................
Pag. 189
Scaramozzino Paola IZS Lazio e Toscana
Latini Mario SIMeVeP / IZS Umbria e Marche
Piras Pierluigi SIMeVeP / ASL 7 Carbonia
Dessì Alessandro SIMeVeP / SIVtro - VSF Italia
Sambri Vittorio Università di Bologna
Funari Enzo Istituto Superiore di Sanità
"Tecnologie per la gestione del ciclo dei rifiuti" ................................
Pag. 212
Moretti Giorgio AD Quadrifoglio
Cipriani Graziano Presidente ARRR Agenzia Regionale Recupero Risorse
Bruzzesi Stefano Dirigente ARRR Agenzia Regionale Recupero Risorse
Corsini Lucia ARRR Agenzia Regionale Recupero Risorse
Newman David Direttore Generale CIC Consorzio Italiano Compostatori
Masoni Paolo ENEA
Lapisti Fabio Dirigente Siena Ambiente
Angelini Monia Responsabile Tecnico Siena Ambiente
Arezzo 20 - 23 novembre 2012
7
23 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
Tavola rotonda conclusiva
"Sviluppo - Legalità - Ambiente e Salute" ............................................
Pag. 227
Santelli Giorgio Giornalista RAI News
Clini Corrado Ministro dell’Ambiente
Laterza Alessandro Vice Presidente per il Mezzogiorno Confindustria
De Luca Salvatore Procuratore Capo Barcellona Pozzo di Gotto
Gelormini Alfonso ENI
Moretti Mauro Amministratore Delegato Ferrovie dello Stato
Fortini Daniele Presidente Federambiente
"Rifiuti 2020: discarica zero" ....................................................................
Pag. 248
Laporta Stefano Direttore ISPRA
Brandolini Filippo Hera-Ambiente
Fortini Daniele Presidente Federambiente
“Ospedali e università ecosostenibili” ...................................................
Pag. 254
Cristofoletti Gilberto Direttore Area Tecnica Azienda USL 8 Arezzo
Strambaci Antonio Dirigente Ministero dell’Ambiente
Aldinucci Gianna Resp. Ecomanagement azienda USL 8 Arezzo
Ciabatti Sara Team Ambiente
Carbonari Alessandro Università Politecnica delle Marche
Maestrelli Stefano Direttore Area Tecnica Azienda Usl Versilia
Bianco Paolo Energy Manager Azienda USL Rimini
Novelli Massimo Dirigente Area Tecnica AOU Careggi Firenze
Binini Tiziano Presidente Binini & Partners
“Ospedali ed università ecosostenibili - case history” ...........................
Giorni Daniele Energy Manager Azienda USL 8 Arezzo
Penna Roberto Ricerca, Innovazione e Sviluppo AOU Ancona
Rizzi Antonio Università di Parma
Agger Simona Coordinatrice Progetto RES HOSPITALS
8
Arezzo 20 - 23 novembre 2012
Pag. 269
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
23 Novembre
Arezzo 20 - 23 novembre 2012
9
20 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
Apertura Forum
Monica BettoniDirettore Generale Istituto Superiore di Sanità
Trascrizione non revisionata dal relatore
Come sapete siamo qui ormai a distanza di molti anni per ripetere la edizione 2012 del Forum Risk Management
in Sanità. Quest’anno c’è una novità che è rappresentata dal fatto che abbiamo le problematiche della sanità e
dell’ambiente. Approfitto dell’assenza del Ministro Clini per dire che, non so in effetti come lui la potrebbe pensare
a proposito, dallo sciagurato momento in cui il referendum divise la sanità dall’ambiente, a livello delle aziende
sanitarie locali, in realtà in questi ultimi anni, soprattutto in questi ultimi anni, ci siamo resi conto come quanto
mai il binomio ambiente e salute sia un binomio imprescindibile perché molti determinanti di salute hanno origine
dall’ambiente e comunque c’è un’interazione continua con le problematiche della salute. Quindi il nostro Forum
quest’anno ha assunto questo binomio e all’interno dell’iniziativa troverete problematiche che hanno a che fare
comunque con la salute ma che hanno origine o implicazioni con l’ambiente. Detto questo, vi illustro il programma
di quest’oggi con alcune modifiche dovute ovviamente sia a impegni che ad altre motivazioni. Intanto il Presidente
dell’Istituto Superiore di Sanità, di cui io sono direttore, è assente per malattia quindi gli facciamo i nostri auguri
e proverò io in qualche maniera a sostituirlo. Abbiamo poi la presentazione invece di Liletta Fornasari che ci
farà, come al solito, un excursus culturale perché insomma un po’ di cultura è un substrato utile per tutti anche
in convegni di natura tecnico-scientifica. Ci faranno poi i saluti le nostre autorità locali, il Sindaco di Arezzo ed il
Presidente della Provincia, e poi interverranno gli altri previsti.
Enrico Rossi sarà in qualche maniera rappresentato dall’Assessore alla Sanità Marroni, che noi salutiamo. Il
Ministro della Salute sarà presente oggi pomeriggio, poi comunicheremo con precisione l’ora, credo verso le
16.30/17.00 e il Ministro dell’Ambiente invece è in autostrada e ci raggiungerà tra poco. Intanto chiederei alla
nostra Liletta Fornasari di iniziare con la sua introduzione.
10
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
20 Novembre
Apertura Forum
Vasco GiannottiPresidente Fondazione Sicurezza in Sanità
Trascrizione non revisionata dal relatore
Buongiorno a tutti. E’ già arrivato il Ministro Clini che fra poco, assieme all’Assessore Marroni apriranno ufficialmente
anche questa sessione. Benvenuti a tutti, ancora una volta, qui ad Arezzo. L’augurio è che l’interesse per i lavori
delle numerose sessioni scientifiche del Forum e mi permetto di dire, ringraziando anche Liletta Fornasari,
l’accoglienza di questa bella città ricompensino tutti vi di questi quattro giorni che saranno quattro giorni di intenso
lavoro. Un grazie particolare ai più di 1000 relatori che si susseguiranno in tutte le sessioni scientifiche. Un grazie
alle autorità cittadine che ci onoreranno poi del loro saluto, al Sindaco, al Presidente della Provincia. Un grazie
anche agli sponsor che in un momento molto complicato come questo, lo sappiamo tutti, hanno consentito poi la
realizzazione di questo importante appuntamento. Quest’anno, come ha detto già Monica Bettoni, la settima
edizione del Forum Risk Management in Sanità, siamo già all’adolescenza, molti di voi ci hanno seguito in tutto
questo percorso ma anche la novità, la prima edizione del Forum Internazionale su Ambiente, salute e Sviluppo.
Quest’edizione, questo mi preme dire in questa apertura, è molto diversa dagli altri anni, stiamo infatti attraversando
una fase particolare, direi particolarmente problematica, è l’anno delle sfide, delle sfide molto difficili e lo saranno
anche nei prossimi anni, almeno nel 2013, nel 2014. Gli altri anni portavamo al Forum, lo ricorderete, la sintesi di
un lavoro già svolto in tutte le aziende sanitarie, in tutte le regioni. Portavamo cioè l’analisi, la valutazione e la
promozione di buone pratiche per cercare di migliorare, ovunque era possibile, la qualità e la sicurezza delle cure.
Anche quest’anno portiamo a sintesi un grande percorso, nel maggio scorso siamo stati in Sicilia a fare il 2°
Forum Mediterraneo per la Sanità con 6.000 partecipanti da tutta la Sicilia e le regioni del Mezzogiorno e poi
siamo stati in Veneto, ultimo nei giorni scorsi a fare un interessante confronto tra i sistemi sanitari delle regioni più
importanti del Nord (Piemonte, Lombardia e Veneto), quest’anno però la sfida è più complicata e credo, mi auguro
e spero che questi Forum rappresentino l’avvio di nuovi percorsi al centro dei quali dobbiamo porre l’urgenza di
cambiare, di innovare, a cominciare dal sistema sanitario. Cambiare, innovare culture, comportamenti, modelli di
riferimento, orizzonti per organizzare il nostro lavoro per incidere e agire concretamente a tutela di quel sacrosanto
diritto del cittadino sancito dalla nostra bella Costituzione che non è soltanto quello di curare quando si è ammalati,
ma di promuovere salute interagendo con l’ambiente che ci circonda, sviluppando coesione sociale, stimolando
nuove opportunità di sviluppo e di benessere nelle popolazioni. Ecco il cuore della sfida che sta al centro di questo
forum. Negli ultimi tre anni, voi lo sapete bene, siete in gran parte dirigenti e operatori del sistema sanitario
nazionale, abbiamo avuto tagli pesanti per la Sanità. Tagli molto pesanti che, come discutevamo prima con
l’Assessore Marroni, stanno mettendo a rischio un bene prezioso come l’universalità, l’equità del nostro sistema
sanitario nazionale e cioè il diritto del cittadino alla tutela della propria salute, ovunque viva - Nord, Centro, Sud
- a qualunque ceto sociale appartenga, di qualunque paese o etnia egli sia. Certo non tutto è andato e va bene,
ma questo è un modo concreto anche di fare accoglienza. Siamo ad un punto limite e mi permetto di dire che
hanno ragione le Regioni a dire, come sanno le Regioni, i Direttori generali, gli operatori sanitari: attenzione,
siamo a quel punto limite, tagliare di più non si può e tagliare di più non vuol dire neppure risparmiare, non vuole
dire neppure spendere di meno. La Grecia è lì a dimostrarlo. In Grecia si sono dati colpi molto pesanti al sistema
sanitario nazionale, ma lì ci si ammala di più, sta saltando il sistema di coesione sociale, il sistema è chiamato a
pagare di più. Ecco dunque che da questo nostro Forum - dove porteremo dati, analisi, proposte - deve venire
un sostegno molto forte. Molto forte per dire basta con i tagli alla Sanità, basta con i tagli allo stato sociale, occorre
certezza di risorse. E dobbiamo anche dire, va bene la spending review e cioè fare efficienza e risparmio nella
spesa, ma la spending review vera non si cala dall’alto, non si cala a colpi di tagli lineari che molto spesso
premiano chi meno è virtuoso ma si affida sulla base di obiettivi condivisi alle regioni che hanno competenza,
know-how, esperienza, strumenti ed indirizzi per realizzare quegli obiettivi. Ecco dunque la prima sfida, la prima
sfida che appunto esige risposte precise, comportamenti, responsabilità prima di tutto degli operatori sanitari. E
l’altra sfida di questo Forum l’abbiamo lanciata un anno fa, quando il Ministro Corrado Clini, da poco nominato
Ministro, proprio da qui indicò temi, obiettivi, percorsi per cercare di riconiugare il rapporto tra ambiente e salute
a fronte di fattori ambientali anche nuovi con i quali conviviamo e dobbiamo abituarci a convivere: le catastrofi
naturali, sempre più frequenti, le mutazioni climatiche, il dissesto idrogeologico che penalizza pesantemente il
nostro paesaggio, le molteplici forme di inquinamento atmosferico e chimico. Ricordiamo anche che l’anno scorso
a questo Forum venivamo il giorno dopo l’alluvione di Genova e il disastro della Sicilia. Morti l’anno scorso, ma
anche quest’anno in Toscana purtroppo morti. Incredibile che basti poco più di una grande pioggia per causare
gravi dissesti, inondazioni, ferite pesanti alla salute del territorio e delle persone, morti. C’è dunque una proposta
che ha fatto in questi giorni, ad esempio, il Ministro Clini che non è affatto avveniristica, 40 miliardi in 20 anni per
rimettere in sesto il territorio italiano, per cercare appunto di intervenire nel dissesto idrogeologico. Riflettiamo su
Arezzo 20 - 23 novembre 2012
11
20 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
questa proposta che spero diventi una proposta fatta proprio dal Governo, significa riordinare e tutelare l’ambiente,
significa prevenire i morti, le infezioni, salute, significa lavoro, occupazione, sviluppo dunque e quindi ....... che in
qualche modo declina quello che noi dobbiamo e possiamo cercare di fare qui dando avvio a questo 1° Forum
Internazionale su Sviluppo Ambiente e Salute, un Forum che ospiterà anche un importante summit di Ministri e
delegazioni di 25 paesi del centro Europa, dell’Asia e dell’Africa che venerdì saranno qui con noi a discutere di
acqua, ambiente e salute. Abbiamo dunque preso sul serio la sfida che il Ministro Clini l’anno scorso ci ha lanciato
qui, in questi mesi abbiamo svolto un intenso lavoro di ricerca con l’Istituto Superiore di Sanità, con il Ministero
dell’Ambiente, con il Ministero della Salute e qui porteremo i primi risultati di questo lavoro e cioè qual è oggi il
nuovo rapporto tra protezione ambientale e tutela e promozione della salute a fronte dei nuovi fattori di rischio
determinati dalle mutazioni climatiche, dalle patologie nuove derivanti da forme nuove di inquinamento, dalle
malattie infettive legate ai sistemi di adduzione delle acque potabili e dalla contaminazione chimica di cui purtroppo
Taranto ne è un esempio. Diversità di reazioni, questo è il tema che vorremmo sviscerare e sviscereremo qui in
questi giorni. Diversità di reazioni ai fattori ambientali legati al patrimonio genetico di ciascuno di noi e quindi alla
diversa combinazione tra fattori genetici e fattori di rischio. Ecco una sfida che si apre e speriamo che il Forum
dica su questo cose molto importanti con un confronto tra Istituto Superiore di Sanità, Università, altri Enti e Istituti
di Ricerca, Ministero dell’Ambiente, Ministero della Salute mobilitando la comunità scientifica in un confronto
anche fra approcci molto diversi e se necessario anche in un confronto dialettico. Mi auguro che questo confronto
che partirà da qui continuerà anche nei prossimi mesi anche con la costituzione, sarebbe davvero molto bello in
Italia, di una scuola di alta formazione sull’interrelazione tra ambiente e salute. Ecco dunque le attese di queste
quattro intense giornate, le decine di sessioni scientifiche, i contributi dei relatori. Vogliamo aprire con il Forum un
percorso, un forum interattivo tra tutti i partecipanti al Forum anche dopo queste quattro giornate perché ciascuno
di voi possa dire la sua, avanzare idee, avanzare proposte e si apriranno con questo Forum dei laboratori di
confronto, dei laboratori di proposte per cercare appunto di portare sui tavoli delle istituzioni anche proposte
operative che ci mettano nelle condizioni di contribuire e concorrere a quel processo di innovazione, di riforma di
cui abbiamo parlato. Ecco allora l’obiettivo che abbiamo di fronte e per concludere cinque sono in particolare, oltre
alle questioni di cui ho parlato tra ambiente e salute, i laboratori sui quali vogliamo continuare anche dopo il Forum
a lavorare per dimostrare come si può fare efficienza senza incidere sulla qualità e sulla sicurezza delle cure.
Il primo: innovazione negli ospedali e nuovo rapporto con il territorio. Ne abbiamo discusso anche lo scorso anno,
finalmente il Ministero ha fatto anche il decreto che sarà discusso proprio in questi giorni dagli assessori alla
sanità che insieme agli assessori all’ambiente si sono dati appuntamento proprio qui ad Arezzo per discutere di
proposte operative. L’obiettivo è quello di ridurre almeno di un giorno la degenza media negli ospedali. Pensate,
da un calcolo che si è fatto in Toscana, ridurre di un giorno la degenza media significa risparmiare 170 milioni ogni
anno, il che vuol dire a qualche cosa come 2 miliardi e mezzo a livello nazionale senza incidere sui livelli di cura
e di assistenza.
Il secondo: sviluppo dell’assistenza domiciliare. Passare dalla enunciazione alla ridefinizione di percorsi
organizzativi gestionali anche con lo sviluppo della medicina di iniziativa per la gestione ottimale e integrata della
cronicità che sappiamo rappresenta più del 50% della spesa sanitaria.
Il terzo: ottimizzazione dei costi di funzionamento, i servizi di logistica, di manutenzione, ecc. Le imprese private
possono mettere a disposizione delle aziende sanitarie il loro know-how per ridefinire percorsi organizzativi e
gestionali al fine appunto ancora una volta di ridurli. Presenteremo qui ad Arezzo un’esperienza eccezionale,
l’Ospedale Verde, un progetto che è stato cofinanziato dal Ministero dell’Ambiente e dalla Regione Toscana che
dimostrerà come per l’energia e per l’elettricità, quindi energia freddo caldo e poi per i sistemi di illuminazione, si
può mediamente risparmiare in ogni ospedale il 30%.
Il quarto: HTA, Health Technology Assessment. Fino ad oggi, parliamoci chiaro, l’innovazione era dettata e
determinata soprattutto dall’offerta, le imprese che di volta in volta presentavano nuove macchine, nuovi dispositivi
medici. Oggi non è più quel momento là, oggi bisogna cercare di riconiugare offerta e domanda e quindi bisogna
che il sistema sanitario, le Regioni, le aziende sanitarie si dotino di quel know-how indispensabile per decidere
quale innovazione necessaria e come usare nel modo migliore, e quindi appropriatezza, e quindi buon uso delle
nuove macchine per cercare di corrispondere al meglio ai bisogni di salute dei cittadini e fare ancora una volta
efficienza.
Ecco, questi sono alcuni degli obiettivi e mi auguro anche alcune delle proposte che porteremo anche ai tavoli
nazionali, porteremo al Commissario Bondi, porteremo al Dott. Massicci, Ministero dell’Economia, per dimostrare
come la spending review in sanità si può fare ma si può fare poggiando sulle competenze, sul know-how delle
Regioni e delle aziende sanitarie. Infine il Forum è anche un momento molto importante di formazione. Senza
formazione e senza formazione mirata agli obiettivi di innovazione, di efficienza, di riordino non va avanti il sistema,
non si rinnova il sistema, non si fanno le riforme strutturali, non si fa efficienza né miglioramento della qualità e dei
servizi. Siamo ad un paradosso, mentre si annunciano e si perseguono obiettivi, come abbiamo detto, di sostanza
si tagliano quasi completamente i fondi della formazione. Mentre si declama l’obbligatorietà della formazione in
12
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
20 Novembre
medicina, addirittura si chiede agli ordini professionali di fare sanzioni per chi non fa formazione, si depennano i
finanziamenti e anche gli incentivi individuali. Ecco anche qui, su questo punto, al Forum vogliamo dimostrare che
si può fare formazione garantendo qualità ed efficienza, ad esempio per tutti coloro che partecipano al Forum,
così come abbiamo fatto l’anno scorso, saranno messi a disposizione gratuitamente dei corsi di formazione a
distanza per dimostrare che si può fare formazione continua garantendo la qualità appunto dell’offerta ma al
tempo stesso risparmiando molto. Io con questo vi saluto, vi auguro buon lavoro e mi auguro che queste quattro
giornate, come anche gli altri anni e quest’anno ce n’è bisogno ancora di più, possano rappresentare uno spunto
per andare avanti, uno stimolo capace di produrre idee e proposte per portare sui tavoli importanti delle regioni,
delle aziende sanitarie e anche dei ministeri.
Arezzo 20 - 23 novembre 2012
13
20 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
Apertura Forum
Luigi MarroniAssessore Diritto alla Salute Regione Toscana
Per noi è un onore ospitare ancora una volta in Toscana questo convegno che ormai, nel panorama nazionale, è
un evento importante, conosciuto e molto atteso, che ci offre l’occasione, proprio in questo periodo particolarmente
critico per il sistema sanitario, di fare il punto della situazione, al termine di un 2012 molto difficile e con ancora
davanti a noi alcuni anni particolarmente complessi. Parlando di futuro della sanità e di cosa ci aspetta, possiamo
far riferimento al combinato di una serie di condizioni che riguardano soprattutto la riduzione e la rimodulazione
delle risorse, i tagli al finanziamento del Fondo Sanitario, la spending review. L’insieme di tale serie di provvedimenti
presi nelle ultime legislature, produce un concentrato di criticità che rendono sempre più difficile il mantenimento
della sanità così come l’abbiamo conosciuta fino ad oggi. Questa sorta di tsunami che ci sta investendo fa sì
che le Regioni debbano ripensare la loro organizzazione per capire come riuscire a superare questo periodo. La
questione è che spesso, quando siamo di fronte a provvedimenti di questo tipo, i cosiddetti tagli lineari, anche se
forse potremmo discutere su quanto siano lineari o meno, c’è il rischio di penalizzare le Regioni che da più tempo
e con maggior sforzo stanno lavorando per raggiungere standard elevati. Stiamo affrontando in questo periodo
un confronto dialettico con il Governo, proprio per poter discutere assieme e portare la proposta delle Regioni, di
una modulazione differenziata e territorialmente specificata delle azioni proposte dal Governo, anche per evitare
il rischio concreto che le Regioni virtuose, che hanno molto lavorato nel passato, si trovino a dover mettere in
dubbio il livello qualitativo e quantitativo dei servizi, cui avevano abituato i loro cittadini. Questo è lo scenario
complessivo. Detto ciò, naturalmente pensiamo di affrontare la questione in termini concreti, non siamo solo qui
a discutere e a lamentarci della situazione difficile e dei tagli. Noi abbiamo immediatamente reagito, e ci stiamo
organizzando al meglio per affrontare con lungimiranza il presente, tanto quanto gli anni che verranno. In Toscana
abbiamo recepito immediatamente le indicazioni e le disposizioni che venivano dal livello nazionale, rispondendo
concretamente, pochi giorni dopo l’uscita del decreto cosiddetto “spending review”, con una nostra delibera che
delineava un primo gruppo di azioni e impostava una profonda riorganizzazione del nostro sistema sanitario,
che guarda non solo al superamento in termini migliorativi dell’attuale organizzazione, ma anche all’esigenza di
gettare oggi le basi per la prosperità del futuro. Abbiamo quindi impostato un percorso di riforma di tutti i nostri
processi organizzativi, andando a monitorare e analizzare il funzionamento e il valore dei servizi per il cittadino,
con l’obiettivo di eliminare tutta una serie di stratificazioni organizzative che negli anni, in tutte le organizzazioni, si
creano. Quest’approccio attribuisce centralità all’utente, puntando a semplificare i processi di cura e i percorsi di
presa in carico, differenziandoli e calibrandoli rispetto al target di riferimento, così da mettere in grado il sistema di
fornire la tipologia di risposta più appropriata ed efficace a bisogni di salute che provengono da una popolazione
eterogenea e dalla composizione complessa. Avendo adottato l’ottica della centralità del cittadino-utente, e
dopo aver avviato la semplificazione sopra richiamata, stiamo portando avanti una fase di concertazione delle
azioni di ristrutturazione funzionale dell’intero sistema sanitario regionale, che entro l’anno porterà all’adozione di
specifiche delibere attuative. Tali azioni riguardano il rafforzamento della rete territoriale, da realizzarsi attraverso
il potenziamento del rapporto con la medicina generale, ma anche il piano regolatore dei distretti territoriali,
l’implementazione per via telematica di tutti servizi che possono essere offerti online, la copertura e l’integrazione
costante fra medicina generale e continuità assistenziale. Si tratta di quindi operazioni forti, che implicano un
grande investimento sul territorio, e sul sistema delle cosiddette cure intermedie. Parallelamente, stiamo
procedendo con la ristrutturazione di tutta la rete ospedaliera, secondo un processo che va a ridefinire la missione
dei singoli ospedali, per aumentarne l’efficienza organizzativa nel senso dell’appropriatezza e dell’efficacia. Tale
percorso di rimodulazione porterà complessivamente - questo però rappresenta il punto di arrivo e non quello
di partenza – anche ad una riduzione del numero di posti letto. Tra gli altri interventi è prevista l’unificazione per
Area Vasta delle centrali operative del 118, con una revisione di tutta la rete territoriale dell’emergenza-urgenza;
si pensa inoltre di centralizzare in tre o quattro punti a livello regionale, i quasi venti laboratori di analisi presenti.
Sono tutti interventi molto significativi e ci siamo dati l’obiettivo ambizioso di realizzarli nel corso del prossimo
anno. Questo percorso ci porterà sicuramente ad avere una sanità migliore e più efficace, pur consapevoli della
grande sfida che ci aspetta rispetto alla realizzazione degli interventi e delle azioni prospettate nel corso del 2013.
Se potessimo andare a dormire e svegliarci domani con la riforma già attuata, sono sicuro che ci troveremmo a
poter offrire ai cittadini un servizio sanitario migliore, più snello, più efficace. Un’altra questione importante è la
necessità non rinviabile di un forte, incisivo investimento nel settore dell’informatizzazione. Abbiamo creato un
gruppo di lavoro che sta progettando le linee guida di quello che sarà il nuovo sistema informativo generale della
sanità Toscana, non solo un insieme di software, ma un vero e proprio gestore dei processi. E’ previsto anche
un sostegno agli investimenti infrastrutturali, con una fortissima attenzione alla tutela dell’ambiente, al risparmio
energetico e alla sostenibilità.
14
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
20 Novembre
Ho iniziato dicendo che la nostra proposta di riorganizzazione parte da quello che è il flusso del valore per il
paziente, attribuendo sostanzialmente un’imprescindibile centralità nel Sistema alle persone che ci pagano lo
stipendio attraverso le loro tasse, perché ci ricordiamo bene l’origine e il senso del sistema sanitario pubblico.
A tale proposito, vorrei concludere sottolineando che questo piano di riforma prevede un forte coinvolgimento
di tutte coloro che nel nostro sistema lavorano, attraverso la partecipazione attiva delle diverse componenti
professionali e l’attenzione allo sviluppo delle risorse umane. E’ certamente, quello della riorganizzazione del
sistema sanitario regionale, un disegno molto complesso, integrato e globale, che di fatto stiamo già attuando. E
molte delle iniziative del forum trattano le tematiche che sono oggetto del percorso che stiamo portando avanti
e che ho provato a delineare in questo intervento. Da questo punto di vista c’è molta attenzione da parte nostra
anche a quelle che saranno le idee, le proposte, le questioni che emergeranno dai lavori di questo importante
consesso, e con questo vi saluto, vi ringrazio e vi auguro buon lavoro.
Arezzo 20 - 23 novembre 2012
15
20 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
Apertura Forum
Corrado CliniMinistro dell’Ambiente e della Tutela del Territorio e del Mare
Trascrizione non revisionata dal relatore
Grazie e complimenti. Io credo che quella di questi giorni sia un’occasione importante per confrontarsi con la
realtà di queste settimane, di questi mesi, cercando di avere uno sguardo sul futuro che sia uno sguardo costruttivo
e critico. Quando sono entrato stava parlando Vasco Giannotti e stava sostanzialmente dicendo “basta tagli”,
stava dicendo che i tagli per la spesa sanitaria, la spesa per la protezione dell’ambiente sono pericolosi, sono non
utili. Ora io, come membro di questo Governo che si è trovato e che si trova ad affrontare una situazione di grande
emergenza, vorrei suggerire una riflessione forse più problematica, meno facile dal punto di vista della
comunicazione ma che credo però sia necessaria proprio partendo dal merito, cioè dalle problematiche con cui ci
stiamo confrontando, ci siamo confrontati e ci stiamo confrontando anche queste settimane, che riguardano le
relazioni tra la protezione dell’ambiente e la protezione della salute. Possiamo dire con estrema chiarezza che la
crisi economica, la situazione difficile dal punto di vista dell’economia nazionale ma anche europea, in qualche
modo coincide, non è la causa ma in qualche modo coincide, con l’emergenza di relazioni più conflittuali, più
difficili da gestire tra protezione dell’ambiente e protezione della salute, perché le difficoltà economiche riducono
i margini per intervenire, per esempio nel sistema industriale piuttosto che nelle infrastrutture pubbliche che
servono anche per la protezione della salute e dell’ambiente, perché le difficoltà economiche rendono più acuta
una domanda di sicurezza da parte delle persone che riguarda anche la domanda di salute. Le difficoltà
economiche però non si risolvono esorcizzandole, cioè se non riusciamo a prendere atto di una realtà nella quale
abbiamo come elemento di base una più ristretta disponibilità di risorse e se non partiamo dal presupposto che
dobbiamo affrontare le sfide della protezione dell’ambiente, della protezione della salute, avendo a disposizioni
minori risorse, rischiamo di non riuscire a trovare la strada per affrontare in modo positivo e costruttivo tutte le
tematiche che emergono e diventano più acute, come abbiamo visto dal dissesto idrogeologico alla crisi dell’ILVA.
Dobbiamo sapere che la situazione nella quale ci troviamo chiede di conservare gli obiettivi fondamentali della
protezione dell’ambiente e della salute in condizioni di disponibilità di risorse economiche molto più ristrette di
prima e perciò l’obiettivo di fronte al quale ci troviamo non è quello di garantire la continuità di quello che avevamo
ma di cambiare gli strumenti per poter fare in modo che il diritto all’ambiente e il diritto alla salute siano assicurati.
L’Assessore Regionale, prima, ha spiegato in maniera molto concreta quale è stata la reazione, la reazione della
Regione Toscana non è stata quella di dire “vogliamo di più” ma è stata quella di dire “nelle condizioni date
dobbiamo organizzarci per assicurare il meglio sapendo che la base di risorse si è ristretta”. Questo approccio è
necessario anche in una prospettiva di crescita, cioè non un approccio che sostanzialmente prende atto che
siamo più poveri e che perciò dobbiamo accontentarci di meno ma questo è un approccio che serve per una
strategia di ripresa, nel senso che l’aumento di efficienza nell’uso delle risorse, la migliore concentrazione delle
risorse sugli obiettivi fondamentali, la riduzione delle spese su aree che oggi non sono strategiche, consente di
favorire investimenti che servono alla crescita. Questo è quello che per esempio emerge in maniera molto chiara
per il dissesto idrogeologico, noi oggi abbiamo bisogno di focalizzare l’uso delle risorse che già abbiamo per
affrontare i nodi critici che rappresentano la vulnerabilità del territorio rispetto agli eventi climatici estremi e
dobbiamo dire che, in generale, nonostante che siano scarse le risorse a disposizione, nonostante questo, una
parte importante di queste risorse non viene usata. Noi stiamo affrontando in queste settimane, a fronte
dell’emergenza, stiamo valutando quali sono le risorse già date, già messe a disposizione dal Ministero
dell’Ambiente dal ‘98 al 2012 per affrontare il rischio e la prevenzione del dissesto idrogeologico; sostanzialmente,
metà delle risorse che sono state assegnate non sono state ancora, non dico spese, neanche utilizzate, non sono
stati progettati gli interventi per utilizzare queste risorse e c’è ancora una grande dispersione degli interventi, sono
delle problematiche marginali rispetto all’obiettivo di proteggere il territorio dai rischi degli eventi climatici estremi.
Se noi riusciamo ad affrontare i nodi critici della vulnerabilità del territorio attraverso investimenti pubblici nelle
infrastrutture strategiche, supporto agli investimenti privati per la manutenzione e gestione del territorio, su queste
due cose che sono molto chiare e molto circoscritte, mettiamo in moto un circuito virtuoso, nel senso che creiamo
le condizioni per occupazione aggiuntiva e per investimenti che a loro volta generano valore aggiunto, però per
far questo dobbiamo essere capaci di spendere bene le risorse che abbiamo, questo è il primo obiettivo e credo
che questo sia lo stesso tipo di obiettivo che noi abbiamo anche nel momento stesso in cui affrontiamo i temi della
protezione e della salute. Secondo tema che emerge in questo contesto, quello che riguarda la necessità di
andare a colpire nell’organizzazione pubblica i nodi della inefficienza e quelli che riguardano la duplicazione di
funzioni, di attività, non parlo della Regione Toscana, parlo di un’altra regione italiana che però non è una regione
del Sud e parlo ancora del dissesto idrogeologico; abbiamo le autorità di bacino, abbiamo i servizi regionali che
si occupano per esempio della gestione delle acque, abbiamo i consorzi di bonifica, tre entità, almeno tre,
16
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
20 Novembre
importanti, ben dotate di risorse finanziarie che spesso fanno a stessa cosa o si occupano della stessa cosa e che
si trovano con risorse non spese, decine di milioni assegnati e non spesi, perché sostanzialmente non riescono a
ottimizzare l’uso delle risorse attuali e non riescono a far convergere sullo stesso obiettivo anche le risorse umane
e l’organizzazione, questo è un altro tema che ha molto a che fare con la protezione dell’ambiente. Noi abbiamo
oggi in Italia, oltre al Ministero, l’ISPRA, l’Istituto Superiore per la Protezione e la Ricerca Ambientale, abbiamo le
Agenzie Regionali per la Protezione dell’Ambiente, abbiamo il CNR, abbiamo l’ENEA, abbiamo l’Istituto Nazionale
di Geofisica e Vulcanologia, che spesso si occupano delle stesse cose, spesso con finanziamenti paralleli,
sicuramente iniziative tutte importanti, tutte significative, ma è possibile che ci si debba occupare in quattro della
stessa problematica? Che ci si debba occupare in quattro della mappatura dello stesso territorio? Che si debbano
investire risorse pubbliche che poi alla fine servono per tenere in piedi un’organizzazione o più organizzazioni?
Non è sostenibile, perché il rischio è quello di trasformare l’obiettivo della protezione dell’ambiente in un sistema
di welfare che serve per tenere in piedi l’organizzazione che si occupa nella protezione dell’ambiente, sono due
cose diverse e credo che lo stesso problema si ponga anche nell’organizzazione della sanità pubblica. Allora qual
è l’argomento molto difficile sul quale stiamo lavorando e con il quale ci confrontiamo? L’argomento molto difficile
è quello di prendere atto che se vogliamo ridare efficienza alla nostra organizzazione pubblica per la protezione
dell’ambiente, parlo di questo, dobbiamo fare tutti un esercizio di responsabilità e di generosità per cominciare a
capire che l’organizzazione che abbiamo costruito come modello, diciamo, del secolo scorso non regge più alla
sfida, perché da un lato le problematiche ambientali sono complicate e richiedono competenza e risorse e
dall’altro, a fronte di sfide complicate che richiedono competenza e risorse, noi abbiamo un’organizzazione con
molti duplicati e che spesso non ha i livelli di competenza che sono richiesti. Voglio dire questo, perché chiaramente
non credo che il Governo riuscirà, questo Governo, a fare l’operazione che sarebbe necessaria e cioè quella di
riallineare l’uso delle risorse pubbliche per la protezione dell’ambiente, ma cercheremo almeno di fornire un
quadro di riferimento nel quale sono chiari i numeri e sono chiari gli obiettivi, in modo che tutti siano messi di
fronte alla responsabilità di dover scegliere, dalle organizzazioni che rappresentano i lavoratori dei diversi settori
della ricerca, i dipendenti delle Regioni, i dipendenti dello Stato, eccetera, ai responsabili delle amministrazioni
degli enti, perché è necessario riuscire a capirci su che cosa serve oggi e come meglio possiamo fare per
affrontare le sfide ambientali che sono complicate e questo vale anche in quella interfaccia tra ambiente e salute
così difficile. Le esperienze che abbiamo fatto in questi ultimi mesi, oltre a mettere in evidenza la difficoltà tecnica
di decifrare le problematiche, per esempio la relazione tra inquinamento storico di alcune aree del nostro Paese
che sono state le aree di sviluppo industriale e lo stato di salute della popolazione attuale e come lo stato della
salute e la popolazione attuale è il risultato di quella situazione di inquinamento di trenta, quaranta anni fa piuttosto
che il risultato della situazione dei rischi attuali, è un problema enorme, noi avremo giovedì, a Venezia, l’apertura
della Conferenza Nazionale sull’Amianto, l’amianto, come sapete, è stato bandito un po’ di tempo, però abbiamo
nel nostro Paese un’emergenza sanitaria che riguarda le malattie legate all’amianto che difficilmente possono
essere commesse con le esposizioni attuali e che perciò rappresentano l’eredità di un sistema industriale e
produttivo che utilizzava questo tipo il prodotto. Nel momento in cui però si affronta questa tematica spesso
l’emergenza sanitaria legata all’esposizione a sostanze tossiche e pericolose di trenta, quarant’anni fa, viene
attualizzata, come se il problema fosse di un’esposizione attuale e questo crea un’enorme difficoltà nella gestione,
perché sostanzialmente si attribuiscono responsabilità a sorgenti di rischio che non sono pertinenti rispetto a quel
tipo di problema. Ecco, anche riguardo a questo tipo di tematica, noi stiamo scontando ,nonostante il lavoro
importante dell’Istituto Superiore di Sanità, nonostante il lavoro importante delle Regioni. delle Aziende Sanitarie
Locali, noi stiamo scontando di fatto una difficoltà importante nel nostro Paese a riuscire ad analizzare i dati della
popolazione attuale e a correlarli con situazioni di rischio attuali, perché la prevenzione si fa su quello che abbiamo
oggi, non si fa su quello che abbiamo avuto quarant’anni fa, tranne nel caso in cui dobbiamo risanare siti
contaminati che sono lì da quarant’anni o da cinquant’anni. Ci siamo trovati allora, ci troviamo, in molte realtà del
nostro Paese nella difficoltà di avere dei dati di riferimento certi che ci dicano che la situazione era questa,
l’evoluzione attesa di quella situazione di rischio è questa, la situazione attuale è quest’altra e l’evoluzione attesa
del rapporto tra la situazione attuale e lo stato della salute è questa; questi dati di riferimento, che tutto sommato
non sono necessari ma anche relativamente semplici, non li abbiamo e abbiamo assistito e assistiamo a un
confronto pubblico con la partecipazione di esperti, di istituti, eccetera, che sostanzialmente non riescono a fare
chiarezza su questo punto, anche questo è un tema che ha a che vedere con l’utilizzazione efficiente delle risorse,
perché non si capisce come mai nel nostro Paese, nonostante i decenni di evoluzione positiva dell’organizzazione
pubblica per la tutela dell’ambiente, dell’organizzazione pubblica per la tutela della salute, non esista un punto di
riferimento pubblico sicuro, autorevole che dica quale è la situazione e ogni volta che si apre una vertenza su
questo tipo, la magistratura invece di fare riferimento all’autorità che dice come stanno le cose, fa riferimento a
consulenti di parte che devono occuparsi della questione. Sto parlando di questo non per fare delle polemiche ma
per dire che anche questo è un tema che riguarda le modalità con le quali lo Stato deve garantire la certezza delle
informazioni sulla qualità dell’ambiente e sulla qualità della salute per consentire a tutti, dalle amministrazioni
Arezzo 20 - 23 novembre 2012
17
20 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
pubbliche che hanno la responsabilità della pianificazione degli usi del territorio alle imprese i che hanno
responsabilità di rispettare le leggi, alla magistratura che ha la responsabilità di perseguire i reati, per far avere a
tutti un quadro di riferimento certo di informazione, questa è un’emergenza nazionale che riguarda insieme la
protezione dell’ambiente, la protezione della salute e l’uso migliore delle risorse pubbliche. Credo che una
discussione franca, aperta, costruttiva su questo tema sia utile e sia anche sana, perché sostanzialmente
dobbiamo prendere atto che in molti, in questo Paese, abbiamo lavorato tanto, abbiamo raggiunto degli obiettivi
importanti ma che probabilmente abbiamo lavorato ognuno per la sua strada mentre invece adesso le strade
vanno messe insieme e va fatta sinergia tra le risorse, ognuno di noi deve rinunciare a un pezzo di quello che si
è immaginato di costruire, perché non ci possiamo più per permettere in Italia, e questo è un unico caso in Europa,
di non avere un’autorità di riferimento per la salute e per l’ambiente che sia punto di certezza per tutta la
popolazione. L’ultima cosa che dire, io ringrazio molto gli organizzatori di avere dato una dimensione internazionale
a questo forum e soprattutto una dimensione internazionale che è legata alle economie in transizione, alle
economie emergenti dell’Europa, quelle del Centro-Est Europa, perché credo che sia un’occasione importante
per l’Italia, nel momento stesso in cui riflettiamo su noi stessi e cerchiamo di riorganizzarci e di darci una prospettiva
capace di affrontare le sfide del futuro, possiamo nello stesso tempo essere utili interlocutori di questi Paesi che
sono alle prese con l’organizzazione dei loro sistemi; non siamo nella posizione di dire agli altri come devono fare,
anche perché abbiamo fatto tanti errori, ma siamo nella condizione di lavorare con questi Paesi per costruire
insieme un modello che possa essere utile a noi e a loro. Grazie.
18
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
20 Novembre
Corretto utilizzo e salvaguardia della risorsa acqua
Paolo NanniniPresidente Nuove Acque
Trascrizione non revisionata dal relatore
Due parole per iniziare, perché questo dell’acqua è un tema delicato, un tema molto sentito, politicamente ma anche
dall’opinione pubblica tutta, da una parte per tutto quello che attiene all’idropotabile e che attiene alla gestione
della risorsa idrica come acqua da bere e dall’altra anche come risorsa che a volte non viene come dovrebbe
venire e quindi il rischio idraulico. Questi giorni ci sono stati problemi, un po’ in tutta Italia, perché alcuni anni di
acqua ne viene anche troppa mente alcuni anni la risorsa manca. Quindi, il ciclo delle acque, tutto complessivo,
è un argomento estremamente interessante. Su questo, sulla parte che riguarda la sessione di stamattina, con il
corretto utilizzo e la salvaguardia, c’entrano un po’ tutti i temi di cui vi ho accennato. In particolar modo, in questi
giorni, l’AEG che è l’autorità dell’energia e del gas, sta lavorando su un nuovo sistema tariffario che crea un po’
di fibrillazione a tutti per il contenuto e per le conseguenze che potrebbe portare soprattutto al sistema toscano
riguardo alle tariffe e agli investimenti che sono già in atto e che alcune aziende toscane si apprestano a fare, ma
diciamo che comporterebbe però, se così fatta, uno sconvolgimento un po’ in tutta Italia. Personalmente, penso
che il miglior sistema che noi abbiamo è far funzionare le nostre aziende e dare un buon servizio, di modo che
tutti possano bere l’acqua del rubinetto con soddisfazione, questo è legato all’avere la risorsa e avere la risorsa
significa che vanno fatti investimenti per quanto riguarda il tenere l’acqua a monte, questo significa fare anche
energia elettrica, significa fare anche un po’ di mitigazione del rischio idraulico. Di questi problemi poi stamattina,
vorrei dire che l’acqua potrebbe diventare energia in un altro sistema, perché la molecola dell’acqua è ossigeno e
idrogeno e quindi chissà che in futuro non se ne parli anche un po’ di più e diventi conveniente anche la scissione
e l’utilizzo dell’idrogeno.
Arezzo 20 - 23 novembre 2012
19
20 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
Corretto utilizzo e salvaguardia della risorsa acqua
"Il Governo della risorsa idrica nel piano di gestione della Direttiva Quadro: misure sostenibili per il
raggiungimento degli obiettivi di qualità"
Gaia Checcucci
Segretario Autorità Bacino Arno
Grazie a lei Presidente, grazie a tutti. Mi ha fatto piacere che il Presidente nell’introduzione abbia accennato che
non siamo soltanto nel campo del servizio idrico integrato, ma siamo nel campo del governo a tutto tondo della
risorsa, e quindi anche della tutela idro-geomorfologica e della tutela qualitativa. E’ proprio questo infatti il senso
e la finalità della direttiva europea 2000/60 che, nel settore delle acque, ha cambiato completamente lo scenario
di riferimento, facendo la scelta innovativa di approcciare la risorsa acqua nel suo complesso e segnando, quindi,
una forte discontinuità rispetto al passato.
La direttiva quadro, recepita nel nostro Paese con il d. lgs. 152/2006, il cd. codice dell’ambiente, sancisce infatti
il superamento della storica tripartizione che ha da sempre caratterizzato il settore, ossia difesa dalle acque (da
intendersi come difesa del suolo, idro-geomorfologica, e quindi tutto ciò che è ancorato alla legge 183/1989 e
alla pianificazione di bacino), tutela della risorsa (per la quale si rinvia ai piani di tutela e agli obiettivi di qualità
incardinati sull’azione regionale) e, infine, servizio idrico integrato (con il necessario rinvio alla legge 36/1994 e
al mondo delle società di gestione). In Italia, fino al recepimento della direttiva e purtroppo ancora oggi, si fatica
comunque a superare la demarcazione fra questi tre settori. Con il recepimento della 2000/60 e con l’introduzione
di nuovi strumenti di pianificazione, si cambia completamente approccio, in quanto la direttiva prevede una
pianificazione di gestione sovraordinata: non più piani regionali di tutela, piani d’ambito, piani di bacino articolati in
stralci, piani di sviluppo rurale e altri ancora, indipendenti l’uno dall’altro, ma tutte queste pianificazioni organizzate
in un unico strumento, in un masterplan di riferimento che le accorpa e le reinterpreta tutte, alla luce dei principi
della direttiva, e che si chiama Piano di gestione. La Direttiva prevede quindi un unico strumento di pianificazione
per affrontare il problema di gestione della risorsa nel suo complesso, perché ciò che interessa è sostanzialmente
il corpo idrico, la valutazione del saldo dei benefici che vengono arrecati a ciascun corpo idrico da tutte le misure
e interventi che insistono sullo stesso, non soltanto quindi interventi di depurazione e fognatura ma anche misure
non strutturali come, ad esempio, le limitazioni degli attingimenti (contenute nel piano del bilancio idrico) e altre
misure che hanno a che fare con i piani di sviluppo rurale, strettamente legate all’uso irrigo: tutto ciò che arreca
un saldo positivo al corpo idrico deve essere censito, monitorato e incardinato in una logica pianificatoria per il
raggiungimento dell’obiettivo di qualità buono al 2015 che la direttiva prevede per ciascun corpo idrico, salvo
specifiche deroghe o proroghe.
La cartina che vedete nella slide è l’area di operatività a livello distrettuale in cui ha operato l’Autorità di Bacino
dell’Arno: si tratta di un territorio non limitato al solo bacino dell’Arno, ma che si estende a 6 regioni dalla Liguria
a parte dell’Emilia Romagna, delle Marche, del Lazio e del Piemonte. L’Autorità di bacino del fiume Arno in questi
anni ha, dunque, lavorato come Autorità Distrettuale coordinando le regioni ricadenti nel territorio distrettuale
perché la direttiva 2000/60/CE, a fronte dell’unicità di riferimento pianificatorio, prevede che ci sia anche un unico
soggetto che si occupa del governo della risorsa. Nel nostro Paese l’Autorità di distretto non è ancora nata: si
tratta di una delle tante riforme mancate; tuttavia, nelle more dell’istituzione dell’Autorità di Distretto con due leggi
ponte, nel 2009 e nel 2010, il Parlamento ha attribuito specifiche competenze distrettuali alle Autorità di bacino
nazionali.
Il primo piano di gestione del distretto è stato pubblicato nel 2010 e consegnato alla Comunità Europea che lo
ha sottoposto ad una prima valutazione. Il piano di gestione è sostanzialmente un piano composto dai piani di
tutela, dai piani di ambito, dagli accordi di programma: tutto ciò che ogni regione e ogni altri soggetto competente
ha inserito nella pianificazione degli interventi è stato considerato e reinterpretato in chiave 2000/60 dal piano di
gestione. Nell’attuazione del piano di gestione la prima scadenza importante è proprio a dicembre 2012, termine
entro cui siamo chiamati a fare un report alla Commissione Europea. La Comunità Europea vuole sapere a che
punto è l’attuazione degli interventi e i progressi realizzati nell’attuazione delle misure: si tratta di una sorta di
verifica a metà percorso in vista della scadenza definitiva del 2015. Nella sostanza si tratta di riportare cosa è stato
fatto e, soprattutto, come sta andando il raggiungimento degli obiettivi di qualità. Questa (slide) è la fotografia di
partenza del nostro distretto e questo (slide con torte) è lo stato dei corpi idrici superficiali, così come rappresentati
nella ricognizione del piano di gestione a marzo 2010 alla Comunità Europea e gli obiettivi individuati, sempre
nel piano di gestione, per il raggiungimento dell’obiettivo di qualità buono. Come potete notare, la scelta che
abbiamo compiuto e della quale siamo più che mai soddisfatti e orgogliosi è stata una scelta di cautela: sulla
base degli interventi in corso, purtroppo, non ci sono grandissimi margini di miglioramento nel passare dallo stato
sufficiente o scadente allo stato di qualità buono. Questa (slide) era la previsione del piano di gestione del 2010,
nel quale sostanzialmente ci si impegna a mantenere lo stato di qualità buono per oltre quasi il 60% dei casi, ma
20
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
20 Novembre
si prevedono anche proroghe al raggiungimento dell’obiettivo di qualità buono, rispettivamente per il 17% e il 24%
dei casi, al 2021 e al 2027 così come previsto dalla direttiva quadro. Analogo discorso può farsi per i corpi idrici
sotterranei, gli acquiferi: nella slide si vede che al 2010 lo stato dei corpi sotterranei è scadente per il 44% e buono
per quasi il 60% mentre, per quanto riguarda gli obiettivi, ci proponiamo di mantenere lo stato di qualità buono
per il 58% dei casi e si è spostato l’obiettivo al 2021 e al 2027, avvalendosi anche in questo caso delle proroghe
che la direttiva quadro consente, in particolare al fine di evitare e prevenire eventuali procedure di infrazione che
potrebbero essere arrivare laddove si dichiarasse il raggiungimento al 2015 e nei fatti non lo si raggiungesse.
Ma come stanno oggi le acque toscane? Gli obiettivi di qualità previsti nel piano sono importanti ma altrettanto
importante è capire come stanno le acque oggi e queste informazioni le abbiamo grazie al monitoraggio
Questi (slide) sono i dati del monitoraggio effettuato da ARPAT pubblicati recentemente: come vedete dalla
rappresentazione, il passaggio 2010/2011 non fa stare molto tranquilli perché per quanto riguarda lo stato di
qualità “buono” c’è un leggero peggioramento sulla tendenza e lo stesso può dirsi per quanto riguarda gli altri
stati (“scadente” e “sufficiente”) che si mantengono più o meno allo stesso modo.
In altri termini ciò significa che a due anni di distanza dalla pubblicazione del piano di gestione, sulla base del
monitoraggio ARPAT che abbiamo raccolto e di cui vedete la rappresentazione, non si registrano miglioramenti
significativi, anzi c’è un leggerissimo peggioramento per quanto riguarda lo stato di qualità “buono”, quindi non
possiamo dire che ancora le misure e gli interventi che sono stati messi in campo siano stati funzionali a dare un
segnale nell’ottica del miglioramento dello stato di qualità.
Quest’altra slide mostra una sintesi del programma di misure del piano di gestione. La direttiva distingue tra
misure di base che sono l’applicazione di tutte le direttive di riferimento sulle acque potabili, sugli scarichi, sulla
depurazione, ma aggiunge che non basta attuare dette direttive, occorre anche che ogni stato membro metta in
campo ulteriori misure di base e misure supplementari. Gli stati membri devono inoltre lavorare sul recupero dei
costi (misura espressamente contemplata e disciplinata dalla direttiva), dimostrando cosa stanno facendo per il
recupero dei costi. La direttiva prevede che laddove le misure di base derivanti dalle direttive e le altre misure di base
messe in campo non siano sufficienti al raggiungimento degli obiettivi di qualità, gli Stati membri hanno il dovere
e il diritto, di mettere in campo azioni diverse - legali, amministrative, economiche, negoziali, comportamentali - di
varia natura per agevolare il raggiungimento dello stato di qualità. Dal punto di vista dei costi e del finanziamento,
a fronte dell’intero pacchetto di misure individuate a livello di distretto per il raggiungimento degli obiettivi, bisogna
evidenziare che soltanto un terzo è ad oggi finanziato: il nostro piano di gestione individua misure e interventi per
circa 5,7 miliardi di euro, dei quali ad oggi solo 2 miliardi sono finanziati. Quindi nella sostanza è stato investito
poco e in ritardo perché i margini di miglioramento, come dimostrano i dati del monitoraggio ARPAT, sono assai
limitati.
Nella slide che segue si rappresenta lo strumento che l’Autorità di bacino ha cercato di mettere in campo per
valutare l’efficacia reale delle misure: si tratta di una sorta di “cruscotto” di controllo, implementato grazie alla
collaborazione con le regioni del distretto, un database che correla i corpi idrici, il loro stato e gli obiettivi con le
misure e gli interventi e che consente di porsi sia dal punto di vista del singolo corpo idrico che dal punto di vista
dell’intervento. Tale sistema informatico geo referenziato è, inoltre, coerente con il sistema di reportistica WISE.
La direttiva quadro introduce poi un ulteriore concetto assai rilevante, soprattutto in un settore come questo
nel quale non si è mai parlato di sostenibilità economica, di benefici, di equilibrio economico. Con la direttiva
2000/60/CE l’Europa richiede che la pianificazione di gestione sia sostenibile da un punto di vista economicofinanziario: si pianificano le misure e si prevedono gli interventi ma per ogni intervento e per il complesso di misure
occorre, poi, valutare la sostenibilità economico-finanziaria. L’analisi economica è, dunque, uno strumento che
deve servire non soltanto a fare una ricognizione del contesto di partenza ma anche a proporre la combinazione
delle misure più efficaci, al minor costo possibile, per il raggiungimento di quell’obiettivo di qualità: si tratta di
scelte da fare sulla base delle disponibilità effettive per raggiungere la migliore efficacia possibile. Tali concetti
non sono forse nuovi a molti addetti ai lavori, soprattutto delle società di gestione del s.i.i., ma in realtà nelle
pianificazioni in materia di risorsa (piani di tutela, piani di ambito e altro) si tratta di concetti finora non utilizzati.
Sulla base dell’analisi condotta in via sperimentale su una porzione di territorio è stata testata la metodologia
elaborata per verificare la sostenibilità del piano, per verificare l’equilibrio economico finanziario, per verificare se
quelle misure erano coperte realmente nel loro costo. La sperimentazione è stata fatta in una porzione dell’ATO
4 di Arezzo e ora estesa a tutti gli altri ATO toscani, in particolare l’ ATO 2, l’ATO 3 e l’ATO 4, perché - come si
vede da questa slide - in termini di comuni, di estensione, di popolazione, questi tre territori sono già significativi
e rappresentativi dell’intero bacino dell’Arno. Nell’analisi compiuta sono state incrociate le informazioni derivanti
dalla pianificazione d’ambito e contenute nei piani di gestione del 2010 con i dati aggiornati del monitoraggio e con
le informazioni messe a disposizione dei gestori sull’effettiva realizzazione dei programmi operativi di interventi.
Sono state prese in considerazione per ciascun ATO le pressioni e i prelievi distinti per tipologia e si è fornita la
rappresentazione di quanta risorsa assorbono i diversi usi (civile, agricolo, industriale) evidenziando che, in realtà,
nel nostro territorio le maggiori problematiche sono connesse all’uso industriale e irriguo del quale, tra l’altro, sono
Arezzo 20 - 23 novembre 2012
21
20 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
sconosciuti costi e spesso portate attinte.
Sulla base di tale analisi si è, altresì, cercato di vedere, incrociando i dati con il supporto dei gestori, che cosa
succede nella porzione di territorio interessata (che è appunto rappresentativa del nostro bacino dell’Arno) al
2015. In buona sostanza entro il 2015 le pianificazioni vigenti e gli interventi in corso, con gli aggiornamenti del
gestore, ci consentono di dire che è previsto il mantenimento dello stato “buono” di tutti i corpi idrici superficiali, che
erano quelli che avevamo censito nel 2010, ma che il raggiungimento dello stato “buono” per quelli che avevano
qualità “sufficiente” è previsto solo nell’1% nell’ATO 2, nel 14% nell’ATO 3 e nel 39% nell’ATO 4. In altri termini:
sulla base delle pianificazioni ma soprattutto degli interventi in corso, si potrebbe fare molto di più. Nell’analisi
si è cercato di ragionare anche sul lato di copertura dei costi, perché questo chiede la direttiva, chiede che sia
recuperato integralmente il costo di ogni servizio per ogni uso dell’acqua, civile, industriale e agricolo, chiede la
copertura, il famoso full cost recovery, e allora abbiamo ragionato prima con un rapporto tra ricavi e costi in termini
di abitanti serviti e di metri cubi considerando, con riferimento ai costi, i costi industriali, al netto ovviamente dei
costi relativi ad altre attività e abbiamo fatto una prima approssimazione dei costi ambientali intesi proprio come
le misure funzionali al raggiungimento dell’obiettivo di qualità, sono stati considerati i ricavi da tariffa ed è stata
verificata la sostenibilità finanziaria degli investimenti previsti nel periodo di interesse, proprio per capire se la
tariffa è in grado di garantire la produzione delle risorse finanziarie necessarie alla loro copertura. Quali sono le
conclusioni? La conclusione a metodo previgente, cioè con il metodo normalizzato 1.08.1996 era che la copertura
dei costi per la realizzazione degli investimenti previsti nel piano d’ambito e dei costi di esercizio avveniva solo
tramite ricavi provenienti da altre attività, quindi era garantita grazie ad altre attività extra servizio idrico integrato.
Nonostante il metodo previgente non erano tuttavia previsti tutti gli investimenti necessari per il raggiungimento
dell’obiettivo, soprattutto per la depurazione e gli agglomerati sotto i 2.000 abitanti equivalenti, non si faceva
riferimento né al costo della risorsa, né al costo ambientale. Con il passaggio e l’eliminazione della remunerazione
del capitale investito emergono grosse problematiche sulla sostenibilità del piano economico finanziario. Se già
prima c’era qualche problema, adesso con l’eliminazione della remunerazione del capitale investito, quale esito
del referendum, e tenendo conto dei primi orientamenti espressi dall’AEEg nei documenti di consultazione, si può
dire che nel nostro territorio, in tutto il bacino dell’Arno, e in particolare nel territorio di Arezzo dove c’era un buon
raggiungimento dell’obiettivo di qualità “buono”, è fortemente compromesso l’equilibrio economico finanziario
laddove realmente si volesse continuare a raggiungere e/o mantenere quegli obiettivi. Grazie.
22
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
20 Novembre
Corretto utilizzo e salvaguardia della risorsa acqua
"Investimenti per la sicurezza dell’approvvigionamento potabile: problematiche e sostenibilità"
Andrea BossolaACEA
Per me parlare dopo la dottoressa Checcucci, oltreché essere un’emozione, è tornare indietro nel tempo, nel
senso che, esattamente sei anni fa, eravamo tutti in un convegno a Palermo, era appena uscito il DLgs 2006 e la
dottoressa Checcucci lo presentò in maniera grandiosa. Nella sala affollata ci fu un signore che si alzò e disse alla
dottoressa che era stata semplicemente meravigliosa, peccato solo che la legge mancasse di un articolo, l’articolo
1e cioè chi paga. Sfortunatamente, dopo sei anni, prendo atto della presentazione della dottoressa Checcucci che
è stata perfetta, per iniziare un discorso che però parte sempre dalla mancanza dell’articolo 1, ovvero dalla slide
che ha caratterizzato per molto tempo la presentazione dei miei interventi che era “no money no party”. Di solito
parlo a braccio ma per una volta vorrei leggere per evitare di utilizzare terminologie e parole di cui potrei pentirmi;
dice il vicepresidente di Feder Utility, l’articolo si chiama “la quiete dopo la tempesta ...... forse” e ovviamente si
ricollega al fatto che esattamente un anno e mezzo fa i cittadini di questo Paese sono stati chiamati per votare un
referendum che per tutti è stato un referendum sull’acqua. A un anno e mezzo da quel referendum, bisogna dire
che, anche grazie all’intervento del Presidente della Repubblica, c’è stata una sorta di “rivoluzione totale” della
politica italiana e quindi quel referendum ha rappresentato l’ultimo vero scontro tra due schieramenti politici che
su temi (che forse conoscevo poco) hanno deciso di fare una querelle che è andata al di là delle necessità di
questo Paese. Dopo questa dilatazione artificiosa del tempo, dovuta alla fortissima crisi economica e sociale che
si è abbattuta sul nostro Paese, ora possiamo parlare pacatamente del pantano in cui ci troviamo. Nell’ultima slide
della sua presentazione, la dottoressa Checcucci dice che noi dovremmo, per volere della Comunità Europea,
raggiungere nei nostri fiumi il cosiddetto livello “buono”, ma non ci possiamo riuscire nel 2015 perché mancano i
quattrini, come si dice a Roma, e mancano i quattrini anche perché c’è stato un referendum che ha sancito che in
questo Paese non è possibile la remunerazione sul capitale investito. Premesso che quando parlavo di queste
cose la maggior parte delle persone hanno interpretato come remunerazione del capitale un indebito profitto,
cosa che ovviamente per sa di economia non è così; la remunerazione del capitale è la remunerazione del
capitale e l’indebito profitto è l’indebito profitto. Ricordo che le aziende italiane che si occupano di dare acqua ai
cittadini devono anche e soprattutto depurare i liquami, e quindi altra slide classica era “acqua bene comune ma
il liquido che cammina non lo è altrettanto”? No, non è un bene comune, in questo Paese si pensa che la
depurazione la possa fare Santa Maria Teresa di Calcutta oppure i Caschi Blu dell’ONU. Allora il problema è che
cosa bisogna fare; è vero che la buona acqua è una fantasia, un problema che è diverso dall’energia elettrica, dal
gas. Qualcuno dice che l’acqua è indispensabile alla vita umana, nella testa di tutti è così, e facendo indagini (non
mi hanno mai mandato a lavorare a Parigi o a Londra, mi hanno sempre mandato in Moldavia, in Armenia, in
Marocco, in Tunisia, nei Paesi un po’ più “sfigatelli” si direbbe) ci si fa un’esperienza anche di quella che è la
percezione dei servizi forniti. Bene, la maggior parte delle persone se gli stacchi l’energia elettrica, si arrabbia
come un babbuino olandesi per la semplice ragione che non può vedere la televisione, non perché gli si spegne
frigo. Allora il concetto di ciò che sono le priorità, nella scala dei valori delle persone, è sicuramente da rivedere,
nel senso che nella priorità delle persone c’è sicuramente di più il telefonino che pagare la bolletta dell’acqua,
perché il telefonino giustamente soddisfa un desiderio di socializzazione che probabilmente è maggiore del
desiderio di lavarsi, perché, attenzione, il fabbisogno idrico è un altro concetto che è poco chiaro nel nostro
Paese, il nostro Paese ha le tariffe più basse d’Europa in particolare la città da cui vengo è la capitale europea
con tariffa più bassa, nel senso che a Roma l’acqua costa meno che a Praga, meno che a Bratislava, meno che
a Bucarest; peccato però che la capacità di acquisto dei cittadini di Bucarest è sicuramente nettamente inferiore
alla capacità di acquisto dei cittadini di Roma, e quindi l’impatto del costo dell’acqua a Roma è nettamente più
basso di quello nelle altre capitali europee. Malgrado noi pensiamo che possiamo risolvere qualsiasi problema, di
fronte a un periodo di siccità ci troviamo terribilmente fragili. Ad esempio ricordo che nelle scorse Olimpiadi di
Londra, c’è stato un periodo di siccità, e l’Authority delegata alle Olimpiadi, nella Patria dell’acqua, per garantire
l’approvvigionamento idrico nel periodo delle Olimpiadi, ha chiuso le fontane a Trafalgar Square per un mese. C’è
quindi un’incapacità dell’uomo, qualche volta, a controllare la natura. In Toscana, e lo sa perfettamente la
dottoressa Checcucci, la siccità dello scorso anno ha fatto sì che il Bilancino abbia raggiunto il minimo livello da
quando almeno io frequento la Toscana, non c’è mai stato un periodo così siccitoso. Adesso torniamo a parlare di
quello che è il mio intervento. Di cosa necessita il nostro Paese? Il nostro Paese necessita di investimenti nel
settore dell’acqua per garantire ai nostri figli e ai nostri nipoti ventiquattro ore di acqua potabile, ventiquattro ore
al giorno tutti i giorni della settimana. Nel nostro Paese si può dire che negli ultimi anni ci sia stato un miglioramento,
quando discutevamo a Palermo, sei anni fa, o nel 1994 quando uscì la Legge Galli, l’approvvigionamento idrico
nel nostro Paese era sicuramente peggiore, dopo vent’anni non possiamo dire che abbiamo risolto completare il
Arezzo 20 - 23 novembre 2012
23
20 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
problema dell’approvvigionamento, perché nel frattempo è vero che ci sono meno parti del territorio dove c’è il
razionamento dell’acqua potabile, però ci sono molte più parti del territorio dove bisogna spendere molti più soldi
per potabilizzare la risorsa che nel frattempo si è deteriorata. Adesso sapete che il 31 dicembre di del 2012 è
terminata la deroga per l’arsenico e ci sono molte parti di questo territorio, nel Lazio, in Toscana e anche nella
pianura padana, dove c’è arsenico e ovviamente bisogna spendere soldi per risolvere il problema. Tenuto conto
che la Direttiva è del 2001, credo, noi ci abbiamo messo solo dodici anni per accorgerci di questo problema e si
torna alla slide number one “no money no party”, perché noi non investiamo in questo settore da decenni ,il nostro
gap infrastrutturale, diciamo, che è endemico, nel senso che se noi andiamo nei cento anni prima di adesso,
rispetto agli altri Paesi che noi consideriamo nostri partner europei, noi abbiamo avuto sempre un ritardo di
almeno un decennio, cioè bisogna andare indietro fino ai romani per trovare che eravamo leader, perché sia
chiaro, tra le varie origini, io sono essenzialmente romano e noi a quel tempo eravamo i migliori nel tema dell’acqua,
nel senso che nel 100 d.C. a Roma i romani portavano 14 m³/s di acqua potabile e oggi il mio amico Cecili, che è
il Presidente di Acea ATO2, l’azienda che gestisce l’acqua a Roma, che sarebbe il novello curator acquarum, il
vecchio Frontino che scrisse un libro per noi idraulici memorabile, ne porta 16, tenuto conto che i romani a quel
tempo erano meno di un milione e adesso siamo tre milioni e mezzo, l’incremento di approvvigionamento idrico
che in tutti questi secoli è avvenuto è stato trascurabile. Noi abbiamo in parte colmato il gap infrastrutturale degli
acquedotti mentre una tragedia è la copertura fognaria ma soprattutto la depurazione, da questo punto di vista il
gap infrastrutturale è molto democratico nel nostro Paese, non c’è quella famosa spaccatura tra Nord e Sud anzi,
per un certo periodo della nostra storia la spaccatura era all’inverso; vi ricordo che Milano, il centro industriale,
esattamente sei anni fa, non aveva il depuratore ed è stato necessario prendersi una mazzata di sanzione europea
per provocare la costruzione degli impianti di depurazione a Milano, quindi il problema della depurazione è
fondamentale. Andiamo ai numeri, quanto serve? La necessità di investimenti in questo Paese è di 5 miliardi
l’anno. Per quanto tempo? Per sempre, perché le infrastrutture di questo Paese sono come gli esseri umani e
hanno una vita più breve degli esseri umani, grazie a Dio la vita media degli esseri umani oramai è superiore agli
ottant’anni mentre vita media delle infrastrutture, il sistema idrico, è un qualcosa che oscilla tra i quarant’anni e i
cinquant’anni. Che cosa vuol dire? Vuol dire che se qualcuno ha costruito una cosa quarant’anni fa adesso è
praticamente morta e bisogna rifarla, ovviamente sempre al netto di quello che hanno fatto i romani, perché noi a
Roma un pezzo della Cloaca Massima lo utilizziamo ancora, perché evidentemente loro le cose le facevano
meglio di quanto le facciamo noi. Quindi, servono cinque miliardi e chi ce li mette i soldi? La risposta è facilissima:
i cittadini. Non esiste in nessuna parte del mondo che le infrastrutture le finanzi qualcuno diverso dai cittadini, non
è che ce li mette la Regione, questo bisognerebbe insegnarlo a scuola, perché la Regione è sempre i cittadini,
non ce li mette la Provincia, perché la provincia sono sempre i cittadini, non ce li mette lo Stato, perché lo Stato
sono sempre i cittadini. Non c’è un altro che può fare le infrastrutture di questo Paese a parte i cittadini, e quindi
bisogna educare da ragazzini che l’alternativa è come i cittadini pagano le infrastrutture di un Paese, e anche lì
non è che bisogna dover fare chissà quale pensata, le alternative sono due: o con le tasse, chi è più forbito parla
di fiscalità diretta, o con le tariffe, cioè con la bolletta che ti arriva a casa, non ci sono alternative. Si può ovviamente
far un mix delle due, c’è un certo numero di combinazioni ma non c’è alternativa a questo. Noi abbiamo fatto un
referendum e voi siete andati a votare esattamente su questo, come i cittadini dovevano finanziare le infrastrutture,
forse voi non lo sapete ma avete fatto vincere che bisognava pagarlo con le tasse: silenzio… lo sapevate che
quando siete andati a votare sì, perché la maggior parte di voi, ovviamente campione rappresentativo di quelli che
sono andati a votare, hanno detto che le infrastrutture di questo Paese si devono costruire con le tasse? Silenzio….
eh, bene, questa è la situazione ovvero gli investimenti del prossimo anno, zero, investimenti dell’anno ancora
dopo, sempre zero, perché non è stata messa nessuna tassa che possa finanziare le infrastrutture idriche, non
c’è nessun provvedimento di questo Governo, e anche di quello precedente, che dica che si mette una tassa,
un’accisa sulla benzina per finanziare il servizio idrico integrato, non c’è stato nessun provvedimento che ha detto
che è stata messa una tassa, un ticket per finanziare l’acqua, conseguentemente i nostri figli e i nostri nipoti non
avranno i mari puliti e i fiumi puliti. Questa situazione, ovviamente la sto esagerando nella mia presentazione ma
la realtà vera è questa. Quindi, noi abbiamo bisogno di cinque miliardi per evitare le sanzioni della Comunità
Europea, che sono state ad oggi calcolate in 17 miliardi di euro (che ovviamente pagheranno i cittadini, sempre
loro, non c’è un altro soggetto). Noi andremo di fronte ai 17 miliardi, perché noi non spieghiamo mai le cose come
devono essere spiegate. Saremmo dovuti andare con un cartello con su scritto se i cittadini volevano pagare le
infrastrutture con le tasse o con le tariffe, perché vuol dire poi se le volevano pagare tutte subito oppure pagare a
rate, cioè se volevano accendere un mutuo con Fidi Toscana oppure se volevano pagare tutto con i loro soldi,
tutti avrebbero detto che lo volevano pagare a rate, più rate possibili ovviamente disposti a pagare gli interessi. E
allora perché siete andati a votare sì al referendum? Perché siete andati a votare che non volevate pagare a rate
perché non volevate pagare interessi? questo è quello che avete fatto. So che sono stato provocatorio, ma io non
so essere diverso da così. Grazie.
24
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
20 Novembre
Corretto utilizzo e salvaguardia della risorsa acqua
"Nuove tecnologie per risparmio idrico e trattamento acque superficiali: un approccio sostenibile"
Giovanni Giani
Ondeo Italia
Trascrizione non revisionata dal relatore
Grazie per essere venuti. Preferisco non parlare di acqua, parlerò di aria, siccome lavoriamo sempre nell’acqua
e si parla sempre di acqua, parliamo una volta di aria, parliamo di che cosa significa, nell’aria che respiriamo, una
gestione delle risorse idriche inadeguata come è apparso dagli interventi precedenti e come sappiamo esistere in
questo Paese. Quando parliamo di acqua, quanti di voi hanno letto sui giornali o hanno sentito parlare di problemi
reali della risorsa idrica, delle gestioni idriche, delle perdite idriche? Poco. Si parla solo di acqua pubblica e acqua
privata. Guardate i giornali, mai che una volta dicano che dobbiamo fare qualcosa per il servizio idrico e quali sono
le cose da fare, diranno sempre che il comitato ha detto, il referendum, l’acqua deve essere pubblica, il privato si
arricchisce, nessuno mai dice che c’è un problema serio di obsolescenza degli acquedotti e degli impianti, c’è un
problema di perdite nelle reti idriche, c’è un problema per cui metà dell’acqua viene sprecata, ma non perché noi
cittadini la sprechiamo usandola, perché si perde nelle reti, sia che noi la consumiamo o che non la consumiamo.
Quante volte avete sentito dire “questo problema genera un inquinamento dell’aria che respirate”? L’acqua che
viene buttata via nelle reti idriche italiane, e vedete che è quasi il 50% dell’acqua consumata, o meglio, il 50%
dell’acqua coprodotta il che vuol dire che è il 100% dell’acqua consumata, per buttar via quest’acqua dalle reti
idriche, si produce della CO2, perché occorre dell’energia elettrica per mandare l’acqua da buttar via nelle reti
idriche, e questa CO2 produce un impatto ambientale e vedrete di che ordine di grandezza. Allora, cosa bisogna
fare per proteggere l’aria che, dimentichiamoci dell’acqua, parliamo dell’aria che respiriamo, bisogna proteggere
l’acqua, bisogna fare degli investimenti, bisogna avere una gestione industriale, perché il sistema idrico è
un’industria, che lo si voglia riconoscere o meno, è un’industria, è un impianto, abbiamo che fare con impianti, con
stemmi che sono industriali, quindi occorrono investimenti e forse occorrono anche un po’ di nuove tecnologie,
questa tabellina dimostra la situazione delle perdite idriche a livello di media nazionale, in Italia il dato ufficiale è
che 42% dell’acqua prodotta viene dispersa, cioè persa, nelle reti idriche; è un dato ottimistico, è una media ma
è anche un dato ottimistico, perché chi sta nel settore sa che in realtà è superiore. Negli altri Paesi la situazione
è migliore, non è facile avere perdite idriche molto basse, perché occorre un grosso lavoro che comunque non si
riesce a fare come si vorrebbe, vedete però che in Gran Bretagna siamo al 25%, in Francia circa il 20%, nella
tabella vedete i milioni di metri cubi prodotti, vedete che in Italia siamo a 7.800, quindi 7 miliardi e 800 milioni dei
metri cubi prodotti e di questi se ne disperdono 3 miliardi e 300 milioni, se andate alla penultima colonna, vedete
quali sono i milioni di KWh necessari per disperdere l’acqua nelle reti e vedete che in Italia dobbiamo produrre
4.125 milioni di KW·h , cioè 4 miliardi di KWh solo per buttar via l’acqua, negli altri Paesi siamo a un livello molto
più basso, in termini economici, al costo dell’energia nostra, questo vuol dire buttar via 750 milioni di euro all’anno,
solo in energia elettrica, dimentichiamo altri così associati. Gli altri Paesi spendono molto meno per buttar via
l’acqua, tra l’altro questi dati che vedete sotto, 180 e 180, sono stati scritti per pudore, perché se si usasse il valore
vero del costo del kilowattora in questi Paesi, saremmo intorno ai 130, qui è proprio una questione di pudore,
perché far vedere che noi siamo messi così male, fa proprio un po’ schifo. In termini energetici, le perdite idriche
sono impressionanti, se voi guardate quanto è il consumo domestico medio pro capite di questo Paese, siamo
intorno ai 300 KWh all’anno, se calcolate in proporzione l’energia consumata per le perdite idriche, cioè 4 miliardi
di KWh, per buttar via l’acqua non consumiamo l’energia che consuma una popolazione di 3 milioni di abitanti,
Roma potrebbe benissimo alimentarsi di energia solo con quello che si spende e per buttar via l’acqua in questo
Paese. Se noi prendiamo la produzione media di energia elettrica di questo Paese, un pacchetto di centrali,
mediamente ogni kilowattora elettrico prodotto produce 0,58 chili di CO2, se andiamo ancora a vedere l’ energia
elettrica usata per buttar via l’acqua, la CO2 che viene prodotta, ripeto per buttar via l’acqua, raggiunge il valore
di 2,4 milioni di tonnellate all’anno, 2,4 milioni di tonnellate di CO2, a cosa equivale questo valore? Equivale a un
milione di macchine che fanno 20.000 km all’anno, cioè noi per buttar via l’acqua inquiniamo l’aria come un
milione di macchine che girano per 20.000 km all’anno,milione milioni di macchine, e poi ci vengono a dire che
abbiamo le domeniche ecologiche, ci vengono a dire che bisogna lavarsi un po’ di meno, io ho sentito personaggi
pubblici dire che si potrebbe fare una doccia alla settimana, io gli ho detto che speravo di non incontrarlo in un
ambiente chiuso, era un personaggio pubblico, Fulco Pratesi, Presidente di Italia Nostra Legambiente, meglio
fare una doccia la settimana, io preferirei non buttar via l’acqua dalle reti. Allora, dal panorama italiano, le uniche
società, gli unici gestori che hanno dimostrato di fare veramente qualcosa per l’acqua, e quindi per l’aria che
respiriamo, sono le società miste pubblico private, e qui torniamo a a quello che diceva Bossola riguardo al
referendum, torniamo alla solita polemica, in Toscana abbiamo il modello della società mista a maggioranza
pubblica che si è dimostrato in Italia l’unico modello veramente efficiente e capace di fare qualcosa per l’acqua e
Arezzo 20 - 23 novembre 2012
25
20 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
per l’aria. Se guardate i due diagrammi di sotto, avrete un flash su cosa sono gli investimenti previsti pro capite
in termini di euro per abitante nei vari piani d’ambito, vedete che la riga rossa è la media nazionale, i PdA
prevedono circa 760 euro per abitante da investire nell’acqua, questa è la media nazionale. I PdA della Toscana,
Arezzo, Firenze e Pisa, sono allineati, ci sono dei PdA, come l’acquedotto pugliese, che prevedono di investire
oltre 1.000 euro per abitante, ci sono altri casi, come Bergamo, che prevedono 29 euro per abitante, queste sono
le previsioni ,ma guardiamo cosa si fa. Se andate sul diagramma di destra vedete che nella media nazionale, fra
gli investimenti programmati e quelli realizzati, siamo al 56%, non al 56% di quello da fare nei vent’anni, ma il 56%
previsto nell’anno, vuol dire che si procede realizzando meno, o circa la metà, di quello che si è promesso, se poi
guardate in altri casi che abbiamo citato, presi un po’ a caso, l’acquedotto pugliese fa il 16% di quello che ha
promesso, Bergamo fa il 29%, guardate le tre realtà toscane, queste sporche realtà in cui è entrato questo sporco
privato che ci guadagna sull’acqua, hanno fatto il 100% degli investimenti programmati, sono le uniche in Italia,
queste aziende riescono a non essere nei guai grazie al fatto di aver avuto una gestione molto industriale e hanno
avuto una capacità di generare investimenti a dei così sostenibili. Allora, per aggiungere solo due o tre cose
rapidissimamente, cosa si può fare in più oltre a gestire bene il servizio idrico, fare investimenti quidi una gestione
industriale, attenta,generale i giusti investimenti per proteggere l’acqua e per proteggere l’aria? Si possono
introdurre anche un po’ di tecnologie nuove che vengono dalla ricerca, senza soldi non si fa la ricerca, senza
remunerazione del capitale investito non si fa ricerca, non si fa crescita professionale. Ad Arezzo abbiamo un
bellissimo esempio di tecnici dell’acqua grandemente esperti che si sono fatti valere a livello internazionale, mi fa
un grande piacere riconoscerlo perché i nostri ragazzi di Arezzo sono apprezzati a livello internazionale. Bene,
qualche esempio di innovazione, si può produrre calore dalle fogne, le fogne sono molto, calde introducendo i
giusti sistemi si può produrre del calore da utilizzare nei nuovi quartieri, nelle piscine, però ci vuole un approccio
industriale. Un altro esempio di innovazione che per altro stiamo per introdurre ad Arezzo, c’è un progetto pilota
che speriamo di portarlo avanti, la telelettura dei contatori, domani, in questa realtà forse, spero, ogni cittadino
potrà leggere sul suo computer il suo consumo d’acqua quotidianamente e sapere quanto spende ogni giorno,
domani un cittadino potrà essere avvisato immediatamente se ha una perdita all’interno del suo giardino, della
sua casa, una perdita occulta, e quindi non dovrà pagare una bolletta spropositata, perché immediatamente sarà
avvisato, domani un cittadino che ha una mamma anziana potrà essere avvisato immediatamente se la sua
mamma della mattina non consuma acqua e quindi magari ha un problema di salute. La telelettura dell’acqua è
una cosa abbastanza complessa, perché non c’è, come nell’energia elettrica, un cavo che porta il segnale ma la
ricerca ha sviluppato dei sistemi che consentono di fare questa lettura e di fare una gestione del dato, una
trasmissione del dato, in modo tale che il cittadino possa avere un’interfaccia con il gestore, avere dei segnali e
avere dei servizi, sevizi anche molto innovativi nell’interesse della risorsa idrica, dell’acqua, nell’interesse dell’aria,
nell’interesse magari della mamma anziana, tanto per citarne uno. Concludo con un piccolo flash su tecnologie
soft per la depurazione, spesso voi vedete grandi impianti di depurazione ma ci sono anche sistemi innovativi che
ritornano alla principio “la natura depura la natura”, ad Arezzo abbiamo adottato qualcuno di questi sistemi, si
sono fatte in alcune aree d’Europa delle zone di protezione ambientale, si sono recuperate delle aree degradate,
zone perse per l’uso urbano, che sono diventate delle splendide lagune, dove magari a vale di un depuratore che
faceva il grosso, veniva fatto un affinamento delle acque ed era un ambiente naturale in cui poter correre, giocare,
in cui poter vedere un ambiente acquatico rigoglioso e quindi recuperare pezzi di territorio all’uso urbano. Lascio
la parola a Francesca Menabuoni che vi dice qualcosa i più su Arezzo. Grazie.
26
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
20 Novembre
Corretto utilizzo e salvaguardia della risorsa acqua
"Nuove tecnologie per risparmio idrico e trattamento acque superficiali: un approccio sostenibile"
Francesca Menabuoni AD Nuove Acque
Buongiorno a tutti. Io cercherò, con il mio intervento, di contestualizzare nell’esperienza di Arezzo il tema
importantissimo che abbiamo visto emergere anche negli interventi precedenti che riguarda il risparmio idrico,
quindi cercherò, attraverso l’esperienza di questi anni di Arezzo, di far vedere qual è stata la strategia su quella
che noi tecnicamente chiamiamo la ricerca perdite che è quindi poi un risparmio ambientale in termini di acqua
non prelevata, non prodotta e non riscaricata nell’ambiente dopo che questo ciclo ha comportato una serie di
costi importanti, quindi affronterò quest’argomento, anche perché sollecitato dagli interventi precedenti, cercando
di dare qualche flash anche sul fabbisogno di investimenti, perché il tema è troppo appetitoso per passarci sopra
nella presentazione. Diamo qualche informazione anche sul tipo di gestione di Nuove Acque che è una società
che è partita nel ’99, come forse saprete gestisce 37 comuni, fra le province di Arezzo e di Siena, che sono
raggruppati in quello che si chiama l’Ambito Territoriale Ottimale (ATO) Alto Valdarno. Una caratteristica importante
della nostra gestione è la dispersione territoriale dei nostri cittadini serviti, si vede bene da questo diagramma che
mostra rapporto fra il volume venduto e quindi fornito ai cittadini e la lunghezza della rete, vedete che il rapporto
sul territorio dell’ATO 4 è molto basso e ci accomuna ai nostri colleghi del’ATO 6, della zona Ombrone, senese e
grossetano, proprio come caratteristiche della dispersione territoriale. L’altra caratteristica che ci caratterizza è la
dispersione anche dei sistemi idrici, quindi Nuove Acque gestisce 356 sistemi idrici indipendenti ma indipendenti
perché? Non perché non ci piacerebbe collegarli, in alcuni casi sarebbe anche molto più facile gestirli, ma perché,
data la conformazione territoriale, si parla di sistemi che si approvvigionano da fonti particolari e che non sono
interconnettibili per la conformazione territoriale tanto che, dal punto di vista dell’approvvigionamento, Nuove
Acque gestisce questo numero abbastanza impressionante di sistemi , sulle sorgenti addirittura quasi 560. Si è
parlato stamattina di fabbisogno e di investimenti, quali erano gli obiettivi tecnici e quali sono gli obiettivi tecnici
del piano investimenti che Nuove Acque sta portando avanti dal ’99? Prima di tutto obiettivi sul tema dell’acqua
potabile, chiaramente, essendo un territorio dove c’è una risorsa molto importante che è l’invaso di Montedoglio,
l’estensione progressiva dell’adduzione di acqua dall’invaso di Montedoglio, questo per far fronte a una serie di
situazioni sia di mancanza d’acqua quantitativa ma anche qualitativa, come vedremo successivamente, e del
quale abbiamo avuto una bella esperienza anche con la siccità fra il 2011 e il 2012. come accennavano anche i
miei predecessori negli interventi, l’altro grosso punto di impegno e di obiettivo tecnico del piano era, ed è,
aumentare la copertura del servizio fognatura e depurazione; vi faccio solo notare, questo è interessante, come
si è evoluta la copertura del servizio dal ‘99 al 2011, cosa è successo in questi anni, si sono fatte reti fognarie, si
sono fatti depuratori, quindi le percentuali sono aumentate a fronte di investimenti importanti, si sono investiti
quasi 50 milioni di erbe in questi dodici anni su questo tema. Andiamo velocemente ad alcune priorità della
gestione operativa; uno dei punti che marcano il nostro impegno è sicuramente, oltre al problema quantitativo, la
messa in sicurezza dal punto di vista qualitativo, vi faccio notare due dati che sono correlati e molto interessanti
nel nostro territorio, questa è l’evoluzione delle non conformità, quindi non conformità rilevate dal nostro controllore
sanitario pubblico, dall’inizio della gestione agli ultimi anni, vedete che a fronte di una gestione di tipo industriale
dei piani di intervento, quindi sia investimenti e mettiamoci buone pratiche gestionali, il tasso di non conformità è
molto diminuito, chiaramente c’è ancora qualcosa da fare ma si è attestato sostanzialmente, negli ultimi anni, su
un livello accettabile. A fronte di questo, il territorio aretino si caratterizza per un aumento importante negli ultimi
anni di persone che dichiarano di bere l’acqua del rubinetto, quindi la fiducia aumenta, il grafico accanto ci dice
che è una fiducia abbastanza ben motivata sulla quale dobbiamo continuare a lavorare; su questo qualche
esempio delle attività che abbiamo messo in campo in questi anni proprio per promuovere l’utilizzo dell’acqua del
rubinetto anche per l’approvvigionamento potabile. Andiamo velocemente a parlare di risparmio idrico, il cuore del
nostro intervento. Questo è il nostro territorio, l’abbiamo suddiviso e colorato su quello che è e l’evoluzione di
quello che chiamiamo “tasso di perdita” nella nostra gestione ovvero il tasso di perdita è il ratio fra quello che viene
immesso in rete a livello di acqua prodotta e quello che il cittadino riceve nella sua abitazione per gli altri usi.
Come vedete siamo passati da un punto interrogativo, perché all’inizio della gestione il primo problema è stato
non saper misurare questo tasso per un motivo molto semplice, perché ci sono misuratori in rete e molto spesso
non sappiamo neanche che “giro fa l’acqua”, cioè da dove parte, come arriva e di converso quanta acqua viene
lasciata per strada. Il 2004 è un anno in cui si è, in un certo senso, potuto completare una prima mappatura, con
l’installazione delle apparecchiature di controllo e quindi abbiamo avuto una prima mappatura, che non ci ha fatto
molto piacere, ma descrive, e presa in conto, una realtà dei fatti, quindi, vedete i colori, si dava da tassi di perdita
fra il 30% e il 40%, giallino chiaro, a tassi di perdita, in alcuni comuni, questo è il territorio suddiviso per comuni,
maggiori del 60%, una notazione importante è che la perdita non è solo quello che si perde nelle reti ma se ci sono
Arezzo 20 - 23 novembre 2012
27
20 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
sistemi sorgentizi montani di che vanno in troppo pieno anche quella è perdita, quindi potete vedere come nel
nostro territorio le zone a nord, caratterizzate da sorgenti sistemi sorgentizi, avevano tassi di perdita più elevato.
Questa è la situazione a fine , vedremo dopo che cosa è successo, la situazione è sicuramente cambiata, non ci
deve far sorridere però dà conto dell’impegno, che vedremo nel dettaglio, per il contenimento delle perdite, qui
ritorna il tema degli investimenti, di investimenti messi in campo relativamente accettabili e sostenibili dai PdA, il
dato potrà comunque far saltare sulla sedia qualcuno,perché in letteratura, in televisione, si parla sempre di dati
del 30% come molto, molto alti, ma la realtà dei fatti, in una situazione in cui c’è una conoscenza reale e verificata
sul campo delle situazioni, è questa e il 30% è un qualcosa cui si arriva dopo 10 anni di forte impegno. Vediamo
in che cosa è consistito questo impegno? Questo è un diagramma temporale che cerca di far capire che cosa è
stato fatto dalla parte superiore, al livello di progettazione, la parte inferiore al livello di attività di campo e di
installazione. Come abbiamo visto prima, la prima parte è capire che cosa si sta gestendo, quindi studio dei
sistemi idraulici, raccolta dati e parallelamente si inizia a installare le apparecchiature di controllo, dal punto di
vista di analisi e progettuale va di pari passo quella che vedremo essere l’attività principe ovvero la progettazione
dei distretti, che vuol dire, in parole povere, creare delle zone ben delimitate nelle reti per poter meglio controllare
le perdite, le fasi più avanzate comportano, a seguito di questo, progetti di modulazione, di gestione delle pressioni
tarate appunto su queste zone. Chiaramente, tutto questo è stato associato a un’attività di campo con tecnologie
avanzate che si chiamano step test, correlazioni, idrofoni, quindi tecnologie che cercano di individuare fisicamente
il punto di perdita sulla rete utilizzando tutto quello che è lo studio sul rumore generato dalla perdita, qui vedete
un operatore Nuove Acque che sta utilizzando, fra virgolette, il più grezzo di questi strumenti che è un geofono.
Facciamo un esempio ancora più concreto, la rete di Arezzo. Chiaramente, la rete di Arezzo, nella nostra gestione,
è quella più complessa, è quella che perdeva di più, anche solo per la sua taglia. Questa è la situazione attuale,
che cosa descrive? Descrive, in queste macchie colorate, le zone che sono state create, tramite interventi in rete,
sulla rete di Arezzo, zone che sono delimitate da apparecchiature in ingresso e uscita che sono tele controllate,
per le quali a oggi siamo in grado di conoscere in tempo reale l’acqua che entra e l’acqua che esce in qualunque
momento della giornata e per zone che come vedete hanno un’estensione tra i 20 e i 40 km, perché da letteratura
comincia a essere la taglia giusta per tenere sottocontrollo in maniera adeguata le perdite. Nel dettaglio che cosa
succede; per chi di voi conosce la rete d’Arezzo qui siamo praticamente vicini alla zona del Palacongressi,
analizziamo una zona, questa è la zona che noi chiamiamo “Carabinieri”. Come funziona il nostro sistema?
Ognuna delle zone è dotata di apparecchiature sia regolazione che di controllo del flusso in entrata e in uscita che
inviano i dati in tempo reale tramite collegamento al sistema di supervisione, quindi tramite segnali di GSM, viene
elaborata la portata generale in entrata e in uscita al distretto, viene elaborato in tempo reale un grafico che
mostra l’andamento della portata durante la giornata, sapendo la portata minima, che noi chiamiamo critica
ovvero sopra la quale scatta il livello d’allarme, è possibile in maniera automatica andare subito in campo per
trovare fisicamente la perdita sapendo bene la zona nella quale è emerso il problema. Un ulteriore esempio di
dettaglio, questo è l’esempio di report che viene estratto dal sistema in maniera automatica, vedete che c’è
un’anomalia, la portata minima notturna, la minima notturna è quella che ci dà conto del tasso di perdita perché
chiaramente i consumi notturni sono molto prossimi allo zero se non per i riempimenti dei serbatoi, qui c’è un
problema, vedete che da circa 4 l/s abbiamo 17,72 l/s, diciamo che la portata minima critica storica è 6 l/s, quindi
il sistema ci ha permesso di rilevare in tempo reale l’anomalia, di programmare un intervento di ricerca perdite per
capire il tratto identificato, di rinvenire la perdita e, in questo caso, che è un mese di maggio di quest’anno, di
risolvere l’anomalia in un giorno, vi faccio presente che senza il lavoro di 10 anni a un sistema di questo tipo, per
un’operazioni di rinvenimento della perdita di che tipo, potevano passare dai due ai tre mesi spendendo il tempo
di squadre che in notturna chiudevano a settori la rete urbana di Arezzo, dopo di che, avendo individuato la zona,
andavano in campo con attività come abbiamo visto prima. Qualche dato riassuntivo su quanto ci hanno fatto
risparmiare dal punto di vista ambientale queste attività sulla rete di Arezzo, perché la rete di Arezzo è
approvvigionata direttamente dall’invaso di Montedoglio c’è un rapporto di causa effetto importantissimo. Avete
presente la diga di Montedoglio? Prima abbiamo parlato di quella di Bilancino ma quella di Montedoglio non stava
meglio tra il 2011 e il 2012, livelli di invaso così bassi che non s’erano mai visti dalla costruzione, risparmiare
acqua sulla rete di Arezzo vuol dire risparmiare volumi nell’invaso di Montedoglio, c’è un rapporto di causa effetto
immediato. Il primo grafico è l’andamento dei volumi prodotti mensilmente dall’impianto che serve Arezzo e quindi
prende acqua dall’invaso di Montedoglio dal 2003 ad oggi, vedete che si è passati da circa un milione di metri cubi
mese che corrispondevano a circa 12 milioni di metri cubi l’anno di prelievo in invaso a una situazione attuale
dove, nel 2012, se ne produce, e quindi se ne preleva dall’invaso di Montedoglio, 60/ 700.000 m³ mesi, quindi un
risparmio di quasi il 30% che si traduce in una riserva in più che può essere preservata nell’invaso di Montedoglio,
quindi è impressionante, lo dico io per del servizio, quindi anche nuove reti e agglomerati che sono stati collegati
alla rete urbana di Arezzo, si è diminuito, rispetto al 2003, del 30% la produzione di acqua. Questo ha chiaramente
avuto un impatto importante, mi riallaccio all’intervento precedente dell’ingegner Giani, dal punto di vista del
consumo energetico, questo è il grafico che mostra il consumo energetico dell’impianto di Poggio Cuculo
28
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
20 Novembre
Nell’impianto, che è l’impianto più grosso in nostra gestione che produce acqua per la città di Arezzo e, a questo
punto, non solo. Si può di che il risparmio di produzione di acqua si è tradotto, associato ad alcune ottimizzazioni
impiantistiche, in un risparmio energetico, quindi il 30% che avete visto sopra di produzione dell’acqua si è
tradotto, insieme ad alcuni cambi e ottimizzazioni di apparecchiature, a un 40%, nello stesso periodo, di risparmio
del consumo energetico. Parliamo ulteriormente di risultati e questo che è un grafico un po’ da ingegneri,
comunque abbastanza semplice, mostra molto semplicemente l’andamento dell’uscita dal serbatoio principale di
Arezzo, quindi è la distribuzione della rete di Arezzo, in due momenti, il blu è l’aprile del 2011, il rosso è l’aprile di
quest’anno, l’aprile 2012. Vedete bene che cosa è successo, si è fatto l’ultimo step di riduzione delle pressioni in
rete ben dettagliato, perché a fronte di studi di 10 anni finalmente siamo in grado di poter suddividere la rete di
Arezzo e di telecontrollare l’evoluzione delle pressioni in rete su profili giorno notte in un solo, in modo tale da fare
una gestione delle pressioni molto fine, vedete che nell’ultimo anno, cogliendo risultati di tutto questo lavoro, la
famosa portata minima notturna, che è quella che poi ci dà un po’ la misura del tasso di perdita, è diminuita di tre
volte. Questo non ci deve fare impressionare nel senso che è il punto finale del lavoro di dieci anni. Concludo
facendo due parole su questo fotografia che non è il Sahel piuttosto che altri deserti subsahariani ma è l’invaso
di Montedoglio a primavera di quest’anno, lasciando perdere i signori che hanno rischiato la vita per farsi
fotografare lì dentro perché ci sono pacchi di fango alti qualche metro, ti danno la misura di quanto queste attività
di ricerca perdite siano importanti non solo per il risparmio idrico ma proprio per poter salvaguardare
l’approvvigionamento idropotabile, capite bene, qui si stava parlando di 1,5 milione di metri cubi, è un qualcosa
che dentro un invaso messo in questa situazione ci poteva spostare di qualche decina di giorni la barra di
approvvigionamento “sì” “no”, c’è un rapporto di causa effetto abbastanza importante. In situazioni che per gli
operatori del settore purtroppo stanno diventando ricorrenti, situazioni di siccità che quando facevo l’università mi
davano come ricorrenti come una volta in duecento anni, purtroppo negli ultimi 10 anni da di sono già verificate
tre volte, quindi il clima sta effettivamente cambiando, situazioni come queste, non si vede tanto bene il grafico,
ma di una piovosità media, questo è il dato della provincia di Arezzo, degli ultimi 10 anni raffrontata a quella di
due anni 2011 e 2012, vedete che porta dei deficit del 45% , questi sono dati reali con i quali dobbiamo fare i conti,
per cui attività di questo tipo, 1,5 milione di metri cubi risparmiati corrisponde, ragionando per macro sistemi, a 1,5
volte il consumo annuo di un comune medio in nostra gestione come può essere Castiglion Fiorentino di 20.000
abitanti, quindi capite che attività di questo tipo, e qui faccio un flash, che dal punto di vista della sostenibilità nel
piani investimenti impegnano risorse anche abbastanza limitate perché il percorso che abbiamo visto dal 1999
ha impegnato delle risorse che non arrivano a un milione di euro nel PdA. Poco? Tanto? Non lo so, sicuramente
ne vale la pena, il rapporto costi benefici è assolutamente premiante, vanno e dovranno essere privilegiate anche
all’interno di quella che è una programmazione di investimenti nei prossimi anni sia a livello regionale che a livello
nazionale. Chiudo con qualche foto delle attività che abbiamo messo in campo, non tecniche ma diciamo
comunicative, per invitare i nostri cittadini in questi due anni a risparmiare l’acqua, con l’aiuto anche di qualche
attore che probabilmente è riuscito a convincere anche i nostri cittadini un po’ a risparmiare e anche una foto di
un invaso molto più che è l’invaso della Cerventosa a Cortona, presa anche qui nella primavera di quest’anno, per
farvi vedere che comunque il problema è esteso ai grandi ma soprattutto ai piccoli invasi che inrealtà territoriali
come la nostra ci assicurano la bontà dell’approvvigionamento e con questo vi ringrazio.
Arezzo 20 - 23 novembre 2012
29
20 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
Corretto utilizzo e salvaguardia della risorsa acqua
"Obiettivi di qualità e pianificazione dei corpi idrici (dir 2000/60/CE - FWD): problematiche e sostenibilità"
Roberto CalzolaiRegione Toscana
Due cose sono già chiare: che non ci sono tutte le risorse finanziarie per gli interventi di tutela e che se non
raggiungiamo gli obiettivi di qualità previsti dalla direttiva, seppur con la flessibilità che la stessa ci permette ci
saranno delle conseguenze che possono comportare sanzioni anche economiche.
Qual è il ruolo della Regione? La Regione è un po’ uno snodo tra un grande piano, il piano di gestione che si
estende su più regioni, più bacini, e poi le “tasche dei cittadini”, perché la Regione, in maniera più o meno diretta
o indiretta, è un po’ una cinghia di trasmissione tra il macro e il micro. l ciclo di pianificazione che ci impone la
direttiva è quello classico del modello DPSIR, e nei meccanismi della direttiva ci sono già tutti i generatori di
benefici e di problemi.
Si parla di stato ambientale, andiamo un attimo a capire cos’ è e come, l’averlo definito e costruito provoca,
a catena, una serie di conseguenze. Per le acque sotterranee è abbastanza semplice ma già qui emerge una
multifattorialità rispetto a meccanismi precedenti la direttiva, e quindi anche la normativa nazionale, si prende
in considerazione quanta acqua abbiamo e di che qualità sia, e combinando detti fattori si ottiene lo stato di
qualità ambientale. Per le acque superficiali il meccanismo si complica per tenere conto di cosa ci impongono le
leggi dell’ecologia sul funzionamento dei corpi idrici; questo è un valore aggiunto della direttiva che ci obbliga a
tenere conto di quelli che sono vincoli ineludibili. Lo stato viene definito con una qualità ecologica e con uno stato
chimico, la qualità ecologica cerca tenere conto di tutta la complessità, gli elementi di qualità idromorfologica
(cioè la struttura fisica dei fiumi, e che è mediabili dalle esigenze del sistema socioeconomico) e quelli floro
faunistici; il fiume è fatto in un certo modo, ha due regole di funzionamento e con quelle dobbiamo confrontarci.
Se lo trasformiamo in un canale, perché un’analisi costi benefici ci dice che è economicamente conveniente,
dobbiamo mettere in conto che questa trasformazione poi condiziona lo stato di qualità ambientale, e che per
mantenerlo/raggiungerlo dovremmo, forse, spedere altri soldi, e comunque fare una pianificazione idoenea e
coerente.
La direttiva però, oltre a questa, ha alcune altre tre pilastri. Il monitoraggio come strumento di verifica dei
programmidi tutela. In Italia si era abituati ad avere un monitoraggio come strumento di conoscenza, nello struttura
della direttiva il monitoraggio è uno strumento che ha valenza sostanziale, ci dice dove siamo, se abbiamo
conseguito un obiettivo obbligatorio per legge e abbiamo un sistema di monitoraggio per tutti i corpi idrici, diversi
e differenziati, in questo il lavoro dell’Arpat è diventato molto complesso anche da un punto di vista tecnico. Altro
pilastro è l’analisi economica, e oltre che un’analisi economica, direi un’analisi costi benefici. In ultimo il bacino
idrografico come entità di pianificazione. Chiaramente, se mettiamo tutti insieme questi elementi, ed i connessi
vincoli intrinseci, ciò che si potrà costruire su questi pilastri è gia abbastanza determinato.
La Regione Toscana ha avviato, nel 2005 uno dei primi piani di tutela che guardava idealmente alla direttiva,
ma nella forma, mancando spesso le basi normative, doveva rifarsi alle disposzioni del D.Lgs 152/1999. Poi dal
2003 con Common Implementation Strategy (CIS) sulla direttiva FWD la Commissione Europea ha emanato
delle linee guida della che ci spiegano nel dettaglio la direttiva. La CIS ha spiegato ma ha anche prodotto anche
un po’ di ingolfamento perché la direttiva è 70 pagine, le linee guida sono diventate 26 (per circa 4000 pagine),
non sempre hanno contenuto esecutivo, talvolta po’ “ filosofico “; alla fine non è poi sempre chiaro quali siano le
disposizioni vincolanti in concreto da attuare, e quali siano meri orientamenti. Successivamente sono arrivati: il
decreto legislativo 30/2008 sulle acque sotterranee, nel 2008/2011 l’attuazione delle linee guida con alcuni DM
del MATTM resi operativi dall’ attività delle Regioni che hanno provveduto alla tipizzazione e l’individuazione di
quei corpi idrici, all’analisi delle pressioni ed impatti, alla definizione se un corpo idrico è a rischio o non è a rischio
rispetto a alla possibilità di raggiungere nel 2015 l’obiettivo di buono e all’individuazione dei corpi idrici fortemente
modificati. Questo è un passaggio non banale, anche se non sempre ben valutato, ma i corpi idrici fortemente
modificati e i corpi idrici artificiali sono una bella quota di tutti i corpi idrici che è poi la quota che ha più problemi.
Il piano di gestione, che è sicuramente un momento di snodo nel sistema complessivo, con la sua aderenza alla
direttiva di fatto diventerà lo schema di riferimento, per il futuro ed anche per i piani di tutela delle Regioni. Nel
futuro ci sono le verifiche sullo stato dei corpi idrici: due cicli di monitoraggio, 2010-2012, 2013-2015, che vengono
normalmente attuati in quasi tutte le regioni italiane; andando al di là della richiesta minima della Comunità Europea,
perché per molte situazioni si poteva avere un ciclo di monitoraggio ogni sei anni. Oggettivamente andare
alla prima scadenza di revisione della pianificazione con un solo ciclo di monitoraggio non era sufficientemente
affidabile. Da qui nascono i due cicli di monitoraggio, uno in corso e uno che ricomincerà da gennaio 2013. Solo
inoltre in corso: la revisione in corso dei piani delle misure con l’aggiornamento dello stato di attuazione che sta
coinvolgendo tutte le regioni e tutte le autorità di distretto/bacino. Un primo atto di verifica si è concluso in Regione
30
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
20 Novembre
Toscana con la definitiva individuazione della classe di rischio e un ampliamento della rete dei corpi idrici artificiali
e fortemente modificati per togliere un’alea che c’era e che era prevista dalla legge che erano i probabilmente a
rischio quando non c’erano sufficienti informazioni.
La scommessa da qui al 2015 è l’ adeguamento del piano di tutela delle acque perché è cominciato nel 2005 ma
ora è un po’ vecchio rispetto anche ad altri, nel 2015 la verifica degli obiettivi di qualità e l’aggiornamento del piano
di gestione. Come ne usciamo, anche per rendere compatibili le necessità con le risorse finanziarie che ci sono?
Intanto prendendo atto di un fatto e cioè che è necessario proprio un approccio integrato e multidisciplinare,
prendiamo l’esempio dei fiumi. Ci sono alcuni fattori ecologici che determinano quello stato di qualità, cioè quel
livello che noi dobbiamo raggiungere nel 2015, che ci fornisce madre natura: il substrato, la portata, la pendenze,
la velocità della corrente, la caduta, la trasparenza, temperatura e ossigeno disciolto, sono gli elementi di base
da cui deriva molto se non tutto. Queste sono invaranti naturali, strutturali e con queste dobbiamo confrontarci e
lavorare.
Successivamente dobbiamo ragionare anche su altre questioni: quanto piove, dove piove, come piove, quindi
la quantità di acqua disponibile. Adesso – novembre 2012 - provoca una serie di problemi, quali ad esempio
l’aumento dei carichi diffusi dal runoff che porta quantità non banali di sostanze nelle acque; che poi, quando
andiamo a calcolare lo stato chimico, che è parte non trattabile dello stato di qualità che dobbiamo raggiungere, ci
danno probabilmente qualche problema o più di qualche problema. Anche l’utilizzo intensivo delle risorse, piove
poco ma i consumi sono più o meno costanti, andiamo quindi a raschiare il fondo del barile, le riserve, e non è
detto che riusciamo a ricostiturle e poi di nuovo l’idromorfologia fluviale che non è poi così rimasta in condizioni
naturali.
Ma perché siamo finiti nei guai? Sì, non ci sono soldi, il referendum, le tariffe del SII, la gestione pregressa, le
pressioni ambientali, tutto vero. Ma è legittimo chiedersi se lo standard che nel 1995/2000 la Comunità Europea
si è posta con la FWD era raggiungibile o era troppo elevato date le condizioni di partenza? Viste le definizioni
dei tre stati, elevato, buono e sufficiente, consideriamo che dovremmo arrivare al buono, “livelli poco levati di
distorsione”. Non invidio i tecnici del MATTM che hanno dovuto trasformare le definizioni in una tabella, in un
numero, in un sistema deterministico. Nell’ allegato 1 alla parte III del D.Lgs 152/06 c’è un numerino, uno 0,9,
che ci dice puoi scostarti del 10%, ma il riferimento è sempre quello lassù lo “stato elevato “. Se si vuole arrivare
in paradiso il 10% è già un po’ tantino duro da raggiungere, e tutto questo nel 2015. Ricordiamoci che lo stato
di qualità si calcola in base delle condizioni di riferimento attese che grosso modo sono lo stato elevato cioè
“nessuna alterazione antropica”. Chi mi ha preceduto parlava dei Romani ma già allora qualche alterazione
antropica anche pesante c’era quindi, primo non è poi così facile trovare i siti che soddisfano le condizioni di
riferimento “, secondo sono ambiziose.
Questo è un generatore di costi di formidabile, quindi ci dobbiamo chiedere se gli obiettivi di qualità che ci siamo
posti sono realmente raggiungibili, se sono aderenti al nuovo contesto ambientale ed alle risorse realemente
disponibili. Se devo difendere idraulicamente una frazione, la difendo, e lo faccio con delle opere che trasformano
qualcosa che funzionava, un fiume, che se diventa un canale non potrà essere “ fiume” almeno non come lo era
prima. Non c’è niente da fare, o l’una o l’altra, quindi scelte, strategie, dirimenti, scelte pesanti.
Quindi c’ è un problema di sostenibilità economica gli obiettivi sono allineati con le risorse attualmente disponibili?
La domanda è legittima anche perché se andiamo a vedere a che punto siamo come Europa con i livelli di qualità,
predendo a riferimento il report del 14 novembre 2012 della Commissione Europea su tutti i piani di gestione,
vedremmo che la metà o più della metà dei corpi idrici è di là dal raggiungere l’obiettivo di buono. Gli interventi che
la tecnica ci mette a disposizione sono un elenco di molte opzioni, però quelle sono? Una possibile soluzione?
Due, a mio avviso, le opzioni su cui puntare: interventi a uso plurifunzionale per la risoluzione di più problemi
contemporaneamente, questo vuol dire progettare molte cose in maniera diversa, ma ci permette di sfruttare per
più lavori ambientali le stesse aree che sono scarse. Il problema di dove piazzare “ un opera “ è noto a tutti, quindi
se riesco a piazzare un’ opera che mi fa tre servizi in un’area, ho già due problemi di meno. Lo stato di qualità sui
corpi idrici vuol dire di fatto che noi abbiamo un check up, una diagnosi, sullo stato di salute individuale o quasi
individuale e quindi individuale e personalizzata dovrà essere la soluzione. Bisogna progettare il corpo idrico,
questo corpo idrico è così, ne voglio garantire questi usi e/o queste funzioni, quindi la tutela la devo progettare e
di conseguenza definire tutti gli interventi misure necessarie; cioè devo definire un piano di corpo idrico.
Ci arriviamo al buono nel 2015? È raggiungibile? La direttiva contiene al suo interno anche i meccanismi per
gestire tutta questa quota di problematicità e le questioni di sostenibilità connesse ?. Sì le contiene, ma ci sono
delle condizioni, ci sono delle verifiche, abbastanza dettagliate e complesse, che possiamo mettere sotto la voce
“analisi costi benefici”. La linea guida WATECO ci da qualche indirizzo, qualche procedura, ma pochi strumenti
operativi. Possiamo spostare il raggiungimento degli obiettivi al 2021 e al 2027, sono le famose “eccezioni” che il
piano di gestione già dispone spostando il raggiungimento del livello di buono alcuni corpi idrici al 2021 e al 2027.
Inoltre, a determinate condizioni, possiamo stabilire obiettivi ambientali meno rigorosi, prendendo atto che in certe
situazioni la quantità di investimenti necessaria non ce lo possiamo permettere, poi non è detto neanche che
Arezzo 20 - 23 novembre 2012
31
20 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
arriviamo comunque allo stato di buono. Queste flessibilità sono corerenti con l’ approccio “ le risorse disponibili
non si devono sprecare “ le norme devono permettere di gestirle sempre al meglio, quindi la direttiva, il piano di
gestione, il piano di tutela, il sistema della pianificazione devono avere gli strumenti e i percorsi per raggiungere
il miglior rapporto tra costi sostenuti e benefici ambientali conseguiti o conseguibili.
Sempre dal report della Commissione si vede che per lo stato ecologico delle acque superficiali, il 47% dei corpi
idrici, al 2015, non raggiungerà lo stato di buono, va un po’ meglio per le acque sotterranee. Per i tre tre bacini
della Toscana, abbiamo un 36% medio e sono già state messe delle eccezioni che danno la possibilità di spostare
al 2021 e al 2027 l’obiettivo. Lo stato già di buono al 2015 per i fiumi previsto in Francia, è al 38,5%, vuol dire
che la restante parte a 100 non arriva e non arriverà, gli inglesi parlano di stato ambientale, quindi hanno messo
dentro anche tutto l’inquinamento chimico, perché sono partiti un po’ prima con la pianificazione, prevedono di
arrivare nel 21% dei casi allo stato di buono al 2015. Quindi le domande precedenti relative al raggiungimento degli
obiettivi, sono legittime e credo condivise; il documento della Commissione Europea “Blue Print” che ridefinisce
la strategia a mio avviso prende atto di questa situazione.
Quello che è importante è che non importa cambiare la direttiva o la struttura della direttiva, è sufficiente aggiustare
certi meccanismi, anche molto tecnici, che sono dentro la direttiva. Dove sta quel 64% che dava dei problemi?
Per le acque superficiali sta in gran parte sta nei corpi idrici fortemente modificati. Qui siamo ad Arezzo, c’è la
Chiana, pretendere che la Chiana funzioni come l’Arno che la riceve è assurdo ed è anche conseguentemente
assurdo stabilire gli stessi obiettivi di qualità e quindi sarà obbligatorio stabilire degli obiettivi di qualità più bassi
altrimenti le risorse finanziarie necessarie diventano insostenibili e probabilmente, non arriveremo comunque al
livello di buono tipico di un fiume. Su questa partita sta arrivando il decreto che chiude i documenti tecnici per
l’individuazione e la conferma dei corpi idrici fortemente modificati, in Toscana sono circa un 30% di tutti i corpi
idrici, può sembrare la scappatoia ma la Toscana è in media con il resto dell’Italia. Nel panorama europeo della
percentuale dei corpi idrici artificiali sul totale, gli olandesi vanno al 60%, i belgi al 25%, l’Italia sta sotto il 10%,
quindi come vedete è stata usata con parsimonia, molto aderente alla realtà, anche perché le dimostrazioni che
ci chiedono non sono poi banali.
32
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
20 Novembre
Corretto utilizzo e salvaguardia della risorsa acqua
"Il monitoraggio della qualità dei corpi idrici: un approccio integrato multidisciplinare"
Alessandro Franchi
Resp. Settore VIA VAS ARPAT Toscana
Per la risorsa idrica, anche ARPAT, come è stato accennato, fa la sua parte. È una attività decisamente importante
per la nostra Agenzia a cui dedichiamo molte risorse.
Per le acque, come per altre matrici, ARPAT interviene in generale su quattro direttrici. In primo luogo il controllo,
rivolto agli elementi di pressione ambientale, in questo caso, principalmente sugli scarichi degli impianti di
depurazione dei reflui urbani e dei reflui industriali. La seconda direttrice riguarda il “controllo preventivo” o
“controllo ex ante”, che ARPAT svolge in favore degli enti, principalmente le Province, che autorizzano gli impianti
di trattamento delle acque reflue, attraverso il supporto tecnico-scientifico con espressione di pareri istruttori in
linea con le normative di settore e con gli obiettivi generali di tutela ambientale. La terza direttrice su cui investiamo
molto sia in termini tecnologici che professionali, è la parte legata al monitoraggio delle acque. ARPAT, lavora in
questo caso a un livello decisamente elevato, sia per l’impiego di tecnologie e di laboratori per condurre analisi
anche complesse, sia nella fase di progettazione intesa non come mera esecuzione quantitativa degli obblighi
normativi ma, in un’ottica anche di razionalizzare le risorse, attraverso una analisi di rischio che consente di
individuare le priorità di intervento e adeguati profili di indagine, sia infine nella elaborazione del dato e nella
costruzione degli indicatori più idonei a rappresentare lo stato di qualità delle acque. La quarta direttrice su cui
lavoriamo è la comunicazione ambientale, mettendo a disposizione sul sito web dell’Agenzia i nostri dati costituiti
anche da reportistica ambientale specifica : monitoraggio delle acque superficiali, delle acque sotterranee, delle
acque marino costiere, delle acque a specifica destinazione, dei controlli degli scarichi
I risultati dei controlli e dei monitoraggi forniti da ARPAT sono utili per indirizzare le politiche dei soggetti responsabili
del raggiungimento degli obiettivi di qualità indicati dalla Comunità Europea.
Volendo fornire un quadro sintetico dello stato di qualità delle acque sotterranee si conferma quanto già detto
dal precedente intervento, secondo il quale poco più del 50% dei nostri corpi idrici sotterranei sarebbe lontano
dall’obiettivo di qualità al 2015. Le principali cause dell’inquinamento in Toscana sono riconducibili ai solventi
organoalogenati e ai nitrati. Mentre sui nitrati si registra, con il tempo e grazie a certe politiche messe in atto dalla
Regione, un leggero anche se non sempre costante miglioramento, per quanto riguarda gli organoalogenati,
che sono sostanze persistenti, il miglioramento è lentissimo, quindi anche nel 2027, se non facciamo interventi,
l’obbiettivo non potrà essere raggiunto.
Per le acque superficiali in Toscana i corpi idrici più fortemente antropizzati presentano uno stato chimico non
buono determinato soprattutto da sostanze persistenti che hanno dei valori soglia molto bassi come il mercurio, il
tributilstagno (antimuffa in numerosi prodotti e materiali usato nel passato) e i Polibromodifenileteri (ritardanti di
fiamma usato in passato per molti manufatti). Abbiamo motivo di ritenere che si tratti di un inquinamento diffuso
e non ci risultano sorgenti puntuali attive per questi composti. ,
Per quanto riguarda lo stato ecologico delle acque superficiali, registriamo una situazione più diffusa di
“insufficienza” sul territorio regionale a dimostrazione che non sono solo gli aspetti di pressione antropica, quelli
che agiscono negativamente sull’indice di funzionalità ecologica, ma anche altri aspetti legati ad esempio ai
cambiamenti climatici e ai massicci prelievi di acqua per vari usi, potabile, industriale, agricolo.
Oggi del mare si è parlato molto poco ma in realtà tutto quello che viene trasportato dai nostri fiumi va a finire in
mare e certamente il mare, di questo apporto, ne risente. La situazione delle acque marine costiere toscane da
un punto di vista dell’indice di qualità biologico è a metà tra il “buono” e l’ “eccellente”, quindi è sicuramente un
mare che ha un ottima biodiversità e una capacità auto depurativa elevata. Purtroppo ha uno stato chimico non
del tutto sufficiente in parte dovuto sicuramente a condizioni naturali (zone geotermiche, giacimenti minerari)
o antropiche antiche (sfruttamento minerario), ma in parte dovuto all’apporto diretto o indiretto di inquinamento
antropico e industriale.
La balneazione rappresenta invece il cosiddetto fiore all’occhiello della Toscana. ARPAT svolge da diversi anni un
controllo sistematico e abbiamo oltre il 90% delle aree di balneazione in uno stato elevato, il rimanente è quasi
tutto buono, escluso poche situazioni.
ARPAT come dicevo in precedenza lavora intensamente nella comunicazione ambientale. Sul nostro sito è
possibile collegarsi e scaricare dati, report, pubblicazioni, annuari (annuario dei dati ambientali) bollettini con
informazioni in tempo reale (bollettino della qualità dell’ Arno nel periodo estivo, bollettino dei pollini, bollettino dei
risultati del monitoraggio della balneazione e dell’andamento del Ostreopsis ovata ecc.).
Quanto detto finora riguarda ciò che ARPAT svolge di routine. Ogni tanto dobbiamo anche trattare cose
eccezionali; quest’anno è veramente successo qualcosa di eccezionale, il disastro della Costa Concordia al Giglio
e l’affondamento del cargo Venezia al largo della Gorgona con il suo carico di fusti tossici.
In questi casi oltre alla difficoltà di gestire un carico di lavoro aggiuntivo e imprevisto si somma la necessità di
lavorare in emergenza e quindi di mettere a disposizione tutte le nostre capacità di lavoro, di organizzazione, di
Arezzo 20 - 23 novembre 2012
33
20 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
elaborazione e di comunicazione in tempi molto stretti.
Per l’emergenza Concordia dopo quattro giorni abbiamo fatto il primo campione di acqua, il quinto giorno avevamo
già predisposto una rete di monitoraggio attraverso la quale poter tenere sotto controllo le eventuali fuoruscite
di inquinanti dalla nave: Sempre in quei giorni, attraverso l’analisi di quello che era l’inventario delle sostanze a
bordo, è stato stilato un elenco di prodotti maggiormente a rischio e un elenco di parametri da controllare e idonei
a rappresentare l’eventuale fuoriuscita di materiale pericoloso. E’ stato organizzato il monitoraggio (prelievo,
trasporto e analisi dei campioni) in modo da avere risultati entro 48 ore.
L’ottavo giorno il sito web di ARPAT è diventato il sito ufficiale di comunicazione dell’ Osservatorio. Da quel giorno
e ancora oggi sono disponibili i risultati commentati in tempo reale accompagnati da grafici e da altre informazioni
utili alla comprensione dei dati rilevati.
34
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
20 Novembre
Corretto utilizzo e salvaguardia della risorsa acqua
"La Governance delle acque nei distretti idrografici"
Andrea BiancoISPRA
Buongiorno a tutti. Cercherò di portare un contributo rispetto a un tema, secondo me importante, che è quello
della governance nei distretti idrografici che un po’ si ricollega a quanto è stato detto nelle relazioni che mi hanno
preceduto. Anche rispetto a quello che è stato detto da Calzolai, nella relazione che mi ha preceduto, quando
si affermava che le politiche portate avanti in un ambito, faccio riferimento alle politiche di tutela dalle alluvioni,
possono diventare controproducenti se non si cerca di coordinare le politiche con strumenti adeguati al fine di
giungere a obiettivi convergenti. L’obiettivo cui voglio giungere è quello di fornire uno spunto di riflessione rispetto
alla governance adottando strumenti che permettano meglio di integrare le politiche, di integrare la pianificazione,
facendo in modo che gli strumenti di piano che di volta in volta sono stati previsti dalle leggi che si sono susseguite
nel tempo non rimangano inattuate e scoordinate tra di loro. Da questo punto di vista strumenti di tipo pattizio,
tipo ad esempio i contratti di fiume, possono rappresentare un importante strumento per favorire quei processi
di integrazione delle politiche che ci richiede l’Europa rispetto al raggiungimento degli obiettivi che sono stati
concordati a livello comunitario. Faccio qua una rapidissima rassegna di quello che è stato il quadro normativo
nazionale, proprio per capire come nel tempo ci sia stata una stratificazione di strumenti di pianificazione che
hanno fatto sì che spesso ci fosse una sedimentazione di strumenti di pianificazione. Passando dalla Legge
319 (legge Merli) fino ad arrivare al Testo Unico Ambientale. Passando per tappe importanti quali la Legge 183
del 1989 sulla difesa del suolo, che ha introdotto importanti innovazioni quali la gestione del territorio e dei corsi
d’acqua a livello di bacino idrografico, la riforma dei servizi idrici dettato dalla Legge 36/94 e dal D.Lgs. 152
del 1999 che ha introdotto una importante innovazione, parallelamente all’avvento della Direttiva Quadro sulle
acque, che è stata quella dell’approccio combinato alla tutela e alla gestione delle acque, attraverso appunto la
combinazione del rispetto di limiti con l’obiettivo di qualità.
Farò adesso una rapidissima rassegna di quelli che sono gli ambiti territoriali di riferimento che si sono susseguiti
e che si sono stratificati in un territorio estremamente complesso come quello del nostro Paese, con bacini
idrografici di tutte le dimensioni e con bacini idrografici di livello internazionale come quello del Po, che ha portato,
ad esempio con la Legge 183 del 1989, a suddividere il Paese, da un punto di vista delle politiche di difesa
del suolo e di gestione del territorio, in bacini idrografici gerarchizzati in tre livelli: bacini idrografici nazionali,
interregionali e regionali. In questa slide sono rappresentati gli ambiti territoriali ottimali del servizio idrico integrato
in cui fa da sfondo la struttura amministrativa con 20 regioni, 103 province, 8.101 comun.
Oltre a tutto questo ci sono da considerare anche gli interessi legittimi di chi opera e vive sul territorio, dagli attori
socio-economici ai cittadini, alle comunità, quindi, si capisce come gli interessi che agiscono intorno ai bacini
idrografici e all’acqua siano estremamente complessi e sia fondamentale adottare strumenti di governance che
consentano di avere politiche efficaci e attuate e non semplici dichiarazioni di intenti, come spesso è avvenuto in
passato.
In questa slide sono rappresentati i piani che si sono succeduti nel tempo: i piani di bacino, i piani di tutela che nel vecchio ordinamento erano strutturati come piani stralcio dei piani di bacino - i piani d’ambito, i piani di
gestione - che rappresentano, in questo momento, il quadro di riferimento rispetto alla pianificazione distrettuale,
con diverse responsabilità delle politiche, dalla Autorità di Bacino, alle Regioni che hanno redatto i piani di bacino
(però sulla base degli obiettivi stabiliti dalle Autorità di Bacino Nazionali), le Autorità d’Ambito, le Autorità di
Distretto. Tutto questo è governato nell’ambito del nuovo Testo unico. Rispetto a quanto è stato fatto nell’ambito
del nuovo testo unico ambientale, mi preme rimarcare come, secondo me, si è persa un’occasione in quanto non
è stata fatta un’importante azione di armonizzazione degli strumenti di pianificazione che si sono succeduti nel
tempo e, di fatto, si è dato vita ad un ulteriore strato pianificatorio che spesso non collima con gli altri.
La Direttiva Quadro, come vi dicevo, stabilisce il nuovo quadro di riferimento per la gestione e la tutela delle
acque. Il fulcro delle politiche sono i corpi idrici che diventano l’elemento centrale rispetto al quale esplicitare le
misure per raggiungere i famosi obiettivi di cui si è parlato nelle precedenti relazioni. Ogni corpo idrico appartiene
ad un bacino idrografico, gli Stati membri, sulla base dell’accorpamento di questi bacini idrografici, hanno
determinato e individuato i distretti idrografici - in Italia questo si è tradotto nella individuazione di 8 distretti
idrografici ai quali, dal punto di vista normativo, dovrebbe corrispondere un’autorità di distretto idrografico
responsabile, insieme a tutti i livelli di Governo che sottende, del coordinamento delle politiche di tutela e di
gestione del territorio. Quindi, si è passati da una struttura di governo basata sulla organizzazione in distretti, in
bacini idrografici nazionali, interregionali e regionali, in distretti idrografici, cambiando di fatto la campitura
dell’organizzazione territoriale ma lasciando sostanzialmente inalterata la filosofia di fondo, che sottendeva a
questa innovativa legge 183 del 1989, cioè quella della gestione a livello di bacino idrografico dei problemi
Arezzo 20 - 23 novembre 2012
35
20 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
concernenti la tutela del territorio e la gestione delle risorse idriche. Il nuovo assetto che si è delineato, rispetto a
quello preesistente, vede un piano di bacino distrettuale, che è il piano sovraordinato a tutti gli altri e che determina
quindi la linea di indirizzo politico per la gestione del territorio, che può essere esplicitato anche per stralci funzionali
di cui il piano di gestione della Direttiva Quadro sulle acque e il piano di gestione del rischio alluvioni, costituiscono
stralci funzionali. Rispetto al precedente quadro normativo il piano di tutela delle acque, che prima costituiva un
piano stralcio di piani di bacino, di fatto ora è diventato un piano attuativo del piano di gestione delle acque.
Considerando che il distretto idrografico è il fulcro territoriale su cui esplicitare queste politiche di tutela e di
gestione, occorre fare attenzione a evitare che all’interno di essi si possano generare conflitti legati a temi
intrinsecamente conflittuali quali quella della tutela e gestione delle acque e la gestione del territorio, che richiedono
quindi una importante forma di coordinamento. Da questo punto di vista c’è da ricordare che il 2015 è la prima
data per l’aggiornamento dei piani di gestione distrettuali delle acque ed è la data in cui dovranno essere presentati
i piani di gestione per il rischio di alluvioni. Questa concomitanza di eventi richiama alla necessità di un
coordinamento delle politiche per evitare che il raggiungimento degli obiettivi di un piano diventi un ostacolo al
raggiungimento degli obiettivi dell’altro piano. Rispetto a questo la data del 2015 può diventare un momento per
tentare di coordinare le politiche di tutela e di gestione delle acque, di tutela dalle inondazioni, attraverso il
coinvolgimento di tutti i livelli di Governo ma anche degli attori socio-economici che vivono sul territorio, prevedendo
strumenti di allargamento della partecipazione a tutti gli attori del territorio. Lo schema che la normativa comunitaria
prevede, per coinvolgere i vari attori territoriali, è quello di tre livelli distinti di partecipazione che hanno un’intensità
di coinvolgimento via via crescente: c’è il semplice accesso alle informazioni - che consiste nella messa a
disposizione delle informazioni da parte delle Autorità che sottendono alla pianificazione; poi c’è un livello
crescente di coinvolgimento, la consultazione appunto, in cui i soggetti interessati possono rispondere e interagire
con i soggetti preposti alla pianificazione, senza che vi sia un obbligo formale di questi di tenere conto di queste
osservazioni. Poi c’è il livello più alto di inclusione che è quello che prevede una partecipazione attiva degli attori
territoriali alla costruzione delle politiche, quindi con un processo discorsivo e inclusivo diretto. La Direttiva Quadro,
da un punto di vista di obbligo formale e prescrittivo, prevede un accesso ai primi due livelli, mentre suggerisce di
implementare anche il terzo livello anche se non in termini prescrivibili per le Autorità preposte. Il processo che ha
portato alla prima elaborazione dei piani di gestione distrettuali si è attenuto a questa interpretazione corretta della
Direttiva garantendo un accesso alle informazioni, attraverso la pubblicazione dei documenti sui siti web
appositamente costituiti, e garantendo un ulteriore processo informativo, attraverso una serie di incontri pubblici
con i soggetti interessati, i cosiddetti stakeholder; non c’è stato però il livello successivo di approfondimento. In
questa slide viene riportata la tabella che riassume il numero dei soggetti che, nei diversi distretti idrografici,
hanno fornito osservazioni nell’ambito del processo di formazione del piano di gestione. La lettura della tabella ci
dice una cosa importante: cioè che nella maggior parte dei casi gli attori territoriali che hanno fornito osservazioni
sono per lo più i soggetti più organizzati, ovvero i soggetti istituzionali e, in misura decrescente, gli attori economici
e le associazioni. In ogni caso anche tra le associazioni o le organizzazioni non governative, quelle che hanno
fornito le osservazioni erano quelle maggiormente organizzate, quindi quelle che avevano e hanno una struttura
forte e ben radicata e quindi con possibilità di accedere ai processi di formazione dei piani. Sono rimasti esclusi
da questi processi formativi gli strati del territorio dotati di meno risorse, che probabilmente però potevano fornire
un grande contributo sia da un punto di vista della comunicazione che dell’implementazione delle politiche.
Rispetto a questo, il processo che è stato portato avanti dalle Autorità di Bacino, che hanno gestito la prima
implementazione dei piani di gestione, è stato davvero poderoso, se si pensa che è stato fatto tutto in un anno e
se si pensa che gli attori potenzialmente mobilitabili sono nell’ordine delle centinaia (basti pensare che un Distretto
racchiude qualche regione, diverse centinaia di comuni, province). Da questo punto di vista, se non si pensa al
modo di come poter gestire un ulteriore approfondimento del livello della partecipazione, è ben difficile gestire con
processi inclusivi diretti questo numero veramente spropositato di partecipanti ai processi partecipativi. Possono
venirci in soccorso quei livelli intermedi di governance quali possono essere, ad esempio, i contratti di fiume, che
sono stati esplicitamente previsti anche nei piani di gestione dell’Appennino Settentrionale e del Distretto Padano,
quali strumenti intermedi utili alla messa a punto di un doppio livello di governance: uno sub distrettuale e uno
distrettuale. A livello sub distrettuale , cioè di singolo bacino idrografico - o addirittura di corso d’acqua - i contratti
di fiume possono rappresentare uno strumento per canalizzare le proposte e anche le problematiche provenienti
dai territori. A un livello distrettuale, che è quello poi che porta effettivamente alla formazione del piano di gestione,
i contratti di fiume possono diventare i vettori delle istanze provenienti dai livelli intermedi, dai livelli più distanti dal
processo di formazione del piano e da questo punto di vista possono diventare uno snodo strategico che consente
di recuperare in profondità tutti i soggetti potenzialmente portatori di contributi alla formazione dei piani di gestione,
sia per i piani di gestione dei distretti idrografici, presi dalla Direttiva 2000/60, che per i piani di gestione del rischio
alluvioni. Da questo punto di vista i contratti di fiume potrebbero diventare uno snodo importante anche per
favorire quei processi di integrazione delle politiche, richiesti per evitare che il raggiungimento degli obiettivi di un
piano possa sfavorire il raggiungimento degli obiettivi di un altro piano.
36
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
20 Novembre
Concludendo, passo in rassegna un brevissimo elenco dei potenziali vantaggi derivanti da un processo di
governance così strutturato: innanzitutto potrebbe portare ad un reale coordinamento delle politiche di distretto sia in vista dell’aggiornamento dei piani di tutela, previsto per il 2014, che per l’aggiornamento dei piani di gestione
delle acque e per la presentazione e completamento dei piani di gestione del rischio alluvioni. Con ciò, quindi
contemperare le esigenze di tutela delle acque con quelle di tutela del rischio alluvioni. In più rappresentare un
importante strumento per recuperare il fattore umano alla causa della tutela e della gestione delle acque, favorendo
quindi il raggiungimento degli obiettivi previsti dalle politiche. Ciò in quanto l’aumento della consapevolezza e la
partecipazione diretta alla formazione dei piani possono dar vita a processi di responsabilizzazione collettiva, utili
a far sì che i piani non restino enunciati sulla carta ma diventino strumenti effettivi per l’attuazione di politiche utili
alla valorizzazione del territorio. Grazie.
Arezzo 20 - 23 novembre 2012
37
20 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
Corretto utilizzo e salvaguardia della risorsa acqua
Mauro D’AscenziVice Presidente Feder Utility
Trascrizione non revisionata dal relatore
Io non castigherò la vostra e la pazienza con cui avete aspettato le conclusioni, con un lungo intervento, mi
limiterò solo a brevissime considerazioni e mi scuso anche in anticipo con tutti, in particolare con Pineschi, perché
ho un impegno a quattrocento chilometri da qui e quindi devo andarmene subito. Voglio fare soltanto qualche
considerazione molto generale. Le cose che ho ascoltato questa mattina, alcune mi erano note, non tanto i
contenuti ma la capacità professionale, la preparazione di chi li ha esposte, parlo soprattutto del personale che
viene dalle nostre aziende, con cui abbiamo una frequentazione quotidiana, per cui non mi hanno stupito, non mi
ha stupito il livello di approfondimento e di preparazione, non vorrei essere frainteso, non sono rimasto stupito ma
sono rimasto colpito invece dal livello di preparazione, perché per me è stato molto istruttivo, e di approfondimento
che altri soggetti istituzionali hanno in questa sede affrontato, perché mi ha fatto consolidare un’idea e cioè che in
Italia vi sia una diffusa cultura dell’acqua, palro di consapevolezza, di coscienza, di approccio, se volete, filosofico,
perché occorre anche questo, e di preparazione tecnica professionale, ho ascoltato delle cose molto, molto
interessanti. Ho però ancora la netta sensazione di come tutto questo sia frantumato e che ognuno sia un po’
abbandonato a se stesso per cui non si riesca a condurre ad uno. Convivendo tutto quello che è stato detto qui,
anche negli accenti più polemici, vorrei non tornare, se mi riesce, sulle critiche, mi piacerebbe di più riuscire a
vedere che cosa bisognerebbe fare. Io sono tra quelli, lo dico con serenità, tanto è il passato, c’è stato un vinto e
un vincitore e la polemica è inutile, che i referendum abbiamo creato un grandissimo danno a questo Paese, non
tanto per il risultato effettivo, cioè per la risposta al quesito che ponevano, perché dal punto di vista tecnico, alla
fine cosa affermano, affermano che la priorità di gestione deve essere da parte di tutti, il danno è stato sul piano
culturale e sul piano politico, perché non c’è più nessuno disposto a prendere in mano la materia dell’acqua.
Abbiamo tentato di far introdurre in un emendamento al piano Passera per lo sviluppo, una roba ridicola che
diceva sostanzialmente che il Governo si impegnava a dire, a dire, alla Cassa Depositi e Prestiti di prestare soldi
ad aziende solide nell’acqua, con i bilanci a posto e in grado di dare delle garanzie, sembra banale ma non siamo
riusciti a far introdurre l’emendamento, perché toccare l’acqua … alloro ho l’impressione che il problema più grave
sia questo, aver preso una materia che siccome è inattuabile, un certo meccanismo ideale, talvolta anche nobile,
che c’è dietro, si scontra con la concretezza quotidiana che porterebbe a un serio aumento delle tariffe e quindi
nessuno vuol prendere in mano questa materia. Risultato, è vero che il Governo Monti è un Governo a termine,
ha avuto delle emergenze che penso abbia affrontato anche bene, la diminuzione dello spread ricadrà positivamente
anche sugli investimenti dell’acqua, quindi vi è una macropolitica che si può condividere, ma si è guardato bene
dall’affrontare il tema, lo ha affrontato positivamente solo per un verso e cioè quello di aver dato corso a una
nostra battaglia che era quella dell’Authority sull’acqua. Non possiamo però pensare che tutta la politica dell’acqua
possa essere delegata a un autorità di regolazione, perché l’acqua non è il libero mercato, non solo è naturalmente
un monopolio ma è quella complessità che qui è stata rappresentata, eppure in questo anno, questo Governo ha
proposto una strategia per l’energia, io ho l’impressione che occorra fare un piano nazionale dell’acqua, se non è
possibile, rimaniamo ad una analoga situazione, quella della strategia dell’acqua in Italia, il piano è più stringente,
dà degli obiettivi, ma una strategia nazionale dell’acqua si può fare. Noi rimaniamo così, con gente come voi,
brave, capaci di affrontare e di avere una visione, e sopra le direttive europee, e la politica nazionale? Gran parte
dello sviluppo del mondo occidentale è avvenuto facendo pagare un po’ di questi costi che erano socialmente
insostenibili alla natura, attraverso il degrado della natura, lo sfruttamento dell’acqua è una di queste cose, ora si
è scoperto, con la Green Economy che si potrebbe iniziare un nuovo ciclo produttivo e di espansione economica,
risanando il danno che abbiamo fatto, in parte risanando in parte sfruttando quella che la natura ci mette a
disposizione senza doverla distruggere, siamo dinanzi a un Paese che ha bisogno di sviluppo e l’acqua è la più
potente misura di Green Economy cui possiamo pensare, abbiamo messo 40 miliardi di euro per i pannelli solari,
per l’eolico, che paghiamo sulla bolletta, stiamo pagando anche le centrali nucleari non realizzate, nessuno ha
chiesto di abrogare al remunerazione del capitale investito nelle energie rinnovabili, l’acqua è un’energia che
rischia di non essere rinnovabile se la trattiamo in questo modo, quindi non si capisce perché non si debba e non
si possa affrontare questo come misura espansiva, naturalmente innescando un ciclo virtuoso, perché è vero che
la tassa pagata sulla bolletta per l’energia alternativa, con tutti i limiti che ha, ha creato energie alternative, ha
creato, meno di quanto pensavamo ma per ritardi nello sviluppo tecnologico e la ricerca nel Paese, occupazione,
quindi c’è un ciclo positivo che può essere innescato e tutto questo deve essere visto da un piano nazionale. Quali
sono i tre soggetti? L’agricoltura, il civile, l’industria. Chi produce la risorsa? La pioggia. Ve la faccio corta; gli
uomini hanno sempre modificato la loro organizzazione sociale in virtù dei cambiamenti climatici che hanno
determinato una diversa ripartizione delle precipitazioni nell’acqua, nello spazio e nel tempo. Questa è la storia,
38
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
20 Novembre
adesso sta avvenendo in modo più rapido e dobbiamo adeguarci in modo più rapido, del resto abbiamo qualche
strumento tecnico, tecnologico e scientifico in più rispetto all’uomo delle caverne. Allora, partiamo dalla pioggia.
Bossola chiedeva: - Ma chi paga?- M stiamo già pagando, ogni alluvione che viene, paghiamo in termini di vite
umane, di finanziamenti che devono arrivare e, per una volta, paghiamo in anticipo, così dopo risparmiamo. Allora
partiamo da lì. Io non vi voglio fare tutta la storiella del ciclo, però guardate come solo su questo punto, le grandi
piogge o le bombe d’acqua, potrebbero trasformarsi, mi rendo conto di essere un po’eccessivo, soprattutto in una
regione che ha subìto dani gravi e anche lutti, potrebbero quasi diventare una benedizione se sapessimo
imbrigliarle, l’uomo ha la pretesa di imbrigliare l’energia nucleare, non sappiamo imbrigliare le bombe d’acqua?
Certo che bisogna predisporre gli strumenti che sono la cura del territorio, i canali, le dighe, i bacini di contenimento,
fermano l’acqua, la tengono per quando non piove, invece abbiamo le bombe d’acqua e poi sei mesi senza
acqua, perdiamo le bombe d’acqua perché arrivano e se ne vanno ed ecco che io le diluisco nello spazio, nel
tempo, produco energia elettrica e instauro un ciclo positivo. Questa visione e la predisposizione degli strumenti
Governance ed economici non può essere affidata ai principi dell’Europa e all’intraprendenza di questo o quel
bacino idrogeografico, la Regione, eccetera, eccetera, deve esserci una strategia nazionale che definisca con
quali strumenti e quali soggetti realizzano questo, le nostre aziende sono il fulcro, perché sono poi quelle che la
distribuiscono l’acqua. Infine, l’altra questione, in termini di Governo, che va affrontata è il tempo, la variante
tempo non è indipendente, è una variante stringente, assolutamente imprescindibile, noi non possiamo sempre
ragionare in termini biblici, quindi i meccanismi burocratici, gli obiettivi devono essere ristretti, , in Germania si è
saturato l’eolico e il solare in due anni, in Spagna pure, si sono realizzate tutte le reti ferroviarie, noi stiamo ancora
discutendo se dobbiamo fare le dighe, poiché oltre alle bombe d’acqua il cambiamento climatico ci fa perdere
quelle riserve naturali che erano i ghiacciai e nevai, stiamo ancora discutendo mentre la variante tempo è
fondamentale, quindi il primo strumento legislativo di governo che occorrerebbe creare sono termini stringenti per
realizzare delle opere, perché i termini stringenti portano anche a crescita stringente dell’occupazione dedicata a
questo, a crescita stringente nella ricerca e nell’applicazione scientifica. Quindi strategia che si compone di
visione, progetto, risorse, soggetti che operano, tempi di realizzazione che non possono essere biblici. Allora, per
realizzare rapidamente occorre una sburocratizzazione fortissima e occorre che tutte le cose mirabili che voi
avete fatto e che state facendo sui territori non si elidano l’una con l’altra ma che trovino un momento di integrazione
rapido e occorre naturalmente una imprenditorialità che abbia a cuore le sorti sociali di questa … e abbia anche
la capacità di intraprendenza, quindi non si butti a mare la disponibilità del privato, qualora vi fosse, o comunque
le esperienze di aziende miste, ci sono anche delle aziende tutte pubbliche che funzionano molto bene, una
sinergia di culture imprenditoriali diverse credo che sia un elemento estremamente positivo. Vi ringrazio.
Arezzo 20 - 23 novembre 2012
39
20 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
Corretto utilizzo e salvaguardia della risorsa acqua
Giorgio PineschiMinistero dell’Ambiente
Trascrizione non revisionata dal relatore
Io sarò ancora più rapido, ve lo prometto, perché il tempo è poco. Riprendo il concetto dio D’Ascenzi sulla
strategia del Paese, è assolutamente la chiave di questi discorsi. È vero, abbiamo visto tanta conoscenza, tanta
capacità di lavoro, di affrontare gli argomenti legati al tema della gestione dell’acqua e delle risorse idriche ma si
sono visti anche molti problemi, molti ostacoli e una sostanziale situazione di stallo per molti di questi aspetti. La
strategia del Paese però esiste in realtà, esiste ed è incastonata nelle politiche comunitarie che oggi sono state
sviscerate in tutte le loro parti, ma non con una visione dell’Unione Europea come un padrone severo che sta
lì a comminare multe, a bacchettare, a porre zaini sempre più pesanti da portare al Paese, nel momento in cui
riusciamo, come Paese, a partecipare a quella costruzione delle politiche comunitarie, allora la strategia e anche
i tempi, di cui parlava D’Ascenzi, sono automaticamente dettati e calibrati su quella che è la capacità di lavoro
e di attuazione di queste politiche da parte del Paese. La più grande pecca, il più grande problema + quello di
non aver capito che le direttive comunitarie che oggi sono state ampiamente sviscerate sono un’opportunità,
devono essere una comunità, bisogna costruire su quelle basi e andare oltre, coglierle e attuarle in maniera più
armonica e rispettosa di quelle che sono le performance del Paese. Su tre aspetti in particolare abbiamo fallito,
fallito per non aver creduto che erano delle opportunità- il primo aspetti è quello della governance, ovvero quello
che andava perfezionato, non creato dal nulla, ovvero un livello di collaborazione tra le amministrazioni per fare
meglio quello che si doveva fare e invece ci si è incartati andando a litigarsi le competenze, a non capirsi su quello
che si doveva fare e chi doveva farlo e oggi siamo ancora in una situazione di transizione perenne di quello che è
la governante di questi oggetti ovvero i fiumi, le acque sotterranee, i laghi, le acque marine costiere, in una parola
i bacini e i distretti idrografici. Il secondo aspetto è l’aspetto tecnico, in cui c’è una serie di attività tecniche che
bisognava iniziare per tempo, perché bisognava costruire un rinnovato approccio, ma noi abbiamo perso tempo,
abbiamo ragionato troppo, quindi anche sugli aspetti tecnici siamo in ritardo, stiamo recuperando, ma si lavora
spesso sulla buona volontà delle amministrazioni. Il terzo aspetto, che è quello che è stato più toccato dai relatori,
è l’aspetto economico, la parte economica è la parte fondante di questo approccio comunitario e i ragionamenti
che sono stati fatti sono stati incompleti. Non si è fatto il ragionamento di come si pagano queste cose, anche a
rate, anche posponendo il raggiungimento degli obiettivi al 2021 e anche più avanti ma sono ragionamenti che
vanno fatti con il portafoglio alla mano e decidendo, a livello politico, come queste cose vanno coperte. Devo
dire che la parte del servizio idrico integrato, paradossalmente, è quella più coperta, perché almeno lì, almeno
in teoria, ci dovrebbe essere la convergenza, ovvero la tariffa dovrebbe essere il corrispettivo del servizio e
dovrebbe coprire tutto il fabbisogno; come ci è stato detto, e come sappiamo tutti, questa convergenza non
c’è come è anche misurato dalle numerosissime procedure di infrazione che riguardano nello specifico l’acqua
cambroniana, cioè la depurazione. Questi ritardi oggi si stanno mano a mano colmando, ma manca ancora uno
sforzo della politica di farsi carico di valorizzare quel patrimonio che, come oggi abbiamo visto, esiste nel Paese,
le strutture ci sono, i tecnici sono pronti, per fare quel salto di qualità e rendere attuabili le cose da fare, parlo di
cose semplici, parlo di cose alla portata di tutti quanti. Concludo invitando tutti i presenti a riflettere che mentre
noi stiamo ancora ragionando della Direttiva Quadro, della Direttiva Alluvioni, di come si fa il Distretto, di come
non si fa il Distretto, chi paga e come si paga, a livello comunitario intanto si sono reindirizzate queste politiche
e la settimana scorsa è uscito il già citato Blue Print, una valutazione delle politiche comunitarie in materia delle
acque, che le reindirizza, come non poteva essere diversamente, in chiave di Green Economy, di crescita verde
e di funzioni ecosistemiche, tutte parole bellissime ma che non hanno nessun significato se prima non si fa il
passaggio di cui parlavo prima e cioè di come la politica risponde alla necessità di far ripartire questo Paese
sull’acqua, come diceva D’Ascenzi è ormai urgente mettere in piedi una strategia del Paese sull’acqua.
40
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
20 Novembre
La valutazione della salute in Siti Contaminati
"L'analisi del rischio sanitario e gli studi epidemiologici come criterio di individuazione delle priorità di intervento
nei Siti di Bonifica di Interesse Nazionale (SIN) "
Loredana Musmeci Istituto Superiore di Sanità
Trascrizione non revisionata dal relatore
Grazie. In effetti il mio intervento è proprio a ciò finalizzato, vale a dire l’utilizzo dello strumento dell’analisi di
rischio e delle indagini epidemiologiche come importante strumento per valutare soprattutto anche la necessità
e le priorità dell’intervento, interventi di bonifica in generale, in particolar modo per i siti di bonifica di interesse
nazionale, che oggi tratteremo in questa sessione e, come voi sapete, attualmente sono 57 i siti di bonifica
dichiarati di interesse nazionale e coprono circa il 3% della superficie antropizzata nazionale, quindi è un aspetto
estremamente importante; non ci dobbiamo dimenticare però che non esistono soltanto i siti di bonifica di interesse
nazionale ma a livello nazionale poi abbiamo anche siti di interesse regionale regionali e quindi i siti che non
sono arrivati ad essere di interesse nazionale ma che rivestono comunque importanza nell’ambito della gestione
del territorio, delle riconversioni industriali, delle riconversioni come destinazione d’uso e quindi i criteri che
adottiamo per i siti di bonifica di interesse nazionale possono essere traslati ai regionali e viceversa, individuare
i criteri per le priorità in un momento soprattutto di scarsità di risorse è sempre un aspetto determinante. Non
faccio cenni normativi perché non è opportuno e ci porterebbe fuori strada, però parlando di bonifiche in ogni
caso ci muoviamo nell’ambito di uno scenario anche normativo che si basa fondamentalmente su una visione
omocentrica, come amo dire, ma è la realtà, il testo unico in materia ambientale, il 152/2006, ha una visione
sicuramente omocentrica per tutti gli aspetti e, ovviamente, anche quelli per quanto riguarda le bonifiche; quindi,
anche l’individuazione dei siti di interesse nazionale è fatta sulla base di un rischio conclamato sanitario e anche
le modalità applicative del 152 per i siti di bonifica si basano su una procedura di analisi di rischio che non staremo
qui a vedere oggi, però il legislatore ha questa visione omocentrica, mettendo al centro l’uomo e quindi il rischio
per l’uomo è quello che regola tutta la disciplina. Ovviamente, il rischio sanitario nel contesto internazionale anche
qui lo troviamo in molteplici, in primis nella strategia europea ambiente e salute, nelle varie direttive di settore
europee, sia per l’aria, per l’acqua, la classificazione delle sostanze, per i rifiuti, per gli alimenti, sempre abbiamo
una che pone il rischio sanitario al centro, l’OMS, per ovvie ragioni, e poi le Agenzie Europee, l’EFSA, il Comitato
Europeo per la valutazione dei rischi sanitari e ambientali e un riferimento che per noi è costante, è anche
quello dell’ATSDR statunitense, quindi riferimenti sia a livello europeo che internazionali che troviamo all’interno
della disciplina e adottati nelle nostre valutazioni. Vediamo le fasi di cui si compone una valutazione del rischio,
una corretta valutazione del rischio, e quindi come si collocano anche le indagini epidemiologiche all’interno di
una procedura di valutazione del rischio. La prima fase è ovviamente l’identificazione del pericolo attraverso
l’identificazione delle sostanze, la loro classificazione e quindi l’identificazione del pericolo rappresentato dalle
sostanze chimiche presenti nel nostro sito, la caratterizzazione dei pericolo, quindi la valutazione dose-risposta,
l’individuazione del dose tollerabile giornaliera o settimanale secondo i parametri che vengono utilizzati e poi una
frase che è determinante per le successive, che è il centro, il cuore della nostra valutazione e deve costituire il
cuore anche di una valutazione generale del rischio e quindi anche all’interno dello studio epidemiologico, che
è quello di individuare come un soggetto, con quali meccanismi e con quali modalità, è esposto alle sostanze
che abbiamo individuato, quindi la valutazione dell’esposizione è il cuore della nostra valutazione e per questo
servono i dati sulle matrici ambientali, ma non solo, sulle matrici alimentari,possono essere utili anche studi
di biomonitoraggio umano o biomonitoraggio ambientale, ovviamente, anche l’uso di modelli dove mancano i
dati può essere estremamente utile supplire alla carenza del dato; una volta valutata l’esposizione, potremo
caratterizzare il rischio, quindi poter valutare gli effetti associati a quelle esposizioni, e, a questo punto, si colloca
lo studio epidemiologico che è a supporto complessivo, ma non solo a supporto, che ci permette poi di effettuare
una reale valutazione dell’effetto sulla popolazione che abbiamo individuato essere potenzialmente esposta,
quindi l’esposizione diventa il punto centrale e questo poi ci porta a poter valutare meglio il dato relativo risultante
dall’indagine epidemiologica. La valutazione del rischio chiaramente ci permette di individuare, se correttamente
effettuata, dopo aver individuato quali sono i percorsi di esposizione, dove poi dovremo andare ad agire per la
gestione del rischio, per l’adozione di misure di prevenzione e in generale di mitigazione del rischio. Come vi
dicevo, entrando nel cuore della giornata, della sessione che abbiamo dedicato ai siti di interesse nazionale, i 57
siti di interesse nazionale sono distribuiti su tutto il territorio, non c’è una regione che almeno non abbia un sito
dichiarato come SIN (Sito di Interesse Nazionale), le procedure autorizzative e valutative sono in capo al Ministero
dell’Ambiente che ha come supporto l’ISPRA e l’Istituto Superiore di Sanità per la componente sanitaria. Non entro
nel dettaglio, l’individuazione dei 57 siti è stata fatta fondamentalmente su una base individuazione del rischio e
che essi pongono, quindi tipo ed estensione della contaminazione, effetti già acclarati, quindi studi epidemiologici
Arezzo 20 - 23 novembre 2012
41
20 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
che hanno già evidenziato una potenzialità di effetti connessi a quella contaminazione, fondamentalmente questi
sono i criteri che hanno permesso l’individuazione dei SIN. Attualmente c’è una normativa di recente promulgata
che rivedrà la perimetrazione di questi SIN, comunque il numero è estremamente elevato e
La superficie continuerà a rimanere estremamente ampia, superficie coperta dal perimetro del SIN. Nell’ambito
delle problematiche connesse alla bonifica dei SIN, all’Istituto Superiore di sanità, nel Dipartimento Ambiente,
l’attività che noi svolgiamo è prevalentemente della valutazione dei rischi soprattutto su due matrici, che sono le
aree agricole e i sedimenti, perché per queste non ci sono procedure già standardizzate a livello nazionale ma
anche a livello internazionale ci sono delle problematiche in più, su questo stiamo concentrando la nostra
attenzione, e poi ovviamente la valutazione dello stato di salute della popolazione residente nei SIN di bonifica di
interesse nazionale e quindi il Progetto Sentieri che è ormai uno studio noto, sono dati pubblicati e adesso sono
in corso approfondimenti. Quindi, per effettuare una corretta valutazione dei rischi occorre avere tutta una serie di
conoscenze sulle matrici ambientali, ma non solo, per esempio anche sul problema dei vegetali, dei prodotti della
pesca, perché questo serve per poter effettuare una valutazione dell’esposizione. Dovremo individuare quali sono
gli inquinanti indici prioritari e su questi andrà focalizzata l’attenzione di per tutte le successive valutazioni, quindi
l’analisi del destino ambientale e delle vie di esposizione, dovremo effettuare quindi una preliminare valutazione
del rischio, in base ai dati possibili e alle evidenze, e quindi, ove necessario, questo vorrei sottolinearlo, se
occorre, ripeto, a uno studio di biomonitoraggio umano, dico che questo bisogna sottolinearlo perché ultimamente
sentiamo sempre di più questa inchiesta comunque di procedere studi di biomonitoraggio umano, lo studio di
biomonitoraggio umano ha tutta una serie di implicazioni, anche etiche,quindi anche la gestione del dato è una
gestione complessa, la restituzione del dato e la comunicazione, quindi noi diciamo che il biomonitoraggio umano
è uno strumento estremamente importante, estremamente utile, ma bisogna farlo dove realmente occorra, dove
realmente abbiamo dubbi sull’esposizione o dove abbiamo esposizioni estremamente complesse con sorgenti
multiple e quindi occorre, per poter valutare realmente i rischi, scendere anche a livelli più di dettaglio con un
biomonitoraggio umano. Ovviamente poi, il dato sulla mortalità e morbilità nelle fasce più vulnerabile, ad esempio
i bambini, proprio su questo poi saranno i futuri approfondimenti degli studi epidemiologici che stiamo predisponendo
proprio in questo periodo. Una delle problematiche maggiori per poter effettuare una corretta valutazione dei
rischi all’interno dei SIN e quindi poter interpretare ancor meglio il dato che ci deriva dallo studio epidemiologico
è che, per ragioni anche legate all’impostazione , molto spesso sono carenti, abbiamo informazioni solo su
alcune matrici ambientali che sono fondamentalmente le acque sotterrane e i suoli, ma soprattutto abbiamo
moltissime informazioni ma all’interno dell’area del sito di proprietà del soggetto inquinatore che ha l’obbligo della
bonifica e quindi ha l’obbligo della caratterizzazione eccetera ecc. Noi abbiamo, per dire, all’interno del sito
industriale xy moltissimi dati sul suolo, magari a maglia 50 – 50, 50 metro, 50 metri se non addirittura 25, altrettanto
sulle acque sotterranee però, immediatamente al di fuori del sito di proprietà, abbiamo un’assoluta mancanza di
dati e quindi una valutazione dell’esposizione per la popolazione residente all’interno o in prossimità dei siti di
bonifica diventa l’elemento problematico da valutare proprio per una carenza del dato. Questi sono i dati che
normalmente mancano, quindi per esempio dati relativi alla potenziale contaminazione degli alimenti e quindi la
via di esposizione attraverso l’alimentazione, acqua potabile e inalazione tramite via aerea, anche questo è un
aspetto determinante. Uno dei casi che è stato citato anche dalla dottoressa Bettoni, il caso dell’Ilva, dove abbiamo
proprio una pluralità di esposizione con una carenza per alcuni dati. Per le aree agricole, come dicevo, l’estensione
di questi siti è talmente elevata in alcuni casi che comprendono al loro interno magari un’area SIN è vastissimo e
ricomprendere al suo interno anche vaste aree agricole o specchi lacustri dedicati però con utilizzo con vocazione
alla pesca o anche aree marine per i quali, carenza del dato, perché ovviamente il gestore dell’area agricola o
della pesca o dell’allevamento, non è un soggetto inquinatore, ha subito il processo di inquinamento e quindi non
ha l’obbligo della caratterizzazione e della raccolta del dato e quindi lì è la carenza, carenza sul dato ma anche
carenza sulla procedura con cui poi andare a valutare un’eventuale rischio di ingresso nella catena alimentare,
attraverso le aree agricole o attraverso un sedimento contaminato e potenziale esposizione della popolazione
attraverso quelle vie. Per questa ragione il Ministero dellaS ha lanciato un importante studio proprio teso alla
valutazione della potenziale contaminazione della catena alimentare, è stato quindi lanciato questo importante
studio che prevede la raccolta del dato alimentare per alcuni alimenti di origine animale all’interno dei siti di
bonifica di interesse nazionale proprio per questa carenza sul dato sulla potenziale contaminazione della catena
alimentare per poter effettuare poi una corretta valutazione del rischio. Gli approcci per una valutazione del rischio
possono essere vani chiaramente rispetto ad una contaminazione della catena alimentare in questo caso la
nostra metodologia che stiamo mettendo a , specificatamente alle aree dei SIN, si avvale ovviamente di criteri
adottati a livello internazionale che possono far riferimento all’OMS. All’EPSA, e che usano criteri che fanno
riferimento alla dose tollerabile, o settimanale o giornaliera, di quello specifico inquinante per il quale dovremo
andar pere a individuare l’intake alimentare, cioè la sua potenziale contaminazione e quanto può arrivare all’uomo
attraverso un’intake e quindi attraverso uno stile alimentare, questo sia per le aree agricole che per i sedimenti.
La valutazione del rischio e la problematicità di assenza di alcune tipologie di dati che sono estremamente
42
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
20 Novembre
necessari per poter effettuare una corretta valutazione dell’esposizione, indubbiamente il dato epidemiologico è
di estrema importanza e a supporto unitamente della valutazione del rischio e dell’esposizione poter andar
individuare, come dicevo all’inizio, le priorità di bonifica , l’obiettivo, non a caso l’Istituto ha coordinato
quest’importante studio, Sentieri, che ha l’importante obiettivo di valutare lo stato di salute dei residenti in
prossimità dei SIN di cui poi parleranno diffusamente i miei colleghi. Questo studio ha riguardato o 44 dei 57 SIN,
perché alcuni sono stati esclusi per delle ragioni proprio tecniche per mancanza di potenza dello studio, in
particolare modo siti di piccole dimensioni all’interno di grandi aree urbane oppure i siti in cui non vi è una
significativa esposizione della popolazione residente oppure aree caratterizzate dalla mera presenza di discariche
in cui venivano smaltiti i rifiuti urbani, riconoscendo quindi che in questa situazione il rischio è un rischio limitato,
quindi sono stati esclusi 13 SIN perché non avevano caratteristiche idonee per la tipologia di studio effettuato.
Andando a concludere, le prospettive future; indubbiamente l’aspetto più importante sul quale ci dovremmo
concentrare è il rafforzamento del nesso di causalità, emissione di un inquinante sviluppo di patologie, quindi
fondamentalmente migliorando l’aspetto i della esposizione, della conoscenza dell’esposizione attraverso un
migliore controllo e monitoraggio di matrici non soltanto ambientali quali suolo e acque ma anche alimentari,
utilizzo di strumenti tossicologici ed eco ossicologici, biomarker, test di micronuclei che sempre più si stanno
sviluppando e si stanno utilizzando proprio per valutare anche l’esposizione anche a miscele di inquinanti, quindi
valutazioni degli effetti sinergici o antagonisti tra le sostanze presenti, un monitoraggio delle matrici ambientali in
conformità con le normative nazionali e comunitarie e poi l’integrazione del dato ambientale con il dato sanitario
che diventa determinante. Concludendo, i siti inquinati costituiscono sicuramente un problema prioritario anche in
termini di estensione, come abbiamo detto, questo riguarda i SIN ma poi vedremo che c’è anche un intervento
dell’ISPRA, dell’Ingegner D’Aprile, che ci dirà dello stato di attuazione in generale delle bonifiche in Italia, non solo
dei siti di bonifica di interesse nazionale , ma anche della numerosità dei siti di interesse regionale, in un momento
di scarse possibilità economiche ovviamente l’utilizzo di una corretta modalità di valutazione del rischio con il
supporto fondamentale dello strumento dell’epidemiologia ambientale, queste potranno andare a farci individuare
le reali priorità di intervento e dove concentrare la nostra attenzione e i nostri interventi anche economici. Grazie
dell’attenzione.
Arezzo 20 - 23 novembre 2012
43
20 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
La valutazione della salute in Siti Contaminati
Corrado CliniMinistro dell’Ambiente e della Tutela del Territorio e del Mare
Trascrizione non revisionata dal relatore
Grazie, grazie per questa opportunità. La discussione che aprite qui e che riguarda un tema critico a livello
nazionale, anche in parte nell’europeo, perché sostanzialmente, parlando di quello che abbiamo in Italia, una
legge ha identificato i siti di interesse nazionale, li ha elencati, sono diventati per legge siti di interesse nazionale
da bonificare. Questi siti sono aree industriali dismesse o prevalentemente dismesse che per quarant’anni, per
cinquant’anni sono state sede di attività industriali che in qualche modo replicavano il modello di sviluppo e noi
abbiamo avuto negli anni ’50, più o meno il disegno è questo, in qualche caso, Porto Marghera prima, ma insomma
il disegno era la centrale termoelettrica, l’impianto siderurgico, la chimica, qualche volta la lavorazione dei metalli
non ferrosi, comunque siti industriali che avevano di base industrie primarie che come sapete hanno la caratteristica
di essere industrie ad alta intensità energetica, ad alto consumo di risorse naturali, di acqua in particolare e con
l’utilizzazione come materie prime di materie prime, e come prodotti intermedi, anche ad alto impatto ambientale
e sanitario. Per cui abbiamo una gran parte di questi siti che sono siti dove erano allocate queste attività industriali
e che ora sono più o meno in fase di dismissione, una parte di questi siti invece, pochi, ancora in piena attività,
per esempio il sito di Taranto o forse anche quello di Priolo, come dire, Gela è già un sito più problematico, nel
nord di questi siti c’è qualcosa ancora a Porto Marghera ma molto. Poco. La terza tipologia di questi servizi è che
essendo stati decisi per legge, sulla base di una valutazione approssimativa in qualche modo di quelle che
potevano essere le problematiche, hanno una dimensione molto ampia, dimensione che è stata in parte orientata
da una valutazione di tipo politico economica allora, ormai più di dieci anni fa, l’idea era che più largo era il sito
più soldi pubblici arrivavano, per cui abbiamo nella perimetrazione dei siti di interesse nazionale delle zone che
non sono mai state utilizzate per attività industriali, zone abitate da secoli, il caso del SIN di Trieste è tipico, zone
che erano e sono rimaste sede di attività, di produzione agricole importanti, perciò parliamo di questa situazione.
Questo è molto diverso da quello che è avvenuto in Germania, piuttosto che Bretagna o in Olanda o anche negli
Stati Uniti d’America, dove la individuazione dei siti dove dovevano essere programmati interventi, anche con
finanziamenti pubblici, per il risanamento è stata fatta sulla base di valutazioni molto, molto puntuali e soprattutto
avendo in mente, quello che in Italia non è avvenuto, anche una ipotesi di destinazione d’uso, perché
sostanzialmente quando si risana un sito che è stato utilizzato da produzioni industriali, in particolare quelle
primarie, è un po’ complicato immaginare che questo sito debba essere bonificato in maniera tale da essere
disponibile per tutti gli usi, perché se si ha questa idea allora vuol che si immagina di prendere il terreno fino a una
dimensione importante, profondità importante, caricarlo su qualche camion e portarlo in qualche discarica, questa
peraltro è un’idea che ha suggerito alla direzione antimafia che forse poteva esserci qualche preconcetto di tipo
diverso da quello della protezione dell’ambiente, perché come sapete gli interessi della malavita organizzata nel
settore dei rifiuti sono soprattutto il trasporto e la locazione a discarica nei buchi di materiali che vengono
considerati pericolosi o rifiuti. Questo è il contesto, in più in Italia abbiamo alcuni di questi siti che sono in posizioni
strategiche per lo sviluppo urbano o per lo sviluppo delle infrastrutture, in particolare quelle portuali, perciò della
logistica, per cui una parte di questi siti hanno un valore enorme dal punto di vista strategico, perché la loro
riutilizzazione potrebbe muovere, essere un volano importante di sviluppo, pensate a Porto Marghera piuttosto
che era piuttosto che a tutta l’area industriale di Trieste, piuttosto che a Bagnoli oppure a Napoli est, sono zone
che oggi rappresentano un patrimonio importantissimo per chi vuole immaginare quelle aree soprattutto come
aree di sviluppo per attività legate soprattutto alla infrastrutturazione trasporti, porti e attività industriali più leggere,
cioè a bassi impatto ambientale. Perché dico questo? Perché sostanzialmente la legislazione italiana e anche la
normativa tecnica che si è sedimentata nel corso degli anni per affrontare il tema dei siti di interesse nazionale
non ha tenuto assolutamente conto di queste considerazioni di contesto. Noi abbiamo avuto e abbiamo tuttora,
nonostante che abbiamo fatto molte modifiche nell’ultimo anno, un impianto normativo tecnico che affronta il tema
dei siti di interesse nazionale che non ha una visione in termini di riuso di questi siti, per cui gli obiettivi di
risanamento ambientale sono obiettivi astratti, cioè sono obiettivi che teoricamente immaginano che in un sito
industriale di industria primaria si possa fare un campo di grano o qualcosa del genere, perché non essendoci una
indicazione di uso, gli obiettivi di risanamento sono i più severi possibili, cioè oltre il contesto naturale di fondo, si
sono cioè immaginati degli obiettivi di risanamento ambientale di molti di questi siti che avrebbero dovuto
raggiungere degli obiettivi molto più severi di quelli rappresentati dal fondo cosiddetto naturale dell’ambiente, non
di quel sito, ma dell’ambiente nel quale il sito si colloca. Questo determina un altro effetto che teoricamente il
valore di queste aree è un valore importante, perché se si possono usare per qualsiasi cosa è un valore importante,
tant’è, per esempio, che quando abbiamo affrontato il tema della riqualificazione dell’area industriale di Porto
Marghera, il valore stimato delle aree da bonificare era attorno 500 euro a metro quadro, voi capite che 500 euro
44
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
20 Novembre
al metro quadro per un’area non è un valore da poco soprattutto se uno vuole farci una nuova attività industriale.
Questo è il primo dato e che cosa abbiamo fatto? Abbiamo ricondotto progressivamente gli obiettivi di risanamento
o comunque di riqualificazione ambientale di questi siti al loro riuso, riuso a fini produttivi; questo ha semplificato
molto le problematiche, per esempio l’accordo che ho firmato il 16 aprile a Venezia per Porto Marghera, avendo
come premessa stabilita dal comune e dalla Regione Veneto che quell’area è un’area a fini industriali, ha
semplicemente liberato il campo da molte ipotesi di utilizzazioni speculative dell’area e ha reso disponibili
immediatamente circa 5 miliardi di euro di investimenti. La seconda cosa che abbiamo fatto è di considerare, anzi
di prevedere che in queste aree, dove si prevede il riuso industriale, l’obiettivo da raggiungere è quello della
messa in sicurezza del sito, che è diverso dalla bonifica, messa in sicurezza vuol dire che dobbiamo avere la
garanzia che il riuso di quel sito non generi contaminazione ambientale soprattutto al di fuori del sito stesso e che
comunque non ci sia un aggravio del carico ambientale. Questa seconda semplificazione della normativa ha
consentito di restituire molte di queste aree a riusi di carattere industriale che altrimenti erano precluse dal fatto
che bisognava aspettare la bonifica del sito per poi poterle riutilizzare. La terza cosa che abbiamo fatto è quella
di ridurre il perimetro, perché abbiamo rifocalizzato gli obiettivi di risanamento ambientale a quelle componenti del
sito di interesse nazionale o quelle di sito di interesse regionale che sono effettivamente contaminati o che
comunque presentano problematiche di questo tipo, questo ha consentito di cominciare a liberare aree per, si
dice, restituzione agli usi propri, agli usi legittimi, molte aree che invece erano all’interno del perimetro del sito di
interesse nazionale e che non potevano essere utilizzate. A Torviscosa, nella laguna di Grado e Marano, abbiamo
liberato quasi tutta l’area, è rimasto soltanto un nucleo che è una parte del vecchio stabilimento Caffaro, e abbiamo
ricominciato a pensare con le autorità locali il riuso di quel territorio a fini produttivi a cominciare dal dragaggio
dei canali lagunari che sostanzialmente impedivano non essendo possibile dragarli, perché all’interno di un sito
di interesse nazionale, nonostante che la qualità dei fanghi fosse di una qualità tale da non classificabili tossici,
abbiamo liberato questa situazione e si sta riprendendo l’uso di quel territorio. Quello che emerge da questa
esperienza che pure abbiamo realizzato molto in velocità è che la rimessa in moto delle attività in queste aree è
anche una garanzia di salvaguardia, perché siti contaminate che non sono gestiti non è che si autodepurano ma
continuano ad essere contaminati, siti industriali dismessi, contaminati, che vengono gestiti con attività industriali
che rispettano oggi le norme attuali, diventano siti gestiti perciò siti in risanamento attraverso il riuso. Questa è
l’esperienza di Rotterdam, è l’esperienza della Ruhr, è l’esperienza di alcuni dei siti industriali inglesi che sono
stati di risanati, perciò questo è il quadro di riferimento nel quale si colloca l’iniziativa che il Governo ha preso su
questo. In parallelo a questo, questione emersa in maniera molto evidente nel caso dell’Ilva ma ci sono molte
situazioni che sono sostanzialmente più o meno in una situazione simile, è emersa anche la problematica del
rapporto tra stato di salute della popolazione residente in quelle aree e qualità ambientale dei siti di interesse
nazionale, ci sono state le indagini, credo avviate nel 19992/93 dall’OMS insieme con l’Istituto Superiore di sanità,
poi c’è il Progetto Sentieri di cui vi hanno parlato un attimo fa, il tema di fronte al quale ci troviamo, soprattutto nel
caso in cui persistano attività industriali, questo è il caso di Taranto ma è anche il caso di Priolo Augusta,
sicuramente, noi abbiamo sicuramente, nello stato di salute della popolazione, la convergenza di almeno due
principali, possiamo chiamarli filoni, non saprei come chiamarli, due tracks sui quali sostanzialmente si muove
l’andamento dello stato della salute della popolazione, l’uno che riguarda l’esposizione più che ventennale,
trentennale in questi siti, qualche volta anche di più come a Taranto, della popolazione a quelle che erano le
attività industriali che c’erano prima, parlo di prima del 1980 per dare una soglia, ’80, metà degli anni’80 quando
hanno cominciato a entrare in vigore le normative europee, l’applicazione in Italia delle normative europee che
hanno cambiato drasticamente i processi industriali, prima quando ancora si usava l’amianto, quando venivano
usati idrocarburi policiclici aromatici ad alto rischio per la salute, e quella è la storia, la popolazione oggi che
presenta patologie croniche, tumorali riferibili a quelle situazioni di rischio è in qualche modo il documento che
certifica il rapporto tra quella situazione di attività industriali, di rischio ambientale e gli effetti che si sono avuti sulla
salute che, com’è noto, non sono effetti acuti, cioè non è un’influenza, quando uno è esposto all’amianto può
avere una latenza di venti, trenta anni della malattia ma questo avviene per molta parte delle malattie croniche
degenerative e per le malattie tumorali, perciò da una parte le popolazioni che risiedono in queste aree e che
hanno vissuto nel corso dei decenni in queste aree sono sostanzialmente esposte al rischio di avere manifestazioni
patologiche che sono riferibili a quel tipo di esposizione, tenendo conto delle variabilità individuali, perché come
sappiamo non tutti quelli che sono stati esposti amianto, per fortuna, hanno il mesotelioma della pleura, ma
questo è un altro aspetto che riguarda poi una politica di prevenzione e diagnosi precoce di cui vorrei dire una
cosa. A questa area di popolazione si sovrappone quella che invece risiede ora, la popolazione più giovane,
quella che non è stata esposta a quei rischi ma che presenta delle patologie che in parte possono essere
determinate dalle attività industriali esistenti oggi o dalle contaminazioni ambientali che sono intervenute perché
ci sono dei siti contaminati, delle acque contaminate, la catena alimentare che può essere a sua volta contaminata
dalla persistenza di siti contaminati non gestiti, spesso non gestiti perché le procedure delle conferenze di servizi
per la bonifica dei siti contaminati che sono state aperte nel 2001/2002 sono ancora aperte, c’è una responsabilità
Arezzo 20 - 23 novembre 2012
45
20 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
dell’amministrazione nella contaminazione attuale dei siti che non sono gestiti, perché noi, con la storia dei pareri
e contro pareri sui progetti di bonifica, teniamo aperte procedure per dieci anni e quando le teniamo aperte per
dieci anni intanto quel sito continua a essere attivamente contaminato, è un tema sul quale stiamo cercando di
capire, abbiamo già fatto qualcosa ma non siamo riuscirti a far tutto. Ci sono comunque questi due aspetti e su
questo bisogna lavorare per sapere quali sono le misure di prevenzione più efficaci che devono essere attivate
oggi in quei territori, non a caso a Taranto, che per noi è un caso di svolta, abbiamo parallelamente attivato il
piano di area per il risanamento ambientale, del Mar Grande, del Mar Piccolo, di Statte, di Tamburi, delle discariche,
cioè abbiamo affrontato il tema del risanamento del territorio che è fondamentale, non si può continuare a tenere
lì territori che rimangono contaminati per anni in attesa che qualcuno scelga qual è la procedura o qual è la
responsabilità e dall’altro abbiamo affrontato il tema dell’Ilva con l’autorizzazione integrata ambientale con la
quale abbiamo detto che l’Ilva può continuare a lavorare soltanto se si adegua ai migliori standard ambientali
europei. Questo approccio suo doloroso per il territorio, perché costringe le amministrazioni ad essere attive, a
non rinviare, e perciò è impegnativo, lo è per le imprese, perché le stime di investimenti che Ilva dovrà sostenere
per risanare non inferiore ai 2 miliardi e mezzo di euro, che non è poco; credo che sia la prima volta in Italia che
avviene che un’amministrazione pubblica dice un’impresa deve adeguarsi e che deve adeguarsi con determinate
tecnologie e che deve farlo perché altrimenti non c’è storia, perché non può immaginare di continuare ad aprire
contenziosi per rimanere aperta. Questo è un caso di svolta nella gestione di un sito di interesse nazionale, però
la prospettiva di fronte alla quale ci troviamo non è ancora molto chiara, perché quello di cui abbiamo bisogno,
che abbiamo verificato nel caso dell’Ilva, è di avere dei dati di riferimento certi sullo stato della qualità dell’ambiente
oggi e sulla storia della contaminazione, su questo non abbiamo ancora informazioni affidabili, non abbiamo
ancora quello che serve al nostro Paese, e che io credo che sia necessario, quello che altri Paesi europei hanno,
un’autorità di riferimento che è la sede delle informazioni correte alle quali ci si rivolge per avere una risposta e
questa risposta sia riscontrabile sulla base delle metodologie dei format internazionali, riconosciuti e certificati a
livello internazionale. Questo ancora ci manca e questo è il passaggio che dobbiamo fare, un salto di qualità che
dobbiamo fare, dobbiamo essere capaci di assumerci la responsabilità di gestire queste situazioni complesse
dando delle risposte e non soltanto continuando a fornire dei problemi o porre dei problemi. Grazie.
46
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
20 Novembre
La valutazione della salute in Siti Contaminati
"Incidenza tumorale in Siti Contaminati: approccio metodologico per gli studi"
Pietro CombaIstituto Superiore di Sanità
Trascrizione non revisionata dal relatore
Grazie. Siccome molte cose sono state già dette dai relatori che mi hanno preceduto, mi avvantaggio e introduco
subito il gruppo di lavoro fondato sulla collaborazione fra Istituto Superiore di Sanità e Associazione Italiana dei
Registri Tumori, ringraziando in particolare il dottor Crocetti dell’enorme lavoro che ha fatto e che adesso vedremo
nella parte dati, insieme ai quali ci siamo posti l’obiettivo di studiare l’incidenza dei tumori nei siti di interesse
nazionale, una trattazione delle basi di questa collaborazione è disponibile su “Epidemiologia e Prevenzione”, il
supplemento quattro del 2011, se qualcuno è interessato può trovare una trattazione sistematica, ma mi interessa,
saltando un po’ le premesse sui siti inquinati e sull’opportunità di studiare lo stato di salute delle popolazioni che
vi risiedono, partire da un dato e cioè che circa la metà dei siti di interesse nazionale sorgono in territori che sono
serviti dai Registri Tumori, questo è il punto dal quale è partita la nostra collaborazione, intendendo ISS-AIRTUM.
Si vede bene non solo che la metà dei siti sono serviti dai Registri Tumori ma anche che questo è uniforme su
tutto il territorio nazionale, dal Nord al Sud; questo ci consente, in questa metà dei siti, di studiare l’incidenza dei
tumori, che è più interessante della mortalità per i tumori, in quanto: uno, la qualità dei dati è superiore perché si
fonda su una classificazione istologica e non solo su quanto riferisce il certificato di morte; due, la incidenza, a
differenza della mortalità, non è influenzato dalle condizioni socio-economiche per le quali, a parità di incidenza,
la mortalità è più alta nelle classi più svantaggiate che possono non avere accesso a centri specialistici e a terapie
appropriate e infine il terzo motivo è che l’incidenza misura anche il carico di patologia non letale, quindi copre
uno spettro più ampio di carico di patologia. Queste sono le sedi tumorali che abbiamo studiato negli adulti,
preciso che tutta la parte sull’incidenza dei tumori in età pediatrica e adolescenziale è tuttora in via di definizione,
è una materia particolarmente complessa e su questo diremo qualcosa prossimamente, e che come popolazione
di riferimento, non avendo delle stime nazionali dell’incidenza di tumori e che non tutto il Paese è servito dai
Registri Tumori, abbiamo utilizzato sia il Pool Nazionale dei Registri che hanno aderito allo studio, sia dei Pool ci
macroarea, cioè Nord, Centro, Sud e Isole. Dei Registri Tumori che servono territori nei quali sono presenti siti di
interesse nazionale tutti, tranne il Registro Tumori del Friuli Venezia Giulia, hanno aderito allo studio; quindi, noi
vedremo i risultati relativi ai siti di interesse nazionale qui elencati salvo i due siti ubicati nel Friuli Venezia Giulia,
Laguna di Grado Marano e Trieste, siccome sappiamo che non si può fare l’unità d’Italia senza Trieste, auspichiamo
che in futuro anche questo Registro collabori. Nella presentazione di oggi vediamo i risultati complessivi, non
vediamo sito per sito, non è questa la sede, ci interessa vedere il fenomeno nelle sue linee generali. Sul decennio
considerato, 1996-2005, sulla base di circa 83.000 casi di tumore delle sedi tumorali che abbiamo precedentemente
indicato, considerando l’insieme dei siti, quindi i venti siti che abbiamo definito prima, noi abbiamo, rispetto
all’incidenza stimata sul Pool Nazionale dei Registri Tumori, incrementi per quanto riguarda tutti i tumori del 3%,
tumori dell’esofago 15% di eccesso, fegato 45%, colecisti e vie biliari 12%, pancreas, polmone, mesotelioma,
mammella, vescica, encefalo e leucemia mieloide cronica; questo è un dato di sintesi, se disaggreghiamo il dato
nei due generi, vediamo, in linea generale, una coerenza fra uomini e donne, non completa, ma si ha come
l’impressione che, in linea generale, correlino le distribuzioni dei tumori nei due generi, il che non è incompatibile
con una modalità di esposizione diciamo generale, non legata alla sola componente professionale, che farebbe
attendere un’incidenza più elevata negli uomini. Se poi suddividiamo i dati per macroarea, Nord, Centro e Sud,
vediamo che complessivamente gli eccessi prevalgono sui difetti, un po’ ovunque, ma più al Sud, leggermente di
più al Sud, e sempre in modo coerente nella popolazione maschile e femminile, su questo punto dei maggiori
incrementi al Sud ritornerà poi il collega Ivano Iavarone quando presenterà i risultati dello studio di mortalità.
Ecco, cerchiamo di commentare questi dati da un punto di vista della loro validità, seguendo un po’ la sequenza
caratteristica che si utilizza quando si fa una revisione di un lavoro, la qualità del dato, questi 83.000 casi sono
casi riconosciuti dalla rete dei Registri Tumori accreditati, quindi la qualità del dato di partenza è elevata,
l’appropriatezza della popolazione di riferimento, diciamo che abbiamo utilizzato in questo caso le procedure
adottate dall’AIRTUM, Crocetti in qualunque momento mi può contraddire o aggiungere qualcosa, perché questo
lavoro è stato veramente reso possibile dal fatto che si è lavorato su questa grande base di dati che ha sede
all’ISPO, a Firenze, però credo che la comparazione dei dati dei siti con il Pool Nazionale e con i pool di macroarea
e sostanziale coerenza fra le due serie di popolazione di riferimento corrobori l’ipotesi che il fenomeno sia reale.
La copertura temporale di un decennio, naturalmente, la estenderemo nel tempo. La precisione delle stime, noi
abbiamo utilizzato degli intervalli di confidenza al 90% sulla base di quattro motivazioni che richiamo brevemente
perché è un tema che è stato sollevato in alcune sedi, il primo punto è che noi intendiamo non confondere l’utilizzo
della stima intervallare come misura di precisione di una stima con l’uso dell’intervallo di confidenza come
Arezzo 20 - 23 novembre 2012
47
20 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
surrogato di un test d’ipotesi e soprattutto tendiamo a non confondere il test di ipotesi finalizzato a capire qual è
l’errore di vedere un fenomeno che non esiste, errore del primo tipo, piuttosto che non vedere un fenomeno che
esiste, errore del secondo tipo, non confondere questo con l’uso del test all’interno della teoria delle decisioni in
statistica che è altra cosa. Sappiamo peraltro che il limite inferiore di un intervallo di confidenza al 90% può essere
letto come un test di significatività del 5% a una coda, il che significa che ci avvaliamo dell’approccio utilizzato
dagli autori che ho qui richiamato che si sono occupati nel tempo di radiazioni ionizzanti, di cloruro di vinile, di
amianto, cioè di cancerogeni certi, perché volevano concentrare tutta la probabilità di un errore del primo tipo per
apprezzare un eventuale incremento del rischio ma non una variazione del fenomeno osservato nelle due
direzioni, non c’era un’ipotesi di vedere se faceva bene o se faceva male, si voleva capire se in quelle condizioni
degli agenti dannosi per la salute producevano un danno misurabile. Poiché il progetto della collaborazione fra
l’Istituto e l’AIRTUM è centrato su patologie per le quali a priori si è valutata la persuasività scientifica di un ruolo
causale accertato o sospettato di queste esposizioni, è sensato utilizzare, in questo senso, l’intervallo di confidenza
al 90%, a nostro giudizio, poi naturalmente su questa questione ognuno liberamente e autonomamente può
ricalcolare i dati con altre integrali al 95%, al 99% e trarre conclusioni diverse. Tenendo conto quindi di questi
problemi di validità dei dati e di disegno dello studio, noi riteniamo che il senso di questo lavoro sia un contributo
a quel percorso di caratterizzazione epidemiologica dei siti inquinati di cui ha parlato la dottoressa Musmeci nel
suo primo intervento e riteniamo quindi che, avendo evidenziato in numerose sedi tumorali incrementi significativi
dell’incidenza dei tumori maligni, in modo coerente nei due generi, nella popolazione adulta, perché, come ho
detto, sulla popolazione in età pediatrica dobbiamo ancora concludere il lavoro, sia ora il caso di passare alla
seconda fase del progetto che consiste nell’esaminare i dati nei singoli siti, precisando, in funzione dei contaminanti
presenti in quei siti, in funzione degli inquinanti indice, ecco, attraverso questo approccio e quindi formulando poi
delle ipotesi eziologiche mirate nei vari siti, andare a vedere se c’è una corrispondenza tra il profilo delle sostanze
cancerogene presenti e il profilo degli organi bersaglio interessati. Grazie
48
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
20 Novembre
La valutazione della salute in Siti Contaminati
"Stima della frazione di tumori attribuibili a esposizioni ambientali: dati epidemiologici in Italia"
Diego Serraino
IRCCS Aviano
Grazie dell’invito, sarò brevissimo perché devo ripartire subito per Pordenone. È un vero piacere discutere con voi
di questo argomento che, come epidemiologo dei tumori, ho sempre seguito da tempo, anche con un interesse
personale. Quello che cerco di sviluppare brevemente oggi è questo. abbiamo delle conoscenze accettate nel
mondo, mondo industriale, dove l’Agenzia Internazionale per la Ricerca sul Cancro e American Association for
Cancer Research, sostanzialmente, la stima media, per tutti i Paesi industrializzati, che attribuisce le varie quote
del rischio, quindi della prevenzione e delle azioni che noi potremmo fare, sotto i 65 anni di età, per limitare una
buona quota di tumori, parlo dell’89% dei tumori, attribuisce all’inquinamento ambientale il 2%; chiariamo subito
che l’inquinamento ambientale non è occupazionale, non è stile di vita, non è infezioni, è proprio dove noi non
possiamo fare a meno di respirare, possiamo cambiare l’acqua, possiamo mangiare diversamente ma di respirare
proprio non possiamo farne a meno. Vediamo rapidamente le stime (slide), sono del 2012, il report è scaricabile
da Internet, basta cliccare AACR, e questa è l’ipotesi di partenza, nel mio ragionamento che cerco di sviluppare
con voi. Allora, mi domando se abbiamo raccolto delle evidenze nel nostro Paese tali da smentire quella media,
se abbiamo raccolto strumenti, se ci striamo attrezzando per dire che in alcune aree quello non è vero, perché
quella media va dallo 0,1% al 30%. Chiaramente, quello che vi ho fatto vedere prima, è nettamente in contrasto
con quello che hanno messo sui giornali su Taranto dove si è arrivati a parlare del 419% dei tumori attribuibili
all’inquinamento, evidentemente noi possiamo immaginare i retroscena che ci hanno portato a questa situazione
però, come epidemiologi dei tumori, corriamo dei grossi rischi, perché chiaramente se nella divulgazione, nella
prevenzione devo parlare di come e cosa devo fare per la popolazione per diminuire il rischio di cancro sotto i 65
anni, diciamo 65 perché non è che i tumori sono prevenibili a 100 anni, sono prevenibili a una certa età, perché
noi siamo semplicemente elementi di una specie che ha già disegnato nel corredo genetico, e poi nell’epigenetica,
il nostro destino di individui e membri di questa specie. Qual è il rapporto tra il 2% della IARC, della AACR e il
419% del “Quotidiano di Puglia” o del “Sole 24 Ore”? Questo, ovviamente, non c’entra nulla con i miei colleghi,
loro hanno fatto il loro lavoro, le notizie poi prendono altre strade. Una precisazione, si scrive cancro ma non si
legge cancro, il cancro sostanzialmente non esiste, esistono le malattie neoplastiche, che sono più di 200, oggi
sono 230 perché siamo capaci ha caratterizzarle molecolarmente, ognuna di queste caratterizzazioni ha o grandi
gruppi di fattori di rischio oppure determinati fattori di rischio, ma questi sono specifici o almeno per i gruppi o per
le patologie, ma nel caso del cancro del polmone, per esempio, sono specifici per un tipo istologico del cancro del
polmone, quindi c’è una complessità enorme nello studio di queste malattie. Ho raggruppato alcuni esempi (slide);
noi sappiamo che il cancro della vescica ha sicuramente a che fare con una quota che ha a che fare con
l’inquinamento dell’acqua, il polmone con una quota, più o meno tra il 5/8%, dipende da dove siamo, che ha a che
fare con l’inquinamento dell’aria, qui ci sono tutti tumore del tratto aereo superiore, perché evidentemente gli
inquinamenti ambientali arrivano fino qua, dopodiché fino ai polmoni e poi entrano in gioco altri fattori. Per passare
al nesso di causalità, noi dobbiamo tener conto di quello che sappiamo per tutte le malattie, in particolare per le
malattie cronico degenerative, quindi specificità dell’esposizione, timing, dose durata. Quella persona è stata
esposta a quello e quando? È stata esposta il tempo sufficiente perché inizi la cancerogenesi, è un processo multi
stage che ha perlomeno quattro tappe, che si sviluppa con la vita, con la durata, se non invecchi non riesci a
sviluppare un tumore e qual è il fattore iniziatore, mediatore e poi finale? C’è una coerenza temporale tra
esposizione e tempo di latenza? C’è una coerenza biologica? C’è una coerenza con quello che trovo nelle
evidenze della letteratura? Questo è cruciale perché nessuno di noi può pensare di scoprire le cause del cancro
con un tasso di mortalità, questo è evidente. Brevemente, per chi non ha familiarità con … dei tumori, ci sono solo
due tumori che conoscono un fattore necessario, il cancro della cervice uterina e sarcoma di Kaposi, sono due
infezioni, questo vuol dire che il 100% di quei tumori non può esserci senza quelle infezioni, poi ci sono due tumori
per cui, diciamo, sono quasi condizioni necessarie, uno è l’esposizione occupazionale all’asbesto nel mesotelioma
pleurico e l’altro è il fumo nel cancro al polmone. Se in termini giornalistici di diffusione noi segniamo la colpa e la
causa, in epidemiologia in realtà non esiste, perché la causa non c’è. Pensate che solo per 5.000/10.000 donne
che si infettano per HPV, una svilupperà il cancro della cervice, ci vogliono 10.000 infetti con KSHV per fare un
sarcoma di Kaposi, ci vogliono per lo meno 8.000 fumatori perché uno sviluppi un cancro al polmone, questo ci
dice, nella complessità del fenomeno, della nostra impossibilità di associare una causa effetto con degli strumenti
che possono non risultare tali. Tecnicamente noi abbiamo bisogno della frazione attribuibile, quindi che si calcoli
in un modo piuttosto complesso il rischio relativo degli esposti meno il rischio relativo dei non esposti diviso gli
esposto, questo solo per dirvi che ci serve un rischio relativo, che ci serve un’esposizione ma che ci serve un
rischio relativo per quella persona, per quella esposizione, per quel periodo. Il collega Comba prima chiedeva
Arezzo 20 - 23 novembre 2012
49
20 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
perché il Friuli Venezia Giulia non partecipa a Sentieri, noi partecipiamo volentieri a Sentieri, però partecipiamo
con l’uso concordato dei tassi, questa è un po’ la situazione; abbiamo anche un problema, c’è anche un
rappresentate della proprietà del nostro Registro, io sono solo il direttore e non sono il proprietario, e la Regione
ha in corso un processo, la situazione è un po’ complessa, sono due i problemi che abbiamo, uno di discussione
scientifica tra di noi e uno pratico, legale. Rapidamente, vediamo come hanno affrontato il problema in Cina. La
Cina è oggi il Paese più inquinato del mondo dal punto di vista industriale, lo sarà, penso, per i prossimi quindici
anni. In questo studio che è stato fatto in 32 aree cinesi, vedete che la media del livello di particolato nell’aria è di
250 che sarà, se ho capito bene, cinque volte la nostra, una coorte di 70.000 persone, l’esposizione ambientale
misurata con il proxy della residenza, l’outcome la mortalità, un’analisi fatta bene, trovano loro un grande rischio
di cancro al polmone, più o meno il 4% all’aumento di 5 µg soprattutto di ossido di zolfo e non trovano altre cose.
Il Canada lo stesso, il Canada è un Paese che ha una grande sorveglianza per ambiente e tumori, ha bassi livelli
di inquinamento e ci dicono che su 70.000 casi di tumore della pelle e del labbro, 450 sono dovuti alle radiazioni,
280 casi di tumore del polmone dovuti al fumo passivo e lo stesso per il radon. Per il resto però non sono in grado
di darci delle stime perché i livelli di esposizione ambientale a inquinanti che stanno nell’aria, mi riferisco al
polmone, sono troppo bassi. Sostanzialmente, quello che noi non riusciamo a fare, non riescono a farlo neanche
i canadesi. In Italia sono stati fatti molti studi, incomincerò dalla mia regione, il Friuli Venezia Giulia, Fabio Barbone,
epidemiologo che studia molto l’ambiente, ha fatto uno studio molto accurato, con i colleghi di Trieste, sul cancro
del polmone nell’area cittadina con varie ipotesi, volevano indagare la relazione tra l’inquinamento di origine
urbana, quindi avevano separato l’urbano, l’industriale e i tipo istologici, questo è molto importante perché come
vi dicevo, abbiamo due tipi, uno associato al fumo delle sigarette e uno che non c’entra nulla con il fumo di
sigarette. Fanno uno studio a caso–controllo, 750 casi, 750 controlli, racolgono per ognuno di questi, tramiti i
sopravvissuti, perché alcuni erano morti, varie informazioni sui fattori di confondimento e calcolano una percentuale
del 95%, anche questa è una questione tecnica, cui ha accennato il collega Comba, molto importante, perché
questa è una visione diversa, è una visione che presuppone che noi non sappiamo cosa c’è in realtà, diciamo che
non lo sappiamo, ci prendiamo pochi rischi sui falsi positivi perché non vogliamo avere dei falsi positivi, però
rischiamo di avere dei falsi negativi. Questa è un po’ la visione, il 90% prende il 10% di rischio, 1 su 10, il 5%, ne
prende la metà, è però un’impostazione, non è né giusta né sbagliata, sono semplicemente due visioni diverse.
Questa è l’area (slide), questo è il mare a Trieste, le tre “B” sono le zone industriali, il “C” è il centro, più si va in
qua meglio si vive, la bora soffia in questa direzione quindi chi vive nella collina o chi vive nella zona residenziale,
perché non solo non è vicino ma ha pure la bora e sta sopra vento alla bora che porta gli inquinanti da questa
parte. Per farla breve, trovano un rischio aumentato dal 40% al 50% di cancro al polmone del tipo istologico che
deve essere, quindi una conferma molto sostanziale, questo viene associato all’esposizione di particolato; è
importante che dicano che questo è possibile, è probabile, lo studio è stato fatto nel miglior modo possibile, ma
non abbiamo la valutazione individuale, c’è un confondimento possibile residuo, ci sono altri fattori che noi
conosciamo, fumo passivo, nutrizionali, eccetera. Questo è lo studio individuale, diversi sono gli approcci come
questo di Milazzo, vicino alla raffineria, anche questo di coorte, il proxy è sempre vicino all’area, si crea una
coorte, questa è piccola perché è una coorte di sole 450 persone, quindi non dà la possibilità di fare delle analisi
approfondite, infatti gli autori dicono che il quadro che emerge da questa analisi sostanzialmente non mette
anomalie, chiaramente c’è il monitoraggio, più o meno lo stesso discorso per lo studio sempre che valuta
l’esposizioni ambientali usando il proxy della residenza sulle centrali nucleari, vicino a Latina, questa è una coorte
più forte, perché mi sembra che abbia qualche migliaio di persone con dei numeri osservati importanti e questi
sono solo valutazioni del rischio per tumori radiosensibili, questo è un SIR, ha Latina c’è un Registro Tumori,
quindi il rapporto tra l’incidenza, mi aspetto X numero di tumori, perché comunque questi tumori ci sono
indipendentemente dalla centrale, ne trovo altri, che cosa troco? Su questo rapporto ci trovano un aumento di
cancro della tiroide, una cosa ragionevole, è stato sempre pensato che questo fosse possibile, dai tempi di
Chernobyl, abbiamo ricevuto mote pressioni da questo punto di vista, l’aumento che trovano nelle donne è
sostanzialmente un aumento trainato da questo della tiroide. Naturalmente, le conclusioni sono che c’è un
aumento del tumore della tiroide nell’intera area ma non c’è la possibilità di formulare una relazione con la
centrale, probabilmente in quell’area c’è, il monitoraggio diagnostico è un’arma a doppio taglio, perché il
monitoraggio diagnostico è il principale motivo per cui noi oggi vediamo un aumento di tumori della tiroide. Di
Sentieri sapete già tutto, due cose che mi servono per agganciare la vostra attenzione, dove il mio ragionamento
va, è uno studio ecologico che genera ipotesi e questo è principale motivo di ragionamento, non le può testare,
l’outcome è la mortalità, l’esposizione è la residenza più o meno recente, se ho capito bene, come proxy
l’esposizione a inquinanti e come confondente si può usare lo stato socioeconomico. Uno studio così grande
come Sentieri ovviamente fa fatica ad andare nel dettaglio, è uno studio che genera ipotesi che vanno poi testate.
Nell’aggiornamento del 2009 che ha dato parecchio da discutere, emergono molti dati, ma emergono tutti questi
test, allora c’è un punto in cui si può discutere del 90%, guardate la colonna degli aggiustati per stato socioeconomico,
chiaramente è un marker di tutti i fattori, c’è la mortalità aumentata del 10%, soprattutto quella infettiva parassitaria,
50
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
20 Novembre
vari tumori ma insomma, quello che emerge bene è il tumore del polmone, come ci si può aspettare, il melanoma
della pelle, nelle donne, una cosa che si vede molto bene è l’aumento delle malattie infettive e soprattutto delle
epatite virale, una cosa che uno può collegare direttamente con l’aumento del tumore del fegato; un altro punto,
sul cancro del polmone, che viene a 120, uno si trova al 100,1 di intervallo e lì scaturisce la discussione sull’intervallo
al 90%, perché c’è un’ipotesi a priori, ragionevole, non stiamo parlando di chi sbaglia e di chi non sbaglia, c’è
un’impostazione che mi dice già che vado a testare e trovo quello, chiaramente al 95% moltiplicando l’errore
standard per 1,96, quello non si trova. La conclusione degli autori mi trova in totale sintonia, perché c’è chiaramente
uno stato di malattia più diffusa e poi c’è il problema di tutto il monitoraggio. Un passo successivo è quello della
coorte, su Taranto, sempre sul proxy della residenza, la coorte è costituita da migliaia di persone, un enorme
potere statistico, il rischio che viene misurato con il 95% dell’intervallo si focalizza soprattutto sul polmone, hanno
trovato un rischio dell’80% del polmone nel quartiere Paolo VI, e questo è il tumore che noi sappiamo che,
ragionevolmente, una buona quota di questi è associata a inquinamento, non ci sono evidenze per prostata, rene
e pancreas, adesso, per dire che questi tumori abbiano una relazione di causa effetto con l’ambiente. Il
ragionamento sostanziale è questo, le conclusioni sono perfettamente inquadrate nei risultati, sempre, questa è
una cosa che non è mai sfuggita, semplicemente lì si nota un aumento. Le mie considerazioni conclusive sono
che tutti i nostri dati italiani, questi di Sentieri sono ovviamente i più importanti, sia per le dimensioni, per a
omogeneità di quanto raccolto, ci portano, ci indirizzano verso il cancro del polmone e ci dicono di studiare il
cancro del polmone nelle varie zone con gli studi analitici e ci chiedono di esprimere quanti tumori del polmone
non ci sarebbero stati se quegli effetti di inquinamento fossero … io rimango sempre dell’idea che però non ho
visto evidenze per le altre malattie neoplastiche e penso che questa sia una cosa molto importante da discutere,
perché se delle associazioni non note esistono e vanno verso un nesso causale, probabilmente dobbiamo fare
quello che hanno fatto tutti, per arrivare qui, questo è il 30% di cancro del polmone, ci sono voluti 50 anni di studi
e circa 15.000 lavori scientifici pubblicati. Questa è la realtà, è complicato però è questo, il nesso di casualità. Vi
ringrazio molto per l’attenzione e vi auguro buona serata.
Arezzo 20 - 23 novembre 2012
51
20 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
La valutazione della salute in Siti Contaminati
"L'uso delle Schede di Dimissione Ospedaliera (SDO) nello studio di morbosità in Siti Contaminati"
Susanna ContiIstituto Superiore di Sanità
Buonasera a tutti. Io sono Susanna Conti, la direttora dell’Ufficio di Statistica dell’Istituto Superiore di sanità,
ancorché una delle coautrici del rapporto che riguarda la salute dei residenti nei siti contaminati che avete visto
prima.
Vi parlerò di un altro tipo di fonti di dati che si può utilizzare per studiare lo stato di salute delle persone che
risiedono nei siti contaminati: le SDO. Tutti noi conosciamo questa fonte informativa, le schede di dimissione
ospedaliera, che sono raccolte su tutto il territorio nazionale; si tratta di una massa rilevante di dati, parliamo
di circa 11 milioni di schede ogni anno; i punti che io toccherò rapidamente sono quelli che vedete qui (slide)
sommarizzati.
In primo luogo, parliamo di analisi non dei ricoveri ma dei ricoverati: infatti, nel database nazionale, di cui
disponiamo, presso l’Ufficio di Statistica dell’ISS, basato sui dati del Ministero della Salute, abbiamo un codice
che è anonimo per motivi di confidenzialità, e che però identifica univocamente i pazienti; quindi noi siamo in
grado di seguire nel tempo e nello spazio una stessa persona nel corso della sua storia di ricoveri.
Come popolazione di studio, prenderemo le persone residenti nei siti contaminati durante il periodo considerato,
che siano avvenute nelle strutture sanitarie dell’intero territorio nazionale, perché noi ci basiamo sul dato
residenziale; considereremo l’evento primo ricovero eliminando i ricoveri ripetuti, riferiti allo stesso individuo e
alla stessa causa nel periodo considerato. La nostra analisi riguarderà l’insieme di ricoveri ordinari e in day
hospital di tipo acuto, nel senso che abbiamo escluso altre tipologie assistenziali quali ad esempio i ricoveri
nelle riabilitazioni ie nelle lungodegenze che riguardano degli altri aspetti sanitari. Un punto interessante, su
cui ci siamo soffermati anche con dei ragionamenti metodologici, è la questione di quale/i diagnosi prendere
in considerazione; in ciascuna scheda di dimissione ospedaliera vi sono fino a sei diagnosi, una cosiddetta
principale, e fino a cinque diagnosi secondarie. Noi abbiamo fatto una scelta conservativa di esaminare solo la
diagnosi principale; scelta conservativa vuol che eventualmente può essere una sottostima, che abbiamo operata
alla luce di vari e autorevoli studi sia nazionali che internazionali; studi italiani che hanno messo a confronto le
cartelle cliniche con le SDO al fine di studiare accuratezza e completezza delle diagnosi hanno dimostrato una
sufficiente accuratezza con cui viene compilata la diagnosi principale rispetto ad altre diagnosi secondarie la
cui registrazione si presenta spesso lacunosa. Inoltre, altri qualificati studi, sia italiani che internazionali, hanno
dimostrato che le misure basate sulla diagnosi principale sono più specifiche e danno quindi luogo a un minor
numero di falsi positivi, mentre le misure che prendono in considerazione tutte le diagnosi sono più sensibili e
quindi danno luogo a meno falsi negativi.
Come sappiamo, tutte le analisi epidemiologiche vanno condotte per genere; inoltre, nel caso specifico della
possibilità di indagare su associazioni con esposizione ambientali, sappiamo che se si prendono in considerazione
separatamente uomini e donne si può di distinguere tra un’esposizione di tipo lavorativo- il nostro mondo del
lavoro è prevalentemente maschile - rispetto a un’esposizione ambientale; faremo anche delle analisi separate
per età, prendendo in considerazione l’insieme delle età e poi la classe di età molto importante che è quella
dei bambini/adolescenti che presentano condizioni di particolare vulnerabilità. Come abbiamo scelto le cause?
Poiché il nostro scopo è quello di studiare i ricoveri per patologie che possono risentire di fattori di inquinamento
ambientale, in primo luogo abbiamo escluso le cause violente e anche i parti con le loro conseguenze. Abbiamo
esaminato dei grandi gruppi di patologie quali: le malattie infettive, i tumori, le malattie del sistema nervoso, del
sistema circolatorio, del sistema respiratorio, del sistema digestivo e di quello urinario; all’interno di particolari,
importanti e rilevanti gruppi di patologie (tumori, circolatorie e respiratorie) svolgeremo un’analisi di dettaglio; per
quanto riguarda bambini e adolescenti, vengono esaminati tutti i tumori, i tumori del sistema nervoso centrale,
del sistema di linfoematopoietico, in particolare leucemie, le malattie respiratorie acute, l’asma e le malformazioni
congenite.
Nella slide che sto mostrando vedete riportate le cause con la relativa codifica con il sistema adottato a livello
internazionale che è il cosiddetto ICD9-CM, dove ICD è mutuato dall’International Classification of Diseases ,
usato per le cause di morte e CM sta per Clinical Modifications. Per quanto riguarda l’arco temporale; le SDO
hanno un livello di tempestività migliore rispetto ai dati di mortalità, nel senso che noi , alla fine del 2012, abbiamo
le SDO del 2010 e stiamo per disporre di quelle del 2011 e pensiamo di andare indietro per un quinquennio; tra
l’altro, come dicevo prima, poiché ragioniamo “a colpi” di decine di milioni di osservazioni, non abbiamo problemi
di numerosità e questo ci consente anche, da un punto di vista statistico, di essere confidenti nella stabilità dei
nostri valori anche quando andiamo a considerare siti che, come sappiamo, sono costituiti da comuni, alcuni
anche piccoli.
52
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
20 Novembre
Per quanto riguarda gli Indici statistici calcolati, come ho detto, ad esclusione della classe di età dei bambini e
adolescenti, per la quale la suddivisione per genere non è informativa, le analisi saranno appunto suddivise per
genere; andremo a calcolare il numero assoluto dei ricoveri e poi un indice che mutua la definizione del suo
omonimo come sigla; nel senso che l’SMR di solito è il rapporto standardizzato di mortalità; in questo caso M
sta per morbidità; noi andiamo con questo indice a comparare il numero dei ricoverati di una certa popolazione
con il numero di ricoverati attesi secondo la distribuzione, in questo caso di morbosità, in una popolazione che
scegliamo come riferimento; mutuando lo schema di analisi e di confronto che abbiamo scelto per il Progetto
Sentieri, avremo come riferimento la Regione in cui si trova il Sito in esame. Ovviamente, alla stima puntuale
di questo indicatore assoceremo un intervallo di confidenza al 90%; la motivazione di questa scelta è stata
efficacemente argomentata nell’intervento di Pietro Comba.
Arezzo 20 - 23 novembre 2012
53
20 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
La valutazione della salute in Siti Contaminati
"I risultati dello studio Sentieri"
Ivano Iavarone Istituto Superiore di Sanità
La richiesta di strumenti valutativi, sia a livello locale (ASL, Comuni, Regioni, etc) che centrale (Ministeri
dell’Ambiente e della Salute), per analizzare lo stato di salute delle popolazioni residenti nei siti contaminati è
aumentata notevolmente negli ultimi anni. Grazie anche all’impegno diretto del Presidente dell’Istituto Superiore
di Sanità, si è avuta per la prima volta l’opportunità di avviare un Programma Strategico Nazionale Ambiente e
Salute finalizzato proprio ad affrontare questa tematica. Uno dei sei progetti afferenti al Programma Strategico
ha dato origine a SENTIERI, lo Studio Epidemiologico Nazionale dei Territori ed Insediamenti Esposti a Rischio
di Inquinamento.
Il principale obiettivo di SENTIERI è stato di di analizzare i profili di mortalità delle popolazioni residenti nei territori
inclusi nella perimetrazione dei Siti di Interesse Nazionale per le bonifiche ambientali (SIN), e di valutare se e
quanto tali profili si discostassero dal quadro di mortalità di adeguate popolazioni di riferimento. Questo studio
ha un carattere multistituzionale e multidisciplinare, e un aspetto innovativo è quello della standardizzazione del
metodo che ha consentito di affrontare lo studio delle aree contaminate distribuite sull’intero territorio nazionale
attraverso un approccio analitico coerente.
Un’altra caratteristica peculiare di SENTIERI è rappresentata dal fatto che in questo studio si è proceduto a definire
criteri di lettura e di interpretazione dei risultati sulla base della valutazione a priori delle evidenze epidemiologiche
relative all’associazione tra le diverse cause di morte analizzate e le diverse tipologie di sorgenti di emissione
e rilascio presenti nei siti. Questo approccio ha quindi permesso l’interpretazione dei dati epidemiologici
avvalendosi di criteri di lettura chiari ed esplicitati prima della produzione dei risultati. Questa attività ha dato
luogo, nel novembre 2010, alla prima pubblicazione del progetto (Pirastu et al., 2010), dove viene riassunta la
valutazione dell’evidenza epidemiologica per ognuna delle combinazioni tra le 63 cause di morte e le 9 tipologie di
esposizioni ambientali presenti nei SIN (presenza di impianti chimici, industrie petrolchimiche e raffinerie, centrali
elettriche, siderurgia, centrale elettriche, miniere e/o cave, aree portuali, amianto o altre fibre minerali, discariche
e inceneritori); la stessa analisi ha riguardato anche altri fattori di rischio (inquinamento atmosferico, fumo attivo
e passivo, alcool, stato socioeconmico ed occupazione). Nel novembre 2011 sono stati pubblicati i risultati dello
studio SENTIERI (Pirastu et al., 2011). Si sottolinea che questo studio non ha l’obiettivo di stimare il rischio di
mortalità attribuibile alle esposizioni ambientali presenti nei SIN, quanto di offrire ciò che viene richiesto da un
punto di vista di sanità pubblica, uno strumento cioè che consenta di valutare il profilo dello stato di salute delle
popolazioni che risiedono in siti contaminati. Il parametro epidemiologico adottato è il Rapporto Standardizzato di
Mortalità (SMR), corretto e non corretto per indice di deprivazione socio economica.
SENTIERI ha considerato 44 SIN, con una popolazione complessiva di 5.500.000 abitanti; i 44 siti differiscono
sia per la numerosità della popolazione (si va da poche migliaia di abitanti fino a decine e centinaia di migliaia
di abitanti per i siti più complessi), sia soprattutto per il tipo di sorgente di contaminazione: ci sono SIN con
singole contaminazioni, quali amianto, o derivanti dalla presenza di specifiche industrie, per esempio chimiche
o discariche, a fronte di una presenza cospicua di siti nei quali sono presenti contemporaneamente più sorgenti
di contaminazione, spesso intimamente connesse anche ad grandi contesti urbani. I risultati dello studio di
mortalità relativi ai singoli SIN sono descritti nel lavoro pubblicato (Pirastu et al., 2011), mentre, in questa sede, si
riassume il quadro della mortalità nel complesso dei 44 SIN oggetto dell’indagine. SENTIERI ha stimato che sul
periodo 1995-2002, rispetto ai riferimenti regionali, vi sono stati circa 3.500 decessi in eccesso per le sole cause
per le quali l’evidenza di associazione con le fonti inquinanti presenti nei SIN era risultata sufficiente o limitata.
Considerando singole tipologie di contaminazione, si è stimato inoltre che, ad esempio, nei 12 SIN documentata
presenza di amianto i decessi in eccesso per i tumori maligni del polmone e della pleura sono stati rispettivamente
330 e 416, mentre 341 decessi per le malattie dell’apparato respiratorio sono stati osservati in eccesso nei 7 SIN
con presenza di impianti siderurgici. Se l’analisi viene ristretta ai principali gruppi di cause di morte, si osserva
che, complessivamente, SENTIERI ha individuato 10.000 morti in eccesso nei 44 SIN sul periodo di 8 anni.
Ciò, va sottolineato, non equivale ad affermare che tali decessi sono attribuibili esclusivamente ad esposizioni
ambientali, ma rappresenta il quadro complessivo di mortalità delle popolazioni che risiedono nei siti. Quest’ultimo
risultato possiede, altresì, un importante interesse da un punto di vista di sanità pubblica in quanto consente di
conoscere lo stato di salute delle popolazioni che risiedono nei SIN rispetto alla popolazione generale. L’analisi
per macroarea geografica, inoltre, evidenzia che gli eccessi di mortalità sono prevalentemente presenti nei siti
del Centro-Sud e del Sud di Italia.
L’analisi della distribuzione della mortalità per grandi gruppi di cause mostra che il 42% e il 19% dei 403.000 decessi
osservati complessivamente in 8 anni nei 44 SIN sono a carico rispettivamente delle malattie cardiovascolari e
54
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
20 Novembre
dei tumori; è interessante notare che quando l’analisi si restringe ai soli 10.000 decessi in eccesso per le cause
che a priori mostrano un’evidenza sufficiente o limitata di associazione con le fonti inquinanti presenti nei SIN, la
distribuzione per gruppi di cause si inverte, con il 43% che si riferisce a tumori e il 19% alle malattie cardiovascolari.
Sebbene non sia semplice attribuire uno specifico significato a questo cambiamento di distribuzione, occorre in
ogni caso prendere atto che, oggettivamente, il profilo di mortalità nei siti di interesse nazionale per le bonifiche
presenta importanti elementi differenziali rispetto a quello della popolazione generale.
Per quanto riguarda i 12 siti con presenza di amianto, un recente aggiornamento al 2009 dell’analisi della mortalità
mostra risultati coerenti con quelli osservati per il primo periodo (1995-2002), elemento questo che permette di
valutare, per quanto riguarda questa causa, che gli incrementi di mortalità negli uomini e nelle donne permangono
anche nei periodi più recenti. Recentemente, su richiesta del Ministero della Salute, è stato prodotto un documento
di aggiornamento di SENTIERI sia sui dati di mortalità che sulle evidenze epidemiologiche disponibili riguardo alla
situazione del SIN di Taranto e. Per quanto riguarda le cause per le quali c’era un’evidenza a priori sufficiente o
limitata di associazione con le esposizioni presenti nel SIN, si è registrata una forte consistenza di risultati, con
eccessi di rischio in entrambi i periodi (1995-2002 e 2003-2009); questo risultato è evidente anche per altre cause
di morte per le quali l’evidenza a priori di associazione con le fonti di contaminazione ambientale era risultata
inadeguata. I principali limiti dello studio SENTIERI sono rappresentati dalla carente valutazione dell’esposizione
e dall’impiego della mortalità quale unico indicatore dello stato di salute. Sono in corso approfondimenti che
impiegano altri eventi sanitari quali l’incidenza di malformazione congenite, di tumori e di ricoveri ospedalieri
da valutare in relazione alla presenza di inquinanti di interesse tossicologico, quindi partendo possibilmente da
ipotesi eziologiche specifiche.
La giustizia ambientale e l’equità sono altri temi particolarmente rilevanti nel valutare lo stato di salute delle
popolazioni residenti nei SIN. Circa il 60% dei 298 comuni che rientrano nella perimetrazione dei SIN studiati
da SENTIERI appartengono infatti ai due quintili più deprivati da un punto di vista socio-economico. Quindi, chi
risiede nei siti contaminati oltre a poter sperimentare elevate esposizioni ad inquinanti ambientali potrebbe anche
avere esposizioni ad altri fattori di rischio non ambientali, e di questo si è tenuto conto nella stima degli SMR
grazie alla correzione per un indice di deprivazione.
Un altro approfondimento dello studio SENTIERI attualmente in corso è la valutazione dello stato di salute
dell’infanzia. I risultati preliminari della mortalità per alcuni grandi gruppi di cause tra i bambini di età 0-1, 0-14
e 0-19 anni, per il periodo 1995-2009 (esclusi gli anni 2004 e 2005 a causa di una interruzione della procedura
di codifica nel sistema italiano di registrazione della mortalità) sono stati presentati al convegno annuale della
Società Internazionale di Epidemiologia Ambientale, ISEE (Iavarone et al., 2012). I risultati mostrano ch,
nell’insieme dei 44 SIN, la mortalità per tutte le cause e per condizioni morbose di origine perinatale nella classe
0-1 anno è rispettivamente del 4% (SMR = 104, IC 90% 101-107) e del 5% più elevata (SMR = 105, IC 90%
102-110) in confronto a quanto osservato tra i bambini italiani di eguale età. La mortalità infantile nei singoli siti,
studiata utilizzando i tassi di riferimento regionali, mostra inoltre che in 8 SIN su 44 (18%), la mortalità generale
è significativamente aumentata nella classe di età 0-1 e in 11 SIN (25%) un incremento di rischio significativo è
presente in uno o più gruppi di età (0-1, 0-14 e 0-19). L’elevato numero di bambini che vivono in prossimità di siti
inquinati e i potenziali rischi per la salute associati alle esposizioni ambientali fanno sì che il loro studio sia una
priorità indiscutibile. La valutazione dello stato di salute infantile verrà approfondito anche attraverso lo studio
di eventi sanitari diversi dalla mortalità, quali l’incidenza tumorale, la prevalenza di malformazioni congenite,
i ricoveri ospedalieri e, possibilmente, le informazioni desumibili dai certificati di assistenza al parto (CeDAP).
Nel complesso, i risultati globali della mortalità suggeriscono che lo stato di salute dei residenti nei SIN è meno
favorevole rispetto ai riferimenti regionali, L’analisi della mortalità nei singoli SIN, complementare all’analisi di
insieme, è utile in quanto consente di individuare gli elementi che possono essere utilizzati localmente per la
definizione di interventi di sanità pubblica e di risanamento ambientale, e per indirizzare la ricerca verso studi che
consentano di completare il quadro informativo.
In conclusione, il processo di valutazione dello stato di salute delle popolazione residenti nei siti contaminati
dovrebbe favorire l’interazione multi-istituzionale e multidisciplinare dei ricercatori al fine di ottimizzare il
disegno degli studi e i metodi di analisi, integrando opportunamente le osservazioni epidemiologiche e le stime
dell’esposizione ambientale. Inoltre, da un punto di vista di corretta gestione dei rischi sanitari, occorrerebbe
porre la giusta attenzione su come fondare i processi di condivisione dei risultati delle indagini con i Ministeri
della Salute e dell’Ambiente, le Regioni, le ASL, le ARPA e i Comuni interessati, per l’attivazione di sinergie fra
le strutture pubbliche con competenze in materia di protezione dell’ambiente e di tutela della salute, e su questa
base avviare i processi di comunicazione con le popolazioni scientificamente fondati e trasparenti.
Bibliografia
Pirastu R, Ancona C, Iavarone I, Mitis F, Zona A, Comba P; SENTIERI Working Group. SENTIERI Project. Mortality
study of residents in Italian polluted sites: evaluation of the epidemiological evidence. Epidemiol Prev 2010 Sep-
Arezzo 20 - 23 novembre 2012
55
20 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
Dec;34(5-6 Suppl 3):1-96.
Pirastu R, Iavarone I, Pasetto R, Zona A, Comba P. SENTIERI Project. Mortality study of residents in Italian
polluted sites: Results. Epidemiol Prev 2011 Sep-Dec;35(5-6 Suppl 4):1-204.
Iavarone I, Pisani P, Maule M, Bianchi F, De Santis M, Comba P, Pirastu, R. Children Health in Italian Polluted
Sites. Epidemiology. 23(5S), September 2012. Poster presented at ISEE 2012- 26-30 August, Columbia, south
Carolina (USA).
56
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
20 Novembre
La valutazione della salute in Siti Contaminati
"Stato d'attuazione degli interventi di bonifica a livello nazionale: i dati ISPRA"
Laura D’AprileISPRA
Intanto, ringrazio gli organizzatori e i presidenti di sessione per opportunità. Il mio intervento, che è l’unico del
comparto ambientale, sarà brevissimo, perché io cercherò di focalizzare, rispetto a tutte le slide che avevo
preparato, su alcuni aspetti che sono stati affrontati dai relatori che mi hanno preceduto, in modo tale da consegnare
un quadro speculare rispetto a quello relativo alle evidenze sanitarie. L’ISPRA è centro di competenza nazionale,
per la rete EIONET (European Environment Information and Observation Network), una rete europea di raccolta
dei dati ambientali, e quindi è chiamata dalla Commissione Europea, e nello specifico dal JRC della Commissione
che ha in questo momento la competenza sulla raccolta dei dati sui siti contaminati, a riportare il quadro, in termini
di dati ed informazioni, sullo stato di avanzamento dei procedimenti di bonifica dei siti contaminati a livello
nazionale. Sui 57 siti di interesse nazionale si è detto già moltissimo, quindi non mi soffermerò, mi soffermo
proprio sull’essenza della presentazione. Questi sono i dati pubblicati nell’Annuario dei Dati Ambientali 2012,
aggiornati per alcune regioni addirittura a marzo/aprile 2012, che riportano il quadro dei siti potenzialmente
contaminati inseriti o inseribili nelle anagrafi regionali dei siti contaminati o comunque nei database costruiti a
livello regionale: siti potenzialmente contaminati accertati, siti contaminati, siti con interventi avviati e siti bonificati.
Questa classificazione che ricalca la richiesta dell’autorità EIONET, ci consente di avere un quadro oserei dire
pressoché completo. Fin qui si è parlato di conseguenze della contaminazione sulla salute umana per alcuni Siti
di Interesse Nazionale, però alcune considerazioni le possiamo trarre sicuramente anche dall’esame di questa
tabella. Innanzitutto, sulla raccolta dati e sulla comunicazione di questi dati sui siti contaminati, che a oggi, con
una disposizione di legge che risale addirittura al DM 471 del 1999, ancora ci sono delle regioni che non hanno
istituito l’anagrafe dei siti contaminati, quindi, a oggi, per alcune regioni, o non abbiamo il dato, non sto qui a fare
l’elenco dei cattivi perché lo vedete dalla tabella, oppure abbiamo un dato che deriva da un database e non da
un’anagrafe istituita a livello regionale. Le anagrafi sono state costruite sulla base di criteri di carattere generale
che furono dati dall’allora ANPA, Agenzia Nazionale di Protezione per l’Ambiente, ma a oggi riportano dei dati
assolutamente disomogenei tra loro. Come potete vedere dall’esame della prima colonna dei siti potenzialmente
contaminati inseriti o inseribili in anagrafe, cioè quelli individuati sulla base o di analisi preliminari o sulla base
dell’individuazione di una lista di attività potenzialmente contaminati, non tutte le regioni ci hanno fornito il dato;
abbiamo alcune regioni, quali ad esempio la Liguria o il Molise, che non ci hanno fornito il dato sui siti potenzialmente
contaminati che potrebbero essere trattati all’interno dell’anagrafe. Per quanto riguarda i siti potenzialmente
contaminati accertati, quelli nei quali è stata effettuata una caratterizzazione vera e propria ai sensi della normativa
vigente e quindi è stato accertato il superamento dei cosiddetti livelli di screening che per noi sono le concentrazioni
soglia di contaminazione, (CSC) questi sono oltre 6.000 rispetto al complesso degli oltre 15.000 siti potenzialmente
contaminati, inseriti o inseribili. I siti effettivamente contaminati, cioè quelli nei quali è stato verificato il superamento
di un livello che chiameremo il “livello di rischio” che è o la “concentrazione soglia di rischio, la CSR in termini di
normativa vigente, o i limiti del previgente DM 471, sono oltre 4.300. Quanti sono i siti con interventi avviati, cioè
i siti per i quali sono state intraprese misure di messa in sicurezza, così come definita nell’intervento dallo stesso
Ministro dell’Ambiente, o interventi di bonifica vera e propria? Qui la distinzione viene effettuata sulla base dell’uso
del sito, si tratta o di siti di carattere industriale attivo o di siti residenziali o di siti addirittura dismessi; questi siti
con interventi avviati sono circa 5.000. I siti bonificati, cioè i siti restituiti o restituibili agli usi legittimi sulla base di
una certificazione della Provincia, sono oltre 3.000. Adesso, ricollegandoci alle considerazioni che sono state fatte
negli interventi precedenti dei relatori che mi hanno preceduto, anche qui vediamo una differenziazione netta tra
Nord e Sud; nella effettiva esecuzione degli interventi è chiara la distinzione tra le regioni del nord che hanno
effettivamente mandato avanti queste attività di bonifica, emblematico il caso della Lombardia con 1.238 siti con
certificazione di avvenuta bonifica sui 3.000 complessivi del livello nazionale, mentre ci sono le regioni del sud
dove invece questi interventi di bonifica stentano a essere avviati e completati, emblematico il caso della Sicilia,
già affrontato in altre occasioni dai colleghi che si occupano di sanità per i siti di Gela e Priolo, dove il numero dei
siti bonificati comunicati all’Assessorato dell’Ambiente della Regione Siciliana è zero, cioè ad oggi, in Sicilia, non
c’è nessun sito con certificazione di avvenuta bonifica. Forse può essere eccessivo trarre delle conclusioni, però
si può dire che i dati si correlano molto bene con quelli delle evidenze di carattere sanitario. Un’altra considerazione
che invece si può fare, ricollegandomi all’intervento del Ministro dell’Ambiente, è che sicuramente, laddove c’è
una mancanza di interesse alla riconversione del sito e alla riconversione in un certo senso produttiva o immobiliare,
il sito è fermo. La testimonianza di questo sono i 1.238 siti bonificati in Lombardia; se noi andassimo a confrontare
gli ultimi dati forniti alla rete europea che sono quelli del 2008, vedremo che c’è stato un incremento spaventoso
nel numero di siti con certificazione avvenuta bonifica, ovvero dei siti bonificati, perché ci sono delle grandi attività
Arezzo 20 - 23 novembre 2012
57
20 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
di riqualificazione immobiliare e industriale, soprattutto immobiliare, in corso legate soprattutto alla realizzazione
di interventi per l’EXPO, per cui questo grande incremento è legato a un interesse produttivo dei siti. Quindi, al di
là del quadro disomogeneo dell’inserimento delle informazioni all’interno di queste anagrafi e che è evidente, ci
sono comunque delle correlazioni indubbiamente interessanti che possiamo fare rispetto al quadro sanitario
complessivo. Un’altra slide che volevo fare vedere, al di là di queste che riguardano la tipologia di aree contaminate
e la tipologia di contaminanti all’interno dei 57 siti di interesse nazionale, è questa che mostra un dato interessante
sull’individuazione, allo stato attuale, delle priorità di intervento sui siti di interesse nazionale; qui vedete la risposta
che noi abbiamo fornito alla rete EIONET sulla individuazione delle priorità di intervento sui siti contaminati.
Dall’Unione Europea ci venivano proposti vari temi, la perdita di biodiversità, gli ecosistemi, una serie di varie
tematiche, noi abbiamo dovuto rispondere che gli interventi vengono attualmente attuati quando c’è una
contaminazione prevalentemente delle acque sotterranee o un potenziale rischio di contaminazione delle acque
sotterranee, possibilmente contaminazione riconducibile al mancato uso idropotabile ma abbiamo delle categorie
di priorità di intervento che non vengono minimamente prese in considerazione, faccio l’esempio, uno tra tutti,
quello della perdita di biodiversità, piuttosto che altre vie di esposizione che sicuramente saranno significative per
la valutazione degli aspetti sanitari, come ad esempio l’accumulo della contaminazione attraverso le piante o
attraverso gli animali, quindi l’ingresso nella catena alimentare, e che ad oggi, sulla base della normativa vigente,
non costituiscono una priorità di intervento. Mi fermo qui, perché era la sintesi che intendevo fare. Grazie.
58
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
20 Novembre
La valutazione della salute in Siti Contaminati
"La valutazione economica dei potenziali benefici per la salute umana delle bonifiche"
Carla GuerrieroLondon School of Hygiene and Tropical Medicine
Trascrizione non revisionata dal relatore
Buon pomeriggio a tutti e grazie dell’invito. Io parlerò di un tema diverso dall’ambiente e dalla salute, un tema che
cerca un po’ di integrare questi due aspetti e che è l’economia. In particolar modo presenterò la valutazione dei
potenziali benefici delle bonifiche in termini economici con esempi dalla Campania e dalla Sicilia. Prima farò una
descrizione framework da utilizzare nell’analisi di Costo-Beneficio e poi una descrizione delle metodologie
disponibili in particolar modo per valutare i benefici sanitari derivanti da interventi ambientali e poi le applicazioni
pratiche dell’analisi Costo-Beneficio. Prima di tutto, perché noi dobbiamo parlare dell’analisi Costo-Beneficio? È
molto importante perché ci permette di quantificare, come noi sappiamo le bonifiche costano però ci possono
anche permettere di risparmiare dei soldi, basti pensare alla prevenzione di outcome sanitari che si traducono in
minori costi per il sistema sanitario. L’analisi Costo-Beneficio è quindi importante perché quantifica sia i costi che
i benefici che a volte sono appunto intangibili sotto un’unica metrica che è appunto quella monetaria, un approccio
monetario; viene fatta per progetti di investimento nel campo dei trasporti come ad esempio i benefici di realizzare
un ponte, una strada e una ferrovia ed è stata introdotta anche per le policy, ad esempio l’introduzione di una
congestion charge come è stata fatta nel centro urbano di Londra. Un beneficio è ogni aumento del benessere
sociale, un costo è ogni riduzione del benessere sociale, quindi quando in una policy, in un progetto di investimento,
i costi sono inferiori ai benefici, si parla di costo efficace e quindi, potenzialmente, si può implementare. Esistono
vari stadi dell’analisi Costo-Beneficio, la cosa più importante è definire lo scenario, cioè quale intervento vogliamo
fare, per esempio che intervento di bonifica vogliamo fare, se a breve o a lungo periodo, on casting piuttosto che
un trattamento on site, che alternative esistono e il periodo di tempo che noi vogliamo analizzare, poi quantifichiamo
gli inquinanti che sono presenti nell’aria e che analizziamo e attraverso il dato epidemiologico quantifichiamo
anche i potenziali benefici in termini sanitari, a questi benefici assegniamo un valore monetario e facciamo una
stima dei costi delle bonifiche, le bonifiche sono molto care, però ci sono anche i costi da inazione come i costi
per il sistema sanitario di trattare i casi derivanti dall’esposizione a inquinanti ma anche costi da inazione come le
multe e le sanzioni dell’Unione Europea per procedure di infrazione come nel caso della Campania. Una volta
valutati i costi, una volta valutati i benefici si fa una comparison, si valuta se l’intervento è costo-efficiente. Perché
la valutazione monetaria dei benefici per la salute è comunque una cosa complessa? Perché ci sono due approcci
di base, il primo, viene chiamato anche human capital approach, è il costo della malattia, quanto costa al sistema
sanitario trattare un caso di asma infantile oppure nel caso di un lavoratore che ha un’asma si considera anche il
costo dell’assenteismo di questo lavoratore sul posto di lavoro, è un metodo piuttosto semplice, anche piuttosto
trasparente, però voi capirete che quando si tratta di malattie più serie, come ad esempio un caso di tumore, non
conteggia quei costi intangibili come il dolore, la paura associata a questa malattia, la perdita, è per questo che il
metodo più utilizzato è quello della willingness to pay, per willingness to pay si intende la disponibilità a pagare
per la riduzione di un rischio di un determinato outcome sanitario. C’è però il problema che noi possiamo andare
da un adulto a chiedere quanto è disposto a pagare per la riduzione, piuttosto piccola, di un caso di asma che
avverrà nel futuro dovuto a esposizione, per esempio, a polveri sottili ma come possiamo fare questo nel caso di
un bambino, non possiamo andare da un bambino e chiedere quanto è disposto a pagare, quello che si fa ad oggi
è chiedere ai genitori quanto sono disposti a pagare per prevenire un outcome sanitario, però c’è il problema
dell’altruismo, se chiediamo a un genitore quanto è disposto a pagare per se stesso e quanto per il figlio, il valore
che dà il genitore è di gran lunga inflazionato, per questo motivo noi abbiamo deciso di fare uno step in più.
Abbiamo fatto un progetto pilota che si chiama “Respiriamo la città”, fatto dalla collaborazione tra l’università in
cui lavoro e lo Istituto di Fisiologia Clinica del CNR di Pisa, che vuole proprio valutare per la prima volta, a livello
internazionale, la percezione del rischio proprio chiedendolo ai bambini. Abbiamo chiesto loro cosa ne pensano
del rapporto ambiente e salute e abbiamo fatto anche domande che sono importanti per la willingness to pay,quindi
abbiamo chiesto se loro comprendono il concetto di budget, se comprendono la corrispondenza tra beni e oggetti,
la fase 2 dello studio che faremo a gennaio sarà proprio valutare per la prima volta la willingness to pay nei
bambini però per outcome sanitari molto lievi che sono l’asma, la bronchite, l’allergia di cui questi bambini sono
perfettamente a conoscenza. Lo studio lo stiamo facendo a Napoli, in un quartiere con seri problemi di inquinamento
ambientale e quasi tutti i bambini che abbiamo intervistato soffrivano di una di queste patologie e capivano
perfettamente il legame e la priorità da dare all’inquinamento ambientale. L’analisi di Costo-Beneficio è stata
introdotta per la prima volta, proprio a livello dell’Unione Europea, nel 1986 ma in realtà è nel 2002 che si comincia
a parlare, così come da tempo si parla in America, presso l’Environmental Protection Agency, di Impact
assesessment system, quindi non più una cosa settoriale ma una cosa intersettoriale che possiamo utilizzare nei
Arezzo 20 - 23 novembre 2012
59
20 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
trasporti così come nel campo sanitario, nel 2005 la Commissione Europea gli ha anche cambiato nome includendo
il concetto di sostenibilità, sustainability impact assessment, e l’Unione Europea, oggi come oggi, usa l’analisi
Costo-Beneficio, per esempio, il progetto Clean Air for Europe ha valutato i potenziali costi e i potenziali benefici
derivanti dal migliorare la qualità dell’ambiente atmosferico in Europa. Perché fare analisi di Costo-Beneficio delle
bonifiche in Italia? In Italia ci sono 57 siti di interesse nazionale, i fondi a disposizione sono molto limitati e per la
maggior parte, come ha detto anche il Ministro, ci si affida a un investimento di tipo privato, è per questo che il
policy maker deve decidere, in maniera trasparente, da dove cominciare nelle bonifiche, per cui l’analisi CostoBeneficio permette, dati i costi, di comparare i costi con i potenziali benefici e di decidere da dove partire, quindi
di dare delle priorità a livello nazionale e a livello locale di dire anche perché fare un tipo di intervento di bonifica
piuttosto che un altro. Abbiamo già fatto degli studi di Costo-Beneficio, questi sono soltanto degli esempi (slide),
però sono interessanti perché pongono due diversi tipi di realtà, quella di Gela e di Priolo dove abbiamo due
hotspot, cioè zone dove l’inquinamento è determinato e la popolazione esposta, rispetto al secondo esempio, è
inferiore, abbiamo comparato i costi stabiliti dal Governo per la bonifica di questi siti, sia Gela che Priolo, con i
potenziali benefici monetari che sono stati calcolati assegnando un valore monetario ai casi che ogni anno
possiamo prevenire, casi in termini di salute, per esempio abbiamo valutato, utilizzando i dati dell’Osservatorio
Epidemiologico, che ogni anno nei due siti ci sono 47 casi di morte prematura che possiamo prevenire, 281 casi
di cancro e 2.700 casi di ricoveri ospedalieri, abbiamo utilizzato un approccio come minimo, perché abbiamo
utilizzato i valori inferiori dell’intervallo di confidenza, quindi come minimo questi sono i casi in eccesso,
considerando poi i fattori di deprivazione socioeconomica. Il caso della Campania invece, in particolar modo noi
facciamo riferimento alle due aree della provincia di Napoli e della provincia di Caserta, è diverso, perché
chiaramente è una zona molto estesa, anche troppo estesa, abbiamo organizzato i dati dello studio dell’OMS e
utilizzando questi dati longitudinale abbiamo calcolato che ogni anno, sempre con un approccio come minimo, vi
sono 848 casi annuali di morte prematura di cui 403 dovuti al cancro, a cause oncologiche, il beneficio monetario
in miliardi, non più in milioni, di euro è, in questo caso di 11,6 miliardi. Quali sono le conclusioni? Come possiamo
utilizzare questo dato dell’analisi Costo-Beneficio se noi in realtà non abbiamo al momento soldi disponibili per
fare le bonifiche? Prima di tutto per decidere da dove partire, perché dato il budget limitato, dato il continuo
interesse a livello governativo di tagliare le spese, fare un’analisi Costo-Beneficio ci aiuta a capire da dove
cominciare a bonificare in Italia, quali sono gli interventi più costo-efficienti. C’è anche una buona notizia, nel 2012
la commissione Europea ha annunciato che aumenterà i fondi regionali a disposizione per il periodo 2012/2014,
in particolar mondo fondi per lo sviluppo urbano sostenibile, quindi questi fondi includono anche le bonifiche di
aree industriali dismesse di cui abbiamo una grande quantità in Italia, quindi utilizzare l’analisi Costo-Beneficio,
che viene tuttora raccomandata all’Unione Europea per dimostrare in maniera trasparente le decisioni prese, è
fondamentale perché potrebbe aiutare a giustificare e a valutare come l’impiego di fondi europei, possa aiutare a
riqualificare dei siti industriali italiani.
60
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
20 Novembre
La valutazione della salute in Siti Contaminati
"Impatto sulla salute in area a potenziale rischio ambientale: modello e prime evidenze"
Domenico Sallese
Direttore Dip. Prevenzione USL 8 Arezzo
L’esperienza di cui velocemente riferirò è quella non di un sito di interesse nazionale ma di una piccola area
critica che avevamo nella nostra comunità. Il contesto iniziale è quello di un’azienda chimico metallurgica che
affina e recupera metalli preziosi da scarto industria orafa e da rifiuti industriali, in realtà poi,crescendo, questa
azienda ha avviato il recupero anche di altri rifiuti tra cui quelli ospedalieri. Nel 2007 l’azienda presenta un progetto
per incrementare l’attività, quasi raddoppiandola, ma erano presenti nella valutazione delle emissioni ambientali,
degli elementi di criticità quali il superamento di alcuni parametri, ossido di azoto, mercurio, diossine, che si sono
ripetuti nel corso degli ultimi vent’anni. A fronte di questo è stato formulato uno studio della Agenzia Regionale di
Sanità per quanto riguardava intanto l’andamento delle leucemie nel Comune di Civitella in Valdichiana, qui è
venuto un primo allarme, in quanto nel quinquennio 2001/2005 si è verificato che c’era un totale di 12 leucemie
contro un atteso di 4,35, quindi un rischio relativo sicuramente importante. Questo aspetto andava ben definito,
infatti poi è seguito uno studio epidemiologico da parte dell’Istituto per la Prevenzione Oncologica che ha in realtà
verificato che, analizzando altri quinquenni, questo incremento o non si osservava o si osservava in un arco di
tempo nel quale l’azienda non era ancora attiva. L’azienda è collocata nel Comune di Civitella Loc. Badia al Pino,
quindi un’area vicino all’area urbana di Arezzo, che è caratterizzata dalla presenza di altri insediamenti industriali
e, non molto lontana, anche dalla presenza di un termovalorizzatore. I casi di leucemia che erano stati rilevati
all’epoca sono stati georeferenziati rispetto alla distanza dall’impianto, alcuni sono vicini alla ditta, altri meno.
Nella prima indagine era stato valutato di fare anche uno studio di biomonitoraggio della popolazione per cercare
proprio di verificare se c’era una concentrazione di inquinanti, nel sangue e urine come matrici biologiche, che
potevano giustificare un allarme legato a questa situazione ambientale. Questo è stato confrontato con valori di
riferimento presenti nella popolazione generale e soprattutto è stato confrontato con una zona cosiddetta neutra,
bianca, un comune del Casentino Badia Prataglia, caratterizzato da pochi insediamenti industriali. I primi risultati
mettevano già in evidenza alcune criticità, per esempio antimonio, cadmio, nichel, platino che avevano valori
superiori a Civitella rispetto a Badia Prataglia, soprattutto l’argento era superiore ai valori di riferimento. Per
antimonio, cadmio e nichel urinario non sono emerse correlazioni significative tra la residenza e l’ubicazione della
ditta e le aree di ricaduta del cadmio che è stato utilizzato come indicatore per l’area di ricaduta degli inquinanti.
L’ ipotesi conclusiva è stata che forse il campione di studio non era sufficientemente numeroso. Un altro elemento
che aveva un po’ preoccupato era l’analisi delle porfirine urinaria, in particolare lo spettro delle porfirine che può
alterarsi in relazione a esposizione a inquinanti di carattere ambientale . Nello studio preliminare avevamo un
30% del campione esaminato, che aveva uno spettro alterato, ecco perché si è sviluppata un’indagine più
sofisticata, più articolata. Quindi, i primi indicatori di allarme erano questi eccessi di patologia e gli esiti dello studio
di biomonitoraggio; si è provveduto quindi a predisporre un piano mirato che è stato finanziato dalla Regione
Toscana per 200.000 euro dal titolo “Studi di popolazione: i comuni di Civitella della Chiana e Arezzo in relazione
a fattori di inquinamento ambientale e piano mirato del comparto sui lavoratori”. Questo è il complesso dei settori
in studio, con il coordinamento del Dipartimento Prevenzione della nostra ASL: l’Agenzia Regionale di Sanità,
l’ISPO, l’Istituto Zooprofilattico Sperimentale, l’Università di Siena Dipartimento Biologia ambientale, il Dipartimento
della Prevenzione che ha curato sia il monitoraggio biologico della popolazione, insieme a ISPO e al laboratorio
di Sanità Pubblica, sia la valutazione dell’esposizione dei lavoratori del comparto. Partendo dal monitoraggio
biologico della popolazione generale, il campione è stato molto ampliato, è stato considerato oltre le tre frazioni
del comune di Civitella in questione, l’area urbana di Arezzo presupponendo che ci fosse un inquinamento da
traffico veicolare, abbiamo sempre utilizzato il bianco di Badia Prataglia in Casentino, i criteri sono stati molto
rigorosi per l’inclusione di partecipanti naturalmente non fumatori, naturalmente non professionalmente esposti,
sia uomini che donne in età dai 18 ai 60 anni, consenso informato allo studio e parere del comitato etico. Le
matrici indagate sono state le urine, utilizzando le urine delle 24 ore, a Civitella hanno partecipato allo studio 178
persone di cui 96 maschi e 82 donne, 100 ad Arezzo e 70 a Badia Prataglia. Lo studio è ancora in corso, possiamo
anticipare dai risultati preliminari che sembrerebbe non del tutto confermate le evidenze emerse nella prima
indagine, salvo che per quanto riguarda l’argento e il mercurio in quanto si registra una differenza significativa
nell’area di Civitella rispetto a Badia Prataglia, ma non con Arezzo; quindi la prima riflessione è che probabilmente
ci troviamo in una situazione di inquinamento di area, inteso come area sia quella della presenza dell’azienda di
raffinazione ma anche un po’ tutta l’area urbana di Arezzo, che pensavamo fosse connotata per inquinamento di
tipo atmosferico ma in realtà la presenza di argento e mercurio fa pensare che, essendo Arezzo un distretto orafo,
il problema sia più diffuso. Rimangono ancora da fare le valutazioni statistiche relative e soprattutto da esaminare
le porfirine urinarie che era un elemento critico nella prima indagine. Anche sui lavoratori è stato fatto un lavoro
Arezzo 20 - 23 novembre 2012
61
20 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
importante, perché in realtà questo distretto conta sette aziende che costituiscono. Questo studio sia di
monitoraggio ambientale che biologico dell’esposizione dei lavoratori a metalli, non ha evidenziato situazioni di
rischio rilevante fatto salvo il fatto che alcuni metalli sono anche riconosciuti sostanze cancerogene, mi riferisco
al berillio, cadmio, al piombo e al cromo e quindi su questo la sorveglianza ed il monitoraggio devono essere
particolarmente accurati. Il profilo di salute che fondamentalmente è stato effettuato dall’Agenzia Regionale di
Sanità con le fonti informative classiche, quindi dati demografici ISTAT, Registro di Mortalità Regionale, SDO,
certificato di assistenza al parto, aborti spontanei, interruzioni volontarie di gravidanza, la banca dati delle malattie
croniche, Registro Difetti Congeniti e altre fonti informative. Lo stato di salute della popolazione residente nei
comuni di Arezzo, Civitella, Monte San Savino è sostanzialmente in linea con quello toscano, la mortalità è
addirittura migliore e comunque in costante decremento nel tempo come avviene in Toscana, la morbosità mostra
solo alcuni eccessi tra cui quelli delle malattie respiratorie dei residenti però nel comune di Arezzo, non
perfettamente congruente con la contemporanea riduzione dei ricoveri per malattie respiratorie croniche che fa
pensare a una prevalenza di malattie acute respiratorie, asma in particolare. I tumori allo stomaco sono in eccesso
in tutta l’area aretina, ma questo è noto da tempo, altri tumori non sono in eccesso, poi a latere va rilevato che il
numero degli incidenti stradali è elevato nel nostro territorio. Per l’andamento delle leucemie i quinquenni presi in
considerazione in questo secondo studio non mostravano gli eccessi rilevati nel precedente, il che fa pensare a
un effetto cluster delle leucemie Lo studio dell’ISPO, di approfondimento sui casi rilevati nella prevedente
indagine, cercando di individuare bene sia i sottotipi istologici ma soprattutto qual è la storia residenziale di questi
soggetti per capire come è possibile attribuirli in qualche maniere alle fonti di rischio, è ancora in corso e quindi
è ancora prematuro fornire i risultati. L’ISPO cura anche la parte relativa alle studio delle malattie respiratorie. C’è
poi l’ interessante studio fatto dalla Università di Siena, Dip.to di biologia ambientale, per la valutazione dellai
distribuzione dei contaminanti a livello del suolo, scegliendo sia le foglie di quercia e le lucertole per l’accumulo e
gli effetti dei contaminanti ( metalli pesanti) nella specie selezionata attraverso l’utilizzo dei biomarker di esposizione
e di effetto ; questo interessante studio ha concluso che non emergono situazioni significative di danno genetico
mentre gli indicatori di esposizione e di accumulo mostrano delle differenze, anche se non significative, nell’area
di Civitella rispetto agli altri comuni limitrofi. E’ stata fatta anche un’analisi delle diossine sulle lucertole e non sono
emersi valori superiori a quelli presi come riferimento, utilizzando quale sito di controllo un area non contaminata
( senese), si è visto che ci sono differenze significative invece tra ‘area presa in considerazione di Civitella e quella
senese, per la presenza di mercurio e argento, il che conferma il dato di monitoraggio biologico della popolazione.
Infine si sono fatte anche le analisi dei residui nelle matrici alimentari ( miele e latte) da aziende produttrici del
territorio e anche lì sono stati cercati i metalli, i risultati sembrano confortanti, salvo la presenza di nichel in alcuni
campioni di miele proprio in un area situata nei pressi dell’impianto. Considerazioni finali: l’utilizzo di modalità di
indagine diverse e integrate dovrebbe consentire di verificare lo stato di salute delle popolazioni esposte a diverse
condizioni di inquinamento atmosferico e di determinare la loro esposizione a inquinanti ambientali. L’integrazione
con le informazioni raccolte con lo studio di popolazione con le matrici alimentari, vegetali, animali, e della
popolazione lavorativa consentirà di migliorare la comprensione dei dati. Queste informazioni saranno
particolarmente utili per fornire dati ai decisori politici in merito alla sostenibilità ambientale delle area in studio,
prima di pubblicizzare i dati abbiamo chiesto, alI’ Istituto Superiore di sanità una supervisione dell’intero progetto
proprio perché vogliamo essere certi di non aver fatto errori nell’impostazione, e infine ci faremo carico della
comunicazione dei risultati, aspetto assai delicato.
62
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
20 Novembre
Energie rinnovabili: occasione di innovazione e sviluppo sostenibile
"Le nuove frontiere della ricerca e delle tecnologie"
Valerio Rossi Albertini
CNR
Buonasera a tutti. Ringrazio gli organizzatori di questo interessantissimo incontro per avermi invitato. Noto con
piacere la presenza del Ministero dell’Ambiente - il Ministro Clini è appena passato e il Segretario sta assistendo
ai nostri lavori - è una partecipazione importante perché troppo spesso le Istituzioni sono state poco presenti
all’interno delle riunioni, dei dibattiti, degli incontri organizzati su questi temi. Sembra che l’atteggiamento stia
cambiando e questa è sicuramente una nota molto positiva.
Io porto il saluto del Consiglio Nazionale delle Ricerche, a cui appartengo, in qualità anche di professore di
scienza dei materiali. Mi occupo di energie alternative ormai dall’inizio della mia carriera; una breve introduzione
per farvi capire di che cosa parlerò. Io non ho portato una presentazione già pronta, non perché non ne abbia,
faccio conferenze e quindi di materiale ne avrei avuto fin troppo, ma in queste occasioni cerco di seguire un’altra
filosofia, di entrare in sintonia un po’ con il genio della riunione. Abbiamo sentito il Ministro Clini poco fa, poi il
professor Swanson che è uno dei padri fondatori della fotovoltaica, sarebbe stato inutile e anche un po’ ridicolo
da parte mia confrontarmi con la loro competenza nel campo, quindi ciò che ho preferito fare è un discorso
per sollevare questioni di interesse comune. Quindi non parlerò tanto di dati tecnici, che magari non sarebbero
neanche tutti quanti recepiti, ma della filosofia ispiratrice del lavoro, della ricerca in questi anni, in Italia, nell’ambito
della green economy, in generale, e della conversione energetica, nello specifico.
Il professor Swanson ha fatto vedere come molti miti siano caduti - questa è la possibilità che si ha quando
non c’è una presentazione predefinita, ci si può riallacciare ai discorsi degli oratori precedenti - nell’ambito del
fotovoltaico. Perché? In fondo perché questa è la caratteristica e la cifra distintiva della ricerca, molto di quello che
sembra inizialmente impossibile, inattuabile, magico, fantascientifico, poi si realizza. Chi, trent’anni fa, avrebbe
veramente potuto credere che saremmo stati qui a comunicare attraverso Internet e con telefonini che hanno una
capacità di calcolo molto superiore ai computer che hanno consentito all’uomo di andare sulla luna? Sarebbe
stato inimmaginabile, se considerate che, alla fine degli anni ‘80, l’amministrazione pubblica pensava che le
comunicazioni sarebbero state fatte per fax e stava riempiendo gli uffici pubblici di macchine fax. Invece subito
dopo è esploso Internet ed i fax, di fatto, sono andati quasi tutti in soffitta. Allora perché non immaginare lo
scenario che è stato prefigurato dal professor Swanson, cioè che nel giro di pochi anni si attuerà la rivoluzione
energetica?
Il consumo di combustibili fossili è stata una necessità forse ineludibile per il genere umano, dalla prima rivoluzione
industriale fino ad adesso. Utilizzando prima il carbone e poi il petrolio, abbiamo sviluppato la nostra civiltà. Sono
contrario quindi alla criminalizzazione dell’uso di combustibili fossili, però adesso non è più quell’epoca. C’era
il Ministro dell’Energia dell’Arabia Saudita che negli anni ‘70 disse una frase che andrebbe scolpita a caratteri
cubitali nel bronzo: “L’età della pietra non è finita per mancanza di pietre. L’età del petrolio non è necessario che
finisca per mancanza di petrolio”. Quando c’è una nuova tecnologia che avanza, bisogna accantonare la vecchia
e guardare con favore verso lo sviluppo delle nuove, anche perché tutte le risorse che non sono rinnovabili (come
quelle dei materiali fossili) sono per definizione destinate a esaurirsi.
Il Ministro Clini ha disciplinato, per quanto possibile da noi, il comparto, ma altrove sono ricominciate in maniera
abbastanza incontrollata le trivellazioni. E’ un segno di disperazione: la corsa per accaparrarsi le risorse ancora
disponibili. A chi dice, -questo è un altro mito da aggiungere alla lista di quelli del professor Swanson che vorrei
sfatare- che i soldi degli incentivi per il fotovoltaico siano una spesa che grava sulle tasche degli italiani e che
va ad arricchire soltanto il bilancio dei Paesi produttori di pannelli fotovoltaici, io rispondo in due battute. La
prima è: “ma che cosa è meglio, fare investimenti sul fotovoltaico, un pannello che può durare vent’anni oppure
l’equivalente per produrre energia con petrolio, o forse gas, che viene consumato e lascia solo residui dannosi
nell’ambiente?” Inoltre: il fotovoltaico l’abbiamo noi in Italia negli anni settanta. Se poi abbiamo accantonato la
produzione è stato solo per miopia politica dei decenni scorsi.
Quello che vi dirò adesso può sembrare un po’ di retorica patriottarda, ma non è così. Io non sono un lodatore del
tempo antico, però so che nel 1906 gli italiani di Larderello hanno insegnato al mondo come si utilizzava il calore
della terra per produrre energia elettrica
La comunità scientifica italiana protesa verso lo sviluppo di tecniche che la rendessero energeticamente
autosufficiente, sviluppò il settore idroelettrico come nessun altro paese al mondo. Certo, con gli interventi
che furono fatti durante il fascismo si inflissero delle ferite all’ambiente -non c’era concertazione con le autorità
territoriali e gli ordini provenienti dal centro non si potevano discutere- , ma il punto è che c’era già la vocazione
per le tecnologie avanzate.
Arezzo 20 - 23 novembre 2012
63
20 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
Poi, nel 1942, Enrico Fermi a Chicago, costruì il primo reattore nucleare. Io sono in origine un fisico nucleare,
ma ho salutato con molto favore il fatto che l’opzione nucleare sia stata bocciata in Italia. Se avessimo costruito
dei reattori, che sarebbero entrati in funzione tra 10-15 anni, ci saremmo inseriti all’interno del contesto nucleare
nel momento in cui il costo di produzione dell’energia nucleare sarebbe già stato alto, a causa dell’esaurimento
delle scorte. Il nucleare è una tecnologia che ha raggiunto il suo stato stazionario, non è più in grado di evolvere
efficacemente per abbattere i costi. Al contrario, il costo del fotovoltaico è destinato a decrescere perché c’è tanta
ricerca in corso e tante nuove possibilità di trovare di soluzioni più convenienti.
Perché allora mi ricordo di Enrico Fermi? Perché Enrico Fermi, nel 1942, costruisce il primo reattore nucleare negli
Stati Uniti, ma lo realizza sulla base degli studi che aveva fatto in Italia, con i ragazzi di via Panisperna del Regio
Istituto di Fisica. Ancora una volta gli scienziati italiani erano all’avanguardia nel settore delle energie alternative!
Parlando oggi di fotovoltaico, negli anni ‘60 e ’70 in Italia si cominciò a sviluppare e produrre il fotovoltaico ma, con
tipica lungimiranza politica, in seguito fu smantellato tutto il comparto, perché non si riteneva strategico, (insieme
con quello dei computer, che condividono gran parte dei metodi di produzione). È per questo che ci ritroviamo nel
2012, a comprare pannelli fotovoltaici dalla Cina e dalla Germania nello sforzo di conversione fotovoltaica!
Veniamo a oggi, che cosa si può fare? Facciamo un gioco, vi do questa coppia di bicchieri, ve la passate, la
esaminate e poi mi direte se vedete una differenza.
Spesso la scienza e la tecnologia sono in grado di risolvere problemi che sembravano insolubili. Ho visitato gli
stabilimenti della Power-One, qui rappresentata. Il ragionamento che si fa lì andrebbe considerato e replicato. Alla
Power-One producono componenti elettronici per sorgenti rinnovabili, così come si fa in Cina. Ma come si fa a
competere con la Cina, dove il costo del lavoro è tanto più basso che da noi e dove le materie prime sono molto
più abbondanti? Qual è la ricetta? La risposta è: bisogna innalzare il livello tecnologico, perché con una qualità e
un tasso di produzione superiori, possiamo competere con i Paesi emergenti in una maniera morale, ovvero non
comprimendo i diritti dei lavoratori o abbassando i salari, ma innalzando la qualità del processo e del prodotto.
La filiera produttiva alla Power-One sembra una camera operatoria, perché ci sono tecnici molto specializzati e,
permettetemi una battuta cordiale, possono permettersi di essere choosy, cioè di pretendere il meglio, perché ne
hanno i titoli.
La Green Economy, l’economia ambientalmente compatibile che si basa sul rinnovamento energetico, è la frontiera
del futuro. I Cinesi l’hanno capito e ci stanno investendo massicciamente: da una parte bruciano montagne
di carbone; dall’altra, però, stanno sviluppando le tecnologie alternative. Attenzione! i Cinesi non sono degli
sprovveduti, io sono amico di scienziati cinesi e li conosco bene, facendo parte di una commissione italo-cinese
per sviluppo tecnologico. Non sono degli sprovveduti e si stanno attrezzando. Il centro tecnologico di ricerche
di Shanghai ha qualcosa come 100.000 addetti. Noi abbiamo un vantaggio tecnologico su di loro che potrebbe
essere stimato intorno ai 5/10 anni. Non dobbiamo disperdere questo patrimonio: i Paesi Emergenti, avendo
costi inferiori sia di produzione, che delle materie prime, una volta che ci avessero raggiunto tecnologicamente,
ci espellerebbero dal mercato globale. Quindi cerchiamo di evitare di ripetere lo stesso errore che abbiamo fatto
in passato con il fotovoltaico.
Il fotovoltaico tradizionale va incoraggiato e sospinto ma, credo, vada affiancato anche dal nuovo fotovoltaico,
quello basato non più sul silicio, ma sulle materie plastiche. Oggi il nuovo fotovoltaico ha ancora qualche difficoltà
ad essere competitivo col fotovoltaico tradizionale, ma sta migliorando rapidamente e suggerisco agli operatori
del settore di guardare con attenzione al suo sviluppo e promuoverne la produzione accanto a quella dei pannelli
al silicio.
Concludo tornando alla questione della Green Economy, che sarà sempre più pervasiva, perchè non c’è aspetto
della vita economica e sociale che non ne sia influenzato. In periodo di crisi le imprese che hanno investito nella
Green Economy sono andare in controtendenza.
Prima di concludere ritorno ai due bicchieri che vi ho chiesto di osservare e esaminare. Sembrano tutti e due di
plastica, ma non sono uguali. Uno è fatto di plastica tradizionale derivata dal petrolio; l’altro è fatto di plastica derivata
dal mais, un vegetale. Hanno esattamente la medesima funzione, ma il bicchiere di plastica convenzionale, se lo
disperdete nell’ambiente, lo trovate lì ancora per anni (in frammenti o filamenti); quello di mais, in una settimana
si rammollisce e in un mese sparisce nel terreno, nutrendolo...
La Green Economy si può paragonare all’onda di tsunami che abbiamo tristemente imparato a conoscere. Con
l’onda di tsunami ci sono soltanto due alternative: la prima è ignorarla, distrarsi, far finta di niente. In questo caso,
quando arriva, ti travolge e ti abbatte. Oppure c’è un’altra possibilità: intercettarla, “surfare” sulla sua cresta.
Se saremo in grado di governare i processi della Green Economy e surfare sulla cresta della sua onda, essa ci
porterà rapidamente lontano dalle secche della recessione e della crisi.
64
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
20 Novembre
Energie rinnovabili: occasione di innovazione e sviluppo sostenibile
"Le potenzialità della geotermia"
Massimo Montemaggi Trascrizione non revisionata dal relatore
Enel Green Power
Rispondo subito alla domanda con la prima slide. Il Gruppo Enel lettere di fatto ha costituito una divisione per le
rinnovabili che è oggi una società per azioni, Enel Green Power, la quale società opera su tutte le rinnovabili in
tutto il mondo. in questa slide, in blu, c’è un rappresentazione di dove siamo presenti, oltreché in Europa, in Nord
America, in America Latina, in Sud America e adesso abbiamo anche progetti sul Nord Africa. Noi abbiamo un
totale di capacità installata di 2540 MW nell’idroelettrico, 3500 MW nel wind, 950 MW geotermici e giù a scalare,
100 nel solare e 128 in altre fonti sempre rinnovabili. Oggi, io vi parlerò soprattutto di geotermia che è una fonte
rinnovabile un po’ atipica, forse un po’ più difficile delle altre fonti. Qui è rappresentata la nostra situazione di
partenza perché popi in realtà anche sulla geotermia abbiamo progetti in tutto il mondo, come diceva il professore
che mi ha preceduto la geotermia è nata a Larderello, essenzialmente, e ha la sua base principale in Toscana.
Oggi noi siamo, nel campo geotermico, sicuramente un operatore e tra i più forti, siamo il più grande operatore
geotermico completamente integrato, vedremo come, siamo stati i primi a utilizzare la geotermia per la produzione
di energia elettrica e abbiamo sviluppato una capacità di mantenimento, di sostenibilità di questa risorsa rinnovabile
che sicuramente è un benchmark a livello mondiale. Parlavo prima di un’integrazione verticale, in effetti siamo
una delle pochissime società al mondo che è presente su tutto il processo geotermico, dallo sviluppo iniziare dei
progetti, cioè la caratterizzazione dei siti, alla fase di esplorazione e perforazione fino alla progettazione e
realizzazione degli impianti, esercizio, ricerca e sviluppo. Questa impresa che è la geotermia in Enel Green
Power occupa oggi circa 650 addetti e noi abbiamo progetti in corso o in Cile, in Salvador, in Nord America, in
Turchia e abbiamo ora delle idee in Nord Africa. La capacità installata e in Italia è di 874 MW e in Toscana noi
produciamo per il 25% dell’energia elettrica nella regione. Prima di andare più nel dettaglio di quelli che sono i
nostri programmi di sviluppo, volevo brevemente parlarvi di questa risorsa; innanzitutto la fonte che si va a
utilizzare nella geotermia non è il fluido che viene fuori, non è il vapore, ma è il calore geotermico, il calore che è
nel sottosuolo, il fluido, di fatto, è solo un vettore che ci consente di estrarre questo calore dalla terra. Dove è
presente la geotermia e come è sfruttabile, la geotermia per essere utilizzabile industrialmente ha bisogno della
contemporaneità di tre fattori fondamentali, sostanzialmente ha bisogno che contemporaneamente, in uno stesso
sito, ci sia un›anomalia termica, cioè che il calore che normalmente è presente nel sottosuolo a oltre 10 km di
profondità sia più superficiale, la seconda caratteristica che dobbiamo trovare è che ci siano terreni impermeabili
sopra e sotto il serbatoio in grado quindi di trattenere le acque di circolazione e la terza caratteristica è che ci siano
acque di circolazione. In realtà queste tre combinazioni di cose insieme sono abbastanza rare nel mondo quindi,
a differenza di altre fonti, la geotermia non si può sfruttare ovunque, si può sfruttare dove la natura ci consente di
poterla sfruttare, l›effetto complessivo che si ottiene quando sono presenti queste tre situazioni è quello
esemplificativo di una pentola a pressione dove l’acqua si riscalda e va in pressione di modo che quando noi
andiamo a fare una perforazione in queste aree troviamo situazioni di fluidi che possono essere o a vapore
dominante come nell’area tradizionale di Larderello o ad acqua dominante nel senso che il calore non ha
vaporizzato tutta l’acqua o sistemi ad acqua calda. La geotermia ha avuto inizio oltre cento anni fa a Larderello,
è nata prima come industria chimica per l’estrazione sostanzialmente del Boro, poi nel 1904 una sperimentazione
che fu fatta dalla Principe Ginori Conti consentì di verificare la possibilità di produrre l’energia elettrica da questa
fonte e in effetti per quei tempi non era una cosa semplice perché non si pensava di poter mantenere in pressione
il fluido geotermico, dal 1904 partì tutta una serie di attività di perforazione e di sviluppo di centrali nei consentì,
già prima della prima guerra mondiale, diavere installati una centrale da 200 MW e nel tempo portò a un’evoluzione
storica della produzione che è qui rappresentata, come vedete la crescita della produzione di energia geotermica
in questi cento anni è stata continua, a parte un’interruzione a cavallo della seconda guerra, ma questa crescita
continua non è così diffusa in altre realtà del mondo, ci sono stati esempi di sfruttamento o errato dei campi
geotermici che ha portato, in alcune situazioni, a un declino l’importante dei campi e quindi, addirittura, in certe
situazioni, si è dovuto fermare per sempre delle centrali. Uno dei nostri punti di orgoglio è quello di avere una
capacità di sfruttamento e di coltivazione di questi campi che riteniamo ottimale. Uno dei temi di questo convegno
è anche quello dell’ambiente e, effettivamente, tra i problemi dello sfruttamento geotermico c’è anche quello di
cercare di migliorare l’impatto ambientale di questa fonte, impatto ambientale che si declina sotto vari aspetti, il
primo aspetto è quello paesaggistico, noi cerchiamo di migliorare l’inserimento dei nostri impianti, di adeguarlo
alle situazioni paesaggistiche del sito, un altro problema, invece dell’impatto ambientale, è quello delle emissioni,
emissioni soprattutto di H2S che hanno un impatto soprattutto dal punto di vista dell’odore, l’odore tipico di uova
marce che caratterizza i fenomeni geotermici. Enel ha sviluppato una tecnologia tutta propria che consente
Arezzo 20 - 23 novembre 2012
65
20 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
l’abbattimento di oltre l’80% dell’acido solforico e ha fatto un piano, in questi ultimi dieci anni,i di ambientalizzazione
di tutte le centrali in modo da ridurre complessivamente, in maniera elevata, questo problema emissivo. In questa
slide, nel grafico in rosso è rappresentato l’andamento di queste emissioni di H2S in rapporto alla curva blu dove
si vede l’andamento crescente della produzione, cioè noi abbiamo aumentato, quasi raddoppiato, dagli anni ’90,
la produzione di energia elettrica mentre nel contempo abbiamo ridotto dell’80% complessivamente le emissioni.
Altra caratteristica portante che contraddistingue la fonte geotermica da tutte le altre fonti è quella di una filiera
praticamente interamente italiana, la filiera geotermia, dalla produzione delle macchine alla costruzione degli
impianti di perforazione, alla costruzione dell’impiantistica di centrali è praticamente tutta nazionale e aziende del
settore sono leader anche in campo internazionale, cioè esportano questa tecnologia all’estero. Questo è un dato
importante e significativo, perché praticamente mantenere vitale e sviluppare questo settore vuol dire aiutare il
potenziamento e la ricaduta occupazionale direttamente del Paese. Geotermia non vuol dire solo produzione di
energia elettrica, vuol dire anche produzione di calore per vari usi, innanzitutto per il riscaldamento però anche
per usi industriali, qui vedete un andamenti dell’utilizzo dell’energia geotermica nel campo del riscaldamento civile
industriale, quindi vedete come sia cresciuto anche questo utilizzo, l’applicazione più frequente è quella delle
serre però ci sono anche utilizzi di altro tipo, per esempio ora sta nascendo una filiera del cibo che utilizza perla
climatizzazione la geotermia e si fregia del fatto che tutto il processo è un processo rinnovabile. Prima di entrare
nel tema vero e proprio di quelle che sono le potenzialità di questa risorsa occorre affrontare quello che è il
contesto di nuovo, di quelle che sono state le variazioni di questi ultimi anni. Di fatto con il decreto legislativo
22/2010 la filiera geotermica è stata liberalizzata, le concessioni vengono assegnate in un regime di concorrenza
sono aumentati gli importi delle concessioni del royalty e delle compensazione, sono aumentati gli importi delle
concessioni, le royalties e le compensazioni ambientali. Parallelamente c’è stata una revisione delle tariffe e dei
meccanismi di incentivazione con una significativa riduzione degli incentivi; tutto questo non spaventa forse
particolarmente Enel ma può essere controproducente per un vero rilancio del settore e soprattutto diventa una
barriera per i nuovi entranti. Vi porto come esempio quello che è accaduto in Toscana dalla liberalizzazione, sono
entrati in questo mercato delle concessioni oltre 12 nuovi operatori l che hanno richiesto oltre 50 nuovi permessi
di ricerca. Noi crediamo che la difficoltà maggiore che si troveranno ad affrontare questi nuovi operatori sia una
difficoltà legata a trovare veramente la redditività in queste iniziative, non si deve dimenticare che l’attività
geotermica è un’attività principalmente che parte, a differenza dalle altre fonti, dalla necessità di individuare la
risorsa e di stabilirne la potenzialità, mentre nel settore eolico, piuttosto che fotovoltaico, piuttosto che idroelettrico,
il riconoscimento della risorsa e la quantizzazione della risorsa è un’attività ingegneristica che con misurazioni e
con analisi statistiche si riesce a fare con elevata precisione, nel campo geotermico la cosa non è esattamente
così. Il primo problema è l’individuazione delle risorse e il secondo è la quantizzazione della risorsa e queste due
cose insieme espongono l’impresa a un forte rischio di investimento con rischio minerario. Quest’attività cui oggi
non vede, da parte delle istituzioni nessun meccanismo di incentivazione, oggi il meccanismo di incentivazione è
previsto, come per le altre fonti, alla fine di tutto il processo quando dopo aver fatto tutta l’attività di esplorazione
e l’attività di sviluppo si arriva finalmente a costruire e a mettere in servizio una . Il tema però non è così banale
perché vuol dire che prima di arrivare a questo obiettivo, l’impresa si vede con forte esposizione finanziaria, con
forte rischio, senza nessuna certezza di ritorno economico, dico questo perché temo che molti di questi operatori
in realtà non andranno avanti con i loro progetti. Due parole sulla divisione che si fa spesso della risorsa fra bassa,
media e alta entalpia che serve anche a chiarire quello che dicevo prima; la bassa entalpia è una risorsa che in
realtà non è lo sfruttamento industriale a cui facevo riferimento io della geotermia, la bassa entalpia è dappertutto,
è in dovunque si voglia perché vuol dire andare a sfruttare il calore a pochi metri dalla superficie per produrre per
uso riscaldamento, questa è una possibilità di facile sfruttamento, secondo noi può costituire un forte elemento di
aiuto per lo sviluppo degli usi termici del calore e noi siamo attrezzati per dare un contributo su questo campo;
media e alta entalpia invece sono classificazioni di risorse a più alte profondità dove occorrono capacità operative
non comuni. Vengo a quello che è nel nostro piano di sviluppo, noi abbiamo a piano la realizzazione di circa 250
MW nel prossimo decennio di cui oltre la metà in Italia per un investimento complessivo di oltre 1 miliardo di euro
nei prossimi dieci, uno dei progetti più importanti che abbiamo in Toscana è il progetto di Bagnore 4 che dovrebbe
partire l’anno prossimo, è un progetto da 40 MW nel comune di Santa Fiora. Abbiamo in ricerca quattro aree,
sempre in Toscana, stiamo acquisendo dei titoli anche in Campania e stiamo indagando anche in Sardegna;
come attività di ricerca stiamo sviluppando un progetto misto tra biomassa e geotermia con la biomassa che serve
a surriscaldare il vapore in ingresso negli ‘impianti esistenti geotermici, questo consente di migliorare il rendimento
sia del processo in biomassa, sia nel processo in geotermico e stiamo sviluppando anche una ricerca abbastanza
importante con un cluster che è previsto tra noi e altre imprese prevalentemente toscane e le università toscane
per vedere di ottimizzare i processi dei circuiti binari. Basta così, sop
no andato un po’ fuori tempo? Grazie.
66
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
20 Novembre
Energie rinnovabili: occasione di innovazione e sviluppo sostenibile
"V Conto Energia: prospettive e problematiche"
Sebastiano SerraMinistero dell’Ambiente della tutela del territorio e del mare
Grazie dell’invito. Un saluto dal Ministro Clini che oggi era qua ma è dovuto ritornare in sede.
Io farò una panoramica della situazione italiana sostanzialmente sulle fonti rinnovabili e sull’efficienza energetica:
sono i due elementi che a noi interessa conseguire per quantità rilevanti di risparmio di energia, efficienza
ed utilizzazione delle fonti rinnovabili. Questo può portare a un risultato dal punto di vista del futuro, non
immediato per quanto riguarda i costi dell’energia in Italia. Il quadro nostro attuale è il seguente: si è dovuto
predisporre un nuovo decreto sul fotovoltaico ( Quinto Conto Energia), perché la richiesta di impianti fotovoltaici
era elevata e l’incentivo era elevato, quindi abbiamo voluto tenere sotto controllo la spesa che andava in
bolletta elettrica. Abbiamo approvato un secondo decreto sulle fonti rinnovabili elettriche diverse dal fotovoltaico.
Abbiamo approvato un decreto sviluppo, sulla possibilità di fornire finanziamenti a basso tasso d’interesse per
costruire fabbriche per la Green Economy. Abbiamo in questo momento la Strategia Energetica Nazionale, cioè
un piano energetico nazionale che fa il punto sulla situazione di che cosa va fatto da qui sino al 2020. Stiamo
lavorando sul Decreto Fonti Rinnovabili Termiche ed Efficienza Energetica per le pubbliche amministrazioni e
per le apparecchiature di fonti rinnovabili termiche. Questo decreto è in bozza e andrà in conferenza unificata a
fine novembre. Stiamo lavorando sui cosiddetti certificati bianchi (titoli di efficienza energetica) modalità con la
quale si abbassa il consumo di energia, si aumenta l’efficienza energetica, si stabiliscono gli obblighi alle società
distributrici di energia elettrica e gas.
• Soffermiamoci su questo Quinto Conto Energia fotovoltaico. Si è lavorato in questo modo: tempi e
dimensione dei nuovi schemi di incentivazione sono fatti in modo tale che fissiamo un onere aggiuntivo
per il Paese che finisce in bolletta elettrica, pari a 700 milioni di euro l’anno rispetto a quello che era
stato già fatto, quindi arriviamo a circa 6700 milioni di euro l’anno. A seguito del raggiungimento di questo
impegno e con i costi del fotovoltaico che stanno diminuendo si dovrebbe andare in “grid parity”, significa
che il fotovoltaico dovrebbe competere con le fonti tradizionali. Non sarà la fine del fotovoltaico perché
attraverso atti normativi che danno la possibilità al fotovoltaico di continuare la sua penetrazione nel
mercato, possiamo mantenere ma non aumentare la spesa. La data di applicazione del decreto è il 27
agosto 2012 superando il Quarto Conto Energia del maggio 2011. L’incentivo si abbassa anche perché
si abbassano molto i costi del fotovoltaico e pertanto va rimodulata, con questo decreto, la spesa sul
fotovoltaico mantenendo però costante il valore finale a cui si può arrivare.
• Lo stesso abbiamo fatto sulle fonti rinnovabili elettriche, diverse dal fotovoltaico. Anche qua è stato
eliminato il criterio del certificato verde, si è fissata una tariffa omnicomprensiva per i nuovi impianti a fonti
rinnovabili elettriche con una spesa annuale di 5.800 milioni di euro, come tetto di spesa annuale totale
per tutte le fonti rinnovabili diverse dal fotovoltaico. In termini di potenza questo significa un grosso salto
anche per la quantità di fonti rinnovabili che vengono installate nel nostro Paese. Quindi il controllo della
spesa rappresenta una modalità con la quale evitare grossi balzi in avanti per gli incentivi cercando, con
l’introduzione di meccanismi opportuni, tipo i registri e le procedure d’asta, di controllare in qualche modo
la quantità di impianti e la spesa.
• Nel fotovoltaico c’è un obbligo di iscrizione al registro sopra i 12 KW; si è comunque escluso da questi
obblighi tutti gli impianti fotovoltaici a concentrazione o quelli architettonicamente integrati, il che significa
che stiamo andando verso le nuove tecnologie.
• Anche sulle fonti rinnovabili elettriche abbiamo l’iscrizione al registro e abbiamo utilizzato l’idea che tanto
più l’impianto è grande tanto più l’incentivo deve essere modesto, questo per cercare di dare un incentivo
agli impianti piccoli ma diffusi sul territorio. La geotermia non risulta incentivata eccessivamente per i
grossi impianti, non si incentivano impianti che emettono una grande quantità di mercurio oppure acido
solforico, vogliamo che questi impianti siano funzionanti e abbiano le loro emissioni convogliate all’interno,
cioè che non emettano nulla. Gli incentivi per i piccoli impianti che emettono poco sono abbastanza alti,
la geotermia è spinta per ottenere risultati anche ambientalmente favorevoli e per la loro diffusione sul
territorio.
• Si è prevista la protezione degli investimenti già avviati, si è dato tempo con il quale il provvedimento
precedente (Quarto Conto Energia), non fosse abbandonato immediatamente ma avesse un periodo
di tempo entro il quale ci fosse un minimo di paracadute, soprattutto per i piccoli impianti che non sono
riusciti a entrare in esercizio in tempo utile.
• Nel campo delle fonti rinnovabili elettriche sono stati previsti degli accorgimenti per la transizione dai
certificati verdi alla nuova metodologia di tariffa omnicomprensiva nonché la preferenza per impianti di
Arezzo 20 - 23 novembre 2012
67
20 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
dimensione contenuta e il recupero del territorio.
Il perimetro degli impianti ammessi all’incentivazione del Quinto Conto fotovoltaico è stato ridotto rispetto
al passato, perché riteniamo che sostanzialmente questi tipi di impianti vanno fatti sugli edifici e che questi
edifici siano efficienti, perché se installiamo una fonte rinnovabile ma consumiamo energia in maniera
indebita, non abbiamo risolto i problemi, quindi soltanto su edifici dotati di attestato di certificazione
energetica viene considerato l’incentivo oppure in impianti collegati con aree da bonificare, cave dismesse,
discariche esaurite e siti contaminati. In questi luoghi il fotovoltaico può andare anche a terra, luoghi nei
quali non si fa uso per l’agricoltura o altri usi pregevoli.
• Le tariffe per le fonti rinnovabili elettriche sono dimensionate in modo da incentivare gli impianti più piccoli
e l’utilizzo di determinati combustibili, sono privilegiate, ad esempio, biomasse e sottoprodotti.
• Altro elemento fondamentale la scelta di meccanismi fondati sui premi assegnati agli impianti virtuosi,
l’incentivo non è soltanto un incentivo di base ma può essere aumentato sulla base di quello che si riesce
a fare per migliorare l’ambiente.
• Sul fotovoltaico è previsto un premo per la rimozione dell’amianto pari a 30 €/MWh, e un premio per
l’utilizzo della componente realizzata in Unione Europea 20 €/MWh, E’ sostenuto anche l’autoconsumo di
energia prodotta col fotovoltaico che riceve un’aggiunta in tariffa.
• Per le fonti rinnovabili elettriche è prevista un’ampia gamma di premi per le diverse tipologie di fonti: nel
caso delle biomasse ad esempio la riduzione delle emissioni in atmosfera. Ci sono dei problemi con
il particolato delle polveri sottili (PM10), quindi si è previsto che le biomasse con le nuove tecnologie
fossero tali per cui l’emissione in atmosfera fosse ridotta per le polveri sottili con compensazioni di
30 €/MWh; la cogenerazione, cioè l’utilizzo di energia elettrica e calore,i piccoli impianti e la la spinta
all’innovazione sono incentivati. Le fonti rinnovabili costano più care delle fonti fossili quindi si incentivano
ma con la ricerca di soluzioni che comportino un minor costo. La spinta all’innovazione è fondamentale
per l’Italia, perché non possiamo continuare a comprare dall’estero questi componenti, e sistemi ma
dobbiamo realizzarli nel nostro Paese, con l’innovazione tecnologica, Questo è il risultato che ci può dare
mercato sia in Italia che all’estero.
• Il target sulle fonti rinnovabili elettriche dal 2008 al 2011 risulta incrementato; la percentuale di fonti
rinnovabili elettriche sul consumo finale interno di energia elettrica, è intorno al 26% ed è stato raggiunto
quanto previsto al 2020. Questo obiettivo verrà superato in seguito, con la Strategia energetica Nazionale,
salirà ancora di più. C’è stato un grosso salto del fotovoltaico ed’eolico, poco sulle idroelettriche, qualcosa
si sta facendo sulle bioenergie e biomasse, nel totale il salto in potenza installata va da 25.000 MW a
41/42.000 MW, quindi un grosso impegno sulle fonti rinnovabili e si stanno portando a casa dei risultati
ottimi partendo dal 2008 al 2011. Nel 2012 questi numeri sono più alti ed è più evidente che le fonti
rinnovabili rappresentano un punto essenziale per l’Italia.
• Nel decreto sviluppo si è inserito l’incentivo ad assumere giovani nel settore della Green Economy, si
è riorientato il fondo di rotazione che finanzia iniziative a basso tasso d’interesse, (0,5% per anno). Il
vecchio fondo era rivolto alle fonti rinnovabili e all’efficienza energetica, il nuovo fondo è indirizzato verso
chi fabbrica componenti e sistemi e che può assumere personale. La disponibilità di questo fondo, 470
milioni di euro, è destinata a finanziare con tassi agevolati progetti presentati da imprese nei settori di
punta delle rinnovabili o destinati alla messa in sicurezza del territorio. L’accesso al finanziamento è
condizionato dall’assunzione di giovani al di sotto dei 35 anni, questi prestiti sono erogati a sei anni a un
tasso agevolato dello 0,5% per quelli che vogliono partecipare, la durata dei sei anni si allunga per il
finanziamento concesso alle ESCO o ad amministrazione pubblica.
• Un altro elemento che si sta realizzando è l’estensione dello sgravio fiscale per gli interventi di efficienza
energetica, il cosidetto 55%. In questo momento si sono avuti problemi, perché la misura si è rivelata
inefficace in quanto è stata accompagnata da un aumento dell’aliquota prevista per lo sgravio per le
normali ristrutturazioni edilizie dal 36 al 50%. E’ chiaro che chi vuole fare piastrelle in casa, le fa e riceve
un contributo del 50% di sgravio fiscale, però la differenza fra il 50% e il 55% è così piccola che gli
interventi di efficienza angelica perdono in qualche modo attrattiva. Speriamo di superare questo punto,
la situazione sarà presente almeno fino a giugno 2013.
Quali sono gli elementi che ci condizionano molto per raggiungere gli obiettivi del 20% delle emissioni
di CO2, l’aumento dell’efficienza energetica del 20% oppure l’uso delle rinnovabili?
Ecco, nel campo delle rinnovabili abbiamo sviluppato molto la parte elettrica e poco la parte termica, cioè
l’utilizzo di rinnovabili termiche diventa importante e dà un grosso contributo. Ricordo che per ogni KW elettrico
ci vogliono 3 KW termici, ogni KW è sempre potenza per cui se faccio KW termici riesco a raggiungere migliori
risultati che non fare KW elettrici. La parte di energia termica da fonti rinnovabili passa da 5 Mtep nel 2010
un raddoppio di 10 Mtep. Significa che dobbiamo fare un gran salto dal punto di vista delle apparecchiature
e degli usi di queste fonti rinnovabili. Il secondo elemento che sicuramente risulta molto importante riguarda
•
68
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
20 Novembre
l’efficienza energetica. Stiamo introducendo un’efficienza energetica con la riduzione dei consumi da circa
22/23 Mtep a circa 42 Mtep per il 2020.
Che cosa si sta facendo in questo momento?
In questo momento c’è un documento “Strategia Energetica Nazionale”, cioè un piano in consultazione,
legato ancora all’uso di combustibili fossili e alle infrastrutture, però entro questo piano c’è una previsione
sugli aumenti dell’energia prodotta dalle fonti rinnovabili rispetto al consumo finale che passa dal 17% al 20%
al 2020, e un aumento dell’efficienza energetica dal 20% al 24%. Gli impegni sia in termini di incentivi , sia in
termini di attività da svolgere e ricerca, sono rilevanti.
Il decreto sulle fonti rinnovabili termiche, ha l’obbiettivo di raddoppiare i Mtep delle fonti rinnovabili termiche e
aumentare l’efficienza energetica negli edifici delle amministrazioni pubbliche. Il 55% di detrazione delle tasse
riguarda sostanzialmente i privati, le amministrazioni pubbliche non pagano le tasse pertanto il 55% non può
essere utilizzato. Perciò si devono inserire provvedimenti che permettano alle pubbliche amministrazioni di
fare attività di riduzione dei consumi. Ricordo che la bolletta elettrica e del gas delle pubbliche amministrazioni
è di 3 miliardi di euro all’anno. E’ necessario fare in modo che le pubbliche amministrazioni abbiano i loro
edifici: le scuole, gli ospedali, tutti gli edifici pubblici, in grado di poter risparmiare ed usare efficientemente
l’energia. Il decreto è in bozza, viene praticamente portato alla Conferenza Unificata la prossima settimana
e prevede l’incentivazione di piccoli interventi di efficienza energetica per la produzione geotermica da fonti
rinnovabili, pompe di calore, scaldacqua, solare termico, generatore di calore a biomassa, l’accesso a questi
incentivi per le rinnovabili termiche è consentito a soggetti pubblici e privati mentre quelli dell’efficienza
energetica sono riservati a soggetti pubblici. Nel primo biennio di applicazione di questo decreto è previsto un
costo complessivo massimo di 900 milioni di euro che, in analogia con le fonti rinnovabili elettriche, è coperto
a valere sulle tariffe del gas naturale. Ricordo che le fonti rinnovabili elettriche ricevono incentivi attraverso la
bolletta elettrica. Un altro aspetto di interesse delle fonti rinnovabili termiche è la contabilizzazione del calore.
C’è in fase di predisposizione un altro decreto che è la revisione del meccanismo dei certificati bianchi
con un obbligo per i distributori di energia elettrica e gas di riduzione dei consumi attraverso l’acquisizione
di certificati di efficienza energetica. La caratteristica di questo decreto sarà l’apertura verso le imprese
e i processi produttivi della gestione accurata dell’energia. E’ un meccanismo premiante per la ricerca,
lo sviluppo e la produzione di tecnologie innovative in Italia e questo sarà concentrato sostanzialmente
sull’impiego dell’energia solare, lo sviluppo dei biocarburanti di seconda generazione, la valorizzazione della
geotermia, lo sviluppo di biomasse a filiera corta e lo sviluppo delle smart cities. Un breve cenno al decreto
sui certificati bianchi che è già in forma di bozza e con il quale il Ministero dello Sviluppo Economico di
concerto con il Ministero Ambiente definiscono gli obbiettivi di efficienza energetica e gli obblighi, in termini di
certificati bianchi, nel periodo 2013/2016, da parte dei distributori di energia. Gli obblighi hanno il significato
di stabilire quanti Mtep si devono risparmiare e se non si possono risparmiare direttamente i distributori
devono comprare i certificati bianchi attraverso interventi fatti da altri, altre industrie, altri privati ecc. Si è
costretti però a soddisfare quest’obbligo, in termini di efficienza energetica dal 2013 al 2016. Si passa da
una gestione legata all’Autorità per l’energia elettrica e il gas a una gestione del GSE. Il 2013 mantiene la
continuità con il periodo precedente, dove questo sistema era già in piedi, ha funzionato ma deve essere
sicuramente migliorato. Dal 2014 nuove linee guida saranno emanate dai Ministeri, si ampliano totalmente
gli interventi verso le imprese e i processi industriali, il certificato bianco prima era legato sostanzialmente
all’illuminazione pubblica e all’uso delle valvole sul flusso dell’acqua. Noi vorremmo spingere il miglioramento
dell’efficienza verso altre situazioni, altre e nuove tecnologie.
Grazie.
Arezzo 20 - 23 novembre 2012
69
20 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
Energie rinnovabili: occasione di innovazione e sviluppo sostenibile
"Energie rinnovabili per lo sviluppo e l’occupazione"
Fabio RenziSYMBOLA
Trascrizione non revisionata dal relatore
Bene, intanto Symbola è una fondazione per le qualità italiane, abbiamo sviluppato in questi anni una riflessione
su diversi aspetti dell’economia italiana insieme a Unioncamere, questo è molto importante, la rete delle camere
di commercio, perché abbiamo cercato di fare un corto circuito tra quello che spesso è la dimensione della
rilevazione, cioè dell’economia reale delle Camere di Commercio, di organismi che lavorano sui dati reali, e quello
che invece è un po’ più la dimensione della visione delle forze della società civile che spesso è più sulla rivelazione,
tenere insieme rilevazione e rivelazione è importante, perché dall’analisi dei dati emergono delle cose importanti
come abbiamo visto. Recentemente, abbiamo presentato il terzo rapporto, oggi qui lo richiamerò velocemente,
per il terzo anno consecutivo Green Italy che appunto realizziamo insieme a Unioncamere. La cosa che però
volevo dire come premessa è questa, tutta la riflessione che abbiamo fatto, anche molto densa di questioni
tecnichee di aspetti tecnici, ha però una dimensione che c’è nella società, cioè è chiaro che la Green Economy
è una nuova visione, è una visione che è legata a una diversa società, perché tutte le cose di cui non stiamo
discutendo trovano oggi una spinta nella società, cambiano i processi, cambiano i prodotti , c’è una nuova
domanda di energia, c’è una nuova domanda di stili di vita, stanno cambiando gli stili di vita, è questa la motivazione
profonda che sta dietro alle cose di cui stiamo riflettendo questa sera; basti pensare che l’anno scorso in Italia
sono state vendute più biciclette che immatricolate auto, è una battuta ma serve a far capire come siano cambiate
le cose, basti pensare quanto è cresciuta l’esperienza in molte realtà dei mercati di prossimità, basti pensare che
alcune grandi manifestazioni che potevano esser viste come tradizionalmente manifestazioni fieristiche di settore
economico, il salone del gusto, il salone del mobile, il salone della nautica, se uno va a vedere, si rende conto che
sono delle grandi manifestazioni che parlano di Green Economy, che parlano del fatto che le barche oggi si
progettano in maniera completamente diversa, con un’attenzione all’impatto ambientale è fortissima, con
l’attenzione al disassemblaggio per poter recuperare un domani le componenti, con un’attenzione alle nuove
vernici, con un’attenzione alla riduzione dei consumi fino al punto che un’azienda italiana, voi sapete che le
aziende italiane sono leader nel settore della nautica di grande livello, ha fatto il primo yacht a emissioni zero
oppure andiamo a vedere il salone del mobile e vediamo che oggi le imprese del mobile lavorano ormai, l’80%,
con legni certificati, provenienti da foreste certificate ma soprattutto con il recupero, il riciclo, con la materia prima
seconda che deriva dalle lavorazioni e dagli scarti della stessa lavorazione nel legno o del recupero, una azienda
italiana, Valcucine, ha una linea di progettazione che è proprio quella dell’utilizzo minimo dei materiali, di trovare
materiali più performativi , se andiamo a vedere il salone del gusto, che l’unico grande salone dell’agroalimentare
al mondo che ha quel tipo di impostazione, ci parla di un’attenzione ai temi della salute, dell’ambiente, dei
consumatori eccetera. Quindi, significa che nella società c’è una domanda molto forte e la cosa interessante è
che questa domanda è nella società e nelle imprese, quindi guardiamo ile imprese come un fatto di società,
perché un Paese come l’Italia che ha una impresa i ogni nove abitanti significa che l’impresa è un fatto di
partecipazione civile e sociale, non è che c’è la partecipazione e poi c’è l’impresa, significa che la maggior parte
delle persone che in Italia lavorano, vivono, discutono di Green Economy nelle loro fabbriche, nei loro laboratori
artigiani, nelle loro aziende, questo è molto importante perché significa che c’è un vero e proprio spostamento, da
questo punto di vista Rio+20 che cosa è stato se non questo. Mentre la prima Rio era essenzialmente una volontà
della politica, accompagnata anche da alcune imprese-Stato che avevano capito, imprese che avevano una
dimensione statale, parastatale molto importante, ce ne sono ancora molte, in Italia ma soprattutto negli altri
Paesi , per questo poi il Ministro Clini ci racconta che è difficile cambiare il mercato dell’energia, naturalmente stai
facendo una cosa che prevede la massima diffusione, distribuzione e autonomia con attori che sono ancora
vecchi, centrati, rigidi e quindi è tutto un percorso che si fa, ecco, mentre la prima Rio era la Rio della politica che
capisce che sta emergendo una sensibilità e deve rappresentarla, accompagnarla, mitigarla, orientarla, la Rio che
c’è stata quest’anno è una Rio dove la politica, per certi versi, ha avuto un ruolo minore ma c’è stato un ruolo molto
più forte dell’economia, tant’è che è stato più un gioco di geometrie variabili, accordi, eccetera tra economie che
puntano con alcune economie che sono economie nascenti o in via di sviluppo che si possono permettere di
avere il più grande investimento nelle energie rinnovabili e le peggiori ebbero miniere di carbone a cielo aperto e
altre economie, come le nostre, che invece devono scegliere, devono scegliere perché sono anche obbligate a
scegliere ed è quello che in questi anni hanno fatto le imprese italiane. Abbiamo chiamato questo rapporto Green
Italy, perché abbiamo pensato che osservando alcune cose, alcune ve le raccontavo prima, la nautica,
l’agroalimentare, ma anche vedendo che in Italia, anche su settori nei quali avevamo un ritardo storico, siamo
usciti comunque a riposizionarci, tra l’altro qui voglio dire che sì compreremo anche roba dai cinesi però io penso
70
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
20 Novembre
che in un Paese manifatturiero come l’Italia abbiamo dimostrato che da installatori spesso siamo diventati
produttori, inventori, quindi c’è anche una capacità di rielaborazione, di innovazione che è tipica proprio del
sistema manifatturiero diffuso e articolato come quello italiano, abbiamo visto, in poche parole, che non solo nei
settori come quello delle energie rinnovabili ma anche in altri settori, questo Paese continuava a mantenere
posizioni. I dati dell’export di questi ultimi giorni sono dati drammatici perché adesso anche i tedeschi hanno
capito che con queste politiche si frena anche la loro economia, se però questo Paese continua ad essere il
secondo Paese manifatturiero d’Europa, nonostante questa flessione nell’export, qualche cosa deve essere
successo, perché non si esporta più con la lira, con la svalutazione competitiva, il mercato, cioè la domanda dei
consumatori, è completamente cambiata, sempre più sovente chiedono se un prodotto è certificato, come è fatto,
se il legno è certificato, quanta CO2 è stata prodotta per fare una bottiglia di vino, tutte queste domande sono
crescenti ed emergenti, tant’è che molte aziende italiane del vino affermate oggi stanno lavorando tracciando la
loro carbon footprint perché il mercato americano lo richiede, quindi non c’è più la svalutazione competitiva, è
cambiato il mercato,la domanda dei mercati, dei cittadini, dei consumatori, se esporti direttamente o se sei
componente, fornitore di una filiera deve essere certificato, siamo in integratissimi, la nostra manifattura è la più
integrata con una montatura tedesca, allora significa che qualche cosa è cambiato, per questo noi abbiamo
parlato e siamo andati a studiarlo, per questo abbiamo parlato di Green Italy perché Green Italy è una nuova
sintesi fra Green Economy e Made in Italy; questa sintesi è possibile, cioè non c’è una crisi di rigetto, perché quel
Made in Italy è nuovo, è cambiato, non è più il vecchio Made in Italy e, sottoposto alla competizione, sottoposto
alla concorrenza, in un regime appunto anche di ambiente monetario comune, ha dovuto, non potendo intervenire
sul costo lavoro perché in Italia è incomprimibile, intervenire su altre cose e da questo punto di vista tutte le
aziende manifatturiere italiane che esportano, e sono tante, hanno, dal punto di vista del risparmio energetico,
dell’ottimizzazione e dell’approvvigionamento da energie rinnovabili, fatto un grandissimo investimento, la maggior
parte delle aziende italiane hanno fatto un grandissimo investimento proprio per abbattere i costi. Sono cambiati
i processi, con maggior attenzione al risparmio di acqua, al risparmio di materiali, all’utilizzazione di materie prime
seconde, la cosa interessante è che cambiando i processi spesso sono cambiati anche prodotti, questo è molto
interessante e spiega anche un po’ la forza e la capacità di resilienza che questo Paese ha, nonostante le sue
tare storiche e i suoi difetti profondi, però c’è una capacità, perché spesso cambiando il processo, cambia prodotto,
per esempio nel vino noi vediamo che alcune aziende cambiano il processo, cambiano quindi ad esempio anche
il contenitore per i vini che sono i vini di prima bevuta, cioè quelli che si bevono entro i dodici mesi e che non è
detto che debbano stare per forza nel vetro ma possono stare anche in contenitori tipo l’alluminio che si refrigerano
molto prima e che incontrano il gusto di un consumatore più giovane che non è abituato ad acquistare il vetro,
perché c’è una soglia psicologica di abitudine, e che quindi magari è abituato a bere in lattina e quindi si rivolge
verso quel tipo di prodotto, ma a quel punto gli si può proporre anche un prodotto che non è il vino ma un’altra
cosa anche se su base d’uva, faccio solo un esempio, ne potrei fare infiniti e, lo voglio dire, li trovate sui siti di
Unioncamere e di Symbola, potrebbe scaricare le ricerche con tutte queste parte di racconto e di esperienze,
quindi questa è la cosa che abbiamo messo in evidenza e la cosa che più abbiamo messo in evidenza e quello
che viene da dire è che la Green Economy è una grande opportunità per un Paese come l’Italia, la Green
Economy è una grande opportunità perché l’Italia è da sempre un Paese trasformatore ed è stato un Paese
trasformatore quando molti dei fattori di produzione erano fattori che dovevano essere acquistati sui mercati
internazionali, dall’energia a materie come l’acciaio, per questo la battaglia che sta facendo il Ministro Clini per
l’ILVA è una battaglia giusta, perché un Paese che è così forte nella meccanica, nella meccatronica, l’acciaio se
lo deve fare in casa, perché l’acciaio lo sappiamo fare e quindi non possiamo pensare di delocalizzare tutto. Se
la Green economy è un’economia nella quale l’energia ce la produciamo, per questo le energie rinnovabili, il
risparmio energetico l’efficientamento, è una strategia fondamentale per un Paese trasformatore come l’Italia, se
l’energia quindi sempre di più ce la produciamo in maniera intelligente, diffusa, se chiudiamo sempre di più i cicli
della produzione, quindi progettiamolo i materiali in maniera diversa, rafforziamo il ciclo del riuso e quindi le
materie prime non le compriamo più, oggi molto dell’alluminio lo ricicliamo,lo prendiamo dai consorzi che
funzionano, perché l’esperienza dei consorzi italiana è un’esperienza positiva, noi stiamo rendendo un Paese
trasformatore più libero, più capace di correre, perché si è tolto delle zavorre storiche, questa è la prospettiva
vera, profonda e il vento che soffia dietro non è un vento dell’ideologia. come poteva anche essere venti, trenta,
quarant’anni fa, come tutte lo cose allo stato nascente, ma il vento della società che chiede questi nuovi prodotti
e questi nuovi orientamenti. C’è un altro fatto che per l’Italia è una chance fondamentale, perché l’Italia è un paese
che vende le sue macchine utensili, spesso, perché a parità di tecnologia, ci sono tanti racconti dei nostri
imprenditori che sono simpatici, perché spiegano come tante volte i tedeschi, o altri concorrenti, non capiscono
perché sia stata scelta una macchina italiana a parità di una macchina di una macchina tedesca con la stessa
tecnologia, è perché spesso gli italiani fanno i tappi colorati anche per le cose che devono andare sotto terra e
fanno in forma corrugata dei contenitori che vanno sottoterra e che i tedeschi fanno lisci perché i tedeschi
sostengono che liscio o corrugato non fa nessuna differenza di prestazione, ma gli italiani lo fanno corrugato
Arezzo 20 - 23 novembre 2012
71
20 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
perché al cliente che compra quella cosa il corrugato dà l’idea che tenga meglio le spinte sottoterra, significa
allora che c’è una dimensione estetica, cioè il fatto che l’Italia è tradizionalmente un Paese che produce beni che
hanno un valore d’uso ma anche un valore estetico, simbolico, se la Green Economy è un’idea di società diversa,
di consumi diversi, c’è un mondo nuovo da progettare, un Paese che ha questa attitudine, che ha questa storia,
che ha questa radice, perché questa è una radice che si è rinnovata nel tempo, non si è spezzata, ascoltatevi la
bellissima prolusione di Giuliano Amato qualche giorno fa agli Stati Generali della Cultura che proprio batteva su
questo, sul fatto che questa è la cultura in Italia italica cultura, cioè dalla grande tradizione artigianale, rinascimentale,
dove l’alto e il basso stanno insieme, dove la cultura dell’impresa, quando ancora funziona, è la cultura della
bottega, anche Power-One, nella sua dimensione multinazionale, nella sua dimensione organizzata, nella sua
dimensione manageriale ha questa cultura artigianale, cioè del ben fatto, dell’attenzione, dell’attenzione a chi sa
fare. Questo significa che questa è una chance enorme, perché noi abbiamo la possibilità di tenere insieme
bellezza e sostenibilità, cioè noi abbiamo la possibilità di riprogettare molte coste e di rinnovare la vocazione
italiana alla qualità. Questo è il ragionamento fondamentale che vi volevo fare e, se ho ancora un paio di minuti,
vi voglio solo dire che questi dati oggi sono dei dati, questo è un ragionamento, ma noi abbiamo fatto anche un
lavoro di interrogazione delle imprese con le camere di commercio, e le imprese che possiamo definire Green in
Italia sono 360.000, tra industriali e terziarie, che hanno realizzato tra il 2009 e il 2012 investimenti in prodotti e
tecnologie Green. La cosa interessante è che queste imprese sono più internazionali, il 37% di queste imprese
ha esportato nel 2011 contro il 22% delle imprese che non fanno investimenti Green, sono più innovative perché
il 38% ha sviluppato nuovi prodotti o servizi dei 2011 contro 18% di quelle che hanno certificato di non aver fatto
investimenti Green, sono più aperte al lavoro, 241.000 assunzioni programmate nel 2012, il 30% del totale delle
assunzioni programmate in Italia per il 2012, hanno più capacità di tenuta al lavoro, capacità non perdere forza
lavoro, -0,7% la variazione dipendenti per il 2011/2012 a differenza invece delle altre imprese -1,4. La cosa
interessante, è quello che vi dicevo prima, è che molti settori che stanno già nella ecocompetitività, sono la
meccanica, il cuoio, pelli e calzature, l’elettronica, questi hanno un trend molto positivo dalle analisi che abbiamo
fatto noi, hanno un trend positivo gli alimentari e le bevande, il tessile e l’abbigliamento, i mezzi di trasporto e c’è
un processo di ecoconvergenza, cioè le imprese che avevano maggiore impatto ambientale sono quelle che
stanno facendo uno sforzo maggiore proprio per essere più virtuose dal punto di vista ambientale, abbiamo in
tendenza molto positiva la carta, la stampa e l’editoria e in tendenza positiva il legno arredo, la gomma plastica,
i minerali non metalliferi, la chimica, la farmaceutica e la metallurgia. Altra cosa molto importante, questo è un
passaggio molto importante, è chiaro che in termini assoluti non c’è partita tra le imprese della Lombardia è e
quelle della Campania, mas in termini percentuali la Green Economy non ci restituisce un Paese diviso in due, si
investe molto anche al Sud il che significa che spesso le politiche industriali sono importanti,ma spesso le politiche
industriali sono state o totalmente assenti o sono state “ortopediche”, nel senso di voler rifare i connotati, e invece
dovrebbero essere un po’ più “sartoriali”, cioè vedere quello che sta emergendo,queste rilevazioni ci rivelano che
anche il Sud sta investendo, sta camminando, quindi non c’è una distanza, non c’è la classica forbice tra Nord e
Sud come avviene sempre anche nei momenti di partenza tra Nord e Sud e che invece c’è una capacità di
convergenza, questo è molto importante perché significa allora che la Green Economy è veramente un cambio di
paradigma, un passaggio di fase che rimette in discussione anche vecchie strozzature e impedimenti nel nostro
Paese. Grazie.
72
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
20 Novembre
Energie rinnovabili: occasione di innovazione e sviluppo sostenibile
"Energie rinnovabili per lo sviluppo e l’occupazione"
Anna Rita Bramerini
Assessore Regionale Ambiente Regione Toscana
A metà di un cammino, importante e promettente. Definerei così la posizione della Toscana sul tema dell’energia
da fonti rinnovabili. Siamo una Regione che ha fatto buone cose, ma che ha ancora molti margini di miglioramento,
tanti obiettivi ancora da conseguire e ci auguriamo che diventeranno più semplici da realizzare anche grazie alle
imprese, toscane e non, che hanno sede nel nostro territorio. Dico di più. La sfida della Green Economy è per
noi una delle carte fondamentali da giocare per uscire dal tunnel della crisi economica in cui ci troviamo ormai
dal 2008 e questa scelta è stata già definita a grandi linee tra gli obiettivi nel nuovo Piano regionale di sviluppo.
Oggi parliamo di Green Economy prevalentemente rispetto alle questioni dell’energia – impulso alle rinnovabili,
efficienza, emissioni -, ma è assolutamente necessario che cogliamo la valenza più ampia del tema, perché
esso chiama in causa, sostanzialmente, la capacità di un sistema economico, produttivo e sociale, di ridefinirsi,
facendo i conti con il fatto che noi viviamo in un contesto in cui le materie prime sono sempre meno disponibili,
come ha detto chiaramente, di recente, la relazione presentata dal vice presidente della Commissione europea,
AntonioTajani.
Di fronte a questa realtà, o noi ci attrezziamo, rimodellando le nostre economie, ridefinendo stili di vita, di consumo
e di produzione in modo tale da riusare o da usare meglio le risorse primarie, o rischiamo di sottoporre le nostre
comunità a costi sempre più elevati e insostenibili. E parlo delle famiglie, ma anche delle imprese, per le quali i
costi dell’energia attuali sono un fattore fortemente critico dal punto di vista della competitività.
La Green Economy e le energie rinnovabili, dunque, come straordinario volano di sviluppo per una regione come
la Toscana. Lo testimoniano anche i dati dell’Irpet che nel suo ultimo rapporto, partendo da un deficit di consumi
energetici in Toscana del 24% circa al 2010, dice che se noi riuscissimo, da qui al 2020, in modo strutturale ad
aumentare la nostra capacità di produrre energia elettrica da fonti rinnovabili, riducendo quindi progressivamente
la dipendenza dall’esterno, riusciremmo ad aumentare indicativamente il nostro Pil di 1,5 punti percentuali con
una stima di 11.000 occupati all’anno. Considerando naturalmente, in Toscana, il ruolo di una risorsa come la
geotermia che oggi conta in Toscana una produzione di 811 MW circa.
C’è quindi uno spazio enorme nel quale muoversi. Credo anche, però, che questa materia sia tra quelle che
consentono di mettere in evidenza le opportunità, ma anche le contraddizioni del nostro Paese. Perché se da
un lato c’è il mondo imprenditoriale che incalza, se c’è una coscienza civica sempre più attenta rispetto all’uso
delle risorse primarie, e quindi anche all’energia, e se tutto questo si traduce in uno stimolo crescente verso la
Pubblica Amministrazione, è anche vero che poi, quando arrivano alle amministrazioni pubbliche, richieste per
la realizzazione di impianti da fonti di energia rinnovabili (FER), tutto diventa diverso e si complica. Succede che
frequentemente quegli stessi promotori di opinione pubblica - gli stakeholders - non sostengono la Pubblica
Amministrazione quando, nel rispetto delle prescrizioni di legge, autorizza gli impianti per cui viene richiesta
l’autorizzazione.
Dico questo con cognizione di causa perché, avendo in giunta regionale la delega all’energia, ho seguito tutte e
tre le fasi che hanno accompagnato lo sviluppo delle FER, almeno delle principali: prima la stagione dell’eolico,
poi la stagione del fotovoltaico, ora quella delle biomasse. Tre stagioni alimentate, per così dire, dalla politica
degli incentivi. In queste tre circostanze noi abbiamo registrato forti contrapposizioni rispetto alle risposte che
il territorio, i cittadini hanno dato rispetto alla realizzazione di impianti, spesso neanche particolarmente grandi.
Sono sorti numerosi comitati contro l’eolico, contro il fotovoltaico, in particolare quello a terra, contro le biomasse.
Su questo fenomeno non voglio sottrarmi ad una riflessione. Non contesto assolutamente il diritto al dissenso,
credo che l’opinione pubblica abbia il pieno diritto di fare domande e di ottenere risposte chiare sul tema della
sicurezza e della salute. Tuttavia l’atteggiamento che abbiamo registrato in questi anni denota in modo evidente
come il nostro sia un Paese poco incline all’innovazione. E quando dico innovazione non intendo solo quella
tecnologica, che è comunque uno degli asset su cui poggia la capacità di diventare un “paese green”, perché
senza nuove tecnologie difficilmente si può pensare di riconvertire sistemi produttivi o di accrescere fatturato
e posti di lavoro in settori di nuova frontiera. Penso anche ad un’altra innovazione di cui la nostra società ha
un bisogno vitale: è quella di una cultura di governo, che deve coinvolgere le istituzioni, ma anche i cittadini.
La risposta, l’unica possibile a mio parere, all’ondata di antipolitica o di indifferenza che rischia di far perdere
Arezzo 20 - 23 novembre 2012
73
20 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
competitività al nostro paese. Ci vuole buona politica, buona amministrazione, efficiente, onesta, competente,
ma abbiamo anche bisogno di un’opinione pubblica interessata al tema del governo, esigente, ma responsabile.
L’alternativa è uno stallo che rischia di essere esiziale per il futuro delle nostra comunità. Credo che non vi sia
Valutazione di Impatto Ambientale che noi abbiamo seguito, come Regione Toscana, almeno sugli impianti più
grandi, che non abbia destato contrapposizioni forti, non tanto e solo da parte del cittadino comune, cosa che si
può anche comprendere, ma da parte di altri soggetti, anche rappresentanti di quel mondo intellettuale che ha in
Toscana il suo “buen retiro” e che può contare su una notevole capacità di fuoco mediatico”.
Di fronte a questo, però, la Regione non si è chiusa a riccio. Abbiamo dialogato, ci siamo confrontati. Soprattutto
abbiamo intrapreso il lavoro per il nuovo Piano Ambientale Energetico Regionale, che è attualmente in
valutazione ambientale strategica, e, in particolare sull’energia, ci siamo dati obiettivi non banali cercando di dare
un’indicazione per quello che può fare una Regione. Abbiamo tenuto conto dell’obiettivo che ha posto lo Stato
con il burden sharing da qui al 2020, e che comporta come Regione Toscana un aumento, a quella data, di circa
il 16,5% di energia termica elettrica rispetto a quella prodotta fino al 2010, con un valore aggiunto enorme che la
termica darebbe e che rappresenta, a differenza dell’energia elettrica, una sfida nella sfida rispetto alla capacità
di produrla attraverso fonti rinnovabili.
In vista di questo obiettivo abbiamo recepito nel Piano Ambientale Energetico Regionale le linee guida nazionali
per quanto riguarda le aree non idonee all’istallazione di queste fonti (l’avevamo già fatto lo scorso anno con il
fotovoltaico a terra, che aveva scatenato anche in Toscana una corsa alla realizzazione di parchi significativi sul
territorio agricolo).
Nel Piano poniamo l’attenzione su altre due questioni: una è la filiera del legno, l’altra è la filiera del calore. Dopo
aver creato il Distretto per la Green Economy, che comprende anche le aziende che producono la componentistica
per le fonti rinnovabili, con circa 300 imprese aderenti (ma in Toscana ne abbiamo molte di più che operano in
questi settori), e dopo aver partecipato al bando del Ministero dell’Istruzione per l’alta formazione insieme alle
Università e al mondo della ricerca, ci siamo chiesti: cosa ci contraddistingue in modo forte? Ecco, abbiamo
pensato all’enorme patrimonio agroforestale della Toscana. Stimiamo, lo dice uno studio del Settore agricoltura
della Regione, la disponibilità di circa 600.000 tonnellate di materia prima che potrebbe essere utilizzata senza fare
praticamente niente, come semplice effetto della manutenzione dell’esistente. E allora quale miglior occasione
per far nascere una filiera del legno che, mettendo insieme chi produce e chi consuma questi materiali, consenta
di realizzare in Toscana piccoli impianti a biomasse. Con queste 600.000 tonnellate si potrebbero, dicono i nostri
tecnici, produrre circa 60/70 MW di potenza elettrica nella nostra regione.
L’altro elemento che ci contraddistingue è la geotermia, che noi conosciamo sotto forma di sfruttamento industriale
dell’energia ad alta entalpia e che è appannaggio di ENEL. Tuttavia, grazie al decreto che un paio di anni fa
ha liberalizzato la media entalpia, una regione come la nostra può sfruttare anche la geotermia a temperature
anche più basse. Non è un caso che non appena il Governo ha liberalizzato il settore, in Toscana abbiamo subito
cominciato a registrare una infinità di richieste di permessi di ricerca - circa una cinquantina - a dimostrazione
delle potenzialità di crescita che la bassa e media entalpia hanno in regioni come la Toscana, forse parte del Lazio
e della Campania e in Sicilia.
Anche qui, se vogliamo che l’opportunità si concretizzi, dobbiamo riuscire a costruire una filiera che vada dallo
sfruttamento della risorsa che già c’è, alla capacità di installare impianti che possono produrre energia geotermica
da media entalpia. Però questo lo dobbiamo fare sfruttando anche la capacità di realizzare qui l’impiantistica
necessaria, altrimenti rischiamo di subire gli effetti delle altre “ondate” nel settore delle fonti rinnovabili, con il
fatturato non realizzato in Toscana, ma altrove.
Chiudo dicendo che per noi quella della Green Economy è una grande scommessa. Lo è non solo per gli obiettivi
che ci pone lo Stato, ma perché la Toscana si trova a vivere, come tante altre regioni nel nostro Paese, una
situazione di grande criticità dal punto di vista economico e occupazionale. Credo che per poter conseguire questi
obiettivi serva fondamentalmente un salto di qualità complessivo che, a livello nazionale come regionale, dobbiamo
compiere e che deve vedere nella politica, nel Governo, nelle Istituzioni locali i principali protagonisti. Di questo
abbiamo bisogno, perché altrimenti, con gli atteggiamenti contraddittori che rammentavo prima, rischieremo di
perdere straordinarie opportunità.
Di questi tempi, è una sfida nella sfida, perché in questi tempi si gioca anche molto la credibilità delle Istituzioni e
di chi le governa. Penso che se su questo tema riusciamo a tenere, e anche a contrastare fenomeni che spesso
e volentieri si connotano anche per una certa ambiguità rispetto a un tema come quello delle rinnovabili, daremo
74
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
20 Novembre
un bel contributo alla crescita delle nostre comunità. Dobbiamo affrontare questa discussione con trasparenza
e spirito critico, ma senza lasciarsi condizionare dalla paura (che è cosa diversa dalla legittima preoccupazione)
e dagli istinti di conservazione. Gli atteggiamenti ondivaghi della Pubblica Amministrazione rischiano di essere i
peggiori nemici di noi stessi.
Serve quindi veramente un grande coraggio e uno sforzo di dimensioni collettive. Penso che una regione come
la Toscana debba sentire fino in fondo il dovere istituzionale di giocare una partita come questa. Forte della
consapevolezza di aver dimostrato, anche nel recente passato, di saper fare cose serie su progetti e investimenti
che all’inizio non erano certo accompagnati dalla condivisione delle comunità locali.
Arezzo 20 - 23 novembre 2012
75
20 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
Energie rinnovabili: occasione di innovazione e sviluppo sostenibile
"Green Economy: le potenzialità dell’Italia"
Stefania de Feo
Confindustria
Sono Stefania de Feo di Confindustria, guardiamo insieme quali sono oggi le potenzialità dell’industria italiana
nella green economy. Con la prima slide volevo innanzitutto mostrarvi qual è lo scenario dell’evoluzione delle
emissioni globali di CO2 dal 2009 al 2035; secondo il World Energy Outlook, a livello globale, noi andremo a
raddoppiare l’inquinamento atmosferico. Il dato più sconcertante è che in realtà saranno solo due Paesi, Cina e
India, che contribuiranno per la maggior parte a questo forte incremento, infatti andranno a contribuire
all’inquinamento atmosferico nel 2035 per il 40%. Di contro, l’Europa andrà a tagliare le proprie emissioni di CO2
del 3%. Tutto questo ci fa capire come in realtà la lotta al cambiamento climatico non può prescindere da degli
accordi internazionali che coinvolgano tutti i Paesi a livello mondiale, soprattutto i Paesi in via di sviluppo che sono
quelli maggiormente responsabili delle emissioni di CO2. D’altro canto l’Europa, già da molto tempo, ha assunto
la leadership, a livello mondiale, nella lotta al cambiamento climatico, conosciamo tutti il Pacchetto 20 20 20 che
definisce degli obiettivi ambiziosi di sostenibilità ambientale: riduzione delle emissioni di CO2 al 2020 del 20%, un
incremento delle fonti rinnovabili del 20%, sempre al 2020, calcolato sul consumo finale loro di energia e un
incremento dell’efficienza energetica sempre al 2020. Di questi tre obiettivi in realtà solo due sono stati tradotti in
obiettivi vincolanti, quello sulle emissioni di CO2 e quello sulle fonti rinnovabili. L’obiettivo sull’efficienza energetica
continua ad essere un obiettivo meramente indicativo ma vedremo che le tecnologie per l’efficienza energetica
sono quelle che daranno il maggior contributo nella lotta ai cambiamenti climatici per raggiungere il target
nazionale. Per quanto riguarda il target nazionale di riduzione delle emissioni di CO2 al 2020, partendo da uno
scenario di emissioni 575 milioni tonnellate di CO2, la riduzione del 20%al 2020 - la suddivisione deve essere
ripartitita tra i settori ETS e non ETS, ai settori ETS viene comunque chiesto un contributo maggiore di riduzione
del 21%, ai settori non ETS del 13% - si quantifica in ben 95 milioni di tonnellate di CO2. Come riusciremo a
raggiungere questo target? Attraverso il contributo dell’efficienza energetica e delle fonti rinnovabili riusciremo
non solo a raggiungere il target, quindi tagliare di 95 milioni di tonnellate di CO2 le nostre emissioni, ma addirittura
a superarlo di quasi il 10%. Attraverso l’efficienza energetica riusciremo comunque a risparmiare circa 73 milioni
di tonnellate di CO2, attraverso le fonti rinnovabili circa 30 milioni di tonnellate di CO2. Questi sono i potenziali di
riduzione di CO2 applicando le misure per l’efficienza energetica e per le fonti rinnovabili previste nell’allegato I e
II della proposta di Delibera CIPE che comprende il piano di azione per le fonti rinnovabili, il quarto conto energia,
il piano di azione per l’efficienza energetica del 2011. Cosa importante è che l’efficienza energetica contribuirà al
raggiungimento e superamento del target di sostenibilità ambientale per la CO2 per il 71%, le fonti rinnovabili solo
per il 29%. Tutto questo per quanto riguarda gli obiettivi nel medio termine. L’Europa in realtà sta già pensando a
obiettivi di lungo periodo, al 2050, definendo una strategia di politica energetica tesa alla totale decarbonizzazione
dell’economia. Seguendo il Committment del Consiglio d’Europa del 2009 che stabilisce una riduzione delle
emissioni di gas serra fino al 90% al 2050, sono state elaborate delle roadmap dalla DG Clima e dalla DG Energy.
La DG Clima attraverso la Low Carbon Economy Roadmap al 2050 definisce un obiettivo di riduzione delle
emissioni di CO2 dell’82% e definisce poi tutta una serie di step intermedi. Nella slide possiamo vedere come
secondo la Commissione Europea al 2020 l’Europa riuscirà addirittura a superare il target del 20% raggiungendo
un obiettivo di riduzione del 25%, solo però se a livello europeo riusciamo a raggiungere il target sull’efficienza
energetica che è comunque un target non vincolante. La DG Energy invece ha elaborato la Energy roadmap al
2050 in cui definisce un quadro normativo europeo a lungo termine, neutrale dal punto di vista tecnologico per
creare un sistema energetico competitivo e completamente decarbonizzato. Gli strumenti per raggiungere queste
decarbonizzazione sono sempre efficienza energetica e fonti rinnovabili, indicando al 2050 un obiettivo di
penetrazione delle fonti rinnovabili addirittura del 55%. Proprio alla luce di questi obiettivi particolarmente ambiziosi
a livello europeo, nel momento in cui gli Stati membri dovranno declinare questi obiettivi a livello nazionale, è
necessario che ciascun governo consideri sia la sostenibilità economica sia il potenziale di sviluppo dell’industria
nazionale. Per quanto riguarda la sostenibilità economica dovrebbero essere promosse quelle tecnologie che
consentono di raggiungere questi obiettivi con il minor costo possibile; questa slide rappresenta l’ordine di merito
economico delle tecnologie per la sostenibilità ambientale indicando il costo medio di abbattimento delle emissioni
di CO2 Possiamo vedere come le tecnologie per l’efficienza energetica siano quelle maggiormente convenienti,
hanno un costo addirittura negativo. Ma dobbiamo guardare anche a quello che è il potenziale di sviluppo
dell’industria nazionale. Oggi possiamo dire che l’industria dell’efficienza energetica è in qualche modo il pilastro
della green economy italiana, conta 400.000 imprese e 3.000.000 di occupati. Un incremento degli investimenti
in tecnologie efficienti può dar vita ad un ciclo virtuoso con delle ripercussioni benefiche su tutto il Paese.
Confindustria con uno studio specifico ha voluto quantificare gli effetti delle misure per la promozione dell’efficienza
76
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
20 Novembre
energetica sul bilancio dello Stato e sul sistema paese. Lo studio utilizza una matrice dinamica che utilizza le
tavole input/output, attraverso cui è possibile valutare come la variazione della domanda di un bene si propaghi
sull’intero sistema economico. Abbiamo quindi considerato quali effetti potesse avere sul bilancio statale,
guardando a quelle che sono le imposte dirette e indirette, sul sistema energetico e sullo sviluppo industriale, un
meccanismo di incentivazione dell’efficienza energetica per dieci anni. Per quanto riguarda il bilancio statale,
l’onere a carico dello Stato sarà di circa 15 miliardi di euro, questi sono i valori cumulati dal 2010 al 2020 (slide),
perché abbiamo dei contributi statali per gli incentivi, abbiamo una minore entrata a causa della riduzione delle
accise e dell’IVA per minori consumi energetici, abbiamo d’altronde anche delle entrate positive per una maggiore
occupazione, per maggior redditi delle imprese. L’effetto economico sul sistema energetico è particolarmente
positivo. Attraverso questo sistema di promozione della domanda di beni di alta efficienza riusciremo a risparmiare
circa 51 milioni di tonnellate equivalenti di petrolio per una valorizzazione economica di circa 25 miliardi di euro,
riusciremo a tagliare le emissioni di CO2 di circa 200 milioni di tonnellate per un risparmio economico di circa 5
miliardi. Tutto ciò avrà anche un impatto positivo sullo sviluppo industriale, avremo comunque un aumento della
domanda, un aumento della produzione e dell’occupazione. In poche parole possiamo dire che con questo
sistema di incentivazione costante per 10 anni avremo un effetto positivo sul sistema paese di circa 15 miliardi di
euro, circa lo 0,4% del PIL. Con il nuovo documento, ancora in bozza, della Strategia Energetica Nazionale, il
Governo sostiene di condividere questo indirizzo di politiche energetiche verso la de carbonizzazione. Occorre
però trasformare la sfida ambientale in quella che è un’opportunità di crescita industriale puntando su quelle
tecnologie in cui il nostro Paese vanta la leadership tecnologica. Per fare questo sono necessarie tutta una serie
di azioni; è necessario definire un framework normativo certo e stabile nel tempo perché gli investitori e gli enti
finanziatori hanno bisogno di stabilità, è necessario promuovere l’attività di ricerca e di sviluppo perché è
necessario assicurare un alto standard di innovazione: solo attraverso l’innovazione si può avere un abbattimento
dei costi delle tecnologie e quindi una maggior diffusione sul territorio; sono necessarie campagne formative e
informative soprattutto nei confronti della pubblica amministrazione, un’azione di semplificazione amministrativa,
ed il controllo delle contraffazioni. È necessario che questi obiettivi particolarmente sfidanti che si andranno a
delineare da qua al 2050, siano trasformati in un’opportunità di crescita industriale, economica e occupazionale
per il nostro Paese. Grazie.
Arezzo 20 - 23 novembre 2012
77
20 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
Energie rinnovabili: occasione di innovazione e sviluppo sostenibile
"II Quinto Conto Energia – Risultati Raggiunti"
Luca Di Carlo
Trascrizione non revisionata dal relatore
Centro Studi GSE
GSE è una società posseduta al 100% dal Ministero dell’Economia e delle Finanze che opera secondo le direttive
del Ministero dello Sviluppo Economico e direttive dell’Autorità per l’energia elettrica e il gas, quando dico del
Ministero dello Sviluppo Economico dico di fatto di azioni concertate tra il Ministero dello Sviluppo Economico e
il Ministero dell’Ambiente. La nostra mission fondamentale è la promozione dello sviluppo sostenibile, attraverso
l’erogazione di incentivi economici destinati alla produzione energetica da fonti rinnovabili, con azioni informative
tese a diffondere la cultura dell’uso dell’energia compatibile con le esigenze dell’ambiente. Focalizzando
l’attenzione sul fotovoltaico vi inonderò un po’ di numeri che però penso siano quelli che ci rimangono più impressi
e che consentono a tutti noi di fare autonomamente delle considerazioni e tirare delle conclusioni. Ho fatto fare
un’estrazione di quelli che sono i risultati che sono stati raggiunti in Italia sul Conto Energia, quindi per il fotovoltaico
solare, alla data del 15 novembre 2012. Quello che si vede da questa slide è che oggi abbiamo raggiunto quasi
460.000 impianti e una potenza installata di quasi 16 GW. Sono numeri importanti, se poi guardate a quello
che è il trend anno per anno, vedete che si è evoluto. Si è partiti da un numero di impianti quasi inesistente
nel 2006 per poi avere una crescita esponenziale nel 2009, 2010, 2011 e poi diminuire nuovamente nel 2012.
Quello che può essere interessante è che se analizzate il valore della potenza media degli impianti incentivati,
vedete che dall’anno 2011 che vedeva una potenza media di 54 kW siamo subito scesi a 24. Per capire quella
che è la localizzazione geografica di questi impianti e quella che la distribuzione sull’intero territorio nazionale,
potete vedere dalla slide quali sono le regioni più virtuose, sia in termini di numero, sia in termini di potenza. Le
regioni che presentano una maggiore concentrazione in termini di numero sono le regioni del Nord, Lombardia,
Veneto, Emilia Romagna, mentre invece in termini di potenza vediamo che una regione come la Puglia presenta
già da sola il 15% della potenza installata, questo è anche legato a un quadro normativo più favorevole che ha
facilitato tali tipi di realizzazioni. Abbastanza interessante per capire quale sia la segmentazione di questi impianti
in esercizio, in questa slide vedete che, avendo distinto gli impianti a seconda della potenza nelle varie classi,
in termini di numero circa il 70/80% degli impianti sono sotto i 20 kW; diversamente, se parliamo di potenza, gli
impianti si concentrano nella classe 200 MW fino a raggiungere ben 6.000 MW. Il DM 5 luglio 2012, cosiddetto
Quinto conto Energia, pone una particolare attenzione al controllo dell’onere legato all’incentivazione di impianti
da fonte rinnovabile, questo avviene sia nel decreto che riguarda l’incentivazione del fotovoltaico solare ma
avviene anche con il decreto delle FER elettriche. Questo ha fatto in modo, su indicazione chiara e precisa
di entrambi i Ministeri, sia dello Sviluppo Economico che dell’Ambiente, di rendere quanto più pubblici, noti,
contestuali, i dati di costo legati alle incentivazioni, giorno dopo giorno. Abbiamo implementato presso il GSE un
contatore fotovoltaico che viene aggiornato giornalmente e che quantifica il costo indicativo cumulato annuo degli
impianti incentivati. Dalla slide, potete vedere quali sono i pesi in termini di numero, potenza ma anche di costo
indicativo cumulato dei singoli Conti Energia associati ai vari decreti che hanno consentito l’incentivazione fino
ad arrivare a quello del Quinto Conto. Oggi, noi registriamo una spesa di 6,5 miliardi compresi anche gli impianti
iscritti a Registro anche se non sono entrati in esercizio. Una cosa che volevo evidenziare è che il decreto cesserà
di applicarsi 30 giorni dopo il raggiungimento del costo indicativo cumulato dei 6,7 miliardi, in quei 30 giorni dopo
i 6,7 miliardi, i vari produttori potranno ancora far pervenire le richieste di incentivazione purché gli impianti siano
entrati in esercizio in quella finestra temporale. Il Quinto Conto Energia riguarda tutti gli impianti che sono entrati
in esercizio dopo il 27 agosto, questo non significa che chi è entrato prima non possa fare ancora domanda di
incentivazione purché sia rispettato il plafond reso disponibile. Quello che ritengo sia opportuno evidenziare è
che effettivamente ancora possono chiedere, fino al raggiungimento dei 6,7 miliardi, il premio abbinato a un uso
efficiente dell’energia tutti gli impianti ammessi alle tariffe incentivanti. Il Quinto Conto Energia non ha previsto una
tariffa, un premio, per l’uso efficiente dell’energia, per chi però è stato incentivato con il Secondo, Terzo e Quarto,
attraverso appositi accorgimenti operanti direttamente sull’involucro edilizio, è possibile avere un incremento
della tariffa incentivante che può arrivare fino al 30%. Dico questo perché parliamo di efficienza energetica, sono
interventi che possono essere resi a livello abbastanza diffuso, possono coniugare la produzione della fonte
rinnovabile con interventi di efficienza in maniera molto stretta, noi abbiamo richieste sul premio dell’efficienza
energetica estremamente basse, abbiamo valori che possono arrivare a 30 domande al mese, proprio perché
non c’è un’opportuna conoscenza e informazione di questa possibilità che i precedenti decreti avevano dato. Il
Quinto Conto energia si sviluppa secondo degli intervalli semestrali di operatività, caratterizzati da valori delle
tariffe incentivanti decrescenti. Le tariffe incentivanti sono riconosciute alle seguenti tipologie di impianti: impianti
fotovoltaici installati su edifici, impianti fotovoltaici integrati innovativi, impianti fotovoltaici a concentrazione.
78
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
20 Novembre
Il Quinto Conto Energia prevede la possibilità di beneficiare di premi aggiuntivi alle tariffe incentivanti per l’utilizzo
di componenti EU o prodotti all’interno dello spazio economico europeo, per interventi di realizzazione di impianti
fotovoltaici in sostituzione di coperture in eternit, nonché tariffe particolari per particolari manufatti come pergole,
serre, tettoie, fabbricati rurali ecc. Il Quinto Conto Energia è entrato in vigore l’11 luglio, di fatto il primo semestre di
operatività del Quinto Conto Energia è partito dal 27 agosto e terminerà il 26 febbraio quindi il secondo semestre
partirà a valle del 27 febbraio. Se non saranno raggiunti i famosi 6,7 miliardi previsti dal decreto, verrà aperto il II
Registro la cui apertura è prevista per il 19 marzo. Il I Registro vedeva un plafond di spesa reso disponibile di 140
milioni di euro, è noto a molti operatori che sono stati impegnati soltanto 90 milioni di euro, il II Registro ne prevede
120. Le novità rispetto ai precedenti decreti che hanno disciplinato il Conto Energia sono fondamentalmente
due: le modalità di accesso e l’impostazione della incentivazione. La modalità di accesso all’incentivazione più
disciplinata, più contingentata, più regolata per cui si prevede un accesso diretto per impianti con certe determinate
caratteristiche sia di potenza che di tipologia e un accesso al Registro per tutti gli altri impianti. relativamente
all’impostazione dell’incentivazione, non è più un feed-in premium ma un feed-in tariff, fondamentalmente viene
incentivata l’energia immessa in rete secondo una tariffa omnicomprensiva che nel caso in cui l’impianto abbia
una potenza inferiore a 1 MW tiene conto del valore dell’energia mentre nel caso in cui la potenza dell’impianto sia
superiore a 1 MW la tariffa incentivante riconosciuta è una tariffa variabile, non fissa, ed è quindi la differenza tra
l’omnicomprensiva e il prezzo zonale orario. In questo caso però l’energia rimane nella disponibilità del produttore.
Ulteriore caratteristica del decreto è che è stata ipotizzata una tariffa premio legata al consumo dell’energia in
sito. Nel 2011, anche in virtù dei diversi provvedimenti normativi, siamo stati inondati da situazioni stop and go,
grossi afflussi, fermi, proprio perché legati alle scadenze che i quadri normativi davano. Adesso siamo ritornati in
una situazione di equilibrio, una situazione di regime, almeno con il Quinto Conto, e l’afflusso delle domande di
incentivazione che giornalmente ci pervengono è di 150/200 domande al giorno, quindi un valore fisiologico che
era un po’ quello storico. Dico questo perché il GSE si è trovato a far fronte a carichi di domande che sono arrivate
fino a 22.000/24.000 domande al mese. Quali sono le caratteristiche degli impianti che ad oggi hanno fatto
richiesta sul Quinto Conto? Innanzitutto, in accesso diretto sono pervenute già 9.500 domande per una potenza
corrispondente di 50 MW. Per capire quali sono le caratteristiche e le tipologie degli impianti ho voluto fare questa
segmentazione perché ne caratterizza alcuni, vanno un po’ fuori quelli che sono gli impianti tradizionali che con
gli altri precedenti decreti consideravamo. Se focalizziamo l’attenzione in termini di numero il 90% sono impianti
sotto i 12 kW, è però importante vedere come il numero delle installazioni legate all’Eternit cominci ad essere
un po’ più consistente, il 3%, come gli impianti CPV a concentrazione, gli impianti BIPV cioè quelli innovativi,
integrati architettonicamente, stanno iniziando ad assumere un valore abbastanza importante. Gli impianti iscritti
a Registro sono 3.600 per una potenza di 960 MW. Quello che deve far riflettere è che dei 140 milioni di euro
disponibili soltanto 90 milioni di euro sono stati impegnati. Ancora una volta, sempre per tenere sotto controllo e
dare la possibilità a tutti gli stakeholder di capire effettivamente come girano i numeri, abbiamo implementato e reso
pubblico sul sito del GSE il dettaglio del contatore del Quinto Conto. Questa è la fotografia al 15 novembre 2012
(slide), gli impianti sono stati distinti secondo le diverse tipologie: a concentrazione, integrati innovativi, realizzati
dalle Pubbliche Amministrazioni. Questo ovviamente ci consente di monitorare il costo indicativo cumulativo
annuo delle singole tipologie perché l’accesso diretto viene per i CPV, i BIPV e per le Pubbliche Amministrazioni
fino al raggiungimento dei 50 milioni di euro dopodiché sono sottoposte alle altre modalità. Stiamo tenendo sotto
monitoraggio anche gli impianti a Registro, numeri sono quei 966 MW che di fatto stanno già entrando in esercizio
e quindi riusciamo giornalmente a capire qual è la potenza impegnata e quella entrata in esercizio di questi 966
MW. Il Quinto Conto Energia ha dato una particolare dignità agli impianti fotovoltaici integrati con caratteristiche
innovative. Sono cioè quei particolari impianti in cui il pannello fotovoltaico si integra con l’involucro edilizio e ne
sostituisce un po’ le caratteristiche termiche, meccaniche e idrauliche. Le tariffe sono tariffe importanti, un +30%
rispetto agli impianti classici. Gli operatori hanno subito capito il questo e il trend che si attestava su 200 domande
al mese ha subìto uno sbalzo in avanti fino ad arrivare a 1.500 domande al mese. È molto probabile che anche sul
Quinto Conto Energia ci sarà una crescita analoga. Questo per dire quanto questo tipo di impianti sta suscitando
particolare interesse, impianti su cui l’innovazione tecnologica trova particolare applicazione. Per quanto riguarda
gli impianti a concentrazione, nel Terzo Conto c’era un solo impianto a concentrazione incentivato per di più di una
potenza di 25 kW. Ovviamente il discorso delle tariffe incentivanti ha destato l’attenzione dei vari operatori e nel
Quarto Conto si è passati a 54 impianti, un importante passo in avanti non solo in termini di numero ma anche in
termini di potenza perché si è arrivati a 15 MW. Questo numero è destinato ancora a crescere perché l’interesse
da parte degli operatori è importante. Al Ministero dell’Ambiente è un tema abbastanza caldo, per cui ho voluto
fare una slide sulla realizzazione di impianti fotovoltaici in cui il modulo sostituisce l’Eternit. Anche in questo caso
ci sono dei premi che sono legati alla potenza ma anche a una evoluzione temporale, a delle scadenze temporali.
Sono premi importanti perché si parla di 20/30 euro MWh. Non sono valori piccoli e comunque sono valori che
trovano soddisfazione, perché l’evoluzione numerica degli impianti che chiedono di essere incentivati anche in
questa forma è considerevole, si passa da 4.500 impianti nel 2010 fino ad arrivare a ben 23.000 a novembre 2012
Arezzo 20 - 23 novembre 2012
79
20 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
con una potenza che arriva a 2.000 MW. Se parliamo poi della superficie di Eternit smaltita arriviamo 22 chilometri
quadrati. La classe di potenza più interessata è quella che va dai 20 a 1 MW, quindi si parla di capannoni agricoli o
industriali. Il GSE è sempre impegnato, in particolar modo esiste una direzione apposita nella divulgazione di tutte
le informazioni che stanno nel settore del rinnovabile. È aperta a tutti: Pubbliche Amministrazioni, Stakeholders.
Cerchiamo con apposita documentazione di divulgare le informazioni e i numeri che noi abbiamo a disposizione.
Nell’ambito del fotovoltaico divulghiamo le regole applicative, le guide, i cataloghi e molto altro proprio per rendere
quanto più trasparente e ampia possibile l’informazione da parte del GSE. Grazie.
80
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
20 Novembre
Energie rinnovabili: occasione di innovazione e sviluppo sostenibile
"Energie rinnovabili per lo sviluppo e l’occupazione"
Averaldo FarriPower-One
Vorrei solo fissare l’attenzione su due o tre punti che mi pare non siano stati menzionati negli interventi precedenti.
Un punto importante riguarda il numero di posti di lavoro che con il fotovoltaico e con le rinnovabili abbiamo creato
in Italia. Abbiamo i dati di Confindustria di Arezzo dove si dice che nella sola provincia di Arezzo ci sono 4.000
aziende impiegante nel settore delle rinnovabili e oltre la metà impegnate direttamente nel settore del fotovoltaico.
In Italia sono stati creati circa 18.000 posti di lavoro diretti e oltre 100.000 posti di lavoro se si considera tutto
l’indotto che gravita intorno al nostro mondo. Credo quindi che non si possa negare che l’impatto sul mercato del
lavoro sia stato un impatto positivo specialmente in un momento tremendo come questo dove nel 2011 in Italia
hanno chiuso 2.000 aziende al mese, abbiamo avuto 26.000 perdite di aziende o di Partite IVA in un anno. Si
poteva fare di meglio, la massa di denaro che è stata elargita in incentivi poteva forse essere gestita con un po’
più di oculatezza. I 9 GW installati in un anno di cui diceva prima l’Ing. Di Carlo purtroppo, grazie a dei corridoi
di sviluppo che sicuramente non hanno richiesto le aziende, sono stai per noi una iattura, credo che nessuno
si aspettasse o volesse un mercato di tali dimensioni. Però è successo e possiamo solo gestire la situazione.
Mi premeva dire che sul nostro mondo se ne sentono dire tante, abbiamo avuto per anni, per mesi, una stampa
continuamente contro e abbiamo sentito dire una serie di sciocchezze infinite. Mi permetto di dirlo perché queste
sciocchezze che vengono dette hanno un impatto sull’opinione pubblica ma non vanno a dar fastidio a chi magari
specula su un impianto, ma vanno a dar fastidio a chi poi dà lavoro, a deve investire e far crescere e progredire
un’azienda. Mi riferisco per esempio al fatto che si dice spesso e volentieri che in Italia, per il fotovoltaico, abbiamo
usato tecnologie obsolete, si dice in realtà una cosa imprecisa, si può dire magari che la tecnologie è evoluta nel
tempo e che potevamo aspettare a installare i 9 GW fra due anni, questo potrebbe essere un dibattito. Ho anche
sentito dire in televisione dal Prof. Giavazzi, un autorevolissimo consulente del Ministero dell’Economia con il
quale ho intrattenuto anche uno scambio di mail, che è sufficiente fare come negli Stati Uniti dove basta verniciare
il tetto di una casa e si ottiene energia. Va bene tutto, si può dire tutto ma credo che prima di andare in televisione,
nel corso di un dibattito pubblico, a dire una sciocchezza del genere, bisognerebbe pensarci. L’opinione pubblica
che ascolterà quel dibattito penserà che in Italia non riusciamo a fare neanche il fotovoltaico. Chiederei un po’ di
attenzione al riguardo e che quando si passano dei dati che siano dei dati giusti. Bisogna sempre pensare che
dietro a un mondo che è quello delle rinnovabili ci stanno delle aziende, dentro le aziende ci stanno delle persone,
ci stanno dei manager che cercano di farle progredire e che quindi c’è tutta una filiera sulla quale, a mio avviso,
bisognerebbe cercare di non gettar fango. L’aspetto dei costi è stato ben illustrato da Valerio Rossi Albertini; è
vero che il fotovoltaico ha avuto dei costi, ha avuto dei costi perché è stata creata un’infrastruttura energetica che
per la prima volta in Italia possiamo definire nostra, cioè non dipendiamo né da gas, né da petrolio, né da carbone.
Nel momento in cui il Quinto Conto Energia andrà a esaurimento con i fondi, continueremo, è augurabile, a
installare fotovoltaico; quello sarà il momento in cui ci sarà il ritorno sull’investimento. Quindi, tutto quello che
abbiamo investito, questi 6,7 miliardi all’anno, cominceranno a tornare indietro perché avremo un’altra struttura
energetica che probabilmente varrà tanto quanto vale la prima che è stata sussidiata e che produrrà energia a
costo completamente zero. Fino a un anno fa in Italia si parlava di nucleare ma la domanda che pongo è se siamo
veramente sicuri che facendo il nucleare (tra farlo, mantenerlo, smaltire le scorie) si sarebbero spesi meno di 6,7
miliardi all’anno; i conti che abbiamo noi dimostrano il contrario. In un quadro di riferimento come quello nostro di
medio, lungo termine, penso che potremo avere come sistema paese un po’ più di coraggio. È dimostrato che si
può arrivare a un 50%, forse di più, di energia prodotta in ogni Paese, quindi anche in Italia, da fonti rinnovabili.
Credo che con il SEN questo obiettivo dovrebbe essere stabilito. Ritengo il SEN un buon documento perché è il
primo tentativo di dare una strategia energetica al Paese dopo almeno vent’anni ma mi sembra un documento che
sceglie di non scegliere, non dà la linea guida definitiva, dà un po’ di contentino a tutti, si selezionano varie fonti o
varie possibilità ma una scelta di campo, una scelta di fondo, mi sembra che in quel documento non sia stata fatta.
Credop che ci vorrebbe un po’ più di coraggio e a questo punto cooptare le industrie, cooptare le scuole perché
una grande parte di quello sviluppo si possa fare nel nostro Paese. Cito un’ultima cosa, che poi è un elemento
di politica industriale che però si lega con questo modo di far sistema. In Italia non abbiamo più una politica
industriale da tanto tempo, non c’è né da parte dello Stato verso le aziende per esempio con la semplificazione
burocratica, l’accesso al credito ma non l’abbiamo nemmeno da parte aziende verso lo Stato altrimenti il caso
dell’Ilva di Taranto non sarebbe mai successo. Se la politica industriale avesse imposto all’Ilva di mettersi in regola
vent’anni fa oggi non saremo a parlare dell’Ilva di Taranto. Quindi, la politica industriale manca in tutti i sensi e
sarebbe l’ora che questa venisse ridefinita nel nostro Paese, possibilmente tenendo in conto una strategia che
presentasse una sinergia tra quattro componenti fondamentali che sono naturalmente la politica e le istituzioni
Arezzo 20 - 23 novembre 2012
81
20 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
per quello che riguarda la definizione delle politiche strategiche di lungo termine, l’industria che naturalmente
deve fare la sua parte, la scuola e il mondo delle istituzioni finanziarie. Sono cose abbastanza semplici ma se
riuscissimo a far fare sinergia a queste quattro componenti, molto probabilmente avremmo un obiettivo di medio
lungo termine un po’ diverso da quello che si sente ventilare ogni giorno da giornali e televisioni.
82
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
21 Novembre
Inquinamento dell’aria outdoor/indoor e salute: considerazioni per il risk management
"La rilevanza sanitaria dell’inquinamento dell’aria outdoor e indoor"
Giovanni Viegi CNR Palermo
Cercherò di dare un’impostazione a questa premessa sulla base dell’approccio che il mio gruppo del CNR, sia
a Pisa che ora a Palermo, anche nel contesto della Società Europea Respiratoria, ha dato alla problematica
dell’inquinamento dell’aria outdoor/indoor in ambiente fondamentalmente medico-clinico. I colleghi che seguiranno
affronteranno il problema dal punto di vista del Risk Management e da quello della misurazione dei dati ambientali.
Dal momento che parliamo di Sviluppo, Ambiente e Salute, credo che le considerazioni che farò possano essere
di interesse.
Per conto dell’Associazione Allergologica Mondiale abbiamo recentemente rivisto quelli che possono essere
considerati i principali effetti degli inquinanti rilevanti per la salute, in particolare la salute respiratoria, nei due
domini che sono appunto l’indoor e l’outdoor.
Nel nostro Paese, come riportano anche alcuni dati dell’OMS, abbiamo un problema che è quello delle particelle.
Le particelle sono uno tra gli inquinanti che negli ultimi anni è stato più studiato dal punto di vista degli effetti
respiratori e cardiaci. Se guardiamo (slides) questa lista di città italiane, laddove la freccia indica quella che
è la linea guida dell’OMS, vediamo che alcuni anni fa, ma non credo che la situazione sia molto migliorata
recentemente, tutte le città monitorate avevano valori che eccedevano tali linee guida.
Circa più di 10 anni fa la Società Toracica Americana (ATS) ha pubblicato questo statement (slides) in cui
riassumeva ciò che già allora si poteva considerare un effetto avverso sulla salute dell’inquinamento basato
sull’evidenza scientifica: questa lista, che espongo sempre agli studenti di scienze ambientali, mostra che
già 10 anni fa si parlava di evidenze solide sull’aumento della mortalità, l’aumento dell’incidenza del cancro,
l’aumento della frequenza degli attacchi asmatici sintomatici, l’aumento dell’incidenza delle polmoniti oppure la
riacutizzazione delle malattie in coloro che hanno malattie croniche cardiopolmonari, la riduzione di un indicatore
di funzione polmonare e poi via via anche i sintomi che comunque alterano la qualità della vita, dai sibili, alla
costrizione toracica, alle infezioni delle vie aeree superiori e infine anche agli odori. Recentemente, abbiamo poi
rivisto la problematica anche per gli anziani che sono una delle categorie in grande aumento. In questa decade ci
sarà un evento storico per l’umanità: gli ultra sessantacinquenni, su base mondiale, supereranno i bambini sotto i
cinque anni. Abbiamo cercato di focalizzare quelle che sono le evidenze sulle associazioni fra mortalità, morbilità,
sintomi e inquinanti convenzionali.
Un lavoro, recentemente uscito, ha cercato di stimare la mortalità globale usando immagini da satellite, utilizzando
poi dati della letteratura per quanto riguarda le stime di rischio. Ha sostanzialmente stimato che la frazione
globale della mortalità negli adulti attribuibile alla componente antropogenica delle PM2.5 è l’8% per le malattie
cardiopolmonari, il 12,8% per il tumore al polmone e il 9,4% per le malattie ischemiche. Abbiamo fatto alcuni
studi epidemiologici su campioni di popolazione generale in Italia mostrando il paragone tra un campione di
popolazione in una zona rurale del delta del Po e la città di Pisa. La broncoreattività, una capacità dei bronchi di
reagire a uno stimolo esterno, che è indicatore della tendenza asmatica, mostra un aumento nella città rispetto
alla zona rurale. In termini di rischio relativo, l’eccesso di rischio è del 40% in coloro che vivono in città rispetto a
coloro che vivono nella zona rurale e questo ha la stessa dimensione del fumo di sigaretta.
Recentemente abbiamo poi utilizzato questa tecnica che si chiama geographical information system (GIS);abbiamo
georeferenziato tutti i partecipanti a un’indagine epidemiologica nella zona di Pisa in base alla vicinanza alla
strada statale tosco-romagnola, la vecchia strada che connette Pisa a Firenze. Con questo sistema abbiamo una
georeferenziazione delle abitazioni e quindi abbiamo potuto localizzare coloro che abitavano entro i 100 metri
o 100/250 metri dalla strada statale rispetto a coloro che abitavano oltre questa distanza. Non solo i sintomi, ma
anche le diagnosi di broncopneumopatia cronica ostruttiva, di asma e anche l’indicatore di funzione polmonare
sono tutti più elevati in coloro che vivono ad una distanza molto prossima alla strada trafficata.
Questo sostanzialmente ha poi confermato i risultati di un grande studio italiano, lo studio SIDRIA, componente
italiana dello studio internazionale (ISAAC) su asma e allergie nei bambini, su oltre 40.000 tra bambini e ragazzi
italiani, dove si è visto che soprattutto la frequenza del traffico da camion vicino a casa è associata a 27% di rischio
in più di avere sintomi di asma o 67% di rischio in più di avere tosse o catarro. A Palermo abbiamo poi condotto
studi analoghi sugli studenti delle scuole medie inferiori ed abbiamo visto che se noi riuscissimo ad abbattere tutti
insieme i fattori di rischio ambientale prevenibili - in sostanza i tre principali sono il fumo passivo, l’esposizione a
muffe e l’esposizione al traffico - potremmo prevenire il 40% dell’asma e il 34% della rinocongiuntivite nei bambini.
Se si parla quindi in termini di impatto, di prevenzione sulla sanità e sui costi poi conseguenti, è evidente che una
politica di prevenzione molto forte potrebbe farci ridurre di grande quantità il numero di bambini malati.
Per quanto riguarda il fumo passivo, in un altro studio sulle donne non fumatrici di quattro aree italiane (SEASD)
Arezzo 20 - 23 novembre 2012
83
21 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
avevamo visto un rischio attribuibile di popolazione del 12% per broncopneumopatia cronica ostruttiva.
Per parlare di inquinamento indoor, anche le muffe sono un problema, così come è stato mostrato nei bambini che
hanno partecipato allo studio SIDRIA e in termini di revisione dei dati di letteratura. Per quanto riguarda le muffe,
recentemente è uscito un aggiornamento sull’European Respiratory Journal, con la descrizione a di studi di cui
parleranno poi Paolo Carrer, Colaiacomo e anche Sestini.
Questo concetto dei fattori di rischio comuni modificabili è alla base di quella che l’OMS ha fondato alcuni anni fa,
cioè l’Alleanza globale contro le malattie croniche respiratorie (GARD), che sta cercando di spingerci in questa
direzione. Tra l’altro questo dato del New England Journal of Medicine del 2009 (slides), cioè della relazione
tra la riduzione delle particelle e la variazione dell’aspettativa di vita, è molto importante perché ci mostra che
la riduzione dei livelli di inquinamento giustifica un 15% di aumento dell’aspettativa di vita. Il GARD, che ci ha
chiamato a fare un’azione coordinata per combattere queste malattie, ha stilato una serie di item per un’agenda
di temi di ricerca prioritaria fra cui l’impatto della prevenzione; tre anni fa è stato lanciato anche il GARD Italia che
opera a livello del Ministero della Salute.
Il GARD Italia ha costituito cinque gruppi di studio - prevenzione delle malattie respiratorie nelle scuole, fumo e
ambiente domestico, diagnosi precoce, continuità della cura, educazione e training - e la prossima settimana si
terrà l’Assemblea annuale.
Un altro approccio che mi piace ricordare è quello delle carte di rischio, che abbiamo fatto insieme all’Istituto Superiore
di Sanità, con le quali andiamo a valutare quello che è il rischio assoluto di sviluppare la broncopneumopatia
cronico ostruttiva nei 10 anni successivi, stratificando per età, per fumo: tra le esposizioni che abbiamo preso in
considerazione, c’è l’esposizione ambientale che ha senz’altro, anche da sola, un importante impatto soprattutto
sui non fumatori.
Termino dicendo che mi sembra molto tempestiva quest’iniziativa perché l’anno prossimo sarà l’Anno Europeo
dell’Aria e sarà l’anno in cui, a livello dell’Unione Europea, si dovranno ridiscutere le linee guida e i limiti. Da
questo punto di vista, la Società Europea Respiratoria ha sviluppato 10 principi per l’aria pura che sono stati
pubblicati e che speriamo possano aiutare anche a guidare i parlamentari verso una riduzione di quelli che sono
i limiti attuali e secondo quelle che sono le indicazioni dell’OMS.
84
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
21 Novembre
Inquinamento dell’aria outdoor/indoor e salute: considerazioni per il risk management
"Rischi emergenti in aria outdoor: particelle nanometriche"
Gaetano SettimoIstituto Superiore di Sanità
Trascrizione non revisionata dal relatore
Il mio intervento è prettamente focalizzato sulle particelle nanometriche nella qualità dell’aria. Nell’approfondimento
del quadro conoscitivo della qualità dell’aria e sul ruolo del materiale particellare, in questi anni particolare
attenzione, anche grazie alle conoscenze che sono state acquisite nell’ambito della distribuzione dimensionale
del materiale particellare, hanno avuto le frazioni a minore granulometria, quelle considerate e classificate come
particelle ultrafini. All’interno di questa classe abbiamo la classe di particelle denominate nanoparticelle. Queste
particelle sono dotate di ridottissime dimensioni che le impartiscono delle proprietà particolari, quindi elevata
area superficiale specifica della particella, elevato numero di particelle. Nell’ambito della valutazione del rischio si
mette in evidenza come la presenza di queste particelle, soprattutto dell’elevata area superficiale, può produrre
tutta una serie di effetti legati alla tossicità. E’ infatti ormai noto come la tossicità di queste particelle è strettamente
legata proprio all’elevata area superficiale e molto meno alla massa.
Qui ho riportato tutta la serie di percorsi che normalmente vengono seguiti nella formazione di queste particelle,
particelle che normalmente sono di origine non solo naturale ma anche legate a tutte quelle attività antropiche,
quindi abbiamo sorgenti chiaramente legate a tutti processi industriali, a tutta la serie di attività civili ed a quelle
legate alle sorgenti mobili.
In questi anni si è fatta tantissima confusione sulla definizione di nanomateriali perché come sapete abbiamo avuto
un fortissimo sviluppo di questo tema di frontiera delle nanotecnologie. Molte volte nell’immaginario collettivo si
scambiavano queste particelle che naturalmente sono presenti nell’aria ambiente con quelle ingegnerizzate. Una
differenza che credo sia importante fare è che le particelle originate dai processi naturali o legate alle attività
antropiche dell’uomo hanno delle caratteristiche di dimensione, forma e composizione che è molto più complessa
rispetto a quella ingegnerizzata perché sono io stesso che cerco di selezionare particelle con dimensione e
composizione chimica definita come nel caso delle particelle nanometriche.
Nel 2012 finalmente abbiamo una definizione che era già presente in una raccomandazione dell’ottobre del 2011.
Queste particelle nanometriche chiaramente hanno una componente primaria legata all’emissione diretta della
particella in accordo al processo industriale o naturale che è stato all’origine, abbiamo una componente secondaria
e chiaramente, come abbiamo più volte ripetuto, anche una componente naturale. Questa la definizione ormai
condivisa a livello europeo per cosa si intende per nanomateriale. Qui avevo segnato alcune definizioni che
possono essere importanti perché in questi anni poi si provvederà anche ad una revisione della definizione di
nanoparticella dell’ambito dell’aumento delle conoscenze in questo campo.
In questi anni sono stati sviluppati tutta una serie di meccanismi di formazione di queste particelle, di questi
agglomerati. La via principale che viene seguita nella formazione di queste particelle nanometriche è quella della
nucleazione seguita poi dalla crescita proprio di questi nuclei attraverso fenomeni di agglomerazione e successiva
condensazione eterogenea. Un aspetto importante è che finalmente con il regolamento del 2008 anche sugli
autoveicoli, soprattutto per lo standard Euro 6, per la prima volta viene definito un limite alle emissioni proprio per
queste particelle ultrafini. Viene definito questo livello di emissione di 6,0 x 1011 particelle/km. Attualmente si sta
cercando di mettere a punto la metodica di riferimento ufficiale proprio per andare a misurare queste particelle.
Abbiamo già parlato di questa tematica emergente legata alle nanoparticelle. A livello di commissione europea
in questi anni si è lavorato molto per accrescere il quadro conoscitivo sul tema. Sono stati attivati tutta una serie
di comitati scientifici specifici che dovevano esprimere un po’ di considerazioni e dare delle indicazioni su quella
che poteva essere la problematica sanitaria legata alle particelle ultrafini. Nel 2005 il Comitato Scientifico SCHER
(Scientific Committee on Health and Environmental Risks) mette in evidenza, a parte la formazione che abbiamo
appena visto, anche quale può essere la composizione tipica di queste nanoparticelle, ma mette in evidenza
anche le poche informazioni che sono legate proprio alla misurazione di numero di particelle perché ancora sono
molto limitati i programmi e i piani di sorveglianza ambientale. Un’altro Comitato scientifico che chiaramente è
stato attivato nell’ambito dei lavori della commissione europea è quello SCHENIHR (Scientific Committee on
Emerging and Newly Identified Health Risks) sui rischi emergenti che fa un po’ il sunto delle conoscenze sulla
tematica, quindi mette in evidenza quali sono gli ordini di grandezza sia per le aree urbane che per le aree rurali.
Nelle aree urbane chiaramente mette in evidenza quali sono le principali sorgenti che possono produrre queste
particelle nanometriche ultrafini, mette in evidenza come attualmente le particelle ingegnerizzate contribuiscono
chiaramente ad aumentare i livelli ambientali di queste particelle naturali.
Qui ho riportato il quadro di tutti i documenti di riferimento su questa tematica. Documentazione che continuamente
aumenta e cresce perché in questi anni si è cercato di colmare le lacune attuando piani di sorveglianza ambientale.
Arezzo 20 - 23 novembre 2012
85
21 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
Un altro documento molto importante è quello legato alla valutazione del rischio nel quale si mette in evidenza come
i dati legati ai livelli di esposizione sono solamente disponibili chiaramente per le particelle non ingegnerizzate.
Questi dati non possono essere utilizzati per valutazione esposizione per le particelle ingegnerizzate. Ancora vi è
una assenza di metodi che possono essere utili per confrontare questi dati che vengono ottenuti dai vari processi
industriali. In Italia si è cercato di colmare in parte questo deficit non solo normativo ma anche di norme specifiche.
Qui ho riportato tutta una serie di norme che sono state messe a punto dall’International Standard Organization
e dal Comitato di Normazione Europeo per quanto riguarda tutte quelle tecniche di misurazione che sono quelle
più consolidate e che trovano largo impiego.
Già è stato più volte detto come in questi anni la normativa e le indicazioni dell’OMS si focalizzavano su due
parametri, come il PM10 e il PM2.5, infatti già dai primi decreti degli anni ‘90, da Ruffolo-Conte in poi, per le 23
città che avevano più di 150.000 abitanti erano previsti delle misurazioni del PM10 con definizioni che sono quelle
riportate nella normativa che è stata via via pubblicata anche a seguito di recepimenti di direttive comunitarie.
Attualmente il riferimento è quello del D.L. 155 che abbiamo appena visto.
In Italia, a parte la città di Roma, non sono disponibili serie temporali che possono far fare alcune valutazioni.
Dal 2001 è presente in Istituto una ulteriore postazione che misura appunto le particelle nanometriche: è quella
che abbiamo situato all’Orto Botanico. Questo è l’andamento che abbiamo registrato in questi anni. Vedete sul
confronto tra inverno e estate, chiaramente abbiamo un numero di particelle che è nel range tra 10.000 e 80.000
particelle per cm³. Segue un po’ l’andamento delle sorgenti che sono legate al traffico per la città di Roma, visto
che non sono presenti processi industriali. A parte il picco iniziale legato al traffico, poi abbiamo un altro picco
legato al traffico di rientro dagli uffici alle proprie abitazioni. Questa distribuzione bimodale la possiamo anche
rivedere nel giorno tipo, dove abbiamo riportato i giorni feriali, il sabato e la domenica.
Qui ho riportato un po’ l’andamento che abbiamo registrato nel corso di questi 11 anni. Andamento che è
decrescente, ma i valori che sono registrati per le particelle nanometriche se confrontati con quelli che sono i
valori misurati in altre realtà europee ci colloca sempre sul livello superiore.
Questo è uno studio che abbiamo effettuato in collaborazione con l’ASL di Roma. L’obiettivo era quello di stimare il
rischio di ricovero e di morte attribuibile alle particelle ultrafini in soggetti sensibili, quindi con infarto del miocardio.
La città di Roma presentava dei livelli di nanoparticelle elevati se confrontati con le altre città del Nord Europa, ma
in linea con le città mediterranee come Barcellona.
In Europa sono ormai sviluppati tutta una serie di programmi nazionali di misurazione di queste particelle
nanometriche. Abbiamo visto la Germania, la Svizzera. Questo è uno dei programmi che è attualmente in corso
per la città di Londra. Anche in America sono presenti per la città di Los Angeles 7 siti.
Tutta una serie di strumentazioni che danno la misura del diametro ottico di queste particelle, sono state sviluppate
in questi anni.
Un’ulteriore attenzione anche su quelle che sono le indicazioni legate ai processi industriali. In Europa abbiamo
una normativa e una norma specifica per il PM2.5. Abbiamo lavorato anche noi sulla messa a punto di questa
norma europea e particolari programmi sono stati attualmente attivati proprio sulla misurazione di queste
nanoparticelle legate ai processi industriali, soprattutto a quei processi che danno luogo ad alte temperature
come i processi termici di combustione. Non è da sottovalutare anche il contributo delle caldaie che normalmente
vengono utilizzate per il riscaldamento autonomo.
Una cosa molto importante è che dal 2011 nel nostro Istituto è stato attivato un gruppo di studio proprio su
nanomateriali e salute. Abbiamo organizzato l’anno scorso un convegno nazionale e stiamo cercando di portare
avanti tutta una serie di progetti proprio sulle attività di monitoraggio e sorveglianza ambientale.
Domanda di Ennio Cadum (ARPA Piemonte): Le tematiche sull’inquinamento oggi vedono soprattutto un
grande interesse alla costituzione chimica delle particelle, nel senso che tutte le problematiche conosciute sulla
dimensione, che vanno dal PM10 al PM2.5, in realtà hanno messo in luce il fatto che il grosso del problema
sta nelle tossicità di alcune frazioni. Tutta la ricerca mondiale, quindi, oggi è alla ricerca dell’individuazione
delle frazioni più tossiche e la loro caratterizzazione in maniera da capire se vengono emesse da qualche fonte
particolare per poter intervenire in maniera mirata e non con una riduzione generalizzata delle emissioni, ma
magari anche specifica su alcuni settori. Su questo nell’ambito dei lavori sia a livello nano sia a livello macro hai
delle informazioni particolari aggiuntive delle esperienze nostre?
Ti ringrazio per la domanda perché proprio in questi ultimi anni si sta lavorando più sulla caratterizzazione
chimica del materiale particellare, perché si è visto che quello che poi può mettere in evidenza lo sviluppo di
patologie non è la famosa massa totale del materiale particellare, ma è la caratteristica chimica di quest’ultimo.
Un tipico esempio è quello che abbiamo fatto, anche per citare il caso molto più recente, nell’ambito del rilascio
dell’Autorizzazione Integrata Ambientale di Taranto. Abbiamo fatto proprio un piano di sorveglianza ambientale
sanitario specifico sulla caratterizzazione del materiale particellare, perché se voi vedete i dati del PM10 o del
PM2.5 misurata a Taranto sono in linea con tutte le grandi città. Chiaramente quello che può portare a un aumento
dell’esposizione della popolazione è legato proprio alla caratterizzazione chimica. Adesso ci sono tutta una serie
86
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
21 Novembre
di studi che mirano non solo alla caratterizzazione dei metalli, ma anche di tutte quelle specie che sono definite
microinquinanti, come diossine, furani, PCB, idrocarburi policiclici aromatici. Si è cercato in questi anni di limitare,
anche nei processi industriali, l’emissione di materiale particellare perché riducendo l’emissione del materiale
particellare, con l’adozione delle migliori tecniche disponibili, chiaramente riduco tutte quelle componenti che
rimangono assorbite nel materiale particellare.
Domanda di Ivo Pellegrini (Ministero della Salute): Conosco la problematica relativa alle particelle piccole, come
esse si formano, come evolvono, ecc. ecc. La mia domanda è: ma che c’entrano le nanoparticelle costruite
ingegneristicamente al fine di migliorare le tecniche di cura o le tecnologie dei materiali? A me sembra che questa
sia una confusione nata artificiosamente. Se qualcuno ha confuso dall’inizio queste due cose, non ho capito
per quale motivo poi dobbiamo portarci dietro questa tara che effettivamente poi non ci consente di affrontare il
problema in modo adeguato.
Come dicevo in questi anni c’è stata molta confusione proprio perché la gente aveva tutta una serie di sollecitazioni
legate a queste nanoparticelle di tipo ingegnerizzate. Tu sei del settore e sai che il problema italiano è quello di
una scarsa conoscenza della componente scientifica proprio su questa materia. In tutti questi anni, come sai,
abbiamo avuto il blocco di tutta una serie di programmi legati alle centrali turbogas proprio per problematiche
legate a queste particelle fini e ultrafini. La composizione chimica di queste particelle è talmente complessa che
non si può confrontare con la particella ingegnerizzata perché sono io in laboratorio che voglio costruire quella
particella con quelle caratteristiche sia di dimensione che di composizione chimica. Quello che diciamo sempre
quando si fanno questi incontri è che da quando l’uomo ha scoperto il fuoco, queste nanoparticelle o queste
particelle ultrafini sono presenti sulla faccia della terra. Chiaramente con l’evoluzione di questi processi, insieme
alle particelle nanometriche, avremo nell’ambiente anche la presenza di queste particelle ingegnerizzate.
Arezzo 20 - 23 novembre 2012
87
21 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
Inquinamento dell’aria outdoor/indoor e salute: considerazioni per il risk management
"Inquinamento indoor in moderni edifici ad uso ufficio: il progetto OFFICAIR"
Paolo Carrer Università di Milano
Grazie per questo invito che ho molto gradito, tra l’altro penso sia veramente interessante avere una platea così
articolata con rappresentanti del mondo dell’ambiente e della sanità e discuterne insieme.
Vorrei innanzitutto rubare un minuto e rispondere a quella che è la mia impressione rispetto alla domanda che
ha fatto il Dr. Allegrini. L’importanza sulle nanoparticelle nasce soprattutto dalla considerazione di una loro
estrema biodisponibilità, quindi rispetto al particolato abbiamo un assorbimento e una capacità di interazione
con l’organismo umano che è decisamente maggiore. Ecco che allora da una parte è partita l’attenzione su tutto
quello che è l’utilizzo industriale di queste particelle, però d’altra parte ci siamo anche chiesti “non è che forse,
rispetto all’outdoor, la frazione più pericolosa sta lì?” Questo è uno degli argomenti in discussione, così come
l’altro che è stato già giustamente sottolineato, è la composizione di queste particelle, quindi la presenza o meno
di certe sostanze.
Per quanto riguarda il compito assegnatomi, mi è stato chiesto di parlare di valutazione del rischio, Risk
Assessment finalizzato al Risk Management, alla gestione del rischio Ho gradito questo invito ed ho cercato di
declinarlo illustrandovi quello che è il progetto, sul quale stiamo lavorando, “OFFICAIR” che ha proprio su questo
aspetto della valutazione dei rischi il fondamento per la definizione di una adeguata strategia preventiva.
OFFICAIR è infatti un progetto finanziato dalla Comunità Europea e mirato specificatamente a valutare la qualità
dall’aria indoor negli edifici moderni ad uso ufficio. Da una parte dovremo raccogliere le conoscenze su quella che
è la qualità dell’aria presente in questi edifici nei quali più o meno tutti lavoriamo e che hanno anche caratteristiche
simili rispetto a quelle che saranno le nostre prossime abitazioni e, le nostre prossime scuole, per definire poi uno
strumento di valutazione dei rischi che sia utilizzabile nei nostri edifici e quindi trarne delle considerazioni utili per
supportare in questo caso la comunità europea nella sua attività di definizione di politiche di prevenzione.
E’ un progetto complesso e articolato di cui mi preme sottolineare l’aspetto multidisciplinare. Sono presenti
competenze relative alla misurazione della qualità dell’aria, competenze di tipo sanitario rispetto alla valutazione
dell’impatto sulla salute e naturalmente anche competenze più legate alla gestione degli edifici, quindi ingegneri,
ecc. Per quanto riguarda l’Italia è presente il CNR di Roma, che ha funzione di laboratorio centralizzato per alcuni
dei parametri che misuriamo; è presente l’Università Insubria che collabora nella definizione delle strategie di
misurazione e poi l’Università di Milano per quanto riguarda soprattutto la competenza nella valutazione degli
effetti sulla salute.
Il progetto ha due work packages centrali, WP4 e WP7, che sono responsabili della effettuazione di misure
ambientali e di impatto sulla salute in edifici moderni ad uso ufficio europei. Questa attività è supportata da due
work package sperimentali. Il primo, il WP3, che sta lavorando a livello di laboratorio per vedere quali sono gli
inquinanti nuovi, meno conosciuti. In pratica la chimica delle reazioni che avviene soprattutto in seguito alla reazione
tra ozono, composti organici volatili, terpeni nel cui contesto abbiamo anche la possibilità di un’esposizione a
particolato fine o ultrafine; il secondo, WP5, che svolge studi di tipo tossicologico in modo da mettere a punto su
modelli animali la valutazione di questo tipo di effetti. Questi due work packages trasferiranno queste conoscenze
sulle attività di indagine che stiamo facendo sul campo. Tutta questa attività da una parte alimenterà un database
e dall’altra supporterà il WP8 che definirà per la Comunità Europea quelle che sono le misure di prevenzione più
adeguate.
Il punto di partenza di questo progetto è stato il Progetto EnVIE, nel quale abbiamo cercato di sistematizzare
quelli che sono i principali effetti sulla salute correlati alla qualità dell’aria indoor. Abbiamo individuato come
principali effetti sulla salute le malattie di tipo allergico, l’asma, il tumore del polmone, la malattia cronica ostruttiva
a carico del polmone, le malattie infettive, le patologie correlate all’esposizione a particolato in termini di effetti
sull’apparato cardiovascolare e, infine, i sintomi definiti da ‘sindrome dell’edificio malato’.
Come prima attività del progetto OFFICAIR abbiamo quindi fatto un aggiornamento di quali sono in questo
momento i temi emergenti rispetto ai moderni edifici ad uso ufficio e quindi siamo andati a vedere quali sono
i principali impatti sulla salute con la necessità di proteggere le persone più suscettibili. E qui c’è soprattutto
l’aspetto della protezione delle persone già affette da malattie allergiche, asmatiche o cardiovascolari, l’impatto
sul comfort e su quella che è la percezione della qualità dell’aria. Parlando di uffici poi non possiamo non parlare
anche dell’impatto sulla performance, sulla produttività.
Quali sono poi gli aspetti emergenti che sono diventati gli obiettivi del progetto? Innanzitutto oggi parlare di salute
nel lavoro d’ufficio non può non tenere conto anche degli aspetti di tipo psicosociale e dello stress. Non possiamo
misurare solo le concentrazioni indoor di formaldeide e non considerare anche quello che sta succedendo a
livello della riorganizzazione e del carico di lavoro e, quindi, uno degli obiettivi è vedere quali sono le sinergie tra
esposizione ad inquinanti, percezione alla qualità dell’aria indoor e stress.
L’altro è l’implementazione della normativa inerente l’efficienza energetica nei nostri edifici e che potrebbe creare
88
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
21 Novembre
una riduzione dei livelli di ventilazione, una maggiore “sigillatura”, se si può dire, dei nostri edifici. Rischiamo di
tornare agli anni ‘70 quando c’è stata la prima crisi energetica con tutto quello che ne è conseguito.
Infine l’ultimo aspetto di rilievo è quello che occorre andare a misurare non solo gli inquinanti primari ma anche
quelli secondari che si sviluppano negli edifici in cui lavoriamo. C’è un gruppo che appositamente ha cercato di
delineare e, quindi, elencare quali sono le sostanze che in questo momento potrebbero essere presenti e creare
problemi sulla salute e non ancora bene studiate che vedete qui elencate.
ll Risk Assessment, che è l’obiettivo principale di questo progetto, si articola in tre fasi condotte in un esteso
campione di edifici moderni ad uso ufficio. La “General Survey”, che coinvolge più di 160 edifici a livello europeo
e sono 8 nazioni che vi partecipano (dalla Finlandia all’Italia, dal Portogallo all’Ungheria) quindi abbastanza
rappresentativo, con una check-list e un questionario. Nelle fasi successive, la “Detailed investigation” e
l’”Intervention study”, il campione si restringe e invece aumentano le metodologie che andiamo ad applicare per
quanto riguarda le misure ambientali e di salute.
In particolare abbiamo elaborato, partendo da una precedente esperienza, una check-list. In pratica i nostri tecnici
effettuano quello che noi medici del lavoro chiamiamo il sopralluogo dell’edificio, ma raccogliendo le informazioni
su schede standardizzate: informazioni relative all’edificio, le possibili determinanti e le procedure di gestione.
Quello che è interessante è che abbiamo cercato di creare un algoritmo che sulla base di questa check-list per
i vari fattori di rischio dà una valutazione in termini di fattore di rischio non presente, possibilmente presente o
presente; quindi non siamo per dire che occorre subito misurare la qualità dell’aria indoor. Innanzitutto si può
fare, come fa un buon medico quando visita un paziente e non invia subito il paziente a eseguire delle indagini
strumentali ma prima visita il suo paziente, raccoglie le informazioni, esegue l’esame obiettivo. Allo stesso modo
in questo esercizio abbiamo provato a tradurre la visita del paziente nella visita dell’edificio che poi porta a definire
naturalmente dei sospetti. In base a questa check-list, in questo edificio, per esempio, si è detto “potrebbe esserci
una contaminazione da VOC che merita di essere approfondita”.
La fase di indagine della qualità dell’aria indoor è sviluppata in più stadi con l’obiettivo alla fine del progetto
di definire quelle che potremmo raccomandare come indagini di primo livello e indagini di secondo livello di
approfondimento. Essendo un progetto di ricerca abbiamo anche introdotto delle misure di tipo innovativo, che
poi vedremo se potranno anche essere gestite per quanto riguarda l’applicazione quotidiana.
Le indagini della qualità dell’aria indoor prevedono nella fase iniziale metodi di campionamento passivo e invece
nelle fasi successive metodi di campionamenti attivi su tempi più ridotti di esposizione.
I primi risultati delle indagini ambientali sono inerenti i campionamenti passivi che ci rassicurano per quanto
riguarda la valutazione dei livelli di benzene, toluene e xileni. Per quanto riguarda le aldeidi, i campionamenti
passivi indicano che formaldeide, acetaldeide e altre aldeidi continuano ad essere inquinanti presenti in ambienti
indoor a livelli maggiori rispetto all’esterno. Nella seconda fase eseguiremo dei campionamenti attivi su tempi
più ridotti per andare a valutare quelli che sono i picchi di esposizione. Tra gli approfondimenti faremo anche un
approfondimento sulla composizione chimica del particolato e, in particolar modo, su quelle che sono le specie
reattive.
Per quanto riguarda lo studio della salute e del comfort dei lavoratori abbiamo definito una valutazione attraverso
questionari, test on-line e test clinici. I lavoratori, alla loro postazione di lavoro, hanno compilato un questionario
con domande inerenti la salute dell’occhio, una parte con test di performance e della memoria e, anche, domande
per quanto riguarda gli aspetti dello stress. E’ stato fatto uno sforzo sotto il punto di vista della grafica in maniera
da renderlo facile da compilare e nel complesso richiede 30 minuti che non è poco, però è il tempo minimo e
indispensabile per raccogliere delle informazioni.
Questi sono i risultati dei questionari somministrati nella fase della General Survey: i risultati di uno specifico
edificio sono confrontati con la media nazionale e europea. Nel complesso abbiamo circa un 40% dei lavoratori
che ha riferito di avere una percezione negativa dell’aria, soprattutto per quanto riguarda gli aspetti di aria secca,
aria stagnante, presenza di odore; si è anche evidenziato come un problema rilevante sia il rumore presente
nei nostri uffici. Per quanto riguarda i sintomi, quello più lamentato è l’irritazione oculare e coinvolge circa il 30%
dei lavoratori indagati. Abbiamo valutato anche l’aspetto della sensazione psicologica e il principale test sullo
stress lavorativo che abbiamo applicato è stato l’ERI che va a valutare quanto è bilanciato lo sforzo che viene
richiesto rispetto alla compensazione che viene data. L’ERI viene definito negativo quando è >1. Queste sono le
percentuali di lavoratori che hanno espresso un ERI >1, cioè uno sforzo richiesto che viene ritenuto decisamente
superiore rispetto alla compensazione. Vedete come è difficile in questo momento parlare di indoor air quality ,
per esempio in Grecia, dove vi sono i problemi economici e di lavoro che conosciamo e che quindi devono essere
tenuti in considerazione.
Nelle fasi di “Detailed investigation” e di ”Intervention study” sono effettuati anche test clinici per valutare i possibili
effetti sull’apparato respiratorio e cardiovascolare, nonché raccolti campioni biologici per la misura di markers di
stress ossidativi.
Tutto questo, ripeto, per mettere a disposizione un processo che vede nella valutazione dei rischi, mirata per il
contesto in cui si va a valutare, il perno della prevenzione. Vorremmo quindi incrementare le conoscenze, ma
soprattutto mettere a punto uno strumento di valutazione che serva sia nel nostro singolo edificio ma anche,
Arezzo 20 - 23 novembre 2012
89
21 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
a livello europeo, come raccolta di dati per supportare poi quelle che sono le raccomandazioni per l’indoor air
quality.
Vi segnalo, infine, che sono in corso altri progetti di ricerca europei inerenti la qualità dell’aria indoor, quali quello
nelle scuole (SINPHONIE), per la definizione di linee guida per la ventilazione (HEALTHVENT) e le esposizioni
dall’uso di materiali di consumo (EPHECT). L’obiettivo è quello di arrivare a definire un “Green Paper on Indoor
Air Quality” a livello europeo e la mia conclusione è “perché non farlo anche a livello italiano?”, visto che i
principali attori sono qui presenti: il Ministero della Salute, il Ministero dell’Ambiente. Dobbiamo parlare insieme
e aggiornare quelle linee guida che abbiamo fatto una decina di anni fa magarispecificandole per le differenti
tipologie di ambienti (scuole, abitazioni, uffici).
90
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
21 Novembre
Inquinamento dell’aria outdoor/indoor e salute: considerazioni per il risk management
"Inquinamento indoor nelle scuole e salute dei bambini"
Piersante Sestini Università di Siena
Trascrizione non revisionata dal relatore
Cercherò di essere rapido perché è un argomento più vasto di quello che può sembrare a prima vista.
Innanzitutto, perché l’indoor scolastico. Intanto in Italia ci sono più di 8 milioni di ragazzi che vanno a scuola,
9 milioni se si considerano le superiori, e poi più di 1 milione di operatori scolastici, quindi un ambiente molto
abitato. Dietro ogni bambino c’è una famiglia, o quasi, e le famiglie e la collettività sono molto sensibili alla salute
dei bambini, quindi problemi legati all’indoor scolastico si riflettono poi su tutta la società. Quasi il 9% dei ragazzi
delle scuole italiane sono immigrati e quindi hanno potenzialmente delle difficoltà di interazione, per esempio col
sistema sanitario. I bambini sono in una fase delicata di sviluppo, sia fisico che intellettuale, fra l’altro è il momento
in cui sviluppano degli stili di vita e la qualità dell’ambiente indoor contribuisce notevolmente al mantenimento
della salute.
Le aule scolastiche hanno una densità abitativa molto alta. E’ fra le più alte di tutte, è intermedia fra un aereo
di linea e un carcere. In Italia forse il carcere può superare anche l’aereo di linea, soprattutto non ha i sistemi
di ventilazione probabilmente. Il numero di bambini per aula, tra l’altro, è in aumento con la riduzione degli
insegnanti. C’è quindi una concentrazione di persone in un ambiente. Inoltre una percentuale abbastanza elevata
di bambini ha problemi respiratori (asma il 3-5%, allergie fino al 30%) e quindi sono particolarmente sensibili agli
effetti di un cattivo ambiente.
Questo è un problema europeo. Da molto tempo sono stati fatti studi nell’ambiente indoor scolastico. Nel 2002, mi
sembra, proprio Paolo Carrer insieme all’IFA (?) fece una rassegna di questi studi che erano tutti un po’ separati;
nel 2004 organizzammo uno studio, per la prima volta, in cui si usavano le stesse tecniche in diversi Paesi europei.
I risultati principalmente furono che la scarsa ventilazione è un problema comune nelle aule scolastiche. Qui
vedete (slides) i livelli di anidride carbonica medi. Nella maggior parte delle scuole sono largamente sopra agli
800-1000ppm, che è il valore consigliato; in alcuni casi anche sopra i 3000ppm; recentemente se ne sono visti
anche sopra i 5000ppm. Tutti eccettuati alcuni, ad esempio Uppsala e alcune scuole della Norvegia che hanno
dei sistemi di ventilazione meccanica, ma dove non c’è la ventilazione meccanica i valori di ventilazione sono
bassi. Un valore alto di anidride carbonica non è che di per sé sia tossico. Nei sommergibili, dove non possono
ovviamente mai aprire le finestre, ci sono valori normalmente sopra i 2000ppm e fino a 5000ppm non dà effetti.
Il valore indica comunque che c’è una scarsa ventilazione e quindi qualsiasi altro inquinante presente aumenta
permanenza e concentrazione.
Lo stesso succede per il PM10. La maggior parte delle aule, il 78%, stava al di sopra del livello consigliato per
l’outdoor di 50µg/m3 . Questo ha un rapporto anche coi sintomi, qui vedete che la presenza sia di PM10 elevato che
di CO2 elevata è associato ad un aumento di tosse riportata nei bambini e ad una riduzione della pervietà del naso
misurata col rinometro, ci sono quindi più infiammazioni del naso. Questo per gli inquinanti principali, poi c’è tutta
una serie di inquinanti più esoterici. Le muffe sono forse il fattore più associato alla patologia respiratoria e anche
nelle scuole sono aumentate, circa il 30% delle scuole, se ci sono tanti bambini faccio anche tanta umidità e quindi
si possono sviluppare facilmente. la loro presenza è associata a tosse e ad alcuni tipi di muffe sono associate ad
asma e ad un’alterazione delle funzionalità respiratorie.
Non ci sono solo le cose che si misurano, ma c’è anche la percezione. C’è un’associazione molto stretta fra la
percezione della qualità dell’aria e la soddisfazione per le scuole. I bambini che danno una buona valutazione
della qualità dell’aria sono anche soddisfatti delle scuole; quelli che pensano che la qualità sia cattiva sono poco
soddisfatti. E lo stesso succede per i genitori dei bambini. Questi hanno scarsissima correlazione con le cose che
misuriamo noi, quindi vanno presi con le molle o vanno prese con le molle le nostre misurazioni che forse non
misuriamo delle cose importanti, ma dà un’idea dell’impatto che può avere la qualità dell’aria e le possibilità che
poi la scuola, vedremo dopo, offre di affrontarlo.
Un altro importante aspetto sono gli attacchi di asma a scuola. Un bambino asmatico su quattro riferisce di avere
avuto almeno un attacco di asma a scuola. In questo studio c’erano in tutto una cinquantina di attacchi d’asma
riportato. In un caso l’infermiera scolastica ha somministrato un broncodilatatore, evidentemente non era in Italia
perché non c’erano le scuole in cui Federasma sta facendo la sperimentazione, da noi l’infermiere scolastico è
una figura sconosciuta; in due casi l’insegnante gli ha detto “spruzzati” e l’ha fatto da sé; in tutti gli altri casi non è
stato fatto niente, quindi il bambino se l’è dovuta cavare da solo. Le nostre scuole sono largamente impreparate
ad affrontare queste cose.
Oltre allo studio HESE del 2004, c’è stato un altro studio in questo periodo, lo studio Search, che è stato finanziato
dal Ministero dell’Ambiente e riguardava soprattutto l’Europa dell’Est. Più recentemente c’è stata una fusione di
Arezzo 20 - 23 novembre 2012
91
21 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
questi due gruppi che, con l’aggiunta di altri, hanno formato lo studio SINPHONIE che copre gran parte d’Europa.
Si conclude fra quattro giorni e darà ulteriori informazioni. In realtà non mi aspetto grandi novità, sicuramente
confermerà i problemi che ci sono, potrà far vedere nuovi problemi, difficilmente ci darà delle soluzioni. Ha favorito
sicuramente la creazione di una comunità di gente preparata su questo argomento.
Noi ci siamo invece anticipati in parte con uno studio che si chiamava HESEINT, in cui abbiamo voluto provare a
sperimentare dei sistemi per migliorare la situazione e quello che abbiamo provato è una sveglietta come questa
qui, costa un centinaio di dollari, che misura anche l’anidride carbonica. Se raggiunge un certo livello di anidride
carbonica nell’aria, suona, fa una musichina. L’abbiamo data in alcune scuole e i bambini e gli insegnanti sono
entusiasti perché per la prima volta ‘vedono’ l’anidride carbonica. E’ una cosa che ha un impatto abbastanza
evidente dal punto di vista proprio dell’apprendimento, della comprensione dei fenomeni. Cosa succede se lo
mettete in una scuola? Qui vedete nella scuola di controllo quando arrivano la CO2 aumenta a dismisura fino
a raggiungere, probabilmente nell’intervallo, i 3000ppm. In questa scuola in cui è regolato a 2000ppm perché
altrimenti suonava troppo spesso e l’insegnante protestava, vedete che la differenza dei valori con finestre aperte
o chiuse. In questo modo se si fa la media settimanale, vedete che si riesce - e in questo caso era poi regolato
la settimana dopo a 1500ppm - a mantenere dei livelli di ventilazione migliori al costo però che tutte le volte che
si apre la finestra, se fuori fa freddo, i bambini si lamentano. In alcune scuole, soprattutto a Udine, l’insegnante
ha riferito che nel 50% dei casi in cui suonava non poteva aprire la finestra per il freddo per cui la soluzione è
parziale, ma è sicuramente accettata e gradita. La maggior parte della classe di controllo pensava che la qualità
dell’aria fosse uguale alla settimana prima, mentre invece solo alla metà gli sembrava uguale e quelli che si
trovavano molto meglio sono il doppio. Quindi sia come benessere che come qualità dell’aria, in aperto perché
lo vedevano, quindi ci può essere l’effetto del gadget, l’effetto del giochino, viene percepito e da parte degli
insegnanti ancora meglio.
Un altro intervento che può essere fatto è tramite le linee guida. Il Ministero della Salute, il CCM col suo gruppo di
esperti ha pubblicato delle linee guida per il mantenimento della qualità dell’aria nelle scuole e stiamo facendo uno
studio, qui vedete il nostro sito che si chiama scuolesane.it, in cui si sta verificando la possibilità di implementazione
di queste linee guida e l’efficacia poi in realtà sul campo.
In conclusione, il problema della qualità dell’aria nelle scuole è europeo. Ho visto anche diversi interventi sporadici
qua e là in Italia, in Toscana ce n’è stato uno qualche tempo fa, i problemi vanno risolti localmente, è ovvio, ma
vanno inquadrati in un contesto europeo se si vogliono affrontare.
Il problema non si risolve solo dall’esterno, non è un tipo di problema in cui arriva l’uomo con la tuta con la
macchinetta che la mette lì e risolve la cosa. Richiede un impegno combinato dei servizi di prevenzione, ma
anche dei servizi di cura del sistema sanitario, della scuola, delle comunità e delle famiglie.
La cosa buona è che questa combinazione è più facile che per altre arene, perché se voi andate col tabacco vi
trovate contro la Philip Morris, se provate con le bibite gassate ci sarà la Nestlè, con le macchine troverete la
Esso, nelle scuole troverete, problemi sicuramente, i sindacati in parte, i problemi economici, tutta una serie di
problemi normativi, però è sicuramente più possibile.
Fra i possibili benefici di un approccio di questo genere ci può essere maggiore salute e benessere; un migliore
apprendimento che se si migliorano le condizioni migliora anche la scuola (bisognerebbe parlare anche
dell’illuminazione e dell’acustica anche delle sale convegni); una consapevolezza e acquisizione di stili di vita
salutari, cioè affrontare questo problema, per esempio, con la sveglietta insegna ad aprire la finestra; un miglior
controllo dell’asma nei bambini e in definitiva dei migliori cittadini.
92
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
21 Novembre
Inquinamento dell’aria outdoor/indoor e salute: considerazioni per il risk management
"Le emissioni indoor dai prodotti di consumo e le rispettive politiche comunitarie"
Stylianos Kephalopoulos JRC Commissione Europea
Per quanto riguarda la qualità dell’aria indoor in Europa, ci sono varie attività in corso, sia in Italia che a livello
internazionale. Hanno cominciato di gran lunga andando indietro nel tempo già da 25 anni, però il riconoscimento
dell’importanza della qualità dell’aria negli edifici è stata messa in evidenza dal punto di vista politico europeo
solamente negli ultimi 10 anni, in particolare attraverso attività intraprese come il divieto di fumo nelle aree
pubbliche e la pianificazione delle azioni europee per l’ambiente e la salute nel periodo 2004-2010. Nell’ambito
di quest’ultimo hanno avuto inizio tanti progetti scientifici per l’inquinamento indoor. Al livello di tutti i paesi che
aderiscono all’Organizzazione Mondiale della Sanità è stato preso l’impegno nel contesto della dichiarazione
ministeriale di Parma nel marzo del 2010 di realizzare l’obiettivo prioritario regionale 3 “sulla prevenzione delle
malattie attraverso il miglioramento della qualità dell’aria all’aperta e quella indoor”. Il prossimo avvenimento, che
si può considerare come una sfida, è proprio l’integrazione delle politiche che riguardano l’outdoor e l’indoor in
relazione anche della prossima revisione della legislazione dell’area ambientale.
Per quanto riguarda la strategia europea per l’ambiente e la salute, per quanto riguarda l’inquinamento indoor,
lo scopo è di migliorare la nostra conoscenza per gli inquinanti indoor e gli impatti di salute associati e poi i modi
di ridurre questo impatto a partire da inquinanti che sono considerati prioritari. Ci sono due modi per fare ciò:
intervenire alla sorgente di ciò che emette questi inquinanti oppure prendere altre misure relative all’edificio come
l’ottimizzazione del suo disegno e dei materiali che si usano e adoperare delle pratiche di ventilazione appropriate
secondo l’edificio in cui si vive o lavora.
Un’importante componente comunque è quella di aumentare la conoscenza e l’informazione al pubblico perché
chiaramente negli spazi privati dove è difficile impostare delle regole da applicare tocca proprio a tutti noi di
osservare certe regole per poter contribuire al miglioramento della qualità dell’aria all’interno degli edifici in cui
viviamo e lavoriamo.
Per rafforzare sia la componente scientifica che quella politica, la Commissione Europea ha finanziato negli ultimi
anni vari progetti tra i quali due che hanno servito il primo (EnVIE) come un azione coordinativa a livello europeo
sull’inquinamento indoor e per gli effetti sulla salute ed un secondo (IAIAQ) progetto che nel 2011 ha fornito una
valutazione dell’impatto su piccola scala delle azioni europee sull’inquinamento indoor. Nel contesto della fase
della implementazione del programma quadro europeo per la salute pubblica e delle attività corrispondenti svolte
dall’Organizzazione Mondiale della Sanità vari progetti sono stati finanziati allo scopo di: (1) prioritizzare quali sono
gli inquinanti rilevanti negli spazi interni che provocano potenziali effetti sulla salute; (2) stabilire dei valori guida per
questi inquinanti prioritari; (3) monitorare in modo sistematico quali sono i modelli di esposizione in collegamento
con gli effetti sulla salute; (4) individuare e migliorare delle sorgenti che danno luogo all’inquinamento indoor; (5)
ridurre il livello di esposizione agli inquinanti indoor attraverso materiali e tecnologie innovative e (6) fornire degli
indicatori per monitorare la salute, il comfort e la sicurezza degli edifici. Ci sono poi alcuni indicatori, al primo posto
quelli sviluppati dall’OMS, che ogni 5 anni hanno lo scopo di monitorare l’andamento dell’inquinamento, dell’aria
indoor nelle scuole. C’è una lunga lista di progetti finanziati per l’inquinamento indoor nelle scuole perché, come
già menzionato dal Prof. Sestini, i ragazzi che frequentano la scuola sono più vulnerabili ad una esposizione
all’inquinamento indoor rispetto agli adulti.
Nel contesto del progetto EnVIE è stato fatto per la prima volta un collegamento sistematico degli effetti della
salute in relazione ai livelli di esposizione ai fattori fisici, chimici e biologici che occorrono negli spazi abitati, delle
sorgenti che danno adito a queste esposizioni e infine il collegamento con le politiche esistenti. C’è una lunga
lista di strumenti legislativi e di linee guida, sia a livello internazionale che a livello nazionale, relativi all’ambiente
costruito. EnVIE con il coinvolgimento di esperti a livello internazionale ha proposto una serie di attività e di
iniziative a livello sia politico che scientifico con lo scopo di produrre metodologie armonizzate e dati comparabili e
di qualità nei Paesi della Unione Europea per l’aria indoor. In questo contesto si sono proposti nel 2008 di iniziare
dei lavori di armonizzazione per quanto riguarda il testing dei materiali o i sistemi di monitoraggio della qualità
dell’aria negli spazi interni in Europa. Nel 2011, nel contesto del progetto IAIAQ, è stata fatta per la prima volta
in Europa una valutazione dell’impatto sulla salute dovuta all’inquinamento indoor. Questa valutazione e’ stata
fatta sulla base della metrica DALY applicata per diversi tipi di malattie, tipo asma, allergie, cancro ai polmoni
attribuibili all’inquinamento indoor, e per gli agenti e le sorgenti relative tipo i materiali e i prodotti dei consumatori,
le particelle, il monossido di carbonio, i composti volatili, ecc.
Per avere un’idea circa il contributo nella totalità di malattia attribuito all’area esterna rispetto a quella interna,
vedete qui una stima con riferimento all’anno 2005 in 31 Paesi europei in cui vediamo che la componente dovuta
all’inquinamento indoor è significativa. Lo stesso progetto ha stimato i potenziali benefici che si potrebbero trarre
Arezzo 20 - 23 novembre 2012
93
21 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
sulla salute pubblica al decimo anno della implementazione di 11 azioni a livello politico europeo che sono relative
alla qualità dell’aria indoor come quella di integrare aspetti di qualità dell’aria indoor alla Energy Performance
Building Directive oppure delle line guida di ventilazione basati sulla salute, etc. La necessità di integrare aspetti
di qualità dell’aria indoor sulle procedure esistenti che riguardano la performance di edifici dal punto di vista
energetico, è una componente importante e diventa anche molto attuale perché con le misure che si cerca di
applicare ultimamente per ridurre il dispendio energetico negli edifici si rischia, come è stato menzionato prima,
di finire come vent’anni fa quando nei Paesi nordici, specialmente attraverso la sigillatura degli edifici, si sono
osservati i primi sintomi massivi di salute dovuta alla pessima qualità dell’aria interna negli ambienti lavorativi.
Attualmente è in fase di finalizzazione il framework di armonizzazione della valutazione dal punto di vista di salute
delle emissioni dai prodotti di costruzione (EU-LCI) mentre un altro framework di armonizzazione che riguarda
l’etichettatura dei materiali che si usano negli spazi interni è stato pubblicato nel maggio scorso come rapporto
n. 27 nella serie dei rapporti che sono stati pubblicati dall’azione collaborativa europea su “aria urbana, ambiente
indoor ed esposizione umana” (ECA). Il fatto che ha dato adito a questa armonizzazione è che nonostante ci
siano diverse tradizioni da tempo in atto in vari Paesi europei per quanto riguarda metodologie per valutare le
emissioni di materiali anche dal punto di vista della salute, ci sono una serie di argomenti che fanno sì che la
valutazione finale dal punto di vista della salute può essere divergente. Era quindi necessario creare un framework
armonizzato che permetta gradualmente nel tempo di tenere in considerazione e creare i presupposti per una
implementazione armonizzata del lavoro di standardizzazione o dei metodi scientifici per i quali è stato raggiunto
un accordo o sono rigorosamente validati, fino al trattamento progressivo degli altri inquinanti tipo gli SVOCs che
sono emergenti oppure la valutazione sensoriale delle emissioni dai prodotti di costruzione per la quale non è
stato ancora possibile raggiungere un consenso scientifico.
Questo framework rappresenta un sistema flessibile che permette sia nel mondo industriale che produce i materiali
di costruzione ed altri prodotti di consumo sia ai Paesi membri che effettuano il monitoraggio della qualità dell’aria
negli spazi interni di adattarsi gradualmente e infine usare le stesse metodologie armonizzate. In questo modo
si eviterebbe una situazione tipo quella riscontrata in Germania e Francia nei quali il sistema di valutazione a
livello tossicologico degli effetti sulla salute dell’emissione di circa 170 composti dai materiali di costruzione negli
ambienti interni è diverso. Nella tabella possiamo osservare che, a causa della diversa metodologia seguita
per poter ricavare i livelli di soglia tossicologica (cioè quei livelli di esposizione che una volta superati possono
provocare effetti sulla salute), per alcuni dei composti presi ad esempio i valori sono uguali, mentre per altri ci sono
dei valori che possono essere anche ordini di grandezza diversi. Non è ammissibile chiaramente che l’impatto
della salute di un cittadino in Germania, rispetto ad uno in Francia, può essere sopravalutato o sottovalutato
quando essi siano esposti alle stesse emissioni chimiche dai diversi materiali usati negli spazi indoor. Questo
è stato lo stimolo che ha provocato questa armonizzazione la cui fase preparatoria sta finendo ora insieme con
un’altra componente molto importante che riguarda un framework armonizzato dei criteri e dei protocolli per il
monitoraggio della qualità dell’aria indoor. Il 17 e 18 dicembre del mese prossimo a Bruxelles avremo la possibilità
di presentare ai Paesi membri e nell’industria questi risultati.
Senza volere entrare in dettaglio, qui viene presentato lo schema del monitoraggio armonizzato con le diverse fasi
dalla definizione dell’obiettivo del monitoraggio indoor, dalla pianificazione dello studio, dalla scelta dei metodi di
analisi, il modo di raccogliere e valutare i dati e infine quello di riportare i dati.
Nell’ambito del progetto IAIAQ, esistenti strumenti legislativi, progetti e azioni relativi alla qualità dell’aria indoor
che sono stati finanziati negli ultimi 10 anni sono stati valutati per quanto riguarda i benefici sulla salute quando
essi saranno implementati in pieno. Mano a mano che andiamo verso il basso di questa tabella, i diversi strumenti
e gli atti legislativi non sono più valutati indipendentemente ma in combinazione e in basso vediamo che il più
grande beneficio a lungo termine potrà essere ottenuto se si dovessero integrare aspetti di qualità dell’aria interna
sul lato climatico europeo, sul pacchetto di energie rinnovabili e sulla Energy Performance Building Directive.
Per quanto riguarda i prodotti, tutto quello che è stato menzionato finora, cioè le tecniche di testare i materiali
per quanto riguarda la loro emissione ed i loro effetti sulla salute, sono ben stati consolidati gli standard per le
emissioni dai materiali di costruzione, ma abbiamo un grande gap per quanto riguarda prodotti di consumo che si
usano anche negli ambienti domestici. E’ stato allora finanziato due anni fa il Progetto EPHECT che ha proprio lo
scopo di creare prima di tutto nuovi dati a livello europeo sulle emissioni dai prodotti di consumo ed un framework
per quanto riguarda il testing delle emissioni di questi prodotti come lavoro prenormativo alla standardizzazione
e delle linee guida per ridurre i rischio di potenziali effetti sulla salute.
15 classi di prodotti di consumo sono stati prioritizzati nel contesto del progetto EPHECT le quali includono un
lungo elenco di prodotti che troviamo abitualmente nelle nostre case, tipo quelli per la pulizia ad uso domestico.
Sono stati individuati gli inquinanti principali che sono ben conosciuti nell’essere associati a dei potenziali effetti
sulla salute, ma anche alcuni emergenti. Inoltre, molto importante, per la prima volta è stato fatto a livello europeo
un’indagine di mercato per poter individuare gli scenari d’uso di questi prodotti ed anche le abitudini delle persone,
perché questo serve per poter associare il reale livello di esposizione alle emissioni chimiche dai prodotti di
94
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
21 Novembre
consumo con l’effetto sulla salute. Un’altra componente è quella di fare una serie di esperimenti, di vedere il
comportamento delle emissioni rispetto a quelle classiche dei materiali di costruzione. Tutto questo arricchirà una
banca dati che è stata già sviluppata nel contesto del progetto BUMA due anni fa, che era proprio basata sulla
emissione dai materiali di costruzione, la quale nell’ambito del progetto EPHECT sarà estesa per includere anche
emissioni dai prodotti di consumo in generale.
Dopo un lungo periodo in cui l’inquinamento dell’aria interna ha cambiato parecchie volte contesto e che nello
stesso tempo ha avuto beneficio sia dal progresso scientifico, inizialmente prettamente negli spazi occupazionali,
cioè dove ci sono i lavoratori, le industrie, ecc. e poi pian piano è stato esteso agli spazi tipo gli uffici, le scuole,
negli spazi domestici seguendo un approccio molto più rigoroso dal punto di vista della valutazione dell’aspetto
della salute. In parallelo ha seguito il progresso tecnologico, e mentre prima si parlava della soluzione facile cioè
quella di aprire le finestre (che non è sempre ideale considerando le varie zone climatiche in Europa e oltretutto
in questo periodo in cui i requisiti del risparmio energetico sono aumentati) gradualmente vi è stato un cambio
del paradigma che ora promuove l’intervento sulle sorgenti e il loro controllo. E’ stato poi sviluppato un approccio
politico che ha spostato il paradigma dal considerare l’inquinamento degli spazi interni da una semplice questione
del consumatore ad una questione di salute pubblica e questo chiaramente tenendo sempre in considerazione sia
la responsabilità dei Paesi membri ma anche la questione della sussidiarietà a livello europeo. Ha dato oltretutto
adito a considerare l’importanza che entriamo in un’era in cui gli aspetti di inquinamento indoor devono essere
trattati in modo olistico.
Adesso ci possiamo aspettare che il buon esempio, i buoni risultati ottenuti, gli standard internazionali esistenti
che riguardano il testing delle emissioni di materiali e dei prodotti di costruzione si estenderanno anche a quelli
che riguardano le emissioni dei prodotti di consumo.
Dopo essere riusciti a sviluppare i framework di armonizzazione per quanto riguarda il testing delle emissioni e la
loro valutazione dal punto di vista della salute ed il controllo della qualità dell’aria negli spazi interni, la sfida che
abbiamo ora davanti a noi è quella della loro efficace implementazione.
Tocca ai Paesi membri di dare veramente una mano ed anche all’industria che deve seguire le raccomandazioni.
E tutto deve essere fatto in una maniera olistica perché dobbiamo tenere in considerazione che l’inquinamento
indoor taglia in modo trasversale esistenti strumenti legislativi e standards che sono relativi all’ambiente degli
edifici e sta anche tagliando in modo trasversale aspetti come quello della sicurezza, la stabilità degli edifici, la
salute, l’efficienza energetica e la sostenibilità.
Concludendo, vorrei sottolineare l’importanza che questo processo di integrare gli aspetti di ambiente e salute
sia avviato in tutti i paesi europei i quali devono seguire da vicino quello che a livello europeo si sta sviluppando
per quanto riguarda in particolare i processi di armonizzazione relativi alla qualità dell’aria indoor. Abbiamo già
tantissimi contributi dagli esperti europei ed internazionali però a livello politico si auspica di stabilire dei rapporti
molto più vicini con i paesi membri come Italia perché questo aiuterebbe molto ad avere anche in Italia il beneficio
degli strumenti armonizzati che si sono preparati recentemente.
Domanda di Piersante Sestini (Università di Siena): Ha insistito molto sul controllo delle emissioni, però per
esempio nella scuola la fonte delle emissioni sono i bambini. In gran parte la CO2 la fanno i bambini, il rumore lo
fanno i bambini quindi anche la parte che riguarda poi lo smaltimento delle emissioni, per esempio la ventilazione
meccanica piuttosto che non aprire le finestre o i sistemi di isolamento acustico o di attenuazione dei rumori.
L’approccio olistico può comprendere tutto questo aspetto, rimane importante che se un prodotto è tossico
ovviamente lo si debba sapere.
Come sapete è già in corso il più grande progetto europeo (SINPHONIE) che riguarda l’inquinamento indoor
in correlazione anche con l’outdoor per le scuole europee, il quale approfondisce molto tutti gli aspetti che
possono dare adito a problemi di salute sia ai ragazzi che frequentano la scuola ma anche agli insegnanti.
Questo progetto proporrà nell’arco dei prossimi 2-3 mesi diverse misure e linee guida che possono migliorare
l’ambiente scolastico, tenendo chiaramente in considerazione in modo pragmatico cosa si può tenere e cosa no.
Nessuno mai può proclamare di riuscire di abbattere ogni fonte di inquinamento. Il contesto da una parte è quello
di produrre dati confrontabili e di buona qualità usando metodologie comuni, d’altra parte di migliorare sempre
la qualità diminuendo progressivamente le emissioni indoor con una maggiore attenzione alle loro sorgenti. Un
buon esempio in questo senso rappresenta la Finlandia la quale nonostante non possiede un sistema obbligatorio
nazionale ma solamente volontario per l’etichettatura dei prodotti di costruzione, le industrie si adeguano e anche
a causa di concorrenza nell’arco del tempo stanno migliorando i loro prodotti. L’importante è continuare questo
processo e dare tante istruzioni, perché nella scuola sono i bambini, sono gli insegnanti, sono le persone addette
alla pulizia, sono diversi attori. In effetti proprio in questo periodo si stanno elaborando dei piccoli opuscoli per
divulgare metodi molto semplici, comprensibili ai ragazzi, agli insegnanti o anche a quelle che sono le persone
responsabili degli edifici delle scuole. Cosa devono fare, cose semplici, per poter migliorare la qualità dell’aria
oltreché cose molto più specifiche da fare a lungo termine per migliorare lo stesso ambiente scolastico. Quindi
Arezzo 20 - 23 novembre 2012
95
21 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
penso che tra poco qualche buon consiglio su questo sarà a disposizione di tutti.
Domanda di Ivo Allegrini (Ministero dell’Ambiente): Complimenti per la presentazione. Sono sicuro, perché
conosco la capacità di trascinamento del JRC, che queste ricerche in Italia troveranno naturalmente la dovuta
collocazione. Io invece mi preoccupo di un’altra cosa. Non sono un grosso esperto nell’inquinamento indoor
perché la mia attività professionale è stata più che altro sull’ambiente esterno, sull’inquinamento atmosferico
esterno. Quello che ho imparato è che l’inquinamento atmosferico ambientale è molto democratico, mentre credo
che l’inquinamento interno lo sia un po’ meno. Tra tutte le variabili considerate probabilmente una variabile socioeconomica, che sicuramente va ad influire sullo standard della qualità negli ambienti interni, dovrebbe essere
presa in considerazione. La mia domanda, che poi può anche essere motivo di discussione per questa sessione,
è nei programmi framework questo aspetto è stato considerato oppure lo dobbiamo prendere in considerazione
in funzione dei risultati che avremo poi dai vari progetti?
In modo implicito in questa fase no, però ritengo che sia un aspetto importante che riguarda non solamente
l’impatto dell’inquinamento indoor o dell’inquinamento atmosferico ma in tutti i settori scientifici a supporto
delle politiche Europee. Colgo l’occasione di informarvi che una valutazione dell’impatto socio-economico
si sta progressivamente incorporando in tutte le aree della legislazione Europea prima ancora di decidere di
intraprendere strade alternative deviando da quello che si sta facendo in certe aree. Questo è un aspetto molto
importante e chiaramente riguarda anche le politiche relative all’inquinamento indoor/outdoor.
96
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
21 Novembre
Inquinamento dell’aria outdoor/indoor e salute: considerazioni per il risk management
"Strategie nazionali per la prevenzione del rischio indoor"
Annamaria De Martino Ministero della Salute
Innanzitutto grazie per avermi dato la possibilità di illustrare quello che il Ministero della Salute sta portando avanti
da 10 anni. I relatori prima di me mi hanno aiutato molto nell’esposizione della mia relazione. Prima di entrare nel
merito di quella che è stata la strategia e il programma nazionale di prevenzione negli ambienti indoor, mi soffermo
velocemente nell’evidenziare alcuni aspetti importanti, sia per il risk assessment che per il risk management, sui
quali tutte le iniziative del Ministero hanno tenuto considerazione.
L’indoor è un problema globale, per cui vengono considerati più aspetti. L’indoor è sicuramente un problema di
sanità pubblica complesso.
Questa diapositiva evidenzia quello che negli anni gli studi di settore hanno messo in risalto, cioè che l’inquinamento
indoor è determinato soprattutto da sorgenti interne. Il 77% delle fonti di inquinamento sono nell’ambiente confinato;
di questi il 53% della fonte di inquinamento deriva da una scarsa ventilazione, da una inadeguata ventilazione; poi
ci sono le altre fonti interne (15%), le fonti esterne (10%), le fonti derivate dall’inquinamento microbiologico (5%)
ed infine dai materiali di costruzione (4%). Questo è importante per capire nelle strategie di prevenzione come
agendo sulla ventilazione si può ridurre notevolmente l’inquinamento indoor, oltre che agendo sulle fonti. Infatti
gli stessi studi di settore hanno dimostrato che quando la ventilazione è inadeguata e ci sono sorgenti interne, gli
inquinanti degli ambienti indoor possono aumentare anche 10-20 volte rispetto all’inquinamento esterno.
Con quest’altra diapositiva si evidenzia come siano tante le fonti di inquinamento e tanti siano gli inquinanti (chimici,
fisici, biologici), come una fonte possa dare origine a più tipi di inquinanti, ma anche come un inquinante può essere
emesso da più fonti. E’ il caso dei composti organici volatili che, essendo emesso da più fonti, è particolarmente
diffuso negli ambienti confinati. Questa diapositiva evidenzia anche come un inquinamento particolarmente
caratteristico degli ambienti confinati è quello proveniente dalla combustione, quindi dal riscaldamento, dalla
cottura dei cibi ed è legato all’attività umana.
Le cause cono complesse per cui l’approccio è intersettoriale, riguarda sia la progettazione degli edifici, compresa
l’area di insediamento che può determinare l’inquinamento dall’esterno all’interno, sia l’utilizzo di materiali da
costruzione, sia gli impianti, ma anche dall’esercizio degli edifici e quindi quelle che sono le esigenze di risparmio
energetico che portano ad una scarsa ventilazione, ma anche le operazioni di pulizia e di gestione di manutenzione
degli ambienti.
Una componente importante resta comunque l’attività degli occupanti che incide notevolmente nell’inquinamento
indoor. Gli occupanti con le loro attività sono i principali soggetti esposti all’inquinamento e quindi ne subiscono
gli effetti, ma ne sono anche i principali artefici.
Affrontare il problema dell’indoor significa anche affrontare il problema del microclima e quindi c’è una componente
interdisciplinare che deve intervenire nelle strategie di prevenzione. Tutti questi aspetti ci dimostrano che per
intervenire bisogna agire sulle caratteristiche costruttive degli edifici, sulle attività che producono inquinanti,
sull’inquinamento esterno, sulle caratteristiche di esercizio degli edifici, sull’aerazione degli ambienti e quindi
sul microclima. Come vedete il problema è molto complesso, ma c’è un altro aspetto importante ed è quello
proprio che riguarda la salute umana. Rispetto all’inquinamento outdoor, l’inquinamento indoor è determinato
dalla concentrazione dell’inquinante e dal tempo di esposizione che negli ambienti confinati è abbastanza lungo.
Abbiamo delle esposizioni croniche e abbiamo degli effetti cronici. Questo significa che dobbiamo considerare nel
risk assessment l’esposizione personale dell’individuo quindi la permanenza nell’ambiente confinato, ma anche
l’esposizione cumulativa negli altri ambienti e nell’ambiente esterno.
Esistono poi, questo sempre per la prevenzione, da tener conto di quelli che sono i soggetti più suscettibili,
cioè quelle persone che anche a livello di inquinamento che non producono effetti sulla salute dell’individuo
normale, invece hanno effetti sulla salute. Questi sono le persone con asma e allergie, con malattie respiratorie,
con problemi immunitari, con problemi cardiovascolari e i bambini. Tutti questi aspetti ci fanno capire che sono
necessarie politiche intersettoriali che agiscano su tutti gli aspetti che abbiamo considerato, ma soprattutto
politiche che incidano sui comportamenti degli occupanti. Sicuramente una strategia importante di prevenzione è
l’informazione e la comunicazione.
In Italia sull’inquinamento indoor abbiamo delle iniziative che però ancora sono poche, nel senso che quello
che manca è proprio una normativa organica sulla qualità dell’aria (standard, valori guida) e sicuramente uno
strumento molto importante è il regolamento locale di igiene, il regolamento comunale, perché è lo strumento
che ci fornisce le norme, le regole per la costruzione degli edifici e gli indici igienico-sanitari di questi ambienti. E’
quindi giusto intervenire su questo strumento, aggiornarlo e completarlo perché questa normativa venga tenuta
presente a livello comunale, ma a livello anche di chi opera, progetta e realizza gli edifici.
Arezzo 20 - 23 novembre 2012
97
21 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
L’attività del Ministero è iniziata una decina di anni fa proprio tenendo conto di questa mancanza di una normativa
organica. E’ cominciata con la costituzione di un Gruppo di Studio nazionale, la Commissione Indoor, costituita nel
‘98. La prima cosa che fece questa commissione fu un indagine nazionale sul territorio per verificare qual’era la
situazione italiana rispetto al problema dell’inquinamento indoor. Successivamente, sulla base di questa indagine
conoscitiva, sono state messe a punto delle linee di indirizzo, una normativa in alcuni settori e degli accordi tecnici
con le autorità locali con regioni, progetti di ricerca e iniziative anche di Politica sanitaria di supporto. Questa
indagine si sovrappone a quella portata avanti a livello europeo recentemente perché si cercò di stimare l’impatto
sulla salute ed anche il costo dell’inquinamento indoor. Questa indagine non tiene conto degli effetti indiretti e
focalizza l’attenzione soltanto su quelli che sono gli inquinanti che danno un effetto più grave sulla salute e in cui
all’epoca esistevano delle evidenze molto concrete sulla relazione esposizione/effetto. E’ un indagine quindi che
non dà proprio la stima completa dell’impatto sulla salute che sicuramente è più alta, però indica delle priorità.
Le priorità sono sicuramente l’esposizione ad allergeni, al radon al fumo di tabacco ambientale, al monossido di
carbonio e al benzene. Sulla base di queste priorità che individuano i bisogni e sulla base anche di tutte le altre
evidenze venute fuori da questa indagine, fu messo a punto documento che diventa un accordo Stato/Regioni
sulla tutela della salute negli ambienti confinati. Questo documento ha un grande valore perché nel 2001 diventa
un accordo del Ministero della Salute con le Regioni, questo significa che le Regioni si impegnano a recepire
nei propri regolamenti quanto è riportato in questo documento. Questo documento focalizza per la prima volta
l’attenzione sul problema degli ambienti confinati, sulla qualità dell’aria indoor. Fino a quel momento si è parlato
sempre e soltanto della qualità dell’aria esterna, quindi il valore principale di questo documento, al di là del fatto
che non è stato recepito dalla totalità delle regioni, è che finalmente ha posto il problema sulla qualità dell’aria
indoor.
Il documento definisce e stabilisce delle linee operative nazionali da mettere in atto ai vari livelli. A livello centrale,
a livello regionale, a livello locale per realizzare questo programma nazionale che prevede appunto un approccio
globale, interdisciplinare, intersettoriale che coinvolga tutti i settori, non solo quello sanitario, ma anche quelli che
direttamente e indirettamente incidono sull’inquinamento degli ambienti confinati. Tra i principi su cui si basano
queste linee c’è quello di garantire benessere e salute negli ambienti indoor, attenzione particolare ai gruppi più
suscettibili, garantire sostenibilità e produttività degli ambienti indoor, prevenzione scientificamente giustificata e
partecipazione dei cittadini alla gestione delle politiche di intervento preventivo.
Le azioni che propone sono sicuramente azioni di tipo normativo e tecnico e tra queste dà delle priorità che
purtroppo ancora non sono state realizzate. La necessità di fissare degli standard, dei valori guida per la qualità
dell’aria nelle scuole e nelle abitazioni perché sono gli ambienti in cui le persone sono maggiormente esposte,
in cui passano più tempo e soprattutto le persone più vulnerabili sono esposte in questi ambienti. Poi vengono
indicati, in base appunto all’indagine nazionale, degli interventi da fare su specifici inquinanti, tra questi il fumo
passivo, il radon, gli allergeni, la legionella, ecc. E quindi altri interventi di tipo formativo, di comunicazione e un
programma di ricerca. Di tutte queste indicazioni, che poi sono sviluppate in dettaglio nel documento, sono state
portate avanti non tutte, però c’è stato un supporto ulteriore da parte del Ministero per garantire l’applicazione di
quanto era contenuto nelle linee guida, anche la Commissione Indoor ha dato origine a delle ulteriori linee guida
in alcuni settori specifici che riguardano i requisiti degli ambienti per fumatori.
Il documento tecnico prodotto dalla Commissione ha dato origine a un DPCM per l’applicazione della legge
di divieto di fumo in tutti i locali pubblici e quindi dà i requisiti delle zone fumatori e i requisiti degli impianti di
climatizzazione. Poi una serie di documenti e di accordi per la prevenzione della legionella, un Piano Nazionale
per il Radon - inquinante molto importante degli ambienti confinati che causa il tumore al polmone - che è diventato
un progetto finanziato dal CCM nonché un accordo per i protocolli tecnici di manutenzione predittiva sugli impianti
di climatizzazione.
L’ultimo è un accordo, citato anche dai precedenti relatori, che fornisce linee di indirizzo per la prevenzione
nelle scuole dei fattori di rischio indoor per asma ed allergia. E’ un documento importante perché fornisce delle
indicazioni operative per realizzare degli ambienti scolastici che siano privi di allergeni e che quindi limitino
l’esposizione dei bambini allergici agli allergeni, ma contiene anche indicazioni per ridurre l’inquinamento dell’aria
e quindi garantire ambienti scolastici che siano salubri per tutta la popolazione scolastica. Oltre a fornire proprio
delle linee operative tecniche per ridurre le principali fonti di inquinamento all’interno della scuola, per esempio
dà delle indicazioni di buona pratica per le operazioni di pulizia, indicazioni di buona pratica per eliminare muffe
e funghi, dà anche delle linee operative da attuare a livello nazionale per realizzare concretamente ambienti
scolastici che siano sani e sicuri per tutta la popolazione scolastica.
Accanto a questi che sono documenti tecnici che forniscono proprio delle indicazioni concrete, c’è stato anche
un intervento politico perché il Ministero della Salute con la modifica del titolo V° della Costituzione ha più un
compito di indirizzo e di coordinamento, quindi promuove la salute piuttosto che fare delle leggi. Con questo
nuovo compito del Ministero è necessario che porti avanti una politica che coinvolga anche i settori non sanitari
per creare la salute in tutte le politiche, quindi un coinvolgimento di tutte le forze sociali delle altre istituzioni.
98
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
21 Novembre
Ciò ha portato ad una serie di iniziative tra le quali il Piano Sanitario Nazionale, un documento programmatico
che dà indicazioni alle Regioni su quelli che sono gli obiettivi di salute del Sistema Sanitario Nazionale. Questo
Piano Nazionale del 2006-2008 per la prima volta pone l’attenzione all’indoor, ma soprattutto recepisce quella
che è la Strategia Europea Ambiente e Salute (SCALE) e quindi dedica un intero capitolo a questi argomenti che
le Regioni hanno recepito nei loro piani regionali. Poi c’è Guadagnare Salute che è un progetto nazionale che
ha proprio come obiettivo quello di sviluppare campagne di comunicazione per promuovere la salute in tutte le
politiche e tra le azioni portate avanti ci sono campagne di comunicazione per il fumo passivo.
Infine vi è l’alleanza GARD Italia, di cui ci ha parlato anche il Prof. Viegi. Nell’ambito della GARD Italia è stato
costituito un gruppo di lavoro che è composto da esperti, sia del mondo sanitario che da architetti, impiantisti ed
anche da esperti della Commissione Europea. Lo scopo di questo gruppo è mettere a punto un documento che
servisse per fare un quadro della situazione delle scuole italiane: qual è l’esposizione degli studenti agli inquinanti
negli ambienti scolastici, quali gli effetti sulla salute, quali indagini sono state condotte a livello nazionale su questo
problema, quali sono i problemi pratici che ostacolano l’attuazione di una buona politica per la qualità dell’aria. Un
documento conoscitivo che ci ha permesso di capire che in Italia in realtà non sono stati condotti molti studi sulla
qualità dell’aria delle scuole e sugli effetti sulla salute degli studenti. Sicuramente uno studio molto importante
è quello di cui vi parlerà la collega del Ministero dell’Ambiente, lo studio SEARCH, però al di là di questo e di
altri studi ancora c’è da indagare. Esaminando l’ultima indagine condotta dal Ministero dell’Istruzione, ha però
evidenziato che la situazione degli edifici in Italia non è assolutamente delle migliori, che esistono grossi problemi
igienico-sanitari, che gli edifici risalgono agli anni settanta, che esistono problemi soprattutto di ventilazione.
Prima si è parlato dell’attività degli studenti, ma in realtà l’inquinamento delle scuole viene creato soprattutto da
una cattiva e inadeguata ventilazione. Questo documento evidenzia anche quelle che sono le carenze normative,
quello che bisogna migliorare a livello della normativa. Ci sono presidi che vogliono intervenire quando c’è un
bambino allergico a scuola e voi sapete che l’allergia nei bambini è aumentata notevolmente in questi ultimi anni,
per cui è molto facile che a scuola ci sia un bambino allergico e i presidi non sanno che cosa fare, che iniziative
mettere in atto. Esiste quindi un problema anche di competenze e questo documento ha evidenziato le carenze
sia normative sia di compiti e fornisce anche delle indicazioni operative. E’ un documento che verrà presentato
ufficialmente il giorno 28 novembre 2012 all’Assemblea della GARD Italia che come è stato detto è un’Alleanza
Nazionale contro le malattie respiratorie croniche composta da associazioni scientifiche, associazioni mediche,
ma anche dalle associazioni volontarie, le associazioni di pazienti. Nasce da un’iniziativa dell’OMS ed il Ministero
coordina proprio per garantire la lotta alle malattie respiratorie ed allergiche.
Concludo dicendo che compito del Ministero e delle Istituzioni è anche far si che ci sia una cultura sul problema
e cercare di creare contatti con chi segue questi problemi, con gli esperti, con il mondo scientifico, ma anche
con la società civile. Tra le iniziative che questo gruppo specifico della GARD ha portato avanti in questi due
anni di attività è creare un network tra esperti. Visto che all’interno della GARD ci sono esperti di settore che
trattano questo problema delle allergie nelle scuole e c’è anche un componente della Commissione Europea,
diciamo che questi esperti insieme a quelli dell’Istituto Superiore di Sanità e dell’ISPRA si è creato una specie
di network e di collaborazione che sicuramente potrebbe concludersi con la formazione di un tavolo tecnico
interistituzionale e coinvolgendo questi vari esperti portare alla pubblicazione di un documento di linee guida
che fissi standard e valori guida di qualità dell’aria nelle abitazioni, nelle scuole. Questa sarebbe sicuramente
l’iniziativa più importante, fattibile perché l’OMS ha messo a punto recentemente due documenti di linee guida,
sia per l’inquinamento chimico che per la riduzione di umidità e muffe negli ambienti confinati.
Arezzo 20 - 23 novembre 2012
99
21 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
Inquinamento dell’aria outdoor/indoor e salute: considerazioni per il risk management
"Variabilità climatica e microclimatica come fattore di rischio ambientale per le strutture per l’assistenza
sanitaria"
Umberto Moscato Università Cattolica del Sacro Cuore di Roma – Istituto di Igiene
La motivazione principale di questa presentazione è data dall’incertezza, che ad oggi ancora in effetti esiste,
prima di tutto sulla stima di quali saranno gli effetti od i danni derivanti dalle variazioni climatiche e la seconda
dalla “inconsapevolezza” delle conseguenze che questo tipo di impatto potrebbe avere sulle strutture sanitarie.
Ringraziando il Prof. Viegi e la Dr.ssa Sinisi dell’avermi assegnato questo “ingrato compito”, di descrivere i
possibili fattori di rischio ambientali, derivanti dalla variabilità climatica e microclimatica, correlati con le strutture
di assistenza sanitaria, è necessario puntualizzare sin dall’inizio che, nel mentre tale problema solleva notevoli
interessi in molte aree, non solo industrializzate, del Globo, ove ampia e la sensibilità alle problematiche
meteoclimatiche ed al loro impatto, scarso effetto ha in Italia, prevalentemente nella componente di approccio
“culturale e sociale” al problema, ovvero si ha in Italia una scarsa sensibilità agli effetti ed alle conseguenze che
la variabilità climatica potrebbe generare verso ospedali od altri ambiti assistenziali sanitari.
Per cercare di dare una risposta al mandato a me assegnato dai moderatori della sessione, il primo aspetto
fondamentale da tenere presente, ci porta indietro nel tempo, cioè a ridefinire un concetto che oggi esplicitiamo
con il termine di “Evidence based medicine” o di “Medicina Basata sull’Evidenza”, ovvero la necessità di esprimere
concetti od operare in ambito medico-scientifico solo sulla base di comprovata esperienza pratica sperimentale e
non solo o non solamente sulla base di assunti teorici non dimostrati. In realtà già Euclide ci aveva già espresso
circa duemila anni fa lo steso concetto eppure, poiché siamo usi a essere creativi ma non operativi, e quindi a dar
seguito a questo aspetto di creatività, cioè a ipotizzare e pensare le cose prima ed a organizzarci per eseguirle
dopo, spesso non abbiamo modificato nulla nel nostro comportamento scientifico da duemila anni a questa parte,
ovvero da quando già Euclide esprimeva: “di dimostrare con fatti gli eventi per non essere smentiti solo da parole”.
Le variazioni climatiche sono insite all’interno della storia, della struttura e dell’evoluzione della Terra. Il loro
verificarsi può essere sì il frutto o, meglio, la conseguenza nefasta di un intervento di natura antropica, ma il
loro manifestarsi può essere anche l’effetto di un andamento ciclico del tutto naturale. Esiste in tal senso ampia
letteratura scientifica. In tal senso basti citare i risultati ottenuti con i carotaggi del ghiaccio polare, atti a dimostrare
come già nella pregressa, anche lontana per milioni di anni, “storia del Pianeta Terra” ovvero sin dal Pangea,
esistano mutazioni cicliche del clima. Pertanto, ciò che al limite noi riusciamo a determinare od indurre non è
che il “peggiorare” tali variazioni cicliche, cioè l’intervento antropico dell’uomo con l’inquinamento delle matrici
ambientali non determinerà il “se si verificheranno variazioni climatiche anche potenzialmente catastrofiche” quanto
probabilmente “quando” ciò accadrà, condizione a tutt’oggi non prevedibile. Quindi “quando” si verificheranno i
fenomeni di variazione meteoclimatica, non “se” si verificheranno.
Molti e differenti sono i modelli previsionali, gli scenari, del verificarsi, e delle relative conseguenze, delle variazioni
meteo-climatiche. Sono state ipotizzati persino modelli matematici in cui potrebbero verificarsi condizioni, in quasi
tutta la Terra, di variazione media della temperatura di oltre 5°C. In un caso come questo, con lo scioglimento dei
ghiacci e la variazione della componente idrica pluviale, molti dei territori presenti in riva ai differenti mari e, con
questi tutte le città e le strutture spesso edificate proprio sulle zone costiere dei paesi bagnati dal mare, sarebbero
invasi dalle acque e sommersi (ad esempio questo è quanto accadrebbe a buona parte dell’Italia, in cui per tali
variazioni di temperatura, è stato ipotizzata una perdita del 22% del territorio costiero, con tutto ciò che contiene
od ha in superficie..), come per altro ribadito anche nell’ultima Conferenza Mondiale sul Futuro della Scienza.
Una variazione importante del meteoclima outdoor potrebbe logicamente generare una conseguente variazione
microclimatica indoor, tanto nelle strutture residenziali e lavorative quanto nelle strutture sanitarie. In particolare
queste ultime, sebbene dedicate proprio alla “cura” delle persone, potrebbero non essere pronte realmente,
dal punto di vista strutturale ed impiantistico, ad accettare pazienti che hanno effetti sulla salute derivanti da
variazioni meteoclimatiche (ad esempio le ondate di calore), in forza del fatto che molte strutture emergenziali,
benchè dotate di ambienti climatizzati, ad esempio, non ne abbiano nei reparti di degenza. Anche per l’Italia
i modelli previsionali sul meteoclima prevedono, per i prossimi 50 anni, scenari di danni ambientali, territoriali
e sulla popolazione di tutti i tipi ed a tutti i livelli, compresi ambiti e rischi di tipo geosismico, geomagnetico e
idrogeologico. Si pensi solo al recentissimo aggiornamento sulla stima di quelli che dovrebbero essere i terremoti
nei prossimi 10 anni in Italia: in teoria sismi di variabile entità dovrebbero colpire non solo le zone già colpite da
sisma negli ultimi decenni, ma anche altre aree ad oggi non perfettamente prevedibili, ma vicine alle precedenti.
Quindi, pressoché poche zone del territorio italiano sarebbero esenti da rischio sismico maggiore.
La quantità di anidride carbonica, rilevata a Monte Cimone dal CNR, sta aumentando sempre di più spiegando
come l’effetto, che molti definiscono serra, stia a sua volta incrementando la temperatura media. Da ciò ne derivano
100
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
21 Novembre
scenari di “tropicalizzazione” climatica delle nostre latitudini con conseguenze logiche ma spesso imprevedibili nei
tempi e nelle modalità di diffusione, ad esempio: all’espansione delle zanzare tigre ed altri tipi di vettori che, con
questa modalità, possono trasmettere malattie tropicali. Tant’è vero che vi sono stati casi, recentemente, non solo
di artropodi vettori in Italia che hanno trasmesso il virus West Nile, come altri virus sino ad oggi di “pertinenza”
delle regioni tropicali ed a noi sconosciuti.
Analizzando invece le mappe di ultima stima italiana sui rischi di inondazione e frane è possibile notare molto
bene, come apparentemente non ci sia un territorio che sia esente da questo tipo di rischio. Una stima piuttosto
grossolana, perché paradossalmente in Italia appare estremamente difficile produrre dati certi ed in modo
aggiornato in tale ambito, calcola che circa il 56% delle strutture sanitarie siano in zone a rischio sismico, frana e
alluvionale. Bene…..
L’Organizzazione Mondiale della Sanità, conscia di tali problematiche aperte non solo per l’Italia ma per molti
Paesi, sia industrializzati che non industrializzati, di possibile grave impatto delle variazioni meteoclimatiche sulle
strutture assistenziali sanitarie, è da tempo che sta chiedendo, quasi invocando, di introdurre variazioni nei criteri
progettuali, edilizi, e impiantistici delle strutture assistenziali sanitarie tenendo in debito conto delle variazioni
climatiche. Ciò comporta, gioco forza, che per prepararci ai cambiamenti climatici il design architettonico, le
strutture di programmazione, l’organizzazione e le gestioni interne delle strutture sanitarie debbono cambiare. Ed
il motivo del cambiamento è dovuto a tanti fattori e variabili, anche perché in fin dei conti potrebbe essere una
situazione di vantaggio, quello di adattarci con flessibilità al futuro delle strutture sanitarie assistenziali, prima
che si verifichino condizioni catastrofiche o che si debba sempre curare tardi invece di prevenire. Il che potrebbe
generare l’atteggiamento, anche culturale virtuoso, di far considerare nel computo di ciò che deve cambiare
nella sanità anche questi aspetti di correlazione con l’ambiente e l’inquinamento globale, sia da un punto di vista
edilizio-strutturale che impiantistico-energetico- organizzativo.
Ad esempio, molto spesso si tende a scordare che nell’ambito del concetto di “ambiente” di una struttura sanitaria,
vi è anche l’accessibilità che, spesso e proprio in situazioni di variazioni meteo-climatiche, potrebbe essere
difficoltosa. Si pensi alla disposizione di ospedali o di zone di primo soccorso site sul territorio e quanto la loro
distribuzione sia complementare al criterio di accessibilità rapida e funzionale anche per l’anziano od il non
deambulante. Senza scordare cosa accadrebbe di molti dei nostri ospedali territoriali in caso di eventi catastrofici:
quanti ospedali sono costruiti con criteri antisismici, quanti in zone protette da frane o smottamenti, quanti non a
rischio di alluvione, …..
Tra l’altro chi ha studiato più la posizione degli ospedali o delle strutture assistenziali in funzione dei criteri igienicosanitari validi fino a pochi anni fa, ovvero orientamento del vento, del sole, delle direzioni delle componenti
maggiori di meteo-clima, pioggia o altro?
Mentre, purtroppo, in Italia non esiste più o esiste solo in parte una sensibilità strutturata rispetto a questo in
Australia hanno emanato un bando di ricerca per le attività di costruzione con nuovo design architettonico di
ospedali non solo ecocompatibili, ma meteo-clima compatibili. A quando in Italia?
Per altro si dovrà a breve, per motivi di obsolescenza degli ospedali italiani, al di là dei criteri dettati dalla crisi
economica, sulla base delle nuove tecnologie - e questo Forum tra l’altro proprio per la componente sanitaria è un
indizio di come varieranno le nuove tecnologie – procedere a ristrutturazioni o nuove costruzioni. Ciò anche perché
si sta accorciando sempre di più il tempo di “ciclo vita” di un ospedale o di una struttura sanitaria rispetto alle
tecnologie che la costituiscono, tanto che nel 2030 diversi autori prevedono che l’età media utile di una struttura
sanitaria potrebbe essere al massimo, in teoria, di 8 anni. Conseguentemente i reparti hanno obsolescenze
diverse, dipendendo dalle criticità tecnologiche e diagnostiche che devono essere introdotte al loro interno. Si
pensi che un reparto di degenza dovrebbe essere ristrutturato ogni anno e che addirittura il gruppo operatorio
dovrebbe essere ristrutturato, in base alle tecnologie che sono utilizzate al suo interno, ogni due anni e otto mesi
circa.
Purtroppo, come prima detto, sebbene il microclima sia così importante per le strutture sanitarie e la qualità
dell’aria il focus di una buona prevenzione alle infezioni nosocomiali, spesso poca attenzione è posta a questo
problema e, nelle strutture sanitarie, estremamente spesso sottostimata. Per comprenderlo è bene ricordare che
quando si parla di microclima nelle strutture sanitarie, in special modo negli ambienti critici, dobbiamo pensare
agli impianti di climatizzazione.
Breve premessa. In realtà dei fatti, per usare le parole di Oscar Wilde, ‘le lezioni di vita non ci insegnano
assolutamente nulla se non quando è troppo tardi’, cioè all’atto pratico i nostri ospedali sono per la grande
maggioranza a ventilazione naturale. Persino, spesso, quei reparti che sono adibiti al ricovero coloro che sono stati
colpiti dagli effetti di un’ondata di calore! Laddove presenti in modo generalizzato anche nei reparti, e non solo nelle
aree critiche, certamente gli impianti di climatizzazione all’interno delle strutture ospedaliere devono essere ben
strutturati, ben progettati, ben costruiti e ben manutenuti. Certamente perché è sempre più palese come proprio
l’interfaccia ambientale, oltre a quella comportamentale, sia l’aspetto importante quasi fondamentale dal punto
di vista delle infezioni nosocomiali. Lo esprimono molti esperti, tra l’altro in diverse ricerche, come tra i differenti
Arezzo 20 - 23 novembre 2012
101
21 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
fattori promuoventi le infezioni in ospedale, proprio gli impianti di climatizzazione siano tra le cause maggiori.
Anche perché, talora, le loro caratteristiche prestazionali potrebbero non essere in grado di sostenere eccessive
variazioni termoigrometriche ambientali esterne, per cui non sono stati ottimizzati od addirittura progettati. Ciò
comporterebbe una perdita di efficacia sensibile, in special modo se correlata alla possibilità non solo di alterare
significativamente i parametri microclimatici, già di per sé importanti non solo per degenti immunocompromessi
o immunodepressi presenti naturalmente in ospedale, quanto anche per gli operatori sanitari, con il rischio che
questi possano commettere errori clinici dovuti ad ambienti di lavoro non confortevoli. Se a ciò dovesse aggiungersi
un’inefficace capacità degli impianti di climatizzazione a sostenere o garantire la diluizione e l’allontanamento dei
microrganismi o delle sostanze pericolose presenti nelle strutture sanitarie, appare intuitivo il rischio o gli effetti
che ne dovessero derivare.
Senza, per altro, trascurare i rischi derivanti dai cantieri continui che sono presenti, per motivi manutentivi, di
ristrutturazione od altro, in ospedale, con la possibilità che diffondano miceti o schizomiceti anche a grande
distanza. Ciò in parte anche per i materiali spesso inidonei, e quindi suscettibili di contaminazione, con cui la
maggior parte degli ospedali sono stati costruiti nel passato (anche in funzione della vetustà degli ospedali in Italia,
costruiti quest’ultimi in tempi in cui le problematiche microclimatiche e/o ambientali non erano parte del bagaglio
tecnico/culturale del periodo). Si consideri l’inidoneità non solo per l’emissione di sostanze (non solo composti
organici volatili) o per la colonizzazione di microrganismi quanto anche per quello che riguarda le trasmittanze e le
conduttanze termiche, non certamente ben studiate nei decenni passati per quanto riguarda la costruzione degli
ospedali, strutture ampiamente energivore.
In relazione alle caratteristiche prestazionali degli impianti di climatizzazione nelle strutture sanitarie, il gruppo di
ricerca da me coordinato si è interessato a questo problema da diversi anni, studiando alcuni indicatori interni
di contaminazione ambientale, compresi i parametri microclimatici, in funzione delle condizioni e delle variazioni
possibili meteoclimatiche esterne (ad esempio in relazione alle temperature future in aumento previste in Italia;
alla mortalità che è stata calcolata per le ondate di calore; alle variazioni anche del freddo, ecc..).
La formazione e la presenza di una bolla termica, ad esempio, che si forma in sala operatoria, sotto un flusso
unidirezionale laminare, durante un intervento chirurgico, poichè generata nella combinazione tra l’aria che deriva
dall’impianto di climatizzazione e gli operatori che sono presenti al loro interno, oltre al paziente operando, potrebbe
risentire della variazione del grado di efficienza e di efficacia di un impianto di climatizzazione in relazione alle
variazioni meteoclimatiche esterne, in particolare un aumento, oltre il range di efficacia prestazionale per cui è
studiato ed installato, della temperatura o dell’umidità relativa percentuale. Attraverso uno studio geostatistico
per funzioni aleatorie di ordine K o Fai-K, il gruppo di ricerca ha verificato e valutato la diffusione delle particelle
presenti nell’aria o micro-campo dell’area di incisione chirurgica, utilizzando le particelle come indicatori della
distribuzione/diffusione dei microrganismi di cui costituiscono i carrier o trasportatori, nel caso vi fosse una
variazione delle temperature esterne > di 2°C rispetto al massimo del range di funzionamento dell’impianto di
climatizzazione di sala, per come era stato previsto dai progettisti (andando quindi in sovraccarico funzionale/
prestazionale o di esercizio). Tali studi hanno dimostrato che spesso sussiste la persistenza non prevista di
particelle/microrganismi nell’area di incisione chirurgica in quantità superiori rispetto all’atteso, in funzione
della tecnologia di flusso unidirezionale adottata per l’impianto di aria. Ciò è poi peggiorato in caso di apertura
incongrua od inidonea delle porte di accesso alla sala con passaggio o sovraffollamento indebito del personale,
in quanto l’impianto di climatizzazione potrebbe risultare inefficace a compensare, poiché in sovraccarico, le
variazioi di pressione differenziale che ciò ingenera. Di fatto, potrebbe nel futuro risultare difficile mantenere una
pressione differenziale (a garanzia della pulizia dell’aria e della sua qualità), tra un ambiente critico e gli ambienti
esterni a questo, all’interno di una struttura sanitaria, proprio perché le stesse variazioni climatiche estreme che si
potrebbero verificare, potrebbero impedire che gli impianti siano efficaci nel conseguire le prestazioni previste in
sede di progetto od installazione, con gravi ed imprevedibili effetti sulla salute non solo dei degenti, quanto degli
stessi operatori sanitari nell’ottica della tutela della salute e della sicurezza in ospedale.
102
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
21 Novembre
Inquinamento dell’aria outdoor/indoor e salute: considerazioni per il risk management
"I Progetti come opportunità di dialogo tra Stato e stakeholders locali: esperienze dai Progetti SEARCH I e II"
Elisabetta Colaiacomo Ministero dell’Ambiente
Volevo dare un approccio un po’ diverso, fare anche un merging delle informazioni che ci hanno dato i relatori
precedenti quindi non farò una presentazione tecnica perché di tecnici di livello internazionale riconosciuto ce ne
sono stati molti stamattina. Volevo presentare l’esperienza diretta delle Istituzioni, in questo caso del Ministero
dell’Ambiente per il quale ho l’onore di lavorare, come un’opportunità di dialogo tra Stato e stakeholders locali.
Quali sono le problematiche, come nasce un progetto e quali sono le lezioni che possiamo imparare dall’attuazione
di questi progetti? In primo luogo vediamo qual è la problematica. E’ stata già presentata, questa è soltanto
una slide riassuntiva. La salute dei bambini è una priorità internazionale. Il problema indoor negli ultimi anni è
diventata una priorità o comunque è stato rivolto ad esso una grande attenzione a livello internazionale. Ci sono
tante evidenze scientifiche prevalentemente nel contesto dell’OMS che dimostrano come sia concreto il problema
dell’inquinamento indoor, come siano reali le interazioni tra gli stili di vita, le condizioni ambientali e l’insorgenza di
malattie respiratorie, di allergie ed asma, ma anche come sia aumentato, e quindi come sia collegato, direttamente
questo incremento di patologie allergiche e di asma all’urbanizzazione e dal conseguente aumento delle ore che
trascorriamo nell’ambiente indoor. Nello specifico, facendo attenzione alla salute dei bambini, non possiamo
trascurare l’ambiente scolastico in quanto i bambini vivono nella scuola dalle 5 alle 8 ore al giorno, anzi sono
costretti per legge a frequentare la scuola e quindi noi abbiamo l’obbligo di garantirgli un ambiente salubre perché
loro appunto sono i futuri adulti e rischiano di essere i futuri malati se già non lo sono.
Ho presentato qui delle iniziative, è una lista esemplificativa, quindi non esaustiva. Il Progetto SINPHONIE, il
Progetto HESE di cui abbiamo già sentito parlare, promossi dalla Direzione Generale per la Salute e i Consumatori
della Commissione Europea. Io ho direttamente lavorato all’attuazione del Progetto SEARCH, la prima e la
seconda fase, con altri colleghi del Ministero dell’Ambiente. SEARCH sta per School Environment and Respiratory
Health of Children, quindi la salute respiratoria dei bambini negli ambienti scolastici, promosso dal Ministero
dell’Ambiente e dal Regional Environmental Center di Budapest, centro per la cooperazione internazionale in
materia ambientale nei Paesi dell’Europa Centrale e dell’Europa dell’Est.
Il contesto, è già stato menzionato, è il Processo Ambiente & Salute nato nell’89 nel contesto dell’OMS Europa. La
IV Conferenza ministeriale Ambiente e Salute di Budapest del 2004 aveva come slogan principale “la salute dei
bambini e il loro diritto a vivere e crescere in un ambiente sano”. I 53 Ministri hanno sottoscritto il Piano d’Azione
Europeo per la salute ambientale dei bambini che pone degli obiettivi prioritari, tra i quali uno specifico sulla
prevenzione e la riduzione delle patologie respiratorie dei bambini derivanti dall’inquinamento dell’aria outdoor e
indoor. Per rispondere a questo obiettivo prioritario, il Ministero dell’Ambiente si è fatto promotore di una misura
concreta per contribuire a raggiungere quest’obiettivo con il Progetto SEARCH. La prima fase si è conclusa nel
2010, e i cui i risultati sono stati presentati a Parma nel corso della 5° Conferenza Ambiente e Salute e proprio da
Parma è stato dato mandato affinché venisse svolta una seconda fase del progetto che brevemente descriverò
dopo e che stiamo quasi finendo, e i cui risultati sono previsti per metà del prossimo anno.
Questa è una slide che un po’ riassume il problema dell’inquinamento indoor. E’ una questione piuttosto complicata
sia come problema in sé ma anche come soluzioni. Ci sono varie componenti, la componente del microclima
(quindi prevalentemente la temperatura e l’umidità nell’ambiente indoor), le politiche energetiche e le politiche
di sostenibilità. Un’altra componente fondamentale sono i materiali e gli arredi, quindi le fonti dirette di emissioni
di inquinanti nell’ambiente indoor. E qui abbiamo tutto il contesto delle normative, della certificazione e della
etichettatura di materiali.
I detergenti, un’altra componente. Il problema dei detergenti è fondamentale, quali tipi di detergenti vengono
utilizzati, ma anche come vengono utilizzati. Questa ovviamente non prevede nella normativa specifica, però il
tipo di detergenti rientra nel contesto della sicurezza chimica da prodotti da consumo. E infine il mondo ampio,
infinito, delle fonti outdoor e quindi il problema dell’inquinamento atmosferico, la legislazione per combattere
l’inquinamento atmosferico e quindi migliorare la qualità dell’aria. Il tutto va ovviamente contestualizzato in un
sistema di controllo e di monitoraggio continuo della qualità dell’aria outdoor e indoor. Questo è un riassunto di
quali sono le problematiche e quali sono i settori o gli aspetti coinvolti nel problema.
Una breve descrizione del progetto SEARCH. E’ un progetto promosso dal Ministero dell’Ambiente insieme
al Regional Environmental Center (il REC) e ha coinvolto 6 Paesi, oltre l’Italia, quindi l’Ungheria, l’Albania, la
Bosnia-Erzegovina, la Serbia e la Slovacchia. Sono state prese in considerazione una sessantina di scuole, più
di 5.000 ragazzi. Gli obiettivi sono la promozione del miglioramento della qualità dell’aria nell’ambiente confinato
scolastico, la riduzione del rischio di problemi respiratori sia acuti che cronici e la riduzione della frequenza di crisi
allergiche in soggetti sensibili.
Arezzo 20 - 23 novembre 2012
103
21 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
Il Progetto SEARCH è stato attuato attraverso l’approfondimento delle conoscenze quindi la raccolta di dati, ma
anche l’elaborazione dei dati, la diffusione delle informazioni, la sensibilizzazione dei soggetti interessati e anche
la promozione delle buone pratiche.
Un flash su come ci siamo organizzati a livello nazionale per attuare il SEARCH. E’ stato individuato un gruppo
di lavoro abbastanza esteso cha ha coinvolto 6 regioni italiane come campione rappresentativo e scelte in base
ad una omogeneità nella loro distribuzione territoriale. Inizialmente c’erano anche altre regioni coinvolte, ad
esempio la Campania, che abbiamo dovuto abbandonare perché in quel periodo, era il 2007-2008, avevano
l’emergenza dei rifiuti per cui l’ARPA era ovviamente impegnata in quel settore. Il gruppo di lavoro nazionale, oltre
il Ministero dell’Ambiente, era composto dall’ISPRA (Istituto Superiore per la Protezione e la Ricerca Ambientale),
la Fondazione Maugeri che ha fornito degli esperti per il monitoraggio sanitario, Federasma onlus, la federazione
italiana per i malati cronici di malattie respiratorie allergiche che abbiamo preso in corsa ed è stato un partner
fondamentale perché sono loro che hanno il contatto diretto con le realtà locali e le ARPA delle regioni coinvolte,
quindi la Lombardia, che ha coordinato il monitoraggio ambientale, il Lazio, il Piemonte, l’Emilia-Romagna, la
Sardegna e la Sicilia.
Il gruppo è stato veramente molto attivo e molto motivato, un bel gruppo, una bella esperienza di vita e di lavoro
proprio perché composto da tutte persone altamente qualificate che hanno avuto anche il compito di motivare i
soggetti che poi hanno collaborato al progetto. Infatti spesso non è solo un problema di interessare l’Istituzione
alla problematica in questione, ma è anche avere la collaborazione di coloro che ne sono in qualche modo
coinvolti e che poi che subiscono il problema e possono gestirlo o fronteggiarlo.
Gli inquinanti considerati sono gli inquinanti più comuni per quanto riguarda il problema dell’aria indoor e outdoor.
Abbiamo a livello nazionale coinvolto 13 scuole per più di 1.000 studenti.
Come abbiamo attuato il SEARCH? Il metodo applicato non è un metodo italiano ma paneuropeo, è un progetto
internazionale quindi abbiamo dovuto seguire le linee generali del progetto proprio per poter poi confrontare i dati
con i risultati degli altri Paesi. Abbiamo quindi svolto indagini ambientali ed indagini sanitarie contemporaneamente,
laddove possibile.
A livello ambientale sono state effettuate misurazioni dirette sui principali inquinanti, per verificare la concentrazione
degli inquinanti sia nell’ambiente indoor nella classe presa a campione sia della situazione outdoor. Sono stati poi
forniti dei questionari per avere delle informazioni specifiche sul tipo di edificio che abbiamo preso a campione,
quindi l’ubicazione della scuola. E’ fondamentale capire se la scuola è sita in un ambiente di alto traffico o è in una
zona rurale, ma è importante anche sapere che tipo di arredi sono presenti nella classe, l’anno di rinnovamento di
questi arredi, ecc. Molto importante è anche il questionario sull’aula, sulle caratteristiche e le abitudini per capire
il sistema di pulizia adottato, quindi non soltanto che tipo di prodotti, ma come questi vengono utilizzati, quando
vengono utilizzati. Anche conoscere le abitudini è rilevante perché l’uso del gessetto o dei pennarelli usati per
scrivere alla lavagna potrebbero creare dei problemi a soggetti sensibili.
Le indagini sanitarie hanno previsto le spirometrie sui bambini. Ovviamente per fare questo si è seguito il
protocollo necessario per avere il consenso dei genitori a lavorare sui bambini, un consenso informato. Pertanto
i nostri esperti sono andati in loco prima per informare, sensibilizzare genitori e professori, dirigenti scolastici e
poi distribuire un questionario. Il questionario riguardava anche informazioni sulla casa in quanto anch’essa è
l’ambiente di vita che influisce sulla salute dei bambini, oltre alla scuola. Le informazioni interessanti derivano
anche da quanto riportato dai genitori. È risultato, per esempio, che quasi il 30%, quindi 1/3 dei bambini,
soffre di raffreddore. Anche la tosse e le allergie sono molto frequenti. Per dare un informazione più concreta,
brevemente faccio vedere un informazione significativa emersa dal progetto ovvero una comparazione dei dati di
concentrazione di determinati inquinanti indoor e outdoor: il caso della formaldeide. Presento caso della Sardegna
non per dimostrare quanto sia meno virtuosa delle altre, ma in questo caso la presenza di un’alta concentrazione
di formaldeide nell’ambiente indoor in quella scuola era giustificata dal fatto che in quella scuola erano stati messi
degli arredi nuovi da poche settimane e infatti a livello outdoor la concentrazione della formaldeide è molto più
bassa, quindi c’è una correlazione indiretta. Per il PM invece la correlazione è piuttosto diretta, ovvero c’è poca
differenza proprio perché la principale fonte di particolato all’interno delle scuole è di origine outdoor. In questo
caso la scuola “meno virtuosa” è stata il Piemonte perché in quel caso specifico la scuola in considerazione era
proprio in un ambiente di alto traffico.
Quello che abbiamo fatto noi come Stato, è stato prevalentemente promuovere incontri tra soggetti interessati, tra
tecnici, tra pubblico comune e diffondere le informazioni per sensibilizzare e costruire soluzioni. Abbiamo fatto una
pubblicazione, abbiamo nel nostro stand delle copie per consultazione ma la potete scaricare dal sito dell’ISPRA.
Qui noi abbiamo pensato proprio di fare una pubblicazione chiara, diretta, non tecnica, comprensibile per i più e
che desse informazioni sulla problematica, sulla situazione generale in Italia. La cosa interessante è anche fornire
una lista di suggerimenti su come poter affrontare al meglio la problematica. Le cosiddette soluzioni “low cost”
che ovviamente non sono “buttare giù una scuola e costruirla con determinati materiali in una zona diversa”, ma
applicate delle buone pratiche. Per esempio, fare le pulizie quando i bambini non sono in classe, fare le pulizie
104
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
21 Novembre
con determinati detergenti che non contengono formaldeide e con le finestre aperte o quant’altro. Un’altra cosa
importante è la gestione corretta del verde scolastico perché a volte ci sono degli allergeni proprio dai giardini per
le attività ricreative dei ragazzi.
A Parma nel 2010 è stata lanciata la seconda fase del Progetto. Questa slide riassume un po’ gli aspetti principali,
intanto un’estensione geografica e questo è molto interessante perché avere nel progetto Kazakistan, Tagikistan,
Ucraina e Bielorussia, ma anche la Serbia o l’Albania, è molto significativo quando andiamo poi a fare gli incontri
per verificare i risultati. Recentemente siamo stati in Ungheria ed abbiamo avuto modo di confrontarci con alcuni
esperti di altri Paesi. In Italia sappiamo che uno dei problemi principali per la scuola è il numero di bambini
presenti in classe, quindi lo spazio per bambino. In realtà per alcuni Paesi avere un’alta densità di bambini e
anche un alto tasso di anidride carbonica fondamentalmente è un vantaggio perché si riscaldano, perché in alcuni
casi non hanno proprio il riscaldamento, per cui quello che per noi è un disagio per loro magari è un vantaggio.
Questo secondo noi è proprio un risultato concreto e interessante del progetto.
Sono stati estesi anche gli obiettivi del progetto, quindi capire l’uso e il consumo energetico negli edifici scolastici
e capire, con un questionario del comfort elaborato specificatamente per questo progetto, il feeling dei bambini,
quindi il loro benessere, il loro stato di comfort, come percepiscono lo stare in classe.
A livello internazionale ma anche a livello nazionale, il fatto di avere un interesse dello Stato, delle Istituzioni verso
la problematica è sicuramente una vittoria, ma non è l’unica vittoria che noi dobbiamo ottenere perché comunque
è importante identificare e creare la giusta rete sia per coloro che fanno, gestiscono il problema o quant’altro.
Nel nostro esempio specifico abbiamo avuto problemi, non tanto per avere l’interesse dello Stato e coinvolgere
determinati soggetti, ma a volte nel ricevere la collaborazione di soggetti locali, in questo caso il Comune. Da
progetto avevamo bisogno di dati - che possono avere solo il Comune o le Province, dipende da chi gestisce la
scuola - delle bollette energetiche. Abbiamo dovuto fare un lavoro immenso di sensibilizzazione, di motivazione,
di informazione. Infatti spesso anche quando tutto stava andando liscio, abbiamo trovato lo stop del funzionario
dell’ufficio tecnico che non voleva fare il lavoro extra o comunque non ne capiva il perché. E’ anche vero che
spesso per avere la collaborazione ci chiedono dei feedback informativi (fondamentali per aiutare a capire qual è
il problema), ma a volte anche feedback economici. Dovremmo forse pensare di coinvolgere anche gli psicologi
per aiutarci a svolgere le indagini?
Soltanto quindi costruendo una rete adeguata, multisettoriale, anche dinamica, avendo un po’ di fortuna e
sforzandoci anche per andare oltre alla semplice raccolta di informazioni, possiamo ottenere dei risultati concreti.
Arezzo 20 - 23 novembre 2012
105
21 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
Inquinamento dell’aria outdoor/indoor e salute: considerazioni per il risk management
"Il ruolo delle ONG nella prevenzione delle malattie respiratorie e allergiche"
Sandra Frateiacci Presidente Federasma
Trascrizione non revisionata dal relatore
La mia presentazione non entrerà in dettagli scientifici perché non è questo il nostro ruolo, il ruolo delle associazioni
di pazienti è proprio quello di sollecitare l’attenzione delle istituzioni a quelli che sono i nostri problemi, a quali
sono i rischi che noi come genitori e come pazienti riscontriamo giorno per giorno in ogni ambito di vita. La
relazione potrebbe già essere finita qui di fatto, ma ci tengo a far vedere come quest’attività di sollecitazione da
parte nostra alle istituzioni su quelli che sono i nostri problemi hanno dato poi vita ad una serie di partecipazioni
a progetti, a progetti o attività di divulgazione delle informazioni che per noi sono molto importanti. Scorrerò molto
velocemente alcune diapositive della presentazione perché credo sia importante far capire l’impulso che poi le
associazioni di pazienti, perciò chi direttamente interessato per motivi di salute o sociali al problema, riescono poi
a stimolare come iniziative.
E’ importante una brevissima presentazione di chi siamo. Noi rappresentiamo 21 associazioni di pazienti in Italia
che si occupano di malattie allergiche, asma, dermatite atopica. Siamo presenti sul territorio italiano in 12 regioni
ed abbiamo, oltre alle nostre associazioni già costituite, contatti con gruppi di pazienti che si stanno costituendo
in nuove associazioni proprio per ampliare la possibilità di intervento sul territorio per la tutela dei pazienti ai
quali ci rivolgiamo che sono molti. Sono infatti 3 milioni le persone che soffrono di asma,10 milioni le persone
che soffrono di allergia, e soprattutto ci occupiamo in particolare della fascia d’età da 0 a 14 anni, perciò la
popolazione pediatrica che peraltro è quella più colpita da questo tipo di malattie. Su oltre 10 milioni di bambini e
adolescenti in Italia, il 10% soffre di sintomi asmatici, il 20% ha sofferto o soffre di rinite allergica - dati che sono
comunque sottostimati - l’8% dei bambini sotto i tre anni soffre di malattie allergiche alimentari, il 5% di dermatite
atopica. Segnalo che alcune di queste patologie sono anche particolarmente gravi perché alcune di esse portano
alla morte.
Il ruolo di Federasma è quello sicuramente di tutelare i diritti dei pazienti affetti da queste patologie, è quello di
garantire a tutti i pazienti una parità di accesso sia alle prestazioni che alle terapie su tutto il territorio nazionale
e quello di richiamare l’attenzione delle istituzioni nazionali e locali su quelle che sono le necessità e i bisogni
dei pazienti evidenziando anche quali sono i punti di criticità sui quali bisogna intervenire. Ovviamente una
parte importante di questo lavoro di sollecitazione e richiamo all’attenzione verso le istituzioni è proprio quello di
promuovere anche campagne di informazione che siano indirizzate non solo ai decisori politici, ma anche alla
popolazione generale, ai media. Quello che ognuno di noi può fare anche personalmente per gestire queste
patologie e per abbattere i fattori di rischio è molto importante.
La persona che ha istituito la Federazione è la persona che ha lavorato moltissimo per ottenere che l’asma fosse
inserita all’interno delle malattie croniche invalidanti. Nel ‘94, quando siamo nati, ci siamo dati degli obiettivi
ben precisi, quelli evidenziati in questa slide, e che riteniamo di essere riusciti ad ottenere come risultati molto
importanti per la tutela dei pazienti affetti da questa malattia. Da anni ormai dico che bisognava fare attenzione
a quello che sarebbe accaduto ad esempio con l’emanazione dei nuovi LEA, ebbene vi annuncio per chi non lo
sapesse che nei nuovi LEA è stata di fatto dimenticata e tolta la malattia asma perché sono rimaste solamente al
primo livello lieve della gravità che va in un’invalidità dal 10 al 20%.
L’obiettivo principale ad oggi, dopo aver visto le nuove tabelle dei LEA, ovviamente ritorna ad essere quello di far
capire qual è l’importanza di questa malattia e chiedere immediatamente una rettifica, come abbiamo già fatto, di
queste tabelle. La slide che vi presento adesso, che è un’altra delle cose che avevamo come obiettivo, ovviamente
voi capite bene che chiedere di ottenere tutti questi risultati ai quali da anni stiamo lavorando in questo attuale
contesto politico e sociale inizia a diventare veramente un’impresa titanica. Non so quanto riusciremo, ma ce la
metteremo tutta come abbiamo fatto insomma fino adesso.
In che modo noi interveniamo e cerchiamo di sollecitare le istituzioni e la società civile a capire quali sono
i nostri problemi. Ovviamente partecipando in maniera attiva a gruppi di lavoro istituzionali che sono i nostri
primi interlocutori collaborando insieme ad altre organizzazioni sia nazionali che internazionali e cercando di
sottoscrivere dei protocolli di intesa con coloro che riteniamo possano esserci di aiuto in questo lavoro. Abbiamo
praticamente protocolli di intesa con tutte le società scientifiche di settore ed anche con altri organismi proprio
perché l’importanza di quello che noi andiamo a chiedere deve essere supportato da evidenze scientifiche che
facciano capire alle istituzioni e ai decisori politici e organizzativi, amministrativi quali sono i nostri problemi e
l’importanza di dare delle risposte.
Aderiamo alla GARD Italia in cui rappresentiamo tutte le associazioni di pazienti con malattie respiratorie, aderiamo
all’E.F.A. che è la federazione dell’associazione pazienti a livello europeo per cui attraverso loro facciamo delle
106
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
21 Novembre
azioni a livello europeo e al C.R.C. (Gruppo di lavoro per la Convenzione dei Diritti dell’Infanzia e dell’Adolescenza)
dove in particolare abbiamo sottolineato l’importanza nel documento che vedete, che è il secondo rapporto inviato
alle Nazioni Unite redatto dalle Organizzazioni Non Governative, al problema della somministrazione dei farmaci
a scuola e dell’assistenza sanitaria, all’interno del quale è stata ovviamente inserita tutta la tematica che riguarda
l’abbattimento dell’inquinamento indoor e la definizione delle norme per l’abbassamento dei rischi. Per i soggetti
con queste patologie infatti, avere un ambiente sano e comunque privo di fattori di rischio significa avere già metà
della terapia a disposizione.
Questo documento è arrivato al Comitato ONU e siamo molto contenti che il Comitato ONU abbia fatto all’Italia
un’osservazione riguardo la tutela delle persone con asma ed allergie e, in particolare, dei bambini chiedendo
all’Italia di fare particolare attenzione a questa fascia di popolazione.
All’interno del Parlamento Europeo, attraverso l’E.F.A., lavoriamo per sollecitare le istituzioni europee su questi
temi. E’ stato fatto questo documento che è stato presentato al Parlamento Europeo, il nostro obiettivo come
Federasma, perciò come attività in Italia, è quello di portarlo all’interno del nostro Parlamento e organizzare un
evento simile a quello che è stato organizzato in Europa proprio per sollecitare i nostri politici locali a capire qual
è il problema dell’indoor e delle malattie allergiche.
Abbiamo partecipato, fin dal 1998, con il Ministero della Salute a queste due commissioni che hanno definito le
linee guida che sono diventate accordo Stato-Regioni nel 2001, di cui vi ha parlato prima la dr.ssa De Martino,
e abbiamo partecipato anche alle linee di indirizzo per l’inquinamento indoor nelle scuole, quello del 2008 che è
diventato accordo Stato-Regioni nel 2011.
L’altro risultato importantissimo è stato la costituzione nel 2009 del GARD Italia che aveva 5 linee di indirizzo.
Federasma ha partecipato alle tre che vedete qui evidenziate, ma in particolare sull’attività della prevenzione
dei rischi indoor nelle scuole un primo importante documento è stato redatto dalla nostra federazione insieme
alla società scientifica che si occupa di allergologia pediatrica recependo le indicazioni delle linee di indirizzo.
Documento che è stato pubblicato e riconosciuto dal GARD Italia. E’ un documento molto importante per noi
perché riprende, in maniera molto più breve, quelle che sono le linee di indirizzo alle quali abbiamo lavorato e
viene messo a disposizione delle scuole nel momento in cui a fronte di segnalazioni da parte dei soci, di famiglie
che hanno bambini con allergia o direttamente dalle scuole che hanno il problema perché qualcuna ha sollecitato
un intervento specie per la somministrazione dei farmaci a scuola, noi consegniamo alle scuole e andiamo a
parlare con loro con i medici volontari delle nostre associazioni.
Questa è tutta una serie di educazionali che vengono utilizzati nel corso dei nostri progetti che affrontano, da vari
punti di vista, le varie tematiche non solo alle malattie respiratorie, all’asma, ma anche alle allergie alimentari,
alle allergie agli imenotteri perché la federazione si occupa, nello specifico, di tutte le malattie allergiche per cui
interviene in varie fasi su questi temi generali. Ovviamente l’altra parte importantissima è quella delle campagne
e dei progetti per la scuola, uno di questi è proprio il SEARCH al quale abbiamo partecipato ed è stato un bel
banco di prova per vedere cosa effettivamente poi si riuscisse a fare rispetto alla partecipazione delle scuole a
queste iniziative. Sembra molto facile, ma fare delle attività con le scuole se non programmate per tempo, se non
coordinate significa un aumento del lavoro per le scuole e per gli insegnanti. Non è sempre così facile trovare la
disponibilità a che questi progetti vengano portati avanti. Il fatto stesso di aver dovuto mettere, lo dico perché è
stata anche una cosa carina e particolarmente complessa da ottenere, è stato quello di far capire alle scuole che
era importante mettere uno strumento dentro la scuola che poi faceva rumore, che doveva essere controllato, di
chi era la disponibilità se si rompeva, chi pagava, se i bambini di facevano male l’assicurazione non era prevista....
Per cui questo progetto ha fatto proprio emergere quali sono quelle cose pratiche che poi riescono su un progetto
europeo, che uno si aspetta insomma che tutto sia stato visto, che ti bloccano il lavoro semplicemente perché non
c’è il bidello a cui sta bene di pulire intorno allo strumento. Non a caso in una scuola sono stati persi dei vetrini che
erano rimasti fuori e non li avevano presi.
Secondo noi, era proprio importante evidenziare in quest’attività quali sono anche le componenti che poi possono
dare il successo o il fallimento a un’iniziativa che viene presa di importanza così grande per noi pazienti.
Abbiamo inoltre fatto anche un convegno al quale abbiamo invitato le scuole, abbiamo invitato i presidi a
partecipare per sollecitare proprio l’attenzione a questa problematica.
Abbiamo lavorato anche sulla gestione del verde come strumento di prevenzione per la popolazione a rischio.
Una cosa che a me fa molto piacere presentare è questo progetto che è stato portato avanti con il Comune di
Roma, sollecitato appunto da noi come associazioni di pazienti e di familiari, per la gestione del verde scolastico
in quanto molto spesso capita che la manutenzione, sia ordinaria che straordinaria, nelle scuole venga fatta in
presenza anche dei bambini con allergia. E’ stato chiesto al Comune di Roma, e credo sia importante sottolineare il
Comune di Roma, perché quando noi pensiamo ai progetti dobbiamo anche pensare a qual è il tipo di popolazione
che viene inserita all’interno dei progetti e quant’è la grandezza della popolazione coinvolta. Quando noi parliamo
di Roma ci dobbiamo ricordare che parliamo di una popolazione residente che è pari quasi, anzi forse supera,
la popolazione della Regione Toscana. Riuscire a realizzare un progetto in un certo ambito è sicuramente molto
Arezzo 20 - 23 novembre 2012
107
21 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
importante come numerosità dei dati che poi si riscontrano e delle possibili ricadute su quella popolazione. Con
questo progetto una cosa importantissima che abbiamo ottenuto a Roma è stata quella che chi si occupava del
verde scolastico era la stessa ditta che si occupava anche delle pulizie nelle scuole, il che ha significato mettere in
atto una serie di indicatori che servivano per mantenere un certi tipo di pulizia nelle scuole che poi sono diventati
indicatori per la gestione degli appalti di manutenzione. Quello che è stato scritto qui poi deve essere in qualche
modo formalizzato e normalizzato ed ha una ricaduta reale perché, se è vero che è molto difficile per le scuole
dare dei controlli, è anche vero che hanno in mano degli strumenti attraverso i quali, controllando che le attività
vengano fatte secondo il capitolato, possono far pagare delle penali. Il che significa che siccome si mettono poi le
mani in tasca alle aziende probabilmente loro certe norme, se sono definite, le devono rispettare, perciò questa
cosa per noi è stata molto importante.
Un’altra cosa importante, dicendo in che modo e qual è il ruolo delle associazioni di volontariato dei pazienti
nello stimolare le azioni e le attività delle istituzioni, è quella che lavoriamo anche attraverso alcune proposte di
legge, in particolare questa che noi abbiamo presentato nella Regione Lazio. Prima in una slide si era visto che
un solo bambino aveva avuto la somministrazione dei farmaci a scuola da un infermiere. Siccome per noi questo
è un’altro dei temi molto importanti perché uno dei fattori di rischio più importanti è un fattore di rischio che poi
determina anche l’intervento immediato per la protezione di bambini che potrebbero avere dei danni gravi nel non
intervenire anche con la somministrazione dei farmaci, abbiamo presentato una proposta di legge sulla base della
quale sono stati istituiti poi dei presidi sanitari scolastici. Il primo anno, nel 2007-2008, con un unico presidio in una
scuola ha avuto dei risultati eccellenti; l’anno dopo è stato fatto un progetto che prevedeva l’istituzione di 5 presidi
sanitari in altri 5 istituti comprensivi. Oggi, nel 2011-2012, questi presidi sono diventati 7 con l’obiettivo di arrivare
a 12 proprio perché non vogliamo fare le scuole differenziali che c’erano una volta, dove ci sono solo i bambini
malati, ma siccome l’affluenza e la richiesta di iscrizione in queste scuole è altissima perché, è inutile che ce lo
nascondiamo, la popolazione affetta da malattie croniche e rare nella fascia d’età pediatrica è molto alta, il 9,6% è
proprio quella che ha una o due patologie croniche o rare nella fascia d’età 0-14 anni. Non dobbiamo continuare
a nasconderci dietro un dito. Prima notavo il discorso degli ospedali e della riorganizzazione e ricostruzione degli
ospedali, forse qualche risultato ci sarà visto che ne devono tagliare il 10% nella fase di ristrutturazione della rete
ospedaliera che peraltro è prevista per la fine dell’anno. Non so come faranno, però è previsto questo. Magari ci
sono anche delle possibilità di rivedere nell’insieme un po’ tutto. Io mi domando come sia possibile fare qualcosa
entro fine anno quando in quarant’anni questo non è avvenuto.
La situazione anche delle scuole è una situazione drammatica, lo stesso Ministero dell’Istruzione che ha redatto
l’ultimo documento di monitoraggio che è arrivato a 10 anni di distanza dal primo, ancora il numero delle scuole
con i certificati di agibilità sanitaria è solo il 42% per cui insomma credo che ci siano delle serie difficoltà se non si
riesce tutti insieme a capire che bisogna veramente iniziare a fare qualcosa. Non possiamo più solo fare le leggi
che poi non vengono rispettate ed enunciare principi. Bisogna iniziare a lavorare.
Un’altra delle attività che abbiamo portato avanti sempre in tema di gestione del rischio è stato questo lavoro
fatto con l’ARES 118 della Regione Lazio che aveva un doppio obiettivo. Un primo obiettivo era quello di creare,
sulla base di linee guida internazionali e con la partecipazione di tutte le società scientifiche di settore, i protocolli
operativi per la gestione dei pazienti con asma ed allergia sulla rete preospedaliera. Vi ricordo che, ad esempio,
nelle autoambulanze il problema della somministrazione dell’adrenalina, che è un problema principale per le
scuole rispetto alla somministrazione dei farmaci, altrettanto importante è anche sull’autoambulanza. Mentre la
Regione Lazio è abbastanza fortunata ed ha infermieri sulle autoambulanze, nelle altre regioni d’Italia il servizio di
primo soccorso è fornito solitamente da volontari che non è detto che sia personale sanitario, per cui non abilitato
alla somministrazione dell’adrenalina. Bisogna aspettare l’auto medica.
Nella Regione Lazio, grazie a questo progetto, siamo riusciti a far mettere insieme sia gli infermieri, il sindacato,
i medici ed è stato fatto un protocollo che permette di avere sull’autoambulanza l’adrenalina pronta, che è un
salvavita, se non viene fatta entro 5 minuti dall’inizio della reazione il paziente rischia seriamente la vita o di
rimanere in condizioni non proprio ottimali per il resto della sua vita. In questo momento sulle autoambulanze della
Regione Lazio l’adrenalina pronta è presente.
L’altra cosa, in parallelo, era fare proprio un monitoraggio delle chiamate al 118 dalle scuole per ogni patologia
che è stato un esperimento ed un risultato che neanche l’ARES si sarebbe aspettato di avere perché da questo
monitoraggio è risultato, oltre a quanto è alto il numero delle chiamate che arrivano al 118 dalle scuole, anche che
ben il 46% delle chiamate che arrivano dalle scuole sono codici bianchi, per cui chiamate inappropriate al 118 che
potrebbe, se appunto ci fosse un intervento di tipo qualificato dentro scuola, non “distrarre” l’attenzione del 118 da
altri tipi di intervento da fare sul territorio.
Perché io ho voluto velocemente dire che cosa facciamo? Non per dire siamo bravi, ma per far capire qual è
l’ampio raggio delle cose che noi dobbiamo riuscire a gestire nell’ambito della vita quotidiana, per cui non solo
quelli che sono i rischi ambientali, ma anche tutti quelli che sono i rischi di tipo sanitario ai quali andiamo incontro.
Prima si parlava del nuovo regolamento comunale, ricordo a tutti che proprio ieri è uscito che è stata approvata
108
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
21 Novembre
la legge sui nuovi regolamenti condominiali dove è prevista la presenza di animali in tutti i luoghi dei condomini.
Ognuno in casa propria può fare quello che vuole, io lo dico sempre e lo continuerò a sostenere sempre, ma
bisogna fare attenzione a quelle che sono le aree comuni come la proposta di legge che è in corso e che con
l’ANCI stiamo cercando di valutare in che modo arrivare a un compromesso, quella del libero accesso di tutti gli
animali in tutti i luoghi pubblici. Ovviamente noi diciamo che dobbiamo poter accedere come cittadini perlomeno
agli uffici comunali, agli uffici pubblici nei quali magari dobbiamo fare tre ore di fila e dove dovremmo essere
perlomeno in parte tutelati di non avere delle reazioni in questi luoghi.
La cosa importante sulla quale noi stiamo lavorando è quella di cercare di far recepire dalle singole regioni gli
accordi Stato-Regioni che sono stati fatti. In particolare per quanto riguarda la somministrazione dei farmaci
a scuola, il problema di acquisire e di inserire all’interno di questi protocolli, che comunque vengono fatti in
maniera o a livello regionale o provinciale o addirittura di singola ASL, la prevenzione dei fattori di rischio indoor
e la gestione e la prevenzione insomma sulle linee di indirizzo per la ristorazione scolastica, ovviamente anche
all’impegno a fornire l’assistenza sanitaria necessaria dove serve. Per realizzare quest’obiettivo, vi ho messo
semplicemente quante sono tutte le componenti che noi dobbiamo cercare, come associazione, per far mettere
insieme per creare questa rete di sinergie che possa far ottenere questi risultati. Vi assicuro che lo sforzo è molto
grande, però insomma qualche risultato siamo riusciti ad ottenerlo.
Io vi ringrazio con quello che è il nostro sogno nel cassetto, cioè di lavorare tutti insieme, mettendo insieme le
energie di tutti proprio perché i bambini di oggi saranno i futuri adulti ed è bene che non siano i malati di domani.
Arezzo 20 - 23 novembre 2012
109
21 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
Inquinamento dell’aria outdoor/indoor e salute: considerazioni per il risk management
"La valutazione della pericolosità degli inquinanti atmosferici: considerazioni e obiettivi di ricerca"
Ivo AllegriniMinistero dell’Ambiente
D’accordo con la coordinatrice di questa sessione, ho pensato di svolgere una relazione che, più che una
presentazione di carattere scientifico, intende essere un pugno di pillole di saggezza. La coordinatrice, appunto,
mi ha pregato di sviluppare il tema sulla pericolosità degli inquinanti atmosferici e, ovviamente, quello relativo
agli obiettivi di ricerca che stanno dietro questo problema, problema molto grave e molto importante in tutti gli
ambienti, sia indoor che outdoor.
Comincio quindi ribadendo che l’inquinamento, nel nostro caso dell’atmosfera, pone sicuramente un pericolo
reale la cui entità è definita attraverso il rischio, quindi parlare di pericolosità degli inquinanti è alquanto improprio
perché dovremmo parlare di rischio associato che può presentarsi diversificato, ma interessa tutti, soprattutto
interessa in misura maggiore i soggetti più deboli. Abbiamo ascoltato molte relazioni sui bambini che appunto
sono soggetti deboli, così come deboli sono le persone che cominciano ad avere la nostra età e magari qualche
anno di più. Se noi vogliamo ridurre efficientemente il rischio associato all’inquinamento atmosferico, dobbiamo
anche caratterizzare, comprendere e valutare questo rischio in tutti i suoi aspetti. Trovando in questo non soltanto
la via per poter tutelare la salute pubblica e quella dei soggetti deboli, ma anche una strada di opportunità
di sviluppo, importante nel momento che attraversa il Paese in quanto da esso possono derivare opportunità
economiche e occupazionali per tutto il paese.
La definizione del rischio ha una sua logica. Nel caso dell’inquinamento atmosferico, parte dall’emissione degli
inquinanti, arriva alla dispersione, alla concentrazione in aria, all’esposizione dei soggetti e quindi a una valutazione
di rischio che è un rischio reale, e concreto. Se invece ci si sofferma solo alla casella dell’emissione (slide), non
abbiamo più un rischio reale, ma abbiamo un rischio percepito. Esempio tipico: un inceneritore emette diossina,
il rischio percepito è che effettivamente quell’inceneritore provoca il tumore. Su questo equivoco si sono giocate
fortune politiche ed economiche, anche coinvolgenti realtà non proprio specchiate.
Chiaramente è possibile, attraverso dei modelli, stimare quello che può essere il rischio reale, ma è esso non è
altro che il combinato disposto di molti modelli che partono appunto da quelli di emissione per andare a quelli di
dispersione, ai modelli di esposizione. Ogni volta che noi aggiungiamo un modello su questo percorso arriviamo
sì ad una stima del rischio reale, ma arriviamo ad una stima con un ampio margine di incertezza tale che non ci
consente appunto di gestire appropriatamente il rischio. E’ allora evidente che se noi siamo in una situazione in
cui la gestione di questo rischio è attribuita al rischio percepito, siamo effettivamente in un problema molto grosso
perché mentre il rischio reale è oggettivo, il rischio percepito invece è soggettivo quindi al rischio soggettivo ci si
aggiungono anche credenze, ci si aggiungono opinioni politiche e così via che chiaramente non fanno altro che
accrescere confusione della quale non abbiamo proprio bisogno.
La problematicità di un rischio percepito è evidente, esso porta a decisioni incoerenti, costituisce il punto di
partenza per divisioni e contrasti, dei quali, in questo momento economico, non se ne sente il bisogno. Ciò anche
alla luce di quanto proposto proprio in questi giorni, quando si è avuta notizia che il Comune di Roma si appresta
a portare la sua immondizia in Olanda. La logica dovrebbe essere che se gli inceneritori e le discariche fanno
venire il tumore, è meglio che il tumore venga agli olandesi piuttosto che ai Romani. Ciò è solo la dimostrazione
ovvia delle conseguenze illogiche e scellerate di scelte che sono dettate non dal rischio effettivo, ma da quello
percepito.
Il vero problema, importante quindi non solo da un punto di vista scientifico, non soltanto da un punto di vista
sociale ma anche economico, è quello di dare una valutazione del rischio reale attraverso delle misure o delle
stime molto precise, accurate ed al di sopra di ogni legittimo dubbio. Questo porta chiaramente a delle grosse
opportunità, particolarmente nel campo della ricerca. Io ho speso quarant’anni di attività all’interno del Consiglio
Nazionale delle Ricerche quindi mi permetto di conoscere la natura dei problemi. Sono partito all’inizio della
mia carriera con un problema non risolto e dato che la mia carriera al CNR è cessata 4 anni or sono, sembra
incredibile, mi sono ritrovato di fronte allo stesso problema che poi svilupperemo successivamente.
E’ evidente che ci sono prospettive e opportunità di ricerca per quanto riguarda i modelli. In questa sede desidero
semplicemente presentare una piccola equazione differenziale che mette in relazione la concentrazione di
un inquinante con tutti i parametri che la controllano: la chimica di formazione e di rimozione, le emissioni, la
situazione meteorologica, la deposizione e così via. Questa equazione, di per se molto complessa, richiede lo
sviluppo di equazioni e modelli più raffinati, ma il modello (come tutti i modelli) dà dei risultati tanto più attendibili
quanto più attendibili sono i dati di ingresso. Molto spesso vengono spesi una grande quantità di sforzi per la
definizione fisica, matematica del modello senza tenere conto di quelli che sono appunto i dati di ingresso che
il modello richiede. E’ chiaro che se questi dati di ingresso sono molto incerti, ancor più incerti, viste le leggi di
110
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
21 Novembre
propagazione degli errori, saranno anche i risultati dell’applicazione del modello.
Abbiamo quindi bisogno di inventari delle emissioni molto affidabili. Dopodiché dobbiamo dare una maggiore
attenzione ai modelli a dispersione locale dove però abbiamo anche bisogno di un’elevata risoluzione spaziale
e temporale perché l’entità del rischio è praticamente proporzionale alla nostra capacità di conoscere come gli
inquinanti si distribuiscono nel tempo e nello spazio. Abbiamo anche bisogno di modelli di previsione a breve
e medio termine proprio per la tutela dei soggetti a rischio. In pratica, chi dovrebbe dire dice ai bambini che la
mattina dopo quando escono per andare a scuola troveranno un inquinamento atmosferico più elevato o meno
elevato del solito? Ecco, queste sono tipologie di servizi che non si sono ancora messe bene a punto e che, in
assenza di una valutazione di rischio reale, si manifestano con azioni basate su quello percepito.
Per quanto riguarda il processo di dispersione, possiamo fare riferimento ad un modello europeo dal quale deriva
un modello italiano, che ha messo a punto l’ENEA con la collaborazione di ISPRA, ossia il famoso modello
MINNIE il quale sta cominciando a dare dei risultati importanti, ma che deve essere il punto di partenza per altre
iniziative. E’ poi necessario andare a caratterizzare gli inquinanti definibili come “non convenzionali”, cioè quelli
che sono essenzialmente quelli di origine secondaria perché non vengono emessi direttamente dalle fonti di
emissione, ma si formano attraverso delle reazioni chimiche. Anche da precursori di origine naturale, compreso
appunto il particolato ultrafine.
A titolo di esempio, si mostra il rapporto all’interno (indoor), dell’Acido Nitroso (HNO2) e del Biossido di Azoto
(NO2). Il 40% della presenza della famiglia del Biossido di Azoto nell’ ambiente interno può essere dovuta all’Acido
Nitroso. In una relazione di questa mattina è stato affermato che gli ossidi di azoto non sono un fattore di rischio
importante per l’inquinamento interno, però pensare che il 40% di questi ossidi di azoto possono essere presenti
come l’unico nitrito che è in fase gassosa, è certamente constatazione che qualche motivo di apprensione può
dare. Nella pratica, si è lottato nei decenni passati per limitare la presenza dello ione nitrito all’interno degli
insaccati e adesso ce lo troviamo nell’atmosfera. Questa è una cosa che smuove la mia percezione del problema
e che ssi basa su un rischio reale potenziale.
Dunque, è necessario caratterizzare meglio gli inquinanti, in particolare per quelli per i quali l’attenzione non è
stata sufficientemente elevata. Come esempio, si riportano gli esempi di un monitoraggio svolto in due stazioni
della città di Milano. Quello a sinistra, Viale Marche, è caratterizzato da traffico intenso mentre quello di destra
è relativo ad una stazione di fondo urbano. Si può vedere che gli inquinanti in grigio sono molto più elevati nella
stazione di traffico, ma gli altri si distribuiscono in maniera più o meno uniforme. Tra l’altro quelli che sono alla
destra, cioè nitrato d’ammonio, solfato d’ammonio, sono proprio quegli inquinanti secondari che sono presenti
nell’aria di Milano. Risultato: un controllo del traffico in questa città serve praticamente a poco, se non a diminuire
il rischio per coloro che abitano in prossimità di Viale Marche che dal punto di vista del traffico è una delle aree più
interessate alla mobili veicolare. Chi è milanese forse queste cose già le conosce! Ma qui troviamo degli inquinanti
per i quali sospettavamo la loro presenza, ma non eravamo poi così consci della loro importanza.
In marrone si è evidenziata la risospensione del particolato e l’emissione dall’usura dei freni, delle frizioni, delle
gomme. Ci si trova in questo caso di fronte a un problema abbastanza grave dove sappiamo con certezza che
gli scarichi autoveicolari, in termini di particolato, ora generano meno inquinamento del particolato risollevato.
Allora il problema non è tanto quello di mettere la marmitta catalica iper-efficiente alle auto a benzina, ma è quello
semmai di non sporcare le strade. Scelta molto più oculata di quella di pulirle. Non sporcare le strade significa una
manutenzione mirata proprio a questo scopo.
In verde, invece, si osserva un aspetto abbastanza rilevante dell’ambiente italiano, ossia la presenza di
inquinamento dovuto alla combustione di legna. E ciò al centro di Milano. Però, dato che la concentrazione
osservata è più o meno simile a quella della stazione di fondo, direi che l›atmosfera milanese, così come quella
romana, così come quella fiorentina e di molte altre città è in qualche modo influenzata da questa cappa di fumo
di legna che porta con sé sostanze organiche volatili cancerogene, come il benzopirene, nanoparticelle e così
via e che si diffonde su aree molto vaste, costituendo così una sorgente di inquinamento inaspettata anche se è
quella più antica conosciuta dall’umanità.
Per quanto riguarda invece i sistemi di monitoraggio, abbiamo bisogno di nuovi dispositivi di monitoraggio affinché
si possa riuscire a dare una migliore risoluzione spaziale. Nuovi dispositivi che però dovrebbero essere disponibili
a costi Molto limitati.
In Italia abbiamo un numero straordinariamente elevato di centraline di rilevamento dell’inquinamento atmosferico.
Nel territorio nazionale è presente un numero di stazioni spropositate e sì che il decreto del 60 del 2002 e
recentemente il Decreto 155 del 2010 abbiamo dato una forte spinta alla riduzione di queste centraline. Queste
centraline non sono state utili per l’analisi del rischio e tantomeno sono utili adesso di cui se ne richiede una
diminuzione sostanziale. Abbiamo quindi bisogno di questi dispositivi di valutazione dell’inquinamento e della sua
distribuzione nel territorio.
Per l’analisi del rischio dovremmo avere dei dispositivi di monitoraggio “personale”. Qualcuno di questi è già
stato sviluppato, e nella figura si possono osservare sensori che sono appunto adatti ad essere impiegati a
Arezzo 20 - 23 novembre 2012
111
21 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
livello personale. Purtroppo la chimica e la fisica di questi dispositivi ne consente l’uso soltanto per pochissime
sostanze per cui essi richiedono ulteriori sviluppi di tipo tecnologico. Comunque, laddove è possibile, ora questi
nuovi dispositivi sono montati su piccoli mezzi mobili e possono quindi fornire utili informazioni aggiuntive a quelle
provenienti dalla centraline.
Redentemente si è comunque sentita la necessità de sviluppare sensori “areali”, cioè che siano in grado, ad
alta definizione spaziale, di caratterizzare interi territori (i dirigili, gli aerei e i droni, i satelliti). Qualcuno di questi
dispositivi è già presente, come mostra la foto di un dirigibile che ha operato qualche anno fa nell’area di Bologna.
Ciò che a me personalmente appare sconcertante è che quando ho iniziato la mia attività all’interno del Consiglio
Nazionale delle Ricerche, nel 1971, noi avevamo effettivamente a disposizione un dirigibile come questo, che
poi abbiamo perso perché mezzi del genere sono costosi in termini di pilota, attracco, stazionamento e così via.
Le risorse sono state però tutte utilizzate nella realizzazione di centinaia di inutili stazioni di rilevamento e quindi
il nostro dirigibile, che era quello della Goodyear, se n’è andato a far pubblicità sui vari circuiti di Formula Uno.
La conseguenza è che noi abbiamo perso un’occasione importantissima per sviluppare dei sistemi che non solo
potevano essere utili per l’inquinamento atmosferico, ma potevano essere utili per il controllo del territorio. Se
fossero stati disponibili sistemi del genere da poter utilizzare a Caserta, a Napoli, ecc. ecc., avremmo evitato non
soltanto parecchi problemi ambientali, ma avremmo evitato anche problemi causati dalla criminalità organizzata.
Non a caso adesso, per esempio, l’Arma dei Carabinieri, la Guardia Costiera, la Guardia di Finanza stanno
puntando su questi dispositivi, però come al solito in Italia, con decenni di ritardo. Esempio questo comune come
la programmazione, specialmente ambientale, in Italia abbia avuto momenti di grande inspienza.
In conclusione, dietro all’analisi del rischio posto dagli inquinanti atmosferici abbiamo una grande opportunità
di sviluppo tecnologico e di sviluppo culturale. Da questo punto di vista possiamo dire che questo problema è
parzialmente risolto perché la comunità scientifica italiana, sia in ambito universitario che in ambito degli enti
pubblici di ricerca e così via, è fra le più attive e capaci, anche e nonostante i tagli che si sono recentemente
abbattui sui nostri budget. Si producono un gran numero di pubblicazioni estremamente importanti, però si rimane
nella coda dell’efficienza, cioè si fanno cose interessantissime da un punto di vista tecnico e scientifico,che
poi nessuno valorizza. Non possiamo quindi saltare quello steccato che porta dall’innovazione scientifica,
all’innovazione tecnologica e quindi al mercato che è proprio quello che oggi viene richiesto a una comunità come
la nostra che è tesa verso il futuro, ma che non ha gli strumenti per poter arrivare a questi obbiettivi.
Esiste forse una sola possibilità: se qualcuno ha messo a punto nuove tecnologie, esse dovrebbero essere
utilizzate all’interno di programmi di ricerca e programmi di sviluppo già in fase attiva, evitando i soliti problemi dei
sensori che debbono rispondere a particolari normative che solo in Germania si è in grado di certificare e sui quali
i Tribunali Amministrativi Regionali sono sempre allertati dalla concorrenza, attenti alla visione amministrativa del
problema, chiarissima dimostrazione della mancanza di una gestione organizzata e coerente, ossia politica, di
queste problematiche.
Allo stato attuale dobbiamo quindi solo aspettare che questi sviluppi, frutto del nostro ingegno, vengano fatti da
altri Paesi, che stanno diventando più bravi di noi, che riescono a entrare nel mercato dell’alta tecnologia e che
per questo motivo ci soppianteranno quanto prima anche nel nostro mercato scientifico e, inevitabilmente, anche
nella nostra cultura..
112
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
21 Novembre
La valutazione di impatto sanitario (VIS) come strumento decisionale per uno sviluppo sostenibile
Monica Bettoni Trascrizione non revisionata dal relatore
Direttore Generale Istituto Superiore di Sanità
L’oggetto di oggi è la valutazione dell’impatto sanitario come strumento decisionale per uno sviluppo ecosostenibile. In realtà negli ultimi tempi, e anche nella realtà locale di Arezzo questo è successo, si va facendo
strada, non so quanto diffusamente, sicuramente in un certo numero di cittadini e di persone, l’importanza che
per decidere ad esempio i nuovi insediamenti di tipo termovalorizzatore o altri tipi di insediamenti siano questi
industriali, anche se in questo periodo purtroppo di insediamenti nuovi industriali non si ponga il caso, per prendere
la decisione di dare il via a grandi impianti ad uso pubblico sia quanto mai necessario una valutazione di impatto
sanitario. Ovviamente, questa VIS è tirata un po’ per la giacchetta dappertutto; da una parte da chi pensa di
frenare alcuni tipi di insediamenti e dall’altra da chi pensa invece che questo possa essere invece un via libera
per questi stessi. Una volta essendo tutti d’accordo che comunque la valutazione d’impatto sia importante, oggi
vorremmo chiarirci che cos’è, come parte e anche il suo utilizzo al riguardo e avere anche una voce univoca,
perché credo che un’altra problematica sia proprio questa di univocamente dire cosa compone, quali sono i
requisiti e come deve essere la valutazione d’impatto sanitario. Detto questo, da chi è solo, in questo caso, una
cultrice della problematica e non un’esperta, direi di dare la parola a Fabrizio Bianchi del Centro di Epidemiologia
dell’Istituto di Fisiologia Clinica del CNR di Pisa. L’oggetto della comunicazione di Fabrizio Bianchi è l’introduzione
della Valutazione di Impatto Sanitario.
Arezzo 20 - 23 novembre 2012
113
21 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
La valutazione di impatto sanitario (VIS) come strumento decisionale per uno sviluppo sostenibile
"Esperienze nazionali"
Ennio CadumARPA Piemonte
L’impostazione di questa relazione sulle esperienze nazionali poteva essere, dal punto di vista epidemiologico,
una carrellata di esperienze nazionali di studi epidemiologici, che, in realtà avrebbe portato a fare una serie di
esempi che non avrebbero colto quello che forse è il problema principale della VIS. Si è parlato di presupposti
scientifici e metodologici dell’attività, di un’attività che in realtà è calata dal punto di vista formale e sostanziale
all’interno di processi amministrativi decisionali importanti che portano ad assumere una serie i decisioni da parte
di organi di controllo, quindi tutti le cose riferite in precedenza nell’intervento di Fabrizio Bianchi e sulle quali è
importante riflettere, dato che trovano una collocazione pratica in un processo reale. Questo processo reale,
soprattutto oggi, dal punto di vista delle esperienze di valutazione di impatto, va a calarsi all’interno di procedure
di autorizzazione di piani di modifica del territorio, valutazioni ambientali strategiche o di progetti di valutazione
del cambiamento del territorio quali insediamenti industriali, inceneritori, discariche, centri commerciali e così via.
Ci sono tantissimi lavori che sono inquadrabili in questo ambito di valutazione di impatto sulla salute, tema che
in realtà non è chiarissimo, nel senso che non ha una definizione precisa. Oggi ritengo che esista una famiglia
di esperienze che sono inquadrabili nell’ambito della valutazione di impatto sulla salute, ognuna con delle
caratteristiche leggermente diverse l’una dall’altra:
• alcuni svolgono l’intero percorso di quello che può essere un approccio di VIS (VIS completa)
• alcuni ne fanno solo una parte (VIS parziale)
Ma l’aspetto fondamentale della VIS in iTalia, oggi, è che pur essendo un’attività che dovrebbe essere calata in
un’attività amministrativa e quindi di controllo e normativa, non c’è nessuna normativa su di essa.
Esaminando le esperienze condotte finora mi sono reso conto che la normativa è la cosa più importante sulla
quale oggi, più che a livello epidemiologico, sarebbe interessante concentrare l’attenzione.
Quindi la presentazione ha come oggetto una carrellata sulla situazione delle attività svolte, molto sintetica, e
della produzione normativa nel nostro Paese.
Vi sono due realtà, Puglia e Lombardia, dove le attività di valutazione dell’impatto sulla salute sono oggi normate,
o con legge regionale o con delibera di giunta regionale, c’è una regione, che è l’Abruzzo, in cui la valutazione di
impatto sulla salute è un’attività normata con legge regionale che successivamente è stata abrogata, ci sono due
realtà, che sono l’Emilia-Romagna ed il Piemonte, in cui la valutazione di impatto sulla salute è prevista nei piani
regionali della prevenzione e quindi ha un suo corso, un suo iter in itinere. Infine ce ne sono altre in cui esistono varie
esperienze di VIS ma non c’è nessun tipo di normativa, neanche un accenno nel piano regionale di prevenzione.
114
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
21 Novembre
Partendo dal Piemonte, nel Piano Regionale della Prevenzione 2010-2012 sono presenti, tra gli strumenti e i
metodi della prevenzione, la valutazione di impatto, la valutazione di impatto ambientale, strategica sulla salute e
il risk assessment. Il PRP ha come obiettivi da perseguire nel triennio di validità del piano l’adozione di una linea
guida per la VIS da mettere a disposizione degli enti locali e l’adozione di una linea guida per il risk assessment da
applicare nell’attività dei servizi della prevenzione. La linea guida è stata fatta, a fine dell’anno scorso, e trasmessa
agli assessorati, è una linea guida di un’ottantina di pagine, scaricabile dal sito dell’ARPA, molto sinteticamente
ricapitola una serie di passaggi tipici della valutazione di impatto, cioè la decisione se è necessario farla, come
farla, nel caso effettuare la valutazione degli impatti o assessment - che normalmente è la parte principale -.
Molto spesso, parlando di valutazione di impatto sulla salute, si intende solo la stima degli impatti, cioè
l’assessment, senza tutta la parte precedente e successiva e può assumere anche diversi aspetti come quello
del risk assessment.
La VIS prosegue poi con il reporting, le raccomandazioni e il monitoraggio. In questa parte di risk assessment
le linee guida piemontesi contengono una proposta di valutazione, comprendente l’identificazione del pericolo,
la valutazione dell’esposizione, la valutazione della tossicità, lo studio della relazione dose-risposta, la
caratterizzazione del rischio con un approccio di tipo tossicologico oppure epidemiologico.
Sono state definite quelle che potevano essere le fasi che vengono effettuate nell’ambito di procedure di
collaborazioni integrate tra le Agenzie per l’Ambiente e l’Azienda Sanitaria Locale o l’Osservatorio Epidemiologico
Regionale.
Per la parte di assessment il riparto di competenza è differenziato: all’ARPA spetta l’identificazione dei fattori di
rischio, la loro ricerca, riconoscimento, accertamenti tecnici, analitici, delle sostanze pericolose, l’Osservatorio
Epidemiologico, o il dipartimento di prevenzione delle Aziende Sanitarie, valuta la tossicità di questa sostanza
per l’uomo; le Agenzie per l’Ambiente valutano l’esposizione ambientale, determinano, ricercano, quantificano e
stimano i livelli di contaminazione delle matrici, dell’aria, dell’acqua, suoli, infine, nell’ultimo step, o i dipartimenti
prevenzione o i servizi epidemiologici regionali valutano il rischio sulla base delle indagini precedenti e valutano
gli effetti probabilistici di ricaduta.
La Lombardia ha deciso di normare la valutazione di impatto sulla salute nell’ambito delle procedure di valutazione
di impatto ambientale, la Legge Regionale 5/2010 “Norme in materia di valutazione di impatto ambientale” e il
regolamento dell’11/08/2011 ne determinano e disciplinano i metodi e anche gli strumenti. L’idea della Lombardia
è che la VIS sia un’attività da svolgere in primis a cura del proponente, cioè di colui che presenta lo studio di
impatto ambientale (SIA) e che quindi è tenuto a fare una valutazione di impatto sulla salute della sua proposta,
del suo termovalorizzatore, del suo centro commerciale, che deve seguire una serie di norme. In Lombardia
la parte di valutazione di impatto deve seguire una serie di passaggi che brevemente sono così costituiti: ogni
proponente deve definire lo stato di salute della popolazione ante operam, la popolazione interessata, gli indicatori
della salute da monitorare (sono quelli della mortalità dei ricoveri, gli aborti, i registri di patologia), deve definire
Arezzo 20 - 23 novembre 2012
115
21 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
lo stato della popolazione post operam con l’identificazione degli effetti attesi a seguito della costruzione del
nuovo impianto, definire l’impatto quantitativo nella fase di cantiere, di esercizio, di dismissione, valutare l’impatto
definendo i criteri, gli effetti diretti e indiretti, i punti di attenzione e la criticità.
In Emilia Romagna, come in Piemonte, la VIS è prevista all’interno del piano regionale della prevenzione, ha
diverse esperienze nate da Progetto Moniter e poi dal Progetto Nazionale VISPA ed è in corso di regolamentazione
con linee guida regionali, elaborate nell’ambito del Progetto VISPA; che dovrebbero essere operative dal primo
gennaio dell’anno prossimo e che verranno attuate dai dipartimenti di prevenzione delle Asl.
In Toscana, la valutazione di impatto sanitario non è prevista nel piano regionale della prevenzione, non c’è nessun
accenno alla VIS che pure prevede azioni specifiche sul tema ambiente-salute, la Toscana conta però molte
esperienze pregresse e ha fatto da battistrada su questa attività l’con studi sui termovalorizzatori, per esempio
nell’area fiorentina, antesignana di molti tipi di approccio sulla VIS e con una grossa riflessione metodologica che
in Fabrizio Bianchi ha avuto, a livello nazionale, sicuramente il trascinatore, la persona più feconda. La Toscana
ha partecipato al Progetto VISPA sia con il CNR di Pisa sia con la Asl di Arezzo, e mentre è all’avanguardia dal
punto di vista dell’elaborazione metodologica in realtà non è dotata di nessun tipo di normativa attuativa di queste attività.
L’Abruzzo presenta una situazione molto particolare. La Legge 10 marzo 2008 diceva che la regione Abruzzo,
nell’ambito della programmazione territoriale, socio-economica ed ambientale rivolta al perseguimento di uno
sviluppo sostenibile, garantiva che le decisioni amministrative relative ai progetti ed agli interventi di cui alle
direttive 85/337 CEE, 97/11 CE, 96/61 CE e 42/2001 CE relative alla Valutazione di Impatto Ambientale ed alla
Valutazione Ambientale Strategica (VAS) andavano prese nel rispetto delle esigenze di salvaguardia e tutela
della salute umana, della conservazione delle risorse, nonché del miglioramento della qualità umana della vita e
che lo strumento di realizzazione degli obiettivi di cui al comma 1, lett. a), b) e c) è uno studio di VIS finalizzato
a comprendere i potenziali rischi o benefici di qualsiasi progetto, piano o programma che rivesta interesse per
la comunità abruzzese. Questo strumento, di seguito definito valutazione di impatto sanitario, VIS, “supera il
concetto di mera valutazione ambientale approdando a un approccio valutativo integrato tra ambiente e salute”.
Va effettuato entro 90 giorni dall’approvazione della legge. l’Agenzia Sanitaria Regionale, di concerto con
l’Agenzia Regionale della Tutela Ambientale, aveva il compito di predisporre linee guida per la valutazione del
rischio sanitario determinato fonti di inquinamento. Cosa è successo? È successo che la norma è stata approvata
a marzo 2008, è stata modificata con una legge regionale nell’ottobre 2008, è stata ritenuta illegittima dalla
Corte Costituzionale nel 2010, per la violazione di una serie di articoli in essa contenuti, è stata sostituita quindi
dalla legge Regionale del 2009 che è stata a sua volta impugnata dal Consiglio dei Ministri nel 2010 perché in
contrasto con due articoli della Costituzione e sostituita con l’ultima legge del novembre 2010 n. 48 in cui tutta
la parte sulla VIS non c’è più. Le linee guida, che peraltro erano state redatte secondo la legge entro i 90 giorni
previsti, sono state presentate dal Consorzio Mario Negri Sud e dall’Agenzia per i Servizi Sanitari dell’Abruzzo e
sono estremamente interessanti sulla parte di elaborazione metodologica;
In figura sono riportate le linee guida dell’Abruzzo, predisposte dal Consorzio Mario Negri Sud e dall’Agenzia per
i Servizi Sanitari e hanno, pur nella loro sinteticità, una chiarezza estremamente interessante di esposizione.
116
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
21 Novembre
La Puglia è oggi è l’unica regione dotata di una legge regionale che disciplina le valutazioni d’impatto sulla
salute. La Legge Regionale del 2012 , la 21, recita: “Norme a tutela della salute, dell’ambiente e del territorio
sulle emissioni industriali inquinanti per le aree pugliesi già dichiarate a elevato rischio ambientale” e si applica
non a tutte le attività, come era nella norma dell’Abruzzo che è stata dichiarata incostituzionale, ma solo ai siti di
interesse nazionale dove viene fatta un’attività che è sostanzialmente un’attività di risk assessment, cioè della
parte di valutazione del rischio, chiamata valutazione del danno, utilizzando una serie di approcci che vengono
regolamentati con un atto separato.
Le metodiche vengono regolamentate con un atto regionale e la metodologia ancora oggi, dal punto di vista
specifico, proprio nei dettagli tecnici, deve essere ancora e esplicitata ed è in fase di elaborazione. Il regolamento
è uscito il 3 ottobre 2012, per le linee guida per l’attuazione della Legge Regionale ci sono 90 giorni di tempo con
scadenza il 3 gennaio del 2013. Il flow chart dell’attività prevista in questo campo è estratto dal bollettino ufficiale
della Regione Puglia, mostra un approccio in cui si passa dall’individuazione degli inquinanti, allo stato di salute
della popolazione, il loro confronto, che determina o meno l’esistenza di criticità e dal confronto tra quello che è
l’impatto previsionale a quelli che sono i dati esistenti si può capire se esistono le criticità e se sussiste o meno
un danno sanitario.
L’iter è concettualmente molto semplice, in realtà le cose sono molto più complesse.
Per finire, il Veneto ha partecipato al Progetto VISPA, e anche se non ha delle linee guida specifiche ha però un
vecchio documento che era stato curato da Gianfranco Blengio di Verona in cui una parte rilevante riguardava
una serie di indicazioni di ripartizione dei compiti tra ARPA e Asl sulla parte delle procedure di VIA in cui occorreva
trattare la tematica della salute della popolazione.
Arezzo 20 - 23 novembre 2012
117
21 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
Nel Friuli sono state condotte varie esperienze soprattutto da Fabio Barbone ma dal punto di vista degli studi
effettuati e gli impatti valutati, non esistono delle norme regionali, ma va rimarcato un notevole interesse
all’argomento, testimoniato da un seminario regionale di formazione a tutti gli operatori organizzato nel 2012.
Le Marche hanno partecipato al Progetto VISPA, come la Sicilia, con alcune esperienze; nel Lazio, che non ha
nessuna norma regionale, ci sono invece esperienze non tanto di VIS quanto di HIA (Health Impact Assessment)
a livello epidemiologico, con valutazioni di grandi temi, quali ad esempio la gestione del ciclo dei rifiuti a livello
regionale, nell’ambito di progetti europei, ma in cui l’attività è fatta a livello di dipartimento epidemiologico regionale
ma non tanto a livello di servizi di prevenzione.
118
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
21 Novembre
La valutazione di impatto sanitario (VIS) come strumento decisionale per uno sviluppo sostenibile
"Progetto VISPA"
Marinella Natali Regione Emilia Romagna
Grazie di aver invitato noi “Vispisti” per raccontarvi la nostra esperienza. Io sono molto grata ai colleghi che mi
hanno preceduto, perché ‘ tre interventi vanno in un ordine logico molto preciso. Noi siamo partiti da una cornice
alta, non astratta, perché la VIS non è un tema astratto, è un tema molto concreto, ma Fabrizio Bianchi l’ha
affrontata da un punto di vista molto alto. Ennio Cadum ci ha portato in giro per l’Italia per farci un po’ vedere che
cosa stava maturando di esperienza nelle diverse realtà regionali, io, che sono un operatore di sanità pubblica e
lavoro al servizio sanità pubblica della Regione Emilia Romagna, all’Assessorato Politiche per la Salute, vi porto
più su un piano pratico attuativo, raccontandovi come si è svolto questo Progetto VISPA, come si è concluso,
perché è un Progetto che aveva come obiettivo lo svolgimento in un anno e mezzo, è riuscito a stare nei tempi,
ha prodotto risultati in un anno e mezzo, come i adesso si potranno applicare i prodotti di questo Progetto. Allora,
siamo partiti un po’ da un’esigenza che serpeggiava tra gli operatori della prevenzione e che era quella è del
continuo e costante confronto che hanno gli operatori con la complessità e con l’incertezza nel loro quotidiano
lavoro di valutazione. Ci siamo chiesti se questa tecnologia, se la VIS era utilizzabile nella pratica quotidiana del
lavoro dei valutatori e quindi se era possibile costruire uno strumento di lavoro a supporto dell’espressione dei
pareri di sanità pubblica in conferenza dei servizi. Come vi diceva Fabrizio Bianchi, questo acronimo, VISPA, sta
per Valutazione Impatto sulla Salute per la pubblica amministrazione. Partiamo dal Progetto Moniter che viene
prima del Progetto VISPA. Il Progetto Moniter è un progetto che è stato promosso dalla Regione Emilia Romagna,
in particolare gli assessorati regionali ambiente e sanità, per approfondire le conoscenze sull’impatto degli
inceneritori sull’ambiente e sulla salute, per migliorare le capacità di comunicazione in tema ambientale, la
gestione dei conflitti ambientali, ma anche in una prospettiva, ieri qualcuno qui diceva che epidemiologia e
prevenzione devono andare di pari passo, quindi io studio e conosco per imparare a prevenire,quindi anche
prospetticamente vedere se nel corso di questo progetto si potevano sviluppare esperienze di valutazione
d’impatto sulla salute, un’apposita linea progettuale del Progetto Moniter era proprio dedicata a questo, il prodotto
di questa linea progettuale è stato un accurato e aggiornatissimo database di letteratura sulla VIS, abbiamo un
po’ guardato in giro per il mondo che cosa era successo e quali erano i diversi approcci che c’erano stati in questi
ultimi anni di applicazione del modello, e poi abbiamo fatto un’applicazione di VIS rapida retrospettiva sull’impianto
caso studio del Progetto Moniter che è l’inceneritore di Bologna, abbiamo costruito un protocollo di VIS per gli
inceneritori, siamo andati avanti e abbiamo costruito un protocollo di VIS per la valutazione dell’ambiente costruito
e poi abbiamo costruito un ulteriore protocollo di VIS applicabile a diversi contesti ma in modo particolare a piani
e a progetti. Poi, abbiamo pensato, in quel momento stava uscendo un bando CCM, di presentare al CCM per il
finanziamento un progetto che aveva come obiettivo generale quello di sperimentare, valutare e revisionare un
protocollo di VIS a supporto dell’espressione dei pareri di sanità pubbliche in conferenza dei servizi, sostanzialmente
costruire uno strumento di lavoro. Noi ci siamo chiesti se potevamo utilizzare quello che era uscito da Moniter che
era stato elaborato in una situazione protetta, sperimentale, in cui tutti i dati erano a disposizione, nella prassi
quotidiana di lavoro dei nostri operatori e abbiamo deciso di provare a farlo e di testarlo però non sono in Emilia
Romagna ma di testarlo nel territorio di sei diverse regioni, abbiamo coinvolto 34 sperimentatori che provenivano
da queste sei regioni e che erano, per nostra richiesta, operatori di sanità pubblica esperti, dopo la formazione c’è
stata la fase di test e in seguito la fase di validazione. La fase di formazione l’abbiamo svolta a Cesenatico e
l’obiettivo in modo particolare è stato quello di definire, tra i diversi sperimentatori, un linguaggio comune nell’utilizzo
di questi strumenti. A valle della formazione abbiamo chiesto agli sperimentatori di segnalarci dei casi, questi casi
che sono stati selezionati per avere il massimo di varietà nei casi sottoposti alla sperimentazione, sui casi poi
sono state fatte delle applicazioni con gli strumenti VISPA, all’inizio avevano pensato di farle solo prospettiche,
cioè solo di impianti che non erano ancora stati autorizzati ma poi in realtà, siccome siamo proprio capitati in
mezzo alla crisi, non arrivavano sufficienti oggetti in conferenza dei servizi, abbiamo dovuto accettare anche di
fare delle applicazioni retrospettive, cioè applicazioni su casi già valutati, sui quali era già stato espresso il parere
ed è stato anche interessante vedere come cambiava il parere, utilizzando i due strumenti; poi gli sperimentatori
hanno restituito i casi con le osservazione sugli strumenti. In tutto sono stati analizzati 28 casi di cui 10 prospettici
e 18 retrospettivi, la casistica è questa: allevamenti, impianti di produzione di energia, nuovi insediamenti produttivi
di tipo industriale, impianti gestione rifiuti e urbanistica. Alla fine del percorso noi abbiamo avuto gli strumenti che
sono delle tabelle, delle check list revisionate e sperimentate su diversi oggetti e anche una riflessione, credo
molto utile e anche molto matura, sul ruolo degli operatori e sul significato dei metodi VIS nelle valutazioni. Gli
strumenti, come dicevo, sono le tabelle, delle check list, che consentono di raccogliere sinteticamente le
informazioni, considerare in maniera ampia i determinanti di salute e fare una gerarchizzazione dei determinanti
Arezzo 20 - 23 novembre 2012
119
21 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
in modo da poter concentrare l’attenzione dei valutatori su quelli che sono prioritariamente impattati. Un passaggio
molto importante è anche l’integrazione delle conoscenze con altri punti di vista. Il percorso, dopo aver applicato
questi strumenti, si conclude con l’emissione di un parere, classicamente, che è il classico strumento che esce
dalla valutazione degli operatori di sanità pubblica, con prescrizioni, raccomandazioni, mitigazioni e monitoraggi,
in più, questo parere viene affiancato, anche per la stesura del report viene previsto uno strumento apposito tra
gli strumenti VISPA, un report che dà conto delle motivazioni per cui si è arrivati a questo parere, di che cosa si è
tenuto conto e che è, secondo noi, uno strumento da un lato di democrazia e di trasparenza perché si è fatta una
valutazione e informo sulle basi di cosa ho valutato e quali sono i criteri che guidano la mia valutazione, questo è
utile anche per eventuali, successive attività di comunicazione; gli sperimentatori hanno restituito delle osservazioni
che il progetto ha recepito. Gli strumenti elaborati da VISPA non sono adatti per la valutazione di oggetti complessi,
una pianificazione territoriale non si può valutare con gli strumenti VISPA mentre gli strumenti VISPA sono molto
adatti, adeguati a parere degli sperimentatori, a oggetti puntuali: stabilimenti,insediamenti produttivi e anche
infrastrutture per il trasporto. Uno dei problemi era quello dei tempi ma è stato risolto perché tutta la procedura
VISPA sta all’interno dei tempi della conferenza dei servizi, un altro problema sollevato è quello che è una
procedura non formalizzata, però d’altra parte questo è un miglioramento interno al sistema sanitario su come si
esprimono i pareri, quindi non è necessario che sia formalizzatata, è uno strumento di cui i dipartimenti di
prevenzione dispongono e che possono utilizzare. In alcune realtà, in Emilia Romagna questo di solito non
accade, la sanità pubblica non è chiamata in conferenza dei servizi e quindi alcuni degli sperimentatori hanno
evidenziato questo aspetto. L’altra osservazione che è giunta, che all’inizio è stato un problema poi è diventata
un’opportunità, sono le relazioni tra gli enti che sono presenti in conferenza dei servizi e l’altra osservazione, da
cui eravamo partiti e che abbiamo un po’ bypassato creando uno strumento per gli operatori dei dipartimenti, è
che, in un processo di VIS ampiamente inteso come quello che ci ha descritto Fabrizio Bianchi all’inizio, l’avvio di
un procedimento che prevede la consultazione del pubblico, degli stakeholders, dovrebbe stare in seno ai
decisori, dovrebbero essere i nostri amministratori che pensano di innestare un processo di questo genere, dopo
di che è chiaro che ci sono tutte le forme di partecipazione del caso. Lo strumento VISPA, secondo noi, è utile per
supportare il decisore che era uno degli obiettivi che aveva indicato Fabrizio Bianchi prima, innanzitutto perché
una delle accuse che ci vengono sempre rivolte è quella di allungare inutilmente i tempi, in questo caso non è così
perché sta all’interno dei processi valutativi esistenti nei tempi della conferenza dei servizi, iniziando, assieme al
processo decisionale, nel caso di VIS prospettica, è in grado di consentire opzioni migliorative e mitigazioni già in
fase precoce, coinvolge gli informatori, c’è un passaggio del procedimento che prevede l’identificazione dei
determinanti di salute impattati che vede il coinvolgimento degli attori che siedono in conferenza dei servizi, la
ARPA, i tecnici comunali e provinciali e, se ci sono, anche i comitati. Il fatto di ricondurre tutto all’impatto sui
determinanti di salute consente di risolvere almeno in parte la complessità e ci riduce a un contesto un po’ meno
complesso. Per quello che riguarda in particolare lo sviluppo della VIS nella regione Emilia Romagna è tutto
giusto quello che ha detto il dottor Cadum, vorrei aggiungere che abbiamo recentissimamente rivisto la nostra
Legge Regionale sulla VIA per adeguarla alle modifiche nazionali, all’art. 1 viene richiamato, questo è un
emendamento che è stato inserito in questa revisione, che la VIA ha la finalità di proteggere la vita umana e di
contribuire con un migliore ambiente alla qualità della vita e, mutuandola dalla normativa nazionale e europea,
ricorda appunto che vanno descritti gli impatti su diverse situazioni tra cui anche la salute umana. Assieme al
percorso di emanazione della nuova Legge Regionale sulla VIA, l’Assemblea Legislativa Regionale, che è il
nostro Consiglio Regionale, ha approvato una risoluzione, ha impegnato la Giunta a proseguire le sperimentazioni
in corso di valutazione anche mediante la VIS, aggiornare le linee guida attuative della Legge Regionale sulla
VIA, quindi anche noi come ha fatto la Regione Lombardia inseriremo la valutazione di impatto all’interno della
legge, differentemente però dalla Regione Lombardia noi non chiederemo ai proponenti di fare la valutazione di
impatto sanitario, chiederemo ai proponenti di inserire nel SIA anche uno studio di impatto sulla salute, la
valutazione dello studio di impatto sulla salute sarà poi un onere dei valutatori esattamente come i valutatori
valutano il SIA. Un’altra richiesta del nostro Consiglio Regionale è quella di sollecitare le istituzioni comunitarie e
nazionali ad adottare delle direttive, delle linee guida per disciplinare queste procedure. Abbiamo la VIS nel nostro
piano regionale della prevenzione, come obiettivo avevamo la formazione dei nostri operatori all’utilizzo dello
strumento VIS entro quest’anno per poi cominciare a utilizzarlo dal 2013, entro la fine dell’anno formeremo 100
dei nostri operatori, abbiamo formato degli operatori veneti e la Regione Friuli Venezia Giulia ci ha chiesto di
andare a fare un’iniziativa formativa per gli operatori del Friuli, quindi in questo momento, oltre ai gloriosi
sperimentatori VISPA che pioneristicamente si sono prestati a questo lavoro, abbiamo circa 150 operatori in Italia
che maneggiano lo strumento VISPA. Grazie, volevo dirvi che tutto il materiale prodotto è disponibile e scaricabile
dal sito http://www.saluter.it/ssr/aree/sanita-pubblica/il-progetto-vispa
120
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
21 Novembre
La valutazione di impatto sanitario (VIS) come strumento decisionale per uno sviluppo sostenibile
"Studi epidemiologici e valutazioni di impatto sanitario"
Annibale BiggeriUniversità Firenze
Ho deciso di affrontare l’argomento da un punto di vista metodologico generale, senza esporre un caso specifico.
Al termine farò comunque riferimento all’utilizzo delle valutazioni di impatto sanitario nei processi decisionali.
L’intervento è stato preparato insieme a Francesco Forestiere, Dipartimento di Epidemiologia, Servizio Sanitario
Regionale Lazio, che non è potuto intervenire per una serie di impegni imprevisti.
Gli studi epidemiologici alla base dei dati utilizzati per le stime di impatto sono particolarmente difficili quando
hanno come oggetto la salute delle popolazioni residenti in prossimità di insediamenti industriali o siti contaminati.
E’ infatti necessario affrontare importanti problemi metodologici, tra i quali ricordiamo le fonti multiple di
esposizione, la presenza di molteplici sostanze inquinanti, non sempre completamente caratterizzate o le diverse
vie di contaminazione (aria, acqua, suolo, catena alimentare); bisogna inoltre considerare che l’epoca in cui si è
verificata la contaminazione è a volte ignota e comunque variabile. Mentre negli studi occupazionali è possibile
costruire delle matrici mansione-esposizione, negli studi ambientali non sono state sviluppate metodologie simili
e spesso è necessario ricorrere a valutazioni di tipo qualitativo.
Negli studi ambientali la popolazione in studio è fissa ed è definita dall’aver subito una determinata esposizione;
non possiamo ricorrere a studi campionari o multicentrici su molte popolazioni, che in altre aree dell’epidemiologia
permettono una generalizzazione dei risultati, proprio perché l’interesse è valutare lo stato di salute in quella
popolazione specifica. Un’eccezione riguarda lo studio dell’inquinamento atmosferico in aree urbane, dove la
raccolta di dati provenienti da più città permette di costruire delle metanalisi pianificate.
Esistono inoltre differenziali sociali di esposizione: un esempio tipico è legato al costo delle abitazioni, tanto
minore quanto più la costruzione è vicina è al sito potenzialmente inquinante. In questo caso si ha una selezione
dei soggetti con reddito più basso nelle zone abitative più vicine alle sorgenti di esposizione. Si realizza quindi un
problema di equità che rientra nel grande capitolo dell’environmental justice.
Un altro fattore da considerare è l’esposizione professionale dei lavoratori che, per convenienza, hanno scelto di
vivere con le loro famiglie vicino agli impianti industriali.
Infine dobbiamo tener presente le conoscenze e la percezione delle comunità residenti e dei media rispetto al
problema “inquinamento”, che da una parte possono determinare un’eccessiva preoccupazione,o una distorsione
delle priorità, ma dall’altra possono fornire informazioni importanti sull’esposizione agli inquinanti. Questo aspetto
apre una questione molto delicata, cioè il contributo che i cittadini (local knowledge) possono dare alla valutazione
delle modalità di esposizione, cosa che spesso apre prospettive non chiaramente evidenti ai ricercatori, ma
rilevanti per lo studio.
Schematicamente si possono distinguere studi sugli effetti a lungo termine dell’inquinamento in cui gli esiti sono le
malattie cronico-degenerative e studi sugli effetti a breve termine. In questo secondo caso gli inquinanti agiscono
come fattori scatenanti una serie di eventi catastrofici in cui l’esito può essere anche il decesso. Sono colpite sia
le persone “più fragili”, per l’età (bambini, anziani), o per la pre-esistenza di patologie croniche, ma anche soggetti
sani che attraversano un transitorio periodo di vulnerabilità, come nel caso dei trigger dell’infarto miocardico.
Lo studio SENTIERI coordinato dall’Istituto Superiore di Sanità è un tipico studio ecologico sugli effetti lungo
termine, in cui i dati sono valutati come frequenze aggregate e definite su unità amministrative. Per il SIN di
Taranto, ad esempio, i risultati sono presentati confrontando i dati dell’intera Regione Puglia con quelli del comune
di Taranto:è un confronto standardizzato in cui si valutano i rischi di mortalità per gli abitati nell’area di interesse
rispetto ad una popolazione di riferimento. La scelta del riferimento in questo caso è mutuata dall’epidemiologia
occupazionale, in cui si confronta la popolazione generale residente nella regione rispetto alla coorte dei soggetti
studiati; in altri studi di epidemiologia ambientale, il confronto viene effettuato con un’area pulita, che non include
necessariamente la zona in esame.
Altro disegno utilizzato è lo studio trasversale di epidemiologia molecolare, come gli studi di biomonitoraggio. La
diapositiva illustra una ricerca dell’Istituto Superiore di Sanità, sempre nell’area di Taranto, in cui la popolazione in
studio era un campione, che io giudicherei opportunistico, di allevatori, selezionati accuratamente in modo da non
portare importanti distorsioni da confondimento in termini di abitudini personali o esposizioni professionali, per lo
studio delle diossine. È un esempio di controllo del confondimento per restrizione.
L’obbiettivo era mettere in evidenza una eventuale relazione tra le sostanze rilevate nei liquidi biologici e la
distanza dalla fonte di emissione degli inquinanti.
Il disegno più interessante è lo studio di coorte, in cui si seguono i singoli soggetti nella loro storia di vita
individuale. Negli studi ambientali, la coorte è identificata in base alla residenza nelle aree oggetto di potenziale
Arezzo 20 - 23 novembre 2012
121
21 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
inquinamento ed il confronto tra i soggetti esposti e non esposti può essere interno alla coorte, di tipo geografico,
o microgeografco. Nel caso di Taranto ad esempio, sono stati considerati i quartieri, ma sarebbe meglio definire
esposti e non esposti in base a modelli di dispersione della concentrazione degli inquinanti nell’ambiente di vita.
In questi casi, la maggiore difficoltà risiede nell’elaborazione di modelli matematici o statistici di dispersione
dell’inquinante e nella scelta delle variabili da inserire nel modello. E’ necessario utilizzare molte assunzioni; come
ho ricordato all’inizio vi sono importanti problemi nella definizione temporale della contaminazione: per esempio
nel tempo di calendario l’impronta di concentrazione degli inquinanti è mutata o è rimasta stabile?
Nell’area di Taranto è stato utilizzato un modello sviluppato dall’ISPESL, sia nello studio sugli effetti a breve che a
lungo termine. Sulla base di questo modello, i quartieri più esposti sono risultati quelli di Tamburi e Borgo.
Per gli effetti a breve termine è stato utilizzato un disegno di serie temporali, in cui il confronto viene effettuato
valutando gli eventi sanitari nei giorni ad alto e basso inquinamento e verificando l’esistenza di una correlazione
tra variazioni di inquinanti e ricoveri o mortalità nei giorni immediatamente successivi all’incremento della loro
concentrazione.
Sempre seguendo l’esempio di Taranto, nel periodo considerato (2004-2010) la rete di monitoraggio era
decisamente di buona qualità. Nella diapositiva sono riportate le serie temporali degli inquinanti e le stime di effetto
espresse come variazioni percentuali di mortalità, in questo caso per malattie cardiovascolari, respiratorie e per
tutte le cause, per incrementi di 10 microgrammi/metrocubo di inquinante. I dati mostrano una variazione dello
0.8% per Taranto, con una sostanziale modificazione di effetto per i quartieri Borgo e Tamburi, dove la variazione
è impressionante. Sembra che l’effetto osservato per Taranto sia in realtà supportato dalla sola popolazione che
vive in questi due quartieri. Per le patologie cardiovascolari, per esempio, non c’è nessuna evidenza di rischio
per gli abitanti di Taranto, mentre è chiara l’associazione per i quartieri di Borgo e Tamburi.
Queste stime di effetto servono di base per calcolare le stime di impatto, che consistono nella traduzione della
variazione percentuale in una frequenza, tecnicamente attributable community rate, cioè il numero di eventi per
100.000 persone/anno. Fare il conto è molto facile, ad esempio a Borgo e Tamburi abitano circa 60.000 persone;
semplificando a 50.000, se ho 20 casi per 100.000 abitanti per anno, i casi nei due quartieri saranno 10 per anno.
Grosso modo a Tamburi si ha circa 1 decesso al mese attribuibile agli effetti a breve termine degli inquinanti.
Il controfattuale usato in questi calcoli è quello delle linee guida dell’OMS. Esso è vicino ai valori osservati dai
monitor di San Vito e Carcere, che negli ultimi anni davano valori intorno ai 20 microgrammi/metrocubo come
media annuale. Quindi l’uso del controfattuale OMS non è particolarmente strano rispetto ad una realtà come
quella di Taranto, che è una città marina con un clima ben diverso ad esempio da quello della piana fiorentina o
della pianura padana.
E’ possibile effettuare varie critiche alle stime di impatto, perché ovviamente l’impatto globale sulla salute è
dovuto a molti altri fattori, per esempio quelli che aumentano la fragilità individuale quelli legati allo stato socioeconomiche, agli stili di vita, le esposizioni professionali, anche escluse quelle industriali. In sintesi, la attributable
community rate si riduce e si può dire, in modo molto conservativo, riprendendo l’esempio tarantino, che gli
abitanti dei due quartieri borgo e Tamburi sopportano un decesso in più ogni tre mesi.
Infine sui limiti di legge invece che sui contro fattuali OMS. Un calcolo fatto sui dati rilevati dalle centraline dell’ARPA
Puglia, mostra una media di circa due decessi attribuibili all’anno (un decesso in più ogni sei mesi), attribuibili ai
superamenti del limite di 50 microgrammi/metrocubo giornaliero e relativi ai soli giorni in eccesso rispetto ai 35
giorni permessi.
L’ultima osservazione che volevo fare riguarda l’incertezza: tutte le stime, sia di impatto che di effetto necessitano
di informazioni sul livello di base della malattia e sulla concentrazione di inquinante ed hanno una loro incertezza
oggettiva.
L’incertezza può anche essere legata ai diversi modelli teorici che vengono utilizzati: per esempio ho già accennato
ai limiti dei modelli matematici di dispersione e le assunzioni che dobbiamo ipotizzare.
Come dobbiamo trattare l’incertezza? Deve essere chiaro infatti che fornire delle stime di impatto sanitario ad
un decisore non lo esime dal considerare l’incertezza ad esse connessa. Le decisioni in materia ambientale
devono spesso essere prese rapidamente ed in molti casi la ricerca scientifica non ha ancora fornito risultati
incontrovertibili.
Esiste anche un’incertezza legata ai diversi punti di vista scientifici, ma vi sono anche conflitti di interesse tra gli
operatori coinvolti: in tutti queste circostanze è impossibile pensare che esista una soluzione tecnica.
In alcuni contesti l’incertezza è giocata come un’arma, esiste una vera e propria strategia dell’incertezza: in
tribunale la difesa può usare l’incertezza sulle stime a suo favore, mentre in altri casi la carta dell’incertezza è
giocata in senso contrario, per esempio quando si reclama il principio di precauzione e a volte prendiamo come
incerta un’informazione sull’assenza di rischio.
122
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
21 Novembre
Come possiamo evitare questi problemi? Dobbiamo rendere partecipati i nostri ragionamenti: laddove entrano in
gioco dei valori e noi tentiamo di veicolare un’informazione rigida e tecnicamente inequivocabile, ci esponiamo alla
manipolazione della nostra informazione. L’unico modo per evitare ciò è un’operazione di confronto e trasparenza.
La comunicazione con la popolazione non è nient’altro che l’implementazione di sistemi di partecipazione per
rendere trasparenti i diversi livelli di incertezza presenti.
Credo sia importante riflettere su questo aspetto perché in alcune situazioni il sapere tecnico scientifico non è
sufficiente a guidare delle decisioni razionali..
Altre volte invece le conclusioni sono più chiare. Personalmente, la situazione sanitaria di Taranto mi ha
particolarmente colpito per la sua chiarezza rispetto ad altri casi in cui le stime di effetto derivate da metanalisi erano
maggiormente affette da variabilità campionaria, dalla piccola dimensione della popolazione e da considerazioni
di tipo tecnico.
Grazie.
Arezzo 20 - 23 novembre 2012
123
21 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
La valutazione di impatto sanitario (VIS) come strumento decisionale per uno sviluppo sostenibile
"Integrazione di studi sperimentali ed epidemiologici utili per le valutazioni di impatto sanitario"
Carmela Marino ENEA
Vorrei contribuire alla tematica del VIS e dello sviluppo sostenibile approcciando il problema da un’angolazione
leggermente diversa rispetto agli interventi precedenti. Quando abbiamo pensato a come strutturare il presente
intervento, abbiamo scelto di partire dalle attività scientifiche condotte nei nostri laboratori piuttosto che dai dati
ambientali e sanitari relativi a specifici casi in studio. Nel corso del presente workshop abbiamo finora discusso
dell’impatto sulle popolazioni da parte di specifici insediamenti o siti industriali, senza per il momento prendere in
considerazione, se non nell’introduzione iniziale, l’impatto sanitario associato a tecnologie più recenti come, ad
esempio, i telefoni cellulari (citati precedentemente) o le nano-particelle. Infatti, come sappiamo, le tecnologie
nascono, si evolvono e ad un certo punto vengono abbandonate perché sostituite da altre tecnologie più avanzate,
in grado di soddisfare meglio le crescenti esigenze della società. Questo processo può essere anche molto rapido
ed è quindi necessario tenerne conto proprio perché, molto spesso, il dato tanto faticosamente acquisito attraverso
gli studi effettuati fino a quel momento non è più utilizzabile per valutare il rischio e il conseguente impatto
sanitario associato alle tecnologie emergenti. Cosa possono quindi offrire la ricerca di base e le attività di
laboratorio per venire incontro all’esigenza di fare valutazioni di impatto sanitario che stiano il più possibile al
passo con l’evolversi delle tecnologie? Il processo che parte dalle emissioni di un’inquinante da parte di una
sorgente fino ad arrivare al manifestarsi di un effetto sanitario indesiderato, è composto da una lunga catena di
eventi che include, dopo l’emissione, la distribuzione e l’accumulo degli inquinanti nelle diverse matrici ambientali,
l’esposizione (cioè il contatto fra l’inquinante e la materia vivente) e il suo assorbimento all’interno dell’organismo.
Da questo punto della catena di eventi subentrano gli studi sperimentali di laboratorio che vanno a definire le
modalità e l’entità dell’assorbimento (dose interna), le cinetiche di distribuzione degli inquinanti all’interno
dell’organismo, le biotrasformazioni e l’escrezione, la dose critica che giungerà all’organo bersaglio (dose al
bersaglio) e che produrrà l’effetto biologico e che, in alcuni casi, determinerà un evento patologico vero e proprio.
Infatti, non necessariamente l’effetto biologico indotto si trasforma in effetto sanitario conclamato; il nostro
organismo è in grado di sopportare insulti tossici apparentemente devastanti attraverso diversi meccanismi di
riparazione del danno o con il ripopolamento cellulare. Una volta che si sono individuate, mediante gli studi di
laboratorio, le dosi di inquinanti associate a determinati effetti e compresi i meccanismi biologici che li producono,
è possibile selezionare, fra i parametri in gioco ai diversi livelli della catena di eventi, quelli più adatti per essere
considerati indicatori biologici ed essere utilizzati per il monitoraggio di popolazioni esposte a livello professionale
o ambientale. Tali indicatori hanno il vantaggio di fornire informazioni precoci sul danno indotto, consentendo
quindi di limitare al massimo le successive conseguenze sanitarie sulle popolazioni, possono rappresentare un
buon sistema di allarme per identificare situazioni di rischio associate ad esposizione ignote e permettono di
individuare eventuali caratteristiche di suscettibilità (per esempio, polimorfismi genetici) che rendono determinati
individui o popolazioni particolarmente sensibili. Le conoscenze acquisite attraverso gli studi sperimentali ed il
monitoraggio biologico vengono poi trasferite all’epidemiologia, che si occupa di indagare su effetti ormai
conclamati a livello di popolazione, quali la morbosità e la mortalità. Gli indicatori biologici non sono quindi altro
che misure acquisite mediante attività sperimentali di laboratorio. Negli esperimenti di laboratorio vengono utilizzati
sia modelli cellulari che animali al fine di identificare i danni indotti da agenti fisici, quali le radiazioni ionizzanti e
non ionizzanti, e da agenti chimici di rilevanza ambientale ed occupazionale, di caratterizzare i meccanismi
biologici che li determinano e, dal momento che alcuni composti sono in grado di indurre danni anche alle
generazioni successive, di comprendere i meccanismi molecolari responsabili del danno genetico transgenerazionale. Per studiare gli effetti indotti dall’esposizione ad agenti fisici alle basse dosi, ad esempio, sono
stati messi a punto modelli animali geneticamente modificati che offrono la possibilità sia di enfatizzare l’evento
biologico che di indagare su particolari suscettibilità genetiche legate, per esempio, a particolari patologie. E’
infatti essenziale includere nelle valutazioni di impatto sanitario anche i sottogruppi di popolazione che hanno una
predisposizione a sviluppare certe malattie e che quindi, in seguito all’esposizione, possono manifestare risposte
più severe e a dosi più basse. Questo vale soprattutto per lo studio della risposta a dosi molto basse, che
costituiscono poi le esposizioni tipiche nel nostro quotidiano, come l’inalazione di inquinanti dell’aria, l’ingestione
di alimenti contaminati, fino, per esempio, allo studio delle esposizioni ai body scanner degli aeroporti che, a
seconda del tipo, possono emettere contemporaneamente radiazioni ionizzanti e non ionizzanti. E questo ci
riporta proprio a quanto affermato precedentemente, e cioè che spesso le nuove tecnologie, immesse a seguito
della pressione sociale e dell’offerta industriale, vengono studiate con le opportune analisi biologiche di laboratorio
solo nel momento in cui sono già in produzione, quando cioè ci si rende conto che è assolutamente necessario
valutare il loro impatto sanitario. Un esempio può essere quello che riguarda gli effetti di radiazioni non ionizzanti
124
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
21 Novembre
come le radiofrequenze e le basse frequenze, di cui poco si conosce il meccanismo, e si è ancora alla ricerca, a
livello internazionale, di quale possa essere il vero indicatore di effetto. Nel caso delle esposizioni connesse
all’uso del telefono cellulare, non sono stati individuati indicatori di effetto per la maggior parte dei sistemi studiati
come uditivo e nervoso, sul sistema immunitario ed infine su patologie a lungo termine come cancro e malattie
degenerative. Le dosi di esposizione utilizzate nei sistemi espositivi sperimentali con cui si trattano i modelli
cellulari e animali simulano perciò i livelli di esposizione ambientale, per valutare gli evenutuali effetti e correlarli
con il dato di esposizione. L’esempio dei telefoni cellulari è quello più classico perché in 10 anni la tecnologia si è
evoluta in modo così veloce che è impressionante, oltre che la numerosità della popolazione esposta - come il
nostro moderatore citava poco fa -, la molteplicità di sorgenti e di frequenze cui siamo attualmente esposti e che
potrebbero indurre effetti biologici diversi. Ovviamente i modelli cellulari e animali possono essere utilizzati allo
stesso modo per lo studio di agenti chimici, come i contaminanti ambientali o alimentari. Proprio perché sollecitati
dalla pressione industriale e sociale, si stanno attualmente conducendo studi tossicologici sui nano-materiali e
sulle nano-particelle. Per le loro dimensioni questi materiali manifestano proprietà chimico-fisiche diverse in virtù
delle quali trovano molteplici importanti applicazioni in vari settori, da quello industriale, a quello alimentare e
medico. A livello biomedico, per esempio, sono importanti non solo perché veicolano i farmaci in modo specifico
nel bersaglio da colpire e molto più velocemente del farmaco tradizionale, ma anche perché non inducono effetti
collaterali indesiderati sui tessuti sani. D’altro canto, però, tutte queste recentissime applicazioni delle nanoparticelle potrebbero causare problemi ambientali e sanitari legati alla loro ampia diffusione, alle quantità prodotte,
nonchè al loro smaltimento. Per questo motivo è opportuno condurre indagini sperimentali preventive per valutare
se e quanto le caratteristiche di questi materiali emergenti possano modificare anche il loro impatto sui sistemi
biologici. A seguito delle attività sperimentali di laboratorio, anche gli indicatori biologici possono evolvere nel
tempo e diventare più efficaci. Il monitoraggio citogenetico, ad esempio, utile soprattutto per valutare il rischio
cancerogeno perché legato alle mutazioni del DNA, fino a qualche anno fa era appannaggio di alcune indagini
come lo studio delle aberrazioni cromosomiche e il test dei micronuclei, mentre attualmente si avvale di altri test
più rapidi e specifici, come il test della cometa che va ben oltre la biologia cellulare, spingendosi a livello molecolare.
E la ricerca non si è fermata qui. Per comprendere e definire meglio il danno al DNA, attualmente ci si sta
orientando anche verso test di tipo epigenetico. Sappiamo infatti che molti inquinanti ambientali non sono mutageni
di per sè ma, agendo sulle proteine istoniche o sull’RNA, possono indurre indirettamente un danno al DNA
codificante. E attraverso queste alterazioni epigenetiche si può arrivare ugualmente al manifestarsi di malattie,
compreso il cancro. Dopo aver condotto numerosi studi per valutare l’integrità genetica ed epigenetica di cellule
somatiche, abbiamo recentemente iniziato a trasferire le competenze acquisite al sistema germinale proprio per
poter valutare l’impatto di alcuni composti pericolosi soprattutto per le generazioni future. Per quanto riguarda lo
studio degli effetti patologici a livello di popolazione, che vengono rilevati mediante le indagini epidemiologiche,
volevo solo ricordare la validità di uno strumento come la banca dati di mortalità dell’ENEA che raccoglie i decessi
per causa di tutti i comuni italiani fino al 2009. Con il suo ausilio è possibile effettuare indagini su tutto il territorio
nazionale e valutare, in tempi relativamente brevi, sia la mortalità generale che la mortalità per qualsiasi causa
specifica di decesso, sia tumorale che non tumorale. In passato, questa banca dati è stata ampiamente utilizzata
per caratterizzare il quadro della mortalità, considerato un indicatore dello stato di salute delle popolazioni
residenti, in diversi siti di interesse ambientale e sanitario e per valutare possibili associazioni tra malattie e cause
ambientali, anche se la maggior parte delle patologie è ad eziologia multipla. Per il tumore maligno della pleura
invece, indicatore dell’esposizione ad amianto, e per la sclerosi laterale amiotrofica (SLA), malattia
neurodegenerativa a eziologia ancora non definita, sono stati condotti anche degli studi per individuare la presenza
sul territorio nazionale di cluster comunali ad elevata mortalità, dove poter meglio approfondire, tramite indagini
mirate, le associazioni con gli indicatori di pressione e di esposizione. Mi preme evidenziare come soltanto
l’integrazione tra i diversi livelli di indagine - ambientale, biologica e sanitaria -, tra le diverse discipline e tra tutti i
protagonisti istituzionali, come evidenziato anche dalla presente giornata, può portare ad una ottimizzazione delle
attività a ciascuno dei livelli coinvolti e al risultato complessivo da raggiungere, e quindi come anche la cellula in
questo contesto possa offrire il suo contributo alla politica. Grazie.
Arezzo 20 - 23 novembre 2012
125
21 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
La valutazione di impatto sanitario (VIS) come strumento decisionale per uno sviluppo sostenibile
"La valutazione dell’esposizione e valutazioni di impatto sanitario"
Istituto Superiore di Sanità
Trascrizione non revisionata dal relatore
Giovanni Marsili Io torno sulla VIS che è ovviamente l’argomento principe di questa serata, di VIS è già stato abbondantemente
parlato da chi mi ha preceduto, è stato sviluppato il discorso dell’etica così come quello della pratica operativa,
ma torno su un aspetto, l’aspetto è quello che nella definizione si chiama “giudizio su progetti e programmi fatto
attraverso la misura degli effetti potenziali” che sostanzialmente è l’obiettivo della VIS, quello di supportare il
processo decisionale, si tratta di muoversi nell’ambito della previsione, muoversi in quell’ambito in cui il protagonista
principale è quell’incertezza con cui concludeva il suo intervento il professor Biggeri. Sostanzialmente, in questo
mio intervento, mi occuperò degli aspetti legati alla valutazione e al supporto al decision making. Per iniziare,
torniamo a quello che è il classico paradigma ambiente e salute, sostanzialmente quello che succede può essere
schematizzato in questo modo: c’è una pressione ambientale dovuta all’emissione di contaminanti nell’ambiente,
c’è una degradazione della qualità ambientale, un’esposizione umana, processi di disgregazione, di eliminazione,
metabolizzazione da parte dell’organismo umano e alla fine un effetto avverso che può essere misurato. Questi
step sono tutti più o meno affrontabili e singolarmente gestibili, il professor Biggeri, poco fa, ci ha dato un esempio
di metodi per misurare e valutare gli effetti avversi, le emissioni e la qualità ambientale sono addirittura nelle leggi,
quindi sono in valutate e misurate di routine, l’esposizione umana, può essere valutata ed anche gli indicatori
biologici sono ormai una tecnica che viene largamente usata. Ma allora, qual è il problema di un’applicazione
corretta del paradigma ambiente e salute? È il problema delle relazioni, quello che noi non riusciamo a fare o
quello su cui noi abbiamo difficoltà, è lo stabilire le relazioni tra questi aspetti, non è facile stabilire la relazione tra
l’emissione di un contaminante nell’ambiente e la qualità ambientale e le concentrazioni che poi andiamo a
trovare di quel contaminante, perché entrano in gioco numerosi e complessi processi: il trasporto, la meteorologia,
il destino ambientale, analogamente, una volta che si ha la presenza di un contaminante nell’ambiente, si ha la
concentrazione di un contaminante nell’ambiente, è molto difficile capire quando di quel contaminante arriverà a
contatto con uomo e quanto poi penetrerà nel suo organismo, perché entrano in gioco altri fattori, la demografia,
gli stili di vita, le abitudini alimentari, le proprietà chimico fisiche del contaminante così via. Quindi, noi abbiamo
un sistema in cui siamo molto bravi a definire i singoli step ,a siamo ancora carenti dal punto di vista della
definizione delle relazioni. Questo non è un aspetto irrilevante per quanto riguarda il decision making, perché
introduce nel decision making dei problemi non facilmente risolvibili. Un primo problema, se noi non riusciamo a
mettere in correlazione l’emissione di un contaminante nell’ambiente con gli effetti avversi che ad esso possiamo
teoricamente attribuibile, significa che noi costruiamo un processo di radicalizzazione delle posizioni, supportiamo
la posizione di chi dice che questo aspetto sanitario, questo danno è attribuibile al contaminante e quindi il
contaminante va eliminato ma supportiamo anche la posizione di chi dice che non c’è una dimostrazione scientifica
credibile e che quindi non si può essere certi che l’effetto avverso sia dovuto a quel contaminate, questo, soprattutto
nei casi molto complessi, è ovviamente una delle vostre succede di più. Qual è il risultato che abbiamo a livello
sociale? A livello sociale abbiamo il risultato che nel 2011, in Italia, c’erano 331 opere contestate il che, ci sono
due schieramenti abbastanza identificabili tra chi sostiene un’opera e chi non la sostiene, ed è legato al concetto
rischio-beneficio, cioè in una situazione di incertezza se ho un beneficio tendo ad accettare il rischio, se non ho
un beneficio tendo a non accettare il rischio, quindi è una questione di giustizia, un’installazione industriale che
emette un contaminante pericoloso è di per sé un’operazione iniqua, se io penso anche centrale elettrica che
distribuisce energia a tutta la popolazione, quindi ci dà un benessere, però distribuisce i suoi rischi solo alla
popolazione che vive intorno a quella installazione e quindi, sostanzialmente è un’operazione iniqua nei confronti
di quella popolazione. Se questo è il problema, e il problema è questo, lo potete vedere anche perché circa il 47%
delle contestazioni sono su impianti per energie rinnovabili che hanno un aspetto positivo, che hanno un aspetto
sullo sviluppo, sono compresi anche alcuni fotovoltaici, è molto difficile correlarli dal punto di vista della salute,
degli aspetti sanitari, la metà di queste opere contestate, sono opere non ancora approvate, quindi c’è bisogno
del quel processo di verifica, di valutazione e di partecipazione che può dare lo spunto alla decisione. Il secondo
punto negativo che però deriva dalla mancanza di queste relazioni è un punto negativo relativamente alla difficoltà
a identificare le azioni di mitigazione di rischio e a giurarne l’efficacia, perché poi questo è il problema. Il professor
Biggeri prima ha fatto e una carrellata degli studi fatti su Taranto, la criticità sanitaria dell’area di Taranto, secondo
me, non è discutibile, studi di mortalità generali dimostrano che il trend negli ultimi trent’anni vede la mortalità
diminuire in tutta Italia, anche a Taranto, ma rimane sempre superiore rispetto al resto d’Italia. Il Progetto Sentieri
va a selezionare, non lo dimentichiamo, delle cause di morte, decesso, riconducibili a fattori di rischio ambientali,
vede una differenza, eccessi di mortalità tra Taranto e la Puglia, lo studio di Mataloni va ancora più nello specifico,
126
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
21 Novembre
vede un eccesso di mortalità tra alcuni quartieri e Taranto, la perizia arriva addirittura a collegare un singolo
inquinante, il PM10, a degli effetti acuti sanitari avversi. Quello che a me convince ancora di più eche rende non
contestabile la criticità ambientale e sanitaria di Taranto è che questi studi diversi per metodologia, per popolazioni
coinvolte e anche per ricercatori che le hanno condotte, i risultati sono convergenti nel segnalare questa criticità.
Questa criticità sanitaria riconducibile al particolato atmosferico però in contraddizione con il dato generale
ambientale il quale, questo è il rapporto ISPRA del 2012, dice che Taranto, tra le aree urbane italiane, è una di
quelle che “sta meglio” rispetto alla concentrazione al rispetto ai limiti ambientali ali per il PM10, c’è anche uno
sforamento per il PM11, però ovviamente non rende mai Taranto paragonabile alle situazioni del nord Italia, ma
alla fine alle stesse situazioni di Roma, voglio dire, se voi provate ad analizzare dati che sono sul sito dell’ARPA
Puglia della centralina che si trova in via Machiavelli, nel Quartiere di Tamburi, con quella che si trova a Roma in
Corso Francia, quella di Roma è in condizioni molto peggiori, però gli eccessi di mortalità. Durante la valutazione
ambientale integrata e durante quindi la relazione l’Istituto Superiore di sanità per sostenere l’autorizzazione
ambientale integrata dell’impianto Ilva, è emerso un altro aspetto, è emerso che quello che differenzia realmente
il Quartiere di Tamburi dal resto di Taranto e dal resto della Puglia, e probabilmente dal resto d’Italia, non è la
concentrazione del PM10 ma è la composizione del PM10 e è sostanzialmente il fatto che quel PM10 è ricco di
un contaminante cancerogeno e con effetti veramente disastrosi quali il benzoapirene. Perché è importante aver
identificato questo? la situazione non è cambiata ma è importante perché in questo modo abbiamo potuto
identificare un impianto, una operazione specifica, condotta in quel luogo e quindi è stato possibile identificare
un’azione di mitigazione. Non è un caso se, per la prima volta, un ‘autorizzazione ambientale integrata va a
prescrivere a una attività industriale un piano di monitoraggio sanitario. Questi sono i problemi che ci si pongono
davanti ma, a nostro avviso, tutti questi problemi possono essere risolti andando proprio a focalizzare l’attenzione
sullo studio dell’esposizione, noi dobbiamo andare a caratterizzare l’esposizione umana e i diversi inquinanti per
poter legare l’inquinamento ambientale con gli effetti avversi e quindi per poter avere un’indicazione dei sistemi di
monitoraggio che dobbiamo mettere in atto. Questa diapositiva è molto didattica e rappresenta l’esposizione in tre
gruppi di casi. Intanto i dati di input; i dati di input sono molteplici, sono complessi, sono spesso incerti e altamente
variabili, dopo di che ho il modello concettuale. Cosa è la stima dell’esposizione in parole povere e concettualmente?
Io devo capire chi è esposto, come è esposto, quando è esposto, per quanto tempo è esposto, qual è l’intensità
di quella esposizione, devo chiarire questi meccanismi e proprio per chiarirli, proprio perché il sistema è complesso
e altamente variabile , introduce degli elementi di incertezza molto grossi nel progetto di valutazione dell’esposizione,
teniamo però conto che una valutazione corretta dell’esposizione è l’unica che mi garantisce una valutazione
corretta del rischio. Voglio farvi un esempio per capire come questi meccanismi di introduzione dell’incertezza
nella valutazione dell’esposizione, anche quando ci mettiamo in situazioni teoriche estremamente semplificate
che non sono la realtà, possono giocare un ruolo particolare. Se noi prendiamo in considerazione una esposizione
di tipo inalatorio, quindi una concentrazione di un contaminante per un rateo inalatorio della popolazione, cioè di
chi è esposto, e assumessi che la concentrazione del contaminante è costante, fissa, nel tempo e nello spazio
per l’esposizione della persona, ho una serie di variabilità che sono introdotte dal rateo di inalazione, per esempio.
Nel caso di Taranto, noi abbiamo usato uno studio che abbiamo usato dall’Istituto Superiore di sanità nel 2006
che era andato a caratterizzare, proprio nella popolazione di Taranto, i comportamenti delle persone e a stimare
i ratei di inalazione. Questi sono i ratei di inalazione così come li abbiamo ricavati in quello studio, come voi vedete
c’è una enorme variabilità che differenzia le persone per classe di età e per sesso ma è anche una variabilità
molto ampia che introduce una serie di incertezze; questi sono gli stessi dati riportati in senso numerico e su
alcune popolazioni studiate dall’Istituto, che cosa possiamo vedere? Possiamo vedere che per esempio esistono,
per valutare l’esposizione, modelli che sono ormai standardizzati, l’individuo esposto è un individuo che pesa 70
Kg, che ha un rateo di inalazione di 20 m3 al giorno e che è esposto a quella concentrazione misurata in aria,
questo è un modello ricorrente che viene usato, voi vedete che in queste tre popolazioni che noi abbiamo studiato
ratei di inalazioni medi di 20 m3 al giorno non ne abbiamo mai trovati, quindi noi dovremmo avere, assumendo un
rateo di inalazione di 20 m3 al giorno, una stima conservativa dell’esposizione di quell’individuo; la linea rossa
rappresenta i rischi che sono stati calcolati proprio usando questo modello, il modello standard, gli altri invece
sono i rischi calcolati tenendo conto invece dei ratei di inalazione e dell’età degli esposti, per esempio l’esposizione
a benzoaprirene di un bambino ha un effetto molto diverso dell’esposizione a benzoapirene di un adulto, questo
vale per molti cancerogeni. Il risultato di questa simulazione è che se avessimo calcolato i rischi per classi di età,
il rischio calcolato per l’esposizione sarebbe stato sempre maggiore, ma se si integrano quei rischi e si va a
calcolare il rischio per un individuo che è esposto da 0 a 6 anni, poi da 3 a 14 anni, cioè integrandoli sull’età, la
curva che ricavo è una curva non conservativa, cioè uso un modello che può partire da dati conservativi e ottenere
un risultato che non è conservativo. Questo per dire che bisogna fare molta attenzione a non semplificare
eccessivamente quando si va a calcolare l’esposizione, perché si possono trovare risultati addirittura contrari a
quello che ci si aspetta. La conclusione del mio lavoro è che noi non possiamo separare l’assessment
dell’esposizione dalla caratterizzazione e dalla identificazione del rischio e che l’esposizione della popolazione,
Arezzo 20 - 23 novembre 2012
127
21 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
l’esposizione umana, è il punto di snodo, così come peraltro suggerito dall’OMS, di questo sistema. Se noi non
riusciamo a stimare, a valutare l’esposizione umana, difficilmente noi potremo avere risultati facilmente gestibili
nel processo decisionale. Le conclusioni che voglio dare al mio intervento sono: la qualità della valutazione del
rischio dipende dalla qualità della valutazione dell’esposizione, la complessità dei processi implicati nelle relazioni
ambiente-salute non sempre consente un’accurata valutazione dell’esposizione e conseguentemente del rischio,
l’incertezza indotta da approssimazioni e assunzioni, spesso necessarie, deve essere sempre considerata, noi
non possiamo lavorare in senso deterministico con il rischio e con l’esposizione, la valutazione dell’esposizione
deve essere realistica, la sovrastima del rischio induce uno spreco di risorse che potrebbero essere utilizzate
molto meglio, sempre a tutela della salute pubblica, ma la sua sottostima potrebbe determinare un danno alla
salute degli esposti, questo è estremamente importante, essere troppo conservativi non è necessariamente un
modo di tutelare la salute, l’esposizione è, a mio avviso, un’utile sostituto del rischio, quindi noi potremmo usare,
noi come Istituto Superiore di Sanità, in alcuni studi che stiamo facendo, l’esposizione come indicatore nel
monitoraggio in una situazione ante-post, l’altra cosa è un appello che voglio lanciare alle sanità pubbliche, in
Italia non abbiamo un sistema di indicatori integrati, per esempio sugli stili di vita, per esempio sui consumi
alimentari, su tutta una serie di parametri che sarebbe molto importante avere per poter stimare l’esposizione.
Grazie.
128
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
21 Novembre
La valutazione di impatto sanitario (VIS) come strumento decisionale per uno sviluppo sostenibile
"L’esperienza di Taranto"
Giorgio Assennato ARPA Puglia
Cercherò di trarre delle indicazioni di carattere generale dall’esperienza specifica. Da questo punto di vista io
ritengo importante, non per amore di distinzione tomistica, per mania classificativa, che magari, nel testo che state
scrivendo, si distingua chiaramente tra la VIS come procedimento per sé dall’uso di frammenti di VIS nella
soluzione di problemi. Questa distinzione, apparentemente scolastica, è importante perché altrimenti si introducono
elementi di confusione. La VIS di per sé è un procedimento come la VAS, molto simile alla VAS, come procedimento
di per sé è contraddistinto dalle caratteristiche della trasparenza, dell’equità, dell’ecosostenibilità, dell’eticità che
sono proprie di questo procedimento ma quando si utilizzano pezzi di queste procedure per risolvere fini specifici,
è il contesto che caratterizza l’uso e il procedimento c’entra relativamente. C’è un collegamento, nel senso che
l’incremento dell’uso, nel senso del problem solving, come l’esempio di VISPA che risolve un problema, definire
le procedure di comportamento in sede di autorizzazione unica in conferenza dei servizi degli operatori di sanità
pubblica, è certamente un’esigenza che nasce da un problema, si utilizzano delle procedure che vengono dal
procedimento ma le si utilizzano in un contesto, così pure Annibale Biggeri avrà usato metodologie analoghe in
un contesto che era quello di rispondere a degli obiettivi definiti da un giudice, dal GIP, nella situazione specifica.
Noi abbiamo certamente l’esigenza di dare una risposta simile nell’ambito di un altro procedimento che è
l’Autorizzazione Integrata Ambientale. Vengo a un riferimento di carattere generale; già in Italia traducendo il
termine impropriamente, l’acronimo inglese IPPC , prevenzione integrata dell’inquinamento e controllo,
sciaguratamente, in Autorizzazione Integrata Ambientale, abbiamo già perso un pezzo dell’obiettivo che è quello
della prevenzione dell’inquinamento, per cui la procedura è spesso diventata una sorta di scelta tra cataloghi di
bat negoziato con il gestore, è comunque una cosa utile ma complicata dal fatto che la separazione delle funzioni
ambientali rispetto a quelle sanitarie di fatto ha portato a un approccio nelle AIA di assoluta ignoranza, di esclusione,
della componente sanitaria. Questa è una linea che il Ministero dell’Ambiente persegue, le esperienze comunitarie
sono diverse, nel 2000 il Ministero della Salute britannico in un documento per i public health practitioners, non
per gli operatori ambientali ma per gli operatori sanitari, le procedure da adottare nelle IPPC (AIA), diverse in
funzione della complessità, noi non abbiamo tutto questo,negli Stati Uniti esistono due tipi di AIA, una super AIA
in cui il gestore sceglie la lowest achievable emission rate technology, la migliore delle AIA possibili,questo gli
consente di aver una durata molto più lunga altrimenti, se sceglie l’AIA standard è esposto a una valutazione del
rischio residuo di tipo sanitario che viene fatto a distanza di anni. Questo è ignorato nella nostra legislazione, il
che rende oggettivamente anche difficile e vulnerabile qualunque lodevole sforzo fatto dalle amministrazioni,
vulnerabile rispetto a valutazioni di legittimità degli atti amministrativi dei Tribunali Amministrativi Regionali che
ovviamente possono non riscontrare la legittimità di pareri dati su valutazioni di contesto epidemiologico territoriale
sfavorevole, perché non fondate su nessuna procedura normativa. Questo è un grosso problema. Vedremo poi
quello che noi abbiamo fatto nell’ambito della precedente AIA (slide), avevamo chiesto di fare una serie di
valutazioni, tra l’altro i punti C e D corrispondono propriamente agli studi che sono stati fatti nella sede più difficile,
il Ministero dell’Ambiente non ci ha fatto fare questi studi, devo dire che nemmeno la Regione Puglia ce li ha fatti
fare. Io sono un epidemiologo occupazionale, sapendo che il problema era molto importante dal punto di vista
conoscitivo e che sarebbe poi esploso in una situazione difficilmente controllabile come quella di un contesto
penale, avevamo chiesto l’attivazione di un centro ambiente-salute che sarà purtroppo realizzato, per fortuna
realizzato, tardivamente. Questi studi non sono mai stati fatti. Questo (slide) è il contesto tarantino, questa mappa
è stata citata, è il cuore fondamentale dei dati di input dello studio a lungo termine già illustrato sinteticamente,
questa è la tabella sintetica che illustra le variazioni unitarie, l’hazard ratio per incrementi unitari di PM10 primario
e industriale nell’area tarantina. Rispetto a questo contesto, io ritengo che sia fondamentale fare un’analisi di
rischio sanitario, perché di fronte a un giudice che identifica un reato di percolo come disastro ambientale e che
in funzione di una prova consolidata nell’incidente probatorio adotta misure amministrative come il sequestro degli
impianti, soltanto una dimostrazione attiva dell’inesistenza o della “accettabilità” del rischio sanitario può consentire
al medesimo giudice, ammesso che lo voglia, di modificare il proprio atteggiamento o venire meno alla decisione
precedentemente assunta di sequestro amministrativo degli impianti altrimenti, pur essendo lodevoli gli enormi
miglioramenti che l’ultima area ha prodotto, non si produrrà l’evidenza dell’accettabilità del rischio sanitario
conseguente che è il presupposto della decisione amministrativa del giudice penale. Questa è la legge pugliese
che in realtà era una legge post hoc, cioè era una legge che in qualche modo si accompagna allo spirito della
nuova AIA che prevede un monitoraggio sanitario e in qualche modo si accompagna allo spirito della normativa
americana, quella cioè di verificare in fase di monitoraggio se residua un impatto, un danno sanitario, valutato con
metodologie di tipo diverso, e in funzione di questo, in caso di inaccettabilità del rischio residuo definire una
Arezzo 20 - 23 novembre 2012
129
21 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
coerente proporzionale riduzione delle emissioni, quindi è una legislazione mirata alla riduzione delle emissioni in
fase post autorizzativa. Da questo punto di vista, il regolamento che la Regione ha adottato prevede che la Asl
territoriale, l’ARPA e l’Agenzia di Sanità definiscano una valutazione chiamata di danno sanitario, perché integra
una valutazione di rischio, quindi a priori, con una valutazione del contesto epidemiologico fino a definire una flow
chart operativa che in caso di coerenza dei risultati di questi due approcci rende immediatamente esecutivo il
principio della riduzione, l’imposizione di una riduzione proporzionale dell’emissione degli specifici inquinanti
studiati e, viceversa, in caso di discordanza impone un approfondimento, simile alla metodologia analitica seguita
nello studio a lungo termine dei colleghi Forastiere e Biggeri, finalizzato essenzialmente alle patologie a breve
latenza, certamente non i tumori solidi. Questo è il documento EPA, questo è il cartogramma non riesco a sapere
chi, nel lontano 2003, ha fatto questo “bellissimo” rapporto sull’analisi del rischio residuo in queste quattro focherie
che ha portato due anni dopo, sulla base di questo procedimento, avendo riscontrato la sussistenza di un
inaccettabile rischio residuo, alla pubblicazione sulla Gazzetta Ufficiale americana di una nuova norma EPA
abbassando gli standard emissivi per tutte le focherie in funzione dei risultati ottenuti. Ovviamente, questa
procedura sarà una procedura criticabilissima, però da un punto di vista euristico è una procedura che ha
funzionato, che funziona e porta certamente ai miglioramenti prestazionali degli impianti e conseguentemente
una minimizzazione degli effetti sanitari conseguenti. Non vi dico i dettagli, che sono comunque contenuti in
questo gold standard, e ritengo fondamentale che questo tipo di procedura sia poi validata da una prior review
effettuata dall’Istituto Superiore di sanità e da ISPRA, perché questo non può essere semplicemente il frutto di
una legislazione regionale, deve diventare un’esperienza nazionale attraverso linee guida e norme, un primo atto
è quello di sottoporsi a prior review perche sappiamo perfettamente la intrinseca difficoltà e anche le caratteristiche
di incertezza associate a questi complessi processi decisionali.
130
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
21 Novembre
La valutazione di impatto sanitario (VIS) come strumento decisionale per uno sviluppo sostenibile
"Siti a rischio della Regione Toscana"
Elisabetta Chellini ISPO
Penso di essere rapida anche perché molte delle cose che dirò sono già state ampiamente illustrate da chi mi ha
preceduto. Riferirò in merito alle attività di tipo epidemiologico che ci siamo trovati a svolgere come Istituto per
lo Studio e la Prevenzione Oncologica (ISPO) in aree inquinate o in aree potenzialmente inquinate in Toscana.
Negli ultimi anni ci sono pervenute molte richieste, in particolare da amministrazioni pubbliche ma anche da
associazioni/comitati di cittadini. Sono andate infatti aumentando le mobilitazioni locali contrarie alla presenza
di impianti di potenziale inquinamento ambientale, sempre più in un’ottica di tipo LULU (Locally Unwanted Land
Use) più che NIMBY (Not In My BackYard): le mobilitazioni più recenti non necessariamente rifiutano l’uso e
utilità di infrastrutture che possono avere un’utilità pubblica ma esprimono il disagio e la preoccupazione nei
confronti di situazioni che potrebbero minacciare il territorio nel suo complesso, non solo quello vicino alla propria
abitazione, e del cui controllo i cittadini si sentono espropriati. Inoltre, quello che viene sentito e palesato è anche
una situazione di rischio per la salute ed è per questo che ISPO è stato coinvolto: (i) sia perché ISPO è l’Istituto
oncologico regionale impegnato dagli anni ’70 nel campo della ricerca epidemiologica sulle patologie oncologiche,
che sono quelle che di solito evocano le paure più profonde, perché dietro il termine “cancro” o “tumore” si associa
in genere l’idea di una malattia irreversibile e invincibile; (ii) sia perché per diverse patologie oncologiche è noto il
ruolo causale che possono svolgere esposizioni ambientali che non sono state sinora ben controllate, e che sono
considerate particolarmente preoccupanti anche perché involontarie e spesso distribuite in maniera disuguale. Su
quest’ultimo aspetto chi mi ha preceduto ha detto chiaramente come l’esposizione e quindi gli effetti di esposizioni
ambientali possano distribuirsi variamente nei vari sottogruppi di popolazione, tanto che nelle analisi effettuate
nell’ambito del Progetto Sentieri, di cui abbiamo sentito parlare ieri, sono stati utilizzati indici di deprivazione,
come pure in quelle i cui risultati ci sono stati mostrati poco fa da Annibale Biggeri. Quelle che creano maggiori
problematiche e richieste di studio epidemiologico sono le attività antropiche, prodotte dall’uomo, che possono
implicare l’esposizione umana a fattori di rischio per patologie croniche, quali i tumori, che insorgono in maniera
invisibile e che sono spesso irreversibili.
Accanto ai quattro SIN che sono stati oggetto del Progetto Sentieri e su cui per lo più il lavoro epidemiologico
di ISPO si è sviluppato sul fronte occupazionale, negli ultimi anni abbiamo lavorato su aree caratterizzate dalla
presenza di sorgenti puntuali di possibile inquinamento dell’ambiente circostante, dove erano stati identificati cluster
di patologia oncologica veri o sospetti. Il lavoro epidemiologico in queste aree è solitamente molto complesso
perchè: (i) spesso le popolazioni ivi residenti sono numericamente piccole, come pure le patologie osservate;
(ii) le stime di rischio sono piccole e con ampi margini di incertezza; (iii) le conoscenze sia sulla distribuzione
spazio-temporale delle malattie oncologiche in esame nonché della popolazione e dei fattori di rischio per quelle
patologie sono scarse; (iv) e scarse talora sono anche le conoscenze su tutti quegli aspetti che ha affrontato
Giovanni Marsili poco fa, cioè sul tipo e quantità di inquinanti, sulla loro persistenza nelle matrici biologiche e
sul loro meccanismo di cancerogenicità; (v) ed infine sono talora scarse le conoscenze sulla diffusione degli
inquinanti dalle sorgenti ipotizzate, con la conseguente possibilità di indagare popolazioni più vicine agli impianti
ma non a maggior rischio come potrebbero esserlo popolazioni più lontane. C’è poi il problema delle disequità,
perché le aree che sono caratterizzate da pressioni ambientali, guarda caso, sono anche abitate da comunità più
svantaggiate e che quindi hanno esposizioni professionali, stili di vita “peggiori”, ed anche un peggiore accesso
alle prestazioni diagnostico-terapeutiche. Per esempio, intorno a un impianto di depurazione acque reflue su cui
abbiamo fatto un lavoro pubblicato nel 2002 (Chellini et al. Arch Environ Health, 2002, 57: 548-53), nel primo
chilometro e mezzo dall’impianto quasi il 50% della popolazione presentava un livello di deprivazione alto mentre
nelle aree più distanti la popolazione si distribuiva molto più equamente.
Una patologia tumorale considerata marcatore di aree a maggior rischio è il tumore del polmone. La mappa di cui
alla figura 1 mostra un’analisi per area comunale della mortalità per tumore del polmone negli uomini in Toscana:
le aree lungo la costa, che sono anche aree SIN, sono quelle dove la mortalità per tumore del polmone è più
elevata. Le due mappe si riferiscono a due quinquenni a distanza di un decennio l’uno dall’altro: le macchie di
maggiore intensità di colore si sono allargate in funzione all’andamento dell’abitudine al fumo nella popolazione
ma le aree più fortemente industrializzate sono rimaste a mortalità più elevata rispetto alle altre aree. Per l’area di
Massa Carrara dove il lavoro di ISPO ha riguardato fondamentalmente le esposizioni occupazionali, è ben noto
come nel passato vi fosse un’alta concentrazione di aziende che potevano comportare un rischio ambientale:
ne sono testimonianza due grossi incidenti, quello del 1984 all’ANIC con fuoriuscita di diossina e quello alla
Farmoplant, quattro anni dopo, con fuoriuscita di Rogor.
Piombino, in provincia di Livorno, è stata la prima area dove abbiamo iniziato a valutare la rilevanza ambientale
Arezzo 20 - 23 novembre 2012
131
21 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
di possibili inquinamenti svolti dalle industrie locali (Chellini etal. Epidem Prev 2005, 29 Suppl: 50-2). L’area della
locale acciaieria è praticamente grande quanto l’area urbanizzata ed è proprio a ridosso di questa. Facemmo
uno studio epidemiologico di tipo geografico con l’intento di capire se c’era una distribuzione specifica dei casi di
tumore polmonare in funzione della vicinanza della residenza alla cokeria: trovammo che c’era una concentrazione
maggiore nei primi 700 metri dall’impianto, ma nel contempo ci rendemmo conto che i casi dei soggetti residenti
in quella zona avevano lavorato nell’azienda, erano da anni forti fumatori, e avevano vissuto i primi anni della loro
vita in quella stessa area dove di fatto risiedevano molti lavoratori dell’acciaieria.
Per quanto riguarda l’area Pratese, esaminammo i casi di tumore del polmone in funzione della vicinanza/
lontananza dal locale impianto di acque reflue che aveva al suo interno anche un impianto di incenerimento
della frazione solida (Chellini et al. Arch Environ Health, 2002, 57: 548-53). Anche in quest’area osservammo
un incremento di tumore del polmone all’avvicinarsi della residenza all’impianto, sia escludendo i lavoratori
sia tenendo conto di un indice di deprivazione costruito ad hoc sui dati censuali locali. Successivamente, visto
che non potevamo escludere che ci potesse essere un rischio derivante dall’esposizione agli inquinanti emessi
dall’impianto, avviammo uno studio di tipo caso controllo dove una serie di informazioni legate all’esposizione
professionale e residenziale e allo stile di vita furono raccolte a livello individuale, e nuovamente i risultati dello
studio ci confermarono l’eccesso di rischio, già osservato nel precedente studio descrittivo, nei residenti nel primo
chilometro e mezzo dall’impianto (Pizzo et al. Tumori. 2011, 97:9-13).
Negli ultimi tempi è aumentato il nostro lavoro sui cluster di patologia oncologica. Prevalentemente si tratta di
patologie oncologiche emolinfopoietiche, e per lo più leucemie. I problemi di valutazione sono innumerevoli:
si tratta di insiemi di tumori molto diversi tra loro, diversi tra adulti e bambini, e le cause sono in genere poco
conosciute. In genere inoltre i cluster sono riferiti a casistiche piccole, per lo più desunte da dati correnti sanitari
che sono di per sé abbastanza incerti in assenza di registri tumori di popolazione. Su questo argomento vorrei
velocemente presentarvi il cluster di leucemie di Civitella, da cui si è sviluppato lo studio che vi ha illustrato
ieri Domenico Sallese: dal Registro Mortalità Regionale toscano e dalle schede di dimissione ospedaliera, nel
periodo 1996-2005, erano stati evidenziati ben 29 casi di leucemia in residenti a Civitella; per ogni singolo caso
sono state recuperate le storie residenziali e le cartelle cliniche, e alla fine del percorso di approfondimento
dei casi ne sono stati confermati 22 (ne sono stati esclusi 7: uno era residente da soli 3 mesi, per tre c’erano
degli errori nella registrazione o certificazione delle cause, due erano conseguenti a trattamenti chemio- e
radioterapici, ed uno era riportato nelle due fonti con nome leggermente diverso). L’eccesso di leucemie che
appariva inizialmente rilevante nell’area di Civitella specialmente nell’ultimo quinquennio rispetto al quinquennio
precedente si è pertanto notevolmente ridotto. Da notare inoltre che anche dei primi anni ’70, quando ancora
non esisteva la grande azienda locale ipotizzata fonte di inquinamento, vi era nella zona di Civitella un eccesso
di mortalità per leucemia. Con il termine “leucemia” oggi si classificano patologie maligne molto diverse tra
loro, e quando si va ad analizzare un cluster di leucemie occorre andare molto nel dettaglio delle patologie,
esaminando gli istotipi (alcuni di essi tra l’altro oggi vengono più propriamente classificati dall’OMS tra i linfomi
non Hodgkin e ciò complica ulteriormente il quadro). Anche esaminando l’ubicazione delle residenze dei casi
confermati a Civitella non abbiamo osservato alcuna loro particolare concentrazione nei dintorni dell’impianto.
Come rispondere quindi alle amministrazioni e ai cittadini che erano preoccupati per le possibili emissioni della
grande azienda ivi presente, che peraltro chiedeva anche un raddoppio della propria produzione industriale? Al
di là del cluster di patologia, che se confermato poteva al massimo suggerire una pregressa esposizione a tossici
ambientali, indirizzammo l’attenzione alla valutazione dell’esposizione attuale o pregressa della popolazione a
inquinanti che potenzialmente poteva emettere o aver emesso l’azienda, attraverso l’utilizzo del monitoraggio
biologico umano. Questo infatti è uno strumento conoscitivo che, scegliendo marcatori riconducibili alle emissioni
specifiche dell’azienda, può permettere di capire l’entità, la distribuzione, e anche l’andamento nel tempo (se
effettuato a intervalli regolari) dell’esposizione della popolazione residente, ed ha il vantaggio di permetterci di
identificare situazioni o alterazioni biologiche, a seconda dei marcatori biologici utilizzati, che potrebbero essere
risolte prima di dar luogo a vere e proprie malattie. Il monitoraggio biologico umano è cioè anche uno strumento
di prevenzione primaria.
Per concludere, oggi in Toscana sono disponibili banche dati sia di tipo sanitario sia di tipo ambientale e sono
disponibili metodologie di tipo statistico sempre più sofisticate che ci consentono di analizzare tutti questi dati,
ed ISPO si trova spesso a rispondere a quesiti ambientali utilizzando tali dati sulle patologei oncologiche. Il
problema critico in campo epidemiologico è però quello di decidere se sia prioritario studiare gli effetti sanitari
legati alle pregresse esposizioni o se sia invece preferibile utilizzare le competenze epidemiologiche disponibili
per pianificare, mettere in atto e seguire sistemi di sorveglianza e monitoraggio delle esposizioni attuali, perché
questo ha evidenti ricadute di prevenzione primaria sicuramente molto più importanti. È con queste parole è
chiaro il mio pensiero a riguardo.
Grazie.
132
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
21 Novembre
Figura 1
MORTALITA’ PER TUMORE DEL POLMONE
MASCHI
19871987-1991
20022002-2006
12
Arezzo 20 - 23 novembre 2012
133
21 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
La valutazione di impatto sanitario (VIS) come strumento decisionale per uno sviluppo sostenibile
"L’esperienza di ISPRA in materia di VAS e VIA: quali connessioni con l’impatto sanitario?"
Mario Cirillo ISPRA
Grazie dell’invito a questa interessante iniziativa, un saluto a tutti i presenti.
Mi è stato chiesto di parlare dell’esperienza di ISPRA in materia di VAS e VIA e di fare qualche considerazione
sulla connessione di queste procedure con la VIS. A questo proposito un rapido excursus storico può essere utile.
La VIA nasce alla fine degli anni ‘60 del secolo scorso negli Stati Uniti, in Europa arriva negli anni ’80 e dalla fine
degli anni ’80 si comincia a praticare anche in Italia. All’epoca nel Ministero dell’Ambiente la Direzione Generale
che se ne occupava era la Direzione Valutazione di Impatto Ambientale diretta da Costanza Pera che fu anche
presidente della prima Commissione Nazionale VIA, si cominciarono a fare le prime valutazioni su progetti di
opere, era l’epoca aurorale, pionieristica della VIA allorché la procedura veniva sperimentata per la prima volta
nel nostro Paese. Successivamente la Commissione Nazionale VIA fu presieduta da Maria Rosa Vittadini e si
conclude così il decennio degli anni ’90.
Negli anni 2000 c’è una novità importante, la Legge Obiettivo (Legge 21 dicembre 2001 n.443) che nasce
dall’esigenza di realizzare con tempistica certa alcune grandi opere infrastrutturali, di conseguenza i tempi per
la VIA di queste opere, detta VIA Speciale, sono più rapidi di quelli della VIA “Ordinaria”. Da molti la Legge
Obiettivo viene percepita come un provvedimento che nasce dalla scelta di infrastrutturare questo Paese e dalla
conseguente esigenza di “non perdere molto tempo” per le valutazioni di impatto ambientale; evidentemente
l’esperienza della VIA così come era stata condotta fino ad allora veniva percepita come una procedura che in
qualche modo rallentava, impedendo così di essere rapidi nelle decisioni. Si introduce dunque la VIA Speciale
e i tempi di realizzazione diventano perentori: tanto per darvi un’idea, il ponte sullo stretto di Messina, che non è
proprio una bazzecola, è in VIA speciale. A seguito dell’introduzione della VIA Speciale il Ministero dell’Ambiente
decide per la prima volta di ricorrere al supporto tecnico-scientifico dell’APAT, l’Agenzia per la protezione
dell’ambiente e per i servizi tecnici che successivamente fondendosi con ICRAM (Istituto per la ricerca sul mare)
e con INFS (Istituto nazionale per la fauna selvatica) diviene ISPRA. Evidentemente si era divenuti consapevoli
della complessità delle valutazioni ambientali di talune opere, insieme alla necessità di concludere la procedura
in maniera esauriente con i tempi ristretti della VIA Speciale . Di conseguenza dal 2003 l’allora APAT venne
chiamata in campo, inizialmente solo per la VIA Speciale.
Nel 2007 è stato istituito in ISPRA (che come detto proviene dalla fusione di APAT, ICRAM e INFS) il Servizio
“Valutazioni Ambientali” che io ho il piacere di coordinare, e nel 2008 ISPRA viene coinvolta da una Direttiva
del Ministro dell’Ambiente nella quale l’Istituto è chiamato nuovamente a svolgere attività di “supporto diretto
e istruttorio” alla Commissione Nazionale Tecnica per le Valutazioni Ambientali VIA/VAS (CTVA). Questa volta
l’incarico riguarda le procedure: VIA Ordinaria, VIA Speciale e VAS. Sì, perché nel frattempo c’era stata un’altra
grande novità, era stata introdotta anche la procedura di VAS, Valutazione Ambientale Strategica, che in linea di
principio, lavorando sui piani e programmi e non su singole opere, costituisce un salto di qualità nell’ambito delle
valutazioni ambientali. Dal 2008 ad oggi noi abbiamo lavorato circa un paio di centinaia di procedure di rilevanza
nazionale, con una prevalenza di opere in procedura di VIA (Ordinaria o Speciale), essendo il numero delle VAS
sensibilmente inferiore. Da notare che in termini assoluti il numero di procedure VIA/VAS per le quali la CTVA
richiede a ISPRA il supporto tecnico-scientifico è limitato rispetto a tutto il numero di procedure che smaltisce, ma
c’è da considerare che si tratta delle procedure più complesse e delicate, tanto per intenderci il ponte sullo Stretto
di Messina, l’alta velocità Torino-Lione, il deposito di gas naturale di Rivara in Emilia Romagna, il metanodotto
Algeria-Italia e cose di questo tipo. Noi abbiamo adottato un modello organizzativo “a rete” estremamente
interessante, faticoso ma interessante, nel senso che questo tipo di attività è baricentrata nel Servizio Valutazioni
Ambientali, ma coinvolge tutte le competenze tecniche presenti nei diversi Dipartimenti di ISPRA. Quando ci
viene assegnata una preistruttoria – si chiama preistruttoria in quanto l’istruttoria è di competenza della CTVA –
noi mettiamo in campo un Gruppo di Lavoro Tecnico che di solito è formato da nove-dieci specialisti, e questo
vi dà un’idea della quantità di competenze messe in campo: ogni specialista è portatore del know-how e delle
esperienze della unità tecnica cui appartiene. In realtà per questa attività è stata “messa a rete” tutta ISPRA,
abbiamo messo in moto grosso modo 250 esperti in questi anni di esperienza di supporto alla Commissione VIA/
VAS. Il nostro è un endoprocedimento, e teniamo distinto il nostro lavoro rispetto a quello della CTVA. Per ogni
studio di impatto (nel caso di VIA) o rapporto ambientale (nel caso di VAS) su cui l’Istituto è attivato si costituisce
il Gruppo di Lavoro Tecnico che ha un coordinatore, che di solito afferisce al Servizio Valutazioni Ambientali, e
questo Gruppo esamina qual è la qualità scientifica, la qualità dei dati, la completezza dello studio di impatto o
del rapporto ambientale, dopodiché noi consegniamo una relazione preistruttoria alla Commissione che nella sua
piena autonomia e indipendenza valuta la compatibilità ambientale. Noi non valutiamo la compatibilità ambientale,
134
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
21 Novembre
questo deve essere chiaro, in questi anni ho sempre cercato di tenere distinto il contributo di ISPRA dal contributo
della Commissione.
Andiamo al punto: le connessioni con gli aspetti sanitari.
Come dicevo, la VIA nasce in Italia nel 1987, nel 1988 vengono emanati sulla materia alcuni Decreti del Presidente
del Consiglio dei Ministri (DPCM) tra cui le Norme Tecniche in materia di valutazione di impatto ambientale;
ebbene, quel DPCM è ancora vigente, quindi chi va a realizzare uno studio di impatto ambientale deve prendere
a riferimento quel DPCM emanato nel 1988, parecchi lustri fa, e deve declinare il suo studio secondo quello che
c’è scritto sopra. Il DPCM afferma, tra le altre cose, che in uno Studio di Impatto Ambientale bisogna prevedere
anche l’analisi della componente “salute pubblica”, quindi chi affronta uno studio di impatto deve anche affrontare
anche il problema della salute pubblica.
D’altra parte le norme più recenti in materia di VIA e di VAS in Italia, il testo unico (D.Lgs. 3 aprile 2006 n.152 e
s.m.i.) danno giustamente grande importanza agli aspetti sanitari. La stessa normativa all’art.34 dispone sulle
modifiche e aggiornamento delle norme tecniche, individuando come estensori il Ministero dell’Ambiente di
concerto con il Ministero dei Beni Culturali. Il Ministro dell’Ambiente nel 2011 ha istituito un Comitato tecnicoscientifico, per dare attuazione all’art.34, nel quale ISPRA è presente nella mia persona; io mi sono preoccupato
da subito di coinvolgere tutto l’Istituto e ISPRA ha prodotto un contributo per gli aspetti di sua stretta pertinenza,
cioè quelli ambientali, e noi abbiamo già consegnato a luglio 2012 al Ministero dell’Ambiente il documento tecnico.
E’ chiaro che per quanto riguarda gli aspetti più specificamente sanitari ritengo sia importante un rapporto virtuoso
tra chi si occupa di ambiente e chi si occupa di salute, e questo aspetto l’ho sottolineato anche al Comitato
tecnico-scientifico di cui sopra.
A questo proposito può essere utile vedere come viene attualmente trattata negli studi di impatto ambientale
la componente “salute pubblica” per un aspetto molto importante, ovvero la caratterizzazione aggiornata dello
stato di salute della popolazione localizzata nell’area potenzialmente impattata dall’opera – parliamo della VIA
su cui abbiamo una maggiore ricchezza di informazione lasciando per ora da parte la VAS. Posso dire che la
caratterizzazione aggiornata dello stato di salute della popolazione localizzata nell’area potenzialmente impattata
dall’opera è la cenerentola, su un paio di centinaia di studi di impatto ambientale abbiamo verificato che c’è una
completa assenza della sezione corrispondente al capitolo “salute pubblica” in circa il 30% dei progetti esaminati,
nelle istruttorie relative ai metanodotti la caratterizzazione dello stato di salute della popolazione non viene mai
presa in considerazione, lo stesso accade anche per opere quali parchi eolici o l’unico impianto a biodiesel
esaminato; capita che il proponente affermi che certe opere non hanno effetto sulla salute pubblica senza verificare
ciò tramite una appropriata analisi che integri le analisi settoriali sulle diverse componenti passando, appunto,
per una caratterizzazione aggiornata dello stato di salute della popolazione localizzata nell’area potenzialmente
impattata dall’opera. Peraltro laddove questo tipo di analisi viene fatto ci sono delle grosse carenze, non credo
di sbagliare nel dirlo. Per esempio, la caratterizzazione dello stato attuale della salute risulta mancante in circa
il 90% delle istruttorie relative alle infrastrutture stradali e in circa il 70% delle istruttorie relative agli elettrodotti,
nelle opere ferroviarie le informazioni, quando presenti, sono spesso generiche e quasi mai calate, tarate su scala
locale. Voi capite che in questa maniera non è facile tirar fuori qualcosa di utile. Come si sopperisce a queste
carenze nella fase di preistruttoria che è curata da ISPRA? Noi facciamo una prima analisi tecnica per quanto
riguarda la richiesta di integrazioni al proponente, quindi cerchiamo, nell’ambito delle richieste di integrazioni, di
sollecitare, favorire il fatto che il proponente anche per quanto riguarda gli aspetti di caratterizzazione dello stato
attuale della salute pubblica migliori le performance del suo studio, ma spesso anche le integrazioni presentano
delle carenze non indifferenti.
In conclusione mi sento di affermare che il nodo della salute pubblica è un nodo importante e una criticità forte
nella fase attuale delle valutazioni ambientali. Non è mio compito dire cosa fare con la VIS, mi pare che il problema
sia talmente ampio, articolato e complesso sia dal punto di vista scientifico che istituzionale ….. però qualche idea
anche oggi mi è venuta, ho visto che in varie regioni la normativa sulla valutazione di impatto ambientale ha in
qualche modo introiettato la VIS. È un elemento di riflessione. Quello che io vedo e che riporto è che sicuramente
gli aspetti sanitari nelle attuali valutazioni ambientali sono una criticità, quindi bisogna assolutamente migliorare
sotto questo punto di vista. Il professor Assennato sottolineava anche l’esigenza di parlare di sanità, di effetti
sanitari nel campo dell’AIA, questa è un’altra tematica su cui bisogna riflettere.
Quello che è certo, è che è indispensabile che le istituzioni scientifiche e le amministrazioni centrali e periferiche
del settore ambientale e di quello sanitario su questa fondamentale tematica parlino e riflettano insieme e diano
indicazioni utili ai nostri decisori.
Arezzo 20 - 23 novembre 2012
135
21 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
La valutazione di impatto sanitario (VIS) come strumento decisionale per uno sviluppo sostenibile
"Applicazione sugli effetti a breve termine dell’esposizione a inquinanti dell’aria in regione Lombardia"
Dipartimento di Statistica dell’Università di Firenze
Trascrizione non revisionata dal relatore
Michela Baccini L’oggetto di questa presentazione è uno studio sull’impatto a livello regionale dell’inquinamento atmosferico e
sulla mortalità nella regione Lombardia che è stato condotto dall’Università di Firenze, dall’Università degli Studi
di Milano e dalla Fondazione IRCCS dell’Ospedale Maggiore Policlinico. La valutazione di impatto ambientale, di
cui stiamo oggi parlando, è diventata particolarmente rilevante e sta prendendo campo fino dall’anno 2000.
Nell’ambito dell’inquinamento atmosferico, quindi in ambito urbano, è particolarmente rilevante effettuare le
valutazioni di impatto, perché in questo contesto la grandezza delle stime di rischio, dei rischi relativi, è molto
piccola, c’è però il problema che tutta la popolazione è esposta a problemi di inquinamento talvolta superiori alle
norme di legge. Quindi, anziché comunicare in termini di rischi relativi, diventa importante comunicare in termini
assoluti, in termini di numero di decessi attribuibili, anni di vita persi, perché questi indicatori sono maggiormente
fruibili, anche più diretti, e possono essere capiti in modo migliore da tutti i soggetti che sono coinvolti nel processo
decisionale o che dovrebbero esserlo, quindi sia dai cittadini, sia dai politici. In Italia, riguardo alle stime di impatto
dell’inquinamento atmosferico in ambito urbano sono stati fatti alcuni studi condotti dall’OMS e poi lo studio MISA
su tredici città italiane. I risultati dello studio che sto adesso presentando sono relativi alla regione Lombardia per
il periodo 2003-2006. Quello che sto riportando adesso sono gli effetti relativi al PM10, lo studio è stato condotto
anche su altri inquinanti come per esempio NO2. In questo studio ci siamo focalizzati sull’effetto a breve termine,
perché è più immediato ed è quello su cui si può intervenire subito ed è quello che ci fa vedere cosa accade se
noi riduciamo subito i livelli di inquinamento. L’impatto è stato valutato in termini di numero di decessi attribuibili,
per fare questo è necessario combinare la curva concentrazione-risposta con i livelli di inquinamento e anche con
la mortalità di base osservata in questo caso a livello regionale. L’approccio che abbiamo usato, rispetto allo
studio OMS che è quello più noto in questo ambito, è originale perché fa uso di dati locali per la stima della
funzione esposizione-risposta e inoltre perché sono stati specificati degli scenari controfattuali definiti, in termini
di concentrazione giornaliera di PM10, sulla base di quelle che sono le norme di legge e le indicazioni dell’OMS.
Lo studio ha coinvolto 13 aree della Lombardia, 11 città con più di 50.000 abitanti, quindi tutti i capoluoghi di
provincia, tra questi è incluso anche Sondrio,che è sotto i 50.000 abitanti, e tutti i comuni appartenenti alla
provincia di Lodi che sono stati considerati come un’unica area. Per quanto riguarda la stima degli effetti degli
inquinanti, non sono stati presi in considerazione comuni più piccoli perché la stima sarebbe stata veramente
incerta e anche, talvolta, impossibile da ottenere. I dati sono quelli della rete di monitoraggio dell’ARPA. Per
quanto riguarda le stime di effetto, si è utilizzato una procedura a due passi che ha consentito di ottenere, per
ciascuna area, una stima dell’effetto dell’inquinante che tenesse conto sia dell’informazione dell’area stessa, sia
delle informazioni provenienti dalle altre aree, questo sia per avere un guadagno in precisione nel momento in cui
si mettono insieme più dati provenienti da più aree, sia per conservare allo stesso tempo la specificità dell’area,
quindi fare in modo che queste stime potessero anche essere eterogenee tra loro, rispecchiando la diversa
struttura demografica delle città e anche la diversa composizione dell’inquinante, del PM10, la diversa origine
dell’inquinante. Il modello di concentrazione-risposta è questo (slide), dove y con i è il numero dei morti osservato
che è dato per noi dal prodotto del numero di morti baseline, cioè a un livello t0 di inquinante, moltiplicato per il
rischio relativo. I decessi attribuibili come sono calcolati? Sono dati dalla differenza tra il numero dei morti osservati
e il numero di morti che si sarebbero osservati se l’inquinante fosse stato a un livello t0 anziché al livello osservato.
Ogni volta che l’inquinante va al di sopra del livello t0 fissato si ha un certo numero di decessi attribuibili
all’inquinamento. Questi decessi attribuibili possono proprio essere letti come decessi attribuibili a eccessi
dell’inquinante oppure anche come decessi che si sarebbero potuti risparmiare, cioè numero di vite salvate, se il
livello dell’inquinante fosse stato a livello t0. Che livelli abbiamo considerato in questo studio? Abbiamo considerato
il livello di 20 μg/m³ indicato nelle linee guida dell’OMS, quello di 40 che è il limite dell’Unione Europea, questo per
quanto riguarda le medie annuali, nel caso in cui si superassero questi limiti di 20 o di 40 μg, si è provato a vedere
che cosa sarebbe accaduto se l’inquinante fosse stata diminuito, fosse stato minore del 20% a livello osservato,
infine qual è il livello di mortalità attribuibile ai superamenti giornalieri che non possono essere più di 35 a livello
di 50 μg/m³. i risultati sono pubblicati in un articolo sull’American Journal of Epidemiology. Questi box plot (slide),
rappresentano le stime di effetto per tutte le aree considerate, come si vede, l’unico box plot che si discosta dagli
altri è quello di Milano, quindi sostanzialmente c’è una omogeneità dell’effetto nella regione Lombardia ma la città
di Milano mostra un effetto dell’inquinante un po’ più elevato. In questa tabella sono riportati, nelle quattro colonne,
con RS0, RS1, i decessi attribuibili, con i relativi intervalli di confidenza, al superamento del PM10 delle soglie che
vi do detto prima, quindi la prima colonna RS0 è relativa alla soglia di 20 μg/m³, quella molto restrittiva, quella
136
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
21 Novembre
bassa dell’OMS, la colonna RS1 ha la soglia 40 μg/m³ e le due colonne successive, RS2 e RS3, a quella
diminuzione del 20% del livello dell’inquinante. Per esempio per la città di Milano si nota che se il livello
dell’inquinamento annuale, anziché quello osservato che è pari a 52.5 μg/m³, fosse stato di 20 μg/m³, si sarebbero
potute risparmiare 232 morti, se il livello fosse 40, il numero di morti risparmiate sarebbe stato 89, se il livello
dell’inquinante, anziché 52.2 fosse stato pari a 42, cioè il 20% in meno, ci sarebbe stato un risparmio di 75.3 morti,
quindi nella città di Milano c’è un impatto che è abbastanza sostanziale. In questa slide gli stessi risultati per i primi
due scenari sono riportati in termini di ACR, vale a dire numero di morti attribuibili per 100.000 abitanti. Si vede
che a Milano sono 17.8 per il primo scenario di 20 μg/m³, 6.9 per il secondo scenario. Qui sono invece riportati i
risultati relativi ai superamenti del limite giornaliero, anche in questo caso si vede che, sempre su Milano, c’è un
eccesso di mortalità di 96.6 unità. Questo stesso approccio di stima dei decessi attribuibili è stato poi esteso
all’intera regione, quindi si è considerata la stima globale di effetto, si sono considerati i livelli di inquinamento in
ciascun comune, stimati da un modello di tipo deterministico sviluppato dall’ARPA e quindi per ciascun comune
sono stati stimati numero di decessi attribuibili, questo per l’anno 2007. si vede chiaramente che l’area della
pianura padana e le aree intorno a Milano e a Brescia sono quelle dove il burden di mortalità legato agli eccessi
di PM10 è più sostanziale. Le conclusioni sono quelle che abbiamo detto, c’è un impatto abbastanza sostanziale
degli eccessi di PM10 sulla mortalità, quello che è interessante è che anche una riduzione del 20% dei livelli di
PM10 ci potrebbe ridurre di più del 30% il numero di decessi attribuibili ai livelli elevati di PM10, quindi qualsiasi
riduzione del livello dell’inquinante ci dà un beneficio in termini di vite salvate. Detto questo, le politiche per la
riduzione dell’inquinamento atmosferico e quindi le concentrazioni di PM10, che nelle parti urbane e nella parte
centrale della Lombardia sono verosimilmente dovute a traffico veicolare, sono auspicabili.
Arezzo 20 - 23 novembre 2012
137
21 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
La valutazione di impatto sanitario (VIS) come strumento decisionale per uno sviluppo sostenibile
"Il Progetto LIFE+ HIA21: un’esperienza partecipata di VIS sul trattamento dei rifiuti urbani"
Presidente ISDE Italia
Roberto Romizi Il progetto LIFE+ HIA21
Dal 1° Settembre 2011 e fino al 31 Dicembre 2014 si svolgerà il progetto LIFE+ 10ENV/000331 “Valutazione
partecipata degli impatti sanitari, ambientali e socioeconomici derivanti dal trattamento di rifiuti urbani - HIA21”
che vede coinvolte le regioni della Toscana e dell’Abruzzo. Ente proponente del progetto è l’Istituto di Fisiologia
Clinica del Consiglio Nazionale delle Ricerche. Il partenariato si compone di ARPA Emilia Romagna, Azienda USL
n. 8 Arezzo, Comune di Lanciano (CH), Consorzio Mario Negri Sud, Coordinamento Nazionale A21L, ISDE Italia,
Provincia di Chieti.
Il progetto HIA21 serve per realizzare valutazioni sull’impatto ambientale, sanitario e socioeconomico (VIS o
HIA, Health Impact Assessmet) di due differenti sistemi di gestione dei rifiuti (discarica di Lanchiano – CH e
inceneritore di Arezzo), supportando chi deve prendere decisioni in proposito, ad effettuare la scelta migliore tra
le alternative possibili per future iniziative, nonché individuare miglioramenti nelle modalità gestionali in essere.
Il progetto produce raccomandazioni ai decisori derivanti dalle attività dei Gruppi di Lavoro VIS nei due territori
coinvolti; scenari alternativi per il sistema di gestione dei rifiuti nelle due aree; percorsi di comunicazione e
partecipazione (forum, focus group, incontri con le popolazioni interessate).
L’ambizione principale del progetto è quella di produrre delle metodologie di valutazione partecipata e il più
possibile estendibile negli ambiti nazionale ed europeo, con auspicabili ricadute positive nel breve periodo sul
sistema di gestione dei rifiuti nei territori di studio e a lungo termine sulla politica di gestione dei rifiuti a livello
dell’Unione Europea.
Il progetto si presenta innovativo rispetto a diversi punti:
- I sistemi di valutazione esistenti (VIA, VAS) se da un lato sono dettagliati per ciò che concerne gli aspetti
ambientali, non vengono di solito orientati sulle possibili conseguenze sanitarie e socioeconomiche; la VIS copre
questo gap, ed è inoltre attuata da un tavolo di lavoro (GdL VIS) che comprende organi terzi ed indipendenti,
mentre la VIA è una valutazione presentata dal proponente;
- L’integrazione A21L e VIS appare il sistema più coerente per dare attuazione ai principi di trasparenza,
condivisione, uguaglianza e dignità ribaditi anche dall’art. 1 del Trattato di Lisbona;
- Con questo procedimento, viene rafforzata la consapevolezza dei cittadini sul ruolo che essi hanno nelle politiche
di gestione del territorio; il cittadino non è più un soggetto passivo che delega le decisioni ad altri organi, ma si
trasforma in soggetto attivo, con un suo ruolo nel controllo delle politiche di pianificazione e sorveglianza;
- In Italia non esiste una valutazione organica degli impatti sanitari, ambientali e socioeconomici di impianti di
trattamento dei rifiuti; i risultati di questo progetto rappresenterebbero il primo caso in tal senso nel Paese;
- Le politiche di gestione del ciclo dei rifiuti sono molto diversificate nei 27 Paesi dell’Unione, e diversificate sono
anche le procedure di valutazione dei rispettivi impatti; il progetto vuole gettare le basi per creare una metodologia
comune e condivisa a livello comunitario, che contribuisca anche ad armonizzare ed uniformare le differenti
politiche di pianificazione.
Il progetto, in definitiva, deve intendersi come ‘pilota’, costituendo un precedente applicabile successivamente in
altri ambiti, nazionali ed europei.
Perché è importante la VIS?
La VIS favorisce l’informazione, la partecipazione, la comunicazione (advocacy), l’integrazione, la prevenzione e
il principio di precauzione, un uso appropriato delle risorse, equità e giustizia sociale, il ruolo di medici sentinella
sulla prevenzione dei fattori di rischio collettivi (ambientali), rispetto a quelli individuali.
La VIS favorisce l’informazione.
Un primo questionario, distribuito sia in formato cartaceo che tramite web dal sito www.hia21.eu, è servito per
raccogliere informazioni sulla percezione del rischio e dei pericoli ambientali; informazioni sulla conoscenza che
ha la cittadinanza relativamente ad inceneritori e discariche, sulla raccolta differenziata e informazioni di carattere
138
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
21 Novembre
socio-demografico.
La VIS favorisce la partecipazione.
Il progetto prevede poi la costituzione di focus group:
- uno di carattere politico-generale. Le azioni in essere hanno creato una quadro sintetico delle politiche di
gestione del territorio e portato a raccogliere documentazione e dati relativi all’inceneritore ed agli impianti di
smaltimento. Nell’insieme tali informazioni indirizzano il focus ad affrontare i seguenti temi: Piano Regionale,
Piano interprovinciale, Costi, Obiettivi per il Comune;
- uno che lavorerà sui risultati preliminari dell’indagine conoscitiva relativa a dati sanitari, ambientali,
socioeconomici. I temi da approfondire sono le valutazioni dell’indagine sanitaria, dell’indagine ambientale e
dell’indagine socioeconomica.
Nella nostra realtà è attivo il Progetto Città Sane il cui obiettivo è la promozione della salute della città e dei suoi
abitanti attraverso un’azione globale che coinvolga tutti i settori della vita cittadina, e non solo i servizi sanitari che
si occupano principalmente di malattie. Il Progetto Città Sane si basa su due principi chiave della “Salute per tutti”:
l’intersettorialità e la partecipazione comunitaria.
La VIS favorisce l’advocacy.
Advocacy significa farsi promotore e attivamente patrocinare la causa di qualcun altro.
Nel campo della salute, l’advocacy consiste nell’uso strategico di informazioni e altre risorse (economiche,
politiche, ecc.) per modificare decisioni politiche e comportamenti collettivi ed individuali allo scopo di migliorare
la salute di singoli o comunità.
L’Advocacy consiste nello sforzo di modificare gli esiti di politiche pubbliche o di decisioni allocative che hanno un
impatto diretto sulla vita delle persone. (a cura di Angelo Stefanini – Regione Emilia Romagna).
Produrre conoscenze adeguate non ha impatto sulla salute finché queste non sono trasferite efficacemente ai
decisori politici.
É bene prendere coscienza che nonostante le stime - ormai prodotte con discreta precisione da anni - della
misura della catastrofe da amianto, la sola disponibilità dei dati epidemiologici non sarebbe stata sufficiente per
arrivare al bando.
Ciò che questa esperienza ha dimostrato è la capacità delle ONG di coinvolgere l’opinione pubblica.
Non è emersa invece una grande abilità da parte degli operatori di condividere i loro dati con l’autorità politica e
l’opinione pubblica. (B. Terracini, 1999).
La VIS favorisce il superamento degli ostacoli al fine di attuare un’azione intersettoriale – interistituzionale: il
“territorialismo” (le istituzioni ed organizzazioni difendono la propria area di competenza da ciò che percepiscono
come “minacce d’ingerenza”, perdita di prestigio, potere); la competitività per risorse finanziarie limitate; le “agende
nascoste” (sia a livello individuale che di settori, istituzioni e organismi); la mancata comprensione dei benefici che
si potrebbero ottenere; i rapidi cambiamenti organizzativi e nel turn-over del personale.
La VIS favorisce il PRINCIPIO DI PRECAUZIONE.
E’ un approccio alla gestione dei rischi che si esercita in una situazione d’incertezza scientifica, che reclama
un’esigenza d’intervento di fronte ad un rischio potenzialmente grave, senza attendere i risultati della ricerca
scientifica.
Il principio contrasta l’atteggiamento di “stare a vedere cosa succederà prima di prendere provvedimenti” per non
turbare interessi in gioco diversi da quelli di salute.
Le origini del Principio di Precauzione.
- Trattato Istitutivo dell’UE, art. 174 (Mastricht. 1992): “La politica della comunità in materia ambientale mira a un
elevato livello di tutela…. Essa è fondata sul principio della precauzione dell’azione preventiva, sul principio della
correzione in via prioritaria alla fonte dei danni causati all’ambiente…”
- Conferenza ONU Ambiente e Sviluppo – Principio 15 ( Rio de Janeiro, 1992): “Allo scopo di proteggere l’ambiente,
gli Stati applicheranno l’approccio precauzionale. Qualora vi siano minacce di danno grave o irreversibile, la
mancanza di una piena certezza scientifica non sarà usata come ragione per posporre misure efficienti in rapporto
ai costi per prevenire il degrado ambientale”.
“Nelle aree a rischio le attività potenzialmente pericolose vengono comunque permesse, dato che le regole della
scienza tradizionale richiedono forti evidenze per individuare l’effetto dannoso.
Questo conservatorismo scientifico è favorevole ai promotori di attività o tecnologie potenzialmente pericolose in
quanto la ricerca non è in grado di produrre dati sufficienti a dimostrare il rischio.
Quando esiste una forte incertezza circa i rischi e i benefici la decisione deve tendere più verso l’estremità della
cautela per l’ambiente e la salute pubblica.
Oggi le agenzie governative sono poste nella condizione di dover attendere la chiara dimostrazione del danno,
Arezzo 20 - 23 novembre 2012
139
21 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
prima di poter intervenire. Per i medici trasformare l’approccio in modo precauzionale è pienamente in linea con
l’idea fondamentale della pratica di Sanità Pubblica”.
La VIS favorisce le strategie e le politiche per la PREVENZIONE. Quando sono noti gli effetti nocivi di una tecnologia
o di una sostanza occorre adottare tutte le misure per prevenire tali effetti sull’ambiente e sulla popolazione.
Le domande dei politici focalizzano l’attenzione sulla quantificazione di un potenziale pericolo piuttosto che sulla
prevenzione: qual è il rischio posto da questa attività? É significativo? Qual è il rischio accettabile?
Occorre invece spostare l’attenzione su queste domande: L’attività proposta è necessaria? Quanta contaminazione
possiamo evitare, pur raggiungendo gli stessi obiettivi previsti? Esistono alternative che escludono del tutto il
pericolo? I LIMITI DI LEGGE TUTELANO DAVVERO LA SALUTE? Esiste un EFFETTO SOGLIA, ossia una
concentrazione al di sotto della quale non si registrano effetti sulla salute?
E’ il problema del rischio accettabile.
I limiti di legge sono sempre calcolati su individui adulti: i bambini e gli organismi in accrescimento possono avere
una suscettibilità totalmente diversa!!!
La VIS favorisce l’attivazione dei MEDICI SENTINELLA. Una “Rete di Medici Sentinella” sono principalmente una
Rete di Medici di Medicina Generale .
La loro funzione è quella di monitorare incidenza, prevalenza e progressione di una malattia o di una serie di
patologie nel tempo in gruppi di popolazione o in zone geografiche prestabilite.
Le esperienze fino ad ora hanno riguardato la rilevazione di diverse patologie tra cui diabete, influenza e AIDS.
L’ISDE ha realizzato una sperimentazione nel contesto della Ricerca Sanitaria Finalizzata della Regione Toscana,
segnatamente la “Cartella medica orientata per problemi ambientali per medici di Medicina Generale” con
particolare riguardo alle BPCO.
Dal Novembre 2011 al Gennaio 2013 è stato portato avanti ad Arezzo un Percorso di formazione e aggiornamento
del Medico di Medicina Generale sulle tematiche di salute e ambiente dal titolo “Salute e Ambiente in Toscana:
l’esperienza di Arezzo”, organizzato da ASL 8 Arezzo, Scuola Internazionale Ambiente Salute e Sviluppo Sostenibile
- SIASS e Istituto Superiore di Sanità, in collaborazione con coordinamento animatori di formazione MMG Regione
Toscana, FIMMG Toscana, SIMG Toscana, ARS, ARPAT, Regione Toscana, ISPO, CNR, coordinamento Agenda
21, Rete Città Sane/OMS, ISDE.
Il percorso SAT MMG rappresenta un’esperienza pilota che analizza il potenziale ruolo dei medici di famiglia quali
“mediatori dei conflitti ambiente-salute correlati“.
Il MMG “può” rappresentare il punto di raccordo tra la popolazione e le istituzioni in quanto punto di riferimento
dei propri pazienti.
E’ stato definito un “documento “ a cura della Medicina Generale sulle 4 tematiche: discariche, inceneritori, centrali
a biomasse, inquinamento atmosferico urbano.
Perché ISDE è interessata alla VIS?
L’Associazione Medici per l’Ambiente - ISDE Italia è un’associazione interdisciplinare finalizzata alla protezione
delle popolazioni dai rischi ambiente e salute correlati. Soci 2012: oltre 600, 64 referenti locali di cui 45 presidenti
di sezioni provinciali formalmente costituite (25 dei quali sono MMG).
Perché i medici clinici devono occuparsi di ambiente? Il rischio ambientale è compito degli MMG? Quanto incide
l’impatto dell’ambiente sulla salute?
Si stima che il 24% della malattie e il 23% delle morti possa essere attribuito ai fattori ambientali. Più di un terzo
delle patologie nei bambini è dovuto a fattori ambientali modificabili.
Stime precedenti delle malattie attribuibili all’ambiente, derivate in parte dall’opinione di esperti, erano in generale
accordo.
Oggi l’inquinamento è un fenomeno ubiquitario e capillare e l’esposizione agli agenti epi-genotossici fisici
(radiazioni ionizzanti e non), chimici (metalli pesanti, interferenti endocrini, pesticidi, diossina, ecc…), biologici
(transgenici e virus), che persistono nell’ambiente, si bioaccumulano negli esseri umani e causano trasformazioni
genomiche, va ad interessare l’intera popolazione umana, le generazioni future, l’intera eco/biosfera.
Inoltre riguarda non solo le patologie neoplastiche, ma tutte le patologie cronico-degenerative (cardio-vascolari,
immuno-mediate/immuno-flogistiche, neuro-endocrine, neuro-degenerative).
ISDE si confronta con la “politica” attraverso azioni di pressione su Governi e Organizzazioni Internazionali,
Nazionali e Locali ed azioni di verifica del rispetto delle normative, ma anche di proposta.
L’alleanza tra organismi governativi e organizzazioni non governative è strategica e reciprocamente vantaggiosa,
140
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
21 Novembre
in ragione delle differenti e complementari specificità e modalità d’azione (in particolare, maggior libertà d’azione
delle ONG).
Obiettivo societario è quello di promuovere azioni di collaborazione informativa (non “di consulenza”, che è
sempre di parte) con associazioni, movimenti, comitati di cittadini, con i partiti politici e con le istituzioni preposte
alla promozione e alla protezione del binomio ambiente-salute.
“L’ISDE si ripropone di dare gli strumenti culturali e di critica sanitario-ambientale per orientare il territorio”. Si
tratta di mostrare che le istituzioni pubbliche non sono al servizio degli sponsor privati……
L’ISDE ha promosso la Rete Italiana Ricercatori per la Responsabilità Ambientale e Sociale – RIRAS che persegue
tra i vari obiettivi quello di spingere i decisori politici e gli amministratori istituzionali (anche attraverso un controllo
sempre più attivo da parte della comunità scientifica e di comitati di cittadinanza attiva) a interloquire ed ascoltare
esperti di diverso orientamento e di sicura competenza privilegiando in ogni occasione gli interessi collettivi e
pubblici ed evitando che sussistano conflitti di interesse che possano condizionare le scelte.
Arezzo 20 - 23 novembre 2012
141
21 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
Verso MILANO EXPO 2015 - Agricoltura, sostenibilità e salute
"Sostenibilità delle filiere agricole. La nuova sfida dell’agricoltura: produttività e sicurezza alimentare"
Ezio VeggiaConfagricoltura
Trascrizione non revisionata dal relatore
Buongiorno a tutti, come annunciato io sono il vicepresidente di Confagricoltura ma soprattutto sono un agricoltore,
un allevatore, un produttore di cereali del monferrato quindi non in una zona particolarmente vocata alle grandi
produzioni. Una zona che può offrire delle soddisfazioni però con delle criticità che vanno superate con attenzione.
Io vi parlerò di bioeconomia che ha e rappresenta un grande potenziale in quanto può mantenere e alimentare
la crescita economica, la creazione di posti di lavoro, ridurre la dipendenza dai combustibili fossili, migliorare la
sostenibilità economica e ambientale della produzione primaria.
La bioeconomia in Europa rappresenta circa 2 mila miliardi di giro d’affari ed impegna il 10% di occupati cioè oltre
20 milioni di persone in Europa.
Si può stimare per quanto riguarda l’Italia un 10% di questo peso, quindi 200 miliardi circa e l’impegno di 2 milioni
di occupati, quindi come si può capire un settore che può dare grandi soddisfazioni per il futuro.
Confagricoltura si è sempre occupata con attenzione di bioeconomia in quanto riteniamo che l’impegno
dell’agricoltore vada visto a 360 gradi. Naturalmente l’aspetto principale del produttore agricoltore è quello di
produrre cibo di qualità, un elemento essenziale per tutto il settore agroindustriale. Soprattutto in questo momento
di crisi ci accorgiamo che il settore agroalimentare è un po’ in contro tendenza, sta tenendo abbastanza bene
praticamente vale tra il 15 e 17% del PIL e potrebbe riservare grandi soddisfazioni per il futuro.
La bioeconomia è un aspetto del settore agricolo che praticamente deve sostenere 4 sfide sostanziali:
Garantire la sicurezza alimentare. La sicurezza alimentare è un argomento che nel nostro paese
abbiamo sempre considerato perché è la nostra cultura la nostra tradizione, rispetto ad altri paesi del
nord, è un concetto che abbiamo sempre avuto molto radicato.
Gestire le risorse naturali in modo sostenibile. La gestione delle risorse naturali in modo sostenibile è un
concetto che si è fatto strada negli ultimi 20-30 anni. Nel dopo guerra non ci preoccupavano di gestire
le risorse in modo sostenibile in modo da portare alle future generazione le stesse opportunità, un
ambiente equilibrato che abbiamo trovato. È un discorso che si è fatto strada con lo sviluppo industriale
con il grosso sfruttamento delle risorse naturali che si è affermato sempre di più negli ultimi anni. Un
discorso che si è fatto strada a partire dal secolo scorso condiviso da tutti.
Un’altra sfida è ridurre la dipendenza dalle energie non rinnovabili. Questo è un concetto che si è
affermato sempre di più negli ultimi anni. Fino a 10-15 anni fa si sentiva parlare poco di energie rinnovabili,
di energia da risorse rinnovabile. Soprattutto noi in Italia siamo partiti un po’ ritardo, la Germania già
alla fine degli anni 80 aveva affrontato questo problema, noi abbiamo perso 10-15 anni poi abbiamo
recuperato parecchio.
La quarta sfida importante è quella di attenuare e adattarsi ai cambiamenti climatici. È sotto gli occhi di
tutti che gli eventi atmosferici sono sempre più intensi e causano gravi danni, vuoi per la loro intensità,
vuoi anche per la scarsa presenza dell’uomo in aree marginali dove la sostenibilità dell’attività agricola
non ha più l’aspetto economico per cui vengono abbandonate e questo si tramuta in grossi rischi dal
punto di vista idrogeologico.
Questi 4 concetti per parlare di sostenibilità come anche indicata dalla Comunità Europea come uno sviluppo che
deve essere smart, sostenible e inclusive.
Smart, intelligente, innovativo alla ricerca di nuovi percorsi. Sicuramente questa è una cosa importante perché
da uno studio è stato stimato che per ogni euro investito oggi in bioeconomia, genererà 10 euro di qui al 2025.
Quindi è un percorso quasi obbligato.
Inclusivo, lo sviluppo agricolo è orientato su questo aspetto perché tutti gli studi ci dicono che nei prossimi anni
tutta la popolazione sarà concentrata nelle grandi metropoli. Ci sarà un impoverimento dal punto di vista della
presenza nelle aree marginali. Un impegno verso un agricoltura sostenibile potrebbe fare in modo di contenere
questo percorso che potrebbe causare gravi danni inseguito alla mancanza della presenza dell’uomo in
determinate aree.
Poi la sostenibilità vera e propria, quella che è fatta dell’aspetto ambientale, dell’aspetto sociale e dell’aspetto
142
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
21 Novembre
economico. Non mi soffermo più di tanto sull’aspetto ambientale condiviso da tutti. Sull’aspetto sociale qui vorrei
spendere due parole per quanto riguarda le agroenergie. In particolare non va sottovalutato l’aspetto economico
non perché si voglia fare business a tutti i costi, semplicemente perché è una pura illusione cercare di fare
sviluppo sostenibile trascurando l’aspetto economico perché se una determinata pratica particolarmente virtuosa
condividibile da tutti non è però sostenuta dall’aspetto economico prima o poi verrà abbandonata. Questo è un
aspetto molto importante di cui deve tener conto chi scrivere le normative, chi scrive le leggi. Devono essere fatte
in modo che possono essere rispettate anche dal punto di vista economico.
Quindi uno sviluppo che deve badare all’innovazione, alla competitività dei diversi settori. Non possiamo fare a
meno di un salto di qualità, le nostre imprese essere protagoniste di una crescita verde che sia coniugata con un
miglioramento della competitività rispetto ai partner internazionali.
Integrazione delle politiche Europee. Noi abbiamo, una politica integrata a livello europeo che è la PACK, forse
più di altre nazioni abbiamo un integrazione degli indirizzi con l’Europa e anche qui abbiamo notato come i diversi
paesi a seconda di come viene interpretata la PACK hanno più o meno dei benefici. Proprio in questi giorni si
sta discutendo sul futuro della PACK che verrà nei prossimi sette anni allargata ai nuovi paesi che sono entrati a
far parte della Comunità Europea. Si sta discutendo sul mantenimento dei budget, fortunatamente il Governo ha
preso una posizione forte dicendo che qualora non fosse mantenuto il budget adeguato per il sostegno delle nostre
agricolture, in particolar modo per le agricolture mediterranee (Francia, Italia e Spagna), l’Italia potrebbe valutare
la possibilità di porre il veto. Quindi una posizione molto forte, che Confagricoltura apprezza moltissimo perché
finalmente si capisce quanto in un paese sia importante sostenere il comparto agricolo anche per la funzione che
svolge a livello ambientale. Consolidare il concetto di un agricoltura sostenibile cioè ottenere maggiori raccolti
su minori superfici utilizzando minori quantità di acqua di mezzi chimici e di energia. È indispensabile disporre di
un agricoltura competitiva che produce reddito. Voglio ricordare qui alcuni dati, in Italia abbiamo una superficie
agricola totale di 17 milioni di ettari. Di questi 17 milioni che corrispondono al 57% del territorio nazionale, 8,8
milioni sono dedicati alla coltivazione agricola alla SAU (Superfice agricola utilizzabile) è un dato significativo
che testimonia quanto sia importante l’agricoltura sul mantenimento del territorio, è però importante che in questi
ultimi c’è stata una riduzione consistente. Negli ultimi 30 anni questo dato è diminuito del 20%. A questo punto
vorrei aprire una parentesi sul consumo del suolo, sulla riduzione del suolo che serve per la produzione di cibo
e anche sulla sostenibilità dell’agricoltura. In questi ultimi tempi ha preso piede il concetto di multifunzionalità
dell’agricoltura quindi si sono aperti nuovi spazi ad esempio l’agriturismo, conosciuto da tutti, che ha preso piede
negli ultimi 20-30 anni e che ha contribuito moltissimo dal punti di vista della diversificazione dell’attività agricola
a dare competitività soprattutto in certe aree marginali.
In questi ultimi tempi si sono affacciati al settore agricolo nuove opportunità che riguardano il settore delle
agroenergie. Io in particolare in Confagricoltura ho la delega in questo settore quindi è dal 2005 che lo vivo in
prima persona sia come rappresentante di Confagricoltura che come agricoltore. Infatti io ho messo un piccolo
impianto fotovoltaico per uso aziendale, ho inserito nella mia azienda un impianto a biogas per la produzione
di energia soprattutto con lo sfruttamento delle delezioni animali, io avevo suini, pollame e cereali. Quindi tutto
indirizzato allo sfruttamento di questi sotto prodotti e successivamente anche all’utilizzo di produzioni marginali
che mi hanno permesso di recuperare dei terreni che erano stati abbandonati. Molti di voi avrenno visto su
giornali delle discussioni che sono nate sulle opportunità o meno di questi impianti per la produzione di energia.
Confagricoltura da sempre sostiene che questa è un opportunità da non perdere, da valutare attentamente ma allo
stesso tempo sia collocato in un contesto equilibrato cioè in un contesto aziendale esistente. Quello che potrebbe
causare squilibri sul territorio anche dal punto di vista socio economico è l’inserimento di grandi impianti che non
hanno un collegamento con le realtà territoriali. Mentre invece quando l’impianto è inserito ad hoc su un azienda
o su più aziende per creare ottimizzazioni ecco che questo può contribuire all’azienda a raggiungere competitività
maggiore. Io ho visto tantissime stalle da latte piuttosto che allevamenti di suini, che in forte crisi, perché questi
ultimi anni sono stati di forte crisi per la zootermia in generale, indirizzarsi anche a queste nuove opportunità fare
con coraggio degli investimenti in momenti difficili ed aver superato in parte naturalmente il momento critico. Ora
non si parla più di chiudere la stalla, ma si parla di chiudere un ciclo utilizzando sottoprodotti aziendali per fare
energia molta della quale viene utilizzata direttamente dall’azienda e successivamente con l’utilizzo di quello che
si chiama digestato che praticamente è il sotto prodotto della digestione anerobica che è un ottimo fertilizzante.
In questo caso a me sembra che sia un ottima soluzione.
Diversamente voglio fare l’esempio del fotovoltaico dei grossi impianti a terra cosa che non abbiamo mai condiviso
perché oltre a fare una sottrazione di terreno, a dire il vero piuttosto limitata, ma soprattutto se parliamo di sviluppo
sostenibile in questo caso non abbiamo ne vantaggi dal punto di vista sociale ne vantaggi dal punto di vista
economico nemmeno il vantaggio ambientale, ma sappiamo tutti che certi grossi impianti sono stati finanziati
da fondi stranieri sono stati acquistati pannelli all’estero quindi noi consumatori italiani ci limitiamo a contribuire
al pagamento della quota senza avere alcun ritorno, alcun beneficio. Questo è stato uno sbaglio, quando si
intraprendono nuove strade è possibile fare degli sbagli, l’importante è intervenire velocemente nel correggere il
Arezzo 20 - 23 novembre 2012
143
21 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
tiro. Ho sentito più volte il Ministro Passera ammettere apertamente che il fotovoltaico dei primi anni non è stato
sufficientemente capito e governato, ora sono stati presi provvedimenti, provvedimenti che però per quello che
riguarda l’agricoltura sono anche troppo restrittivi. Noi agricoltori non possiamo nemmeno più fare un impiantino
per l’utilizzo aziendale. Quindi si passa da un estremo all’altro. Devo dire che le cose vanno soppesate bisogna
trarre insegnamento dagli sbagli che si possono fare in un percorso però bisogna considerare a nostro avviso la
grande opportunità che le agro-energie possono rapportare in questo senso.
Per quanto riguarda le biomasse, se le cose vengono fatte con l’attenzione al territorio ci possono essere invece
dei benefici che oltre al beneficio ambientale vanno a riversarsi anche su benefici a livello sociale e a livello
economico perché comunque le biomasse tutti gli anni vanno prodotte e quindi c’è un impegno sul territorio e
soprattutto per quello che riguarda le biomasse umide non possono essere trasportate per più di 10-20 km perché
il discorso non è più economico quindi è un ritorno sul territorio è una filiera corta con i ritorno dei benefici sul
territorio. Credo che agro-energia possa essere un utile strumento per dare competitività alla nostra agricoltura.
Vorrei parlare adesso della sicurezza alimentare. In Italia abbiamo delle regole di tutela ambientale e di produzione
del consumatore e del benessere degli animali che non hanno uguali al mondo. Anche per quanto riguarda la
superfice coltivata in questi ultimi anni abbiamo avuto una riduzione dal 40% all’11% di fungicidi, insetticidi, erbicidi
e concimi minerali. Ci sono delle regole molto rigide, a volte non allevatori le abbiamo considerate esagerate le
imposizioni che ci arrivavano dall’alto. Però con onesta dobbiamo riconosce che questo sforzo che abbiamo
fatto negli ultimi 20 anni ci ha portato dei benefici perché oramai tutto il mondo riconosce che i nostri prodotti
agroalimentari sono di altissimo livello e non è un caso che gli ultimi grossi scandali problemi che si sono avuti a
livello sanitario negli ultimi 10 anni e parlo del pollo alla diossina, dei mangimi contaminati, dell’influenza aviaria,
mucca pazza ecc., non hanno creato problematiche nel nostro paese perché qui abbiamo dei controlli attentissimi.
Proprio da questi controlli è risultato, cito alcuni dati del rapporto del Ministero della Salute redige annualmente,
che le aziende irregolari che erano nel 2000 il 7,3% sono diventate solo il 4,7% nel 2008 e il 2,5% nel 2011 quindi
con un netto trend migliorativo. Ciò che emerge anche dal rapporto del Ministero della Salute pubblicati nella
relazione annuale del Piano Nazionale risulta che ben il 99,7% dei campioni ortofrutticoli sono risultati in regola, il
99,8% dei prodotti di origine animale sono risultati in regola e anche nei settori di prodotti particolari come i cereali,
oli, vino e baby-food il 99,8% sono risultati in regola. Abbiamo quindi uno 0,2-0,3% di controlli con prodotti non in
regola. A questo punto voglio riportare il dato medio europeo che è nel 2011 del 3,11%. Quindi è indubbio che in
Italia siamo i più bravi produttori dal punto di vista della sanità e questo merito va riconosciuto all’intero sistema
che ha prodotto delle regole, sicuramente molto rigide molto ferree a volte anche accettate con un po’ di difficoltà
da parte degli allevatori e produttori ma onestamente bisogna riconoscere che i risultati che si sono ottenuti sono
eccellenti.
Vorrei accennare anche ad un particolare, il nostro settore zootecnico e anche quello cerealicolo stanno
attraversando un momento di forte difficoltà perché inevitabilmente di sono alcune complicazioni una
sovrapposizione di controlli e di regole che ci creano dei costi che iniziano a porci fuori mercato, ecco io vorrei che
cominciassimo a fare uno sforzo, noi di Confagricoltura siamo disponibilissimi a partecipare ad un confronto per
semplificare, ma non abbassare i livelli di controllo, quei controlli ridondanti che creano di costi accessori. Quindi
dobbiamo mantenere altissimo il livello della qualità e della sicurezza alimentare, ma dobbiamo impegnarci a fare
in modo che questo non vada ad incidere eccessivamente sui costi altrimenti rischiamo come sta succedendo di
chiudere le stalle di chiudere la nostra produzione doverci approvvigionare all’estero senza avere più la possibilità
di controllare la qualità e la sanità dei prodotti.
Voglio accennare al clima. Il problema del clima è sotto gli occhi di tutti, noi abbiamo un compito molto importante
che riguarda l’utilizzo corretto dell’acqua in agricoltura. Confagricoltura si sta adoperando già da tempo su questo
argomento. Dal punto di vista dell’applicazione della micro-irrigazione abbiamo fatto dei passi in avanti molto
importanti occorre ancora lavorare perché l’acqua permette alle colture, se usata nel modo corretto, di ridurre
delle fitopatogenicità quindi di utilizzare meno prodotti. Siamo sempre disponibili a partecipare ad un confronto
costruttivo. Voglio concludere dicendo che l’agricoltura ha fatto ed è disposta a fare con l’aiuto di tutti senza
battaglie ideologiche ma con un analisi approfondita dei dati e delle soluzioni, che la facciamo rimanere sul
territorio come attore principale di cui sappiamo essere la prima difensora. Ricordiamoci che senza un agricoltura
competitiva il territorio abbandonato dall’uomo non avrebbe futuro.
Interviene Silvio Borrello (Ministero della Salute): La ringrazio per la brillante relazione. Vorrei focalizzare
l’attenzione su due aspetti perché lei diceva meno controlli da una parte o forse meglio organizzati perché gli
agricoltori e comunque le imprese devono in qualche modo lavorare. Proprio su questo, vorrei ricordare che
con i nuovi regolamenti comunitari è stato imposto agli stati membri di predisporre un piano unico nazionale
integrato per i controlli, siamo al secondo Piano che è stato approvato in conferenza Stato-Regioni e vi devo dire
che più passa il tempo con più riusciamo a fare sedere le amministrazioni allo stesso tavolo. Abbiamo avuto una
decina di giorni fa una riunione con tutti gli organismi con tutte le amministrazione per rilanciare questo Piano
di Azione comunitario previsto dal regolamento 882, per cui siamo sulla buona strada. Il secondo aspetto, sulla
144
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
21 Novembre
semplificazione, come direzione grazie anche all’intervento del ministro Balduzzi siamo riusciti a ri presentare in
Parlamento un disegno di legge sulla semplificazione e sull’aggiornamento delle nuove normative in materia di
sicurezza alimentare che raccorda la vecchia legislazione con i nuovi regolamenti è già all’attenzione del Senato è
in discussione , noi contiamo che prima del termine della legislatura avremo questa delega per aiutare le imprese
e garantire soprattutto i consumatori.
Domanda Valentino Mercati (AssoErbe): Se all’interno delle produzioni, che mi sembra di aver capito sono suini
e pollame, se riesci a portare direttamente al consumo quanto più vicino al consumo diretto queste produzioni?
Risposta Ezio Veggia (Confagricoltura): Nel mio caso la mia azienda non porta al consumo diretto io produco
suini che entrano nel circuito del consorzio di Parma e poi li produco con due allevamenti direttamente per
AIA. Naturalmente le tipologie di produzioni sono tantissime, molti agricoltori allevatori della mia zona invece si
avvalgono della filiera corta e riescono soprattutto per quanto riguarda le produzioni vegetali. Per quanto riguarda
le produzioni animali devo dire che arrivare direttamente al consumo oggi come oggi nel rispetto delle norme
sanitarie non è così facile si deve avere delle dimensioni notevoli. La mia scelta è quella di integrarmi in una filiera
nazionale cercando di fare il meglio dal mio punto di vista. Sono due scelte diverse entrambe valide che possono
portare entrambe a delle grosse soddisfazioni se si lavora bene.
Vorrei fare riferimento all’intervento precedente. Mi fa piacere questa sintonia, in passato ci sono stati attriti
perché non ci rendevamo conto che facevamo parte dello stesso sistema, adesso lavoriamo tutti con lo stesso
obiettivo nel rispetto delle proprie mansioni ed ognuno, qui parlo degli allevatori, si prende carico delle proprie
responsabilità credo che tutto ciò che è stato fatto fino ad ora ed è molto è possa essere consolidato e dobbiamo
riuscire a superare questo momento di crisi e credo che il futuro ci darà ragione.
Arezzo 20 - 23 novembre 2012
145
21 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
Verso MILANO EXPO 2015 - Agricoltura, sostenibilità e salute
"Packaging innovativi per il miglioramento della sicurezza e della shelf-life dei prodotti alimentari"
Michela FavrettiIZS delle Venezie
Buongiorno, sono Michela Favretti sono un medico veterinario e lavoro presso l’Istituto Zooprofilattico Sperimentale
delle Venezie (IZSVe), nel Laboratorio di San Donà di Piave, dove mi occupo di sicurezza alimentare.
Quello di cui vorrei parlarvi è il confezionamento degli alimenti con packaging tradizionali a confronto con
packaging “funzionali”, che hanno una funzione attiva/intelligente; faremo poi una piccola panoramica sull’attività
di ricerca dell’IZSVe a San Donà di Piave.
Per quanto riguarda il packaging tradizionale, che tutti conosciamo come imballaggio classico per gli alimenti,
esso è presente da diverso tempo sul mercato, ha una primaria funzione di contenimento e di protezione degli
alimenti rispetto all’ambiente esterno. Non deve avere nessuna interazione con l’alimento, non deve alterare le
caratteristiche organolettiche, chimico-fisiche degli alimenti e soprattutto deve avere un effetto di protezione dalle
contaminazioni esterne; infine ha un ruolo importante nella comunicazione al cliente, deve cioè contenere le
informazioni che attirino il consumatore nell’acquisto di un prodotto rispetto ad un altro.
I packaging funzionali hanno degli accorgimenti che permettono di migliorare la semplice protezione data agli
alimenti; in genere hanno la funzione di mantenere nel tempo le caratteristiche chimico-fisiche e microbiologiche
degli alimenti e allo stesso tempo hanno la capacità di aumentare la vita commerciale di questi prodotti senza
però alterarne le caratteristiche.
All’interno dei packaging funzionali vi sono gli imballaggi attivi e intelligenti.
Il packaging attivo, come dice il nome stesso, agisce attivamente sull’alimento rallentandone il decadimento,
quindi l’alterazione, delle caratteristiche proprie dell’alimento. In particolare questi imballaggi agiscono o con
il rilascio o con l’assorbimento di specifiche sostanze con l’obiettivo finale di aumentare la vita commerciale di
questi prodotti. Esistono diverse tipologie di packaging attivo, vi sono ad esempio gli assorbitori di ossigeno, gli
assorbitori o mettitori di CO2 che vengono utilizzati soprattutto per i prodotti a base di carne e a base di pesce. Gli
assorbitori di etilene, utilizzati nel caso della frutta per rallentare la maturazione e quindi aumentarne la durata; gli
emettitori di etanolo utilizzati soprattutto per i prodotti da forno e infine i film antimicrobici che sono delle pellicole
che possono essere messe direttamente a contatto con l’alimento, oppure possono essere utilizzate come basi
sulle superfici di lavoro ad esempio nella ristorazione o nell’attività delle macellerie: il loro scopo è quello di
migliorare le caratteristiche delle carni o del pesce.
La sostanza antimicrobica può essere inclusa direttamente nel materiale d’imballaggio in fase di produzione
oppure può essere inserito in un rivestimento che ricopre il film oppure può essere contenuto in un dispositivo
posto all’interno della confezione stessa.
Il packaging intelligente non ha una vera e propria interazione con l’alimento contenuto ma, attraverso dei dispositivi
in genere posti all’esterno della confezione, riesce a fornire informazioni al cliente in particolare sulla storia del
prodotto, ad esempio relativamente agli abusi termici. I più conosciuti sono gli indicatori tempo/temperatura che
virano nel momento in cui l’alimento è stato per un tempo troppo lungo a temperatura non corretta. Si possono
vedere degli indicatori che virano nel colore oppure compaiono dei pallini che si scuriscono oppure si formano delle
croci. I più usati sono indicatori della storia termica, quindi degli eventuali abusi termici subiti, ma possono essere
anche indicatori della presenza di gas in confezioni dove non dovrebbero esserci, ad esempio nel sottovuoto,
oppure possono indicare una mancata integrità del packaging che acquistiamo sotto forma di etichette o di codice
a barre, sensori vari, indicatori di radio frequenza.
In merito all’attività di ricerca dell’IZSVe, l’istituto ha portato avanti dal 2008 un progetto di ricerca finanziato dal
Ministero della Salute incentrato sullo studio di packaging sia attivi che intelligenti per valutare il miglioramento
della sicurezza di questi prodotti (nel caso degli imballaggi attivi l’eventuale rilascio di sostanze negli alimenti)
e l’aumento della vita commerciale. È stato studiato inizialmente un imballaggio a base di zeolite d’argento,
sostanza ad effetto antimicrobico che dovrebbe rallentare la degradazione dell’alimento, su diversi tipi di matrici
a base di carne di pollo, manzo, pesce fresco e formaggio fresco. Sono state eseguite analisi microbiologiche
volte soprattutto alla quantificazione di microrganismi alteranti come Pseudomonas, muffe e lieviti, carica
batterica mesofila, enterobatteri e batteri lattici. Le analisi chimiche effettuate prevedevano la valutazione della
degradazione e dell’ossidazione dei grassi, la degradazione delle proteine e soprattutto la cessione d’argento in
quanto l’imballaggio che abbiamo utilizzato conteneva degli ioni d’argento; questi infatti possono essere trasferiti
all’alimento e di conseguenza essere ingeriti anche dal consumatore finale. Infine sono state condotte anche analisi
sensoriali per la valutazione dell’alterazione del colore/odore e sapore/consistenza degli alimenti testati. Quello
che abbiamo visto è stata una moderata azione del packaging attivo sulla flora batterica con un rallentamento
146
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
21 Novembre
della proliferazione microbica nei prodotti confezionati con questo film. L’insorgenza dei cattivi odori, derivanti
soprattutto dalla degradazione delle proteine, è risultata rallentata rispetto ai campioni di controllo confezionati
con film tradizionale. Per quanto riguarda l’ossidazione dei grassi non è stato possibile fare alcuna valutazione
perché tutti i prodotti testati avevano una quantità di grasso molto bassa, essendo alimenti molto magri. Il rilascio
di argento è stato il fattore critico perché in tutte le matrici testate è stato evidenziato un trasferimento degli ioni
metallici dal film antimicrobico all’alimento; la quantità di argento rilevata è stata superiore a quanto previsto da un
documento dell’EFSA che definisce una quantità massima pari 0,05 mg per kg di alimento. Quindi a nostro parere
al momento questi film non sono utilizzabili a causa dell’eccessivo rilascio di argento.
Per quanto riguarda lo studio sugli imballaggi intelligenti è stato valutato un indicatore tempo-temperatura (TTI)
costituito da un’etichetta da applicare esternamente al prodotto confezionato. Si tratta di un dispositivo in grado di
tenere traccia del tempo in cui il prodotto rimane ad una temperatura superiore alla temperatura soglia impostata.
Un liquido in esso contenuto, dopo attivazione ad un temperatura inferiore alla temperatura soglia, fluisce lungo
una finestrella quando la temperatura a cui è esposto è superiore alla temperatura soglia. Il flusso si ferma
solo se la temperatura scende sotto la temperatura di stop, che è di qualche grado inferiore alla temperatura
soglia. Il dispositivo visualizza un tempo complessivo massimo di abuso termico pari ad 8 ore. Nel nostro studio
sono stati valutati due tipi di questo indicatore utilizzato per il monitoraggio del mantenimento della catena del
freddo: uno con temperatura soglia di +4°C e l’altro con temperatura soglia di +8°C. Abbiamo utilizzato questi
indicatori tempo/temperatura applicati all’esterno delle confezioni di latte fresco pastorizzato, da conservare a
0°/+ 6° C. Abbiamo mantenuto queste confezioni sia in condizioni ottimali di conservazione (temperatura prevista
in etichetta) sia in condizioni di abuso termico. Abbiamo cercato di simulare il comportamento del consumatore
che acquista il prodotto al supermercato, lo trasporta in auto, per 2 ore a 20°C, quindi lo conserva nel frigorifero
di casa che quasi mai mantiene i 4°C ma spesso raggiunge temperature intorno agli 8°C. Sono state fatte solo
delle valutazioni di tipo microbiologico per verificare la correlazione tra quanto evidenziato dall’indicatore e la
degradazione microbiologica dell’alimento.
Dai risultati ottenuti si evince che l’indicatore con temperatura soglia pari a +8°C risulta affidabile per monitorare il
corretto mantenimento della catena del freddo per prodotti refrigerati che devono essere conservati a temperature
uguali o inferiori a +4°C; questo nonostante l’evoluzione della carica microbica totale nei campioni di latte non
sia stata tale da far pensare che il consumo dell’alimento costituisse un pericolo per la salute del consumatore.
Sicuramente questo tipo di indicatori è importante come deterrente per evitare una scorretta conservazione degli
alimenti, migliorare la catena distributiva e il rispetto delle temperature. Quello che può essere fatto nel futuro, per
quanto riguarda l’IZS, è un approfondimento di questo tipo di imballaggi con zeolite d’argento con un’attenzione
particolare al rilascio degli ioni metallici nel prodotto. Inoltre sarà utile effettuare delle prove in vitro per valutare
il meccanismo d’azione dell’argento e studiare anche altri sistemi con imballaggi attivi, ad esempio quelli con
sostanze naturali come batteriocine, oli essenziali e lisozima.
Arezzo 20 - 23 novembre 2012
147
21 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
Verso MILANO EXPO 2015 - Agricoltura, sostenibilità e salute
"Il vino sostenibile - Un progetto Italiano per l’EcoSostenibilità nella Vitivinivoltura"
Margherita Vitale Ministero dell’Ambiente
Buonasera a tutti sono Margherita Vitale della segreteria tecnica del Ministero dell’ambiente e la tutela del territorio
e del mare. Vorrei prima di tutto ringraziare gli organizzatori per avermi dato la possibilità di venire a presentarvi
il lavoro che stiamo facendo all’interno della task-force creata dal Ministro Clini per la valutazione dell’impronta
ambientale dei sistema e dei modelli di produzione e consumo. Oggi vi presenterò in modo generico il lavoro che
stiamo portando avanti all’interno della task-force e in modo specifico il progetto a sostegno di una produzione
sostenibile nel settore vitivinicolo.
Questo lunghissimo nome della task-force non è altro che un partenariato pubblico privato, iniziato circa un
anno fa, per lavorare insieme ad una settantina di aziende italiane con l’obiettivo di mettere a punto delle
metodologie di valutazione dell’impronta ambientale nelle loro produzioni. L’obiettivo finale è ovviamente quello
di ridurre le emissioni di gas serra nel quadro degli impegni che abbiamo assunto all’interno del protocollo di
Kyoto e del pacchetto clima energia dell’Unione Europea che è stato firmato nel 2008. Questo lavoro nasce
anche dall’esigenza crescente che i prodotti che vanno sul mercato internazionale abbiano delle indicazioni sulla
loro impronta ambientale. Spesso e volentieri i nostri prodotti vanno ad usare metodologie messe appunto dai
francesi oppure dagli americani nel settore del vino. Per cui abbiamo iniziato a lavorare con le aziende per creare
un sistema italiano tarato sulla realtà produttiva italiana. La task-force lavora sostanzialmente attraverso due
strumenti principali. Il primo è quello dell’accordo volontario dove non diamo un sostegno finanziario alla aziende
ma forniamo un’assistenza tecnica, l’altro è quello del bando pubblico che finanzia l’analisi di carbon footprint di
prodotti di largo consumo di 22 imprese piccole e medie.
Attraverso gli accordi volontari lavoriamo insieme ad una ciqnuantina di aziende per fare un test realistico e per
sperimentare su vasta scala le differenti metodologie di misurazione delle prestazioni ambientali. In sostanza
calcoliamo la quantità di gas serra emessi durante tutto il ciclo produttivo di un prodotto (per cui dalla culla alla
tomba) e il calcolo della water footprint (l’impronta idrica) che in alcuni settori è molto rilevante, lo vedremo in
seguito nel vino, e a seconda dei settori di produzione ai quali ci riferiamo ci possono essere altri indicatori che
sono considerati fondamentali. Questa è la lista delle aziende con cui stiamo lavorando come vedete i settori
sono diversi. Alla fine della slide c’è una lista di aziende vinicole, a breve vi racconterò cosa stiamo facendo
insieme a loro. Il secondo strumento lo abbiamo utilizzato per aiutare soprattutto le piccole e medie imprese che
hanno più difficoltà a intraprendere un percorso di sostenibilità per cui il Ministero attraverso un bando pubblico
ha co-finanziato 22 aziende nel settore dei prodotti di largo consumo per un totale di un milione e 600 mila euro
e insieme a loro abbiamo creato un tavolo tecnico di confronto su tutto il percorso di analisi. Fondamentalmente
le aziende sono soprattutto del settore alimentare, quello che ad oggi è più interessato ad intraprendere questo
percorso di sostenibilità, il bando è stato lanciato a novembre 2011, entro la primavera del 2013 presenteremo i
risultati settoriali sia di questo bando sia di quello degli accordi volontari. Adesso vi racconto un po’ più nel dettaglio
uno dei programmi che stiamo sviluppando all’interno di questa task-force. Prima di introdurre il progetto vi dico
semplicemente due dati principali che ci aiutano a capire meglio quale è il rapporto tra sostenibilità ed agricoltura.
L’agricoltura usa più del 70% delle risorse di acqua dolce disponibile a livello mondiale ed è responsabile del
10% delle emissioni di gas ad effetto serra. Il settore vitivinicolo è una delle colonne portanti dell’esportazione
agroalimentare italiana, ha un valore economico importantissimo per il territorio e un ruolo altrattanto importante
proprio sulla bellezza del paesaggio italiano. Noi abbiamo voluto sintetizzare tutti questi elementi ossia non solo
quelli detti “in” ossia interni al bicchiere che sono la finezza, il gusto, la tipicità, la salubrità ma cercare di dare
rilevanza e creare degli indicatori che sapessero anche raccontare e dare valore ai cosi detti elementi “off” ossia
la tutela ambientale, la qualità della vita dei viticoltori e dei collaboratori dell’azienda, l’importanza che le aziende
vinicole hanno sul paesaggio italiano e l’importanza che hanno queste aziende nel portare avanti delle tradizioni
culturali di centinaia di anni. Il progetto si basa soprattutto su quattro obiettivi principali. Abbiamo iniziato facendo
un’analisi del profilo attuale della sostenibilità nella viticoltura italiana, questo per capire dove erano i gap principali
e dove intervenire maggiormente. Abbiamo poi definito le linee guida per una produzione sostenibile e stiamo
sviluppando adesso un codice di sostenibilità, attraverso il quale le aziende potranno certificare da enti terzi le
analisi di sostenibilità ed in fine aiutiamo le aziende a comunicare al mercato, al consumatore i benefici di questo
cammino sul prodotto finale. Il lavoro lo stiamo portando avanti in partenariato con una serie di grandi aziende
vinicole italiane, distribuite su tutto il territorio e caratterizzate da una diversità anche in dimensioni e insieme a
tre centri di ricerca: dell’Università di Torino e della Cattolica del Sacro Cuore di Piacenza e dell’Università degli
Studi di Perugia.
148
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
21 Novembre
Come vi raccontavo prima abbiamo iniziato da un’analisi preliminare del livello di sostenibilità dove
fondamentalmente sono emersi come conclusioni prima tra tutte l’atteggiamento responsabile consapevole nella
gestione delle azienda vinicola. Uno dei gap che abbiamo rilevato è stato nelle risorse idriche ossia spesso
mancano dei piani organici e delle strategie definite d’intervento. Abbiamo notato che ci sono dei buoni margini di
miglioramento nella gestione delle risorse energetiche delle lavorazioni del suolo nell’impiego e nell’applicazione
di fertilizzanti e nell’uso di mezzi agricoli ma anche che le aziende spesso non dispongono di strumenti adatti
per individuare le criticità e per misurare il loro livello di sostenibilità, infine abbiamo notato che ci sono delle
insufficienze di comunicazione delle scelte gestionali verso tutti gli stakeholder anche a livello di informazione
interna. Su queste basi abbiamo creato una serie di 4 indicatori, i quali fondamentalmente diventeranno degli
strumenti per le aziende per poter utilizzare come una auto-valutazione del loro livello di sostenibilità.
I 4 indicatori che abbiamo messo a punto:
1. La carbon footprint, che esprime in CO2 equivalente ad il totale dei gas effetto serra associati direttamente
o indirettamente all’intero ciclo di vita della bottiglia di vino o dell’azienda stessa a seconda delle scelte.
2. La water footprint che esprime il volume di acqua dolce consumata e inquinata associata ad un azienda
viniviticola o a una singola bottiglia in una determinata unità di tempo.
3. Indicatore vigneto che misura le pratiche di gestione agronomica quali ad esempio l’utilizzo degli
agrofarmaci la gestione del suolo la fertilità e la sostanza organica le acque superficiale l’uso di macchine
agricole e l’analisi degli aspetti legati alla biodiversità
4. L’indicatore territorio che vuole indicare un po’ il concetto di sostenibilità e che valuta gli impatti sociali ed
economica, della sostenibilità inclusi la tutela del paesaggio viticolo prendendo anche in considerazione
la salute e la sicurezza degli operatori.
Alcuni di questi indicatori (carbon footprint e la water footprint) si basano su degli standard internazionali per
cui delle ISO, che sono in fase di draft, quello che noi stiamo cercando di fare è di applicare delle ISO che sono
sempre abbastanza generiche su una realtà italiana cercando di concludere il progetto con una metodologia
tarata sul nostro modello di produzione. Gli altri due indicatori, vigneto e territorio, sono estremamente innovativi
e li stiamo sperimentando, il progetto è iniziato un anno fa stiamo concludendo la sperimentazione degli indicatori
entro dicembre e presenteremo i risultati al Vinitaly 2013.
Le metodologia di questi 4 indicatori verranno tradotte in disciplinari tecnici ossia delle linee guida che permetteranno
alle aziende di farsi certificare tutti e 4 i risultati da enti terzi.
Il lavoro fatto verrà raccontato da un etichetta che include un codice QR dal quale si accederà al risultato delle analisi
dei quattro indicatori. L’etichetta l’abbiamo voluta chiamare “Viva Sostenibile Wine”, Viva significa Valutazione
Impatto della Vitivinicoltura sull’Ambiente ed indicherà quali sono i 4 criteri che abbiamo adottato per definire la
sostenibilità nel vino. Per cui sarà molto precisa e dimostrabile perché all’interno del codice QR ci saranno tutte
le informazioni che potranno dare sostanza e serietà all’analisi che le azienda hanno intrapreso. L’etichetta non
vuole penalizzare nessuno. Qualsiasi azienda che decide di intraprendere questa analisi in sostanza inizia un
percorso di sostenibilità e a prescindere dal risultato delle analisi riceverà l’etichetta, se poi nel corso dei due anni
successivi dimostrerà che è migliorata su uno dei 4 indicatori allora potrà riavere la stessa etichetta con dei valori
nuovi, dimostrando in tal modo che ha intrapreso un percorso di sostenibilità e che va migliorando.
Questo è solo uno dei progetti che abbiamo sviluppato e che ancora non abbiamo concluso. L’idea dietro a tutto
il lavoro della task-force è di mettere a punto su vasta scala delle metodologie di analisi certificate da enti terzi
che possano costituire, non solo un driver per il miglioramento ambientale dell’azienda ma anche di competitività
sul mercato italiano ed estero. Speriamo anche che questa esperienza si traduca in una sorta di capacity building
per il consumatore, laddove più si offrono prodotti ecocompatibili e piaci consumatore imparerà a riconoscere le
differenze a capire cosa vogliono dire e magari a chiederlo aumentando la domanda di mercato.
Arezzo 20 - 23 novembre 2012
149
21 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
Verso MILANO EXPO 2015 - Agricoltura, sostenibilità e salute
"Distonie tra offerta agricola ed attese consumatori"
Augusto Tocci Istituto Sperimentale Selvicoltura
Inizio dicendo che io farò in bastian contrario. Il motivo per cui sono qui è perché facendo comunicazione, è vero
io vado in televisione dalla mattina alla sera. Ma la televisione è uno strumento per parlare non solo del nostro
territorio ma anche dei nostri prodotti che poi vanno nelle bocche di noi tutti. Allora è importante dare qualche
informazione e fare qualche considerazione. Vi faccio vedere un filmato per fare poi una prima considerazione,
che vi farà “drizzare” le orecchie.
[filmato].
Nel filmato si vedono le uova rosse, ma da quando. Si qualcuno dice che se le galline mangiano il granoturco le
uova vengono gialle, ma chi l’ha detto. Se il granoturco di oggi è chiaro è bianco come quello di una volta forse.
Ma anche mia moglie quando vuole fare le tagliatelle compra delle uova particolari che hanno un colore molto
intenso. Sicuramente perché a questi animali vengono dati dei prodotti che a dire la verità per la nostra salute non
sono dei ricostituenti. Bene se le uova possono fare male, non le mangio, mi oriento sul biologico. Trovo un amico
che mi dice che quest’anno ha fatto delle patate eccezionali sono state coltivate biologicamente, ma un po’ di
concime l’avrei usato, lui dice si ma non un concime chimico ho usato la “pollina” che è ammessa dalla legge. Ma
se si usa la “pollina”, tutti i prodotti, gli antibiotici che vengono dati ai polli dove vanno a finire. Basta abbandona
anche il biologico. Bene allora mi oriento sui piccoli frutti del bosco. Ma se guardi i mirtilli sono grossi come le
susine, il ribes ha dei grappoli che sembra uva da tavola, le fragole giganti. Ma come è possibile, non saranno
mica tutti prodotti transgenici? Abbandoniamo anche i piccoli frutti. Forse i funghi, che ora si trovano in tutte le
stagioni perché vengono dall’est, ma qualche anno fa nell’est successe un incidente nucleare, allora penso e il
cesio che i funghi lo carpiscono in modo esagerato? Mi oriento sui tartufi che almeno sono un prodotto italiano,
ma nonostante la scarsità di precipitazioni il tartufo o meglio il suo profumo si sente da tutte le parti. Stranamente
il profumo del tartufo nero e diventato uguale a quello del tartufo bianco. Mi sono informato e ho capito che c’è un
prodotto chimico il bismetiltiometano che sicuramente non fa bene alla salute, ma con una bottiglina piccolissima
ci si può fare una cisterna di olio al tartufo. Bene alloro mi sono detto meglio abbandonare l’agricoltura perché le
distonie tra chi produce e chi mangia sono veramente notevoli.
In questo periodo i nostri agricoltori spendono molto per fare l’olio, circa 10€ e lo vendo come olio extravergine
d’oliva al supermercato a 2-3€. In questo caso ha ragione l’agricoltore, come è possibile spendere molto di più per
una bottiglia di vino che consumi in una serata e per una bottiglia di oli si sta attenti a spendere anche una 10€
mentre invece sappiamo che potrebbe essere un grande aiuto per la nostra salute.
Intervento Maria Luisa Colombo (Università di Torino): il commento positivo potrebbe essere che sono esempi un
po’ buttati cosi, in realtà la nostra agricoltura, i nostro prodotti, i nostri alimenti sono molto controllati.
Intervento Valentino Mercati (AssoErbe): per come l’ho sentita io è un po’ uno spaccato estremo, ma non più di
tanto, del vissuto dei consumatori nei confronti del cibo per lo meno dei consumatori che sono culturalmente più
avanzati, non quelli a più alto reddito. Intendo per i consumatori culturalmente più avanzati c’è alla base di tutta
l’evoluzione a livello mondiale della produzione del cibo la preoccupazione o attenzione alla nostra agricoltura
e noi industriali dell’agroalimentare dovremmo capirlo meglio e capire come adeguare la nostra offerta a questi
modelli di consumo futuri che non è più per quantità ma per qualità.
150
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
21 Novembre
Verso MILANO EXPO 2015 - Agricoltura, sostenibilità e salute
"L’ambiente malato e le malattie nell’uomo. Agenti inquinanti ambientali e salute nelle persone"
Nelson Marmiroli Università di Parma, Dipartimento di Bioscienze
Tratterò di un argomento che forse riassume alcuni degli argomenti che sono stati trattati oggi, la relazione che
c’è tra la salute dell’ambiente e la salute dell’uomo.
Io sono il Direttore del Dipartimento di Bioscienze dell’Università di Parma e dal 2011 sono il Direttore del Consorzio
Interuniversitario Nazionale per le Scienze Ambientali, il consorzio CINSA.
L’argomento di oggi riguarda la relazione che c’è tra l’ambiente e le malattie dell’uomo.
Diversi oratori hanno parlato dei problemi dell’ambiente facendo riferimenti alle api e altri animali; io voglio fare
riferimento all’uomo, perché anche l’uomo soffre dell’inquinamento. Inquinamento che può essere interno ma
anche esterno, che riguarda gli ambienti di lavoro, riguarda l’alimentazione, la salute, il tempo libero, la mobilità,
il lavoro a livello dell’industria, dell’agricoltura e della zootecnia. Oggi l’inquinamento è ovunque.
Gli effetti degli inquinanti sulla salute sono diversi. Si va dai danni a livello elementare, a livello delle cellule,
sino all’alterazione di processi biochimici e metabolici e all’induzione di danni sul nostro materiale genetico,
all’alterazione della struttura delle proteine, alla modificazione dei comparti subcellulari, del nostro metabolismo e
del nostro chimismo e alla comparsa di malattie.
All’interno delle nostre cellule ci sono tanti siti che possono essere i bersagli degli agenti inquinanti. Voglio mettere
particolarmente in evidenza il nostro materiale genetico perché quando questo cambia si generano guai molto
seri. Ad esempio, è noto che gli idrocarburi alogenati e il benzene provocano necrosi delle cellule epatiche. I
PCB causano il fegato grasso. I gas irritanti, la formaldeide, il toluene, quelli che vengono utilizzati nelle pulizie
domestiche, distruggono la mucosa nasale e stimolano la produzione di muco nei bronchi. Le sostanze ossidanti,
alcune usate in agricoltura, distruggono le membrane cellulari e inducono fibrosi polmonare ed impediscono gli
scambi respiratori.
Il nostro corpo tenta di reagire a questi inquinanti tentando di modificarli, di metabolizzarli. Nel nostro fegato
soprattutto esiste un sistema particolarmente votato a questo processo, l’eliminazione di questi inquinanti. Un
processo trifasico, fatto di una fase di trasformazione, una di coniugazione e al termine una di escrezione. Il
contaminante ambientale viene nel nostro fegato attivato attraverso degli enzimi, citocromi P450, producendo dei
metaboliti reattivi che vengono coniugati in genere con degli zuccheri che poi vengono eliminati con le urine o le
feci.
Un tipico esempio è quello che succede al benzene. Il benzene viene nel nostro fegato attivato dall’enzima
citocromo P450 in un epossido, trasformato in fenoli, coniugato con dei solfati glucuronici e quindi viene secreto.
Tuttavia questi solfati glucuronici del benzene possono dare luogo ad alcune malattie come depressione del
midollo osseo, leucemie o alterate produzioni di globuli rossi.
Quindi è un sistema che funziona, ma non ci libera completamente dal pericolo, in alcuni casi provoca danni più
grandi del danno iniziale.
Un altro caso è quello del tricloroetilene, un contaminante molto comune, anche in questo caso la sua trasformazione
dà luogo poi a danni al sistema nervoso, al fegato e ai reni.
Il caso più emblematico è quello che succede al benzopirene che viene respirato con il fumo delle sigarette: non
è cancerogeno, ma diventa cancerogeno dopo questo processo di trasformazione a livello epatico.
Inquinanti organici e inorganici come i metalli pesanti vengono sequestrati da strutture del nostro organismo
che tentano di renderli inattivi o di eliminarli. Se sono in eccesso vengono accumulati in alcuni organi detti
organi bersaglio. Come il piombo, che viene ingerito con alcuni tipi di alimenti, passa nel sangue e si lega ai
globuli rossi e successivamente viene depositato nei tessuti ricchi di calcio come le ossa e i denti. Il piombo nel
sangue inibisce la sintesi di emoglobina e provoca delle anemie, a livello di sistema nervoso interferisce con la
trasmissione degli impulsi e può portare anche a paralisi. I bambini sono particolarmente sensibili al piombo in
quanto il piombo si sostituisce al calcio, si lega a molecole che contengono ossigeno, azoto e zolfo. Nell’uomo
delle particolari proteine, le metallotioneine, tentano di sequestrarlo, ma spesso non ci riescono. Interessante è
che molti organismi vegetali hanno particolari metalloproteine che si chiamano fitochelatine, che hanno un’attività
simile verso questi metalli pesanti. I metalli pesanti hanno effetti diversi su organi e tessuti. In particolare voglio
mettere in evidenza l’arsenico, perché in Italia iniziamo ad avere un problema di arsenico nell’acqua (siamo già
ai limiti consentiti di arsenico). L’arsenico è particolarmente tossico, determina irritazione e tumori soprattutto a
carico della cute e dei polmoni. Il mercurio è ugualmente nocivo perché determina delle neuropatie, danni renali
ed epatici.
Gli agenti inquinanti sono sia all’interno che all’esterno. In questa stanza dove ci sono 100 persone in questo
momento, saranno stati prodotti circa 100-200 inquinanti diversi che noi stiamo respirando e tentiamo di
Arezzo 20 - 23 novembre 2012
151
21 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
metabolizzare. Quindi l’inquinamento non è soltanto “fuori” ma è anche “dentro”. Infatti esiste una malattia che si
chiama la “malattia dell’edificio malato”, che è particolarmente importante per la vita indoor. Questa malattia dà
una sindrome tipica con tosse, emicrania, prurito e stanchezza.
L’inquinamento è una delle cause principali di malattie nell’uomo, questo è stato messo in evidenza da studi
epidemiologici in diversi paesi e a livello dell’Organizzazione Mondiale della Sanità. Questo è stato anche
evidenziato dalla Conferenza Interministeriale sull’Ambiente e Salute nel 2010.
Noi viviamo in un ambiente contaminato e questi contaminanti generano malattie. Di fronte a questo rischio
non siamo tutti uguali perché esiste una diversità genetica; noi non siamo uguali tra di noi dal punto di vista
genetico. Gli esseri umani sono tutti o quasi tutti diversi tra loro. La diversità dipende dalla struttura del nostro
genoma, che è stato completamente sequenziato e identificato. Esiste negli esseri umani una predisposizione
genetica che si chiama ipersuscettibilità agli agenti inquinanti: vuol dire che a causa della diversità genetica gli
individui di popolazioni umane diverse sono diversamente suscettibili agli agenti inquinanti, e questo genera non
pochi problemi perché dà luogo a quella che si chiama ipersensibilità individuale. L’ipersensibilità individuale
è definibile come una serie di effetti eccezionalmente elevati in termini di rischio rispetto al rischio normale,
provocate dall’esposizione a sostanze inquinanti. Là dove il rischio è abbastanza piccolo per certe persone, per
altre persone ipersuscettibili verso quell’agente inquinante il rischio è invece elevatissimo, e si può tradurre in
allergie, tossicità, patologie, tumori ed altro.
Un esempio: una predisposizione genetica nella popolazione umana si manifesta con l’inalazione di anestetici,
ingestione di legumi, farmaci antimalarici, piombo e altri farmaci, e dà luogo ad una grave ipertermia, emolisi
e arresto respiratorio e avvelenamento acuto con particolare sensibilità in alcuni tipi di popolazioni. Allo stesso
modo ci sono predisposizioni genetiche coinvolte nella sensibilità al berillio, all’asbesto, alla luce, alle radiazioni
ultraviolette e ad alcuni farmaci come il talidomide. Nelle popolazioni umane esistono gruppi etnici a rischio, per
esempio con frequenze elevatissime superiori a 10% negli afroamericani ebrei si ha la sensibilità agli agenti
ossidanti. Oppure con frequenza del 7-8% sempre negli afroamericani, la sensibilità agli idrocarburi ciclici. Il
benzene e piombo colpiscono maggiormente popolazioni in europa, altri agenti irritanti come il fumo e le radiazioni
ultraviolette agiscono con frequenze anche molto elevate in alcuni tipi di popolazioni.
Un esempio di ipersuscettibilità molto nota è quella verso l’alcool etilico. L’alcool etilico viene metabolizzato nel
nostro organismo da due enzimi epatici, l’alcool-deidrogenasi e l’aldeide-deidrogenasi; la carenza di questi enzimi
conferisce ipersuscettibilità all’alcool. Un’altra ipersuscettibilità che viene chiamata anche favismo è la carenza
di un enzima, la glucosio 6-fosfato deidrogenasi; è un enzima dei nostri globuli rossi ed è un esempio classico di
polimorfismo genetico. Per difendersi però non basta dire “non mangio fave”; gli individui affetti da favismo sono
ipersuscettibili anche ai contaminanti ossidanti e possono essere presenti nell’ambiente.
Nel nostro fegato avviene la coniugazione di diverse sostanze attraverso un meccanismo di acetilazione. Ci sono
due tipi di individui nelle popolazioni umane, gli acetilatori lenti e gli acetilatori veloci. A seconda che uno sia
dalla nascita un acetilatore lento o veloce può diventare ipersuscettibile o meno ad alcuni tipi di contaminanti. Gli
acetilatori lenti sono molto ipersuscettibili e in questi si può sviluppare il cancro della vescica indotto dalle ammine
aromatiche. Le caratteristiche dell’acetilazione sono molto rilevanti perché ad esempio il 90% dei giapponesi sono
acetilatori veloci, negli italiani solo il 50% sono acetilatori veloci mentre l’altro 50% è a rischio essendo acetilatori
lenti.
Come abbiamo visto, il metabolismo per ossidazione avviene attraverso enzimi epatici, e molte tossine ambientali
diventano tossiche solo dopo la loro bioattivazione ad opera di questi enzimi epatici, che diventano quindi importanti
marcatori di ipersuscettibilità. Il caso più noto è il fumo della sigaretta, con i citocromi P450 che catalizzano la
trasformazione del benzopirene non cancerogeno nell’epossido che è il vero cancerogeno. Quindi chi fuma non
inala una sostanza cancerogena ma è il fegato che provvede trasformando questa sostanza in un cancerogeno.
Polimorfismi nel citocromo P450 portano a un diverso rischio per l’individuo.
Un esempio molto interessante che incide nella nostra vita riguarda l’alfa-antitripsina del siero, un altro importante
marcatore di ipersuscettibilità, perchè è connesso con la degradazione di alcuni inquinanti. In fumatori con diversi
livelli di alfa-antitripsina l’effetto del fumo della sigaretta sulla vita media e sull’attesa di vita è notevolmente diverso.
Per i non fumatori, la loro aspettativa di vita è abbastanza elevata, oltre i 60-70 anni, per i fumatori che hanno
l’alfa-antitripsina nomale l’aspettativa di vita si riduce un po’, per chi fuma con una carenza di alfa-antitripsina
l’aspettativa di vita si riduce drammaticamente. Ecco questo è il significato di ipersuscettibilità ambientale: la
presenza di questo marcatore ecogenetico presente nelle popolazioni può determinare una drastica riduzione di
20-30 anni nell’aspettativa di vita, se si espongono a determinati contaminanti ambientali.
L’ipersuscettibilità agli agenti inquinanti è particolarmente importante nei gruppi di esposizione, cioè le persone che
non possono fare a meno di essere esposte a particolari situazioni inquinanti, come sono i lavoratori: purtroppo i
lavoratori vivono a contatto con determinate sostanze a cui possono essere ipersuscettibili ma generalmente non
lo sanno e non possono rimediare. In questo caso l’ipersuscettibilità e l’occupazione sono un fatto molto rilevante.
Lo studio sui gruppi occupazionali ha messo in evidenza quanto sia rilevante questo aspetto nella medicina nel
152
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
21 Novembre
lavoro e nella prevenzione delle malattie umane. Un caso tipico e l’asbestosi, la ipersuscettibilità all’asbesto; è
stato visto che gruppi di persone che sono ipersuscettibili all’asbesto hanno avuto picchi di incidenza del tumore
tipici dell’asbesto, l’angiotelioma.
Gli agenti inquinanti sono molto importanti per la nostra salute e un altro fattore molto importante è che anche
malattie comuni sono coinvolte nel determinare l’ipersuscettibilità agli agenti inquinanti. Lo stile di vita, le abitudini
nutrizionali e altri fattori ambientali possono portare a ipersuscettibilità agli agenti inquinanti e determinare malattie
nelle persone che hanno una particolare predisposizione genetica. I geni che danno predisposizione possono
essere molteplici, alcuni sono stati individuati, altri sono da scoprire. Una lunga serie di geni sono stati individuati
che possono influenzare lo sviluppo di queste malattie, il metabolismo dei lipidi, la trombolisi, la regolazione del
flusso sanguigno, il livello di colesterolo, le lesioni arteriosclerotiche, lo sviluppo delle coronarie. Ad esempio le
malattie delle coronarie che sono coinvolte nella comparsa di malattie tipiche dell’uomo, sono anche coinvolte nel
determinare ipersuscettibilità a fattori inquinanti ambientali soprattutto negli ambienti di lavoro.
Un caso emblematico dell’ipersuscettibilità è quando l’ipersuscettibilità riguarda le differenze di genere legate al
sesso, perché in questo caso ci sono due categorie, due generi, maschile e femminile, dove uno è ipersuscettibile
e l’altro no e questo riguarda diverse condizioni; ad esempio i maschi sono più suscettibili per le tossine renali,
le femmine sono più suscettibili per le tossine epatiche. È stato visto che la suscettibilità ai metalli pesanti nelle
femmine è superiore alla suscettibilità nei maschi. Questo è molto importante a livello degli ambienti di lavoro.
Gli effetti dovuti all’ipersuscettibilità agli agenti inquinanti hanno dei particolari aspetti etici e regolativi. Noi
potremmo con le nostre conoscenze attuali e con i nostri studi molecolari che abbiamo, attraverso uno screening
genetico, dire a tutte le persone se hanno dei fattori ecogenetici di ipersuscettibilità, e dire ad ogni persona, quasi
ad ogni persona, a cosa è ipersuscettibile. Ma questo potrebbe violare la privacy delle persone perché metterebbe
a nudo dal punto di vista sanitario, l’ultimo baluardo della privacy, la privacy genetica delle persone. Quindi si pone
il problema dell’anonimato. Immaginate cosa succederebbe se dati ecogenetici fossero disponibili alla compagnie
assicurative che devono assicurare i lavoratori contro il rischio: sapendo che quella persona è ipersuscettibile ad
un contaminante presente nell’ambiente di lavoro la compagnia non l’assicurerebbe mai. Questo è quello che è
già successo in altri paesi. Quindi servono regolamenti, serve prevenzione, servono dei limiti di esposizione molto
restrittivi, serve assistenza psicologica per le persone.
I test genetici per la ipersuscettibilità individuale agli agenti inquinanti sono possibili, siamo in grado di farli anche
in modo molto semplice, e questi sono molto utili per diagnosticare le malattie genetiche, soprattutto le malattie
di ipersuscettibilità. Possono servire per capire i bersagli e le regioni di insorgenza di queste malattie. Possono
portare dei benefici in termini di informazione sulle malattie e portare alla medicina preventiva traslazionale del
futuro e a proteggere efficientemente le persone, soprattutto quelle che sono ipersuscettibili; ma ci sono dei rischi
dovuti alle potenziali implicazioni etiche, sociali, legali e normative dovute alle informazioni riservate soprattutto
quelle relative alla struttura del nostro materiale genetico.
Arezzo 20 - 23 novembre 2012
153
21 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
Verso MILANO EXPO 2015 - Agricoltura, sostenibilità e salute
"Rischi e benefici degli OGM"
Gianni TaminoUniversità di Padova
Il mio intervento riprenderà alcuni temi già trattati in precedenza. Uno dei problemi che spesso si pone, parlando
di OGM, è la confusione tra diversità genetica e diversità conseguente alla transgenesi.
Per capire tale problema possiamo fare la seguente considerazione: da un punto di vista formale potremmo dire
che gli esseri umani sono tutti diversi perché presentano rilevanti differenze genetiche. Da un punto di vista di
“politica corretta” (ma anche di biologia corretta) possiamo anche dire che siamo tutti uguali perché uguali sono
i nostri geni. Dove sta l’errore? Non c’è errore, c’è solo un modo diverso di intendere le parole. In realtà tutti
gli esseri umani sono geneticamente uguali perché contengono tutti i geni tipici della specie umana, ma siamo
diversi perché abbiamo di quei geni varianti diverse (queste varianti sono dette alleli).
Da questo punto di vista OGM è un acronimo privo di reale significato. Quando si parla di organismo geneticamente
modificato non si precisa di che cosa stiamo parlando: tutti gli organismi sono geneticamente modificati per
processi evolutivi vari, ma un organismo geneticamente modificato per transgenesi (o, se si preferisce per
ingegneria genetica) è un organismo modificato non perché ha alleli diversi da un altro ma perché ha ricevuto
nuovi geni per trasferimento da un organismo anche molto diverso (da un batterio ad una pianta o da una pianta
ad un animale, ecc.) cioè per “transgenesi”.
Questo trasferimento può provocare effetti negativi, perché non ci sono soltanto danni diretti al DNA, ma anche
alterazioni dovute al modo in cui le sequenze inserite possono essere utilizzate. Quando parliamo di DNA e di
informazione genetica, più che di molecole parliamo di logica. L’informazione genetica sottintende una lingua e
qualunque linguaggio deve essere dotato di sistemi che permettono di leggere un’informazione; ciò richiede dei
requisiti ben precisi, come un alfabeto (in questo caso sono 4 lettere), un dizionario (nel linguaggio genetico sono
le 64 triplette, equivalenti a parole), una grammatica, cioè regole per coordinare le parti (per esempio quelle
interne ai geni) e una sintassi, ovvero le regole di relazione tra le parti. Se non si tiene conto della relazione tra le
parti, quando si valutano gli OGM, si rischiano grossolani errori.
Per esempio, a livello umano, abbiamo poco più di 20.000 geni per produrre più di 100.000 proteine, proprio
perché possiamo utilizzare parti del gene (introni ed esoni) in maniera differenziata, per ottenere ricomposizioni
completamente diverse, una situazione ben diversa da quella che si riteneva una volta, cioè “un gene, una
proteina, un carattere”. La situazione è molto più complessa, ed esiste lo “splacing alternativo” che permette, a
partire dalla stessa sequenza, riorganizzando esoni ed introni, di ottenere proteine diverse.
Inoltre la gran parte del DNA non ha funzioni strutturali (cioè produzione di proteine) ma ha funzione regolativa.
Questo fa sottintendere che le varie parti del DNA sono in relazione tra loro come nelle reti e le reti sottintendono
a loro volta sistemi complessi di regolazione. Tra i vari sistemi di regolazione ci sono anche segnali che vengono
dall’esterno. Per esempio le sostanze chimiche di cui parlava il prof. Marmiroli possono agire modificando i
segnali che interagiscono con la regolazione del DNA e determinare modificazioni non direttamente genetiche
ma, come vengono definite, epigenetiche.
Le modificazioni epigenetiche sono di vario genere e la visione moderna dell’informazione genetica e delle
interazioni tra geni e fattori ambientali, interni ed esterni all’organismo, sono molto più complesse di quello che si
pensava un tempo.
Ma se vogliamo analizzare le biotecnologie dobbiamo distinguere vari tipi di biotecnologie: biotecnologia è
qualunque tecnologia che attraverso l’uso di organismi viventi o di processi biologici ottiene un prodotto nuovo.
Fare il vino, fare lo yogurt, fare una talea, fare un innesto sono tutte biotecnologie. Ma quando parliamo di organismi
transgenici parliamo di una particolarissima biotecnologia, che utilizza l’ingegneria genetica. Per formare piante
transgeniche, si parte da protoplasti, cioè da cellule a cui è stata tolta la parete cellulare e messe in coltura, in
modo che da ogni cellula si ottenga una pianta; a queste cellule si può cercare di modificare la struttura genetica
inserendo geni nuovi per transgenesi. La transgenesi è ampiamente nota dagli anni 70 nei batteri e, grazie alla
transgenesi batterica, possiamo produrre farmaci che sono molto utili.
Quale è la differenza tra la transgenesi batterica o comunque di microrganismi e quella di organismi superiori
come piante o animali? Se ci interessa l’aspetto commerciale, un microrganismo possiamo tenerlo in un ambiente
confinato e ricavarne soltanto le proteine o le molecole che ci interessano come farmaci o per altre funzioni.
Viceversa se ci interessa la pianta “in toto” non possiamo coltivarla in ambiente confinato, perché il costo sarebbe
enorme. Per “ambiente confinato” si intende un laboratorio chiuso e protetto senza possibilità di dispersione né di
pollini né di seme né di qualunque altra parte della pianta: è evidente che un organismo modificato, se lo mettiamo in
campo aperto, produrrà polline sementi ed eventualmente porzioni riproducibili per talea che si possono diffondere
liberamente nell’ambiente. Questo è il vero problema per l’agricoltura: chi realizza un’agricoltura di qualità e vuole
154
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
21 Novembre
le caratteristiche del “Made in Italy”, rifiuta per scelta gli OGM, perché la possibile diffusione (che impropriamente
viene chiamata inquinamento genetico) di caratteristiche transgeniche, non permette all’agricoltore di essere
sicuro che il suo prodotto non sia contaminato.
Abbiamo visto in precedenza il caso del miele e del polline nel miele: è un altro caso di possibile passaggio di
materiale transgenico dove non li si vuole trovare. Ricordiamo inoltre che per inserire dei geni nelle piante o si
utilizzano dei batteri, come l’agrobacterium, oppure si usa un sistema di bombardamento delle cellule con proiettili
contenenti il gene estraneo; poi per sapere se il gene da inserire è andato a buon fine, si mettono dei marcatori,
di solito fattori di resistenza agli antibiotici, compresi antibiotici ancora utilizzati in medicina, come la neomicina kanamicina.
Se non conosciamo la sintassi di questo linguaggio genetico, non siamo in grado di inserire dei geni che si attivino
e si disattivino in funzione di una regolazione tipica dell’organismo. Di conseguenza, per far funzionare un gene
così inserito dobbiamo utilizzare un promotore di origine virale, completamente diverso da quello delle piante, che
ha come scopo tenere sempre in funzione quel gene, bypassando i sistemi di controllo e regolazione della cellula
vegetale. Ciò altera completamente i sistemi di regolazione e di relazione a rete all’interno della pianta.
Le piante geneticamente modificate oggi diffuse nel mondo sono poche e con limitati geni inseriti: dunque in
30 anni non ci sono stati grandi successi per le piante transgeniche dato che sono diffuse solo 4 piante con
essenzialmente due soli geni inseriti. La propaganda che affermava che si potevano coltivare piante GM in
ambienti aridi, in ambienti freddi e in ogni ambiente particolare, con produttività maggiori non è risultata vera. Gli
OGM non modificano ne l’utilizzo dei pesticidi (anzi è erbicida dipendente la gran parte delle piante transgeniche),
ne modifica la produttività. Vale la pena dunque valutare anche socialmente ed economicamente se in un dato
territorio ha senso o meno usare gli OGM. Attualmente le piante utilizzate sono cotone, soia, mais e colza: soia
e mais sono utilizzati soprattutto per l’alimentazione degli animali, mentre il cotone non ha utilizzi alimentari. I
due geni che vengono inseriti sono nell’85% delle piante un gene di tolleranza ad un diserbante e poi un gene
di resistenza agli insetti. Quest’ultimo non ha avuto molto successo perché una tossina che colpisce gli insetti,
grazie alla biodiversità, non li farà morire tutti, dato che alcuni risulteranno resistenti, e poi si riprodurranno solo gli
insetti rimasti vivi: nel giro di alcune generazioni quasi tutti gli insetti diventeranno resistenti e a quel punto l’OGM
non servirà più.
Ma gli OGM più venduti sono quelli tolleranti agli erbicidi, così l’azienda produce un OGM resistente al suo
erbicida e venderà entrambi. La pianta avrà però più rischi di contenere l’erbicida o suoi derivati.
Ma oltre a questi problemi ci sono quelli derivanti dalla non conoscenza della “sintassi” del linguaggio genetico. Già
nel 2002 Dulbecco, premio Nobel, ha chiarito questo problema, spiegando che si può verificare quali alterazioni
possono derivare dalla presenza di un gene estraneo inserito per transgenesi: “Introducendo un nuovo gene
nella cellula, la funzione di un gran numero altri geni viene alterata”, perché, se il funzionamento è a rete, è
inevitabile che ogni perturbazione in un punto si ripercuota su tutti gli altri, per giunta con un gene che non può
essere regolato e che produce comunque e sempre una proteina (ad esempio una tossina), a prescindere dalle
esigenze della cellula e dell’organismo. Ovviamente noi non sappiamo né quali geni né quando saranno alterati,
ma nel tempo questo fatto comporta gravi rischi. In base al principio di precauzione dovremmo avere garanzie che
non si verifichino effetti negativi, ma che però non possiamo escludere. Se colleghiamo principio di precauzione
e principio di responsabilità, usando le parole di un noto oncologo come Lorenzo Tomatis, bisogna evitare che si
continui a considerare l’intera specie umana come un insieme di cavie sulle quali saggiare tutto quanto è capace
di inventare il progresso tecnologico, dovremmo cioè avere una capacità di valutare prima i rischi e non verificare
a posteriori i danni.
Queste condizioni producono inevitabili impatti sull’ambiente. Uno studio di C. Benbrook, pubblicato nel 2009,
spiega come negli Stati Uniti, nelle zone dove vi è ampia diffusione di OGM, l’utilizzo di erbicidi e di insetticidi è
aumentato notevolmente: esattamente l’opposto di quanto era stato proclamato in passato, cioè una riduzione di
pesticidi. Questo incremento è la conseguenza dell’aumento non solo di insetti resistenti alle tossine, ma anche
di piante infestanti resistenti ai diserbanti. Il rischio si manifesta anche a grande distanza perché, per esempio,
già tempo fa la Commissione di Cooperazione del Nafta (cioè l’area di scambio economico dei tre paesi del nord
America), aveva messo in evidenza che in Messico si poteva esportare se solo mais OGM macinato per evitare
una contaminazione dell’area d’origine del mais. Infatti la contaminazione può avvenire anche portando granella
per uso alimentare che, cadendo per terra, dia origine ad una pianta che produrrà polline in grado di diffondersi.
Si è parlato a lungo di quale era il limite ammissibile di contaminazione del mais: si parlava di valori compresi
tra l’1 e il 4 per 1000. Ma in un ettaro si seminano 70.000 semi e l’1 per 1000 sono 70 piante transgeniche, che,
distribuite a caso in un ettaro, hanno la capacità di disperdere il loro polline e di contaminare altre piante in un
raggio di circa 50 m. Praticamente con l’1 per 1000 tutto il campo sarà contaminato inevitabilmente.
Un altro aspetto rilevante per l’ambiente è il rischio che le piante in grado di produrre tossine contro gli insetti
colpiscano sia gli insetti dannosi che quelli utili. Per gli americani il problema si pose inizialmente con la farfalla
monarca, che non è un insetti utile, ma per gli americani è un simbolo. Più recentemente, nel 2012 in Svizzera, si
Arezzo 20 - 23 novembre 2012
155
21 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
è visto che anche le larve di coccinella possono essere colpite dalla tossina della piante transgenica, ed in questo
caso si tratta di insetti utili che mangiano insetti dannosi e quindi vi può essere un danno all’agricoltura provocato
dalla mancanza di coccinelle.
I danni possibili per la salute sono abbastanza noti: allergie, intolleranze, resistenze agli antibiotici, ma anche
metaboliti di diserbanti (come il glifosate), rischi di malfunzionamento dei geni, ecc.
Sul rischio di allergie ci sono vari dati, come nel caso del mais “starlink” che venne ritirato dal commercio negli
USA, ma molte aziende, tra cui Kraft e Kellog’s, hanno dovuto ritirare dal commercio tutto quanto avevano
prodotto perché contaminato da tale mais. Un altro problema rilevante è che il DNA contenuto negli OGM una
volta mangiato da animali o da uomini trasferisce all’interno di questi anche il tratto di DNA modificato, che può
integrarsi nel DNA di batteri dell’intestino, ma in certi casi anche nel DNA degli animali: non sappiamo che problemi
potrebbero verificarsi, mas sicuramente sappiamo che quando mangiamo piante anche i micro-RNA, che sono
fondamentali nella regolazione dell’espressione genica, vengono inglobati e partecipano alla regolazione; che
funzioni possono avere quelli di una pianta geneticamente modificata, non lo sappiano ma sarebbe bene saperlo.
Molti studi hanno messo in evidenza che a distanza di tempo e di generazioni, animali alimentati con mais
transgenico hanno delle differenze di peso, delle alterazioni in alcuni organi e una riduzione di fertilità. Molti di questi
studi sono stati contestati dalla Monsanto, ma la stessa Monsanto per mettere in vendita i propri mais modificati
ha fatto studi sui ratti esattamente identici a quelli contestati e anche loro avevano trovato delle alterazioni, che
però non hanno mai pubblicato, se non dopo una richiesta da parte della Germania.
A questo proposito si possono ricordare i lavori della dott.sa Malatesta e del Prof. G. Séralini, un francese che
ha provocato negli ultimi mesi un grande sussulto e preoccupazione perché uno studio su ratti protratto per 24
mesi ha messo in evidenza che sia i pesticidi maggiormente utilizzati nella coltivazione del mais (glifosate) sia il
mais geneticamente modificato provocavano una serie di alterazione tra cui anche lo sviluppo di tumori. Lo studio
può essere sicuramente criticato, ma i ceppi e la metodologia è esattamente la stessa usata dalla Monsanto, per
ottenere l’autorizzazione al commercio del suo mais..
Ultimo dato che riporto riguarda alterazioni indotte non direttamente dall’inserimento dei geni estranei, ma da
alterazioni del funzionamento a rete dei geni. Alcuni studiosi australiani, inserendo un gene di fagioli, che li
rende resistenti alla larva di insetto che si nutre del seme, nel DNA di piselli attaccati dalla stessa larva, hanno
effettivamente ottenuto piselli resistenti all’attacco dell’insetto, ma, mentre il pisello prima di questo inserimento
non provocava allergie e nemmeno il fagiolo con questo gene, il pisello cosi modificato induceva allergie. Non è
quindi la diretta azione del gene inserito, ma l’interazione del nuovo gene con gli altri geni a provocare tale effetto.
Ovviamente questo tipo di pisello non è mai stato messo in commercio, ma serve ad evidenziare che questi eventi
si possono verificare. In questo caso ci si è accorti subito, ma quali sono gli eventi che potrebbero avvenire in
futuro, perché indotti da nuovi fattori ambientali non previsti?
Credo che questi elementi siamo sufficienti per dirci che bisogna utilizzare la massima cautela e che, per le
caratteristiche dell’agricoltura italiana, gli OGM non servono, anche non fossero così rischiosi, come alcuni studi
sembrano mettere in evidenza.
156
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
21 Novembre
Verso MILANO EXPO 2015 - Ambiente, sostenibilità e salute
"Presentazione progetti - Garantire la sicurezza alimentare e valorizzare le produzioni"
Silvio Borrello
Ministero della Salute
Trascrizione non revisionata dal relatore
Buongiorno a tutti questo progetto intende aprire la strada ad Expo 2015 che vedrà l’Italia e non solo protagonisti
nei temi legati alla sicurezza alimentare intesa nella sua duplice accezione cioè come food safety quindi sicurezza
degli alimenti come acqua e cibo sani e sicuri e anche come food security, questo sembra un tema lontano dalle
nostre case ma in momenti di crisi lo viviamo anche qui da noi. Per cui dal 31 maggio al 31 ottobre 2015 ci sarà
questa grandissima manifestazione a cui hanno già aderito 150 Paesi di tutto il mondo.
L’Italia si deve presentare unita per presentare quelle che sono le migliori pratiche in materia di sicurezza degli
alimenti. Se andiamo a vedere quello che è la situazione italiana per quanto riguarda i prodotti alimentari,
sappiamo tutti che sono alimenti classificati come alimenti di qualità, dove per qualità ognuno mette quello vuole
ma se li classifichiamo con DOCP e IGP ne abbiamo un alto numero circa 4500 prodotti. Questo rappresenta una
ricchezza culturale ed economica per il nostro Paese ed un fiore all’occhiello per le nostre produzioni nazionali.
I prodotti tradizionali italiani sono apprezzati in tutto il mondo, lo abbiamo visto nel corso di questi anni quanto
sia aumentato il flusso esportativo dei nostri prodotti verso paesi terzi a fronte di una contrazione dei consumi
a livello nazionale. Cosa dobbiamo fare? Dobbiamo dimostrare agli altri quello che facciamo e presentarlo al
meglio durante questa manifestazione. È necessario innanzi tutto una valorizzazione di quelle che sono le
produzioni italiane con una riduzione dei rischi per il consumatore ma anche un aiuto un sostegno alle imprese
che producono per farle migliorare sia in qualità che in sicurezza. È necessario conoscere i prodotti, abbiamo
detto che ci sono 4500 prodotti che sono tipici delle varie regioni d’Italia, di ogni comune. È necessario conoscere
i prodotti ma anche i processi che portano alla loro produzione per garantire la sicurezza alimentare. Come
Ministero della salute e Regione Lombardia abbiamo pensato di promuovere questo progetto internazionale il cui
coordinamento scientifico è offerto dall’Istituto Zooprofilattico della Lombardia e dell’Emilia e Romagna. Questi
sono i 3 soggetti promotori ed è un progetto assolutamente aperto che prevede delle ricadute e delle partnership
soprattutto con gli IIZZPP sperimentali per presentare uniti quella che è la migliore ricerca italiana. Il progetto
è aperto anche a tutti gli enti di ricerca pubblici e privati, a produttori singoli e associati e alle associazioni dei
consumatori. Chi vuole partecipare al progetto ne deve condividere gli obiettivi, le modalità operative e anche
i risultati. È importante anche al cooperazione internazionale perché i nostri prodotti devono andare all’estero,
ci sono azienda che sono interessate all’esportazione dei nostri prodotti ma è necessario andare a valutare
quello che è il profilo microbiologico e valutare eventualmente il grado di rischio prodotto per prodotto che non
può fare solo l’IZP di Brescia però penso ai prodotti siciliani ai prodotti abruzzesi ognuno ha una sua tipicità e
gli istituti zooprofilattici saranno i veri attori per i prodotti locali. Dobbiamo promuovere inoltre la cooperazione
internazionale, l’abbiamo visto i questi anni, dei casi di fenomeni di listeria sui formaggi anche italiani che sono
andati all’estero e si è istaurato un meccanismo di collaborazione con gli istituti di ricerca con le autorità. In primo
luogo sicurezza alimentare ma dobbiamo arrivare ad un miglioramento delle produzioni attraverso quelli che
sono i profili nutrizionali. In definitiva si dovrà arrivare alla diffusione di quelle che sono le conoscenze acquisite,
una valorizzazione dei risultati e di quella che è stata l’attività svolta in ambito nazionale e se ci sono anche attori
internazionali possono partecipare al progetto stesso.
Arezzo 20 - 23 novembre 2012
157
21 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
Verso MILANO EXPO 2015 - Ambiente, sostenibilità e salute
"Presentazione progetti - Garantire la sicurezza alimentare e valorizzare le produzioni"
Piero FrazziRegione Lombardia
Buongiorno a tutti, per quello che riguarda il progetto noi siamo partiti dall’esperienza che abbiamo avuto durante
l’emergenza della “mozzarella blu” e le varie emergenze che abbiamo avuto sull’esportazione di prodotti per
quanto riguarda la listeria come i formaggi e i prodotti a base di carne. Da questa esperienza nata da tavoli dove
sia l’impresa condivideva, con l’IZP e gli istituti di ricerca lombardi, il loro proprio know-how per quanto riguarda
le loro conoscenze dal punto di vista microbiologico e le loro conoscenze dal punto di vista della lavorazione visti
i risultati ottenuti, visto il coinvolgimento che abbiamo avuto sul territorio di questi progetti con il Ministero della
Salute abbiamo pensato di estendere queste esperienza all’interno del progetto Expo 2015. Questa esperienza
che è già partita con un nucleo di ricerca, un nucleo progettuale su un progetto CCM del Ministero finalizzato a
questa attività. Per quanto riguarda il progetto che nasce e vuole essere una rete che coinvolga i centri di ricerca,
le istituzioni e soprattutto il mondo produttivo attraverso le associazioni di categoria e attraverso il coinvolgimento
diretto delle imprese. Perché oltre all’attività di controllo di verifica che è un compito istituzionale che noi svolgiamo
e andiamo a fare, c’è un valore aggiunto che possiamo dare a queste imprese, che è quello di dire alle imprese
come fare le cose giuste e le modalità corrette di farle. Quindi questo progetto porta avanti delle azioni sia
incentrate sulla ricerca, dove attraverso la ricerca l’azienda diventa sia il promotore che come attori e che come
fruitori del prodotto finale. Gli obiettivi strategici del progetto sono lo studio la promozione dei prodotti alimentari
in modo da garantire sicurezza. La promozione di progetti di cooperazione internazionali con il ministero, ma
soprattutto una documentazione sulla sicurezza dei prodotti alimentari che andiamo a studiare e la costruzione
di modelli di microbiologia predittiva che tengano conto della peculiarità e della caratteristica di questi prodotti e
della flora microbica autoctona ed eventualmente formulare dei nuovi indici di sicurezza microbiologica. Diventa
fondamentale la costituzione di un sistema di raccolta che raccolga tutta la documentazione e i dati che sia
condiviso e messo in rete perchè far lavorare tutti questi soggetti su un progetto finalizzato è fondamentale che
tutto il lavoro venga condiviso e ci sia anche la possibilità di condividerne anche i risultati. Deve essere poi creato
un sistema integrato in grado di gestire questi protocolli sperimentali fondamentali soprattutto per quelle aziende
che si affacciamo su mondo dell’esportazione quindi hanno bisogno di dare delle garanzie. Abbiamo visto le
varie emergenze che ci sono state in questi anni riguardo la listeria su vari prodotti, diventa fondamentale la
gestione di questi protocolli. Per quanto riguarda le ricadute sul consumatore, il progetto vuole coinvolgere anche
le varie associazioni dei consumatori attraverso l’illustrazione delle caratteristiche dei prodotti e dei processi per
dare maggiore garanzia, per far conoscere le dinamiche microbiologiche dei vari prodotti per dargli garanzia di
qualità e di sicurezza, il tutto attraverso una efficacie gestione dei processi e dei prodotti. Per quello che riguarda
i produttori diventa fondamentale per il coinvolgimento del mondo produttivo un ritorno che può essere sia il
supporto scientifica per permettere a queste imprese di avere una corretta gestione dei pericoli attraverso i loro
sistemi di autocontrollo. Garantirgli una maggior penetrazione dei mercati dei paesi terzi in quanto se sono in
grado di dare queste garanzie sono anche in grado di supportare e giustificare il loro interesse in determinati
mercati esteri dove gli chiedono maggiori garanzie e qualità e sicurezza dei prodotti. Di permettere attraverso
queste ricerca di determinare la durata dei prodotti e garantire l’identità dei prodotti. Momento fondamentale
della ricerca diventa anche la comunicazione del rischio, le strategie comunicative che sono già state messe in
atto da EVSA verrebbero ulteriormente sviluppate nell’intento di raggiungere obiettivi strategici quali garantire un
programma di comunicazione del rischi, garantire che le informazioni vengano date in modo corretto e soprattutto
guidare il processo informativo nei confronti dei consumatori. Accanto a queste azioni specifiche intendiamo
sviluppare anche una fase di controllo che parte da due presupposti anzitutto un azione integrata con le autorità
competenti che fanno capo a competenze regionali e ministeriali e una fase di controllo che parta dalle conoscenze
scientifiche acquisite durante le azione che vengono sviluppate durante ricerca. Le azioni di controllo sull’attività
diretta legata all’evento EXPO sia a tutto quello che c’è da fare prima dell’evento EXPO. Quindi la messa in atto
di un sistema di controlli sulle criticità che ci sono già e che si sono riscontrate adesso che da qui al 2015 devono
essere risolte e chiuse. Per quanto riguarda gli obiettivi strategici che ci poniamo con il progetto controlli oltre
quello di sviluppare controlli ufficiali anche quello di sviluppare un modello di lavoro che può gestire le criticità in
occasione di grandi eventi. Dato che EXPO è una vetrina, un qualcosa che si mette in mostra, ma deve essere
anche un qualcosa che rimane, quindi questi progetti tesi alla ricerca all’attività di controllo alla comunicazione del
rischio vuole essere un qualcosa che rimarrà anche in una seconda fase terminato l’evento EXPO quindi secondo
noi è una cosa utile al sistema che va oltre EXPO 2015.
158
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
21 Novembre
Verso MILANO EXPO 2015 - Ambiente, sostenibilità e salute
"Presentazione progetti - Garantire la sicurezza alimentare e valorizzare le produzioni"
IZS Lombardia Emilia- Romagna
Trascrizione non revisionata dal relatore
Stefano Cinotti
Buongiorno a tutti, preso atto che questo è un progetto vuole dimostrare, ai partecipanti alla manifestazione di EXPO
2015, la quantità e la qualità di molti prodotti tipici italiani ma vuole anche dimostrare che la sicurezza alimentare
che questi prodotti tipici possono garantire deriva dall’accertamento non solo superficiale ma intimo e profondo
delle dinamiche che volgono alla produzione di questi prodotti e quindi a tutto ciò che questi prodotti costituiscono
sia in termini di produzione primaria che di trasformazione. Quindi noi opereremo attraverso tre obiettivi successivi,
tre macro-obiettivi e attraverso alcune fasi di intervento. Il primo obiettivo è lo studio e la caratterizzazione dei
prodotti della tradizione italiana e dei processi che volgono e che sottendono alla loro produzione al fine di
valutarne il profilo sanitario in quanto la sicurezza assoluta in termini alimentari deriva dalla acquisizione di tutte
le nozioni utili alla produzioni di un analisi del rischio prevalente, quindi studio e caratterizzazione microbiotica,
definizione di un sistema di identificazione basato sulla peculiarità delle comunità microbiche, quindi identificazione
dei prodotti le valutazioni del profilo di sicurezza tale da inserire i prodotti stessi in aree principali, valutazione del
profilo di sicurezza igienico sanitario, questa è la prima fase. Una prima fase che volge principalmente ad una
identificazione della possibilità del rischio microbiologico più largamente inteso secondo le strategie che sono
le più comuni cioè le valutazioni dei parametri di rischio in funzione delle variazioni della temperatura, del pH,
dell’acqua libera, dell’acido lattico ecc.. La seconda fase è un pochino più articolata è lo studio dei meccanismi
molecolari di competizione microbica al fine del loro utilizzo anche al di fuori del modello nel quale sono stati
studiati quindi di un trasferimento, quindi lo studio della trasferibilità di un modello predittivo. Studio dei complessi
meccanismi della competizione microbica noti o evidenziati anche durante la prima fase del processo. Lo studio
degli effetti delle molecole effettrici sul tasso di crescita e quindi sulla morte dei microorganismi patogeni perché
questi due elementi tasso di crescita e morte dei microrganismi patogeni sono le due boe attraverso le quali si
dipana il circuito della sicurezza. Validazione del modello predittivo attraverso challenge test ma anche attraverso
nuovi modelli matematici. Poi la terza fase che è la divulgazione e la condivisione dei risultati cosi come è già
stato proposto dal dott. Frazzi e dal Dott. Borrello, attraverso l’implementazione di un sistema informativo sulla
sicurezza alimentare. A questo proposito verrà messo a disposizione l’asse alimentaria che è uno strumento
capace di accogliere tutte queste informazioni e di renderle pubbliche e disponibili sia in area pubblica che in
area riservata. Questo strumento verrà gestito dall’Istituto di Brescia e avrà tra le altre attività anche l’attivazione
di una sezione dedicata all’evento di EXPO 2015. Per concludere gli obiettivi del progetto e le fasi operative sono
la caratterizzazione dei processi produttivi e dei prodotti di prima trasformazione, poi l’applicazione di modelli
di microbiologia predittiva al fine della catalogazione degli alimenti secondo il profilo microbiologico e quindi
l’entità del possibile rischio, la caratterizzazione delle comunità microbiologiche dei singoli prodotti lo studio dei
comportamenti dei microrganismi patogeni durante il processo produttivo e le loro interazioni con le popolazioni
lattiche endogene ed esogene. La costruzione dei modelli predittivi e la validazione dei modelli attraverso attività
shelf-life. Invece i prodotti e risultati attesi sono un pochino più variegati, fornire elementi in grado di documentare
la sicurezza di determinati prodotti alimentari, costruire e condividere modelli di microbiologia predittiva, fornire
nuovi indici di sicurezza microbiologica. Costituire un sistema di raccolta documentazione e di condivisione e
sviluppare un sistema organizzato integrato in grado di gestire una serie di protocolli sperimentali. Questo è un
progetto molto ambizioso ma che non ha basi di sostegno finanziario definite e certe, questo lo dico perché mentre
da una parte si dice che è aperto ad altri IZP, centri di ricerca e a tutti coloro che vogliono lavorare all’interno del
progetto però attenzione perchè di soldi da dividere ce ne sono ben pochi, anzi siamo tutti in attesa che qualcuno
ne porti. Quindi per parlarci chiaro non ci sono tesoretti da dividere ma ci sono tesori da condividere, siamo
disponibili alla collaborazione alla condivisione degli strumenti sicuramente anche all’attenzione dei colleghi degli
altri istituti delle attività di identificazione dei prodotti tipici e delle loro intime espressioni microbiologiche e quindi
delle loro sicurezza però il richiamo e l’attenzione che mi sento di portare a questo tavolo è la condivisione ci sarà
sicuramente ma dateci una mano perché il recupero di fondi sull’argomento non è che sia garantito lo dobbiamo
costruire tutti insieme.
Arezzo 20 - 23 novembre 2012
159
21 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
Verso MILANO EXPO 2015 - Ambiente, sostenibilità e salute
"Forum PlantLIBRA: valutazione sicurezza degli estratti vegetali, esperienze e dati dal progetto europeo n.
245199. Il progetto"
Patrizia Restani
Università degli Studi di Milano
Con questa presentazione si intende diffondere alcuni risultati del progetto PlantLIBRA, un progetto europeo
iniziato nel 2010 e della durata di 4 anni. Il Progetto intende valutare gli aspetti dei rischi e benefici associati
al consumo di integratori alimentari contenenti ingredienti botanici. L’intervento sarà per lo più incentrato sulla
sicurezza, lasciando però i risultati degli studi tossicologici alla collega Marina Marinovich. Il progetto PlantLIBRA
coinvolge 21 paesi nel continente europeo: 20 sono membri della comunità più la Svizzera che è un paese
aggregato. I partners sono distribuiti nelle diverse aree geografiche dell’Europa, fatto che deriva dalla scelta di
poter tracciare un quadro generale sul problema degli integratori nel nostro continente. Sono inclusi 4 partner
esterni all’Europa, come previsto dal progetto: due paesi in Sud America (Argentina e Brasile), il Sud Africa e la
Cina. Questi Paesi sono strategici per la produzione della materia prima di origine vegetale che viene utilizzata
in Europa negli integratori alimentari. Uno dei lavori che stiamo concludendo in questo momento è la Survey
sul consumatore, che è stata condotta in 6 paesi europei e che ha lo scopo di ottenre informazioni sull’uso
degli integratori alimentari a base erboristica in Europa. Sono state scelte 6 nazioni (Finlandia, Italia, Spagna,
Inghilterra, Germania e Romania) che risultano localizzate in varie aree geografiche dell’Europa allo scopo
di ottenere un quadro più rappresentativo. È stato organizzato il lavoro con un questionario comune, tradotto
nelle 6 lingue per renderlo più facilmente utilizzabile. La Survey è finita alcuni mesi fa e attualmente si stanno
concludendo le operazioni di rielaborazione dei risultati; per questo motivo nel convegno vengono presentati
risultati preliminari. L’obiettivo di questa Survey era quello di ottenere 2400 interviste valide nei 6 paesi in modo
da ottenere un’idea delle ragioni d’uso, delle aspettative del consumatore, alcune indicazioni sulle dosi perché
queste servono per gli studi di valutazione del rischio, informazioni sugli eventi avversi (che abbiamo ottenuto
anche attraverso altre vie) e anche informazioni sull’approccio del consumatore a questa categoria di prodotti.
[Slide] Sono stati quindi illustrati i risultati preliminari di questa Survey, a partire dal numero di interviste effettuate
nei vari paesi. L’obiettivo finale era quello di avere almeno 400 interviste valide per ogni paese, obiettivo che è
stato raggiunto; i dati sono stati elaborati anche in base al sesso e all’età; sono stati esclusi i bambini in quanto la
Survey era riferita soltanto agli adulti. Innanzi tutto va chiarito che quando ci riferiamo a “consumatori” intendiamo,
persone che hanno consumato integratori alimentari a base erboristica (non solo quelli vitaminico minerali) per
almeno per un certo periodo negli ultimi due anni, quindi una categoria ben precisa, non la persona che li ha
usati occasionalmente. Queste persone venivano arruolate attraverso interviste telefoniche a cui poi si chiedeva
di compilare il questionario assistiti dall’intervistatore. La maggior parte delle persone intervistate consumava un
solo prodotto, però [Slide] una certa percentuale ne consumava due o più (in Finlandia si arriva al 25%). Per
quello che riguarda le ragioni, si osserva una certa differenza tra paese e paese negli obiettivi salutistici per cui le
persone consumavano gli integratori [Slide]; le croci stanno a rappresentare una frequenza di risposta superiore al
15% per rendere più immediata la valutazione dei risultati. La Finlandia ha segnalato parecchie risposte. L’uso per
migliorare la funzionalità del sistema immunitario è stato scelto da 4 paesi su 6; potenziare il sistema immunitario
per combattere le malattie del periodo invernale è una delle ragioni per cui si usano gli integratori di questo tipo.
Le assunzioni a scopo energetico e tonico sono state segnalate significativamente da tre paesi su 6; seguono gli
utilizzi meno frequenti come il potenziamento della memoria in Romania, il controllo del peso corporeo in Spagna.
Le varie indicazioni riportate e non segnate da croci sono state comunque segnalate dai consumatori ma con
una frequenza inferiore al 15%. Sulla forma utilizzata la maggior parte della persone prende pillole, capsule
quindi preferisce un uso orale comodo. Più raramente vengono utilizzate le forme liquide. A raccomandare un
prodotto sono principalmente amici o parenti (il famoso passaparola), infatti molto spesso l’integratore alimentare
viene consumato perché qualcuno in famiglia o qualche amico lo usa e consiglia di usarlo. Altri consumatori si
autogestiscono, solo in due paesi su sei è il farmacista a consigliarlo ed è un po’ strano visto che la farmacia
rappresenta uno dei punti vendita più importanti. In Italia un ruolo importante è giocato dagli erboristi e questo è
abbastanza intuitivo, perché in Italia le erboristerie sono una realtà ben radicata e esiste anche una laurea breve
in erboristeria. Stranamente non viene indicato internet come fonte di informazione importante. Relativamente
al luogo di acquisto, la maggior parte delle persone ha risposto in farmacia, l’erboristeria o comunque in negozi
che vendono prodotti salutistici; i supermarket sono stati indicati più frequentemente nei paesi nordici (Finlandia,
Regno Unito) ma anche in Spagna; internet non è una fonte di acquisto importante a parte la Germania; negli altri
paesi viene segnalato ma con frequenza inferiore al 15%. Per quello che riguarda le istruzioni utili al consumo
del prodotto si utilizza molto quanto scritto sulla scatola, seguono le raccomandazioni di amici o parenti. Ancora
una volta internet non è stato segnalato come importante fonte di informazione per il dosaggio, mentre diventa
160
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
21 Novembre
estremamente importante per i consumatori che vogliano avere qualche informazione in più, insieme ai farmacisti,
ai giornali e amici.
Colpisce che per avere informazioni il consumatore non interroghi le fonti scientifiche ma amici, internet e altro.
Un’altra Survey che abbiamo condotto è quella che coinvolge i centri antiveleno; lo scopo era quello di raccogliere
gli eventi avversi agli integratori alimentari che sono spesso sottostimati e poco disponibili. Per avere questi dati
è stato redatto un apposito questionario, che è stato inviato a tutti i centri antiveleno appartenenti all’associazione
europea e che sono distribuiti geograficamente in tutta Europa. A questi si è aggiunto un centro antiveleno
brasiliano che ha aderito spontaneamente in collaborazione con L’Università di San Paolo che è un partner
di PlantLIBRA. I centri coinvolti erano 64, 30 hanno risposto e 10 di questi hanno segnalato eventi avversi. I
risultati [Slide] sono stati rielaborati; i casi totali segnalati dai centri antiveleno sono stati 526 però andando a
valutare quelli che sono veramente associati ad un prodotto erboristico o ad un integratore alimentare, i numeri
scendono a 153. Alcuni centri hanno fatto una scelta più accurata di altri; l’Italia è stata abbastanza aderente
alle richieste e di 71 casi segnalati ne sono stati scartati solo pochi; in Finlandia di 168 segnalati ne sono stati
mantenuti solo 11 perché gli altri non erano sufficientemente documentati. [Slide] Relativamente alla percentuale
di importanza degli eventi avversi, la pianta più coinvolta è la mandragola, poi la valeriana, l’ippocastano, il
colchico, il the verde (Camelia senesis), la melissa, la passiflora e cosi via. Alcune di queste piante non sono
incluse in integratori, ma sono state segnalate per errori di riconoscimento, come nel caso della mandragola. Gli
eventi avversi segnalati erano in alcuni casi attesi perché ben noti (liquirizia); altri sono risultati meno attesi come
quelli associati alla menta. Tra i vari casi si può citare la liquirizia che è nota per il suo aspetto ipertensivo; il suo
utilizzo deve quindi essere sconsigliato a chi soffra di ipertensione arteriosa. Per quello che riguarda la Camelia
sinensis, è nota l’associazione con epatopatie. La maggior parte degli eventi avversi è stata associata in passato
agli estratti idroalcolici, ma più recentemente sono stati indotti anche da elevate quantità di infuso di te verde.
Pur sporadici (se consideriamo i numerosissimi consumatori al mondo di te verde) queste epatopatie sono ormai
ben documentate e gravi. L’obiettivo della raccolta di dati sugli eventi avversi era quello di poter identificare più
chiaramente quali sono gli ingredienti botanici che possono rappresentare un rischio per il consumatore; capire
le condizioni che possono portare ad un rischio maggiore, tra cui l’associazione con farmaci o alcune patologie
come nel caso della liquirizia e l’ipertensione. È importante capire le cause della tossicità, ed identificare i gruppi
a rischio per i quali sono necessarie particolari avvertenze. E’ importante che questi gruppi vengano tutelati con
opportuna informazone da parte del medico, del farmacista e anche di chi produce l’integratore; naturalmente
tutto deve collaborare ad una strategia idonea per ridurre al minimo i rischi di eventi avversi. In linea di massima
si può dire che gli eventi avversi ai prodotti contenenti ingredienti erboristici sono in numero limitato, anche se un
certo numero di casi sono stati segnalati dai centri antiveleno. Probabilmente in futuro il numero di segnalazioni
aumenterà, sia per un aumento dell’uso degli integratori alimentari, sia per la maggior consapevolezza dei centri
stessi.
Un’altra importante attività del progetto PlantLIBRA è il meta-database che comprende tutte le informazioni
disponibili nel settore degli integratori con ingredienti botanici: informazioni sulla composizione, sugli aspetti
botanici, sugli aspetti di beneficio quindi gli effetti salutistici legati agli integratori e anche aspetti tossicologici, gli
eventi avversi nell’uomo e i metodi di analisi.
La banca dati è attualmente a disposizione dei partners di PlantLIBRA e dei collaboratori del progetto; in futuro
si auspica di potere aprire l’accesso a tutte le persone che operano nel settore, quindi legislatori, produttori,
laboratori di analisi, i centri antiveleno, ecc. [Slide] Le attività del progetto sono disponibili a tutti sul sito di
PlantLIBRA (WWW.plantlibra.eu), da cui si possono scaricare le newsletters.
Arezzo 20 - 23 novembre 2012
161
21 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
Verso MILANO EXPO 2015 - Ambiente, sostenibilità e salute
"La valutazione della sicurezza dei Botanicals negli integratori"
Università di Milano
Trascrizione non revisionata dal relatore
Marina Marinovich
Buongiorno, la mia relazione parlerà della sicurezza alimentare degli integratori alimentari. Stiamo parlando di
integratori a base vegetale. Potenziali problemi che normalmente si trova ad affrontare su questo tipo di prodotto.
Il primo, la tossicità intrinseca di questi ingredienti, quindi la possibilità che per natura il prodotto botanico contenga
degli ingredienti che singolarmente hanno una tossicità, la possibilità di adulterazione quindi una frode con
l’inserimento di altri prodotti sempre di derivazione vegetale che però hanno una tossicità spiccata, una errata
identificazione anche questo a volte succede quando il prodotto veicolato attraverso canali di piccole industrie di
produzione o addirittura quasi a livello hobbistico. La contaminazione che può essere di metalli pesanti, questo si
riscontra molto spesso in prodotti provenienti da paesi terzi, a volte non perché è una contaminazione ma perché
deriva dal processamento che in alcuni paesi include l’utilizzo di metalli che poi rimangono a contaminare il
prodotto oppure una contaminazione microbiologica. L’errato uso può essere un’altra fonte di tossicità l’utilizzo di
una pianta con determinate applicazioni su alcuni problemi o caratteristiche fisiologiche viene utilizzata per altro.
ho messo l’iterazione con farmaci perché è un problema grosso, alcuni integratori possono andare a disturbare
l’apporto nutriente della normale dieta oppure una terapia e l’altra problematica è che la persona alla domanda
del medico prende altri farmaci risposte no perché non vede l’integratore come un farmaco ma di fatto questo
prodotto può costituire un problema. Parlare di sicurezza vuol dire che questi sono problemi generali, abbiamo
visto che l’uso degli integratori è un uso globale, abbiamo visto che le materie primarie ci arrivano da mercati non
locali ne europei quindi la problematica si è globalizzata e di conseguenza deve essere globalizzato anche
l’approccio alla sicurezza, non possiamo avere criteri di valutazione validi solo per noi perché altrimenti tutta
questa impalcatura cade. Il concetto di rischio nella popolazione è personale e molto spesso è legato alla sicurezza
con cui approcciamo una materia, ad esempio un integratore naturale botanico ci sembra più sicuro di altri. Di
conseguenza a questo mercato globale è giusto che ci sia stata una spinta non solo del mondo scientifico ma
anche delle autorità preposte al controllo per dare suggerimenti su come gestire tutte le problematiche. Non entro
nel merito delle linee guida, che sono disponibili e che sono piuttosto dettagliate, ma volevo fare l’esempio relativo
a quando non è un adulterazione non è una contaminazione il problema ma è il prodotto botanico in se cioè uno
o più ingredienti del prodotto botanico, cosa fare e quali sono le problematiche. La linea guida ci dice che se la
sostanza è semplicemente tossica posso utilizzare un approccio tradizionale, quello che uso ad esempio per gli
additivi alimentari, quindi valuterò cercherò di stabilire in base alla sperimentazione animale se è disponibile una
dose giornaliera ammissibile e che non costituisce un rischio per la mia salute, dove questo non sia possibile
perché i dati di tossicologia non ci sono posso tentare un altro approccio che si basa semplicemente sull’esposizione
del TTC che mi permette di dire che la quantità che assumo come integratore è molto al di sotto della quantità che
posso assumere come alimento di questo ingrediente quindi arrivo ad una sorta di valutazione di sicurezza. Ho
poi dei problemi particolari, spesso le sostanze i prodotti botaniche contengono sostanze genotossiche
cancerogene, nel caso del basilico se ne è sentito parlare diverse volte, che contengono ingredienti che se
valutati singolarmente presentano delle criticità. In questo caso le linee guida suggeriscono un altro approccio che
è quello del margine di esposizione. Il margine di esposizione è un approccio matematico è estrapolazione di dati
che vengono sempre dalla sperimentazione animale, deriva appunto dall’utilizzo di questo benchmarking dose
messo in relazione all’esposizione umana e sempre le linee guida ci dicono che quando questo rapporto è
superiore a 10.000 mi considero in una zona di sicurezza per l’utilizzo di questo prodotto che contiene questo
ingrediente. [Slide] se fate una sperimentazione, guardate gli asterischi utilizzate diverse dosi avete una risposta
in questo caso una risposta di animali che presentavano tumori posso disegnare una curva o per quei punti posso
disegnare più curve quindi poi ho bisogno di conoscere il range di errore di questa stessa curva e su uno dei limiti
della curva stessa vado a estrapolare l’effetto al 10%. Questa è la benchmarking dose lower ten che avete visto
nel rapporto precedente quindi è semplicemente un metodo per estrapolare la dose che mi causerebbe l’aumento
dell’incidenza, in questo caso dei tumori, del 10% rispetto ai controlli. Il problema è che quando noi andiamo ad
applicare queste formule matematiche alla realtà ci troviamo con delle amare sorprese. [Slide] Questi sono gli
achenilbenzeni, una famiglia abbastanza conservata di sostanze con struttura molto simile (…) apparentemente
non ci dicono niente ma sono presenti in molti ingredienti (prezzemolo, finocchio, noce moscata, cinnamomo …).
Per molti di questi ingredienti che mangiamo e che sono utilizzati come integratori il margine di esposizione non
è superiore a 10.000 ma è a volte pesantemente al disotto, quindi a questo punto si tratta di gestire, di capire cosa
fare. Proibisco l’integratore va bene, ma la domanda successiva è proibisco il basilico o il sedano, cioè come
gestisco questo tipo di problematica. Ci sono diverse strategie, una l’abbiamo detta riduco la concentrazione del
162
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
21 Novembre
prodotto quando questo è un integratore o dell’ingrediente nel prodotto con pratiche agronomiche ma non sempre
è possibile anche perché l’ingrediente tossico è a volte responsabile dell’effetto benefico del prodotto. Ottengo
dati umani per capire se l’effetto che io pavento che ho osservato nell’animale da cui ho costruito il MOE è un
effetto vero, quindi il meccanismo d’azione quindi tossico cinetica assorbo come l’animale, distribuisco, butto fuori
questo alimento senza problemi, ma quello che appare sempre di più dalla letteratura e dalla ricerca, è che nel
caso dei prodotti botanici non ha senso parlare di ingredienti separatamente ne pensare che il vegetale sia una
somma matematica di una serie di ingredienti ma sia qualcosa di più, è un insieme vivo ed è qualcosa di differente
e quindi in questo tipo di approcci bisogna andare a considerare l’effetto matrice. Di questo si sta occupando
PlantLIBRA in particolare proprio sull’effetto matrice sui dati tossicologici. I gruppi sono uno olandese e uno
dell’Università di Milano, già questi dati sono disponibili in letteratura ed hanno dimostrato come quando io valuto
il metilgenolo l’estragolo da solo vedo un certo effetto quando valuto l’estratto di basilico, l’estratto di finocchio che
contengono queste sostanze l’effetto è differente. In Olanda hanno osservato che l’estratto di basilico blocca il
legame al DNA che si può osservare con l’estragolo o con metilgenolo, quindi se valuto solo queste sostanze
vedo un legame al DNA che è un indice possibile di genotossicità, se valuto l’estratto di basilico in toto non vedo
niente. Noi abbiamo preso estragolo e idrossiestragolo per valutarne la genotossicità e abbiamo preso gli estratti
di basilico che contengono queste sostanze e abbiamo fatto una sperimentazione con sostanze che contengo più
sostanze addizionate. Nella prima fase abbiamo preso estragolo e idrossiestragolo che è il metabolita responsabile
del danno [Slide] in alto a destra è come funziona questo test che si chiama test della cometa perché quando le
cellule non sono mutate appaiono completamente tonde normali, man mano che si ha il danno al DNA si forma
una coda di frammento da cui appunto il nome del test. [Slide] sono state misurate le cellule normali e come
vedete l’estragolo come tale non fa niente anche a diverse dosi mentre idrossiestragolo quindi il metabolita, quello
che in effetti è responsabile anche in vivo dell’effetto, causa genotossicità. Cosa succede quando valuto gli estratti
[Slide] primo pannello è il controllo, il secondo pannello è idrossiestragolo come vedete abbiamo delle comete
abbastanza evidenti, terzo pannello l’estratto di basilico [Slide], quello che poi utilizzo come integratore, vede che
è scomparsa non ho nessun effetto di danno al DNA. I pannelli inferiori sono qualcosa di diverso ancora [Slide],
ho preso l’estratto che non causa danno e ho aggiunto esternamente idrossiestragolo che è in grado di causare
il danno e quello che si vede è che l’estratto non solo è efficace ma è anche in grado di inibire l’eventuale effetto
mutageno causato dall’idrossiestragolo come tale. Questo è un dato relativo a idrossiestragolo estratti di basilico
ma sembra che tutti gli estratti vegetali abbiamo tutti questa capacità probabilmente perché contengono nel loro
insieme elementi inibitori, contengono percetina, una serie di sostanze antiossidanti, sostanze in grado di inibire
gli enzimi che forma l’idrossiestragolo in vivo. Questo pone l’attenzione sulla pericolosità nella generalizzazione
e nel assumere che un prodotto di origine botanica, di origine vegetale sia appunto una miscela di monadi che
non interagiscono, ma una miscela come tale è qualcosa di differente ed ha una sua attività che deve essere
caratterizzata come tale. Sicuramente da dei dati allarmistici che sono sorti dalla considerazione dello studio degli
ingredienti come tali si deve arrivare ad una valutazione di quello che realmente viene assunto non solo una più
corretta valutazione dell’esposizione, cosa che sta valutando PlantLIBRA, perché abbiamo visto che il MOE è
dato si da un valore sperimentale ma diviso l’esposizione umana. Molto spesso i dati sono dati generalizzati per
diete che poi sono diete che non esistono quindi avere un dato di esposizione è importante. Concludo dicendo
che naturale non vuol dire sicuro ma è altrettanto vero che prodotto botanico non vuol dire A+B+C ma è qualcosa
di differente almeno dal punto di vista tossicologico.
Arezzo 20 - 23 novembre 2012
163
21 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
Verso MILANO EXPO 2015 - Ambiente, sostenibilità e salute
"Valorizzazione della filiera delle piante officinali: dati dell’Osservatorio economico della filiera agricola"
Ministero delle Politiche Agricole Alimentari e Forestali
Alberto Manzo
Da circa due anni il Ministero sta lavorando attraverso il Tavolo della filiera in stretta collaborazione con il Ministero
della Salute e l’idea è quello di portare in tempi brevi, prima della prossima estate, un Piano di settore che copra
un po’ le carenze del settore dal punto di vista agricolo, in particolare carenze relative alle informazioni. Molti di
questi dati sono stati presentati anche al Sana di Bologna e, diciamo, sono da prendere con le pinze ovvero con
la massima attenzione perché verranno ovviamente verificati nel prosieguo dei lavori. [Slide] Dagli ultimi dati, il
settore delle piante officinali è un settore di nicchia ma anche molto importante poiché sono 3300 ha coltivati,
3600 t di prodotto, 9 milioni di € il valore delle produzioni, tra i 500 e 1000 operatori di settore in tutta la filiera
e 2000 marchi commerciali che impiegano piante officinali nei loro prodotti. [Slide] Non mi dilungo sulle leggi,
poiché per la parte agricola sono piuttosto obsolete quindi anche questo è un motivo per dover approvare un
Piano di Settore, che, dovrà passare attraverso la Conferenza Stato-Regioni e diventerà fruibile a livello nazionale
fermo restando che l’idea del Piano di Settore è di andare ad incidere non tanto sulle normative, che come
avete visto sono da rivedere, ma piuttosto cercare di migliorare e rendere più conosciuto, soprattutto dal punto
di vista agricolo, questo settore. Un settore che si sta diffondendo e lo vedremo tra breve, ma che ha bisogno di
essere indirizzato soprattutto per le pratiche agronomiche. Quali sono i target? Dare delle risposte immediate alle
Associazioni quali FIPPO, Assoerbe e Siste che hanno fatto richiesta formale al Ministero di istituire un tavolo
del settore. Tutto è nato nel 2010, per mettere un po’ a regime il settore e a capirci qualcosa di più, visto che
si andava un po’ in ordine sparso quindi aggiornare anche dal punto di vista normativo il settore tenendo conto
della sua significativa espansione, chiarire la definizione di prodotto erboristico, definirne i requisiti, l’etichettatura,
le modalità di distribuzione e la vendita anche al fine del rilancio del settore garantendo al settore delle piante
officinali, soprattutto se si tratta di specie autoctone e/o spontanee, caratteristiche di multidisciplinarietà, in
un’ottica di salvaguardia del territorio e dell’ambiente. Tutti target che incidono molto sull’espansione del settore.
Il Piano di Settore è in corso di elaborazione da 4 gruppi di lavoro:
• GRUPPO 1 - Legislazione – Politiche nazionali e comunitaria (coord. Dr. Manzo del MiPAAF e Dr.ssa Dal
Frà del Ministero della Salute);
• GRUPPO 2 – Certificazione e qualità (coord. Dr. De Caro della Quality Assurance Martin Bauer S.p.a.);
• GRUPPO 3 - Ricerca & Sperimentazione (coord. Prof.ssa Pistelli -Università di Pisa; Prof.ssa Di Renzo
-Università di Roma Tor Vergata);
• GRUPPO 4 - Osservatorio economico – Dati statistici (coord. Dr. Primavera –FIPPO in collaborazione
con ISMEA).
Deve essere approvato nell’ambito della Conferenza Stato- Regioni. [Slide] Vediamo i primi dati, li abbiamo
aggiornati rispetto a quelli del 2000 che erano dati parziali. Questo progetto “Osservatorio economico del settore
sulle piante officinali” nella parte agricola è un progetto elaborato grazie al contributo di chi sta lavorando nei
gruppi ed in particolare sui dati statistici di ISTAT ed EUROSTAT ma anche della FederBio la federazione del
biologico perché molte di queste piante sono coltivate secondo i regolamenti di agricoltura biologica. Il Censimento
dell’agricoltura italiana del 2010 fornisce alcuni dati per l’Unione Europea, circa 120 mila ha investiti da parte di
20 mila aziende più o meno. Per l’Italia quasi 3000 aziende e 7100 ha investiti. [Slide] Come vedete dai grafici c’è
una diminuzione delle aziende ma la superficie complessiva è in aumento, con un interesse del settore officinali
che passa da una media molto bassa di mezzo ha a 2 ettari e mezzo di media. Quindi sono medie o grandi
aziende che cominciano ad investire in questo settore, cominciando da pochi ha per poi evolversi, per vedere
come va la produzione, con un trend positivo. Non è incluso il bergamotto in questi grafici perché ISTAT e
EUROSTAT hanno deciso di escluderlo, altrimenti con il bergamotto queste statistiche subirebbero una modifica,
si sta verificando anche questo dato. Accanto alla crescita della superficie complessiva il Censimento fa emergere
dei dati interessanti, una redistribuzione territoriale tra le Regioni rispetto al 2000 infatti spiccano Marche ed
Emilia Romagna ma questi dati sono da tenere sott’occhio, li stiamo verificando perché sono dovuti a talune
dichiarazioni degli organismi di controllo del biologico che hanno inserito dei dati nelle schede di rilevazione
piuttosto strani, da prendere quindi con beneficio di inventario. Nel prosieguo attendiamo le rettifiche della
Federazione del biologico. Il dato certo è che le superfici sono aumentate in tutte le Regioni ma non in Piemonte
e in Sicilia e tra le regioni più interessanti emerge la Puglia. Un commento su questi primi dati dell’”Osservatorio
Economico”: emerge un settore in forte evoluzione nell’ultimo decennio. C’è una crescita di superficie come
dimensione media per azienda e, i dati per regione, danno un aumento dei processi di ristrutturazione, in particolare
nonostante diminuiscono le aziende aumentano le superfici. Quindi c’è una sorta di specializzazione per cui il
commento che si può trarre dal punto di vista agricolo è che la maggior specializzazione, non più casuale, diventa
164
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
21 Novembre
un vantaggio, quindi vi è sicuramente un ritorno economico. I dati dimensionali anche evidenziano una diminuzione
delle aziende, micro piccole, mentre solo per le micro diminuisce anche la superfice investita, viceversa la
superficie è aumentata in tutte le altre classi e soprattutto per le aziende che hanno una superficie agricola
utilizzata maggiore di 50 ha, quindi c’è un interesse anche per provare perché normalmente i coltivatori testano
su una parte del terreno aziendale se economicamente la coltura rende e poi continuano e allargano la produzione
negli anni successivi. Infatti, nel 2000 il 48% delle aziende con officinali aveva meno di 1 ha di SAU e il 2% erano
grandi aziende con SAU di oltre 50 ha; nel 2010 solo il 15% sono microaziende e l’8% sono grandi aziende ma
con una quota pari al 40% della superficie totale a officinali. La domanda è: “Modello Aziendale: si affermano
piccole aziende e molto specializzate e/o grandi aziende diversificate?”. Questo è un aspetto che dovremo
sicuramente approfondire. Questi sono dati del Ministero del settore biologico, vediamo anche la superficie
investita a piante aromatiche, medicinali e da condimento di colture biologiche, dalla banca dati del Sinab risulta
ammontare a 2958 ha nel 2010, nel decennio le superfici stanno crescendo al netto delle oscillazioni annuali,
quindi c’è un più 54% questo è un dato provvisorio che dovremo anzi definire nel 2011 rispetto al 2000 comunque
è sicuramente significativo. [Slide] Anche questi dati, ripresi da fonte FAO, una tabella di cui prendiamo atto ma
anche qui ci sarebbe da discutere moltissimo, io vi volevo far vedere ad esempio una tabella con la voce “Altri
Agrumi” dove viene coltivato il bergamotto e il cedro e non si capisce da dove viene se dalla Cina o dalla Nigeria.
Ma questo è un aspetto che evidentemente come istituzione centrale dovremmo verificare con la FAO a Roma
per capire come si è arrivati ad avere dei dati che per gli addetti ai lavori non sono affatto chiari. Comunque la
maggior superficie coltivata a livello mondiale riguarda il Tè, la maggior produzione è quella di “altri agrumi”. Per
analizzare le importazioni e le esportazioni dell’Italia, si deve costruire un aggregato di prodotti d’interesse a
partire dal massimo dettaglio della classificazione del commercio (NC8). Nel 2011 le importazioni in valore sfiorano
1 miliardo di euro, le esportazioni 413 milioni. Nel decennio l’export è cresciuto a un tasso annuo del 4,4%, l’import
del 3,6%. È evidente che sembrerebbe dal tasso annuo che ci sia una controtendenza, ciò che per propria
“mission” il Ministero dell’Agricoltura deve fare è incentivare le produzioni nazionali anche per un discorso di
qualità perché un prodotto importato in maniera generica deve essere controllato sicuramente perché può avere
dei problemi ai fini della trasformazione. Cosa evidente è che a livello nazionale si riesce a fare dei controlli o a
gestire di più la filiera così si può sicuramente competere nei mercati comunitari ed internazionali a livello di
qualità. [Slide] Il maggior esborso per le importazioni riguarda le «sostanze odorifere», sia per uso alimentare che
non, e i «succhi ed estratti vegetali, pectina ecc.», mentre i nostri introiti derivano principalmente da «succhi ed
estratti vegetali,..», «sostanze odorifere ad uso alimentare» e «oli essenziali». Quest’ultima è l’unica voce con
saldo attivo (oltre al bergamotto fresco), che si è anche rafforzata tra il 2000 e il 2011. [Slide] Lo schema della
filiera ovvero ciò che vuole fare l’Amministrazione. La prima difficoltà è ricostruire un quadro organico poiché da
tempo nessuno ha provato a fare chiarezza. È un settore di nicchia ma ha un gran numero di prodotti (di cui
tradizionalmente molte erano specie spontanee) nella fase primaria: carenza di statistiche ufficiali, volatilità,
fenomeni congiunturali, influenza dei mercati internazionali e molteplici utilizzi. Quindi più filiere, con caratteristiche
molto diverse. Definizione del settore; ambiti di inclusione e esclusione. Influenza della regolamentazione per i
prodotti derivati, sia sul mercato interno che internazionale. È evidente che questi sono alcuni degli aspetti che
dovremmo approfondire però si dovrebbe fare in collaborazione con gli Enti di ricerca e le Associazioni di filiera
ed questo è ciò che stiamo cercando di fare e cercheremo di portare attraverso un Piano di Settore chiaro e
fruibile. [Slide] Tanto per far capire lo schema di filiera, guardate questo grafico: sembra semplice ma non lo è
perché c’è tutta la parte agricola poi c’è la trasformazione intermedia e ci sono i grossisti con tutte tematiche
settoriali diverse. Un quadro di questo tipo, che evito di approfondire ma è davanti agli occhi di tutti voi, è un
quadro estremamente complesso che copre tanti settori non solo dal punto di vista agricolo fino alla trasformazione
finale. Questa situazione ci deve fare riflettere in prospettiva poiché è un settore che ha delle potenzialità importanti.
La prospettiva, io credo, è soprattutto della politica agricola comunitaria, infatti la diminuzione dei contributi
comunitari e la mancanza di politiche a sussidio degli agricoltori e di taluni settori con il disaccoppiamento può
favorire sicuramente un settore come questo che ha delle prospettive importanti ma anche una funzionalità
importante per l’ambiente e potrebbe diventare una valida alternativa a molte altre colture. È evidente che il
passaggio successivo è quello della corretta informazione agli addetti ai lavori sul territorio ma con il supporto
delle associazioni di settore e delle confederazioni agricole. Su questo progetto abbiamo investito 100 mila euro
in due anni, non sono molti ma speriamo di contribuire di più anche per altri aspetti collaborando con la filiera
sempre di più in futuro. Il progetto, che è ancora in corso, prevede una serie di passaggi. Anzitutto la definizione
dell’oggetto di analisi cioè un elenco delle specie e dei derivati, glossario. Un analisi “a tavolino” delle fonti
statistiche e dei dati ufficiali disponibili (Istat, Fao, Eurostat, ecc.), fonti che spesso non si parlano e valutazione
critica delle fonti.
Individuazione degli “universi” di operatori nelle diverse fasi della filiera attraverso l’acquisizione e l’elaborazione
di archivi amministrativi e statistici (CCIAA, Settore Biologico, Censimenti,..) – con l’obiettivo di ridurre il «fastidio
statistico» sulle imprese, che devono fornire dati sempre più aggiornati. Un’ indagine esplorativa finalizzata a
Arezzo 20 - 23 novembre 2012
165
21 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
completare il quadro della filiera per quanto riguarda le relazioni tra gli attori, contesto competitivo, sbocchi di
mercato e tendenze in atto e per fare emergere le criticità e gli ulteriori fabbisogni informativi. La metodologia
d’indagine è basata su focus group e interviste dirette a soggetti di riferimento nella filiera. Output previsti e risultati
attesi sono la definizione di un elenco aggiornato e condiviso delle specie coltivate e potenzialmente coltivabili
in Italia e dei prodotti derivati intermedi e relativo glossario. La creazione di Banche dati organizzate, aggiornate
e aggiornabili (commercio estero, produzioni mondiali, ecc.) e un Rapporto finale contenente una fotografia il
più possibile completa della filiera. E’ necessaria la massima collaborazione di tutti coloro che dispongono di
dati per aumentare la trasparenza, migliorare il funzionamento dei mercati, favorire la stipula di contratti. Si
tratta di un settore che ha un grosso potenziale, perché ha diversi “plus”: affonda le radici nella tradizione ma è
investito dall’innovazione, coniuga e va incontro a molti interessi dei consumatori moderni (naturalità, benessere,
tradizione, cultura, territorio ma anche novità). Nella fase agricola potrebbero essere veicolate risorse anche
pubbliche (nuova PAC, PSR), ma l’agricoltura nazionale rischia ancora una volta di essere fuori dai mercati
europei e internazionali se non si evolve, migliorando la sua capacità contrattuale e i suoi rapporti commerciali
a monte ed a valle (attraverso associazionismo, interprofessione e per esempio, attraverso un riconoscimento
ufficiale della qualità delle materie prime). Per arrivare a questi risultati occorre che i soggetti coinvolti dispongano
di informazioni e dati di riferimento. Queste occasioni di confronto sono preziose per ricevere suggerimenti e
raccogliere i fabbisogni delle imprese e degli altri operatori.
Vi ringrazio dell’attenzione.
166
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
21 Novembre
Verso MILANO EXPO 2015 - Ambiente, sostenibilità e salute
"Bergamotto: valorizzazione di un patrimonio unico del territorio: dati ed esperienze"
Avvocato
Amilcare Mollica
Anzitutto Vorrei rivolgere un saluto e un ringraziamento agli organizzatori che mi hanno permesso di parlare qui
oggi del bergamotto.
Il tema a me consegnato contiene due termini: “valorizzazione” e “territorio” in relazione al prodotto bergamotto;
entrambi i termini hanno bisogno di essere chiariti distintamente.
Innanzi tutto per valorizzare è necessario conoscere, è questo un passaggio fondamentale ed imprescindibile per
poter procedere verso una migliore prospettiva del prodotto collocato in un certo territorio.
Per far ciò è d’obbligo lanciare uno sguardo alla nobile storia di tale incredibile agrume.
Ogni cosa ha una sua storia, le piante in particolare suscitano forte interesse per le enormi potenzialità che
possono offrire al mondo accademico e scientifico.
La storia di questo particolare agrume ci insegna che per tanto tempo è stato bistrattato e, molto spesso,
dimenticato senza alcuna seria ragione, direi senza alcuna condivisibile ragione.
Anzitutto la sua nobile storia e la sua identità partendo dall’origine del suo nome.
Le sue tracce si individuano già nel 196 A. C..
In quel tempo già si segnala l’utilizzo della sua essenza giacché il Re della città di Pergamo, situata nell’Asia
Minore, faceva utilizzo di tale prodotto per la difesa delle pergamene da cui, si ritiene, sia sorto il nome del famoso
agrume.
In greco, infatti, il termine “motta” significa “difesa” e se ne trova traccia e conferma nella zona in cui più si produce
il bergamotto: l’area Grecanica situata nella zona del basso Jonio calabrese ove tale termine veniva utilizzato
per designare le antiche roccaforti poste a difesa del territorio, oggi sede di Comuni. Ne è un esempio Motta San
Giovanni oppure Motticella in Provincia appunto di Reggio Calabria.
Bergamotto è, appunto, la fusione tra il termine di “Pergamo” – Pergamena – e “motta” – difesa della pergamena, la
sua originaria funzione, quella di salvare la cultura proteggendo i libri dall’aggressione della muffa e dall’inesorabile
scorrere del tempo. In quel tempo si preferiva “fissare” la cultura anziché i profumi!
Altre versioni che si riferiscono all’origine del suo nome risultano altamente improbabili, come quando si vuol far
derivare il suo nome dalla città di Bergamo. In effetti non vi è alcun motivo per supporre tale derivazione.
Pino Aprile, giornalista nonché scrittore, nel suo “Giù al Sud” a pag. 112 riporta una ricerca svolta dal CNR che
ha dato il risultato di scoprire nell’Isola di Cipro tracce certe del famoso agrume già 2000 anni prima di Cristo così
confermando, attraverso altra peculiarità di tale prodotto di cui si farà cenno più appresso, che già in quell’epoca
vi era una sicura presenza umana sulla costa Jonica della Calabria per come peraltro confermano gli studi
archeologici condotti nel 2008 dall’Università di Cambridge nella persona del Prof. John Robb.
Il bergamotto, la sua essenza, la sua fragranza ha accompagnato dunque gli Dei, i miti e leggende sorti nel centro
del pensiero mondiale: la Grecia, ivi trasportato dalla terra poi denominata Magnagrecia.
Continuiamo a parlare della sua storia.
In Europa fa il suo ingresso ufficiale presso le alte Corti nel 1536 con i “bergamini confetti” che poi non sono altro
che bucce di bergamotto candite; nello stesso periodo venne realizzato il sorbetto al bergamotto utilizzando il suo
succo unito ad un pizzico di sale per bloccare l’elemento freddo dato dallo scioglimento della neve.
La Corte del Re Luigi XIV di Francia utilizzava l’acqua al bergamotto, ivi trasportata da certo Monsieur Procopio
di Messina, per la sua fragranza, per i suoi riconosciuti poteri disinfettanti e per superare certe convinzione della
medicina di un tempo secondo cui l’acqua era il veicolo con cui si diffondeva la peste: con l’avvento dell’essenza
del bergamotto finalmente il Re e la sua numerosa Corte potettero lavarsi ma anche profumare!
Nel 1704 venne creata l’ acqua admirabilis, oggi la famosa acqua di Colonia, - città ove è stata inventata una
miscela di alcol, acqua e essenza di bergamotto.
Nel 1830 la ditta inglese Twining mette in commercio per la prima volta un tè aromatizzato al bergamotto asserendo
artatamente che l’aroma era di origine indiana, forse per conferire quell’importanza che solo gli inglesi sanno dare
ai loro prodotti.
In tutte le circostanze ricordate, per come si vede, non c’è presenza di alcun riferimento alla terra di origine: alla
Calabria e, in particolare, alla città di Reggio Calabria.
Utilizzo e applicazioni
In relazione alle sue conosciute applicazioni, in particolare l’essenza, prima ricavata con il lavoro a spugna,
poi con la “macchina calabrese” costruita da certo Nicola Barillà di Reggio Calabria già nel 1840, oggi con più
sofisticati macchinari, viene utilmente adoperata in diversi campi merceologici quali il profumo, in cui l’essenza
Arezzo 20 - 23 novembre 2012
167
21 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
deterpenata viene adoperata quale fissatore naturale, oltre che nell’igiene per rendere fragranti i saponi ma anche
per contribuire a dare più forza sgrassante e migliori risultati ai fini di una efficace pulizia.
In campo medico viene impiegata per combattere efficacemente la psoriasi o altre forme virali, batteriche o
infiammatorie, micosi, vitiligine e sembra si stia rivelando un toccasana anche per l’alzheimer.
Di recente l’Università della Calabria ha brevettato un prodotto derivato dal bergamotto idoneo per combattere il
colesterolo.
Gli estremi del brevetto sono da me riportati nel mio libro “Quale Sud? Itinerari possibili”.
Vi è ancora da dire che, dopo la estrazione dell’essenza, dal frutto residuato si ricava il pastazzo che viene utilizzato
come mangime per animali da latte ed è un ottimo alimento perché più ricco di vitamine rispetto a qualunque altro
mangime per come documentato da una monografia del 1963 dell’agronomo Prof. Ignazio D’Alessandro Vadalà.
Dal latte così originato i nostri contadini calabresi ricavavano particolari ricotte e formaggi con delicato aroma al
bergamotto.
Il pastazzo, essiccato e opportunamente sbriciolato, veniva adoperato anche in edilizia unito alla calce di Palizzi
per conferire maggiore “traspirazione” e profumo ai muri in pietra per come documentano recenti studi condotti
presso l’Università Mediterranea di Reggio Calabria, facoltà di Architettura, dipartimento PAU.
Il frutto del bergamotto, nelle applicazioni locali, viene impiegato in cucina anche per realizzare piatti particolarmente
delicati nel gusto e quale surrogato del limone del quale imita la forza dirompente dell’acidità unita però all’aroma
inconfondibile di un gusto esotico ed inimitabile, viene impiegato nella lavorazione dei dolci, marmellate, nel
settore degli alcolici (grappa al bergamotto) e delle bibite (gassosa al bergamotto) così rivelando la sua più ampia
versatilità.
Il bergamotto e il “suo” territorio
Ai fini della sua valorizzazione unita al territorio, consideriamo adesso altra caratteristica di tale prodotto: la sua
caparbietà alla localizzazione e converrete con me che più vengono esaltate e diffuse le caratteristiche di un
territorio più sarà conosciuto lo stesso territorio.
Bisogna dire che in tale missione il bergamotto ce la mette tutta se non fosse per alcune criticità antropiche e
ambientali che fra poco avrò modo di esporre.
L’agrume in questione, evidentemente per particolari fattori climatici e composizione chimica del terreno (sembra
che il territorio considerato sia ricco di selenio che è notoriamente un potente antiossidante) rispetto al resto
del mondo si può reperire e fruttifica con caratteristiche particolari solo in una strettissima fascia costiera della
Calabria, da Villa San Giovanni a Monasterace.
I tentativi di replicare il fenomeno in altre parti del mondo, pure a vocazione agrumicola, sono miseramente falliti,
questa pianta evidentemente non intende abbandonare il posto in cui è nata e dedica i suoi frutti solo alla terra
natia.
A Torino, nella regia di Venarìa, i Savoia hanno voluto la pianta di bergamotto che però, andando contro ogni
canone di buona educazione, non produce l’essenza che lo contraddistingue che viene, però, offerta naturalmente
al contadino calabrese!
Ci stiamo avvicinando al punto, quello che in qualche modo forse di più interessa questo convegno.
Non si vuole qui affermare che l’albero sia posseduto in modo monopolistico ed in via esclusiva dal territorio prima
accennato.
Tale agrume e la sua pianta trovano asilo anche in Costa d’Avorio e in Brasile, forse anche in altri luoghi,
ultimamente corre voce che anche i cinesi lo producono (ti pareva che i cinesi non arrivassero a produrre anche
il bergamotto!!) ma c’è un particolare non da poco: il bergamotto calabrese non è solo un frutto, è anche un
meraviglioso e generoso laboratorio chimico.
Il bergamotto di Calabria, a differenza delle altre produzioni in terra straniera, annovera ben 350 componenti
chimici naturali e altri ancora se ne stanno scoprendo attraverso metodi di ricerca diversificati per come il Prof.
Sindona dell’Università di Cosenza può testimoniare per aver lui scoperto quell’enzima che lo ha poi condotto alla
ulteriore scoperta della formula dell’anti colesterolo.
Così per come si rivela una cornucopia di opportunità lo stesso prodotto può però causare dei danni alla salute.
Pericoli per la salute
Come può accadere che lo stesso prodotto trova tante applicazioni nel mondo scientifico e nella vita pratica e, poi,
si può rivelare dannoso per la salute?
Vediamo più da vicino cosa preoccupa alcuni settori, difensori della salute a tutti i costi, i salutisti puritani.
Si suole infatti riferire che nel bergamotto vi sono le furocumarine o furanocumarine.
Si conosce la loro struttura chimica.
Essa consiste in un anello furanico fuso con la cumarina, tali anelli formano le furocumarine lineari e le angolari.
Si possono osservare da vicino, anche ad occhio nudo sulla buccia dell’agrume.
168
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
21 Novembre
Queste si rivelano tossiche e pertanto, se collocate sulla pelle nello stato puro ed esposte al sole possono essere
causa di ulcerazioni e infiammazioni pustolose.
Nel frutto di bergamotto si riscontrano le seguenti:
Ossipeucedanina (presente anche nel limone)
Biancagelicina (presente anche nel limone)
Bergaptene
Bergamottina (presente anche nel pompelmo)
Esse però vengono trattate nel senso che vengono annullate con un processo meccanico e l’essenza viene
deterpenata sino al punto che non hanno più alcun effetto dannoso.
Infatti l’essenza così trattata, a quel punto, può essere utilizzata anche per scopi alimentari, tipo la composizione
di dolci oppure in profumeria quale base per fissare i profumi o per uso abbronzante: dopo tale processo l’essenza
perde il carattere aggressivo, rimane il suo aroma e l’impareggiabile capacità di essere il principe degli agrumi in
tutti i campi prima visti e in più è naturale cioè ce lo fornisce direttamente la natura.
D’altra parte, per arrivare a noi così per come descritto cioè naturale e versatile, il frutto e la sua pianta hanno
dovuto proteggersi: la furocumarina, quale potente composto tossico, è generato dalla pianta per proteggere e
difendere il frutto dai predatori parassiti senza ulteriori aiuti di antiparassitari sintetici da laboratorio.
D’altra parte ancora, senza questa caratteristica, neanche le ultime scoperte a tutto favore della salute umana
sarebbero state possibili: si allude specificamente alla scoperta del composto dell’anti colesterolo che impiega
micro componenti del tossico incriminato oppure non si verificherebbero gli effetti benefici che si sono riscontrati
nella lotta con prodotti naturali contro la psoriasi.
Tuttavia, nonostante queste ovvietà, si riscontrano, da parte di alcune correnti salutistiche ed organizzazioni
internazionali, molte difficoltà a ritenere il prodotto bergamotto e la sua essenza quali risorse da rivalutare e
meglio pilotare per il raggiungimento del benessere umano.
Il Quotidiano della Calabria del 14 novembre 2012 ha pubblicato la seguente notizia:
“L’Unione Europea ha proposto di sostituire l’essenza DOP del bergamotto nei profumi” e, come sottotitolo: “La
Coldiretti Calabria insorge contro le <lobby multinazionali della chimica>” alludendo così ad una manovra delle
multinazionali chimiche a tutto vantaggio del prodotto sintetico.
Sul punto non si riscontrano fatti o atti che depongono in modo ufficiale per tale presa di posizione.
Bisogna però avvertire che di questi tentativi la storia si può ripetere (non si dimentichi che vi è stato un tempo in
cui si mitizzava che l’essenza era causa di tumore, ipotesi non verificata in nessuna sede scientifica e pertanto
infondata e meramente denigratoria) ma nel ripetersi, sia pure in altre forme e maniere, causa seri danni al
territorio e a quei produttori che ancora insistono nel credere nella ripresa del prodotto.
Qualche tempo fa, se non rammento male circa due anni or sono, è circolata la notizia secondo cui approfonditi
studi condotti in Norvegia da appositi laboratori specializzati in materia alimentare, hanno “accertato” che
assumere il tè aromatizzato al bergamotto provocava una alterazione ai battiti del cuore, una sorta di tachicardia.
La notizia è stata pubblicata e da me letta sul settimanale l’Espresso ma era accompagnata da un ironico corsivo
del giornalista il quale osservava che il lettore doveva pure sapere che ciò è stato accertato dopo che il paziente
aveva assunto consecutivamente ben nove tazze di tè aromatizzato.
Viene giustamente da condividere l’ironia e chiedersi cosa sarebbe successo se, ad esempio, si fossero fatti
assumere al povero paziente ben nove tazzine di caffè anche senza alcun aroma. Forse anche in quel caso
avrebbero constatato una piccola alterazione ai battiti cardiaci: per pervenire alla deduzione non c’è bisogno di
scienziati, è intuitiva.
Tuttavia è da segnalare che, sia pure per motivi diversi da quelli a cui si è fatto cenno, i veri nemici del bergamotto
sono gli stessi calabresi, escludendo da questi i soli produttori ai quali è dato solo il compito di consegnare il frutto
ovviamente naturale, ma includendo chi, apparati e personaggi, oggi sfruttano senza alcuna regola il mercato.
Basta fare poche ma efficaci considerazioni, tutte fondamentali per una minima analisi del fenomeno che vede il
bergamotto principe degli agrumi agli occhi del mondo ma cenerentola a casa propria.
Si segnalano dunque le seguenti criticità che si pongono come ostacolo allo sviluppo sostenibile:
La prima
mancanza di catasto terreni coltivati a bergamotto con la conseguenza che ancora oggi non è dato sapere con un
certo grado di certezza la quantità di bergamotto prodotta.
Si assume che a tale individuazione si oppongono i produttori temendo un vincolo edificatorio ma l’ipotesi è
assolutamente fuori ogni logica, io stesso parlando con molti di loro mi sono accorto che in effetti e nella realtà
manca un progetto che coinvolga i produttori per far loro comprendere la convenienza; e la convenienza di
avere una mappa dei terreni mi sembra plateale ove si pensi che a fronte di circa 120 tonnellate di essenza che
si assume prodotta ogni anno si afferma che la quantità di essenza venduta sia intorno ai tre milioni, sempre di
tonnellate!
Arezzo 20 - 23 novembre 2012
169
21 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
Viene a tutti in mente che se la domanda è così robusta, il valore del prodotto e del suo territorio diverrà robusto
di conseguenza ove venga rispettata la genuinità e la qualità ossia ove l’originaria essenza non venga manipolata
diluendola oppure venga salvaguardato il reale valore iniziale. Si assiste, in alcune stagioni, alla giacenza nei
magazzini di una certa notevole quantità di essenza invenduta quando viceversa la quantità commercializzata
supera l’essenza prodotta: è evidente, quanto meno, il sospetto della manipolazione.
La seconda
L’attuale politica sul bergamotto viene incentrata sul prezzo, peraltro fissato solo da coloro che acquistano il
prodotto per trasformarlo in essenza; come definireste voi un mercato in cui il venditore, non avendo alternative,
è costretto a vendere il suo prodotto al prezzo che stabilirà l’acquirente? Immagino che stiate pensando ad una
economia totalitaria, dirigista, comunista, insomma propria dei regimi dittatoriali; il prezzo infatti non è determinato
dalla domanda e dall’offerta in un libero e sano mercato, manca una quotazione nel borsino della locale camera
di commercio; presso la borsa di Londra vengono quotati tutti i prodotti esistenti al mondo, l’unico assente è il
bergamotto e la sua essenza.
E’ come se il prodotto bergamotto non esistesse per l’economia mondiale benché tale economia lo richieda ogni
anno a piene mani!
Ad oggi il prodotto bergamotto viene acquistato in sede locale imponendo il prezzo di € 40,00 ogni quintale cioè,
a fare i conti, € 0,40 centesimi al kilo cioè l’equivalente di quanto costa al grossista un kilo di arance e la cosa è
alquanto inspiegabile ritenuto che il bergamotto, e la sua essenza, sono richiesti a livello mondiale ma prodotti
solo ed esclusivamente nella fascia costiera Jonica della Calabria così deprimendo non solo il prodotto in sé ma
anche sottovalutando le aree in cui si produce inducendo gli stessi produttori a trovare magari più conveniente
edificare piuttosto che conservare e sviluppare un valore non ancora ben compreso, mentre le arance, per come
tutti sanno, sono prodotte a livello planetario.
La terza
Il prodotto attualmente è impiegato in prevalenza dall’industria profumiera senza che vi siano serie iniziative volte
a diversificare il mercato di destinazione del frutto in sé, inteso come mercato nazionale e internazionale; il frutto
non lo si trova neanche nelle negozi di frutta e verdura a disposizione dei singoli utenti per usi alimentari ovvero
degli operatori economici perché venga utilizzato, per esempio, per comporre i cesti natalizi.
Sembra che non sia un prodotto naturale da offrire nel settore dell’agricoltura ma di derivazione marziana;
La quarta
la DOP concessa dall’Unione Europea attraverso il Consorzio di Tutela, che è un ente pubblico soggetto alla
vigilanza ministeriale, è in mano a chi è produttore ma contestualmente lo stesso dirige la politica sul bergamotto
tramite il Consorzio del bergamotto, anche esso ente pubblico soggetto alla vigilanza della regione Calabria, così
impoverendo il mercato attraverso la formula del conflitto plateale di interessi (il controllato controlla se stesso e
dirige se medesimo); si consideri ancora che il consorzio di tutela, da quando è stato istituito, cioè dal 2008, non
ha svolto alcuna indagine per garantire la qualità dell’essenza in ossequio al disciplinare governativo, indagini che
pure sono doverose e che gli competono in esclusiva;
La quinta
Politica di allontanamento dei produttori dal processo di trasformazione attraverso meccanismi a dir poco discutibili
e in aperta violazione di legge.
La legge regionale 42/2002 (art. 12), rimodulando la normativa sul Consorzio del bergamotto considerato ente
pubblico con vigilanza regionale, aveva garantito ai produttori la prelazione nella dismissione dell’azienda; i
produttori non sono stati riuniti in assemblea benché la stessa legge ne imponesse la convocazione entro quattro
mesi dalla sua pubblicazione.
Il Consorzio, nella persona del commissario pro – tempore, nelle more, ha ceduto l’azienda ad una società
privata avente come scopo sociale la trasformazione e la commercializzazione dell’essenza mentre i produttori
sono stati convocati dopo nove anni, si avete sentito bene, dopo nove anni anziché quattro mesi così sottraendo
ai produttori il loro diritto di prelazione sull’azienda ma così anche togliendo loro ogni interesse alle sorti del
bergamotto e dello stesso Consorzio che, costituito secondo i dettami della nuova legge nel settembre del 2011
con pilotate elezioni, ha per legge il compito di redigere lo statuto da approvarsi entro tre mesi dall’insediamento
del consiglio di amministrazione con la convocazione di tutti i soci.
Ancora oggi, dopo oltre un anno dal suo insediamento, il consiglio di amministrazione non ha proposto alcuno
statuto né ha convocato i soci per tale scopo, convocazione che è palesemente essenziale per una ordinata vita
democratica e associativa.
170
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
21 Novembre
La sesta
La particolarità di fruttificare nel posto determinato, e cioè nella sola costa Jonica, fornisce a questo territorio
un’arma inconsueta e cioè quello di essere identificato non solo per le sue incontestate bellezze paesaggistiche
ma altresì per questa inaspettata caratteristica e cioè quella di essere l’unica area al mondo a possedere l’unico
frutto al mondo con tutte le conseguenza in termini di organizzazione turistica del fenomeno e fungere da volano
per attivare anche una sana economia basata sull’accoglienza, sulla cultura e sulla gastronomia, tutti calati lungo
la strada del profumo costeggiata dal caldo e azzurro mare dei miti.
Tuttavia anche questa unicità non viene colta come opportunità di ripresa e per conferire identità ad un territorio
che ha enorme necessità di lavoro pulito e onesto attraverso il riconoscimento della sua autenticità.
Ne è un esempio di perfetto anonimato la mancata indicazione dell’origine dell’essenza nei prodotti in cui è
presente tale elemento: ci si limita a dire che il profumo o il prodotto contiene bergamotto, mai la localizzazione
della sua produzione.
Provate ad entrare in qualunque erboristeria di qualunque città d’Italia o all’estero, chiedete una fiala o bottiglietta
di essenza di bergamotto, leggete l’etichettatura e sorprendentemente troverete che quell’essenza è stata prodotta
da una ditta di Firenze, Assisi, Roma, Milano o altre ancora, non certo in Calabria.
A rendere invisibile il territorio di produzione contribuiscono anche gli specialisti del settore.
La scorsa estate, su La Repubblica, è uscito un articolo magnificante le qualità del profumo Armani: Acqua di
Giò e il naso che veniva intervistato, del tutto candidamente, riferiva che “il bergamotto di Sicilia è il migliore in
assoluto”.
Non era un naso preparato, d’accordo, ma è anche vero che manca sul territorio una sorta di organismo che
metta sotto tutela l’immagine e la focalizzi, che in qualche modo funga da condensatore delle plurime potenzialità
e a tale proposito non si può non segnalare che da tempo, tra gli operatori economici diciamo così “neutrali e
illuminati”, si parla di distretto (si veda ad esempio il libro del Prof. Pasquale Amato: Il Bergamotto, il principe
degli agrumi), in analogia ai tanti distretti sparsi nel paese Italia (il distretto della lana, del cuoio, del vino ecc…..)
unendo quelle realtà economiche medio piccole ma tuttavia anche in tale settore non vi sono iniziative politiche
in tal senso, anzi vi è da registrare la massima indifferenza, il così detto ipocrita muro di gomma che è ormai un
monumento all’imbecillità .
Contribuisce a deprimere il territorio l’indifferenza dei politici a veder realizzata la struttura operativa voluta dal
pacchetto Colombo per la città di Reggio Calabria che già nel 1973 è stata finanziata come centro di formazione
e alta profumeria da collocarsi nell’area dello stretto, fondi che sono da quel tempo ancora giacenti nelle casse di
quel Comune ma che non vengono impiegati per ragioni incomprensibili e tutto ciò mentre la città, così come la
Calabria, continuano a sfornare emigrati nel mondo.
Tutto ciò mentre si baratta la presenza o meno di una centrale a carbone promettendo posti di lavoro sulla terra
del noto agrume con la minaccia di veder scomparire la coltivazione immessa ormai, ove venisse realizzata,
nel circuito dell’inesorabile inquinamento invece che fornire lo stesso territorio di quella promessa fabbrica dei
profumi, sano corollario alla stessa produzione locale per uno sviluppo sostenibile.
Cosa c’entra tutto ciò con il tema del convegno? Ho forze sbagliato convegno? Gli argomenti da me adoperati
rischiano di essere poco pertinenti?
Niente di tutto ciò.
E’ palese infatti, oltre che intuitivo, che il prodotto, qualunque sia il prodotto, allontanato dai suoi produttori, unici
detentori della genuinità e della pretesa della sua integrità, lasciato nelle mani di chi intende monopolizzarlo per
fini commerciali o per fini puramente egemonici, perde sin dal suo nascere il carattere di purezza per entrare
immediatamente nel vortice della commercializzazione, del lucro fine a se stesso, nell’ipotesi della manipolazione
e dello sfruttamento della risorsa o delle stesse cariche acquisite nel segno del comando e sotto il dominio
dell’incompetenza, dunque della irresponsabilità sia nei confronti del prodotto in sé che del suo territorio che
rimane sullo sfondo, anonimo, invisibile per divenire un non luogo.
Per fare solo un esempio, immaginate il famoso parmigiano reggiano lasciato nelle mani dei soli commerciali,
immaginate cosa diventa la genuinità e la qualità di quel prodotto apprezzato in tutto il mondo, ecco immaginate
cosa possa significare lasciare fuori dai giochi coloro che hanno fornito il prodotto primario, nell’esempio il latte,
perché altri sfruttino la qualità e la notorietà, immaginate quale grado di credibilità può assumere nel mercato quel
prodotto all’origine sicuramente genuino.
Ecco, se la vostra immaginazione è pervenuta ad un giusto grado di giudizio sul destino del prodotto finale,
se avete immaginato bene, allora potete tranquillamente trasportare il vostro giudizio nell’ambito del tema qui
discusso.
Ecco perché ogni tanto fa capolino la minaccia della sostituzione dell’essenza naturale da impiegare nel mondo
profumiero con miscugli sintetici realizzati in oscuri laboratori chimici, perché tutta la materia, i suoi aggregati, le
organizzazioni e i personaggi che gravitano intorno, pure costituiti ai fini di una migliore e rispettosa produzione
Arezzo 20 - 23 novembre 2012
171
21 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
della qualità, deviano il fine per il quale sono nati, pronti a percepire e rispondere ad interessi inconfessabili,
non sono per nulla garanti degli scopi per cui sono stati nominati, ambiscono al potere dimentichi della missione
propria degli istituti che rappresentano, tutta la loro funzione si esaurisce nello spazio di un mattino: nello stabilire
quanto devono corrispondere ai coltivatori per il raccolto di un anno di lavoro e il tutto finisce qui, tranne qualche
intervista ogni tanto qua e là, tanto per farsi un po’ di pubblicità e soddisfare il loro senso di vanità, mitomani al
posto di dirigenti responsabili e preparati.
In Calabria, in specie nella parte Jonica, si vive quotidianamente una dilacerazione profonda tra quello che
dovrebbe essere e quello che è, non colmata da fantastiche ipotesi economiche basate sul sistema capitalistico.
Basti pensare che le linee guida dettate dalla legge regionale nell’ormai lontano 2006 All. E recitano, tra l’altro,
che bisogna “incrementare l’interesse sul bergamotto per le sue caratteristiche storiche, paesaggistiche e quale
prodotto che crea lavoro sul territorio” riconoscendo, finalmente, la sua valenza di bene immateriale oggetto
di tutela per come previsto dalla convenzione Unesco del 2003 ma, in realtà, poco o nulla accade sia nella
parte organizzativa che produttiva se non una proliferazione di cariche e poltrone e in assoluta assenza del
coinvolgimento di coloro che producono cioè dello stesso territorio che si voleva tutelare.
A tutto ciò si aggiunge la burocrazia, cioè il potere degli uffici, con i suoi apparati situati a Catanzaro cioè ad oltre
200 chilometri dal luogo di produzione anziché prevedere specifici uffici collocati sul posto e tale situazione isola
ancora di più i coltivatori lasciandoli soli con i loro problemi di gestione del territorio, produzione e di organizzazione.
Arriviamo alle conclusioni.
Mi sembra che ho tentato di dimostrare, in qualche misura riuscendoci, che il prodotto bergamotto, il frutto
naturale, non è in alcun modo pericoloso per la salute umana, anzi una enorme opportunità per la medicina di
avere a disposizione uno strumento raffinato dal laboratorio per eccellenza, la natura.
La sua essenza naturale e genuina, opportunamente lavorata secondo la destinazione propria, soddisfa l’esigenza
di prevenire qualunque pericolo e contribuisce al benessere delle persone.
Gli ulteriori componenti di cui è dotato il frutto, succo o pasta di bergamotto, sono da sempre utilizzati quali
ingredienti in gastronomia e pasticceria, addirittura in edilizia, non hanno mai provocato allergie né risultanze
negative per la salute se non in particolarissimi e isolati casi.
Il territorio, in particolare l’area grecanica della Calabria, quale realtà materiale ed immateriale per la presenza
di risorse e cultura uniche al mondo, deve rivedere l’intera politica attraverso una governance più attenta alle
peculiarità, identità ed unicità a partire dal bergamotto per realizzare quello sviluppo in linea con il concetto di
sostenibilità.
172
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
21 Novembre
Verso MILANO EXPO 2015 - Ambiente, sostenibilità e salute
"La direttiva europea sull’uso sostenibile dei fitofarmaci"
Ministero della Salute
Monica Capasso
L’argomento è abbastanza sensibile in questo momento, la presentazione prende in considerazione quelle che
sono le indicazioni della direttiva comunitaria e quello che è stato fatto a livello nazionale per tradurle in un
Decreto Legislativo e quindi in attività pratiche. Abbiamo parlato tanto di prodotti in senso generale [Slide] qui
c’è una breve ricordo di quello che sono i fitofarmaci e i motivi per cui si utilizzano questi prodotti. Quindi questa
nuova definizione, attualmente contenuta all’interno del nuovo Regolamento, anche se il n. 1107 è del 2009, per
il momento è il nostro vangelo operativo per quanto riguarda le attività soprattutto dell’ufficio. [Slide]
Il regolamento, nel parlare di uso sostenibile, fa riferimento non solo ad un attento utilizzo dei prodotti fitosanitari
ma fa anche esplicito riferimento a quelle che sono le attività di difesa integrata. L’obiettivo prioritario delle difese è
quello della produzione di colture, con metodi che turbino il meno possibile gli ecosistemi agricoli e che promuovano
meccanismi naturali di controllo fitosanitario; quindi stiamo cercando di evolverci da quello che è un settore o
un’attività di controllo effettuata con metodi squisitamente di tipo chimico a mezzi più naturali, più sostenibili dal
punto di vista ambientale e che impattino in maniera minore su tutte quelle che sono le problematiche di tutela
della salute dell’uomo e dell’ambiente. [Slide] Questa è la direttiva che prevedeva l’istituzione di un quadro
di azione comunitaria. Nella direttiva si dice che tutti gli stati membri si dovranno dotare di un Piano d’Azione
Nazionale il così detto PAN. All’interno di questo Piano d’Azione Nazionale, che è un Piano che deve prendere
in considerazione le problematiche più diverse e tanto per ricondurle a quelle che sono le amministrazioni
interessate, problematiche che afferiscono al Ministero della Salute, del Ministero dell’Ambiente e del Ministero
delle Politiche Agricole e Forestali. I PAN dovranno contribuire, aiutare gli stati membri ad adottare nuovi sistemi di
controllo fitosanitario più sostenibile e sicuramente meno invasivo. Sinteticamente all’interno della direttiva sono
anche riportati degli allegati di tipo più tecnico all’interno dei quali vengono date indicazioni specifiche su quello
che deve essere contenuto all’interno dei singoli Piani d’Azione Nazionale e come devono essere realizzate, con
modalità tecniche, le disposizioni della direttiva. La cosa più importate è che bisognerebbe notificare entro il 30
giugno 2013, le misure per la difesa integrata, il primo gennaio dell’anno successivo 2014, andrebbero stabiliti
i principi per la difesa integrata che sono elencati di seguito [Slide] e sono soluzioni tecniche a basso impatto
sulla salute e sull’ambiente e soprattutto favorire la diffusione dell’agricoltura biologica. Vanno realizzate, alcune
lo sono già, delle linee guida che diano indicazioni chiare e precise agli operatori per quanto riguarda la difesa
della coltura integrata, il controllo delle infestanti sulle principali colture del nostro paese. Sul sito internet trovate
già delle linee guida che possono essere utilizzate come orientamento. Ci sono poi gli indicatori di rischio, direi
che in questo momento rappresentano il settore in cui forse siamo ancora più indietro forse dovrebbero essere
meglio definiti o più chiaramente definiti. Il Piano di Azione Nazionale si occupa di tutto, [Slide] protezione degli
utilizzatori, protezione delle popolazioni interessate nelle vicinanze delle aree che vengono trattate; abbiamo
poi più in generale la tutela dei consumatori per quanti riguarda l’avere prodotti che sono stati trattati in maniera
controllata, quindi prodotti commerciali sicuri, salvaguardia delle acque e soprattutto la conservazione della
biodiversità degli ecosistemi. Il Piano direi che per quello che riguarda l’Italia è in avanzata fase di lavorazione.
Come vedete [Slide] per realizzare questo Piano, che ha una valenza non solo di tipo politico, ma anche una
valenza molto tecnica perché deve dare indicazioni molto specifiche, è stato costituito il Consiglio TecnicoScientifico che vedete indicato [Slide]. Il Consiglio Tecnico-Scientifico è composto da tutte le parti interessate,
intendendo con questo le tre amministrazioni Salute, Ambiente, Agricoltura, tutti i rappresentanti delle Regioni e
le cosi dette categorie degli stakeholder, cioè tutti gli attori interessati a queste attività. Il piano come vi ho detto è
in avanzata fase di predisposizione e notizia recente il Ministero dell’Agricoltura e il Ministero dell’Ambiente hanno
diffuso, dopo averlo concordato anche con il Ministero della Salute, la proposta di piano e l’hanno aperto a quella
che è una consultazione pubblica. Quindi andando sui siti delle amministrazioni ci sarà la possibilità di accedere
al piano, leggerlo e commentarlo. Direi che in questo è stato utilizzato un sistema che viene utilizzato anche a
livello comunitario per la consultazione pubblica. Avrete la possibilità di fare commenti riga per riga perché questo
semplifica la raccolta dei commenti che arriveranno da parte di tutti. Come vedete la scadenza molto prossima
del piano, è prevista per il 26 novembre. Quindi il piano dovrebbe essere presentato alla Commissione Europea
entro il 26 novembre prossimo. Dovrebbe perché la consultazione si è appena aperta e l’Italia si è riservata di
prolungare un po’ il periodo di presentazione del PAN, non so quanto verrà concesso ma la consultazione ha la
possibilità di essere aperta per 30 giorni. Subito dopo sarà nostra cura inviarlo alla Commissione Europea. Come
vedete la Commissione Europea è il punto di raccordo di questa attività, raccoglierà tutti i PAN di tutti gli Stati
Membri, ne farà un valutazione critica, speriamo condivisa a priori con gli Stati Membri, e successivamente verrà
presentata al Parlamento Europeo. Il Parlamento avrà il compito di valutare se quello che è indicato nei Piani di
Arezzo 20 - 23 novembre 2012
173
21 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
Azione Nazionali risponde, tiene in considerazione quelle che sono le indicazioni, le linee guida politiche e non
dell’Unione Europea, in modo da avere un approccio il più possibile unitario, comunitario e concordato. Entro
il 2018 la Commissione presenterà una relazione sull’esperienza acquisita, quindi noi avremo tempo direi dal
2013 di implementare il nostro PAN, renderlo operativo applicarlo fisicamente sul nostro territorio e relazionare
periodicamente alla Commissione Europea, la quale nell’arco di sei anni dovrà fare un consuntivo su come
effettivamente abbiamo funzionato questi sistemi. Obbligo per gli Stati Membri è quello di aggiornare il PAN
ogni 5 anni, questo per tenere conto di tutte le evoluzioni scientifiche e tecnologiche. Nella Direttiva dove si fa
riferimento al PAN sono indicati [Slide] articolo per articolo in maniera puntigliosa tutti quelli che sono gli obblighi
degli Stati Membri. Tutti questi obblighi, che scorriamo rapidamente, li abbiamo poi ripresi all’interno del nostro
Decreto Legislativo. Quindi nel dare attuazione alla Direttiva, noi facciamo un lavoro congiunto con le altre due
amministrazioni Ministero Agricoltura e Ministero Ambiente [Slide]. Queste sono attività particolarmente precise e
puntuali e il Decreto, punto per punto, riprende in considerazione quelli che sono i punti della Direttiva.
Più in evidenza è la parte più relativa all’individuazione dei prodotti fitosanitari destinati ad utilizzatori non
professionali. La Norma comunitaria e il Decreto prendono atto di questa differenza nelle categorie di attività
professionali e non professionali e dovrà essere predisposto un Decreto ad hoc, che dovrà definire i requisiti per
l’uso non professionale, dovrà dare indicazioni specifiche anche per l’etichettatura. Questo consentirà a tutti gli
utilizzatori in senso più lato di lavorare nella massima sicurezza sia per se stessi che nei confronti dell’ambiente
o della salute di altre persone eventualmente esposte nel momento in cui hanno a disposizione questi prodotti.
Ognuno sarà chiaramente e specificamente informato su quello che potrà o non potrà utilizzare e quindi come
dovrà gestire questi prodotti. [Slide] Qui entriamo nel merito di quello che è il rilascio di una sorta di patentino di
abilitazione per i prodotti direi che è un punto abbastanza sensibile e probabilmente anche abbastanza critico.
Le Regioni e le Province Autonome si dovranno organizzare e dotare di strutture ad hoc per rispondere a queste
richieste. Anche in questo caso sicuramente l’attività di coordinamento, un’attività di produzione di norme condivise
sicuramente sarà di aiuto per tutte le parti interessate. Ovviamente è chiaramente detto nella normativa che le
Regioni possono agire, operare nell’ambito delle autonomie ma sicuramente, per consentire al sistema paese
di lavorare nello stesso modo, il coordinamento da realizzare attraverso la Conferenza Stato-Regioni sarà un
percorso quasi obbligato. Ci sono anche tutta una serie di proposte per informare gli utilizzatori e la popolazione
potenzialmente esposta. Nell’invitare tutti gli Stati Membri alla predisposizione del Piano d’Azione Nazionale,
l’Unione Europea ha preso in considerazione non sono l’utilizzatore professionale e non professionale ma anche
tutte quelle categorie di persone che potrebbero trovarsi del tutto casualmente esposte ad una area o ad un
ambiente in cui è stato utilizzato un prodotto fitosanitario e quando si parla di tutte vi possono venire in mente
le aree pubbliche, i parchi giochi soprattutto quelli destinati ai bambini e non ultimo il trattamento di tutte le aree
verdi che sono a lato di autostrade, strade ferrate e quant’altro, per le quali è stato fatto un espresso riferimento.
Quindi in tutte le aree potenzialmente trattabili e trattate nelle vicinanze o all’interno delle quali la popolazione
insiste, avranno necessità di essere individuate e per queste aree dovranno essere fornite dalle Regioni o dei
servizi competenti delle informazioni specifiche nel momento in cui dovessero essere effettuate o sulle quale sono
state effettuati dei trattamenti, per consentire a tutti di muoversi in maniera sicura e più responsabile all’interno
delle proprie aree verdi. Ci sono anche una serie di attività di raccolta dati che riguardano le intossicazioni acute;
in questo l’amministrazione sarà supportata dai colleghi dell’ISS che già raccolgono i dati e che annualmente ci
trasmettono una relazione contenente non solo le informazioni di dettaglio ma anche una sorta di valutazione
globale sui problemi legati alle intossicazioni acute. Qui scendiamo in un altro settore molto particolare cioè
l’utilizzo del mezzo aereo, anche questo argomento molto spinoso, molto critico che viene affrontato, all’interno
del Ministero durante le riunioni della nostra commissione consultiva ma rimane un argomento molto sensibile,
di fatto la direttiva vieta l’uso del mezzo aereo. E’ possibile però operare in deroga perché ci sono, per quanto
riguarda il nostro territorio, delle colture, delle connotazioni geografiche che lo rendono particolare e per il quale
probabilmente l’uso del mezzo aereo è l’unico uso possibile. Quindi sia la Direttiva che il Decreto prevedono la
possibilità di concedere tale uso, dietro specifici criteri e dietro specifiche richieste delle autorità regionali, non di
un privato, a dopo valutazione del prodotto.
Altro punto abbastanza critico che mi è stato segnalato sono i controlli sulle attrezzature. La Normativa è piuttosto
dettagliata ma essendo una Norma di carattere generale lascia poi alle competenze specifiche delle strutture
regionali l’adottare i sistemi migliori non solo per attivare un sistema puntuale di controllo ma per attivare il
sistema di rilascio dei patentini e quindi il riconoscimento ufficiale delle competenze degli utilizzatori dei prodotti
fitosanitari. Sicuramente è stato fatto molto, ma ci auguriamo e confidiamo che quello che originerà dalla
consultazione pubblica siano proposte propositive che permettano alla Amministrazioni di realizzare un Piano
d’Azione veramente nazionale.
174
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
21 Novembre
Verso MILANO EXPO 2015 - Ambiente, sostenibilità e salute
"Residui di pesticidi e armonizzazione dei LMR"
Lucilla RossiMinistero della Salute
Il contributo di questa relazione prende in esame l’armonizzazione dei limiti massimi di residui (LMR) dei residui
dei pesticidi fissati da Regolamenti comunitari, pertanto si fa riferimento ai processi definiti a livello comunitario
che conducono sia alla modifica/fissazione di nuovi LMR, sia alla revisione di quelli esistenti.
Vengono date alcune definizioni che aiutano a cogliere il quadro generale di quanto verrà spiegato, prima di
illustrare questi due punti.
Alcune definizioni (def.):
def. Prodotto fitosanitario come riportata nel Regolamento (CE) 1107/2009
def. Limite massimo di residuo (LMR) come riportata nel Regolamento residui (CE) 396/2005
Il Limite Massimo di Residuo (LMR) è la massima concentrazione del residuo di sostanza attiva presente sulle
derrate agricole, dopo trattamento con un prodotto fitosanitario, in accordo con le Buone Pratiche Agricole (BPA),
ossia sulla base del rispetto delle condizioni di impiego (dosi, numero dei trattamenti, intervallo di sicurezza),
viene illustrato un esempio di GAP.
Si illustrano i vari allegati (pubblicati e non) del Regolamento residui (CE) 396/2005.
Novità connesse all’entrata in vigore del Regolamento (CE) n. 396/2005:
- la fissazione e la modifica dei limiti massimi di residuo (LMR) sono attuate a livello comunitario e non più
a livello dei singoli Stati Membri
- l’EFSA (European Food Safety Authority) diventa l’Autorità di riferimento comunitario per la valutazione
dei LMR
- - abrogazione del DM 23 dicembre 1992 relativo al programma di controlli, in quanto tutti i controlli,
nazionali e comunitari, sono disciplinati dal Regolamento 396/2005 (capo V).
Illustrazione di due importanti articoli del Reg. 396/2005:
Art. 16 - definisce i LMR provvisori in circostanze specifiche
Art, 18.1b - definisce l’LMR di default 0,01 mg/Kg per i prodotti per i quali non siano stati fissati LMR specifici negli
Allegati II o III, o per le sostanze attive non elencate nell‘Allegato IV.
Illustrazione dei vari soggetti in gioco nel processo di armonizzazione comunitario (documenti prodotti, compiti dei
soggetti in gioco): il Richiedente, lo Stato Membro, l’EFSA e la Commissione Europea.
Il prodotto finale del processo di armonizzazione comunitario è un Regolamento collegato al Reg. residui
396/2005, sia nel caso della richiesta di modifica/fissazione del nuovo LMR, che parte dal richiedente (articoli
6-10 del Reg. 396/2005), sia nel caso della revisione dei LMR esistenti, che parte dall’EFSA (articoli 12.1 e 12.2
del Reg. 396/2005).
Per quanto riguarda l’articolo 12 c’è un coordinamento maggiore fra Stato Membro Relatore della sostanza
attiva, l’EFSA e gli altri Stati Membri, al fine di notificare all’EFSA gli usi della sostanza attiva ottenuti in Europa
successivamente alla presentazione della Monografia, in modo che l’EFSA possa operare un completo
accertamento del rischio per i LMR esistenti fissati su questi usi.
Dunque i Regolamenti residui collegati al Reg. 396/2005 riportano dei LMR che possono variare secondo delle
precise classi, in base a quanto stabilito dal documento SANCO 10634/2010 che dal 1/06/2010 sostituisce il doc.
(CE) 7039/VI/95 del 22/7/1997.
def. Limite massimo di residuo (LMR) come riportata nel linea guida SANCO/3346/2001 rev 7 relativa ai criteri
di notifica per le allerte rapide RASFF (Rapid Alert System for Food and Feed)
Il limite massimo di residuo di un pesticida (espresso in mg/Kg), rappresenta il contenuto massimo della sostanza
attiva consentita in un particolare alimento derivante da una coltura trattata con un pesticida, tale da rendere al
minimo il rischio dovuto all’assunzione del residuo attraverso la dieta, cioè in modo che tale livello sia inferiore al
limite tossicologico caratteristico della sostanza attiva.
I LMR fissati a livello comunitario sono reperibili nella Banca dati della Commissione EU: http://ec.europa.eu/
sanco_pesticides/public/index.cfm
Arezzo 20 - 23 novembre 2012
175
21 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
Invece il numero degli studi per fissare i LMR sono reperibili nella linea guida SANCO/7525/VI/95 rev. 9
Valutazione del rischio dei residui dei pesticidi
La valutazione del rischio costituisce un punto nodale nel processo di fissazione dei Limiti Massimi di Residui dei
prodotti fitosanitari.
Ogni LMR per ciascuna combinazione sostanza attiva/coltura è sottoposto ad un processo di valutazione del
rischio cronico e acuto tramite il modello di calcolo EFSA: PRIMo (Pesticide Residue Intake Model)
Tale strumento di valutazione del rischio cronico e acuto considera:
• la tossicità intrinseca della sostanza attiva
• l’entità dell’esposizione
• le differenti diete EU
• le differenti categorie dei consumatori
La valutazione del rischio si effettua tramite il confronto tra un parametro correlato con l’ingestione della sostanza
attiva contenuta nell’alimento da parte del consumatore (esposizione) e i livelli tossicologicamente accettabili per
la sostanza attiva (ADI e ARfD).
• RISCHIO CRONICO o a lungo termine (Acceptable Daily Intake = ADI mg/kg bw/day)
• RISCHIO ACUTO o a breve termine (Acute Reference Dose = ARfD mg/kg bw/day)
REGOLA GENERALE
Se le stime dell’esposizione a breve e a lungo termine sono minori rispettivamente dell’ADI e dell’ARfD allora i
rischi per l’uomo sono considerati accettabili.
Il parametro per quantificare l’esposizione cronica è la TMDI (Theoretical Maximum Daily Intake), invece il
parametro per quantificare l’esposizione acuta è la IESTI (International Estimate Short Term Intake).
Illustrazione del MODELLO DETERMINISTICO che si sviluppa sull’ipotesi che venga consumata una grande
porzione di alimento al più alto livello possibile.
Modalità di controllo e misure di attuazione dei LMR:
1. Programma comunitario coordinato di controllo pluriennale - stabilisce per ciascuno Stato Membro le
principali combinazioni pesticida-coltura da monitorare e il numero minimo di campioni da prelevare; gli
Stati Membri devono elaborare annualmente una relazione con i risultati di tale monitoraggio;
2. Laboratori di riferimento comunitari – coordinano, formano il personale, mettono a punto i metodi di
analisi e predispongono test per valutare le competenze dei vari laboratori di controllo nazionali (viene
seguita la linea guida SANCO/12495/2011 relativa ai metodi di validazione e al controllo di qualità);
3. Ufficio alimentare e veterinario della Commissione Europea – conduce le ispezioni negli Stati Membri per
valutarne e verificarne le attività di controllo.
Qualora si riscontrino residui di pesticidi ad un livello preoccupante per i consumatori, il sistema di allerta
rapido (RASFF) provvede alla circolazione delle informazioni, così da far adottare misure a tutela dei
consumatori.
176
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
21 Novembre
Microinquinanti e catena alimentare: valutazione del rischio sanitario
"Breve introduzione della sessione"
Alessandra Di Sandro
Ministero della Salute
Nell’ambito degli argomenti trattati nella giornata odierna, è opportuno introdurre i lavori partendo da una
riflessione sulla frase “noi siamo ciò che mangiamo”.
La nostra civiltà occidentale è ricca e dobbiamo iniziare a pensare non solo ai temi nutrizionali, quindi ad una
corretta alimentazione e a corretti stili di vita, ma anche alla sicurezza degli alimenti. E’ chiaro che l’Italia, essendo
un Paese, che ha superato le problematiche relative all’accesso agli alimenti (la sicurezza alimentare intesa nel
senso della FAO OMS) oggi ci si può dedicare all’obiettivo di elevare gli standard di sicurezza degli alimenti.
Questi standard di sicurezza per gli alimenti riguardano sia gli aspetti microbiologici che gli aspetti chimici. Oggi,
in particolare, c’è una forte sensibilità per ciò che riguarda la contaminazione chimica degli alimenti, dato che
la maggioranza dei contaminanti chimici con cui il nostro organismo viene a contatto è introdotta attraverso
l’alimentazione.
Le normative europee prevedono che i controlli stessi vengano effettuati “dal campo alla tavola”. E per “campo”
non dobbiamo intendere esclusivamente le modalità di produzione, ma anche l’ambiente in cui avviene la nostra
produzione agricolo-zootecnica.
Il rapporto ambiente-salute è un rapporto complesso che deve essere necessariamente integrato per garantire
proprio il rispetto del diritto alla salute sancito dalla nostra Costituzione. Nel diritto alla salute, quindi, deve essere
garantita anche la sicurezza alimentare. E’ chiaro che nessuno oggi pensa che il rischio “zero” sia un obiettivo
raggiungibile, ma sicuramente dobbiamo fare le nostre valutazioni affinché questo rischio sia accettabile, fino a
diventare un rischio trascurabile.
E’ chiaro che il rapporto con l’ambiente è un rapporto complesso che necessita di un’integrazione di competenze
che riguardano professionalità, ambiti e conoscenze diverse. Soltanto da un’integrazione di queste competenze
riusciremo ad avere un quadro che possa essere di garanzia per la salute.
In questo settore, un altro punto critico è quello della comunicazione del rischio, perché oggi il consumatore è
molto più sensibile alle tematiche relative alla contaminazione e al rispetto per l’ambiente. Sono sotto gli occhi
di tutti i problemi che nascono dalle problematiche industriali. Siamo in un Paese industrializzato, per cui il
rischio della presenza di microinquinanti è legato chiaramente, non al microinquinante naturalmente presente
nell’ambiente, ma a un’attività legata all’industrializzazione o alle attività antropiche. Da questo connubio noi
crediamo fondamentalmente che si possa arrivare a delle produzioni sicure, mettendo insieme una serie di
competenze diverse.
Alessandra Di Sandro
Ministero della Salute
"Il monitoraggio del Ministero della Salute"
Scopo di questa relazione è l’illustrazione delle attività del Ministero della Salute nell’ambito dei contaminanti
ambientali e della loro presenza negli alimenti. E’ chiaro che il problema dei contaminati ambientali è, rispetto
anche alle politiche sanitarie, un problema recente, soprattutto per quello che riguarda la sensibilizzazione
dell’opinione pubblica. Ormai sono più di vent’anni che il Piano Nazionale Residui, che viene predisposto sulla
base della normativa comunitaria, ha imposto agli Stati membri la ricerca di sostanze e agenti contaminanti per
l’ambiente negli alimenti di origine animale. In realtà il Piano Residui nasce con l’ obiettivo principale di controllare
l’utilizzo di sostanze farmacologicamente attive (sostanze ad azione auxinica). Il Piano, nel corso degli anni, è
tuttavia stato integrato con la ricerca di altre sostanze e agenti contaminanti per l’ambiente, tanto che a tutti gli
Stati membri è stato chiesto di effettuare dei campionamenti per la ricerca di composti organoclorurati, compresi
i PCB, organofosforati, elementi chimici, micotossine e coloranti. Questi controlli vengono effettuati su matrici
campionate a livello di produzione primaria, predisponendo controlli sia a livello dell’azienda di allevamento che
a livello di macello/prima trasformazione dei prodotti di origine animale (es. latte, carne). L’attuazione del Piano
Nazionale Residui viene effettuata attraverso il prelievo di campioni random, quindi campioni assolutamente
casuali. Il Piano ha consentito di rilevare la presenza di diossine nel 2002 in Campania così come del betaesaclorocicloesano nel 2005 nel Lazio.
In particolare il Piano Nazionale Residui ha evidenziato che la maggior parte delle non conformità rilevate sono
da attribuire alla presenza di contaminanti ambientali più che alla presenza di sostanze farmacologicamente attive
(sostanze auxiniche o sostanze ad azione ormonale in generale). Mediamente ogni anno abbiamo il 12-13% di
non conformità legate alla presenza di contaminanti ambientali (diossine, piombo, cadmio, aftatossine e ancora
il beta-esaclorocicloesano).
Arezzo 20 - 23 novembre 2012
177
21 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
Per le problematiche fin qui esposte, relative al riscontro di contaminanti ambientali negli alimenti, nel corso
degli ultimi anni, è iniziata una cooperazione sempre più forte e più stretta tra il Ministero della Salute (Direzione
Generale della Sicurezza degli Alimenti e della Nutrizione) e il Ministero dell’Ambiente e della Tutela del Territorio
e del Mare. Questa cooperazione tra i due dicasteri si è rafforzata nel 2009, quando la Direzione Generale della
Sicurezza degli Alimenti e della Nutrizione è stata coinvolta dal Ministero dell’Ambiente nelle Conferenze dei
servizi sui Siti di Interesse Nazionale (SIN).
I SIN sono quei siti (circa il 3% del territorio nazionale) che necessitano di interventi di bonifica, essendo
caratterizzati in base alla quantità e alla pericolosità degli inquinanti presenti e al rilievo dell’impatto sull’ambiente
circostante in termini di rischio sanitario ed ecologico. Accanto al rischio sanitario “diretto” sulla popolazione, la
cui competenza nel Ministero della Salute è esercitata dalla Direzione Generale della Prevenzione sanitaria,
si delinea un rischio sanitario dovuto al consumo di alimenti prodotti nel sito, o nelle sue immediate vicinanze,
che possono risultare contaminati. Durante le Conferenze dei servizi è emerso che non sempre le conoscenze
disponibili consentono di quantificare il rischio sanitario legato al consumo degli alimenti prodotti nei SIN o nelle
loro immediate vicinanze, con il rischio di sottostimare o sovrastimare il fenomeno e di adottare delle misure di
prevenzione inadatte o inopportune.
La necessità di potenziare gli studi e le conoscenze sui contaminanti ambientali negli alimenti, ha portato gli uffici
tecnici del Ministero a sollecitare i propri interlocutori politici, fino a definire il Piano sanitario nazionale 2011-2013,
in cui per la prima volta è stato introdotto un obiettivo strategico di politica sanitaria che legasse in modo specifico
la catena alimentare alle problematiche ambientali.
Nel Piano sanitario nazionale è infatti riportato che occorre potenziare e ampliare gli studi sui contaminanti tossici
persistenti, attraverso indicatori zootecnici, per identificare i luoghi ad alto rischio ambientale e valutarne le
ripercussioni sulla catena alimentare effettuando un piano di monitoraggio sui contaminanti ambientali. A seguito
di quanto detto, è stato quindi attivato un piano nazionale di monitoraggio dei contaminanti ambientali presenti
negli alimenti di origine animale che sono prodotti all’interno, o vicino, ai siti di interesse nazionale. In tale ambito
il Ministero della Salute svolge un ruolo di coordinamento per le attività regionali, in modo da poter fornire dati
confrontabili e statisticamente significativi. Infatti, risultava già in passato, presso le regioni, un’attività di controllo,
ma veniva effettuata in maniera disorganizzata, non coordinata, non sistematica e diversa da un sito all’altro, da
una regione all’altra, a volte dipendente dalla sensibilità di chi interveniva su quel sito.
Lo scopo del Piano nazionale di monitoraggio è quello di fornire i dati necessari per una corretta definizione dei
livelli di rischio per i principali contaminanti. Sono state quindi definite le modalità di effettuazione del Piano (“chi
fa che cosa”), ed è stato istituito un Gruppo Tecnico di Coordinamento per definire i criteri della programmazione
e delle attività, supportando la scelta delle regioni in relazione ai siti da esaminare, alle matrici e alle ricerche da
effettuare.
Il Gruppo Tecnico di Coordinamento è costituito da rappresentanti del Ministero della Salute, dall’Istituto Superiore
di Sanità, da un rappresentante individuato dal Coordinamento Tecnico delle Regioni e da tre Istituti Zooprofilattici
Sperimentali. Le Regioni hanno il compito di individuare i siti e di rendere disponibili i risultati delle indagini
precedenti. E’ prevista inoltre la collaborazione con il Centro di referenza per la valutazione del rischio (Istituto
Zooprofilattico dell’Abruzzo e del Molise), per rilevare e georeferenziare le attività produttive e le pratiche agricole
nei Siti di Interesse Nazionale e per eseguire una valutazione del rischio per i siti controllati, insieme all’Istituto
Superiore di Sanità.
Nel Piano sono state individuate come matrici d’elezione, maggiormente indicative della contaminazione
ambientale, il latte ovino, come indicatore legato all’abitudine alimentare di allevamento a pascolo, e le vongole,
perché vivono sul fondo del mare. In alternativa, sono state proposte anche uova e mitili.
I principali analiti da ricercare sono i metalli pesanti, gli IPA, il pentaclorofenolo, il nonilfenolo, le diossine e i PCB
(diossina simili e non diossina simili).
Dal punto di vista operativo, il Gruppo Tecnico convoca una regione per volta, e in tale occasione la regione
(Dipartimento Ambiente) presenta i propri dati disponibili sul SIN, per metterne a conoscenza il Gruppo e l’ISS.
In tal modo, si definiscono le matrici più opportune da prelevare e i contaminanti da ricercare, per la natura
particolare di quel sito, tenendo conto ovviamente dei costi delle analisi (es. beta- esaclorocicloesano nel sito di
Frosinone).
Nell’ambito del Piano di monitoraggio nazionale, è stato creato un Sistema Informativo Geografico (GIS), in cui
ciascun attore dell’applicazione di questo piano inserisce i dati di propria competenza. Dal Sistema Informativo c’è
la possibilità di scaricare verbali e di inserire tutti i dati dei controlli che vengono effettuati, con il relativo dettaglio
(ad esempio tutti i congeneri dei PCB o delle diossine). E’ possibile inoltre ottenere una rappresentazione grafica
che permette di visualizzare tutti i territori ricadenti nel SIN, gli allevamenti presenti nell’area, i campioni prelevati
e i campioni non conformi.
E’ stata anche fornita alle Regioni una check list, che deve essere compilata dai servizi veterinari che prelevano
il campione in un’azienda, per poter escludere che la presenza di eventuali contaminanti sia legata a cattive
178
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
21 Novembre
pratiche agricole o ad interferenze che possono impedire la corretta valutazione del dato (ad esempio correlate
con le abitudini a bruciare plastiche, coperture di serre, ecc.), in modo da poter avere un dato il più possibile
rappresentativo e attinente all’obiettivo.
Nella figura di seguito riportata è illustrata la mappa dei 57 SIN presenti in Italia.
Con tale sistema è possibile vedere, all’interno di ogni SIN, o nelle immediate vicinanze (nelle zone buffer, cioè
zone circolari con un determinato raggio che individua la distanza dalla fonte di contaminazione), i campioni che
sono stati prelevati e quelli non conformi, in quanto vengono rilevate esattamente le coordinate geografiche del
punto di prelievo.
Nel sistema informativo è inoltre possibile inserire i dati e le relazioni in formato Word, che sono già presenti a
livello regionale, per esempio a livello di ASL e di ARPA.
Questo sistema non è aperto a tutti, ma è un sistema dedicato ai tecnici, ossia a tutti coloro che si occupano
sia della valutazione del rischio che della gestione del rischio (Regioni, l’ISS e coloro che ne faranno richiesta
per parte ambientale), perché una corretta gestione del rischio sanitario non può prescindere da una base dati
comune, integrata e che consenta di prendere in carico, nell’effettuazione delle proprie scelte, tutte le variabili
e tutti i controlli già effettuati. Quindi solo con la collaborazione di tutti gli attori questo piano riuscirà ad essere
operativo e a raggiungere il proprio obiettivo.
Arezzo 20 - 23 novembre 2012
179
21 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
Microinquinanti e catena alimentare: valutazione del rischio sanitario
Eleonora Beccaloni
Istituto Superiore di Sanità
Rispetto al progetto di cui vi ha accennato la Dr.ssa Di Sandro, come Istituto Superiore di Sanità e come Gruppo
di lavoro che collabora attivamente, dando supporto sanitario, con il Ministero dell’Ambiente, ci occupiamo dei
SIN per quanto riguarda le problematiche sanitarie in relazione a quelle ambientali.
All’interno di questo programma di monitoraggio abbiamo il compito di mettere a disposizione le nostre
conoscenze ambientali e inoltre fare la valutazione dei dati che vengono inseriti dai vari IZS che si occupano sia
dei campionamenti che delle determinazioni analitiche degli inquinanti indicatori che sono stati selezionati nel
piano.
Per far questo, e quindi per poi andare a valutazione dell’esposizione, in aree in cui la popolazione potrebbe essere
coinvolta, sia perché queste aree si possono trovare all’interno del perimetro di un sito considerato contaminato,
sia perché si trovi in aree limitrofe ad esso, abbiamo dovuto predisporre un programma di elaborazione e
valutazione dei risultati derivanti dal piano di monitoraggio
Devo dire che, benché sono state interessate tutte le regioni e all’interno di ogni regione sono pochissime quelle
che hanno soltanto un SIN, sono stati selezionati, nel primo anno, un SIN per ogni regione e poi si è cercato di
coprire un po’ negli anni successivi tutti gli altri SIN presenti nelle regioni stesse. E’ chiaro che in una regione
come la Campania, che da sola ha 5 SIN, non so fino a che punto riusciremo a coprire tutte le problematiche
presenti, però abbiamo delle conoscenze pregresse conseguite per altri motivi e quindi cercheremo in qualche
modo di usare anche i dati pregressi.
Abbiamo la possibilità di raccogliere tutti i dati, man mano che questi vengono prodotti dalle indagini di monitoraggio,
nel sistema SINVSA, di cui parlava la Dr.ssa Di Sandro.
Io, facendo parte del Gruppo di Coordinamento, accedo a tutti i risultati analitici presenti nel SINVSA e per
l’elaborazione di essi ci siamo dati questo criterio.
Ci occupiamo della raccolta e selezione dati perché le matrici, come è stato già accennato, sono diverse e quindi
i valori sono suddivisi prioritariamente per matrici. Queste sono fondamentalmente latte ovino, però in quelle aree
in cui praticamente il territorio interessato dal SIN è soprattutto un’area marino costiera, abbiamo come matrice
rappresentativa anche le vongole. Laddove non è stato possibile, per le aree a terra, avere a disposizione del latte
ovino sono state definite come matrici sostitutive le uova oppure i mitili laddove non erano disponibili le vongole.
Quindi, la raccolta e selezione dati diventa importante per poter appunto selezionare a priori, intanto, le matrici,
poi armonizzare i dati stessi. I dati devono essere armonizzati perché non sempre le unità di misura o i limiti di
rivelabilità delle procedure analitiche sono chiaramente definiti, cioè ci vengono restituiti come informazione. Noi
abbiamo quindi il compito di armonizzare tutti i dati perché siano confrontabili, dopodiché, come primo approccio,
stiamo già facendo delle elaborazioni statistiche descrittive molto semplici che consistono soltanto nel definire,
all’interno del SIN, qual è il valore minimo ed il valore massimo per ogni contaminante e per ogni punto di
campionamento. Si passa poi alla valutazione che verrà effettuata, e una parte è già stata fatta per alcuni SIN,
rispetto alla distribuzione spaziale, come ha anche accennato la Dr.ssa Di Sandro, mediante una mappatura GIS.
La mappatura GIS permette di individuare sul territorio quali sono i punti che risultano non conformi, o, per tutti
quegli analiti che non sono normati, quali sono i punti di interesse o di criticità rispetto al valore medio calcolato.
Nel caso di superamento dei valori definiti dalla normativa di settore, o della media, che a livello statistico risulta
superata, poi andremo a verificare se c’è la possibilità di associare la presenza della sostanza in eccesso con le
attività o le forzanti presenti nel sito in cui è stato prelevato il campione.
Per di più vorremmo mettere in atto uno studio per quanto riguarda le diossine e i PCB facendo un ‘finger printing’,
laddove è possibile, per verificarne l’origine tramite lo studio dei congeneri e le percentuali di presenza dei singoli
congeneri per andare poi a focalizzare effettivamente la natura e la provenienza di tali sostanze, se possono in
qualche modo essere associate all’attività dei SIN.
Tutto questo andrà eseguito prima per il singolo SIN, per la singola sostanza e per la singola matrice dopodiché
quando si avrà conoscenza approfondita del singolo SIN tutto verrà riportato a livello nazionale perché c’è
necessità anche di capire e di confrontare a livello nazionale se si possono avere delle associazioni a seconda
delle attività che vengono svolte nei SIN per poter essere certi di dare il giusto valore a quelle che sono le
deduzioni derivanti da una valutazione analitica.
Al momento nel SINSA sono disponibili 3 regioni Sicilia, Lazio e Marche e 3 siti Priolo, Bacino del Fiume Sacco
e Falconara.
Uno è il sito della Sicilia con Priolo che è uno dei siti più studiati. A Priolo sono stati effettuati 28 campionamenti
sul latte e questi hanno riguardato i 7 congeneri delle diossine, i 10 furani, i 12 PCB non-dioxin-like e i PCB
dioxine-like. Qui devo dire è stato semplice fare una valutazione perché tutte queste sostanze sono normate e qui
180
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
21 Novembre
il confronto dei valori analitici ottenuti è stato facile.
Per quanto riguarda il bacino del fiume Sacco, i campioni prelevati e analizzati sono stati 24, anche qui la matrice
era il latte, però all’elenco degli analiti previsti sono stati aggiunti i fitofarmaci. Questo perché l’area è stata
dichiarata SIN per la presenza nel latte nel 2005 dell’esaclorocicloesano, soprattutto del Lindano nel latte. Nel Sito
è stato eseguito uno studio ambientale di caratterizzazione. Il SIN è di pertinenza di due strutture, la Commissariale
e del Ministero, l’Ufficio Commissariale ha già da tempo iniziato tutte le procedure di caratterizzazione nonché di
bonifica dell’area. Questo perché all’interno del sito c’era un’industria che produceva esaclorocicloesano e si è
scoperto che in un’area limitrofa all’ex azienda erano state sversate e depositate praticamente le materie prime
dell’esaclorocicloesano. Ciò faceva sì che per lisciviazione e per rottura dei fusti l’esaclorocicloesano aveva
praticamente raggiunto il fiume Questa è stata una fonte continua di inquinamento tramite esondazioni, eccetera.
La bonifica è stata effettuata e devo dire che i dati sono abbastanza confortanti.
Per quanto riguarda invece le Marche abbiamo il sito di Falconara Marittima dove sono state prelevate appunto le
vongole perché il sito perimetrato è praticamente l›area marino costiera. Sono stati prelevati e analizzati soltanto
6 campioni. Anche qui sono state determinate diossine e furani, PCB non-dioxin-like e i PCB dioxine-like.
Facendo una rapida panoramica possiamo vedere come per quanto riguarda Priolo, io qui ho riportato il valore
minimo, il valore massimo e il valore medio. Quello che è interessante è che il PCB118 sul valore massimo
dell’intervallo definito presenta una concentrazione abbastanza elevata.
Premesso che i dati sono espressi in concentrazione e non tossicità equivalente, anche per le diossine e i furani
è riportato un valore minimo e un valore massimo e anche qui abbiamo delle concentrazioni molto variabili, dal
limite di rilevabilità fino a valori massimi di 2 pg/g..
Per Priolo, come vedete, c’è un puntino rosso con cerchietto blu dove praticamente abbiamo avuto una difformità
rispetto a quanto previsto dalla norma. Questo ci permette di poter andare a individuare qual è il punto critico e
quindi ci dà la possibilità di vedere se è possibile associare le attività svolte nelle aree limitrofe a quel punto di
campionamento alla presenza dei PCB e delle diossine riscontrate. Questo è uno studio che stiamo approfondendo
perché è tutto in essere.
Per quanto riguarda il bacino del fiume Sacco, sempre PCB118 risulta essere presente in concentrazioni elevate,
però non desta al momento preoccupazione facendo riferimento a quanto riportato dalla norma. Le diossine e
i furani rientrano anche essi nei limiti normativi, qualcuno in concentrazione un po’ significative, ma niente di
determinante. La cosa interessante a questo punto invece riguarda l’esaclorocicloesano soprattutto il Lindano
che viene riportato come limite di rilevabilità. Quando io vi parlavo di armonizzazione dei dati, volutamente ho
riportato n.d,. cioè non determinabile, perché purtroppo, e questo adesso lo dobbiamo approfondire, nel database
non sono stati definiti i valori numerici del limite di rilevabilità rispetto alla procedura analitica utilizzata. Il non
determinabile porterebbe a considerare l’assenza dell’inquinante considerato, ma se dovessimo fare un confronto
con altre situazioni non siamo in grado di farlo perché anche il valore del limite di rilevabilità potrebbe fare la
differenza. Spesso vengono riportati i limiti di rilevabilità oppure i limiti di quantificazione e quindi questo crea un
problema nel confronto dei dati. Per quanto riguarda i metalli questo, al momento, è l’unico sito in cui sono state
restituite anche le loro concentrazione, e come potete vedere, sono tutti sotto i limiti di rilevabilità e non destano,
almeno per quelli normati, preoccupazioni particolari.
L’ultimo sito di cui ho avuto la possibilità di elaborare i dati è quello di Falconara Marittima. Sulle vongole, per
esempio, il PCB118, è vero che è un’altra matrice, però è anche vero che le concentrazioni, benché più alte
rispetto a tutti gli altri PCB, sono molto basse. La stessa cosa succede per le diossine e per i furani. Come potete
vedere la presenza di limiti di rilevabilità è abbastanza importante per tutti i congeneri presenti.
In conclusione, ad oggi questo è quanto abbiamo a disposizione, ma l’obiettivo - penso che in qualche modo sia
stato chiaro - quello che si vuole arrivare a fare è capire innanzitutto quali sono le concentrazioni degli inquinanti
in studio e, a livello sanitario, quali potrebbero essere le criticità rispetto ai SIN e vedere se si riesce ad associare
tali criticità ad una problematica specifica del SIN ciò permetterebbe la gestione della problematica stessa e a
livello di bonifica la definizione degli interventi più urgenti da fare prioritariamente a tutela della salute.
Naturalmente tutto ciò ci impegnerà molto, ma l’obiettivo fondamentalmente è quello descritto, inoltre questo
studio ci darà la possibilità di raccogliere tutti i dati e arrivare, a livello nazionale, ad avere una conoscenza di
insieme che ci permetterà di fare il punto della situazione.
Arezzo 20 - 23 novembre 2012
181
21 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
Microinquinanti e catena alimentare: valutazione del rischio sanitario
"Esperienze di valutazione del rischio per il pescato proveniente da aree contaminate"
Mario Carere
Istituto Superiore di Sanità
Nell’ambito dei Siti di Bonifica di Interesse Nazionale diverse aree includono corpi idrici fluviali, lacustri, marinocostieri, di transizione caratterizzati da una contaminazione diffusa delle matrici acquatiche, in particolare
dei sedimenti che tendono ad accumulare sostanze chimiche con caratteristiche di persistenza ed anche
bioaccumulabilità; tali contaminanti presenti nei sedimenti, a seguito di modificazioni ambientali fisico-chimiche,
microbiologiche ed idrologiche, possono diventare biodisponibili e trasferirsi nella catena alimentare con
ripercussioni sull’edibilità di prodotti della pesca e quindi con una potenzialità di causare rischi per la salute
umana.
Gli elementi che sono necessari per valutare correttamente l’esposizione sono costituiti da una corretta analisi di
tutte le pressioni e degli impatti presenti in un determinato bacino idrografico o corpo idrico, la conoscenza delle
fonti/sorgenti di inquinamento, la selezione di inquinanti indici, i dati analitici disponibili su matrici ambientali e
alimentari, dati sui consumi, sulla dieta,eventuali studi di biomonitoraggio umano ed utilizzo di modelli.
La normativa comunitaria in vigore per la protezione delle risorse idriche è la Direttiva Quadro sulle Acque (DQA)
che persegue un approccio integrato di valutazione di protezione dell’ambiente e della salute umana con l’obiettivo
del raggiungimento di un buono stato al 2015 al fine di garantire tutti gli usi possibili dei corpi idrici compresi quindi
quelli della pesca, dell’acquacoltura ed anche dell’uso delle acque superficiali destinate a scopo idropotabile. La
DQA obbliga gli Stati Membri a gestire la tutela dei corpi idrici a livello di bacino idrografico e tutela l’ambiente
acquatico attraverso la definizione di un elenco di priorità europeo e di inquinanti specifici rilevati a livello di bacino
idrografico.
Per le sostanze e gruppi di sostanze dell’elenco di priorità europeo (attualmente 41), sussiste un obbligo di
riduzione ed eliminazione da parte degli Stati membri da tutte le fonti di inquinamento; tale elenco viene aggiornato
ogni 4 anni. Tra queste sostanze vi sono diverse sostanze bioaccumulabili come i pesticidi organoclorurati, il
benzopirene, i metalli pesanti, i nonilfenoli che potrebbero costituire una problematica di rischio per la salute
umana in relazione al consumo di prodotti della pesca.
All’interno e nelle aree adiacenti dei siti di bonifica sono spesso presenti infatti attività importanti di acquacoltura di
tipo estensivo, intensivo, molluschicoltura di tipo commerciale, ma anche presenza di banchi naturali di organismi
acquatici edibili, pesca sportiva e professionale. Di conseguenza è emersa la necessità di stimare l’esposizione
ambientale nell’ambito della procedura di valutazione del rischio in relazione al consumo di prodotti della pesca
in aree contaminate.
La laguna di Orbetello è stata identificata come SIN nel 2002 con una nuova perimetrazione aggiornata nel
novembre 2007. Essa, oltre ad avere un interesse commerciale rappresenta anche uno dei siti più importanti in
Italia dal punto di vista naturalistico. Nella laguna sussistono attività tradizionali di pesca di acquacoltura estensiva
ed intensiva estremamente rilevanti, ma la laguna è stata soggetta, in entrambi i lati (ponente e levante) ad un
inquinamento pregresso sia derivante da un’industria chimica (ex-Sitoco) ma anche da miniere presenti nell’area
di levante.Per quanto riguarda il mercuriogià nel passato erano stati evidenziati superamenti dei tenori massimi
del regolamento europeo 1881/2006/CE nelle spigole di dimensioni elevate, quindi con un’età più avanzata.
Parallelamente nella laguna è presente una contaminazione di mercurio nei sedimenti diffusa con degli hot spot
in alcune aree specifiche ed è anche da rilevare la presenza di concentrazioni di background naturali.
E’ stato effettuato uno studio da parte dell’Istituto Superiore di Sanità insieme al Commissario delegato al
risanamento della laguna di Orbetello, in coordinamento con il Ministero dell’Ambiente, per valutare i fattori di
rischio igienico-sanitari causati appunto dalla contaminazione dei sedimenti e individuare un criterio di qualità dei
sedimenti protettivvo per la salute umana. E’ stato effettuato quindi uno studio di monitoraggio mirato sui sedimenti
del biota nella laguna. Sono state selezionate quattro aree nella laguna a diverso grado di contaminazione: due
aree ad alta contaminazione, un’area a media contaminazione ed una a bassa contaminazione.
Sono stati trapiantati dei mitili per due mesi per verificare la capacità di bioaccumulo del mercurio nella laguna e
nel sedimento. Lo studio ha evidenziato nell’arco di due mesi un certo accumulo, specialmente in alcune aree,
di mercurio dai sedimenti ad i mitili; tale contaminazione si può quindi potenzialmente trasferire nella catena
182
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
21 Novembre
alimentarecon un rischio poi possibile per la salute umana.
In tali aree è stata quindi adottata una metodologia, basata su fattori di accumulo biota-sedimento (BSAF)
per elaborare criteri di qualità dei sedimenti protettivi per la salute umana e per supportare misure di gestione
appropriate per la bonifica dei sedimenti.
Un altro caso studio è quello relativo al Sin di Augusta/ Priolo in cui è in corso uno studio per valutare la
contaminazione attuale delle matrici ambientali ed il rischio per la salute umana anche attraverso il supporto di
studi epidemiologici. In tale area erano stati già valutati i dati relativi alle varie matrici ambientali nell’ambito di un
progetto con il Ministero dell’Ambiente per valutare il danno sanitario nei siti di bonifica ed erano stati riscontrati
superamenti di alcuni metalli pesanti (mercurio, piombo, cadmio) nei sauri e nei teleostei; parallelamente erano
state riscontrate concentrazioni elevate nei sedimenti fino oltre a 100 volte gli standard di qualità ambientale
definiti dalla normativa nazionale. Anche in questo caso quindi la contaminazione dei sedimenti risulta connessa
con la contaminazione del pescato.
Nel sito di Pieve Vergonte nel Lago Maggiore è presente una contaminazione storica dei sedimenti, in questo caso
di DDT e metaboliti, con superamenti diffusi anche dei limiti di rischio ecotossicologico (PEL-Probable effectlevel).
Saltuariamente continuano a manifestarsi, fin dagli anni ’90, superamenti dei limiti sanitari nei prodotti ittici stabiliti
dal Ministero della Salute in particolare nell’agone e nel lavarello, come emerge dai rapporti annuali preparati
dalla commissione CIPAIS;vi è una presenza variabile e fluttuante di D.D.T. nelle reti trofiche come ad esempio
nei bivalvi ma anche nelle uova di uccelli acquatici. In tale contesto non deve essere sottovalutato il ruolo presente
e futuro che potrebbero avere le inondazioni e le modifiche chimico-fisiche (anche di temperatura) connesse con
i cambiamenti climatici.
Le attività in tutte le aree contaminate sono svolte in coordinamento con il Ministero della Salute, con il Ministero
dell’Ambiente, le autorità locali e gli istituti scientifici nazionali, come ISPRA e il CNR. Quest’attività di coordinamento
è importante anche in casi specifici quando avvengono delle situazioni emergenziali che possono contaminare
un’area come ad esempio il caso “fusti tossici” avvenuto nel Mar Tirreno.
Nel dicembre 2011 in Toscana l’Eurocargo Venezia ha sversato nel mare non distante dall’isola di Gorgona,a
causa di condizioni meteo avverse,circa 200 bidoni di fusti tossici contenenti catalizzatore esausto nichelmolibdeno. Sono state effettuateimmediate azioni per gestire questa emergenza con il supporto di tutti gli enti
pubblici locali e nazionali. Dal punto di vista analitico sono state effettuate delle analisi con cadenza mensile
di prodotti della pesca da parte dell’ARPAT e dell’IZS su diversi organismi appartenenti ai diversi livelli trofici
proprio per valutare il bioaccumulo. Sono state analizzate le sostanze (nichel, vanadio, molibdeno, antimonio e
cobalto) che potenzialmene potevano provenire dai catalizzatori dispersi. L’Istituto ha effettuato delle valutazioni
preliminari mensili sui dati pervenuti e al momento le analisi non hanno evidenziato rischi particolari per la salute
umana, ma è stato suggerito di proseguire i monitoraggi per avere un quadro complessivo della contaminazione
nell’arco di un periodo temporale che possa racchiudere e rilevare eventuali fenomeni di bioaccumulo nel corso
degli anni successivi. Sono state anche effettuate analisi della colonna d’acqua e dei sedimenti nonché saggi di
ecotossicità da parte di ISPRA.
In conclusione è necessario affermare che quando si valuta il rischio della salute umana in relazione al consumo
di prodotti ittici ovviamente il controllo diretto del contaminante degli organismi acquatici edibili è sicuramente
il criterio principale di valutazione, ma il monitoraggio di tipo ambientale, quindi di sedimenti, anche biota non
edibile, colonna d’acqua rappresentano elementi di supporto importante per intraprendere anche le misure di
bonifica e approfondire anche la conoscenza dei destini di trasferimento nella catena alimentare; inoltre al fine
di migliorare il processo di valutazione di rischio descritto e per rafforzare progressivamente il nesso di causalità
(emissione di un inquinante-sviluppo della patologia) è auspicabile l’incremento di tecniche di monitoraggio di tipo
tossicologico ed ecotossicologico (es. saggi di tossicità in vivo ed in vitro, test di mutagenesi e strumenti per il
rilevamento di interferenti endocrini) in parallelo alle analisi chimiche, in grado di rilevare ad esempio la presenza
di miscele di inquinanti che hanno lo stesso modo di azione o la presenza di sostanze non incluse nei programmi
di monitoraggio.
Arezzo 20 - 23 novembre 2012
183
21 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
Microinquinanti e catena alimentare: valutazione del rischio sanitario
"Contaminazione della catena alimentare da metalli pesanti"
Paolo Stacchini Istituto Superiore di Sanità
Trascrizione non revisionata dal relatore
Perché parliamo di metalli pesanti nei prodotti alimentari? Perché anche oggi ci troviamo qui e abbiamo, tra i tanti
contaminanti alimentari che sono stati elencati ed enumerati precedentemente, pensato che fosse opportuno
parlare di metalli pesanti. Il primo motivo è perché ci sono conoscenze consolidate in questo settore, quindi
anche da un punto di vista della esplicazione dei fenomeni è un modo per far capire, far conoscere le cose anche
come metro per valutare le cose che accadono. Poi perché effettivamente, piaccia o non piaccia, per quello che
riguarda i contaminanti chimici purtroppo sono fra i contaminati che ricorrono più frequentemente a determinare
condizioni di attenzione. Non parlerei di condizioni di rischio perché poi sul termine valutazione del rischio c’è un
grande affannarsi, però sulle quali noi siamo chiamati a esprimere valutazioni. Valutazioni che sono rese spesso
difficoltose dalle caratteristiche che questo tipo di contaminazione assume e dal fatto che quando parliamo di
alimenti parliamo di mondi spesso diversi l’uno dall’altro.
Prima parlavamo di prodotti ittici, quindi di prodotti ittici freschi e quello è il chiaro esempio di una situazione che
rende l’alimento esposto a un tipo di contaminazione che è quella ambientale tanto che parliamo qui di alimento
e spesso lo stesso alimento funge anche da indicatore, da segnalatore di problematiche ambientali. Però alimenti
ne mangiamo tanti e diversi l’uno dall’altro.
Gli alimenti che oggi consumiamo sono sempre più determinati da trasformazioni alimentari. L’uomo fa qualcosa
per produrre alimenti, fa qualcosa nell’ambito della produzione primaria, alleva, coltiva. Allevando e coltivando
inserisce problemi nella produzione alimentare. Voi pensate, e qui l’ho richiamato rapidamente, che sono definiti,
nell’ambito del controllo di trattamenti volontari - pensiamo ai pesticidi nel settore agroalimentare -, limiti per quello
che riguarda elementi inorganici quindi metalli pesanti.
Abbiamo alimenti che noi conosciamo da sempre che sono stati richiamati - mercurio, cadmio, piombo - che
fortunatamente oggi sono completamente regolamentati e armonizzati a livello comunitario. Questa è una grande
fortuna che noi abbiamo perché quando queste cose sono definite - non è che sono definite a casaccio, ma
sono definite a seguito di percorsi di valutazione - abbiamo termini di confronto che ci consentono di stabilire,
di decidere. Perché quante volte noi siamo chiamati a decidere e in assenza di limiti? E anche nel settore dei
metalli questo purtroppo è presente, si verifica. Noi abbiamo altri elementi sui quali l’interesse sanitario è elevato,
pensiamo all’arsenico, al cromo. Sono elementi per i quali c’è una grande attenzione da un punto di vista di chi
valuta queste cose. Anche qui noi abbiamo fortunatamente un riferimento certo perché oggi abbiamo un’Agenzia
Europea che si occupa di fare questo tipo di lavoro e abbiamo a livello mondiale a volte parenti scomodi perché
c’è il JECFA, ad esempio, in ambito FAO/OMS che fa lo stesso tipo di lavoro e spesso invece dà indicazioni non
sempre parallele. Proprio sul cadmio, voi pensate, abbiamo interpretazioni diverse da parte di gente che fa lo
stesso mestiere, ma che vede le cose in maniera non sempre sovrapponibili. Abbiamo però, e lo richiamo anche
dal punto di vista del metodo proprio, elementi sui quali invece non abbiamo livelli definiti e lì nasce il problema di
quello di cosa fare. Che fare quando ci troviamo di fronte alla presenza di sostanze di cui sappiamo che sarebbe
meglio che non ci fossero nei prodotti che consumiamo e che però non ci consentono un riscontro immediato
perché non ci sono definiti i limiti.
Abbiamo il problema che i metalli li troviamo negli alimenti freschi e parliamo allora di contaminazione ambientale,
contaminazione che può essere di origine naturale e può essere però, ed è prevalente, di origine antropica, ma
c’è il mercurio che in certe aree è esposto al doppio livello di contaminazione sia di origine naturale che antropica.
La contaminazione da metalli pesanti non fa sconti, riguarda la produzione di originale animale, riguarda la
produzione di origine vegetale perché ci sono elementi che preferiscono andarsi a ficcare all’interno di produzioni
animali - è il caso del mercurio perché per affinità e per destino ambientale va a finire meglio in determinati
contenitori quali alimenti ittici - ma ci sono anche le produzioni vegetali. Noi, come Paese, non possiamo essere
indifferenti a questo problema anche perché abbiamo produzioni tipiche che hanno questo rischio, perché
insistono in ambiti ad elevato impatto antropico, ad esempio è il caso della produzione del cadmio nazionale
e del suo rischio di andare incontro a livelli di contaminazione nel riso. Ma abbiamo anche tutto il mondo degli
alimenti trasformati e l’alimento trasformato è sempre più presente sulle nostre tavole. Sempre e crescente
l’offerta e sempre questo nasconde la possibilità di trovarci di fronte a qualcos’altro anche per quello che riguarda
la contaminazione da metalli.
Abbiamo nel trasformato la contaminazione delle materie prime che è quella di natura ambientale, ma può derivare
anche da ingredienti che non consideriamo proprio, ma che invece entrano a tutto titolo all’interno di un prodotto
alimentare.
184
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
21 Novembre
Pensate agli additivi: ma se voi prendete un qualsiasi prodotto alimentare trasformato e ne leggete l’etichetta, ne
decodificate l’etichetta spesso leggete i nomi che sono riferimenti di additivi. Questi a loro volta possono apportare
contaminanti, in particolare metalli, tanto che il legislatore comunitario non è stato indifferente al problema. Anche
in questo caso ha definito limiti per quello che riguarda il contenuto di metalli nei singoli additivi, ma pensate
ci sono prodotti alimentari che sono praticamente assemblaggio di additivi, cioè di sostanze volontariamente
aggiunte nella produzione alimentare. Se voi prendete una caramella senza zucchero o un chewing gum, l’esito
è la risultante di un assemblaggio di ingredienti alimentari che sono additivi, perché l’additivo, va ricordato, è un
ingrediente alimentare. Orbene lì noi abbiamo i livelli limiti che devono essere recuperati dai limiti previsti nelle
schede che il legislatore accompagna ad ogni additivo alimentare previsto.
Abbiamo poi la contaminazione che può avvenire durante la trasformazione, quella che è chiamata contaminazione
da processo. Pensate, ad esempio, alla produzione del vino, molto spesso noi andiamo incontro alla possibilità di
arricchire involontariamente la nostra produzione attraverso quello che avviene mediante cessione nel momento
in cui proprio il vino è prodotto, quindi qualcosa può accadere durante la produzione e trasformazione degli
alimenti. Infine la contaminazione che può determinarsi nelle fasi di confezionamento e stoccaggio, pensate alla
cessione da materiali a contatto. Perché questa disamina? Per dire che i problemi vanno affrontati tenendo conto
delle diverse origini. Anche metodologicamente dobbiamo sapere una cosa: il prodotto alimentare è un bacino
che raccoglie tanto, raccoglie quello che l’ambiente immette ma raccoglie anche quello che l’uomo, le produzioni,
le diversificazioni di produzioni alimentari possono determinare. E quando noi andiamo a valutare queste cose
dobbiamo conoscere, quindi quando parliamo di approccio integrato, l’approccio integrato prevede che se
l’alimento è interno a un meccanismo valutativo deve essere pure prevista la competenza di chi è che conosce
che cosa si muove all’interno di un sistema che porta poi alla determinazione di una produzione alimentare.
Noi valutiamo mediante definizione di livelli di limiti di assunzione tollerabili. L’ho già detto, abbiamo dentro
casa, perché ce l’abbiamo proprio a Parma, chi si occupa di fare questo lavoro, ma abbiamo anche interlocutori
esterni all’ambito europeo. Noi abbiamo il JECFA, che opera in ambito OMS, che non sempre va estremamente
d’accordo con l’Agenzia Europea per la Sicurezza Alimentare. Ciò significa che dobbiamo essere attenti a quello
che avviene dentro e fuori Europa perché poi dalle valutazioni di carattere tossicologico escono fuori i limiti, quelli
che determinano poi lo stato di conformità delle produzioni alimentari.
Qui c’è il Direttore e sa che sforzi vengono fatti per armonizzare quello che viene stabilito a livello della Commissione
Europea con quello che viene invece deciso a livello del Codex Alimentarius. Quali punti di frizione possono
originarsi da diverse visioni che tuttora sussistono perché noi non dobbiamo dimenticare che per quello che
riguarda la sicurezza alimentare siamo in un Paese che ha sempre avuto un approccio molto cautelativo. Basta
pensare alla norma sugli additivi alimentari che è datata 1965, è stato il primo esempio di norma che era costruita
sul principio della lista positiva, cioè io infilo in un prodotto alimentare ciò che valuto prima. Adesso sembra una
cosa scontata perché è patrimonio di tutti, ma allora invece non era così e questo tipo di approccio permane e
fa sì che se noi andiamo a scartabellare nelle varie tabelle dei limiti nei prodotti alimentari dei metalli pesanti
definiti a livello europeo e li confrontiamo a livello del Codex Alimentarius abbiamo la possibilità di fotografare
immediatamente questa divaricazione.
Per valutare dobbiamo studiare l’esposizione della popolazione. Abbiamo diversi modelli, io ne ho riportati due.
Studi riferiti a dieta totale e studi per gruppi di alimenti. Qui un’aperta parentesi: noi abbiamo sempre più una
popolazione diversificata e composta, questo comporta abitudini alimentari diverse e dobbiamo, e questo viene
fatto sempre più, essere attenti anche a quelli che sono definiti segmenti di popolazione vulnerabile, farci carico
del destino dei diversi segmenti di popolazione.
Due casi recenti, a titolo esemplificativo, che sottolineano qual è l’atteggiamento che l’Italia ha relativamente al
problema della tutela della salute della popolazione in relazione alla presenza di contaminati chimici. Qui parliamo
di metalli pesanti. Il Direttore sorride perché c’è stato un problema recente relativo al riscontro di elevati contenuti
di cadmio in granciporri, in crostacei di dimensioni significative che venivano da Paesi quali la Francia, la Spagna
e il Portogallo. Anche qui il limite di legge in un prodotto alimentare, secondo la visione italiana che poi è stata
raccolta a livello europeo, è un limite di legge vincolato al concetto di edibilità, cioè il livello ha senso se io tengo
conto di quella porzione di alimento che consumo. L’alimento ha spesso parti che non vengono consumate. Per
quello che riguarda il granchio, esso é costruito da una parte “muscolare”, un tessuto chiamato tessuto bianco, e
una parte chiamata epatopancreas che raccoglie una parte viscerale.
Il cadmio va a raccogliersi preferibilmente nella parte viscerale e lì si determinano quei fattori di concentrazione e
accumulo a cui faceva riferimento il Dr. Carere.
Le abitudini italiane alimentari fanno sì che noi consumiamo tutto il prodotto. Noi abbiamo fatto incontri pure con
la diplomazia francese proprio per sottolineare il fatto che per noi era impossibile, nell’ambito della tutela della
salute della popolazione, riferire il contenuto solo alla parte muscolare perché di fatto il consumo riguardava tutto.
Alla fine questo ha portato a una serie di discussioni in ambito comunitario che ha fatto sì che arrivassimo ad una
ridefinizione della norma e a un’indicazione precisa al consumatore decisa in ambito comunitario. La normativa
Arezzo 20 - 23 novembre 2012
185
21 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
quindi va avanti anche grazie a quello che viene proposto e fatto a livello nazionale.
Concludo per dire una cosa: per lavorare bene ed essere attivi e produttivi nelle sedi che contano c’è bisogno di
dati. Di dati che siano affidabili, di dati che siano di qualità. Io lavorando a contatto quotidiano con la Direzione
del Ministero della Salute sottolineo sempre l’urgenza assoluta di prendere questi dati e utilizzarli per trasformare
la norma laddove è necessario e per ridisegnare le cose. Noi siamo tra i Paesi che producono maggiormente
dati analitici, il che significa anche costi, risorse, cosa di cui in questi tempi difficili è necessario porre particolare
attenzione.
E’ giusto utilizzarli nell’ambito di quello che maggiormente è richiesto oggi. Tutta la normativa sulla sicurezza
alimentare richiama il concetto di valutazione del rischio, orbene la valutazione del rischio è possibile solo se
abbiamo la disponibilità di numeri e di quelli ne abbiamo urgente bisogno.
186
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
21 Novembre
Microinquinanti e catena alimentare: valutazione del rischio sanitario
"La valutazione del rischio connesso ai suoli agricoli in Siti Contaminati"
Fabiana Vanni Istituto Superiore di Sanità
L’intervento presenta una panoramica delle problematiche connesse alla presenza di aree agricole in Siti
Contaminati.
Come è noto, la normativa in materia ambientale, il D. Lgs. 152/2006, stabilisce, specificatamente nel titolo V
della parte quarta, le modalità di bonifica e di gestione dei siti contaminati. In particolare, per quanto riguarda le
aree agricole, l’articolo 241 rimanda ad un successivo regolamento, da adottare di concerto tra i vari ministeri,
che dovrebbe individuare gli interventi da realizzare per quanto attiene alla bonifica ed al ripristino ambientale di
tali aree. Di fatto però questo regolamento non è mai stato emanato.
Per quanto concerne i limiti normativi per destinazioni d’uso del suolo, nell’allegato 5, sono previsti soltanto le
destinazioni d’uso quali verde pubblico, privato e residenziale, e destinazione d’uso commerciale e industriale,
quindi in Italia non esiste una specifica normativa per i suoli agricoli.
Si pone, di conseguenza, il problema della valutazione del rischio connesso alla presenza di aree agricole, che
sono presenti anche in maniera molto estesa all’interno di siti contaminati, spesso anche di interesse nazionale.
L’approccio gestionale per le aree costituite da suoli a destinazione d’uso diverso prevede l’applicazione dell’Analisi
di Rischio (AdR) quando vengono superate i limiti normativi. L’AdR permette sia di stimare quantitativamente il
rischio che di calcolare gli obiettivi di bonifica, cioè le concentrazioni soglia di rischio a tutela sanitaria. Di contro,
per le aree a destinazione d’uso agricolo, si ritiene più opportuno non utilizzare uno strumento standardizzato,
bensì ricorrere ad una valutazione dell’esposizione della popolazione che si ritiene avvenga, principalmente,
mediante la dieta, con il consumo di alimenti prodotti nell’area. Ciò è dovuto a causa del possibile trasferimento
della contaminazione dal suolo alla pianta, passando, quindi, nei vegetali ed entrando, successivamente, nella
catena alimentare.
In tutti i casi, comunque, è necessario ricostruire il modello concettuale del sito. Quest’ultimo, mediante
la definizione degli elementi di interesse - cioè la sorgente di contaminazione, meccanismi di trasporto della
contaminazione stessa e il bersaglio - descrive la situazione del sito. Si ricostruisce la storia dell’area, la
presenza di eventuali impianti industriali o di tutte le attività di origine antropica che possano determinare, o aver
determinato, una contaminazione presente o pregressa; successivamente si effettuano i vari sondaggi necessari
allo caratterizzazione.
In particolare per quanto riguarda le aree agricole, si ritiene che il modello concettuale possa essere espresso
mediante due distinti modelli: l’ambientale e il sanitario. Nel modello concettuale ambientale il bersaglio è costituito
da una matrice ambientale, quindi specificatamente dalle aree agricole o a pascolo che sono oggetto dello
studio. Le sorgenti sono tutte le attività di origine prevalentemente antropica e, quindi, industriale. In questa fase
vengono individuati i contaminanti indice dell’area, caratteristici sia per le loro caratteristiche tossicologiche che
per l’elevata concentrazione con la quale vengono riscontrati. Il trasporto avviene mediante fenomeni atmosferici,
quali la dispersione atmosferica, la ricaduta polveri nonché l’infiltrazione delle acque piovane.
Nel bersaglio sanitario invece, quello che prima si configurava come bersaglio, cioè la matrice ambientale, diventa
adesso la sorgente. Conseguentemente le aree agricole, in particolare gli alimenti che esse stesse producono,
sono la potenziale fonte di contaminazione. Il bersaglio è costituito dalla popolazione generale ed il trasporto
avviene mediante la dieta e, quindi, mediante il consumo di alimenti vegetali prodotti in loco.
Qual è, quindi, la strategia di gestione e/o monitoraggio prioritaria? Come detto è la valutazione dell’esposizione,
causata specificatamente dal potenziale passaggio suolo-pianta; ne consegue che gli alimenti di origine vegetale
siano la matrice da campionare in via prioritaria perché possono entrare più direttamente nella catena alimentare.
E’ pur vero che la presenza di colture foraggere e/o di pascoli può portare la contaminazione anche negli animali e,
successivamente, negli alimenti di origine animale. In funzione dello studio delle aree, delle coltivazioni presenti,
di eventuali tipologie di allevamento, ecc. si sceglie la tipologia alimentare (le varie matrici) ed è evidente che
quanto più varia è la tipologia di matrici campionate tanto più caratteristica risulta la descrizione dell’area oggetto
di studio, tenendo conto, eventualmente, anche della variabilità stagionale dei prodotti.
E’ opportuno sottolineare sempre la necessità di dati affidabili, valutandone la numerosità campionaria e la
comparabilità, nonché l’uso di metodiche validate corredate da limiti di rilevabilità comparabili.
A fronte di tante metodiche utilizzate nella valutazione del rischio, è possibile proporre un approccio unificato per
le aree agricole al fine anche di avere una gestione più organica delle stesse? E quando utilizzare i limiti normativi
sui prodotti alimentari? I limiti normativi vanno utilizzati chiaramente sempre laddove disponibili, ma tali limiti sono
previsti solamente per alcuni analiti. Il Reg. 1881/2006, per esempio, per le matrici ortofrutticole riporta limiti solo
Arezzo 20 - 23 novembre 2012
187
21 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
per il piombo e per il cadmio. In assenza, quindi, di limiti normativi si procede ad una valutazione dell’esposizione
che richiede la necessità della conoscenza dei consumi alimentari. Questo costituisce l’anello più debole della
valutazione proprio per la difficoltà di reperire tali dati di consumo. A livello nazionale sono disponibili gli studi
dell’INRAN che, periodicamente, fornisce i dati di consumo anche in base all’età, alla provenienza geografica,
al sesso. Eventuali problematiche possono essere legate alla modalità con le quali i dati sono aggregati o
disaggregati e, di conseguenza, si può incorrere in sovrastime o sottostime dell’esposizione stessa.
Per aree agricole destinate al commercio nazionale sono utilizzabili questi studi; di contro, per aree agricole
con una produzione destinata al consumo locale, sarebbe preferibile ricostruire le abitudini specifiche alimentari
dell’area e utilizzando questionari e/o diari, valutando, nel contempo, le problematiche legate ai costi.
Una volta effettuata la scelta dell’aggregazione delle matrici si procede all’elaborazione statistica nell’ambito delle
voci alimentari individuate; si calcolerà la quantità di contaminanti assunta e, sommando le varie voci alimentari,
si può valutare l’intake totale mediante tutte le voci individuate.
Questa è semplicemente una tabella nella quale è mostrato un calcolo che era stato effettuato. Come vedete qui,
per esempio, l’aglio e la cipolla erano state individuate separatamente come dati di consumo mentre nella frutta
fresca o nella frutta secca afferivano diverse matrici.
Si giunge, poi, alla valutazione vera e propria quindi, come già accennato in precedenza, ci sono vari organismi
internazionali che fissano parametri tossicologici espressi come dosi tollerabili sia su base giornaliera che
settimanale.
Qui brevemente è riportato a sinistra un Tolerable Daily Intake, quindi base giornaliera, e a destra un intake
su base settimanale, altro parametro da considerare è il peso corporeo. La percentuale di A rappresenta la
percentuale di accettabilità del contaminante stesso. Tale parametro può assumere valori compresi nel range
da 0 a 100 ed è chiaro che, a seconda di come è stato pianificato il monitoraggio iniziale, si può decidere di
accettare un valore più o meno elevato; ad esempio se in partenza si è già tenuto conto della variabilità dovuta
ai vari alimenti coltivati, si potrà considerare un’accettabilità più elevata, altrimenti si dovrà tener conto anche del
possibile intake dovuto ad alimenti non monitorati.
In questa seconda modalità, in analogia alla procedura standardizzata utilizzata nei software, viene utilizzato
per la valutazione del rischio l’approccio statunitense e, quindi, si calcola l’Average Daily Dose, la dose media
assunta, e la Lifetime Average Daily Dose rispettivamente per sostanze caratterizzate da effetti tossici con soglia
e da sostanze cancerogene, più specificatamente con meccanismo genotossico. Entrano in gioco altri parametri
di esposizione quali la frequenza e la durata. In particolare l’Averaging Time, cioè il tempo sul quale l’esposizione
viene mediata, differenzia le due formule, in quanto per i tossici caratterizzati da un effetto con soglia l’Averaging
Time è pari alla durata effettiva dell’esposizione, per sostanze cancerogene genotossiche, invece, si considera
pari all’arco dell’intera vita, in quanto l’effetto cancerogeno può esplicarsi anche molto tempo dopo la cessata
esposizione.
Si prosegue con la stima quantitativa del rischio, per le sostanze caratterizzate da una soglia si calcola l’Hazard
Index e il valore di accettabilità in questo caso può assumere valori nel range 0-1 con possibili considerazioni
analoghe a quelle fatte in precedenza per il TDI e per il TWI. Di contro, per la stima quantitativa per le sostanze
cancerogene, il rischio assume un concetto diverso ed è espresso come la probabilità incrementale dell›insorgenza
di tumori in una popolazione esposta rispetto ad una popolazione non esposta. L›accettabilità del rischio, quindi,
assume dei valori che chiaramente devono derivare da una considerazione di tipo etico e di utilità sociale,
effettuando sempre delle considerazioni rischio-beneficio.
Nella normativa nazionale per i suoli a destinazione d’uso verde o commerciale e industriale è accettato 1 caso
incrementale su 1 milione di esposti; a livello internazionale sono usati anche valori più bassi.
Brevemente si conclude dicendo che si è cercato, con questo studio, di presentare una proposta mirata ad una
organica possibilità di gestione delle aree agricole, con la raccomandazione di effettuare sempre delle valutazioni
sito-specifiche.
La valutazione del rischio che tiene conto dei tassi di consumo giornaliero è chiaramente applicabile anche agli
alimenti di origine animale. E’ bene sottolineare che, nelle fasi valutative, entrano in gioco dei parametri ai quali
possono essere attribuiti valori diversi più o meno conservativi, quali la durata e la frequenza di esposizione,
nonché il tasso di consumo, l’Intake Rate, per il quale si è considerato che tutti i consumi provengano dalla
particolare area studiata. Anche in questo caso quindi si può essere più o meno cautelativi, a scapito di una più
realistica caratterizzazione delle condizioni dell’area.
Tutte le considerazioni sui superamenti di valori soglia o sul rischio incrementale accettabile per gli effetti
cancerogeni devono venire da una valutazione attenta, per giungere ad una comunicazione con l’utenza finale
che poi è lo scopo principe di tutte le valutazioni.
188
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
22 Novembre
Cambiamenti ambientali globali, rischio chimico e infettivo: verso una prevenzione integrata
"Zoonosi e rischi emergenti"
Paola Scaramozzino IZS Lazio Toscana – Osservatorio epidemiologico
L’approccio allo studio delle zoonosi ed alla loro sorveglianza è cambiato rispetto a quello classico, presentato
nei libri di testo di Medicina o di Veterinaria. Il motivo per cui si parla di rischi emergenti in rapporto alle zoonosi
è perché sono sopraggiunti negli ultimi decenni, dei nuovi pericoli in ambito infettivo, intesi come nuovi agenti
patogeni che si possono trasmettere dagli animali all’uomo. A questo si deve aggiungere un cambiamento dei
rischi provocati dai classici agenti patogeni a causa di un cambiamento delle vie di esposizione e di un parallelo
cambiamento delle fasce di popolazione esposta e della loro consapevolezza dei pericoli. Attualmente risulta
particolarmente interessante studiare la classica esposizione derivante dal contatto con gli animali e dalla
ingestione di alimenti di origine animale alla luce dei cambiamenti ambientali che possono influire sulla probabilità
di contagio. Questi cambiamenti devono essere intesi sia come cambiamenti climatici sia come cambiamenti
sociali. Il concetto di globalizzazione si collega sicuramente ad una facilità di spostamento delle persone che era
assolutamente impensabile fino a alcuni decenni fa, ma anche all’enorme trasporto di merci su rotte che, a volte,
sono sconosciute e che vengono approfondire soltanto quando si pongono dei problemi sanitari che prima non
erano mai stati affrontati. Inoltre la distruzione di alcuni ecosistemi ha comportato una variazione dell’interfaccia
uomo-animale-ambiente tale da produrre dei nuovi rischi.
Per quanto riguarda le vecchie zoonosi, quali la tubercolosi e la brucellosi, queste sono ben conosciute sia dai
medici sia dai veterinari. Quello che può cambiare anche relativamente a queste classiche patologie è il modo
in cui la popolazione umana o, a volte, anche la popolazione animale, può essere esposta. Ad esempio, la
tubercolosi umana sta aumentando e la trasmissione zoonotica tradizionale dalle vacche da latte all’uomo, si
sta invertendo: alcune vacche da latte si infettano da personale addetto alla loro cura che viene da paesi in via
di sviluppo, dove a volte la tubercolosi è ancora molto diffusa. Vi sono però anche dei nuovi agenti patogeni o
comunque degli agenti patogeni non sufficientemente studiati o conosciuti nella nostra pratica clinica o strategia
di prevenzione, aggiornata ormai ad alcuni anni fa. Pensiamo soprattutto al problema degli Escherichia coli
enteropatogeni i quali, rispetto ai ceppi che eravamo abituati a conoscere, hanno acquisito dei fattori di virulenza
molto più preoccupanti. Altro esempio può essere costituito dall’Influenza pandemica, che è esistita storicamente
anche in passato, tutti noi conosciamo quella spagnola, ma il turbamento sociale provocato dalla preoccupazione
che le influenze aviarie potessero compiere il salto di specie e diventare la nuova pandemia, è stato un evento del
tutto nuovo. Per fortuna, fin’ora, il pericolo non si è concretizzato, almeno non nei termini di cui si temeva.
L’antibioticoresistenza è una zoonosi, inteso come un problema sanitario grave nell’uomo, che deriva anche,
ma non solo, da un approccio alla terapia in medicina veterinaria che comporta, così com’era già successo
in medicina umana, un abuso di antibiotici. Tutto questo provoca sicuramente la selezione di ceppi batterici
resistenti, che poi facilmente passano dagli animali all’uomo e viceversa.
Nella regione Lazio si sono verificate delle epidemie di Opistorchiasi. Questa patologia, fino a pochi anni fa
praticamente sconosciuta in Italia anche dai parassitologi, nel Lazio attualmente è diventata una patologia
abbastanza rilevante, considerando che ogni estate degli ultimi 4-5 anni si registrano casi isolati o vere e proprie
epidemie, dovute a consumo di pesce di lago crudo. Questo alimento, il cui consumo si è affermato solo negli
ultimi anni, perché non era nella nostra tradizione culinaria, causa una patologia epatica nell’uomo sconosciuta
per lo più ai medici.
Il paradigma di tutti i nuovi pericoli dovuti ai cambiamenti ambientali e climatici è rappresentato sicuramente dalle
malattie trasmesse da vettori. Il clima, inteso come parametri di temperatura e di umidità, sicuramente influisce
sullo sviluppo degli insetti vettori di malattie infettive, in particolare di virus, ma anche sulle modalità con cui i virus
replicano all’interno dei vettori stessi. Quindi, per quanto riguarda il riscaldamento globale, c’è una doppia azione
che fa sì che la pressione infettante, quindi la forza d’attacco di alcune patologie virali trasmesse da vettori, sia
enormemente aumentata, anche alle nostre latitudini.
Parlando di zoonosi tradizionali, le categorie di popolazione che noi eravamo abituati a studiare come categorie
esposte erano agricoltori, allevatori, veterinari o macellatori. Fondamentalmente tutti coloro che per un motivo o
per un altro erano a contatto con gli animali in ambiente rurale. Sicuramente un contadino era esposto più di una
persona di città fino a cinquant’anni fa alla echinoccosi o alla brucellosi per esempio. Attualmente esistono nuove
categorie esposte a rischi zoonosici, pensiamo per esempio agli escursionisti, che sono sicuramente aumentati
negli ultimi decenni e che sono la categoria di persone maggiormente interessati da attacchi da zecche e alle
patologie da loro trasmesse. Questo fenomeno, in alcuni parchi ed aree naturali del Nord Italia, ad esempio in
Veneto, ha costituito un grosso problema, al punto tale che alcuni parchi sono stati chiusi per alcuni mesi perché
la numerosità di artropodi, in particolare di zecche; costituiva un grosso rischio per i visitatori.
Arezzo 20 - 23 novembre 2012
189
22 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
Un altro esempio è costituito dai consumatori “globali”, dipendenti dalla grande distribuzione. Un episodio
emblematico si è verificato nel caso dei germogli che hanno provocato, nel 2011, l’epidemia di E.coli enterotossici.
L’episodio ha dimostrato che, quello che prima poteva essere limitato a una ristretta cerchia di persone che
consumavano i prodotti di una certa area geografica, attualmente facilmente si estende praticamente all’intera
Europa, ormai diventata un mercato unico. Nel caso specifico, come si è scoperto purtroppo solo alcune settimane
dopo l’epidemia, una ditta che produceva germogli vegetali ad uso alimentare umano (non soltanto di soia), li
vendeva ad altre ditte che producevano anche alimenti cosiddetti “ready to eat”, come le insalate pronte. In questo
modo si è diffuso un contagio in molti paesi europei, da una specie vegetale contaminata che probabilmente in
origine proveniva dall’Egitto. Di fatto è più difficile ora identificare una o più specifiche categorie di persone a
rischio; piuttosto siamo diventati tutti a rischio anche relativamente a nuovi e sconosciuti pericoli.
Relativamente al concetto di One health è opportuno riportare i risultati di studi retrospettivi sulla possibile origine
di alcune malattie umane secondo i quali alcuni Autori affermati sono giunti alla conclusione che il 70-75% delle
patologie infettive dell’uomo derivano da agenti patogeni analoghi negli animali che, dopo un periodo di mutazione
e selezione, si sono adattati all’uomo occupando un’altra nicchia ecologica. Da questo si evince che l’interfaccia
animali-uomo debba essere uno dei principali bersagli della prevenzione, almeno per quanto riguarda il rischio
infettivo. Diamond ha studiato quali possono essere i passaggi per cui un virus, o comunque un agente patogeno,
dagli animali possa passare all’uomo nell’arco di centinaia di anni. Ha ipotizzato questo tipo di evoluzione: i
microrganismi che causano malattie presenti inizialmente solo negli animali, come attualmente potrebbe essere
l’afta epizootica nei Paesi in cui ancora essa è presente, diventano progressivamente agenti patogeni in grado di
passare all’uomo. In una prima fase però non sono ancora in grado di trasmettersi da uomo a uomo o comunque
la trasmissione interumana è autolimitante.
In questo passaggio riconosciamo bene la West Nile Disease che può presentarsi nell’uomo anche in forma
clinica molto grave, ma per fortuna non è trasmissibile da uomo a uomo ma deve sempre essere trasmessa da
puntura di insetti, che a loro volta si sono infettati da animali.
Il terzo passaggio in questo caso è rappresentato da virus anche molto pericolosi, quali l’Ebola, il Marburg, agenti
di malattie emorragiche, che sicuramente originano da animali (in questo caso dai primati del centro Africa) ma
di tanto in tanto passano alla popolazione umana e diventando trasmissibili da uomo a uomo, e quindi possono
causare epidemie nella popolazione umana, anche se per ora ancora limitate. Il quarto stadio è costituito da
agenti infettanti che invece, pur provenendo in origine dagli animali, hanno quasi occupato la nicchia umana
come principale zona di colonizzazione. In questo riconosciamo la febbre gialla, il virus della dengue e anche
alcuni virus influenzali. Tra questi ultimi, alcuni ceppi sono più legati ad alcune specie animali, mentre invece altri
sono tipicamente umani. Tra di essi però ci sono dei ponti, cioè dei ceppi mutanti di virus influenzali che hanno
delle caratteristiche intermedie e che si dice possano compiere il salto di specie. Sono gli agenti patogeni che
probabilmente hanno costituito il gradino immediatamente precedente a quei virus che ormai si sono tipicamente
specializzati sull’uomo.
Il quinto passaggio infine sono è rappresentato dalle malattie tipiche della specie umana che pur non essendo
minimamente infettanti per gli animali, si pensa, vista appunto la storia naturale che è stata descritta per gli altri
agenti, che possano aver avuto in passato un’origine, data anche la loro vicinanza filogenetica, con analoghi
agenti negli animali.
Tra i fattori estrinseci che possono provocare un rischio emergente di zoonosi sono i mutamenti ambientali,
in particolare i climatici ma anche quelli economici e sociali. C’è però un elemento che può esser tenuto sotto
controllo: quello della prevenzione. Laddove i meccanismi di prevenzione falliscono perché non sono preparati a
questi cambiamenti, ovviamente questo costituisce un punto di debolezza per la nostra difesa.
Adesso faremo una carrellata di quali sono i rischi emergenti dal punto di vista zoonotico e perché sono diventati
emergenti. Parliamo delle malattie trasmesse da vettori. La zanzara Aedes albopictus (zanzara tigre) è stata
introdotta negli anni ‘90 tramite il commercio di copertoni usati. Probabilmente in ambito sanitario nessuno
immaginava che fosse così importante e così esteso a livello mondiale il commercio di copertoni di camion usati.
E’ diventato invece un argomento di attualità, ed è stato anche oggetto di normative specifiche da quando si è
scoperto che è stato il mezzo con cui in Europa sono entrate delle specie di artropodi che erano esotiche fino
a 15 anni fa. D’altronde c’è anche un aumento di persone che si dedicano nel tempo libero ad attività outdoor ,
sportive od escursionistiche, che fa sì che le malattie trasmesse da artropodi, soprattutto zecche, siano diventate
di maggiore attualità. Inoltre sicuramente il riscaldamento globale favorisce sia lo sviluppo degli insetti sia la
moltiplicazione degli agenti patogeni all’interno degli insetti stessi.
Per quanto riguarda la tubercolosi, si è accennato prima alla possibile trasmissione dall’uomo agli animali. Un altro
grosso rischio emergente è costituito dai Micobatteri ultra-resistenti che stanno emergendo e che rappresentano
uno dei più grossi problemi per i medici che affrontano questa patologia nell’uomo. Questo fenomeno ha fatto
riemergere l’attualità della problematica della terapia per la tubercolosi, dopo che per un lungo periodo questa
era stata relativamente semplice. In questo quadro si può inserire come nuovo motivo di complicazione , le
190
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
22 Novembre
immunodeficienze di origine infettiva o terapeutica.
Abbiamo accennato prima alle mutazioni virali, che interessano in particolare i virus influenzali, fortemente
soggetti a mutare ad ogni ondata epidemica che è così è sostenuta da ceppi diversi, che derivano da mutazione
dei ceppi precedenti e che solo in parte somigliano dal punto di vista antigenico al gruppo di virus da cui derivano.
Per quanto riguarda alcuni ceppi di influenza aviaria ed influenza suina, questi sono ritenuti quelli più pericolosi
per l’uomo, in quanto i determinanti infettanti sulle membrane e sui capsidi di questi virus sono quelli che più si
adattano ai recettori dell’apparato respiratorio umano. Quindi le popolazioni di polli e di suini sono oggetto di
controllo dal punto di vista dell’attività di sorveglianza in medicina veterinaria, non solo e non tanto nell’ambito
della sanità animale ma anche e soprattutto in un ambito preventivo nei confronti della popolazione umana. Anche
la SARS, che è tipicamente umana, riconosce un’origine da mutazione di coronavirus animali.
Le nuove tecnologie alimentari hanno determinato l’insorgenza della BSE (Bovine Spongiform Encephalopathy)
. L’argomento è di minore attualità adesso in quanto attualmente la malattia è sotto controllo, nonostante abbia
generato un’ondata panico in ambito veterinario una ventina di anni fa in tutta Europa. Diverse decine di casi sono
stati riscontrati nei bovini anche nel nostro Paese. Adesso non se ne parla più anche se continuano ovviamente
le campagne di controllo negli animali. Non si registrano più casi perché è stato rimosso il fattore di rischio
consistente nella somministrazione alimentare ai bovini da latte di proteine animali derivanti dagli stessi bovini,
probabilmente originariamente infettati con ceppi di Scrapie, una malattia analoga della pecora che però non ha
carattere zoonotico. E’ stato promosso il bando delle farine animali, ma oltretutto sono anche per fortuna cambiate
le tecnologie di produzione per cui anche i mangimi vengono prodotti con tecnologie diverse, più sicure. La BSE
attualmente non rappresenta più un grosso pericolo però lo è stato ed è un esempio di quello che può succedere
in ogni momento. Può essere sufficiente un cambiamento in una tecnologia di preparazione alimentare, per far
sì che si che emergano dei rischi sconosciuti precedentemente.
Delle nuove tendenze alimentari, si è già parlato a proposito dell’Opisthorchis, ma un altro esempio di pericolo
sono le insalate ‘ready to eat’ di recente diffusione. Risulta particolarmente comodo comprare delle buste di
insalata pronta al supermercato che non deve essere lavata. In realtà sono stati fatti degli studi per cui queste
insalate sono altamente contaminate sia da diverse specie di germe saprofiti e patogeni, ma anche in alcuni
casi da oocisti protozoarie, tra cui il toxoplasma. Quindi fondamentalmente anche la modalità di alimentarsi e di
commercializzare alimenti può in qualche modo influire sul rischio di zoonosi.
La deforestazione, o comunque la distruzione dell’ambiente naturale, può essere un elemento predisponente a
nuovi rischi sanitari, non tanto in occidente, quanto in Paesi in via di sviluppo. La deforestazione ha provocato una
maggiore facilità di contatto tra animali e uomo in paesi tropicali ed è ciò che probabilmente ha provocato anche
l’insorgenza delle malattie emorragiche citate precedentemente. Stessa origine hanno avuto i casi di Nipah virus
nei suini e nell’uomo in alcuni Paesi asiatici. Una situazione analoga, riferibile in questo caso ad un ambiente
artificiale, può aver causato le epidemie di norovirus. I norovirus, di per sé non eccessivamente patogeni,
sono diventati estremamente attuali dopo aver provocato diverse epidemie nelle navi da crociera, interessando
contemporaneamente migliaia di persone, esposte ad un unica fonte idrica che è il deposito-cisterna della nave.
Quello che di per sé quindi è un agente patogeno non particolarmente pericoloso, diventa un elemento di attualità
in sanità pubblica in seguito ad un mutamento sociale, quale il fenomeno di massa delle vacanze in crociera.
Il consumo di pesce crudo è aumentato in seguito all’acquisizione di abitudini alimentari tipicamente orientali.
Ciò ha comportato l’insorgenza nel nostro Paese di patologie che, pur non essendo nuove, (l’Opistorchis è stato
descritto nel gatto per la prima volta in Italia nell’Ottocento), non erano conosciute dai medici fino a pochi anni fa.
Per la diffusione dell’Anisakiasi vale lo stesso discorso, considerando che praticamente quasi tutte le specie dei
nostri mari sono almeno potenzialmente infettate da larve di Anisakis.
Il carbonchio ematico da Bacillus anthracis era una patologia nota in ambito rurale. Tutti i veterinari e gli allevatori
conoscevano il carbonchio, ma nessuno in ambito cittadino. L’agente patogeno è diventato noto alla popolazione
generale da quando è stato usato in episodi di bioterrorismo negli Stati Uniti.
Di recente, lo stesso agente patogeno è tornato di attualità, per una situazione ancora diversa: il bacillo del
carbonchio ha contaminato delle partite di eroina importate in Europa, causando delle epidemie carbonchio tra i
tossicodipendenti in Germania ed in Olanda. E’ stata una evenienza assolutamente inaspettata e probabilmente
anche riconosciuta in ritardo visto che non era una cosa facile da sospettare.
Dell’antibiotico resistenza, in ambito medico, un dato interessante è riportato dal CRAB (Centro di referenza per
l’antibiotico resistenza, presso l’IZSLT): più del 50% dei ceppi di salmonella isolati dal suino sono multi resistenti,
cioè resistenti a più di quattro categorie di antibiotici, quindi praticamente molto difficili da trattare.
L’Echinoccosi-idatidosi e la Trichinellosi sono zoonosi classiche piuttosto conosciute dai medici e dai veterinari.
L’ Echinoccosi-idatidosi in Sardegna è una malattia endemica, costante nel tempo, il cui controllo non si è mai
raggiunto, nonostante sia stato perseguito dagli anni ‘60 in poi. Di recente poi è emersa una incongruenza nel
sistema di notifica europeo. L’Italia è l’unica nazione a livello europeo che non riporta i casi umani di Echinoccosi
idatidosi, cioè gli altri nostri colleghi medici europei non sanno ufficialmente che in Italia c’è l’Echinoccosi idatidosi
Arezzo 20 - 23 novembre 2012
191
22 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
nell’uomo e che in una Regione, la Sardegna appunto, questa è addirittura endemica. Un altro esempio di
mutamento sociale che influenza l’andamento di una patologia è costituito dalla Trichinellosi. Questa era una
patologia molto confinata, dal momento che nei Paesi già sviluppati praticamente non costituiva più un problema.
Negli anni ‘90, in seguito al crollo del muro di Berlino nei Paesi dell’Est europeo molte famiglie sono ritornate ad un
economia rurale, quindi allevavano il maiale in casa. Inoltre, era venuto contemporaneamente a crollare il sistema
ufficiale di controlli; di conseguenza le carni venivano consumate senza che ci fossero adeguati controlli sanitari.
Ciò ha comportato un aumento inaspettato nei primi anni ‘90 di casi in Europa dell’Est di Trichinellosi umana.
Voglio infine solo accennare al problema dei contaminanti chimici negli alimenti, trattato in altre relazioni, che può
essere una nuova frontiera per medici e veterinari impegnati nella prevenzione, da non trascurare.
In conclusione il ruolo che i veterinari possono avere nell’ambito della prevenzione delle malattie nell’uomo è
ancora attuale, pur in contesti climatici, economici e sociali mutati rispetto al passato. La base di ciò va senz’altro
ricondotta alla loro esperienza nell’ambito del controllo delle malattie infettive, ma anche nelle competenze di
base di epidemiologia, management sanitario e gestione di interventi sanitari sul territorio.
192
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
22 Novembre
Cambiamenti ambientali globali, rischio chimico e infettivo: verso una prevenzione integrata
"Molluschi e biomonitoraggio ambientale"
Mario Latini SIMeVeP / IZS Umbria e Marche
Questa presentazione è perfetta come esempio di come il biota, in questo caso i molluschi bivalvi, possa essere
utilizzato sia come indicatore sanitario che come indicatore ambientale.
Il monitoraggio dei molluschi bivalvi, dal punto di vista sanitario, analizza una serie di sostanze chimiche, di
microbi e di biotossine di origine algale. Nonostante siano abbastanza gli analiti che si vanno a cercare nei
molluschi bivalvi, essi sono i realtà solo una minima parte di quanti se ne possono riscontrare. Esistono tante
altre possibilità di ricerca che non rientrano nei piani di monitoraggio ufficiale dal punto di vista sanitario perché
non sono normati. Non sono normati in quanto non si conosce bene il rischio reale di una sostanza chimica o di
un germe in particolare o di un virus. In realtà, per questioni di ricerca pura o in alcuni piani di monitoraggio locali,
queste ricerche vengono effettuate. In effetti una piccola produzione di nicchia così quale quella dei molluschi
bivalvi, la frequenza dei controlli nelle zone di produzione è molto alta. Basta pensare che le biotossine algali si
ricercano almeno una volta alla settimana, mentre l’Escherichia coli e la salmonella ogni 15 giorni o una volta al
mese a seconda dei rischi. Abbiamo quindi una miriade di dati prodotti per questioni sanitarie.
Le aree classificate su cui vengono fatte queste ricerche sono ovviamente concentrate molto in Adriatico e nel
Nord Adriatico in quanto lì è il punto dove si produce il maggior numero di molluschi bivalvi. Abbiamo circa 470
aree in Italia, siamo tra quelli che ne hanno di più in Europa, quindi abbiamo una buona visione di quello che
succede nei mari italiani.
Queste ricerche vengono fatte, dal punto di vista microbiologico, dopo una sorveglianza sanitaria. La sorveglianza
sanitaria è un’analisi legata agli inquinanti organici della zona di produzione che considerano una serie di
informazioni ambientali. Quando si classifica un area per poter raccogliere, produrre e vendere molluschi bivalvi,
devo fare inizialmente una analisi della zona che consideri una serie di parametri per conoscere se quella zona è
a maggior o minor rischio di un inquinamento microbico. Si va dalla salinità, alle maree, alla pioggia, alla direzione
dei venti, alla batimetria e tutta una serie di altre analisi.
Il Centro di Referenza Nazionale per il Controllo Microbiologico e chimico dei molluschi bivalvi vivi (CEREM), sito
presso l’Istituto Zooprofilatico Sperimentale Umbria Marche di Ancona, elabora anche delle inferenze statistiche
storiche sui dati per studiare cambiamenti stagionali e secolari delle contaminazioni. Si è potuto così accertare
che c’è un aumento dell’inquinamento microbico di E.coli dal 2007 al 2010, mentre a livello stagionale vi sono
degli inquinamenti maggiori nei periodi autunnali e invernali.
Esiste quindi un interazione molto forte fra le nozioni che abbiamo dall’ambiente e quelle che possiamo ricavare
dai dati storici. Tutto questo si riesce a visualizzarlo tramite le mappe tematiche. Per esempio per le Marche in
tutte le zone classificate dove si raccoglie il prodotto, si crea uno storico dell’inquinamento in maniera visiva.
Questo permette di migliorare l’appropriatezza delle azioni nel senso di andare a fare, se vogliamo, dei piani di
monitoraggio mirati. Ovviamente il compito come Istituto Zooprofilattico, essendo nel sistema sanitario, è quello
di proteggere il consumatore. Ciò non vuol dire che tutte queste cose possono morire nella sanità, anzi possono
essere poi trasferite all’ambiente e viceversa. In effetti la sorveglianza sanitaria non viene fatta per gli inquinamenti
chimici, cioè mentre esiste un sistema iniziale di analisi del rischio per determinare il prelievo e l’analisi microbica
nuda, questa analisi non viene effettuata per i prodotti chimici. Abbiamo dei piani di monitoraggio storici in cui le
sostanze chimiche vanno ricercate una volta ogni sei mesi indipendentemente da quanto presente nel territorio.
Nelle Marche, ad esempio, la distribuzione dei risultati di analisi chimiche effettuate negli ultimi tre anni evidenzia
come la distribuizione dei i campioni risulti molto lontana dai limiti di legge. Ci si pone la domanda se ha senso
continuare a fare questo tipo di analisi in questo modo. E’ ovvio che non si può smettere il monitoraggio di
piombo e cadmio, ma ha senso in questo modo? Inoltre in letteratura si indica come la salinità e le sabbie hanno
una influenza molto forte sulle quantità di metalli pesanti nell’acque e quindi anche nel biota. Sarebbe quindi
consigliabile aggiungere nella normativa questa sorveglianza sanitaria prevista per la microbiologia, anche per la
chimica.
Esistono una serie di sostanze chimiche che non vengono analizzate di routine perché non sono normate, ma
sono presenti. Si sono avuti casi di inquinamento da cromo, è noto che l’arsenico in alcune zone è molto presente
o, addirittura, le stesse sostanze chimiche che sin trovano nei molluschi bivalvi possono essere indici di altri
inquinamenti come il vanadio e il nichel, che in sé per sé potrebbe essere non tossici se non a concentrazioni
elevatissime, ma sono comunque molto legati alla contaminazione da idrocarburi.
Esiste un altro mezzo di allerta sull’inquinamento chimico: l’uso dei biomarkers. Esso viene utilizzato molto per
studi ambientali, mentre noj viene utilizzato per studi sanitari. I biomarkers sono delle variazioni fisiologiche che
ha il biota, in questo caso i molluschi bivalvi, quando entra in contatto con un inquinante. E’ un mondo molto
Arezzo 20 - 23 novembre 2012
193
22 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
variegato, esitono decine e decine di biomarkers, va quindi studiato cosa andare a ricercare e come andarlo a
ricercare, però è un mezzo che potrebbe essere molto utile per conoscere una variazione fisiologica dovuta al
cambiamento dell’ambiente e quindi creare un sistema di allerta dovuto ad un cambiamento di origine chimica.
Sono studi di solito molto meno costosi di un’analisi chimica la quale inoltre ricerca generalmente una singola
molecola, o un gruppo di molecole, mentre i biomarker hanno una valenza più ampia rispondendo a stimoli
diversi. Questo tipo di argomento, cioè i biomarkers nei molluschi, ha un centro di eccellenza in Ancona, presso
l’Università Politecnica delle Marche, e nel Laboratorio di Ittiopatologia di Pisa. Ciò vuol dire che non c’è solo
un’integrazione ambiente-sanità, ma c’è anche una rete, un network che può essere molto ben utilizzato, a
volerlo, per questi argomenti.
Negli ultimi anni qualcosa si è mosso perché la Marine Strategies, una normativa europea, che richiede da qui al
2020 un monitoraggio dei mari per capire qual è lo stato dei mari e la loro evoluzione utilizzando diversi indicatori.
Tra questi indicatori l’ISPRA, l’ente preposto all’attuazione di tale normativa, ha voluto scegliere correttamente
utilizzare le informazioni che gli Istituti Zooprofilattici avevano raccolto per motivi sanitari, e che vengono raccolte
dal CEREM e poi insieme al Ministero della Salute date all’ISPRA per poter categorizzare le acque.
Questa è una classica integrazione fra i due mondi, quello ambientale e quello della salute, che può portare a
rivedere anche il discorso di prevenzione. Con le stesse risorse vorrebbe dire riuscire a raggiungere due obiettivi
diversi.
194
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
22 Novembre
Cambiamenti ambientali globali, rischio chimico e infettivo: verso una prevenzione integrata
"Caratterizzazione del rischio e valutazione dell’esposizione alimentare a microinquinanti ambientali monitorati
su biota acquatico: esperienze di campo nel SIN del Sulcis-Inglesiente"
Pierluigi Piras
SIMeVeP / ASL 7 Carbonia
Sono un veterinario, provengo dalla ASL di Carbonia poi ve la racconterò in modo più dettagliato. Sono molto
contento e onorato di essere qui e di rappresentarvi anche la mia esperienza. I due assist importanti, che sono
stati lanciati dai relatori che mi hanno preceduto e che non sono stati concordati, devo raccoglierli per rimarcarli,
perché secondo me alcuni messaggi li dobbiamo “portare a casa”. Chiederci quanto costa la mancata prevenzione
è un tema per quantificare, ma quanto costa la prevenzione “inutile” vogliamo considerarla? La prevenzione inutile
è un costo che distoglie dall’utilizzo appropriato delle risorse, cioè la spending review non è tagliare, è riorientare
le risorse. Vuol dire andare a beccare gli strumenti più idonei per diminuire la prevalenza di malattie. Questo è in
tutta onestà il lavoro “di campo”. La seconda è correlata con la prima ed è la medicina e la veterinaria di campo,
cioè alcuni grossi concetti come l’analisi del rischio sembra che siano temi accademici ma che, secondo me,
se opportunamente declinati in un ambito locale, vanno a caratterizzare il profilo epidemiologico locale che è lo
strumento per fare prevenzione efficace. Non siamo un servizio d’attesa, scusate, o lavoriamo come il “giorno
della pentolaccia”, bendati, a colpire al buio o altrimenti dobbiamo caratterizzare il rischio e avere le priorità locali
all’interno ovviamente di uno scenario nazionale e internazionale dove ha le sue priorità.
I grandi scenari della valutazione del rischio. Chiaro che ha dei sottoinsiemi, dei percorsi codificati ma la cosa
importante è che l’analisi del rischio sia necessariamente la premessa alla gestione del rischio. Se non vogliamo
colpire alla cieca, la gestione del rischio significa che dobbiamo opportunamente caratterizzare il rischio. Da
questa ipotesi, che è concettuale, si può declinare un modello concettuale cioè di come la sorgente, il trasporto e
il bersaglio possa far transitare l’attenzione da un livello ambientale al rischio effettivo sulla persona. Quindi come,
anche della mia esperienza nell’area di Portovesme, oggi nota anche per crisi occupazionale, si possa ragionare
in termini sia di valutazione e di caratterizzazione del rischio, sia in termini anche di valutazione dell’esposizione.
La mia relazione, che è quindi anche il tentativo metodologico di lavorare in ambito locale si basa su queste due
fasi fondamentalmente: la caratterizzazione del rischio e la sua valutazione.
Vado veloce rappresentandovi il Sulcis-Inglesiente, che è un’area del Sud della Sardegna con 130mila abitanti,
e quindi focalizzare l’attenzione su questo territorio. Forse 2000 anni di storia sono quelle documentate di
estrazione mineraria, però già i romani allora minacciavano di mandare in Sardegna “ad metalla” i carcerati. Oggi
forse rappresenta più un premio, ma va considerata la realtà è di un’estrazione mineraria storica, in particolare
del piombo. Oggi quindi il contesto del territorio è caratterizzata non solo da realtà ancora attive, ma di attività
minerarie dismesse, che possono ancora influire sul territorio con le cosiddette “code minerarie”. Pensate che è
un territorio dove l’estrazione pionbo-zincifera era tra gli aspetti principali. Oggi completamente abbandonato e
dove anche l’attività metallurgica nasceva come valorizzazione della produzione primaria di quei metalli. Ripeto:
delle realtà peraltro oggi ancora bellissime, anche di archeologia industriale. Vi mostro le immagini di Porto Flavia,
nel mio Comune di residenza, con anche la possibilità di soluzioni e accorgimenti importanti per scaricare i metalli
direttamente sui vascelli. Però anche realtà di questo tipo, che sono a poche centinaia di metri da casa mia e
di alcuni colleghi qui presenti. Questi sono i cumuli di estrazione, i cosiddetti fanghi rossi. Siamo nel Comune di
Iglesias. Una realtà conosciuta. Dagli anni ‘90 ex area ad alto rischio di crisi ambientale con originariamente cinque
Comuni. È una realtà che vedete rappresentata in quell’area rossa prospiciente alla laguna di Boi Cerbus che
invece è il teatro della nostra indagine. Voglio solo farvi presente che tutte quelle aree gialle sono aree minerarie
dismesse, in particolare di estrazione della galena che è appunto solfuro di piombo e di zinco. Un maggior
dettaglio dell’area vi porta a individuare alcune attività industriali, l’Alcoa, la Portoverme Srl, che sono le industrie
oggi in crisi, anche da un punto di vista occupazionale, che caratterizzano il polo industriale di Portovesme.
L’area che vedete sotto invece è l’area del bacino dei fanghi rossi, sempre di Portovesme, prospiciente l’area di
indagine. Quest’altra immagine è il polo di Portovesme vista dall’Isola di Carloforte. È su uno scenario naturale già
bello, ma io direi con realtà confinate. Questo è il bacino dei fanghi rossi importante e giusto a ridosso la laguna
di Boi Cerbus con una realtà anche abitativa abbastanza recente, Carbonia nasce nel primo dopoguerra.
L’idea è quindi valutare in che termini la focalizzazione dell’attenzione sulla laguna di Boi Cerbus e sugli organismi
acquatici che ci abitano possa rappresentare in un certo senso l’obiettivo di un eventuale inquinamento, ma anche
la misura e la “lettura” di un eventuale inquinamento.
Intanto si localizza in una posizione particolare dove, sia i venti sia lo scarso bacino imbrifero (perché si tratta
di ruscelli, solo nel periodo invernale attivi), possono condizionarla. Sicuramente i venti - il vento in Sardegna, 9
giorni su 10, è il maestrale quindi nord-ovest - e in particolare il ruscellamento, il dilavamento, quindi il movimento
dei sedimenti per quanto riguarda le zone minerarie che vi ho fatto vedere. Insomma che il vento sia importante
Arezzo 20 - 23 novembre 2012
195
22 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
si sa, ecco quello che vi mostro è proprio un albero sulle colline di Portoscuso al tramonto. Un olivastro che è
piegato dal vento già dà un’idea di quanto possa impattare. E ovviamente il ruscellamento, il dilavamento dalla
zona mineraria e industriale verso la laguna. Quanto possa aver inciso la zona industriale e quanto l’attività
mineraria storica è anche oggetto d’interesse della nostra indagine.
Ora vi voglio rappresentare anche un po’ le caratteristiche della laguna velocemente. Vedete sullo sfondo
c’è la ciminiera quindi stiamo parlando di una realtà vera, di oggi, fatta di attività anche produttiva perché ci
sono cooperative di pescatori che vivono del loro lavoro in questa zona. Si tratta di zone umide importanti, qua
riconoscerete sia l’airone che la garzetta ma in volo potete anche intravedere un falco pescatore che è un ottimo
indicatore di salute ambientale perché significa che le prede ci sono e sono in buono stato.
L’area di interesse è di circa 3 km e mezzo, dove troviamo l’affluenza di due rii, il Paringianu e il Flumentepido, e
poi due frazioni urbane che sono direttamente prospicienti l’area di interesse. Ecco su questa area, appunto con i
finanziamenti del SIN del Sulcis-Inglesiente, si è avviata un’indagine con un reticolo, che vedete qui rappresentato,
di campionamento sia di sedimenti che di acqua e di biota.
Potete rilevare nell’immagine le coordinate, i campionamenti sono stati ovviamente georeferenziati. Sui sedimenti
sono stati svolti dei carotaggi alle profondità che vedete rappresentate. A noi è interessato in particolare lo strato
più superficiale perché è quello che dà la biodisponibilità di alcuni microinquinanti. Non voglio commentarvi
queste tabelle, ma per rappresentarvi che sono state cercate per ciascuno strato del sedimento metalli pesanti
microinquinanti. Vedete i valori dei PCB, sia diossina simili che non, e ancora tutti gli IPA e le diossine, quindi
pensate alla mole di dati disponibili.
L’altro commento è che a volte non è che manchino i dati, ma è che non sappiamo interrogarli, o qualcuno dice
“torturarli”, fino a che non parlino. Un’altra delle fonti di risparmio e l’utilizzo efficace della prevenzione è utilizzare
i dati in quanto servono per poter ricavare l’informazione.
Questi sono i tenori di microinquinanti nell’acqua lagunare. Qua è stato facile anche interpolare i dati dei punti di
campionamento in modo da avere una distribuzione statisticamente rappresentativa dell’area. Vi voglio solo dire
che, per esempio, la distribuzione sia del piombo, ma soprattutto del cadmio nell’acqua è esattamente coincidente
con la distribuzione delle argille e dei limi, quindi a rappresentare che il sedimento in alcune porzioni di particolato
è il veicolo di transito del cadmio e del piombo dalla parte mineraria dismessa verso la laguna.
Qua rappresentazione del campionamento del biota, in questo caso pesce. Vedete la laguna prospiciente l’area.
È la stessa cooperativa dei pescatori che in situazioni ordinarie di pesca ha pescato il prodotto su quei punti
georeferenziati. In gran parte è anche il prodotto nobile delle nostre parti, si tratta di mugilidi. In particolare tre
specie, la Liza ramada e la Liza aurata, ma in alcuni periodi anche il Mugil cefalus.
Sono stati quindi prodotti dei pool, che sono stati poi pre-trattati (liofilizzati) per le analisi di laboratorio. La normativa
richiede rigore sulla rappresentatività delle partite. In più anche altre specie, su altri livelli trofici, in particolare il
“ghiozzo gò” e la sogliola comune, insieme a altri animali su livelli trofici ancora più bassi (che sono i molluschi
lamellibranchi), il “cuore” in questo caso, e poi il “granchio da moleca”, come è chiamato in Veneto.
Brevemente cosa abbiamo voluto fare. Intanto applicare l’approccio di confronto normativo e quindi abbiamo
applicato i parametri stabiliti dal Regolamento (CE) n. 1881 del 2006. Primo problema, l’arsenico non è normato.
Cosa facciamo? Ci disinteressiamo? Abbiamo dati sull’arsenico, cerchiamo di valutarlo non in termini solo di
confronto con la norma (anche perché la valutazione del rischio tra vedere se un valore è dentro o fuori i limiti
normati non mi sembra di una “complessità” che richieda l’intervento di un professionista laureato). Si tratta di
usare questo primo passaggio per poi approfondirlo e abbiamo rilevato che il piombo (ce lo aspettavamo) è il
problema del suo accumulo in almeno due specie: i molluschi lamellibranchi con valori medi almeno di 3-4 volte
superiori, ma anche granchi che hanno un valore limite di 0,50 si trovano per 2/3 fuori da questo limite. Tenete
presente, tra l’altro, che nel granchio il valore di legge è dato escludendo l’epatopancreas, le parti scure della
polpa che corrispondono al nostro fegato, quindi a un organo che accumula con un fattore di almeno di 50-100
volte questi metalli. Quindi abbiamo considerato condizioni paragonabili di legge, la parte edibile.
Non c’è bastato questo e come Servizio Veterinario abbiamo voluto approcciare anche con altri due metodi di
valutazione dell’esposizione. Un metodo internazionale riconosciuto che è il metodo americano valutando tre
classi di età e i tre fattori con valori di confronto però ricavati dal consumo medio italiano di quella categoria di
prodotti (INRAN 2006). Non tratta i consumi specifici della popolazione di Portoscuso. Anche lì se volessimo
lavorare potremo considerare il 95º percentile, cioè il consumo specifico di popolazioni rivierasche e quindi
considerare lo scenario “peggiore”.
Questa che vi proietto è la “formulaccia” dove vediamo al numeratore i fattori che moltiplicano, al denominatore
quelli che demoltiplicano, cioè direttamente o indirettamente correlati, l’esposizione. Otteniamo dei valori di intake
che possiamo confrontare coi valori di riferimento quindi cercare di capire insomma se il consumo ipotizzato totale
di questi prodotti è verosimile. Vi ricordo che la “globalizzazione” con le crisi economiche sta portando anche alla
coltivazione di orti casalinghi e quindi dal consumo prossimale e anche dalla raccolta domenicale di asparagi,
prodotti della pesca e quindi è anche verosimile che popolazioni locali possono in gran parte nutrirsi di questi
196
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
22 Novembre
prodotti. Otteniamo delle tabelle dove l’indice di rischio rappresenta in che percentuale, su ogni microcontaminante,
l’assunzione giornaliera attraverso i prodotti della pesca in loco possa coprire l’intake tollerabile. Ipotizzando,
quello 0,46 vuol dire che il consumo ordinario di un mix di prodotti della pesca della laguna di Boi Cerbus copre
per il 46% il limite massimo tollerabile per quel microinquinante. Però siamo sempre sotto i valori di tollerabilità,
quindi abbastanza tranquilli.
Se utilizziamo invece il metodo EFSA, dove sono stabilite stavolta le dosi tollerabili settimanali (ma il concetto non
cambia) e possiamo utilizzare anche un altro modello che è quello raccomandato dall’EFSA con questi valori limite,
considerando per il cadmio anche la riduzione raccomandata da 7 µg/kg a 2,5 e otteniamo così un’altra tabella di
valutazione dell’esposizione. Ecco in questo caso il valore dell’intake rispetto al valore settimanale ammissibile
rappresenta sempre un indice di rischio. In questo caso possiamo interpretare in questo modo: il piombo (che
era al di là dei limiti di legge applicando solo il criterio normativo) è molto precauzionale, cioè i limiti di legge sono
molto preservativi rispetto al rischio. L’arsenico manifesta, apparentemente, un valore di rischio anche più di 2
volte rispetto all’intake raccomandato. Tenete presente che lo diversifica per fasce d’età, quindi mette in evidenza
che i giovani sono quelli relativamente più esposti, ma non chiude il problema perché a questo punto se ne apre un
altro. L’arsenico tal quale non può infatti caratterizzare il rischio perché i prodotti della pesca in particolare hanno
arsenico organico che, contrariamente al mercurio, non è tossico. Si parla cautelativamente di una proporzione
rilevante di arsenico organico (arsenobetaina, arsenocolina, arsenozuccheri nel caso di molluschi lamellibranchi).
A questo punto siamo relativamente tranquilli, nel senso che la comunicazione del rischio è che non c’è il rischio
evidente per l’arsenico, ma apriamo un’altro fronte che è quello di esplorare la speciazione dell’arsenico in questi
animali sentinella che si sono prestati alla “informativa sulla salute”, in queste diverse specie come si comporta
l’arsenico e in che termini dobbiamo considerarli indicatori di sicurezza o del suo contrario.
La prima conclusione è che nella valutazione del rischio per esposizione alimentare da produzioni primarie
situate in aree contaminate, anche ai fini della gestione del rischio stesso, non appare sufficiente ricorrere al solo
approccio di verifica sul rispetto dei tenori massimi di alcuni contaminanti così come normativamente definiti.
Dobbiamo “osare” di più, non è solo accademia la valutazione del rischio: la valutazione del rischio è compito
dell’autorità competente su tutti i livelli (nazionale, regionale e territoriale), ma sempre con un minimo di rigore
scientifico.
L’altra conclusione è che l’utilizzo complementare di altri approcci, ovviamente validati a livello internazionale
come quelli proposti, aggiunge informazioni in particolare su aspetti quantitativi del rischio e sulla individuazione
dei gruppi a rischio. Altre popolazioni europee hanno il coraggio di dire non che non si mangia pesce perché c’è
un valore aggiunto nel consumo di alcune componenti lipidiche del pesce, ma che i bambini e le donne gravide
farebbero meglio a non consumare alcune specie di pesci e di grandi dimensioni. Nella fiducia riposta nelle
autorità, che in modo trasparente comunicano il rischio, aumenta la fiducia. Secondo me noi dobbiamo col tempo
dare robusta evidenza del fatto che le persone possono fidarsi di come presidiamo la prevenzione. Quindi per
esposizione o particolare vulnerabilità ai gruppi di rischio sui quali si possono orientare le misure di prevenzione
anche su diversi livelli e gradi di protezione e con proporzionalità. L’altro aspetto è infatti l’appropriatezza, insomma
non possiamo “sparare col cannone” a tutti i rischi altrimenti apriamo a un altro limite che è la medicina difensiva,
cioè contro tutti i rischi alziamo le stesse barriere, sproporzionatamente. No, dobbiamo affermare e difendere
l’appropriatezza degli interventi sanitari, anche in campo preventivo.
Arezzo 20 - 23 novembre 2012
197
22 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
Cambiamenti ambientali globali, rischio chimico e infettivo: verso una prevenzione integrata
"Cambiamento climatico e sistemi di allevamento: il punto di vista di VSF Europa"
SIMeVeP / SIVtro - VSF Italia
Alessandro Dessì
Dal punto di vista di una Organizzazione Non Governativa come Veterinari Senza Frontiere (SIVtro - VSF Italia)
i cambiamenti globali assumono particolare rilevanza per il loro impatto sulla salute e produzione animale e sulla
dinamica delle zoonosi. In senso più ampio toccano certamente anche le questioni agroalimentari, le politiche
agricole e gli squilibri globali, specialmente con riferimento alle popolazioni più svantaggiate, e ai motivi per i quali
questi squilibri persistono. In particolare La nostra associazione fa parte di VSF Europa, una rete internazionale di
10 ONG, le quali hanno un impegno chiaro in direzione della difesa della produzione familiare, cioè delle piccole
unità di produzione di cibo.
La nostra presenza ad un incontro come questo si giustifica in seno ad un tipo di attività che nel tempo si è
evoluta in modo sostanziale, essendo nata come restituzione –in prima approssimazione “aneddotica”- delle
esperienze fatte dai cooperanti, per diventare progressivamente quella che oggi viene chiamata formazione
permanente (longlife learning) sui temi della complessità e della cittadinanza globale. Analisi cioè delle relazioni
e delle implicazioni tra fenomeni e squilibri globali, che ci interessa affrontare in seno alla società italiana nella
misura in cui i problemi che affrontiamo possono avere cause anche molto vicine e dirette nelle politiche dei nostri
paesi, e nei nostri comportamenti individuali.
A livello di premessa, credo sia utile anche sottolineare l’importanza per noi di contribuire alla formazione di una
capacità critica dei nostri concittadini su questioni che ci riguardano direttamente. Venti anni fa –quando ero
all’università- i temi ambientalisti erano difesi dal movimento ambientalista (perché si parlava di ‘movimenti’)
con degli argomenti e proposte che sembravano utopistici. Molte di queste proposte oggi hanno superato
l’ambientalismo, realizzandosi in pratiche come la raccolta differenziata, l’adozione dei pannelli solari ed altri
comportamenti che sembravano visionari, ma svuotandoli del contenuto originario, che può venire addirittura
stravolto. Ad esempio, chi vende i pannelli solari in molti casi non ha un background “ambientalista”, è un agente
commerciale di un settore fiorente perché promosso dalle leggi finanziarie... chi li installa, in molti casi è spinto
dal tornaconto economico, al punto che vediamo intere superfici agrarie cancellate da distese enormi di pannelli:
un paradosso in termini ambientalisti, così come il concetto stesso di termovalorizzatore, che ha incenerito l’idea
di produrre e vivere a “rifiuti zero” . Un altro esempio, è l’idea che diluire con agro-carburanti, (o biocarburanti) i
combustibili che noi usiamo per il riscaldamento piuttosto che per la trazione sia qualcosa di virtuoso. In realtà
si legittimano così i nostri consumi di energia, semplicemente insostenibili, Si pulisce un po’ l’atmosfera delle
nostre aree urbane, ma con delle conseguenze molto pesanti per la natura e la sicurezza alimentare dei paese
di produzione, con conseguenze sociali disastrose sui piccoli produttori e la sicurezza alimentare. Non a caso gli
“investimenti in agricoltura” causati anche dalla richiesta di agrocarburanti, vengono criticati molto animatamente
rispetto agli impatti che hanno sulla food governance, sulle politiche mondiali di gestione della produzione di cibo
e della sua commercializzazione e trasformazione.
Sempre da un punto di vista dell’approccio ai temi globali, un breve richiamo di ecologia è utile per inquadrare
quello che andrò poi a dire. I sistemi dominanti di produzione alimentare alterano gli ecosistemi utilizzando le
risorse territoriali in modo molto selettivo, sulla base di una caratteristica precisa delle poche specie, selezionate
per la loro alta efficienza produttiva: ad esempio il mais interessa solo per la pannocchia, la mucca solo per il latte
o il maiale solo per la carne (o per un dato taglio), In questo modo, da un lato si riduce la biodiversità in natura,
ma anche nei campi, in stalla, come nell’acquacoltura (altro settore nel quale si è avuta una crescita esponenziale
dei sistemi intensivi); dall’altro si hanno degli sprechi enormi di materia organica (che diventano rifiuti) e un forte
assorbimento di energia fossile, con relative inefficienze (basti pensare al ciclo di Carnot) e squilibri termodinamici
... Il che genera comunque alterazioni del bilancio energetico e un surplus di materia ed energia. Energia che
in natura non verrà sprecata: mentre le nicchie ecologiche si modificano, molte specie scompaiono,, e se ne
affermano di nuove, che trovano spazio crescente.
Infatti, nel momento in cui il range di adattabilità di una specie si ricrea in un ambiente diverso da quello di sua
origine, questa specie può espandersi, portando anche con se nuove malattie, e i parassiti che le veicolano. E’
il caso, ad esempio della zanzara tigre di origine tropicale ma che si è adattata al nostro ambiente urbano e che
date le temperature in aumento non scompare più neanche in inverno, oppure di alghe come la caulerpa taxifolia,
che scomparivano fino a venti anni fa dal Mar Mediterraneo e che invece poi si sono affermate, a spese delle
specie locali.
198
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
22 Novembre
Se è vero, quindi, che in natura l’uso dell’energia viene ottimizzato sappiamo anche che esistono delle condizioni
particolari in cui essa si accumula,, come ad esempio le torbiere, ma soprattutto i depositi enormi di combustibili
fossili, che fino a 150 anni fa non venivano impiegati, o non lo erano nel modo massiccio che si è avviato poi con
la rivoluzione industriale.
E’ calcolato che ai tassi attuali di consumo di energie fossili, ogni anno viene bruciato l’equivalente della
produzione primaria netta del pianeta in quattrocento anni. Ciò vuol dire che se ci affidassimo soltanto all’energia
che può essere prodotta dalla trasformazione di energia solare in altre forme di energia che possiamo stoccare
e trasportare (pannelli solari, agrocarburanti, ...) e potessimo consumare soltanto quello che produciamo
annualmente, avremmo una disponibilità ben più bassa. O, da un altro punto di vista e secondo le stime più
conservative che si reperiscono in letteratura, se noi dovessimo sostituire le energie fossili con pure energie di
origine da biomassa, dovremmo prelevare biomasse per almeno il doppio delle disponibilità attuali, con impatti
evidenti sulla sicurezza alimentare. .
Un’altra cosa che voglio ricordare è che non siamo ancora in condizione di mangiare il petrolio, cioè che la rivoluzione
verde o l’inizio dell’applicazione dei sistemi industriali di scala applicato all’agricoltura si deve al processo HaberBosch (H-B) che permette di trasformare l’Azoto atmosferico in composti organici,- e cioè di creare i fertilizzanti,
che in estrema sintesi, sono stati fondamentali per lo sviluppo dell’agricoltura e dell’allevamento intensivo. A metà
degli anni ’40 si iniziarono ad utilizzare per questo processo le scorte di nitrati prodotti per l’industria bellica, tanto
che Vandana Shiva, afferma che stiamo ancora mangiando gli avanzi della seconda guerra mondiale ...
Il passaggio comporta però un altissimo consumo di energia: non soltanto quella del processo H-B in sé, ma
anche quella associata al tipo di trasformazione lungo tutta la filiera per la quale questo processo è il primo passo:
cioè la meccanizzazione sempre più spinta delle produzioni, la trasformazione industriale, i trasporti e commerci
a distanze crescenti eccetera. Non è un caso se l’agricoltura è tra i comparti che vengono maggiormente citati
quando si parla della generazione di gas-serra da parte della specie umana, anche se nella percezione comune
non la si associa direttamente ai cambiamenti globali.
Non è frequente, tuttavia, che i non-specialisti abbiano idea del rapporto tra agricoltura e cambiamenti globali,
anche a causa del tipo di rappresentazioni dominanti che se ne fanno. Il cambio climatico in particolare viene
rappresentato in vario modo: alcune rappresentazioni si richiamano al dominio delle analisi scientifiche e
presentando generalmente grafici di tendenze rilevate (ad esempio il livello di CO2, o le temperature medie
stagionali). Le rappresentazioni mediatiche tendono a mostrare gli effetti drammatici di questi trend, (tipicamente
il ghiacciaio del Kilimangiaro scomparso, o l’orso-naufrago su un iceberg striminzito). Le rappresentazioni tangibili
infine, richiamano l’esperienza diretta di ciascuno di noi, che ormai può argomentare la differenza tra il clima
attuale e quello che ricorda durante la sua infanzia, oppure , la scomparsa della prevedibilità stagionale, sostituita
da una variabilità enorme e da un forte aumento dei picchi meteorologici, come ad esempio l’ultima gelata che si
porta sempre di più verso giugno, gli inverni caldi, le grandinate, le alluvioni ed altri eventi estremi che anche sul
nostro territorio si ripetono con sempre maggior frequenza.
Tornando alla commistione tra questi tre piani di rappresentazione del cambiamento climatico, per volerlo
riportare all’agricoltura e, in particolare, all’allevamento che interessa a VSF in ambito veterinario, ma a tutti noi
(in prima istanza come consumatori di cibo, anche se non rilevante nella collocazione professionale di ciascuno)
abbiamo una pietra miliare che è del 2006. E’ un lavoro prodotto dalla FAO sull’impatto climatico del comparto
dell’allevamento. Il dato numerico individuato da questo studio faceva un riferimento sintetico affermando che il
comparto è responsabile del 18% delle emissioni di gas-serra. Senza voler entrare qui nei dettagli, su questo tema
si è aperto un dibattito molto animato, nel quale hanno trovato spazio anche gli argomenti già in possesso di chi
(ONG, associazioni e piattaforme di produttori africani, centri di ricerca e molti altri) aveva lavorato sull’allevamento
dal punto di vista della sicurezza alimentare, intesa sia come lotta alla fame, sia come approccio armonico alla
salute animale e quella umana (One Health, per gli “addetti”).
Da una prospettiva di Veterinari Senza Frontiere. L’aspetto rilevante del cambiamento climatico è proprio su
questo fronte.
Ovviamente la questione oggi è del tutto aperta. Ed ovviamente anche il dipartimento Livestock della FAO ha
continuato a lavorare sul tema Per citare alcuni eventi importanti, va ricordato il Convegno organizzato dalla
FAO nel 2007 per fare il punto sullo stato delle risorse genetiche animali utili per l’alimentazione. In quella sede
si è tenuto anche un importante evento parallelo organizzato dalla società civile, che ha espresso la ricerca e
l’advocacy per i piccoli produttori, intesi come allevatori familiari (lo dico per chi fosse interessato a ripartire da
Arezzo 20 - 23 novembre 2012
199
22 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
questa breve conversazione per ricercare o chiedermi poi altri riferimenti)
In quella fase, anche all’interno del mondo della cooperazione si è delineata la differenza tra chi sposa le tesi
della rivoluzione verde e chi vi si oppone, La livestock revolution (come viene designata l’applicazione dei principi
della rivoluzione verde ai sistemi di allevamento) suppone che l’adozione dei sistemi intensivi sia una chiave
indispensabile per garantire sicurezza alimentare ai paesi dove questo è ancora un problema; vi si oppone chi
invece sostiene che la differenza tra il Sud e il Nord è sempre più labile, e che il problema dell’alimentazione e della
crisi ambientale è da affrontare mettendo in discussione i sistemi di produzione. Per questo “fronte”, la produzione
di piccola scala, è una soluzione adottata in un clima di esigenza di sostenibilità, e rappresenta una risposta
assolutamente di avanguardia per affrontare il cambiamento climatico. Dobbiamo però stare attenti ad evitare
che l’agroindustria –che per adesso li contrasta- traduca anche questi principi in nuove forme di sfruttamento
dissennato del territorio, come è successo per il solare o le “benzine verdi” alle quali si accennava in precedenza.
Come rete di Veterinari Senza Frontiere europei, abbiamo esaminato a fondo le differenze tra i diversi tipi di
sistemi di allevamento, producendo uno studio che mette in evidenza l’importanza di quelli familiari, evidenziando
il loro potenziale in termini di risposta al cambiamento climatico ed illustrando perché diversi tipi di sistema di
allevamento richiedono politiche e azioni differenti.
La tabella qui riportata fa parte di questo nostro studio, e intende dare una panoramica visivamente e rapidamente
leggibile delle variabili più importanti per classificare i diversi sistemi di allevamento, differenziandoli dalla piccola
alla massima scala.
L’ultima riga, (evidenziata in basso) si riferisce allo scopo che hanno. Teniamo presente che gli allevamenti intensivi,
come qualunque impresa in un contesto di economia di scala, ha un fine ultimo che è quello di continuare a
crescere per non soccombere. Sul fronte opposto abbiamo i piccoli sistemi di allevamento, l’allevamento familiare,
che per non soccombere deve sviluppare la propria resilienza, cioè la capacità di produrre senza compromettere
la rigenerazione delle risorse sulle quali insiste.
Altri criteri di classificazione sono quelli elencati a seguire (in italiano). Qui rileviamo delle differenze macroscopiche
(delle quali poi si possono approfondire i dettagli), ma in prima approssimazione possiamo affermare che
nel momento in cui l’allevamento diventa un’industria, perde completamente il valore della resilienza. La
monofunzionalità -ne accennavo prima- si riferisce al fatto che di una specie interessa soltanto una caratteristica.
Sulla biodiversità sappiamo che, ad esempio, possiamo avere un allevamento intensivo di 10.000 capi, ottenuti
per inseminazione artificiale, la cui diversità genetica interna è quella di un gruppo di 20. In queste condizioni
si esaspera la pericolosità delle malattie, che oltre a poter passare direttamente all’uomo rappresentano una
minaccia in termini di rischio per la produzione alimentare. Su questo argomento, i veterinari insegnano che da
un toro selezionato per le proprie capacità riproduttive si producono 200 dosi di seme al giorno. Questi campioni
vengono conservati per anni prima che si sappia come crescerà, però il suo sperma è già congelato. Nel momento
in cui si verifica che è un campione, questa scorta viene messa in vendita: ogni giorno della sua vita, per anni,
origina dunque 200 figli, il che spiega la bassissima diversità interna degli allevamenti industriali. Non solo italiani,
ma a questo punto globali, anche perché la concentrazione genetica in mano a pochissimi grossi produttori di
specie allevate è pazzesca. Molto più alta e molto più pericolosa di quella vegetale; non a caso l’allevamento
industriale non può prescindere dall’uso preventivo (!!) di dosi massicce di antibiotici, che ovviamente si ritrovano
poi nel nostro organismo, nell’ambiente e in tutta la catena alimentare. Anche su questo argomento si potrebbero
fare molti approfondimenti e mostrare dati.
La separazione dall’agricoltura genera una catena di problemi enormi, basti pensare anche soltanto alla gestione
di un allevamento industriale in termini dell’inquinamento ammoniacale che genera. a fronte della difficoltà di far
entrare l’azoto atmosferico negli organismi viventi, abbiamo dell’azoto concentrato che poi si perde e diventa un
inquinante. Perché non viene più usato come concime. Perché non c’è più un’alternanza tra le coltivazioni di mais
o di specie che impoveriscono il terreno di azoto con quelle che lo rigenerano.
Infine la competizione con l’uso di risorse per l’alimentazione umana. Ovviamente se coltiviamo delle specie
commestibili e le usiamo per fare alimenti concentrati per delle specie che invece di stare al pascolo stanno in
stalla, generiamo un altro problema che oltre che di sicurezza alimentare diventa etico, e tutta un’altra serie di
problemi, come ad esempio le conseguenze dell’espansione delle coltivazioni intensive sui paesi impoveriti da
dove provengono. Gli investimenti in agricoltura fatti da paesi esteri su terreni e per produzioni fondamentalmente
di mais e soia OGM, e ultimamente di agrocarburanti sono alla radice del cosidetto land grabbing, un problema
che –fra altre occasioni- ha animato tantissimo il dibattito del mese scorso alla FAO al Comitato per la Sicurezza
Alimentare Mondiale, essendo diventato un problema estremamente serio di concorrenza con le produzioni
alimentari e incremento dei prezzi.
Per quanto riguarda poi l’efficienza, che è uno degli argomenti principali per chi difende l’allevamento intensivo
rispetto a quello estensivo, si sente affermare che un litro di latte prodotto intensivamente, o un chilo di carne o
delle uova industriali hanno minor effetto sul cambiamento climatico dei corrispettivi prodotti da animali “ruspanti”.
200
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
22 Novembre
Vista l’altissima industrializzazione di queste produzioni, pare evidente che esse emettano meno gas serra per
quantità di prodotto. Bisogna però stare attenti a che tipo di parametro si sceglie di misurare, perché nel momento
in cui si ribalta la prospettiva, partendo dall’unità di risorsa utilizzata, si dimostra al contrario che dimostra che un
sistema familiare è molto meno dannoso in termini di emissione di gas serra. Non soltanto quanti litri di latte fai,
ma quanto mais ti serve per produrre quel latte, dove lo vai a cercare piuttosto che quanto pascolo vai a cercare.
Se partiamo dalle unità di territorio occupate cioè, vediamo che l’efficienza in termini di emissione di gas serra
premia indubbiamente l’allevamento familiare – definizione con la quale intendo il pastoralismo, i sistemi non
sedentari, mobili, i sistemi misti agro-zootecnici anche di cortile, domestici, eccetera. Un comparto determinante
per la sicurezza alimentare di tante aree del pianeta, e ancora predominante anche in termini quantitativi
Per quanto riguarda poi l’opportunità di affidarsi ai sistemi intensivi per sfamare la popolazione mondiale, bisogna
ricordare che i dati a disposizione vengono prodotti dalla FAO, che li elabora per formulare documenti tecnici e
suggerire politiche, anche discutibili: non si tratta di un organismo militante ambientalista ma di un’emissione della
Nazioni Unite, dove i Governi richiedono e/o acquisiscono il lavoro dei ricercatori e tecnici, decidendo poi in che
modo utilizzarli. Nessuno tuttavia discute l’utilità di raccogliere e mettere a disposizione informazioni e dati.
I sistemi familiari e quelli di media scala assieme, dunque, producono l’83% della carne bovina, il 99% degli
ovini, il 45% dei suini, il 28% della carne di pollo e il 39% delle uova. La loro importanza in termini di quantità è
dunque enorme a livello mondiale, soprattutto per quanto riguarda i ruminanti. Ci sono ovviamente specie che
si adattano di più all’allevamento intensivo, e queste sono state promosse, soprattutto nei paesi ricchi tramite
uno spostamento significativo, dai sistemi multifunzionali a quelli industriali e rivolti esclusivamente al mercato,
specialmente ai mercati crescenti dei centri urbani. Questo spostamento si accompagna ad un aumento netto
di specie monogastriche alimentate con cereali, con diminuzione dei ruminanti. Ma dati alla mano, appunto, la
componente familiare ha ancora un peso enorme, e dai sistemi familiari viene una risposta importante al tema di
quanto cibo serve e come si può produrre per sfamare la popolazione mondiale.
Un’altra nota importante è che il problema della mitigazione e dell’adattamento al cambiamento climatico si pone
in modo particolarmente urgente quando la FAO proietta i dati di consumo di carne al 2050, per concludere
che non possiamo, con i consumi attuali, pensare che i Paesi che stanno uscendo dalla povertà e quelli che si
stanno urbanizzando sempre di più e che verosimilmente chiederanno sempre più carne, vengano alimentati con
i sistemi di allevamento familiari oggi dominanti. Bisognerebbe chiedersi tuttavia come viene valutato il consumo
di carne atteso, e se questo sia il risultato di una domanda o venga generato dall’offerta, che essendo in mano
alla distribuzione ha un potere molto forte. Senza voler adesso entrare nel merito, basti dire che non è raro
che le stesse organizzazioni non governative, quando realizzano attività ed eventi di sensibilizzazione sui temi
agroalimentari, per il rinfresco devono rivolgersi ad un servizio di catering; e questo quasi sempre impone dei
prodotti che rappresentano il contrario degli argomenti che cerchiamo di promuovere. Questo in qualche modo
dimostra che la teoria della domanda e dell’offerta è veramente soltanto un modello, ma che sul terreno la
domanda può essere molto forzata dai sistemi di produzione. Questo argomento ha una valenza scientifica, ma
mette anche in evidenza come il singolo individuo possa coi suoi consumi agire direttamente sui processi alla
base dei cambiamenti globali.
Un altro criterio che possiamo utilizzare per orientarci e stabilire delle soglie a livello individuale può essere
quello di porci il problema di quanta energia possiamo avere a disposizione, (fossile o di qualunque altra origine).
La produzione di energia infatti, comporta l’emissione di gas serra e quindi un incremento del cambiamento
climatico, il che suggerisce di stabilire un limite individuale di emissione. Questa cosa, di nuovo, non la propone
Greenpeace, ma lo IPCC, che in tema di Cambio Climatico è universalmente riconosciuto come l’organismo più
autorevole al mondo dal punto di vista scientifico, con il mandato di produrre i dati sul cambiamento climatico e
dare indicazioni su come affrontarlo.
Il “riscaldamento totale pro capite potenziale” è stato definito in termini di chilogrammi di CO2 equivalenti, (che siano
anidride carbonica (CO2), metano (CH4), o biossido di azoto (NO2)). Vedete che in Italia siamo abbondantemente
al di sopra del valore consentito per dare a tutti gli abitanti della terra da qui al 2100 la stessa opportunità di
emissione senza far esplodere il pianeta. A fronte di un tetto di 5.890Kg pro capite, noi consumiamo per 9.400,
di cui quasi 1.800 per l’alimentazione. Allora è evidente che ciascuno potrebbe incidere su questo dato, sia
personalmente, attraverso delle scelte diverse di consumo, sia come professionista operante in organismi che in
qualche modo si interfacciano con il settore agroalimentare, per garantire la salute pubblica. Porsi il problema di
quali siano i sistemi produttivi, di distribuzione e di mercato nei quali il proprio lavoro si inserisce è un primo passo,
necessario e urgente. Sicuramente un altro elemento determinante per l’impatto climatico e l’impronta ecologica
dei nostri consumi, sono i sistemi di trasporto e l’inquinamento che comportano.
In ogni caso, quando parliamo di come affrontare il cambiamento climatico nei suoi due aspetti principali che sono
la mitigazione e l’adattamento, dove per mitigazione intendiamo la riduzione delle emissioni, e per adattamento
Arezzo 20 - 23 novembre 2012
201
22 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
il modo comunque di far fronte a degli effetti del cambiamento climatico che sono già evidenti, dal nostro punto
di vista bisogna tener presente che alcune risposte sono già state messe a punto da molti secoli, da parte dei
sistemi produttivi tradizionali che per la propria natura hanno sempre dovuto far fronte alla variabilità climatica.
Ciò ha permesso la generazione di una serie di meccanismi di risposte che sono già disponibili , e che dovremmo
comunque tener presenti e valorizzare.
Credo che il tipo di argomento e di posizione che difendo sia abbastanza chiara a questo punto, cioè sia a livello
di politiche di cooperazione allo sviluppo o di promozione dei rapporti tra i nostri Paesi e quelli dai quali vengono
molte delle risorse che poi diventano i nostri prodotti alimentari, dovremmo tener presente che l’allevamento di
piccola scala è una risposta importante ad alcuni dei maggiori problemi causati dai cambiamenti globali, e questa
consapevolezza può orientare la nostra dieta già da oggi.
C’è infine un’altra serie di argomenti a favore dell’allevamento familiare che non ho trattato in questa presentazione,
ma che varrebbe la pena comunque di considerare. Vorrei citare rapidamente quantomeno quelli che pubblica oggi
AIAB (Associazione Italiana per l’Agricoltura Biologica), mostrando che per un giovane che decida di dedicarsi
all’allevamento o all’agricoltura, anche dal punto di vista economico oggi è molto più conveniente operare nel
biologico e al di fuori dei meccanismi di grande distribuzione. L’adozione di sistemi agroecologici de il rapporto
diretto coi clienti sono due fattori di successo, positivi anche in termini di indipendenza ed autonomia sia nella
gestione delle aziende che nella scelta, dei clienti e da parte dei clienti.
I cambiamenti globali insomma sono una realtà quotidiana anche per noi, intimamente collegata alla produzione
e al consumo degli alimenti. Le rivendicazioni e le azioni per un cambio sostanziale da parte sia dei produttori che
dei movimenti dei cittadini, dunque, non sono circoscritte a realtà come il Messico, la Via Campesina o i Sem Terra
in Brasile. Per un numero crescente di cittadini e movimenti anche in Europa, e noi di VSF ne facciamo parte, è una
questione di diritti. Una questione che ci tocca tutti, e che riguarda anche la salute, la qualità dell’alimentazione,
della vita e dell’ambiente nel nostro territorio.
202
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
22 Novembre
Cambiamenti ambientali globali, rischio chimico e infettivo: verso una prevenzione integrata
"Patologie da vettori e cambiamenti ambientali globali"
Università di Bologna
Vittorio Sambri Intanto ringrazio la Dr.ssa Sinisi per avermi invitato a raccontarvi un po’ quella che è la storia di un medico virologo
clinico che da 10 anni, grazie alla collaborazione integrata che in Emilia-Romagna è stata sviluppata a partire
dai fatti del carbonchio del 2002, ha consentito di avere una struttura veramente integrata di laboratorio medico,
veterinario e entomologico che si occupa di questi problemi.
Queste sono delle considerazioni molto banali che sicuramente voi avete molto più chiare di me perché io sono
un dilettante globale in questo ambito, però sicuramente globalizzazione e cambiamenti climatici hanno una
connessione. la globalizzazione si porta dietro, o forse è generata, da tutte quelle cose che vedete scritto lì
sotto e i cambiamenti climatici sicuramente dal punto di vista medico hanno portato ad alcuni fatti che sono
indubbiamente presenti oggi. Non so se siano presenti in maniera persistente oppure no, non ho la capacità per
poterlo dire, però di fatto cambiamenti nella fauna selvatica e, insieme a questo, un aumento dei vettori artropodi
capaci di trasmettere patologie di tutti i tipi ma soprattutto zoonotiche all’uomo è un dato assolutamente presente.
Oggi è un dato di fatto. L’anno scorso abbiamo organizzato un corso per gli studenti su questo tipo di argomenti.
Abbiamo coinvolto un climatologo dell’ARPA dell’Emilia-Romagna e i dati che ci ha fatto vedere sono assolutamente
importanti perché la temperatura media dell’Emilia-Romagna è aumentata di un grado negli ultimi 12 anni. Detto
così può sembrare niente, ma è un dato assolutamente rilevante. Vuol dire che le ginestre sulle colline di Bologna
fioriscono in febbraio invece che il 20 marzo quindi vuol dire che abbiamo un’attività di insetti molto più precoce e
tutto questo è un dato su cui io non ho nessuna capacità di riflettere, ma che vi trasmetto così com’è.
Un dato importante, ed è un po’ il focus che pensavo di dare oggi pomeriggio a questa chiacchierata, è quello
dell’impatto che queste patologie che chiamiamo emergenti perché effettivamente sono emergenti hanno su
un’attività medica, se vogliamo poco mediatica, che è quella delle donazioni di organi e di sangue che invece sono
fortemente affette. Questa tabella, che viene da un lavoro dell’American Red Cross, ci dà un’idea di quelle che
sono le percezioni della opinione pubblica e quella che è la reale importanza, il reale impatto che queste patologie
hanno sulla sicurezza della donazione di sangue. Sicuramente ci sono alcune patologie che dal punto di vista
scientifico sono teoretiche come possibilità di trasmissione, come ad esempio il chikungunya, come le varianti di
HIV, come il sottotipo H5N1 di influenza. Sono teoretiche, nel senso che non è stato mai dimostrata realmente la
loro trasmissibilità col sangue e che però hanno un grosso impatto mediatico, cioè la gente ha paura di questa.
Mentre ci sono patologie che sono molto meno ‘pensate’ in questo ambito, come la febbre dengue, che hanno
una discreta possibilità di trasmissibilità e che sono in alcune aree di popolazione percepite. Cercheremo quindi di
andare un po’ dentro questi aspetti per quel che riguarda la patologia virale per darvi idea di quello che è successo
anche molto recentemente in Italia e che potrebbe capitarci di nuovo.
Vi parlerò di questi quattro argomenti oggi pomeriggio: del virus Chikungunya, del virus della Dengue, del virus
West Nile e del virus Usutu. Sono tutti nomi molto strani, sono tutti virus di origine africana con la sola eccezione
di Dengue.
Perchè Chikungunya? Perché questa è la nostra situazione. Questa è una mappa aggiornata a Giugno 2012
che ci fa vedere come le aree in rosso siano le aree dove nel continente europeo è presente aedes albopictus,
che è la zanzara tigre, la asian tiger mosquito. La zanzara tigre asiatica è un vettore estremamente efficace per
alcuni virus a trasmissibilità tropicale fra cui Chikungunya e, potenzialmente, Dengue. Vedete che il nostro Paese
è assolutamente tutto rosso ed è parecchio rosso tutto il bacino del Mediterraneo. E questa è una situazione che
fino a 10-12 anni fa non esisteva. la zanzara tigre ha fatto il suo ingresso in Italia a fine anni ‘90 e già da allora chi
si occupava di questi argomenti diceva “attenzione, questo è un insettino piuttosto antipatico perché dove sta di
casa trasmette della roba piuttosto disastrosa” e l’altra metà del cielo diceva “è responsabile della trasmissione,
ma ci vuole il serbatoio”. Il serbatoio fondamentalmente per questi virus è l’uomo. Bene, noi siamo arrivati ad
avere la mistura giusta, o sbagliata dipende da come la volete vedere, per realizzare questo tipo di trasmissione.
E la faccenda è successa col virus Chikungunya nel 2007 in Emilia-Romagna.
Il Chikungunya è un virus africano. E’ un virus arbor, che significa trasmesso da artropode, arthropod-borne. E’ un
virus molto semplice, dal punto di vista virologico non mi dilungo su questo, però è un virus che conosciamo da
una sessantina di anni che ha due vettori principali: aedes aegyipti e aedes albopictus.
L’aedes aegypti fino a qualche anno fa in Europa non esisteva, oggi c’è un problema molto serio, legato all’aedes
aegypti verosimilmente, alle Azzorre. L’aedes albopictus, vi dicevo, è arrivato in Italia una decina di anni fa per
tutta una serie di considerazioni di tipo strettamente economico perché si pensa che sia stato introdotto con il
mercato dei pneumatici rigenerati fondamentalmente e adesso ce l’abbiamo. Il virus è un virus che ha una capacità
epidemica abbastanza blanda, nel senso che compare con una certa ciclicità e fino al 2004 fondamentalmente
Arezzo 20 - 23 novembre 2012
203
22 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
questo virus si è mosso in Africa, cioè a casa sua. Nel 2005-2006 ha fatto una cosa che normalmente i virus non
riescono a fare, ma riescono a farla gli uomini, si è mosso dall’Africa all’Isola di Réunion. Réunion è un isoletta
francese ed è territorio metropolitano per cui dal punto di vista sanitario è come se il virus fosse sbarcato a Parigi
perché è stata la prima volta che questo virus ha impattato su un sistema sanitario europeo. A Réunion è successo
un discreto patatrac perché nel giro di tre stagioni delle piogge ci sono stati 300.000 casi su 700.000 abitanti e
da lì il virus ha continuato a muoversi verso est. E’ arrivato in India dove c’è un’epidemia che probabilmente
ha intorno al milione e mezzo di casi, si è spostato ancora in Malesia, in Tailandia e oggi è a Singapore. E a
Singapore l’epidemia di Chikungunya è fondamentalmente fuori controllo e questo è un dato molto rilevante
perché se pensate che lo standard sanitario di Singapore è come quello della Svizzera non riescono a controllarlo
perché il vettore è drammaticamente efficiente.
Fino al 2007 il virus aveva dato solo casi sporadici importati in Europa. Nel 2007 il virus ha fatto la sua comparsa
in Italia. Se guardate questa mappa del 2008 tutti i Paesi con la I indicano Paesi di importazione, sull’Italia c’è
una E perché è epidemico. Nel 2007 in Emilia-Romagna, nella provincia di Ravenna, c’è stata un’epidemia di
trasmissione locale autoctona con 250 casi nell’arco di un mese e mezzo. Detta così può sembrare una cosa
poco rilevante perché sono 250 casi coinvolti, ma è la prima volta che un virus tropicale si muove con un vettore
in una zona che non è considerata tropicale. Questo è successo perché in quell’area dal 2004 la zanzara tigre ha
praticamente soppiantato dal punto di vista quantitativo la zanzara culex, la zanzarina che tutti noi conosciamo e
perché il virus, nonostante fosse poco trasmissibile dalla zanzara tigre, ha fatto una cosa che questi virus sono
assolutamente capaci di fare, ha modificato il suo genoma. Di fatti se guardate, senza scendere nel dettaglio,
questo è un albero filogenetico, ma se guardate la collocazione dei ceppi dei virus indica quanto sono lontani
dal punto di vista evolutivi l’uno dall’altro. I nostri ceppi, quelli che vedete in cima, sono tutti identici fra di loro e
sono drammaticamente identici ai ceppi indiani, quindi il virus è arrivato in India ed è arrivato in Italia dall’India.
In effetti è arrivato in Italia dall’India perché, e questa è la curva epidemica dell’epidemia che è stata studiata,
c’è un caso indice che è quello di un cittadino indiano tornato dal Kerala con il virus in fase florida, quindi era
viremico, è andato a trovare suo cugino - ve la racconto perché è una storiellina anche abbastanza divertente - in
uno di questi paesini della provincia di Ravenna e quindici giorni dopo, lo vedete qua, questo è il cugino del caso
indice, questa è la vicina di casa del cugino. E’ partita la situazione e fino a metà agosto il virus ha cominciato
a muoversi fuori controllo in maniera totale. Fuori controllo in maniera totale perché nessuno sapeva che cosa
stesse succedendo e in questo caso, secondo me, da medico devo fare una riflessione abbastanza amara perché
l’allarme è stato dato dai cittadini. Non sono stati i medici ad accorgersi che cosa stava succedendo, ma è stato
un cittadino che ha telefonato all’Igiene Pubblica della provincia di Ravenna dicendo “ma, siamo a metà agosto,
siamo in 25 a letto con l’influenza in questa stagione, non è normale, qua sta capitando qualcosa” e allora è partita
l’indagine epidemiologica che ci ha consentito poi di arrivare nel giro di quindici giorni a definire che si trattava di
questo strambo virus che c’era arrivato in casa.
Il problema di questi virus è che nessuno di noi sa con certezza quanto siano capaci di dare una malattia
sintomatica. Il problema risiede sostanzialmente nel fatto che se si parla di sicurezza delle donazioni di sangue,
il paziente viremico, quindi col virus in fase attiva nel sangue, ma non sintomatico, quindi infetto ma sano, è una
sorgente drammatica. Noi ci siamo posti un po’ il problema e su questa epidemia, ed è la prima volta che viene
fatto perché chiaramente anche qua avevamo una popolazione limitata nel tempo e nello spazio e si poteva fare,
circa il 18% dei soggetti erano infetti ma non sintomatici. E questo è consolante perché vuol dire che se il paziente
si infetta si ammala e quindi lo puoi comunque identificare.
Passiamo un attimo invece al discorso della Dengue. Dengue è in una situazione epidemiologica molto severa
in tutte le aree tropicali del mondo. Le zone verdi che vedete in questa piantina sono assolutamente affette. E’
ragionevolmente fuori controllo in Brasile, ha un tasso di attacco nelle ultime settimane che è superiore a quello
dell’influenza nelle aree urbane del Brasile, quindi veramente un tasso di attacco altissimo. E’ comunque diffuso
in tutte le aree dove noi occidentali andiamo di solito in vacanza, ai Tropici, oppure andiamo per lavoro o andiamo
per altre situazioni. In particolare la Dengue - che ha come vettore aedes aegypti, quindi il cugino dell’aedes
albopictus, della zanzara tigre asiatica - si pensava non potesse comparire in Europa. In realtà la trasmissione
autoctona di Dengue è avvenuta anche in Europa ed è avvenuta in Francia nel 2010 con pochi casi. Anche
qua l’epidemia è stata di 3-4 casi, ma con la trasmissione autoctona documentata. E’ andata particolarmente
bene perché è successo alla fine di settembre, quindi si è esaurita per conto suo, però ci sono stati 3 casi di
trasmissione locale.
Altrettanto importante è l’epidemia che è stata determinata in Croazia nel 2010, verosimilmente, su base
retrospettiva. In questo caso un turista tedesco tornato dalla Croazia ha mostrato i sintomi di Dengue. Nessuno ci
credeva perché in Croazia la Dengue non esiste, in realtà lui non è andato da nessun’altra parte. Ovviamente il
CDC (Centers for Disease Control and Prevention) ha fatto una serie di indagini ed ha scoperto che esisteva un
cluster di casi a trasmissione locale sulla costa della Croazia.
Queste sono due considerazioni limitatissime dal punto di vista epidemiologico perché parliamo veramente di
204
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
22 Novembre
pochi casi, ma se l’associamo a questa notizia di qualche giorno fa dell’isola di Madeira..a Madeira ci sono 1.357
casi autoctoni di trasmissione di Dengue da aedes aegypti. Aedes aegypti che fino al 2004 non era presente
nell’arcipelago delle Azzorre. E’ entrata, sono bastati 8 anni perché si instaurasse un numero di casi che in questa
situazione non è neanche un po’ da sottovalutare, perché più di 1.300 casi nell’attività stagionale delle zanzare è
veramente un dato assolutamente importante. Importante anche perché, essendo una destinazione turistica, ci
sono almeno 11 cittadini stranieri, cioè non autoctoni, sono tornati nel loro Paese di origine, che sono Portogallo,
Francia, Regno Unito e Svezia mi sembra nonché Germania, con la Dengue in fase viremica quindi con la malattia
attiva. E per questo, tanto per darvi un’idea di quella che è la situazione in una realtà molto piccola come l’EmiliaRomagna, il nostro laboratorio ha sorvegliato i cittadini che rientravano con dei sintomi sospetti negli ultimi 3-4
anni. Dal 2008 al 2009 abbiamo trovato da 3 a 17 casi acuti, quindi significa viremici, quindi significa con capacità
di innescare una trasmissione locale se esiste il vettore ed il vettore abbiamo visto che c’è, solo in un area molto
piccola come quella dell’Emilia-Romagna.
Secondo me c’è un dato interessante. Il sistema di sorveglianza che ci ha portato a vedere questi pazienti non
è cambiato dal 2008 al 2009, cioè la sensibilità del sistema che è basata sui medici di sanità pubblica è sempre
quella. I numeri sono aumentati perché effettivamente è molto più aumentato il numero di casi che sono in giro
per il mondo. Questo è un dato, secondo me, abbastanza rilevante.
Poi parliamo di West Nile, che è il penultimo dei cattivi di turno oggi pomeriggio. Il West Nile è un virus che ha un
genoma ad alta variabilità perché è facile che cambi per conto suo proprio per un problema di RNA polimerasi. Ha
un ciclo di trasmissione che non coinvolge l’uomo. Il West Nile è un virus zoonotico per sbaglio, se mi consentite il
termine, nel senso che si muove fra zanzare, soprattutto del genere culex, e uccelli selvatici, compresi i migratori.
L’uomo e il cavallo entrano in questo ciclo di trasmissione come ospiti a fondo cieco, nel senso che si ammalano
ma non sono in grado di ritrasmettere la malattia.
Le modalità di trasmissione del virus all’uomo sono sì la puntura della zanzara, ma ancora una volta la trasmissione
attraverso la donazione di organi e di sangue. Il problema del West Nile è un problema che nel bacino del
Mediterraneo si conosce da 50 anni, nel senso che il sud del bacino del Mediterraneo e Israele sono zone
endemiche da sempre. Il virus ha fatto una comparsa plateale in Grecia nel 2010, dopo essere comparso in Italia
nell’uomo nel 2008. E’ vero che era stato già identificato 10 anni prima nel Padule di Fucecchio, ma solamente
con casi veterinari. Nel 2008 è entrato in maniera abbastanza consistente in Italia ma, se mi consentite il paragone
calcistico, è entrato a ‘gamba tesa’ nel 2010 in Grecia perché ha fatto un’epidemia con più di 300 casi e diversi
morti. Altrettanto in Romania e quello che vedete qua è l’ultimo update, non è proprio l’ultimo ma ormai l’attività è
conclusa, del virus in Europa. Ci sono alcune aree rosse che sono il nord-est del nostro Paese (il virus in questi
ultimi due anni è particolarmente attivo fra il Veneto e il Friuli), la Sardegna (che quest’anno ha avuto un numero
di casi decisamente inferiore rispetto all’anno scorso ma il virus continua a circolare), tutti i Balcani nonché questa
zona dell’Ucraina e della Russia (dove il numero di casi stimati quest’anno sono circa 500 con 250 morti stimati,
quindi il virus si sta muovendo decisamente bene).
E’ importante il discorso della trasfusione di organi e di sangue perché il West Nile ha una figura clinica che è
un iceberg. L’80% almeno dei soggetti infetti è completamente asintomatico. Qualcuno di noi in questa sala
potrebbe aver avuto l’infezione da West Nile e potremmo non saperlo perché è passata in maniera completamente
asintomatica. Un 1%, forse meno, sviluppa una malattia neuro invasiva severa, è una meningo-encefalite che ha
una mortalità in alcune situazioni di popolazioni anche del 50%. E questa non è una bella notizia perché da una
puntura di zanzara ci può essere una conseguenza prognostica negativa. Un 20% infine che ha una sindrome
febbrile.
Il problema vero sono quell’80% di asintomatici perché il virus in quella fase è assolutamente trasmissibile. E,
siccome da questo punto di vista la Legge di Murphy si verifica con una correttezza quasi esemplare, è già successo.
E’ successo che in Emilia-Romagna abbiamo fatto un trapianto con un donatore infetto, è successo l’anno scorso
in Veneto. Abbiamo avuto diversi problemi perché chiaramente trasfondere è un conto, ma trapiantare un organo
infetto su un soggetto che riceve che è immunodepresso ha delle conseguenze decisamente importanti.
In Europa c’è un grosso lavoro di attenzione. La CDC ha cominciato nel 2011a pubblicare una lista settimanale di
potenziali situazioni di rischio quindi un monitoraggio molto molto attento.
Giusto per darvi un’idea di quanto può circolare il virus - noi l’abbiamo fatto sulla provincia di Ferrara ma lo stesso
dato è sulla provincia di Milano e sul Friuli Venezia Giulia - fra i donatori di sangue della provincia di Ferrara, che
è la prima provincia dove si sono verificati nel 2008 i casi umani, c’è una percentuale di siero prevalenza dello
0,7% che non è altissima, ma non è neanche bassissima. Vuol dire che lo 0,7% della popolazione dei donatori di
sangue ha avuto un contatto col virus.
I problemi non sono finiti perché in Italia, come sta succedendo in Grecia e in tutto l’est europeo, è emerso un
secondo lineaggio di West Nile che non siamo sicuri di poter identificare con certezza.
L’ultimo è questo virus dal nome assolutamente stano che si chiama Usutu. Un’altro virus africano che i veterinari
conoscono sicuramente molto bene perché Usutu, che è un cugino più che di primo grado rispetto al West Nile
Arezzo 20 - 23 novembre 2012
205
22 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
dal punto di vista filogenetico e appartiene al gruppo della encefalite giapponese, è un virus che fino al 2001 non
ha dato nessun segno di sé. Nel 2001 il virus è sbarcato in Austria e ha causato un’epidemia importante di uccelli
selvatici, ha colpito anche quelli dello zoo di Vienna e quindi ha suscitato l’attenzione dei veterinari perché non
è normale che gli uccelli muoiano per strada. Il risultato finale è che dall’Austria, dal 2001, il virus si è spostata
in Ungheria, in Italia, in Svizzera, in Repubblica Ceca. ha insomma invaso l’Europa centro-meridionale. Come
sia arrivato non lo so, ci sono diverse ipotesi, di fatto i virus Usutu che stanno circolando oggi in Europa sono
abbastanza lontani dal virus africano dal punto di vista filogenetico, quindi è probabile che il virus sia qua da un
po’ perché si è evoluto.
la cosa importante è che diversi studi hanno dimostrato che Usutu è in grado di mantenersi in natura fra zanzara
e uccello in tutti quegli ambienti in cui ci sia un minimo di dieci giorni caldi, che significa temperatura superiore a
30°, all’anno. Che significa in tutta Europa ormai, ce l’abbiamo e ce lo teniamo. Per adesso il problema era solo
veterinario, in realtà nel 2009 è emerso come patogeno umano. Siamo ancora in una situazione di valutazione,
nel senso che abbiamo visto due casi in pazienti immunodepressi ottenuti durante la sorveglianza per il virus
West Nile perché il virus è molto simile, lo abbiamo pescato per caso in un ricevente di trapianto di fegato.
Quello che è noto adesso è che Usutu è sicuramente in grado di dare viremie asintomatiche, quindi di infettare
in maniera asintomatica l’uomo sano come fa West Nile. Noi abbiamo trovato 4-5 donatori di sangue che sono
stati sicuramente infettati da questo virus e lo stesso discorso l’hanno fatto dei colleghi in Germania. Dove il virus
circola nella fauna selvatica, è capace di saltare nell’uomo.
Il virus è drammaticamente diffuso in tutto il bacino del Po, tant’è che nella parte sud ha soppiantato West
Nile. Il nostro sistema integrato di sorveglianza in Emilia-Romagna è in atto dal 2006 - integrato significa che
abbiamo trappole per le zanzare, abbiamo catture di insetti, abbiamo sorveglianza sull’uomo - con un bollettino
settimanale per cui tutto il sistema è perfettamente sempre registrato e sincronizzato su quelli che sono i risultati,
l’ha determinato in maniera molto preponderante sia negli uccelli che nelle zanzare.
Questa è molto semplice. C’è la bambina che si sveglia di notte e va a svegliare il padre e dice: “Papà, papà, c’è
una zanzara nella mia stanza!” e il babbo risponde chiaramente “Torna a letto, non è un problema”. La bimba
risponde: “Ok, allora vorrà dire che non mi preoccuperò di West Nile, Malaria, Dengue, Encefalite.....” e il babbo
dice: “Mi manca tanto l’uomo nero!”
206
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
22 Novembre
Cambiamenti ambientali globali, rischio chimico e infettivo: verso una prevenzione integrata
"Effetto dei cambiamenti climatici sulle malattie trasmesse dall’acqua"
Istituto Superiore di Sanità
Enzo Funari Gli eventi meteorologici estremi comportano danni serissimi: perdita di vite, danni fisici, danni alle costruzioni di
tutti i tipi, alle infrastrutture, alle attività economiche, spostamenti di popolazioni e forti contaminazioni ambientali.
Nella Regione Europea negli ultimi 20 anni il numero di persone colpite da questi eventi estremi è aumentato del
400%. Soltanto nell’Unione Europea negli ultimi 20 anni sono state interessate da questi disastri 29 milioni di
persone. Germania e Italia, anche per l’elevata densità di popolazione e infrastrutture, sono risultate tra i paesi
maggiormente colpiti. La direttiva 2007/60/EC sulla valutazione e la gestione del rischio delle alluvioni fornisce
importantissimi strumenti per mitigare questo rischio.
Nel recente rapporto sui cambiamenti climatici dell’Intergovernmental Panel on Climate Change, per questo
secolo viene previsto un aumento della frequenza delle forti precipitazioni ad alte latitudini e in zone tropicali
(IPCC, 2012). L’aumento di questi eventi è previsto anche in zone a latitudini media come l’Europa nella stagione
autunnale. Erosione delle coste e inondazioni si ritiene saranno confermati e intensificati. Sono attesi un aumento
delle temperature massime e una maggiore frequenza di giorni con temperature elevate. Infine è previsto un
aumento di siccità in alcune aree, compreso il bacino del Mediterraneo.
La valutazione dell’influenza dei cambiamenti climatici sulle patologie trasmesse con le acque è molto
complessa. Il primo elemento di complessità è rappresentato dalle difficoltà della comprensione dei processi di
contaminazione delle acque da parte dei microrganismi patogeni. Molte conoscenze di questi processi a partire
dalle fonti di contaminazione sono basate sugli indicatori batterici di contaminazione microbiologica, dunque non
sui singoli , numerosissimi microrganismi patogeni. E’ stato rilevato in numerosi studi che virus e protozoi sono
spesso più resistenti ai processi di inattivazione presenti nell’ambiente acquatico rispetto agli indicatori batterici
di contaminazione fecale. Anche l’esposizione dell’uomo ai microrganismi patogeni attraverso l’acqua potabile,
l’acqua di balneazione, il consumo di organismi acquatici, viene valutata indirettamente attraverso l’analisi degli
indicatori. In questo quadro non è certo semplice capire come i cambiamenti climatici possano interagire nelle
relazioni tra i microrganismi patogeni presenti nelle acque e le patologie da queste trasmesse.
Inoltre, la diffusione delle malattie trasmesse con le acque, sia in termini qualitativi che quantitativi, è dovuta
anche a spostamenti di popolazioni, ad una maggiore urbanizzazione, all’aumento della densità di popolazioni, al
fenomeno della resistenza dei microrganismi agli antibiotici, alla qualità del sistema sanitario. Infine le informazioni
su queste patologie dovrebbero essere fornite dai sistemi di sorveglianza ma in genere questi sistemi sono molto
carenti proprio per le patologie trasmesse con le acque. Almeno nei paesi più industrializzati viene comunemente
ritenuto che il problema della contaminazione microbiologica delle acque sia risolto grazie ad un’avanzata
normativa e ai moderni strumenti di gestione. Risolte le epidemie di colera e di tifo che hanno flagellato le città
europee nel passato sembra che il problema delle malattie trasmesse con le acque sia del tutto superato. In
realtà le cose non stanno così, nonostante gli indiscutibili progressi. Dove sono presenti i sistemi di sorveglianza
documentano numerosi episodi epidemici, ad esempio negli Stati Uniti e nel Regno Unito.
Il Protocollo Acque e Salute UNECE/OMS per la Regione Europea (1999) rappresenta un approccio integrato
in grado di valutare il peso di queste patologie e soprattutto offre strumenti per il loro controllo a fini preventivi. Il
confronto di questo approccio con le direttive europee permette di costatare che queste ultime sono importanti
strumenti di gestione ma offrono un quadro a volte frammentario. Nel loro insieme complesso e articolato sono
presenti non certo trascurabili varchi, come ad esempio quello derivante dalla mancata applicazione integrata
delle relazioni ambiente e salute (invece ben presenti nei Water Safety Plans dell’OMS e anche in una direttiva
europea, quella del 2006 sulle acque di balneazione). E’ forse auspicabile che alcune direttive vengano riviste
nel loro approccio, basate su disposizioni spesso molto dettagliate senza fornire criteri ed indirizzi da applicare
sulla base delle necessarie conoscenze del territorio, delle pressioni antropiche e condizioni ambientali.
La presentazione che segue è basata sull’articolo : Funari E., Manganelli M., Sinisi L. – Impact of climate change
on waterborne diseases. Ann Ist Super Sanità 2012 , 48, 473-83. A questo articolo si rimanda per approfondimenti.
Le forti piogge determinano un sovraccarico degli impianti di trattamento delle acque reflue con una conseguente
fuoriuscita di acque reflue non trattate, attraverso il dilavamento delle aree agricole e urbane trasportano
materiale organico, mobilizzano i microrganismi dai sedimenti comportando un aumento della contaminazione
microbiologica delle acque. All’aumento delle concentrazioni di microrganismi patogeni nelle acque naturali ,
Arezzo 20 - 23 novembre 2012
207
22 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
senza adeguate misure di gestione, corrisponde un aumento del rischio di trasmissione di patologie infettive
attraverso le acque potabili e di balneazione, il consumo di organismi acquatici e agricoli irrigati con queste acque.
Sono molti i lavori pubblicati in letteratura scientifica che dimostrano l’associazione tra questi eventi e le epidemie
trasmesse con le acque. In Tabella 1 ne vengono presenti alcuni tra i più noti.
Tabella 1. Epidemie associate a contaminazione delle acque a seguito di forti piogge/alluvioni
Località/anno Casi
Veicolo
M i l w a u k e e 403,000 casi Acqua lago
(US)/1993
(54 deceduti)
Iowa (US)
Acqua sotterranea
Montana (US)
Inghilterra e
Galles
Città
di 2300 casi, 65
Walkerton (Ca- ospedalizzati,
nada)
7 deceduti
Inghilterra
Galles
US
208
Fiume
Acqua potabile
ricavata da acqua sotterranea
, Indagine su limitato database di epidemie
trasmesse con
le acque
Indagine
su
548 epidemie
dal 1948 al
1994
Arezzo 20 - 23 novembre 2012
Agente eziolo- Causa
Autori dello
gico
studio
Cryptosporid- Forti piogge, Mac Kenzie et
d i l a v a m e n t o al., 1994; Hoium
aree
xie et al., 1997
Hunter P., 2003
Acanthamoeba Alluvione
keratitis
Pioggia ecces- Weniger et al.,
Giardia
siva
1983
Cryptospori- Eccessiva por- Lake et al.,
tata fiume
2005
dium
E s c h e r i c h i a Contaminazio- O’Connor DR,
coli O157:H7 ne da deiezioni 2002
,
Campylo- animali da una
fattoria locale a
bacter jejuni
seguito di inusuale pioggia
intensa
corre- Nichols et al.,
Giardia, Cryp- Forte
tosporidium, lazione tra il 2009
E. coli, S. ty- 40% dei casi
phi, S. para- e forti piogge
typhi, Campy- nella settimana
lobacter and che ha preceStreptobacillus duto le epidemie o pioggia
moniliformis
leggera per 4
settimane.
Associazioni Curriero et al.,
statisticamen- 2001
te significative tra intense
piogge ed epidemie trasmesse con l’acqua
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
Paesi
meno
sviluppati
22 Novembre
e WHO, 2012
Vibrio choler- Alluvioni
uragani : diae
struzione sistema distribuzione acqua e
mescolamento
acque potabili
e acque reflue.
Diffusione colera
L’episodio più grave riportato negli Stati Uniti è stato associato alla presenza di cisti di Cryptosporidium nell’acqua
potabile nel 1993. A seguito di forti precipitazioni il conseguente dilavamento delle aree agricole ha causato
una forte contaminazione del lago Milwaukee, utilizzato per l’approvvigionamento potabile nell’area. Sono
stati registrati 403.000 casi di criptosporidiosi e 54 decessi. I trattamenti di potabilizzazione e le attività di
monitoraggio routinariamente condotti non sono stati in grado rispettivamente di intercettare e rilevare l’inusuale
contaminazione. La lezione da trarre da questo drammatico evento è che non è sufficiente svolgere i propri
compiti in modo diligente. Il vero compito assegnato a coloro che devono tutelare la salute dei cittadini è quello di
acquisire al meglio le competenze necessarie per fronteggiare le diverse situazioni con responsabilità.
L’aumento della temperatura è abbastanza controverso per quanto riguarda il comportamento dei patogeni
nell’ambiente acquatico. Di certo sono favorite le specie ambientali come i batteri autoctoni. Negli Stati Uniti, le
vibriosi causate principalmente da Vibrio parahaemolyticus, V. vulnificus e V. alginolyticus sono tra le sei malattie
di origine alimentare più comuni e V. parahaemolyticus negli ultimi dieci anni è risultato la principale causa di
gastroenterite (De Paola et al., 2010).
Nei Paesi meno sviluppati è attesa un’estensione geografica e temporale di Vibrio cholerae se non vengono
prese adeguate misure di gestione.
La siccità comporta:
• un peggioramento delle condizioni igieniche;
• un aumento della probabilità di infiltrazione di materiale organico nel sistema di distribuzione delle acque
potabili per le cadute di pressione l’acqua;
• un maggiore riuso di acque reflue;
• una minore diluizione delle acque reflue e delle emissioni da impianti di trattamento;
• una maggiore probabilità di contaminazione delle acque sotterranee per infiltrazione da acque superficiali;
• la mobilizzazione di microrganismi dai sedimenti dopo le prime piogge che seguono periodo prolungati di
siccità.
Alcune epidemie riportate negli Stati Uniti, in Giappone e nel Regno Unito mettono in luce un problema particolare
, quello delle infiltrazioni di acque reflue o acque superficiali in acque sotterranee, favorite da fratture nel suolo o
del letto dei fiumi che si verificano a seguito di prolungati periodi di siccità. Di conseguenza risultano contaminate
acque che normalmente sono purissime. Proprio per la loro natura spesso vengono distribuite per il consumo
senza trattamenti di disinfezione.
L’associazione fra esposizione a contaminanti chimici presenti nelle acque potabili e patologie umane è stata
dimostrata per un numero molto limitato di contaminanti, come l’arsenico, i nitrati (probabilmente in associazione
con contaminazioni microbiologiche), e i floruri (WHO, 2008). Il piombo è un ulteriore elemento di preoccupazione.
Il consumo di prodotti ittici in alcune aree espone le popolazioni a livelli elevati di metilmercurio e di composti
organici persistenti.
In genere è difficile che le concentrazioni dei contaminanti chimici nelle acque raggiungano livelli tali da comportare
effetti osservabili, patologie per l’uomo.
Come possono influire i cambiamenti climatici? Le piogge intense determinano sicuramente una mobilizzazione
degli inquinanti da zone inquinate a zone non inquinate o meno inquinate. E’ stato dimostrato che l’erosione
costiera associata alle inondazioni causa il rilascio dai siti contaminati di sostanze chimiche che possono poi
ritrovarsi e accumulare lungo la catena trofica, con conseguente maggiore esposizione dell’uomo. Il dilavamento
Arezzo 20 - 23 novembre 2012
209
22 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
dei suoli comporta un maggiore rilascio di sostanza organica che complessa i metalli facilitandone il rilascio dai
minerali naturali. Potrebbero dunque aumentare in alcune aree le concentrazioni nelle acque di elementi come
l’arsenico. La più alta presenza di sostanze organiche rappresenta un problema anche per quanto riguarda la
formazione di precursori. Il trattamento di potabilizzazione con disinfettanti di queste acque dà luogo a più alti livelli
dei sottoprodotti della disinfezione, molti dei quali sono caratterizzati da proprietà biologiche importanti. Inoltre
nelle acque costiere un maggiore afflusso di acque dolci comporta una diversa distribuzione dei contaminanti. Di
certo aumenta la biodisponibilità dei metalli, infatti nelle zone soggette a queste situazioni viene osservata una
maggiore concentrazione di metalli nel biota, quindi un maggiore trasporto lungo la rete trofica.
Le reazioni chimiche e biologiche vengono favorite dall’aumento della temperatura quindi vengono in genere
favorite le reazioni di degradazione delle sostanze. Tuttavia temperature più elevate influenzeranno anche
l’utilizzazione delle sostanze chimiche. Per esempio in agricoltura un assetto diverso del suolo e una conseguente
nuova organizzazione potrebbero comportare un aumento dell’uso di fertilizzanti. Nel mare l’aumento della
temperatura può comportare una maggiore formazione di metilmercurio, che è la forma più tossica del mercurio
negli organismi acquatici. Poiché in alcune aree il metilmercurio ha dato luogo ad effetti neurologici molto rilevanti
nelle popolazioni locali, è probabile che si verifichi una aumentata esposizione almeno per queste aree. Infine
è stato visto che a temperature più elevate, durante il trasporto delle acque disinfettate aumentano i livelli dei
sottoprodotti.
La siccità comporta una minore diluizione dei corpi idrici quindi una maggiore concentrazione delle sostanze. Un
periodo lungo di siccità determina un accumulo di sostanze chimiche nei letti dei fiumi temporanei, caratteristici
dell’Italia centrale e soprattutto meridionale e insulare. Le prime acque di dilavamento trasportano picchi di
concentrazione non soltanto di microrganismi patogeni ma anche di sostanze chimiche. Inoltre la siccità causa
intrusioni saline in acque sotterranee nelle aree costiere per il loro abbassamento di livello.
Un problema emergente è infine quello delle fioriture dei cianobatteri e delle alghe tossiche marine. L’aumento
della temperatura comporta un aumento delle proliferazioni di questi microrganismi, lo spostamento di specie
tropicali verso nord. Le forti piogge aumentano il trasporto di nutrienti nelle acque e favorendo la crescita dei
cianobatteri e delle alghe. D’altra parte la siccità comporta una concentrazione di nutrienti nei laghi e quindi di
nuovo aumento delle fioriture.
Bibliografia
Curriero FC, Patz JA, Rose JB, Lele S. (2001). The Association Between Extreme Precipitation and Waterborne
Disease Outbreaks in the United States, 1948–1994. Am J Public Health ;91(8):1194-9.
DePaola A, Jones JL, Woods J, Burkhardt W, Calci KR, Krantz JA, et al. Bacterial and Viral Pathogens in Live
Oysters: 2007 United States Market Survey. Appl Environ Microbiol 2010 May 1, 2010;76(9):2754-68. doi:10.1128/
aem.02590-09.
Directive 2007/60/EC, on the assessment and management of flood risks (2007).
Hoxie NJ, Davis JP, Vergeront JM, Nashold RD, Blair KA. Cryptosporidiosis-associated mortality following a
massive waterborne outbreak in Milwaukee, Wisconsin. Am J Public Health 1997;87(12):2032-5.
Hunter P. Climate change and waterborne and vector-borne disease. Journal of Applied Microbiology 2003;94:3746. doi:10.1046/j.1365-2672.94.s1.5.x.
IPCC, 2012. Managing the Risks of Extreme Events and Disasters to Advance Climate Change Adaptation. A
Special Report of Working Groups I and II of the Intergovernmental Panel on Climate Change. Field CB, V. Barros,
T.F. Stocker, D. Qin, D.J. Dokken, K.L. Ebi, et al., editors. Cambridge, UK, and New York, NY, USA: Cambridge
University Press.
Lake IR, Bentham G, Kovats RS, Nichols GL. Effects of weather and river flow on cryptosporidiosis. J Water
Health 2005 Dec;3(4):469-74.
Mac Kenzie WR, Hoxie NJ, Proctor ME, Gradus MS, Blair KA, Peterson DE, et al. 1994. A massive outbreak in
Milwaukee of cryptosporidium infection transmitted through the public water supply. New Engl J Med;331(3):1617. http://dx.doi.org/10.1056/NEJM199407213310304.
Nichols G, Lane C, Asgari N, Verlander NQ, Charlett A. 2009. Rainfall and outbreaks of drinking water related
disease in England and Wales. J Water Health ;7:1-8.
O’Connor DR. Report of the Walkerton Inquiry. Part 1. The Events of May 2000 and Related Issues. Toronto2002.
210
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
22 Novembre
Protocol on Water and Health (1999): http://www.unece.org/env/water/pwh_text/text_protocol.html
Weniger BG, Blaser MJ, Gedrose J, Lippy EC, Juranek DD. 1983. An outbreak of waterborne giardiasis associated
with heavy water runoff due to warm weather and volcanic ashfall. Am J Public Health Aug;73(8):868-72.
WHO, 2008. Guidelines for drinking-water quality [electronic resource]: incorporating 1st and 2nd addenda.
Geneva: World Health Organization.
WHO, WMO. Atlas of health and climate. Geneva: WHO, WMO; 2012. Available from: http://www.wmo.int/ebooks/
WHO/Atlas_EN_web.pdf.
Arezzo 20 - 23 novembre 2012
211
22 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
Tecnologie per la gestione del ciclo dei rifiuti
"Quadrifoglio: l’esperienza della gestione integrata, problematiche ed opportunità"
Giorgio Moretti Amministratore Delegato Quadrifoglio
Trascrizione non revisionata dal relatore
Sono il Presidente della Quadrifoglio, l’azienda che gestisce il ciclo dei rifiuti nel territorio di Firenze, non tutto,
avendo disperatamente cercato di mettere insieme anche tanti altri pezzi, ma finora non mi è andata benissimo,
mi riferisco a elementi aggregativi di strutture che operano in questi territori.
Relativamente al tema della raccolta differenziata, credo che bisognerebbe affrontare questi argomenti con un
po’ di sano pragmatismo perché poi sul tema della raccolta differenziata si scatenano delle straordinarie guerre
di religione dove è molto interessante osservare l’animosità in un senso o nell’altro, ma poi quando andiamo a
fare i conti con le problematiche oggettive indubbiamente ci troviamo a dover gestire cose che molti di noi non
conoscono. Qui gli addetti ai lavori sanno perfettamente di cosa stiamo parlando.
Intanto la cosa principale è che il tema di differenziare fortunatamente sta evolvendo rapidamente verso il tema
di riciclare perché raccogliere, differenziare senza poi processare questo materiale è faticoso, costoso e, non
dico inutile, ma lo sforzo rischia di non valere la candela. Questo non è un messaggio per dire ai cittadini non
differenziate, però siamo forse finalmente in un momento in cui, anche in virtù della normativa europea che entro
breve dovremo adottare nelle modalità che sono previste e che sono anche abbastanza articolate, dovremo
arrivare a strutturarci bene su tutto il tema del riciclo.
Prima di me doveva parlare Caramassi sul tema del riciclo. Si è strutturato, insieme ad altre aziende toscane,
nel dare origine a questa entità, e chiaramente ne parlerà lui, che diventa parte terminale dell’elemento di
differenziazione. Entrando invece nel merito di quella che è la raccolta, posso dire che noi abbiamo effettivamente
sperimentato un certo numero di metodologie perché troppe volte al differenziato si associa il concetto del porta
a porta, quindi sembra che la raccolta differenziata sia simbiotica con il meccanismo del porta a porta. E’ vero,
in certe situazioni, però quello che sicuramente dobbiamo non commettere è l’errore della generalizzazione.
Processare rifiuti, trattare rifiuti, raccogliere rifiuti è estremamente articolato. E’ articolato in funzione dei territori
su cui si opera, è articolato in funzione del tipo di urbanizzazione che noi abbiamo. Per esempio, noi trattiamo
Firenze, il centro di Firenze è giornalmente urbato dello 0.6. Cosa vuol dire urbato dello 0.6? Vuol dire che per un
abitante residente noi accogliamo 0.6 abitanti non residenti. E’ una percentuale che è equivalente solo a quella
di New York nel mondo. Voi capite che il tema di convincere un visitatore, un turista a differenziare non esiste.
E’ vero che però abbiamo fatto delle cose che sono abbastanza interessanti, ad esempio l’interramento dei
cassonetti. C’è anche un aspetto del decoro del territorio, quindi sul centro storico abbiamo fatto e stiamo facendo
un intervento abbastanza massiccio di interramento dei cassonetti. L’interramento dei cassonetti ha generato la
possibilità di dividere il conferimento delle varie frazioni 24h24, perché un’altro problema che noi tutti abbiamo con
il porta a porta è che ci sono degli slot sul quale il cittadino o l’esercente può esporre questi sacchetti, bidoncini,
insomma tutti i vari meccanismi di raccolta. E quello nel centro di Firenze ha molto funzionato, ha portato ad un
aumento molto significativo della quota di differenziata rispetto all’indifferenziato nel centro storico di Firenze.
Ma allora questo perché non lo replichiamo tout court anche in periferia? No, perché in periferia possiamo
agevolmente gestire anche il porta a porta. Il porta a porta è un’altra modalità efficace, ma indubbiamente anche
molto costosa. E’ chiaro che noi oggi siamo costretti anche a dover fare i conti con quello che è il costo della
tariffa, il costo della TIA (Tariffa Igiene Ambientale), come si chiamerà l’anno prossimo. La raccolta differenziata ha
veramente tutta una serie di passaggi dove bisogna equilibrare comodità per il cittadino, convenienza in termini
di conferimento al riuso, al riciclo e, indubbiamente, anche un conto economico di che cosa costa in termini di
trattamento.
L’esperienza che noi abbiamo è molto diversa. Abbiamo, per esempio, avviato in alcune zone del territorio
servite da Quadrifoglio quelle che si chiamano “calotte intelligenti”, dove il cittadino con la chiavetta si presenta e
conferisce, quindi il cittadino è riconosciuto rispetto a quello che sta conferendo.
E’ chiaro che il tema dell’igiene urbana e, soprattutto, della raccolta è molto articolato e molto complesso. Nessuno
immagini di avere la soluzione, la pietra filosofale di questa cosa. Bisogna essere molto pragmatici, bisogna
essere consapevoli che ogni territorio deve essere trattato tenendo conto di molti fattori, scegliere la modalità e
la tecnologia più adatta, ma sempre con il fondamentale obiettivo di avere ben chiaro dove il materiale raccolto e
differenziato verrà poi portato per poterlo avviare all’elemento del riuso e del riciclo.
Questa è la nostra esperienza. Noi andiamo sempre, in maniera più determinata, verso queste dinamiche di
segmentazione del territorio in funzione di quello che riteniamo essere il modo più efficiente ed efficace per dare
servizio al cittadino e qualità di raccolta differenziata. Qualche volta, ahimè, dobbiamo anche fare i conti con dei
numeri che sono veramente numeri al lotto perché la normativa non è così stringente nell’andare a rappresentare
212
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
22 Novembre
chiaramente qual è la percentuale di differenziazione. Da regione e regione osserviamo già delle differenze, ci
sono vari modi per poter andare a calcolare queste cose. Anche qui bisognerebbe fare chiarezza, bisognerebbe
prima uscire dalla fiera delle vanità, perché ognuno che maneggia le aziende ha piacere a dire “noi siamo arrivati
al % X di differenziazione”, però bisognerebbe andare a vedere se quella realmente è differenziazione.
Bisogna poi sapere che cosa si conferisce in questi “cassonetti”, perché noi ci troviamo di tutto. Per mille ragioni
ci troviamo in situazioni paradossali.
Abbiamo una crescita enorme degli abbandoni. Non so i colleghi delle altre strutture come vivono questo
fenomeno. E’ un tema estremamente complesso ed anche per fare questo abbiamo costruito su Firenze 7 centri
importanti di conferimento, dove, in molti di questi, è possibile conferire fino a 32 diverse tipologie di materiali.
Occorre principalmente il senso civico dei cittadini. Noi possiamo montare qualunque tecnologia, qualunque
metodologia, qualunque elemento di efficientamento, ma senza il senso civico dei cittadini non si va da nessuna
parte. Uno potrebbe dire “inventatevi un sistema premiante su quello che è il comportamento virtuoso del cittadino”.
Beh, sì, è facile a dirlo, ma è molto complicato a farsi. Immaginate io quale sistema premiante mi posso inventare
in un centro storico fiorentino dove la prevalenza dell’urbato è 1.2, addirittura 1.4, 1.5 in certe giornate. E’ chiaro
che è tutto molto difficile.
Il sistema di conferimento sulle calotte, dove tu ti presenti e dici “Io sono Giorgio Moretti e ti sto conferendo una
frazione umida, piuttosto che carta o cartone”, sì, ma in ogni caso bisogna fidarsi, no?
E’ vero che mi presento con la chiavetta, è vero che sto dicendo che sono Giorgio Moretti ed è vero che sto
dicendo che dentro c’ho messo l’organico, ma non è che il sistema è così intelligente, ad oggi, per poter capire
se è vero o non è vero.
Noi interveniamo anche con dei meccanismi sanzionatori. Non c’è niente da fare, ci vuole anche la sanzione.
Solamente la Quadrifoglio gestisce 18.000 postazioni di cassonetti, provate ad immaginare cosa dovremmo
avere. Dovremmo avere 18.000 persone che presidiano, insomma non è credibile.
Il tema è complesso. Il tema è costantemente in evoluzione. Noi cerchiamo di fare il massimo sforzo per cercare
di conseguire una crescita che, fortunatamente, sta avvenendo costantemente. Nel nostro territorio siamo quasi
al 47% di raccolta differenziata vera, calcolata coi criteri più rigorosi e più conservativi. Abbiamo dei comuni
che sono abbondantemente sopra il 50%, 52-53%. Riteniamo che avere Firenze che è salita sopra il 45%, con
le complessità aggiuntive di cui vi ho detto, quindi con questi turisti che chiaramente buttano qualsiasi cosa,
prevalentemente anche per terra. Siamo abbastanza soddisfatti, ma non c’è limite alla soddisfazione su questa
cosa.
Molto altro non ho da dirvi e vi ringrazio per avermi ascoltato. Buongiorno.
Domanda: mi sono sempre chiesto che cosa succede se uno butta, per esempio, dell’umido nel cartone. Tutto il
cassonetto va a farsi benedire oppure...?
No, non è che tutto il cassonetto va a farsi benedire. Anche nel calcolo della raccolta differenziata c’è un meccanismo
di purezza e di non purezza. Per esempio, più facile viene dire sulle bottiglie di plastica, sulla PET, perché ci sono
dei materiali che se vengono bagnati dall’umido, voglio dire, cartone, ma è chiaro che se noi cominciamo a buttare
insieme al PET, per esempio, il cartone si inquina notevolmente la frazione e l’avvio al riciclo diventa complicato.
Le aziende, come il REVET, che fanno di mestiere la separazione, ma più che la separazione il controllo postraccolta differenziata, riprendono in mano quello che è stato il conferito e fanno un secondo livello di selezione. Voi
capite che è tutto estremamente costoso. Non vorrei essere frainteso dicendo quello che sto per dire adesso. Gli
americani hanno risolto il problema molto semplicemente, bruciano ogni cosa e quindi il problema è risolto. Come
facciamo noi? Abbiamo su 1.150 persone più circa 400-450 persone, 8 ispettori ambientali, i quali vanno, aprono
il sacchetto, guardano se dentro non c’è roba inquinata e li sanzionano, perché poi c’è anche una dinamica per
risalire a chi sei, oltretutto con un sistema sanzionatorio che è indiretto.
A Firenze abbiamo i cassonetti gialli e sulla raccolta porta a porta indubbiamente è più facile. Diciamo che
sul cartone siamo meno stressati, è più stressata la parte del multimateriale perché lì c’è anche poi questa
differenziazione meccanica che sta diventando sempre più sofisticata.
Arezzo 20 - 23 novembre 2012
213
22 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
Tecnologie per la gestione del ciclo dei rifiuti
"Presentazione Agenzia Regionale Recupero Risorse"
Graziano CiprianiPresidente ARRR Agenzia Regionale Recupero Risorse
Buonasera. Io sono Graziano Cipriani, Presidente della Agenzia Regionale Recupero Risorse, meglio nota come
A.R.R.R. Spa. Illustrerò brevemente quelle che sono le attività e il ruolo dell’Agenzia che ha come socio unico
la Regione Toscana, dopodiché i nostri tecnici e dirigenti parleranno del metodo di certificazione delle raccolte
differenziate e, su questi temi, di quella che è la situazione in Toscana.
Nel 2009, il socio di maggioranza Regione Toscana ha promosso una revisione societaria dell’Agenzia, finalizzata
a trasformarla in società avente caratteristiche in house in conseguenza della Legge Bersani sulle spa partecipate
da Enti Pubblici.
A.R.R.R. Spa ha svolto negli anni un ruolo strategico di supporto alle politiche regionali in materia di rifiuti tanto
da renderne indispensabile il mantenimento.
La nuova società è stata costituita a gennaio del 2011 a conclusione di un lungo processo di trasformazione ed
oggi ha un importante ruolo di supporto e assistenza all’attività della Regione Toscana in ambito della gestione
dei rifiuti e della bonifica dei siti inquinati.
La delibera della Giunta Regionale Toscana del 3 novembre 2008 n. 877 cita il ruolo strategico svolto da A.R.R.R.
Spa e prende atto che:
- A.R.R.R. Spa svolge, tra l’altro, funzioni legate alla gestione dei servizi informativi e di consulenza, oltre che
prestazioni tecniche in favore della Regione Toscana, anche legate ad attività di studio e ricerca, nell’ambito
dell’intera filiera della gestione dei rifiuti: dalla pianificazione della raccolta allo smaltimento, nonché per la
certificazione , prevenzione, riduzione, riutilizzo, recupero e riciclaggio dei rifiuti, anche attraverso l’utilizzo di
nuove tecnologie;
- A.R.R.R. Spa ha, di fatto, rivestito in questi anni un ruolo strategico di supporto alle politiche regionali di
gestione dei rifiuti, tanto che l’attuale struttura del settore regionale “Rifiuti e bonifiche” ne rende indispensabile
il mantenimento, così come riconosciuto nel rapporto concernente il governo delle partecipazioni regionali
approvato con decisione della Giunta Regionale n. 11 del 28/07/2008.
La nuova società, deriva quindi dal processo di trasformazione della Agenzia Regionale Recupero Risorse
promosso dalla Regione Toscana con legge 29 dicembre 2009, n. 87. Con delibera n. 1077, la Giunta Regionale
Toscana il 28 dicembre 2010 ha approvato l’atto costitutivo e lo Statuto della nuova società. In data 18 gennaio
2011 la società ha provveduto a far propri l’atto costitutivo e il nuovo Statuto.
Tra le attività che la società svolge nel campo dei rifiuti, particolare importanza ha quella di accertamento
propedeutica alla certificazione del conseguimento degli obiettivi minimi di raccolta differenziata previsti dalla
normativa statale e regionale in materia di gestione dei rifiuti.
A seguito di quanto disposto dall’art. 205 comma 1 del D. Lgs. 152/06, ai sensi del quale in ogni ATO deve
essere assicurata una percentuale minima di raccolta differenziata sulla base di determinate e differenti scadenze
temporali, la certificazione che sarà effettuata nel 2012 verificherà il raggiungimento dell’obiettivo indicato dallo
stesso decreto.
La legge regionale 25/98 e successive modifiche e integrazioni ha previsto che gli obiettivi di legge devono essere
certificati secondo le modalità affidate ad un metodo standard, che è quello di cui parleranno dopo i nostri tecnici,
che fa riferimento alla delibera della Giunta Regionale Toscana n. 1248 del 28/12/2009, mediante il quale censire
lo stato dell’organizzazione dei servizi in genere, nonché rilevare l’efficienza dei sistemi di raccolta differenziata
raggiunta dai singoli Comuni e a livello di ATO. Ai sensi del suddetto metodo standard, il periodo di riferimento per
il conseguimento degli obiettivi di efficienza di raccolta differenziata nel 2011 va dal 1° gennaio al 31 dicembre
2011.
Io ho concluso, vedrete che dall’illustrazione che verrà fatta tra poco si capirà l’importanza di avere uno strumento
nella nostra Regione che è considerato un’eccellenza anche da altre Regioni che conoscono il lavoro che i nostri
tecnici svolgono, perché attraverso questo metodo si possono determinare risultati sulle raccolte differenziate e
anche un controllo qualitativamente elevato su tutto il ciclo dei rifiuti.
214
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
22 Novembre
Tecnologie per la gestione del ciclo dei rifiuti
"Il metodo di certificazione dell’efficienza della raccolta differenziata in Toscana e lo stato delle RD"
Stefano Bruzzesi
Dirigente ARRR Agenzia Regionale Recupero Risorse
Il tema è il metodo di certificazione dell’efficienza della raccolta differenziata in Toscana e lo stato della raccolta
differenziata in questa regione. Come vedete ci sono due pilastri normativi al livello di normativa nazionale, uno è
il D. Lgs. 22/1997 (c.d. Decreto Ronchi) e poi il successivo Decreto Legislativo, questo più vicino a noi come fase
temporale, il 152/2006 che ha introdotto nuovi obiettivi di raccolta differenziata per fasce temporali. Il 35% entro
il 31/12/2006, almeno il 45% entro il 31/12/2008 e, infine, almeno il 65% entro il 31/12/2012. Entrambi i decreti
prevedevano l’emanazione di un decreto ministeriale che avrebbe stabilito la metodologia e i criteri di calcolo da
utilizzare per la valutazione della percentuale delle raccolte differenziate, ma come spesso succede nel nostro
sistema normativo, ad oggi il decreto ministeriale annunciato ormai da 15 anni non è stato pubblicato.
A livello nazionale, Ispra ha adottato da anni un proprio metodo di calcolo che utilizza in modo uniforme sull’intero
territorio nazionale al fine di rendere confrontabili i dati afferenti ai diversi contesti territoriali. Tale metodo può
risultare diverso dalle procedure applicate a livello regionale, perché ogni regione ha un suo metodo, infatti molte
regioni, in assenza dell’emanazione del decreto ministeriale che avrebbe dovuto definire i criteri di calcolo della
percentuale di raccolta differenziata, hanno autonomamente proceduto alla definizione di proprie metodologie.
Ora vediamo invece quello che succede nella Regione Toscana. La Regione Toscana, per prima in Italia, si
dotò nel 1998 di un proprio metodo standard per il calcolo dell’efficienza della raccolta differenziata per colmare
la lacuna normativa a livello nazionale. Da allora anche altre regioni, successivamente, hanno adottato propri
metodi di calcolo.
In Toscana la certificazione delle raccolte differenziate è effettuata da ARRR, mentre nelle altre Regioni
principalmente questo lavoro è svolto dalle ARPA o, in alternativa, però in misura minore dalle Regioni.
La Dr.ssa Corsini presenterà il metodo di calcolo della % di raccolta differenziata adottato in Regione Toscana e
alcuni dati di produzione dei rifiuti urbani e della raccolta differenziata relativa all’anno 2011 e un confronto con i
dati del 2010.
Arezzo 20 - 23 novembre 2012
215
22 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
Tecnologie per la gestione del ciclo dei rifiuti
Lucia Corsini ARRR Agenzia Regionale Recupero Risorse
La formula per il calcolo dell’efficienza della raccolta differenziata in Toscana (vedi metodo standard regionale
di certificazione delle RD) ha al numeratore la somma dei quantitativi dei rifiuti raccolti in forma differenziata e al
denominatore il quantitativo dei rifiuti urbani totali al netto del quantitativo di metalli selezionati dai rifiuti urbani
indifferenziati in impianti di selezione meccanica, a cui viene sottratta una percentuale attribuita convenzionalmente
allo spazzamento stradale: tale percentuale è fissata al 6% per i Comuni con popolazione minore a 40.000 abitanti
e all’8% per i Comuni con popolazione superiore a 40.000 abitanti.
Alla percentuale calcolata con questa formula si aggiungono, se dovuti, un incentivo per il compostaggio domestico
e un incentivo per il servizio di raccolta di rifiuti inerti da costruzione e demolizione di provenienza domestica.
L’incentivo per la pratica del compostaggio domestico varia dallo 0,4 al 3% in funzione della percentuale di
abitanti residenti nel comune che utilizzano questo metodo di riduzione alla fonte dei rifiuti. Per l’attribuzione
dell’incentivo viene richiesto ogni anno un controllo su almeno il 25% dei composter distribuiti.
L’incentivo per la gestione dei rifiuti inerti da costruzione e demolizione vale un 1% e viene riconosciuto a quei
Comuni che effettuano un servizio di raccolta dei rifiuti inerti da costruzione e demolizione di provenienza
domestica prodotti durante lavori effettuati in economia dal proprietario all’interno della propria abitazione.
Alcuni dati relativi alla produzione di rifiuti urbani in Toscana nel 2011:
La produzione dei rifiuti urbani totali nel 2011 in Regione era di circa 2,4 milioni di tonnellate, di questi 930.000
tonnellate circa sono rappresentate dalle raccolte differenziate. La percentuale di raccolta differenziata calcolata
secondo il metodo standard toscano, a livello regionale, è stata del 42,2%. Nel 2011 la produzione pro capite di
rifiuto urbano totale è stata di 630 kg/abitante*; delle raccolte differenziate circa 247 kg/abitante.
Rispetto al 2010 la percentuale di raccolta differenziata è aumentata di oltre 2 punti percentuali, mentre il
quantitativo della raccolta differenziata in termini di tonnellate è rimasto pressoché stabile, anzi ha subito una
lieve flessione di circa 6.000 tonnellate.
Il quantitativo dei rifiuti urbani indifferenziati invece ha subito una forte diminuzione dell’ordine dell’8,6%. Il rifiuto
urbano totale, per la diminuzione dell’indifferenziato, ha subito una riduzione del 5,6%. La produzione pro capite
del rifiuto urbano totale è passata dai 670 ai 630* kg/abitante ritornando ai valori del 2000.
Descrizione di un grafico in cui è rappresentata l’evoluzione dal 1998 al 2011 della produzione pro capite di
rifiuti da raccolta differenziata (in verde), della produzione pro capite dei rifiuti urbani indifferenziati (in grigio),
della produzione dei rifiuti urbani totali (in azzurro) e della percentuale di raccolta differenziata (in rosso). Si
possono distinguere tre fasi principali: una prima fase, che arriva fino al 2004, in cui le raccolte differenziate sono
progressivamente aumentate accompagnate ad una crescita altrettanto evidente del rifiuto urbano totale, mentre
il rifiuto urbano indifferenziato è rimasto pressoché costante o comunque ha subito delle minime oscillazioni;
una seconda fase di stasi dal 2004 al 2007, in cui la percentuale della raccolta differenziata è rimasta pressoché
costante intorno al 33%; infine una terza fase, dopo il 2007, in cui c’è stata una ripresa della raccolta differenziata,
soprattutto un inizio di diminuzione nella produzione di rifiuto urbano indifferenziato che è la causa determinante
della flessione anche nel rifiuto urbano totale.
Dal 2006 al 2011 si è passati da 703 kg/abitante, che è stato il picco massimo raggiunto in Regione ed è stato
anche un primato a livello nazionale, ai 630* kg/abitante nel 2011.
Risultati di raccolta differenziata a livello di ATO e a livello di Comuni: nel 2011, dei tre ATO regionali solo l’ATO
Toscana Centro ha superato l’obiettivo di RD del 45% attestandosi al 47,42%. Gli altri due ATO hanno avuto
delle performance lievemente inferiori: per l’ATO Toscana Costa la percentuale di raccolta differenziata è stata
pari al 42,4%, per l’ATO Toscana Sud è stata pari al 38,11%. Per quanto riguarda i Comuni, a livello regionale, 95
Comuni hanno superato l’obiettivo di raccolta differenziata del 45%, tra questi 21 hanno superato anche l’obiettivo
del 65% fissato dalla norma nazionale per il 2012; gli altri 192 comuni nel 2011erano fermi a valori di raccolta
differenziata inferiore al 45%.
Che cosa viene raccolto in forma differenziata? (descrizione di un istogramma e di un diagramma a torta in cui
sono rappresentate le diverse frazioni di rifiuti da raccolta differenziata). Il materiale maggiormente intercettato
con le raccolte differenziate è rappresentato da carta e cartone. Quasi 300.000 tonnellate nel 2011, corrispondenti
al 32% della raccolta differenziata regionale totale. Al secondo posto troviamo l’organico con 228.000 tonnellate,
il verde con 107.000 tonnellate e così via gli altri materiali.
Modalità di raccolta (tabella sulla diffusione delle diverse modalità di raccolta diffuse sul territorio regionale; dati
relativi al 2010): la modalità di raccolta dominante era ancora una raccolta di tipo stradale seppure ci sono anche
una quantità di comuni piuttosto importante che hanno affiancato a una raccolta di tipo stradale una raccolta di
tipo porta a porta per la maggior parte delle raccolte differenziate. Per la raccolta differenziata dell’organico è
216
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
22 Novembre
disponibile un aggiornamento con i dati relativi al 2011: la raccolta differenziata di questa frazione è stata estesa
a 5 comuni in più rispetto al 2010 (191 comuni su 287); i casi di raccolta stradale sono diminuiti di circa 20 unità;
la raccolta porta a porta è effettuata in 40 comuni, mentre i sistemi misti (porta a porta+stradale) sono passati da
52 del 2010 ai 75 del 2011.
Rispetto alla situazione descritta per il 2010, nei prossimi anni assisteremo nella nostra regione alla diffusione
delle raccolte domiciliari e alla diminuzione della raccolta dei rifiuti di imballaggio con modalità multimateriale
pesante VPL (vetro-plastica-lattine) che sarà sostituita progressivamente dalla raccolta monomateriale del vetro
accompagnata da una raccolta con modalità multimateriale leggero, cioè plastica + lattine. In proposito la Regione
Toscana, all’inizio del 2011, ha stipulato un accordo con Revet, Revet Vetri, CoReVe, Conai, Cispel e ANCI per
arrivare al 2015 a raccogliere il 70% del vetro con modalità monomateriale.
*il dato pro capite a consuntivo relativo alla produzione di rifiuti urbani totali in Toscana, a seguito della pubblicazione
del dato definitivo da parte dell’Istat della popolazione residente al 31/12/2011 tenuto conto anche dei risultati
dell’ultimo censimento, risulta pari a 647 kg/abitante.
Arezzo 20 - 23 novembre 2012
217
22 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
Tecnologie per la gestione del ciclo dei rifiuti
"Il recupero della frazione organica in Italia"
David Newman
Direttore Generale CIC Consorzio Italiano Compostatori
Io sono David Newman, Direttore del Consorzio Italiano Compostatori. Siamo una piccola struttura, 120 aziende
in tutta Italia che gestiscono circa 200 impianti di compostaggio e rappresentiamo questo mondo di rifiuti organici.
I rifiuti organici hanno un ruolo strategico per una serie di motivi. Prima di tutto, diciamolo chiaramente, è un
business. I rifiuti pagano. E’ la chiusura però anche di un ciclo naturale, quello che viene dalla terra e che noi
consumiamo torna alla terra in forma di fertilizzanti che mantiene la fertilità del suolo ed è un modo anche per
sequestrare nel suolo il carbonio che tiriamo fuori quando coltiviamo. E’ importante fare questo lavoro perché
3/4 del suolo dell’area mediterranea ha un basso contenuto di sostanza organica, ciò significa che va verso la
desertificazione quindi serve la sostanza organica. Una volta c’era il letame che gli agricoltori rimettevano sul
suolo, oggi c’è il compost che viene dai centri urbani ed abbiamo molti rifiuti organici. Oggi in Italia quasi il 40% di
tutte le raccolte differenziate sono rifiuto organico. Infatti sono curioso di sapere quanti di voi in questa sala fate la
raccolta differenziata dell’umido a casa? Bene, è un buon numero infatti va a consolidare un dato che farò vedere.
Abbiamo delle Regioni in Italia dove, pro capite, si raccolgono oltre 120kg annuo di rifiuto organico (Veneto,
Emilia-Romagna, la Sardegna che stranamente è una delle Regioni più avanzate che nessuno avrebbe mai
detto). E’ una pratica anche molto diffusa tra voi, sono molto contento di questo.
Sono 30 milioni di cittadini italiani oggi che fanno la raccolta della frazione organica e, come vedete dalle zone
gialle o chiare, sono i soliti sospetti che non la fanno, perché le Regioni del Sud sono indietro non soltanto per i
rifiuti ma anche per tanti altri indicatori di sostenibilità e di buona economia.
Con le raccolte è cresciuto il numero di impianti, siamo oggi a circa 270 impianti in giro per l’Italia. Molti di questi
impianti sono piccole piattaforme, ma altri sono delle vere strutture industriali. Cresce anche il numero di impianti
che trattano, prima del compostaggio, il rifiuto organico per produrre metano, quello che chiamiamo biogas. E’ una
realtà piccola, però sono impianti molto grossi, molto costosi. Siamo a 23 impianti nel 2010 operanti ed un’altra
decina di impianti in costruzione.
Ecco vediamo un po’ il percorso. Voi che siete tutti molto virtuosi, bravi cittadini che fate la raccolta dell’organico, lo
sapete anche voi che a casa si differenzia, si conferisce questo rifiuto ad un circuito di raccolta, viene trasportato
ad un impianto di compostaggio e di gestione anaerobica dove viene trattato. Secondo dove abitate, quale tipo di
struttura, di edificio, la villetta o un condominio o appartamento, voi riconoscerete sicuramente questo tipo di raccolta
con il sacchetto compostabile, mi raccomando, non la plastica perché poi dopo la troviamo all’impianto. Quindi
dalla cucina al sistema di raccolta differenziata. Ci sono diverse situazioni anche urbane, condominiali, cassonetti
tradizionali dedicati all’organico o quelli più piccoli che trovate nel cortile del condominio. Più domiciliarizzata è la
raccolta, più pulito è il materiale perché se andiamo a vedere questo grafico qui che magari vi dice molto poco,
ma noi facciamo le analisi merceologiche, vuol dire che alla testa dell’impianto andiamo ad analizzare quello che
arriva. L’82% delle nostre analisi indicano che arriva materiale organico con meno di 5% di impurità, addirittura
il 35% delle analisi dicono che arriva con il 2,5% di impurità quindi veramente delle situazioni di eccellenza nella
raccolta. Questo è dovuto all’attenzione dei cittadini certamente, ma anche alla domiciliarizzazione, al porta a
porta di cui avevamo parlato prima. Purtroppo la Toscana, devo dire, è sulla destra di questo grafico perché la
raccolta differenziata in Toscana è sempre, come diceva prima il collega, ancora molto dipendente su cassonetto
stradale. Cassonetto stradale = Rifiuti non conformi, non compostabili.
Trattiamo questi rifiuti essenzialmente in due sistemi. Un sistema estensivo che tratta soprattutto i rifiuti più a
biomasse a bassa degradabilità, quindi gli sfalci, le potature, rifiuti prettamente verdi che hanno un tempo di
processo che può durare addirittura fino ad un anno perché ci mette molto tempo questa roba a degradarsi. Sono
sistemi però a bassa intensività energetica e anche a basso livello di investimento, perché, come vedremo da una
fotografia, non si tratta di alta tecnologia, non è altro che un’industrializzazione della concimaia o della letamaia
che i nostri nonni avevano nel cortile del podere. Questo produce però il terriccio più pregiato, perché è il terriccio
più puro e quello più ricercato sul mercato. Si lavora in questo modo: si caricano le matrici all’ingresso, vengono
triturati, i cumuli vengono allestiti in altezze che vanno dai 2 ai 4 metri, vengono poi rivoltati periodicamente per
assicurare che ci sia l’ossigeno e che le matrici siano omogenee, infine una volta che si è degradato, che è
diventato humus, viene vagliato per togliere le pezzature più grosse e anche qualche impurità.
E’ un processo del tutto naturale, non bruciamo niente, non aggiungiamo niente. E’ una industrializzazione di un
processo totalmente naturale.
Questa è una foto aerea di un impianto di compostaggio che fa solo verde, tratta 40.000 t/anno. Ecco, Dr.ssa
Passerini, quest’impianto è destinato a chiudere se passa quella normativa di cui parlavamo prima e questi li
salutiamo e diciamo “Peccato! Avete investito per niente”.
218
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
22 Novembre
L’umido viene invece trattato con un sistema intensivo, quindi un sistema con alti costi di investimento perché
tutto al chiuso in quanto le frazioni umide hanno bisogno di un trattamento molto veloce con aria forzata. Sono
putriscenti quindi puzzano, sono quelli che creano cattivo odore anche quando vanno in discarica e quindi lì
c’è un consumo energetico relativamente alto e una necessità anche di un certo spazio per movimentare il
materiale. Viene però lavorato molto velocemente perché in tre mesi riusciamo a comporre questi rifiuti e fare il
terriccio. Il processo è più o meno identico a quello che abbiamo visto prima, solo che c’è un po’ più di vagliatura
perché ci sono più impurità, questo viene dalle vostre case, quindi un po’ di plastica la troviamo. C’è più tempo di
maturazione intensiva dove c’è l’insufflazione dell’aria per asciugare questa massa. Il rifiuto umido è 80% acqua,
quindi è difficile trattarlo e ci vuole un processo tecnologico abbastanza complesso. Il compost finito esce fuori,
come vediamo in questa slide, pronto per essere venduto.
Questi impianti hanno dei presidi ambientali, anche molto costosi, di biofiltri per trattare quelle arie esauste che
vengono dall’impianto in modo che non diano fastidio al vicinato. E poi c’è il terzo sistema che combina l’estrazione
del metano biogas con l’estrazione o con il trattamento di materia. Questi sono impianti di alto costo industriale,
cioè più del doppio di un impianto estensivo di compostaggio, e trattano però tutte quelle frazioni che sono
umide per tirar fuori il gas con dei risultati anche economici notevoli. Attraverso l’estrazione del biogas si migliora
ovviamente il bilancio energetico dell’impianto perché l’impianto diventa un produttore di energia. Si risolve anche
il gran problema degli odori perché trattando l’umido all’interno dei container chiusi si controlla molto meglio. Il
digestato è già un materiale che è più facile compostare perché abbiamo tolto già tanta acqua e si riduce anche lo
spazio necessario. Si riduce l’emissione di CO2 , si sostituisce anche un fossil fuel con un gas del tutto naturale.
E’ un sistema molto bello, ma ha una pecca. Dipende, per la sua economicità, dagli incentivi di energia rinnovabile
e finché questi rimangono il sistema andrà avanti poi Dio solo sa se rimarranno.
Questo processo è simile a quello che abbiamo visto prima con l’inserimento della fase di estrazione di biogas
attraverso la digestione anaerobica.
Questo è un impianto che fa compostaggio e digestione anaerobica. Uno dei più grossi impianti al mondo
l’abbiamo qui in Italia, non dobbiamo andare in America per vederlo, basta prendere il treno e andare a Padova.
Produce energia, produce compost, produce calore col quale riscaldano case e fabbriche lì intorno. Calore col
quale, attraverso un convertitore, vendono aria fredda per i condizionatori durante l’estate. Senza bruciare niente
si ha energia, calore e materia. Sembra un miracolo, ma così è!
Eccolo il famoso compost. Il compost non è altro che un fertilizzante, classificato come un fertilizzante per legge.
Ne facciamo 1.400.000 tonnellate quest’anno, tutti venduti più o meno da 1 euro in su, ma c’è chi vende per
specifici usi come l’orticultura o il giardinaggio ha prezzi molto alti. Se voi andate al supermercato e comprate
un sacco di terriccio, dentro quel terriccio sicuramente il 30-50% è compost e se calcolate lo pagate tra i 200 e i
300 euro a tonnellata. Più piccola è la confezione, più specializzato è il prodotto, più alto è il prezzo. La maggior
parte del nostro compost viene però venduto agli agricoltori che, come vedete in questa foto a destra, lo mettono
sui campi per ripristinare tutte quelle sostanze organiche che hanno tirato fuori con le coltivazioni. Si usa molto
anche nel senese per la produzione del vostro ottimo Chianti dove il compost di Siena Ambiente viene venduto
agli agricoltori.
E’ un mondo molto interessante questo dei compost perché siamo uno dei pochi, forse l’unica filiera dei rifiuti che
prende una cosa, per esempio la buccia della banana e la trasforma in qualcosa di completamente differente. Se
prendo invece un cartone produco carta, se prendo l’alluminio produco altro alluminio, ma il compost viene da una
fonte che non è identificabile, è un rifiuto organico. E’ la filiera di recupero, oggi in Italia, più grande.
Sono qui a disposizione per domande. Grazie.
Domanda: Qual è il vantaggio di abbinare il compostaggio al digestato, cioè non è possibile espandere direttamente
il digestato dal digestore anaerobico?
Per legge, se viene da fonti agricole è possibile andare direttamente in agricoltura, ma se il digestato viene
dall’umido domestico non è 100% organico, come abbiamo visto c’è il 3, il 5 fino al 10% di materia compostabile
dentro. Plastiche, pezzi di metallo, ma soprattutto plastiche. L’8% di quello che viene conferito da noi sono plastiche
che dobbiamo togliere e portare in discarica. Se mettiamo quel digestato tale e quale sui campi, portiamo l’8% di
plastica sui campi.
Intervento Tullia Passerini (Ministero dell’Ambiente): La raccolta dell’organico rappresenta la prima frazione che
raccogliamo in Italia, anche perché in termini percentuali della merceologica dei rifiuti rappresenta la più alta
quota. Abbiamo una filiera che funziona molto bene perché è anche completata da un decreto che stabilisce le
caratteristiche per i fertilizzanti e dobbiamo tutelarla per quello che è possibile. Inoltre come l’Italia, appartenendo
all’Unione Europea, ha recepito gli obiettivi di riciclaggio e al 2020 dovremmo realizzare gli obiettivi di riciclaggio
per rifiuti urbani e assimilati ad urbani pari al 50% di preparazione per il riutilizzo e per il riciclaggio. La Commissione
Europea si è già pronunciata riconoscendo il compostaggio, sia domestico che non domestico, e il trattamento
anaerobico come operazioni di riciclaggio, quindi anche in questi termini va incentivata e supportata perché ci
aiuterà a raggiungere gli obiettivi di riciclaggio che per legge siamo tenuti a realizzare.
Arezzo 20 - 23 novembre 2012
219
22 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
Tecnologie per la gestione del ciclo dei rifiuti
"Analisi del ciclo di vita"
Paolo Masoni ENEA
In ENEA sono il responsabile del Laboratorio LCA ed Eco-design. Inoltre sono anche Presidente dell’Associazione
Rete Italiana LCA che raggruppa tutti i principali studiosi che si occupano di questa metodologia e che è una
risorsa disponibile per l’intero sistema Italia.
Il mio laboratorio si occupa, da ormai più di 15 anni, di ricerca e sviluppo su metodologie di analisi di sostenibilità
basate su approccio di ciclo di vita. Le applichiamo a molteplici settori. Il settore della gestione dei rifiuti è stato
uno dei primo su cui, a seguito dell’approvazione del Decreto Ronchi alla fine degli anni novanta, facemmo subito
una prima applicazione della metodologia LCA per valutarne gli effetti in un caso di un ATO della Regione EmiliaRomagna.
Con questa mia presentazione non entro a descrivere che cos’è la metodologia LCA perché richiederebbe
ovviamente un seminario ad hoc, quello che oggi voglio evidenziare è come questo strumento sia diventato
ormai parte integrante della modalità europea di definizione delle politiche ambientali e come questo strumento
fornisca risultati particolarmente utili per la definizione un sistema di gestione integrata dei rifiuti. Già il Decreto
Ronchi prevedeva già l’applicazione della metodologia LCA. Il Decreto Ronchi è stato veramente all’avanguardia
in ambito europeo, anche per quanto riguarda la previsione di questo strumento metodologico per valutare
l’impatto ambientale del sistema di gestione dei rifiuti. Attualmente la strategia tematica della prevenzione e il
riciclaggio dei rifiuti prevede appunto, oltre alla ben conosciuta piramide delle priorità, anche la possibilità di
utilizzare l’LCA. Faccio un esempio tratto da una pubblicazione scientifica della stessa Commissione Europea,
di ricercatori del “Joint Research Centre” che hanno sviluppato appunto una metodologia per la valutazione
di quella che è la migliore opzione per il trattamento dei rifiuti organici. Ovviamente prima si considera quella
che è la classica piramide - la prevenzione, ecc. - però poi dopo è prevista l’applicazione dell’approccio di ciclo
di vita come metodologia per valutare, con basi quantitative e scientifiche, se e qual è la tecnologia migliore
disponibile. Quest’altra slide, sempre tratta da questa pubblicazione, mette appunto in evidenza il primo passo,
la prevenzione; al seguito della prevenzione si può effettuare una digestione anaerobica? Sì, allora è necessario
usare l’LCA per stabilire quella che è la preferenza ambientale fra la digestione anaerobica, il compostaggio,
l’incenerimento. Tutto ciiò ovviamente se sono tecnologie disponibili in quella specifica situazione; e così via di
seguito fino a lasciare come ultima opzione il trattamento biologico e la stabilizzazione della frazione organica e
poi mandarla alla discarica.
L’ LCA consente di considerare tutti gli impatti ambientali e sulla salute umana in forma quantitativa derivanti
da tutti i consumi di risorse e le emissioni associate all’intero sistema tecnologico che andiamo ad analizzare.
Nell’applicazione al sistema di gestione integrata dei rifiuti, questo consente di valutare in modo comparativo
diversi scenari tenendo conto di tutte quelle che sono le interrelazioni che si hanno all’interno delle fasi della
filiera, permette di valutare le diverse opzioni tecnologiche e quindi ottimizzare quelle sia le singole tecnologie sia
il sistema gestionale e la raccolta dell’intero sistema.
Faccio vedere un esempio tratto da una nostra pubblicazione scientifica. Questo era il sistema da analizzare, un
sistema di gestione dei rifiuti solidi urbani con le diverse frazioni merceologiche raccolte sia in modo separato sia
in modo indifferenziato. Le tecnologie sia previste comprendevano l’incenerimento, il compostaggio, la selezione
meccanica, la discarica e quant’altro. Questo sistema è stato strutturato per fare uno studio di LCA in quelli
che sono i cosiddetti upstream processes, cioè i processi che stanno a monte del sistema che è oggetto di
analisi, che riguarda tutto quello che è la raccolta, il trasporto e le diverse tecnologie di trattamento dei rifiuti; poi
quelli che sono i processi invece ‘a valle’ e quindi quella che può essere la produzione di biogas, la produzione
di fertilizzanti organici attraverso il compostaggio e così via di seguito; infine, quelli che sono i prodotti che si
possono ottenere in termini di elettricità, fertilizzanti e altre materie riciclate. Ovviamente questi prodotti vanno
a compensare quelli che sarebbero altri prodotti che dovrebbero essere realizzati in mancanza del riciclaggio o
del recupero, quindi abbiamo che l’elettricità prodotta da un inceneritore con recupero energetico va ad evitare
la necessità di produrre elettricità con un sistema tradizionale; il materiale che viene riciclato va a sostituire un
materiale vergine; un compost va a sostituire un fertilizzante. Questi processi sostituiti, ovviamente, rendono
possibile considerare il fatto che una corretta gestione dei rifiuti può consentire di evitare degli impatti ambientali,
proprio perché attraverso il recupero della materia e dell’energia si può evitare di produrre dell’inquinamento
associato alla produzione di materie vergini o di energia.
Ecco un esempio, sempre tratto da questa nostra pubblicazione, in cui si vede come in caso di emissione di gas
serra - se guardate le colonne a destra che riguardano l’intera area sottoposta ad esame che era poi suddivisa in
5 sottoaree caratterizzate da diversi sistemi di raccolta - si vede come si possono analizzare tre diversi scenari.
220
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
22 Novembre
Uno scenario tendenziale, uno scenario che prevedeva un nuovo inceneritore nell’area 2 ed un terzo scenario
che prevedeva un nuovo inceneritore in area 5. Si vede come, comunque, tutti gli scenari consentano di avere
una riduzione di emissione di gas serra. Questo a prima vista può sembrare strano, ma se pensate a quello che
vi ho appena detto, il fatto di avere un recupero energetico e un recupero materiali consente di evitare quelli che
sono gli impatti associati alla produzione di altrettanta quantità di energia, altrettanta quantità di materiali vergini e
quindi di impedire l’emissione di gas serra. Ovviamente questo si basa sull’assunzione che il rifiuto quando arriva
al sistema di gestione si considera senza impatto, in quanto, tutto quello che era il suo impatto, le emissioni di gas
serra in questo caso, relative alla produzione del prodotto che poi è diventato rifiuto sono già attribuite al prodotto
stesso e non quindi al rifiuto.
Ci sono anche degli impatti effettivi derivanti dal sistema di gestione integrata dei rifiuti, relativi alle emissioni
dei diversi impianti, nonostante ci siano dei recuperi di materiale e dei recuperi di energia. Ad esempio, nel caso
dell’eutrofizzazione si ha un impatto ambientale legato al fatto che comunque andiamo a inserire nell’ambiente un
eccesso di sostanze nutrienti che possono provocare nei corpi idrici il fenomeno dell’eutrofizzazione.
L’LCA è uno strumento che può essere considerato una sorta di microscopio per analizzare il nostro sistema.
Riusciamo a guardare fino all’estremo dettaglio anche in un sistema estremamente complesso come quello della
gestione integrata dei rifiuti, individuando quelli che sono gli effetti e le conseguenze ambientali delle diverse
tecnologie e step del nostro sistema. Qui, ad esempio, ho mostrato gli impatti relativi al cambiamento climatico,
le emissioni di gas serra complessivi espressi in grammi di CO2 equivalente relativi allo scenario tendenziale
e relativi alla sola raccolta differenziata per le diverse frazioni raccolte separatamente. Per le diverse frazioni
abbiamo anche la possibilità di vedere quanto incide la logistica, quindi il cassonetto, la raccolta, ecc., e quanto
incide invece il fatto di recuperare la materia prima stessa. Abbiamo quindi un impatto positivo per quanto riguarda,
ad esempio, la logistica della raccolta della carta, invece un impatto evitato legato al fatto che recuperando questa
carta poi evito di dover fare ulteriore carta da fibra vergine. Questo può essere ulteriormente dettagliato andando
fino a capire quelli che sono i singoli flussi, le singole emissioni legate alle singole tecnologie che provocano
questi impatti.
Una piccola parentesi sulla questione del riciclaggio. Il primo relatore, Moretti, ha posto subito l’attenzione sul
fatti che si parla tanto di raccolta differenziata, però in realtà quello che conta, quando andiamo a valutarne
effettivamente gli impatti ambientali di sistema di gestione dei rifiuti, non è la raccolta differenziata, ma il recupero
ed il riciclaggio. E fra raccolta e recupero e riciclaggio c’è una grandissima differenza come voi tutti, che siete
addetti ai lavori, sapete benissimo. Tra l’altro la nostra esperienza, quando andiamo a fare questo tipo di studi,
è che nel momento in cui ci allontaniamo dalla raccolta differenziata e andiamo a cercare di seguire il flusso dei
materiali, le difficoltà per raccogliere dati sicuri diventano piuttosto notevoli.
Un altro elemento estremamente importante è che è inutile parlare di raccolta differenziata se poi non esiste un
mercato per i materiali così raccolti. Spesso questo viene un po’ trascurato. Mi è capitato, anche parlando con
dei decisori pubblici ad alto livello, di notare come venisse trascurato un elemento che invece è fondamentale.
Ovviamente è fondamentale che esista una tecnologia in grado di raccogliere quella specifica filiera materiale, ma
è altrettanto importante che esista un mercato per quel materiale così raccolto. Se non c’è mercato, inevitabilmente
il materiale raccolto in modo differenziato primo o poi va a finire all’inceneritore o in discarica.
I sistemi sono un po’ più complessi di come spesso ce li rappresentiamo. Ad esempio, nel caso della raccolta
differenziata della plastica - faccio l’esempio della plastica ma questo si applica ovviamente a tutti i materiali - ci
sono delle interazioni a livello di mercato che dovrebbero essere prese in conto. Se io aggiungo sul mercato della
plastica derivante da plastica riciclata chiaramente posso avere una diminuzione del prezzo della plastica, nello
stesso tempo ho una diminuzione della domanda di combustibili fossili per produrre plastica vergine. Questo
quindi può comportare da un lato un aumento dell’utilizzo della plastica, dall’altro una diminuzione del prezzo dei
combustibili fossili che a sua volta quindi possono comportare un effetto anche sul mercato dei prodotti competitivi
a quelli della plastica e un incremento dell’uso dei combustibili fossili in altri settori. Tutto questo evidenzia che
i meccanismi economici di mercato, insieme ad effetti di tipo comportamentale, possono creare dei fenomeni
di rimbalzo, ossia dei fenomeni di retroazione che mutano lo scenario da analizzare. Se vogliamo quantificare
effettivamente quello che è l’effetto ambientale derivante da una nostra scelta, ad esempio incrementare al
massimo la raccolta differenziale della plastica, dobbiamo non solo valutare gli aspetti ambientali ma considerare
tutti gli aspetti di mercato. Non solo microeconomici, perché poi intervengono anche quelli macroeconomici, fino
ad arrivare poi anche ai meccanismi politico-culturali e istituzionali. Le cose hanno quindi un elevato grado di
complessità, in particolare quando occorre analizzare sistemi a scala rilevante.
Per andare a concludere la mia presentazione, quello che voglio sottolineare adesso sono una serie di vantaggi e
di svantaggi relativi all’applicazione della LCA, in particolar modo focalizzandoci sui sistemi di gestione integrata
dei rifiuti.
I vantaggi sono che consente di gestire in forma strutturata una mole molto rilevante di dati quantitativi. Da questo
può derivare il fatto che l’LCA può costituire il quadro razionale entro cui riportare la discussione relativa a temi
Arezzo 20 - 23 novembre 2012
221
22 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
conflittuali. Veniamo dalla settimana scorsa da un referendum in una regione italiana proprio sul tema di una
tecnologia di trattamento dei rifiuti dove spesso questo tipo di discussioni avvengono non su basi compiutamente
scientifiche e razionali, ma a volte hanno anche basi più emotive. L’LCA può consentire in qualche modo anche
di costruire un percorso di partecipazione che può consentire di riportare su binari più razionali la discussione.
Come dicevo, l’approccio all’LCA può consentire e forse dovrebbe anche valutare tutti quelli che sono gli effetti di
mercato a cui ho accennato con l’esempio della plastica.
Lo stesso approccio metodologico, di cui ho accennato con la mia presentazione, per gli aspetti ambientali, cioè
l’LCA, può essere applicato anche per valutazioni di tipo economico e sociali e quindi permettere una valutazione
dell’intera sostenibilità del nostro sistema. Il tutto attraverso anche un percorso di trasparenza, quindi questo è
un grosso vantaggio.
Gli svantaggi. Uno degli svantaggi è la complessità dello strumento, come tutti sappiamo il diavolo spesso si
nasconde nei dettagli e quando si tratta di analizzare quantità notevolissime di numeri bisogna stare attenti
ai numeri che ci sono negli aspetti più di dettaglio. Per questo è necessario che chi fa questi studi abbia delle
competenze specialistiche. Da questo punto di vista l’Associazione Rete Italiana LCA cerca appunto di promuovere
un incremento della qualità degli studi di LCA in generale in Italia.
Non nego che ad esempio, con questo ho discusso molto ad esempio con Centemero del Consorzio Italiano
Compostatori, le difficoltà che ha l’LCA di valutare compiutamente tutti gli aspetti innegabilmente positivi che
il compost ha rispetto all’incremento e il mantenimento della qualità del suolo. Attualmente l’LCA ha dei limiti
da questo punto di vista, anche se ci sono in campo ricerche proprio per cercare di superarli. Non può essere
ovviamente l’unico sistema per prendere delle decisioni, però è senz’altro uno strumento in grado di supportare le
decisioni. L’applicazione poi a livello di politiche nazionali, quindi a livello complessivo di settore, richiede ulteriori
ricerche e sviluppo su cui stiamo lavorando.
Un ulteriore svantaggio di questa metodologia è che permette la trasparenza. Non nego che in questo ambito la
trasparenza spesso non viene vista come un vantaggio, ma come uno svantaggio.
L’LCA supporta con evidenze scientifiche verificabili le scelte, permette di confrontare e ottimizzare i sistemi,
aiuta nei percorsi partecipativi ad organizzare, gestire e discutere una mole rilevante di dati come avviene già in
moltissimi paesi, in particolar modo dell’Europa Centrale e nordica, aiuta perciò a mantenere la discussione sui
temi controversi su un ambito razionale, cioè ci si mette d’accordo sulle regole del gioco. Applichiamo un metodo
scientifico, sì, bene, poi dopo litighiamo se mettiamo il numerino 27 o 32, però litighiamo su delle cose concrete,
scientifiche e quantificabili e non su ideologie. Aiuta a garantire la massima trasparenza delle scelte. Se questo
politicamente viene ricercato chiaramente allora l’LCA diventa uno strumento indispensabile; se invece si cerca
l’opacità allora l’LCA non va utilizzata.
222
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
22 Novembre
Tecnologie per la gestione del ciclo dei rifiuti
"Esperienza di un sistema “misto” di RD stradale, porta a porta e stazioni ecologiche: risultati, qualità e costi"
Fabio Lapisti Dirigente Siena Ambiente
Il tema di cui si tratta è molto delicato ,oggi si parla molto di efficienza, di obiettivi da raggiungere in percentuale di
raccolta differenziata e noi stasera, contrariamente a quanto accade nei convegni, perché i numeri ovvero i costi
del servizio rimangono talvolta nascosti, noi invece vogliamo dire anche qual’è il costo tecnico di Siena Ambiente
nella realtà della provincia di Siena. Una realtà molto articolata e variegata dove abbiamo centri storici di pregio,
periferie più o meno insediate ed anche case sparse dove si registrano 6/7 abitanti per km2. Una realtà senza
dubbio interessante e insieme ai numeri vi diremo come questi vengono costruiti nella Provincia di Siena.
Noi abbiamo avuto tante perplessità e ci siamo fatti anche tante domande e spesso non abbiamo trovato le
risposte giuste, però abbiamo annotato alcune cose che noi riteniamo importanti. Prima di tutto c’è un cambio
nella popolazione perché si hanno famiglie sempre meno numerose, abbiamo appartamenti sempre più piccoli e
addirittura molti monolocali, dove è difficile tenere, soprattutto nei centri storici, bidoni, secchielli, mastelli, sacchi,
ecc. Poi lo vedrete negli slides che vi presenta la collega Angelini che parlerà dopo di me, il lavoro che abbiamo
preparato in questi giorni proprio in occasione del Convegno, che ci ha indotto in questi anni a fare diverse
considerazioni. Le considerazioni che abbiamo fatto e che riteniamo siano importantissime per un sistema di
raccolta integrata dei rifiuti sono essenzialmente due o tre.
La prima è il sistema impiantistico perché senza un sistema impiantistico e tecnologie disponibili e adeguate
ovviamente il tutto si rimanda in altre zone, altri territori anche distanti, altri impianti con sovraccosti non indifferenti.
La seconda questione è la conoscenza del territorio che è una cosa di importanza fondamentale. La conoscenza
del territorio significa conoscere le abitudini dei cittadini, i flussi dei rifiuti e soprattutto capire se ci sono flussi di
rifiuti che eventualmente possono incidere in maniera pesante sul servizio e se in quel territorio ci sono anche
soggetti terzi che fanno una raccolta, ad esempio, degli assimilati. Conoscenza quindi approfondita anche del
comportamento degli utenti. E per ultimo, altra considerazione che non è ultima, anzi in questo momento direi
che è la prima, è la necessaria razionalizzazione dei costi, quindi l’economia del sistema che si intende attuare. Io
credo che Siena e parlo ovviamente del sistema Consorzio dei Comuni (A.T.O.) e Siena Ambiente abbiano fatto
grandi cose calibrando tutti questi aspetti, i quali hanno determinato buona qualità del servizio a costi sostenibili.
Nella Provincia di Siena abbiamo un sistema di raccolta misto essenzialmente stradale con raggruppamenti
di contenitori di tutte le tipologie ed un sistema domiciliare o porta a porta per quanto riguarda alcuni centri
storici come ad esempio Siena. E qui riprendo il ragionamento che facevo prima. Per la città di Siena, come per
San Gimignano, per Pienza, per Montepulciano, ecc., abbiamo trovato enormi difficoltà a consegnare mastelli,
secchielli, bidoni che invece in altre realtà è stata la soluzione. Noi non ci siamo riusciti non per incapacità, ma
perché nelle abitazioni dei centri storici citati non c’è spazio per questi contenitori. Inoltre non possiamo dimenticare
che sono mutate le abitudini, la mattina ci si alza, si porta fuori il sacco e si va al lavoro e nella maggior parte dei
casi si torna a casa la sera. I mastelli o i bidoncini dove rimangono? Nelle vie e piazze tutto il giorno? Chi li ripone
all’interno delle abitazioni? Questi sono stati gli ulteriori problemi che abbiamo dovuto affrontare, così abbiamo
deciso di consegnare il sacchetto alle utenze domestiche, mentre alle attività produttive e commerciali in genere
il bidoncino carrellato. In periferia, salvo alcuni casi di intercettazioni consistenti di imballaggi abbiamo un sistema
a cassonetti. Per chiudere, il nostro sistema provinciale prevede che su tutti e 36 Comuni siano attivi i Centri di
Raccolta/Stazioni Ecologiche, 31 Comuni li hanno già funzionanti, gli altri hanno già i progetti approvati, qualche
Comune ne ha addirittura due. Quindi possiamo dire che in provincia di Siena ci sono più di 36 centri di raccolta/
stazioni ecologiche che contribuiscono, secondo noi in maniera determinante, anche al raggiungimento di risultati
interessanti che prima ARRR ha fatto vedere per l’intero bacino, ma la provincia di Siena, come efficienza di RD,
è al 45% circa.
Questo sistema, non vogliamo rivendicare che sia il migliore, però ci tengo a precisare che è strutturato in base
alle necessità del territorio stesso.
Arezzo 20 - 23 novembre 2012
223
22 Novembre
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
Tecnologie per la gestione del ciclo dei rifiuti
"Esperienza di un sistema “misto” di RD stradale, porta a porta e stazioni ecologiche: risultati, qualità e costi"
Monia Angelini
Responsabile Tecnico Siena Ambiente
Io brevemente vi illustro quello che è il territorio senese. Abbiamo 286.000 abitanti circa, una superficie molto
vasta di 3.821 km2 con una densità media di 74/75 abitanti per km2. Tenete conto che si arriva anche a territorio
con 7 abitanti per km2 quindi la gestione del sistema con densità così basse è sicuramente diversa da quella dei
centri urbani con alta densità. Sono 36 Comuni, abbiamo una produzione pro capite annua di 538 kg (dati 2011)
per abitante equivalente e una produzione pro capite di rifiuto differenziato di 200 kg per abitante.
Questo è il territorio: in arancio sono stati evidenziati i Comuni che ad oggi hanno una raccolta a carattere misto,
quindi cassonetti stradali fuori da nuclei abitati e porta a porta nei centri storici o nuclei abitati; gli altri, in grigio,
hanno una prevalenza sostanzialmente di stradale ad esclusione degli imballaggi in cartone alle grandi utenze.
In sostanza il servizio stradale ricopre l’83% degli abitanti equivalenti; il 17% è invece coperto dal servizio porta
a porta di vario tipo.
Con questo sistema abbiamo raggiunto negli anni, vedete questa è una curva di efficienza di RD negli anni che
parte dal 1998 ed arriva al 2011, dati certificati ARRR, con un piccolo decremento nel 2009, ma che comunque è
sempre in crescita, raggiungendo il 46,46% nel 2011.
Ora passo direttamente a descrivervi brevemente quello che è il servizio. Il servizio di raccolta stradale, a
cassonetti, noi cerchiamo per quanto è possibile nelle realtà di mettere i contenitori di tutte le frazioni - carta,
indifferenziato, organico e multimateriale - per poter consentire ai cittadini di conferire il rifiuto in un’unica volta
ovviamente perché altrimenti si rischia che il cittadino porti il rifiuto e butti tutto nell’indifferenziato se non c’è
la presenza dei contenitori. Mediamente abbiamo una frequenza di svuotamento dell’indifferenziato di 4 volte/
settimana, con un minimo di 2 ed un massimo di 6 volte/settimana; della carta 2 volte/settimana; organico che va
da 2 a 3 volte/settimana quindi una media di 2,2; VPL (vetro-plastica-lattine) 1 volta/settimana che aumenta nel
periodo estivo e diminuisce nel periodo invernale, quindi nel periodo estivo in alcune zone sale a 2 volte/settimana
mentre l’inverno anche ogni 15 giorni.
Queste sono delle immagini dei nostri operatori. Noi per raccolta stradale abbiamo intendiamo sia il carico laterale
che il carico posteriore, questo ci tengo a precisarlo in quanto per i costi è diverso individuare un costo a tonnellata
per mono-operatore che non per posteriore. Noi abbiamo unito il dato in quanto l’80% dei nostri servizi stradali si
svolgono col laterale, quindi non ci sembrava significativo evidenziare la differenza tra i due sistemi.
La raccolta del VPL è effettuata esternamente quindi per il servizio stradale non abbiamo potuto quantificare i
costi effettivi e pertanto vi daremo i costi interni, quelli di Siena Ambiente.
Questo è un sunto di quelli che sono i risultati del servizio stradale. Abbiamo 24 Comuni serviti esclusivamente
da contenitori stradali, la RD varia da un minimo di 14,3% perché è un Comune molto piccolo che è Castiglione
d’Orcia a un massimo del 50,93% che è Buonconvento. Ovviamente la territorialità incide pesantemente sia
sull’efficienza sia sui costi. Non si tratta di una regola, ma tendenzialmente abbassandosi la densità abitativa
si abbassa anche l’efficienza della RD e salgono inevitabilmente i costi. Come potete vedere infatti nella parte
superiore abbiamo Monteroni d’Arbia con 85 abitanti/km2, Buonconvento con 50 abitanti/km2 dove l’efficienza con
un servizio esclusivamente stradale è comunque a livelli alti perché 49% con il solo stradale è un dato significativo.
Questi sono costi diretti compreso ammortamento e remunerazione del capitale, escluso il coordinamento e i costi
generali. Il servizio comprende appunto carico posteriore e carico laterale. Per l’indifferenziato raggiungiamo un
costo a tonnellata medio - medio perché anche qui di nuovo la territorialità incide quindi avremo dei picchi e dei
minimi - di € 54,72/ton; della carta € 119,11; organico €61,21; VPL, come già detto, è esternalizzato e quindi non
abbiamo il dato.
E’ facile capire la differenza tra l’indifferenziato e l’organico. In un rifiuto indifferenziato riusciamo, avendo gli
impianti molto vicini nelle zone intensive, a fare doppio carico quindi portiamo con ogni viaggio non 10 ton di
media ma 12-13 ton, anche 15 o 16 ton per volta, evidentemente questo abbassa i costi effettivi. Per la carta
purtroppo noi abbiamo il sistema a cassonetti, comodo per il cittadino però allo stesso tempo il cassonetto risulta
saturo con dei quantitativi molto bassi pertanto il costo a tonnellata sale.
Importante è anche vedere i costi per il trattamento/smaltimento. Per l’indifferenziato i nostri impianti hanno dei
costi a valle dei ricavi di €120/ton, € 10 per la carta, € 112 per l’organico ed € 10 per il VPL, detratti ovviamente i
contributi.
Molto diverse sono invece le esperienze porta a porta. Abbiamo voluto portare due casi particolari: uno è Siena
centro e l’altro è Chiusi capoluogo. Differiscono molto tra di loro. Siena ha un esperienza di domiciliare esistente,
arriva dal passato, da sempre i cittadini sono abituati a mettere fuori dal portone il proprio sacco, che prima era
uno e adesso sono diventati ovviamente quattro. Ciò è stato fatto in modo graduale. Prima è stato introdotto VPL
224
Arezzo 20 - 23 novembre 2012
Atti 1° Forum Internazionale Sviluppo Ambiente Salute
22 Novembre
e carta per le grandi utenze e poi per le utenze domestiche e adesso anche l’organico. Il cittadino quindi era già
abituato, si è dovuto solo abituare alla riduzione della frequenza dell’indifferenziato nel momento in cui abbiamo
attivato l’organico. Esperienza particolare in quanto Siena ha un urbanizzazione da centro storico medievale,
quindi stradine strette, i mezzi con cui riusciamo a caricare i rifiuti sono molto piccoli, portata bassa per cui anche
l’efficienza ne risente.
L’esperienza di Chiusi è di nuova attivazione (febbraio 2011), prima era 100% stradale. Il territorio si trova al
confine di Regione ed i Comuni limitrofi facevano già raccolta porta a porta, quindi ci trovavamo ad avere una
migrazione di rifiuti. I cittadini che venivano dai Comuni adiacenti al lavoro portavano i rifiuti e questo l’abbiamo
visto anche dai dati, dal momento in cui abbiamo attivato la RD nel capoluogo questo è venuto meno. Su Chiusi
abbiamo 8.800 abitanti e ne serviamo 6.700 con il porta a porta, quindi le frazioni sono rimaste fuori mentre le
aree industriali sono dentro al porta a porta. La presenza di un urbanizzazione con non particolari esigenze ci
permette di avere la possibilità di utilizzare mezzi a carico posteriori (11/15 ton) e portare via quindi una quantità
di rifiuto maggiore rispetto a quella che ci consente Siena.
Questo è l’esempio di Siena. Un ulteriore particolarità di Siena sono le frequenze perché la presenza turistica
ci obbliga a dover effettuare, per le grandi utenze, delle frequenze molto alte, anche di 7 volte a settimana per
l’indifferenziato, proprio per quello che diceva il collega, perché non ci sono gli spazi. Il commerciante, il ristoratore
non ha lo spazio per stoccare il rifiuto e pertanto mettono fuori come sempre. L’esigenza dell’amministrazione
è quella di passare praticamente tutti i giorni. I sacchi vengono depositat direttamente a terra tranne che per il
multimateriale e per la carta che in alcuni casi abbiamo avuto la possibilità di consegnare dei bidoncini carrellati
o dei mastelli. Per la carta e multimateriale alle utenze domestiche la frequenza si riduce, quindi abbiamo una
frequenza diversa rispetto alle utenze non domestiche. La facciamo 2 volte a settimana con l’ausilio di cooperative
sociali che raccolgono contemporaneamente i sacchi, giallo e verde, delle due frazioni per poi conferirle e separarle
presso la stazione ecologica cui si appoggiano.
Per gli imballaggi invece alle grandi utenze, abbiamo due diverse tipologie: gli imballaggi e la carta. Alle grandi
utenze commerciali facciamo, sempre con il porta a porta, un servizio giornaliero di raccolta del cartone mentre
agli uffici, alle scuole, alle università, alle banche, a 
Scarica

1° Forum - Gutenberg