1° Forum2012 Internazionale Sviluppo Ambiente Salute Atti "Ricerca e tecnologie avanzate per ambiente e salute: nuovi motori per lo sviluppo" Arezzo, 20 - 23 novembre 20 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute "Apertura Forum" ......................................................................................... Pag. 10 Bettoni Monica Direttore Generale Istituto Superiore di Sanità Giannotti Vasco Presidente Fondazione Sicurezza in Sanità Marroni Luigi Assessore Diritto alla Salute Regione Toscana Clini Corrado Ministro dell’Ambiente e della Tutela del Territorio e del Mare "Corretto utilizzo e salvaguardia della risorsa acqua" ...................... Pag. 19 Nannini Paolo Presidente Nuove Acque Checcucci Gaia Segretario Autorità Bacino Arno Bossola Andrea ACEA Giani Giovanni Ondeo Italia Menabuoni Francesca Amministratore Delegato Nuove Acque Calzolai Roberto Regione Toscana Franchi Alessandro Resp. Settore VIA VAS ARPAT Toscana Bianco Andrea ISPRA D’Ascenzi Mauro Vice Presidente Feder Utility Pineschi Giorgio Ministero dell’Ambiente "La valutazione della salute in Siti Contaminati" ................................ Pag. 41 Musmeci Loredana Istituto Superiore di Sanità Clini Corrado Ministro dell’Ambiente e della Tutela del Territorio e del Mare Comba Pietro Istituto Superiore di Sanità Serraino Diego IRCCS Aviano Conti Susanna Istituto Superiore di Sanità Iavarone Ivano Istituto Superiore di Sanità D’Aprile Laura ISPRA Guerriero Carla London School of Hiygiene and Tropical Medicine Sallese Domenico Direttore Dip. Prevenzione USL 8 Arezzo "Energie rinnovabili: occasione di innovazione e sviluppo sostenibile" ..... Rossi Albertini Valerio CNR Montemaggi Massimo Enel Green Power Serra Sebastiano Ministero dell’Ambiente della tutela del territorio e del mare Renzi Fabio SYMBOLA Bramerini Anna Rita Assessore Regionale Ambiente Regione Toscana de Feo Stefania Confindustria Di Carlo Luca Centro Studi GSE Farri Averaldo Power-One 4 Arezzo 20 - 23 novembre 2012 Pag. 63 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 21 Novembre "Inquinamento dell’aria outdoor/indoor e salute: considerazioni per il risk management" ............................................................................. Pag. 83 Viegi Giovanni CNR Palermo Settimo Gaetano Istituto Superiore di Sanità Carrer Paolo Università di Milano Sestini Piersante Università di Siena Kephalopoulos Stylianos JRC Commissione Europea De Martino Annamaria Ministero della Salute Moscato Umberto Università Cattolica di Roma Colaiacomo Elisabetta Ministero dell’Ambiente Frateiacci Sandra Presidente Federasma Allegrini Ivo Ministero dell’Ambiente "La valutazione di impatto sanitario (VIS) come strumento decisionale per uno sviluppo sostenibile" ............................................ Pag. 113 Bettoni Monica Direttore Generale Istituto Superiore di Sanità Cadum Ennio ARPA Piemonte Natali Marinella Regione Emilia-Romagna Biggeri Annibale Università di Firenze Marino Carmela ENEA Marsili Giovanni Istituto Superiore di Sanità Assennato Giorgio ARPA Puglia Chellini Elisabetta ISPO Cirillo Mario ISPRA Baccini Michela Dipartimento di Statistica Università di Firenze Romizi Roberto Presidente ISDE Italia "Verso MILANO EXPO 2015 - Agricoltura, sostenibilità e salute" .. Pag. 142 Veggia Ezio Confagricoltura Favretti Michela IZS delle Venezie Vitale Margherita Ministero dell’Ambiente Tocci Augusto Istituto Sperimentale Selvicoltura Marmiroli Nelson Università di Parma Tamino Gianni Università di Padova Arezzo 20 - 23 novembre 2012 5 21 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute "Verso MILANO EXPO 2015 - Ambiente, sostenibilità e salute" .. Pag. 157 Borrello Silvio Ministero della Salute Frazzi Piero Regione Lombardia Cinotti Stefano IZS Lombardia Emilia- Romagna Restani Patrizia Università degli Studi di Milano Marinovich Marina Università di Milano Manzo Alberto Ministero delle Politiche Agricole Alimentari e Forestali Mollica Amilcare Avvocato Capasso Monica Ministero della Salute Rossi Lucilla Ministero della Salute "Microinquinanti e catena alimentare: valutazione del rischio sanitario" ......................................................................................................... Di Sandro Alessandra Ministero della Salute Beccaloni Eleonora Istituto Superiore di Sanità Carere Mario Istituto Superiore di Sanità Stacchini Paolo Istituto Superiore di Sanità Vanni Fabiana Istituto Superiore di Sanità 6 Arezzo 20 - 23 novembre 2012 Pag. 177 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 22 Novembre "Cambiamenti ambientali globali, rischio chimico e infettivo: verso una prevenzione integrata" ............................................................ Pag. 189 Scaramozzino Paola IZS Lazio e Toscana Latini Mario SIMeVeP / IZS Umbria e Marche Piras Pierluigi SIMeVeP / ASL 7 Carbonia Dessì Alessandro SIMeVeP / SIVtro - VSF Italia Sambri Vittorio Università di Bologna Funari Enzo Istituto Superiore di Sanità "Tecnologie per la gestione del ciclo dei rifiuti" ................................ Pag. 212 Moretti Giorgio AD Quadrifoglio Cipriani Graziano Presidente ARRR Agenzia Regionale Recupero Risorse Bruzzesi Stefano Dirigente ARRR Agenzia Regionale Recupero Risorse Corsini Lucia ARRR Agenzia Regionale Recupero Risorse Newman David Direttore Generale CIC Consorzio Italiano Compostatori Masoni Paolo ENEA Lapisti Fabio Dirigente Siena Ambiente Angelini Monia Responsabile Tecnico Siena Ambiente Arezzo 20 - 23 novembre 2012 7 23 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute Tavola rotonda conclusiva "Sviluppo - Legalità - Ambiente e Salute" ............................................ Pag. 227 Santelli Giorgio Giornalista RAI News Clini Corrado Ministro dell’Ambiente Laterza Alessandro Vice Presidente per il Mezzogiorno Confindustria De Luca Salvatore Procuratore Capo Barcellona Pozzo di Gotto Gelormini Alfonso ENI Moretti Mauro Amministratore Delegato Ferrovie dello Stato Fortini Daniele Presidente Federambiente "Rifiuti 2020: discarica zero" .................................................................... Pag. 248 Laporta Stefano Direttore ISPRA Brandolini Filippo Hera-Ambiente Fortini Daniele Presidente Federambiente “Ospedali e università ecosostenibili” ................................................... Pag. 254 Cristofoletti Gilberto Direttore Area Tecnica Azienda USL 8 Arezzo Strambaci Antonio Dirigente Ministero dell’Ambiente Aldinucci Gianna Resp. Ecomanagement azienda USL 8 Arezzo Ciabatti Sara Team Ambiente Carbonari Alessandro Università Politecnica delle Marche Maestrelli Stefano Direttore Area Tecnica Azienda Usl Versilia Bianco Paolo Energy Manager Azienda USL Rimini Novelli Massimo Dirigente Area Tecnica AOU Careggi Firenze Binini Tiziano Presidente Binini & Partners “Ospedali ed università ecosostenibili - case history” ........................... Giorni Daniele Energy Manager Azienda USL 8 Arezzo Penna Roberto Ricerca, Innovazione e Sviluppo AOU Ancona Rizzi Antonio Università di Parma Agger Simona Coordinatrice Progetto RES HOSPITALS 8 Arezzo 20 - 23 novembre 2012 Pag. 269 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 23 Novembre Arezzo 20 - 23 novembre 2012 9 20 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute Apertura Forum Monica BettoniDirettore Generale Istituto Superiore di Sanità Trascrizione non revisionata dal relatore Come sapete siamo qui ormai a distanza di molti anni per ripetere la edizione 2012 del Forum Risk Management in Sanità. Quest’anno c’è una novità che è rappresentata dal fatto che abbiamo le problematiche della sanità e dell’ambiente. Approfitto dell’assenza del Ministro Clini per dire che, non so in effetti come lui la potrebbe pensare a proposito, dallo sciagurato momento in cui il referendum divise la sanità dall’ambiente, a livello delle aziende sanitarie locali, in realtà in questi ultimi anni, soprattutto in questi ultimi anni, ci siamo resi conto come quanto mai il binomio ambiente e salute sia un binomio imprescindibile perché molti determinanti di salute hanno origine dall’ambiente e comunque c’è un’interazione continua con le problematiche della salute. Quindi il nostro Forum quest’anno ha assunto questo binomio e all’interno dell’iniziativa troverete problematiche che hanno a che fare comunque con la salute ma che hanno origine o implicazioni con l’ambiente. Detto questo, vi illustro il programma di quest’oggi con alcune modifiche dovute ovviamente sia a impegni che ad altre motivazioni. Intanto il Presidente dell’Istituto Superiore di Sanità, di cui io sono direttore, è assente per malattia quindi gli facciamo i nostri auguri e proverò io in qualche maniera a sostituirlo. Abbiamo poi la presentazione invece di Liletta Fornasari che ci farà, come al solito, un excursus culturale perché insomma un po’ di cultura è un substrato utile per tutti anche in convegni di natura tecnico-scientifica. Ci faranno poi i saluti le nostre autorità locali, il Sindaco di Arezzo ed il Presidente della Provincia, e poi interverranno gli altri previsti. Enrico Rossi sarà in qualche maniera rappresentato dall’Assessore alla Sanità Marroni, che noi salutiamo. Il Ministro della Salute sarà presente oggi pomeriggio, poi comunicheremo con precisione l’ora, credo verso le 16.30/17.00 e il Ministro dell’Ambiente invece è in autostrada e ci raggiungerà tra poco. Intanto chiederei alla nostra Liletta Fornasari di iniziare con la sua introduzione. 10 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 20 Novembre Apertura Forum Vasco GiannottiPresidente Fondazione Sicurezza in Sanità Trascrizione non revisionata dal relatore Buongiorno a tutti. E’ già arrivato il Ministro Clini che fra poco, assieme all’Assessore Marroni apriranno ufficialmente anche questa sessione. Benvenuti a tutti, ancora una volta, qui ad Arezzo. L’augurio è che l’interesse per i lavori delle numerose sessioni scientifiche del Forum e mi permetto di dire, ringraziando anche Liletta Fornasari, l’accoglienza di questa bella città ricompensino tutti vi di questi quattro giorni che saranno quattro giorni di intenso lavoro. Un grazie particolare ai più di 1000 relatori che si susseguiranno in tutte le sessioni scientifiche. Un grazie alle autorità cittadine che ci onoreranno poi del loro saluto, al Sindaco, al Presidente della Provincia. Un grazie anche agli sponsor che in un momento molto complicato come questo, lo sappiamo tutti, hanno consentito poi la realizzazione di questo importante appuntamento. Quest’anno, come ha detto già Monica Bettoni, la settima edizione del Forum Risk Management in Sanità, siamo già all’adolescenza, molti di voi ci hanno seguito in tutto questo percorso ma anche la novità, la prima edizione del Forum Internazionale su Ambiente, salute e Sviluppo. Quest’edizione, questo mi preme dire in questa apertura, è molto diversa dagli altri anni, stiamo infatti attraversando una fase particolare, direi particolarmente problematica, è l’anno delle sfide, delle sfide molto difficili e lo saranno anche nei prossimi anni, almeno nel 2013, nel 2014. Gli altri anni portavamo al Forum, lo ricorderete, la sintesi di un lavoro già svolto in tutte le aziende sanitarie, in tutte le regioni. Portavamo cioè l’analisi, la valutazione e la promozione di buone pratiche per cercare di migliorare, ovunque era possibile, la qualità e la sicurezza delle cure. Anche quest’anno portiamo a sintesi un grande percorso, nel maggio scorso siamo stati in Sicilia a fare il 2° Forum Mediterraneo per la Sanità con 6.000 partecipanti da tutta la Sicilia e le regioni del Mezzogiorno e poi siamo stati in Veneto, ultimo nei giorni scorsi a fare un interessante confronto tra i sistemi sanitari delle regioni più importanti del Nord (Piemonte, Lombardia e Veneto), quest’anno però la sfida è più complicata e credo, mi auguro e spero che questi Forum rappresentino l’avvio di nuovi percorsi al centro dei quali dobbiamo porre l’urgenza di cambiare, di innovare, a cominciare dal sistema sanitario. Cambiare, innovare culture, comportamenti, modelli di riferimento, orizzonti per organizzare il nostro lavoro per incidere e agire concretamente a tutela di quel sacrosanto diritto del cittadino sancito dalla nostra bella Costituzione che non è soltanto quello di curare quando si è ammalati, ma di promuovere salute interagendo con l’ambiente che ci circonda, sviluppando coesione sociale, stimolando nuove opportunità di sviluppo e di benessere nelle popolazioni. Ecco il cuore della sfida che sta al centro di questo forum. Negli ultimi tre anni, voi lo sapete bene, siete in gran parte dirigenti e operatori del sistema sanitario nazionale, abbiamo avuto tagli pesanti per la Sanità. Tagli molto pesanti che, come discutevamo prima con l’Assessore Marroni, stanno mettendo a rischio un bene prezioso come l’universalità, l’equità del nostro sistema sanitario nazionale e cioè il diritto del cittadino alla tutela della propria salute, ovunque viva - Nord, Centro, Sud - a qualunque ceto sociale appartenga, di qualunque paese o etnia egli sia. Certo non tutto è andato e va bene, ma questo è un modo concreto anche di fare accoglienza. Siamo ad un punto limite e mi permetto di dire che hanno ragione le Regioni a dire, come sanno le Regioni, i Direttori generali, gli operatori sanitari: attenzione, siamo a quel punto limite, tagliare di più non si può e tagliare di più non vuol dire neppure risparmiare, non vuole dire neppure spendere di meno. La Grecia è lì a dimostrarlo. In Grecia si sono dati colpi molto pesanti al sistema sanitario nazionale, ma lì ci si ammala di più, sta saltando il sistema di coesione sociale, il sistema è chiamato a pagare di più. Ecco dunque che da questo nostro Forum - dove porteremo dati, analisi, proposte - deve venire un sostegno molto forte. Molto forte per dire basta con i tagli alla Sanità, basta con i tagli allo stato sociale, occorre certezza di risorse. E dobbiamo anche dire, va bene la spending review e cioè fare efficienza e risparmio nella spesa, ma la spending review vera non si cala dall’alto, non si cala a colpi di tagli lineari che molto spesso premiano chi meno è virtuoso ma si affida sulla base di obiettivi condivisi alle regioni che hanno competenza, know-how, esperienza, strumenti ed indirizzi per realizzare quegli obiettivi. Ecco dunque la prima sfida, la prima sfida che appunto esige risposte precise, comportamenti, responsabilità prima di tutto degli operatori sanitari. E l’altra sfida di questo Forum l’abbiamo lanciata un anno fa, quando il Ministro Corrado Clini, da poco nominato Ministro, proprio da qui indicò temi, obiettivi, percorsi per cercare di riconiugare il rapporto tra ambiente e salute a fronte di fattori ambientali anche nuovi con i quali conviviamo e dobbiamo abituarci a convivere: le catastrofi naturali, sempre più frequenti, le mutazioni climatiche, il dissesto idrogeologico che penalizza pesantemente il nostro paesaggio, le molteplici forme di inquinamento atmosferico e chimico. Ricordiamo anche che l’anno scorso a questo Forum venivamo il giorno dopo l’alluvione di Genova e il disastro della Sicilia. Morti l’anno scorso, ma anche quest’anno in Toscana purtroppo morti. Incredibile che basti poco più di una grande pioggia per causare gravi dissesti, inondazioni, ferite pesanti alla salute del territorio e delle persone, morti. C’è dunque una proposta che ha fatto in questi giorni, ad esempio, il Ministro Clini che non è affatto avveniristica, 40 miliardi in 20 anni per rimettere in sesto il territorio italiano, per cercare appunto di intervenire nel dissesto idrogeologico. Riflettiamo su Arezzo 20 - 23 novembre 2012 11 20 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute questa proposta che spero diventi una proposta fatta proprio dal Governo, significa riordinare e tutelare l’ambiente, significa prevenire i morti, le infezioni, salute, significa lavoro, occupazione, sviluppo dunque e quindi ....... che in qualche modo declina quello che noi dobbiamo e possiamo cercare di fare qui dando avvio a questo 1° Forum Internazionale su Sviluppo Ambiente e Salute, un Forum che ospiterà anche un importante summit di Ministri e delegazioni di 25 paesi del centro Europa, dell’Asia e dell’Africa che venerdì saranno qui con noi a discutere di acqua, ambiente e salute. Abbiamo dunque preso sul serio la sfida che il Ministro Clini l’anno scorso ci ha lanciato qui, in questi mesi abbiamo svolto un intenso lavoro di ricerca con l’Istituto Superiore di Sanità, con il Ministero dell’Ambiente, con il Ministero della Salute e qui porteremo i primi risultati di questo lavoro e cioè qual è oggi il nuovo rapporto tra protezione ambientale e tutela e promozione della salute a fronte dei nuovi fattori di rischio determinati dalle mutazioni climatiche, dalle patologie nuove derivanti da forme nuove di inquinamento, dalle malattie infettive legate ai sistemi di adduzione delle acque potabili e dalla contaminazione chimica di cui purtroppo Taranto ne è un esempio. Diversità di reazioni, questo è il tema che vorremmo sviscerare e sviscereremo qui in questi giorni. Diversità di reazioni ai fattori ambientali legati al patrimonio genetico di ciascuno di noi e quindi alla diversa combinazione tra fattori genetici e fattori di rischio. Ecco una sfida che si apre e speriamo che il Forum dica su questo cose molto importanti con un confronto tra Istituto Superiore di Sanità, Università, altri Enti e Istituti di Ricerca, Ministero dell’Ambiente, Ministero della Salute mobilitando la comunità scientifica in un confronto anche fra approcci molto diversi e se necessario anche in un confronto dialettico. Mi auguro che questo confronto che partirà da qui continuerà anche nei prossimi mesi anche con la costituzione, sarebbe davvero molto bello in Italia, di una scuola di alta formazione sull’interrelazione tra ambiente e salute. Ecco dunque le attese di queste quattro intense giornate, le decine di sessioni scientifiche, i contributi dei relatori. Vogliamo aprire con il Forum un percorso, un forum interattivo tra tutti i partecipanti al Forum anche dopo queste quattro giornate perché ciascuno di voi possa dire la sua, avanzare idee, avanzare proposte e si apriranno con questo Forum dei laboratori di confronto, dei laboratori di proposte per cercare appunto di portare sui tavoli delle istituzioni anche proposte operative che ci mettano nelle condizioni di contribuire e concorrere a quel processo di innovazione, di riforma di cui abbiamo parlato. Ecco allora l’obiettivo che abbiamo di fronte e per concludere cinque sono in particolare, oltre alle questioni di cui ho parlato tra ambiente e salute, i laboratori sui quali vogliamo continuare anche dopo il Forum a lavorare per dimostrare come si può fare efficienza senza incidere sulla qualità e sulla sicurezza delle cure. Il primo: innovazione negli ospedali e nuovo rapporto con il territorio. Ne abbiamo discusso anche lo scorso anno, finalmente il Ministero ha fatto anche il decreto che sarà discusso proprio in questi giorni dagli assessori alla sanità che insieme agli assessori all’ambiente si sono dati appuntamento proprio qui ad Arezzo per discutere di proposte operative. L’obiettivo è quello di ridurre almeno di un giorno la degenza media negli ospedali. Pensate, da un calcolo che si è fatto in Toscana, ridurre di un giorno la degenza media significa risparmiare 170 milioni ogni anno, il che vuol dire a qualche cosa come 2 miliardi e mezzo a livello nazionale senza incidere sui livelli di cura e di assistenza. Il secondo: sviluppo dell’assistenza domiciliare. Passare dalla enunciazione alla ridefinizione di percorsi organizzativi gestionali anche con lo sviluppo della medicina di iniziativa per la gestione ottimale e integrata della cronicità che sappiamo rappresenta più del 50% della spesa sanitaria. Il terzo: ottimizzazione dei costi di funzionamento, i servizi di logistica, di manutenzione, ecc. Le imprese private possono mettere a disposizione delle aziende sanitarie il loro know-how per ridefinire percorsi organizzativi e gestionali al fine appunto ancora una volta di ridurli. Presenteremo qui ad Arezzo un’esperienza eccezionale, l’Ospedale Verde, un progetto che è stato cofinanziato dal Ministero dell’Ambiente e dalla Regione Toscana che dimostrerà come per l’energia e per l’elettricità, quindi energia freddo caldo e poi per i sistemi di illuminazione, si può mediamente risparmiare in ogni ospedale il 30%. Il quarto: HTA, Health Technology Assessment. Fino ad oggi, parliamoci chiaro, l’innovazione era dettata e determinata soprattutto dall’offerta, le imprese che di volta in volta presentavano nuove macchine, nuovi dispositivi medici. Oggi non è più quel momento là, oggi bisogna cercare di riconiugare offerta e domanda e quindi bisogna che il sistema sanitario, le Regioni, le aziende sanitarie si dotino di quel know-how indispensabile per decidere quale innovazione necessaria e come usare nel modo migliore, e quindi appropriatezza, e quindi buon uso delle nuove macchine per cercare di corrispondere al meglio ai bisogni di salute dei cittadini e fare ancora una volta efficienza. Ecco, questi sono alcuni degli obiettivi e mi auguro anche alcune delle proposte che porteremo anche ai tavoli nazionali, porteremo al Commissario Bondi, porteremo al Dott. Massicci, Ministero dell’Economia, per dimostrare come la spending review in sanità si può fare ma si può fare poggiando sulle competenze, sul know-how delle Regioni e delle aziende sanitarie. Infine il Forum è anche un momento molto importante di formazione. Senza formazione e senza formazione mirata agli obiettivi di innovazione, di efficienza, di riordino non va avanti il sistema, non si rinnova il sistema, non si fanno le riforme strutturali, non si fa efficienza né miglioramento della qualità e dei servizi. Siamo ad un paradosso, mentre si annunciano e si perseguono obiettivi, come abbiamo detto, di sostanza si tagliano quasi completamente i fondi della formazione. Mentre si declama l’obbligatorietà della formazione in 12 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 20 Novembre medicina, addirittura si chiede agli ordini professionali di fare sanzioni per chi non fa formazione, si depennano i finanziamenti e anche gli incentivi individuali. Ecco anche qui, su questo punto, al Forum vogliamo dimostrare che si può fare formazione garantendo qualità ed efficienza, ad esempio per tutti coloro che partecipano al Forum, così come abbiamo fatto l’anno scorso, saranno messi a disposizione gratuitamente dei corsi di formazione a distanza per dimostrare che si può fare formazione continua garantendo la qualità appunto dell’offerta ma al tempo stesso risparmiando molto. Io con questo vi saluto, vi auguro buon lavoro e mi auguro che queste quattro giornate, come anche gli altri anni e quest’anno ce n’è bisogno ancora di più, possano rappresentare uno spunto per andare avanti, uno stimolo capace di produrre idee e proposte per portare sui tavoli importanti delle regioni, delle aziende sanitarie e anche dei ministeri. Arezzo 20 - 23 novembre 2012 13 20 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute Apertura Forum Luigi MarroniAssessore Diritto alla Salute Regione Toscana Per noi è un onore ospitare ancora una volta in Toscana questo convegno che ormai, nel panorama nazionale, è un evento importante, conosciuto e molto atteso, che ci offre l’occasione, proprio in questo periodo particolarmente critico per il sistema sanitario, di fare il punto della situazione, al termine di un 2012 molto difficile e con ancora davanti a noi alcuni anni particolarmente complessi. Parlando di futuro della sanità e di cosa ci aspetta, possiamo far riferimento al combinato di una serie di condizioni che riguardano soprattutto la riduzione e la rimodulazione delle risorse, i tagli al finanziamento del Fondo Sanitario, la spending review. L’insieme di tale serie di provvedimenti presi nelle ultime legislature, produce un concentrato di criticità che rendono sempre più difficile il mantenimento della sanità così come l’abbiamo conosciuta fino ad oggi. Questa sorta di tsunami che ci sta investendo fa sì che le Regioni debbano ripensare la loro organizzazione per capire come riuscire a superare questo periodo. La questione è che spesso, quando siamo di fronte a provvedimenti di questo tipo, i cosiddetti tagli lineari, anche se forse potremmo discutere su quanto siano lineari o meno, c’è il rischio di penalizzare le Regioni che da più tempo e con maggior sforzo stanno lavorando per raggiungere standard elevati. Stiamo affrontando in questo periodo un confronto dialettico con il Governo, proprio per poter discutere assieme e portare la proposta delle Regioni, di una modulazione differenziata e territorialmente specificata delle azioni proposte dal Governo, anche per evitare il rischio concreto che le Regioni virtuose, che hanno molto lavorato nel passato, si trovino a dover mettere in dubbio il livello qualitativo e quantitativo dei servizi, cui avevano abituato i loro cittadini. Questo è lo scenario complessivo. Detto ciò, naturalmente pensiamo di affrontare la questione in termini concreti, non siamo solo qui a discutere e a lamentarci della situazione difficile e dei tagli. Noi abbiamo immediatamente reagito, e ci stiamo organizzando al meglio per affrontare con lungimiranza il presente, tanto quanto gli anni che verranno. In Toscana abbiamo recepito immediatamente le indicazioni e le disposizioni che venivano dal livello nazionale, rispondendo concretamente, pochi giorni dopo l’uscita del decreto cosiddetto “spending review”, con una nostra delibera che delineava un primo gruppo di azioni e impostava una profonda riorganizzazione del nostro sistema sanitario, che guarda non solo al superamento in termini migliorativi dell’attuale organizzazione, ma anche all’esigenza di gettare oggi le basi per la prosperità del futuro. Abbiamo quindi impostato un percorso di riforma di tutti i nostri processi organizzativi, andando a monitorare e analizzare il funzionamento e il valore dei servizi per il cittadino, con l’obiettivo di eliminare tutta una serie di stratificazioni organizzative che negli anni, in tutte le organizzazioni, si creano. Quest’approccio attribuisce centralità all’utente, puntando a semplificare i processi di cura e i percorsi di presa in carico, differenziandoli e calibrandoli rispetto al target di riferimento, così da mettere in grado il sistema di fornire la tipologia di risposta più appropriata ed efficace a bisogni di salute che provengono da una popolazione eterogenea e dalla composizione complessa. Avendo adottato l’ottica della centralità del cittadino-utente, e dopo aver avviato la semplificazione sopra richiamata, stiamo portando avanti una fase di concertazione delle azioni di ristrutturazione funzionale dell’intero sistema sanitario regionale, che entro l’anno porterà all’adozione di specifiche delibere attuative. Tali azioni riguardano il rafforzamento della rete territoriale, da realizzarsi attraverso il potenziamento del rapporto con la medicina generale, ma anche il piano regolatore dei distretti territoriali, l’implementazione per via telematica di tutti servizi che possono essere offerti online, la copertura e l’integrazione costante fra medicina generale e continuità assistenziale. Si tratta di quindi operazioni forti, che implicano un grande investimento sul territorio, e sul sistema delle cosiddette cure intermedie. Parallelamente, stiamo procedendo con la ristrutturazione di tutta la rete ospedaliera, secondo un processo che va a ridefinire la missione dei singoli ospedali, per aumentarne l’efficienza organizzativa nel senso dell’appropriatezza e dell’efficacia. Tale percorso di rimodulazione porterà complessivamente - questo però rappresenta il punto di arrivo e non quello di partenza – anche ad una riduzione del numero di posti letto. Tra gli altri interventi è prevista l’unificazione per Area Vasta delle centrali operative del 118, con una revisione di tutta la rete territoriale dell’emergenza-urgenza; si pensa inoltre di centralizzare in tre o quattro punti a livello regionale, i quasi venti laboratori di analisi presenti. Sono tutti interventi molto significativi e ci siamo dati l’obiettivo ambizioso di realizzarli nel corso del prossimo anno. Questo percorso ci porterà sicuramente ad avere una sanità migliore e più efficace, pur consapevoli della grande sfida che ci aspetta rispetto alla realizzazione degli interventi e delle azioni prospettate nel corso del 2013. Se potessimo andare a dormire e svegliarci domani con la riforma già attuata, sono sicuro che ci troveremmo a poter offrire ai cittadini un servizio sanitario migliore, più snello, più efficace. Un’altra questione importante è la necessità non rinviabile di un forte, incisivo investimento nel settore dell’informatizzazione. Abbiamo creato un gruppo di lavoro che sta progettando le linee guida di quello che sarà il nuovo sistema informativo generale della sanità Toscana, non solo un insieme di software, ma un vero e proprio gestore dei processi. E’ previsto anche un sostegno agli investimenti infrastrutturali, con una fortissima attenzione alla tutela dell’ambiente, al risparmio energetico e alla sostenibilità. 14 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 20 Novembre Ho iniziato dicendo che la nostra proposta di riorganizzazione parte da quello che è il flusso del valore per il paziente, attribuendo sostanzialmente un’imprescindibile centralità nel Sistema alle persone che ci pagano lo stipendio attraverso le loro tasse, perché ci ricordiamo bene l’origine e il senso del sistema sanitario pubblico. A tale proposito, vorrei concludere sottolineando che questo piano di riforma prevede un forte coinvolgimento di tutte coloro che nel nostro sistema lavorano, attraverso la partecipazione attiva delle diverse componenti professionali e l’attenzione allo sviluppo delle risorse umane. E’ certamente, quello della riorganizzazione del sistema sanitario regionale, un disegno molto complesso, integrato e globale, che di fatto stiamo già attuando. E molte delle iniziative del forum trattano le tematiche che sono oggetto del percorso che stiamo portando avanti e che ho provato a delineare in questo intervento. Da questo punto di vista c’è molta attenzione da parte nostra anche a quelle che saranno le idee, le proposte, le questioni che emergeranno dai lavori di questo importante consesso, e con questo vi saluto, vi ringrazio e vi auguro buon lavoro. Arezzo 20 - 23 novembre 2012 15 20 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute Apertura Forum Corrado CliniMinistro dell’Ambiente e della Tutela del Territorio e del Mare Trascrizione non revisionata dal relatore Grazie e complimenti. Io credo che quella di questi giorni sia un’occasione importante per confrontarsi con la realtà di queste settimane, di questi mesi, cercando di avere uno sguardo sul futuro che sia uno sguardo costruttivo e critico. Quando sono entrato stava parlando Vasco Giannotti e stava sostanzialmente dicendo “basta tagli”, stava dicendo che i tagli per la spesa sanitaria, la spesa per la protezione dell’ambiente sono pericolosi, sono non utili. Ora io, come membro di questo Governo che si è trovato e che si trova ad affrontare una situazione di grande emergenza, vorrei suggerire una riflessione forse più problematica, meno facile dal punto di vista della comunicazione ma che credo però sia necessaria proprio partendo dal merito, cioè dalle problematiche con cui ci stiamo confrontando, ci siamo confrontati e ci stiamo confrontando anche queste settimane, che riguardano le relazioni tra la protezione dell’ambiente e la protezione della salute. Possiamo dire con estrema chiarezza che la crisi economica, la situazione difficile dal punto di vista dell’economia nazionale ma anche europea, in qualche modo coincide, non è la causa ma in qualche modo coincide, con l’emergenza di relazioni più conflittuali, più difficili da gestire tra protezione dell’ambiente e protezione della salute, perché le difficoltà economiche riducono i margini per intervenire, per esempio nel sistema industriale piuttosto che nelle infrastrutture pubbliche che servono anche per la protezione della salute e dell’ambiente, perché le difficoltà economiche rendono più acuta una domanda di sicurezza da parte delle persone che riguarda anche la domanda di salute. Le difficoltà economiche però non si risolvono esorcizzandole, cioè se non riusciamo a prendere atto di una realtà nella quale abbiamo come elemento di base una più ristretta disponibilità di risorse e se non partiamo dal presupposto che dobbiamo affrontare le sfide della protezione dell’ambiente, della protezione della salute, avendo a disposizioni minori risorse, rischiamo di non riuscire a trovare la strada per affrontare in modo positivo e costruttivo tutte le tematiche che emergono e diventano più acute, come abbiamo visto dal dissesto idrogeologico alla crisi dell’ILVA. Dobbiamo sapere che la situazione nella quale ci troviamo chiede di conservare gli obiettivi fondamentali della protezione dell’ambiente e della salute in condizioni di disponibilità di risorse economiche molto più ristrette di prima e perciò l’obiettivo di fronte al quale ci troviamo non è quello di garantire la continuità di quello che avevamo ma di cambiare gli strumenti per poter fare in modo che il diritto all’ambiente e il diritto alla salute siano assicurati. L’Assessore Regionale, prima, ha spiegato in maniera molto concreta quale è stata la reazione, la reazione della Regione Toscana non è stata quella di dire “vogliamo di più” ma è stata quella di dire “nelle condizioni date dobbiamo organizzarci per assicurare il meglio sapendo che la base di risorse si è ristretta”. Questo approccio è necessario anche in una prospettiva di crescita, cioè non un approccio che sostanzialmente prende atto che siamo più poveri e che perciò dobbiamo accontentarci di meno ma questo è un approccio che serve per una strategia di ripresa, nel senso che l’aumento di efficienza nell’uso delle risorse, la migliore concentrazione delle risorse sugli obiettivi fondamentali, la riduzione delle spese su aree che oggi non sono strategiche, consente di favorire investimenti che servono alla crescita. Questo è quello che per esempio emerge in maniera molto chiara per il dissesto idrogeologico, noi oggi abbiamo bisogno di focalizzare l’uso delle risorse che già abbiamo per affrontare i nodi critici che rappresentano la vulnerabilità del territorio rispetto agli eventi climatici estremi e dobbiamo dire che, in generale, nonostante che siano scarse le risorse a disposizione, nonostante questo, una parte importante di queste risorse non viene usata. Noi stiamo affrontando in queste settimane, a fronte dell’emergenza, stiamo valutando quali sono le risorse già date, già messe a disposizione dal Ministero dell’Ambiente dal ‘98 al 2012 per affrontare il rischio e la prevenzione del dissesto idrogeologico; sostanzialmente, metà delle risorse che sono state assegnate non sono state ancora, non dico spese, neanche utilizzate, non sono stati progettati gli interventi per utilizzare queste risorse e c’è ancora una grande dispersione degli interventi, sono delle problematiche marginali rispetto all’obiettivo di proteggere il territorio dai rischi degli eventi climatici estremi. Se noi riusciamo ad affrontare i nodi critici della vulnerabilità del territorio attraverso investimenti pubblici nelle infrastrutture strategiche, supporto agli investimenti privati per la manutenzione e gestione del territorio, su queste due cose che sono molto chiare e molto circoscritte, mettiamo in moto un circuito virtuoso, nel senso che creiamo le condizioni per occupazione aggiuntiva e per investimenti che a loro volta generano valore aggiunto, però per far questo dobbiamo essere capaci di spendere bene le risorse che abbiamo, questo è il primo obiettivo e credo che questo sia lo stesso tipo di obiettivo che noi abbiamo anche nel momento stesso in cui affrontiamo i temi della protezione e della salute. Secondo tema che emerge in questo contesto, quello che riguarda la necessità di andare a colpire nell’organizzazione pubblica i nodi della inefficienza e quelli che riguardano la duplicazione di funzioni, di attività, non parlo della Regione Toscana, parlo di un’altra regione italiana che però non è una regione del Sud e parlo ancora del dissesto idrogeologico; abbiamo le autorità di bacino, abbiamo i servizi regionali che si occupano per esempio della gestione delle acque, abbiamo i consorzi di bonifica, tre entità, almeno tre, 16 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 20 Novembre importanti, ben dotate di risorse finanziarie che spesso fanno a stessa cosa o si occupano della stessa cosa e che si trovano con risorse non spese, decine di milioni assegnati e non spesi, perché sostanzialmente non riescono a ottimizzare l’uso delle risorse attuali e non riescono a far convergere sullo stesso obiettivo anche le risorse umane e l’organizzazione, questo è un altro tema che ha molto a che fare con la protezione dell’ambiente. Noi abbiamo oggi in Italia, oltre al Ministero, l’ISPRA, l’Istituto Superiore per la Protezione e la Ricerca Ambientale, abbiamo le Agenzie Regionali per la Protezione dell’Ambiente, abbiamo il CNR, abbiamo l’ENEA, abbiamo l’Istituto Nazionale di Geofisica e Vulcanologia, che spesso si occupano delle stesse cose, spesso con finanziamenti paralleli, sicuramente iniziative tutte importanti, tutte significative, ma è possibile che ci si debba occupare in quattro della stessa problematica? Che ci si debba occupare in quattro della mappatura dello stesso territorio? Che si debbano investire risorse pubbliche che poi alla fine servono per tenere in piedi un’organizzazione o più organizzazioni? Non è sostenibile, perché il rischio è quello di trasformare l’obiettivo della protezione dell’ambiente in un sistema di welfare che serve per tenere in piedi l’organizzazione che si occupa nella protezione dell’ambiente, sono due cose diverse e credo che lo stesso problema si ponga anche nell’organizzazione della sanità pubblica. Allora qual è l’argomento molto difficile sul quale stiamo lavorando e con il quale ci confrontiamo? L’argomento molto difficile è quello di prendere atto che se vogliamo ridare efficienza alla nostra organizzazione pubblica per la protezione dell’ambiente, parlo di questo, dobbiamo fare tutti un esercizio di responsabilità e di generosità per cominciare a capire che l’organizzazione che abbiamo costruito come modello, diciamo, del secolo scorso non regge più alla sfida, perché da un lato le problematiche ambientali sono complicate e richiedono competenza e risorse e dall’altro, a fronte di sfide complicate che richiedono competenza e risorse, noi abbiamo un’organizzazione con molti duplicati e che spesso non ha i livelli di competenza che sono richiesti. Voglio dire questo, perché chiaramente non credo che il Governo riuscirà, questo Governo, a fare l’operazione che sarebbe necessaria e cioè quella di riallineare l’uso delle risorse pubbliche per la protezione dell’ambiente, ma cercheremo almeno di fornire un quadro di riferimento nel quale sono chiari i numeri e sono chiari gli obiettivi, in modo che tutti siano messi di fronte alla responsabilità di dover scegliere, dalle organizzazioni che rappresentano i lavoratori dei diversi settori della ricerca, i dipendenti delle Regioni, i dipendenti dello Stato, eccetera, ai responsabili delle amministrazioni degli enti, perché è necessario riuscire a capirci su che cosa serve oggi e come meglio possiamo fare per affrontare le sfide ambientali che sono complicate e questo vale anche in quella interfaccia tra ambiente e salute così difficile. Le esperienze che abbiamo fatto in questi ultimi mesi, oltre a mettere in evidenza la difficoltà tecnica di decifrare le problematiche, per esempio la relazione tra inquinamento storico di alcune aree del nostro Paese che sono state le aree di sviluppo industriale e lo stato di salute della popolazione attuale e come lo stato della salute e la popolazione attuale è il risultato di quella situazione di inquinamento di trenta, quaranta anni fa piuttosto che il risultato della situazione dei rischi attuali, è un problema enorme, noi avremo giovedì, a Venezia, l’apertura della Conferenza Nazionale sull’Amianto, l’amianto, come sapete, è stato bandito un po’ di tempo, però abbiamo nel nostro Paese un’emergenza sanitaria che riguarda le malattie legate all’amianto che difficilmente possono essere commesse con le esposizioni attuali e che perciò rappresentano l’eredità di un sistema industriale e produttivo che utilizzava questo tipo il prodotto. Nel momento in cui però si affronta questa tematica spesso l’emergenza sanitaria legata all’esposizione a sostanze tossiche e pericolose di trenta, quarant’anni fa, viene attualizzata, come se il problema fosse di un’esposizione attuale e questo crea un’enorme difficoltà nella gestione, perché sostanzialmente si attribuiscono responsabilità a sorgenti di rischio che non sono pertinenti rispetto a quel tipo di problema. Ecco, anche riguardo a questo tipo di tematica, noi stiamo scontando ,nonostante il lavoro importante dell’Istituto Superiore di Sanità, nonostante il lavoro importante delle Regioni. delle Aziende Sanitarie Locali, noi stiamo scontando di fatto una difficoltà importante nel nostro Paese a riuscire ad analizzare i dati della popolazione attuale e a correlarli con situazioni di rischio attuali, perché la prevenzione si fa su quello che abbiamo oggi, non si fa su quello che abbiamo avuto quarant’anni fa, tranne nel caso in cui dobbiamo risanare siti contaminati che sono lì da quarant’anni o da cinquant’anni. Ci siamo trovati allora, ci troviamo, in molte realtà del nostro Paese nella difficoltà di avere dei dati di riferimento certi che ci dicano che la situazione era questa, l’evoluzione attesa di quella situazione di rischio è questa, la situazione attuale è quest’altra e l’evoluzione attesa del rapporto tra la situazione attuale e lo stato della salute è questa; questi dati di riferimento, che tutto sommato non sono necessari ma anche relativamente semplici, non li abbiamo e abbiamo assistito e assistiamo a un confronto pubblico con la partecipazione di esperti, di istituti, eccetera, che sostanzialmente non riescono a fare chiarezza su questo punto, anche questo è un tema che ha a che vedere con l’utilizzazione efficiente delle risorse, perché non si capisce come mai nel nostro Paese, nonostante i decenni di evoluzione positiva dell’organizzazione pubblica per la tutela dell’ambiente, dell’organizzazione pubblica per la tutela della salute, non esista un punto di riferimento pubblico sicuro, autorevole che dica quale è la situazione e ogni volta che si apre una vertenza su questo tipo, la magistratura invece di fare riferimento all’autorità che dice come stanno le cose, fa riferimento a consulenti di parte che devono occuparsi della questione. Sto parlando di questo non per fare delle polemiche ma per dire che anche questo è un tema che riguarda le modalità con le quali lo Stato deve garantire la certezza delle informazioni sulla qualità dell’ambiente e sulla qualità della salute per consentire a tutti, dalle amministrazioni Arezzo 20 - 23 novembre 2012 17 20 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute pubbliche che hanno la responsabilità della pianificazione degli usi del territorio alle imprese i che hanno responsabilità di rispettare le leggi, alla magistratura che ha la responsabilità di perseguire i reati, per far avere a tutti un quadro di riferimento certo di informazione, questa è un’emergenza nazionale che riguarda insieme la protezione dell’ambiente, la protezione della salute e l’uso migliore delle risorse pubbliche. Credo che una discussione franca, aperta, costruttiva su questo tema sia utile e sia anche sana, perché sostanzialmente dobbiamo prendere atto che in molti, in questo Paese, abbiamo lavorato tanto, abbiamo raggiunto degli obiettivi importanti ma che probabilmente abbiamo lavorato ognuno per la sua strada mentre invece adesso le strade vanno messe insieme e va fatta sinergia tra le risorse, ognuno di noi deve rinunciare a un pezzo di quello che si è immaginato di costruire, perché non ci possiamo più per permettere in Italia, e questo è un unico caso in Europa, di non avere un’autorità di riferimento per la salute e per l’ambiente che sia punto di certezza per tutta la popolazione. L’ultima cosa che dire, io ringrazio molto gli organizzatori di avere dato una dimensione internazionale a questo forum e soprattutto una dimensione internazionale che è legata alle economie in transizione, alle economie emergenti dell’Europa, quelle del Centro-Est Europa, perché credo che sia un’occasione importante per l’Italia, nel momento stesso in cui riflettiamo su noi stessi e cerchiamo di riorganizzarci e di darci una prospettiva capace di affrontare le sfide del futuro, possiamo nello stesso tempo essere utili interlocutori di questi Paesi che sono alle prese con l’organizzazione dei loro sistemi; non siamo nella posizione di dire agli altri come devono fare, anche perché abbiamo fatto tanti errori, ma siamo nella condizione di lavorare con questi Paesi per costruire insieme un modello che possa essere utile a noi e a loro. Grazie. 18 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 20 Novembre Corretto utilizzo e salvaguardia della risorsa acqua Paolo NanniniPresidente Nuove Acque Trascrizione non revisionata dal relatore Due parole per iniziare, perché questo dell’acqua è un tema delicato, un tema molto sentito, politicamente ma anche dall’opinione pubblica tutta, da una parte per tutto quello che attiene all’idropotabile e che attiene alla gestione della risorsa idrica come acqua da bere e dall’altra anche come risorsa che a volte non viene come dovrebbe venire e quindi il rischio idraulico. Questi giorni ci sono stati problemi, un po’ in tutta Italia, perché alcuni anni di acqua ne viene anche troppa mente alcuni anni la risorsa manca. Quindi, il ciclo delle acque, tutto complessivo, è un argomento estremamente interessante. Su questo, sulla parte che riguarda la sessione di stamattina, con il corretto utilizzo e la salvaguardia, c’entrano un po’ tutti i temi di cui vi ho accennato. In particolar modo, in questi giorni, l’AEG che è l’autorità dell’energia e del gas, sta lavorando su un nuovo sistema tariffario che crea un po’ di fibrillazione a tutti per il contenuto e per le conseguenze che potrebbe portare soprattutto al sistema toscano riguardo alle tariffe e agli investimenti che sono già in atto e che alcune aziende toscane si apprestano a fare, ma diciamo che comporterebbe però, se così fatta, uno sconvolgimento un po’ in tutta Italia. Personalmente, penso che il miglior sistema che noi abbiamo è far funzionare le nostre aziende e dare un buon servizio, di modo che tutti possano bere l’acqua del rubinetto con soddisfazione, questo è legato all’avere la risorsa e avere la risorsa significa che vanno fatti investimenti per quanto riguarda il tenere l’acqua a monte, questo significa fare anche energia elettrica, significa fare anche un po’ di mitigazione del rischio idraulico. Di questi problemi poi stamattina, vorrei dire che l’acqua potrebbe diventare energia in un altro sistema, perché la molecola dell’acqua è ossigeno e idrogeno e quindi chissà che in futuro non se ne parli anche un po’ di più e diventi conveniente anche la scissione e l’utilizzo dell’idrogeno. Arezzo 20 - 23 novembre 2012 19 20 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute Corretto utilizzo e salvaguardia della risorsa acqua "Il Governo della risorsa idrica nel piano di gestione della Direttiva Quadro: misure sostenibili per il raggiungimento degli obiettivi di qualità" Gaia Checcucci Segretario Autorità Bacino Arno Grazie a lei Presidente, grazie a tutti. Mi ha fatto piacere che il Presidente nell’introduzione abbia accennato che non siamo soltanto nel campo del servizio idrico integrato, ma siamo nel campo del governo a tutto tondo della risorsa, e quindi anche della tutela idro-geomorfologica e della tutela qualitativa. E’ proprio questo infatti il senso e la finalità della direttiva europea 2000/60 che, nel settore delle acque, ha cambiato completamente lo scenario di riferimento, facendo la scelta innovativa di approcciare la risorsa acqua nel suo complesso e segnando, quindi, una forte discontinuità rispetto al passato. La direttiva quadro, recepita nel nostro Paese con il d. lgs. 152/2006, il cd. codice dell’ambiente, sancisce infatti il superamento della storica tripartizione che ha da sempre caratterizzato il settore, ossia difesa dalle acque (da intendersi come difesa del suolo, idro-geomorfologica, e quindi tutto ciò che è ancorato alla legge 183/1989 e alla pianificazione di bacino), tutela della risorsa (per la quale si rinvia ai piani di tutela e agli obiettivi di qualità incardinati sull’azione regionale) e, infine, servizio idrico integrato (con il necessario rinvio alla legge 36/1994 e al mondo delle società di gestione). In Italia, fino al recepimento della direttiva e purtroppo ancora oggi, si fatica comunque a superare la demarcazione fra questi tre settori. Con il recepimento della 2000/60 e con l’introduzione di nuovi strumenti di pianificazione, si cambia completamente approccio, in quanto la direttiva prevede una pianificazione di gestione sovraordinata: non più piani regionali di tutela, piani d’ambito, piani di bacino articolati in stralci, piani di sviluppo rurale e altri ancora, indipendenti l’uno dall’altro, ma tutte queste pianificazioni organizzate in un unico strumento, in un masterplan di riferimento che le accorpa e le reinterpreta tutte, alla luce dei principi della direttiva, e che si chiama Piano di gestione. La Direttiva prevede quindi un unico strumento di pianificazione per affrontare il problema di gestione della risorsa nel suo complesso, perché ciò che interessa è sostanzialmente il corpo idrico, la valutazione del saldo dei benefici che vengono arrecati a ciascun corpo idrico da tutte le misure e interventi che insistono sullo stesso, non soltanto quindi interventi di depurazione e fognatura ma anche misure non strutturali come, ad esempio, le limitazioni degli attingimenti (contenute nel piano del bilancio idrico) e altre misure che hanno a che fare con i piani di sviluppo rurale, strettamente legate all’uso irrigo: tutto ciò che arreca un saldo positivo al corpo idrico deve essere censito, monitorato e incardinato in una logica pianificatoria per il raggiungimento dell’obiettivo di qualità buono al 2015 che la direttiva prevede per ciascun corpo idrico, salvo specifiche deroghe o proroghe. La cartina che vedete nella slide è l’area di operatività a livello distrettuale in cui ha operato l’Autorità di Bacino dell’Arno: si tratta di un territorio non limitato al solo bacino dell’Arno, ma che si estende a 6 regioni dalla Liguria a parte dell’Emilia Romagna, delle Marche, del Lazio e del Piemonte. L’Autorità di bacino del fiume Arno in questi anni ha, dunque, lavorato come Autorità Distrettuale coordinando le regioni ricadenti nel territorio distrettuale perché la direttiva 2000/60/CE, a fronte dell’unicità di riferimento pianificatorio, prevede che ci sia anche un unico soggetto che si occupa del governo della risorsa. Nel nostro Paese l’Autorità di distretto non è ancora nata: si tratta di una delle tante riforme mancate; tuttavia, nelle more dell’istituzione dell’Autorità di Distretto con due leggi ponte, nel 2009 e nel 2010, il Parlamento ha attribuito specifiche competenze distrettuali alle Autorità di bacino nazionali. Il primo piano di gestione del distretto è stato pubblicato nel 2010 e consegnato alla Comunità Europea che lo ha sottoposto ad una prima valutazione. Il piano di gestione è sostanzialmente un piano composto dai piani di tutela, dai piani di ambito, dagli accordi di programma: tutto ciò che ogni regione e ogni altri soggetto competente ha inserito nella pianificazione degli interventi è stato considerato e reinterpretato in chiave 2000/60 dal piano di gestione. Nell’attuazione del piano di gestione la prima scadenza importante è proprio a dicembre 2012, termine entro cui siamo chiamati a fare un report alla Commissione Europea. La Comunità Europea vuole sapere a che punto è l’attuazione degli interventi e i progressi realizzati nell’attuazione delle misure: si tratta di una sorta di verifica a metà percorso in vista della scadenza definitiva del 2015. Nella sostanza si tratta di riportare cosa è stato fatto e, soprattutto, come sta andando il raggiungimento degli obiettivi di qualità. Questa (slide) è la fotografia di partenza del nostro distretto e questo (slide con torte) è lo stato dei corpi idrici superficiali, così come rappresentati nella ricognizione del piano di gestione a marzo 2010 alla Comunità Europea e gli obiettivi individuati, sempre nel piano di gestione, per il raggiungimento dell’obiettivo di qualità buono. Come potete notare, la scelta che abbiamo compiuto e della quale siamo più che mai soddisfatti e orgogliosi è stata una scelta di cautela: sulla base degli interventi in corso, purtroppo, non ci sono grandissimi margini di miglioramento nel passare dallo stato sufficiente o scadente allo stato di qualità buono. Questa (slide) era la previsione del piano di gestione del 2010, nel quale sostanzialmente ci si impegna a mantenere lo stato di qualità buono per oltre quasi il 60% dei casi, ma 20 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 20 Novembre si prevedono anche proroghe al raggiungimento dell’obiettivo di qualità buono, rispettivamente per il 17% e il 24% dei casi, al 2021 e al 2027 così come previsto dalla direttiva quadro. Analogo discorso può farsi per i corpi idrici sotterranei, gli acquiferi: nella slide si vede che al 2010 lo stato dei corpi sotterranei è scadente per il 44% e buono per quasi il 60% mentre, per quanto riguarda gli obiettivi, ci proponiamo di mantenere lo stato di qualità buono per il 58% dei casi e si è spostato l’obiettivo al 2021 e al 2027, avvalendosi anche in questo caso delle proroghe che la direttiva quadro consente, in particolare al fine di evitare e prevenire eventuali procedure di infrazione che potrebbero essere arrivare laddove si dichiarasse il raggiungimento al 2015 e nei fatti non lo si raggiungesse. Ma come stanno oggi le acque toscane? Gli obiettivi di qualità previsti nel piano sono importanti ma altrettanto importante è capire come stanno le acque oggi e queste informazioni le abbiamo grazie al monitoraggio Questi (slide) sono i dati del monitoraggio effettuato da ARPAT pubblicati recentemente: come vedete dalla rappresentazione, il passaggio 2010/2011 non fa stare molto tranquilli perché per quanto riguarda lo stato di qualità “buono” c’è un leggero peggioramento sulla tendenza e lo stesso può dirsi per quanto riguarda gli altri stati (“scadente” e “sufficiente”) che si mantengono più o meno allo stesso modo. In altri termini ciò significa che a due anni di distanza dalla pubblicazione del piano di gestione, sulla base del monitoraggio ARPAT che abbiamo raccolto e di cui vedete la rappresentazione, non si registrano miglioramenti significativi, anzi c’è un leggerissimo peggioramento per quanto riguarda lo stato di qualità “buono”, quindi non possiamo dire che ancora le misure e gli interventi che sono stati messi in campo siano stati funzionali a dare un segnale nell’ottica del miglioramento dello stato di qualità. Quest’altra slide mostra una sintesi del programma di misure del piano di gestione. La direttiva distingue tra misure di base che sono l’applicazione di tutte le direttive di riferimento sulle acque potabili, sugli scarichi, sulla depurazione, ma aggiunge che non basta attuare dette direttive, occorre anche che ogni stato membro metta in campo ulteriori misure di base e misure supplementari. Gli stati membri devono inoltre lavorare sul recupero dei costi (misura espressamente contemplata e disciplinata dalla direttiva), dimostrando cosa stanno facendo per il recupero dei costi. La direttiva prevede che laddove le misure di base derivanti dalle direttive e le altre misure di base messe in campo non siano sufficienti al raggiungimento degli obiettivi di qualità, gli Stati membri hanno il dovere e il diritto, di mettere in campo azioni diverse - legali, amministrative, economiche, negoziali, comportamentali - di varia natura per agevolare il raggiungimento dello stato di qualità. Dal punto di vista dei costi e del finanziamento, a fronte dell’intero pacchetto di misure individuate a livello di distretto per il raggiungimento degli obiettivi, bisogna evidenziare che soltanto un terzo è ad oggi finanziato: il nostro piano di gestione individua misure e interventi per circa 5,7 miliardi di euro, dei quali ad oggi solo 2 miliardi sono finanziati. Quindi nella sostanza è stato investito poco e in ritardo perché i margini di miglioramento, come dimostrano i dati del monitoraggio ARPAT, sono assai limitati. Nella slide che segue si rappresenta lo strumento che l’Autorità di bacino ha cercato di mettere in campo per valutare l’efficacia reale delle misure: si tratta di una sorta di “cruscotto” di controllo, implementato grazie alla collaborazione con le regioni del distretto, un database che correla i corpi idrici, il loro stato e gli obiettivi con le misure e gli interventi e che consente di porsi sia dal punto di vista del singolo corpo idrico che dal punto di vista dell’intervento. Tale sistema informatico geo referenziato è, inoltre, coerente con il sistema di reportistica WISE. La direttiva quadro introduce poi un ulteriore concetto assai rilevante, soprattutto in un settore come questo nel quale non si è mai parlato di sostenibilità economica, di benefici, di equilibrio economico. Con la direttiva 2000/60/CE l’Europa richiede che la pianificazione di gestione sia sostenibile da un punto di vista economicofinanziario: si pianificano le misure e si prevedono gli interventi ma per ogni intervento e per il complesso di misure occorre, poi, valutare la sostenibilità economico-finanziaria. L’analisi economica è, dunque, uno strumento che deve servire non soltanto a fare una ricognizione del contesto di partenza ma anche a proporre la combinazione delle misure più efficaci, al minor costo possibile, per il raggiungimento di quell’obiettivo di qualità: si tratta di scelte da fare sulla base delle disponibilità effettive per raggiungere la migliore efficacia possibile. Tali concetti non sono forse nuovi a molti addetti ai lavori, soprattutto delle società di gestione del s.i.i., ma in realtà nelle pianificazioni in materia di risorsa (piani di tutela, piani di ambito e altro) si tratta di concetti finora non utilizzati. Sulla base dell’analisi condotta in via sperimentale su una porzione di territorio è stata testata la metodologia elaborata per verificare la sostenibilità del piano, per verificare l’equilibrio economico finanziario, per verificare se quelle misure erano coperte realmente nel loro costo. La sperimentazione è stata fatta in una porzione dell’ATO 4 di Arezzo e ora estesa a tutti gli altri ATO toscani, in particolare l’ ATO 2, l’ATO 3 e l’ATO 4, perché - come si vede da questa slide - in termini di comuni, di estensione, di popolazione, questi tre territori sono già significativi e rappresentativi dell’intero bacino dell’Arno. Nell’analisi compiuta sono state incrociate le informazioni derivanti dalla pianificazione d’ambito e contenute nei piani di gestione del 2010 con i dati aggiornati del monitoraggio e con le informazioni messe a disposizione dei gestori sull’effettiva realizzazione dei programmi operativi di interventi. Sono state prese in considerazione per ciascun ATO le pressioni e i prelievi distinti per tipologia e si è fornita la rappresentazione di quanta risorsa assorbono i diversi usi (civile, agricolo, industriale) evidenziando che, in realtà, nel nostro territorio le maggiori problematiche sono connesse all’uso industriale e irriguo del quale, tra l’altro, sono Arezzo 20 - 23 novembre 2012 21 20 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute sconosciuti costi e spesso portate attinte. Sulla base di tale analisi si è, altresì, cercato di vedere, incrociando i dati con il supporto dei gestori, che cosa succede nella porzione di territorio interessata (che è appunto rappresentativa del nostro bacino dell’Arno) al 2015. In buona sostanza entro il 2015 le pianificazioni vigenti e gli interventi in corso, con gli aggiornamenti del gestore, ci consentono di dire che è previsto il mantenimento dello stato “buono” di tutti i corpi idrici superficiali, che erano quelli che avevamo censito nel 2010, ma che il raggiungimento dello stato “buono” per quelli che avevano qualità “sufficiente” è previsto solo nell’1% nell’ATO 2, nel 14% nell’ATO 3 e nel 39% nell’ATO 4. In altri termini: sulla base delle pianificazioni ma soprattutto degli interventi in corso, si potrebbe fare molto di più. Nell’analisi si è cercato di ragionare anche sul lato di copertura dei costi, perché questo chiede la direttiva, chiede che sia recuperato integralmente il costo di ogni servizio per ogni uso dell’acqua, civile, industriale e agricolo, chiede la copertura, il famoso full cost recovery, e allora abbiamo ragionato prima con un rapporto tra ricavi e costi in termini di abitanti serviti e di metri cubi considerando, con riferimento ai costi, i costi industriali, al netto ovviamente dei costi relativi ad altre attività e abbiamo fatto una prima approssimazione dei costi ambientali intesi proprio come le misure funzionali al raggiungimento dell’obiettivo di qualità, sono stati considerati i ricavi da tariffa ed è stata verificata la sostenibilità finanziaria degli investimenti previsti nel periodo di interesse, proprio per capire se la tariffa è in grado di garantire la produzione delle risorse finanziarie necessarie alla loro copertura. Quali sono le conclusioni? La conclusione a metodo previgente, cioè con il metodo normalizzato 1.08.1996 era che la copertura dei costi per la realizzazione degli investimenti previsti nel piano d’ambito e dei costi di esercizio avveniva solo tramite ricavi provenienti da altre attività, quindi era garantita grazie ad altre attività extra servizio idrico integrato. Nonostante il metodo previgente non erano tuttavia previsti tutti gli investimenti necessari per il raggiungimento dell’obiettivo, soprattutto per la depurazione e gli agglomerati sotto i 2.000 abitanti equivalenti, non si faceva riferimento né al costo della risorsa, né al costo ambientale. Con il passaggio e l’eliminazione della remunerazione del capitale investito emergono grosse problematiche sulla sostenibilità del piano economico finanziario. Se già prima c’era qualche problema, adesso con l’eliminazione della remunerazione del capitale investito, quale esito del referendum, e tenendo conto dei primi orientamenti espressi dall’AEEg nei documenti di consultazione, si può dire che nel nostro territorio, in tutto il bacino dell’Arno, e in particolare nel territorio di Arezzo dove c’era un buon raggiungimento dell’obiettivo di qualità “buono”, è fortemente compromesso l’equilibrio economico finanziario laddove realmente si volesse continuare a raggiungere e/o mantenere quegli obiettivi. Grazie. 22 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 20 Novembre Corretto utilizzo e salvaguardia della risorsa acqua "Investimenti per la sicurezza dell’approvvigionamento potabile: problematiche e sostenibilità" Andrea BossolaACEA Per me parlare dopo la dottoressa Checcucci, oltreché essere un’emozione, è tornare indietro nel tempo, nel senso che, esattamente sei anni fa, eravamo tutti in un convegno a Palermo, era appena uscito il DLgs 2006 e la dottoressa Checcucci lo presentò in maniera grandiosa. Nella sala affollata ci fu un signore che si alzò e disse alla dottoressa che era stata semplicemente meravigliosa, peccato solo che la legge mancasse di un articolo, l’articolo 1e cioè chi paga. Sfortunatamente, dopo sei anni, prendo atto della presentazione della dottoressa Checcucci che è stata perfetta, per iniziare un discorso che però parte sempre dalla mancanza dell’articolo 1, ovvero dalla slide che ha caratterizzato per molto tempo la presentazione dei miei interventi che era “no money no party”. Di solito parlo a braccio ma per una volta vorrei leggere per evitare di utilizzare terminologie e parole di cui potrei pentirmi; dice il vicepresidente di Feder Utility, l’articolo si chiama “la quiete dopo la tempesta ...... forse” e ovviamente si ricollega al fatto che esattamente un anno e mezzo fa i cittadini di questo Paese sono stati chiamati per votare un referendum che per tutti è stato un referendum sull’acqua. A un anno e mezzo da quel referendum, bisogna dire che, anche grazie all’intervento del Presidente della Repubblica, c’è stata una sorta di “rivoluzione totale” della politica italiana e quindi quel referendum ha rappresentato l’ultimo vero scontro tra due schieramenti politici che su temi (che forse conoscevo poco) hanno deciso di fare una querelle che è andata al di là delle necessità di questo Paese. Dopo questa dilatazione artificiosa del tempo, dovuta alla fortissima crisi economica e sociale che si è abbattuta sul nostro Paese, ora possiamo parlare pacatamente del pantano in cui ci troviamo. Nell’ultima slide della sua presentazione, la dottoressa Checcucci dice che noi dovremmo, per volere della Comunità Europea, raggiungere nei nostri fiumi il cosiddetto livello “buono”, ma non ci possiamo riuscire nel 2015 perché mancano i quattrini, come si dice a Roma, e mancano i quattrini anche perché c’è stato un referendum che ha sancito che in questo Paese non è possibile la remunerazione sul capitale investito. Premesso che quando parlavo di queste cose la maggior parte delle persone hanno interpretato come remunerazione del capitale un indebito profitto, cosa che ovviamente per sa di economia non è così; la remunerazione del capitale è la remunerazione del capitale e l’indebito profitto è l’indebito profitto. Ricordo che le aziende italiane che si occupano di dare acqua ai cittadini devono anche e soprattutto depurare i liquami, e quindi altra slide classica era “acqua bene comune ma il liquido che cammina non lo è altrettanto”? No, non è un bene comune, in questo Paese si pensa che la depurazione la possa fare Santa Maria Teresa di Calcutta oppure i Caschi Blu dell’ONU. Allora il problema è che cosa bisogna fare; è vero che la buona acqua è una fantasia, un problema che è diverso dall’energia elettrica, dal gas. Qualcuno dice che l’acqua è indispensabile alla vita umana, nella testa di tutti è così, e facendo indagini (non mi hanno mai mandato a lavorare a Parigi o a Londra, mi hanno sempre mandato in Moldavia, in Armenia, in Marocco, in Tunisia, nei Paesi un po’ più “sfigatelli” si direbbe) ci si fa un’esperienza anche di quella che è la percezione dei servizi forniti. Bene, la maggior parte delle persone se gli stacchi l’energia elettrica, si arrabbia come un babbuino olandesi per la semplice ragione che non può vedere la televisione, non perché gli si spegne frigo. Allora il concetto di ciò che sono le priorità, nella scala dei valori delle persone, è sicuramente da rivedere, nel senso che nella priorità delle persone c’è sicuramente di più il telefonino che pagare la bolletta dell’acqua, perché il telefonino giustamente soddisfa un desiderio di socializzazione che probabilmente è maggiore del desiderio di lavarsi, perché, attenzione, il fabbisogno idrico è un altro concetto che è poco chiaro nel nostro Paese, il nostro Paese ha le tariffe più basse d’Europa in particolare la città da cui vengo è la capitale europea con tariffa più bassa, nel senso che a Roma l’acqua costa meno che a Praga, meno che a Bratislava, meno che a Bucarest; peccato però che la capacità di acquisto dei cittadini di Bucarest è sicuramente nettamente inferiore alla capacità di acquisto dei cittadini di Roma, e quindi l’impatto del costo dell’acqua a Roma è nettamente più basso di quello nelle altre capitali europee. Malgrado noi pensiamo che possiamo risolvere qualsiasi problema, di fronte a un periodo di siccità ci troviamo terribilmente fragili. Ad esempio ricordo che nelle scorse Olimpiadi di Londra, c’è stato un periodo di siccità, e l’Authority delegata alle Olimpiadi, nella Patria dell’acqua, per garantire l’approvvigionamento idrico nel periodo delle Olimpiadi, ha chiuso le fontane a Trafalgar Square per un mese. C’è quindi un’incapacità dell’uomo, qualche volta, a controllare la natura. In Toscana, e lo sa perfettamente la dottoressa Checcucci, la siccità dello scorso anno ha fatto sì che il Bilancino abbia raggiunto il minimo livello da quando almeno io frequento la Toscana, non c’è mai stato un periodo così siccitoso. Adesso torniamo a parlare di quello che è il mio intervento. Di cosa necessita il nostro Paese? Il nostro Paese necessita di investimenti nel settore dell’acqua per garantire ai nostri figli e ai nostri nipoti ventiquattro ore di acqua potabile, ventiquattro ore al giorno tutti i giorni della settimana. Nel nostro Paese si può dire che negli ultimi anni ci sia stato un miglioramento, quando discutevamo a Palermo, sei anni fa, o nel 1994 quando uscì la Legge Galli, l’approvvigionamento idrico nel nostro Paese era sicuramente peggiore, dopo vent’anni non possiamo dire che abbiamo risolto completare il Arezzo 20 - 23 novembre 2012 23 20 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute problema dell’approvvigionamento, perché nel frattempo è vero che ci sono meno parti del territorio dove c’è il razionamento dell’acqua potabile, però ci sono molte più parti del territorio dove bisogna spendere molti più soldi per potabilizzare la risorsa che nel frattempo si è deteriorata. Adesso sapete che il 31 dicembre di del 2012 è terminata la deroga per l’arsenico e ci sono molte parti di questo territorio, nel Lazio, in Toscana e anche nella pianura padana, dove c’è arsenico e ovviamente bisogna spendere soldi per risolvere il problema. Tenuto conto che la Direttiva è del 2001, credo, noi ci abbiamo messo solo dodici anni per accorgerci di questo problema e si torna alla slide number one “no money no party”, perché noi non investiamo in questo settore da decenni ,il nostro gap infrastrutturale, diciamo, che è endemico, nel senso che se noi andiamo nei cento anni prima di adesso, rispetto agli altri Paesi che noi consideriamo nostri partner europei, noi abbiamo avuto sempre un ritardo di almeno un decennio, cioè bisogna andare indietro fino ai romani per trovare che eravamo leader, perché sia chiaro, tra le varie origini, io sono essenzialmente romano e noi a quel tempo eravamo i migliori nel tema dell’acqua, nel senso che nel 100 d.C. a Roma i romani portavano 14 m³/s di acqua potabile e oggi il mio amico Cecili, che è il Presidente di Acea ATO2, l’azienda che gestisce l’acqua a Roma, che sarebbe il novello curator acquarum, il vecchio Frontino che scrisse un libro per noi idraulici memorabile, ne porta 16, tenuto conto che i romani a quel tempo erano meno di un milione e adesso siamo tre milioni e mezzo, l’incremento di approvvigionamento idrico che in tutti questi secoli è avvenuto è stato trascurabile. Noi abbiamo in parte colmato il gap infrastrutturale degli acquedotti mentre una tragedia è la copertura fognaria ma soprattutto la depurazione, da questo punto di vista il gap infrastrutturale è molto democratico nel nostro Paese, non c’è quella famosa spaccatura tra Nord e Sud anzi, per un certo periodo della nostra storia la spaccatura era all’inverso; vi ricordo che Milano, il centro industriale, esattamente sei anni fa, non aveva il depuratore ed è stato necessario prendersi una mazzata di sanzione europea per provocare la costruzione degli impianti di depurazione a Milano, quindi il problema della depurazione è fondamentale. Andiamo ai numeri, quanto serve? La necessità di investimenti in questo Paese è di 5 miliardi l’anno. Per quanto tempo? Per sempre, perché le infrastrutture di questo Paese sono come gli esseri umani e hanno una vita più breve degli esseri umani, grazie a Dio la vita media degli esseri umani oramai è superiore agli ottant’anni mentre vita media delle infrastrutture, il sistema idrico, è un qualcosa che oscilla tra i quarant’anni e i cinquant’anni. Che cosa vuol dire? Vuol dire che se qualcuno ha costruito una cosa quarant’anni fa adesso è praticamente morta e bisogna rifarla, ovviamente sempre al netto di quello che hanno fatto i romani, perché noi a Roma un pezzo della Cloaca Massima lo utilizziamo ancora, perché evidentemente loro le cose le facevano meglio di quanto le facciamo noi. Quindi, servono cinque miliardi e chi ce li mette i soldi? La risposta è facilissima: i cittadini. Non esiste in nessuna parte del mondo che le infrastrutture le finanzi qualcuno diverso dai cittadini, non è che ce li mette la Regione, questo bisognerebbe insegnarlo a scuola, perché la Regione è sempre i cittadini, non ce li mette la Provincia, perché la provincia sono sempre i cittadini, non ce li mette lo Stato, perché lo Stato sono sempre i cittadini. Non c’è un altro che può fare le infrastrutture di questo Paese a parte i cittadini, e quindi bisogna educare da ragazzini che l’alternativa è come i cittadini pagano le infrastrutture di un Paese, e anche lì non è che bisogna dover fare chissà quale pensata, le alternative sono due: o con le tasse, chi è più forbito parla di fiscalità diretta, o con le tariffe, cioè con la bolletta che ti arriva a casa, non ci sono alternative. Si può ovviamente far un mix delle due, c’è un certo numero di combinazioni ma non c’è alternativa a questo. Noi abbiamo fatto un referendum e voi siete andati a votare esattamente su questo, come i cittadini dovevano finanziare le infrastrutture, forse voi non lo sapete ma avete fatto vincere che bisognava pagarlo con le tasse: silenzio… lo sapevate che quando siete andati a votare sì, perché la maggior parte di voi, ovviamente campione rappresentativo di quelli che sono andati a votare, hanno detto che le infrastrutture di questo Paese si devono costruire con le tasse? Silenzio…. eh, bene, questa è la situazione ovvero gli investimenti del prossimo anno, zero, investimenti dell’anno ancora dopo, sempre zero, perché non è stata messa nessuna tassa che possa finanziare le infrastrutture idriche, non c’è nessun provvedimento di questo Governo, e anche di quello precedente, che dica che si mette una tassa, un’accisa sulla benzina per finanziare il servizio idrico integrato, non c’è stato nessun provvedimento che ha detto che è stata messa una tassa, un ticket per finanziare l’acqua, conseguentemente i nostri figli e i nostri nipoti non avranno i mari puliti e i fiumi puliti. Questa situazione, ovviamente la sto esagerando nella mia presentazione ma la realtà vera è questa. Quindi, noi abbiamo bisogno di cinque miliardi per evitare le sanzioni della Comunità Europea, che sono state ad oggi calcolate in 17 miliardi di euro (che ovviamente pagheranno i cittadini, sempre loro, non c’è un altro soggetto). Noi andremo di fronte ai 17 miliardi, perché noi non spieghiamo mai le cose come devono essere spiegate. Saremmo dovuti andare con un cartello con su scritto se i cittadini volevano pagare le infrastrutture con le tasse o con le tariffe, perché vuol dire poi se le volevano pagare tutte subito oppure pagare a rate, cioè se volevano accendere un mutuo con Fidi Toscana oppure se volevano pagare tutto con i loro soldi, tutti avrebbero detto che lo volevano pagare a rate, più rate possibili ovviamente disposti a pagare gli interessi. E allora perché siete andati a votare sì al referendum? Perché siete andati a votare che non volevate pagare a rate perché non volevate pagare interessi? questo è quello che avete fatto. So che sono stato provocatorio, ma io non so essere diverso da così. Grazie. 24 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 20 Novembre Corretto utilizzo e salvaguardia della risorsa acqua "Nuove tecnologie per risparmio idrico e trattamento acque superficiali: un approccio sostenibile" Giovanni Giani Ondeo Italia Trascrizione non revisionata dal relatore Grazie per essere venuti. Preferisco non parlare di acqua, parlerò di aria, siccome lavoriamo sempre nell’acqua e si parla sempre di acqua, parliamo una volta di aria, parliamo di che cosa significa, nell’aria che respiriamo, una gestione delle risorse idriche inadeguata come è apparso dagli interventi precedenti e come sappiamo esistere in questo Paese. Quando parliamo di acqua, quanti di voi hanno letto sui giornali o hanno sentito parlare di problemi reali della risorsa idrica, delle gestioni idriche, delle perdite idriche? Poco. Si parla solo di acqua pubblica e acqua privata. Guardate i giornali, mai che una volta dicano che dobbiamo fare qualcosa per il servizio idrico e quali sono le cose da fare, diranno sempre che il comitato ha detto, il referendum, l’acqua deve essere pubblica, il privato si arricchisce, nessuno mai dice che c’è un problema serio di obsolescenza degli acquedotti e degli impianti, c’è un problema di perdite nelle reti idriche, c’è un problema per cui metà dell’acqua viene sprecata, ma non perché noi cittadini la sprechiamo usandola, perché si perde nelle reti, sia che noi la consumiamo o che non la consumiamo. Quante volte avete sentito dire “questo problema genera un inquinamento dell’aria che respirate”? L’acqua che viene buttata via nelle reti idriche italiane, e vedete che è quasi il 50% dell’acqua consumata, o meglio, il 50% dell’acqua coprodotta il che vuol dire che è il 100% dell’acqua consumata, per buttar via quest’acqua dalle reti idriche, si produce della CO2, perché occorre dell’energia elettrica per mandare l’acqua da buttar via nelle reti idriche, e questa CO2 produce un impatto ambientale e vedrete di che ordine di grandezza. Allora, cosa bisogna fare per proteggere l’aria che, dimentichiamoci dell’acqua, parliamo dell’aria che respiriamo, bisogna proteggere l’acqua, bisogna fare degli investimenti, bisogna avere una gestione industriale, perché il sistema idrico è un’industria, che lo si voglia riconoscere o meno, è un’industria, è un impianto, abbiamo che fare con impianti, con stemmi che sono industriali, quindi occorrono investimenti e forse occorrono anche un po’ di nuove tecnologie, questa tabellina dimostra la situazione delle perdite idriche a livello di media nazionale, in Italia il dato ufficiale è che 42% dell’acqua prodotta viene dispersa, cioè persa, nelle reti idriche; è un dato ottimistico, è una media ma è anche un dato ottimistico, perché chi sta nel settore sa che in realtà è superiore. Negli altri Paesi la situazione è migliore, non è facile avere perdite idriche molto basse, perché occorre un grosso lavoro che comunque non si riesce a fare come si vorrebbe, vedete però che in Gran Bretagna siamo al 25%, in Francia circa il 20%, nella tabella vedete i milioni di metri cubi prodotti, vedete che in Italia siamo a 7.800, quindi 7 miliardi e 800 milioni dei metri cubi prodotti e di questi se ne disperdono 3 miliardi e 300 milioni, se andate alla penultima colonna, vedete quali sono i milioni di KWh necessari per disperdere l’acqua nelle reti e vedete che in Italia dobbiamo produrre 4.125 milioni di KW·h , cioè 4 miliardi di KWh solo per buttar via l’acqua, negli altri Paesi siamo a un livello molto più basso, in termini economici, al costo dell’energia nostra, questo vuol dire buttar via 750 milioni di euro all’anno, solo in energia elettrica, dimentichiamo altri così associati. Gli altri Paesi spendono molto meno per buttar via l’acqua, tra l’altro questi dati che vedete sotto, 180 e 180, sono stati scritti per pudore, perché se si usasse il valore vero del costo del kilowattora in questi Paesi, saremmo intorno ai 130, qui è proprio una questione di pudore, perché far vedere che noi siamo messi così male, fa proprio un po’ schifo. In termini energetici, le perdite idriche sono impressionanti, se voi guardate quanto è il consumo domestico medio pro capite di questo Paese, siamo intorno ai 300 KWh all’anno, se calcolate in proporzione l’energia consumata per le perdite idriche, cioè 4 miliardi di KWh, per buttar via l’acqua non consumiamo l’energia che consuma una popolazione di 3 milioni di abitanti, Roma potrebbe benissimo alimentarsi di energia solo con quello che si spende e per buttar via l’acqua in questo Paese. Se noi prendiamo la produzione media di energia elettrica di questo Paese, un pacchetto di centrali, mediamente ogni kilowattora elettrico prodotto produce 0,58 chili di CO2, se andiamo ancora a vedere l’ energia elettrica usata per buttar via l’acqua, la CO2 che viene prodotta, ripeto per buttar via l’acqua, raggiunge il valore di 2,4 milioni di tonnellate all’anno, 2,4 milioni di tonnellate di CO2, a cosa equivale questo valore? Equivale a un milione di macchine che fanno 20.000 km all’anno, cioè noi per buttar via l’acqua inquiniamo l’aria come un milione di macchine che girano per 20.000 km all’anno,milione milioni di macchine, e poi ci vengono a dire che abbiamo le domeniche ecologiche, ci vengono a dire che bisogna lavarsi un po’ di meno, io ho sentito personaggi pubblici dire che si potrebbe fare una doccia alla settimana, io gli ho detto che speravo di non incontrarlo in un ambiente chiuso, era un personaggio pubblico, Fulco Pratesi, Presidente di Italia Nostra Legambiente, meglio fare una doccia la settimana, io preferirei non buttar via l’acqua dalle reti. Allora, dal panorama italiano, le uniche società, gli unici gestori che hanno dimostrato di fare veramente qualcosa per l’acqua, e quindi per l’aria che respiriamo, sono le società miste pubblico private, e qui torniamo a a quello che diceva Bossola riguardo al referendum, torniamo alla solita polemica, in Toscana abbiamo il modello della società mista a maggioranza pubblica che si è dimostrato in Italia l’unico modello veramente efficiente e capace di fare qualcosa per l’acqua e Arezzo 20 - 23 novembre 2012 25 20 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute per l’aria. Se guardate i due diagrammi di sotto, avrete un flash su cosa sono gli investimenti previsti pro capite in termini di euro per abitante nei vari piani d’ambito, vedete che la riga rossa è la media nazionale, i PdA prevedono circa 760 euro per abitante da investire nell’acqua, questa è la media nazionale. I PdA della Toscana, Arezzo, Firenze e Pisa, sono allineati, ci sono dei PdA, come l’acquedotto pugliese, che prevedono di investire oltre 1.000 euro per abitante, ci sono altri casi, come Bergamo, che prevedono 29 euro per abitante, queste sono le previsioni ,ma guardiamo cosa si fa. Se andate sul diagramma di destra vedete che nella media nazionale, fra gli investimenti programmati e quelli realizzati, siamo al 56%, non al 56% di quello da fare nei vent’anni, ma il 56% previsto nell’anno, vuol dire che si procede realizzando meno, o circa la metà, di quello che si è promesso, se poi guardate in altri casi che abbiamo citato, presi un po’ a caso, l’acquedotto pugliese fa il 16% di quello che ha promesso, Bergamo fa il 29%, guardate le tre realtà toscane, queste sporche realtà in cui è entrato questo sporco privato che ci guadagna sull’acqua, hanno fatto il 100% degli investimenti programmati, sono le uniche in Italia, queste aziende riescono a non essere nei guai grazie al fatto di aver avuto una gestione molto industriale e hanno avuto una capacità di generare investimenti a dei così sostenibili. Allora, per aggiungere solo due o tre cose rapidissimamente, cosa si può fare in più oltre a gestire bene il servizio idrico, fare investimenti quidi una gestione industriale, attenta,generale i giusti investimenti per proteggere l’acqua e per proteggere l’aria? Si possono introdurre anche un po’ di tecnologie nuove che vengono dalla ricerca, senza soldi non si fa la ricerca, senza remunerazione del capitale investito non si fa ricerca, non si fa crescita professionale. Ad Arezzo abbiamo un bellissimo esempio di tecnici dell’acqua grandemente esperti che si sono fatti valere a livello internazionale, mi fa un grande piacere riconoscerlo perché i nostri ragazzi di Arezzo sono apprezzati a livello internazionale. Bene, qualche esempio di innovazione, si può produrre calore dalle fogne, le fogne sono molto, calde introducendo i giusti sistemi si può produrre del calore da utilizzare nei nuovi quartieri, nelle piscine, però ci vuole un approccio industriale. Un altro esempio di innovazione che per altro stiamo per introdurre ad Arezzo, c’è un progetto pilota che speriamo di portarlo avanti, la telelettura dei contatori, domani, in questa realtà forse, spero, ogni cittadino potrà leggere sul suo computer il suo consumo d’acqua quotidianamente e sapere quanto spende ogni giorno, domani un cittadino potrà essere avvisato immediatamente se ha una perdita all’interno del suo giardino, della sua casa, una perdita occulta, e quindi non dovrà pagare una bolletta spropositata, perché immediatamente sarà avvisato, domani un cittadino che ha una mamma anziana potrà essere avvisato immediatamente se la sua mamma della mattina non consuma acqua e quindi magari ha un problema di salute. La telelettura dell’acqua è una cosa abbastanza complessa, perché non c’è, come nell’energia elettrica, un cavo che porta il segnale ma la ricerca ha sviluppato dei sistemi che consentono di fare questa lettura e di fare una gestione del dato, una trasmissione del dato, in modo tale che il cittadino possa avere un’interfaccia con il gestore, avere dei segnali e avere dei servizi, sevizi anche molto innovativi nell’interesse della risorsa idrica, dell’acqua, nell’interesse dell’aria, nell’interesse magari della mamma anziana, tanto per citarne uno. Concludo con un piccolo flash su tecnologie soft per la depurazione, spesso voi vedete grandi impianti di depurazione ma ci sono anche sistemi innovativi che ritornano alla principio “la natura depura la natura”, ad Arezzo abbiamo adottato qualcuno di questi sistemi, si sono fatte in alcune aree d’Europa delle zone di protezione ambientale, si sono recuperate delle aree degradate, zone perse per l’uso urbano, che sono diventate delle splendide lagune, dove magari a vale di un depuratore che faceva il grosso, veniva fatto un affinamento delle acque ed era un ambiente naturale in cui poter correre, giocare, in cui poter vedere un ambiente acquatico rigoglioso e quindi recuperare pezzi di territorio all’uso urbano. Lascio la parola a Francesca Menabuoni che vi dice qualcosa i più su Arezzo. Grazie. 26 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 20 Novembre Corretto utilizzo e salvaguardia della risorsa acqua "Nuove tecnologie per risparmio idrico e trattamento acque superficiali: un approccio sostenibile" Francesca Menabuoni AD Nuove Acque Buongiorno a tutti. Io cercherò, con il mio intervento, di contestualizzare nell’esperienza di Arezzo il tema importantissimo che abbiamo visto emergere anche negli interventi precedenti che riguarda il risparmio idrico, quindi cercherò, attraverso l’esperienza di questi anni di Arezzo, di far vedere qual è stata la strategia su quella che noi tecnicamente chiamiamo la ricerca perdite che è quindi poi un risparmio ambientale in termini di acqua non prelevata, non prodotta e non riscaricata nell’ambiente dopo che questo ciclo ha comportato una serie di costi importanti, quindi affronterò quest’argomento, anche perché sollecitato dagli interventi precedenti, cercando di dare qualche flash anche sul fabbisogno di investimenti, perché il tema è troppo appetitoso per passarci sopra nella presentazione. Diamo qualche informazione anche sul tipo di gestione di Nuove Acque che è una società che è partita nel ’99, come forse saprete gestisce 37 comuni, fra le province di Arezzo e di Siena, che sono raggruppati in quello che si chiama l’Ambito Territoriale Ottimale (ATO) Alto Valdarno. Una caratteristica importante della nostra gestione è la dispersione territoriale dei nostri cittadini serviti, si vede bene da questo diagramma che mostra rapporto fra il volume venduto e quindi fornito ai cittadini e la lunghezza della rete, vedete che il rapporto sul territorio dell’ATO 4 è molto basso e ci accomuna ai nostri colleghi del’ATO 6, della zona Ombrone, senese e grossetano, proprio come caratteristiche della dispersione territoriale. L’altra caratteristica che ci caratterizza è la dispersione anche dei sistemi idrici, quindi Nuove Acque gestisce 356 sistemi idrici indipendenti ma indipendenti perché? Non perché non ci piacerebbe collegarli, in alcuni casi sarebbe anche molto più facile gestirli, ma perché, data la conformazione territoriale, si parla di sistemi che si approvvigionano da fonti particolari e che non sono interconnettibili per la conformazione territoriale tanto che, dal punto di vista dell’approvvigionamento, Nuove Acque gestisce questo numero abbastanza impressionante di sistemi , sulle sorgenti addirittura quasi 560. Si è parlato stamattina di fabbisogno e di investimenti, quali erano gli obiettivi tecnici e quali sono gli obiettivi tecnici del piano investimenti che Nuove Acque sta portando avanti dal ’99? Prima di tutto obiettivi sul tema dell’acqua potabile, chiaramente, essendo un territorio dove c’è una risorsa molto importante che è l’invaso di Montedoglio, l’estensione progressiva dell’adduzione di acqua dall’invaso di Montedoglio, questo per far fronte a una serie di situazioni sia di mancanza d’acqua quantitativa ma anche qualitativa, come vedremo successivamente, e del quale abbiamo avuto una bella esperienza anche con la siccità fra il 2011 e il 2012. come accennavano anche i miei predecessori negli interventi, l’altro grosso punto di impegno e di obiettivo tecnico del piano era, ed è, aumentare la copertura del servizio fognatura e depurazione; vi faccio solo notare, questo è interessante, come si è evoluta la copertura del servizio dal ‘99 al 2011, cosa è successo in questi anni, si sono fatte reti fognarie, si sono fatti depuratori, quindi le percentuali sono aumentate a fronte di investimenti importanti, si sono investiti quasi 50 milioni di erbe in questi dodici anni su questo tema. Andiamo velocemente ad alcune priorità della gestione operativa; uno dei punti che marcano il nostro impegno è sicuramente, oltre al problema quantitativo, la messa in sicurezza dal punto di vista qualitativo, vi faccio notare due dati che sono correlati e molto interessanti nel nostro territorio, questa è l’evoluzione delle non conformità, quindi non conformità rilevate dal nostro controllore sanitario pubblico, dall’inizio della gestione agli ultimi anni, vedete che a fronte di una gestione di tipo industriale dei piani di intervento, quindi sia investimenti e mettiamoci buone pratiche gestionali, il tasso di non conformità è molto diminuito, chiaramente c’è ancora qualcosa da fare ma si è attestato sostanzialmente, negli ultimi anni, su un livello accettabile. A fronte di questo, il territorio aretino si caratterizza per un aumento importante negli ultimi anni di persone che dichiarano di bere l’acqua del rubinetto, quindi la fiducia aumenta, il grafico accanto ci dice che è una fiducia abbastanza ben motivata sulla quale dobbiamo continuare a lavorare; su questo qualche esempio delle attività che abbiamo messo in campo in questi anni proprio per promuovere l’utilizzo dell’acqua del rubinetto anche per l’approvvigionamento potabile. Andiamo velocemente a parlare di risparmio idrico, il cuore del nostro intervento. Questo è il nostro territorio, l’abbiamo suddiviso e colorato su quello che è e l’evoluzione di quello che chiamiamo “tasso di perdita” nella nostra gestione ovvero il tasso di perdita è il ratio fra quello che viene immesso in rete a livello di acqua prodotta e quello che il cittadino riceve nella sua abitazione per gli altri usi. Come vedete siamo passati da un punto interrogativo, perché all’inizio della gestione il primo problema è stato non saper misurare questo tasso per un motivo molto semplice, perché ci sono misuratori in rete e molto spesso non sappiamo neanche che “giro fa l’acqua”, cioè da dove parte, come arriva e di converso quanta acqua viene lasciata per strada. Il 2004 è un anno in cui si è, in un certo senso, potuto completare una prima mappatura, con l’installazione delle apparecchiature di controllo e quindi abbiamo avuto una prima mappatura, che non ci ha fatto molto piacere, ma descrive, e presa in conto, una realtà dei fatti, quindi, vedete i colori, si dava da tassi di perdita fra il 30% e il 40%, giallino chiaro, a tassi di perdita, in alcuni comuni, questo è il territorio suddiviso per comuni, maggiori del 60%, una notazione importante è che la perdita non è solo quello che si perde nelle reti ma se ci sono Arezzo 20 - 23 novembre 2012 27 20 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute sistemi sorgentizi montani di che vanno in troppo pieno anche quella è perdita, quindi potete vedere come nel nostro territorio le zone a nord, caratterizzate da sorgenti sistemi sorgentizi, avevano tassi di perdita più elevato. Questa è la situazione a fine , vedremo dopo che cosa è successo, la situazione è sicuramente cambiata, non ci deve far sorridere però dà conto dell’impegno, che vedremo nel dettaglio, per il contenimento delle perdite, qui ritorna il tema degli investimenti, di investimenti messi in campo relativamente accettabili e sostenibili dai PdA, il dato potrà comunque far saltare sulla sedia qualcuno,perché in letteratura, in televisione, si parla sempre di dati del 30% come molto, molto alti, ma la realtà dei fatti, in una situazione in cui c’è una conoscenza reale e verificata sul campo delle situazioni, è questa e il 30% è un qualcosa cui si arriva dopo 10 anni di forte impegno. Vediamo in che cosa è consistito questo impegno? Questo è un diagramma temporale che cerca di far capire che cosa è stato fatto dalla parte superiore, al livello di progettazione, la parte inferiore al livello di attività di campo e di installazione. Come abbiamo visto prima, la prima parte è capire che cosa si sta gestendo, quindi studio dei sistemi idraulici, raccolta dati e parallelamente si inizia a installare le apparecchiature di controllo, dal punto di vista di analisi e progettuale va di pari passo quella che vedremo essere l’attività principe ovvero la progettazione dei distretti, che vuol dire, in parole povere, creare delle zone ben delimitate nelle reti per poter meglio controllare le perdite, le fasi più avanzate comportano, a seguito di questo, progetti di modulazione, di gestione delle pressioni tarate appunto su queste zone. Chiaramente, tutto questo è stato associato a un’attività di campo con tecnologie avanzate che si chiamano step test, correlazioni, idrofoni, quindi tecnologie che cercano di individuare fisicamente il punto di perdita sulla rete utilizzando tutto quello che è lo studio sul rumore generato dalla perdita, qui vedete un operatore Nuove Acque che sta utilizzando, fra virgolette, il più grezzo di questi strumenti che è un geofono. Facciamo un esempio ancora più concreto, la rete di Arezzo. Chiaramente, la rete di Arezzo, nella nostra gestione, è quella più complessa, è quella che perdeva di più, anche solo per la sua taglia. Questa è la situazione attuale, che cosa descrive? Descrive, in queste macchie colorate, le zone che sono state create, tramite interventi in rete, sulla rete di Arezzo, zone che sono delimitate da apparecchiature in ingresso e uscita che sono tele controllate, per le quali a oggi siamo in grado di conoscere in tempo reale l’acqua che entra e l’acqua che esce in qualunque momento della giornata e per zone che come vedete hanno un’estensione tra i 20 e i 40 km, perché da letteratura comincia a essere la taglia giusta per tenere sottocontrollo in maniera adeguata le perdite. Nel dettaglio che cosa succede; per chi di voi conosce la rete d’Arezzo qui siamo praticamente vicini alla zona del Palacongressi, analizziamo una zona, questa è la zona che noi chiamiamo “Carabinieri”. Come funziona il nostro sistema? Ognuna delle zone è dotata di apparecchiature sia regolazione che di controllo del flusso in entrata e in uscita che inviano i dati in tempo reale tramite collegamento al sistema di supervisione, quindi tramite segnali di GSM, viene elaborata la portata generale in entrata e in uscita al distretto, viene elaborato in tempo reale un grafico che mostra l’andamento della portata durante la giornata, sapendo la portata minima, che noi chiamiamo critica ovvero sopra la quale scatta il livello d’allarme, è possibile in maniera automatica andare subito in campo per trovare fisicamente la perdita sapendo bene la zona nella quale è emerso il problema. Un ulteriore esempio di dettaglio, questo è l’esempio di report che viene estratto dal sistema in maniera automatica, vedete che c’è un’anomalia, la portata minima notturna, la minima notturna è quella che ci dà conto del tasso di perdita perché chiaramente i consumi notturni sono molto prossimi allo zero se non per i riempimenti dei serbatoi, qui c’è un problema, vedete che da circa 4 l/s abbiamo 17,72 l/s, diciamo che la portata minima critica storica è 6 l/s, quindi il sistema ci ha permesso di rilevare in tempo reale l’anomalia, di programmare un intervento di ricerca perdite per capire il tratto identificato, di rinvenire la perdita e, in questo caso, che è un mese di maggio di quest’anno, di risolvere l’anomalia in un giorno, vi faccio presente che senza il lavoro di 10 anni a un sistema di questo tipo, per un’operazioni di rinvenimento della perdita di che tipo, potevano passare dai due ai tre mesi spendendo il tempo di squadre che in notturna chiudevano a settori la rete urbana di Arezzo, dopo di che, avendo individuato la zona, andavano in campo con attività come abbiamo visto prima. Qualche dato riassuntivo su quanto ci hanno fatto risparmiare dal punto di vista ambientale queste attività sulla rete di Arezzo, perché la rete di Arezzo è approvvigionata direttamente dall’invaso di Montedoglio c’è un rapporto di causa effetto importantissimo. Avete presente la diga di Montedoglio? Prima abbiamo parlato di quella di Bilancino ma quella di Montedoglio non stava meglio tra il 2011 e il 2012, livelli di invaso così bassi che non s’erano mai visti dalla costruzione, risparmiare acqua sulla rete di Arezzo vuol dire risparmiare volumi nell’invaso di Montedoglio, c’è un rapporto di causa effetto immediato. Il primo grafico è l’andamento dei volumi prodotti mensilmente dall’impianto che serve Arezzo e quindi prende acqua dall’invaso di Montedoglio dal 2003 ad oggi, vedete che si è passati da circa un milione di metri cubi mese che corrispondevano a circa 12 milioni di metri cubi l’anno di prelievo in invaso a una situazione attuale dove, nel 2012, se ne produce, e quindi se ne preleva dall’invaso di Montedoglio, 60/ 700.000 m³ mesi, quindi un risparmio di quasi il 30% che si traduce in una riserva in più che può essere preservata nell’invaso di Montedoglio, quindi è impressionante, lo dico io per del servizio, quindi anche nuove reti e agglomerati che sono stati collegati alla rete urbana di Arezzo, si è diminuito, rispetto al 2003, del 30% la produzione di acqua. Questo ha chiaramente avuto un impatto importante, mi riallaccio all’intervento precedente dell’ingegner Giani, dal punto di vista del consumo energetico, questo è il grafico che mostra il consumo energetico dell’impianto di Poggio Cuculo 28 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 20 Novembre Nell’impianto, che è l’impianto più grosso in nostra gestione che produce acqua per la città di Arezzo e, a questo punto, non solo. Si può di che il risparmio di produzione di acqua si è tradotto, associato ad alcune ottimizzazioni impiantistiche, in un risparmio energetico, quindi il 30% che avete visto sopra di produzione dell’acqua si è tradotto, insieme ad alcuni cambi e ottimizzazioni di apparecchiature, a un 40%, nello stesso periodo, di risparmio del consumo energetico. Parliamo ulteriormente di risultati e questo che è un grafico un po’ da ingegneri, comunque abbastanza semplice, mostra molto semplicemente l’andamento dell’uscita dal serbatoio principale di Arezzo, quindi è la distribuzione della rete di Arezzo, in due momenti, il blu è l’aprile del 2011, il rosso è l’aprile di quest’anno, l’aprile 2012. Vedete bene che cosa è successo, si è fatto l’ultimo step di riduzione delle pressioni in rete ben dettagliato, perché a fronte di studi di 10 anni finalmente siamo in grado di poter suddividere la rete di Arezzo e di telecontrollare l’evoluzione delle pressioni in rete su profili giorno notte in un solo, in modo tale da fare una gestione delle pressioni molto fine, vedete che nell’ultimo anno, cogliendo risultati di tutto questo lavoro, la famosa portata minima notturna, che è quella che poi ci dà un po’ la misura del tasso di perdita, è diminuita di tre volte. Questo non ci deve fare impressionare nel senso che è il punto finale del lavoro di dieci anni. Concludo facendo due parole su questo fotografia che non è il Sahel piuttosto che altri deserti subsahariani ma è l’invaso di Montedoglio a primavera di quest’anno, lasciando perdere i signori che hanno rischiato la vita per farsi fotografare lì dentro perché ci sono pacchi di fango alti qualche metro, ti danno la misura di quanto queste attività di ricerca perdite siano importanti non solo per il risparmio idrico ma proprio per poter salvaguardare l’approvvigionamento idropotabile, capite bene, qui si stava parlando di 1,5 milione di metri cubi, è un qualcosa che dentro un invaso messo in questa situazione ci poteva spostare di qualche decina di giorni la barra di approvvigionamento “sì” “no”, c’è un rapporto di causa effetto abbastanza importante. In situazioni che per gli operatori del settore purtroppo stanno diventando ricorrenti, situazioni di siccità che quando facevo l’università mi davano come ricorrenti come una volta in duecento anni, purtroppo negli ultimi 10 anni da di sono già verificate tre volte, quindi il clima sta effettivamente cambiando, situazioni come queste, non si vede tanto bene il grafico, ma di una piovosità media, questo è il dato della provincia di Arezzo, degli ultimi 10 anni raffrontata a quella di due anni 2011 e 2012, vedete che porta dei deficit del 45% , questi sono dati reali con i quali dobbiamo fare i conti, per cui attività di questo tipo, 1,5 milione di metri cubi risparmiati corrisponde, ragionando per macro sistemi, a 1,5 volte il consumo annuo di un comune medio in nostra gestione come può essere Castiglion Fiorentino di 20.000 abitanti, quindi capite che attività di questo tipo, e qui faccio un flash, che dal punto di vista della sostenibilità nel piani investimenti impegnano risorse anche abbastanza limitate perché il percorso che abbiamo visto dal 1999 ha impegnato delle risorse che non arrivano a un milione di euro nel PdA. Poco? Tanto? Non lo so, sicuramente ne vale la pena, il rapporto costi benefici è assolutamente premiante, vanno e dovranno essere privilegiate anche all’interno di quella che è una programmazione di investimenti nei prossimi anni sia a livello regionale che a livello nazionale. Chiudo con qualche foto delle attività che abbiamo messo in campo, non tecniche ma diciamo comunicative, per invitare i nostri cittadini in questi due anni a risparmiare l’acqua, con l’aiuto anche di qualche attore che probabilmente è riuscito a convincere anche i nostri cittadini un po’ a risparmiare e anche una foto di un invaso molto più che è l’invaso della Cerventosa a Cortona, presa anche qui nella primavera di quest’anno, per farvi vedere che comunque il problema è esteso ai grandi ma soprattutto ai piccoli invasi che inrealtà territoriali come la nostra ci assicurano la bontà dell’approvvigionamento e con questo vi ringrazio. Arezzo 20 - 23 novembre 2012 29 20 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute Corretto utilizzo e salvaguardia della risorsa acqua "Obiettivi di qualità e pianificazione dei corpi idrici (dir 2000/60/CE - FWD): problematiche e sostenibilità" Roberto CalzolaiRegione Toscana Due cose sono già chiare: che non ci sono tutte le risorse finanziarie per gli interventi di tutela e che se non raggiungiamo gli obiettivi di qualità previsti dalla direttiva, seppur con la flessibilità che la stessa ci permette ci saranno delle conseguenze che possono comportare sanzioni anche economiche. Qual è il ruolo della Regione? La Regione è un po’ uno snodo tra un grande piano, il piano di gestione che si estende su più regioni, più bacini, e poi le “tasche dei cittadini”, perché la Regione, in maniera più o meno diretta o indiretta, è un po’ una cinghia di trasmissione tra il macro e il micro. l ciclo di pianificazione che ci impone la direttiva è quello classico del modello DPSIR, e nei meccanismi della direttiva ci sono già tutti i generatori di benefici e di problemi. Si parla di stato ambientale, andiamo un attimo a capire cos’ è e come, l’averlo definito e costruito provoca, a catena, una serie di conseguenze. Per le acque sotterranee è abbastanza semplice ma già qui emerge una multifattorialità rispetto a meccanismi precedenti la direttiva, e quindi anche la normativa nazionale, si prende in considerazione quanta acqua abbiamo e di che qualità sia, e combinando detti fattori si ottiene lo stato di qualità ambientale. Per le acque superficiali il meccanismo si complica per tenere conto di cosa ci impongono le leggi dell’ecologia sul funzionamento dei corpi idrici; questo è un valore aggiunto della direttiva che ci obbliga a tenere conto di quelli che sono vincoli ineludibili. Lo stato viene definito con una qualità ecologica e con uno stato chimico, la qualità ecologica cerca tenere conto di tutta la complessità, gli elementi di qualità idromorfologica (cioè la struttura fisica dei fiumi, e che è mediabili dalle esigenze del sistema socioeconomico) e quelli floro faunistici; il fiume è fatto in un certo modo, ha due regole di funzionamento e con quelle dobbiamo confrontarci. Se lo trasformiamo in un canale, perché un’analisi costi benefici ci dice che è economicamente conveniente, dobbiamo mettere in conto che questa trasformazione poi condiziona lo stato di qualità ambientale, e che per mantenerlo/raggiungerlo dovremmo, forse, spedere altri soldi, e comunque fare una pianificazione idoenea e coerente. La direttiva però, oltre a questa, ha alcune altre tre pilastri. Il monitoraggio come strumento di verifica dei programmidi tutela. In Italia si era abituati ad avere un monitoraggio come strumento di conoscenza, nello struttura della direttiva il monitoraggio è uno strumento che ha valenza sostanziale, ci dice dove siamo, se abbiamo conseguito un obiettivo obbligatorio per legge e abbiamo un sistema di monitoraggio per tutti i corpi idrici, diversi e differenziati, in questo il lavoro dell’Arpat è diventato molto complesso anche da un punto di vista tecnico. Altro pilastro è l’analisi economica, e oltre che un’analisi economica, direi un’analisi costi benefici. In ultimo il bacino idrografico come entità di pianificazione. Chiaramente, se mettiamo tutti insieme questi elementi, ed i connessi vincoli intrinseci, ciò che si potrà costruire su questi pilastri è gia abbastanza determinato. La Regione Toscana ha avviato, nel 2005 uno dei primi piani di tutela che guardava idealmente alla direttiva, ma nella forma, mancando spesso le basi normative, doveva rifarsi alle disposzioni del D.Lgs 152/1999. Poi dal 2003 con Common Implementation Strategy (CIS) sulla direttiva FWD la Commissione Europea ha emanato delle linee guida della che ci spiegano nel dettaglio la direttiva. La CIS ha spiegato ma ha anche prodotto anche un po’ di ingolfamento perché la direttiva è 70 pagine, le linee guida sono diventate 26 (per circa 4000 pagine), non sempre hanno contenuto esecutivo, talvolta po’ “ filosofico “; alla fine non è poi sempre chiaro quali siano le disposizioni vincolanti in concreto da attuare, e quali siano meri orientamenti. Successivamente sono arrivati: il decreto legislativo 30/2008 sulle acque sotterranee, nel 2008/2011 l’attuazione delle linee guida con alcuni DM del MATTM resi operativi dall’ attività delle Regioni che hanno provveduto alla tipizzazione e l’individuazione di quei corpi idrici, all’analisi delle pressioni ed impatti, alla definizione se un corpo idrico è a rischio o non è a rischio rispetto a alla possibilità di raggiungere nel 2015 l’obiettivo di buono e all’individuazione dei corpi idrici fortemente modificati. Questo è un passaggio non banale, anche se non sempre ben valutato, ma i corpi idrici fortemente modificati e i corpi idrici artificiali sono una bella quota di tutti i corpi idrici che è poi la quota che ha più problemi. Il piano di gestione, che è sicuramente un momento di snodo nel sistema complessivo, con la sua aderenza alla direttiva di fatto diventerà lo schema di riferimento, per il futuro ed anche per i piani di tutela delle Regioni. Nel futuro ci sono le verifiche sullo stato dei corpi idrici: due cicli di monitoraggio, 2010-2012, 2013-2015, che vengono normalmente attuati in quasi tutte le regioni italiane; andando al di là della richiesta minima della Comunità Europea, perché per molte situazioni si poteva avere un ciclo di monitoraggio ogni sei anni. Oggettivamente andare alla prima scadenza di revisione della pianificazione con un solo ciclo di monitoraggio non era sufficientemente affidabile. Da qui nascono i due cicli di monitoraggio, uno in corso e uno che ricomincerà da gennaio 2013. Solo inoltre in corso: la revisione in corso dei piani delle misure con l’aggiornamento dello stato di attuazione che sta coinvolgendo tutte le regioni e tutte le autorità di distretto/bacino. Un primo atto di verifica si è concluso in Regione 30 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 20 Novembre Toscana con la definitiva individuazione della classe di rischio e un ampliamento della rete dei corpi idrici artificiali e fortemente modificati per togliere un’alea che c’era e che era prevista dalla legge che erano i probabilmente a rischio quando non c’erano sufficienti informazioni. La scommessa da qui al 2015 è l’ adeguamento del piano di tutela delle acque perché è cominciato nel 2005 ma ora è un po’ vecchio rispetto anche ad altri, nel 2015 la verifica degli obiettivi di qualità e l’aggiornamento del piano di gestione. Come ne usciamo, anche per rendere compatibili le necessità con le risorse finanziarie che ci sono? Intanto prendendo atto di un fatto e cioè che è necessario proprio un approccio integrato e multidisciplinare, prendiamo l’esempio dei fiumi. Ci sono alcuni fattori ecologici che determinano quello stato di qualità, cioè quel livello che noi dobbiamo raggiungere nel 2015, che ci fornisce madre natura: il substrato, la portata, la pendenze, la velocità della corrente, la caduta, la trasparenza, temperatura e ossigeno disciolto, sono gli elementi di base da cui deriva molto se non tutto. Queste sono invaranti naturali, strutturali e con queste dobbiamo confrontarci e lavorare. Successivamente dobbiamo ragionare anche su altre questioni: quanto piove, dove piove, come piove, quindi la quantità di acqua disponibile. Adesso – novembre 2012 - provoca una serie di problemi, quali ad esempio l’aumento dei carichi diffusi dal runoff che porta quantità non banali di sostanze nelle acque; che poi, quando andiamo a calcolare lo stato chimico, che è parte non trattabile dello stato di qualità che dobbiamo raggiungere, ci danno probabilmente qualche problema o più di qualche problema. Anche l’utilizzo intensivo delle risorse, piove poco ma i consumi sono più o meno costanti, andiamo quindi a raschiare il fondo del barile, le riserve, e non è detto che riusciamo a ricostiturle e poi di nuovo l’idromorfologia fluviale che non è poi così rimasta in condizioni naturali. Ma perché siamo finiti nei guai? Sì, non ci sono soldi, il referendum, le tariffe del SII, la gestione pregressa, le pressioni ambientali, tutto vero. Ma è legittimo chiedersi se lo standard che nel 1995/2000 la Comunità Europea si è posta con la FWD era raggiungibile o era troppo elevato date le condizioni di partenza? Viste le definizioni dei tre stati, elevato, buono e sufficiente, consideriamo che dovremmo arrivare al buono, “livelli poco levati di distorsione”. Non invidio i tecnici del MATTM che hanno dovuto trasformare le definizioni in una tabella, in un numero, in un sistema deterministico. Nell’ allegato 1 alla parte III del D.Lgs 152/06 c’è un numerino, uno 0,9, che ci dice puoi scostarti del 10%, ma il riferimento è sempre quello lassù lo “stato elevato “. Se si vuole arrivare in paradiso il 10% è già un po’ tantino duro da raggiungere, e tutto questo nel 2015. Ricordiamoci che lo stato di qualità si calcola in base delle condizioni di riferimento attese che grosso modo sono lo stato elevato cioè “nessuna alterazione antropica”. Chi mi ha preceduto parlava dei Romani ma già allora qualche alterazione antropica anche pesante c’era quindi, primo non è poi così facile trovare i siti che soddisfano le condizioni di riferimento “, secondo sono ambiziose. Questo è un generatore di costi di formidabile, quindi ci dobbiamo chiedere se gli obiettivi di qualità che ci siamo posti sono realmente raggiungibili, se sono aderenti al nuovo contesto ambientale ed alle risorse realemente disponibili. Se devo difendere idraulicamente una frazione, la difendo, e lo faccio con delle opere che trasformano qualcosa che funzionava, un fiume, che se diventa un canale non potrà essere “ fiume” almeno non come lo era prima. Non c’è niente da fare, o l’una o l’altra, quindi scelte, strategie, dirimenti, scelte pesanti. Quindi c’ è un problema di sostenibilità economica gli obiettivi sono allineati con le risorse attualmente disponibili? La domanda è legittima anche perché se andiamo a vedere a che punto siamo come Europa con i livelli di qualità, predendo a riferimento il report del 14 novembre 2012 della Commissione Europea su tutti i piani di gestione, vedremmo che la metà o più della metà dei corpi idrici è di là dal raggiungere l’obiettivo di buono. Gli interventi che la tecnica ci mette a disposizione sono un elenco di molte opzioni, però quelle sono? Una possibile soluzione? Due, a mio avviso, le opzioni su cui puntare: interventi a uso plurifunzionale per la risoluzione di più problemi contemporaneamente, questo vuol dire progettare molte cose in maniera diversa, ma ci permette di sfruttare per più lavori ambientali le stesse aree che sono scarse. Il problema di dove piazzare “ un opera “ è noto a tutti, quindi se riesco a piazzare un’ opera che mi fa tre servizi in un’area, ho già due problemi di meno. Lo stato di qualità sui corpi idrici vuol dire di fatto che noi abbiamo un check up, una diagnosi, sullo stato di salute individuale o quasi individuale e quindi individuale e personalizzata dovrà essere la soluzione. Bisogna progettare il corpo idrico, questo corpo idrico è così, ne voglio garantire questi usi e/o queste funzioni, quindi la tutela la devo progettare e di conseguenza definire tutti gli interventi misure necessarie; cioè devo definire un piano di corpo idrico. Ci arriviamo al buono nel 2015? È raggiungibile? La direttiva contiene al suo interno anche i meccanismi per gestire tutta questa quota di problematicità e le questioni di sostenibilità connesse ?. Sì le contiene, ma ci sono delle condizioni, ci sono delle verifiche, abbastanza dettagliate e complesse, che possiamo mettere sotto la voce “analisi costi benefici”. La linea guida WATECO ci da qualche indirizzo, qualche procedura, ma pochi strumenti operativi. Possiamo spostare il raggiungimento degli obiettivi al 2021 e al 2027, sono le famose “eccezioni” che il piano di gestione già dispone spostando il raggiungimento del livello di buono alcuni corpi idrici al 2021 e al 2027. Inoltre, a determinate condizioni, possiamo stabilire obiettivi ambientali meno rigorosi, prendendo atto che in certe situazioni la quantità di investimenti necessaria non ce lo possiamo permettere, poi non è detto neanche che Arezzo 20 - 23 novembre 2012 31 20 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute arriviamo comunque allo stato di buono. Queste flessibilità sono corerenti con l’ approccio “ le risorse disponibili non si devono sprecare “ le norme devono permettere di gestirle sempre al meglio, quindi la direttiva, il piano di gestione, il piano di tutela, il sistema della pianificazione devono avere gli strumenti e i percorsi per raggiungere il miglior rapporto tra costi sostenuti e benefici ambientali conseguiti o conseguibili. Sempre dal report della Commissione si vede che per lo stato ecologico delle acque superficiali, il 47% dei corpi idrici, al 2015, non raggiungerà lo stato di buono, va un po’ meglio per le acque sotterranee. Per i tre tre bacini della Toscana, abbiamo un 36% medio e sono già state messe delle eccezioni che danno la possibilità di spostare al 2021 e al 2027 l’obiettivo. Lo stato già di buono al 2015 per i fiumi previsto in Francia, è al 38,5%, vuol dire che la restante parte a 100 non arriva e non arriverà, gli inglesi parlano di stato ambientale, quindi hanno messo dentro anche tutto l’inquinamento chimico, perché sono partiti un po’ prima con la pianificazione, prevedono di arrivare nel 21% dei casi allo stato di buono al 2015. Quindi le domande precedenti relative al raggiungimento degli obiettivi, sono legittime e credo condivise; il documento della Commissione Europea “Blue Print” che ridefinisce la strategia a mio avviso prende atto di questa situazione. Quello che è importante è che non importa cambiare la direttiva o la struttura della direttiva, è sufficiente aggiustare certi meccanismi, anche molto tecnici, che sono dentro la direttiva. Dove sta quel 64% che dava dei problemi? Per le acque superficiali sta in gran parte sta nei corpi idrici fortemente modificati. Qui siamo ad Arezzo, c’è la Chiana, pretendere che la Chiana funzioni come l’Arno che la riceve è assurdo ed è anche conseguentemente assurdo stabilire gli stessi obiettivi di qualità e quindi sarà obbligatorio stabilire degli obiettivi di qualità più bassi altrimenti le risorse finanziarie necessarie diventano insostenibili e probabilmente, non arriveremo comunque al livello di buono tipico di un fiume. Su questa partita sta arrivando il decreto che chiude i documenti tecnici per l’individuazione e la conferma dei corpi idrici fortemente modificati, in Toscana sono circa un 30% di tutti i corpi idrici, può sembrare la scappatoia ma la Toscana è in media con il resto dell’Italia. Nel panorama europeo della percentuale dei corpi idrici artificiali sul totale, gli olandesi vanno al 60%, i belgi al 25%, l’Italia sta sotto il 10%, quindi come vedete è stata usata con parsimonia, molto aderente alla realtà, anche perché le dimostrazioni che ci chiedono non sono poi banali. 32 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 20 Novembre Corretto utilizzo e salvaguardia della risorsa acqua "Il monitoraggio della qualità dei corpi idrici: un approccio integrato multidisciplinare" Alessandro Franchi Resp. Settore VIA VAS ARPAT Toscana Per la risorsa idrica, anche ARPAT, come è stato accennato, fa la sua parte. È una attività decisamente importante per la nostra Agenzia a cui dedichiamo molte risorse. Per le acque, come per altre matrici, ARPAT interviene in generale su quattro direttrici. In primo luogo il controllo, rivolto agli elementi di pressione ambientale, in questo caso, principalmente sugli scarichi degli impianti di depurazione dei reflui urbani e dei reflui industriali. La seconda direttrice riguarda il “controllo preventivo” o “controllo ex ante”, che ARPAT svolge in favore degli enti, principalmente le Province, che autorizzano gli impianti di trattamento delle acque reflue, attraverso il supporto tecnico-scientifico con espressione di pareri istruttori in linea con le normative di settore e con gli obiettivi generali di tutela ambientale. La terza direttrice su cui investiamo molto sia in termini tecnologici che professionali, è la parte legata al monitoraggio delle acque. ARPAT, lavora in questo caso a un livello decisamente elevato, sia per l’impiego di tecnologie e di laboratori per condurre analisi anche complesse, sia nella fase di progettazione intesa non come mera esecuzione quantitativa degli obblighi normativi ma, in un’ottica anche di razionalizzare le risorse, attraverso una analisi di rischio che consente di individuare le priorità di intervento e adeguati profili di indagine, sia infine nella elaborazione del dato e nella costruzione degli indicatori più idonei a rappresentare lo stato di qualità delle acque. La quarta direttrice su cui lavoriamo è la comunicazione ambientale, mettendo a disposizione sul sito web dell’Agenzia i nostri dati costituiti anche da reportistica ambientale specifica : monitoraggio delle acque superficiali, delle acque sotterranee, delle acque marino costiere, delle acque a specifica destinazione, dei controlli degli scarichi I risultati dei controlli e dei monitoraggi forniti da ARPAT sono utili per indirizzare le politiche dei soggetti responsabili del raggiungimento degli obiettivi di qualità indicati dalla Comunità Europea. Volendo fornire un quadro sintetico dello stato di qualità delle acque sotterranee si conferma quanto già detto dal precedente intervento, secondo il quale poco più del 50% dei nostri corpi idrici sotterranei sarebbe lontano dall’obiettivo di qualità al 2015. Le principali cause dell’inquinamento in Toscana sono riconducibili ai solventi organoalogenati e ai nitrati. Mentre sui nitrati si registra, con il tempo e grazie a certe politiche messe in atto dalla Regione, un leggero anche se non sempre costante miglioramento, per quanto riguarda gli organoalogenati, che sono sostanze persistenti, il miglioramento è lentissimo, quindi anche nel 2027, se non facciamo interventi, l’obbiettivo non potrà essere raggiunto. Per le acque superficiali in Toscana i corpi idrici più fortemente antropizzati presentano uno stato chimico non buono determinato soprattutto da sostanze persistenti che hanno dei valori soglia molto bassi come il mercurio, il tributilstagno (antimuffa in numerosi prodotti e materiali usato nel passato) e i Polibromodifenileteri (ritardanti di fiamma usato in passato per molti manufatti). Abbiamo motivo di ritenere che si tratti di un inquinamento diffuso e non ci risultano sorgenti puntuali attive per questi composti. , Per quanto riguarda lo stato ecologico delle acque superficiali, registriamo una situazione più diffusa di “insufficienza” sul territorio regionale a dimostrazione che non sono solo gli aspetti di pressione antropica, quelli che agiscono negativamente sull’indice di funzionalità ecologica, ma anche altri aspetti legati ad esempio ai cambiamenti climatici e ai massicci prelievi di acqua per vari usi, potabile, industriale, agricolo. Oggi del mare si è parlato molto poco ma in realtà tutto quello che viene trasportato dai nostri fiumi va a finire in mare e certamente il mare, di questo apporto, ne risente. La situazione delle acque marine costiere toscane da un punto di vista dell’indice di qualità biologico è a metà tra il “buono” e l’ “eccellente”, quindi è sicuramente un mare che ha un ottima biodiversità e una capacità auto depurativa elevata. Purtroppo ha uno stato chimico non del tutto sufficiente in parte dovuto sicuramente a condizioni naturali (zone geotermiche, giacimenti minerari) o antropiche antiche (sfruttamento minerario), ma in parte dovuto all’apporto diretto o indiretto di inquinamento antropico e industriale. La balneazione rappresenta invece il cosiddetto fiore all’occhiello della Toscana. ARPAT svolge da diversi anni un controllo sistematico e abbiamo oltre il 90% delle aree di balneazione in uno stato elevato, il rimanente è quasi tutto buono, escluso poche situazioni. ARPAT come dicevo in precedenza lavora intensamente nella comunicazione ambientale. Sul nostro sito è possibile collegarsi e scaricare dati, report, pubblicazioni, annuari (annuario dei dati ambientali) bollettini con informazioni in tempo reale (bollettino della qualità dell’ Arno nel periodo estivo, bollettino dei pollini, bollettino dei risultati del monitoraggio della balneazione e dell’andamento del Ostreopsis ovata ecc.). Quanto detto finora riguarda ciò che ARPAT svolge di routine. Ogni tanto dobbiamo anche trattare cose eccezionali; quest’anno è veramente successo qualcosa di eccezionale, il disastro della Costa Concordia al Giglio e l’affondamento del cargo Venezia al largo della Gorgona con il suo carico di fusti tossici. In questi casi oltre alla difficoltà di gestire un carico di lavoro aggiuntivo e imprevisto si somma la necessità di lavorare in emergenza e quindi di mettere a disposizione tutte le nostre capacità di lavoro, di organizzazione, di Arezzo 20 - 23 novembre 2012 33 20 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute elaborazione e di comunicazione in tempi molto stretti. Per l’emergenza Concordia dopo quattro giorni abbiamo fatto il primo campione di acqua, il quinto giorno avevamo già predisposto una rete di monitoraggio attraverso la quale poter tenere sotto controllo le eventuali fuoruscite di inquinanti dalla nave: Sempre in quei giorni, attraverso l’analisi di quello che era l’inventario delle sostanze a bordo, è stato stilato un elenco di prodotti maggiormente a rischio e un elenco di parametri da controllare e idonei a rappresentare l’eventuale fuoriuscita di materiale pericoloso. E’ stato organizzato il monitoraggio (prelievo, trasporto e analisi dei campioni) in modo da avere risultati entro 48 ore. L’ottavo giorno il sito web di ARPAT è diventato il sito ufficiale di comunicazione dell’ Osservatorio. Da quel giorno e ancora oggi sono disponibili i risultati commentati in tempo reale accompagnati da grafici e da altre informazioni utili alla comprensione dei dati rilevati. 34 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 20 Novembre Corretto utilizzo e salvaguardia della risorsa acqua "La Governance delle acque nei distretti idrografici" Andrea BiancoISPRA Buongiorno a tutti. Cercherò di portare un contributo rispetto a un tema, secondo me importante, che è quello della governance nei distretti idrografici che un po’ si ricollega a quanto è stato detto nelle relazioni che mi hanno preceduto. Anche rispetto a quello che è stato detto da Calzolai, nella relazione che mi ha preceduto, quando si affermava che le politiche portate avanti in un ambito, faccio riferimento alle politiche di tutela dalle alluvioni, possono diventare controproducenti se non si cerca di coordinare le politiche con strumenti adeguati al fine di giungere a obiettivi convergenti. L’obiettivo cui voglio giungere è quello di fornire uno spunto di riflessione rispetto alla governance adottando strumenti che permettano meglio di integrare le politiche, di integrare la pianificazione, facendo in modo che gli strumenti di piano che di volta in volta sono stati previsti dalle leggi che si sono susseguite nel tempo non rimangano inattuate e scoordinate tra di loro. Da questo punto di vista strumenti di tipo pattizio, tipo ad esempio i contratti di fiume, possono rappresentare un importante strumento per favorire quei processi di integrazione delle politiche che ci richiede l’Europa rispetto al raggiungimento degli obiettivi che sono stati concordati a livello comunitario. Faccio qua una rapidissima rassegna di quello che è stato il quadro normativo nazionale, proprio per capire come nel tempo ci sia stata una stratificazione di strumenti di pianificazione che hanno fatto sì che spesso ci fosse una sedimentazione di strumenti di pianificazione. Passando dalla Legge 319 (legge Merli) fino ad arrivare al Testo Unico Ambientale. Passando per tappe importanti quali la Legge 183 del 1989 sulla difesa del suolo, che ha introdotto importanti innovazioni quali la gestione del territorio e dei corsi d’acqua a livello di bacino idrografico, la riforma dei servizi idrici dettato dalla Legge 36/94 e dal D.Lgs. 152 del 1999 che ha introdotto una importante innovazione, parallelamente all’avvento della Direttiva Quadro sulle acque, che è stata quella dell’approccio combinato alla tutela e alla gestione delle acque, attraverso appunto la combinazione del rispetto di limiti con l’obiettivo di qualità. Farò adesso una rapidissima rassegna di quelli che sono gli ambiti territoriali di riferimento che si sono susseguiti e che si sono stratificati in un territorio estremamente complesso come quello del nostro Paese, con bacini idrografici di tutte le dimensioni e con bacini idrografici di livello internazionale come quello del Po, che ha portato, ad esempio con la Legge 183 del 1989, a suddividere il Paese, da un punto di vista delle politiche di difesa del suolo e di gestione del territorio, in bacini idrografici gerarchizzati in tre livelli: bacini idrografici nazionali, interregionali e regionali. In questa slide sono rappresentati gli ambiti territoriali ottimali del servizio idrico integrato in cui fa da sfondo la struttura amministrativa con 20 regioni, 103 province, 8.101 comun. Oltre a tutto questo ci sono da considerare anche gli interessi legittimi di chi opera e vive sul territorio, dagli attori socio-economici ai cittadini, alle comunità, quindi, si capisce come gli interessi che agiscono intorno ai bacini idrografici e all’acqua siano estremamente complessi e sia fondamentale adottare strumenti di governance che consentano di avere politiche efficaci e attuate e non semplici dichiarazioni di intenti, come spesso è avvenuto in passato. In questa slide sono rappresentati i piani che si sono succeduti nel tempo: i piani di bacino, i piani di tutela che nel vecchio ordinamento erano strutturati come piani stralcio dei piani di bacino - i piani d’ambito, i piani di gestione - che rappresentano, in questo momento, il quadro di riferimento rispetto alla pianificazione distrettuale, con diverse responsabilità delle politiche, dalla Autorità di Bacino, alle Regioni che hanno redatto i piani di bacino (però sulla base degli obiettivi stabiliti dalle Autorità di Bacino Nazionali), le Autorità d’Ambito, le Autorità di Distretto. Tutto questo è governato nell’ambito del nuovo Testo unico. Rispetto a quanto è stato fatto nell’ambito del nuovo testo unico ambientale, mi preme rimarcare come, secondo me, si è persa un’occasione in quanto non è stata fatta un’importante azione di armonizzazione degli strumenti di pianificazione che si sono succeduti nel tempo e, di fatto, si è dato vita ad un ulteriore strato pianificatorio che spesso non collima con gli altri. La Direttiva Quadro, come vi dicevo, stabilisce il nuovo quadro di riferimento per la gestione e la tutela delle acque. Il fulcro delle politiche sono i corpi idrici che diventano l’elemento centrale rispetto al quale esplicitare le misure per raggiungere i famosi obiettivi di cui si è parlato nelle precedenti relazioni. Ogni corpo idrico appartiene ad un bacino idrografico, gli Stati membri, sulla base dell’accorpamento di questi bacini idrografici, hanno determinato e individuato i distretti idrografici - in Italia questo si è tradotto nella individuazione di 8 distretti idrografici ai quali, dal punto di vista normativo, dovrebbe corrispondere un’autorità di distretto idrografico responsabile, insieme a tutti i livelli di Governo che sottende, del coordinamento delle politiche di tutela e di gestione del territorio. Quindi, si è passati da una struttura di governo basata sulla organizzazione in distretti, in bacini idrografici nazionali, interregionali e regionali, in distretti idrografici, cambiando di fatto la campitura dell’organizzazione territoriale ma lasciando sostanzialmente inalterata la filosofia di fondo, che sottendeva a questa innovativa legge 183 del 1989, cioè quella della gestione a livello di bacino idrografico dei problemi Arezzo 20 - 23 novembre 2012 35 20 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute concernenti la tutela del territorio e la gestione delle risorse idriche. Il nuovo assetto che si è delineato, rispetto a quello preesistente, vede un piano di bacino distrettuale, che è il piano sovraordinato a tutti gli altri e che determina quindi la linea di indirizzo politico per la gestione del territorio, che può essere esplicitato anche per stralci funzionali di cui il piano di gestione della Direttiva Quadro sulle acque e il piano di gestione del rischio alluvioni, costituiscono stralci funzionali. Rispetto al precedente quadro normativo il piano di tutela delle acque, che prima costituiva un piano stralcio di piani di bacino, di fatto ora è diventato un piano attuativo del piano di gestione delle acque. Considerando che il distretto idrografico è il fulcro territoriale su cui esplicitare queste politiche di tutela e di gestione, occorre fare attenzione a evitare che all’interno di essi si possano generare conflitti legati a temi intrinsecamente conflittuali quali quella della tutela e gestione delle acque e la gestione del territorio, che richiedono quindi una importante forma di coordinamento. Da questo punto di vista c’è da ricordare che il 2015 è la prima data per l’aggiornamento dei piani di gestione distrettuali delle acque ed è la data in cui dovranno essere presentati i piani di gestione per il rischio di alluvioni. Questa concomitanza di eventi richiama alla necessità di un coordinamento delle politiche per evitare che il raggiungimento degli obiettivi di un piano diventi un ostacolo al raggiungimento degli obiettivi dell’altro piano. Rispetto a questo la data del 2015 può diventare un momento per tentare di coordinare le politiche di tutela e di gestione delle acque, di tutela dalle inondazioni, attraverso il coinvolgimento di tutti i livelli di Governo ma anche degli attori socio-economici che vivono sul territorio, prevedendo strumenti di allargamento della partecipazione a tutti gli attori del territorio. Lo schema che la normativa comunitaria prevede, per coinvolgere i vari attori territoriali, è quello di tre livelli distinti di partecipazione che hanno un’intensità di coinvolgimento via via crescente: c’è il semplice accesso alle informazioni - che consiste nella messa a disposizione delle informazioni da parte delle Autorità che sottendono alla pianificazione; poi c’è un livello crescente di coinvolgimento, la consultazione appunto, in cui i soggetti interessati possono rispondere e interagire con i soggetti preposti alla pianificazione, senza che vi sia un obbligo formale di questi di tenere conto di queste osservazioni. Poi c’è il livello più alto di inclusione che è quello che prevede una partecipazione attiva degli attori territoriali alla costruzione delle politiche, quindi con un processo discorsivo e inclusivo diretto. La Direttiva Quadro, da un punto di vista di obbligo formale e prescrittivo, prevede un accesso ai primi due livelli, mentre suggerisce di implementare anche il terzo livello anche se non in termini prescrivibili per le Autorità preposte. Il processo che ha portato alla prima elaborazione dei piani di gestione distrettuali si è attenuto a questa interpretazione corretta della Direttiva garantendo un accesso alle informazioni, attraverso la pubblicazione dei documenti sui siti web appositamente costituiti, e garantendo un ulteriore processo informativo, attraverso una serie di incontri pubblici con i soggetti interessati, i cosiddetti stakeholder; non c’è stato però il livello successivo di approfondimento. In questa slide viene riportata la tabella che riassume il numero dei soggetti che, nei diversi distretti idrografici, hanno fornito osservazioni nell’ambito del processo di formazione del piano di gestione. La lettura della tabella ci dice una cosa importante: cioè che nella maggior parte dei casi gli attori territoriali che hanno fornito osservazioni sono per lo più i soggetti più organizzati, ovvero i soggetti istituzionali e, in misura decrescente, gli attori economici e le associazioni. In ogni caso anche tra le associazioni o le organizzazioni non governative, quelle che hanno fornito le osservazioni erano quelle maggiormente organizzate, quindi quelle che avevano e hanno una struttura forte e ben radicata e quindi con possibilità di accedere ai processi di formazione dei piani. Sono rimasti esclusi da questi processi formativi gli strati del territorio dotati di meno risorse, che probabilmente però potevano fornire un grande contributo sia da un punto di vista della comunicazione che dell’implementazione delle politiche. Rispetto a questo, il processo che è stato portato avanti dalle Autorità di Bacino, che hanno gestito la prima implementazione dei piani di gestione, è stato davvero poderoso, se si pensa che è stato fatto tutto in un anno e se si pensa che gli attori potenzialmente mobilitabili sono nell’ordine delle centinaia (basti pensare che un Distretto racchiude qualche regione, diverse centinaia di comuni, province). Da questo punto di vista, se non si pensa al modo di come poter gestire un ulteriore approfondimento del livello della partecipazione, è ben difficile gestire con processi inclusivi diretti questo numero veramente spropositato di partecipanti ai processi partecipativi. Possono venirci in soccorso quei livelli intermedi di governance quali possono essere, ad esempio, i contratti di fiume, che sono stati esplicitamente previsti anche nei piani di gestione dell’Appennino Settentrionale e del Distretto Padano, quali strumenti intermedi utili alla messa a punto di un doppio livello di governance: uno sub distrettuale e uno distrettuale. A livello sub distrettuale , cioè di singolo bacino idrografico - o addirittura di corso d’acqua - i contratti di fiume possono rappresentare uno strumento per canalizzare le proposte e anche le problematiche provenienti dai territori. A un livello distrettuale, che è quello poi che porta effettivamente alla formazione del piano di gestione, i contratti di fiume possono diventare i vettori delle istanze provenienti dai livelli intermedi, dai livelli più distanti dal processo di formazione del piano e da questo punto di vista possono diventare uno snodo strategico che consente di recuperare in profondità tutti i soggetti potenzialmente portatori di contributi alla formazione dei piani di gestione, sia per i piani di gestione dei distretti idrografici, presi dalla Direttiva 2000/60, che per i piani di gestione del rischio alluvioni. Da questo punto di vista i contratti di fiume potrebbero diventare uno snodo importante anche per favorire quei processi di integrazione delle politiche, richiesti per evitare che il raggiungimento degli obiettivi di un piano possa sfavorire il raggiungimento degli obiettivi di un altro piano. 36 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 20 Novembre Concludendo, passo in rassegna un brevissimo elenco dei potenziali vantaggi derivanti da un processo di governance così strutturato: innanzitutto potrebbe portare ad un reale coordinamento delle politiche di distretto sia in vista dell’aggiornamento dei piani di tutela, previsto per il 2014, che per l’aggiornamento dei piani di gestione delle acque e per la presentazione e completamento dei piani di gestione del rischio alluvioni. Con ciò, quindi contemperare le esigenze di tutela delle acque con quelle di tutela del rischio alluvioni. In più rappresentare un importante strumento per recuperare il fattore umano alla causa della tutela e della gestione delle acque, favorendo quindi il raggiungimento degli obiettivi previsti dalle politiche. Ciò in quanto l’aumento della consapevolezza e la partecipazione diretta alla formazione dei piani possono dar vita a processi di responsabilizzazione collettiva, utili a far sì che i piani non restino enunciati sulla carta ma diventino strumenti effettivi per l’attuazione di politiche utili alla valorizzazione del territorio. Grazie. Arezzo 20 - 23 novembre 2012 37 20 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute Corretto utilizzo e salvaguardia della risorsa acqua Mauro D’AscenziVice Presidente Feder Utility Trascrizione non revisionata dal relatore Io non castigherò la vostra e la pazienza con cui avete aspettato le conclusioni, con un lungo intervento, mi limiterò solo a brevissime considerazioni e mi scuso anche in anticipo con tutti, in particolare con Pineschi, perché ho un impegno a quattrocento chilometri da qui e quindi devo andarmene subito. Voglio fare soltanto qualche considerazione molto generale. Le cose che ho ascoltato questa mattina, alcune mi erano note, non tanto i contenuti ma la capacità professionale, la preparazione di chi li ha esposte, parlo soprattutto del personale che viene dalle nostre aziende, con cui abbiamo una frequentazione quotidiana, per cui non mi hanno stupito, non mi ha stupito il livello di approfondimento e di preparazione, non vorrei essere frainteso, non sono rimasto stupito ma sono rimasto colpito invece dal livello di preparazione, perché per me è stato molto istruttivo, e di approfondimento che altri soggetti istituzionali hanno in questa sede affrontato, perché mi ha fatto consolidare un’idea e cioè che in Italia vi sia una diffusa cultura dell’acqua, palro di consapevolezza, di coscienza, di approccio, se volete, filosofico, perché occorre anche questo, e di preparazione tecnica professionale, ho ascoltato delle cose molto, molto interessanti. Ho però ancora la netta sensazione di come tutto questo sia frantumato e che ognuno sia un po’ abbandonato a se stesso per cui non si riesca a condurre ad uno. Convivendo tutto quello che è stato detto qui, anche negli accenti più polemici, vorrei non tornare, se mi riesce, sulle critiche, mi piacerebbe di più riuscire a vedere che cosa bisognerebbe fare. Io sono tra quelli, lo dico con serenità, tanto è il passato, c’è stato un vinto e un vincitore e la polemica è inutile, che i referendum abbiamo creato un grandissimo danno a questo Paese, non tanto per il risultato effettivo, cioè per la risposta al quesito che ponevano, perché dal punto di vista tecnico, alla fine cosa affermano, affermano che la priorità di gestione deve essere da parte di tutti, il danno è stato sul piano culturale e sul piano politico, perché non c’è più nessuno disposto a prendere in mano la materia dell’acqua. Abbiamo tentato di far introdurre in un emendamento al piano Passera per lo sviluppo, una roba ridicola che diceva sostanzialmente che il Governo si impegnava a dire, a dire, alla Cassa Depositi e Prestiti di prestare soldi ad aziende solide nell’acqua, con i bilanci a posto e in grado di dare delle garanzie, sembra banale ma non siamo riusciti a far introdurre l’emendamento, perché toccare l’acqua … alloro ho l’impressione che il problema più grave sia questo, aver preso una materia che siccome è inattuabile, un certo meccanismo ideale, talvolta anche nobile, che c’è dietro, si scontra con la concretezza quotidiana che porterebbe a un serio aumento delle tariffe e quindi nessuno vuol prendere in mano questa materia. Risultato, è vero che il Governo Monti è un Governo a termine, ha avuto delle emergenze che penso abbia affrontato anche bene, la diminuzione dello spread ricadrà positivamente anche sugli investimenti dell’acqua, quindi vi è una macropolitica che si può condividere, ma si è guardato bene dall’affrontare il tema, lo ha affrontato positivamente solo per un verso e cioè quello di aver dato corso a una nostra battaglia che era quella dell’Authority sull’acqua. Non possiamo però pensare che tutta la politica dell’acqua possa essere delegata a un autorità di regolazione, perché l’acqua non è il libero mercato, non solo è naturalmente un monopolio ma è quella complessità che qui è stata rappresentata, eppure in questo anno, questo Governo ha proposto una strategia per l’energia, io ho l’impressione che occorra fare un piano nazionale dell’acqua, se non è possibile, rimaniamo ad una analoga situazione, quella della strategia dell’acqua in Italia, il piano è più stringente, dà degli obiettivi, ma una strategia nazionale dell’acqua si può fare. Noi rimaniamo così, con gente come voi, brave, capaci di affrontare e di avere una visione, e sopra le direttive europee, e la politica nazionale? Gran parte dello sviluppo del mondo occidentale è avvenuto facendo pagare un po’ di questi costi che erano socialmente insostenibili alla natura, attraverso il degrado della natura, lo sfruttamento dell’acqua è una di queste cose, ora si è scoperto, con la Green Economy che si potrebbe iniziare un nuovo ciclo produttivo e di espansione economica, risanando il danno che abbiamo fatto, in parte risanando in parte sfruttando quella che la natura ci mette a disposizione senza doverla distruggere, siamo dinanzi a un Paese che ha bisogno di sviluppo e l’acqua è la più potente misura di Green Economy cui possiamo pensare, abbiamo messo 40 miliardi di euro per i pannelli solari, per l’eolico, che paghiamo sulla bolletta, stiamo pagando anche le centrali nucleari non realizzate, nessuno ha chiesto di abrogare al remunerazione del capitale investito nelle energie rinnovabili, l’acqua è un’energia che rischia di non essere rinnovabile se la trattiamo in questo modo, quindi non si capisce perché non si debba e non si possa affrontare questo come misura espansiva, naturalmente innescando un ciclo virtuoso, perché è vero che la tassa pagata sulla bolletta per l’energia alternativa, con tutti i limiti che ha, ha creato energie alternative, ha creato, meno di quanto pensavamo ma per ritardi nello sviluppo tecnologico e la ricerca nel Paese, occupazione, quindi c’è un ciclo positivo che può essere innescato e tutto questo deve essere visto da un piano nazionale. Quali sono i tre soggetti? L’agricoltura, il civile, l’industria. Chi produce la risorsa? La pioggia. Ve la faccio corta; gli uomini hanno sempre modificato la loro organizzazione sociale in virtù dei cambiamenti climatici che hanno determinato una diversa ripartizione delle precipitazioni nell’acqua, nello spazio e nel tempo. Questa è la storia, 38 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 20 Novembre adesso sta avvenendo in modo più rapido e dobbiamo adeguarci in modo più rapido, del resto abbiamo qualche strumento tecnico, tecnologico e scientifico in più rispetto all’uomo delle caverne. Allora, partiamo dalla pioggia. Bossola chiedeva: - Ma chi paga?- M stiamo già pagando, ogni alluvione che viene, paghiamo in termini di vite umane, di finanziamenti che devono arrivare e, per una volta, paghiamo in anticipo, così dopo risparmiamo. Allora partiamo da lì. Io non vi voglio fare tutta la storiella del ciclo, però guardate come solo su questo punto, le grandi piogge o le bombe d’acqua, potrebbero trasformarsi, mi rendo conto di essere un po’eccessivo, soprattutto in una regione che ha subìto dani gravi e anche lutti, potrebbero quasi diventare una benedizione se sapessimo imbrigliarle, l’uomo ha la pretesa di imbrigliare l’energia nucleare, non sappiamo imbrigliare le bombe d’acqua? Certo che bisogna predisporre gli strumenti che sono la cura del territorio, i canali, le dighe, i bacini di contenimento, fermano l’acqua, la tengono per quando non piove, invece abbiamo le bombe d’acqua e poi sei mesi senza acqua, perdiamo le bombe d’acqua perché arrivano e se ne vanno ed ecco che io le diluisco nello spazio, nel tempo, produco energia elettrica e instauro un ciclo positivo. Questa visione e la predisposizione degli strumenti Governance ed economici non può essere affidata ai principi dell’Europa e all’intraprendenza di questo o quel bacino idrogeografico, la Regione, eccetera, eccetera, deve esserci una strategia nazionale che definisca con quali strumenti e quali soggetti realizzano questo, le nostre aziende sono il fulcro, perché sono poi quelle che la distribuiscono l’acqua. Infine, l’altra questione, in termini di Governo, che va affrontata è il tempo, la variante tempo non è indipendente, è una variante stringente, assolutamente imprescindibile, noi non possiamo sempre ragionare in termini biblici, quindi i meccanismi burocratici, gli obiettivi devono essere ristretti, , in Germania si è saturato l’eolico e il solare in due anni, in Spagna pure, si sono realizzate tutte le reti ferroviarie, noi stiamo ancora discutendo se dobbiamo fare le dighe, poiché oltre alle bombe d’acqua il cambiamento climatico ci fa perdere quelle riserve naturali che erano i ghiacciai e nevai, stiamo ancora discutendo mentre la variante tempo è fondamentale, quindi il primo strumento legislativo di governo che occorrerebbe creare sono termini stringenti per realizzare delle opere, perché i termini stringenti portano anche a crescita stringente dell’occupazione dedicata a questo, a crescita stringente nella ricerca e nell’applicazione scientifica. Quindi strategia che si compone di visione, progetto, risorse, soggetti che operano, tempi di realizzazione che non possono essere biblici. Allora, per realizzare rapidamente occorre una sburocratizzazione fortissima e occorre che tutte le cose mirabili che voi avete fatto e che state facendo sui territori non si elidano l’una con l’altra ma che trovino un momento di integrazione rapido e occorre naturalmente una imprenditorialità che abbia a cuore le sorti sociali di questa … e abbia anche la capacità di intraprendenza, quindi non si butti a mare la disponibilità del privato, qualora vi fosse, o comunque le esperienze di aziende miste, ci sono anche delle aziende tutte pubbliche che funzionano molto bene, una sinergia di culture imprenditoriali diverse credo che sia un elemento estremamente positivo. Vi ringrazio. Arezzo 20 - 23 novembre 2012 39 20 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute Corretto utilizzo e salvaguardia della risorsa acqua Giorgio PineschiMinistero dell’Ambiente Trascrizione non revisionata dal relatore Io sarò ancora più rapido, ve lo prometto, perché il tempo è poco. Riprendo il concetto dio D’Ascenzi sulla strategia del Paese, è assolutamente la chiave di questi discorsi. È vero, abbiamo visto tanta conoscenza, tanta capacità di lavoro, di affrontare gli argomenti legati al tema della gestione dell’acqua e delle risorse idriche ma si sono visti anche molti problemi, molti ostacoli e una sostanziale situazione di stallo per molti di questi aspetti. La strategia del Paese però esiste in realtà, esiste ed è incastonata nelle politiche comunitarie che oggi sono state sviscerate in tutte le loro parti, ma non con una visione dell’Unione Europea come un padrone severo che sta lì a comminare multe, a bacchettare, a porre zaini sempre più pesanti da portare al Paese, nel momento in cui riusciamo, come Paese, a partecipare a quella costruzione delle politiche comunitarie, allora la strategia e anche i tempi, di cui parlava D’Ascenzi, sono automaticamente dettati e calibrati su quella che è la capacità di lavoro e di attuazione di queste politiche da parte del Paese. La più grande pecca, il più grande problema + quello di non aver capito che le direttive comunitarie che oggi sono state ampiamente sviscerate sono un’opportunità, devono essere una comunità, bisogna costruire su quelle basi e andare oltre, coglierle e attuarle in maniera più armonica e rispettosa di quelle che sono le performance del Paese. Su tre aspetti in particolare abbiamo fallito, fallito per non aver creduto che erano delle opportunità- il primo aspetti è quello della governance, ovvero quello che andava perfezionato, non creato dal nulla, ovvero un livello di collaborazione tra le amministrazioni per fare meglio quello che si doveva fare e invece ci si è incartati andando a litigarsi le competenze, a non capirsi su quello che si doveva fare e chi doveva farlo e oggi siamo ancora in una situazione di transizione perenne di quello che è la governante di questi oggetti ovvero i fiumi, le acque sotterranee, i laghi, le acque marine costiere, in una parola i bacini e i distretti idrografici. Il secondo aspetto è l’aspetto tecnico, in cui c’è una serie di attività tecniche che bisognava iniziare per tempo, perché bisognava costruire un rinnovato approccio, ma noi abbiamo perso tempo, abbiamo ragionato troppo, quindi anche sugli aspetti tecnici siamo in ritardo, stiamo recuperando, ma si lavora spesso sulla buona volontà delle amministrazioni. Il terzo aspetto, che è quello che è stato più toccato dai relatori, è l’aspetto economico, la parte economica è la parte fondante di questo approccio comunitario e i ragionamenti che sono stati fatti sono stati incompleti. Non si è fatto il ragionamento di come si pagano queste cose, anche a rate, anche posponendo il raggiungimento degli obiettivi al 2021 e anche più avanti ma sono ragionamenti che vanno fatti con il portafoglio alla mano e decidendo, a livello politico, come queste cose vanno coperte. Devo dire che la parte del servizio idrico integrato, paradossalmente, è quella più coperta, perché almeno lì, almeno in teoria, ci dovrebbe essere la convergenza, ovvero la tariffa dovrebbe essere il corrispettivo del servizio e dovrebbe coprire tutto il fabbisogno; come ci è stato detto, e come sappiamo tutti, questa convergenza non c’è come è anche misurato dalle numerosissime procedure di infrazione che riguardano nello specifico l’acqua cambroniana, cioè la depurazione. Questi ritardi oggi si stanno mano a mano colmando, ma manca ancora uno sforzo della politica di farsi carico di valorizzare quel patrimonio che, come oggi abbiamo visto, esiste nel Paese, le strutture ci sono, i tecnici sono pronti, per fare quel salto di qualità e rendere attuabili le cose da fare, parlo di cose semplici, parlo di cose alla portata di tutti quanti. Concludo invitando tutti i presenti a riflettere che mentre noi stiamo ancora ragionando della Direttiva Quadro, della Direttiva Alluvioni, di come si fa il Distretto, di come non si fa il Distretto, chi paga e come si paga, a livello comunitario intanto si sono reindirizzate queste politiche e la settimana scorsa è uscito il già citato Blue Print, una valutazione delle politiche comunitarie in materia delle acque, che le reindirizza, come non poteva essere diversamente, in chiave di Green Economy, di crescita verde e di funzioni ecosistemiche, tutte parole bellissime ma che non hanno nessun significato se prima non si fa il passaggio di cui parlavo prima e cioè di come la politica risponde alla necessità di far ripartire questo Paese sull’acqua, come diceva D’Ascenzi è ormai urgente mettere in piedi una strategia del Paese sull’acqua. 40 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 20 Novembre La valutazione della salute in Siti Contaminati "L'analisi del rischio sanitario e gli studi epidemiologici come criterio di individuazione delle priorità di intervento nei Siti di Bonifica di Interesse Nazionale (SIN) " Loredana Musmeci Istituto Superiore di Sanità Trascrizione non revisionata dal relatore Grazie. In effetti il mio intervento è proprio a ciò finalizzato, vale a dire l’utilizzo dello strumento dell’analisi di rischio e delle indagini epidemiologiche come importante strumento per valutare soprattutto anche la necessità e le priorità dell’intervento, interventi di bonifica in generale, in particolar modo per i siti di bonifica di interesse nazionale, che oggi tratteremo in questa sessione e, come voi sapete, attualmente sono 57 i siti di bonifica dichiarati di interesse nazionale e coprono circa il 3% della superficie antropizzata nazionale, quindi è un aspetto estremamente importante; non ci dobbiamo dimenticare però che non esistono soltanto i siti di bonifica di interesse nazionale ma a livello nazionale poi abbiamo anche siti di interesse regionale regionali e quindi i siti che non sono arrivati ad essere di interesse nazionale ma che rivestono comunque importanza nell’ambito della gestione del territorio, delle riconversioni industriali, delle riconversioni come destinazione d’uso e quindi i criteri che adottiamo per i siti di bonifica di interesse nazionale possono essere traslati ai regionali e viceversa, individuare i criteri per le priorità in un momento soprattutto di scarsità di risorse è sempre un aspetto determinante. Non faccio cenni normativi perché non è opportuno e ci porterebbe fuori strada, però parlando di bonifiche in ogni caso ci muoviamo nell’ambito di uno scenario anche normativo che si basa fondamentalmente su una visione omocentrica, come amo dire, ma è la realtà, il testo unico in materia ambientale, il 152/2006, ha una visione sicuramente omocentrica per tutti gli aspetti e, ovviamente, anche quelli per quanto riguarda le bonifiche; quindi, anche l’individuazione dei siti di interesse nazionale è fatta sulla base di un rischio conclamato sanitario e anche le modalità applicative del 152 per i siti di bonifica si basano su una procedura di analisi di rischio che non staremo qui a vedere oggi, però il legislatore ha questa visione omocentrica, mettendo al centro l’uomo e quindi il rischio per l’uomo è quello che regola tutta la disciplina. Ovviamente, il rischio sanitario nel contesto internazionale anche qui lo troviamo in molteplici, in primis nella strategia europea ambiente e salute, nelle varie direttive di settore europee, sia per l’aria, per l’acqua, la classificazione delle sostanze, per i rifiuti, per gli alimenti, sempre abbiamo una che pone il rischio sanitario al centro, l’OMS, per ovvie ragioni, e poi le Agenzie Europee, l’EFSA, il Comitato Europeo per la valutazione dei rischi sanitari e ambientali e un riferimento che per noi è costante, è anche quello dell’ATSDR statunitense, quindi riferimenti sia a livello europeo che internazionali che troviamo all’interno della disciplina e adottati nelle nostre valutazioni. Vediamo le fasi di cui si compone una valutazione del rischio, una corretta valutazione del rischio, e quindi come si collocano anche le indagini epidemiologiche all’interno di una procedura di valutazione del rischio. La prima fase è ovviamente l’identificazione del pericolo attraverso l’identificazione delle sostanze, la loro classificazione e quindi l’identificazione del pericolo rappresentato dalle sostanze chimiche presenti nel nostro sito, la caratterizzazione dei pericolo, quindi la valutazione dose-risposta, l’individuazione del dose tollerabile giornaliera o settimanale secondo i parametri che vengono utilizzati e poi una frase che è determinante per le successive, che è il centro, il cuore della nostra valutazione e deve costituire il cuore anche di una valutazione generale del rischio e quindi anche all’interno dello studio epidemiologico, che è quello di individuare come un soggetto, con quali meccanismi e con quali modalità, è esposto alle sostanze che abbiamo individuato, quindi la valutazione dell’esposizione è il cuore della nostra valutazione e per questo servono i dati sulle matrici ambientali, ma non solo, sulle matrici alimentari,possono essere utili anche studi di biomonitoraggio umano o biomonitoraggio ambientale, ovviamente, anche l’uso di modelli dove mancano i dati può essere estremamente utile supplire alla carenza del dato; una volta valutata l’esposizione, potremo caratterizzare il rischio, quindi poter valutare gli effetti associati a quelle esposizioni, e, a questo punto, si colloca lo studio epidemiologico che è a supporto complessivo, ma non solo a supporto, che ci permette poi di effettuare una reale valutazione dell’effetto sulla popolazione che abbiamo individuato essere potenzialmente esposta, quindi l’esposizione diventa il punto centrale e questo poi ci porta a poter valutare meglio il dato relativo risultante dall’indagine epidemiologica. La valutazione del rischio chiaramente ci permette di individuare, se correttamente effettuata, dopo aver individuato quali sono i percorsi di esposizione, dove poi dovremo andare ad agire per la gestione del rischio, per l’adozione di misure di prevenzione e in generale di mitigazione del rischio. Come vi dicevo, entrando nel cuore della giornata, della sessione che abbiamo dedicato ai siti di interesse nazionale, i 57 siti di interesse nazionale sono distribuiti su tutto il territorio, non c’è una regione che almeno non abbia un sito dichiarato come SIN (Sito di Interesse Nazionale), le procedure autorizzative e valutative sono in capo al Ministero dell’Ambiente che ha come supporto l’ISPRA e l’Istituto Superiore di Sanità per la componente sanitaria. Non entro nel dettaglio, l’individuazione dei 57 siti è stata fatta fondamentalmente su una base individuazione del rischio e che essi pongono, quindi tipo ed estensione della contaminazione, effetti già acclarati, quindi studi epidemiologici Arezzo 20 - 23 novembre 2012 41 20 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute che hanno già evidenziato una potenzialità di effetti connessi a quella contaminazione, fondamentalmente questi sono i criteri che hanno permesso l’individuazione dei SIN. Attualmente c’è una normativa di recente promulgata che rivedrà la perimetrazione di questi SIN, comunque il numero è estremamente elevato e La superficie continuerà a rimanere estremamente ampia, superficie coperta dal perimetro del SIN. Nell’ambito delle problematiche connesse alla bonifica dei SIN, all’Istituto Superiore di sanità, nel Dipartimento Ambiente, l’attività che noi svolgiamo è prevalentemente della valutazione dei rischi soprattutto su due matrici, che sono le aree agricole e i sedimenti, perché per queste non ci sono procedure già standardizzate a livello nazionale ma anche a livello internazionale ci sono delle problematiche in più, su questo stiamo concentrando la nostra attenzione, e poi ovviamente la valutazione dello stato di salute della popolazione residente nei SIN di bonifica di interesse nazionale e quindi il Progetto Sentieri che è ormai uno studio noto, sono dati pubblicati e adesso sono in corso approfondimenti. Quindi, per effettuare una corretta valutazione dei rischi occorre avere tutta una serie di conoscenze sulle matrici ambientali, ma non solo, per esempio anche sul problema dei vegetali, dei prodotti della pesca, perché questo serve per poter effettuare una valutazione dell’esposizione. Dovremo individuare quali sono gli inquinanti indici prioritari e su questi andrà focalizzata l’attenzione di per tutte le successive valutazioni, quindi l’analisi del destino ambientale e delle vie di esposizione, dovremo effettuare quindi una preliminare valutazione del rischio, in base ai dati possibili e alle evidenze, e quindi, ove necessario, questo vorrei sottolinearlo, se occorre, ripeto, a uno studio di biomonitoraggio umano, dico che questo bisogna sottolinearlo perché ultimamente sentiamo sempre di più questa inchiesta comunque di procedere studi di biomonitoraggio umano, lo studio di biomonitoraggio umano ha tutta una serie di implicazioni, anche etiche,quindi anche la gestione del dato è una gestione complessa, la restituzione del dato e la comunicazione, quindi noi diciamo che il biomonitoraggio umano è uno strumento estremamente importante, estremamente utile, ma bisogna farlo dove realmente occorra, dove realmente abbiamo dubbi sull’esposizione o dove abbiamo esposizioni estremamente complesse con sorgenti multiple e quindi occorre, per poter valutare realmente i rischi, scendere anche a livelli più di dettaglio con un biomonitoraggio umano. Ovviamente poi, il dato sulla mortalità e morbilità nelle fasce più vulnerabile, ad esempio i bambini, proprio su questo poi saranno i futuri approfondimenti degli studi epidemiologici che stiamo predisponendo proprio in questo periodo. Una delle problematiche maggiori per poter effettuare una corretta valutazione dei rischi all’interno dei SIN e quindi poter interpretare ancor meglio il dato che ci deriva dallo studio epidemiologico è che, per ragioni anche legate all’impostazione , molto spesso sono carenti, abbiamo informazioni solo su alcune matrici ambientali che sono fondamentalmente le acque sotterrane e i suoli, ma soprattutto abbiamo moltissime informazioni ma all’interno dell’area del sito di proprietà del soggetto inquinatore che ha l’obbligo della bonifica e quindi ha l’obbligo della caratterizzazione eccetera ecc. Noi abbiamo, per dire, all’interno del sito industriale xy moltissimi dati sul suolo, magari a maglia 50 – 50, 50 metro, 50 metri se non addirittura 25, altrettanto sulle acque sotterranee però, immediatamente al di fuori del sito di proprietà, abbiamo un’assoluta mancanza di dati e quindi una valutazione dell’esposizione per la popolazione residente all’interno o in prossimità dei siti di bonifica diventa l’elemento problematico da valutare proprio per una carenza del dato. Questi sono i dati che normalmente mancano, quindi per esempio dati relativi alla potenziale contaminazione degli alimenti e quindi la via di esposizione attraverso l’alimentazione, acqua potabile e inalazione tramite via aerea, anche questo è un aspetto determinante. Uno dei casi che è stato citato anche dalla dottoressa Bettoni, il caso dell’Ilva, dove abbiamo proprio una pluralità di esposizione con una carenza per alcuni dati. Per le aree agricole, come dicevo, l’estensione di questi siti è talmente elevata in alcuni casi che comprendono al loro interno magari un’area SIN è vastissimo e ricomprendere al suo interno anche vaste aree agricole o specchi lacustri dedicati però con utilizzo con vocazione alla pesca o anche aree marine per i quali, carenza del dato, perché ovviamente il gestore dell’area agricola o della pesca o dell’allevamento, non è un soggetto inquinatore, ha subito il processo di inquinamento e quindi non ha l’obbligo della caratterizzazione e della raccolta del dato e quindi lì è la carenza, carenza sul dato ma anche carenza sulla procedura con cui poi andare a valutare un’eventuale rischio di ingresso nella catena alimentare, attraverso le aree agricole o attraverso un sedimento contaminato e potenziale esposizione della popolazione attraverso quelle vie. Per questa ragione il Ministero dellaS ha lanciato un importante studio proprio teso alla valutazione della potenziale contaminazione della catena alimentare, è stato quindi lanciato questo importante studio che prevede la raccolta del dato alimentare per alcuni alimenti di origine animale all’interno dei siti di bonifica di interesse nazionale proprio per questa carenza sul dato sulla potenziale contaminazione della catena alimentare per poter effettuare poi una corretta valutazione del rischio. Gli approcci per una valutazione del rischio possono essere vani chiaramente rispetto ad una contaminazione della catena alimentare in questo caso la nostra metodologia che stiamo mettendo a , specificatamente alle aree dei SIN, si avvale ovviamente di criteri adottati a livello internazionale che possono far riferimento all’OMS. All’EPSA, e che usano criteri che fanno riferimento alla dose tollerabile, o settimanale o giornaliera, di quello specifico inquinante per il quale dovremo andar pere a individuare l’intake alimentare, cioè la sua potenziale contaminazione e quanto può arrivare all’uomo attraverso un’intake e quindi attraverso uno stile alimentare, questo sia per le aree agricole che per i sedimenti. La valutazione del rischio e la problematicità di assenza di alcune tipologie di dati che sono estremamente 42 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 20 Novembre necessari per poter effettuare una corretta valutazione dell’esposizione, indubbiamente il dato epidemiologico è di estrema importanza e a supporto unitamente della valutazione del rischio e dell’esposizione poter andar individuare, come dicevo all’inizio, le priorità di bonifica , l’obiettivo, non a caso l’Istituto ha coordinato quest’importante studio, Sentieri, che ha l’importante obiettivo di valutare lo stato di salute dei residenti in prossimità dei SIN di cui poi parleranno diffusamente i miei colleghi. Questo studio ha riguardato o 44 dei 57 SIN, perché alcuni sono stati esclusi per delle ragioni proprio tecniche per mancanza di potenza dello studio, in particolare modo siti di piccole dimensioni all’interno di grandi aree urbane oppure i siti in cui non vi è una significativa esposizione della popolazione residente oppure aree caratterizzate dalla mera presenza di discariche in cui venivano smaltiti i rifiuti urbani, riconoscendo quindi che in questa situazione il rischio è un rischio limitato, quindi sono stati esclusi 13 SIN perché non avevano caratteristiche idonee per la tipologia di studio effettuato. Andando a concludere, le prospettive future; indubbiamente l’aspetto più importante sul quale ci dovremmo concentrare è il rafforzamento del nesso di causalità, emissione di un inquinante sviluppo di patologie, quindi fondamentalmente migliorando l’aspetto i della esposizione, della conoscenza dell’esposizione attraverso un migliore controllo e monitoraggio di matrici non soltanto ambientali quali suolo e acque ma anche alimentari, utilizzo di strumenti tossicologici ed eco ossicologici, biomarker, test di micronuclei che sempre più si stanno sviluppando e si stanno utilizzando proprio per valutare anche l’esposizione anche a miscele di inquinanti, quindi valutazioni degli effetti sinergici o antagonisti tra le sostanze presenti, un monitoraggio delle matrici ambientali in conformità con le normative nazionali e comunitarie e poi l’integrazione del dato ambientale con il dato sanitario che diventa determinante. Concludendo, i siti inquinati costituiscono sicuramente un problema prioritario anche in termini di estensione, come abbiamo detto, questo riguarda i SIN ma poi vedremo che c’è anche un intervento dell’ISPRA, dell’Ingegner D’Aprile, che ci dirà dello stato di attuazione in generale delle bonifiche in Italia, non solo dei siti di bonifica di interesse nazionale , ma anche della numerosità dei siti di interesse regionale, in un momento di scarse possibilità economiche ovviamente l’utilizzo di una corretta modalità di valutazione del rischio con il supporto fondamentale dello strumento dell’epidemiologia ambientale, queste potranno andare a farci individuare le reali priorità di intervento e dove concentrare la nostra attenzione e i nostri interventi anche economici. Grazie dell’attenzione. Arezzo 20 - 23 novembre 2012 43 20 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute La valutazione della salute in Siti Contaminati Corrado CliniMinistro dell’Ambiente e della Tutela del Territorio e del Mare Trascrizione non revisionata dal relatore Grazie, grazie per questa opportunità. La discussione che aprite qui e che riguarda un tema critico a livello nazionale, anche in parte nell’europeo, perché sostanzialmente, parlando di quello che abbiamo in Italia, una legge ha identificato i siti di interesse nazionale, li ha elencati, sono diventati per legge siti di interesse nazionale da bonificare. Questi siti sono aree industriali dismesse o prevalentemente dismesse che per quarant’anni, per cinquant’anni sono state sede di attività industriali che in qualche modo replicavano il modello di sviluppo e noi abbiamo avuto negli anni ’50, più o meno il disegno è questo, in qualche caso, Porto Marghera prima, ma insomma il disegno era la centrale termoelettrica, l’impianto siderurgico, la chimica, qualche volta la lavorazione dei metalli non ferrosi, comunque siti industriali che avevano di base industrie primarie che come sapete hanno la caratteristica di essere industrie ad alta intensità energetica, ad alto consumo di risorse naturali, di acqua in particolare e con l’utilizzazione come materie prime di materie prime, e come prodotti intermedi, anche ad alto impatto ambientale e sanitario. Per cui abbiamo una gran parte di questi siti che sono siti dove erano allocate queste attività industriali e che ora sono più o meno in fase di dismissione, una parte di questi siti invece, pochi, ancora in piena attività, per esempio il sito di Taranto o forse anche quello di Priolo, come dire, Gela è già un sito più problematico, nel nord di questi siti c’è qualcosa ancora a Porto Marghera ma molto. Poco. La terza tipologia di questi servizi è che essendo stati decisi per legge, sulla base di una valutazione approssimativa in qualche modo di quelle che potevano essere le problematiche, hanno una dimensione molto ampia, dimensione che è stata in parte orientata da una valutazione di tipo politico economica allora, ormai più di dieci anni fa, l’idea era che più largo era il sito più soldi pubblici arrivavano, per cui abbiamo nella perimetrazione dei siti di interesse nazionale delle zone che non sono mai state utilizzate per attività industriali, zone abitate da secoli, il caso del SIN di Trieste è tipico, zone che erano e sono rimaste sede di attività, di produzione agricole importanti, perciò parliamo di questa situazione. Questo è molto diverso da quello che è avvenuto in Germania, piuttosto che Bretagna o in Olanda o anche negli Stati Uniti d’America, dove la individuazione dei siti dove dovevano essere programmati interventi, anche con finanziamenti pubblici, per il risanamento è stata fatta sulla base di valutazioni molto, molto puntuali e soprattutto avendo in mente, quello che in Italia non è avvenuto, anche una ipotesi di destinazione d’uso, perché sostanzialmente quando si risana un sito che è stato utilizzato da produzioni industriali, in particolare quelle primarie, è un po’ complicato immaginare che questo sito debba essere bonificato in maniera tale da essere disponibile per tutti gli usi, perché se si ha questa idea allora vuol che si immagina di prendere il terreno fino a una dimensione importante, profondità importante, caricarlo su qualche camion e portarlo in qualche discarica, questa peraltro è un’idea che ha suggerito alla direzione antimafia che forse poteva esserci qualche preconcetto di tipo diverso da quello della protezione dell’ambiente, perché come sapete gli interessi della malavita organizzata nel settore dei rifiuti sono soprattutto il trasporto e la locazione a discarica nei buchi di materiali che vengono considerati pericolosi o rifiuti. Questo è il contesto, in più in Italia abbiamo alcuni di questi siti che sono in posizioni strategiche per lo sviluppo urbano o per lo sviluppo delle infrastrutture, in particolare quelle portuali, perciò della logistica, per cui una parte di questi siti hanno un valore enorme dal punto di vista strategico, perché la loro riutilizzazione potrebbe muovere, essere un volano importante di sviluppo, pensate a Porto Marghera piuttosto che era piuttosto che a tutta l’area industriale di Trieste, piuttosto che a Bagnoli oppure a Napoli est, sono zone che oggi rappresentano un patrimonio importantissimo per chi vuole immaginare quelle aree soprattutto come aree di sviluppo per attività legate soprattutto alla infrastrutturazione trasporti, porti e attività industriali più leggere, cioè a bassi impatto ambientale. Perché dico questo? Perché sostanzialmente la legislazione italiana e anche la normativa tecnica che si è sedimentata nel corso degli anni per affrontare il tema dei siti di interesse nazionale non ha tenuto assolutamente conto di queste considerazioni di contesto. Noi abbiamo avuto e abbiamo tuttora, nonostante che abbiamo fatto molte modifiche nell’ultimo anno, un impianto normativo tecnico che affronta il tema dei siti di interesse nazionale che non ha una visione in termini di riuso di questi siti, per cui gli obiettivi di risanamento ambientale sono obiettivi astratti, cioè sono obiettivi che teoricamente immaginano che in un sito industriale di industria primaria si possa fare un campo di grano o qualcosa del genere, perché non essendoci una indicazione di uso, gli obiettivi di risanamento sono i più severi possibili, cioè oltre il contesto naturale di fondo, si sono cioè immaginati degli obiettivi di risanamento ambientale di molti di questi siti che avrebbero dovuto raggiungere degli obiettivi molto più severi di quelli rappresentati dal fondo cosiddetto naturale dell’ambiente, non di quel sito, ma dell’ambiente nel quale il sito si colloca. Questo determina un altro effetto che teoricamente il valore di queste aree è un valore importante, perché se si possono usare per qualsiasi cosa è un valore importante, tant’è, per esempio, che quando abbiamo affrontato il tema della riqualificazione dell’area industriale di Porto Marghera, il valore stimato delle aree da bonificare era attorno 500 euro a metro quadro, voi capite che 500 euro 44 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 20 Novembre al metro quadro per un’area non è un valore da poco soprattutto se uno vuole farci una nuova attività industriale. Questo è il primo dato e che cosa abbiamo fatto? Abbiamo ricondotto progressivamente gli obiettivi di risanamento o comunque di riqualificazione ambientale di questi siti al loro riuso, riuso a fini produttivi; questo ha semplificato molto le problematiche, per esempio l’accordo che ho firmato il 16 aprile a Venezia per Porto Marghera, avendo come premessa stabilita dal comune e dalla Regione Veneto che quell’area è un’area a fini industriali, ha semplicemente liberato il campo da molte ipotesi di utilizzazioni speculative dell’area e ha reso disponibili immediatamente circa 5 miliardi di euro di investimenti. La seconda cosa che abbiamo fatto è di considerare, anzi di prevedere che in queste aree, dove si prevede il riuso industriale, l’obiettivo da raggiungere è quello della messa in sicurezza del sito, che è diverso dalla bonifica, messa in sicurezza vuol dire che dobbiamo avere la garanzia che il riuso di quel sito non generi contaminazione ambientale soprattutto al di fuori del sito stesso e che comunque non ci sia un aggravio del carico ambientale. Questa seconda semplificazione della normativa ha consentito di restituire molte di queste aree a riusi di carattere industriale che altrimenti erano precluse dal fatto che bisognava aspettare la bonifica del sito per poi poterle riutilizzare. La terza cosa che abbiamo fatto è quella di ridurre il perimetro, perché abbiamo rifocalizzato gli obiettivi di risanamento ambientale a quelle componenti del sito di interesse nazionale o quelle di sito di interesse regionale che sono effettivamente contaminati o che comunque presentano problematiche di questo tipo, questo ha consentito di cominciare a liberare aree per, si dice, restituzione agli usi propri, agli usi legittimi, molte aree che invece erano all’interno del perimetro del sito di interesse nazionale e che non potevano essere utilizzate. A Torviscosa, nella laguna di Grado e Marano, abbiamo liberato quasi tutta l’area, è rimasto soltanto un nucleo che è una parte del vecchio stabilimento Caffaro, e abbiamo ricominciato a pensare con le autorità locali il riuso di quel territorio a fini produttivi a cominciare dal dragaggio dei canali lagunari che sostanzialmente impedivano non essendo possibile dragarli, perché all’interno di un sito di interesse nazionale, nonostante che la qualità dei fanghi fosse di una qualità tale da non classificabili tossici, abbiamo liberato questa situazione e si sta riprendendo l’uso di quel territorio. Quello che emerge da questa esperienza che pure abbiamo realizzato molto in velocità è che la rimessa in moto delle attività in queste aree è anche una garanzia di salvaguardia, perché siti contaminate che non sono gestiti non è che si autodepurano ma continuano ad essere contaminati, siti industriali dismessi, contaminati, che vengono gestiti con attività industriali che rispettano oggi le norme attuali, diventano siti gestiti perciò siti in risanamento attraverso il riuso. Questa è l’esperienza di Rotterdam, è l’esperienza della Ruhr, è l’esperienza di alcuni dei siti industriali inglesi che sono stati di risanati, perciò questo è il quadro di riferimento nel quale si colloca l’iniziativa che il Governo ha preso su questo. In parallelo a questo, questione emersa in maniera molto evidente nel caso dell’Ilva ma ci sono molte situazioni che sono sostanzialmente più o meno in una situazione simile, è emersa anche la problematica del rapporto tra stato di salute della popolazione residente in quelle aree e qualità ambientale dei siti di interesse nazionale, ci sono state le indagini, credo avviate nel 19992/93 dall’OMS insieme con l’Istituto Superiore di sanità, poi c’è il Progetto Sentieri di cui vi hanno parlato un attimo fa, il tema di fronte al quale ci troviamo, soprattutto nel caso in cui persistano attività industriali, questo è il caso di Taranto ma è anche il caso di Priolo Augusta, sicuramente, noi abbiamo sicuramente, nello stato di salute della popolazione, la convergenza di almeno due principali, possiamo chiamarli filoni, non saprei come chiamarli, due tracks sui quali sostanzialmente si muove l’andamento dello stato della salute della popolazione, l’uno che riguarda l’esposizione più che ventennale, trentennale in questi siti, qualche volta anche di più come a Taranto, della popolazione a quelle che erano le attività industriali che c’erano prima, parlo di prima del 1980 per dare una soglia, ’80, metà degli anni’80 quando hanno cominciato a entrare in vigore le normative europee, l’applicazione in Italia delle normative europee che hanno cambiato drasticamente i processi industriali, prima quando ancora si usava l’amianto, quando venivano usati idrocarburi policiclici aromatici ad alto rischio per la salute, e quella è la storia, la popolazione oggi che presenta patologie croniche, tumorali riferibili a quelle situazioni di rischio è in qualche modo il documento che certifica il rapporto tra quella situazione di attività industriali, di rischio ambientale e gli effetti che si sono avuti sulla salute che, com’è noto, non sono effetti acuti, cioè non è un’influenza, quando uno è esposto all’amianto può avere una latenza di venti, trenta anni della malattia ma questo avviene per molta parte delle malattie croniche degenerative e per le malattie tumorali, perciò da una parte le popolazioni che risiedono in queste aree e che hanno vissuto nel corso dei decenni in queste aree sono sostanzialmente esposte al rischio di avere manifestazioni patologiche che sono riferibili a quel tipo di esposizione, tenendo conto delle variabilità individuali, perché come sappiamo non tutti quelli che sono stati esposti amianto, per fortuna, hanno il mesotelioma della pleura, ma questo è un altro aspetto che riguarda poi una politica di prevenzione e diagnosi precoce di cui vorrei dire una cosa. A questa area di popolazione si sovrappone quella che invece risiede ora, la popolazione più giovane, quella che non è stata esposta a quei rischi ma che presenta delle patologie che in parte possono essere determinate dalle attività industriali esistenti oggi o dalle contaminazioni ambientali che sono intervenute perché ci sono dei siti contaminati, delle acque contaminate, la catena alimentare che può essere a sua volta contaminata dalla persistenza di siti contaminati non gestiti, spesso non gestiti perché le procedure delle conferenze di servizi per la bonifica dei siti contaminati che sono state aperte nel 2001/2002 sono ancora aperte, c’è una responsabilità Arezzo 20 - 23 novembre 2012 45 20 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute dell’amministrazione nella contaminazione attuale dei siti che non sono gestiti, perché noi, con la storia dei pareri e contro pareri sui progetti di bonifica, teniamo aperte procedure per dieci anni e quando le teniamo aperte per dieci anni intanto quel sito continua a essere attivamente contaminato, è un tema sul quale stiamo cercando di capire, abbiamo già fatto qualcosa ma non siamo riuscirti a far tutto. Ci sono comunque questi due aspetti e su questo bisogna lavorare per sapere quali sono le misure di prevenzione più efficaci che devono essere attivate oggi in quei territori, non a caso a Taranto, che per noi è un caso di svolta, abbiamo parallelamente attivato il piano di area per il risanamento ambientale, del Mar Grande, del Mar Piccolo, di Statte, di Tamburi, delle discariche, cioè abbiamo affrontato il tema del risanamento del territorio che è fondamentale, non si può continuare a tenere lì territori che rimangono contaminati per anni in attesa che qualcuno scelga qual è la procedura o qual è la responsabilità e dall’altro abbiamo affrontato il tema dell’Ilva con l’autorizzazione integrata ambientale con la quale abbiamo detto che l’Ilva può continuare a lavorare soltanto se si adegua ai migliori standard ambientali europei. Questo approccio suo doloroso per il territorio, perché costringe le amministrazioni ad essere attive, a non rinviare, e perciò è impegnativo, lo è per le imprese, perché le stime di investimenti che Ilva dovrà sostenere per risanare non inferiore ai 2 miliardi e mezzo di euro, che non è poco; credo che sia la prima volta in Italia che avviene che un’amministrazione pubblica dice un’impresa deve adeguarsi e che deve adeguarsi con determinate tecnologie e che deve farlo perché altrimenti non c’è storia, perché non può immaginare di continuare ad aprire contenziosi per rimanere aperta. Questo è un caso di svolta nella gestione di un sito di interesse nazionale, però la prospettiva di fronte alla quale ci troviamo non è ancora molto chiara, perché quello di cui abbiamo bisogno, che abbiamo verificato nel caso dell’Ilva, è di avere dei dati di riferimento certi sullo stato della qualità dell’ambiente oggi e sulla storia della contaminazione, su questo non abbiamo ancora informazioni affidabili, non abbiamo ancora quello che serve al nostro Paese, e che io credo che sia necessario, quello che altri Paesi europei hanno, un’autorità di riferimento che è la sede delle informazioni correte alle quali ci si rivolge per avere una risposta e questa risposta sia riscontrabile sulla base delle metodologie dei format internazionali, riconosciuti e certificati a livello internazionale. Questo ancora ci manca e questo è il passaggio che dobbiamo fare, un salto di qualità che dobbiamo fare, dobbiamo essere capaci di assumerci la responsabilità di gestire queste situazioni complesse dando delle risposte e non soltanto continuando a fornire dei problemi o porre dei problemi. Grazie. 46 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 20 Novembre La valutazione della salute in Siti Contaminati "Incidenza tumorale in Siti Contaminati: approccio metodologico per gli studi" Pietro CombaIstituto Superiore di Sanità Trascrizione non revisionata dal relatore Grazie. Siccome molte cose sono state già dette dai relatori che mi hanno preceduto, mi avvantaggio e introduco subito il gruppo di lavoro fondato sulla collaborazione fra Istituto Superiore di Sanità e Associazione Italiana dei Registri Tumori, ringraziando in particolare il dottor Crocetti dell’enorme lavoro che ha fatto e che adesso vedremo nella parte dati, insieme ai quali ci siamo posti l’obiettivo di studiare l’incidenza dei tumori nei siti di interesse nazionale, una trattazione delle basi di questa collaborazione è disponibile su “Epidemiologia e Prevenzione”, il supplemento quattro del 2011, se qualcuno è interessato può trovare una trattazione sistematica, ma mi interessa, saltando un po’ le premesse sui siti inquinati e sull’opportunità di studiare lo stato di salute delle popolazioni che vi risiedono, partire da un dato e cioè che circa la metà dei siti di interesse nazionale sorgono in territori che sono serviti dai Registri Tumori, questo è il punto dal quale è partita la nostra collaborazione, intendendo ISS-AIRTUM. Si vede bene non solo che la metà dei siti sono serviti dai Registri Tumori ma anche che questo è uniforme su tutto il territorio nazionale, dal Nord al Sud; questo ci consente, in questa metà dei siti, di studiare l’incidenza dei tumori, che è più interessante della mortalità per i tumori, in quanto: uno, la qualità dei dati è superiore perché si fonda su una classificazione istologica e non solo su quanto riferisce il certificato di morte; due, la incidenza, a differenza della mortalità, non è influenzato dalle condizioni socio-economiche per le quali, a parità di incidenza, la mortalità è più alta nelle classi più svantaggiate che possono non avere accesso a centri specialistici e a terapie appropriate e infine il terzo motivo è che l’incidenza misura anche il carico di patologia non letale, quindi copre uno spettro più ampio di carico di patologia. Queste sono le sedi tumorali che abbiamo studiato negli adulti, preciso che tutta la parte sull’incidenza dei tumori in età pediatrica e adolescenziale è tuttora in via di definizione, è una materia particolarmente complessa e su questo diremo qualcosa prossimamente, e che come popolazione di riferimento, non avendo delle stime nazionali dell’incidenza di tumori e che non tutto il Paese è servito dai Registri Tumori, abbiamo utilizzato sia il Pool Nazionale dei Registri che hanno aderito allo studio, sia dei Pool ci macroarea, cioè Nord, Centro, Sud e Isole. Dei Registri Tumori che servono territori nei quali sono presenti siti di interesse nazionale tutti, tranne il Registro Tumori del Friuli Venezia Giulia, hanno aderito allo studio; quindi, noi vedremo i risultati relativi ai siti di interesse nazionale qui elencati salvo i due siti ubicati nel Friuli Venezia Giulia, Laguna di Grado Marano e Trieste, siccome sappiamo che non si può fare l’unità d’Italia senza Trieste, auspichiamo che in futuro anche questo Registro collabori. Nella presentazione di oggi vediamo i risultati complessivi, non vediamo sito per sito, non è questa la sede, ci interessa vedere il fenomeno nelle sue linee generali. Sul decennio considerato, 1996-2005, sulla base di circa 83.000 casi di tumore delle sedi tumorali che abbiamo precedentemente indicato, considerando l’insieme dei siti, quindi i venti siti che abbiamo definito prima, noi abbiamo, rispetto all’incidenza stimata sul Pool Nazionale dei Registri Tumori, incrementi per quanto riguarda tutti i tumori del 3%, tumori dell’esofago 15% di eccesso, fegato 45%, colecisti e vie biliari 12%, pancreas, polmone, mesotelioma, mammella, vescica, encefalo e leucemia mieloide cronica; questo è un dato di sintesi, se disaggreghiamo il dato nei due generi, vediamo, in linea generale, una coerenza fra uomini e donne, non completa, ma si ha come l’impressione che, in linea generale, correlino le distribuzioni dei tumori nei due generi, il che non è incompatibile con una modalità di esposizione diciamo generale, non legata alla sola componente professionale, che farebbe attendere un’incidenza più elevata negli uomini. Se poi suddividiamo i dati per macroarea, Nord, Centro e Sud, vediamo che complessivamente gli eccessi prevalgono sui difetti, un po’ ovunque, ma più al Sud, leggermente di più al Sud, e sempre in modo coerente nella popolazione maschile e femminile, su questo punto dei maggiori incrementi al Sud ritornerà poi il collega Ivano Iavarone quando presenterà i risultati dello studio di mortalità. Ecco, cerchiamo di commentare questi dati da un punto di vista della loro validità, seguendo un po’ la sequenza caratteristica che si utilizza quando si fa una revisione di un lavoro, la qualità del dato, questi 83.000 casi sono casi riconosciuti dalla rete dei Registri Tumori accreditati, quindi la qualità del dato di partenza è elevata, l’appropriatezza della popolazione di riferimento, diciamo che abbiamo utilizzato in questo caso le procedure adottate dall’AIRTUM, Crocetti in qualunque momento mi può contraddire o aggiungere qualcosa, perché questo lavoro è stato veramente reso possibile dal fatto che si è lavorato su questa grande base di dati che ha sede all’ISPO, a Firenze, però credo che la comparazione dei dati dei siti con il Pool Nazionale e con i pool di macroarea e sostanziale coerenza fra le due serie di popolazione di riferimento corrobori l’ipotesi che il fenomeno sia reale. La copertura temporale di un decennio, naturalmente, la estenderemo nel tempo. La precisione delle stime, noi abbiamo utilizzato degli intervalli di confidenza al 90% sulla base di quattro motivazioni che richiamo brevemente perché è un tema che è stato sollevato in alcune sedi, il primo punto è che noi intendiamo non confondere l’utilizzo della stima intervallare come misura di precisione di una stima con l’uso dell’intervallo di confidenza come Arezzo 20 - 23 novembre 2012 47 20 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute surrogato di un test d’ipotesi e soprattutto tendiamo a non confondere il test di ipotesi finalizzato a capire qual è l’errore di vedere un fenomeno che non esiste, errore del primo tipo, piuttosto che non vedere un fenomeno che esiste, errore del secondo tipo, non confondere questo con l’uso del test all’interno della teoria delle decisioni in statistica che è altra cosa. Sappiamo peraltro che il limite inferiore di un intervallo di confidenza al 90% può essere letto come un test di significatività del 5% a una coda, il che significa che ci avvaliamo dell’approccio utilizzato dagli autori che ho qui richiamato che si sono occupati nel tempo di radiazioni ionizzanti, di cloruro di vinile, di amianto, cioè di cancerogeni certi, perché volevano concentrare tutta la probabilità di un errore del primo tipo per apprezzare un eventuale incremento del rischio ma non una variazione del fenomeno osservato nelle due direzioni, non c’era un’ipotesi di vedere se faceva bene o se faceva male, si voleva capire se in quelle condizioni degli agenti dannosi per la salute producevano un danno misurabile. Poiché il progetto della collaborazione fra l’Istituto e l’AIRTUM è centrato su patologie per le quali a priori si è valutata la persuasività scientifica di un ruolo causale accertato o sospettato di queste esposizioni, è sensato utilizzare, in questo senso, l’intervallo di confidenza al 90%, a nostro giudizio, poi naturalmente su questa questione ognuno liberamente e autonomamente può ricalcolare i dati con altre integrali al 95%, al 99% e trarre conclusioni diverse. Tenendo conto quindi di questi problemi di validità dei dati e di disegno dello studio, noi riteniamo che il senso di questo lavoro sia un contributo a quel percorso di caratterizzazione epidemiologica dei siti inquinati di cui ha parlato la dottoressa Musmeci nel suo primo intervento e riteniamo quindi che, avendo evidenziato in numerose sedi tumorali incrementi significativi dell’incidenza dei tumori maligni, in modo coerente nei due generi, nella popolazione adulta, perché, come ho detto, sulla popolazione in età pediatrica dobbiamo ancora concludere il lavoro, sia ora il caso di passare alla seconda fase del progetto che consiste nell’esaminare i dati nei singoli siti, precisando, in funzione dei contaminanti presenti in quei siti, in funzione degli inquinanti indice, ecco, attraverso questo approccio e quindi formulando poi delle ipotesi eziologiche mirate nei vari siti, andare a vedere se c’è una corrispondenza tra il profilo delle sostanze cancerogene presenti e il profilo degli organi bersaglio interessati. Grazie 48 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 20 Novembre La valutazione della salute in Siti Contaminati "Stima della frazione di tumori attribuibili a esposizioni ambientali: dati epidemiologici in Italia" Diego Serraino IRCCS Aviano Grazie dell’invito, sarò brevissimo perché devo ripartire subito per Pordenone. È un vero piacere discutere con voi di questo argomento che, come epidemiologo dei tumori, ho sempre seguito da tempo, anche con un interesse personale. Quello che cerco di sviluppare brevemente oggi è questo. abbiamo delle conoscenze accettate nel mondo, mondo industriale, dove l’Agenzia Internazionale per la Ricerca sul Cancro e American Association for Cancer Research, sostanzialmente, la stima media, per tutti i Paesi industrializzati, che attribuisce le varie quote del rischio, quindi della prevenzione e delle azioni che noi potremmo fare, sotto i 65 anni di età, per limitare una buona quota di tumori, parlo dell’89% dei tumori, attribuisce all’inquinamento ambientale il 2%; chiariamo subito che l’inquinamento ambientale non è occupazionale, non è stile di vita, non è infezioni, è proprio dove noi non possiamo fare a meno di respirare, possiamo cambiare l’acqua, possiamo mangiare diversamente ma di respirare proprio non possiamo farne a meno. Vediamo rapidamente le stime (slide), sono del 2012, il report è scaricabile da Internet, basta cliccare AACR, e questa è l’ipotesi di partenza, nel mio ragionamento che cerco di sviluppare con voi. Allora, mi domando se abbiamo raccolto delle evidenze nel nostro Paese tali da smentire quella media, se abbiamo raccolto strumenti, se ci striamo attrezzando per dire che in alcune aree quello non è vero, perché quella media va dallo 0,1% al 30%. Chiaramente, quello che vi ho fatto vedere prima, è nettamente in contrasto con quello che hanno messo sui giornali su Taranto dove si è arrivati a parlare del 419% dei tumori attribuibili all’inquinamento, evidentemente noi possiamo immaginare i retroscena che ci hanno portato a questa situazione però, come epidemiologi dei tumori, corriamo dei grossi rischi, perché chiaramente se nella divulgazione, nella prevenzione devo parlare di come e cosa devo fare per la popolazione per diminuire il rischio di cancro sotto i 65 anni, diciamo 65 perché non è che i tumori sono prevenibili a 100 anni, sono prevenibili a una certa età, perché noi siamo semplicemente elementi di una specie che ha già disegnato nel corredo genetico, e poi nell’epigenetica, il nostro destino di individui e membri di questa specie. Qual è il rapporto tra il 2% della IARC, della AACR e il 419% del “Quotidiano di Puglia” o del “Sole 24 Ore”? Questo, ovviamente, non c’entra nulla con i miei colleghi, loro hanno fatto il loro lavoro, le notizie poi prendono altre strade. Una precisazione, si scrive cancro ma non si legge cancro, il cancro sostanzialmente non esiste, esistono le malattie neoplastiche, che sono più di 200, oggi sono 230 perché siamo capaci ha caratterizzarle molecolarmente, ognuna di queste caratterizzazioni ha o grandi gruppi di fattori di rischio oppure determinati fattori di rischio, ma questi sono specifici o almeno per i gruppi o per le patologie, ma nel caso del cancro del polmone, per esempio, sono specifici per un tipo istologico del cancro del polmone, quindi c’è una complessità enorme nello studio di queste malattie. Ho raggruppato alcuni esempi (slide); noi sappiamo che il cancro della vescica ha sicuramente a che fare con una quota che ha a che fare con l’inquinamento dell’acqua, il polmone con una quota, più o meno tra il 5/8%, dipende da dove siamo, che ha a che fare con l’inquinamento dell’aria, qui ci sono tutti tumore del tratto aereo superiore, perché evidentemente gli inquinamenti ambientali arrivano fino qua, dopodiché fino ai polmoni e poi entrano in gioco altri fattori. Per passare al nesso di causalità, noi dobbiamo tener conto di quello che sappiamo per tutte le malattie, in particolare per le malattie cronico degenerative, quindi specificità dell’esposizione, timing, dose durata. Quella persona è stata esposta a quello e quando? È stata esposta il tempo sufficiente perché inizi la cancerogenesi, è un processo multi stage che ha perlomeno quattro tappe, che si sviluppa con la vita, con la durata, se non invecchi non riesci a sviluppare un tumore e qual è il fattore iniziatore, mediatore e poi finale? C’è una coerenza temporale tra esposizione e tempo di latenza? C’è una coerenza biologica? C’è una coerenza con quello che trovo nelle evidenze della letteratura? Questo è cruciale perché nessuno di noi può pensare di scoprire le cause del cancro con un tasso di mortalità, questo è evidente. Brevemente, per chi non ha familiarità con … dei tumori, ci sono solo due tumori che conoscono un fattore necessario, il cancro della cervice uterina e sarcoma di Kaposi, sono due infezioni, questo vuol dire che il 100% di quei tumori non può esserci senza quelle infezioni, poi ci sono due tumori per cui, diciamo, sono quasi condizioni necessarie, uno è l’esposizione occupazionale all’asbesto nel mesotelioma pleurico e l’altro è il fumo nel cancro al polmone. Se in termini giornalistici di diffusione noi segniamo la colpa e la causa, in epidemiologia in realtà non esiste, perché la causa non c’è. Pensate che solo per 5.000/10.000 donne che si infettano per HPV, una svilupperà il cancro della cervice, ci vogliono 10.000 infetti con KSHV per fare un sarcoma di Kaposi, ci vogliono per lo meno 8.000 fumatori perché uno sviluppi un cancro al polmone, questo ci dice, nella complessità del fenomeno, della nostra impossibilità di associare una causa effetto con degli strumenti che possono non risultare tali. Tecnicamente noi abbiamo bisogno della frazione attribuibile, quindi che si calcoli in un modo piuttosto complesso il rischio relativo degli esposti meno il rischio relativo dei non esposti diviso gli esposto, questo solo per dirvi che ci serve un rischio relativo, che ci serve un’esposizione ma che ci serve un rischio relativo per quella persona, per quella esposizione, per quel periodo. Il collega Comba prima chiedeva Arezzo 20 - 23 novembre 2012 49 20 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute perché il Friuli Venezia Giulia non partecipa a Sentieri, noi partecipiamo volentieri a Sentieri, però partecipiamo con l’uso concordato dei tassi, questa è un po’ la situazione; abbiamo anche un problema, c’è anche un rappresentate della proprietà del nostro Registro, io sono solo il direttore e non sono il proprietario, e la Regione ha in corso un processo, la situazione è un po’ complessa, sono due i problemi che abbiamo, uno di discussione scientifica tra di noi e uno pratico, legale. Rapidamente, vediamo come hanno affrontato il problema in Cina. La Cina è oggi il Paese più inquinato del mondo dal punto di vista industriale, lo sarà, penso, per i prossimi quindici anni. In questo studio che è stato fatto in 32 aree cinesi, vedete che la media del livello di particolato nell’aria è di 250 che sarà, se ho capito bene, cinque volte la nostra, una coorte di 70.000 persone, l’esposizione ambientale misurata con il proxy della residenza, l’outcome la mortalità, un’analisi fatta bene, trovano loro un grande rischio di cancro al polmone, più o meno il 4% all’aumento di 5 µg soprattutto di ossido di zolfo e non trovano altre cose. Il Canada lo stesso, il Canada è un Paese che ha una grande sorveglianza per ambiente e tumori, ha bassi livelli di inquinamento e ci dicono che su 70.000 casi di tumore della pelle e del labbro, 450 sono dovuti alle radiazioni, 280 casi di tumore del polmone dovuti al fumo passivo e lo stesso per il radon. Per il resto però non sono in grado di darci delle stime perché i livelli di esposizione ambientale a inquinanti che stanno nell’aria, mi riferisco al polmone, sono troppo bassi. Sostanzialmente, quello che noi non riusciamo a fare, non riescono a farlo neanche i canadesi. In Italia sono stati fatti molti studi, incomincerò dalla mia regione, il Friuli Venezia Giulia, Fabio Barbone, epidemiologo che studia molto l’ambiente, ha fatto uno studio molto accurato, con i colleghi di Trieste, sul cancro del polmone nell’area cittadina con varie ipotesi, volevano indagare la relazione tra l’inquinamento di origine urbana, quindi avevano separato l’urbano, l’industriale e i tipo istologici, questo è molto importante perché come vi dicevo, abbiamo due tipi, uno associato al fumo delle sigarette e uno che non c’entra nulla con il fumo di sigarette. Fanno uno studio a caso–controllo, 750 casi, 750 controlli, racolgono per ognuno di questi, tramiti i sopravvissuti, perché alcuni erano morti, varie informazioni sui fattori di confondimento e calcolano una percentuale del 95%, anche questa è una questione tecnica, cui ha accennato il collega Comba, molto importante, perché questa è una visione diversa, è una visione che presuppone che noi non sappiamo cosa c’è in realtà, diciamo che non lo sappiamo, ci prendiamo pochi rischi sui falsi positivi perché non vogliamo avere dei falsi positivi, però rischiamo di avere dei falsi negativi. Questa è un po’ la visione, il 90% prende il 10% di rischio, 1 su 10, il 5%, ne prende la metà, è però un’impostazione, non è né giusta né sbagliata, sono semplicemente due visioni diverse. Questa è l’area (slide), questo è il mare a Trieste, le tre “B” sono le zone industriali, il “C” è il centro, più si va in qua meglio si vive, la bora soffia in questa direzione quindi chi vive nella collina o chi vive nella zona residenziale, perché non solo non è vicino ma ha pure la bora e sta sopra vento alla bora che porta gli inquinanti da questa parte. Per farla breve, trovano un rischio aumentato dal 40% al 50% di cancro al polmone del tipo istologico che deve essere, quindi una conferma molto sostanziale, questo viene associato all’esposizione di particolato; è importante che dicano che questo è possibile, è probabile, lo studio è stato fatto nel miglior modo possibile, ma non abbiamo la valutazione individuale, c’è un confondimento possibile residuo, ci sono altri fattori che noi conosciamo, fumo passivo, nutrizionali, eccetera. Questo è lo studio individuale, diversi sono gli approcci come questo di Milazzo, vicino alla raffineria, anche questo di coorte, il proxy è sempre vicino all’area, si crea una coorte, questa è piccola perché è una coorte di sole 450 persone, quindi non dà la possibilità di fare delle analisi approfondite, infatti gli autori dicono che il quadro che emerge da questa analisi sostanzialmente non mette anomalie, chiaramente c’è il monitoraggio, più o meno lo stesso discorso per lo studio sempre che valuta l’esposizioni ambientali usando il proxy della residenza sulle centrali nucleari, vicino a Latina, questa è una coorte più forte, perché mi sembra che abbia qualche migliaio di persone con dei numeri osservati importanti e questi sono solo valutazioni del rischio per tumori radiosensibili, questo è un SIR, ha Latina c’è un Registro Tumori, quindi il rapporto tra l’incidenza, mi aspetto X numero di tumori, perché comunque questi tumori ci sono indipendentemente dalla centrale, ne trovo altri, che cosa troco? Su questo rapporto ci trovano un aumento di cancro della tiroide, una cosa ragionevole, è stato sempre pensato che questo fosse possibile, dai tempi di Chernobyl, abbiamo ricevuto mote pressioni da questo punto di vista, l’aumento che trovano nelle donne è sostanzialmente un aumento trainato da questo della tiroide. Naturalmente, le conclusioni sono che c’è un aumento del tumore della tiroide nell’intera area ma non c’è la possibilità di formulare una relazione con la centrale, probabilmente in quell’area c’è, il monitoraggio diagnostico è un’arma a doppio taglio, perché il monitoraggio diagnostico è il principale motivo per cui noi oggi vediamo un aumento di tumori della tiroide. Di Sentieri sapete già tutto, due cose che mi servono per agganciare la vostra attenzione, dove il mio ragionamento va, è uno studio ecologico che genera ipotesi e questo è principale motivo di ragionamento, non le può testare, l’outcome è la mortalità, l’esposizione è la residenza più o meno recente, se ho capito bene, come proxy l’esposizione a inquinanti e come confondente si può usare lo stato socioeconomico. Uno studio così grande come Sentieri ovviamente fa fatica ad andare nel dettaglio, è uno studio che genera ipotesi che vanno poi testate. Nell’aggiornamento del 2009 che ha dato parecchio da discutere, emergono molti dati, ma emergono tutti questi test, allora c’è un punto in cui si può discutere del 90%, guardate la colonna degli aggiustati per stato socioeconomico, chiaramente è un marker di tutti i fattori, c’è la mortalità aumentata del 10%, soprattutto quella infettiva parassitaria, 50 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 20 Novembre vari tumori ma insomma, quello che emerge bene è il tumore del polmone, come ci si può aspettare, il melanoma della pelle, nelle donne, una cosa che si vede molto bene è l’aumento delle malattie infettive e soprattutto delle epatite virale, una cosa che uno può collegare direttamente con l’aumento del tumore del fegato; un altro punto, sul cancro del polmone, che viene a 120, uno si trova al 100,1 di intervallo e lì scaturisce la discussione sull’intervallo al 90%, perché c’è un’ipotesi a priori, ragionevole, non stiamo parlando di chi sbaglia e di chi non sbaglia, c’è un’impostazione che mi dice già che vado a testare e trovo quello, chiaramente al 95% moltiplicando l’errore standard per 1,96, quello non si trova. La conclusione degli autori mi trova in totale sintonia, perché c’è chiaramente uno stato di malattia più diffusa e poi c’è il problema di tutto il monitoraggio. Un passo successivo è quello della coorte, su Taranto, sempre sul proxy della residenza, la coorte è costituita da migliaia di persone, un enorme potere statistico, il rischio che viene misurato con il 95% dell’intervallo si focalizza soprattutto sul polmone, hanno trovato un rischio dell’80% del polmone nel quartiere Paolo VI, e questo è il tumore che noi sappiamo che, ragionevolmente, una buona quota di questi è associata a inquinamento, non ci sono evidenze per prostata, rene e pancreas, adesso, per dire che questi tumori abbiano una relazione di causa effetto con l’ambiente. Il ragionamento sostanziale è questo, le conclusioni sono perfettamente inquadrate nei risultati, sempre, questa è una cosa che non è mai sfuggita, semplicemente lì si nota un aumento. Le mie considerazioni conclusive sono che tutti i nostri dati italiani, questi di Sentieri sono ovviamente i più importanti, sia per le dimensioni, per a omogeneità di quanto raccolto, ci portano, ci indirizzano verso il cancro del polmone e ci dicono di studiare il cancro del polmone nelle varie zone con gli studi analitici e ci chiedono di esprimere quanti tumori del polmone non ci sarebbero stati se quegli effetti di inquinamento fossero … io rimango sempre dell’idea che però non ho visto evidenze per le altre malattie neoplastiche e penso che questa sia una cosa molto importante da discutere, perché se delle associazioni non note esistono e vanno verso un nesso causale, probabilmente dobbiamo fare quello che hanno fatto tutti, per arrivare qui, questo è il 30% di cancro del polmone, ci sono voluti 50 anni di studi e circa 15.000 lavori scientifici pubblicati. Questa è la realtà, è complicato però è questo, il nesso di casualità. Vi ringrazio molto per l’attenzione e vi auguro buona serata. Arezzo 20 - 23 novembre 2012 51 20 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute La valutazione della salute in Siti Contaminati "L'uso delle Schede di Dimissione Ospedaliera (SDO) nello studio di morbosità in Siti Contaminati" Susanna ContiIstituto Superiore di Sanità Buonasera a tutti. Io sono Susanna Conti, la direttora dell’Ufficio di Statistica dell’Istituto Superiore di sanità, ancorché una delle coautrici del rapporto che riguarda la salute dei residenti nei siti contaminati che avete visto prima. Vi parlerò di un altro tipo di fonti di dati che si può utilizzare per studiare lo stato di salute delle persone che risiedono nei siti contaminati: le SDO. Tutti noi conosciamo questa fonte informativa, le schede di dimissione ospedaliera, che sono raccolte su tutto il territorio nazionale; si tratta di una massa rilevante di dati, parliamo di circa 11 milioni di schede ogni anno; i punti che io toccherò rapidamente sono quelli che vedete qui (slide) sommarizzati. In primo luogo, parliamo di analisi non dei ricoveri ma dei ricoverati: infatti, nel database nazionale, di cui disponiamo, presso l’Ufficio di Statistica dell’ISS, basato sui dati del Ministero della Salute, abbiamo un codice che è anonimo per motivi di confidenzialità, e che però identifica univocamente i pazienti; quindi noi siamo in grado di seguire nel tempo e nello spazio una stessa persona nel corso della sua storia di ricoveri. Come popolazione di studio, prenderemo le persone residenti nei siti contaminati durante il periodo considerato, che siano avvenute nelle strutture sanitarie dell’intero territorio nazionale, perché noi ci basiamo sul dato residenziale; considereremo l’evento primo ricovero eliminando i ricoveri ripetuti, riferiti allo stesso individuo e alla stessa causa nel periodo considerato. La nostra analisi riguarderà l’insieme di ricoveri ordinari e in day hospital di tipo acuto, nel senso che abbiamo escluso altre tipologie assistenziali quali ad esempio i ricoveri nelle riabilitazioni ie nelle lungodegenze che riguardano degli altri aspetti sanitari. Un punto interessante, su cui ci siamo soffermati anche con dei ragionamenti metodologici, è la questione di quale/i diagnosi prendere in considerazione; in ciascuna scheda di dimissione ospedaliera vi sono fino a sei diagnosi, una cosiddetta principale, e fino a cinque diagnosi secondarie. Noi abbiamo fatto una scelta conservativa di esaminare solo la diagnosi principale; scelta conservativa vuol che eventualmente può essere una sottostima, che abbiamo operata alla luce di vari e autorevoli studi sia nazionali che internazionali; studi italiani che hanno messo a confronto le cartelle cliniche con le SDO al fine di studiare accuratezza e completezza delle diagnosi hanno dimostrato una sufficiente accuratezza con cui viene compilata la diagnosi principale rispetto ad altre diagnosi secondarie la cui registrazione si presenta spesso lacunosa. Inoltre, altri qualificati studi, sia italiani che internazionali, hanno dimostrato che le misure basate sulla diagnosi principale sono più specifiche e danno quindi luogo a un minor numero di falsi positivi, mentre le misure che prendono in considerazione tutte le diagnosi sono più sensibili e quindi danno luogo a meno falsi negativi. Come sappiamo, tutte le analisi epidemiologiche vanno condotte per genere; inoltre, nel caso specifico della possibilità di indagare su associazioni con esposizione ambientali, sappiamo che se si prendono in considerazione separatamente uomini e donne si può di distinguere tra un’esposizione di tipo lavorativo- il nostro mondo del lavoro è prevalentemente maschile - rispetto a un’esposizione ambientale; faremo anche delle analisi separate per età, prendendo in considerazione l’insieme delle età e poi la classe di età molto importante che è quella dei bambini/adolescenti che presentano condizioni di particolare vulnerabilità. Come abbiamo scelto le cause? Poiché il nostro scopo è quello di studiare i ricoveri per patologie che possono risentire di fattori di inquinamento ambientale, in primo luogo abbiamo escluso le cause violente e anche i parti con le loro conseguenze. Abbiamo esaminato dei grandi gruppi di patologie quali: le malattie infettive, i tumori, le malattie del sistema nervoso, del sistema circolatorio, del sistema respiratorio, del sistema digestivo e di quello urinario; all’interno di particolari, importanti e rilevanti gruppi di patologie (tumori, circolatorie e respiratorie) svolgeremo un’analisi di dettaglio; per quanto riguarda bambini e adolescenti, vengono esaminati tutti i tumori, i tumori del sistema nervoso centrale, del sistema di linfoematopoietico, in particolare leucemie, le malattie respiratorie acute, l’asma e le malformazioni congenite. Nella slide che sto mostrando vedete riportate le cause con la relativa codifica con il sistema adottato a livello internazionale che è il cosiddetto ICD9-CM, dove ICD è mutuato dall’International Classification of Diseases , usato per le cause di morte e CM sta per Clinical Modifications. Per quanto riguarda l’arco temporale; le SDO hanno un livello di tempestività migliore rispetto ai dati di mortalità, nel senso che noi , alla fine del 2012, abbiamo le SDO del 2010 e stiamo per disporre di quelle del 2011 e pensiamo di andare indietro per un quinquennio; tra l’altro, come dicevo prima, poiché ragioniamo “a colpi” di decine di milioni di osservazioni, non abbiamo problemi di numerosità e questo ci consente anche, da un punto di vista statistico, di essere confidenti nella stabilità dei nostri valori anche quando andiamo a considerare siti che, come sappiamo, sono costituiti da comuni, alcuni anche piccoli. 52 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 20 Novembre Per quanto riguarda gli Indici statistici calcolati, come ho detto, ad esclusione della classe di età dei bambini e adolescenti, per la quale la suddivisione per genere non è informativa, le analisi saranno appunto suddivise per genere; andremo a calcolare il numero assoluto dei ricoveri e poi un indice che mutua la definizione del suo omonimo come sigla; nel senso che l’SMR di solito è il rapporto standardizzato di mortalità; in questo caso M sta per morbidità; noi andiamo con questo indice a comparare il numero dei ricoverati di una certa popolazione con il numero di ricoverati attesi secondo la distribuzione, in questo caso di morbosità, in una popolazione che scegliamo come riferimento; mutuando lo schema di analisi e di confronto che abbiamo scelto per il Progetto Sentieri, avremo come riferimento la Regione in cui si trova il Sito in esame. Ovviamente, alla stima puntuale di questo indicatore assoceremo un intervallo di confidenza al 90%; la motivazione di questa scelta è stata efficacemente argomentata nell’intervento di Pietro Comba. Arezzo 20 - 23 novembre 2012 53 20 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute La valutazione della salute in Siti Contaminati "I risultati dello studio Sentieri" Ivano Iavarone Istituto Superiore di Sanità La richiesta di strumenti valutativi, sia a livello locale (ASL, Comuni, Regioni, etc) che centrale (Ministeri dell’Ambiente e della Salute), per analizzare lo stato di salute delle popolazioni residenti nei siti contaminati è aumentata notevolmente negli ultimi anni. Grazie anche all’impegno diretto del Presidente dell’Istituto Superiore di Sanità, si è avuta per la prima volta l’opportunità di avviare un Programma Strategico Nazionale Ambiente e Salute finalizzato proprio ad affrontare questa tematica. Uno dei sei progetti afferenti al Programma Strategico ha dato origine a SENTIERI, lo Studio Epidemiologico Nazionale dei Territori ed Insediamenti Esposti a Rischio di Inquinamento. Il principale obiettivo di SENTIERI è stato di di analizzare i profili di mortalità delle popolazioni residenti nei territori inclusi nella perimetrazione dei Siti di Interesse Nazionale per le bonifiche ambientali (SIN), e di valutare se e quanto tali profili si discostassero dal quadro di mortalità di adeguate popolazioni di riferimento. Questo studio ha un carattere multistituzionale e multidisciplinare, e un aspetto innovativo è quello della standardizzazione del metodo che ha consentito di affrontare lo studio delle aree contaminate distribuite sull’intero territorio nazionale attraverso un approccio analitico coerente. Un’altra caratteristica peculiare di SENTIERI è rappresentata dal fatto che in questo studio si è proceduto a definire criteri di lettura e di interpretazione dei risultati sulla base della valutazione a priori delle evidenze epidemiologiche relative all’associazione tra le diverse cause di morte analizzate e le diverse tipologie di sorgenti di emissione e rilascio presenti nei siti. Questo approccio ha quindi permesso l’interpretazione dei dati epidemiologici avvalendosi di criteri di lettura chiari ed esplicitati prima della produzione dei risultati. Questa attività ha dato luogo, nel novembre 2010, alla prima pubblicazione del progetto (Pirastu et al., 2010), dove viene riassunta la valutazione dell’evidenza epidemiologica per ognuna delle combinazioni tra le 63 cause di morte e le 9 tipologie di esposizioni ambientali presenti nei SIN (presenza di impianti chimici, industrie petrolchimiche e raffinerie, centrali elettriche, siderurgia, centrale elettriche, miniere e/o cave, aree portuali, amianto o altre fibre minerali, discariche e inceneritori); la stessa analisi ha riguardato anche altri fattori di rischio (inquinamento atmosferico, fumo attivo e passivo, alcool, stato socioeconmico ed occupazione). Nel novembre 2011 sono stati pubblicati i risultati dello studio SENTIERI (Pirastu et al., 2011). Si sottolinea che questo studio non ha l’obiettivo di stimare il rischio di mortalità attribuibile alle esposizioni ambientali presenti nei SIN, quanto di offrire ciò che viene richiesto da un punto di vista di sanità pubblica, uno strumento cioè che consenta di valutare il profilo dello stato di salute delle popolazioni che risiedono in siti contaminati. Il parametro epidemiologico adottato è il Rapporto Standardizzato di Mortalità (SMR), corretto e non corretto per indice di deprivazione socio economica. SENTIERI ha considerato 44 SIN, con una popolazione complessiva di 5.500.000 abitanti; i 44 siti differiscono sia per la numerosità della popolazione (si va da poche migliaia di abitanti fino a decine e centinaia di migliaia di abitanti per i siti più complessi), sia soprattutto per il tipo di sorgente di contaminazione: ci sono SIN con singole contaminazioni, quali amianto, o derivanti dalla presenza di specifiche industrie, per esempio chimiche o discariche, a fronte di una presenza cospicua di siti nei quali sono presenti contemporaneamente più sorgenti di contaminazione, spesso intimamente connesse anche ad grandi contesti urbani. I risultati dello studio di mortalità relativi ai singoli SIN sono descritti nel lavoro pubblicato (Pirastu et al., 2011), mentre, in questa sede, si riassume il quadro della mortalità nel complesso dei 44 SIN oggetto dell’indagine. SENTIERI ha stimato che sul periodo 1995-2002, rispetto ai riferimenti regionali, vi sono stati circa 3.500 decessi in eccesso per le sole cause per le quali l’evidenza di associazione con le fonti inquinanti presenti nei SIN era risultata sufficiente o limitata. Considerando singole tipologie di contaminazione, si è stimato inoltre che, ad esempio, nei 12 SIN documentata presenza di amianto i decessi in eccesso per i tumori maligni del polmone e della pleura sono stati rispettivamente 330 e 416, mentre 341 decessi per le malattie dell’apparato respiratorio sono stati osservati in eccesso nei 7 SIN con presenza di impianti siderurgici. Se l’analisi viene ristretta ai principali gruppi di cause di morte, si osserva che, complessivamente, SENTIERI ha individuato 10.000 morti in eccesso nei 44 SIN sul periodo di 8 anni. Ciò, va sottolineato, non equivale ad affermare che tali decessi sono attribuibili esclusivamente ad esposizioni ambientali, ma rappresenta il quadro complessivo di mortalità delle popolazioni che risiedono nei siti. Quest’ultimo risultato possiede, altresì, un importante interesse da un punto di vista di sanità pubblica in quanto consente di conoscere lo stato di salute delle popolazioni che risiedono nei SIN rispetto alla popolazione generale. L’analisi per macroarea geografica, inoltre, evidenzia che gli eccessi di mortalità sono prevalentemente presenti nei siti del Centro-Sud e del Sud di Italia. L’analisi della distribuzione della mortalità per grandi gruppi di cause mostra che il 42% e il 19% dei 403.000 decessi osservati complessivamente in 8 anni nei 44 SIN sono a carico rispettivamente delle malattie cardiovascolari e 54 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 20 Novembre dei tumori; è interessante notare che quando l’analisi si restringe ai soli 10.000 decessi in eccesso per le cause che a priori mostrano un’evidenza sufficiente o limitata di associazione con le fonti inquinanti presenti nei SIN, la distribuzione per gruppi di cause si inverte, con il 43% che si riferisce a tumori e il 19% alle malattie cardiovascolari. Sebbene non sia semplice attribuire uno specifico significato a questo cambiamento di distribuzione, occorre in ogni caso prendere atto che, oggettivamente, il profilo di mortalità nei siti di interesse nazionale per le bonifiche presenta importanti elementi differenziali rispetto a quello della popolazione generale. Per quanto riguarda i 12 siti con presenza di amianto, un recente aggiornamento al 2009 dell’analisi della mortalità mostra risultati coerenti con quelli osservati per il primo periodo (1995-2002), elemento questo che permette di valutare, per quanto riguarda questa causa, che gli incrementi di mortalità negli uomini e nelle donne permangono anche nei periodi più recenti. Recentemente, su richiesta del Ministero della Salute, è stato prodotto un documento di aggiornamento di SENTIERI sia sui dati di mortalità che sulle evidenze epidemiologiche disponibili riguardo alla situazione del SIN di Taranto e. Per quanto riguarda le cause per le quali c’era un’evidenza a priori sufficiente o limitata di associazione con le esposizioni presenti nel SIN, si è registrata una forte consistenza di risultati, con eccessi di rischio in entrambi i periodi (1995-2002 e 2003-2009); questo risultato è evidente anche per altre cause di morte per le quali l’evidenza a priori di associazione con le fonti di contaminazione ambientale era risultata inadeguata. I principali limiti dello studio SENTIERI sono rappresentati dalla carente valutazione dell’esposizione e dall’impiego della mortalità quale unico indicatore dello stato di salute. Sono in corso approfondimenti che impiegano altri eventi sanitari quali l’incidenza di malformazione congenite, di tumori e di ricoveri ospedalieri da valutare in relazione alla presenza di inquinanti di interesse tossicologico, quindi partendo possibilmente da ipotesi eziologiche specifiche. La giustizia ambientale e l’equità sono altri temi particolarmente rilevanti nel valutare lo stato di salute delle popolazioni residenti nei SIN. Circa il 60% dei 298 comuni che rientrano nella perimetrazione dei SIN studiati da SENTIERI appartengono infatti ai due quintili più deprivati da un punto di vista socio-economico. Quindi, chi risiede nei siti contaminati oltre a poter sperimentare elevate esposizioni ad inquinanti ambientali potrebbe anche avere esposizioni ad altri fattori di rischio non ambientali, e di questo si è tenuto conto nella stima degli SMR grazie alla correzione per un indice di deprivazione. Un altro approfondimento dello studio SENTIERI attualmente in corso è la valutazione dello stato di salute dell’infanzia. I risultati preliminari della mortalità per alcuni grandi gruppi di cause tra i bambini di età 0-1, 0-14 e 0-19 anni, per il periodo 1995-2009 (esclusi gli anni 2004 e 2005 a causa di una interruzione della procedura di codifica nel sistema italiano di registrazione della mortalità) sono stati presentati al convegno annuale della Società Internazionale di Epidemiologia Ambientale, ISEE (Iavarone et al., 2012). I risultati mostrano ch, nell’insieme dei 44 SIN, la mortalità per tutte le cause e per condizioni morbose di origine perinatale nella classe 0-1 anno è rispettivamente del 4% (SMR = 104, IC 90% 101-107) e del 5% più elevata (SMR = 105, IC 90% 102-110) in confronto a quanto osservato tra i bambini italiani di eguale età. La mortalità infantile nei singoli siti, studiata utilizzando i tassi di riferimento regionali, mostra inoltre che in 8 SIN su 44 (18%), la mortalità generale è significativamente aumentata nella classe di età 0-1 e in 11 SIN (25%) un incremento di rischio significativo è presente in uno o più gruppi di età (0-1, 0-14 e 0-19). L’elevato numero di bambini che vivono in prossimità di siti inquinati e i potenziali rischi per la salute associati alle esposizioni ambientali fanno sì che il loro studio sia una priorità indiscutibile. La valutazione dello stato di salute infantile verrà approfondito anche attraverso lo studio di eventi sanitari diversi dalla mortalità, quali l’incidenza tumorale, la prevalenza di malformazioni congenite, i ricoveri ospedalieri e, possibilmente, le informazioni desumibili dai certificati di assistenza al parto (CeDAP). Nel complesso, i risultati globali della mortalità suggeriscono che lo stato di salute dei residenti nei SIN è meno favorevole rispetto ai riferimenti regionali, L’analisi della mortalità nei singoli SIN, complementare all’analisi di insieme, è utile in quanto consente di individuare gli elementi che possono essere utilizzati localmente per la definizione di interventi di sanità pubblica e di risanamento ambientale, e per indirizzare la ricerca verso studi che consentano di completare il quadro informativo. In conclusione, il processo di valutazione dello stato di salute delle popolazione residenti nei siti contaminati dovrebbe favorire l’interazione multi-istituzionale e multidisciplinare dei ricercatori al fine di ottimizzare il disegno degli studi e i metodi di analisi, integrando opportunamente le osservazioni epidemiologiche e le stime dell’esposizione ambientale. Inoltre, da un punto di vista di corretta gestione dei rischi sanitari, occorrerebbe porre la giusta attenzione su come fondare i processi di condivisione dei risultati delle indagini con i Ministeri della Salute e dell’Ambiente, le Regioni, le ASL, le ARPA e i Comuni interessati, per l’attivazione di sinergie fra le strutture pubbliche con competenze in materia di protezione dell’ambiente e di tutela della salute, e su questa base avviare i processi di comunicazione con le popolazioni scientificamente fondati e trasparenti. Bibliografia Pirastu R, Ancona C, Iavarone I, Mitis F, Zona A, Comba P; SENTIERI Working Group. SENTIERI Project. Mortality study of residents in Italian polluted sites: evaluation of the epidemiological evidence. Epidemiol Prev 2010 Sep- Arezzo 20 - 23 novembre 2012 55 20 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute Dec;34(5-6 Suppl 3):1-96. Pirastu R, Iavarone I, Pasetto R, Zona A, Comba P. SENTIERI Project. Mortality study of residents in Italian polluted sites: Results. Epidemiol Prev 2011 Sep-Dec;35(5-6 Suppl 4):1-204. Iavarone I, Pisani P, Maule M, Bianchi F, De Santis M, Comba P, Pirastu, R. Children Health in Italian Polluted Sites. Epidemiology. 23(5S), September 2012. Poster presented at ISEE 2012- 26-30 August, Columbia, south Carolina (USA). 56 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 20 Novembre La valutazione della salute in Siti Contaminati "Stato d'attuazione degli interventi di bonifica a livello nazionale: i dati ISPRA" Laura D’AprileISPRA Intanto, ringrazio gli organizzatori e i presidenti di sessione per opportunità. Il mio intervento, che è l’unico del comparto ambientale, sarà brevissimo, perché io cercherò di focalizzare, rispetto a tutte le slide che avevo preparato, su alcuni aspetti che sono stati affrontati dai relatori che mi hanno preceduto, in modo tale da consegnare un quadro speculare rispetto a quello relativo alle evidenze sanitarie. L’ISPRA è centro di competenza nazionale, per la rete EIONET (European Environment Information and Observation Network), una rete europea di raccolta dei dati ambientali, e quindi è chiamata dalla Commissione Europea, e nello specifico dal JRC della Commissione che ha in questo momento la competenza sulla raccolta dei dati sui siti contaminati, a riportare il quadro, in termini di dati ed informazioni, sullo stato di avanzamento dei procedimenti di bonifica dei siti contaminati a livello nazionale. Sui 57 siti di interesse nazionale si è detto già moltissimo, quindi non mi soffermerò, mi soffermo proprio sull’essenza della presentazione. Questi sono i dati pubblicati nell’Annuario dei Dati Ambientali 2012, aggiornati per alcune regioni addirittura a marzo/aprile 2012, che riportano il quadro dei siti potenzialmente contaminati inseriti o inseribili nelle anagrafi regionali dei siti contaminati o comunque nei database costruiti a livello regionale: siti potenzialmente contaminati accertati, siti contaminati, siti con interventi avviati e siti bonificati. Questa classificazione che ricalca la richiesta dell’autorità EIONET, ci consente di avere un quadro oserei dire pressoché completo. Fin qui si è parlato di conseguenze della contaminazione sulla salute umana per alcuni Siti di Interesse Nazionale, però alcune considerazioni le possiamo trarre sicuramente anche dall’esame di questa tabella. Innanzitutto, sulla raccolta dati e sulla comunicazione di questi dati sui siti contaminati, che a oggi, con una disposizione di legge che risale addirittura al DM 471 del 1999, ancora ci sono delle regioni che non hanno istituito l’anagrafe dei siti contaminati, quindi, a oggi, per alcune regioni, o non abbiamo il dato, non sto qui a fare l’elenco dei cattivi perché lo vedete dalla tabella, oppure abbiamo un dato che deriva da un database e non da un’anagrafe istituita a livello regionale. Le anagrafi sono state costruite sulla base di criteri di carattere generale che furono dati dall’allora ANPA, Agenzia Nazionale di Protezione per l’Ambiente, ma a oggi riportano dei dati assolutamente disomogenei tra loro. Come potete vedere dall’esame della prima colonna dei siti potenzialmente contaminati inseriti o inseribili in anagrafe, cioè quelli individuati sulla base o di analisi preliminari o sulla base dell’individuazione di una lista di attività potenzialmente contaminati, non tutte le regioni ci hanno fornito il dato; abbiamo alcune regioni, quali ad esempio la Liguria o il Molise, che non ci hanno fornito il dato sui siti potenzialmente contaminati che potrebbero essere trattati all’interno dell’anagrafe. Per quanto riguarda i siti potenzialmente contaminati accertati, quelli nei quali è stata effettuata una caratterizzazione vera e propria ai sensi della normativa vigente e quindi è stato accertato il superamento dei cosiddetti livelli di screening che per noi sono le concentrazioni soglia di contaminazione, (CSC) questi sono oltre 6.000 rispetto al complesso degli oltre 15.000 siti potenzialmente contaminati, inseriti o inseribili. I siti effettivamente contaminati, cioè quelli nei quali è stato verificato il superamento di un livello che chiameremo il “livello di rischio” che è o la “concentrazione soglia di rischio, la CSR in termini di normativa vigente, o i limiti del previgente DM 471, sono oltre 4.300. Quanti sono i siti con interventi avviati, cioè i siti per i quali sono state intraprese misure di messa in sicurezza, così come definita nell’intervento dallo stesso Ministro dell’Ambiente, o interventi di bonifica vera e propria? Qui la distinzione viene effettuata sulla base dell’uso del sito, si tratta o di siti di carattere industriale attivo o di siti residenziali o di siti addirittura dismessi; questi siti con interventi avviati sono circa 5.000. I siti bonificati, cioè i siti restituiti o restituibili agli usi legittimi sulla base di una certificazione della Provincia, sono oltre 3.000. Adesso, ricollegandoci alle considerazioni che sono state fatte negli interventi precedenti dei relatori che mi hanno preceduto, anche qui vediamo una differenziazione netta tra Nord e Sud; nella effettiva esecuzione degli interventi è chiara la distinzione tra le regioni del nord che hanno effettivamente mandato avanti queste attività di bonifica, emblematico il caso della Lombardia con 1.238 siti con certificazione di avvenuta bonifica sui 3.000 complessivi del livello nazionale, mentre ci sono le regioni del sud dove invece questi interventi di bonifica stentano a essere avviati e completati, emblematico il caso della Sicilia, già affrontato in altre occasioni dai colleghi che si occupano di sanità per i siti di Gela e Priolo, dove il numero dei siti bonificati comunicati all’Assessorato dell’Ambiente della Regione Siciliana è zero, cioè ad oggi, in Sicilia, non c’è nessun sito con certificazione di avvenuta bonifica. Forse può essere eccessivo trarre delle conclusioni, però si può dire che i dati si correlano molto bene con quelli delle evidenze di carattere sanitario. Un’altra considerazione che invece si può fare, ricollegandomi all’intervento del Ministro dell’Ambiente, è che sicuramente, laddove c’è una mancanza di interesse alla riconversione del sito e alla riconversione in un certo senso produttiva o immobiliare, il sito è fermo. La testimonianza di questo sono i 1.238 siti bonificati in Lombardia; se noi andassimo a confrontare gli ultimi dati forniti alla rete europea che sono quelli del 2008, vedremo che c’è stato un incremento spaventoso nel numero di siti con certificazione avvenuta bonifica, ovvero dei siti bonificati, perché ci sono delle grandi attività Arezzo 20 - 23 novembre 2012 57 20 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute di riqualificazione immobiliare e industriale, soprattutto immobiliare, in corso legate soprattutto alla realizzazione di interventi per l’EXPO, per cui questo grande incremento è legato a un interesse produttivo dei siti. Quindi, al di là del quadro disomogeneo dell’inserimento delle informazioni all’interno di queste anagrafi e che è evidente, ci sono comunque delle correlazioni indubbiamente interessanti che possiamo fare rispetto al quadro sanitario complessivo. Un’altra slide che volevo fare vedere, al di là di queste che riguardano la tipologia di aree contaminate e la tipologia di contaminanti all’interno dei 57 siti di interesse nazionale, è questa che mostra un dato interessante sull’individuazione, allo stato attuale, delle priorità di intervento sui siti di interesse nazionale; qui vedete la risposta che noi abbiamo fornito alla rete EIONET sulla individuazione delle priorità di intervento sui siti contaminati. Dall’Unione Europea ci venivano proposti vari temi, la perdita di biodiversità, gli ecosistemi, una serie di varie tematiche, noi abbiamo dovuto rispondere che gli interventi vengono attualmente attuati quando c’è una contaminazione prevalentemente delle acque sotterranee o un potenziale rischio di contaminazione delle acque sotterranee, possibilmente contaminazione riconducibile al mancato uso idropotabile ma abbiamo delle categorie di priorità di intervento che non vengono minimamente prese in considerazione, faccio l’esempio, uno tra tutti, quello della perdita di biodiversità, piuttosto che altre vie di esposizione che sicuramente saranno significative per la valutazione degli aspetti sanitari, come ad esempio l’accumulo della contaminazione attraverso le piante o attraverso gli animali, quindi l’ingresso nella catena alimentare, e che ad oggi, sulla base della normativa vigente, non costituiscono una priorità di intervento. Mi fermo qui, perché era la sintesi che intendevo fare. Grazie. 58 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 20 Novembre La valutazione della salute in Siti Contaminati "La valutazione economica dei potenziali benefici per la salute umana delle bonifiche" Carla GuerrieroLondon School of Hygiene and Tropical Medicine Trascrizione non revisionata dal relatore Buon pomeriggio a tutti e grazie dell’invito. Io parlerò di un tema diverso dall’ambiente e dalla salute, un tema che cerca un po’ di integrare questi due aspetti e che è l’economia. In particolar modo presenterò la valutazione dei potenziali benefici delle bonifiche in termini economici con esempi dalla Campania e dalla Sicilia. Prima farò una descrizione framework da utilizzare nell’analisi di Costo-Beneficio e poi una descrizione delle metodologie disponibili in particolar modo per valutare i benefici sanitari derivanti da interventi ambientali e poi le applicazioni pratiche dell’analisi Costo-Beneficio. Prima di tutto, perché noi dobbiamo parlare dell’analisi Costo-Beneficio? È molto importante perché ci permette di quantificare, come noi sappiamo le bonifiche costano però ci possono anche permettere di risparmiare dei soldi, basti pensare alla prevenzione di outcome sanitari che si traducono in minori costi per il sistema sanitario. L’analisi Costo-Beneficio è quindi importante perché quantifica sia i costi che i benefici che a volte sono appunto intangibili sotto un’unica metrica che è appunto quella monetaria, un approccio monetario; viene fatta per progetti di investimento nel campo dei trasporti come ad esempio i benefici di realizzare un ponte, una strada e una ferrovia ed è stata introdotta anche per le policy, ad esempio l’introduzione di una congestion charge come è stata fatta nel centro urbano di Londra. Un beneficio è ogni aumento del benessere sociale, un costo è ogni riduzione del benessere sociale, quindi quando in una policy, in un progetto di investimento, i costi sono inferiori ai benefici, si parla di costo efficace e quindi, potenzialmente, si può implementare. Esistono vari stadi dell’analisi Costo-Beneficio, la cosa più importante è definire lo scenario, cioè quale intervento vogliamo fare, per esempio che intervento di bonifica vogliamo fare, se a breve o a lungo periodo, on casting piuttosto che un trattamento on site, che alternative esistono e il periodo di tempo che noi vogliamo analizzare, poi quantifichiamo gli inquinanti che sono presenti nell’aria e che analizziamo e attraverso il dato epidemiologico quantifichiamo anche i potenziali benefici in termini sanitari, a questi benefici assegniamo un valore monetario e facciamo una stima dei costi delle bonifiche, le bonifiche sono molto care, però ci sono anche i costi da inazione come i costi per il sistema sanitario di trattare i casi derivanti dall’esposizione a inquinanti ma anche costi da inazione come le multe e le sanzioni dell’Unione Europea per procedure di infrazione come nel caso della Campania. Una volta valutati i costi, una volta valutati i benefici si fa una comparison, si valuta se l’intervento è costo-efficiente. Perché la valutazione monetaria dei benefici per la salute è comunque una cosa complessa? Perché ci sono due approcci di base, il primo, viene chiamato anche human capital approach, è il costo della malattia, quanto costa al sistema sanitario trattare un caso di asma infantile oppure nel caso di un lavoratore che ha un’asma si considera anche il costo dell’assenteismo di questo lavoratore sul posto di lavoro, è un metodo piuttosto semplice, anche piuttosto trasparente, però voi capirete che quando si tratta di malattie più serie, come ad esempio un caso di tumore, non conteggia quei costi intangibili come il dolore, la paura associata a questa malattia, la perdita, è per questo che il metodo più utilizzato è quello della willingness to pay, per willingness to pay si intende la disponibilità a pagare per la riduzione di un rischio di un determinato outcome sanitario. C’è però il problema che noi possiamo andare da un adulto a chiedere quanto è disposto a pagare per la riduzione, piuttosto piccola, di un caso di asma che avverrà nel futuro dovuto a esposizione, per esempio, a polveri sottili ma come possiamo fare questo nel caso di un bambino, non possiamo andare da un bambino e chiedere quanto è disposto a pagare, quello che si fa ad oggi è chiedere ai genitori quanto sono disposti a pagare per prevenire un outcome sanitario, però c’è il problema dell’altruismo, se chiediamo a un genitore quanto è disposto a pagare per se stesso e quanto per il figlio, il valore che dà il genitore è di gran lunga inflazionato, per questo motivo noi abbiamo deciso di fare uno step in più. Abbiamo fatto un progetto pilota che si chiama “Respiriamo la città”, fatto dalla collaborazione tra l’università in cui lavoro e lo Istituto di Fisiologia Clinica del CNR di Pisa, che vuole proprio valutare per la prima volta, a livello internazionale, la percezione del rischio proprio chiedendolo ai bambini. Abbiamo chiesto loro cosa ne pensano del rapporto ambiente e salute e abbiamo fatto anche domande che sono importanti per la willingness to pay,quindi abbiamo chiesto se loro comprendono il concetto di budget, se comprendono la corrispondenza tra beni e oggetti, la fase 2 dello studio che faremo a gennaio sarà proprio valutare per la prima volta la willingness to pay nei bambini però per outcome sanitari molto lievi che sono l’asma, la bronchite, l’allergia di cui questi bambini sono perfettamente a conoscenza. Lo studio lo stiamo facendo a Napoli, in un quartiere con seri problemi di inquinamento ambientale e quasi tutti i bambini che abbiamo intervistato soffrivano di una di queste patologie e capivano perfettamente il legame e la priorità da dare all’inquinamento ambientale. L’analisi di Costo-Beneficio è stata introdotta per la prima volta, proprio a livello dell’Unione Europea, nel 1986 ma in realtà è nel 2002 che si comincia a parlare, così come da tempo si parla in America, presso l’Environmental Protection Agency, di Impact assesessment system, quindi non più una cosa settoriale ma una cosa intersettoriale che possiamo utilizzare nei Arezzo 20 - 23 novembre 2012 59 20 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute trasporti così come nel campo sanitario, nel 2005 la Commissione Europea gli ha anche cambiato nome includendo il concetto di sostenibilità, sustainability impact assessment, e l’Unione Europea, oggi come oggi, usa l’analisi Costo-Beneficio, per esempio, il progetto Clean Air for Europe ha valutato i potenziali costi e i potenziali benefici derivanti dal migliorare la qualità dell’ambiente atmosferico in Europa. Perché fare analisi di Costo-Beneficio delle bonifiche in Italia? In Italia ci sono 57 siti di interesse nazionale, i fondi a disposizione sono molto limitati e per la maggior parte, come ha detto anche il Ministro, ci si affida a un investimento di tipo privato, è per questo che il policy maker deve decidere, in maniera trasparente, da dove cominciare nelle bonifiche, per cui l’analisi CostoBeneficio permette, dati i costi, di comparare i costi con i potenziali benefici e di decidere da dove partire, quindi di dare delle priorità a livello nazionale e a livello locale di dire anche perché fare un tipo di intervento di bonifica piuttosto che un altro. Abbiamo già fatto degli studi di Costo-Beneficio, questi sono soltanto degli esempi (slide), però sono interessanti perché pongono due diversi tipi di realtà, quella di Gela e di Priolo dove abbiamo due hotspot, cioè zone dove l’inquinamento è determinato e la popolazione esposta, rispetto al secondo esempio, è inferiore, abbiamo comparato i costi stabiliti dal Governo per la bonifica di questi siti, sia Gela che Priolo, con i potenziali benefici monetari che sono stati calcolati assegnando un valore monetario ai casi che ogni anno possiamo prevenire, casi in termini di salute, per esempio abbiamo valutato, utilizzando i dati dell’Osservatorio Epidemiologico, che ogni anno nei due siti ci sono 47 casi di morte prematura che possiamo prevenire, 281 casi di cancro e 2.700 casi di ricoveri ospedalieri, abbiamo utilizzato un approccio come minimo, perché abbiamo utilizzato i valori inferiori dell’intervallo di confidenza, quindi come minimo questi sono i casi in eccesso, considerando poi i fattori di deprivazione socioeconomica. Il caso della Campania invece, in particolar modo noi facciamo riferimento alle due aree della provincia di Napoli e della provincia di Caserta, è diverso, perché chiaramente è una zona molto estesa, anche troppo estesa, abbiamo organizzato i dati dello studio dell’OMS e utilizzando questi dati longitudinale abbiamo calcolato che ogni anno, sempre con un approccio come minimo, vi sono 848 casi annuali di morte prematura di cui 403 dovuti al cancro, a cause oncologiche, il beneficio monetario in miliardi, non più in milioni, di euro è, in questo caso di 11,6 miliardi. Quali sono le conclusioni? Come possiamo utilizzare questo dato dell’analisi Costo-Beneficio se noi in realtà non abbiamo al momento soldi disponibili per fare le bonifiche? Prima di tutto per decidere da dove partire, perché dato il budget limitato, dato il continuo interesse a livello governativo di tagliare le spese, fare un’analisi Costo-Beneficio ci aiuta a capire da dove cominciare a bonificare in Italia, quali sono gli interventi più costo-efficienti. C’è anche una buona notizia, nel 2012 la commissione Europea ha annunciato che aumenterà i fondi regionali a disposizione per il periodo 2012/2014, in particolar mondo fondi per lo sviluppo urbano sostenibile, quindi questi fondi includono anche le bonifiche di aree industriali dismesse di cui abbiamo una grande quantità in Italia, quindi utilizzare l’analisi Costo-Beneficio, che viene tuttora raccomandata all’Unione Europea per dimostrare in maniera trasparente le decisioni prese, è fondamentale perché potrebbe aiutare a giustificare e a valutare come l’impiego di fondi europei, possa aiutare a riqualificare dei siti industriali italiani. 60 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 20 Novembre La valutazione della salute in Siti Contaminati "Impatto sulla salute in area a potenziale rischio ambientale: modello e prime evidenze" Domenico Sallese Direttore Dip. Prevenzione USL 8 Arezzo L’esperienza di cui velocemente riferirò è quella non di un sito di interesse nazionale ma di una piccola area critica che avevamo nella nostra comunità. Il contesto iniziale è quello di un’azienda chimico metallurgica che affina e recupera metalli preziosi da scarto industria orafa e da rifiuti industriali, in realtà poi,crescendo, questa azienda ha avviato il recupero anche di altri rifiuti tra cui quelli ospedalieri. Nel 2007 l’azienda presenta un progetto per incrementare l’attività, quasi raddoppiandola, ma erano presenti nella valutazione delle emissioni ambientali, degli elementi di criticità quali il superamento di alcuni parametri, ossido di azoto, mercurio, diossine, che si sono ripetuti nel corso degli ultimi vent’anni. A fronte di questo è stato formulato uno studio della Agenzia Regionale di Sanità per quanto riguardava intanto l’andamento delle leucemie nel Comune di Civitella in Valdichiana, qui è venuto un primo allarme, in quanto nel quinquennio 2001/2005 si è verificato che c’era un totale di 12 leucemie contro un atteso di 4,35, quindi un rischio relativo sicuramente importante. Questo aspetto andava ben definito, infatti poi è seguito uno studio epidemiologico da parte dell’Istituto per la Prevenzione Oncologica che ha in realtà verificato che, analizzando altri quinquenni, questo incremento o non si osservava o si osservava in un arco di tempo nel quale l’azienda non era ancora attiva. L’azienda è collocata nel Comune di Civitella Loc. Badia al Pino, quindi un’area vicino all’area urbana di Arezzo, che è caratterizzata dalla presenza di altri insediamenti industriali e, non molto lontana, anche dalla presenza di un termovalorizzatore. I casi di leucemia che erano stati rilevati all’epoca sono stati georeferenziati rispetto alla distanza dall’impianto, alcuni sono vicini alla ditta, altri meno. Nella prima indagine era stato valutato di fare anche uno studio di biomonitoraggio della popolazione per cercare proprio di verificare se c’era una concentrazione di inquinanti, nel sangue e urine come matrici biologiche, che potevano giustificare un allarme legato a questa situazione ambientale. Questo è stato confrontato con valori di riferimento presenti nella popolazione generale e soprattutto è stato confrontato con una zona cosiddetta neutra, bianca, un comune del Casentino Badia Prataglia, caratterizzato da pochi insediamenti industriali. I primi risultati mettevano già in evidenza alcune criticità, per esempio antimonio, cadmio, nichel, platino che avevano valori superiori a Civitella rispetto a Badia Prataglia, soprattutto l’argento era superiore ai valori di riferimento. Per antimonio, cadmio e nichel urinario non sono emerse correlazioni significative tra la residenza e l’ubicazione della ditta e le aree di ricaduta del cadmio che è stato utilizzato come indicatore per l’area di ricaduta degli inquinanti. L’ ipotesi conclusiva è stata che forse il campione di studio non era sufficientemente numeroso. Un altro elemento che aveva un po’ preoccupato era l’analisi delle porfirine urinaria, in particolare lo spettro delle porfirine che può alterarsi in relazione a esposizione a inquinanti di carattere ambientale . Nello studio preliminare avevamo un 30% del campione esaminato, che aveva uno spettro alterato, ecco perché si è sviluppata un’indagine più sofisticata, più articolata. Quindi, i primi indicatori di allarme erano questi eccessi di patologia e gli esiti dello studio di biomonitoraggio; si è provveduto quindi a predisporre un piano mirato che è stato finanziato dalla Regione Toscana per 200.000 euro dal titolo “Studi di popolazione: i comuni di Civitella della Chiana e Arezzo in relazione a fattori di inquinamento ambientale e piano mirato del comparto sui lavoratori”. Questo è il complesso dei settori in studio, con il coordinamento del Dipartimento Prevenzione della nostra ASL: l’Agenzia Regionale di Sanità, l’ISPO, l’Istituto Zooprofilattico Sperimentale, l’Università di Siena Dipartimento Biologia ambientale, il Dipartimento della Prevenzione che ha curato sia il monitoraggio biologico della popolazione, insieme a ISPO e al laboratorio di Sanità Pubblica, sia la valutazione dell’esposizione dei lavoratori del comparto. Partendo dal monitoraggio biologico della popolazione generale, il campione è stato molto ampliato, è stato considerato oltre le tre frazioni del comune di Civitella in questione, l’area urbana di Arezzo presupponendo che ci fosse un inquinamento da traffico veicolare, abbiamo sempre utilizzato il bianco di Badia Prataglia in Casentino, i criteri sono stati molto rigorosi per l’inclusione di partecipanti naturalmente non fumatori, naturalmente non professionalmente esposti, sia uomini che donne in età dai 18 ai 60 anni, consenso informato allo studio e parere del comitato etico. Le matrici indagate sono state le urine, utilizzando le urine delle 24 ore, a Civitella hanno partecipato allo studio 178 persone di cui 96 maschi e 82 donne, 100 ad Arezzo e 70 a Badia Prataglia. Lo studio è ancora in corso, possiamo anticipare dai risultati preliminari che sembrerebbe non del tutto confermate le evidenze emerse nella prima indagine, salvo che per quanto riguarda l’argento e il mercurio in quanto si registra una differenza significativa nell’area di Civitella rispetto a Badia Prataglia, ma non con Arezzo; quindi la prima riflessione è che probabilmente ci troviamo in una situazione di inquinamento di area, inteso come area sia quella della presenza dell’azienda di raffinazione ma anche un po’ tutta l’area urbana di Arezzo, che pensavamo fosse connotata per inquinamento di tipo atmosferico ma in realtà la presenza di argento e mercurio fa pensare che, essendo Arezzo un distretto orafo, il problema sia più diffuso. Rimangono ancora da fare le valutazioni statistiche relative e soprattutto da esaminare le porfirine urinarie che era un elemento critico nella prima indagine. Anche sui lavoratori è stato fatto un lavoro Arezzo 20 - 23 novembre 2012 61 20 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute importante, perché in realtà questo distretto conta sette aziende che costituiscono. Questo studio sia di monitoraggio ambientale che biologico dell’esposizione dei lavoratori a metalli, non ha evidenziato situazioni di rischio rilevante fatto salvo il fatto che alcuni metalli sono anche riconosciuti sostanze cancerogene, mi riferisco al berillio, cadmio, al piombo e al cromo e quindi su questo la sorveglianza ed il monitoraggio devono essere particolarmente accurati. Il profilo di salute che fondamentalmente è stato effettuato dall’Agenzia Regionale di Sanità con le fonti informative classiche, quindi dati demografici ISTAT, Registro di Mortalità Regionale, SDO, certificato di assistenza al parto, aborti spontanei, interruzioni volontarie di gravidanza, la banca dati delle malattie croniche, Registro Difetti Congeniti e altre fonti informative. Lo stato di salute della popolazione residente nei comuni di Arezzo, Civitella, Monte San Savino è sostanzialmente in linea con quello toscano, la mortalità è addirittura migliore e comunque in costante decremento nel tempo come avviene in Toscana, la morbosità mostra solo alcuni eccessi tra cui quelli delle malattie respiratorie dei residenti però nel comune di Arezzo, non perfettamente congruente con la contemporanea riduzione dei ricoveri per malattie respiratorie croniche che fa pensare a una prevalenza di malattie acute respiratorie, asma in particolare. I tumori allo stomaco sono in eccesso in tutta l’area aretina, ma questo è noto da tempo, altri tumori non sono in eccesso, poi a latere va rilevato che il numero degli incidenti stradali è elevato nel nostro territorio. Per l’andamento delle leucemie i quinquenni presi in considerazione in questo secondo studio non mostravano gli eccessi rilevati nel precedente, il che fa pensare a un effetto cluster delle leucemie Lo studio dell’ISPO, di approfondimento sui casi rilevati nella prevedente indagine, cercando di individuare bene sia i sottotipi istologici ma soprattutto qual è la storia residenziale di questi soggetti per capire come è possibile attribuirli in qualche maniere alle fonti di rischio, è ancora in corso e quindi è ancora prematuro fornire i risultati. L’ISPO cura anche la parte relativa alle studio delle malattie respiratorie. C’è poi l’ interessante studio fatto dalla Università di Siena, Dip.to di biologia ambientale, per la valutazione dellai distribuzione dei contaminanti a livello del suolo, scegliendo sia le foglie di quercia e le lucertole per l’accumulo e gli effetti dei contaminanti ( metalli pesanti) nella specie selezionata attraverso l’utilizzo dei biomarker di esposizione e di effetto ; questo interessante studio ha concluso che non emergono situazioni significative di danno genetico mentre gli indicatori di esposizione e di accumulo mostrano delle differenze, anche se non significative, nell’area di Civitella rispetto agli altri comuni limitrofi. E’ stata fatta anche un’analisi delle diossine sulle lucertole e non sono emersi valori superiori a quelli presi come riferimento, utilizzando quale sito di controllo un area non contaminata ( senese), si è visto che ci sono differenze significative invece tra ‘area presa in considerazione di Civitella e quella senese, per la presenza di mercurio e argento, il che conferma il dato di monitoraggio biologico della popolazione. Infine si sono fatte anche le analisi dei residui nelle matrici alimentari ( miele e latte) da aziende produttrici del territorio e anche lì sono stati cercati i metalli, i risultati sembrano confortanti, salvo la presenza di nichel in alcuni campioni di miele proprio in un area situata nei pressi dell’impianto. Considerazioni finali: l’utilizzo di modalità di indagine diverse e integrate dovrebbe consentire di verificare lo stato di salute delle popolazioni esposte a diverse condizioni di inquinamento atmosferico e di determinare la loro esposizione a inquinanti ambientali. L’integrazione con le informazioni raccolte con lo studio di popolazione con le matrici alimentari, vegetali, animali, e della popolazione lavorativa consentirà di migliorare la comprensione dei dati. Queste informazioni saranno particolarmente utili per fornire dati ai decisori politici in merito alla sostenibilità ambientale delle area in studio, prima di pubblicizzare i dati abbiamo chiesto, alI’ Istituto Superiore di sanità una supervisione dell’intero progetto proprio perché vogliamo essere certi di non aver fatto errori nell’impostazione, e infine ci faremo carico della comunicazione dei risultati, aspetto assai delicato. 62 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 20 Novembre Energie rinnovabili: occasione di innovazione e sviluppo sostenibile "Le nuove frontiere della ricerca e delle tecnologie" Valerio Rossi Albertini CNR Buonasera a tutti. Ringrazio gli organizzatori di questo interessantissimo incontro per avermi invitato. Noto con piacere la presenza del Ministero dell’Ambiente - il Ministro Clini è appena passato e il Segretario sta assistendo ai nostri lavori - è una partecipazione importante perché troppo spesso le Istituzioni sono state poco presenti all’interno delle riunioni, dei dibattiti, degli incontri organizzati su questi temi. Sembra che l’atteggiamento stia cambiando e questa è sicuramente una nota molto positiva. Io porto il saluto del Consiglio Nazionale delle Ricerche, a cui appartengo, in qualità anche di professore di scienza dei materiali. Mi occupo di energie alternative ormai dall’inizio della mia carriera; una breve introduzione per farvi capire di che cosa parlerò. Io non ho portato una presentazione già pronta, non perché non ne abbia, faccio conferenze e quindi di materiale ne avrei avuto fin troppo, ma in queste occasioni cerco di seguire un’altra filosofia, di entrare in sintonia un po’ con il genio della riunione. Abbiamo sentito il Ministro Clini poco fa, poi il professor Swanson che è uno dei padri fondatori della fotovoltaica, sarebbe stato inutile e anche un po’ ridicolo da parte mia confrontarmi con la loro competenza nel campo, quindi ciò che ho preferito fare è un discorso per sollevare questioni di interesse comune. Quindi non parlerò tanto di dati tecnici, che magari non sarebbero neanche tutti quanti recepiti, ma della filosofia ispiratrice del lavoro, della ricerca in questi anni, in Italia, nell’ambito della green economy, in generale, e della conversione energetica, nello specifico. Il professor Swanson ha fatto vedere come molti miti siano caduti - questa è la possibilità che si ha quando non c’è una presentazione predefinita, ci si può riallacciare ai discorsi degli oratori precedenti - nell’ambito del fotovoltaico. Perché? In fondo perché questa è la caratteristica e la cifra distintiva della ricerca, molto di quello che sembra inizialmente impossibile, inattuabile, magico, fantascientifico, poi si realizza. Chi, trent’anni fa, avrebbe veramente potuto credere che saremmo stati qui a comunicare attraverso Internet e con telefonini che hanno una capacità di calcolo molto superiore ai computer che hanno consentito all’uomo di andare sulla luna? Sarebbe stato inimmaginabile, se considerate che, alla fine degli anni ‘80, l’amministrazione pubblica pensava che le comunicazioni sarebbero state fatte per fax e stava riempiendo gli uffici pubblici di macchine fax. Invece subito dopo è esploso Internet ed i fax, di fatto, sono andati quasi tutti in soffitta. Allora perché non immaginare lo scenario che è stato prefigurato dal professor Swanson, cioè che nel giro di pochi anni si attuerà la rivoluzione energetica? Il consumo di combustibili fossili è stata una necessità forse ineludibile per il genere umano, dalla prima rivoluzione industriale fino ad adesso. Utilizzando prima il carbone e poi il petrolio, abbiamo sviluppato la nostra civiltà. Sono contrario quindi alla criminalizzazione dell’uso di combustibili fossili, però adesso non è più quell’epoca. C’era il Ministro dell’Energia dell’Arabia Saudita che negli anni ‘70 disse una frase che andrebbe scolpita a caratteri cubitali nel bronzo: “L’età della pietra non è finita per mancanza di pietre. L’età del petrolio non è necessario che finisca per mancanza di petrolio”. Quando c’è una nuova tecnologia che avanza, bisogna accantonare la vecchia e guardare con favore verso lo sviluppo delle nuove, anche perché tutte le risorse che non sono rinnovabili (come quelle dei materiali fossili) sono per definizione destinate a esaurirsi. Il Ministro Clini ha disciplinato, per quanto possibile da noi, il comparto, ma altrove sono ricominciate in maniera abbastanza incontrollata le trivellazioni. E’ un segno di disperazione: la corsa per accaparrarsi le risorse ancora disponibili. A chi dice, -questo è un altro mito da aggiungere alla lista di quelli del professor Swanson che vorrei sfatare- che i soldi degli incentivi per il fotovoltaico siano una spesa che grava sulle tasche degli italiani e che va ad arricchire soltanto il bilancio dei Paesi produttori di pannelli fotovoltaici, io rispondo in due battute. La prima è: “ma che cosa è meglio, fare investimenti sul fotovoltaico, un pannello che può durare vent’anni oppure l’equivalente per produrre energia con petrolio, o forse gas, che viene consumato e lascia solo residui dannosi nell’ambiente?” Inoltre: il fotovoltaico l’abbiamo noi in Italia negli anni settanta. Se poi abbiamo accantonato la produzione è stato solo per miopia politica dei decenni scorsi. Quello che vi dirò adesso può sembrare un po’ di retorica patriottarda, ma non è così. Io non sono un lodatore del tempo antico, però so che nel 1906 gli italiani di Larderello hanno insegnato al mondo come si utilizzava il calore della terra per produrre energia elettrica La comunità scientifica italiana protesa verso lo sviluppo di tecniche che la rendessero energeticamente autosufficiente, sviluppò il settore idroelettrico come nessun altro paese al mondo. Certo, con gli interventi che furono fatti durante il fascismo si inflissero delle ferite all’ambiente -non c’era concertazione con le autorità territoriali e gli ordini provenienti dal centro non si potevano discutere- , ma il punto è che c’era già la vocazione per le tecnologie avanzate. Arezzo 20 - 23 novembre 2012 63 20 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute Poi, nel 1942, Enrico Fermi a Chicago, costruì il primo reattore nucleare. Io sono in origine un fisico nucleare, ma ho salutato con molto favore il fatto che l’opzione nucleare sia stata bocciata in Italia. Se avessimo costruito dei reattori, che sarebbero entrati in funzione tra 10-15 anni, ci saremmo inseriti all’interno del contesto nucleare nel momento in cui il costo di produzione dell’energia nucleare sarebbe già stato alto, a causa dell’esaurimento delle scorte. Il nucleare è una tecnologia che ha raggiunto il suo stato stazionario, non è più in grado di evolvere efficacemente per abbattere i costi. Al contrario, il costo del fotovoltaico è destinato a decrescere perché c’è tanta ricerca in corso e tante nuove possibilità di trovare di soluzioni più convenienti. Perché allora mi ricordo di Enrico Fermi? Perché Enrico Fermi, nel 1942, costruisce il primo reattore nucleare negli Stati Uniti, ma lo realizza sulla base degli studi che aveva fatto in Italia, con i ragazzi di via Panisperna del Regio Istituto di Fisica. Ancora una volta gli scienziati italiani erano all’avanguardia nel settore delle energie alternative! Parlando oggi di fotovoltaico, negli anni ‘60 e ’70 in Italia si cominciò a sviluppare e produrre il fotovoltaico ma, con tipica lungimiranza politica, in seguito fu smantellato tutto il comparto, perché non si riteneva strategico, (insieme con quello dei computer, che condividono gran parte dei metodi di produzione). È per questo che ci ritroviamo nel 2012, a comprare pannelli fotovoltaici dalla Cina e dalla Germania nello sforzo di conversione fotovoltaica! Veniamo a oggi, che cosa si può fare? Facciamo un gioco, vi do questa coppia di bicchieri, ve la passate, la esaminate e poi mi direte se vedete una differenza. Spesso la scienza e la tecnologia sono in grado di risolvere problemi che sembravano insolubili. Ho visitato gli stabilimenti della Power-One, qui rappresentata. Il ragionamento che si fa lì andrebbe considerato e replicato. Alla Power-One producono componenti elettronici per sorgenti rinnovabili, così come si fa in Cina. Ma come si fa a competere con la Cina, dove il costo del lavoro è tanto più basso che da noi e dove le materie prime sono molto più abbondanti? Qual è la ricetta? La risposta è: bisogna innalzare il livello tecnologico, perché con una qualità e un tasso di produzione superiori, possiamo competere con i Paesi emergenti in una maniera morale, ovvero non comprimendo i diritti dei lavoratori o abbassando i salari, ma innalzando la qualità del processo e del prodotto. La filiera produttiva alla Power-One sembra una camera operatoria, perché ci sono tecnici molto specializzati e, permettetemi una battuta cordiale, possono permettersi di essere choosy, cioè di pretendere il meglio, perché ne hanno i titoli. La Green Economy, l’economia ambientalmente compatibile che si basa sul rinnovamento energetico, è la frontiera del futuro. I Cinesi l’hanno capito e ci stanno investendo massicciamente: da una parte bruciano montagne di carbone; dall’altra, però, stanno sviluppando le tecnologie alternative. Attenzione! i Cinesi non sono degli sprovveduti, io sono amico di scienziati cinesi e li conosco bene, facendo parte di una commissione italo-cinese per sviluppo tecnologico. Non sono degli sprovveduti e si stanno attrezzando. Il centro tecnologico di ricerche di Shanghai ha qualcosa come 100.000 addetti. Noi abbiamo un vantaggio tecnologico su di loro che potrebbe essere stimato intorno ai 5/10 anni. Non dobbiamo disperdere questo patrimonio: i Paesi Emergenti, avendo costi inferiori sia di produzione, che delle materie prime, una volta che ci avessero raggiunto tecnologicamente, ci espellerebbero dal mercato globale. Quindi cerchiamo di evitare di ripetere lo stesso errore che abbiamo fatto in passato con il fotovoltaico. Il fotovoltaico tradizionale va incoraggiato e sospinto ma, credo, vada affiancato anche dal nuovo fotovoltaico, quello basato non più sul silicio, ma sulle materie plastiche. Oggi il nuovo fotovoltaico ha ancora qualche difficoltà ad essere competitivo col fotovoltaico tradizionale, ma sta migliorando rapidamente e suggerisco agli operatori del settore di guardare con attenzione al suo sviluppo e promuoverne la produzione accanto a quella dei pannelli al silicio. Concludo tornando alla questione della Green Economy, che sarà sempre più pervasiva, perchè non c’è aspetto della vita economica e sociale che non ne sia influenzato. In periodo di crisi le imprese che hanno investito nella Green Economy sono andare in controtendenza. Prima di concludere ritorno ai due bicchieri che vi ho chiesto di osservare e esaminare. Sembrano tutti e due di plastica, ma non sono uguali. Uno è fatto di plastica tradizionale derivata dal petrolio; l’altro è fatto di plastica derivata dal mais, un vegetale. Hanno esattamente la medesima funzione, ma il bicchiere di plastica convenzionale, se lo disperdete nell’ambiente, lo trovate lì ancora per anni (in frammenti o filamenti); quello di mais, in una settimana si rammollisce e in un mese sparisce nel terreno, nutrendolo... La Green Economy si può paragonare all’onda di tsunami che abbiamo tristemente imparato a conoscere. Con l’onda di tsunami ci sono soltanto due alternative: la prima è ignorarla, distrarsi, far finta di niente. In questo caso, quando arriva, ti travolge e ti abbatte. Oppure c’è un’altra possibilità: intercettarla, “surfare” sulla sua cresta. Se saremo in grado di governare i processi della Green Economy e surfare sulla cresta della sua onda, essa ci porterà rapidamente lontano dalle secche della recessione e della crisi. 64 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 20 Novembre Energie rinnovabili: occasione di innovazione e sviluppo sostenibile "Le potenzialità della geotermia" Massimo Montemaggi Trascrizione non revisionata dal relatore Enel Green Power Rispondo subito alla domanda con la prima slide. Il Gruppo Enel lettere di fatto ha costituito una divisione per le rinnovabili che è oggi una società per azioni, Enel Green Power, la quale società opera su tutte le rinnovabili in tutto il mondo. in questa slide, in blu, c’è un rappresentazione di dove siamo presenti, oltreché in Europa, in Nord America, in America Latina, in Sud America e adesso abbiamo anche progetti sul Nord Africa. Noi abbiamo un totale di capacità installata di 2540 MW nell’idroelettrico, 3500 MW nel wind, 950 MW geotermici e giù a scalare, 100 nel solare e 128 in altre fonti sempre rinnovabili. Oggi, io vi parlerò soprattutto di geotermia che è una fonte rinnovabile un po’ atipica, forse un po’ più difficile delle altre fonti. Qui è rappresentata la nostra situazione di partenza perché popi in realtà anche sulla geotermia abbiamo progetti in tutto il mondo, come diceva il professore che mi ha preceduto la geotermia è nata a Larderello, essenzialmente, e ha la sua base principale in Toscana. Oggi noi siamo, nel campo geotermico, sicuramente un operatore e tra i più forti, siamo il più grande operatore geotermico completamente integrato, vedremo come, siamo stati i primi a utilizzare la geotermia per la produzione di energia elettrica e abbiamo sviluppato una capacità di mantenimento, di sostenibilità di questa risorsa rinnovabile che sicuramente è un benchmark a livello mondiale. Parlavo prima di un’integrazione verticale, in effetti siamo una delle pochissime società al mondo che è presente su tutto il processo geotermico, dallo sviluppo iniziare dei progetti, cioè la caratterizzazione dei siti, alla fase di esplorazione e perforazione fino alla progettazione e realizzazione degli impianti, esercizio, ricerca e sviluppo. Questa impresa che è la geotermia in Enel Green Power occupa oggi circa 650 addetti e noi abbiamo progetti in corso o in Cile, in Salvador, in Nord America, in Turchia e abbiamo ora delle idee in Nord Africa. La capacità installata e in Italia è di 874 MW e in Toscana noi produciamo per il 25% dell’energia elettrica nella regione. Prima di andare più nel dettaglio di quelli che sono i nostri programmi di sviluppo, volevo brevemente parlarvi di questa risorsa; innanzitutto la fonte che si va a utilizzare nella geotermia non è il fluido che viene fuori, non è il vapore, ma è il calore geotermico, il calore che è nel sottosuolo, il fluido, di fatto, è solo un vettore che ci consente di estrarre questo calore dalla terra. Dove è presente la geotermia e come è sfruttabile, la geotermia per essere utilizzabile industrialmente ha bisogno della contemporaneità di tre fattori fondamentali, sostanzialmente ha bisogno che contemporaneamente, in uno stesso sito, ci sia un›anomalia termica, cioè che il calore che normalmente è presente nel sottosuolo a oltre 10 km di profondità sia più superficiale, la seconda caratteristica che dobbiamo trovare è che ci siano terreni impermeabili sopra e sotto il serbatoio in grado quindi di trattenere le acque di circolazione e la terza caratteristica è che ci siano acque di circolazione. In realtà queste tre combinazioni di cose insieme sono abbastanza rare nel mondo quindi, a differenza di altre fonti, la geotermia non si può sfruttare ovunque, si può sfruttare dove la natura ci consente di poterla sfruttare, l›effetto complessivo che si ottiene quando sono presenti queste tre situazioni è quello esemplificativo di una pentola a pressione dove l’acqua si riscalda e va in pressione di modo che quando noi andiamo a fare una perforazione in queste aree troviamo situazioni di fluidi che possono essere o a vapore dominante come nell’area tradizionale di Larderello o ad acqua dominante nel senso che il calore non ha vaporizzato tutta l’acqua o sistemi ad acqua calda. La geotermia ha avuto inizio oltre cento anni fa a Larderello, è nata prima come industria chimica per l’estrazione sostanzialmente del Boro, poi nel 1904 una sperimentazione che fu fatta dalla Principe Ginori Conti consentì di verificare la possibilità di produrre l’energia elettrica da questa fonte e in effetti per quei tempi non era una cosa semplice perché non si pensava di poter mantenere in pressione il fluido geotermico, dal 1904 partì tutta una serie di attività di perforazione e di sviluppo di centrali nei consentì, già prima della prima guerra mondiale, diavere installati una centrale da 200 MW e nel tempo portò a un’evoluzione storica della produzione che è qui rappresentata, come vedete la crescita della produzione di energia geotermica in questi cento anni è stata continua, a parte un’interruzione a cavallo della seconda guerra, ma questa crescita continua non è così diffusa in altre realtà del mondo, ci sono stati esempi di sfruttamento o errato dei campi geotermici che ha portato, in alcune situazioni, a un declino l’importante dei campi e quindi, addirittura, in certe situazioni, si è dovuto fermare per sempre delle centrali. Uno dei nostri punti di orgoglio è quello di avere una capacità di sfruttamento e di coltivazione di questi campi che riteniamo ottimale. Uno dei temi di questo convegno è anche quello dell’ambiente e, effettivamente, tra i problemi dello sfruttamento geotermico c’è anche quello di cercare di migliorare l’impatto ambientale di questa fonte, impatto ambientale che si declina sotto vari aspetti, il primo aspetto è quello paesaggistico, noi cerchiamo di migliorare l’inserimento dei nostri impianti, di adeguarlo alle situazioni paesaggistiche del sito, un altro problema, invece dell’impatto ambientale, è quello delle emissioni, emissioni soprattutto di H2S che hanno un impatto soprattutto dal punto di vista dell’odore, l’odore tipico di uova marce che caratterizza i fenomeni geotermici. Enel ha sviluppato una tecnologia tutta propria che consente Arezzo 20 - 23 novembre 2012 65 20 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute l’abbattimento di oltre l’80% dell’acido solforico e ha fatto un piano, in questi ultimi dieci anni,i di ambientalizzazione di tutte le centrali in modo da ridurre complessivamente, in maniera elevata, questo problema emissivo. In questa slide, nel grafico in rosso è rappresentato l’andamento di queste emissioni di H2S in rapporto alla curva blu dove si vede l’andamento crescente della produzione, cioè noi abbiamo aumentato, quasi raddoppiato, dagli anni ’90, la produzione di energia elettrica mentre nel contempo abbiamo ridotto dell’80% complessivamente le emissioni. Altra caratteristica portante che contraddistingue la fonte geotermica da tutte le altre fonti è quella di una filiera praticamente interamente italiana, la filiera geotermia, dalla produzione delle macchine alla costruzione degli impianti di perforazione, alla costruzione dell’impiantistica di centrali è praticamente tutta nazionale e aziende del settore sono leader anche in campo internazionale, cioè esportano questa tecnologia all’estero. Questo è un dato importante e significativo, perché praticamente mantenere vitale e sviluppare questo settore vuol dire aiutare il potenziamento e la ricaduta occupazionale direttamente del Paese. Geotermia non vuol dire solo produzione di energia elettrica, vuol dire anche produzione di calore per vari usi, innanzitutto per il riscaldamento però anche per usi industriali, qui vedete un andamenti dell’utilizzo dell’energia geotermica nel campo del riscaldamento civile industriale, quindi vedete come sia cresciuto anche questo utilizzo, l’applicazione più frequente è quella delle serre però ci sono anche utilizzi di altro tipo, per esempio ora sta nascendo una filiera del cibo che utilizza perla climatizzazione la geotermia e si fregia del fatto che tutto il processo è un processo rinnovabile. Prima di entrare nel tema vero e proprio di quelle che sono le potenzialità di questa risorsa occorre affrontare quello che è il contesto di nuovo, di quelle che sono state le variazioni di questi ultimi anni. Di fatto con il decreto legislativo 22/2010 la filiera geotermica è stata liberalizzata, le concessioni vengono assegnate in un regime di concorrenza sono aumentati gli importi delle concessioni del royalty e delle compensazione, sono aumentati gli importi delle concessioni, le royalties e le compensazioni ambientali. Parallelamente c’è stata una revisione delle tariffe e dei meccanismi di incentivazione con una significativa riduzione degli incentivi; tutto questo non spaventa forse particolarmente Enel ma può essere controproducente per un vero rilancio del settore e soprattutto diventa una barriera per i nuovi entranti. Vi porto come esempio quello che è accaduto in Toscana dalla liberalizzazione, sono entrati in questo mercato delle concessioni oltre 12 nuovi operatori l che hanno richiesto oltre 50 nuovi permessi di ricerca. Noi crediamo che la difficoltà maggiore che si troveranno ad affrontare questi nuovi operatori sia una difficoltà legata a trovare veramente la redditività in queste iniziative, non si deve dimenticare che l’attività geotermica è un’attività principalmente che parte, a differenza dalle altre fonti, dalla necessità di individuare la risorsa e di stabilirne la potenzialità, mentre nel settore eolico, piuttosto che fotovoltaico, piuttosto che idroelettrico, il riconoscimento della risorsa e la quantizzazione della risorsa è un’attività ingegneristica che con misurazioni e con analisi statistiche si riesce a fare con elevata precisione, nel campo geotermico la cosa non è esattamente così. Il primo problema è l’individuazione delle risorse e il secondo è la quantizzazione della risorsa e queste due cose insieme espongono l’impresa a un forte rischio di investimento con rischio minerario. Quest’attività cui oggi non vede, da parte delle istituzioni nessun meccanismo di incentivazione, oggi il meccanismo di incentivazione è previsto, come per le altre fonti, alla fine di tutto il processo quando dopo aver fatto tutta l’attività di esplorazione e l’attività di sviluppo si arriva finalmente a costruire e a mettere in servizio una . Il tema però non è così banale perché vuol dire che prima di arrivare a questo obiettivo, l’impresa si vede con forte esposizione finanziaria, con forte rischio, senza nessuna certezza di ritorno economico, dico questo perché temo che molti di questi operatori in realtà non andranno avanti con i loro progetti. Due parole sulla divisione che si fa spesso della risorsa fra bassa, media e alta entalpia che serve anche a chiarire quello che dicevo prima; la bassa entalpia è una risorsa che in realtà non è lo sfruttamento industriale a cui facevo riferimento io della geotermia, la bassa entalpia è dappertutto, è in dovunque si voglia perché vuol dire andare a sfruttare il calore a pochi metri dalla superficie per produrre per uso riscaldamento, questa è una possibilità di facile sfruttamento, secondo noi può costituire un forte elemento di aiuto per lo sviluppo degli usi termici del calore e noi siamo attrezzati per dare un contributo su questo campo; media e alta entalpia invece sono classificazioni di risorse a più alte profondità dove occorrono capacità operative non comuni. Vengo a quello che è nel nostro piano di sviluppo, noi abbiamo a piano la realizzazione di circa 250 MW nel prossimo decennio di cui oltre la metà in Italia per un investimento complessivo di oltre 1 miliardo di euro nei prossimi dieci, uno dei progetti più importanti che abbiamo in Toscana è il progetto di Bagnore 4 che dovrebbe partire l’anno prossimo, è un progetto da 40 MW nel comune di Santa Fiora. Abbiamo in ricerca quattro aree, sempre in Toscana, stiamo acquisendo dei titoli anche in Campania e stiamo indagando anche in Sardegna; come attività di ricerca stiamo sviluppando un progetto misto tra biomassa e geotermia con la biomassa che serve a surriscaldare il vapore in ingresso negli ‘impianti esistenti geotermici, questo consente di migliorare il rendimento sia del processo in biomassa, sia nel processo in geotermico e stiamo sviluppando anche una ricerca abbastanza importante con un cluster che è previsto tra noi e altre imprese prevalentemente toscane e le università toscane per vedere di ottimizzare i processi dei circuiti binari. Basta così, sop no andato un po’ fuori tempo? Grazie. 66 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 20 Novembre Energie rinnovabili: occasione di innovazione e sviluppo sostenibile "V Conto Energia: prospettive e problematiche" Sebastiano SerraMinistero dell’Ambiente della tutela del territorio e del mare Grazie dell’invito. Un saluto dal Ministro Clini che oggi era qua ma è dovuto ritornare in sede. Io farò una panoramica della situazione italiana sostanzialmente sulle fonti rinnovabili e sull’efficienza energetica: sono i due elementi che a noi interessa conseguire per quantità rilevanti di risparmio di energia, efficienza ed utilizzazione delle fonti rinnovabili. Questo può portare a un risultato dal punto di vista del futuro, non immediato per quanto riguarda i costi dell’energia in Italia. Il quadro nostro attuale è il seguente: si è dovuto predisporre un nuovo decreto sul fotovoltaico ( Quinto Conto Energia), perché la richiesta di impianti fotovoltaici era elevata e l’incentivo era elevato, quindi abbiamo voluto tenere sotto controllo la spesa che andava in bolletta elettrica. Abbiamo approvato un secondo decreto sulle fonti rinnovabili elettriche diverse dal fotovoltaico. Abbiamo approvato un decreto sviluppo, sulla possibilità di fornire finanziamenti a basso tasso d’interesse per costruire fabbriche per la Green Economy. Abbiamo in questo momento la Strategia Energetica Nazionale, cioè un piano energetico nazionale che fa il punto sulla situazione di che cosa va fatto da qui sino al 2020. Stiamo lavorando sul Decreto Fonti Rinnovabili Termiche ed Efficienza Energetica per le pubbliche amministrazioni e per le apparecchiature di fonti rinnovabili termiche. Questo decreto è in bozza e andrà in conferenza unificata a fine novembre. Stiamo lavorando sui cosiddetti certificati bianchi (titoli di efficienza energetica) modalità con la quale si abbassa il consumo di energia, si aumenta l’efficienza energetica, si stabiliscono gli obblighi alle società distributrici di energia elettrica e gas. • Soffermiamoci su questo Quinto Conto Energia fotovoltaico. Si è lavorato in questo modo: tempi e dimensione dei nuovi schemi di incentivazione sono fatti in modo tale che fissiamo un onere aggiuntivo per il Paese che finisce in bolletta elettrica, pari a 700 milioni di euro l’anno rispetto a quello che era stato già fatto, quindi arriviamo a circa 6700 milioni di euro l’anno. A seguito del raggiungimento di questo impegno e con i costi del fotovoltaico che stanno diminuendo si dovrebbe andare in “grid parity”, significa che il fotovoltaico dovrebbe competere con le fonti tradizionali. Non sarà la fine del fotovoltaico perché attraverso atti normativi che danno la possibilità al fotovoltaico di continuare la sua penetrazione nel mercato, possiamo mantenere ma non aumentare la spesa. La data di applicazione del decreto è il 27 agosto 2012 superando il Quarto Conto Energia del maggio 2011. L’incentivo si abbassa anche perché si abbassano molto i costi del fotovoltaico e pertanto va rimodulata, con questo decreto, la spesa sul fotovoltaico mantenendo però costante il valore finale a cui si può arrivare. • Lo stesso abbiamo fatto sulle fonti rinnovabili elettriche, diverse dal fotovoltaico. Anche qua è stato eliminato il criterio del certificato verde, si è fissata una tariffa omnicomprensiva per i nuovi impianti a fonti rinnovabili elettriche con una spesa annuale di 5.800 milioni di euro, come tetto di spesa annuale totale per tutte le fonti rinnovabili diverse dal fotovoltaico. In termini di potenza questo significa un grosso salto anche per la quantità di fonti rinnovabili che vengono installate nel nostro Paese. Quindi il controllo della spesa rappresenta una modalità con la quale evitare grossi balzi in avanti per gli incentivi cercando, con l’introduzione di meccanismi opportuni, tipo i registri e le procedure d’asta, di controllare in qualche modo la quantità di impianti e la spesa. • Nel fotovoltaico c’è un obbligo di iscrizione al registro sopra i 12 KW; si è comunque escluso da questi obblighi tutti gli impianti fotovoltaici a concentrazione o quelli architettonicamente integrati, il che significa che stiamo andando verso le nuove tecnologie. • Anche sulle fonti rinnovabili elettriche abbiamo l’iscrizione al registro e abbiamo utilizzato l’idea che tanto più l’impianto è grande tanto più l’incentivo deve essere modesto, questo per cercare di dare un incentivo agli impianti piccoli ma diffusi sul territorio. La geotermia non risulta incentivata eccessivamente per i grossi impianti, non si incentivano impianti che emettono una grande quantità di mercurio oppure acido solforico, vogliamo che questi impianti siano funzionanti e abbiano le loro emissioni convogliate all’interno, cioè che non emettano nulla. Gli incentivi per i piccoli impianti che emettono poco sono abbastanza alti, la geotermia è spinta per ottenere risultati anche ambientalmente favorevoli e per la loro diffusione sul territorio. • Si è prevista la protezione degli investimenti già avviati, si è dato tempo con il quale il provvedimento precedente (Quarto Conto Energia), non fosse abbandonato immediatamente ma avesse un periodo di tempo entro il quale ci fosse un minimo di paracadute, soprattutto per i piccoli impianti che non sono riusciti a entrare in esercizio in tempo utile. • Nel campo delle fonti rinnovabili elettriche sono stati previsti degli accorgimenti per la transizione dai certificati verdi alla nuova metodologia di tariffa omnicomprensiva nonché la preferenza per impianti di Arezzo 20 - 23 novembre 2012 67 20 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute dimensione contenuta e il recupero del territorio. Il perimetro degli impianti ammessi all’incentivazione del Quinto Conto fotovoltaico è stato ridotto rispetto al passato, perché riteniamo che sostanzialmente questi tipi di impianti vanno fatti sugli edifici e che questi edifici siano efficienti, perché se installiamo una fonte rinnovabile ma consumiamo energia in maniera indebita, non abbiamo risolto i problemi, quindi soltanto su edifici dotati di attestato di certificazione energetica viene considerato l’incentivo oppure in impianti collegati con aree da bonificare, cave dismesse, discariche esaurite e siti contaminati. In questi luoghi il fotovoltaico può andare anche a terra, luoghi nei quali non si fa uso per l’agricoltura o altri usi pregevoli. • Le tariffe per le fonti rinnovabili elettriche sono dimensionate in modo da incentivare gli impianti più piccoli e l’utilizzo di determinati combustibili, sono privilegiate, ad esempio, biomasse e sottoprodotti. • Altro elemento fondamentale la scelta di meccanismi fondati sui premi assegnati agli impianti virtuosi, l’incentivo non è soltanto un incentivo di base ma può essere aumentato sulla base di quello che si riesce a fare per migliorare l’ambiente. • Sul fotovoltaico è previsto un premo per la rimozione dell’amianto pari a 30 €/MWh, e un premio per l’utilizzo della componente realizzata in Unione Europea 20 €/MWh, E’ sostenuto anche l’autoconsumo di energia prodotta col fotovoltaico che riceve un’aggiunta in tariffa. • Per le fonti rinnovabili elettriche è prevista un’ampia gamma di premi per le diverse tipologie di fonti: nel caso delle biomasse ad esempio la riduzione delle emissioni in atmosfera. Ci sono dei problemi con il particolato delle polveri sottili (PM10), quindi si è previsto che le biomasse con le nuove tecnologie fossero tali per cui l’emissione in atmosfera fosse ridotta per le polveri sottili con compensazioni di 30 €/MWh; la cogenerazione, cioè l’utilizzo di energia elettrica e calore,i piccoli impianti e la la spinta all’innovazione sono incentivati. Le fonti rinnovabili costano più care delle fonti fossili quindi si incentivano ma con la ricerca di soluzioni che comportino un minor costo. La spinta all’innovazione è fondamentale per l’Italia, perché non possiamo continuare a comprare dall’estero questi componenti, e sistemi ma dobbiamo realizzarli nel nostro Paese, con l’innovazione tecnologica, Questo è il risultato che ci può dare mercato sia in Italia che all’estero. • Il target sulle fonti rinnovabili elettriche dal 2008 al 2011 risulta incrementato; la percentuale di fonti rinnovabili elettriche sul consumo finale interno di energia elettrica, è intorno al 26% ed è stato raggiunto quanto previsto al 2020. Questo obiettivo verrà superato in seguito, con la Strategia energetica Nazionale, salirà ancora di più. C’è stato un grosso salto del fotovoltaico ed’eolico, poco sulle idroelettriche, qualcosa si sta facendo sulle bioenergie e biomasse, nel totale il salto in potenza installata va da 25.000 MW a 41/42.000 MW, quindi un grosso impegno sulle fonti rinnovabili e si stanno portando a casa dei risultati ottimi partendo dal 2008 al 2011. Nel 2012 questi numeri sono più alti ed è più evidente che le fonti rinnovabili rappresentano un punto essenziale per l’Italia. • Nel decreto sviluppo si è inserito l’incentivo ad assumere giovani nel settore della Green Economy, si è riorientato il fondo di rotazione che finanzia iniziative a basso tasso d’interesse, (0,5% per anno). Il vecchio fondo era rivolto alle fonti rinnovabili e all’efficienza energetica, il nuovo fondo è indirizzato verso chi fabbrica componenti e sistemi e che può assumere personale. La disponibilità di questo fondo, 470 milioni di euro, è destinata a finanziare con tassi agevolati progetti presentati da imprese nei settori di punta delle rinnovabili o destinati alla messa in sicurezza del territorio. L’accesso al finanziamento è condizionato dall’assunzione di giovani al di sotto dei 35 anni, questi prestiti sono erogati a sei anni a un tasso agevolato dello 0,5% per quelli che vogliono partecipare, la durata dei sei anni si allunga per il finanziamento concesso alle ESCO o ad amministrazione pubblica. • Un altro elemento che si sta realizzando è l’estensione dello sgravio fiscale per gli interventi di efficienza energetica, il cosidetto 55%. In questo momento si sono avuti problemi, perché la misura si è rivelata inefficace in quanto è stata accompagnata da un aumento dell’aliquota prevista per lo sgravio per le normali ristrutturazioni edilizie dal 36 al 50%. E’ chiaro che chi vuole fare piastrelle in casa, le fa e riceve un contributo del 50% di sgravio fiscale, però la differenza fra il 50% e il 55% è così piccola che gli interventi di efficienza angelica perdono in qualche modo attrattiva. Speriamo di superare questo punto, la situazione sarà presente almeno fino a giugno 2013. Quali sono gli elementi che ci condizionano molto per raggiungere gli obiettivi del 20% delle emissioni di CO2, l’aumento dell’efficienza energetica del 20% oppure l’uso delle rinnovabili? Ecco, nel campo delle rinnovabili abbiamo sviluppato molto la parte elettrica e poco la parte termica, cioè l’utilizzo di rinnovabili termiche diventa importante e dà un grosso contributo. Ricordo che per ogni KW elettrico ci vogliono 3 KW termici, ogni KW è sempre potenza per cui se faccio KW termici riesco a raggiungere migliori risultati che non fare KW elettrici. La parte di energia termica da fonti rinnovabili passa da 5 Mtep nel 2010 un raddoppio di 10 Mtep. Significa che dobbiamo fare un gran salto dal punto di vista delle apparecchiature e degli usi di queste fonti rinnovabili. Il secondo elemento che sicuramente risulta molto importante riguarda • 68 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 20 Novembre l’efficienza energetica. Stiamo introducendo un’efficienza energetica con la riduzione dei consumi da circa 22/23 Mtep a circa 42 Mtep per il 2020. Che cosa si sta facendo in questo momento? In questo momento c’è un documento “Strategia Energetica Nazionale”, cioè un piano in consultazione, legato ancora all’uso di combustibili fossili e alle infrastrutture, però entro questo piano c’è una previsione sugli aumenti dell’energia prodotta dalle fonti rinnovabili rispetto al consumo finale che passa dal 17% al 20% al 2020, e un aumento dell’efficienza energetica dal 20% al 24%. Gli impegni sia in termini di incentivi , sia in termini di attività da svolgere e ricerca, sono rilevanti. Il decreto sulle fonti rinnovabili termiche, ha l’obbiettivo di raddoppiare i Mtep delle fonti rinnovabili termiche e aumentare l’efficienza energetica negli edifici delle amministrazioni pubbliche. Il 55% di detrazione delle tasse riguarda sostanzialmente i privati, le amministrazioni pubbliche non pagano le tasse pertanto il 55% non può essere utilizzato. Perciò si devono inserire provvedimenti che permettano alle pubbliche amministrazioni di fare attività di riduzione dei consumi. Ricordo che la bolletta elettrica e del gas delle pubbliche amministrazioni è di 3 miliardi di euro all’anno. E’ necessario fare in modo che le pubbliche amministrazioni abbiano i loro edifici: le scuole, gli ospedali, tutti gli edifici pubblici, in grado di poter risparmiare ed usare efficientemente l’energia. Il decreto è in bozza, viene praticamente portato alla Conferenza Unificata la prossima settimana e prevede l’incentivazione di piccoli interventi di efficienza energetica per la produzione geotermica da fonti rinnovabili, pompe di calore, scaldacqua, solare termico, generatore di calore a biomassa, l’accesso a questi incentivi per le rinnovabili termiche è consentito a soggetti pubblici e privati mentre quelli dell’efficienza energetica sono riservati a soggetti pubblici. Nel primo biennio di applicazione di questo decreto è previsto un costo complessivo massimo di 900 milioni di euro che, in analogia con le fonti rinnovabili elettriche, è coperto a valere sulle tariffe del gas naturale. Ricordo che le fonti rinnovabili elettriche ricevono incentivi attraverso la bolletta elettrica. Un altro aspetto di interesse delle fonti rinnovabili termiche è la contabilizzazione del calore. C’è in fase di predisposizione un altro decreto che è la revisione del meccanismo dei certificati bianchi con un obbligo per i distributori di energia elettrica e gas di riduzione dei consumi attraverso l’acquisizione di certificati di efficienza energetica. La caratteristica di questo decreto sarà l’apertura verso le imprese e i processi produttivi della gestione accurata dell’energia. E’ un meccanismo premiante per la ricerca, lo sviluppo e la produzione di tecnologie innovative in Italia e questo sarà concentrato sostanzialmente sull’impiego dell’energia solare, lo sviluppo dei biocarburanti di seconda generazione, la valorizzazione della geotermia, lo sviluppo di biomasse a filiera corta e lo sviluppo delle smart cities. Un breve cenno al decreto sui certificati bianchi che è già in forma di bozza e con il quale il Ministero dello Sviluppo Economico di concerto con il Ministero Ambiente definiscono gli obbiettivi di efficienza energetica e gli obblighi, in termini di certificati bianchi, nel periodo 2013/2016, da parte dei distributori di energia. Gli obblighi hanno il significato di stabilire quanti Mtep si devono risparmiare e se non si possono risparmiare direttamente i distributori devono comprare i certificati bianchi attraverso interventi fatti da altri, altre industrie, altri privati ecc. Si è costretti però a soddisfare quest’obbligo, in termini di efficienza energetica dal 2013 al 2016. Si passa da una gestione legata all’Autorità per l’energia elettrica e il gas a una gestione del GSE. Il 2013 mantiene la continuità con il periodo precedente, dove questo sistema era già in piedi, ha funzionato ma deve essere sicuramente migliorato. Dal 2014 nuove linee guida saranno emanate dai Ministeri, si ampliano totalmente gli interventi verso le imprese e i processi industriali, il certificato bianco prima era legato sostanzialmente all’illuminazione pubblica e all’uso delle valvole sul flusso dell’acqua. Noi vorremmo spingere il miglioramento dell’efficienza verso altre situazioni, altre e nuove tecnologie. Grazie. Arezzo 20 - 23 novembre 2012 69 20 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute Energie rinnovabili: occasione di innovazione e sviluppo sostenibile "Energie rinnovabili per lo sviluppo e l’occupazione" Fabio RenziSYMBOLA Trascrizione non revisionata dal relatore Bene, intanto Symbola è una fondazione per le qualità italiane, abbiamo sviluppato in questi anni una riflessione su diversi aspetti dell’economia italiana insieme a Unioncamere, questo è molto importante, la rete delle camere di commercio, perché abbiamo cercato di fare un corto circuito tra quello che spesso è la dimensione della rilevazione, cioè dell’economia reale delle Camere di Commercio, di organismi che lavorano sui dati reali, e quello che invece è un po’ più la dimensione della visione delle forze della società civile che spesso è più sulla rivelazione, tenere insieme rilevazione e rivelazione è importante, perché dall’analisi dei dati emergono delle cose importanti come abbiamo visto. Recentemente, abbiamo presentato il terzo rapporto, oggi qui lo richiamerò velocemente, per il terzo anno consecutivo Green Italy che appunto realizziamo insieme a Unioncamere. La cosa che però volevo dire come premessa è questa, tutta la riflessione che abbiamo fatto, anche molto densa di questioni tecnichee di aspetti tecnici, ha però una dimensione che c’è nella società, cioè è chiaro che la Green Economy è una nuova visione, è una visione che è legata a una diversa società, perché tutte le cose di cui non stiamo discutendo trovano oggi una spinta nella società, cambiano i processi, cambiano i prodotti , c’è una nuova domanda di energia, c’è una nuova domanda di stili di vita, stanno cambiando gli stili di vita, è questa la motivazione profonda che sta dietro alle cose di cui stiamo riflettendo questa sera; basti pensare che l’anno scorso in Italia sono state vendute più biciclette che immatricolate auto, è una battuta ma serve a far capire come siano cambiate le cose, basti pensare quanto è cresciuta l’esperienza in molte realtà dei mercati di prossimità, basti pensare che alcune grandi manifestazioni che potevano esser viste come tradizionalmente manifestazioni fieristiche di settore economico, il salone del gusto, il salone del mobile, il salone della nautica, se uno va a vedere, si rende conto che sono delle grandi manifestazioni che parlano di Green Economy, che parlano del fatto che le barche oggi si progettano in maniera completamente diversa, con un’attenzione all’impatto ambientale è fortissima, con l’attenzione al disassemblaggio per poter recuperare un domani le componenti, con un’attenzione alle nuove vernici, con un’attenzione alla riduzione dei consumi fino al punto che un’azienda italiana, voi sapete che le aziende italiane sono leader nel settore della nautica di grande livello, ha fatto il primo yacht a emissioni zero oppure andiamo a vedere il salone del mobile e vediamo che oggi le imprese del mobile lavorano ormai, l’80%, con legni certificati, provenienti da foreste certificate ma soprattutto con il recupero, il riciclo, con la materia prima seconda che deriva dalle lavorazioni e dagli scarti della stessa lavorazione nel legno o del recupero, una azienda italiana, Valcucine, ha una linea di progettazione che è proprio quella dell’utilizzo minimo dei materiali, di trovare materiali più performativi , se andiamo a vedere il salone del gusto, che l’unico grande salone dell’agroalimentare al mondo che ha quel tipo di impostazione, ci parla di un’attenzione ai temi della salute, dell’ambiente, dei consumatori eccetera. Quindi, significa che nella società c’è una domanda molto forte e la cosa interessante è che questa domanda è nella società e nelle imprese, quindi guardiamo ile imprese come un fatto di società, perché un Paese come l’Italia che ha una impresa i ogni nove abitanti significa che l’impresa è un fatto di partecipazione civile e sociale, non è che c’è la partecipazione e poi c’è l’impresa, significa che la maggior parte delle persone che in Italia lavorano, vivono, discutono di Green Economy nelle loro fabbriche, nei loro laboratori artigiani, nelle loro aziende, questo è molto importante perché significa che c’è un vero e proprio spostamento, da questo punto di vista Rio+20 che cosa è stato se non questo. Mentre la prima Rio era essenzialmente una volontà della politica, accompagnata anche da alcune imprese-Stato che avevano capito, imprese che avevano una dimensione statale, parastatale molto importante, ce ne sono ancora molte, in Italia ma soprattutto negli altri Paesi , per questo poi il Ministro Clini ci racconta che è difficile cambiare il mercato dell’energia, naturalmente stai facendo una cosa che prevede la massima diffusione, distribuzione e autonomia con attori che sono ancora vecchi, centrati, rigidi e quindi è tutto un percorso che si fa, ecco, mentre la prima Rio era la Rio della politica che capisce che sta emergendo una sensibilità e deve rappresentarla, accompagnarla, mitigarla, orientarla, la Rio che c’è stata quest’anno è una Rio dove la politica, per certi versi, ha avuto un ruolo minore ma c’è stato un ruolo molto più forte dell’economia, tant’è che è stato più un gioco di geometrie variabili, accordi, eccetera tra economie che puntano con alcune economie che sono economie nascenti o in via di sviluppo che si possono permettere di avere il più grande investimento nelle energie rinnovabili e le peggiori ebbero miniere di carbone a cielo aperto e altre economie, come le nostre, che invece devono scegliere, devono scegliere perché sono anche obbligate a scegliere ed è quello che in questi anni hanno fatto le imprese italiane. Abbiamo chiamato questo rapporto Green Italy, perché abbiamo pensato che osservando alcune cose, alcune ve le raccontavo prima, la nautica, l’agroalimentare, ma anche vedendo che in Italia, anche su settori nei quali avevamo un ritardo storico, siamo usciti comunque a riposizionarci, tra l’altro qui voglio dire che sì compreremo anche roba dai cinesi però io penso 70 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 20 Novembre che in un Paese manifatturiero come l’Italia abbiamo dimostrato che da installatori spesso siamo diventati produttori, inventori, quindi c’è anche una capacità di rielaborazione, di innovazione che è tipica proprio del sistema manifatturiero diffuso e articolato come quello italiano, abbiamo visto, in poche parole, che non solo nei settori come quello delle energie rinnovabili ma anche in altri settori, questo Paese continuava a mantenere posizioni. I dati dell’export di questi ultimi giorni sono dati drammatici perché adesso anche i tedeschi hanno capito che con queste politiche si frena anche la loro economia, se però questo Paese continua ad essere il secondo Paese manifatturiero d’Europa, nonostante questa flessione nell’export, qualche cosa deve essere successo, perché non si esporta più con la lira, con la svalutazione competitiva, il mercato, cioè la domanda dei consumatori, è completamente cambiata, sempre più sovente chiedono se un prodotto è certificato, come è fatto, se il legno è certificato, quanta CO2 è stata prodotta per fare una bottiglia di vino, tutte queste domande sono crescenti ed emergenti, tant’è che molte aziende italiane del vino affermate oggi stanno lavorando tracciando la loro carbon footprint perché il mercato americano lo richiede, quindi non c’è più la svalutazione competitiva, è cambiato il mercato,la domanda dei mercati, dei cittadini, dei consumatori, se esporti direttamente o se sei componente, fornitore di una filiera deve essere certificato, siamo in integratissimi, la nostra manifattura è la più integrata con una montatura tedesca, allora significa che qualche cosa è cambiato, per questo noi abbiamo parlato e siamo andati a studiarlo, per questo abbiamo parlato di Green Italy perché Green Italy è una nuova sintesi fra Green Economy e Made in Italy; questa sintesi è possibile, cioè non c’è una crisi di rigetto, perché quel Made in Italy è nuovo, è cambiato, non è più il vecchio Made in Italy e, sottoposto alla competizione, sottoposto alla concorrenza, in un regime appunto anche di ambiente monetario comune, ha dovuto, non potendo intervenire sul costo lavoro perché in Italia è incomprimibile, intervenire su altre cose e da questo punto di vista tutte le aziende manifatturiere italiane che esportano, e sono tante, hanno, dal punto di vista del risparmio energetico, dell’ottimizzazione e dell’approvvigionamento da energie rinnovabili, fatto un grandissimo investimento, la maggior parte delle aziende italiane hanno fatto un grandissimo investimento proprio per abbattere i costi. Sono cambiati i processi, con maggior attenzione al risparmio di acqua, al risparmio di materiali, all’utilizzazione di materie prime seconde, la cosa interessante è che cambiando i processi spesso sono cambiati anche prodotti, questo è molto interessante e spiega anche un po’ la forza e la capacità di resilienza che questo Paese ha, nonostante le sue tare storiche e i suoi difetti profondi, però c’è una capacità, perché spesso cambiando il processo, cambia prodotto, per esempio nel vino noi vediamo che alcune aziende cambiano il processo, cambiano quindi ad esempio anche il contenitore per i vini che sono i vini di prima bevuta, cioè quelli che si bevono entro i dodici mesi e che non è detto che debbano stare per forza nel vetro ma possono stare anche in contenitori tipo l’alluminio che si refrigerano molto prima e che incontrano il gusto di un consumatore più giovane che non è abituato ad acquistare il vetro, perché c’è una soglia psicologica di abitudine, e che quindi magari è abituato a bere in lattina e quindi si rivolge verso quel tipo di prodotto, ma a quel punto gli si può proporre anche un prodotto che non è il vino ma un’altra cosa anche se su base d’uva, faccio solo un esempio, ne potrei fare infiniti e, lo voglio dire, li trovate sui siti di Unioncamere e di Symbola, potrebbe scaricare le ricerche con tutte queste parte di racconto e di esperienze, quindi questa è la cosa che abbiamo messo in evidenza e la cosa che più abbiamo messo in evidenza e quello che viene da dire è che la Green Economy è una grande opportunità per un Paese come l’Italia, la Green Economy è una grande opportunità perché l’Italia è da sempre un Paese trasformatore ed è stato un Paese trasformatore quando molti dei fattori di produzione erano fattori che dovevano essere acquistati sui mercati internazionali, dall’energia a materie come l’acciaio, per questo la battaglia che sta facendo il Ministro Clini per l’ILVA è una battaglia giusta, perché un Paese che è così forte nella meccanica, nella meccatronica, l’acciaio se lo deve fare in casa, perché l’acciaio lo sappiamo fare e quindi non possiamo pensare di delocalizzare tutto. Se la Green economy è un’economia nella quale l’energia ce la produciamo, per questo le energie rinnovabili, il risparmio energetico l’efficientamento, è una strategia fondamentale per un Paese trasformatore come l’Italia, se l’energia quindi sempre di più ce la produciamo in maniera intelligente, diffusa, se chiudiamo sempre di più i cicli della produzione, quindi progettiamolo i materiali in maniera diversa, rafforziamo il ciclo del riuso e quindi le materie prime non le compriamo più, oggi molto dell’alluminio lo ricicliamo,lo prendiamo dai consorzi che funzionano, perché l’esperienza dei consorzi italiana è un’esperienza positiva, noi stiamo rendendo un Paese trasformatore più libero, più capace di correre, perché si è tolto delle zavorre storiche, questa è la prospettiva vera, profonda e il vento che soffia dietro non è un vento dell’ideologia. come poteva anche essere venti, trenta, quarant’anni fa, come tutte lo cose allo stato nascente, ma il vento della società che chiede questi nuovi prodotti e questi nuovi orientamenti. C’è un altro fatto che per l’Italia è una chance fondamentale, perché l’Italia è un paese che vende le sue macchine utensili, spesso, perché a parità di tecnologia, ci sono tanti racconti dei nostri imprenditori che sono simpatici, perché spiegano come tante volte i tedeschi, o altri concorrenti, non capiscono perché sia stata scelta una macchina italiana a parità di una macchina di una macchina tedesca con la stessa tecnologia, è perché spesso gli italiani fanno i tappi colorati anche per le cose che devono andare sotto terra e fanno in forma corrugata dei contenitori che vanno sottoterra e che i tedeschi fanno lisci perché i tedeschi sostengono che liscio o corrugato non fa nessuna differenza di prestazione, ma gli italiani lo fanno corrugato Arezzo 20 - 23 novembre 2012 71 20 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute perché al cliente che compra quella cosa il corrugato dà l’idea che tenga meglio le spinte sottoterra, significa allora che c’è una dimensione estetica, cioè il fatto che l’Italia è tradizionalmente un Paese che produce beni che hanno un valore d’uso ma anche un valore estetico, simbolico, se la Green Economy è un’idea di società diversa, di consumi diversi, c’è un mondo nuovo da progettare, un Paese che ha questa attitudine, che ha questa storia, che ha questa radice, perché questa è una radice che si è rinnovata nel tempo, non si è spezzata, ascoltatevi la bellissima prolusione di Giuliano Amato qualche giorno fa agli Stati Generali della Cultura che proprio batteva su questo, sul fatto che questa è la cultura in Italia italica cultura, cioè dalla grande tradizione artigianale, rinascimentale, dove l’alto e il basso stanno insieme, dove la cultura dell’impresa, quando ancora funziona, è la cultura della bottega, anche Power-One, nella sua dimensione multinazionale, nella sua dimensione organizzata, nella sua dimensione manageriale ha questa cultura artigianale, cioè del ben fatto, dell’attenzione, dell’attenzione a chi sa fare. Questo significa che questa è una chance enorme, perché noi abbiamo la possibilità di tenere insieme bellezza e sostenibilità, cioè noi abbiamo la possibilità di riprogettare molte coste e di rinnovare la vocazione italiana alla qualità. Questo è il ragionamento fondamentale che vi volevo fare e, se ho ancora un paio di minuti, vi voglio solo dire che questi dati oggi sono dei dati, questo è un ragionamento, ma noi abbiamo fatto anche un lavoro di interrogazione delle imprese con le camere di commercio, e le imprese che possiamo definire Green in Italia sono 360.000, tra industriali e terziarie, che hanno realizzato tra il 2009 e il 2012 investimenti in prodotti e tecnologie Green. La cosa interessante è che queste imprese sono più internazionali, il 37% di queste imprese ha esportato nel 2011 contro il 22% delle imprese che non fanno investimenti Green, sono più innovative perché il 38% ha sviluppato nuovi prodotti o servizi dei 2011 contro 18% di quelle che hanno certificato di non aver fatto investimenti Green, sono più aperte al lavoro, 241.000 assunzioni programmate nel 2012, il 30% del totale delle assunzioni programmate in Italia per il 2012, hanno più capacità di tenuta al lavoro, capacità non perdere forza lavoro, -0,7% la variazione dipendenti per il 2011/2012 a differenza invece delle altre imprese -1,4. La cosa interessante, è quello che vi dicevo prima, è che molti settori che stanno già nella ecocompetitività, sono la meccanica, il cuoio, pelli e calzature, l’elettronica, questi hanno un trend molto positivo dalle analisi che abbiamo fatto noi, hanno un trend positivo gli alimentari e le bevande, il tessile e l’abbigliamento, i mezzi di trasporto e c’è un processo di ecoconvergenza, cioè le imprese che avevano maggiore impatto ambientale sono quelle che stanno facendo uno sforzo maggiore proprio per essere più virtuose dal punto di vista ambientale, abbiamo in tendenza molto positiva la carta, la stampa e l’editoria e in tendenza positiva il legno arredo, la gomma plastica, i minerali non metalliferi, la chimica, la farmaceutica e la metallurgia. Altra cosa molto importante, questo è un passaggio molto importante, è chiaro che in termini assoluti non c’è partita tra le imprese della Lombardia è e quelle della Campania, mas in termini percentuali la Green Economy non ci restituisce un Paese diviso in due, si investe molto anche al Sud il che significa che spesso le politiche industriali sono importanti,ma spesso le politiche industriali sono state o totalmente assenti o sono state “ortopediche”, nel senso di voler rifare i connotati, e invece dovrebbero essere un po’ più “sartoriali”, cioè vedere quello che sta emergendo,queste rilevazioni ci rivelano che anche il Sud sta investendo, sta camminando, quindi non c’è una distanza, non c’è la classica forbice tra Nord e Sud come avviene sempre anche nei momenti di partenza tra Nord e Sud e che invece c’è una capacità di convergenza, questo è molto importante perché significa allora che la Green Economy è veramente un cambio di paradigma, un passaggio di fase che rimette in discussione anche vecchie strozzature e impedimenti nel nostro Paese. Grazie. 72 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 20 Novembre Energie rinnovabili: occasione di innovazione e sviluppo sostenibile "Energie rinnovabili per lo sviluppo e l’occupazione" Anna Rita Bramerini Assessore Regionale Ambiente Regione Toscana A metà di un cammino, importante e promettente. Definerei così la posizione della Toscana sul tema dell’energia da fonti rinnovabili. Siamo una Regione che ha fatto buone cose, ma che ha ancora molti margini di miglioramento, tanti obiettivi ancora da conseguire e ci auguriamo che diventeranno più semplici da realizzare anche grazie alle imprese, toscane e non, che hanno sede nel nostro territorio. Dico di più. La sfida della Green Economy è per noi una delle carte fondamentali da giocare per uscire dal tunnel della crisi economica in cui ci troviamo ormai dal 2008 e questa scelta è stata già definita a grandi linee tra gli obiettivi nel nuovo Piano regionale di sviluppo. Oggi parliamo di Green Economy prevalentemente rispetto alle questioni dell’energia – impulso alle rinnovabili, efficienza, emissioni -, ma è assolutamente necessario che cogliamo la valenza più ampia del tema, perché esso chiama in causa, sostanzialmente, la capacità di un sistema economico, produttivo e sociale, di ridefinirsi, facendo i conti con il fatto che noi viviamo in un contesto in cui le materie prime sono sempre meno disponibili, come ha detto chiaramente, di recente, la relazione presentata dal vice presidente della Commissione europea, AntonioTajani. Di fronte a questa realtà, o noi ci attrezziamo, rimodellando le nostre economie, ridefinendo stili di vita, di consumo e di produzione in modo tale da riusare o da usare meglio le risorse primarie, o rischiamo di sottoporre le nostre comunità a costi sempre più elevati e insostenibili. E parlo delle famiglie, ma anche delle imprese, per le quali i costi dell’energia attuali sono un fattore fortemente critico dal punto di vista della competitività. La Green Economy e le energie rinnovabili, dunque, come straordinario volano di sviluppo per una regione come la Toscana. Lo testimoniano anche i dati dell’Irpet che nel suo ultimo rapporto, partendo da un deficit di consumi energetici in Toscana del 24% circa al 2010, dice che se noi riuscissimo, da qui al 2020, in modo strutturale ad aumentare la nostra capacità di produrre energia elettrica da fonti rinnovabili, riducendo quindi progressivamente la dipendenza dall’esterno, riusciremmo ad aumentare indicativamente il nostro Pil di 1,5 punti percentuali con una stima di 11.000 occupati all’anno. Considerando naturalmente, in Toscana, il ruolo di una risorsa come la geotermia che oggi conta in Toscana una produzione di 811 MW circa. C’è quindi uno spazio enorme nel quale muoversi. Credo anche, però, che questa materia sia tra quelle che consentono di mettere in evidenza le opportunità, ma anche le contraddizioni del nostro Paese. Perché se da un lato c’è il mondo imprenditoriale che incalza, se c’è una coscienza civica sempre più attenta rispetto all’uso delle risorse primarie, e quindi anche all’energia, e se tutto questo si traduce in uno stimolo crescente verso la Pubblica Amministrazione, è anche vero che poi, quando arrivano alle amministrazioni pubbliche, richieste per la realizzazione di impianti da fonti di energia rinnovabili (FER), tutto diventa diverso e si complica. Succede che frequentemente quegli stessi promotori di opinione pubblica - gli stakeholders - non sostengono la Pubblica Amministrazione quando, nel rispetto delle prescrizioni di legge, autorizza gli impianti per cui viene richiesta l’autorizzazione. Dico questo con cognizione di causa perché, avendo in giunta regionale la delega all’energia, ho seguito tutte e tre le fasi che hanno accompagnato lo sviluppo delle FER, almeno delle principali: prima la stagione dell’eolico, poi la stagione del fotovoltaico, ora quella delle biomasse. Tre stagioni alimentate, per così dire, dalla politica degli incentivi. In queste tre circostanze noi abbiamo registrato forti contrapposizioni rispetto alle risposte che il territorio, i cittadini hanno dato rispetto alla realizzazione di impianti, spesso neanche particolarmente grandi. Sono sorti numerosi comitati contro l’eolico, contro il fotovoltaico, in particolare quello a terra, contro le biomasse. Su questo fenomeno non voglio sottrarmi ad una riflessione. Non contesto assolutamente il diritto al dissenso, credo che l’opinione pubblica abbia il pieno diritto di fare domande e di ottenere risposte chiare sul tema della sicurezza e della salute. Tuttavia l’atteggiamento che abbiamo registrato in questi anni denota in modo evidente come il nostro sia un Paese poco incline all’innovazione. E quando dico innovazione non intendo solo quella tecnologica, che è comunque uno degli asset su cui poggia la capacità di diventare un “paese green”, perché senza nuove tecnologie difficilmente si può pensare di riconvertire sistemi produttivi o di accrescere fatturato e posti di lavoro in settori di nuova frontiera. Penso anche ad un’altra innovazione di cui la nostra società ha un bisogno vitale: è quella di una cultura di governo, che deve coinvolgere le istituzioni, ma anche i cittadini. La risposta, l’unica possibile a mio parere, all’ondata di antipolitica o di indifferenza che rischia di far perdere Arezzo 20 - 23 novembre 2012 73 20 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute competitività al nostro paese. Ci vuole buona politica, buona amministrazione, efficiente, onesta, competente, ma abbiamo anche bisogno di un’opinione pubblica interessata al tema del governo, esigente, ma responsabile. L’alternativa è uno stallo che rischia di essere esiziale per il futuro delle nostra comunità. Credo che non vi sia Valutazione di Impatto Ambientale che noi abbiamo seguito, come Regione Toscana, almeno sugli impianti più grandi, che non abbia destato contrapposizioni forti, non tanto e solo da parte del cittadino comune, cosa che si può anche comprendere, ma da parte di altri soggetti, anche rappresentanti di quel mondo intellettuale che ha in Toscana il suo “buen retiro” e che può contare su una notevole capacità di fuoco mediatico”. Di fronte a questo, però, la Regione non si è chiusa a riccio. Abbiamo dialogato, ci siamo confrontati. Soprattutto abbiamo intrapreso il lavoro per il nuovo Piano Ambientale Energetico Regionale, che è attualmente in valutazione ambientale strategica, e, in particolare sull’energia, ci siamo dati obiettivi non banali cercando di dare un’indicazione per quello che può fare una Regione. Abbiamo tenuto conto dell’obiettivo che ha posto lo Stato con il burden sharing da qui al 2020, e che comporta come Regione Toscana un aumento, a quella data, di circa il 16,5% di energia termica elettrica rispetto a quella prodotta fino al 2010, con un valore aggiunto enorme che la termica darebbe e che rappresenta, a differenza dell’energia elettrica, una sfida nella sfida rispetto alla capacità di produrla attraverso fonti rinnovabili. In vista di questo obiettivo abbiamo recepito nel Piano Ambientale Energetico Regionale le linee guida nazionali per quanto riguarda le aree non idonee all’istallazione di queste fonti (l’avevamo già fatto lo scorso anno con il fotovoltaico a terra, che aveva scatenato anche in Toscana una corsa alla realizzazione di parchi significativi sul territorio agricolo). Nel Piano poniamo l’attenzione su altre due questioni: una è la filiera del legno, l’altra è la filiera del calore. Dopo aver creato il Distretto per la Green Economy, che comprende anche le aziende che producono la componentistica per le fonti rinnovabili, con circa 300 imprese aderenti (ma in Toscana ne abbiamo molte di più che operano in questi settori), e dopo aver partecipato al bando del Ministero dell’Istruzione per l’alta formazione insieme alle Università e al mondo della ricerca, ci siamo chiesti: cosa ci contraddistingue in modo forte? Ecco, abbiamo pensato all’enorme patrimonio agroforestale della Toscana. Stimiamo, lo dice uno studio del Settore agricoltura della Regione, la disponibilità di circa 600.000 tonnellate di materia prima che potrebbe essere utilizzata senza fare praticamente niente, come semplice effetto della manutenzione dell’esistente. E allora quale miglior occasione per far nascere una filiera del legno che, mettendo insieme chi produce e chi consuma questi materiali, consenta di realizzare in Toscana piccoli impianti a biomasse. Con queste 600.000 tonnellate si potrebbero, dicono i nostri tecnici, produrre circa 60/70 MW di potenza elettrica nella nostra regione. L’altro elemento che ci contraddistingue è la geotermia, che noi conosciamo sotto forma di sfruttamento industriale dell’energia ad alta entalpia e che è appannaggio di ENEL. Tuttavia, grazie al decreto che un paio di anni fa ha liberalizzato la media entalpia, una regione come la nostra può sfruttare anche la geotermia a temperature anche più basse. Non è un caso che non appena il Governo ha liberalizzato il settore, in Toscana abbiamo subito cominciato a registrare una infinità di richieste di permessi di ricerca - circa una cinquantina - a dimostrazione delle potenzialità di crescita che la bassa e media entalpia hanno in regioni come la Toscana, forse parte del Lazio e della Campania e in Sicilia. Anche qui, se vogliamo che l’opportunità si concretizzi, dobbiamo riuscire a costruire una filiera che vada dallo sfruttamento della risorsa che già c’è, alla capacità di installare impianti che possono produrre energia geotermica da media entalpia. Però questo lo dobbiamo fare sfruttando anche la capacità di realizzare qui l’impiantistica necessaria, altrimenti rischiamo di subire gli effetti delle altre “ondate” nel settore delle fonti rinnovabili, con il fatturato non realizzato in Toscana, ma altrove. Chiudo dicendo che per noi quella della Green Economy è una grande scommessa. Lo è non solo per gli obiettivi che ci pone lo Stato, ma perché la Toscana si trova a vivere, come tante altre regioni nel nostro Paese, una situazione di grande criticità dal punto di vista economico e occupazionale. Credo che per poter conseguire questi obiettivi serva fondamentalmente un salto di qualità complessivo che, a livello nazionale come regionale, dobbiamo compiere e che deve vedere nella politica, nel Governo, nelle Istituzioni locali i principali protagonisti. Di questo abbiamo bisogno, perché altrimenti, con gli atteggiamenti contraddittori che rammentavo prima, rischieremo di perdere straordinarie opportunità. Di questi tempi, è una sfida nella sfida, perché in questi tempi si gioca anche molto la credibilità delle Istituzioni e di chi le governa. Penso che se su questo tema riusciamo a tenere, e anche a contrastare fenomeni che spesso e volentieri si connotano anche per una certa ambiguità rispetto a un tema come quello delle rinnovabili, daremo 74 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 20 Novembre un bel contributo alla crescita delle nostre comunità. Dobbiamo affrontare questa discussione con trasparenza e spirito critico, ma senza lasciarsi condizionare dalla paura (che è cosa diversa dalla legittima preoccupazione) e dagli istinti di conservazione. Gli atteggiamenti ondivaghi della Pubblica Amministrazione rischiano di essere i peggiori nemici di noi stessi. Serve quindi veramente un grande coraggio e uno sforzo di dimensioni collettive. Penso che una regione come la Toscana debba sentire fino in fondo il dovere istituzionale di giocare una partita come questa. Forte della consapevolezza di aver dimostrato, anche nel recente passato, di saper fare cose serie su progetti e investimenti che all’inizio non erano certo accompagnati dalla condivisione delle comunità locali. Arezzo 20 - 23 novembre 2012 75 20 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute Energie rinnovabili: occasione di innovazione e sviluppo sostenibile "Green Economy: le potenzialità dell’Italia" Stefania de Feo Confindustria Sono Stefania de Feo di Confindustria, guardiamo insieme quali sono oggi le potenzialità dell’industria italiana nella green economy. Con la prima slide volevo innanzitutto mostrarvi qual è lo scenario dell’evoluzione delle emissioni globali di CO2 dal 2009 al 2035; secondo il World Energy Outlook, a livello globale, noi andremo a raddoppiare l’inquinamento atmosferico. Il dato più sconcertante è che in realtà saranno solo due Paesi, Cina e India, che contribuiranno per la maggior parte a questo forte incremento, infatti andranno a contribuire all’inquinamento atmosferico nel 2035 per il 40%. Di contro, l’Europa andrà a tagliare le proprie emissioni di CO2 del 3%. Tutto questo ci fa capire come in realtà la lotta al cambiamento climatico non può prescindere da degli accordi internazionali che coinvolgano tutti i Paesi a livello mondiale, soprattutto i Paesi in via di sviluppo che sono quelli maggiormente responsabili delle emissioni di CO2. D’altro canto l’Europa, già da molto tempo, ha assunto la leadership, a livello mondiale, nella lotta al cambiamento climatico, conosciamo tutti il Pacchetto 20 20 20 che definisce degli obiettivi ambiziosi di sostenibilità ambientale: riduzione delle emissioni di CO2 al 2020 del 20%, un incremento delle fonti rinnovabili del 20%, sempre al 2020, calcolato sul consumo finale loro di energia e un incremento dell’efficienza energetica sempre al 2020. Di questi tre obiettivi in realtà solo due sono stati tradotti in obiettivi vincolanti, quello sulle emissioni di CO2 e quello sulle fonti rinnovabili. L’obiettivo sull’efficienza energetica continua ad essere un obiettivo meramente indicativo ma vedremo che le tecnologie per l’efficienza energetica sono quelle che daranno il maggior contributo nella lotta ai cambiamenti climatici per raggiungere il target nazionale. Per quanto riguarda il target nazionale di riduzione delle emissioni di CO2 al 2020, partendo da uno scenario di emissioni 575 milioni tonnellate di CO2, la riduzione del 20%al 2020 - la suddivisione deve essere ripartitita tra i settori ETS e non ETS, ai settori ETS viene comunque chiesto un contributo maggiore di riduzione del 21%, ai settori non ETS del 13% - si quantifica in ben 95 milioni di tonnellate di CO2. Come riusciremo a raggiungere questo target? Attraverso il contributo dell’efficienza energetica e delle fonti rinnovabili riusciremo non solo a raggiungere il target, quindi tagliare di 95 milioni di tonnellate di CO2 le nostre emissioni, ma addirittura a superarlo di quasi il 10%. Attraverso l’efficienza energetica riusciremo comunque a risparmiare circa 73 milioni di tonnellate di CO2, attraverso le fonti rinnovabili circa 30 milioni di tonnellate di CO2. Questi sono i potenziali di riduzione di CO2 applicando le misure per l’efficienza energetica e per le fonti rinnovabili previste nell’allegato I e II della proposta di Delibera CIPE che comprende il piano di azione per le fonti rinnovabili, il quarto conto energia, il piano di azione per l’efficienza energetica del 2011. Cosa importante è che l’efficienza energetica contribuirà al raggiungimento e superamento del target di sostenibilità ambientale per la CO2 per il 71%, le fonti rinnovabili solo per il 29%. Tutto questo per quanto riguarda gli obiettivi nel medio termine. L’Europa in realtà sta già pensando a obiettivi di lungo periodo, al 2050, definendo una strategia di politica energetica tesa alla totale decarbonizzazione dell’economia. Seguendo il Committment del Consiglio d’Europa del 2009 che stabilisce una riduzione delle emissioni di gas serra fino al 90% al 2050, sono state elaborate delle roadmap dalla DG Clima e dalla DG Energy. La DG Clima attraverso la Low Carbon Economy Roadmap al 2050 definisce un obiettivo di riduzione delle emissioni di CO2 dell’82% e definisce poi tutta una serie di step intermedi. Nella slide possiamo vedere come secondo la Commissione Europea al 2020 l’Europa riuscirà addirittura a superare il target del 20% raggiungendo un obiettivo di riduzione del 25%, solo però se a livello europeo riusciamo a raggiungere il target sull’efficienza energetica che è comunque un target non vincolante. La DG Energy invece ha elaborato la Energy roadmap al 2050 in cui definisce un quadro normativo europeo a lungo termine, neutrale dal punto di vista tecnologico per creare un sistema energetico competitivo e completamente decarbonizzato. Gli strumenti per raggiungere queste decarbonizzazione sono sempre efficienza energetica e fonti rinnovabili, indicando al 2050 un obiettivo di penetrazione delle fonti rinnovabili addirittura del 55%. Proprio alla luce di questi obiettivi particolarmente ambiziosi a livello europeo, nel momento in cui gli Stati membri dovranno declinare questi obiettivi a livello nazionale, è necessario che ciascun governo consideri sia la sostenibilità economica sia il potenziale di sviluppo dell’industria nazionale. Per quanto riguarda la sostenibilità economica dovrebbero essere promosse quelle tecnologie che consentono di raggiungere questi obiettivi con il minor costo possibile; questa slide rappresenta l’ordine di merito economico delle tecnologie per la sostenibilità ambientale indicando il costo medio di abbattimento delle emissioni di CO2 Possiamo vedere come le tecnologie per l’efficienza energetica siano quelle maggiormente convenienti, hanno un costo addirittura negativo. Ma dobbiamo guardare anche a quello che è il potenziale di sviluppo dell’industria nazionale. Oggi possiamo dire che l’industria dell’efficienza energetica è in qualche modo il pilastro della green economy italiana, conta 400.000 imprese e 3.000.000 di occupati. Un incremento degli investimenti in tecnologie efficienti può dar vita ad un ciclo virtuoso con delle ripercussioni benefiche su tutto il Paese. Confindustria con uno studio specifico ha voluto quantificare gli effetti delle misure per la promozione dell’efficienza 76 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 20 Novembre energetica sul bilancio dello Stato e sul sistema paese. Lo studio utilizza una matrice dinamica che utilizza le tavole input/output, attraverso cui è possibile valutare come la variazione della domanda di un bene si propaghi sull’intero sistema economico. Abbiamo quindi considerato quali effetti potesse avere sul bilancio statale, guardando a quelle che sono le imposte dirette e indirette, sul sistema energetico e sullo sviluppo industriale, un meccanismo di incentivazione dell’efficienza energetica per dieci anni. Per quanto riguarda il bilancio statale, l’onere a carico dello Stato sarà di circa 15 miliardi di euro, questi sono i valori cumulati dal 2010 al 2020 (slide), perché abbiamo dei contributi statali per gli incentivi, abbiamo una minore entrata a causa della riduzione delle accise e dell’IVA per minori consumi energetici, abbiamo d’altronde anche delle entrate positive per una maggiore occupazione, per maggior redditi delle imprese. L’effetto economico sul sistema energetico è particolarmente positivo. Attraverso questo sistema di promozione della domanda di beni di alta efficienza riusciremo a risparmiare circa 51 milioni di tonnellate equivalenti di petrolio per una valorizzazione economica di circa 25 miliardi di euro, riusciremo a tagliare le emissioni di CO2 di circa 200 milioni di tonnellate per un risparmio economico di circa 5 miliardi. Tutto ciò avrà anche un impatto positivo sullo sviluppo industriale, avremo comunque un aumento della domanda, un aumento della produzione e dell’occupazione. In poche parole possiamo dire che con questo sistema di incentivazione costante per 10 anni avremo un effetto positivo sul sistema paese di circa 15 miliardi di euro, circa lo 0,4% del PIL. Con il nuovo documento, ancora in bozza, della Strategia Energetica Nazionale, il Governo sostiene di condividere questo indirizzo di politiche energetiche verso la de carbonizzazione. Occorre però trasformare la sfida ambientale in quella che è un’opportunità di crescita industriale puntando su quelle tecnologie in cui il nostro Paese vanta la leadership tecnologica. Per fare questo sono necessarie tutta una serie di azioni; è necessario definire un framework normativo certo e stabile nel tempo perché gli investitori e gli enti finanziatori hanno bisogno di stabilità, è necessario promuovere l’attività di ricerca e di sviluppo perché è necessario assicurare un alto standard di innovazione: solo attraverso l’innovazione si può avere un abbattimento dei costi delle tecnologie e quindi una maggior diffusione sul territorio; sono necessarie campagne formative e informative soprattutto nei confronti della pubblica amministrazione, un’azione di semplificazione amministrativa, ed il controllo delle contraffazioni. È necessario che questi obiettivi particolarmente sfidanti che si andranno a delineare da qua al 2050, siano trasformati in un’opportunità di crescita industriale, economica e occupazionale per il nostro Paese. Grazie. Arezzo 20 - 23 novembre 2012 77 20 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute Energie rinnovabili: occasione di innovazione e sviluppo sostenibile "II Quinto Conto Energia – Risultati Raggiunti" Luca Di Carlo Trascrizione non revisionata dal relatore Centro Studi GSE GSE è una società posseduta al 100% dal Ministero dell’Economia e delle Finanze che opera secondo le direttive del Ministero dello Sviluppo Economico e direttive dell’Autorità per l’energia elettrica e il gas, quando dico del Ministero dello Sviluppo Economico dico di fatto di azioni concertate tra il Ministero dello Sviluppo Economico e il Ministero dell’Ambiente. La nostra mission fondamentale è la promozione dello sviluppo sostenibile, attraverso l’erogazione di incentivi economici destinati alla produzione energetica da fonti rinnovabili, con azioni informative tese a diffondere la cultura dell’uso dell’energia compatibile con le esigenze dell’ambiente. Focalizzando l’attenzione sul fotovoltaico vi inonderò un po’ di numeri che però penso siano quelli che ci rimangono più impressi e che consentono a tutti noi di fare autonomamente delle considerazioni e tirare delle conclusioni. Ho fatto fare un’estrazione di quelli che sono i risultati che sono stati raggiunti in Italia sul Conto Energia, quindi per il fotovoltaico solare, alla data del 15 novembre 2012. Quello che si vede da questa slide è che oggi abbiamo raggiunto quasi 460.000 impianti e una potenza installata di quasi 16 GW. Sono numeri importanti, se poi guardate a quello che è il trend anno per anno, vedete che si è evoluto. Si è partiti da un numero di impianti quasi inesistente nel 2006 per poi avere una crescita esponenziale nel 2009, 2010, 2011 e poi diminuire nuovamente nel 2012. Quello che può essere interessante è che se analizzate il valore della potenza media degli impianti incentivati, vedete che dall’anno 2011 che vedeva una potenza media di 54 kW siamo subito scesi a 24. Per capire quella che è la localizzazione geografica di questi impianti e quella che la distribuzione sull’intero territorio nazionale, potete vedere dalla slide quali sono le regioni più virtuose, sia in termini di numero, sia in termini di potenza. Le regioni che presentano una maggiore concentrazione in termini di numero sono le regioni del Nord, Lombardia, Veneto, Emilia Romagna, mentre invece in termini di potenza vediamo che una regione come la Puglia presenta già da sola il 15% della potenza installata, questo è anche legato a un quadro normativo più favorevole che ha facilitato tali tipi di realizzazioni. Abbastanza interessante per capire quale sia la segmentazione di questi impianti in esercizio, in questa slide vedete che, avendo distinto gli impianti a seconda della potenza nelle varie classi, in termini di numero circa il 70/80% degli impianti sono sotto i 20 kW; diversamente, se parliamo di potenza, gli impianti si concentrano nella classe 200 MW fino a raggiungere ben 6.000 MW. Il DM 5 luglio 2012, cosiddetto Quinto conto Energia, pone una particolare attenzione al controllo dell’onere legato all’incentivazione di impianti da fonte rinnovabile, questo avviene sia nel decreto che riguarda l’incentivazione del fotovoltaico solare ma avviene anche con il decreto delle FER elettriche. Questo ha fatto in modo, su indicazione chiara e precisa di entrambi i Ministeri, sia dello Sviluppo Economico che dell’Ambiente, di rendere quanto più pubblici, noti, contestuali, i dati di costo legati alle incentivazioni, giorno dopo giorno. Abbiamo implementato presso il GSE un contatore fotovoltaico che viene aggiornato giornalmente e che quantifica il costo indicativo cumulato annuo degli impianti incentivati. Dalla slide, potete vedere quali sono i pesi in termini di numero, potenza ma anche di costo indicativo cumulato dei singoli Conti Energia associati ai vari decreti che hanno consentito l’incentivazione fino ad arrivare a quello del Quinto Conto. Oggi, noi registriamo una spesa di 6,5 miliardi compresi anche gli impianti iscritti a Registro anche se non sono entrati in esercizio. Una cosa che volevo evidenziare è che il decreto cesserà di applicarsi 30 giorni dopo il raggiungimento del costo indicativo cumulato dei 6,7 miliardi, in quei 30 giorni dopo i 6,7 miliardi, i vari produttori potranno ancora far pervenire le richieste di incentivazione purché gli impianti siano entrati in esercizio in quella finestra temporale. Il Quinto Conto Energia riguarda tutti gli impianti che sono entrati in esercizio dopo il 27 agosto, questo non significa che chi è entrato prima non possa fare ancora domanda di incentivazione purché sia rispettato il plafond reso disponibile. Quello che ritengo sia opportuno evidenziare è che effettivamente ancora possono chiedere, fino al raggiungimento dei 6,7 miliardi, il premio abbinato a un uso efficiente dell’energia tutti gli impianti ammessi alle tariffe incentivanti. Il Quinto Conto Energia non ha previsto una tariffa, un premio, per l’uso efficiente dell’energia, per chi però è stato incentivato con il Secondo, Terzo e Quarto, attraverso appositi accorgimenti operanti direttamente sull’involucro edilizio, è possibile avere un incremento della tariffa incentivante che può arrivare fino al 30%. Dico questo perché parliamo di efficienza energetica, sono interventi che possono essere resi a livello abbastanza diffuso, possono coniugare la produzione della fonte rinnovabile con interventi di efficienza in maniera molto stretta, noi abbiamo richieste sul premio dell’efficienza energetica estremamente basse, abbiamo valori che possono arrivare a 30 domande al mese, proprio perché non c’è un’opportuna conoscenza e informazione di questa possibilità che i precedenti decreti avevano dato. Il Quinto Conto energia si sviluppa secondo degli intervalli semestrali di operatività, caratterizzati da valori delle tariffe incentivanti decrescenti. Le tariffe incentivanti sono riconosciute alle seguenti tipologie di impianti: impianti fotovoltaici installati su edifici, impianti fotovoltaici integrati innovativi, impianti fotovoltaici a concentrazione. 78 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 20 Novembre Il Quinto Conto Energia prevede la possibilità di beneficiare di premi aggiuntivi alle tariffe incentivanti per l’utilizzo di componenti EU o prodotti all’interno dello spazio economico europeo, per interventi di realizzazione di impianti fotovoltaici in sostituzione di coperture in eternit, nonché tariffe particolari per particolari manufatti come pergole, serre, tettoie, fabbricati rurali ecc. Il Quinto Conto Energia è entrato in vigore l’11 luglio, di fatto il primo semestre di operatività del Quinto Conto Energia è partito dal 27 agosto e terminerà il 26 febbraio quindi il secondo semestre partirà a valle del 27 febbraio. Se non saranno raggiunti i famosi 6,7 miliardi previsti dal decreto, verrà aperto il II Registro la cui apertura è prevista per il 19 marzo. Il I Registro vedeva un plafond di spesa reso disponibile di 140 milioni di euro, è noto a molti operatori che sono stati impegnati soltanto 90 milioni di euro, il II Registro ne prevede 120. Le novità rispetto ai precedenti decreti che hanno disciplinato il Conto Energia sono fondamentalmente due: le modalità di accesso e l’impostazione della incentivazione. La modalità di accesso all’incentivazione più disciplinata, più contingentata, più regolata per cui si prevede un accesso diretto per impianti con certe determinate caratteristiche sia di potenza che di tipologia e un accesso al Registro per tutti gli altri impianti. relativamente all’impostazione dell’incentivazione, non è più un feed-in premium ma un feed-in tariff, fondamentalmente viene incentivata l’energia immessa in rete secondo una tariffa omnicomprensiva che nel caso in cui l’impianto abbia una potenza inferiore a 1 MW tiene conto del valore dell’energia mentre nel caso in cui la potenza dell’impianto sia superiore a 1 MW la tariffa incentivante riconosciuta è una tariffa variabile, non fissa, ed è quindi la differenza tra l’omnicomprensiva e il prezzo zonale orario. In questo caso però l’energia rimane nella disponibilità del produttore. Ulteriore caratteristica del decreto è che è stata ipotizzata una tariffa premio legata al consumo dell’energia in sito. Nel 2011, anche in virtù dei diversi provvedimenti normativi, siamo stati inondati da situazioni stop and go, grossi afflussi, fermi, proprio perché legati alle scadenze che i quadri normativi davano. Adesso siamo ritornati in una situazione di equilibrio, una situazione di regime, almeno con il Quinto Conto, e l’afflusso delle domande di incentivazione che giornalmente ci pervengono è di 150/200 domande al giorno, quindi un valore fisiologico che era un po’ quello storico. Dico questo perché il GSE si è trovato a far fronte a carichi di domande che sono arrivate fino a 22.000/24.000 domande al mese. Quali sono le caratteristiche degli impianti che ad oggi hanno fatto richiesta sul Quinto Conto? Innanzitutto, in accesso diretto sono pervenute già 9.500 domande per una potenza corrispondente di 50 MW. Per capire quali sono le caratteristiche e le tipologie degli impianti ho voluto fare questa segmentazione perché ne caratterizza alcuni, vanno un po’ fuori quelli che sono gli impianti tradizionali che con gli altri precedenti decreti consideravamo. Se focalizziamo l’attenzione in termini di numero il 90% sono impianti sotto i 12 kW, è però importante vedere come il numero delle installazioni legate all’Eternit cominci ad essere un po’ più consistente, il 3%, come gli impianti CPV a concentrazione, gli impianti BIPV cioè quelli innovativi, integrati architettonicamente, stanno iniziando ad assumere un valore abbastanza importante. Gli impianti iscritti a Registro sono 3.600 per una potenza di 960 MW. Quello che deve far riflettere è che dei 140 milioni di euro disponibili soltanto 90 milioni di euro sono stati impegnati. Ancora una volta, sempre per tenere sotto controllo e dare la possibilità a tutti gli stakeholder di capire effettivamente come girano i numeri, abbiamo implementato e reso pubblico sul sito del GSE il dettaglio del contatore del Quinto Conto. Questa è la fotografia al 15 novembre 2012 (slide), gli impianti sono stati distinti secondo le diverse tipologie: a concentrazione, integrati innovativi, realizzati dalle Pubbliche Amministrazioni. Questo ovviamente ci consente di monitorare il costo indicativo cumulativo annuo delle singole tipologie perché l’accesso diretto viene per i CPV, i BIPV e per le Pubbliche Amministrazioni fino al raggiungimento dei 50 milioni di euro dopodiché sono sottoposte alle altre modalità. Stiamo tenendo sotto monitoraggio anche gli impianti a Registro, numeri sono quei 966 MW che di fatto stanno già entrando in esercizio e quindi riusciamo giornalmente a capire qual è la potenza impegnata e quella entrata in esercizio di questi 966 MW. Il Quinto Conto Energia ha dato una particolare dignità agli impianti fotovoltaici integrati con caratteristiche innovative. Sono cioè quei particolari impianti in cui il pannello fotovoltaico si integra con l’involucro edilizio e ne sostituisce un po’ le caratteristiche termiche, meccaniche e idrauliche. Le tariffe sono tariffe importanti, un +30% rispetto agli impianti classici. Gli operatori hanno subito capito il questo e il trend che si attestava su 200 domande al mese ha subìto uno sbalzo in avanti fino ad arrivare a 1.500 domande al mese. È molto probabile che anche sul Quinto Conto Energia ci sarà una crescita analoga. Questo per dire quanto questo tipo di impianti sta suscitando particolare interesse, impianti su cui l’innovazione tecnologica trova particolare applicazione. Per quanto riguarda gli impianti a concentrazione, nel Terzo Conto c’era un solo impianto a concentrazione incentivato per di più di una potenza di 25 kW. Ovviamente il discorso delle tariffe incentivanti ha destato l’attenzione dei vari operatori e nel Quarto Conto si è passati a 54 impianti, un importante passo in avanti non solo in termini di numero ma anche in termini di potenza perché si è arrivati a 15 MW. Questo numero è destinato ancora a crescere perché l’interesse da parte degli operatori è importante. Al Ministero dell’Ambiente è un tema abbastanza caldo, per cui ho voluto fare una slide sulla realizzazione di impianti fotovoltaici in cui il modulo sostituisce l’Eternit. Anche in questo caso ci sono dei premi che sono legati alla potenza ma anche a una evoluzione temporale, a delle scadenze temporali. Sono premi importanti perché si parla di 20/30 euro MWh. Non sono valori piccoli e comunque sono valori che trovano soddisfazione, perché l’evoluzione numerica degli impianti che chiedono di essere incentivati anche in questa forma è considerevole, si passa da 4.500 impianti nel 2010 fino ad arrivare a ben 23.000 a novembre 2012 Arezzo 20 - 23 novembre 2012 79 20 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute con una potenza che arriva a 2.000 MW. Se parliamo poi della superficie di Eternit smaltita arriviamo 22 chilometri quadrati. La classe di potenza più interessata è quella che va dai 20 a 1 MW, quindi si parla di capannoni agricoli o industriali. Il GSE è sempre impegnato, in particolar modo esiste una direzione apposita nella divulgazione di tutte le informazioni che stanno nel settore del rinnovabile. È aperta a tutti: Pubbliche Amministrazioni, Stakeholders. Cerchiamo con apposita documentazione di divulgare le informazioni e i numeri che noi abbiamo a disposizione. Nell’ambito del fotovoltaico divulghiamo le regole applicative, le guide, i cataloghi e molto altro proprio per rendere quanto più trasparente e ampia possibile l’informazione da parte del GSE. Grazie. 80 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 20 Novembre Energie rinnovabili: occasione di innovazione e sviluppo sostenibile "Energie rinnovabili per lo sviluppo e l’occupazione" Averaldo FarriPower-One Vorrei solo fissare l’attenzione su due o tre punti che mi pare non siano stati menzionati negli interventi precedenti. Un punto importante riguarda il numero di posti di lavoro che con il fotovoltaico e con le rinnovabili abbiamo creato in Italia. Abbiamo i dati di Confindustria di Arezzo dove si dice che nella sola provincia di Arezzo ci sono 4.000 aziende impiegante nel settore delle rinnovabili e oltre la metà impegnate direttamente nel settore del fotovoltaico. In Italia sono stati creati circa 18.000 posti di lavoro diretti e oltre 100.000 posti di lavoro se si considera tutto l’indotto che gravita intorno al nostro mondo. Credo quindi che non si possa negare che l’impatto sul mercato del lavoro sia stato un impatto positivo specialmente in un momento tremendo come questo dove nel 2011 in Italia hanno chiuso 2.000 aziende al mese, abbiamo avuto 26.000 perdite di aziende o di Partite IVA in un anno. Si poteva fare di meglio, la massa di denaro che è stata elargita in incentivi poteva forse essere gestita con un po’ più di oculatezza. I 9 GW installati in un anno di cui diceva prima l’Ing. Di Carlo purtroppo, grazie a dei corridoi di sviluppo che sicuramente non hanno richiesto le aziende, sono stai per noi una iattura, credo che nessuno si aspettasse o volesse un mercato di tali dimensioni. Però è successo e possiamo solo gestire la situazione. Mi premeva dire che sul nostro mondo se ne sentono dire tante, abbiamo avuto per anni, per mesi, una stampa continuamente contro e abbiamo sentito dire una serie di sciocchezze infinite. Mi permetto di dirlo perché queste sciocchezze che vengono dette hanno un impatto sull’opinione pubblica ma non vanno a dar fastidio a chi magari specula su un impianto, ma vanno a dar fastidio a chi poi dà lavoro, a deve investire e far crescere e progredire un’azienda. Mi riferisco per esempio al fatto che si dice spesso e volentieri che in Italia, per il fotovoltaico, abbiamo usato tecnologie obsolete, si dice in realtà una cosa imprecisa, si può dire magari che la tecnologie è evoluta nel tempo e che potevamo aspettare a installare i 9 GW fra due anni, questo potrebbe essere un dibattito. Ho anche sentito dire in televisione dal Prof. Giavazzi, un autorevolissimo consulente del Ministero dell’Economia con il quale ho intrattenuto anche uno scambio di mail, che è sufficiente fare come negli Stati Uniti dove basta verniciare il tetto di una casa e si ottiene energia. Va bene tutto, si può dire tutto ma credo che prima di andare in televisione, nel corso di un dibattito pubblico, a dire una sciocchezza del genere, bisognerebbe pensarci. L’opinione pubblica che ascolterà quel dibattito penserà che in Italia non riusciamo a fare neanche il fotovoltaico. Chiederei un po’ di attenzione al riguardo e che quando si passano dei dati che siano dei dati giusti. Bisogna sempre pensare che dietro a un mondo che è quello delle rinnovabili ci stanno delle aziende, dentro le aziende ci stanno delle persone, ci stanno dei manager che cercano di farle progredire e che quindi c’è tutta una filiera sulla quale, a mio avviso, bisognerebbe cercare di non gettar fango. L’aspetto dei costi è stato ben illustrato da Valerio Rossi Albertini; è vero che il fotovoltaico ha avuto dei costi, ha avuto dei costi perché è stata creata un’infrastruttura energetica che per la prima volta in Italia possiamo definire nostra, cioè non dipendiamo né da gas, né da petrolio, né da carbone. Nel momento in cui il Quinto Conto Energia andrà a esaurimento con i fondi, continueremo, è augurabile, a installare fotovoltaico; quello sarà il momento in cui ci sarà il ritorno sull’investimento. Quindi, tutto quello che abbiamo investito, questi 6,7 miliardi all’anno, cominceranno a tornare indietro perché avremo un’altra struttura energetica che probabilmente varrà tanto quanto vale la prima che è stata sussidiata e che produrrà energia a costo completamente zero. Fino a un anno fa in Italia si parlava di nucleare ma la domanda che pongo è se siamo veramente sicuri che facendo il nucleare (tra farlo, mantenerlo, smaltire le scorie) si sarebbero spesi meno di 6,7 miliardi all’anno; i conti che abbiamo noi dimostrano il contrario. In un quadro di riferimento come quello nostro di medio, lungo termine, penso che potremo avere come sistema paese un po’ più di coraggio. È dimostrato che si può arrivare a un 50%, forse di più, di energia prodotta in ogni Paese, quindi anche in Italia, da fonti rinnovabili. Credo che con il SEN questo obiettivo dovrebbe essere stabilito. Ritengo il SEN un buon documento perché è il primo tentativo di dare una strategia energetica al Paese dopo almeno vent’anni ma mi sembra un documento che sceglie di non scegliere, non dà la linea guida definitiva, dà un po’ di contentino a tutti, si selezionano varie fonti o varie possibilità ma una scelta di campo, una scelta di fondo, mi sembra che in quel documento non sia stata fatta. Credop che ci vorrebbe un po’ più di coraggio e a questo punto cooptare le industrie, cooptare le scuole perché una grande parte di quello sviluppo si possa fare nel nostro Paese. Cito un’ultima cosa, che poi è un elemento di politica industriale che però si lega con questo modo di far sistema. In Italia non abbiamo più una politica industriale da tanto tempo, non c’è né da parte dello Stato verso le aziende per esempio con la semplificazione burocratica, l’accesso al credito ma non l’abbiamo nemmeno da parte aziende verso lo Stato altrimenti il caso dell’Ilva di Taranto non sarebbe mai successo. Se la politica industriale avesse imposto all’Ilva di mettersi in regola vent’anni fa oggi non saremo a parlare dell’Ilva di Taranto. Quindi, la politica industriale manca in tutti i sensi e sarebbe l’ora che questa venisse ridefinita nel nostro Paese, possibilmente tenendo in conto una strategia che presentasse una sinergia tra quattro componenti fondamentali che sono naturalmente la politica e le istituzioni Arezzo 20 - 23 novembre 2012 81 20 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute per quello che riguarda la definizione delle politiche strategiche di lungo termine, l’industria che naturalmente deve fare la sua parte, la scuola e il mondo delle istituzioni finanziarie. Sono cose abbastanza semplici ma se riuscissimo a far fare sinergia a queste quattro componenti, molto probabilmente avremmo un obiettivo di medio lungo termine un po’ diverso da quello che si sente ventilare ogni giorno da giornali e televisioni. 82 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 21 Novembre Inquinamento dell’aria outdoor/indoor e salute: considerazioni per il risk management "La rilevanza sanitaria dell’inquinamento dell’aria outdoor e indoor" Giovanni Viegi CNR Palermo Cercherò di dare un’impostazione a questa premessa sulla base dell’approccio che il mio gruppo del CNR, sia a Pisa che ora a Palermo, anche nel contesto della Società Europea Respiratoria, ha dato alla problematica dell’inquinamento dell’aria outdoor/indoor in ambiente fondamentalmente medico-clinico. I colleghi che seguiranno affronteranno il problema dal punto di vista del Risk Management e da quello della misurazione dei dati ambientali. Dal momento che parliamo di Sviluppo, Ambiente e Salute, credo che le considerazioni che farò possano essere di interesse. Per conto dell’Associazione Allergologica Mondiale abbiamo recentemente rivisto quelli che possono essere considerati i principali effetti degli inquinanti rilevanti per la salute, in particolare la salute respiratoria, nei due domini che sono appunto l’indoor e l’outdoor. Nel nostro Paese, come riportano anche alcuni dati dell’OMS, abbiamo un problema che è quello delle particelle. Le particelle sono uno tra gli inquinanti che negli ultimi anni è stato più studiato dal punto di vista degli effetti respiratori e cardiaci. Se guardiamo (slides) questa lista di città italiane, laddove la freccia indica quella che è la linea guida dell’OMS, vediamo che alcuni anni fa, ma non credo che la situazione sia molto migliorata recentemente, tutte le città monitorate avevano valori che eccedevano tali linee guida. Circa più di 10 anni fa la Società Toracica Americana (ATS) ha pubblicato questo statement (slides) in cui riassumeva ciò che già allora si poteva considerare un effetto avverso sulla salute dell’inquinamento basato sull’evidenza scientifica: questa lista, che espongo sempre agli studenti di scienze ambientali, mostra che già 10 anni fa si parlava di evidenze solide sull’aumento della mortalità, l’aumento dell’incidenza del cancro, l’aumento della frequenza degli attacchi asmatici sintomatici, l’aumento dell’incidenza delle polmoniti oppure la riacutizzazione delle malattie in coloro che hanno malattie croniche cardiopolmonari, la riduzione di un indicatore di funzione polmonare e poi via via anche i sintomi che comunque alterano la qualità della vita, dai sibili, alla costrizione toracica, alle infezioni delle vie aeree superiori e infine anche agli odori. Recentemente, abbiamo poi rivisto la problematica anche per gli anziani che sono una delle categorie in grande aumento. In questa decade ci sarà un evento storico per l’umanità: gli ultra sessantacinquenni, su base mondiale, supereranno i bambini sotto i cinque anni. Abbiamo cercato di focalizzare quelle che sono le evidenze sulle associazioni fra mortalità, morbilità, sintomi e inquinanti convenzionali. Un lavoro, recentemente uscito, ha cercato di stimare la mortalità globale usando immagini da satellite, utilizzando poi dati della letteratura per quanto riguarda le stime di rischio. Ha sostanzialmente stimato che la frazione globale della mortalità negli adulti attribuibile alla componente antropogenica delle PM2.5 è l’8% per le malattie cardiopolmonari, il 12,8% per il tumore al polmone e il 9,4% per le malattie ischemiche. Abbiamo fatto alcuni studi epidemiologici su campioni di popolazione generale in Italia mostrando il paragone tra un campione di popolazione in una zona rurale del delta del Po e la città di Pisa. La broncoreattività, una capacità dei bronchi di reagire a uno stimolo esterno, che è indicatore della tendenza asmatica, mostra un aumento nella città rispetto alla zona rurale. In termini di rischio relativo, l’eccesso di rischio è del 40% in coloro che vivono in città rispetto a coloro che vivono nella zona rurale e questo ha la stessa dimensione del fumo di sigaretta. Recentemente abbiamo poi utilizzato questa tecnica che si chiama geographical information system (GIS);abbiamo georeferenziato tutti i partecipanti a un’indagine epidemiologica nella zona di Pisa in base alla vicinanza alla strada statale tosco-romagnola, la vecchia strada che connette Pisa a Firenze. Con questo sistema abbiamo una georeferenziazione delle abitazioni e quindi abbiamo potuto localizzare coloro che abitavano entro i 100 metri o 100/250 metri dalla strada statale rispetto a coloro che abitavano oltre questa distanza. Non solo i sintomi, ma anche le diagnosi di broncopneumopatia cronica ostruttiva, di asma e anche l’indicatore di funzione polmonare sono tutti più elevati in coloro che vivono ad una distanza molto prossima alla strada trafficata. Questo sostanzialmente ha poi confermato i risultati di un grande studio italiano, lo studio SIDRIA, componente italiana dello studio internazionale (ISAAC) su asma e allergie nei bambini, su oltre 40.000 tra bambini e ragazzi italiani, dove si è visto che soprattutto la frequenza del traffico da camion vicino a casa è associata a 27% di rischio in più di avere sintomi di asma o 67% di rischio in più di avere tosse o catarro. A Palermo abbiamo poi condotto studi analoghi sugli studenti delle scuole medie inferiori ed abbiamo visto che se noi riuscissimo ad abbattere tutti insieme i fattori di rischio ambientale prevenibili - in sostanza i tre principali sono il fumo passivo, l’esposizione a muffe e l’esposizione al traffico - potremmo prevenire il 40% dell’asma e il 34% della rinocongiuntivite nei bambini. Se si parla quindi in termini di impatto, di prevenzione sulla sanità e sui costi poi conseguenti, è evidente che una politica di prevenzione molto forte potrebbe farci ridurre di grande quantità il numero di bambini malati. Per quanto riguarda il fumo passivo, in un altro studio sulle donne non fumatrici di quattro aree italiane (SEASD) Arezzo 20 - 23 novembre 2012 83 21 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute avevamo visto un rischio attribuibile di popolazione del 12% per broncopneumopatia cronica ostruttiva. Per parlare di inquinamento indoor, anche le muffe sono un problema, così come è stato mostrato nei bambini che hanno partecipato allo studio SIDRIA e in termini di revisione dei dati di letteratura. Per quanto riguarda le muffe, recentemente è uscito un aggiornamento sull’European Respiratory Journal, con la descrizione a di studi di cui parleranno poi Paolo Carrer, Colaiacomo e anche Sestini. Questo concetto dei fattori di rischio comuni modificabili è alla base di quella che l’OMS ha fondato alcuni anni fa, cioè l’Alleanza globale contro le malattie croniche respiratorie (GARD), che sta cercando di spingerci in questa direzione. Tra l’altro questo dato del New England Journal of Medicine del 2009 (slides), cioè della relazione tra la riduzione delle particelle e la variazione dell’aspettativa di vita, è molto importante perché ci mostra che la riduzione dei livelli di inquinamento giustifica un 15% di aumento dell’aspettativa di vita. Il GARD, che ci ha chiamato a fare un’azione coordinata per combattere queste malattie, ha stilato una serie di item per un’agenda di temi di ricerca prioritaria fra cui l’impatto della prevenzione; tre anni fa è stato lanciato anche il GARD Italia che opera a livello del Ministero della Salute. Il GARD Italia ha costituito cinque gruppi di studio - prevenzione delle malattie respiratorie nelle scuole, fumo e ambiente domestico, diagnosi precoce, continuità della cura, educazione e training - e la prossima settimana si terrà l’Assemblea annuale. Un altro approccio che mi piace ricordare è quello delle carte di rischio, che abbiamo fatto insieme all’Istituto Superiore di Sanità, con le quali andiamo a valutare quello che è il rischio assoluto di sviluppare la broncopneumopatia cronico ostruttiva nei 10 anni successivi, stratificando per età, per fumo: tra le esposizioni che abbiamo preso in considerazione, c’è l’esposizione ambientale che ha senz’altro, anche da sola, un importante impatto soprattutto sui non fumatori. Termino dicendo che mi sembra molto tempestiva quest’iniziativa perché l’anno prossimo sarà l’Anno Europeo dell’Aria e sarà l’anno in cui, a livello dell’Unione Europea, si dovranno ridiscutere le linee guida e i limiti. Da questo punto di vista, la Società Europea Respiratoria ha sviluppato 10 principi per l’aria pura che sono stati pubblicati e che speriamo possano aiutare anche a guidare i parlamentari verso una riduzione di quelli che sono i limiti attuali e secondo quelle che sono le indicazioni dell’OMS. 84 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 21 Novembre Inquinamento dell’aria outdoor/indoor e salute: considerazioni per il risk management "Rischi emergenti in aria outdoor: particelle nanometriche" Gaetano SettimoIstituto Superiore di Sanità Trascrizione non revisionata dal relatore Il mio intervento è prettamente focalizzato sulle particelle nanometriche nella qualità dell’aria. Nell’approfondimento del quadro conoscitivo della qualità dell’aria e sul ruolo del materiale particellare, in questi anni particolare attenzione, anche grazie alle conoscenze che sono state acquisite nell’ambito della distribuzione dimensionale del materiale particellare, hanno avuto le frazioni a minore granulometria, quelle considerate e classificate come particelle ultrafini. All’interno di questa classe abbiamo la classe di particelle denominate nanoparticelle. Queste particelle sono dotate di ridottissime dimensioni che le impartiscono delle proprietà particolari, quindi elevata area superficiale specifica della particella, elevato numero di particelle. Nell’ambito della valutazione del rischio si mette in evidenza come la presenza di queste particelle, soprattutto dell’elevata area superficiale, può produrre tutta una serie di effetti legati alla tossicità. E’ infatti ormai noto come la tossicità di queste particelle è strettamente legata proprio all’elevata area superficiale e molto meno alla massa. Qui ho riportato tutta la serie di percorsi che normalmente vengono seguiti nella formazione di queste particelle, particelle che normalmente sono di origine non solo naturale ma anche legate a tutte quelle attività antropiche, quindi abbiamo sorgenti chiaramente legate a tutti processi industriali, a tutta la serie di attività civili ed a quelle legate alle sorgenti mobili. In questi anni si è fatta tantissima confusione sulla definizione di nanomateriali perché come sapete abbiamo avuto un fortissimo sviluppo di questo tema di frontiera delle nanotecnologie. Molte volte nell’immaginario collettivo si scambiavano queste particelle che naturalmente sono presenti nell’aria ambiente con quelle ingegnerizzate. Una differenza che credo sia importante fare è che le particelle originate dai processi naturali o legate alle attività antropiche dell’uomo hanno delle caratteristiche di dimensione, forma e composizione che è molto più complessa rispetto a quella ingegnerizzata perché sono io stesso che cerco di selezionare particelle con dimensione e composizione chimica definita come nel caso delle particelle nanometriche. Nel 2012 finalmente abbiamo una definizione che era già presente in una raccomandazione dell’ottobre del 2011. Queste particelle nanometriche chiaramente hanno una componente primaria legata all’emissione diretta della particella in accordo al processo industriale o naturale che è stato all’origine, abbiamo una componente secondaria e chiaramente, come abbiamo più volte ripetuto, anche una componente naturale. Questa la definizione ormai condivisa a livello europeo per cosa si intende per nanomateriale. Qui avevo segnato alcune definizioni che possono essere importanti perché in questi anni poi si provvederà anche ad una revisione della definizione di nanoparticella dell’ambito dell’aumento delle conoscenze in questo campo. In questi anni sono stati sviluppati tutta una serie di meccanismi di formazione di queste particelle, di questi agglomerati. La via principale che viene seguita nella formazione di queste particelle nanometriche è quella della nucleazione seguita poi dalla crescita proprio di questi nuclei attraverso fenomeni di agglomerazione e successiva condensazione eterogenea. Un aspetto importante è che finalmente con il regolamento del 2008 anche sugli autoveicoli, soprattutto per lo standard Euro 6, per la prima volta viene definito un limite alle emissioni proprio per queste particelle ultrafini. Viene definito questo livello di emissione di 6,0 x 1011 particelle/km. Attualmente si sta cercando di mettere a punto la metodica di riferimento ufficiale proprio per andare a misurare queste particelle. Abbiamo già parlato di questa tematica emergente legata alle nanoparticelle. A livello di commissione europea in questi anni si è lavorato molto per accrescere il quadro conoscitivo sul tema. Sono stati attivati tutta una serie di comitati scientifici specifici che dovevano esprimere un po’ di considerazioni e dare delle indicazioni su quella che poteva essere la problematica sanitaria legata alle particelle ultrafini. Nel 2005 il Comitato Scientifico SCHER (Scientific Committee on Health and Environmental Risks) mette in evidenza, a parte la formazione che abbiamo appena visto, anche quale può essere la composizione tipica di queste nanoparticelle, ma mette in evidenza anche le poche informazioni che sono legate proprio alla misurazione di numero di particelle perché ancora sono molto limitati i programmi e i piani di sorveglianza ambientale. Un’altro Comitato scientifico che chiaramente è stato attivato nell’ambito dei lavori della commissione europea è quello SCHENIHR (Scientific Committee on Emerging and Newly Identified Health Risks) sui rischi emergenti che fa un po’ il sunto delle conoscenze sulla tematica, quindi mette in evidenza quali sono gli ordini di grandezza sia per le aree urbane che per le aree rurali. Nelle aree urbane chiaramente mette in evidenza quali sono le principali sorgenti che possono produrre queste particelle nanometriche ultrafini, mette in evidenza come attualmente le particelle ingegnerizzate contribuiscono chiaramente ad aumentare i livelli ambientali di queste particelle naturali. Qui ho riportato il quadro di tutti i documenti di riferimento su questa tematica. Documentazione che continuamente aumenta e cresce perché in questi anni si è cercato di colmare le lacune attuando piani di sorveglianza ambientale. Arezzo 20 - 23 novembre 2012 85 21 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute Un altro documento molto importante è quello legato alla valutazione del rischio nel quale si mette in evidenza come i dati legati ai livelli di esposizione sono solamente disponibili chiaramente per le particelle non ingegnerizzate. Questi dati non possono essere utilizzati per valutazione esposizione per le particelle ingegnerizzate. Ancora vi è una assenza di metodi che possono essere utili per confrontare questi dati che vengono ottenuti dai vari processi industriali. In Italia si è cercato di colmare in parte questo deficit non solo normativo ma anche di norme specifiche. Qui ho riportato tutta una serie di norme che sono state messe a punto dall’International Standard Organization e dal Comitato di Normazione Europeo per quanto riguarda tutte quelle tecniche di misurazione che sono quelle più consolidate e che trovano largo impiego. Già è stato più volte detto come in questi anni la normativa e le indicazioni dell’OMS si focalizzavano su due parametri, come il PM10 e il PM2.5, infatti già dai primi decreti degli anni ‘90, da Ruffolo-Conte in poi, per le 23 città che avevano più di 150.000 abitanti erano previsti delle misurazioni del PM10 con definizioni che sono quelle riportate nella normativa che è stata via via pubblicata anche a seguito di recepimenti di direttive comunitarie. Attualmente il riferimento è quello del D.L. 155 che abbiamo appena visto. In Italia, a parte la città di Roma, non sono disponibili serie temporali che possono far fare alcune valutazioni. Dal 2001 è presente in Istituto una ulteriore postazione che misura appunto le particelle nanometriche: è quella che abbiamo situato all’Orto Botanico. Questo è l’andamento che abbiamo registrato in questi anni. Vedete sul confronto tra inverno e estate, chiaramente abbiamo un numero di particelle che è nel range tra 10.000 e 80.000 particelle per cm³. Segue un po’ l’andamento delle sorgenti che sono legate al traffico per la città di Roma, visto che non sono presenti processi industriali. A parte il picco iniziale legato al traffico, poi abbiamo un altro picco legato al traffico di rientro dagli uffici alle proprie abitazioni. Questa distribuzione bimodale la possiamo anche rivedere nel giorno tipo, dove abbiamo riportato i giorni feriali, il sabato e la domenica. Qui ho riportato un po’ l’andamento che abbiamo registrato nel corso di questi 11 anni. Andamento che è decrescente, ma i valori che sono registrati per le particelle nanometriche se confrontati con quelli che sono i valori misurati in altre realtà europee ci colloca sempre sul livello superiore. Questo è uno studio che abbiamo effettuato in collaborazione con l’ASL di Roma. L’obiettivo era quello di stimare il rischio di ricovero e di morte attribuibile alle particelle ultrafini in soggetti sensibili, quindi con infarto del miocardio. La città di Roma presentava dei livelli di nanoparticelle elevati se confrontati con le altre città del Nord Europa, ma in linea con le città mediterranee come Barcellona. In Europa sono ormai sviluppati tutta una serie di programmi nazionali di misurazione di queste particelle nanometriche. Abbiamo visto la Germania, la Svizzera. Questo è uno dei programmi che è attualmente in corso per la città di Londra. Anche in America sono presenti per la città di Los Angeles 7 siti. Tutta una serie di strumentazioni che danno la misura del diametro ottico di queste particelle, sono state sviluppate in questi anni. Un’ulteriore attenzione anche su quelle che sono le indicazioni legate ai processi industriali. In Europa abbiamo una normativa e una norma specifica per il PM2.5. Abbiamo lavorato anche noi sulla messa a punto di questa norma europea e particolari programmi sono stati attualmente attivati proprio sulla misurazione di queste nanoparticelle legate ai processi industriali, soprattutto a quei processi che danno luogo ad alte temperature come i processi termici di combustione. Non è da sottovalutare anche il contributo delle caldaie che normalmente vengono utilizzate per il riscaldamento autonomo. Una cosa molto importante è che dal 2011 nel nostro Istituto è stato attivato un gruppo di studio proprio su nanomateriali e salute. Abbiamo organizzato l’anno scorso un convegno nazionale e stiamo cercando di portare avanti tutta una serie di progetti proprio sulle attività di monitoraggio e sorveglianza ambientale. Domanda di Ennio Cadum (ARPA Piemonte): Le tematiche sull’inquinamento oggi vedono soprattutto un grande interesse alla costituzione chimica delle particelle, nel senso che tutte le problematiche conosciute sulla dimensione, che vanno dal PM10 al PM2.5, in realtà hanno messo in luce il fatto che il grosso del problema sta nelle tossicità di alcune frazioni. Tutta la ricerca mondiale, quindi, oggi è alla ricerca dell’individuazione delle frazioni più tossiche e la loro caratterizzazione in maniera da capire se vengono emesse da qualche fonte particolare per poter intervenire in maniera mirata e non con una riduzione generalizzata delle emissioni, ma magari anche specifica su alcuni settori. Su questo nell’ambito dei lavori sia a livello nano sia a livello macro hai delle informazioni particolari aggiuntive delle esperienze nostre? Ti ringrazio per la domanda perché proprio in questi ultimi anni si sta lavorando più sulla caratterizzazione chimica del materiale particellare, perché si è visto che quello che poi può mettere in evidenza lo sviluppo di patologie non è la famosa massa totale del materiale particellare, ma è la caratteristica chimica di quest’ultimo. Un tipico esempio è quello che abbiamo fatto, anche per citare il caso molto più recente, nell’ambito del rilascio dell’Autorizzazione Integrata Ambientale di Taranto. Abbiamo fatto proprio un piano di sorveglianza ambientale sanitario specifico sulla caratterizzazione del materiale particellare, perché se voi vedete i dati del PM10 o del PM2.5 misurata a Taranto sono in linea con tutte le grandi città. Chiaramente quello che può portare a un aumento dell’esposizione della popolazione è legato proprio alla caratterizzazione chimica. Adesso ci sono tutta una serie 86 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 21 Novembre di studi che mirano non solo alla caratterizzazione dei metalli, ma anche di tutte quelle specie che sono definite microinquinanti, come diossine, furani, PCB, idrocarburi policiclici aromatici. Si è cercato in questi anni di limitare, anche nei processi industriali, l’emissione di materiale particellare perché riducendo l’emissione del materiale particellare, con l’adozione delle migliori tecniche disponibili, chiaramente riduco tutte quelle componenti che rimangono assorbite nel materiale particellare. Domanda di Ivo Pellegrini (Ministero della Salute): Conosco la problematica relativa alle particelle piccole, come esse si formano, come evolvono, ecc. ecc. La mia domanda è: ma che c’entrano le nanoparticelle costruite ingegneristicamente al fine di migliorare le tecniche di cura o le tecnologie dei materiali? A me sembra che questa sia una confusione nata artificiosamente. Se qualcuno ha confuso dall’inizio queste due cose, non ho capito per quale motivo poi dobbiamo portarci dietro questa tara che effettivamente poi non ci consente di affrontare il problema in modo adeguato. Come dicevo in questi anni c’è stata molta confusione proprio perché la gente aveva tutta una serie di sollecitazioni legate a queste nanoparticelle di tipo ingegnerizzate. Tu sei del settore e sai che il problema italiano è quello di una scarsa conoscenza della componente scientifica proprio su questa materia. In tutti questi anni, come sai, abbiamo avuto il blocco di tutta una serie di programmi legati alle centrali turbogas proprio per problematiche legate a queste particelle fini e ultrafini. La composizione chimica di queste particelle è talmente complessa che non si può confrontare con la particella ingegnerizzata perché sono io in laboratorio che voglio costruire quella particella con quelle caratteristiche sia di dimensione che di composizione chimica. Quello che diciamo sempre quando si fanno questi incontri è che da quando l’uomo ha scoperto il fuoco, queste nanoparticelle o queste particelle ultrafini sono presenti sulla faccia della terra. Chiaramente con l’evoluzione di questi processi, insieme alle particelle nanometriche, avremo nell’ambiente anche la presenza di queste particelle ingegnerizzate. Arezzo 20 - 23 novembre 2012 87 21 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute Inquinamento dell’aria outdoor/indoor e salute: considerazioni per il risk management "Inquinamento indoor in moderni edifici ad uso ufficio: il progetto OFFICAIR" Paolo Carrer Università di Milano Grazie per questo invito che ho molto gradito, tra l’altro penso sia veramente interessante avere una platea così articolata con rappresentanti del mondo dell’ambiente e della sanità e discuterne insieme. Vorrei innanzitutto rubare un minuto e rispondere a quella che è la mia impressione rispetto alla domanda che ha fatto il Dr. Allegrini. L’importanza sulle nanoparticelle nasce soprattutto dalla considerazione di una loro estrema biodisponibilità, quindi rispetto al particolato abbiamo un assorbimento e una capacità di interazione con l’organismo umano che è decisamente maggiore. Ecco che allora da una parte è partita l’attenzione su tutto quello che è l’utilizzo industriale di queste particelle, però d’altra parte ci siamo anche chiesti “non è che forse, rispetto all’outdoor, la frazione più pericolosa sta lì?” Questo è uno degli argomenti in discussione, così come l’altro che è stato già giustamente sottolineato, è la composizione di queste particelle, quindi la presenza o meno di certe sostanze. Per quanto riguarda il compito assegnatomi, mi è stato chiesto di parlare di valutazione del rischio, Risk Assessment finalizzato al Risk Management, alla gestione del rischio Ho gradito questo invito ed ho cercato di declinarlo illustrandovi quello che è il progetto, sul quale stiamo lavorando, “OFFICAIR” che ha proprio su questo aspetto della valutazione dei rischi il fondamento per la definizione di una adeguata strategia preventiva. OFFICAIR è infatti un progetto finanziato dalla Comunità Europea e mirato specificatamente a valutare la qualità dall’aria indoor negli edifici moderni ad uso ufficio. Da una parte dovremo raccogliere le conoscenze su quella che è la qualità dell’aria presente in questi edifici nei quali più o meno tutti lavoriamo e che hanno anche caratteristiche simili rispetto a quelle che saranno le nostre prossime abitazioni e, le nostre prossime scuole, per definire poi uno strumento di valutazione dei rischi che sia utilizzabile nei nostri edifici e quindi trarne delle considerazioni utili per supportare in questo caso la comunità europea nella sua attività di definizione di politiche di prevenzione. E’ un progetto complesso e articolato di cui mi preme sottolineare l’aspetto multidisciplinare. Sono presenti competenze relative alla misurazione della qualità dell’aria, competenze di tipo sanitario rispetto alla valutazione dell’impatto sulla salute e naturalmente anche competenze più legate alla gestione degli edifici, quindi ingegneri, ecc. Per quanto riguarda l’Italia è presente il CNR di Roma, che ha funzione di laboratorio centralizzato per alcuni dei parametri che misuriamo; è presente l’Università Insubria che collabora nella definizione delle strategie di misurazione e poi l’Università di Milano per quanto riguarda soprattutto la competenza nella valutazione degli effetti sulla salute. Il progetto ha due work packages centrali, WP4 e WP7, che sono responsabili della effettuazione di misure ambientali e di impatto sulla salute in edifici moderni ad uso ufficio europei. Questa attività è supportata da due work package sperimentali. Il primo, il WP3, che sta lavorando a livello di laboratorio per vedere quali sono gli inquinanti nuovi, meno conosciuti. In pratica la chimica delle reazioni che avviene soprattutto in seguito alla reazione tra ozono, composti organici volatili, terpeni nel cui contesto abbiamo anche la possibilità di un’esposizione a particolato fine o ultrafine; il secondo, WP5, che svolge studi di tipo tossicologico in modo da mettere a punto su modelli animali la valutazione di questo tipo di effetti. Questi due work packages trasferiranno queste conoscenze sulle attività di indagine che stiamo facendo sul campo. Tutta questa attività da una parte alimenterà un database e dall’altra supporterà il WP8 che definirà per la Comunità Europea quelle che sono le misure di prevenzione più adeguate. Il punto di partenza di questo progetto è stato il Progetto EnVIE, nel quale abbiamo cercato di sistematizzare quelli che sono i principali effetti sulla salute correlati alla qualità dell’aria indoor. Abbiamo individuato come principali effetti sulla salute le malattie di tipo allergico, l’asma, il tumore del polmone, la malattia cronica ostruttiva a carico del polmone, le malattie infettive, le patologie correlate all’esposizione a particolato in termini di effetti sull’apparato cardiovascolare e, infine, i sintomi definiti da ‘sindrome dell’edificio malato’. Come prima attività del progetto OFFICAIR abbiamo quindi fatto un aggiornamento di quali sono in questo momento i temi emergenti rispetto ai moderni edifici ad uso ufficio e quindi siamo andati a vedere quali sono i principali impatti sulla salute con la necessità di proteggere le persone più suscettibili. E qui c’è soprattutto l’aspetto della protezione delle persone già affette da malattie allergiche, asmatiche o cardiovascolari, l’impatto sul comfort e su quella che è la percezione della qualità dell’aria. Parlando di uffici poi non possiamo non parlare anche dell’impatto sulla performance, sulla produttività. Quali sono poi gli aspetti emergenti che sono diventati gli obiettivi del progetto? Innanzitutto oggi parlare di salute nel lavoro d’ufficio non può non tenere conto anche degli aspetti di tipo psicosociale e dello stress. Non possiamo misurare solo le concentrazioni indoor di formaldeide e non considerare anche quello che sta succedendo a livello della riorganizzazione e del carico di lavoro e, quindi, uno degli obiettivi è vedere quali sono le sinergie tra esposizione ad inquinanti, percezione alla qualità dell’aria indoor e stress. L’altro è l’implementazione della normativa inerente l’efficienza energetica nei nostri edifici e che potrebbe creare 88 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 21 Novembre una riduzione dei livelli di ventilazione, una maggiore “sigillatura”, se si può dire, dei nostri edifici. Rischiamo di tornare agli anni ‘70 quando c’è stata la prima crisi energetica con tutto quello che ne è conseguito. Infine l’ultimo aspetto di rilievo è quello che occorre andare a misurare non solo gli inquinanti primari ma anche quelli secondari che si sviluppano negli edifici in cui lavoriamo. C’è un gruppo che appositamente ha cercato di delineare e, quindi, elencare quali sono le sostanze che in questo momento potrebbero essere presenti e creare problemi sulla salute e non ancora bene studiate che vedete qui elencate. ll Risk Assessment, che è l’obiettivo principale di questo progetto, si articola in tre fasi condotte in un esteso campione di edifici moderni ad uso ufficio. La “General Survey”, che coinvolge più di 160 edifici a livello europeo e sono 8 nazioni che vi partecipano (dalla Finlandia all’Italia, dal Portogallo all’Ungheria) quindi abbastanza rappresentativo, con una check-list e un questionario. Nelle fasi successive, la “Detailed investigation” e l’”Intervention study”, il campione si restringe e invece aumentano le metodologie che andiamo ad applicare per quanto riguarda le misure ambientali e di salute. In particolare abbiamo elaborato, partendo da una precedente esperienza, una check-list. In pratica i nostri tecnici effettuano quello che noi medici del lavoro chiamiamo il sopralluogo dell’edificio, ma raccogliendo le informazioni su schede standardizzate: informazioni relative all’edificio, le possibili determinanti e le procedure di gestione. Quello che è interessante è che abbiamo cercato di creare un algoritmo che sulla base di questa check-list per i vari fattori di rischio dà una valutazione in termini di fattore di rischio non presente, possibilmente presente o presente; quindi non siamo per dire che occorre subito misurare la qualità dell’aria indoor. Innanzitutto si può fare, come fa un buon medico quando visita un paziente e non invia subito il paziente a eseguire delle indagini strumentali ma prima visita il suo paziente, raccoglie le informazioni, esegue l’esame obiettivo. Allo stesso modo in questo esercizio abbiamo provato a tradurre la visita del paziente nella visita dell’edificio che poi porta a definire naturalmente dei sospetti. In base a questa check-list, in questo edificio, per esempio, si è detto “potrebbe esserci una contaminazione da VOC che merita di essere approfondita”. La fase di indagine della qualità dell’aria indoor è sviluppata in più stadi con l’obiettivo alla fine del progetto di definire quelle che potremmo raccomandare come indagini di primo livello e indagini di secondo livello di approfondimento. Essendo un progetto di ricerca abbiamo anche introdotto delle misure di tipo innovativo, che poi vedremo se potranno anche essere gestite per quanto riguarda l’applicazione quotidiana. Le indagini della qualità dell’aria indoor prevedono nella fase iniziale metodi di campionamento passivo e invece nelle fasi successive metodi di campionamenti attivi su tempi più ridotti di esposizione. I primi risultati delle indagini ambientali sono inerenti i campionamenti passivi che ci rassicurano per quanto riguarda la valutazione dei livelli di benzene, toluene e xileni. Per quanto riguarda le aldeidi, i campionamenti passivi indicano che formaldeide, acetaldeide e altre aldeidi continuano ad essere inquinanti presenti in ambienti indoor a livelli maggiori rispetto all’esterno. Nella seconda fase eseguiremo dei campionamenti attivi su tempi più ridotti per andare a valutare quelli che sono i picchi di esposizione. Tra gli approfondimenti faremo anche un approfondimento sulla composizione chimica del particolato e, in particolar modo, su quelle che sono le specie reattive. Per quanto riguarda lo studio della salute e del comfort dei lavoratori abbiamo definito una valutazione attraverso questionari, test on-line e test clinici. I lavoratori, alla loro postazione di lavoro, hanno compilato un questionario con domande inerenti la salute dell’occhio, una parte con test di performance e della memoria e, anche, domande per quanto riguarda gli aspetti dello stress. E’ stato fatto uno sforzo sotto il punto di vista della grafica in maniera da renderlo facile da compilare e nel complesso richiede 30 minuti che non è poco, però è il tempo minimo e indispensabile per raccogliere delle informazioni. Questi sono i risultati dei questionari somministrati nella fase della General Survey: i risultati di uno specifico edificio sono confrontati con la media nazionale e europea. Nel complesso abbiamo circa un 40% dei lavoratori che ha riferito di avere una percezione negativa dell’aria, soprattutto per quanto riguarda gli aspetti di aria secca, aria stagnante, presenza di odore; si è anche evidenziato come un problema rilevante sia il rumore presente nei nostri uffici. Per quanto riguarda i sintomi, quello più lamentato è l’irritazione oculare e coinvolge circa il 30% dei lavoratori indagati. Abbiamo valutato anche l’aspetto della sensazione psicologica e il principale test sullo stress lavorativo che abbiamo applicato è stato l’ERI che va a valutare quanto è bilanciato lo sforzo che viene richiesto rispetto alla compensazione che viene data. L’ERI viene definito negativo quando è >1. Queste sono le percentuali di lavoratori che hanno espresso un ERI >1, cioè uno sforzo richiesto che viene ritenuto decisamente superiore rispetto alla compensazione. Vedete come è difficile in questo momento parlare di indoor air quality , per esempio in Grecia, dove vi sono i problemi economici e di lavoro che conosciamo e che quindi devono essere tenuti in considerazione. Nelle fasi di “Detailed investigation” e di ”Intervention study” sono effettuati anche test clinici per valutare i possibili effetti sull’apparato respiratorio e cardiovascolare, nonché raccolti campioni biologici per la misura di markers di stress ossidativi. Tutto questo, ripeto, per mettere a disposizione un processo che vede nella valutazione dei rischi, mirata per il contesto in cui si va a valutare, il perno della prevenzione. Vorremmo quindi incrementare le conoscenze, ma soprattutto mettere a punto uno strumento di valutazione che serva sia nel nostro singolo edificio ma anche, Arezzo 20 - 23 novembre 2012 89 21 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute a livello europeo, come raccolta di dati per supportare poi quelle che sono le raccomandazioni per l’indoor air quality. Vi segnalo, infine, che sono in corso altri progetti di ricerca europei inerenti la qualità dell’aria indoor, quali quello nelle scuole (SINPHONIE), per la definizione di linee guida per la ventilazione (HEALTHVENT) e le esposizioni dall’uso di materiali di consumo (EPHECT). L’obiettivo è quello di arrivare a definire un “Green Paper on Indoor Air Quality” a livello europeo e la mia conclusione è “perché non farlo anche a livello italiano?”, visto che i principali attori sono qui presenti: il Ministero della Salute, il Ministero dell’Ambiente. Dobbiamo parlare insieme e aggiornare quelle linee guida che abbiamo fatto una decina di anni fa magarispecificandole per le differenti tipologie di ambienti (scuole, abitazioni, uffici). 90 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 21 Novembre Inquinamento dell’aria outdoor/indoor e salute: considerazioni per il risk management "Inquinamento indoor nelle scuole e salute dei bambini" Piersante Sestini Università di Siena Trascrizione non revisionata dal relatore Cercherò di essere rapido perché è un argomento più vasto di quello che può sembrare a prima vista. Innanzitutto, perché l’indoor scolastico. Intanto in Italia ci sono più di 8 milioni di ragazzi che vanno a scuola, 9 milioni se si considerano le superiori, e poi più di 1 milione di operatori scolastici, quindi un ambiente molto abitato. Dietro ogni bambino c’è una famiglia, o quasi, e le famiglie e la collettività sono molto sensibili alla salute dei bambini, quindi problemi legati all’indoor scolastico si riflettono poi su tutta la società. Quasi il 9% dei ragazzi delle scuole italiane sono immigrati e quindi hanno potenzialmente delle difficoltà di interazione, per esempio col sistema sanitario. I bambini sono in una fase delicata di sviluppo, sia fisico che intellettuale, fra l’altro è il momento in cui sviluppano degli stili di vita e la qualità dell’ambiente indoor contribuisce notevolmente al mantenimento della salute. Le aule scolastiche hanno una densità abitativa molto alta. E’ fra le più alte di tutte, è intermedia fra un aereo di linea e un carcere. In Italia forse il carcere può superare anche l’aereo di linea, soprattutto non ha i sistemi di ventilazione probabilmente. Il numero di bambini per aula, tra l’altro, è in aumento con la riduzione degli insegnanti. C’è quindi una concentrazione di persone in un ambiente. Inoltre una percentuale abbastanza elevata di bambini ha problemi respiratori (asma il 3-5%, allergie fino al 30%) e quindi sono particolarmente sensibili agli effetti di un cattivo ambiente. Questo è un problema europeo. Da molto tempo sono stati fatti studi nell’ambiente indoor scolastico. Nel 2002, mi sembra, proprio Paolo Carrer insieme all’IFA (?) fece una rassegna di questi studi che erano tutti un po’ separati; nel 2004 organizzammo uno studio, per la prima volta, in cui si usavano le stesse tecniche in diversi Paesi europei. I risultati principalmente furono che la scarsa ventilazione è un problema comune nelle aule scolastiche. Qui vedete (slides) i livelli di anidride carbonica medi. Nella maggior parte delle scuole sono largamente sopra agli 800-1000ppm, che è il valore consigliato; in alcuni casi anche sopra i 3000ppm; recentemente se ne sono visti anche sopra i 5000ppm. Tutti eccettuati alcuni, ad esempio Uppsala e alcune scuole della Norvegia che hanno dei sistemi di ventilazione meccanica, ma dove non c’è la ventilazione meccanica i valori di ventilazione sono bassi. Un valore alto di anidride carbonica non è che di per sé sia tossico. Nei sommergibili, dove non possono ovviamente mai aprire le finestre, ci sono valori normalmente sopra i 2000ppm e fino a 5000ppm non dà effetti. Il valore indica comunque che c’è una scarsa ventilazione e quindi qualsiasi altro inquinante presente aumenta permanenza e concentrazione. Lo stesso succede per il PM10. La maggior parte delle aule, il 78%, stava al di sopra del livello consigliato per l’outdoor di 50µg/m3 . Questo ha un rapporto anche coi sintomi, qui vedete che la presenza sia di PM10 elevato che di CO2 elevata è associato ad un aumento di tosse riportata nei bambini e ad una riduzione della pervietà del naso misurata col rinometro, ci sono quindi più infiammazioni del naso. Questo per gli inquinanti principali, poi c’è tutta una serie di inquinanti più esoterici. Le muffe sono forse il fattore più associato alla patologia respiratoria e anche nelle scuole sono aumentate, circa il 30% delle scuole, se ci sono tanti bambini faccio anche tanta umidità e quindi si possono sviluppare facilmente. la loro presenza è associata a tosse e ad alcuni tipi di muffe sono associate ad asma e ad un’alterazione delle funzionalità respiratorie. Non ci sono solo le cose che si misurano, ma c’è anche la percezione. C’è un’associazione molto stretta fra la percezione della qualità dell’aria e la soddisfazione per le scuole. I bambini che danno una buona valutazione della qualità dell’aria sono anche soddisfatti delle scuole; quelli che pensano che la qualità sia cattiva sono poco soddisfatti. E lo stesso succede per i genitori dei bambini. Questi hanno scarsissima correlazione con le cose che misuriamo noi, quindi vanno presi con le molle o vanno prese con le molle le nostre misurazioni che forse non misuriamo delle cose importanti, ma dà un’idea dell’impatto che può avere la qualità dell’aria e le possibilità che poi la scuola, vedremo dopo, offre di affrontarlo. Un altro importante aspetto sono gli attacchi di asma a scuola. Un bambino asmatico su quattro riferisce di avere avuto almeno un attacco di asma a scuola. In questo studio c’erano in tutto una cinquantina di attacchi d’asma riportato. In un caso l’infermiera scolastica ha somministrato un broncodilatatore, evidentemente non era in Italia perché non c’erano le scuole in cui Federasma sta facendo la sperimentazione, da noi l’infermiere scolastico è una figura sconosciuta; in due casi l’insegnante gli ha detto “spruzzati” e l’ha fatto da sé; in tutti gli altri casi non è stato fatto niente, quindi il bambino se l’è dovuta cavare da solo. Le nostre scuole sono largamente impreparate ad affrontare queste cose. Oltre allo studio HESE del 2004, c’è stato un altro studio in questo periodo, lo studio Search, che è stato finanziato dal Ministero dell’Ambiente e riguardava soprattutto l’Europa dell’Est. Più recentemente c’è stata una fusione di Arezzo 20 - 23 novembre 2012 91 21 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute questi due gruppi che, con l’aggiunta di altri, hanno formato lo studio SINPHONIE che copre gran parte d’Europa. Si conclude fra quattro giorni e darà ulteriori informazioni. In realtà non mi aspetto grandi novità, sicuramente confermerà i problemi che ci sono, potrà far vedere nuovi problemi, difficilmente ci darà delle soluzioni. Ha favorito sicuramente la creazione di una comunità di gente preparata su questo argomento. Noi ci siamo invece anticipati in parte con uno studio che si chiamava HESEINT, in cui abbiamo voluto provare a sperimentare dei sistemi per migliorare la situazione e quello che abbiamo provato è una sveglietta come questa qui, costa un centinaio di dollari, che misura anche l’anidride carbonica. Se raggiunge un certo livello di anidride carbonica nell’aria, suona, fa una musichina. L’abbiamo data in alcune scuole e i bambini e gli insegnanti sono entusiasti perché per la prima volta ‘vedono’ l’anidride carbonica. E’ una cosa che ha un impatto abbastanza evidente dal punto di vista proprio dell’apprendimento, della comprensione dei fenomeni. Cosa succede se lo mettete in una scuola? Qui vedete nella scuola di controllo quando arrivano la CO2 aumenta a dismisura fino a raggiungere, probabilmente nell’intervallo, i 3000ppm. In questa scuola in cui è regolato a 2000ppm perché altrimenti suonava troppo spesso e l’insegnante protestava, vedete che la differenza dei valori con finestre aperte o chiuse. In questo modo se si fa la media settimanale, vedete che si riesce - e in questo caso era poi regolato la settimana dopo a 1500ppm - a mantenere dei livelli di ventilazione migliori al costo però che tutte le volte che si apre la finestra, se fuori fa freddo, i bambini si lamentano. In alcune scuole, soprattutto a Udine, l’insegnante ha riferito che nel 50% dei casi in cui suonava non poteva aprire la finestra per il freddo per cui la soluzione è parziale, ma è sicuramente accettata e gradita. La maggior parte della classe di controllo pensava che la qualità dell’aria fosse uguale alla settimana prima, mentre invece solo alla metà gli sembrava uguale e quelli che si trovavano molto meglio sono il doppio. Quindi sia come benessere che come qualità dell’aria, in aperto perché lo vedevano, quindi ci può essere l’effetto del gadget, l’effetto del giochino, viene percepito e da parte degli insegnanti ancora meglio. Un altro intervento che può essere fatto è tramite le linee guida. Il Ministero della Salute, il CCM col suo gruppo di esperti ha pubblicato delle linee guida per il mantenimento della qualità dell’aria nelle scuole e stiamo facendo uno studio, qui vedete il nostro sito che si chiama scuolesane.it, in cui si sta verificando la possibilità di implementazione di queste linee guida e l’efficacia poi in realtà sul campo. In conclusione, il problema della qualità dell’aria nelle scuole è europeo. Ho visto anche diversi interventi sporadici qua e là in Italia, in Toscana ce n’è stato uno qualche tempo fa, i problemi vanno risolti localmente, è ovvio, ma vanno inquadrati in un contesto europeo se si vogliono affrontare. Il problema non si risolve solo dall’esterno, non è un tipo di problema in cui arriva l’uomo con la tuta con la macchinetta che la mette lì e risolve la cosa. Richiede un impegno combinato dei servizi di prevenzione, ma anche dei servizi di cura del sistema sanitario, della scuola, delle comunità e delle famiglie. La cosa buona è che questa combinazione è più facile che per altre arene, perché se voi andate col tabacco vi trovate contro la Philip Morris, se provate con le bibite gassate ci sarà la Nestlè, con le macchine troverete la Esso, nelle scuole troverete, problemi sicuramente, i sindacati in parte, i problemi economici, tutta una serie di problemi normativi, però è sicuramente più possibile. Fra i possibili benefici di un approccio di questo genere ci può essere maggiore salute e benessere; un migliore apprendimento che se si migliorano le condizioni migliora anche la scuola (bisognerebbe parlare anche dell’illuminazione e dell’acustica anche delle sale convegni); una consapevolezza e acquisizione di stili di vita salutari, cioè affrontare questo problema, per esempio, con la sveglietta insegna ad aprire la finestra; un miglior controllo dell’asma nei bambini e in definitiva dei migliori cittadini. 92 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 21 Novembre Inquinamento dell’aria outdoor/indoor e salute: considerazioni per il risk management "Le emissioni indoor dai prodotti di consumo e le rispettive politiche comunitarie" Stylianos Kephalopoulos JRC Commissione Europea Per quanto riguarda la qualità dell’aria indoor in Europa, ci sono varie attività in corso, sia in Italia che a livello internazionale. Hanno cominciato di gran lunga andando indietro nel tempo già da 25 anni, però il riconoscimento dell’importanza della qualità dell’aria negli edifici è stata messa in evidenza dal punto di vista politico europeo solamente negli ultimi 10 anni, in particolare attraverso attività intraprese come il divieto di fumo nelle aree pubbliche e la pianificazione delle azioni europee per l’ambiente e la salute nel periodo 2004-2010. Nell’ambito di quest’ultimo hanno avuto inizio tanti progetti scientifici per l’inquinamento indoor. Al livello di tutti i paesi che aderiscono all’Organizzazione Mondiale della Sanità è stato preso l’impegno nel contesto della dichiarazione ministeriale di Parma nel marzo del 2010 di realizzare l’obiettivo prioritario regionale 3 “sulla prevenzione delle malattie attraverso il miglioramento della qualità dell’aria all’aperta e quella indoor”. Il prossimo avvenimento, che si può considerare come una sfida, è proprio l’integrazione delle politiche che riguardano l’outdoor e l’indoor in relazione anche della prossima revisione della legislazione dell’area ambientale. Per quanto riguarda la strategia europea per l’ambiente e la salute, per quanto riguarda l’inquinamento indoor, lo scopo è di migliorare la nostra conoscenza per gli inquinanti indoor e gli impatti di salute associati e poi i modi di ridurre questo impatto a partire da inquinanti che sono considerati prioritari. Ci sono due modi per fare ciò: intervenire alla sorgente di ciò che emette questi inquinanti oppure prendere altre misure relative all’edificio come l’ottimizzazione del suo disegno e dei materiali che si usano e adoperare delle pratiche di ventilazione appropriate secondo l’edificio in cui si vive o lavora. Un’importante componente comunque è quella di aumentare la conoscenza e l’informazione al pubblico perché chiaramente negli spazi privati dove è difficile impostare delle regole da applicare tocca proprio a tutti noi di osservare certe regole per poter contribuire al miglioramento della qualità dell’aria all’interno degli edifici in cui viviamo e lavoriamo. Per rafforzare sia la componente scientifica che quella politica, la Commissione Europea ha finanziato negli ultimi anni vari progetti tra i quali due che hanno servito il primo (EnVIE) come un azione coordinativa a livello europeo sull’inquinamento indoor e per gli effetti sulla salute ed un secondo (IAIAQ) progetto che nel 2011 ha fornito una valutazione dell’impatto su piccola scala delle azioni europee sull’inquinamento indoor. Nel contesto della fase della implementazione del programma quadro europeo per la salute pubblica e delle attività corrispondenti svolte dall’Organizzazione Mondiale della Sanità vari progetti sono stati finanziati allo scopo di: (1) prioritizzare quali sono gli inquinanti rilevanti negli spazi interni che provocano potenziali effetti sulla salute; (2) stabilire dei valori guida per questi inquinanti prioritari; (3) monitorare in modo sistematico quali sono i modelli di esposizione in collegamento con gli effetti sulla salute; (4) individuare e migliorare delle sorgenti che danno luogo all’inquinamento indoor; (5) ridurre il livello di esposizione agli inquinanti indoor attraverso materiali e tecnologie innovative e (6) fornire degli indicatori per monitorare la salute, il comfort e la sicurezza degli edifici. Ci sono poi alcuni indicatori, al primo posto quelli sviluppati dall’OMS, che ogni 5 anni hanno lo scopo di monitorare l’andamento dell’inquinamento, dell’aria indoor nelle scuole. C’è una lunga lista di progetti finanziati per l’inquinamento indoor nelle scuole perché, come già menzionato dal Prof. Sestini, i ragazzi che frequentano la scuola sono più vulnerabili ad una esposizione all’inquinamento indoor rispetto agli adulti. Nel contesto del progetto EnVIE è stato fatto per la prima volta un collegamento sistematico degli effetti della salute in relazione ai livelli di esposizione ai fattori fisici, chimici e biologici che occorrono negli spazi abitati, delle sorgenti che danno adito a queste esposizioni e infine il collegamento con le politiche esistenti. C’è una lunga lista di strumenti legislativi e di linee guida, sia a livello internazionale che a livello nazionale, relativi all’ambiente costruito. EnVIE con il coinvolgimento di esperti a livello internazionale ha proposto una serie di attività e di iniziative a livello sia politico che scientifico con lo scopo di produrre metodologie armonizzate e dati comparabili e di qualità nei Paesi della Unione Europea per l’aria indoor. In questo contesto si sono proposti nel 2008 di iniziare dei lavori di armonizzazione per quanto riguarda il testing dei materiali o i sistemi di monitoraggio della qualità dell’aria negli spazi interni in Europa. Nel 2011, nel contesto del progetto IAIAQ, è stata fatta per la prima volta in Europa una valutazione dell’impatto sulla salute dovuta all’inquinamento indoor. Questa valutazione e’ stata fatta sulla base della metrica DALY applicata per diversi tipi di malattie, tipo asma, allergie, cancro ai polmoni attribuibili all’inquinamento indoor, e per gli agenti e le sorgenti relative tipo i materiali e i prodotti dei consumatori, le particelle, il monossido di carbonio, i composti volatili, ecc. Per avere un’idea circa il contributo nella totalità di malattia attribuito all’area esterna rispetto a quella interna, vedete qui una stima con riferimento all’anno 2005 in 31 Paesi europei in cui vediamo che la componente dovuta all’inquinamento indoor è significativa. Lo stesso progetto ha stimato i potenziali benefici che si potrebbero trarre Arezzo 20 - 23 novembre 2012 93 21 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute sulla salute pubblica al decimo anno della implementazione di 11 azioni a livello politico europeo che sono relative alla qualità dell’aria indoor come quella di integrare aspetti di qualità dell’aria indoor alla Energy Performance Building Directive oppure delle line guida di ventilazione basati sulla salute, etc. La necessità di integrare aspetti di qualità dell’aria indoor sulle procedure esistenti che riguardano la performance di edifici dal punto di vista energetico, è una componente importante e diventa anche molto attuale perché con le misure che si cerca di applicare ultimamente per ridurre il dispendio energetico negli edifici si rischia, come è stato menzionato prima, di finire come vent’anni fa quando nei Paesi nordici, specialmente attraverso la sigillatura degli edifici, si sono osservati i primi sintomi massivi di salute dovuta alla pessima qualità dell’aria interna negli ambienti lavorativi. Attualmente è in fase di finalizzazione il framework di armonizzazione della valutazione dal punto di vista di salute delle emissioni dai prodotti di costruzione (EU-LCI) mentre un altro framework di armonizzazione che riguarda l’etichettatura dei materiali che si usano negli spazi interni è stato pubblicato nel maggio scorso come rapporto n. 27 nella serie dei rapporti che sono stati pubblicati dall’azione collaborativa europea su “aria urbana, ambiente indoor ed esposizione umana” (ECA). Il fatto che ha dato adito a questa armonizzazione è che nonostante ci siano diverse tradizioni da tempo in atto in vari Paesi europei per quanto riguarda metodologie per valutare le emissioni di materiali anche dal punto di vista della salute, ci sono una serie di argomenti che fanno sì che la valutazione finale dal punto di vista della salute può essere divergente. Era quindi necessario creare un framework armonizzato che permetta gradualmente nel tempo di tenere in considerazione e creare i presupposti per una implementazione armonizzata del lavoro di standardizzazione o dei metodi scientifici per i quali è stato raggiunto un accordo o sono rigorosamente validati, fino al trattamento progressivo degli altri inquinanti tipo gli SVOCs che sono emergenti oppure la valutazione sensoriale delle emissioni dai prodotti di costruzione per la quale non è stato ancora possibile raggiungere un consenso scientifico. Questo framework rappresenta un sistema flessibile che permette sia nel mondo industriale che produce i materiali di costruzione ed altri prodotti di consumo sia ai Paesi membri che effettuano il monitoraggio della qualità dell’aria negli spazi interni di adattarsi gradualmente e infine usare le stesse metodologie armonizzate. In questo modo si eviterebbe una situazione tipo quella riscontrata in Germania e Francia nei quali il sistema di valutazione a livello tossicologico degli effetti sulla salute dell’emissione di circa 170 composti dai materiali di costruzione negli ambienti interni è diverso. Nella tabella possiamo osservare che, a causa della diversa metodologia seguita per poter ricavare i livelli di soglia tossicologica (cioè quei livelli di esposizione che una volta superati possono provocare effetti sulla salute), per alcuni dei composti presi ad esempio i valori sono uguali, mentre per altri ci sono dei valori che possono essere anche ordini di grandezza diversi. Non è ammissibile chiaramente che l’impatto della salute di un cittadino in Germania, rispetto ad uno in Francia, può essere sopravalutato o sottovalutato quando essi siano esposti alle stesse emissioni chimiche dai diversi materiali usati negli spazi indoor. Questo è stato lo stimolo che ha provocato questa armonizzazione la cui fase preparatoria sta finendo ora insieme con un’altra componente molto importante che riguarda un framework armonizzato dei criteri e dei protocolli per il monitoraggio della qualità dell’aria indoor. Il 17 e 18 dicembre del mese prossimo a Bruxelles avremo la possibilità di presentare ai Paesi membri e nell’industria questi risultati. Senza volere entrare in dettaglio, qui viene presentato lo schema del monitoraggio armonizzato con le diverse fasi dalla definizione dell’obiettivo del monitoraggio indoor, dalla pianificazione dello studio, dalla scelta dei metodi di analisi, il modo di raccogliere e valutare i dati e infine quello di riportare i dati. Nell’ambito del progetto IAIAQ, esistenti strumenti legislativi, progetti e azioni relativi alla qualità dell’aria indoor che sono stati finanziati negli ultimi 10 anni sono stati valutati per quanto riguarda i benefici sulla salute quando essi saranno implementati in pieno. Mano a mano che andiamo verso il basso di questa tabella, i diversi strumenti e gli atti legislativi non sono più valutati indipendentemente ma in combinazione e in basso vediamo che il più grande beneficio a lungo termine potrà essere ottenuto se si dovessero integrare aspetti di qualità dell’aria interna sul lato climatico europeo, sul pacchetto di energie rinnovabili e sulla Energy Performance Building Directive. Per quanto riguarda i prodotti, tutto quello che è stato menzionato finora, cioè le tecniche di testare i materiali per quanto riguarda la loro emissione ed i loro effetti sulla salute, sono ben stati consolidati gli standard per le emissioni dai materiali di costruzione, ma abbiamo un grande gap per quanto riguarda prodotti di consumo che si usano anche negli ambienti domestici. E’ stato allora finanziato due anni fa il Progetto EPHECT che ha proprio lo scopo di creare prima di tutto nuovi dati a livello europeo sulle emissioni dai prodotti di consumo ed un framework per quanto riguarda il testing delle emissioni di questi prodotti come lavoro prenormativo alla standardizzazione e delle linee guida per ridurre i rischio di potenziali effetti sulla salute. 15 classi di prodotti di consumo sono stati prioritizzati nel contesto del progetto EPHECT le quali includono un lungo elenco di prodotti che troviamo abitualmente nelle nostre case, tipo quelli per la pulizia ad uso domestico. Sono stati individuati gli inquinanti principali che sono ben conosciuti nell’essere associati a dei potenziali effetti sulla salute, ma anche alcuni emergenti. Inoltre, molto importante, per la prima volta è stato fatto a livello europeo un’indagine di mercato per poter individuare gli scenari d’uso di questi prodotti ed anche le abitudini delle persone, perché questo serve per poter associare il reale livello di esposizione alle emissioni chimiche dai prodotti di 94 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 21 Novembre consumo con l’effetto sulla salute. Un’altra componente è quella di fare una serie di esperimenti, di vedere il comportamento delle emissioni rispetto a quelle classiche dei materiali di costruzione. Tutto questo arricchirà una banca dati che è stata già sviluppata nel contesto del progetto BUMA due anni fa, che era proprio basata sulla emissione dai materiali di costruzione, la quale nell’ambito del progetto EPHECT sarà estesa per includere anche emissioni dai prodotti di consumo in generale. Dopo un lungo periodo in cui l’inquinamento dell’aria interna ha cambiato parecchie volte contesto e che nello stesso tempo ha avuto beneficio sia dal progresso scientifico, inizialmente prettamente negli spazi occupazionali, cioè dove ci sono i lavoratori, le industrie, ecc. e poi pian piano è stato esteso agli spazi tipo gli uffici, le scuole, negli spazi domestici seguendo un approccio molto più rigoroso dal punto di vista della valutazione dell’aspetto della salute. In parallelo ha seguito il progresso tecnologico, e mentre prima si parlava della soluzione facile cioè quella di aprire le finestre (che non è sempre ideale considerando le varie zone climatiche in Europa e oltretutto in questo periodo in cui i requisiti del risparmio energetico sono aumentati) gradualmente vi è stato un cambio del paradigma che ora promuove l’intervento sulle sorgenti e il loro controllo. E’ stato poi sviluppato un approccio politico che ha spostato il paradigma dal considerare l’inquinamento degli spazi interni da una semplice questione del consumatore ad una questione di salute pubblica e questo chiaramente tenendo sempre in considerazione sia la responsabilità dei Paesi membri ma anche la questione della sussidiarietà a livello europeo. Ha dato oltretutto adito a considerare l’importanza che entriamo in un’era in cui gli aspetti di inquinamento indoor devono essere trattati in modo olistico. Adesso ci possiamo aspettare che il buon esempio, i buoni risultati ottenuti, gli standard internazionali esistenti che riguardano il testing delle emissioni di materiali e dei prodotti di costruzione si estenderanno anche a quelli che riguardano le emissioni dei prodotti di consumo. Dopo essere riusciti a sviluppare i framework di armonizzazione per quanto riguarda il testing delle emissioni e la loro valutazione dal punto di vista della salute ed il controllo della qualità dell’aria negli spazi interni, la sfida che abbiamo ora davanti a noi è quella della loro efficace implementazione. Tocca ai Paesi membri di dare veramente una mano ed anche all’industria che deve seguire le raccomandazioni. E tutto deve essere fatto in una maniera olistica perché dobbiamo tenere in considerazione che l’inquinamento indoor taglia in modo trasversale esistenti strumenti legislativi e standards che sono relativi all’ambiente degli edifici e sta anche tagliando in modo trasversale aspetti come quello della sicurezza, la stabilità degli edifici, la salute, l’efficienza energetica e la sostenibilità. Concludendo, vorrei sottolineare l’importanza che questo processo di integrare gli aspetti di ambiente e salute sia avviato in tutti i paesi europei i quali devono seguire da vicino quello che a livello europeo si sta sviluppando per quanto riguarda in particolare i processi di armonizzazione relativi alla qualità dell’aria indoor. Abbiamo già tantissimi contributi dagli esperti europei ed internazionali però a livello politico si auspica di stabilire dei rapporti molto più vicini con i paesi membri come Italia perché questo aiuterebbe molto ad avere anche in Italia il beneficio degli strumenti armonizzati che si sono preparati recentemente. Domanda di Piersante Sestini (Università di Siena): Ha insistito molto sul controllo delle emissioni, però per esempio nella scuola la fonte delle emissioni sono i bambini. In gran parte la CO2 la fanno i bambini, il rumore lo fanno i bambini quindi anche la parte che riguarda poi lo smaltimento delle emissioni, per esempio la ventilazione meccanica piuttosto che non aprire le finestre o i sistemi di isolamento acustico o di attenuazione dei rumori. L’approccio olistico può comprendere tutto questo aspetto, rimane importante che se un prodotto è tossico ovviamente lo si debba sapere. Come sapete è già in corso il più grande progetto europeo (SINPHONIE) che riguarda l’inquinamento indoor in correlazione anche con l’outdoor per le scuole europee, il quale approfondisce molto tutti gli aspetti che possono dare adito a problemi di salute sia ai ragazzi che frequentano la scuola ma anche agli insegnanti. Questo progetto proporrà nell’arco dei prossimi 2-3 mesi diverse misure e linee guida che possono migliorare l’ambiente scolastico, tenendo chiaramente in considerazione in modo pragmatico cosa si può tenere e cosa no. Nessuno mai può proclamare di riuscire di abbattere ogni fonte di inquinamento. Il contesto da una parte è quello di produrre dati confrontabili e di buona qualità usando metodologie comuni, d’altra parte di migliorare sempre la qualità diminuendo progressivamente le emissioni indoor con una maggiore attenzione alle loro sorgenti. Un buon esempio in questo senso rappresenta la Finlandia la quale nonostante non possiede un sistema obbligatorio nazionale ma solamente volontario per l’etichettatura dei prodotti di costruzione, le industrie si adeguano e anche a causa di concorrenza nell’arco del tempo stanno migliorando i loro prodotti. L’importante è continuare questo processo e dare tante istruzioni, perché nella scuola sono i bambini, sono gli insegnanti, sono le persone addette alla pulizia, sono diversi attori. In effetti proprio in questo periodo si stanno elaborando dei piccoli opuscoli per divulgare metodi molto semplici, comprensibili ai ragazzi, agli insegnanti o anche a quelle che sono le persone responsabili degli edifici delle scuole. Cosa devono fare, cose semplici, per poter migliorare la qualità dell’aria oltreché cose molto più specifiche da fare a lungo termine per migliorare lo stesso ambiente scolastico. Quindi Arezzo 20 - 23 novembre 2012 95 21 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute penso che tra poco qualche buon consiglio su questo sarà a disposizione di tutti. Domanda di Ivo Allegrini (Ministero dell’Ambiente): Complimenti per la presentazione. Sono sicuro, perché conosco la capacità di trascinamento del JRC, che queste ricerche in Italia troveranno naturalmente la dovuta collocazione. Io invece mi preoccupo di un’altra cosa. Non sono un grosso esperto nell’inquinamento indoor perché la mia attività professionale è stata più che altro sull’ambiente esterno, sull’inquinamento atmosferico esterno. Quello che ho imparato è che l’inquinamento atmosferico ambientale è molto democratico, mentre credo che l’inquinamento interno lo sia un po’ meno. Tra tutte le variabili considerate probabilmente una variabile socioeconomica, che sicuramente va ad influire sullo standard della qualità negli ambienti interni, dovrebbe essere presa in considerazione. La mia domanda, che poi può anche essere motivo di discussione per questa sessione, è nei programmi framework questo aspetto è stato considerato oppure lo dobbiamo prendere in considerazione in funzione dei risultati che avremo poi dai vari progetti? In modo implicito in questa fase no, però ritengo che sia un aspetto importante che riguarda non solamente l’impatto dell’inquinamento indoor o dell’inquinamento atmosferico ma in tutti i settori scientifici a supporto delle politiche Europee. Colgo l’occasione di informarvi che una valutazione dell’impatto socio-economico si sta progressivamente incorporando in tutte le aree della legislazione Europea prima ancora di decidere di intraprendere strade alternative deviando da quello che si sta facendo in certe aree. Questo è un aspetto molto importante e chiaramente riguarda anche le politiche relative all’inquinamento indoor/outdoor. 96 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 21 Novembre Inquinamento dell’aria outdoor/indoor e salute: considerazioni per il risk management "Strategie nazionali per la prevenzione del rischio indoor" Annamaria De Martino Ministero della Salute Innanzitutto grazie per avermi dato la possibilità di illustrare quello che il Ministero della Salute sta portando avanti da 10 anni. I relatori prima di me mi hanno aiutato molto nell’esposizione della mia relazione. Prima di entrare nel merito di quella che è stata la strategia e il programma nazionale di prevenzione negli ambienti indoor, mi soffermo velocemente nell’evidenziare alcuni aspetti importanti, sia per il risk assessment che per il risk management, sui quali tutte le iniziative del Ministero hanno tenuto considerazione. L’indoor è un problema globale, per cui vengono considerati più aspetti. L’indoor è sicuramente un problema di sanità pubblica complesso. Questa diapositiva evidenzia quello che negli anni gli studi di settore hanno messo in risalto, cioè che l’inquinamento indoor è determinato soprattutto da sorgenti interne. Il 77% delle fonti di inquinamento sono nell’ambiente confinato; di questi il 53% della fonte di inquinamento deriva da una scarsa ventilazione, da una inadeguata ventilazione; poi ci sono le altre fonti interne (15%), le fonti esterne (10%), le fonti derivate dall’inquinamento microbiologico (5%) ed infine dai materiali di costruzione (4%). Questo è importante per capire nelle strategie di prevenzione come agendo sulla ventilazione si può ridurre notevolmente l’inquinamento indoor, oltre che agendo sulle fonti. Infatti gli stessi studi di settore hanno dimostrato che quando la ventilazione è inadeguata e ci sono sorgenti interne, gli inquinanti degli ambienti indoor possono aumentare anche 10-20 volte rispetto all’inquinamento esterno. Con quest’altra diapositiva si evidenzia come siano tante le fonti di inquinamento e tanti siano gli inquinanti (chimici, fisici, biologici), come una fonte possa dare origine a più tipi di inquinanti, ma anche come un inquinante può essere emesso da più fonti. E’ il caso dei composti organici volatili che, essendo emesso da più fonti, è particolarmente diffuso negli ambienti confinati. Questa diapositiva evidenzia anche come un inquinamento particolarmente caratteristico degli ambienti confinati è quello proveniente dalla combustione, quindi dal riscaldamento, dalla cottura dei cibi ed è legato all’attività umana. Le cause cono complesse per cui l’approccio è intersettoriale, riguarda sia la progettazione degli edifici, compresa l’area di insediamento che può determinare l’inquinamento dall’esterno all’interno, sia l’utilizzo di materiali da costruzione, sia gli impianti, ma anche dall’esercizio degli edifici e quindi quelle che sono le esigenze di risparmio energetico che portano ad una scarsa ventilazione, ma anche le operazioni di pulizia e di gestione di manutenzione degli ambienti. Una componente importante resta comunque l’attività degli occupanti che incide notevolmente nell’inquinamento indoor. Gli occupanti con le loro attività sono i principali soggetti esposti all’inquinamento e quindi ne subiscono gli effetti, ma ne sono anche i principali artefici. Affrontare il problema dell’indoor significa anche affrontare il problema del microclima e quindi c’è una componente interdisciplinare che deve intervenire nelle strategie di prevenzione. Tutti questi aspetti ci dimostrano che per intervenire bisogna agire sulle caratteristiche costruttive degli edifici, sulle attività che producono inquinanti, sull’inquinamento esterno, sulle caratteristiche di esercizio degli edifici, sull’aerazione degli ambienti e quindi sul microclima. Come vedete il problema è molto complesso, ma c’è un altro aspetto importante ed è quello proprio che riguarda la salute umana. Rispetto all’inquinamento outdoor, l’inquinamento indoor è determinato dalla concentrazione dell’inquinante e dal tempo di esposizione che negli ambienti confinati è abbastanza lungo. Abbiamo delle esposizioni croniche e abbiamo degli effetti cronici. Questo significa che dobbiamo considerare nel risk assessment l’esposizione personale dell’individuo quindi la permanenza nell’ambiente confinato, ma anche l’esposizione cumulativa negli altri ambienti e nell’ambiente esterno. Esistono poi, questo sempre per la prevenzione, da tener conto di quelli che sono i soggetti più suscettibili, cioè quelle persone che anche a livello di inquinamento che non producono effetti sulla salute dell’individuo normale, invece hanno effetti sulla salute. Questi sono le persone con asma e allergie, con malattie respiratorie, con problemi immunitari, con problemi cardiovascolari e i bambini. Tutti questi aspetti ci fanno capire che sono necessarie politiche intersettoriali che agiscano su tutti gli aspetti che abbiamo considerato, ma soprattutto politiche che incidano sui comportamenti degli occupanti. Sicuramente una strategia importante di prevenzione è l’informazione e la comunicazione. In Italia sull’inquinamento indoor abbiamo delle iniziative che però ancora sono poche, nel senso che quello che manca è proprio una normativa organica sulla qualità dell’aria (standard, valori guida) e sicuramente uno strumento molto importante è il regolamento locale di igiene, il regolamento comunale, perché è lo strumento che ci fornisce le norme, le regole per la costruzione degli edifici e gli indici igienico-sanitari di questi ambienti. E’ quindi giusto intervenire su questo strumento, aggiornarlo e completarlo perché questa normativa venga tenuta presente a livello comunale, ma a livello anche di chi opera, progetta e realizza gli edifici. Arezzo 20 - 23 novembre 2012 97 21 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute L’attività del Ministero è iniziata una decina di anni fa proprio tenendo conto di questa mancanza di una normativa organica. E’ cominciata con la costituzione di un Gruppo di Studio nazionale, la Commissione Indoor, costituita nel ‘98. La prima cosa che fece questa commissione fu un indagine nazionale sul territorio per verificare qual’era la situazione italiana rispetto al problema dell’inquinamento indoor. Successivamente, sulla base di questa indagine conoscitiva, sono state messe a punto delle linee di indirizzo, una normativa in alcuni settori e degli accordi tecnici con le autorità locali con regioni, progetti di ricerca e iniziative anche di Politica sanitaria di supporto. Questa indagine si sovrappone a quella portata avanti a livello europeo recentemente perché si cercò di stimare l’impatto sulla salute ed anche il costo dell’inquinamento indoor. Questa indagine non tiene conto degli effetti indiretti e focalizza l’attenzione soltanto su quelli che sono gli inquinanti che danno un effetto più grave sulla salute e in cui all’epoca esistevano delle evidenze molto concrete sulla relazione esposizione/effetto. E’ un indagine quindi che non dà proprio la stima completa dell’impatto sulla salute che sicuramente è più alta, però indica delle priorità. Le priorità sono sicuramente l’esposizione ad allergeni, al radon al fumo di tabacco ambientale, al monossido di carbonio e al benzene. Sulla base di queste priorità che individuano i bisogni e sulla base anche di tutte le altre evidenze venute fuori da questa indagine, fu messo a punto documento che diventa un accordo Stato/Regioni sulla tutela della salute negli ambienti confinati. Questo documento ha un grande valore perché nel 2001 diventa un accordo del Ministero della Salute con le Regioni, questo significa che le Regioni si impegnano a recepire nei propri regolamenti quanto è riportato in questo documento. Questo documento focalizza per la prima volta l’attenzione sul problema degli ambienti confinati, sulla qualità dell’aria indoor. Fino a quel momento si è parlato sempre e soltanto della qualità dell’aria esterna, quindi il valore principale di questo documento, al di là del fatto che non è stato recepito dalla totalità delle regioni, è che finalmente ha posto il problema sulla qualità dell’aria indoor. Il documento definisce e stabilisce delle linee operative nazionali da mettere in atto ai vari livelli. A livello centrale, a livello regionale, a livello locale per realizzare questo programma nazionale che prevede appunto un approccio globale, interdisciplinare, intersettoriale che coinvolga tutti i settori, non solo quello sanitario, ma anche quelli che direttamente e indirettamente incidono sull’inquinamento degli ambienti confinati. Tra i principi su cui si basano queste linee c’è quello di garantire benessere e salute negli ambienti indoor, attenzione particolare ai gruppi più suscettibili, garantire sostenibilità e produttività degli ambienti indoor, prevenzione scientificamente giustificata e partecipazione dei cittadini alla gestione delle politiche di intervento preventivo. Le azioni che propone sono sicuramente azioni di tipo normativo e tecnico e tra queste dà delle priorità che purtroppo ancora non sono state realizzate. La necessità di fissare degli standard, dei valori guida per la qualità dell’aria nelle scuole e nelle abitazioni perché sono gli ambienti in cui le persone sono maggiormente esposte, in cui passano più tempo e soprattutto le persone più vulnerabili sono esposte in questi ambienti. Poi vengono indicati, in base appunto all’indagine nazionale, degli interventi da fare su specifici inquinanti, tra questi il fumo passivo, il radon, gli allergeni, la legionella, ecc. E quindi altri interventi di tipo formativo, di comunicazione e un programma di ricerca. Di tutte queste indicazioni, che poi sono sviluppate in dettaglio nel documento, sono state portate avanti non tutte, però c’è stato un supporto ulteriore da parte del Ministero per garantire l’applicazione di quanto era contenuto nelle linee guida, anche la Commissione Indoor ha dato origine a delle ulteriori linee guida in alcuni settori specifici che riguardano i requisiti degli ambienti per fumatori. Il documento tecnico prodotto dalla Commissione ha dato origine a un DPCM per l’applicazione della legge di divieto di fumo in tutti i locali pubblici e quindi dà i requisiti delle zone fumatori e i requisiti degli impianti di climatizzazione. Poi una serie di documenti e di accordi per la prevenzione della legionella, un Piano Nazionale per il Radon - inquinante molto importante degli ambienti confinati che causa il tumore al polmone - che è diventato un progetto finanziato dal CCM nonché un accordo per i protocolli tecnici di manutenzione predittiva sugli impianti di climatizzazione. L’ultimo è un accordo, citato anche dai precedenti relatori, che fornisce linee di indirizzo per la prevenzione nelle scuole dei fattori di rischio indoor per asma ed allergia. E’ un documento importante perché fornisce delle indicazioni operative per realizzare degli ambienti scolastici che siano privi di allergeni e che quindi limitino l’esposizione dei bambini allergici agli allergeni, ma contiene anche indicazioni per ridurre l’inquinamento dell’aria e quindi garantire ambienti scolastici che siano salubri per tutta la popolazione scolastica. Oltre a fornire proprio delle linee operative tecniche per ridurre le principali fonti di inquinamento all’interno della scuola, per esempio dà delle indicazioni di buona pratica per le operazioni di pulizia, indicazioni di buona pratica per eliminare muffe e funghi, dà anche delle linee operative da attuare a livello nazionale per realizzare concretamente ambienti scolastici che siano sani e sicuri per tutta la popolazione scolastica. Accanto a questi che sono documenti tecnici che forniscono proprio delle indicazioni concrete, c’è stato anche un intervento politico perché il Ministero della Salute con la modifica del titolo V° della Costituzione ha più un compito di indirizzo e di coordinamento, quindi promuove la salute piuttosto che fare delle leggi. Con questo nuovo compito del Ministero è necessario che porti avanti una politica che coinvolga anche i settori non sanitari per creare la salute in tutte le politiche, quindi un coinvolgimento di tutte le forze sociali delle altre istituzioni. 98 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 21 Novembre Ciò ha portato ad una serie di iniziative tra le quali il Piano Sanitario Nazionale, un documento programmatico che dà indicazioni alle Regioni su quelli che sono gli obiettivi di salute del Sistema Sanitario Nazionale. Questo Piano Nazionale del 2006-2008 per la prima volta pone l’attenzione all’indoor, ma soprattutto recepisce quella che è la Strategia Europea Ambiente e Salute (SCALE) e quindi dedica un intero capitolo a questi argomenti che le Regioni hanno recepito nei loro piani regionali. Poi c’è Guadagnare Salute che è un progetto nazionale che ha proprio come obiettivo quello di sviluppare campagne di comunicazione per promuovere la salute in tutte le politiche e tra le azioni portate avanti ci sono campagne di comunicazione per il fumo passivo. Infine vi è l’alleanza GARD Italia, di cui ci ha parlato anche il Prof. Viegi. Nell’ambito della GARD Italia è stato costituito un gruppo di lavoro che è composto da esperti, sia del mondo sanitario che da architetti, impiantisti ed anche da esperti della Commissione Europea. Lo scopo di questo gruppo è mettere a punto un documento che servisse per fare un quadro della situazione delle scuole italiane: qual è l’esposizione degli studenti agli inquinanti negli ambienti scolastici, quali gli effetti sulla salute, quali indagini sono state condotte a livello nazionale su questo problema, quali sono i problemi pratici che ostacolano l’attuazione di una buona politica per la qualità dell’aria. Un documento conoscitivo che ci ha permesso di capire che in Italia in realtà non sono stati condotti molti studi sulla qualità dell’aria delle scuole e sugli effetti sulla salute degli studenti. Sicuramente uno studio molto importante è quello di cui vi parlerà la collega del Ministero dell’Ambiente, lo studio SEARCH, però al di là di questo e di altri studi ancora c’è da indagare. Esaminando l’ultima indagine condotta dal Ministero dell’Istruzione, ha però evidenziato che la situazione degli edifici in Italia non è assolutamente delle migliori, che esistono grossi problemi igienico-sanitari, che gli edifici risalgono agli anni settanta, che esistono problemi soprattutto di ventilazione. Prima si è parlato dell’attività degli studenti, ma in realtà l’inquinamento delle scuole viene creato soprattutto da una cattiva e inadeguata ventilazione. Questo documento evidenzia anche quelle che sono le carenze normative, quello che bisogna migliorare a livello della normativa. Ci sono presidi che vogliono intervenire quando c’è un bambino allergico a scuola e voi sapete che l’allergia nei bambini è aumentata notevolmente in questi ultimi anni, per cui è molto facile che a scuola ci sia un bambino allergico e i presidi non sanno che cosa fare, che iniziative mettere in atto. Esiste quindi un problema anche di competenze e questo documento ha evidenziato le carenze sia normative sia di compiti e fornisce anche delle indicazioni operative. E’ un documento che verrà presentato ufficialmente il giorno 28 novembre 2012 all’Assemblea della GARD Italia che come è stato detto è un’Alleanza Nazionale contro le malattie respiratorie croniche composta da associazioni scientifiche, associazioni mediche, ma anche dalle associazioni volontarie, le associazioni di pazienti. Nasce da un’iniziativa dell’OMS ed il Ministero coordina proprio per garantire la lotta alle malattie respiratorie ed allergiche. Concludo dicendo che compito del Ministero e delle Istituzioni è anche far si che ci sia una cultura sul problema e cercare di creare contatti con chi segue questi problemi, con gli esperti, con il mondo scientifico, ma anche con la società civile. Tra le iniziative che questo gruppo specifico della GARD ha portato avanti in questi due anni di attività è creare un network tra esperti. Visto che all’interno della GARD ci sono esperti di settore che trattano questo problema delle allergie nelle scuole e c’è anche un componente della Commissione Europea, diciamo che questi esperti insieme a quelli dell’Istituto Superiore di Sanità e dell’ISPRA si è creato una specie di network e di collaborazione che sicuramente potrebbe concludersi con la formazione di un tavolo tecnico interistituzionale e coinvolgendo questi vari esperti portare alla pubblicazione di un documento di linee guida che fissi standard e valori guida di qualità dell’aria nelle abitazioni, nelle scuole. Questa sarebbe sicuramente l’iniziativa più importante, fattibile perché l’OMS ha messo a punto recentemente due documenti di linee guida, sia per l’inquinamento chimico che per la riduzione di umidità e muffe negli ambienti confinati. Arezzo 20 - 23 novembre 2012 99 21 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute Inquinamento dell’aria outdoor/indoor e salute: considerazioni per il risk management "Variabilità climatica e microclimatica come fattore di rischio ambientale per le strutture per l’assistenza sanitaria" Umberto Moscato Università Cattolica del Sacro Cuore di Roma – Istituto di Igiene La motivazione principale di questa presentazione è data dall’incertezza, che ad oggi ancora in effetti esiste, prima di tutto sulla stima di quali saranno gli effetti od i danni derivanti dalle variazioni climatiche e la seconda dalla “inconsapevolezza” delle conseguenze che questo tipo di impatto potrebbe avere sulle strutture sanitarie. Ringraziando il Prof. Viegi e la Dr.ssa Sinisi dell’avermi assegnato questo “ingrato compito”, di descrivere i possibili fattori di rischio ambientali, derivanti dalla variabilità climatica e microclimatica, correlati con le strutture di assistenza sanitaria, è necessario puntualizzare sin dall’inizio che, nel mentre tale problema solleva notevoli interessi in molte aree, non solo industrializzate, del Globo, ove ampia e la sensibilità alle problematiche meteoclimatiche ed al loro impatto, scarso effetto ha in Italia, prevalentemente nella componente di approccio “culturale e sociale” al problema, ovvero si ha in Italia una scarsa sensibilità agli effetti ed alle conseguenze che la variabilità climatica potrebbe generare verso ospedali od altri ambiti assistenziali sanitari. Per cercare di dare una risposta al mandato a me assegnato dai moderatori della sessione, il primo aspetto fondamentale da tenere presente, ci porta indietro nel tempo, cioè a ridefinire un concetto che oggi esplicitiamo con il termine di “Evidence based medicine” o di “Medicina Basata sull’Evidenza”, ovvero la necessità di esprimere concetti od operare in ambito medico-scientifico solo sulla base di comprovata esperienza pratica sperimentale e non solo o non solamente sulla base di assunti teorici non dimostrati. In realtà già Euclide ci aveva già espresso circa duemila anni fa lo steso concetto eppure, poiché siamo usi a essere creativi ma non operativi, e quindi a dar seguito a questo aspetto di creatività, cioè a ipotizzare e pensare le cose prima ed a organizzarci per eseguirle dopo, spesso non abbiamo modificato nulla nel nostro comportamento scientifico da duemila anni a questa parte, ovvero da quando già Euclide esprimeva: “di dimostrare con fatti gli eventi per non essere smentiti solo da parole”. Le variazioni climatiche sono insite all’interno della storia, della struttura e dell’evoluzione della Terra. Il loro verificarsi può essere sì il frutto o, meglio, la conseguenza nefasta di un intervento di natura antropica, ma il loro manifestarsi può essere anche l’effetto di un andamento ciclico del tutto naturale. Esiste in tal senso ampia letteratura scientifica. In tal senso basti citare i risultati ottenuti con i carotaggi del ghiaccio polare, atti a dimostrare come già nella pregressa, anche lontana per milioni di anni, “storia del Pianeta Terra” ovvero sin dal Pangea, esistano mutazioni cicliche del clima. Pertanto, ciò che al limite noi riusciamo a determinare od indurre non è che il “peggiorare” tali variazioni cicliche, cioè l’intervento antropico dell’uomo con l’inquinamento delle matrici ambientali non determinerà il “se si verificheranno variazioni climatiche anche potenzialmente catastrofiche” quanto probabilmente “quando” ciò accadrà, condizione a tutt’oggi non prevedibile. Quindi “quando” si verificheranno i fenomeni di variazione meteoclimatica, non “se” si verificheranno. Molti e differenti sono i modelli previsionali, gli scenari, del verificarsi, e delle relative conseguenze, delle variazioni meteo-climatiche. Sono state ipotizzati persino modelli matematici in cui potrebbero verificarsi condizioni, in quasi tutta la Terra, di variazione media della temperatura di oltre 5°C. In un caso come questo, con lo scioglimento dei ghiacci e la variazione della componente idrica pluviale, molti dei territori presenti in riva ai differenti mari e, con questi tutte le città e le strutture spesso edificate proprio sulle zone costiere dei paesi bagnati dal mare, sarebbero invasi dalle acque e sommersi (ad esempio questo è quanto accadrebbe a buona parte dell’Italia, in cui per tali variazioni di temperatura, è stato ipotizzata una perdita del 22% del territorio costiero, con tutto ciò che contiene od ha in superficie..), come per altro ribadito anche nell’ultima Conferenza Mondiale sul Futuro della Scienza. Una variazione importante del meteoclima outdoor potrebbe logicamente generare una conseguente variazione microclimatica indoor, tanto nelle strutture residenziali e lavorative quanto nelle strutture sanitarie. In particolare queste ultime, sebbene dedicate proprio alla “cura” delle persone, potrebbero non essere pronte realmente, dal punto di vista strutturale ed impiantistico, ad accettare pazienti che hanno effetti sulla salute derivanti da variazioni meteoclimatiche (ad esempio le ondate di calore), in forza del fatto che molte strutture emergenziali, benchè dotate di ambienti climatizzati, ad esempio, non ne abbiano nei reparti di degenza. Anche per l’Italia i modelli previsionali sul meteoclima prevedono, per i prossimi 50 anni, scenari di danni ambientali, territoriali e sulla popolazione di tutti i tipi ed a tutti i livelli, compresi ambiti e rischi di tipo geosismico, geomagnetico e idrogeologico. Si pensi solo al recentissimo aggiornamento sulla stima di quelli che dovrebbero essere i terremoti nei prossimi 10 anni in Italia: in teoria sismi di variabile entità dovrebbero colpire non solo le zone già colpite da sisma negli ultimi decenni, ma anche altre aree ad oggi non perfettamente prevedibili, ma vicine alle precedenti. Quindi, pressoché poche zone del territorio italiano sarebbero esenti da rischio sismico maggiore. La quantità di anidride carbonica, rilevata a Monte Cimone dal CNR, sta aumentando sempre di più spiegando come l’effetto, che molti definiscono serra, stia a sua volta incrementando la temperatura media. Da ciò ne derivano 100 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 21 Novembre scenari di “tropicalizzazione” climatica delle nostre latitudini con conseguenze logiche ma spesso imprevedibili nei tempi e nelle modalità di diffusione, ad esempio: all’espansione delle zanzare tigre ed altri tipi di vettori che, con questa modalità, possono trasmettere malattie tropicali. Tant’è vero che vi sono stati casi, recentemente, non solo di artropodi vettori in Italia che hanno trasmesso il virus West Nile, come altri virus sino ad oggi di “pertinenza” delle regioni tropicali ed a noi sconosciuti. Analizzando invece le mappe di ultima stima italiana sui rischi di inondazione e frane è possibile notare molto bene, come apparentemente non ci sia un territorio che sia esente da questo tipo di rischio. Una stima piuttosto grossolana, perché paradossalmente in Italia appare estremamente difficile produrre dati certi ed in modo aggiornato in tale ambito, calcola che circa il 56% delle strutture sanitarie siano in zone a rischio sismico, frana e alluvionale. Bene….. L’Organizzazione Mondiale della Sanità, conscia di tali problematiche aperte non solo per l’Italia ma per molti Paesi, sia industrializzati che non industrializzati, di possibile grave impatto delle variazioni meteoclimatiche sulle strutture assistenziali sanitarie, è da tempo che sta chiedendo, quasi invocando, di introdurre variazioni nei criteri progettuali, edilizi, e impiantistici delle strutture assistenziali sanitarie tenendo in debito conto delle variazioni climatiche. Ciò comporta, gioco forza, che per prepararci ai cambiamenti climatici il design architettonico, le strutture di programmazione, l’organizzazione e le gestioni interne delle strutture sanitarie debbono cambiare. Ed il motivo del cambiamento è dovuto a tanti fattori e variabili, anche perché in fin dei conti potrebbe essere una situazione di vantaggio, quello di adattarci con flessibilità al futuro delle strutture sanitarie assistenziali, prima che si verifichino condizioni catastrofiche o che si debba sempre curare tardi invece di prevenire. Il che potrebbe generare l’atteggiamento, anche culturale virtuoso, di far considerare nel computo di ciò che deve cambiare nella sanità anche questi aspetti di correlazione con l’ambiente e l’inquinamento globale, sia da un punto di vista edilizio-strutturale che impiantistico-energetico- organizzativo. Ad esempio, molto spesso si tende a scordare che nell’ambito del concetto di “ambiente” di una struttura sanitaria, vi è anche l’accessibilità che, spesso e proprio in situazioni di variazioni meteo-climatiche, potrebbe essere difficoltosa. Si pensi alla disposizione di ospedali o di zone di primo soccorso site sul territorio e quanto la loro distribuzione sia complementare al criterio di accessibilità rapida e funzionale anche per l’anziano od il non deambulante. Senza scordare cosa accadrebbe di molti dei nostri ospedali territoriali in caso di eventi catastrofici: quanti ospedali sono costruiti con criteri antisismici, quanti in zone protette da frane o smottamenti, quanti non a rischio di alluvione, ….. Tra l’altro chi ha studiato più la posizione degli ospedali o delle strutture assistenziali in funzione dei criteri igienicosanitari validi fino a pochi anni fa, ovvero orientamento del vento, del sole, delle direzioni delle componenti maggiori di meteo-clima, pioggia o altro? Mentre, purtroppo, in Italia non esiste più o esiste solo in parte una sensibilità strutturata rispetto a questo in Australia hanno emanato un bando di ricerca per le attività di costruzione con nuovo design architettonico di ospedali non solo ecocompatibili, ma meteo-clima compatibili. A quando in Italia? Per altro si dovrà a breve, per motivi di obsolescenza degli ospedali italiani, al di là dei criteri dettati dalla crisi economica, sulla base delle nuove tecnologie - e questo Forum tra l’altro proprio per la componente sanitaria è un indizio di come varieranno le nuove tecnologie – procedere a ristrutturazioni o nuove costruzioni. Ciò anche perché si sta accorciando sempre di più il tempo di “ciclo vita” di un ospedale o di una struttura sanitaria rispetto alle tecnologie che la costituiscono, tanto che nel 2030 diversi autori prevedono che l’età media utile di una struttura sanitaria potrebbe essere al massimo, in teoria, di 8 anni. Conseguentemente i reparti hanno obsolescenze diverse, dipendendo dalle criticità tecnologiche e diagnostiche che devono essere introdotte al loro interno. Si pensi che un reparto di degenza dovrebbe essere ristrutturato ogni anno e che addirittura il gruppo operatorio dovrebbe essere ristrutturato, in base alle tecnologie che sono utilizzate al suo interno, ogni due anni e otto mesi circa. Purtroppo, come prima detto, sebbene il microclima sia così importante per le strutture sanitarie e la qualità dell’aria il focus di una buona prevenzione alle infezioni nosocomiali, spesso poca attenzione è posta a questo problema e, nelle strutture sanitarie, estremamente spesso sottostimata. Per comprenderlo è bene ricordare che quando si parla di microclima nelle strutture sanitarie, in special modo negli ambienti critici, dobbiamo pensare agli impianti di climatizzazione. Breve premessa. In realtà dei fatti, per usare le parole di Oscar Wilde, ‘le lezioni di vita non ci insegnano assolutamente nulla se non quando è troppo tardi’, cioè all’atto pratico i nostri ospedali sono per la grande maggioranza a ventilazione naturale. Persino, spesso, quei reparti che sono adibiti al ricovero coloro che sono stati colpiti dagli effetti di un’ondata di calore! Laddove presenti in modo generalizzato anche nei reparti, e non solo nelle aree critiche, certamente gli impianti di climatizzazione all’interno delle strutture ospedaliere devono essere ben strutturati, ben progettati, ben costruiti e ben manutenuti. Certamente perché è sempre più palese come proprio l’interfaccia ambientale, oltre a quella comportamentale, sia l’aspetto importante quasi fondamentale dal punto di vista delle infezioni nosocomiali. Lo esprimono molti esperti, tra l’altro in diverse ricerche, come tra i differenti Arezzo 20 - 23 novembre 2012 101 21 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute fattori promuoventi le infezioni in ospedale, proprio gli impianti di climatizzazione siano tra le cause maggiori. Anche perché, talora, le loro caratteristiche prestazionali potrebbero non essere in grado di sostenere eccessive variazioni termoigrometriche ambientali esterne, per cui non sono stati ottimizzati od addirittura progettati. Ciò comporterebbe una perdita di efficacia sensibile, in special modo se correlata alla possibilità non solo di alterare significativamente i parametri microclimatici, già di per sé importanti non solo per degenti immunocompromessi o immunodepressi presenti naturalmente in ospedale, quanto anche per gli operatori sanitari, con il rischio che questi possano commettere errori clinici dovuti ad ambienti di lavoro non confortevoli. Se a ciò dovesse aggiungersi un’inefficace capacità degli impianti di climatizzazione a sostenere o garantire la diluizione e l’allontanamento dei microrganismi o delle sostanze pericolose presenti nelle strutture sanitarie, appare intuitivo il rischio o gli effetti che ne dovessero derivare. Senza, per altro, trascurare i rischi derivanti dai cantieri continui che sono presenti, per motivi manutentivi, di ristrutturazione od altro, in ospedale, con la possibilità che diffondano miceti o schizomiceti anche a grande distanza. Ciò in parte anche per i materiali spesso inidonei, e quindi suscettibili di contaminazione, con cui la maggior parte degli ospedali sono stati costruiti nel passato (anche in funzione della vetustà degli ospedali in Italia, costruiti quest’ultimi in tempi in cui le problematiche microclimatiche e/o ambientali non erano parte del bagaglio tecnico/culturale del periodo). Si consideri l’inidoneità non solo per l’emissione di sostanze (non solo composti organici volatili) o per la colonizzazione di microrganismi quanto anche per quello che riguarda le trasmittanze e le conduttanze termiche, non certamente ben studiate nei decenni passati per quanto riguarda la costruzione degli ospedali, strutture ampiamente energivore. In relazione alle caratteristiche prestazionali degli impianti di climatizzazione nelle strutture sanitarie, il gruppo di ricerca da me coordinato si è interessato a questo problema da diversi anni, studiando alcuni indicatori interni di contaminazione ambientale, compresi i parametri microclimatici, in funzione delle condizioni e delle variazioni possibili meteoclimatiche esterne (ad esempio in relazione alle temperature future in aumento previste in Italia; alla mortalità che è stata calcolata per le ondate di calore; alle variazioni anche del freddo, ecc..). La formazione e la presenza di una bolla termica, ad esempio, che si forma in sala operatoria, sotto un flusso unidirezionale laminare, durante un intervento chirurgico, poichè generata nella combinazione tra l’aria che deriva dall’impianto di climatizzazione e gli operatori che sono presenti al loro interno, oltre al paziente operando, potrebbe risentire della variazione del grado di efficienza e di efficacia di un impianto di climatizzazione in relazione alle variazioni meteoclimatiche esterne, in particolare un aumento, oltre il range di efficacia prestazionale per cui è studiato ed installato, della temperatura o dell’umidità relativa percentuale. Attraverso uno studio geostatistico per funzioni aleatorie di ordine K o Fai-K, il gruppo di ricerca ha verificato e valutato la diffusione delle particelle presenti nell’aria o micro-campo dell’area di incisione chirurgica, utilizzando le particelle come indicatori della distribuzione/diffusione dei microrganismi di cui costituiscono i carrier o trasportatori, nel caso vi fosse una variazione delle temperature esterne > di 2°C rispetto al massimo del range di funzionamento dell’impianto di climatizzazione di sala, per come era stato previsto dai progettisti (andando quindi in sovraccarico funzionale/ prestazionale o di esercizio). Tali studi hanno dimostrato che spesso sussiste la persistenza non prevista di particelle/microrganismi nell’area di incisione chirurgica in quantità superiori rispetto all’atteso, in funzione della tecnologia di flusso unidirezionale adottata per l’impianto di aria. Ciò è poi peggiorato in caso di apertura incongrua od inidonea delle porte di accesso alla sala con passaggio o sovraffollamento indebito del personale, in quanto l’impianto di climatizzazione potrebbe risultare inefficace a compensare, poiché in sovraccarico, le variazioi di pressione differenziale che ciò ingenera. Di fatto, potrebbe nel futuro risultare difficile mantenere una pressione differenziale (a garanzia della pulizia dell’aria e della sua qualità), tra un ambiente critico e gli ambienti esterni a questo, all’interno di una struttura sanitaria, proprio perché le stesse variazioni climatiche estreme che si potrebbero verificare, potrebbero impedire che gli impianti siano efficaci nel conseguire le prestazioni previste in sede di progetto od installazione, con gravi ed imprevedibili effetti sulla salute non solo dei degenti, quanto degli stessi operatori sanitari nell’ottica della tutela della salute e della sicurezza in ospedale. 102 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 21 Novembre Inquinamento dell’aria outdoor/indoor e salute: considerazioni per il risk management "I Progetti come opportunità di dialogo tra Stato e stakeholders locali: esperienze dai Progetti SEARCH I e II" Elisabetta Colaiacomo Ministero dell’Ambiente Volevo dare un approccio un po’ diverso, fare anche un merging delle informazioni che ci hanno dato i relatori precedenti quindi non farò una presentazione tecnica perché di tecnici di livello internazionale riconosciuto ce ne sono stati molti stamattina. Volevo presentare l’esperienza diretta delle Istituzioni, in questo caso del Ministero dell’Ambiente per il quale ho l’onore di lavorare, come un’opportunità di dialogo tra Stato e stakeholders locali. Quali sono le problematiche, come nasce un progetto e quali sono le lezioni che possiamo imparare dall’attuazione di questi progetti? In primo luogo vediamo qual è la problematica. E’ stata già presentata, questa è soltanto una slide riassuntiva. La salute dei bambini è una priorità internazionale. Il problema indoor negli ultimi anni è diventata una priorità o comunque è stato rivolto ad esso una grande attenzione a livello internazionale. Ci sono tante evidenze scientifiche prevalentemente nel contesto dell’OMS che dimostrano come sia concreto il problema dell’inquinamento indoor, come siano reali le interazioni tra gli stili di vita, le condizioni ambientali e l’insorgenza di malattie respiratorie, di allergie ed asma, ma anche come sia aumentato, e quindi come sia collegato, direttamente questo incremento di patologie allergiche e di asma all’urbanizzazione e dal conseguente aumento delle ore che trascorriamo nell’ambiente indoor. Nello specifico, facendo attenzione alla salute dei bambini, non possiamo trascurare l’ambiente scolastico in quanto i bambini vivono nella scuola dalle 5 alle 8 ore al giorno, anzi sono costretti per legge a frequentare la scuola e quindi noi abbiamo l’obbligo di garantirgli un ambiente salubre perché loro appunto sono i futuri adulti e rischiano di essere i futuri malati se già non lo sono. Ho presentato qui delle iniziative, è una lista esemplificativa, quindi non esaustiva. Il Progetto SINPHONIE, il Progetto HESE di cui abbiamo già sentito parlare, promossi dalla Direzione Generale per la Salute e i Consumatori della Commissione Europea. Io ho direttamente lavorato all’attuazione del Progetto SEARCH, la prima e la seconda fase, con altri colleghi del Ministero dell’Ambiente. SEARCH sta per School Environment and Respiratory Health of Children, quindi la salute respiratoria dei bambini negli ambienti scolastici, promosso dal Ministero dell’Ambiente e dal Regional Environmental Center di Budapest, centro per la cooperazione internazionale in materia ambientale nei Paesi dell’Europa Centrale e dell’Europa dell’Est. Il contesto, è già stato menzionato, è il Processo Ambiente & Salute nato nell’89 nel contesto dell’OMS Europa. La IV Conferenza ministeriale Ambiente e Salute di Budapest del 2004 aveva come slogan principale “la salute dei bambini e il loro diritto a vivere e crescere in un ambiente sano”. I 53 Ministri hanno sottoscritto il Piano d’Azione Europeo per la salute ambientale dei bambini che pone degli obiettivi prioritari, tra i quali uno specifico sulla prevenzione e la riduzione delle patologie respiratorie dei bambini derivanti dall’inquinamento dell’aria outdoor e indoor. Per rispondere a questo obiettivo prioritario, il Ministero dell’Ambiente si è fatto promotore di una misura concreta per contribuire a raggiungere quest’obiettivo con il Progetto SEARCH. La prima fase si è conclusa nel 2010, e i cui i risultati sono stati presentati a Parma nel corso della 5° Conferenza Ambiente e Salute e proprio da Parma è stato dato mandato affinché venisse svolta una seconda fase del progetto che brevemente descriverò dopo e che stiamo quasi finendo, e i cui risultati sono previsti per metà del prossimo anno. Questa è una slide che un po’ riassume il problema dell’inquinamento indoor. E’ una questione piuttosto complicata sia come problema in sé ma anche come soluzioni. Ci sono varie componenti, la componente del microclima (quindi prevalentemente la temperatura e l’umidità nell’ambiente indoor), le politiche energetiche e le politiche di sostenibilità. Un’altra componente fondamentale sono i materiali e gli arredi, quindi le fonti dirette di emissioni di inquinanti nell’ambiente indoor. E qui abbiamo tutto il contesto delle normative, della certificazione e della etichettatura di materiali. I detergenti, un’altra componente. Il problema dei detergenti è fondamentale, quali tipi di detergenti vengono utilizzati, ma anche come vengono utilizzati. Questa ovviamente non prevede nella normativa specifica, però il tipo di detergenti rientra nel contesto della sicurezza chimica da prodotti da consumo. E infine il mondo ampio, infinito, delle fonti outdoor e quindi il problema dell’inquinamento atmosferico, la legislazione per combattere l’inquinamento atmosferico e quindi migliorare la qualità dell’aria. Il tutto va ovviamente contestualizzato in un sistema di controllo e di monitoraggio continuo della qualità dell’aria outdoor e indoor. Questo è un riassunto di quali sono le problematiche e quali sono i settori o gli aspetti coinvolti nel problema. Una breve descrizione del progetto SEARCH. E’ un progetto promosso dal Ministero dell’Ambiente insieme al Regional Environmental Center (il REC) e ha coinvolto 6 Paesi, oltre l’Italia, quindi l’Ungheria, l’Albania, la Bosnia-Erzegovina, la Serbia e la Slovacchia. Sono state prese in considerazione una sessantina di scuole, più di 5.000 ragazzi. Gli obiettivi sono la promozione del miglioramento della qualità dell’aria nell’ambiente confinato scolastico, la riduzione del rischio di problemi respiratori sia acuti che cronici e la riduzione della frequenza di crisi allergiche in soggetti sensibili. Arezzo 20 - 23 novembre 2012 103 21 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute Il Progetto SEARCH è stato attuato attraverso l’approfondimento delle conoscenze quindi la raccolta di dati, ma anche l’elaborazione dei dati, la diffusione delle informazioni, la sensibilizzazione dei soggetti interessati e anche la promozione delle buone pratiche. Un flash su come ci siamo organizzati a livello nazionale per attuare il SEARCH. E’ stato individuato un gruppo di lavoro abbastanza esteso cha ha coinvolto 6 regioni italiane come campione rappresentativo e scelte in base ad una omogeneità nella loro distribuzione territoriale. Inizialmente c’erano anche altre regioni coinvolte, ad esempio la Campania, che abbiamo dovuto abbandonare perché in quel periodo, era il 2007-2008, avevano l’emergenza dei rifiuti per cui l’ARPA era ovviamente impegnata in quel settore. Il gruppo di lavoro nazionale, oltre il Ministero dell’Ambiente, era composto dall’ISPRA (Istituto Superiore per la Protezione e la Ricerca Ambientale), la Fondazione Maugeri che ha fornito degli esperti per il monitoraggio sanitario, Federasma onlus, la federazione italiana per i malati cronici di malattie respiratorie allergiche che abbiamo preso in corsa ed è stato un partner fondamentale perché sono loro che hanno il contatto diretto con le realtà locali e le ARPA delle regioni coinvolte, quindi la Lombardia, che ha coordinato il monitoraggio ambientale, il Lazio, il Piemonte, l’Emilia-Romagna, la Sardegna e la Sicilia. Il gruppo è stato veramente molto attivo e molto motivato, un bel gruppo, una bella esperienza di vita e di lavoro proprio perché composto da tutte persone altamente qualificate che hanno avuto anche il compito di motivare i soggetti che poi hanno collaborato al progetto. Infatti spesso non è solo un problema di interessare l’Istituzione alla problematica in questione, ma è anche avere la collaborazione di coloro che ne sono in qualche modo coinvolti e che poi che subiscono il problema e possono gestirlo o fronteggiarlo. Gli inquinanti considerati sono gli inquinanti più comuni per quanto riguarda il problema dell’aria indoor e outdoor. Abbiamo a livello nazionale coinvolto 13 scuole per più di 1.000 studenti. Come abbiamo attuato il SEARCH? Il metodo applicato non è un metodo italiano ma paneuropeo, è un progetto internazionale quindi abbiamo dovuto seguire le linee generali del progetto proprio per poter poi confrontare i dati con i risultati degli altri Paesi. Abbiamo quindi svolto indagini ambientali ed indagini sanitarie contemporaneamente, laddove possibile. A livello ambientale sono state effettuate misurazioni dirette sui principali inquinanti, per verificare la concentrazione degli inquinanti sia nell’ambiente indoor nella classe presa a campione sia della situazione outdoor. Sono stati poi forniti dei questionari per avere delle informazioni specifiche sul tipo di edificio che abbiamo preso a campione, quindi l’ubicazione della scuola. E’ fondamentale capire se la scuola è sita in un ambiente di alto traffico o è in una zona rurale, ma è importante anche sapere che tipo di arredi sono presenti nella classe, l’anno di rinnovamento di questi arredi, ecc. Molto importante è anche il questionario sull’aula, sulle caratteristiche e le abitudini per capire il sistema di pulizia adottato, quindi non soltanto che tipo di prodotti, ma come questi vengono utilizzati, quando vengono utilizzati. Anche conoscere le abitudini è rilevante perché l’uso del gessetto o dei pennarelli usati per scrivere alla lavagna potrebbero creare dei problemi a soggetti sensibili. Le indagini sanitarie hanno previsto le spirometrie sui bambini. Ovviamente per fare questo si è seguito il protocollo necessario per avere il consenso dei genitori a lavorare sui bambini, un consenso informato. Pertanto i nostri esperti sono andati in loco prima per informare, sensibilizzare genitori e professori, dirigenti scolastici e poi distribuire un questionario. Il questionario riguardava anche informazioni sulla casa in quanto anch’essa è l’ambiente di vita che influisce sulla salute dei bambini, oltre alla scuola. Le informazioni interessanti derivano anche da quanto riportato dai genitori. È risultato, per esempio, che quasi il 30%, quindi 1/3 dei bambini, soffre di raffreddore. Anche la tosse e le allergie sono molto frequenti. Per dare un informazione più concreta, brevemente faccio vedere un informazione significativa emersa dal progetto ovvero una comparazione dei dati di concentrazione di determinati inquinanti indoor e outdoor: il caso della formaldeide. Presento caso della Sardegna non per dimostrare quanto sia meno virtuosa delle altre, ma in questo caso la presenza di un’alta concentrazione di formaldeide nell’ambiente indoor in quella scuola era giustificata dal fatto che in quella scuola erano stati messi degli arredi nuovi da poche settimane e infatti a livello outdoor la concentrazione della formaldeide è molto più bassa, quindi c’è una correlazione indiretta. Per il PM invece la correlazione è piuttosto diretta, ovvero c’è poca differenza proprio perché la principale fonte di particolato all’interno delle scuole è di origine outdoor. In questo caso la scuola “meno virtuosa” è stata il Piemonte perché in quel caso specifico la scuola in considerazione era proprio in un ambiente di alto traffico. Quello che abbiamo fatto noi come Stato, è stato prevalentemente promuovere incontri tra soggetti interessati, tra tecnici, tra pubblico comune e diffondere le informazioni per sensibilizzare e costruire soluzioni. Abbiamo fatto una pubblicazione, abbiamo nel nostro stand delle copie per consultazione ma la potete scaricare dal sito dell’ISPRA. Qui noi abbiamo pensato proprio di fare una pubblicazione chiara, diretta, non tecnica, comprensibile per i più e che desse informazioni sulla problematica, sulla situazione generale in Italia. La cosa interessante è anche fornire una lista di suggerimenti su come poter affrontare al meglio la problematica. Le cosiddette soluzioni “low cost” che ovviamente non sono “buttare giù una scuola e costruirla con determinati materiali in una zona diversa”, ma applicate delle buone pratiche. Per esempio, fare le pulizie quando i bambini non sono in classe, fare le pulizie 104 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 21 Novembre con determinati detergenti che non contengono formaldeide e con le finestre aperte o quant’altro. Un’altra cosa importante è la gestione corretta del verde scolastico perché a volte ci sono degli allergeni proprio dai giardini per le attività ricreative dei ragazzi. A Parma nel 2010 è stata lanciata la seconda fase del Progetto. Questa slide riassume un po’ gli aspetti principali, intanto un’estensione geografica e questo è molto interessante perché avere nel progetto Kazakistan, Tagikistan, Ucraina e Bielorussia, ma anche la Serbia o l’Albania, è molto significativo quando andiamo poi a fare gli incontri per verificare i risultati. Recentemente siamo stati in Ungheria ed abbiamo avuto modo di confrontarci con alcuni esperti di altri Paesi. In Italia sappiamo che uno dei problemi principali per la scuola è il numero di bambini presenti in classe, quindi lo spazio per bambino. In realtà per alcuni Paesi avere un’alta densità di bambini e anche un alto tasso di anidride carbonica fondamentalmente è un vantaggio perché si riscaldano, perché in alcuni casi non hanno proprio il riscaldamento, per cui quello che per noi è un disagio per loro magari è un vantaggio. Questo secondo noi è proprio un risultato concreto e interessante del progetto. Sono stati estesi anche gli obiettivi del progetto, quindi capire l’uso e il consumo energetico negli edifici scolastici e capire, con un questionario del comfort elaborato specificatamente per questo progetto, il feeling dei bambini, quindi il loro benessere, il loro stato di comfort, come percepiscono lo stare in classe. A livello internazionale ma anche a livello nazionale, il fatto di avere un interesse dello Stato, delle Istituzioni verso la problematica è sicuramente una vittoria, ma non è l’unica vittoria che noi dobbiamo ottenere perché comunque è importante identificare e creare la giusta rete sia per coloro che fanno, gestiscono il problema o quant’altro. Nel nostro esempio specifico abbiamo avuto problemi, non tanto per avere l’interesse dello Stato e coinvolgere determinati soggetti, ma a volte nel ricevere la collaborazione di soggetti locali, in questo caso il Comune. Da progetto avevamo bisogno di dati - che possono avere solo il Comune o le Province, dipende da chi gestisce la scuola - delle bollette energetiche. Abbiamo dovuto fare un lavoro immenso di sensibilizzazione, di motivazione, di informazione. Infatti spesso anche quando tutto stava andando liscio, abbiamo trovato lo stop del funzionario dell’ufficio tecnico che non voleva fare il lavoro extra o comunque non ne capiva il perché. E’ anche vero che spesso per avere la collaborazione ci chiedono dei feedback informativi (fondamentali per aiutare a capire qual è il problema), ma a volte anche feedback economici. Dovremmo forse pensare di coinvolgere anche gli psicologi per aiutarci a svolgere le indagini? Soltanto quindi costruendo una rete adeguata, multisettoriale, anche dinamica, avendo un po’ di fortuna e sforzandoci anche per andare oltre alla semplice raccolta di informazioni, possiamo ottenere dei risultati concreti. Arezzo 20 - 23 novembre 2012 105 21 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute Inquinamento dell’aria outdoor/indoor e salute: considerazioni per il risk management "Il ruolo delle ONG nella prevenzione delle malattie respiratorie e allergiche" Sandra Frateiacci Presidente Federasma Trascrizione non revisionata dal relatore La mia presentazione non entrerà in dettagli scientifici perché non è questo il nostro ruolo, il ruolo delle associazioni di pazienti è proprio quello di sollecitare l’attenzione delle istituzioni a quelli che sono i nostri problemi, a quali sono i rischi che noi come genitori e come pazienti riscontriamo giorno per giorno in ogni ambito di vita. La relazione potrebbe già essere finita qui di fatto, ma ci tengo a far vedere come quest’attività di sollecitazione da parte nostra alle istituzioni su quelli che sono i nostri problemi hanno dato poi vita ad una serie di partecipazioni a progetti, a progetti o attività di divulgazione delle informazioni che per noi sono molto importanti. Scorrerò molto velocemente alcune diapositive della presentazione perché credo sia importante far capire l’impulso che poi le associazioni di pazienti, perciò chi direttamente interessato per motivi di salute o sociali al problema, riescono poi a stimolare come iniziative. E’ importante una brevissima presentazione di chi siamo. Noi rappresentiamo 21 associazioni di pazienti in Italia che si occupano di malattie allergiche, asma, dermatite atopica. Siamo presenti sul territorio italiano in 12 regioni ed abbiamo, oltre alle nostre associazioni già costituite, contatti con gruppi di pazienti che si stanno costituendo in nuove associazioni proprio per ampliare la possibilità di intervento sul territorio per la tutela dei pazienti ai quali ci rivolgiamo che sono molti. Sono infatti 3 milioni le persone che soffrono di asma,10 milioni le persone che soffrono di allergia, e soprattutto ci occupiamo in particolare della fascia d’età da 0 a 14 anni, perciò la popolazione pediatrica che peraltro è quella più colpita da questo tipo di malattie. Su oltre 10 milioni di bambini e adolescenti in Italia, il 10% soffre di sintomi asmatici, il 20% ha sofferto o soffre di rinite allergica - dati che sono comunque sottostimati - l’8% dei bambini sotto i tre anni soffre di malattie allergiche alimentari, il 5% di dermatite atopica. Segnalo che alcune di queste patologie sono anche particolarmente gravi perché alcune di esse portano alla morte. Il ruolo di Federasma è quello sicuramente di tutelare i diritti dei pazienti affetti da queste patologie, è quello di garantire a tutti i pazienti una parità di accesso sia alle prestazioni che alle terapie su tutto il territorio nazionale e quello di richiamare l’attenzione delle istituzioni nazionali e locali su quelle che sono le necessità e i bisogni dei pazienti evidenziando anche quali sono i punti di criticità sui quali bisogna intervenire. Ovviamente una parte importante di questo lavoro di sollecitazione e richiamo all’attenzione verso le istituzioni è proprio quello di promuovere anche campagne di informazione che siano indirizzate non solo ai decisori politici, ma anche alla popolazione generale, ai media. Quello che ognuno di noi può fare anche personalmente per gestire queste patologie e per abbattere i fattori di rischio è molto importante. La persona che ha istituito la Federazione è la persona che ha lavorato moltissimo per ottenere che l’asma fosse inserita all’interno delle malattie croniche invalidanti. Nel ‘94, quando siamo nati, ci siamo dati degli obiettivi ben precisi, quelli evidenziati in questa slide, e che riteniamo di essere riusciti ad ottenere come risultati molto importanti per la tutela dei pazienti affetti da questa malattia. Da anni ormai dico che bisognava fare attenzione a quello che sarebbe accaduto ad esempio con l’emanazione dei nuovi LEA, ebbene vi annuncio per chi non lo sapesse che nei nuovi LEA è stata di fatto dimenticata e tolta la malattia asma perché sono rimaste solamente al primo livello lieve della gravità che va in un’invalidità dal 10 al 20%. L’obiettivo principale ad oggi, dopo aver visto le nuove tabelle dei LEA, ovviamente ritorna ad essere quello di far capire qual è l’importanza di questa malattia e chiedere immediatamente una rettifica, come abbiamo già fatto, di queste tabelle. La slide che vi presento adesso, che è un’altra delle cose che avevamo come obiettivo, ovviamente voi capite bene che chiedere di ottenere tutti questi risultati ai quali da anni stiamo lavorando in questo attuale contesto politico e sociale inizia a diventare veramente un’impresa titanica. Non so quanto riusciremo, ma ce la metteremo tutta come abbiamo fatto insomma fino adesso. In che modo noi interveniamo e cerchiamo di sollecitare le istituzioni e la società civile a capire quali sono i nostri problemi. Ovviamente partecipando in maniera attiva a gruppi di lavoro istituzionali che sono i nostri primi interlocutori collaborando insieme ad altre organizzazioni sia nazionali che internazionali e cercando di sottoscrivere dei protocolli di intesa con coloro che riteniamo possano esserci di aiuto in questo lavoro. Abbiamo praticamente protocolli di intesa con tutte le società scientifiche di settore ed anche con altri organismi proprio perché l’importanza di quello che noi andiamo a chiedere deve essere supportato da evidenze scientifiche che facciano capire alle istituzioni e ai decisori politici e organizzativi, amministrativi quali sono i nostri problemi e l’importanza di dare delle risposte. Aderiamo alla GARD Italia in cui rappresentiamo tutte le associazioni di pazienti con malattie respiratorie, aderiamo all’E.F.A. che è la federazione dell’associazione pazienti a livello europeo per cui attraverso loro facciamo delle 106 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 21 Novembre azioni a livello europeo e al C.R.C. (Gruppo di lavoro per la Convenzione dei Diritti dell’Infanzia e dell’Adolescenza) dove in particolare abbiamo sottolineato l’importanza nel documento che vedete, che è il secondo rapporto inviato alle Nazioni Unite redatto dalle Organizzazioni Non Governative, al problema della somministrazione dei farmaci a scuola e dell’assistenza sanitaria, all’interno del quale è stata ovviamente inserita tutta la tematica che riguarda l’abbattimento dell’inquinamento indoor e la definizione delle norme per l’abbassamento dei rischi. Per i soggetti con queste patologie infatti, avere un ambiente sano e comunque privo di fattori di rischio significa avere già metà della terapia a disposizione. Questo documento è arrivato al Comitato ONU e siamo molto contenti che il Comitato ONU abbia fatto all’Italia un’osservazione riguardo la tutela delle persone con asma ed allergie e, in particolare, dei bambini chiedendo all’Italia di fare particolare attenzione a questa fascia di popolazione. All’interno del Parlamento Europeo, attraverso l’E.F.A., lavoriamo per sollecitare le istituzioni europee su questi temi. E’ stato fatto questo documento che è stato presentato al Parlamento Europeo, il nostro obiettivo come Federasma, perciò come attività in Italia, è quello di portarlo all’interno del nostro Parlamento e organizzare un evento simile a quello che è stato organizzato in Europa proprio per sollecitare i nostri politici locali a capire qual è il problema dell’indoor e delle malattie allergiche. Abbiamo partecipato, fin dal 1998, con il Ministero della Salute a queste due commissioni che hanno definito le linee guida che sono diventate accordo Stato-Regioni nel 2001, di cui vi ha parlato prima la dr.ssa De Martino, e abbiamo partecipato anche alle linee di indirizzo per l’inquinamento indoor nelle scuole, quello del 2008 che è diventato accordo Stato-Regioni nel 2011. L’altro risultato importantissimo è stato la costituzione nel 2009 del GARD Italia che aveva 5 linee di indirizzo. Federasma ha partecipato alle tre che vedete qui evidenziate, ma in particolare sull’attività della prevenzione dei rischi indoor nelle scuole un primo importante documento è stato redatto dalla nostra federazione insieme alla società scientifica che si occupa di allergologia pediatrica recependo le indicazioni delle linee di indirizzo. Documento che è stato pubblicato e riconosciuto dal GARD Italia. E’ un documento molto importante per noi perché riprende, in maniera molto più breve, quelle che sono le linee di indirizzo alle quali abbiamo lavorato e viene messo a disposizione delle scuole nel momento in cui a fronte di segnalazioni da parte dei soci, di famiglie che hanno bambini con allergia o direttamente dalle scuole che hanno il problema perché qualcuna ha sollecitato un intervento specie per la somministrazione dei farmaci a scuola, noi consegniamo alle scuole e andiamo a parlare con loro con i medici volontari delle nostre associazioni. Questa è tutta una serie di educazionali che vengono utilizzati nel corso dei nostri progetti che affrontano, da vari punti di vista, le varie tematiche non solo alle malattie respiratorie, all’asma, ma anche alle allergie alimentari, alle allergie agli imenotteri perché la federazione si occupa, nello specifico, di tutte le malattie allergiche per cui interviene in varie fasi su questi temi generali. Ovviamente l’altra parte importantissima è quella delle campagne e dei progetti per la scuola, uno di questi è proprio il SEARCH al quale abbiamo partecipato ed è stato un bel banco di prova per vedere cosa effettivamente poi si riuscisse a fare rispetto alla partecipazione delle scuole a queste iniziative. Sembra molto facile, ma fare delle attività con le scuole se non programmate per tempo, se non coordinate significa un aumento del lavoro per le scuole e per gli insegnanti. Non è sempre così facile trovare la disponibilità a che questi progetti vengano portati avanti. Il fatto stesso di aver dovuto mettere, lo dico perché è stata anche una cosa carina e particolarmente complessa da ottenere, è stato quello di far capire alle scuole che era importante mettere uno strumento dentro la scuola che poi faceva rumore, che doveva essere controllato, di chi era la disponibilità se si rompeva, chi pagava, se i bambini di facevano male l’assicurazione non era prevista.... Per cui questo progetto ha fatto proprio emergere quali sono quelle cose pratiche che poi riescono su un progetto europeo, che uno si aspetta insomma che tutto sia stato visto, che ti bloccano il lavoro semplicemente perché non c’è il bidello a cui sta bene di pulire intorno allo strumento. Non a caso in una scuola sono stati persi dei vetrini che erano rimasti fuori e non li avevano presi. Secondo noi, era proprio importante evidenziare in quest’attività quali sono anche le componenti che poi possono dare il successo o il fallimento a un’iniziativa che viene presa di importanza così grande per noi pazienti. Abbiamo inoltre fatto anche un convegno al quale abbiamo invitato le scuole, abbiamo invitato i presidi a partecipare per sollecitare proprio l’attenzione a questa problematica. Abbiamo lavorato anche sulla gestione del verde come strumento di prevenzione per la popolazione a rischio. Una cosa che a me fa molto piacere presentare è questo progetto che è stato portato avanti con il Comune di Roma, sollecitato appunto da noi come associazioni di pazienti e di familiari, per la gestione del verde scolastico in quanto molto spesso capita che la manutenzione, sia ordinaria che straordinaria, nelle scuole venga fatta in presenza anche dei bambini con allergia. E’ stato chiesto al Comune di Roma, e credo sia importante sottolineare il Comune di Roma, perché quando noi pensiamo ai progetti dobbiamo anche pensare a qual è il tipo di popolazione che viene inserita all’interno dei progetti e quant’è la grandezza della popolazione coinvolta. Quando noi parliamo di Roma ci dobbiamo ricordare che parliamo di una popolazione residente che è pari quasi, anzi forse supera, la popolazione della Regione Toscana. Riuscire a realizzare un progetto in un certo ambito è sicuramente molto Arezzo 20 - 23 novembre 2012 107 21 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute importante come numerosità dei dati che poi si riscontrano e delle possibili ricadute su quella popolazione. Con questo progetto una cosa importantissima che abbiamo ottenuto a Roma è stata quella che chi si occupava del verde scolastico era la stessa ditta che si occupava anche delle pulizie nelle scuole, il che ha significato mettere in atto una serie di indicatori che servivano per mantenere un certi tipo di pulizia nelle scuole che poi sono diventati indicatori per la gestione degli appalti di manutenzione. Quello che è stato scritto qui poi deve essere in qualche modo formalizzato e normalizzato ed ha una ricaduta reale perché, se è vero che è molto difficile per le scuole dare dei controlli, è anche vero che hanno in mano degli strumenti attraverso i quali, controllando che le attività vengano fatte secondo il capitolato, possono far pagare delle penali. Il che significa che siccome si mettono poi le mani in tasca alle aziende probabilmente loro certe norme, se sono definite, le devono rispettare, perciò questa cosa per noi è stata molto importante. Un’altra cosa importante, dicendo in che modo e qual è il ruolo delle associazioni di volontariato dei pazienti nello stimolare le azioni e le attività delle istituzioni, è quella che lavoriamo anche attraverso alcune proposte di legge, in particolare questa che noi abbiamo presentato nella Regione Lazio. Prima in una slide si era visto che un solo bambino aveva avuto la somministrazione dei farmaci a scuola da un infermiere. Siccome per noi questo è un’altro dei temi molto importanti perché uno dei fattori di rischio più importanti è un fattore di rischio che poi determina anche l’intervento immediato per la protezione di bambini che potrebbero avere dei danni gravi nel non intervenire anche con la somministrazione dei farmaci, abbiamo presentato una proposta di legge sulla base della quale sono stati istituiti poi dei presidi sanitari scolastici. Il primo anno, nel 2007-2008, con un unico presidio in una scuola ha avuto dei risultati eccellenti; l’anno dopo è stato fatto un progetto che prevedeva l’istituzione di 5 presidi sanitari in altri 5 istituti comprensivi. Oggi, nel 2011-2012, questi presidi sono diventati 7 con l’obiettivo di arrivare a 12 proprio perché non vogliamo fare le scuole differenziali che c’erano una volta, dove ci sono solo i bambini malati, ma siccome l’affluenza e la richiesta di iscrizione in queste scuole è altissima perché, è inutile che ce lo nascondiamo, la popolazione affetta da malattie croniche e rare nella fascia d’età pediatrica è molto alta, il 9,6% è proprio quella che ha una o due patologie croniche o rare nella fascia d’età 0-14 anni. Non dobbiamo continuare a nasconderci dietro un dito. Prima notavo il discorso degli ospedali e della riorganizzazione e ricostruzione degli ospedali, forse qualche risultato ci sarà visto che ne devono tagliare il 10% nella fase di ristrutturazione della rete ospedaliera che peraltro è prevista per la fine dell’anno. Non so come faranno, però è previsto questo. Magari ci sono anche delle possibilità di rivedere nell’insieme un po’ tutto. Io mi domando come sia possibile fare qualcosa entro fine anno quando in quarant’anni questo non è avvenuto. La situazione anche delle scuole è una situazione drammatica, lo stesso Ministero dell’Istruzione che ha redatto l’ultimo documento di monitoraggio che è arrivato a 10 anni di distanza dal primo, ancora il numero delle scuole con i certificati di agibilità sanitaria è solo il 42% per cui insomma credo che ci siano delle serie difficoltà se non si riesce tutti insieme a capire che bisogna veramente iniziare a fare qualcosa. Non possiamo più solo fare le leggi che poi non vengono rispettate ed enunciare principi. Bisogna iniziare a lavorare. Un’altra delle attività che abbiamo portato avanti sempre in tema di gestione del rischio è stato questo lavoro fatto con l’ARES 118 della Regione Lazio che aveva un doppio obiettivo. Un primo obiettivo era quello di creare, sulla base di linee guida internazionali e con la partecipazione di tutte le società scientifiche di settore, i protocolli operativi per la gestione dei pazienti con asma ed allergia sulla rete preospedaliera. Vi ricordo che, ad esempio, nelle autoambulanze il problema della somministrazione dell’adrenalina, che è un problema principale per le scuole rispetto alla somministrazione dei farmaci, altrettanto importante è anche sull’autoambulanza. Mentre la Regione Lazio è abbastanza fortunata ed ha infermieri sulle autoambulanze, nelle altre regioni d’Italia il servizio di primo soccorso è fornito solitamente da volontari che non è detto che sia personale sanitario, per cui non abilitato alla somministrazione dell’adrenalina. Bisogna aspettare l’auto medica. Nella Regione Lazio, grazie a questo progetto, siamo riusciti a far mettere insieme sia gli infermieri, il sindacato, i medici ed è stato fatto un protocollo che permette di avere sull’autoambulanza l’adrenalina pronta, che è un salvavita, se non viene fatta entro 5 minuti dall’inizio della reazione il paziente rischia seriamente la vita o di rimanere in condizioni non proprio ottimali per il resto della sua vita. In questo momento sulle autoambulanze della Regione Lazio l’adrenalina pronta è presente. L’altra cosa, in parallelo, era fare proprio un monitoraggio delle chiamate al 118 dalle scuole per ogni patologia che è stato un esperimento ed un risultato che neanche l’ARES si sarebbe aspettato di avere perché da questo monitoraggio è risultato, oltre a quanto è alto il numero delle chiamate che arrivano al 118 dalle scuole, anche che ben il 46% delle chiamate che arrivano dalle scuole sono codici bianchi, per cui chiamate inappropriate al 118 che potrebbe, se appunto ci fosse un intervento di tipo qualificato dentro scuola, non “distrarre” l’attenzione del 118 da altri tipi di intervento da fare sul territorio. Perché io ho voluto velocemente dire che cosa facciamo? Non per dire siamo bravi, ma per far capire qual è l’ampio raggio delle cose che noi dobbiamo riuscire a gestire nell’ambito della vita quotidiana, per cui non solo quelli che sono i rischi ambientali, ma anche tutti quelli che sono i rischi di tipo sanitario ai quali andiamo incontro. Prima si parlava del nuovo regolamento comunale, ricordo a tutti che proprio ieri è uscito che è stata approvata 108 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 21 Novembre la legge sui nuovi regolamenti condominiali dove è prevista la presenza di animali in tutti i luoghi dei condomini. Ognuno in casa propria può fare quello che vuole, io lo dico sempre e lo continuerò a sostenere sempre, ma bisogna fare attenzione a quelle che sono le aree comuni come la proposta di legge che è in corso e che con l’ANCI stiamo cercando di valutare in che modo arrivare a un compromesso, quella del libero accesso di tutti gli animali in tutti i luoghi pubblici. Ovviamente noi diciamo che dobbiamo poter accedere come cittadini perlomeno agli uffici comunali, agli uffici pubblici nei quali magari dobbiamo fare tre ore di fila e dove dovremmo essere perlomeno in parte tutelati di non avere delle reazioni in questi luoghi. La cosa importante sulla quale noi stiamo lavorando è quella di cercare di far recepire dalle singole regioni gli accordi Stato-Regioni che sono stati fatti. In particolare per quanto riguarda la somministrazione dei farmaci a scuola, il problema di acquisire e di inserire all’interno di questi protocolli, che comunque vengono fatti in maniera o a livello regionale o provinciale o addirittura di singola ASL, la prevenzione dei fattori di rischio indoor e la gestione e la prevenzione insomma sulle linee di indirizzo per la ristorazione scolastica, ovviamente anche all’impegno a fornire l’assistenza sanitaria necessaria dove serve. Per realizzare quest’obiettivo, vi ho messo semplicemente quante sono tutte le componenti che noi dobbiamo cercare, come associazione, per far mettere insieme per creare questa rete di sinergie che possa far ottenere questi risultati. Vi assicuro che lo sforzo è molto grande, però insomma qualche risultato siamo riusciti ad ottenerlo. Io vi ringrazio con quello che è il nostro sogno nel cassetto, cioè di lavorare tutti insieme, mettendo insieme le energie di tutti proprio perché i bambini di oggi saranno i futuri adulti ed è bene che non siano i malati di domani. Arezzo 20 - 23 novembre 2012 109 21 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute Inquinamento dell’aria outdoor/indoor e salute: considerazioni per il risk management "La valutazione della pericolosità degli inquinanti atmosferici: considerazioni e obiettivi di ricerca" Ivo AllegriniMinistero dell’Ambiente D’accordo con la coordinatrice di questa sessione, ho pensato di svolgere una relazione che, più che una presentazione di carattere scientifico, intende essere un pugno di pillole di saggezza. La coordinatrice, appunto, mi ha pregato di sviluppare il tema sulla pericolosità degli inquinanti atmosferici e, ovviamente, quello relativo agli obiettivi di ricerca che stanno dietro questo problema, problema molto grave e molto importante in tutti gli ambienti, sia indoor che outdoor. Comincio quindi ribadendo che l’inquinamento, nel nostro caso dell’atmosfera, pone sicuramente un pericolo reale la cui entità è definita attraverso il rischio, quindi parlare di pericolosità degli inquinanti è alquanto improprio perché dovremmo parlare di rischio associato che può presentarsi diversificato, ma interessa tutti, soprattutto interessa in misura maggiore i soggetti più deboli. Abbiamo ascoltato molte relazioni sui bambini che appunto sono soggetti deboli, così come deboli sono le persone che cominciano ad avere la nostra età e magari qualche anno di più. Se noi vogliamo ridurre efficientemente il rischio associato all’inquinamento atmosferico, dobbiamo anche caratterizzare, comprendere e valutare questo rischio in tutti i suoi aspetti. Trovando in questo non soltanto la via per poter tutelare la salute pubblica e quella dei soggetti deboli, ma anche una strada di opportunità di sviluppo, importante nel momento che attraversa il Paese in quanto da esso possono derivare opportunità economiche e occupazionali per tutto il paese. La definizione del rischio ha una sua logica. Nel caso dell’inquinamento atmosferico, parte dall’emissione degli inquinanti, arriva alla dispersione, alla concentrazione in aria, all’esposizione dei soggetti e quindi a una valutazione di rischio che è un rischio reale, e concreto. Se invece ci si sofferma solo alla casella dell’emissione (slide), non abbiamo più un rischio reale, ma abbiamo un rischio percepito. Esempio tipico: un inceneritore emette diossina, il rischio percepito è che effettivamente quell’inceneritore provoca il tumore. Su questo equivoco si sono giocate fortune politiche ed economiche, anche coinvolgenti realtà non proprio specchiate. Chiaramente è possibile, attraverso dei modelli, stimare quello che può essere il rischio reale, ma è esso non è altro che il combinato disposto di molti modelli che partono appunto da quelli di emissione per andare a quelli di dispersione, ai modelli di esposizione. Ogni volta che noi aggiungiamo un modello su questo percorso arriviamo sì ad una stima del rischio reale, ma arriviamo ad una stima con un ampio margine di incertezza tale che non ci consente appunto di gestire appropriatamente il rischio. E’ allora evidente che se noi siamo in una situazione in cui la gestione di questo rischio è attribuita al rischio percepito, siamo effettivamente in un problema molto grosso perché mentre il rischio reale è oggettivo, il rischio percepito invece è soggettivo quindi al rischio soggettivo ci si aggiungono anche credenze, ci si aggiungono opinioni politiche e così via che chiaramente non fanno altro che accrescere confusione della quale non abbiamo proprio bisogno. La problematicità di un rischio percepito è evidente, esso porta a decisioni incoerenti, costituisce il punto di partenza per divisioni e contrasti, dei quali, in questo momento economico, non se ne sente il bisogno. Ciò anche alla luce di quanto proposto proprio in questi giorni, quando si è avuta notizia che il Comune di Roma si appresta a portare la sua immondizia in Olanda. La logica dovrebbe essere che se gli inceneritori e le discariche fanno venire il tumore, è meglio che il tumore venga agli olandesi piuttosto che ai Romani. Ciò è solo la dimostrazione ovvia delle conseguenze illogiche e scellerate di scelte che sono dettate non dal rischio effettivo, ma da quello percepito. Il vero problema, importante quindi non solo da un punto di vista scientifico, non soltanto da un punto di vista sociale ma anche economico, è quello di dare una valutazione del rischio reale attraverso delle misure o delle stime molto precise, accurate ed al di sopra di ogni legittimo dubbio. Questo porta chiaramente a delle grosse opportunità, particolarmente nel campo della ricerca. Io ho speso quarant’anni di attività all’interno del Consiglio Nazionale delle Ricerche quindi mi permetto di conoscere la natura dei problemi. Sono partito all’inizio della mia carriera con un problema non risolto e dato che la mia carriera al CNR è cessata 4 anni or sono, sembra incredibile, mi sono ritrovato di fronte allo stesso problema che poi svilupperemo successivamente. E’ evidente che ci sono prospettive e opportunità di ricerca per quanto riguarda i modelli. In questa sede desidero semplicemente presentare una piccola equazione differenziale che mette in relazione la concentrazione di un inquinante con tutti i parametri che la controllano: la chimica di formazione e di rimozione, le emissioni, la situazione meteorologica, la deposizione e così via. Questa equazione, di per se molto complessa, richiede lo sviluppo di equazioni e modelli più raffinati, ma il modello (come tutti i modelli) dà dei risultati tanto più attendibili quanto più attendibili sono i dati di ingresso. Molto spesso vengono spesi una grande quantità di sforzi per la definizione fisica, matematica del modello senza tenere conto di quelli che sono appunto i dati di ingresso che il modello richiede. E’ chiaro che se questi dati di ingresso sono molto incerti, ancor più incerti, viste le leggi di 110 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 21 Novembre propagazione degli errori, saranno anche i risultati dell’applicazione del modello. Abbiamo quindi bisogno di inventari delle emissioni molto affidabili. Dopodiché dobbiamo dare una maggiore attenzione ai modelli a dispersione locale dove però abbiamo anche bisogno di un’elevata risoluzione spaziale e temporale perché l’entità del rischio è praticamente proporzionale alla nostra capacità di conoscere come gli inquinanti si distribuiscono nel tempo e nello spazio. Abbiamo anche bisogno di modelli di previsione a breve e medio termine proprio per la tutela dei soggetti a rischio. In pratica, chi dovrebbe dire dice ai bambini che la mattina dopo quando escono per andare a scuola troveranno un inquinamento atmosferico più elevato o meno elevato del solito? Ecco, queste sono tipologie di servizi che non si sono ancora messe bene a punto e che, in assenza di una valutazione di rischio reale, si manifestano con azioni basate su quello percepito. Per quanto riguarda il processo di dispersione, possiamo fare riferimento ad un modello europeo dal quale deriva un modello italiano, che ha messo a punto l’ENEA con la collaborazione di ISPRA, ossia il famoso modello MINNIE il quale sta cominciando a dare dei risultati importanti, ma che deve essere il punto di partenza per altre iniziative. E’ poi necessario andare a caratterizzare gli inquinanti definibili come “non convenzionali”, cioè quelli che sono essenzialmente quelli di origine secondaria perché non vengono emessi direttamente dalle fonti di emissione, ma si formano attraverso delle reazioni chimiche. Anche da precursori di origine naturale, compreso appunto il particolato ultrafine. A titolo di esempio, si mostra il rapporto all’interno (indoor), dell’Acido Nitroso (HNO2) e del Biossido di Azoto (NO2). Il 40% della presenza della famiglia del Biossido di Azoto nell’ ambiente interno può essere dovuta all’Acido Nitroso. In una relazione di questa mattina è stato affermato che gli ossidi di azoto non sono un fattore di rischio importante per l’inquinamento interno, però pensare che il 40% di questi ossidi di azoto possono essere presenti come l’unico nitrito che è in fase gassosa, è certamente constatazione che qualche motivo di apprensione può dare. Nella pratica, si è lottato nei decenni passati per limitare la presenza dello ione nitrito all’interno degli insaccati e adesso ce lo troviamo nell’atmosfera. Questa è una cosa che smuove la mia percezione del problema e che ssi basa su un rischio reale potenziale. Dunque, è necessario caratterizzare meglio gli inquinanti, in particolare per quelli per i quali l’attenzione non è stata sufficientemente elevata. Come esempio, si riportano gli esempi di un monitoraggio svolto in due stazioni della città di Milano. Quello a sinistra, Viale Marche, è caratterizzato da traffico intenso mentre quello di destra è relativo ad una stazione di fondo urbano. Si può vedere che gli inquinanti in grigio sono molto più elevati nella stazione di traffico, ma gli altri si distribuiscono in maniera più o meno uniforme. Tra l’altro quelli che sono alla destra, cioè nitrato d’ammonio, solfato d’ammonio, sono proprio quegli inquinanti secondari che sono presenti nell’aria di Milano. Risultato: un controllo del traffico in questa città serve praticamente a poco, se non a diminuire il rischio per coloro che abitano in prossimità di Viale Marche che dal punto di vista del traffico è una delle aree più interessate alla mobili veicolare. Chi è milanese forse queste cose già le conosce! Ma qui troviamo degli inquinanti per i quali sospettavamo la loro presenza, ma non eravamo poi così consci della loro importanza. In marrone si è evidenziata la risospensione del particolato e l’emissione dall’usura dei freni, delle frizioni, delle gomme. Ci si trova in questo caso di fronte a un problema abbastanza grave dove sappiamo con certezza che gli scarichi autoveicolari, in termini di particolato, ora generano meno inquinamento del particolato risollevato. Allora il problema non è tanto quello di mettere la marmitta catalica iper-efficiente alle auto a benzina, ma è quello semmai di non sporcare le strade. Scelta molto più oculata di quella di pulirle. Non sporcare le strade significa una manutenzione mirata proprio a questo scopo. In verde, invece, si osserva un aspetto abbastanza rilevante dell’ambiente italiano, ossia la presenza di inquinamento dovuto alla combustione di legna. E ciò al centro di Milano. Però, dato che la concentrazione osservata è più o meno simile a quella della stazione di fondo, direi che l›atmosfera milanese, così come quella romana, così come quella fiorentina e di molte altre città è in qualche modo influenzata da questa cappa di fumo di legna che porta con sé sostanze organiche volatili cancerogene, come il benzopirene, nanoparticelle e così via e che si diffonde su aree molto vaste, costituendo così una sorgente di inquinamento inaspettata anche se è quella più antica conosciuta dall’umanità. Per quanto riguarda invece i sistemi di monitoraggio, abbiamo bisogno di nuovi dispositivi di monitoraggio affinché si possa riuscire a dare una migliore risoluzione spaziale. Nuovi dispositivi che però dovrebbero essere disponibili a costi Molto limitati. In Italia abbiamo un numero straordinariamente elevato di centraline di rilevamento dell’inquinamento atmosferico. Nel territorio nazionale è presente un numero di stazioni spropositate e sì che il decreto del 60 del 2002 e recentemente il Decreto 155 del 2010 abbiamo dato una forte spinta alla riduzione di queste centraline. Queste centraline non sono state utili per l’analisi del rischio e tantomeno sono utili adesso di cui se ne richiede una diminuzione sostanziale. Abbiamo quindi bisogno di questi dispositivi di valutazione dell’inquinamento e della sua distribuzione nel territorio. Per l’analisi del rischio dovremmo avere dei dispositivi di monitoraggio “personale”. Qualcuno di questi è già stato sviluppato, e nella figura si possono osservare sensori che sono appunto adatti ad essere impiegati a Arezzo 20 - 23 novembre 2012 111 21 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute livello personale. Purtroppo la chimica e la fisica di questi dispositivi ne consente l’uso soltanto per pochissime sostanze per cui essi richiedono ulteriori sviluppi di tipo tecnologico. Comunque, laddove è possibile, ora questi nuovi dispositivi sono montati su piccoli mezzi mobili e possono quindi fornire utili informazioni aggiuntive a quelle provenienti dalla centraline. Redentemente si è comunque sentita la necessità de sviluppare sensori “areali”, cioè che siano in grado, ad alta definizione spaziale, di caratterizzare interi territori (i dirigili, gli aerei e i droni, i satelliti). Qualcuno di questi dispositivi è già presente, come mostra la foto di un dirigibile che ha operato qualche anno fa nell’area di Bologna. Ciò che a me personalmente appare sconcertante è che quando ho iniziato la mia attività all’interno del Consiglio Nazionale delle Ricerche, nel 1971, noi avevamo effettivamente a disposizione un dirigibile come questo, che poi abbiamo perso perché mezzi del genere sono costosi in termini di pilota, attracco, stazionamento e così via. Le risorse sono state però tutte utilizzate nella realizzazione di centinaia di inutili stazioni di rilevamento e quindi il nostro dirigibile, che era quello della Goodyear, se n’è andato a far pubblicità sui vari circuiti di Formula Uno. La conseguenza è che noi abbiamo perso un’occasione importantissima per sviluppare dei sistemi che non solo potevano essere utili per l’inquinamento atmosferico, ma potevano essere utili per il controllo del territorio. Se fossero stati disponibili sistemi del genere da poter utilizzare a Caserta, a Napoli, ecc. ecc., avremmo evitato non soltanto parecchi problemi ambientali, ma avremmo evitato anche problemi causati dalla criminalità organizzata. Non a caso adesso, per esempio, l’Arma dei Carabinieri, la Guardia Costiera, la Guardia di Finanza stanno puntando su questi dispositivi, però come al solito in Italia, con decenni di ritardo. Esempio questo comune come la programmazione, specialmente ambientale, in Italia abbia avuto momenti di grande inspienza. In conclusione, dietro all’analisi del rischio posto dagli inquinanti atmosferici abbiamo una grande opportunità di sviluppo tecnologico e di sviluppo culturale. Da questo punto di vista possiamo dire che questo problema è parzialmente risolto perché la comunità scientifica italiana, sia in ambito universitario che in ambito degli enti pubblici di ricerca e così via, è fra le più attive e capaci, anche e nonostante i tagli che si sono recentemente abbattui sui nostri budget. Si producono un gran numero di pubblicazioni estremamente importanti, però si rimane nella coda dell’efficienza, cioè si fanno cose interessantissime da un punto di vista tecnico e scientifico,che poi nessuno valorizza. Non possiamo quindi saltare quello steccato che porta dall’innovazione scientifica, all’innovazione tecnologica e quindi al mercato che è proprio quello che oggi viene richiesto a una comunità come la nostra che è tesa verso il futuro, ma che non ha gli strumenti per poter arrivare a questi obbiettivi. Esiste forse una sola possibilità: se qualcuno ha messo a punto nuove tecnologie, esse dovrebbero essere utilizzate all’interno di programmi di ricerca e programmi di sviluppo già in fase attiva, evitando i soliti problemi dei sensori che debbono rispondere a particolari normative che solo in Germania si è in grado di certificare e sui quali i Tribunali Amministrativi Regionali sono sempre allertati dalla concorrenza, attenti alla visione amministrativa del problema, chiarissima dimostrazione della mancanza di una gestione organizzata e coerente, ossia politica, di queste problematiche. Allo stato attuale dobbiamo quindi solo aspettare che questi sviluppi, frutto del nostro ingegno, vengano fatti da altri Paesi, che stanno diventando più bravi di noi, che riescono a entrare nel mercato dell’alta tecnologia e che per questo motivo ci soppianteranno quanto prima anche nel nostro mercato scientifico e, inevitabilmente, anche nella nostra cultura.. 112 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 21 Novembre La valutazione di impatto sanitario (VIS) come strumento decisionale per uno sviluppo sostenibile Monica Bettoni Trascrizione non revisionata dal relatore Direttore Generale Istituto Superiore di Sanità L’oggetto di oggi è la valutazione dell’impatto sanitario come strumento decisionale per uno sviluppo ecosostenibile. In realtà negli ultimi tempi, e anche nella realtà locale di Arezzo questo è successo, si va facendo strada, non so quanto diffusamente, sicuramente in un certo numero di cittadini e di persone, l’importanza che per decidere ad esempio i nuovi insediamenti di tipo termovalorizzatore o altri tipi di insediamenti siano questi industriali, anche se in questo periodo purtroppo di insediamenti nuovi industriali non si ponga il caso, per prendere la decisione di dare il via a grandi impianti ad uso pubblico sia quanto mai necessario una valutazione di impatto sanitario. Ovviamente, questa VIS è tirata un po’ per la giacchetta dappertutto; da una parte da chi pensa di frenare alcuni tipi di insediamenti e dall’altra da chi pensa invece che questo possa essere invece un via libera per questi stessi. Una volta essendo tutti d’accordo che comunque la valutazione d’impatto sia importante, oggi vorremmo chiarirci che cos’è, come parte e anche il suo utilizzo al riguardo e avere anche una voce univoca, perché credo che un’altra problematica sia proprio questa di univocamente dire cosa compone, quali sono i requisiti e come deve essere la valutazione d’impatto sanitario. Detto questo, da chi è solo, in questo caso, una cultrice della problematica e non un’esperta, direi di dare la parola a Fabrizio Bianchi del Centro di Epidemiologia dell’Istituto di Fisiologia Clinica del CNR di Pisa. L’oggetto della comunicazione di Fabrizio Bianchi è l’introduzione della Valutazione di Impatto Sanitario. Arezzo 20 - 23 novembre 2012 113 21 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute La valutazione di impatto sanitario (VIS) come strumento decisionale per uno sviluppo sostenibile "Esperienze nazionali" Ennio CadumARPA Piemonte L’impostazione di questa relazione sulle esperienze nazionali poteva essere, dal punto di vista epidemiologico, una carrellata di esperienze nazionali di studi epidemiologici, che, in realtà avrebbe portato a fare una serie di esempi che non avrebbero colto quello che forse è il problema principale della VIS. Si è parlato di presupposti scientifici e metodologici dell’attività, di un’attività che in realtà è calata dal punto di vista formale e sostanziale all’interno di processi amministrativi decisionali importanti che portano ad assumere una serie i decisioni da parte di organi di controllo, quindi tutti le cose riferite in precedenza nell’intervento di Fabrizio Bianchi e sulle quali è importante riflettere, dato che trovano una collocazione pratica in un processo reale. Questo processo reale, soprattutto oggi, dal punto di vista delle esperienze di valutazione di impatto, va a calarsi all’interno di procedure di autorizzazione di piani di modifica del territorio, valutazioni ambientali strategiche o di progetti di valutazione del cambiamento del territorio quali insediamenti industriali, inceneritori, discariche, centri commerciali e così via. Ci sono tantissimi lavori che sono inquadrabili in questo ambito di valutazione di impatto sulla salute, tema che in realtà non è chiarissimo, nel senso che non ha una definizione precisa. Oggi ritengo che esista una famiglia di esperienze che sono inquadrabili nell’ambito della valutazione di impatto sulla salute, ognuna con delle caratteristiche leggermente diverse l’una dall’altra: • alcuni svolgono l’intero percorso di quello che può essere un approccio di VIS (VIS completa) • alcuni ne fanno solo una parte (VIS parziale) Ma l’aspetto fondamentale della VIS in iTalia, oggi, è che pur essendo un’attività che dovrebbe essere calata in un’attività amministrativa e quindi di controllo e normativa, non c’è nessuna normativa su di essa. Esaminando le esperienze condotte finora mi sono reso conto che la normativa è la cosa più importante sulla quale oggi, più che a livello epidemiologico, sarebbe interessante concentrare l’attenzione. Quindi la presentazione ha come oggetto una carrellata sulla situazione delle attività svolte, molto sintetica, e della produzione normativa nel nostro Paese. Vi sono due realtà, Puglia e Lombardia, dove le attività di valutazione dell’impatto sulla salute sono oggi normate, o con legge regionale o con delibera di giunta regionale, c’è una regione, che è l’Abruzzo, in cui la valutazione di impatto sulla salute è un’attività normata con legge regionale che successivamente è stata abrogata, ci sono due realtà, che sono l’Emilia-Romagna ed il Piemonte, in cui la valutazione di impatto sulla salute è prevista nei piani regionali della prevenzione e quindi ha un suo corso, un suo iter in itinere. Infine ce ne sono altre in cui esistono varie esperienze di VIS ma non c’è nessun tipo di normativa, neanche un accenno nel piano regionale di prevenzione. 114 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 21 Novembre Partendo dal Piemonte, nel Piano Regionale della Prevenzione 2010-2012 sono presenti, tra gli strumenti e i metodi della prevenzione, la valutazione di impatto, la valutazione di impatto ambientale, strategica sulla salute e il risk assessment. Il PRP ha come obiettivi da perseguire nel triennio di validità del piano l’adozione di una linea guida per la VIS da mettere a disposizione degli enti locali e l’adozione di una linea guida per il risk assessment da applicare nell’attività dei servizi della prevenzione. La linea guida è stata fatta, a fine dell’anno scorso, e trasmessa agli assessorati, è una linea guida di un’ottantina di pagine, scaricabile dal sito dell’ARPA, molto sinteticamente ricapitola una serie di passaggi tipici della valutazione di impatto, cioè la decisione se è necessario farla, come farla, nel caso effettuare la valutazione degli impatti o assessment - che normalmente è la parte principale -. Molto spesso, parlando di valutazione di impatto sulla salute, si intende solo la stima degli impatti, cioè l’assessment, senza tutta la parte precedente e successiva e può assumere anche diversi aspetti come quello del risk assessment. La VIS prosegue poi con il reporting, le raccomandazioni e il monitoraggio. In questa parte di risk assessment le linee guida piemontesi contengono una proposta di valutazione, comprendente l’identificazione del pericolo, la valutazione dell’esposizione, la valutazione della tossicità, lo studio della relazione dose-risposta, la caratterizzazione del rischio con un approccio di tipo tossicologico oppure epidemiologico. Sono state definite quelle che potevano essere le fasi che vengono effettuate nell’ambito di procedure di collaborazioni integrate tra le Agenzie per l’Ambiente e l’Azienda Sanitaria Locale o l’Osservatorio Epidemiologico Regionale. Per la parte di assessment il riparto di competenza è differenziato: all’ARPA spetta l’identificazione dei fattori di rischio, la loro ricerca, riconoscimento, accertamenti tecnici, analitici, delle sostanze pericolose, l’Osservatorio Epidemiologico, o il dipartimento di prevenzione delle Aziende Sanitarie, valuta la tossicità di questa sostanza per l’uomo; le Agenzie per l’Ambiente valutano l’esposizione ambientale, determinano, ricercano, quantificano e stimano i livelli di contaminazione delle matrici, dell’aria, dell’acqua, suoli, infine, nell’ultimo step, o i dipartimenti prevenzione o i servizi epidemiologici regionali valutano il rischio sulla base delle indagini precedenti e valutano gli effetti probabilistici di ricaduta. La Lombardia ha deciso di normare la valutazione di impatto sulla salute nell’ambito delle procedure di valutazione di impatto ambientale, la Legge Regionale 5/2010 “Norme in materia di valutazione di impatto ambientale” e il regolamento dell’11/08/2011 ne determinano e disciplinano i metodi e anche gli strumenti. L’idea della Lombardia è che la VIS sia un’attività da svolgere in primis a cura del proponente, cioè di colui che presenta lo studio di impatto ambientale (SIA) e che quindi è tenuto a fare una valutazione di impatto sulla salute della sua proposta, del suo termovalorizzatore, del suo centro commerciale, che deve seguire una serie di norme. In Lombardia la parte di valutazione di impatto deve seguire una serie di passaggi che brevemente sono così costituiti: ogni proponente deve definire lo stato di salute della popolazione ante operam, la popolazione interessata, gli indicatori della salute da monitorare (sono quelli della mortalità dei ricoveri, gli aborti, i registri di patologia), deve definire Arezzo 20 - 23 novembre 2012 115 21 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute lo stato della popolazione post operam con l’identificazione degli effetti attesi a seguito della costruzione del nuovo impianto, definire l’impatto quantitativo nella fase di cantiere, di esercizio, di dismissione, valutare l’impatto definendo i criteri, gli effetti diretti e indiretti, i punti di attenzione e la criticità. In Emilia Romagna, come in Piemonte, la VIS è prevista all’interno del piano regionale della prevenzione, ha diverse esperienze nate da Progetto Moniter e poi dal Progetto Nazionale VISPA ed è in corso di regolamentazione con linee guida regionali, elaborate nell’ambito del Progetto VISPA; che dovrebbero essere operative dal primo gennaio dell’anno prossimo e che verranno attuate dai dipartimenti di prevenzione delle Asl. In Toscana, la valutazione di impatto sanitario non è prevista nel piano regionale della prevenzione, non c’è nessun accenno alla VIS che pure prevede azioni specifiche sul tema ambiente-salute, la Toscana conta però molte esperienze pregresse e ha fatto da battistrada su questa attività l’con studi sui termovalorizzatori, per esempio nell’area fiorentina, antesignana di molti tipi di approccio sulla VIS e con una grossa riflessione metodologica che in Fabrizio Bianchi ha avuto, a livello nazionale, sicuramente il trascinatore, la persona più feconda. La Toscana ha partecipato al Progetto VISPA sia con il CNR di Pisa sia con la Asl di Arezzo, e mentre è all’avanguardia dal punto di vista dell’elaborazione metodologica in realtà non è dotata di nessun tipo di normativa attuativa di queste attività. L’Abruzzo presenta una situazione molto particolare. La Legge 10 marzo 2008 diceva che la regione Abruzzo, nell’ambito della programmazione territoriale, socio-economica ed ambientale rivolta al perseguimento di uno sviluppo sostenibile, garantiva che le decisioni amministrative relative ai progetti ed agli interventi di cui alle direttive 85/337 CEE, 97/11 CE, 96/61 CE e 42/2001 CE relative alla Valutazione di Impatto Ambientale ed alla Valutazione Ambientale Strategica (VAS) andavano prese nel rispetto delle esigenze di salvaguardia e tutela della salute umana, della conservazione delle risorse, nonché del miglioramento della qualità umana della vita e che lo strumento di realizzazione degli obiettivi di cui al comma 1, lett. a), b) e c) è uno studio di VIS finalizzato a comprendere i potenziali rischi o benefici di qualsiasi progetto, piano o programma che rivesta interesse per la comunità abruzzese. Questo strumento, di seguito definito valutazione di impatto sanitario, VIS, “supera il concetto di mera valutazione ambientale approdando a un approccio valutativo integrato tra ambiente e salute”. Va effettuato entro 90 giorni dall’approvazione della legge. l’Agenzia Sanitaria Regionale, di concerto con l’Agenzia Regionale della Tutela Ambientale, aveva il compito di predisporre linee guida per la valutazione del rischio sanitario determinato fonti di inquinamento. Cosa è successo? È successo che la norma è stata approvata a marzo 2008, è stata modificata con una legge regionale nell’ottobre 2008, è stata ritenuta illegittima dalla Corte Costituzionale nel 2010, per la violazione di una serie di articoli in essa contenuti, è stata sostituita quindi dalla legge Regionale del 2009 che è stata a sua volta impugnata dal Consiglio dei Ministri nel 2010 perché in contrasto con due articoli della Costituzione e sostituita con l’ultima legge del novembre 2010 n. 48 in cui tutta la parte sulla VIS non c’è più. Le linee guida, che peraltro erano state redatte secondo la legge entro i 90 giorni previsti, sono state presentate dal Consorzio Mario Negri Sud e dall’Agenzia per i Servizi Sanitari dell’Abruzzo e sono estremamente interessanti sulla parte di elaborazione metodologica; In figura sono riportate le linee guida dell’Abruzzo, predisposte dal Consorzio Mario Negri Sud e dall’Agenzia per i Servizi Sanitari e hanno, pur nella loro sinteticità, una chiarezza estremamente interessante di esposizione. 116 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 21 Novembre La Puglia è oggi è l’unica regione dotata di una legge regionale che disciplina le valutazioni d’impatto sulla salute. La Legge Regionale del 2012 , la 21, recita: “Norme a tutela della salute, dell’ambiente e del territorio sulle emissioni industriali inquinanti per le aree pugliesi già dichiarate a elevato rischio ambientale” e si applica non a tutte le attività, come era nella norma dell’Abruzzo che è stata dichiarata incostituzionale, ma solo ai siti di interesse nazionale dove viene fatta un’attività che è sostanzialmente un’attività di risk assessment, cioè della parte di valutazione del rischio, chiamata valutazione del danno, utilizzando una serie di approcci che vengono regolamentati con un atto separato. Le metodiche vengono regolamentate con un atto regionale e la metodologia ancora oggi, dal punto di vista specifico, proprio nei dettagli tecnici, deve essere ancora e esplicitata ed è in fase di elaborazione. Il regolamento è uscito il 3 ottobre 2012, per le linee guida per l’attuazione della Legge Regionale ci sono 90 giorni di tempo con scadenza il 3 gennaio del 2013. Il flow chart dell’attività prevista in questo campo è estratto dal bollettino ufficiale della Regione Puglia, mostra un approccio in cui si passa dall’individuazione degli inquinanti, allo stato di salute della popolazione, il loro confronto, che determina o meno l’esistenza di criticità e dal confronto tra quello che è l’impatto previsionale a quelli che sono i dati esistenti si può capire se esistono le criticità e se sussiste o meno un danno sanitario. L’iter è concettualmente molto semplice, in realtà le cose sono molto più complesse. Per finire, il Veneto ha partecipato al Progetto VISPA, e anche se non ha delle linee guida specifiche ha però un vecchio documento che era stato curato da Gianfranco Blengio di Verona in cui una parte rilevante riguardava una serie di indicazioni di ripartizione dei compiti tra ARPA e Asl sulla parte delle procedure di VIA in cui occorreva trattare la tematica della salute della popolazione. Arezzo 20 - 23 novembre 2012 117 21 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute Nel Friuli sono state condotte varie esperienze soprattutto da Fabio Barbone ma dal punto di vista degli studi effettuati e gli impatti valutati, non esistono delle norme regionali, ma va rimarcato un notevole interesse all’argomento, testimoniato da un seminario regionale di formazione a tutti gli operatori organizzato nel 2012. Le Marche hanno partecipato al Progetto VISPA, come la Sicilia, con alcune esperienze; nel Lazio, che non ha nessuna norma regionale, ci sono invece esperienze non tanto di VIS quanto di HIA (Health Impact Assessment) a livello epidemiologico, con valutazioni di grandi temi, quali ad esempio la gestione del ciclo dei rifiuti a livello regionale, nell’ambito di progetti europei, ma in cui l’attività è fatta a livello di dipartimento epidemiologico regionale ma non tanto a livello di servizi di prevenzione. 118 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 21 Novembre La valutazione di impatto sanitario (VIS) come strumento decisionale per uno sviluppo sostenibile "Progetto VISPA" Marinella Natali Regione Emilia Romagna Grazie di aver invitato noi “Vispisti” per raccontarvi la nostra esperienza. Io sono molto grata ai colleghi che mi hanno preceduto, perché ‘ tre interventi vanno in un ordine logico molto preciso. Noi siamo partiti da una cornice alta, non astratta, perché la VIS non è un tema astratto, è un tema molto concreto, ma Fabrizio Bianchi l’ha affrontata da un punto di vista molto alto. Ennio Cadum ci ha portato in giro per l’Italia per farci un po’ vedere che cosa stava maturando di esperienza nelle diverse realtà regionali, io, che sono un operatore di sanità pubblica e lavoro al servizio sanità pubblica della Regione Emilia Romagna, all’Assessorato Politiche per la Salute, vi porto più su un piano pratico attuativo, raccontandovi come si è svolto questo Progetto VISPA, come si è concluso, perché è un Progetto che aveva come obiettivo lo svolgimento in un anno e mezzo, è riuscito a stare nei tempi, ha prodotto risultati in un anno e mezzo, come i adesso si potranno applicare i prodotti di questo Progetto. Allora, siamo partiti un po’ da un’esigenza che serpeggiava tra gli operatori della prevenzione e che era quella è del continuo e costante confronto che hanno gli operatori con la complessità e con l’incertezza nel loro quotidiano lavoro di valutazione. Ci siamo chiesti se questa tecnologia, se la VIS era utilizzabile nella pratica quotidiana del lavoro dei valutatori e quindi se era possibile costruire uno strumento di lavoro a supporto dell’espressione dei pareri di sanità pubblica in conferenza dei servizi. Come vi diceva Fabrizio Bianchi, questo acronimo, VISPA, sta per Valutazione Impatto sulla Salute per la pubblica amministrazione. Partiamo dal Progetto Moniter che viene prima del Progetto VISPA. Il Progetto Moniter è un progetto che è stato promosso dalla Regione Emilia Romagna, in particolare gli assessorati regionali ambiente e sanità, per approfondire le conoscenze sull’impatto degli inceneritori sull’ambiente e sulla salute, per migliorare le capacità di comunicazione in tema ambientale, la gestione dei conflitti ambientali, ma anche in una prospettiva, ieri qualcuno qui diceva che epidemiologia e prevenzione devono andare di pari passo, quindi io studio e conosco per imparare a prevenire,quindi anche prospetticamente vedere se nel corso di questo progetto si potevano sviluppare esperienze di valutazione d’impatto sulla salute, un’apposita linea progettuale del Progetto Moniter era proprio dedicata a questo, il prodotto di questa linea progettuale è stato un accurato e aggiornatissimo database di letteratura sulla VIS, abbiamo un po’ guardato in giro per il mondo che cosa era successo e quali erano i diversi approcci che c’erano stati in questi ultimi anni di applicazione del modello, e poi abbiamo fatto un’applicazione di VIS rapida retrospettiva sull’impianto caso studio del Progetto Moniter che è l’inceneritore di Bologna, abbiamo costruito un protocollo di VIS per gli inceneritori, siamo andati avanti e abbiamo costruito un protocollo di VIS per la valutazione dell’ambiente costruito e poi abbiamo costruito un ulteriore protocollo di VIS applicabile a diversi contesti ma in modo particolare a piani e a progetti. Poi, abbiamo pensato, in quel momento stava uscendo un bando CCM, di presentare al CCM per il finanziamento un progetto che aveva come obiettivo generale quello di sperimentare, valutare e revisionare un protocollo di VIS a supporto dell’espressione dei pareri di sanità pubbliche in conferenza dei servizi, sostanzialmente costruire uno strumento di lavoro. Noi ci siamo chiesti se potevamo utilizzare quello che era uscito da Moniter che era stato elaborato in una situazione protetta, sperimentale, in cui tutti i dati erano a disposizione, nella prassi quotidiana di lavoro dei nostri operatori e abbiamo deciso di provare a farlo e di testarlo però non sono in Emilia Romagna ma di testarlo nel territorio di sei diverse regioni, abbiamo coinvolto 34 sperimentatori che provenivano da queste sei regioni e che erano, per nostra richiesta, operatori di sanità pubblica esperti, dopo la formazione c’è stata la fase di test e in seguito la fase di validazione. La fase di formazione l’abbiamo svolta a Cesenatico e l’obiettivo in modo particolare è stato quello di definire, tra i diversi sperimentatori, un linguaggio comune nell’utilizzo di questi strumenti. A valle della formazione abbiamo chiesto agli sperimentatori di segnalarci dei casi, questi casi che sono stati selezionati per avere il massimo di varietà nei casi sottoposti alla sperimentazione, sui casi poi sono state fatte delle applicazioni con gli strumenti VISPA, all’inizio avevano pensato di farle solo prospettiche, cioè solo di impianti che non erano ancora stati autorizzati ma poi in realtà, siccome siamo proprio capitati in mezzo alla crisi, non arrivavano sufficienti oggetti in conferenza dei servizi, abbiamo dovuto accettare anche di fare delle applicazioni retrospettive, cioè applicazioni su casi già valutati, sui quali era già stato espresso il parere ed è stato anche interessante vedere come cambiava il parere, utilizzando i due strumenti; poi gli sperimentatori hanno restituito i casi con le osservazione sugli strumenti. In tutto sono stati analizzati 28 casi di cui 10 prospettici e 18 retrospettivi, la casistica è questa: allevamenti, impianti di produzione di energia, nuovi insediamenti produttivi di tipo industriale, impianti gestione rifiuti e urbanistica. Alla fine del percorso noi abbiamo avuto gli strumenti che sono delle tabelle, delle check list revisionate e sperimentate su diversi oggetti e anche una riflessione, credo molto utile e anche molto matura, sul ruolo degli operatori e sul significato dei metodi VIS nelle valutazioni. Gli strumenti, come dicevo, sono le tabelle, delle check list, che consentono di raccogliere sinteticamente le informazioni, considerare in maniera ampia i determinanti di salute e fare una gerarchizzazione dei determinanti Arezzo 20 - 23 novembre 2012 119 21 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute in modo da poter concentrare l’attenzione dei valutatori su quelli che sono prioritariamente impattati. Un passaggio molto importante è anche l’integrazione delle conoscenze con altri punti di vista. Il percorso, dopo aver applicato questi strumenti, si conclude con l’emissione di un parere, classicamente, che è il classico strumento che esce dalla valutazione degli operatori di sanità pubblica, con prescrizioni, raccomandazioni, mitigazioni e monitoraggi, in più, questo parere viene affiancato, anche per la stesura del report viene previsto uno strumento apposito tra gli strumenti VISPA, un report che dà conto delle motivazioni per cui si è arrivati a questo parere, di che cosa si è tenuto conto e che è, secondo noi, uno strumento da un lato di democrazia e di trasparenza perché si è fatta una valutazione e informo sulle basi di cosa ho valutato e quali sono i criteri che guidano la mia valutazione, questo è utile anche per eventuali, successive attività di comunicazione; gli sperimentatori hanno restituito delle osservazioni che il progetto ha recepito. Gli strumenti elaborati da VISPA non sono adatti per la valutazione di oggetti complessi, una pianificazione territoriale non si può valutare con gli strumenti VISPA mentre gli strumenti VISPA sono molto adatti, adeguati a parere degli sperimentatori, a oggetti puntuali: stabilimenti,insediamenti produttivi e anche infrastrutture per il trasporto. Uno dei problemi era quello dei tempi ma è stato risolto perché tutta la procedura VISPA sta all’interno dei tempi della conferenza dei servizi, un altro problema sollevato è quello che è una procedura non formalizzata, però d’altra parte questo è un miglioramento interno al sistema sanitario su come si esprimono i pareri, quindi non è necessario che sia formalizzatata, è uno strumento di cui i dipartimenti di prevenzione dispongono e che possono utilizzare. In alcune realtà, in Emilia Romagna questo di solito non accade, la sanità pubblica non è chiamata in conferenza dei servizi e quindi alcuni degli sperimentatori hanno evidenziato questo aspetto. L’altra osservazione che è giunta, che all’inizio è stato un problema poi è diventata un’opportunità, sono le relazioni tra gli enti che sono presenti in conferenza dei servizi e l’altra osservazione, da cui eravamo partiti e che abbiamo un po’ bypassato creando uno strumento per gli operatori dei dipartimenti, è che, in un processo di VIS ampiamente inteso come quello che ci ha descritto Fabrizio Bianchi all’inizio, l’avvio di un procedimento che prevede la consultazione del pubblico, degli stakeholders, dovrebbe stare in seno ai decisori, dovrebbero essere i nostri amministratori che pensano di innestare un processo di questo genere, dopo di che è chiaro che ci sono tutte le forme di partecipazione del caso. Lo strumento VISPA, secondo noi, è utile per supportare il decisore che era uno degli obiettivi che aveva indicato Fabrizio Bianchi prima, innanzitutto perché una delle accuse che ci vengono sempre rivolte è quella di allungare inutilmente i tempi, in questo caso non è così perché sta all’interno dei processi valutativi esistenti nei tempi della conferenza dei servizi, iniziando, assieme al processo decisionale, nel caso di VIS prospettica, è in grado di consentire opzioni migliorative e mitigazioni già in fase precoce, coinvolge gli informatori, c’è un passaggio del procedimento che prevede l’identificazione dei determinanti di salute impattati che vede il coinvolgimento degli attori che siedono in conferenza dei servizi, la ARPA, i tecnici comunali e provinciali e, se ci sono, anche i comitati. Il fatto di ricondurre tutto all’impatto sui determinanti di salute consente di risolvere almeno in parte la complessità e ci riduce a un contesto un po’ meno complesso. Per quello che riguarda in particolare lo sviluppo della VIS nella regione Emilia Romagna è tutto giusto quello che ha detto il dottor Cadum, vorrei aggiungere che abbiamo recentissimamente rivisto la nostra Legge Regionale sulla VIA per adeguarla alle modifiche nazionali, all’art. 1 viene richiamato, questo è un emendamento che è stato inserito in questa revisione, che la VIA ha la finalità di proteggere la vita umana e di contribuire con un migliore ambiente alla qualità della vita e, mutuandola dalla normativa nazionale e europea, ricorda appunto che vanno descritti gli impatti su diverse situazioni tra cui anche la salute umana. Assieme al percorso di emanazione della nuova Legge Regionale sulla VIA, l’Assemblea Legislativa Regionale, che è il nostro Consiglio Regionale, ha approvato una risoluzione, ha impegnato la Giunta a proseguire le sperimentazioni in corso di valutazione anche mediante la VIS, aggiornare le linee guida attuative della Legge Regionale sulla VIA, quindi anche noi come ha fatto la Regione Lombardia inseriremo la valutazione di impatto all’interno della legge, differentemente però dalla Regione Lombardia noi non chiederemo ai proponenti di fare la valutazione di impatto sanitario, chiederemo ai proponenti di inserire nel SIA anche uno studio di impatto sulla salute, la valutazione dello studio di impatto sulla salute sarà poi un onere dei valutatori esattamente come i valutatori valutano il SIA. Un’altra richiesta del nostro Consiglio Regionale è quella di sollecitare le istituzioni comunitarie e nazionali ad adottare delle direttive, delle linee guida per disciplinare queste procedure. Abbiamo la VIS nel nostro piano regionale della prevenzione, come obiettivo avevamo la formazione dei nostri operatori all’utilizzo dello strumento VIS entro quest’anno per poi cominciare a utilizzarlo dal 2013, entro la fine dell’anno formeremo 100 dei nostri operatori, abbiamo formato degli operatori veneti e la Regione Friuli Venezia Giulia ci ha chiesto di andare a fare un’iniziativa formativa per gli operatori del Friuli, quindi in questo momento, oltre ai gloriosi sperimentatori VISPA che pioneristicamente si sono prestati a questo lavoro, abbiamo circa 150 operatori in Italia che maneggiano lo strumento VISPA. Grazie, volevo dirvi che tutto il materiale prodotto è disponibile e scaricabile dal sito http://www.saluter.it/ssr/aree/sanita-pubblica/il-progetto-vispa 120 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 21 Novembre La valutazione di impatto sanitario (VIS) come strumento decisionale per uno sviluppo sostenibile "Studi epidemiologici e valutazioni di impatto sanitario" Annibale BiggeriUniversità Firenze Ho deciso di affrontare l’argomento da un punto di vista metodologico generale, senza esporre un caso specifico. Al termine farò comunque riferimento all’utilizzo delle valutazioni di impatto sanitario nei processi decisionali. L’intervento è stato preparato insieme a Francesco Forestiere, Dipartimento di Epidemiologia, Servizio Sanitario Regionale Lazio, che non è potuto intervenire per una serie di impegni imprevisti. Gli studi epidemiologici alla base dei dati utilizzati per le stime di impatto sono particolarmente difficili quando hanno come oggetto la salute delle popolazioni residenti in prossimità di insediamenti industriali o siti contaminati. E’ infatti necessario affrontare importanti problemi metodologici, tra i quali ricordiamo le fonti multiple di esposizione, la presenza di molteplici sostanze inquinanti, non sempre completamente caratterizzate o le diverse vie di contaminazione (aria, acqua, suolo, catena alimentare); bisogna inoltre considerare che l’epoca in cui si è verificata la contaminazione è a volte ignota e comunque variabile. Mentre negli studi occupazionali è possibile costruire delle matrici mansione-esposizione, negli studi ambientali non sono state sviluppate metodologie simili e spesso è necessario ricorrere a valutazioni di tipo qualitativo. Negli studi ambientali la popolazione in studio è fissa ed è definita dall’aver subito una determinata esposizione; non possiamo ricorrere a studi campionari o multicentrici su molte popolazioni, che in altre aree dell’epidemiologia permettono una generalizzazione dei risultati, proprio perché l’interesse è valutare lo stato di salute in quella popolazione specifica. Un’eccezione riguarda lo studio dell’inquinamento atmosferico in aree urbane, dove la raccolta di dati provenienti da più città permette di costruire delle metanalisi pianificate. Esistono inoltre differenziali sociali di esposizione: un esempio tipico è legato al costo delle abitazioni, tanto minore quanto più la costruzione è vicina è al sito potenzialmente inquinante. In questo caso si ha una selezione dei soggetti con reddito più basso nelle zone abitative più vicine alle sorgenti di esposizione. Si realizza quindi un problema di equità che rientra nel grande capitolo dell’environmental justice. Un altro fattore da considerare è l’esposizione professionale dei lavoratori che, per convenienza, hanno scelto di vivere con le loro famiglie vicino agli impianti industriali. Infine dobbiamo tener presente le conoscenze e la percezione delle comunità residenti e dei media rispetto al problema “inquinamento”, che da una parte possono determinare un’eccessiva preoccupazione,o una distorsione delle priorità, ma dall’altra possono fornire informazioni importanti sull’esposizione agli inquinanti. Questo aspetto apre una questione molto delicata, cioè il contributo che i cittadini (local knowledge) possono dare alla valutazione delle modalità di esposizione, cosa che spesso apre prospettive non chiaramente evidenti ai ricercatori, ma rilevanti per lo studio. Schematicamente si possono distinguere studi sugli effetti a lungo termine dell’inquinamento in cui gli esiti sono le malattie cronico-degenerative e studi sugli effetti a breve termine. In questo secondo caso gli inquinanti agiscono come fattori scatenanti una serie di eventi catastrofici in cui l’esito può essere anche il decesso. Sono colpite sia le persone “più fragili”, per l’età (bambini, anziani), o per la pre-esistenza di patologie croniche, ma anche soggetti sani che attraversano un transitorio periodo di vulnerabilità, come nel caso dei trigger dell’infarto miocardico. Lo studio SENTIERI coordinato dall’Istituto Superiore di Sanità è un tipico studio ecologico sugli effetti lungo termine, in cui i dati sono valutati come frequenze aggregate e definite su unità amministrative. Per il SIN di Taranto, ad esempio, i risultati sono presentati confrontando i dati dell’intera Regione Puglia con quelli del comune di Taranto:è un confronto standardizzato in cui si valutano i rischi di mortalità per gli abitati nell’area di interesse rispetto ad una popolazione di riferimento. La scelta del riferimento in questo caso è mutuata dall’epidemiologia occupazionale, in cui si confronta la popolazione generale residente nella regione rispetto alla coorte dei soggetti studiati; in altri studi di epidemiologia ambientale, il confronto viene effettuato con un’area pulita, che non include necessariamente la zona in esame. Altro disegno utilizzato è lo studio trasversale di epidemiologia molecolare, come gli studi di biomonitoraggio. La diapositiva illustra una ricerca dell’Istituto Superiore di Sanità, sempre nell’area di Taranto, in cui la popolazione in studio era un campione, che io giudicherei opportunistico, di allevatori, selezionati accuratamente in modo da non portare importanti distorsioni da confondimento in termini di abitudini personali o esposizioni professionali, per lo studio delle diossine. È un esempio di controllo del confondimento per restrizione. L’obbiettivo era mettere in evidenza una eventuale relazione tra le sostanze rilevate nei liquidi biologici e la distanza dalla fonte di emissione degli inquinanti. Il disegno più interessante è lo studio di coorte, in cui si seguono i singoli soggetti nella loro storia di vita individuale. Negli studi ambientali, la coorte è identificata in base alla residenza nelle aree oggetto di potenziale Arezzo 20 - 23 novembre 2012 121 21 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute inquinamento ed il confronto tra i soggetti esposti e non esposti può essere interno alla coorte, di tipo geografico, o microgeografco. Nel caso di Taranto ad esempio, sono stati considerati i quartieri, ma sarebbe meglio definire esposti e non esposti in base a modelli di dispersione della concentrazione degli inquinanti nell’ambiente di vita. In questi casi, la maggiore difficoltà risiede nell’elaborazione di modelli matematici o statistici di dispersione dell’inquinante e nella scelta delle variabili da inserire nel modello. E’ necessario utilizzare molte assunzioni; come ho ricordato all’inizio vi sono importanti problemi nella definizione temporale della contaminazione: per esempio nel tempo di calendario l’impronta di concentrazione degli inquinanti è mutata o è rimasta stabile? Nell’area di Taranto è stato utilizzato un modello sviluppato dall’ISPESL, sia nello studio sugli effetti a breve che a lungo termine. Sulla base di questo modello, i quartieri più esposti sono risultati quelli di Tamburi e Borgo. Per gli effetti a breve termine è stato utilizzato un disegno di serie temporali, in cui il confronto viene effettuato valutando gli eventi sanitari nei giorni ad alto e basso inquinamento e verificando l’esistenza di una correlazione tra variazioni di inquinanti e ricoveri o mortalità nei giorni immediatamente successivi all’incremento della loro concentrazione. Sempre seguendo l’esempio di Taranto, nel periodo considerato (2004-2010) la rete di monitoraggio era decisamente di buona qualità. Nella diapositiva sono riportate le serie temporali degli inquinanti e le stime di effetto espresse come variazioni percentuali di mortalità, in questo caso per malattie cardiovascolari, respiratorie e per tutte le cause, per incrementi di 10 microgrammi/metrocubo di inquinante. I dati mostrano una variazione dello 0.8% per Taranto, con una sostanziale modificazione di effetto per i quartieri Borgo e Tamburi, dove la variazione è impressionante. Sembra che l’effetto osservato per Taranto sia in realtà supportato dalla sola popolazione che vive in questi due quartieri. Per le patologie cardiovascolari, per esempio, non c’è nessuna evidenza di rischio per gli abitanti di Taranto, mentre è chiara l’associazione per i quartieri di Borgo e Tamburi. Queste stime di effetto servono di base per calcolare le stime di impatto, che consistono nella traduzione della variazione percentuale in una frequenza, tecnicamente attributable community rate, cioè il numero di eventi per 100.000 persone/anno. Fare il conto è molto facile, ad esempio a Borgo e Tamburi abitano circa 60.000 persone; semplificando a 50.000, se ho 20 casi per 100.000 abitanti per anno, i casi nei due quartieri saranno 10 per anno. Grosso modo a Tamburi si ha circa 1 decesso al mese attribuibile agli effetti a breve termine degli inquinanti. Il controfattuale usato in questi calcoli è quello delle linee guida dell’OMS. Esso è vicino ai valori osservati dai monitor di San Vito e Carcere, che negli ultimi anni davano valori intorno ai 20 microgrammi/metrocubo come media annuale. Quindi l’uso del controfattuale OMS non è particolarmente strano rispetto ad una realtà come quella di Taranto, che è una città marina con un clima ben diverso ad esempio da quello della piana fiorentina o della pianura padana. E’ possibile effettuare varie critiche alle stime di impatto, perché ovviamente l’impatto globale sulla salute è dovuto a molti altri fattori, per esempio quelli che aumentano la fragilità individuale quelli legati allo stato socioeconomiche, agli stili di vita, le esposizioni professionali, anche escluse quelle industriali. In sintesi, la attributable community rate si riduce e si può dire, in modo molto conservativo, riprendendo l’esempio tarantino, che gli abitanti dei due quartieri borgo e Tamburi sopportano un decesso in più ogni tre mesi. Infine sui limiti di legge invece che sui contro fattuali OMS. Un calcolo fatto sui dati rilevati dalle centraline dell’ARPA Puglia, mostra una media di circa due decessi attribuibili all’anno (un decesso in più ogni sei mesi), attribuibili ai superamenti del limite di 50 microgrammi/metrocubo giornaliero e relativi ai soli giorni in eccesso rispetto ai 35 giorni permessi. L’ultima osservazione che volevo fare riguarda l’incertezza: tutte le stime, sia di impatto che di effetto necessitano di informazioni sul livello di base della malattia e sulla concentrazione di inquinante ed hanno una loro incertezza oggettiva. L’incertezza può anche essere legata ai diversi modelli teorici che vengono utilizzati: per esempio ho già accennato ai limiti dei modelli matematici di dispersione e le assunzioni che dobbiamo ipotizzare. Come dobbiamo trattare l’incertezza? Deve essere chiaro infatti che fornire delle stime di impatto sanitario ad un decisore non lo esime dal considerare l’incertezza ad esse connessa. Le decisioni in materia ambientale devono spesso essere prese rapidamente ed in molti casi la ricerca scientifica non ha ancora fornito risultati incontrovertibili. Esiste anche un’incertezza legata ai diversi punti di vista scientifici, ma vi sono anche conflitti di interesse tra gli operatori coinvolti: in tutti queste circostanze è impossibile pensare che esista una soluzione tecnica. In alcuni contesti l’incertezza è giocata come un’arma, esiste una vera e propria strategia dell’incertezza: in tribunale la difesa può usare l’incertezza sulle stime a suo favore, mentre in altri casi la carta dell’incertezza è giocata in senso contrario, per esempio quando si reclama il principio di precauzione e a volte prendiamo come incerta un’informazione sull’assenza di rischio. 122 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 21 Novembre Come possiamo evitare questi problemi? Dobbiamo rendere partecipati i nostri ragionamenti: laddove entrano in gioco dei valori e noi tentiamo di veicolare un’informazione rigida e tecnicamente inequivocabile, ci esponiamo alla manipolazione della nostra informazione. L’unico modo per evitare ciò è un’operazione di confronto e trasparenza. La comunicazione con la popolazione non è nient’altro che l’implementazione di sistemi di partecipazione per rendere trasparenti i diversi livelli di incertezza presenti. Credo sia importante riflettere su questo aspetto perché in alcune situazioni il sapere tecnico scientifico non è sufficiente a guidare delle decisioni razionali.. Altre volte invece le conclusioni sono più chiare. Personalmente, la situazione sanitaria di Taranto mi ha particolarmente colpito per la sua chiarezza rispetto ad altri casi in cui le stime di effetto derivate da metanalisi erano maggiormente affette da variabilità campionaria, dalla piccola dimensione della popolazione e da considerazioni di tipo tecnico. Grazie. Arezzo 20 - 23 novembre 2012 123 21 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute La valutazione di impatto sanitario (VIS) come strumento decisionale per uno sviluppo sostenibile "Integrazione di studi sperimentali ed epidemiologici utili per le valutazioni di impatto sanitario" Carmela Marino ENEA Vorrei contribuire alla tematica del VIS e dello sviluppo sostenibile approcciando il problema da un’angolazione leggermente diversa rispetto agli interventi precedenti. Quando abbiamo pensato a come strutturare il presente intervento, abbiamo scelto di partire dalle attività scientifiche condotte nei nostri laboratori piuttosto che dai dati ambientali e sanitari relativi a specifici casi in studio. Nel corso del presente workshop abbiamo finora discusso dell’impatto sulle popolazioni da parte di specifici insediamenti o siti industriali, senza per il momento prendere in considerazione, se non nell’introduzione iniziale, l’impatto sanitario associato a tecnologie più recenti come, ad esempio, i telefoni cellulari (citati precedentemente) o le nano-particelle. Infatti, come sappiamo, le tecnologie nascono, si evolvono e ad un certo punto vengono abbandonate perché sostituite da altre tecnologie più avanzate, in grado di soddisfare meglio le crescenti esigenze della società. Questo processo può essere anche molto rapido ed è quindi necessario tenerne conto proprio perché, molto spesso, il dato tanto faticosamente acquisito attraverso gli studi effettuati fino a quel momento non è più utilizzabile per valutare il rischio e il conseguente impatto sanitario associato alle tecnologie emergenti. Cosa possono quindi offrire la ricerca di base e le attività di laboratorio per venire incontro all’esigenza di fare valutazioni di impatto sanitario che stiano il più possibile al passo con l’evolversi delle tecnologie? Il processo che parte dalle emissioni di un’inquinante da parte di una sorgente fino ad arrivare al manifestarsi di un effetto sanitario indesiderato, è composto da una lunga catena di eventi che include, dopo l’emissione, la distribuzione e l’accumulo degli inquinanti nelle diverse matrici ambientali, l’esposizione (cioè il contatto fra l’inquinante e la materia vivente) e il suo assorbimento all’interno dell’organismo. Da questo punto della catena di eventi subentrano gli studi sperimentali di laboratorio che vanno a definire le modalità e l’entità dell’assorbimento (dose interna), le cinetiche di distribuzione degli inquinanti all’interno dell’organismo, le biotrasformazioni e l’escrezione, la dose critica che giungerà all’organo bersaglio (dose al bersaglio) e che produrrà l’effetto biologico e che, in alcuni casi, determinerà un evento patologico vero e proprio. Infatti, non necessariamente l’effetto biologico indotto si trasforma in effetto sanitario conclamato; il nostro organismo è in grado di sopportare insulti tossici apparentemente devastanti attraverso diversi meccanismi di riparazione del danno o con il ripopolamento cellulare. Una volta che si sono individuate, mediante gli studi di laboratorio, le dosi di inquinanti associate a determinati effetti e compresi i meccanismi biologici che li producono, è possibile selezionare, fra i parametri in gioco ai diversi livelli della catena di eventi, quelli più adatti per essere considerati indicatori biologici ed essere utilizzati per il monitoraggio di popolazioni esposte a livello professionale o ambientale. Tali indicatori hanno il vantaggio di fornire informazioni precoci sul danno indotto, consentendo quindi di limitare al massimo le successive conseguenze sanitarie sulle popolazioni, possono rappresentare un buon sistema di allarme per identificare situazioni di rischio associate ad esposizione ignote e permettono di individuare eventuali caratteristiche di suscettibilità (per esempio, polimorfismi genetici) che rendono determinati individui o popolazioni particolarmente sensibili. Le conoscenze acquisite attraverso gli studi sperimentali ed il monitoraggio biologico vengono poi trasferite all’epidemiologia, che si occupa di indagare su effetti ormai conclamati a livello di popolazione, quali la morbosità e la mortalità. Gli indicatori biologici non sono quindi altro che misure acquisite mediante attività sperimentali di laboratorio. Negli esperimenti di laboratorio vengono utilizzati sia modelli cellulari che animali al fine di identificare i danni indotti da agenti fisici, quali le radiazioni ionizzanti e non ionizzanti, e da agenti chimici di rilevanza ambientale ed occupazionale, di caratterizzare i meccanismi biologici che li determinano e, dal momento che alcuni composti sono in grado di indurre danni anche alle generazioni successive, di comprendere i meccanismi molecolari responsabili del danno genetico transgenerazionale. Per studiare gli effetti indotti dall’esposizione ad agenti fisici alle basse dosi, ad esempio, sono stati messi a punto modelli animali geneticamente modificati che offrono la possibilità sia di enfatizzare l’evento biologico che di indagare su particolari suscettibilità genetiche legate, per esempio, a particolari patologie. E’ infatti essenziale includere nelle valutazioni di impatto sanitario anche i sottogruppi di popolazione che hanno una predisposizione a sviluppare certe malattie e che quindi, in seguito all’esposizione, possono manifestare risposte più severe e a dosi più basse. Questo vale soprattutto per lo studio della risposta a dosi molto basse, che costituiscono poi le esposizioni tipiche nel nostro quotidiano, come l’inalazione di inquinanti dell’aria, l’ingestione di alimenti contaminati, fino, per esempio, allo studio delle esposizioni ai body scanner degli aeroporti che, a seconda del tipo, possono emettere contemporaneamente radiazioni ionizzanti e non ionizzanti. E questo ci riporta proprio a quanto affermato precedentemente, e cioè che spesso le nuove tecnologie, immesse a seguito della pressione sociale e dell’offerta industriale, vengono studiate con le opportune analisi biologiche di laboratorio solo nel momento in cui sono già in produzione, quando cioè ci si rende conto che è assolutamente necessario valutare il loro impatto sanitario. Un esempio può essere quello che riguarda gli effetti di radiazioni non ionizzanti 124 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 21 Novembre come le radiofrequenze e le basse frequenze, di cui poco si conosce il meccanismo, e si è ancora alla ricerca, a livello internazionale, di quale possa essere il vero indicatore di effetto. Nel caso delle esposizioni connesse all’uso del telefono cellulare, non sono stati individuati indicatori di effetto per la maggior parte dei sistemi studiati come uditivo e nervoso, sul sistema immunitario ed infine su patologie a lungo termine come cancro e malattie degenerative. Le dosi di esposizione utilizzate nei sistemi espositivi sperimentali con cui si trattano i modelli cellulari e animali simulano perciò i livelli di esposizione ambientale, per valutare gli evenutuali effetti e correlarli con il dato di esposizione. L’esempio dei telefoni cellulari è quello più classico perché in 10 anni la tecnologia si è evoluta in modo così veloce che è impressionante, oltre che la numerosità della popolazione esposta - come il nostro moderatore citava poco fa -, la molteplicità di sorgenti e di frequenze cui siamo attualmente esposti e che potrebbero indurre effetti biologici diversi. Ovviamente i modelli cellulari e animali possono essere utilizzati allo stesso modo per lo studio di agenti chimici, come i contaminanti ambientali o alimentari. Proprio perché sollecitati dalla pressione industriale e sociale, si stanno attualmente conducendo studi tossicologici sui nano-materiali e sulle nano-particelle. Per le loro dimensioni questi materiali manifestano proprietà chimico-fisiche diverse in virtù delle quali trovano molteplici importanti applicazioni in vari settori, da quello industriale, a quello alimentare e medico. A livello biomedico, per esempio, sono importanti non solo perché veicolano i farmaci in modo specifico nel bersaglio da colpire e molto più velocemente del farmaco tradizionale, ma anche perché non inducono effetti collaterali indesiderati sui tessuti sani. D’altro canto, però, tutte queste recentissime applicazioni delle nanoparticelle potrebbero causare problemi ambientali e sanitari legati alla loro ampia diffusione, alle quantità prodotte, nonchè al loro smaltimento. Per questo motivo è opportuno condurre indagini sperimentali preventive per valutare se e quanto le caratteristiche di questi materiali emergenti possano modificare anche il loro impatto sui sistemi biologici. A seguito delle attività sperimentali di laboratorio, anche gli indicatori biologici possono evolvere nel tempo e diventare più efficaci. Il monitoraggio citogenetico, ad esempio, utile soprattutto per valutare il rischio cancerogeno perché legato alle mutazioni del DNA, fino a qualche anno fa era appannaggio di alcune indagini come lo studio delle aberrazioni cromosomiche e il test dei micronuclei, mentre attualmente si avvale di altri test più rapidi e specifici, come il test della cometa che va ben oltre la biologia cellulare, spingendosi a livello molecolare. E la ricerca non si è fermata qui. Per comprendere e definire meglio il danno al DNA, attualmente ci si sta orientando anche verso test di tipo epigenetico. Sappiamo infatti che molti inquinanti ambientali non sono mutageni di per sè ma, agendo sulle proteine istoniche o sull’RNA, possono indurre indirettamente un danno al DNA codificante. E attraverso queste alterazioni epigenetiche si può arrivare ugualmente al manifestarsi di malattie, compreso il cancro. Dopo aver condotto numerosi studi per valutare l’integrità genetica ed epigenetica di cellule somatiche, abbiamo recentemente iniziato a trasferire le competenze acquisite al sistema germinale proprio per poter valutare l’impatto di alcuni composti pericolosi soprattutto per le generazioni future. Per quanto riguarda lo studio degli effetti patologici a livello di popolazione, che vengono rilevati mediante le indagini epidemiologiche, volevo solo ricordare la validità di uno strumento come la banca dati di mortalità dell’ENEA che raccoglie i decessi per causa di tutti i comuni italiani fino al 2009. Con il suo ausilio è possibile effettuare indagini su tutto il territorio nazionale e valutare, in tempi relativamente brevi, sia la mortalità generale che la mortalità per qualsiasi causa specifica di decesso, sia tumorale che non tumorale. In passato, questa banca dati è stata ampiamente utilizzata per caratterizzare il quadro della mortalità, considerato un indicatore dello stato di salute delle popolazioni residenti, in diversi siti di interesse ambientale e sanitario e per valutare possibili associazioni tra malattie e cause ambientali, anche se la maggior parte delle patologie è ad eziologia multipla. Per il tumore maligno della pleura invece, indicatore dell’esposizione ad amianto, e per la sclerosi laterale amiotrofica (SLA), malattia neurodegenerativa a eziologia ancora non definita, sono stati condotti anche degli studi per individuare la presenza sul territorio nazionale di cluster comunali ad elevata mortalità, dove poter meglio approfondire, tramite indagini mirate, le associazioni con gli indicatori di pressione e di esposizione. Mi preme evidenziare come soltanto l’integrazione tra i diversi livelli di indagine - ambientale, biologica e sanitaria -, tra le diverse discipline e tra tutti i protagonisti istituzionali, come evidenziato anche dalla presente giornata, può portare ad una ottimizzazione delle attività a ciascuno dei livelli coinvolti e al risultato complessivo da raggiungere, e quindi come anche la cellula in questo contesto possa offrire il suo contributo alla politica. Grazie. Arezzo 20 - 23 novembre 2012 125 21 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute La valutazione di impatto sanitario (VIS) come strumento decisionale per uno sviluppo sostenibile "La valutazione dell’esposizione e valutazioni di impatto sanitario" Istituto Superiore di Sanità Trascrizione non revisionata dal relatore Giovanni Marsili Io torno sulla VIS che è ovviamente l’argomento principe di questa serata, di VIS è già stato abbondantemente parlato da chi mi ha preceduto, è stato sviluppato il discorso dell’etica così come quello della pratica operativa, ma torno su un aspetto, l’aspetto è quello che nella definizione si chiama “giudizio su progetti e programmi fatto attraverso la misura degli effetti potenziali” che sostanzialmente è l’obiettivo della VIS, quello di supportare il processo decisionale, si tratta di muoversi nell’ambito della previsione, muoversi in quell’ambito in cui il protagonista principale è quell’incertezza con cui concludeva il suo intervento il professor Biggeri. Sostanzialmente, in questo mio intervento, mi occuperò degli aspetti legati alla valutazione e al supporto al decision making. Per iniziare, torniamo a quello che è il classico paradigma ambiente e salute, sostanzialmente quello che succede può essere schematizzato in questo modo: c’è una pressione ambientale dovuta all’emissione di contaminanti nell’ambiente, c’è una degradazione della qualità ambientale, un’esposizione umana, processi di disgregazione, di eliminazione, metabolizzazione da parte dell’organismo umano e alla fine un effetto avverso che può essere misurato. Questi step sono tutti più o meno affrontabili e singolarmente gestibili, il professor Biggeri, poco fa, ci ha dato un esempio di metodi per misurare e valutare gli effetti avversi, le emissioni e la qualità ambientale sono addirittura nelle leggi, quindi sono in valutate e misurate di routine, l’esposizione umana, può essere valutata ed anche gli indicatori biologici sono ormai una tecnica che viene largamente usata. Ma allora, qual è il problema di un’applicazione corretta del paradigma ambiente e salute? È il problema delle relazioni, quello che noi non riusciamo a fare o quello su cui noi abbiamo difficoltà, è lo stabilire le relazioni tra questi aspetti, non è facile stabilire la relazione tra l’emissione di un contaminante nell’ambiente e la qualità ambientale e le concentrazioni che poi andiamo a trovare di quel contaminante, perché entrano in gioco numerosi e complessi processi: il trasporto, la meteorologia, il destino ambientale, analogamente, una volta che si ha la presenza di un contaminante nell’ambiente, si ha la concentrazione di un contaminante nell’ambiente, è molto difficile capire quando di quel contaminante arriverà a contatto con uomo e quanto poi penetrerà nel suo organismo, perché entrano in gioco altri fattori, la demografia, gli stili di vita, le abitudini alimentari, le proprietà chimico fisiche del contaminante così via. Quindi, noi abbiamo un sistema in cui siamo molto bravi a definire i singoli step ,a siamo ancora carenti dal punto di vista della definizione delle relazioni. Questo non è un aspetto irrilevante per quanto riguarda il decision making, perché introduce nel decision making dei problemi non facilmente risolvibili. Un primo problema, se noi non riusciamo a mettere in correlazione l’emissione di un contaminante nell’ambiente con gli effetti avversi che ad esso possiamo teoricamente attribuibile, significa che noi costruiamo un processo di radicalizzazione delle posizioni, supportiamo la posizione di chi dice che questo aspetto sanitario, questo danno è attribuibile al contaminante e quindi il contaminante va eliminato ma supportiamo anche la posizione di chi dice che non c’è una dimostrazione scientifica credibile e che quindi non si può essere certi che l’effetto avverso sia dovuto a quel contaminate, questo, soprattutto nei casi molto complessi, è ovviamente una delle vostre succede di più. Qual è il risultato che abbiamo a livello sociale? A livello sociale abbiamo il risultato che nel 2011, in Italia, c’erano 331 opere contestate il che, ci sono due schieramenti abbastanza identificabili tra chi sostiene un’opera e chi non la sostiene, ed è legato al concetto rischio-beneficio, cioè in una situazione di incertezza se ho un beneficio tendo ad accettare il rischio, se non ho un beneficio tendo a non accettare il rischio, quindi è una questione di giustizia, un’installazione industriale che emette un contaminante pericoloso è di per sé un’operazione iniqua, se io penso anche centrale elettrica che distribuisce energia a tutta la popolazione, quindi ci dà un benessere, però distribuisce i suoi rischi solo alla popolazione che vive intorno a quella installazione e quindi, sostanzialmente è un’operazione iniqua nei confronti di quella popolazione. Se questo è il problema, e il problema è questo, lo potete vedere anche perché circa il 47% delle contestazioni sono su impianti per energie rinnovabili che hanno un aspetto positivo, che hanno un aspetto sullo sviluppo, sono compresi anche alcuni fotovoltaici, è molto difficile correlarli dal punto di vista della salute, degli aspetti sanitari, la metà di queste opere contestate, sono opere non ancora approvate, quindi c’è bisogno del quel processo di verifica, di valutazione e di partecipazione che può dare lo spunto alla decisione. Il secondo punto negativo che però deriva dalla mancanza di queste relazioni è un punto negativo relativamente alla difficoltà a identificare le azioni di mitigazione di rischio e a giurarne l’efficacia, perché poi questo è il problema. Il professor Biggeri prima ha fatto e una carrellata degli studi fatti su Taranto, la criticità sanitaria dell’area di Taranto, secondo me, non è discutibile, studi di mortalità generali dimostrano che il trend negli ultimi trent’anni vede la mortalità diminuire in tutta Italia, anche a Taranto, ma rimane sempre superiore rispetto al resto d’Italia. Il Progetto Sentieri va a selezionare, non lo dimentichiamo, delle cause di morte, decesso, riconducibili a fattori di rischio ambientali, vede una differenza, eccessi di mortalità tra Taranto e la Puglia, lo studio di Mataloni va ancora più nello specifico, 126 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 21 Novembre vede un eccesso di mortalità tra alcuni quartieri e Taranto, la perizia arriva addirittura a collegare un singolo inquinante, il PM10, a degli effetti acuti sanitari avversi. Quello che a me convince ancora di più eche rende non contestabile la criticità ambientale e sanitaria di Taranto è che questi studi diversi per metodologia, per popolazioni coinvolte e anche per ricercatori che le hanno condotte, i risultati sono convergenti nel segnalare questa criticità. Questa criticità sanitaria riconducibile al particolato atmosferico però in contraddizione con il dato generale ambientale il quale, questo è il rapporto ISPRA del 2012, dice che Taranto, tra le aree urbane italiane, è una di quelle che “sta meglio” rispetto alla concentrazione al rispetto ai limiti ambientali ali per il PM10, c’è anche uno sforamento per il PM11, però ovviamente non rende mai Taranto paragonabile alle situazioni del nord Italia, ma alla fine alle stesse situazioni di Roma, voglio dire, se voi provate ad analizzare dati che sono sul sito dell’ARPA Puglia della centralina che si trova in via Machiavelli, nel Quartiere di Tamburi, con quella che si trova a Roma in Corso Francia, quella di Roma è in condizioni molto peggiori, però gli eccessi di mortalità. Durante la valutazione ambientale integrata e durante quindi la relazione l’Istituto Superiore di sanità per sostenere l’autorizzazione ambientale integrata dell’impianto Ilva, è emerso un altro aspetto, è emerso che quello che differenzia realmente il Quartiere di Tamburi dal resto di Taranto e dal resto della Puglia, e probabilmente dal resto d’Italia, non è la concentrazione del PM10 ma è la composizione del PM10 e è sostanzialmente il fatto che quel PM10 è ricco di un contaminante cancerogeno e con effetti veramente disastrosi quali il benzoapirene. Perché è importante aver identificato questo? la situazione non è cambiata ma è importante perché in questo modo abbiamo potuto identificare un impianto, una operazione specifica, condotta in quel luogo e quindi è stato possibile identificare un’azione di mitigazione. Non è un caso se, per la prima volta, un ‘autorizzazione ambientale integrata va a prescrivere a una attività industriale un piano di monitoraggio sanitario. Questi sono i problemi che ci si pongono davanti ma, a nostro avviso, tutti questi problemi possono essere risolti andando proprio a focalizzare l’attenzione sullo studio dell’esposizione, noi dobbiamo andare a caratterizzare l’esposizione umana e i diversi inquinanti per poter legare l’inquinamento ambientale con gli effetti avversi e quindi per poter avere un’indicazione dei sistemi di monitoraggio che dobbiamo mettere in atto. Questa diapositiva è molto didattica e rappresenta l’esposizione in tre gruppi di casi. Intanto i dati di input; i dati di input sono molteplici, sono complessi, sono spesso incerti e altamente variabili, dopo di che ho il modello concettuale. Cosa è la stima dell’esposizione in parole povere e concettualmente? Io devo capire chi è esposto, come è esposto, quando è esposto, per quanto tempo è esposto, qual è l’intensità di quella esposizione, devo chiarire questi meccanismi e proprio per chiarirli, proprio perché il sistema è complesso e altamente variabile , introduce degli elementi di incertezza molto grossi nel progetto di valutazione dell’esposizione, teniamo però conto che una valutazione corretta dell’esposizione è l’unica che mi garantisce una valutazione corretta del rischio. Voglio farvi un esempio per capire come questi meccanismi di introduzione dell’incertezza nella valutazione dell’esposizione, anche quando ci mettiamo in situazioni teoriche estremamente semplificate che non sono la realtà, possono giocare un ruolo particolare. Se noi prendiamo in considerazione una esposizione di tipo inalatorio, quindi una concentrazione di un contaminante per un rateo inalatorio della popolazione, cioè di chi è esposto, e assumessi che la concentrazione del contaminante è costante, fissa, nel tempo e nello spazio per l’esposizione della persona, ho una serie di variabilità che sono introdotte dal rateo di inalazione, per esempio. Nel caso di Taranto, noi abbiamo usato uno studio che abbiamo usato dall’Istituto Superiore di sanità nel 2006 che era andato a caratterizzare, proprio nella popolazione di Taranto, i comportamenti delle persone e a stimare i ratei di inalazione. Questi sono i ratei di inalazione così come li abbiamo ricavati in quello studio, come voi vedete c’è una enorme variabilità che differenzia le persone per classe di età e per sesso ma è anche una variabilità molto ampia che introduce una serie di incertezze; questi sono gli stessi dati riportati in senso numerico e su alcune popolazioni studiate dall’Istituto, che cosa possiamo vedere? Possiamo vedere che per esempio esistono, per valutare l’esposizione, modelli che sono ormai standardizzati, l’individuo esposto è un individuo che pesa 70 Kg, che ha un rateo di inalazione di 20 m3 al giorno e che è esposto a quella concentrazione misurata in aria, questo è un modello ricorrente che viene usato, voi vedete che in queste tre popolazioni che noi abbiamo studiato ratei di inalazioni medi di 20 m3 al giorno non ne abbiamo mai trovati, quindi noi dovremmo avere, assumendo un rateo di inalazione di 20 m3 al giorno, una stima conservativa dell’esposizione di quell’individuo; la linea rossa rappresenta i rischi che sono stati calcolati proprio usando questo modello, il modello standard, gli altri invece sono i rischi calcolati tenendo conto invece dei ratei di inalazione e dell’età degli esposti, per esempio l’esposizione a benzoaprirene di un bambino ha un effetto molto diverso dell’esposizione a benzoapirene di un adulto, questo vale per molti cancerogeni. Il risultato di questa simulazione è che se avessimo calcolato i rischi per classi di età, il rischio calcolato per l’esposizione sarebbe stato sempre maggiore, ma se si integrano quei rischi e si va a calcolare il rischio per un individuo che è esposto da 0 a 6 anni, poi da 3 a 14 anni, cioè integrandoli sull’età, la curva che ricavo è una curva non conservativa, cioè uso un modello che può partire da dati conservativi e ottenere un risultato che non è conservativo. Questo per dire che bisogna fare molta attenzione a non semplificare eccessivamente quando si va a calcolare l’esposizione, perché si possono trovare risultati addirittura contrari a quello che ci si aspetta. La conclusione del mio lavoro è che noi non possiamo separare l’assessment dell’esposizione dalla caratterizzazione e dalla identificazione del rischio e che l’esposizione della popolazione, Arezzo 20 - 23 novembre 2012 127 21 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute l’esposizione umana, è il punto di snodo, così come peraltro suggerito dall’OMS, di questo sistema. Se noi non riusciamo a stimare, a valutare l’esposizione umana, difficilmente noi potremo avere risultati facilmente gestibili nel processo decisionale. Le conclusioni che voglio dare al mio intervento sono: la qualità della valutazione del rischio dipende dalla qualità della valutazione dell’esposizione, la complessità dei processi implicati nelle relazioni ambiente-salute non sempre consente un’accurata valutazione dell’esposizione e conseguentemente del rischio, l’incertezza indotta da approssimazioni e assunzioni, spesso necessarie, deve essere sempre considerata, noi non possiamo lavorare in senso deterministico con il rischio e con l’esposizione, la valutazione dell’esposizione deve essere realistica, la sovrastima del rischio induce uno spreco di risorse che potrebbero essere utilizzate molto meglio, sempre a tutela della salute pubblica, ma la sua sottostima potrebbe determinare un danno alla salute degli esposti, questo è estremamente importante, essere troppo conservativi non è necessariamente un modo di tutelare la salute, l’esposizione è, a mio avviso, un’utile sostituto del rischio, quindi noi potremmo usare, noi come Istituto Superiore di Sanità, in alcuni studi che stiamo facendo, l’esposizione come indicatore nel monitoraggio in una situazione ante-post, l’altra cosa è un appello che voglio lanciare alle sanità pubbliche, in Italia non abbiamo un sistema di indicatori integrati, per esempio sugli stili di vita, per esempio sui consumi alimentari, su tutta una serie di parametri che sarebbe molto importante avere per poter stimare l’esposizione. Grazie. 128 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 21 Novembre La valutazione di impatto sanitario (VIS) come strumento decisionale per uno sviluppo sostenibile "L’esperienza di Taranto" Giorgio Assennato ARPA Puglia Cercherò di trarre delle indicazioni di carattere generale dall’esperienza specifica. Da questo punto di vista io ritengo importante, non per amore di distinzione tomistica, per mania classificativa, che magari, nel testo che state scrivendo, si distingua chiaramente tra la VIS come procedimento per sé dall’uso di frammenti di VIS nella soluzione di problemi. Questa distinzione, apparentemente scolastica, è importante perché altrimenti si introducono elementi di confusione. La VIS di per sé è un procedimento come la VAS, molto simile alla VAS, come procedimento di per sé è contraddistinto dalle caratteristiche della trasparenza, dell’equità, dell’ecosostenibilità, dell’eticità che sono proprie di questo procedimento ma quando si utilizzano pezzi di queste procedure per risolvere fini specifici, è il contesto che caratterizza l’uso e il procedimento c’entra relativamente. C’è un collegamento, nel senso che l’incremento dell’uso, nel senso del problem solving, come l’esempio di VISPA che risolve un problema, definire le procedure di comportamento in sede di autorizzazione unica in conferenza dei servizi degli operatori di sanità pubblica, è certamente un’esigenza che nasce da un problema, si utilizzano delle procedure che vengono dal procedimento ma le si utilizzano in un contesto, così pure Annibale Biggeri avrà usato metodologie analoghe in un contesto che era quello di rispondere a degli obiettivi definiti da un giudice, dal GIP, nella situazione specifica. Noi abbiamo certamente l’esigenza di dare una risposta simile nell’ambito di un altro procedimento che è l’Autorizzazione Integrata Ambientale. Vengo a un riferimento di carattere generale; già in Italia traducendo il termine impropriamente, l’acronimo inglese IPPC , prevenzione integrata dell’inquinamento e controllo, sciaguratamente, in Autorizzazione Integrata Ambientale, abbiamo già perso un pezzo dell’obiettivo che è quello della prevenzione dell’inquinamento, per cui la procedura è spesso diventata una sorta di scelta tra cataloghi di bat negoziato con il gestore, è comunque una cosa utile ma complicata dal fatto che la separazione delle funzioni ambientali rispetto a quelle sanitarie di fatto ha portato a un approccio nelle AIA di assoluta ignoranza, di esclusione, della componente sanitaria. Questa è una linea che il Ministero dell’Ambiente persegue, le esperienze comunitarie sono diverse, nel 2000 il Ministero della Salute britannico in un documento per i public health practitioners, non per gli operatori ambientali ma per gli operatori sanitari, le procedure da adottare nelle IPPC (AIA), diverse in funzione della complessità, noi non abbiamo tutto questo,negli Stati Uniti esistono due tipi di AIA, una super AIA in cui il gestore sceglie la lowest achievable emission rate technology, la migliore delle AIA possibili,questo gli consente di aver una durata molto più lunga altrimenti, se sceglie l’AIA standard è esposto a una valutazione del rischio residuo di tipo sanitario che viene fatto a distanza di anni. Questo è ignorato nella nostra legislazione, il che rende oggettivamente anche difficile e vulnerabile qualunque lodevole sforzo fatto dalle amministrazioni, vulnerabile rispetto a valutazioni di legittimità degli atti amministrativi dei Tribunali Amministrativi Regionali che ovviamente possono non riscontrare la legittimità di pareri dati su valutazioni di contesto epidemiologico territoriale sfavorevole, perché non fondate su nessuna procedura normativa. Questo è un grosso problema. Vedremo poi quello che noi abbiamo fatto nell’ambito della precedente AIA (slide), avevamo chiesto di fare una serie di valutazioni, tra l’altro i punti C e D corrispondono propriamente agli studi che sono stati fatti nella sede più difficile, il Ministero dell’Ambiente non ci ha fatto fare questi studi, devo dire che nemmeno la Regione Puglia ce li ha fatti fare. Io sono un epidemiologo occupazionale, sapendo che il problema era molto importante dal punto di vista conoscitivo e che sarebbe poi esploso in una situazione difficilmente controllabile come quella di un contesto penale, avevamo chiesto l’attivazione di un centro ambiente-salute che sarà purtroppo realizzato, per fortuna realizzato, tardivamente. Questi studi non sono mai stati fatti. Questo (slide) è il contesto tarantino, questa mappa è stata citata, è il cuore fondamentale dei dati di input dello studio a lungo termine già illustrato sinteticamente, questa è la tabella sintetica che illustra le variazioni unitarie, l’hazard ratio per incrementi unitari di PM10 primario e industriale nell’area tarantina. Rispetto a questo contesto, io ritengo che sia fondamentale fare un’analisi di rischio sanitario, perché di fronte a un giudice che identifica un reato di percolo come disastro ambientale e che in funzione di una prova consolidata nell’incidente probatorio adotta misure amministrative come il sequestro degli impianti, soltanto una dimostrazione attiva dell’inesistenza o della “accettabilità” del rischio sanitario può consentire al medesimo giudice, ammesso che lo voglia, di modificare il proprio atteggiamento o venire meno alla decisione precedentemente assunta di sequestro amministrativo degli impianti altrimenti, pur essendo lodevoli gli enormi miglioramenti che l’ultima area ha prodotto, non si produrrà l’evidenza dell’accettabilità del rischio sanitario conseguente che è il presupposto della decisione amministrativa del giudice penale. Questa è la legge pugliese che in realtà era una legge post hoc, cioè era una legge che in qualche modo si accompagna allo spirito della nuova AIA che prevede un monitoraggio sanitario e in qualche modo si accompagna allo spirito della normativa americana, quella cioè di verificare in fase di monitoraggio se residua un impatto, un danno sanitario, valutato con metodologie di tipo diverso, e in funzione di questo, in caso di inaccettabilità del rischio residuo definire una Arezzo 20 - 23 novembre 2012 129 21 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute coerente proporzionale riduzione delle emissioni, quindi è una legislazione mirata alla riduzione delle emissioni in fase post autorizzativa. Da questo punto di vista, il regolamento che la Regione ha adottato prevede che la Asl territoriale, l’ARPA e l’Agenzia di Sanità definiscano una valutazione chiamata di danno sanitario, perché integra una valutazione di rischio, quindi a priori, con una valutazione del contesto epidemiologico fino a definire una flow chart operativa che in caso di coerenza dei risultati di questi due approcci rende immediatamente esecutivo il principio della riduzione, l’imposizione di una riduzione proporzionale dell’emissione degli specifici inquinanti studiati e, viceversa, in caso di discordanza impone un approfondimento, simile alla metodologia analitica seguita nello studio a lungo termine dei colleghi Forastiere e Biggeri, finalizzato essenzialmente alle patologie a breve latenza, certamente non i tumori solidi. Questo è il documento EPA, questo è il cartogramma non riesco a sapere chi, nel lontano 2003, ha fatto questo “bellissimo” rapporto sull’analisi del rischio residuo in queste quattro focherie che ha portato due anni dopo, sulla base di questo procedimento, avendo riscontrato la sussistenza di un inaccettabile rischio residuo, alla pubblicazione sulla Gazzetta Ufficiale americana di una nuova norma EPA abbassando gli standard emissivi per tutte le focherie in funzione dei risultati ottenuti. Ovviamente, questa procedura sarà una procedura criticabilissima, però da un punto di vista euristico è una procedura che ha funzionato, che funziona e porta certamente ai miglioramenti prestazionali degli impianti e conseguentemente una minimizzazione degli effetti sanitari conseguenti. Non vi dico i dettagli, che sono comunque contenuti in questo gold standard, e ritengo fondamentale che questo tipo di procedura sia poi validata da una prior review effettuata dall’Istituto Superiore di sanità e da ISPRA, perché questo non può essere semplicemente il frutto di una legislazione regionale, deve diventare un’esperienza nazionale attraverso linee guida e norme, un primo atto è quello di sottoporsi a prior review perche sappiamo perfettamente la intrinseca difficoltà e anche le caratteristiche di incertezza associate a questi complessi processi decisionali. 130 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 21 Novembre La valutazione di impatto sanitario (VIS) come strumento decisionale per uno sviluppo sostenibile "Siti a rischio della Regione Toscana" Elisabetta Chellini ISPO Penso di essere rapida anche perché molte delle cose che dirò sono già state ampiamente illustrate da chi mi ha preceduto. Riferirò in merito alle attività di tipo epidemiologico che ci siamo trovati a svolgere come Istituto per lo Studio e la Prevenzione Oncologica (ISPO) in aree inquinate o in aree potenzialmente inquinate in Toscana. Negli ultimi anni ci sono pervenute molte richieste, in particolare da amministrazioni pubbliche ma anche da associazioni/comitati di cittadini. Sono andate infatti aumentando le mobilitazioni locali contrarie alla presenza di impianti di potenziale inquinamento ambientale, sempre più in un’ottica di tipo LULU (Locally Unwanted Land Use) più che NIMBY (Not In My BackYard): le mobilitazioni più recenti non necessariamente rifiutano l’uso e utilità di infrastrutture che possono avere un’utilità pubblica ma esprimono il disagio e la preoccupazione nei confronti di situazioni che potrebbero minacciare il territorio nel suo complesso, non solo quello vicino alla propria abitazione, e del cui controllo i cittadini si sentono espropriati. Inoltre, quello che viene sentito e palesato è anche una situazione di rischio per la salute ed è per questo che ISPO è stato coinvolto: (i) sia perché ISPO è l’Istituto oncologico regionale impegnato dagli anni ’70 nel campo della ricerca epidemiologica sulle patologie oncologiche, che sono quelle che di solito evocano le paure più profonde, perché dietro il termine “cancro” o “tumore” si associa in genere l’idea di una malattia irreversibile e invincibile; (ii) sia perché per diverse patologie oncologiche è noto il ruolo causale che possono svolgere esposizioni ambientali che non sono state sinora ben controllate, e che sono considerate particolarmente preoccupanti anche perché involontarie e spesso distribuite in maniera disuguale. Su quest’ultimo aspetto chi mi ha preceduto ha detto chiaramente come l’esposizione e quindi gli effetti di esposizioni ambientali possano distribuirsi variamente nei vari sottogruppi di popolazione, tanto che nelle analisi effettuate nell’ambito del Progetto Sentieri, di cui abbiamo sentito parlare ieri, sono stati utilizzati indici di deprivazione, come pure in quelle i cui risultati ci sono stati mostrati poco fa da Annibale Biggeri. Quelle che creano maggiori problematiche e richieste di studio epidemiologico sono le attività antropiche, prodotte dall’uomo, che possono implicare l’esposizione umana a fattori di rischio per patologie croniche, quali i tumori, che insorgono in maniera invisibile e che sono spesso irreversibili. Accanto ai quattro SIN che sono stati oggetto del Progetto Sentieri e su cui per lo più il lavoro epidemiologico di ISPO si è sviluppato sul fronte occupazionale, negli ultimi anni abbiamo lavorato su aree caratterizzate dalla presenza di sorgenti puntuali di possibile inquinamento dell’ambiente circostante, dove erano stati identificati cluster di patologia oncologica veri o sospetti. Il lavoro epidemiologico in queste aree è solitamente molto complesso perchè: (i) spesso le popolazioni ivi residenti sono numericamente piccole, come pure le patologie osservate; (ii) le stime di rischio sono piccole e con ampi margini di incertezza; (iii) le conoscenze sia sulla distribuzione spazio-temporale delle malattie oncologiche in esame nonché della popolazione e dei fattori di rischio per quelle patologie sono scarse; (iv) e scarse talora sono anche le conoscenze su tutti quegli aspetti che ha affrontato Giovanni Marsili poco fa, cioè sul tipo e quantità di inquinanti, sulla loro persistenza nelle matrici biologiche e sul loro meccanismo di cancerogenicità; (v) ed infine sono talora scarse le conoscenze sulla diffusione degli inquinanti dalle sorgenti ipotizzate, con la conseguente possibilità di indagare popolazioni più vicine agli impianti ma non a maggior rischio come potrebbero esserlo popolazioni più lontane. C’è poi il problema delle disequità, perché le aree che sono caratterizzate da pressioni ambientali, guarda caso, sono anche abitate da comunità più svantaggiate e che quindi hanno esposizioni professionali, stili di vita “peggiori”, ed anche un peggiore accesso alle prestazioni diagnostico-terapeutiche. Per esempio, intorno a un impianto di depurazione acque reflue su cui abbiamo fatto un lavoro pubblicato nel 2002 (Chellini et al. Arch Environ Health, 2002, 57: 548-53), nel primo chilometro e mezzo dall’impianto quasi il 50% della popolazione presentava un livello di deprivazione alto mentre nelle aree più distanti la popolazione si distribuiva molto più equamente. Una patologia tumorale considerata marcatore di aree a maggior rischio è il tumore del polmone. La mappa di cui alla figura 1 mostra un’analisi per area comunale della mortalità per tumore del polmone negli uomini in Toscana: le aree lungo la costa, che sono anche aree SIN, sono quelle dove la mortalità per tumore del polmone è più elevata. Le due mappe si riferiscono a due quinquenni a distanza di un decennio l’uno dall’altro: le macchie di maggiore intensità di colore si sono allargate in funzione all’andamento dell’abitudine al fumo nella popolazione ma le aree più fortemente industrializzate sono rimaste a mortalità più elevata rispetto alle altre aree. Per l’area di Massa Carrara dove il lavoro di ISPO ha riguardato fondamentalmente le esposizioni occupazionali, è ben noto come nel passato vi fosse un’alta concentrazione di aziende che potevano comportare un rischio ambientale: ne sono testimonianza due grossi incidenti, quello del 1984 all’ANIC con fuoriuscita di diossina e quello alla Farmoplant, quattro anni dopo, con fuoriuscita di Rogor. Piombino, in provincia di Livorno, è stata la prima area dove abbiamo iniziato a valutare la rilevanza ambientale Arezzo 20 - 23 novembre 2012 131 21 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute di possibili inquinamenti svolti dalle industrie locali (Chellini etal. Epidem Prev 2005, 29 Suppl: 50-2). L’area della locale acciaieria è praticamente grande quanto l’area urbanizzata ed è proprio a ridosso di questa. Facemmo uno studio epidemiologico di tipo geografico con l’intento di capire se c’era una distribuzione specifica dei casi di tumore polmonare in funzione della vicinanza della residenza alla cokeria: trovammo che c’era una concentrazione maggiore nei primi 700 metri dall’impianto, ma nel contempo ci rendemmo conto che i casi dei soggetti residenti in quella zona avevano lavorato nell’azienda, erano da anni forti fumatori, e avevano vissuto i primi anni della loro vita in quella stessa area dove di fatto risiedevano molti lavoratori dell’acciaieria. Per quanto riguarda l’area Pratese, esaminammo i casi di tumore del polmone in funzione della vicinanza/ lontananza dal locale impianto di acque reflue che aveva al suo interno anche un impianto di incenerimento della frazione solida (Chellini et al. Arch Environ Health, 2002, 57: 548-53). Anche in quest’area osservammo un incremento di tumore del polmone all’avvicinarsi della residenza all’impianto, sia escludendo i lavoratori sia tenendo conto di un indice di deprivazione costruito ad hoc sui dati censuali locali. Successivamente, visto che non potevamo escludere che ci potesse essere un rischio derivante dall’esposizione agli inquinanti emessi dall’impianto, avviammo uno studio di tipo caso controllo dove una serie di informazioni legate all’esposizione professionale e residenziale e allo stile di vita furono raccolte a livello individuale, e nuovamente i risultati dello studio ci confermarono l’eccesso di rischio, già osservato nel precedente studio descrittivo, nei residenti nel primo chilometro e mezzo dall’impianto (Pizzo et al. Tumori. 2011, 97:9-13). Negli ultimi tempi è aumentato il nostro lavoro sui cluster di patologia oncologica. Prevalentemente si tratta di patologie oncologiche emolinfopoietiche, e per lo più leucemie. I problemi di valutazione sono innumerevoli: si tratta di insiemi di tumori molto diversi tra loro, diversi tra adulti e bambini, e le cause sono in genere poco conosciute. In genere inoltre i cluster sono riferiti a casistiche piccole, per lo più desunte da dati correnti sanitari che sono di per sé abbastanza incerti in assenza di registri tumori di popolazione. Su questo argomento vorrei velocemente presentarvi il cluster di leucemie di Civitella, da cui si è sviluppato lo studio che vi ha illustrato ieri Domenico Sallese: dal Registro Mortalità Regionale toscano e dalle schede di dimissione ospedaliera, nel periodo 1996-2005, erano stati evidenziati ben 29 casi di leucemia in residenti a Civitella; per ogni singolo caso sono state recuperate le storie residenziali e le cartelle cliniche, e alla fine del percorso di approfondimento dei casi ne sono stati confermati 22 (ne sono stati esclusi 7: uno era residente da soli 3 mesi, per tre c’erano degli errori nella registrazione o certificazione delle cause, due erano conseguenti a trattamenti chemio- e radioterapici, ed uno era riportato nelle due fonti con nome leggermente diverso). L’eccesso di leucemie che appariva inizialmente rilevante nell’area di Civitella specialmente nell’ultimo quinquennio rispetto al quinquennio precedente si è pertanto notevolmente ridotto. Da notare inoltre che anche dei primi anni ’70, quando ancora non esisteva la grande azienda locale ipotizzata fonte di inquinamento, vi era nella zona di Civitella un eccesso di mortalità per leucemia. Con il termine “leucemia” oggi si classificano patologie maligne molto diverse tra loro, e quando si va ad analizzare un cluster di leucemie occorre andare molto nel dettaglio delle patologie, esaminando gli istotipi (alcuni di essi tra l’altro oggi vengono più propriamente classificati dall’OMS tra i linfomi non Hodgkin e ciò complica ulteriormente il quadro). Anche esaminando l’ubicazione delle residenze dei casi confermati a Civitella non abbiamo osservato alcuna loro particolare concentrazione nei dintorni dell’impianto. Come rispondere quindi alle amministrazioni e ai cittadini che erano preoccupati per le possibili emissioni della grande azienda ivi presente, che peraltro chiedeva anche un raddoppio della propria produzione industriale? Al di là del cluster di patologia, che se confermato poteva al massimo suggerire una pregressa esposizione a tossici ambientali, indirizzammo l’attenzione alla valutazione dell’esposizione attuale o pregressa della popolazione a inquinanti che potenzialmente poteva emettere o aver emesso l’azienda, attraverso l’utilizzo del monitoraggio biologico umano. Questo infatti è uno strumento conoscitivo che, scegliendo marcatori riconducibili alle emissioni specifiche dell’azienda, può permettere di capire l’entità, la distribuzione, e anche l’andamento nel tempo (se effettuato a intervalli regolari) dell’esposizione della popolazione residente, ed ha il vantaggio di permetterci di identificare situazioni o alterazioni biologiche, a seconda dei marcatori biologici utilizzati, che potrebbero essere risolte prima di dar luogo a vere e proprie malattie. Il monitoraggio biologico umano è cioè anche uno strumento di prevenzione primaria. Per concludere, oggi in Toscana sono disponibili banche dati sia di tipo sanitario sia di tipo ambientale e sono disponibili metodologie di tipo statistico sempre più sofisticate che ci consentono di analizzare tutti questi dati, ed ISPO si trova spesso a rispondere a quesiti ambientali utilizzando tali dati sulle patologei oncologiche. Il problema critico in campo epidemiologico è però quello di decidere se sia prioritario studiare gli effetti sanitari legati alle pregresse esposizioni o se sia invece preferibile utilizzare le competenze epidemiologiche disponibili per pianificare, mettere in atto e seguire sistemi di sorveglianza e monitoraggio delle esposizioni attuali, perché questo ha evidenti ricadute di prevenzione primaria sicuramente molto più importanti. È con queste parole è chiaro il mio pensiero a riguardo. Grazie. 132 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 21 Novembre Figura 1 MORTALITA’ PER TUMORE DEL POLMONE MASCHI 19871987-1991 20022002-2006 12 Arezzo 20 - 23 novembre 2012 133 21 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute La valutazione di impatto sanitario (VIS) come strumento decisionale per uno sviluppo sostenibile "L’esperienza di ISPRA in materia di VAS e VIA: quali connessioni con l’impatto sanitario?" Mario Cirillo ISPRA Grazie dell’invito a questa interessante iniziativa, un saluto a tutti i presenti. Mi è stato chiesto di parlare dell’esperienza di ISPRA in materia di VAS e VIA e di fare qualche considerazione sulla connessione di queste procedure con la VIS. A questo proposito un rapido excursus storico può essere utile. La VIA nasce alla fine degli anni ‘60 del secolo scorso negli Stati Uniti, in Europa arriva negli anni ’80 e dalla fine degli anni ’80 si comincia a praticare anche in Italia. All’epoca nel Ministero dell’Ambiente la Direzione Generale che se ne occupava era la Direzione Valutazione di Impatto Ambientale diretta da Costanza Pera che fu anche presidente della prima Commissione Nazionale VIA, si cominciarono a fare le prime valutazioni su progetti di opere, era l’epoca aurorale, pionieristica della VIA allorché la procedura veniva sperimentata per la prima volta nel nostro Paese. Successivamente la Commissione Nazionale VIA fu presieduta da Maria Rosa Vittadini e si conclude così il decennio degli anni ’90. Negli anni 2000 c’è una novità importante, la Legge Obiettivo (Legge 21 dicembre 2001 n.443) che nasce dall’esigenza di realizzare con tempistica certa alcune grandi opere infrastrutturali, di conseguenza i tempi per la VIA di queste opere, detta VIA Speciale, sono più rapidi di quelli della VIA “Ordinaria”. Da molti la Legge Obiettivo viene percepita come un provvedimento che nasce dalla scelta di infrastrutturare questo Paese e dalla conseguente esigenza di “non perdere molto tempo” per le valutazioni di impatto ambientale; evidentemente l’esperienza della VIA così come era stata condotta fino ad allora veniva percepita come una procedura che in qualche modo rallentava, impedendo così di essere rapidi nelle decisioni. Si introduce dunque la VIA Speciale e i tempi di realizzazione diventano perentori: tanto per darvi un’idea, il ponte sullo stretto di Messina, che non è proprio una bazzecola, è in VIA speciale. A seguito dell’introduzione della VIA Speciale il Ministero dell’Ambiente decide per la prima volta di ricorrere al supporto tecnico-scientifico dell’APAT, l’Agenzia per la protezione dell’ambiente e per i servizi tecnici che successivamente fondendosi con ICRAM (Istituto per la ricerca sul mare) e con INFS (Istituto nazionale per la fauna selvatica) diviene ISPRA. Evidentemente si era divenuti consapevoli della complessità delle valutazioni ambientali di talune opere, insieme alla necessità di concludere la procedura in maniera esauriente con i tempi ristretti della VIA Speciale . Di conseguenza dal 2003 l’allora APAT venne chiamata in campo, inizialmente solo per la VIA Speciale. Nel 2007 è stato istituito in ISPRA (che come detto proviene dalla fusione di APAT, ICRAM e INFS) il Servizio “Valutazioni Ambientali” che io ho il piacere di coordinare, e nel 2008 ISPRA viene coinvolta da una Direttiva del Ministro dell’Ambiente nella quale l’Istituto è chiamato nuovamente a svolgere attività di “supporto diretto e istruttorio” alla Commissione Nazionale Tecnica per le Valutazioni Ambientali VIA/VAS (CTVA). Questa volta l’incarico riguarda le procedure: VIA Ordinaria, VIA Speciale e VAS. Sì, perché nel frattempo c’era stata un’altra grande novità, era stata introdotta anche la procedura di VAS, Valutazione Ambientale Strategica, che in linea di principio, lavorando sui piani e programmi e non su singole opere, costituisce un salto di qualità nell’ambito delle valutazioni ambientali. Dal 2008 ad oggi noi abbiamo lavorato circa un paio di centinaia di procedure di rilevanza nazionale, con una prevalenza di opere in procedura di VIA (Ordinaria o Speciale), essendo il numero delle VAS sensibilmente inferiore. Da notare che in termini assoluti il numero di procedure VIA/VAS per le quali la CTVA richiede a ISPRA il supporto tecnico-scientifico è limitato rispetto a tutto il numero di procedure che smaltisce, ma c’è da considerare che si tratta delle procedure più complesse e delicate, tanto per intenderci il ponte sullo Stretto di Messina, l’alta velocità Torino-Lione, il deposito di gas naturale di Rivara in Emilia Romagna, il metanodotto Algeria-Italia e cose di questo tipo. Noi abbiamo adottato un modello organizzativo “a rete” estremamente interessante, faticoso ma interessante, nel senso che questo tipo di attività è baricentrata nel Servizio Valutazioni Ambientali, ma coinvolge tutte le competenze tecniche presenti nei diversi Dipartimenti di ISPRA. Quando ci viene assegnata una preistruttoria – si chiama preistruttoria in quanto l’istruttoria è di competenza della CTVA – noi mettiamo in campo un Gruppo di Lavoro Tecnico che di solito è formato da nove-dieci specialisti, e questo vi dà un’idea della quantità di competenze messe in campo: ogni specialista è portatore del know-how e delle esperienze della unità tecnica cui appartiene. In realtà per questa attività è stata “messa a rete” tutta ISPRA, abbiamo messo in moto grosso modo 250 esperti in questi anni di esperienza di supporto alla Commissione VIA/ VAS. Il nostro è un endoprocedimento, e teniamo distinto il nostro lavoro rispetto a quello della CTVA. Per ogni studio di impatto (nel caso di VIA) o rapporto ambientale (nel caso di VAS) su cui l’Istituto è attivato si costituisce il Gruppo di Lavoro Tecnico che ha un coordinatore, che di solito afferisce al Servizio Valutazioni Ambientali, e questo Gruppo esamina qual è la qualità scientifica, la qualità dei dati, la completezza dello studio di impatto o del rapporto ambientale, dopodiché noi consegniamo una relazione preistruttoria alla Commissione che nella sua piena autonomia e indipendenza valuta la compatibilità ambientale. Noi non valutiamo la compatibilità ambientale, 134 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 21 Novembre questo deve essere chiaro, in questi anni ho sempre cercato di tenere distinto il contributo di ISPRA dal contributo della Commissione. Andiamo al punto: le connessioni con gli aspetti sanitari. Come dicevo, la VIA nasce in Italia nel 1987, nel 1988 vengono emanati sulla materia alcuni Decreti del Presidente del Consiglio dei Ministri (DPCM) tra cui le Norme Tecniche in materia di valutazione di impatto ambientale; ebbene, quel DPCM è ancora vigente, quindi chi va a realizzare uno studio di impatto ambientale deve prendere a riferimento quel DPCM emanato nel 1988, parecchi lustri fa, e deve declinare il suo studio secondo quello che c’è scritto sopra. Il DPCM afferma, tra le altre cose, che in uno Studio di Impatto Ambientale bisogna prevedere anche l’analisi della componente “salute pubblica”, quindi chi affronta uno studio di impatto deve anche affrontare anche il problema della salute pubblica. D’altra parte le norme più recenti in materia di VIA e di VAS in Italia, il testo unico (D.Lgs. 3 aprile 2006 n.152 e s.m.i.) danno giustamente grande importanza agli aspetti sanitari. La stessa normativa all’art.34 dispone sulle modifiche e aggiornamento delle norme tecniche, individuando come estensori il Ministero dell’Ambiente di concerto con il Ministero dei Beni Culturali. Il Ministro dell’Ambiente nel 2011 ha istituito un Comitato tecnicoscientifico, per dare attuazione all’art.34, nel quale ISPRA è presente nella mia persona; io mi sono preoccupato da subito di coinvolgere tutto l’Istituto e ISPRA ha prodotto un contributo per gli aspetti di sua stretta pertinenza, cioè quelli ambientali, e noi abbiamo già consegnato a luglio 2012 al Ministero dell’Ambiente il documento tecnico. E’ chiaro che per quanto riguarda gli aspetti più specificamente sanitari ritengo sia importante un rapporto virtuoso tra chi si occupa di ambiente e chi si occupa di salute, e questo aspetto l’ho sottolineato anche al Comitato tecnico-scientifico di cui sopra. A questo proposito può essere utile vedere come viene attualmente trattata negli studi di impatto ambientale la componente “salute pubblica” per un aspetto molto importante, ovvero la caratterizzazione aggiornata dello stato di salute della popolazione localizzata nell’area potenzialmente impattata dall’opera – parliamo della VIA su cui abbiamo una maggiore ricchezza di informazione lasciando per ora da parte la VAS. Posso dire che la caratterizzazione aggiornata dello stato di salute della popolazione localizzata nell’area potenzialmente impattata dall’opera è la cenerentola, su un paio di centinaia di studi di impatto ambientale abbiamo verificato che c’è una completa assenza della sezione corrispondente al capitolo “salute pubblica” in circa il 30% dei progetti esaminati, nelle istruttorie relative ai metanodotti la caratterizzazione dello stato di salute della popolazione non viene mai presa in considerazione, lo stesso accade anche per opere quali parchi eolici o l’unico impianto a biodiesel esaminato; capita che il proponente affermi che certe opere non hanno effetto sulla salute pubblica senza verificare ciò tramite una appropriata analisi che integri le analisi settoriali sulle diverse componenti passando, appunto, per una caratterizzazione aggiornata dello stato di salute della popolazione localizzata nell’area potenzialmente impattata dall’opera. Peraltro laddove questo tipo di analisi viene fatto ci sono delle grosse carenze, non credo di sbagliare nel dirlo. Per esempio, la caratterizzazione dello stato attuale della salute risulta mancante in circa il 90% delle istruttorie relative alle infrastrutture stradali e in circa il 70% delle istruttorie relative agli elettrodotti, nelle opere ferroviarie le informazioni, quando presenti, sono spesso generiche e quasi mai calate, tarate su scala locale. Voi capite che in questa maniera non è facile tirar fuori qualcosa di utile. Come si sopperisce a queste carenze nella fase di preistruttoria che è curata da ISPRA? Noi facciamo una prima analisi tecnica per quanto riguarda la richiesta di integrazioni al proponente, quindi cerchiamo, nell’ambito delle richieste di integrazioni, di sollecitare, favorire il fatto che il proponente anche per quanto riguarda gli aspetti di caratterizzazione dello stato attuale della salute pubblica migliori le performance del suo studio, ma spesso anche le integrazioni presentano delle carenze non indifferenti. In conclusione mi sento di affermare che il nodo della salute pubblica è un nodo importante e una criticità forte nella fase attuale delle valutazioni ambientali. Non è mio compito dire cosa fare con la VIS, mi pare che il problema sia talmente ampio, articolato e complesso sia dal punto di vista scientifico che istituzionale ….. però qualche idea anche oggi mi è venuta, ho visto che in varie regioni la normativa sulla valutazione di impatto ambientale ha in qualche modo introiettato la VIS. È un elemento di riflessione. Quello che io vedo e che riporto è che sicuramente gli aspetti sanitari nelle attuali valutazioni ambientali sono una criticità, quindi bisogna assolutamente migliorare sotto questo punto di vista. Il professor Assennato sottolineava anche l’esigenza di parlare di sanità, di effetti sanitari nel campo dell’AIA, questa è un’altra tematica su cui bisogna riflettere. Quello che è certo, è che è indispensabile che le istituzioni scientifiche e le amministrazioni centrali e periferiche del settore ambientale e di quello sanitario su questa fondamentale tematica parlino e riflettano insieme e diano indicazioni utili ai nostri decisori. Arezzo 20 - 23 novembre 2012 135 21 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute La valutazione di impatto sanitario (VIS) come strumento decisionale per uno sviluppo sostenibile "Applicazione sugli effetti a breve termine dell’esposizione a inquinanti dell’aria in regione Lombardia" Dipartimento di Statistica dell’Università di Firenze Trascrizione non revisionata dal relatore Michela Baccini L’oggetto di questa presentazione è uno studio sull’impatto a livello regionale dell’inquinamento atmosferico e sulla mortalità nella regione Lombardia che è stato condotto dall’Università di Firenze, dall’Università degli Studi di Milano e dalla Fondazione IRCCS dell’Ospedale Maggiore Policlinico. La valutazione di impatto ambientale, di cui stiamo oggi parlando, è diventata particolarmente rilevante e sta prendendo campo fino dall’anno 2000. Nell’ambito dell’inquinamento atmosferico, quindi in ambito urbano, è particolarmente rilevante effettuare le valutazioni di impatto, perché in questo contesto la grandezza delle stime di rischio, dei rischi relativi, è molto piccola, c’è però il problema che tutta la popolazione è esposta a problemi di inquinamento talvolta superiori alle norme di legge. Quindi, anziché comunicare in termini di rischi relativi, diventa importante comunicare in termini assoluti, in termini di numero di decessi attribuibili, anni di vita persi, perché questi indicatori sono maggiormente fruibili, anche più diretti, e possono essere capiti in modo migliore da tutti i soggetti che sono coinvolti nel processo decisionale o che dovrebbero esserlo, quindi sia dai cittadini, sia dai politici. In Italia, riguardo alle stime di impatto dell’inquinamento atmosferico in ambito urbano sono stati fatti alcuni studi condotti dall’OMS e poi lo studio MISA su tredici città italiane. I risultati dello studio che sto adesso presentando sono relativi alla regione Lombardia per il periodo 2003-2006. Quello che sto riportando adesso sono gli effetti relativi al PM10, lo studio è stato condotto anche su altri inquinanti come per esempio NO2. In questo studio ci siamo focalizzati sull’effetto a breve termine, perché è più immediato ed è quello su cui si può intervenire subito ed è quello che ci fa vedere cosa accade se noi riduciamo subito i livelli di inquinamento. L’impatto è stato valutato in termini di numero di decessi attribuibili, per fare questo è necessario combinare la curva concentrazione-risposta con i livelli di inquinamento e anche con la mortalità di base osservata in questo caso a livello regionale. L’approccio che abbiamo usato, rispetto allo studio OMS che è quello più noto in questo ambito, è originale perché fa uso di dati locali per la stima della funzione esposizione-risposta e inoltre perché sono stati specificati degli scenari controfattuali definiti, in termini di concentrazione giornaliera di PM10, sulla base di quelle che sono le norme di legge e le indicazioni dell’OMS. Lo studio ha coinvolto 13 aree della Lombardia, 11 città con più di 50.000 abitanti, quindi tutti i capoluoghi di provincia, tra questi è incluso anche Sondrio,che è sotto i 50.000 abitanti, e tutti i comuni appartenenti alla provincia di Lodi che sono stati considerati come un’unica area. Per quanto riguarda la stima degli effetti degli inquinanti, non sono stati presi in considerazione comuni più piccoli perché la stima sarebbe stata veramente incerta e anche, talvolta, impossibile da ottenere. I dati sono quelli della rete di monitoraggio dell’ARPA. Per quanto riguarda le stime di effetto, si è utilizzato una procedura a due passi che ha consentito di ottenere, per ciascuna area, una stima dell’effetto dell’inquinante che tenesse conto sia dell’informazione dell’area stessa, sia delle informazioni provenienti dalle altre aree, questo sia per avere un guadagno in precisione nel momento in cui si mettono insieme più dati provenienti da più aree, sia per conservare allo stesso tempo la specificità dell’area, quindi fare in modo che queste stime potessero anche essere eterogenee tra loro, rispecchiando la diversa struttura demografica delle città e anche la diversa composizione dell’inquinante, del PM10, la diversa origine dell’inquinante. Il modello di concentrazione-risposta è questo (slide), dove y con i è il numero dei morti osservato che è dato per noi dal prodotto del numero di morti baseline, cioè a un livello t0 di inquinante, moltiplicato per il rischio relativo. I decessi attribuibili come sono calcolati? Sono dati dalla differenza tra il numero dei morti osservati e il numero di morti che si sarebbero osservati se l’inquinante fosse stato a un livello t0 anziché al livello osservato. Ogni volta che l’inquinante va al di sopra del livello t0 fissato si ha un certo numero di decessi attribuibili all’inquinamento. Questi decessi attribuibili possono proprio essere letti come decessi attribuibili a eccessi dell’inquinante oppure anche come decessi che si sarebbero potuti risparmiare, cioè numero di vite salvate, se il livello dell’inquinante fosse stato a livello t0. Che livelli abbiamo considerato in questo studio? Abbiamo considerato il livello di 20 μg/m³ indicato nelle linee guida dell’OMS, quello di 40 che è il limite dell’Unione Europea, questo per quanto riguarda le medie annuali, nel caso in cui si superassero questi limiti di 20 o di 40 μg, si è provato a vedere che cosa sarebbe accaduto se l’inquinante fosse stata diminuito, fosse stato minore del 20% a livello osservato, infine qual è il livello di mortalità attribuibile ai superamenti giornalieri che non possono essere più di 35 a livello di 50 μg/m³. i risultati sono pubblicati in un articolo sull’American Journal of Epidemiology. Questi box plot (slide), rappresentano le stime di effetto per tutte le aree considerate, come si vede, l’unico box plot che si discosta dagli altri è quello di Milano, quindi sostanzialmente c’è una omogeneità dell’effetto nella regione Lombardia ma la città di Milano mostra un effetto dell’inquinante un po’ più elevato. In questa tabella sono riportati, nelle quattro colonne, con RS0, RS1, i decessi attribuibili, con i relativi intervalli di confidenza, al superamento del PM10 delle soglie che vi do detto prima, quindi la prima colonna RS0 è relativa alla soglia di 20 μg/m³, quella molto restrittiva, quella 136 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 21 Novembre bassa dell’OMS, la colonna RS1 ha la soglia 40 μg/m³ e le due colonne successive, RS2 e RS3, a quella diminuzione del 20% del livello dell’inquinante. Per esempio per la città di Milano si nota che se il livello dell’inquinamento annuale, anziché quello osservato che è pari a 52.5 μg/m³, fosse stato di 20 μg/m³, si sarebbero potute risparmiare 232 morti, se il livello fosse 40, il numero di morti risparmiate sarebbe stato 89, se il livello dell’inquinante, anziché 52.2 fosse stato pari a 42, cioè il 20% in meno, ci sarebbe stato un risparmio di 75.3 morti, quindi nella città di Milano c’è un impatto che è abbastanza sostanziale. In questa slide gli stessi risultati per i primi due scenari sono riportati in termini di ACR, vale a dire numero di morti attribuibili per 100.000 abitanti. Si vede che a Milano sono 17.8 per il primo scenario di 20 μg/m³, 6.9 per il secondo scenario. Qui sono invece riportati i risultati relativi ai superamenti del limite giornaliero, anche in questo caso si vede che, sempre su Milano, c’è un eccesso di mortalità di 96.6 unità. Questo stesso approccio di stima dei decessi attribuibili è stato poi esteso all’intera regione, quindi si è considerata la stima globale di effetto, si sono considerati i livelli di inquinamento in ciascun comune, stimati da un modello di tipo deterministico sviluppato dall’ARPA e quindi per ciascun comune sono stati stimati numero di decessi attribuibili, questo per l’anno 2007. si vede chiaramente che l’area della pianura padana e le aree intorno a Milano e a Brescia sono quelle dove il burden di mortalità legato agli eccessi di PM10 è più sostanziale. Le conclusioni sono quelle che abbiamo detto, c’è un impatto abbastanza sostanziale degli eccessi di PM10 sulla mortalità, quello che è interessante è che anche una riduzione del 20% dei livelli di PM10 ci potrebbe ridurre di più del 30% il numero di decessi attribuibili ai livelli elevati di PM10, quindi qualsiasi riduzione del livello dell’inquinante ci dà un beneficio in termini di vite salvate. Detto questo, le politiche per la riduzione dell’inquinamento atmosferico e quindi le concentrazioni di PM10, che nelle parti urbane e nella parte centrale della Lombardia sono verosimilmente dovute a traffico veicolare, sono auspicabili. Arezzo 20 - 23 novembre 2012 137 21 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute La valutazione di impatto sanitario (VIS) come strumento decisionale per uno sviluppo sostenibile "Il Progetto LIFE+ HIA21: un’esperienza partecipata di VIS sul trattamento dei rifiuti urbani" Presidente ISDE Italia Roberto Romizi Il progetto LIFE+ HIA21 Dal 1° Settembre 2011 e fino al 31 Dicembre 2014 si svolgerà il progetto LIFE+ 10ENV/000331 “Valutazione partecipata degli impatti sanitari, ambientali e socioeconomici derivanti dal trattamento di rifiuti urbani - HIA21” che vede coinvolte le regioni della Toscana e dell’Abruzzo. Ente proponente del progetto è l’Istituto di Fisiologia Clinica del Consiglio Nazionale delle Ricerche. Il partenariato si compone di ARPA Emilia Romagna, Azienda USL n. 8 Arezzo, Comune di Lanciano (CH), Consorzio Mario Negri Sud, Coordinamento Nazionale A21L, ISDE Italia, Provincia di Chieti. Il progetto HIA21 serve per realizzare valutazioni sull’impatto ambientale, sanitario e socioeconomico (VIS o HIA, Health Impact Assessmet) di due differenti sistemi di gestione dei rifiuti (discarica di Lanchiano – CH e inceneritore di Arezzo), supportando chi deve prendere decisioni in proposito, ad effettuare la scelta migliore tra le alternative possibili per future iniziative, nonché individuare miglioramenti nelle modalità gestionali in essere. Il progetto produce raccomandazioni ai decisori derivanti dalle attività dei Gruppi di Lavoro VIS nei due territori coinvolti; scenari alternativi per il sistema di gestione dei rifiuti nelle due aree; percorsi di comunicazione e partecipazione (forum, focus group, incontri con le popolazioni interessate). L’ambizione principale del progetto è quella di produrre delle metodologie di valutazione partecipata e il più possibile estendibile negli ambiti nazionale ed europeo, con auspicabili ricadute positive nel breve periodo sul sistema di gestione dei rifiuti nei territori di studio e a lungo termine sulla politica di gestione dei rifiuti a livello dell’Unione Europea. Il progetto si presenta innovativo rispetto a diversi punti: - I sistemi di valutazione esistenti (VIA, VAS) se da un lato sono dettagliati per ciò che concerne gli aspetti ambientali, non vengono di solito orientati sulle possibili conseguenze sanitarie e socioeconomiche; la VIS copre questo gap, ed è inoltre attuata da un tavolo di lavoro (GdL VIS) che comprende organi terzi ed indipendenti, mentre la VIA è una valutazione presentata dal proponente; - L’integrazione A21L e VIS appare il sistema più coerente per dare attuazione ai principi di trasparenza, condivisione, uguaglianza e dignità ribaditi anche dall’art. 1 del Trattato di Lisbona; - Con questo procedimento, viene rafforzata la consapevolezza dei cittadini sul ruolo che essi hanno nelle politiche di gestione del territorio; il cittadino non è più un soggetto passivo che delega le decisioni ad altri organi, ma si trasforma in soggetto attivo, con un suo ruolo nel controllo delle politiche di pianificazione e sorveglianza; - In Italia non esiste una valutazione organica degli impatti sanitari, ambientali e socioeconomici di impianti di trattamento dei rifiuti; i risultati di questo progetto rappresenterebbero il primo caso in tal senso nel Paese; - Le politiche di gestione del ciclo dei rifiuti sono molto diversificate nei 27 Paesi dell’Unione, e diversificate sono anche le procedure di valutazione dei rispettivi impatti; il progetto vuole gettare le basi per creare una metodologia comune e condivisa a livello comunitario, che contribuisca anche ad armonizzare ed uniformare le differenti politiche di pianificazione. Il progetto, in definitiva, deve intendersi come ‘pilota’, costituendo un precedente applicabile successivamente in altri ambiti, nazionali ed europei. Perché è importante la VIS? La VIS favorisce l’informazione, la partecipazione, la comunicazione (advocacy), l’integrazione, la prevenzione e il principio di precauzione, un uso appropriato delle risorse, equità e giustizia sociale, il ruolo di medici sentinella sulla prevenzione dei fattori di rischio collettivi (ambientali), rispetto a quelli individuali. La VIS favorisce l’informazione. Un primo questionario, distribuito sia in formato cartaceo che tramite web dal sito www.hia21.eu, è servito per raccogliere informazioni sulla percezione del rischio e dei pericoli ambientali; informazioni sulla conoscenza che ha la cittadinanza relativamente ad inceneritori e discariche, sulla raccolta differenziata e informazioni di carattere 138 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 21 Novembre socio-demografico. La VIS favorisce la partecipazione. Il progetto prevede poi la costituzione di focus group: - uno di carattere politico-generale. Le azioni in essere hanno creato una quadro sintetico delle politiche di gestione del territorio e portato a raccogliere documentazione e dati relativi all’inceneritore ed agli impianti di smaltimento. Nell’insieme tali informazioni indirizzano il focus ad affrontare i seguenti temi: Piano Regionale, Piano interprovinciale, Costi, Obiettivi per il Comune; - uno che lavorerà sui risultati preliminari dell’indagine conoscitiva relativa a dati sanitari, ambientali, socioeconomici. I temi da approfondire sono le valutazioni dell’indagine sanitaria, dell’indagine ambientale e dell’indagine socioeconomica. Nella nostra realtà è attivo il Progetto Città Sane il cui obiettivo è la promozione della salute della città e dei suoi abitanti attraverso un’azione globale che coinvolga tutti i settori della vita cittadina, e non solo i servizi sanitari che si occupano principalmente di malattie. Il Progetto Città Sane si basa su due principi chiave della “Salute per tutti”: l’intersettorialità e la partecipazione comunitaria. La VIS favorisce l’advocacy. Advocacy significa farsi promotore e attivamente patrocinare la causa di qualcun altro. Nel campo della salute, l’advocacy consiste nell’uso strategico di informazioni e altre risorse (economiche, politiche, ecc.) per modificare decisioni politiche e comportamenti collettivi ed individuali allo scopo di migliorare la salute di singoli o comunità. L’Advocacy consiste nello sforzo di modificare gli esiti di politiche pubbliche o di decisioni allocative che hanno un impatto diretto sulla vita delle persone. (a cura di Angelo Stefanini – Regione Emilia Romagna). Produrre conoscenze adeguate non ha impatto sulla salute finché queste non sono trasferite efficacemente ai decisori politici. É bene prendere coscienza che nonostante le stime - ormai prodotte con discreta precisione da anni - della misura della catastrofe da amianto, la sola disponibilità dei dati epidemiologici non sarebbe stata sufficiente per arrivare al bando. Ciò che questa esperienza ha dimostrato è la capacità delle ONG di coinvolgere l’opinione pubblica. Non è emersa invece una grande abilità da parte degli operatori di condividere i loro dati con l’autorità politica e l’opinione pubblica. (B. Terracini, 1999). La VIS favorisce il superamento degli ostacoli al fine di attuare un’azione intersettoriale – interistituzionale: il “territorialismo” (le istituzioni ed organizzazioni difendono la propria area di competenza da ciò che percepiscono come “minacce d’ingerenza”, perdita di prestigio, potere); la competitività per risorse finanziarie limitate; le “agende nascoste” (sia a livello individuale che di settori, istituzioni e organismi); la mancata comprensione dei benefici che si potrebbero ottenere; i rapidi cambiamenti organizzativi e nel turn-over del personale. La VIS favorisce il PRINCIPIO DI PRECAUZIONE. E’ un approccio alla gestione dei rischi che si esercita in una situazione d’incertezza scientifica, che reclama un’esigenza d’intervento di fronte ad un rischio potenzialmente grave, senza attendere i risultati della ricerca scientifica. Il principio contrasta l’atteggiamento di “stare a vedere cosa succederà prima di prendere provvedimenti” per non turbare interessi in gioco diversi da quelli di salute. Le origini del Principio di Precauzione. - Trattato Istitutivo dell’UE, art. 174 (Mastricht. 1992): “La politica della comunità in materia ambientale mira a un elevato livello di tutela…. Essa è fondata sul principio della precauzione dell’azione preventiva, sul principio della correzione in via prioritaria alla fonte dei danni causati all’ambiente…” - Conferenza ONU Ambiente e Sviluppo – Principio 15 ( Rio de Janeiro, 1992): “Allo scopo di proteggere l’ambiente, gli Stati applicheranno l’approccio precauzionale. Qualora vi siano minacce di danno grave o irreversibile, la mancanza di una piena certezza scientifica non sarà usata come ragione per posporre misure efficienti in rapporto ai costi per prevenire il degrado ambientale”. “Nelle aree a rischio le attività potenzialmente pericolose vengono comunque permesse, dato che le regole della scienza tradizionale richiedono forti evidenze per individuare l’effetto dannoso. Questo conservatorismo scientifico è favorevole ai promotori di attività o tecnologie potenzialmente pericolose in quanto la ricerca non è in grado di produrre dati sufficienti a dimostrare il rischio. Quando esiste una forte incertezza circa i rischi e i benefici la decisione deve tendere più verso l’estremità della cautela per l’ambiente e la salute pubblica. Oggi le agenzie governative sono poste nella condizione di dover attendere la chiara dimostrazione del danno, Arezzo 20 - 23 novembre 2012 139 21 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute prima di poter intervenire. Per i medici trasformare l’approccio in modo precauzionale è pienamente in linea con l’idea fondamentale della pratica di Sanità Pubblica”. La VIS favorisce le strategie e le politiche per la PREVENZIONE. Quando sono noti gli effetti nocivi di una tecnologia o di una sostanza occorre adottare tutte le misure per prevenire tali effetti sull’ambiente e sulla popolazione. Le domande dei politici focalizzano l’attenzione sulla quantificazione di un potenziale pericolo piuttosto che sulla prevenzione: qual è il rischio posto da questa attività? É significativo? Qual è il rischio accettabile? Occorre invece spostare l’attenzione su queste domande: L’attività proposta è necessaria? Quanta contaminazione possiamo evitare, pur raggiungendo gli stessi obiettivi previsti? Esistono alternative che escludono del tutto il pericolo? I LIMITI DI LEGGE TUTELANO DAVVERO LA SALUTE? Esiste un EFFETTO SOGLIA, ossia una concentrazione al di sotto della quale non si registrano effetti sulla salute? E’ il problema del rischio accettabile. I limiti di legge sono sempre calcolati su individui adulti: i bambini e gli organismi in accrescimento possono avere una suscettibilità totalmente diversa!!! La VIS favorisce l’attivazione dei MEDICI SENTINELLA. Una “Rete di Medici Sentinella” sono principalmente una Rete di Medici di Medicina Generale . La loro funzione è quella di monitorare incidenza, prevalenza e progressione di una malattia o di una serie di patologie nel tempo in gruppi di popolazione o in zone geografiche prestabilite. Le esperienze fino ad ora hanno riguardato la rilevazione di diverse patologie tra cui diabete, influenza e AIDS. L’ISDE ha realizzato una sperimentazione nel contesto della Ricerca Sanitaria Finalizzata della Regione Toscana, segnatamente la “Cartella medica orientata per problemi ambientali per medici di Medicina Generale” con particolare riguardo alle BPCO. Dal Novembre 2011 al Gennaio 2013 è stato portato avanti ad Arezzo un Percorso di formazione e aggiornamento del Medico di Medicina Generale sulle tematiche di salute e ambiente dal titolo “Salute e Ambiente in Toscana: l’esperienza di Arezzo”, organizzato da ASL 8 Arezzo, Scuola Internazionale Ambiente Salute e Sviluppo Sostenibile - SIASS e Istituto Superiore di Sanità, in collaborazione con coordinamento animatori di formazione MMG Regione Toscana, FIMMG Toscana, SIMG Toscana, ARS, ARPAT, Regione Toscana, ISPO, CNR, coordinamento Agenda 21, Rete Città Sane/OMS, ISDE. Il percorso SAT MMG rappresenta un’esperienza pilota che analizza il potenziale ruolo dei medici di famiglia quali “mediatori dei conflitti ambiente-salute correlati“. Il MMG “può” rappresentare il punto di raccordo tra la popolazione e le istituzioni in quanto punto di riferimento dei propri pazienti. E’ stato definito un “documento “ a cura della Medicina Generale sulle 4 tematiche: discariche, inceneritori, centrali a biomasse, inquinamento atmosferico urbano. Perché ISDE è interessata alla VIS? L’Associazione Medici per l’Ambiente - ISDE Italia è un’associazione interdisciplinare finalizzata alla protezione delle popolazioni dai rischi ambiente e salute correlati. Soci 2012: oltre 600, 64 referenti locali di cui 45 presidenti di sezioni provinciali formalmente costituite (25 dei quali sono MMG). Perché i medici clinici devono occuparsi di ambiente? Il rischio ambientale è compito degli MMG? Quanto incide l’impatto dell’ambiente sulla salute? Si stima che il 24% della malattie e il 23% delle morti possa essere attribuito ai fattori ambientali. Più di un terzo delle patologie nei bambini è dovuto a fattori ambientali modificabili. Stime precedenti delle malattie attribuibili all’ambiente, derivate in parte dall’opinione di esperti, erano in generale accordo. Oggi l’inquinamento è un fenomeno ubiquitario e capillare e l’esposizione agli agenti epi-genotossici fisici (radiazioni ionizzanti e non), chimici (metalli pesanti, interferenti endocrini, pesticidi, diossina, ecc…), biologici (transgenici e virus), che persistono nell’ambiente, si bioaccumulano negli esseri umani e causano trasformazioni genomiche, va ad interessare l’intera popolazione umana, le generazioni future, l’intera eco/biosfera. Inoltre riguarda non solo le patologie neoplastiche, ma tutte le patologie cronico-degenerative (cardio-vascolari, immuno-mediate/immuno-flogistiche, neuro-endocrine, neuro-degenerative). ISDE si confronta con la “politica” attraverso azioni di pressione su Governi e Organizzazioni Internazionali, Nazionali e Locali ed azioni di verifica del rispetto delle normative, ma anche di proposta. L’alleanza tra organismi governativi e organizzazioni non governative è strategica e reciprocamente vantaggiosa, 140 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 21 Novembre in ragione delle differenti e complementari specificità e modalità d’azione (in particolare, maggior libertà d’azione delle ONG). Obiettivo societario è quello di promuovere azioni di collaborazione informativa (non “di consulenza”, che è sempre di parte) con associazioni, movimenti, comitati di cittadini, con i partiti politici e con le istituzioni preposte alla promozione e alla protezione del binomio ambiente-salute. “L’ISDE si ripropone di dare gli strumenti culturali e di critica sanitario-ambientale per orientare il territorio”. Si tratta di mostrare che le istituzioni pubbliche non sono al servizio degli sponsor privati…… L’ISDE ha promosso la Rete Italiana Ricercatori per la Responsabilità Ambientale e Sociale – RIRAS che persegue tra i vari obiettivi quello di spingere i decisori politici e gli amministratori istituzionali (anche attraverso un controllo sempre più attivo da parte della comunità scientifica e di comitati di cittadinanza attiva) a interloquire ed ascoltare esperti di diverso orientamento e di sicura competenza privilegiando in ogni occasione gli interessi collettivi e pubblici ed evitando che sussistano conflitti di interesse che possano condizionare le scelte. Arezzo 20 - 23 novembre 2012 141 21 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute Verso MILANO EXPO 2015 - Agricoltura, sostenibilità e salute "Sostenibilità delle filiere agricole. La nuova sfida dell’agricoltura: produttività e sicurezza alimentare" Ezio VeggiaConfagricoltura Trascrizione non revisionata dal relatore Buongiorno a tutti, come annunciato io sono il vicepresidente di Confagricoltura ma soprattutto sono un agricoltore, un allevatore, un produttore di cereali del monferrato quindi non in una zona particolarmente vocata alle grandi produzioni. Una zona che può offrire delle soddisfazioni però con delle criticità che vanno superate con attenzione. Io vi parlerò di bioeconomia che ha e rappresenta un grande potenziale in quanto può mantenere e alimentare la crescita economica, la creazione di posti di lavoro, ridurre la dipendenza dai combustibili fossili, migliorare la sostenibilità economica e ambientale della produzione primaria. La bioeconomia in Europa rappresenta circa 2 mila miliardi di giro d’affari ed impegna il 10% di occupati cioè oltre 20 milioni di persone in Europa. Si può stimare per quanto riguarda l’Italia un 10% di questo peso, quindi 200 miliardi circa e l’impegno di 2 milioni di occupati, quindi come si può capire un settore che può dare grandi soddisfazioni per il futuro. Confagricoltura si è sempre occupata con attenzione di bioeconomia in quanto riteniamo che l’impegno dell’agricoltore vada visto a 360 gradi. Naturalmente l’aspetto principale del produttore agricoltore è quello di produrre cibo di qualità, un elemento essenziale per tutto il settore agroindustriale. Soprattutto in questo momento di crisi ci accorgiamo che il settore agroalimentare è un po’ in contro tendenza, sta tenendo abbastanza bene praticamente vale tra il 15 e 17% del PIL e potrebbe riservare grandi soddisfazioni per il futuro. La bioeconomia è un aspetto del settore agricolo che praticamente deve sostenere 4 sfide sostanziali: Garantire la sicurezza alimentare. La sicurezza alimentare è un argomento che nel nostro paese abbiamo sempre considerato perché è la nostra cultura la nostra tradizione, rispetto ad altri paesi del nord, è un concetto che abbiamo sempre avuto molto radicato. Gestire le risorse naturali in modo sostenibile. La gestione delle risorse naturali in modo sostenibile è un concetto che si è fatto strada negli ultimi 20-30 anni. Nel dopo guerra non ci preoccupavano di gestire le risorse in modo sostenibile in modo da portare alle future generazione le stesse opportunità, un ambiente equilibrato che abbiamo trovato. È un discorso che si è fatto strada con lo sviluppo industriale con il grosso sfruttamento delle risorse naturali che si è affermato sempre di più negli ultimi anni. Un discorso che si è fatto strada a partire dal secolo scorso condiviso da tutti. Un’altra sfida è ridurre la dipendenza dalle energie non rinnovabili. Questo è un concetto che si è affermato sempre di più negli ultimi anni. Fino a 10-15 anni fa si sentiva parlare poco di energie rinnovabili, di energia da risorse rinnovabile. Soprattutto noi in Italia siamo partiti un po’ ritardo, la Germania già alla fine degli anni 80 aveva affrontato questo problema, noi abbiamo perso 10-15 anni poi abbiamo recuperato parecchio. La quarta sfida importante è quella di attenuare e adattarsi ai cambiamenti climatici. È sotto gli occhi di tutti che gli eventi atmosferici sono sempre più intensi e causano gravi danni, vuoi per la loro intensità, vuoi anche per la scarsa presenza dell’uomo in aree marginali dove la sostenibilità dell’attività agricola non ha più l’aspetto economico per cui vengono abbandonate e questo si tramuta in grossi rischi dal punto di vista idrogeologico. Questi 4 concetti per parlare di sostenibilità come anche indicata dalla Comunità Europea come uno sviluppo che deve essere smart, sostenible e inclusive. Smart, intelligente, innovativo alla ricerca di nuovi percorsi. Sicuramente questa è una cosa importante perché da uno studio è stato stimato che per ogni euro investito oggi in bioeconomia, genererà 10 euro di qui al 2025. Quindi è un percorso quasi obbligato. Inclusivo, lo sviluppo agricolo è orientato su questo aspetto perché tutti gli studi ci dicono che nei prossimi anni tutta la popolazione sarà concentrata nelle grandi metropoli. Ci sarà un impoverimento dal punto di vista della presenza nelle aree marginali. Un impegno verso un agricoltura sostenibile potrebbe fare in modo di contenere questo percorso che potrebbe causare gravi danni inseguito alla mancanza della presenza dell’uomo in determinate aree. Poi la sostenibilità vera e propria, quella che è fatta dell’aspetto ambientale, dell’aspetto sociale e dell’aspetto 142 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 21 Novembre economico. Non mi soffermo più di tanto sull’aspetto ambientale condiviso da tutti. Sull’aspetto sociale qui vorrei spendere due parole per quanto riguarda le agroenergie. In particolare non va sottovalutato l’aspetto economico non perché si voglia fare business a tutti i costi, semplicemente perché è una pura illusione cercare di fare sviluppo sostenibile trascurando l’aspetto economico perché se una determinata pratica particolarmente virtuosa condividibile da tutti non è però sostenuta dall’aspetto economico prima o poi verrà abbandonata. Questo è un aspetto molto importante di cui deve tener conto chi scrivere le normative, chi scrive le leggi. Devono essere fatte in modo che possono essere rispettate anche dal punto di vista economico. Quindi uno sviluppo che deve badare all’innovazione, alla competitività dei diversi settori. Non possiamo fare a meno di un salto di qualità, le nostre imprese essere protagoniste di una crescita verde che sia coniugata con un miglioramento della competitività rispetto ai partner internazionali. Integrazione delle politiche Europee. Noi abbiamo, una politica integrata a livello europeo che è la PACK, forse più di altre nazioni abbiamo un integrazione degli indirizzi con l’Europa e anche qui abbiamo notato come i diversi paesi a seconda di come viene interpretata la PACK hanno più o meno dei benefici. Proprio in questi giorni si sta discutendo sul futuro della PACK che verrà nei prossimi sette anni allargata ai nuovi paesi che sono entrati a far parte della Comunità Europea. Si sta discutendo sul mantenimento dei budget, fortunatamente il Governo ha preso una posizione forte dicendo che qualora non fosse mantenuto il budget adeguato per il sostegno delle nostre agricolture, in particolar modo per le agricolture mediterranee (Francia, Italia e Spagna), l’Italia potrebbe valutare la possibilità di porre il veto. Quindi una posizione molto forte, che Confagricoltura apprezza moltissimo perché finalmente si capisce quanto in un paese sia importante sostenere il comparto agricolo anche per la funzione che svolge a livello ambientale. Consolidare il concetto di un agricoltura sostenibile cioè ottenere maggiori raccolti su minori superfici utilizzando minori quantità di acqua di mezzi chimici e di energia. È indispensabile disporre di un agricoltura competitiva che produce reddito. Voglio ricordare qui alcuni dati, in Italia abbiamo una superficie agricola totale di 17 milioni di ettari. Di questi 17 milioni che corrispondono al 57% del territorio nazionale, 8,8 milioni sono dedicati alla coltivazione agricola alla SAU (Superfice agricola utilizzabile) è un dato significativo che testimonia quanto sia importante l’agricoltura sul mantenimento del territorio, è però importante che in questi ultimi c’è stata una riduzione consistente. Negli ultimi 30 anni questo dato è diminuito del 20%. A questo punto vorrei aprire una parentesi sul consumo del suolo, sulla riduzione del suolo che serve per la produzione di cibo e anche sulla sostenibilità dell’agricoltura. In questi ultimi tempi ha preso piede il concetto di multifunzionalità dell’agricoltura quindi si sono aperti nuovi spazi ad esempio l’agriturismo, conosciuto da tutti, che ha preso piede negli ultimi 20-30 anni e che ha contribuito moltissimo dal punti di vista della diversificazione dell’attività agricola a dare competitività soprattutto in certe aree marginali. In questi ultimi tempi si sono affacciati al settore agricolo nuove opportunità che riguardano il settore delle agroenergie. Io in particolare in Confagricoltura ho la delega in questo settore quindi è dal 2005 che lo vivo in prima persona sia come rappresentante di Confagricoltura che come agricoltore. Infatti io ho messo un piccolo impianto fotovoltaico per uso aziendale, ho inserito nella mia azienda un impianto a biogas per la produzione di energia soprattutto con lo sfruttamento delle delezioni animali, io avevo suini, pollame e cereali. Quindi tutto indirizzato allo sfruttamento di questi sotto prodotti e successivamente anche all’utilizzo di produzioni marginali che mi hanno permesso di recuperare dei terreni che erano stati abbandonati. Molti di voi avrenno visto su giornali delle discussioni che sono nate sulle opportunità o meno di questi impianti per la produzione di energia. Confagricoltura da sempre sostiene che questa è un opportunità da non perdere, da valutare attentamente ma allo stesso tempo sia collocato in un contesto equilibrato cioè in un contesto aziendale esistente. Quello che potrebbe causare squilibri sul territorio anche dal punto di vista socio economico è l’inserimento di grandi impianti che non hanno un collegamento con le realtà territoriali. Mentre invece quando l’impianto è inserito ad hoc su un azienda o su più aziende per creare ottimizzazioni ecco che questo può contribuire all’azienda a raggiungere competitività maggiore. Io ho visto tantissime stalle da latte piuttosto che allevamenti di suini, che in forte crisi, perché questi ultimi anni sono stati di forte crisi per la zootermia in generale, indirizzarsi anche a queste nuove opportunità fare con coraggio degli investimenti in momenti difficili ed aver superato in parte naturalmente il momento critico. Ora non si parla più di chiudere la stalla, ma si parla di chiudere un ciclo utilizzando sottoprodotti aziendali per fare energia molta della quale viene utilizzata direttamente dall’azienda e successivamente con l’utilizzo di quello che si chiama digestato che praticamente è il sotto prodotto della digestione anerobica che è un ottimo fertilizzante. In questo caso a me sembra che sia un ottima soluzione. Diversamente voglio fare l’esempio del fotovoltaico dei grossi impianti a terra cosa che non abbiamo mai condiviso perché oltre a fare una sottrazione di terreno, a dire il vero piuttosto limitata, ma soprattutto se parliamo di sviluppo sostenibile in questo caso non abbiamo ne vantaggi dal punto di vista sociale ne vantaggi dal punto di vista economico nemmeno il vantaggio ambientale, ma sappiamo tutti che certi grossi impianti sono stati finanziati da fondi stranieri sono stati acquistati pannelli all’estero quindi noi consumatori italiani ci limitiamo a contribuire al pagamento della quota senza avere alcun ritorno, alcun beneficio. Questo è stato uno sbaglio, quando si intraprendono nuove strade è possibile fare degli sbagli, l’importante è intervenire velocemente nel correggere il Arezzo 20 - 23 novembre 2012 143 21 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute tiro. Ho sentito più volte il Ministro Passera ammettere apertamente che il fotovoltaico dei primi anni non è stato sufficientemente capito e governato, ora sono stati presi provvedimenti, provvedimenti che però per quello che riguarda l’agricoltura sono anche troppo restrittivi. Noi agricoltori non possiamo nemmeno più fare un impiantino per l’utilizzo aziendale. Quindi si passa da un estremo all’altro. Devo dire che le cose vanno soppesate bisogna trarre insegnamento dagli sbagli che si possono fare in un percorso però bisogna considerare a nostro avviso la grande opportunità che le agro-energie possono rapportare in questo senso. Per quanto riguarda le biomasse, se le cose vengono fatte con l’attenzione al territorio ci possono essere invece dei benefici che oltre al beneficio ambientale vanno a riversarsi anche su benefici a livello sociale e a livello economico perché comunque le biomasse tutti gli anni vanno prodotte e quindi c’è un impegno sul territorio e soprattutto per quello che riguarda le biomasse umide non possono essere trasportate per più di 10-20 km perché il discorso non è più economico quindi è un ritorno sul territorio è una filiera corta con i ritorno dei benefici sul territorio. Credo che agro-energia possa essere un utile strumento per dare competitività alla nostra agricoltura. Vorrei parlare adesso della sicurezza alimentare. In Italia abbiamo delle regole di tutela ambientale e di produzione del consumatore e del benessere degli animali che non hanno uguali al mondo. Anche per quanto riguarda la superfice coltivata in questi ultimi anni abbiamo avuto una riduzione dal 40% all’11% di fungicidi, insetticidi, erbicidi e concimi minerali. Ci sono delle regole molto rigide, a volte non allevatori le abbiamo considerate esagerate le imposizioni che ci arrivavano dall’alto. Però con onesta dobbiamo riconosce che questo sforzo che abbiamo fatto negli ultimi 20 anni ci ha portato dei benefici perché oramai tutto il mondo riconosce che i nostri prodotti agroalimentari sono di altissimo livello e non è un caso che gli ultimi grossi scandali problemi che si sono avuti a livello sanitario negli ultimi 10 anni e parlo del pollo alla diossina, dei mangimi contaminati, dell’influenza aviaria, mucca pazza ecc., non hanno creato problematiche nel nostro paese perché qui abbiamo dei controlli attentissimi. Proprio da questi controlli è risultato, cito alcuni dati del rapporto del Ministero della Salute redige annualmente, che le aziende irregolari che erano nel 2000 il 7,3% sono diventate solo il 4,7% nel 2008 e il 2,5% nel 2011 quindi con un netto trend migliorativo. Ciò che emerge anche dal rapporto del Ministero della Salute pubblicati nella relazione annuale del Piano Nazionale risulta che ben il 99,7% dei campioni ortofrutticoli sono risultati in regola, il 99,8% dei prodotti di origine animale sono risultati in regola e anche nei settori di prodotti particolari come i cereali, oli, vino e baby-food il 99,8% sono risultati in regola. Abbiamo quindi uno 0,2-0,3% di controlli con prodotti non in regola. A questo punto voglio riportare il dato medio europeo che è nel 2011 del 3,11%. Quindi è indubbio che in Italia siamo i più bravi produttori dal punto di vista della sanità e questo merito va riconosciuto all’intero sistema che ha prodotto delle regole, sicuramente molto rigide molto ferree a volte anche accettate con un po’ di difficoltà da parte degli allevatori e produttori ma onestamente bisogna riconoscere che i risultati che si sono ottenuti sono eccellenti. Vorrei accennare anche ad un particolare, il nostro settore zootecnico e anche quello cerealicolo stanno attraversando un momento di forte difficoltà perché inevitabilmente di sono alcune complicazioni una sovrapposizione di controlli e di regole che ci creano dei costi che iniziano a porci fuori mercato, ecco io vorrei che cominciassimo a fare uno sforzo, noi di Confagricoltura siamo disponibilissimi a partecipare ad un confronto per semplificare, ma non abbassare i livelli di controllo, quei controlli ridondanti che creano di costi accessori. Quindi dobbiamo mantenere altissimo il livello della qualità e della sicurezza alimentare, ma dobbiamo impegnarci a fare in modo che questo non vada ad incidere eccessivamente sui costi altrimenti rischiamo come sta succedendo di chiudere le stalle di chiudere la nostra produzione doverci approvvigionare all’estero senza avere più la possibilità di controllare la qualità e la sanità dei prodotti. Voglio accennare al clima. Il problema del clima è sotto gli occhi di tutti, noi abbiamo un compito molto importante che riguarda l’utilizzo corretto dell’acqua in agricoltura. Confagricoltura si sta adoperando già da tempo su questo argomento. Dal punto di vista dell’applicazione della micro-irrigazione abbiamo fatto dei passi in avanti molto importanti occorre ancora lavorare perché l’acqua permette alle colture, se usata nel modo corretto, di ridurre delle fitopatogenicità quindi di utilizzare meno prodotti. Siamo sempre disponibili a partecipare ad un confronto costruttivo. Voglio concludere dicendo che l’agricoltura ha fatto ed è disposta a fare con l’aiuto di tutti senza battaglie ideologiche ma con un analisi approfondita dei dati e delle soluzioni, che la facciamo rimanere sul territorio come attore principale di cui sappiamo essere la prima difensora. Ricordiamoci che senza un agricoltura competitiva il territorio abbandonato dall’uomo non avrebbe futuro. Interviene Silvio Borrello (Ministero della Salute): La ringrazio per la brillante relazione. Vorrei focalizzare l’attenzione su due aspetti perché lei diceva meno controlli da una parte o forse meglio organizzati perché gli agricoltori e comunque le imprese devono in qualche modo lavorare. Proprio su questo, vorrei ricordare che con i nuovi regolamenti comunitari è stato imposto agli stati membri di predisporre un piano unico nazionale integrato per i controlli, siamo al secondo Piano che è stato approvato in conferenza Stato-Regioni e vi devo dire che più passa il tempo con più riusciamo a fare sedere le amministrazioni allo stesso tavolo. Abbiamo avuto una decina di giorni fa una riunione con tutti gli organismi con tutte le amministrazione per rilanciare questo Piano di Azione comunitario previsto dal regolamento 882, per cui siamo sulla buona strada. Il secondo aspetto, sulla 144 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 21 Novembre semplificazione, come direzione grazie anche all’intervento del ministro Balduzzi siamo riusciti a ri presentare in Parlamento un disegno di legge sulla semplificazione e sull’aggiornamento delle nuove normative in materia di sicurezza alimentare che raccorda la vecchia legislazione con i nuovi regolamenti è già all’attenzione del Senato è in discussione , noi contiamo che prima del termine della legislatura avremo questa delega per aiutare le imprese e garantire soprattutto i consumatori. Domanda Valentino Mercati (AssoErbe): Se all’interno delle produzioni, che mi sembra di aver capito sono suini e pollame, se riesci a portare direttamente al consumo quanto più vicino al consumo diretto queste produzioni? Risposta Ezio Veggia (Confagricoltura): Nel mio caso la mia azienda non porta al consumo diretto io produco suini che entrano nel circuito del consorzio di Parma e poi li produco con due allevamenti direttamente per AIA. Naturalmente le tipologie di produzioni sono tantissime, molti agricoltori allevatori della mia zona invece si avvalgono della filiera corta e riescono soprattutto per quanto riguarda le produzioni vegetali. Per quanto riguarda le produzioni animali devo dire che arrivare direttamente al consumo oggi come oggi nel rispetto delle norme sanitarie non è così facile si deve avere delle dimensioni notevoli. La mia scelta è quella di integrarmi in una filiera nazionale cercando di fare il meglio dal mio punto di vista. Sono due scelte diverse entrambe valide che possono portare entrambe a delle grosse soddisfazioni se si lavora bene. Vorrei fare riferimento all’intervento precedente. Mi fa piacere questa sintonia, in passato ci sono stati attriti perché non ci rendevamo conto che facevamo parte dello stesso sistema, adesso lavoriamo tutti con lo stesso obiettivo nel rispetto delle proprie mansioni ed ognuno, qui parlo degli allevatori, si prende carico delle proprie responsabilità credo che tutto ciò che è stato fatto fino ad ora ed è molto è possa essere consolidato e dobbiamo riuscire a superare questo momento di crisi e credo che il futuro ci darà ragione. Arezzo 20 - 23 novembre 2012 145 21 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute Verso MILANO EXPO 2015 - Agricoltura, sostenibilità e salute "Packaging innovativi per il miglioramento della sicurezza e della shelf-life dei prodotti alimentari" Michela FavrettiIZS delle Venezie Buongiorno, sono Michela Favretti sono un medico veterinario e lavoro presso l’Istituto Zooprofilattico Sperimentale delle Venezie (IZSVe), nel Laboratorio di San Donà di Piave, dove mi occupo di sicurezza alimentare. Quello di cui vorrei parlarvi è il confezionamento degli alimenti con packaging tradizionali a confronto con packaging “funzionali”, che hanno una funzione attiva/intelligente; faremo poi una piccola panoramica sull’attività di ricerca dell’IZSVe a San Donà di Piave. Per quanto riguarda il packaging tradizionale, che tutti conosciamo come imballaggio classico per gli alimenti, esso è presente da diverso tempo sul mercato, ha una primaria funzione di contenimento e di protezione degli alimenti rispetto all’ambiente esterno. Non deve avere nessuna interazione con l’alimento, non deve alterare le caratteristiche organolettiche, chimico-fisiche degli alimenti e soprattutto deve avere un effetto di protezione dalle contaminazioni esterne; infine ha un ruolo importante nella comunicazione al cliente, deve cioè contenere le informazioni che attirino il consumatore nell’acquisto di un prodotto rispetto ad un altro. I packaging funzionali hanno degli accorgimenti che permettono di migliorare la semplice protezione data agli alimenti; in genere hanno la funzione di mantenere nel tempo le caratteristiche chimico-fisiche e microbiologiche degli alimenti e allo stesso tempo hanno la capacità di aumentare la vita commerciale di questi prodotti senza però alterarne le caratteristiche. All’interno dei packaging funzionali vi sono gli imballaggi attivi e intelligenti. Il packaging attivo, come dice il nome stesso, agisce attivamente sull’alimento rallentandone il decadimento, quindi l’alterazione, delle caratteristiche proprie dell’alimento. In particolare questi imballaggi agiscono o con il rilascio o con l’assorbimento di specifiche sostanze con l’obiettivo finale di aumentare la vita commerciale di questi prodotti. Esistono diverse tipologie di packaging attivo, vi sono ad esempio gli assorbitori di ossigeno, gli assorbitori o mettitori di CO2 che vengono utilizzati soprattutto per i prodotti a base di carne e a base di pesce. Gli assorbitori di etilene, utilizzati nel caso della frutta per rallentare la maturazione e quindi aumentarne la durata; gli emettitori di etanolo utilizzati soprattutto per i prodotti da forno e infine i film antimicrobici che sono delle pellicole che possono essere messe direttamente a contatto con l’alimento, oppure possono essere utilizzate come basi sulle superfici di lavoro ad esempio nella ristorazione o nell’attività delle macellerie: il loro scopo è quello di migliorare le caratteristiche delle carni o del pesce. La sostanza antimicrobica può essere inclusa direttamente nel materiale d’imballaggio in fase di produzione oppure può essere inserito in un rivestimento che ricopre il film oppure può essere contenuto in un dispositivo posto all’interno della confezione stessa. Il packaging intelligente non ha una vera e propria interazione con l’alimento contenuto ma, attraverso dei dispositivi in genere posti all’esterno della confezione, riesce a fornire informazioni al cliente in particolare sulla storia del prodotto, ad esempio relativamente agli abusi termici. I più conosciuti sono gli indicatori tempo/temperatura che virano nel momento in cui l’alimento è stato per un tempo troppo lungo a temperatura non corretta. Si possono vedere degli indicatori che virano nel colore oppure compaiono dei pallini che si scuriscono oppure si formano delle croci. I più usati sono indicatori della storia termica, quindi degli eventuali abusi termici subiti, ma possono essere anche indicatori della presenza di gas in confezioni dove non dovrebbero esserci, ad esempio nel sottovuoto, oppure possono indicare una mancata integrità del packaging che acquistiamo sotto forma di etichette o di codice a barre, sensori vari, indicatori di radio frequenza. In merito all’attività di ricerca dell’IZSVe, l’istituto ha portato avanti dal 2008 un progetto di ricerca finanziato dal Ministero della Salute incentrato sullo studio di packaging sia attivi che intelligenti per valutare il miglioramento della sicurezza di questi prodotti (nel caso degli imballaggi attivi l’eventuale rilascio di sostanze negli alimenti) e l’aumento della vita commerciale. È stato studiato inizialmente un imballaggio a base di zeolite d’argento, sostanza ad effetto antimicrobico che dovrebbe rallentare la degradazione dell’alimento, su diversi tipi di matrici a base di carne di pollo, manzo, pesce fresco e formaggio fresco. Sono state eseguite analisi microbiologiche volte soprattutto alla quantificazione di microrganismi alteranti come Pseudomonas, muffe e lieviti, carica batterica mesofila, enterobatteri e batteri lattici. Le analisi chimiche effettuate prevedevano la valutazione della degradazione e dell’ossidazione dei grassi, la degradazione delle proteine e soprattutto la cessione d’argento in quanto l’imballaggio che abbiamo utilizzato conteneva degli ioni d’argento; questi infatti possono essere trasferiti all’alimento e di conseguenza essere ingeriti anche dal consumatore finale. Infine sono state condotte anche analisi sensoriali per la valutazione dell’alterazione del colore/odore e sapore/consistenza degli alimenti testati. Quello che abbiamo visto è stata una moderata azione del packaging attivo sulla flora batterica con un rallentamento 146 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 21 Novembre della proliferazione microbica nei prodotti confezionati con questo film. L’insorgenza dei cattivi odori, derivanti soprattutto dalla degradazione delle proteine, è risultata rallentata rispetto ai campioni di controllo confezionati con film tradizionale. Per quanto riguarda l’ossidazione dei grassi non è stato possibile fare alcuna valutazione perché tutti i prodotti testati avevano una quantità di grasso molto bassa, essendo alimenti molto magri. Il rilascio di argento è stato il fattore critico perché in tutte le matrici testate è stato evidenziato un trasferimento degli ioni metallici dal film antimicrobico all’alimento; la quantità di argento rilevata è stata superiore a quanto previsto da un documento dell’EFSA che definisce una quantità massima pari 0,05 mg per kg di alimento. Quindi a nostro parere al momento questi film non sono utilizzabili a causa dell’eccessivo rilascio di argento. Per quanto riguarda lo studio sugli imballaggi intelligenti è stato valutato un indicatore tempo-temperatura (TTI) costituito da un’etichetta da applicare esternamente al prodotto confezionato. Si tratta di un dispositivo in grado di tenere traccia del tempo in cui il prodotto rimane ad una temperatura superiore alla temperatura soglia impostata. Un liquido in esso contenuto, dopo attivazione ad un temperatura inferiore alla temperatura soglia, fluisce lungo una finestrella quando la temperatura a cui è esposto è superiore alla temperatura soglia. Il flusso si ferma solo se la temperatura scende sotto la temperatura di stop, che è di qualche grado inferiore alla temperatura soglia. Il dispositivo visualizza un tempo complessivo massimo di abuso termico pari ad 8 ore. Nel nostro studio sono stati valutati due tipi di questo indicatore utilizzato per il monitoraggio del mantenimento della catena del freddo: uno con temperatura soglia di +4°C e l’altro con temperatura soglia di +8°C. Abbiamo utilizzato questi indicatori tempo/temperatura applicati all’esterno delle confezioni di latte fresco pastorizzato, da conservare a 0°/+ 6° C. Abbiamo mantenuto queste confezioni sia in condizioni ottimali di conservazione (temperatura prevista in etichetta) sia in condizioni di abuso termico. Abbiamo cercato di simulare il comportamento del consumatore che acquista il prodotto al supermercato, lo trasporta in auto, per 2 ore a 20°C, quindi lo conserva nel frigorifero di casa che quasi mai mantiene i 4°C ma spesso raggiunge temperature intorno agli 8°C. Sono state fatte solo delle valutazioni di tipo microbiologico per verificare la correlazione tra quanto evidenziato dall’indicatore e la degradazione microbiologica dell’alimento. Dai risultati ottenuti si evince che l’indicatore con temperatura soglia pari a +8°C risulta affidabile per monitorare il corretto mantenimento della catena del freddo per prodotti refrigerati che devono essere conservati a temperature uguali o inferiori a +4°C; questo nonostante l’evoluzione della carica microbica totale nei campioni di latte non sia stata tale da far pensare che il consumo dell’alimento costituisse un pericolo per la salute del consumatore. Sicuramente questo tipo di indicatori è importante come deterrente per evitare una scorretta conservazione degli alimenti, migliorare la catena distributiva e il rispetto delle temperature. Quello che può essere fatto nel futuro, per quanto riguarda l’IZS, è un approfondimento di questo tipo di imballaggi con zeolite d’argento con un’attenzione particolare al rilascio degli ioni metallici nel prodotto. Inoltre sarà utile effettuare delle prove in vitro per valutare il meccanismo d’azione dell’argento e studiare anche altri sistemi con imballaggi attivi, ad esempio quelli con sostanze naturali come batteriocine, oli essenziali e lisozima. Arezzo 20 - 23 novembre 2012 147 21 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute Verso MILANO EXPO 2015 - Agricoltura, sostenibilità e salute "Il vino sostenibile - Un progetto Italiano per l’EcoSostenibilità nella Vitivinivoltura" Margherita Vitale Ministero dell’Ambiente Buonasera a tutti sono Margherita Vitale della segreteria tecnica del Ministero dell’ambiente e la tutela del territorio e del mare. Vorrei prima di tutto ringraziare gli organizzatori per avermi dato la possibilità di venire a presentarvi il lavoro che stiamo facendo all’interno della task-force creata dal Ministro Clini per la valutazione dell’impronta ambientale dei sistema e dei modelli di produzione e consumo. Oggi vi presenterò in modo generico il lavoro che stiamo portando avanti all’interno della task-force e in modo specifico il progetto a sostegno di una produzione sostenibile nel settore vitivinicolo. Questo lunghissimo nome della task-force non è altro che un partenariato pubblico privato, iniziato circa un anno fa, per lavorare insieme ad una settantina di aziende italiane con l’obiettivo di mettere a punto delle metodologie di valutazione dell’impronta ambientale nelle loro produzioni. L’obiettivo finale è ovviamente quello di ridurre le emissioni di gas serra nel quadro degli impegni che abbiamo assunto all’interno del protocollo di Kyoto e del pacchetto clima energia dell’Unione Europea che è stato firmato nel 2008. Questo lavoro nasce anche dall’esigenza crescente che i prodotti che vanno sul mercato internazionale abbiano delle indicazioni sulla loro impronta ambientale. Spesso e volentieri i nostri prodotti vanno ad usare metodologie messe appunto dai francesi oppure dagli americani nel settore del vino. Per cui abbiamo iniziato a lavorare con le aziende per creare un sistema italiano tarato sulla realtà produttiva italiana. La task-force lavora sostanzialmente attraverso due strumenti principali. Il primo è quello dell’accordo volontario dove non diamo un sostegno finanziario alla aziende ma forniamo un’assistenza tecnica, l’altro è quello del bando pubblico che finanzia l’analisi di carbon footprint di prodotti di largo consumo di 22 imprese piccole e medie. Attraverso gli accordi volontari lavoriamo insieme ad una ciqnuantina di aziende per fare un test realistico e per sperimentare su vasta scala le differenti metodologie di misurazione delle prestazioni ambientali. In sostanza calcoliamo la quantità di gas serra emessi durante tutto il ciclo produttivo di un prodotto (per cui dalla culla alla tomba) e il calcolo della water footprint (l’impronta idrica) che in alcuni settori è molto rilevante, lo vedremo in seguito nel vino, e a seconda dei settori di produzione ai quali ci riferiamo ci possono essere altri indicatori che sono considerati fondamentali. Questa è la lista delle aziende con cui stiamo lavorando come vedete i settori sono diversi. Alla fine della slide c’è una lista di aziende vinicole, a breve vi racconterò cosa stiamo facendo insieme a loro. Il secondo strumento lo abbiamo utilizzato per aiutare soprattutto le piccole e medie imprese che hanno più difficoltà a intraprendere un percorso di sostenibilità per cui il Ministero attraverso un bando pubblico ha co-finanziato 22 aziende nel settore dei prodotti di largo consumo per un totale di un milione e 600 mila euro e insieme a loro abbiamo creato un tavolo tecnico di confronto su tutto il percorso di analisi. Fondamentalmente le aziende sono soprattutto del settore alimentare, quello che ad oggi è più interessato ad intraprendere questo percorso di sostenibilità, il bando è stato lanciato a novembre 2011, entro la primavera del 2013 presenteremo i risultati settoriali sia di questo bando sia di quello degli accordi volontari. Adesso vi racconto un po’ più nel dettaglio uno dei programmi che stiamo sviluppando all’interno di questa task-force. Prima di introdurre il progetto vi dico semplicemente due dati principali che ci aiutano a capire meglio quale è il rapporto tra sostenibilità ed agricoltura. L’agricoltura usa più del 70% delle risorse di acqua dolce disponibile a livello mondiale ed è responsabile del 10% delle emissioni di gas ad effetto serra. Il settore vitivinicolo è una delle colonne portanti dell’esportazione agroalimentare italiana, ha un valore economico importantissimo per il territorio e un ruolo altrattanto importante proprio sulla bellezza del paesaggio italiano. Noi abbiamo voluto sintetizzare tutti questi elementi ossia non solo quelli detti “in” ossia interni al bicchiere che sono la finezza, il gusto, la tipicità, la salubrità ma cercare di dare rilevanza e creare degli indicatori che sapessero anche raccontare e dare valore ai cosi detti elementi “off” ossia la tutela ambientale, la qualità della vita dei viticoltori e dei collaboratori dell’azienda, l’importanza che le aziende vinicole hanno sul paesaggio italiano e l’importanza che hanno queste aziende nel portare avanti delle tradizioni culturali di centinaia di anni. Il progetto si basa soprattutto su quattro obiettivi principali. Abbiamo iniziato facendo un’analisi del profilo attuale della sostenibilità nella viticoltura italiana, questo per capire dove erano i gap principali e dove intervenire maggiormente. Abbiamo poi definito le linee guida per una produzione sostenibile e stiamo sviluppando adesso un codice di sostenibilità, attraverso il quale le aziende potranno certificare da enti terzi le analisi di sostenibilità ed in fine aiutiamo le aziende a comunicare al mercato, al consumatore i benefici di questo cammino sul prodotto finale. Il lavoro lo stiamo portando avanti in partenariato con una serie di grandi aziende vinicole italiane, distribuite su tutto il territorio e caratterizzate da una diversità anche in dimensioni e insieme a tre centri di ricerca: dell’Università di Torino e della Cattolica del Sacro Cuore di Piacenza e dell’Università degli Studi di Perugia. 148 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 21 Novembre Come vi raccontavo prima abbiamo iniziato da un’analisi preliminare del livello di sostenibilità dove fondamentalmente sono emersi come conclusioni prima tra tutte l’atteggiamento responsabile consapevole nella gestione delle azienda vinicola. Uno dei gap che abbiamo rilevato è stato nelle risorse idriche ossia spesso mancano dei piani organici e delle strategie definite d’intervento. Abbiamo notato che ci sono dei buoni margini di miglioramento nella gestione delle risorse energetiche delle lavorazioni del suolo nell’impiego e nell’applicazione di fertilizzanti e nell’uso di mezzi agricoli ma anche che le aziende spesso non dispongono di strumenti adatti per individuare le criticità e per misurare il loro livello di sostenibilità, infine abbiamo notato che ci sono delle insufficienze di comunicazione delle scelte gestionali verso tutti gli stakeholder anche a livello di informazione interna. Su queste basi abbiamo creato una serie di 4 indicatori, i quali fondamentalmente diventeranno degli strumenti per le aziende per poter utilizzare come una auto-valutazione del loro livello di sostenibilità. I 4 indicatori che abbiamo messo a punto: 1. La carbon footprint, che esprime in CO2 equivalente ad il totale dei gas effetto serra associati direttamente o indirettamente all’intero ciclo di vita della bottiglia di vino o dell’azienda stessa a seconda delle scelte. 2. La water footprint che esprime il volume di acqua dolce consumata e inquinata associata ad un azienda viniviticola o a una singola bottiglia in una determinata unità di tempo. 3. Indicatore vigneto che misura le pratiche di gestione agronomica quali ad esempio l’utilizzo degli agrofarmaci la gestione del suolo la fertilità e la sostanza organica le acque superficiale l’uso di macchine agricole e l’analisi degli aspetti legati alla biodiversità 4. L’indicatore territorio che vuole indicare un po’ il concetto di sostenibilità e che valuta gli impatti sociali ed economica, della sostenibilità inclusi la tutela del paesaggio viticolo prendendo anche in considerazione la salute e la sicurezza degli operatori. Alcuni di questi indicatori (carbon footprint e la water footprint) si basano su degli standard internazionali per cui delle ISO, che sono in fase di draft, quello che noi stiamo cercando di fare è di applicare delle ISO che sono sempre abbastanza generiche su una realtà italiana cercando di concludere il progetto con una metodologia tarata sul nostro modello di produzione. Gli altri due indicatori, vigneto e territorio, sono estremamente innovativi e li stiamo sperimentando, il progetto è iniziato un anno fa stiamo concludendo la sperimentazione degli indicatori entro dicembre e presenteremo i risultati al Vinitaly 2013. Le metodologia di questi 4 indicatori verranno tradotte in disciplinari tecnici ossia delle linee guida che permetteranno alle aziende di farsi certificare tutti e 4 i risultati da enti terzi. Il lavoro fatto verrà raccontato da un etichetta che include un codice QR dal quale si accederà al risultato delle analisi dei quattro indicatori. L’etichetta l’abbiamo voluta chiamare “Viva Sostenibile Wine”, Viva significa Valutazione Impatto della Vitivinicoltura sull’Ambiente ed indicherà quali sono i 4 criteri che abbiamo adottato per definire la sostenibilità nel vino. Per cui sarà molto precisa e dimostrabile perché all’interno del codice QR ci saranno tutte le informazioni che potranno dare sostanza e serietà all’analisi che le azienda hanno intrapreso. L’etichetta non vuole penalizzare nessuno. Qualsiasi azienda che decide di intraprendere questa analisi in sostanza inizia un percorso di sostenibilità e a prescindere dal risultato delle analisi riceverà l’etichetta, se poi nel corso dei due anni successivi dimostrerà che è migliorata su uno dei 4 indicatori allora potrà riavere la stessa etichetta con dei valori nuovi, dimostrando in tal modo che ha intrapreso un percorso di sostenibilità e che va migliorando. Questo è solo uno dei progetti che abbiamo sviluppato e che ancora non abbiamo concluso. L’idea dietro a tutto il lavoro della task-force è di mettere a punto su vasta scala delle metodologie di analisi certificate da enti terzi che possano costituire, non solo un driver per il miglioramento ambientale dell’azienda ma anche di competitività sul mercato italiano ed estero. Speriamo anche che questa esperienza si traduca in una sorta di capacity building per il consumatore, laddove più si offrono prodotti ecocompatibili e piaci consumatore imparerà a riconoscere le differenze a capire cosa vogliono dire e magari a chiederlo aumentando la domanda di mercato. Arezzo 20 - 23 novembre 2012 149 21 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute Verso MILANO EXPO 2015 - Agricoltura, sostenibilità e salute "Distonie tra offerta agricola ed attese consumatori" Augusto Tocci Istituto Sperimentale Selvicoltura Inizio dicendo che io farò in bastian contrario. Il motivo per cui sono qui è perché facendo comunicazione, è vero io vado in televisione dalla mattina alla sera. Ma la televisione è uno strumento per parlare non solo del nostro territorio ma anche dei nostri prodotti che poi vanno nelle bocche di noi tutti. Allora è importante dare qualche informazione e fare qualche considerazione. Vi faccio vedere un filmato per fare poi una prima considerazione, che vi farà “drizzare” le orecchie. [filmato]. Nel filmato si vedono le uova rosse, ma da quando. Si qualcuno dice che se le galline mangiano il granoturco le uova vengono gialle, ma chi l’ha detto. Se il granoturco di oggi è chiaro è bianco come quello di una volta forse. Ma anche mia moglie quando vuole fare le tagliatelle compra delle uova particolari che hanno un colore molto intenso. Sicuramente perché a questi animali vengono dati dei prodotti che a dire la verità per la nostra salute non sono dei ricostituenti. Bene se le uova possono fare male, non le mangio, mi oriento sul biologico. Trovo un amico che mi dice che quest’anno ha fatto delle patate eccezionali sono state coltivate biologicamente, ma un po’ di concime l’avrei usato, lui dice si ma non un concime chimico ho usato la “pollina” che è ammessa dalla legge. Ma se si usa la “pollina”, tutti i prodotti, gli antibiotici che vengono dati ai polli dove vanno a finire. Basta abbandona anche il biologico. Bene allora mi oriento sui piccoli frutti del bosco. Ma se guardi i mirtilli sono grossi come le susine, il ribes ha dei grappoli che sembra uva da tavola, le fragole giganti. Ma come è possibile, non saranno mica tutti prodotti transgenici? Abbandoniamo anche i piccoli frutti. Forse i funghi, che ora si trovano in tutte le stagioni perché vengono dall’est, ma qualche anno fa nell’est successe un incidente nucleare, allora penso e il cesio che i funghi lo carpiscono in modo esagerato? Mi oriento sui tartufi che almeno sono un prodotto italiano, ma nonostante la scarsità di precipitazioni il tartufo o meglio il suo profumo si sente da tutte le parti. Stranamente il profumo del tartufo nero e diventato uguale a quello del tartufo bianco. Mi sono informato e ho capito che c’è un prodotto chimico il bismetiltiometano che sicuramente non fa bene alla salute, ma con una bottiglina piccolissima ci si può fare una cisterna di olio al tartufo. Bene alloro mi sono detto meglio abbandonare l’agricoltura perché le distonie tra chi produce e chi mangia sono veramente notevoli. In questo periodo i nostri agricoltori spendono molto per fare l’olio, circa 10€ e lo vendo come olio extravergine d’oliva al supermercato a 2-3€. In questo caso ha ragione l’agricoltore, come è possibile spendere molto di più per una bottiglia di vino che consumi in una serata e per una bottiglia di oli si sta attenti a spendere anche una 10€ mentre invece sappiamo che potrebbe essere un grande aiuto per la nostra salute. Intervento Maria Luisa Colombo (Università di Torino): il commento positivo potrebbe essere che sono esempi un po’ buttati cosi, in realtà la nostra agricoltura, i nostro prodotti, i nostri alimenti sono molto controllati. Intervento Valentino Mercati (AssoErbe): per come l’ho sentita io è un po’ uno spaccato estremo, ma non più di tanto, del vissuto dei consumatori nei confronti del cibo per lo meno dei consumatori che sono culturalmente più avanzati, non quelli a più alto reddito. Intendo per i consumatori culturalmente più avanzati c’è alla base di tutta l’evoluzione a livello mondiale della produzione del cibo la preoccupazione o attenzione alla nostra agricoltura e noi industriali dell’agroalimentare dovremmo capirlo meglio e capire come adeguare la nostra offerta a questi modelli di consumo futuri che non è più per quantità ma per qualità. 150 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 21 Novembre Verso MILANO EXPO 2015 - Agricoltura, sostenibilità e salute "L’ambiente malato e le malattie nell’uomo. Agenti inquinanti ambientali e salute nelle persone" Nelson Marmiroli Università di Parma, Dipartimento di Bioscienze Tratterò di un argomento che forse riassume alcuni degli argomenti che sono stati trattati oggi, la relazione che c’è tra la salute dell’ambiente e la salute dell’uomo. Io sono il Direttore del Dipartimento di Bioscienze dell’Università di Parma e dal 2011 sono il Direttore del Consorzio Interuniversitario Nazionale per le Scienze Ambientali, il consorzio CINSA. L’argomento di oggi riguarda la relazione che c’è tra l’ambiente e le malattie dell’uomo. Diversi oratori hanno parlato dei problemi dell’ambiente facendo riferimenti alle api e altri animali; io voglio fare riferimento all’uomo, perché anche l’uomo soffre dell’inquinamento. Inquinamento che può essere interno ma anche esterno, che riguarda gli ambienti di lavoro, riguarda l’alimentazione, la salute, il tempo libero, la mobilità, il lavoro a livello dell’industria, dell’agricoltura e della zootecnia. Oggi l’inquinamento è ovunque. Gli effetti degli inquinanti sulla salute sono diversi. Si va dai danni a livello elementare, a livello delle cellule, sino all’alterazione di processi biochimici e metabolici e all’induzione di danni sul nostro materiale genetico, all’alterazione della struttura delle proteine, alla modificazione dei comparti subcellulari, del nostro metabolismo e del nostro chimismo e alla comparsa di malattie. All’interno delle nostre cellule ci sono tanti siti che possono essere i bersagli degli agenti inquinanti. Voglio mettere particolarmente in evidenza il nostro materiale genetico perché quando questo cambia si generano guai molto seri. Ad esempio, è noto che gli idrocarburi alogenati e il benzene provocano necrosi delle cellule epatiche. I PCB causano il fegato grasso. I gas irritanti, la formaldeide, il toluene, quelli che vengono utilizzati nelle pulizie domestiche, distruggono la mucosa nasale e stimolano la produzione di muco nei bronchi. Le sostanze ossidanti, alcune usate in agricoltura, distruggono le membrane cellulari e inducono fibrosi polmonare ed impediscono gli scambi respiratori. Il nostro corpo tenta di reagire a questi inquinanti tentando di modificarli, di metabolizzarli. Nel nostro fegato soprattutto esiste un sistema particolarmente votato a questo processo, l’eliminazione di questi inquinanti. Un processo trifasico, fatto di una fase di trasformazione, una di coniugazione e al termine una di escrezione. Il contaminante ambientale viene nel nostro fegato attivato attraverso degli enzimi, citocromi P450, producendo dei metaboliti reattivi che vengono coniugati in genere con degli zuccheri che poi vengono eliminati con le urine o le feci. Un tipico esempio è quello che succede al benzene. Il benzene viene nel nostro fegato attivato dall’enzima citocromo P450 in un epossido, trasformato in fenoli, coniugato con dei solfati glucuronici e quindi viene secreto. Tuttavia questi solfati glucuronici del benzene possono dare luogo ad alcune malattie come depressione del midollo osseo, leucemie o alterate produzioni di globuli rossi. Quindi è un sistema che funziona, ma non ci libera completamente dal pericolo, in alcuni casi provoca danni più grandi del danno iniziale. Un altro caso è quello del tricloroetilene, un contaminante molto comune, anche in questo caso la sua trasformazione dà luogo poi a danni al sistema nervoso, al fegato e ai reni. Il caso più emblematico è quello che succede al benzopirene che viene respirato con il fumo delle sigarette: non è cancerogeno, ma diventa cancerogeno dopo questo processo di trasformazione a livello epatico. Inquinanti organici e inorganici come i metalli pesanti vengono sequestrati da strutture del nostro organismo che tentano di renderli inattivi o di eliminarli. Se sono in eccesso vengono accumulati in alcuni organi detti organi bersaglio. Come il piombo, che viene ingerito con alcuni tipi di alimenti, passa nel sangue e si lega ai globuli rossi e successivamente viene depositato nei tessuti ricchi di calcio come le ossa e i denti. Il piombo nel sangue inibisce la sintesi di emoglobina e provoca delle anemie, a livello di sistema nervoso interferisce con la trasmissione degli impulsi e può portare anche a paralisi. I bambini sono particolarmente sensibili al piombo in quanto il piombo si sostituisce al calcio, si lega a molecole che contengono ossigeno, azoto e zolfo. Nell’uomo delle particolari proteine, le metallotioneine, tentano di sequestrarlo, ma spesso non ci riescono. Interessante è che molti organismi vegetali hanno particolari metalloproteine che si chiamano fitochelatine, che hanno un’attività simile verso questi metalli pesanti. I metalli pesanti hanno effetti diversi su organi e tessuti. In particolare voglio mettere in evidenza l’arsenico, perché in Italia iniziamo ad avere un problema di arsenico nell’acqua (siamo già ai limiti consentiti di arsenico). L’arsenico è particolarmente tossico, determina irritazione e tumori soprattutto a carico della cute e dei polmoni. Il mercurio è ugualmente nocivo perché determina delle neuropatie, danni renali ed epatici. Gli agenti inquinanti sono sia all’interno che all’esterno. In questa stanza dove ci sono 100 persone in questo momento, saranno stati prodotti circa 100-200 inquinanti diversi che noi stiamo respirando e tentiamo di Arezzo 20 - 23 novembre 2012 151 21 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute metabolizzare. Quindi l’inquinamento non è soltanto “fuori” ma è anche “dentro”. Infatti esiste una malattia che si chiama la “malattia dell’edificio malato”, che è particolarmente importante per la vita indoor. Questa malattia dà una sindrome tipica con tosse, emicrania, prurito e stanchezza. L’inquinamento è una delle cause principali di malattie nell’uomo, questo è stato messo in evidenza da studi epidemiologici in diversi paesi e a livello dell’Organizzazione Mondiale della Sanità. Questo è stato anche evidenziato dalla Conferenza Interministeriale sull’Ambiente e Salute nel 2010. Noi viviamo in un ambiente contaminato e questi contaminanti generano malattie. Di fronte a questo rischio non siamo tutti uguali perché esiste una diversità genetica; noi non siamo uguali tra di noi dal punto di vista genetico. Gli esseri umani sono tutti o quasi tutti diversi tra loro. La diversità dipende dalla struttura del nostro genoma, che è stato completamente sequenziato e identificato. Esiste negli esseri umani una predisposizione genetica che si chiama ipersuscettibilità agli agenti inquinanti: vuol dire che a causa della diversità genetica gli individui di popolazioni umane diverse sono diversamente suscettibili agli agenti inquinanti, e questo genera non pochi problemi perché dà luogo a quella che si chiama ipersensibilità individuale. L’ipersensibilità individuale è definibile come una serie di effetti eccezionalmente elevati in termini di rischio rispetto al rischio normale, provocate dall’esposizione a sostanze inquinanti. Là dove il rischio è abbastanza piccolo per certe persone, per altre persone ipersuscettibili verso quell’agente inquinante il rischio è invece elevatissimo, e si può tradurre in allergie, tossicità, patologie, tumori ed altro. Un esempio: una predisposizione genetica nella popolazione umana si manifesta con l’inalazione di anestetici, ingestione di legumi, farmaci antimalarici, piombo e altri farmaci, e dà luogo ad una grave ipertermia, emolisi e arresto respiratorio e avvelenamento acuto con particolare sensibilità in alcuni tipi di popolazioni. Allo stesso modo ci sono predisposizioni genetiche coinvolte nella sensibilità al berillio, all’asbesto, alla luce, alle radiazioni ultraviolette e ad alcuni farmaci come il talidomide. Nelle popolazioni umane esistono gruppi etnici a rischio, per esempio con frequenze elevatissime superiori a 10% negli afroamericani ebrei si ha la sensibilità agli agenti ossidanti. Oppure con frequenza del 7-8% sempre negli afroamericani, la sensibilità agli idrocarburi ciclici. Il benzene e piombo colpiscono maggiormente popolazioni in europa, altri agenti irritanti come il fumo e le radiazioni ultraviolette agiscono con frequenze anche molto elevate in alcuni tipi di popolazioni. Un esempio di ipersuscettibilità molto nota è quella verso l’alcool etilico. L’alcool etilico viene metabolizzato nel nostro organismo da due enzimi epatici, l’alcool-deidrogenasi e l’aldeide-deidrogenasi; la carenza di questi enzimi conferisce ipersuscettibilità all’alcool. Un’altra ipersuscettibilità che viene chiamata anche favismo è la carenza di un enzima, la glucosio 6-fosfato deidrogenasi; è un enzima dei nostri globuli rossi ed è un esempio classico di polimorfismo genetico. Per difendersi però non basta dire “non mangio fave”; gli individui affetti da favismo sono ipersuscettibili anche ai contaminanti ossidanti e possono essere presenti nell’ambiente. Nel nostro fegato avviene la coniugazione di diverse sostanze attraverso un meccanismo di acetilazione. Ci sono due tipi di individui nelle popolazioni umane, gli acetilatori lenti e gli acetilatori veloci. A seconda che uno sia dalla nascita un acetilatore lento o veloce può diventare ipersuscettibile o meno ad alcuni tipi di contaminanti. Gli acetilatori lenti sono molto ipersuscettibili e in questi si può sviluppare il cancro della vescica indotto dalle ammine aromatiche. Le caratteristiche dell’acetilazione sono molto rilevanti perché ad esempio il 90% dei giapponesi sono acetilatori veloci, negli italiani solo il 50% sono acetilatori veloci mentre l’altro 50% è a rischio essendo acetilatori lenti. Come abbiamo visto, il metabolismo per ossidazione avviene attraverso enzimi epatici, e molte tossine ambientali diventano tossiche solo dopo la loro bioattivazione ad opera di questi enzimi epatici, che diventano quindi importanti marcatori di ipersuscettibilità. Il caso più noto è il fumo della sigaretta, con i citocromi P450 che catalizzano la trasformazione del benzopirene non cancerogeno nell’epossido che è il vero cancerogeno. Quindi chi fuma non inala una sostanza cancerogena ma è il fegato che provvede trasformando questa sostanza in un cancerogeno. Polimorfismi nel citocromo P450 portano a un diverso rischio per l’individuo. Un esempio molto interessante che incide nella nostra vita riguarda l’alfa-antitripsina del siero, un altro importante marcatore di ipersuscettibilità, perchè è connesso con la degradazione di alcuni inquinanti. In fumatori con diversi livelli di alfa-antitripsina l’effetto del fumo della sigaretta sulla vita media e sull’attesa di vita è notevolmente diverso. Per i non fumatori, la loro aspettativa di vita è abbastanza elevata, oltre i 60-70 anni, per i fumatori che hanno l’alfa-antitripsina nomale l’aspettativa di vita si riduce un po’, per chi fuma con una carenza di alfa-antitripsina l’aspettativa di vita si riduce drammaticamente. Ecco questo è il significato di ipersuscettibilità ambientale: la presenza di questo marcatore ecogenetico presente nelle popolazioni può determinare una drastica riduzione di 20-30 anni nell’aspettativa di vita, se si espongono a determinati contaminanti ambientali. L’ipersuscettibilità agli agenti inquinanti è particolarmente importante nei gruppi di esposizione, cioè le persone che non possono fare a meno di essere esposte a particolari situazioni inquinanti, come sono i lavoratori: purtroppo i lavoratori vivono a contatto con determinate sostanze a cui possono essere ipersuscettibili ma generalmente non lo sanno e non possono rimediare. In questo caso l’ipersuscettibilità e l’occupazione sono un fatto molto rilevante. Lo studio sui gruppi occupazionali ha messo in evidenza quanto sia rilevante questo aspetto nella medicina nel 152 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 21 Novembre lavoro e nella prevenzione delle malattie umane. Un caso tipico e l’asbestosi, la ipersuscettibilità all’asbesto; è stato visto che gruppi di persone che sono ipersuscettibili all’asbesto hanno avuto picchi di incidenza del tumore tipici dell’asbesto, l’angiotelioma. Gli agenti inquinanti sono molto importanti per la nostra salute e un altro fattore molto importante è che anche malattie comuni sono coinvolte nel determinare l’ipersuscettibilità agli agenti inquinanti. Lo stile di vita, le abitudini nutrizionali e altri fattori ambientali possono portare a ipersuscettibilità agli agenti inquinanti e determinare malattie nelle persone che hanno una particolare predisposizione genetica. I geni che danno predisposizione possono essere molteplici, alcuni sono stati individuati, altri sono da scoprire. Una lunga serie di geni sono stati individuati che possono influenzare lo sviluppo di queste malattie, il metabolismo dei lipidi, la trombolisi, la regolazione del flusso sanguigno, il livello di colesterolo, le lesioni arteriosclerotiche, lo sviluppo delle coronarie. Ad esempio le malattie delle coronarie che sono coinvolte nella comparsa di malattie tipiche dell’uomo, sono anche coinvolte nel determinare ipersuscettibilità a fattori inquinanti ambientali soprattutto negli ambienti di lavoro. Un caso emblematico dell’ipersuscettibilità è quando l’ipersuscettibilità riguarda le differenze di genere legate al sesso, perché in questo caso ci sono due categorie, due generi, maschile e femminile, dove uno è ipersuscettibile e l’altro no e questo riguarda diverse condizioni; ad esempio i maschi sono più suscettibili per le tossine renali, le femmine sono più suscettibili per le tossine epatiche. È stato visto che la suscettibilità ai metalli pesanti nelle femmine è superiore alla suscettibilità nei maschi. Questo è molto importante a livello degli ambienti di lavoro. Gli effetti dovuti all’ipersuscettibilità agli agenti inquinanti hanno dei particolari aspetti etici e regolativi. Noi potremmo con le nostre conoscenze attuali e con i nostri studi molecolari che abbiamo, attraverso uno screening genetico, dire a tutte le persone se hanno dei fattori ecogenetici di ipersuscettibilità, e dire ad ogni persona, quasi ad ogni persona, a cosa è ipersuscettibile. Ma questo potrebbe violare la privacy delle persone perché metterebbe a nudo dal punto di vista sanitario, l’ultimo baluardo della privacy, la privacy genetica delle persone. Quindi si pone il problema dell’anonimato. Immaginate cosa succederebbe se dati ecogenetici fossero disponibili alla compagnie assicurative che devono assicurare i lavoratori contro il rischio: sapendo che quella persona è ipersuscettibile ad un contaminante presente nell’ambiente di lavoro la compagnia non l’assicurerebbe mai. Questo è quello che è già successo in altri paesi. Quindi servono regolamenti, serve prevenzione, servono dei limiti di esposizione molto restrittivi, serve assistenza psicologica per le persone. I test genetici per la ipersuscettibilità individuale agli agenti inquinanti sono possibili, siamo in grado di farli anche in modo molto semplice, e questi sono molto utili per diagnosticare le malattie genetiche, soprattutto le malattie di ipersuscettibilità. Possono servire per capire i bersagli e le regioni di insorgenza di queste malattie. Possono portare dei benefici in termini di informazione sulle malattie e portare alla medicina preventiva traslazionale del futuro e a proteggere efficientemente le persone, soprattutto quelle che sono ipersuscettibili; ma ci sono dei rischi dovuti alle potenziali implicazioni etiche, sociali, legali e normative dovute alle informazioni riservate soprattutto quelle relative alla struttura del nostro materiale genetico. Arezzo 20 - 23 novembre 2012 153 21 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute Verso MILANO EXPO 2015 - Agricoltura, sostenibilità e salute "Rischi e benefici degli OGM" Gianni TaminoUniversità di Padova Il mio intervento riprenderà alcuni temi già trattati in precedenza. Uno dei problemi che spesso si pone, parlando di OGM, è la confusione tra diversità genetica e diversità conseguente alla transgenesi. Per capire tale problema possiamo fare la seguente considerazione: da un punto di vista formale potremmo dire che gli esseri umani sono tutti diversi perché presentano rilevanti differenze genetiche. Da un punto di vista di “politica corretta” (ma anche di biologia corretta) possiamo anche dire che siamo tutti uguali perché uguali sono i nostri geni. Dove sta l’errore? Non c’è errore, c’è solo un modo diverso di intendere le parole. In realtà tutti gli esseri umani sono geneticamente uguali perché contengono tutti i geni tipici della specie umana, ma siamo diversi perché abbiamo di quei geni varianti diverse (queste varianti sono dette alleli). Da questo punto di vista OGM è un acronimo privo di reale significato. Quando si parla di organismo geneticamente modificato non si precisa di che cosa stiamo parlando: tutti gli organismi sono geneticamente modificati per processi evolutivi vari, ma un organismo geneticamente modificato per transgenesi (o, se si preferisce per ingegneria genetica) è un organismo modificato non perché ha alleli diversi da un altro ma perché ha ricevuto nuovi geni per trasferimento da un organismo anche molto diverso (da un batterio ad una pianta o da una pianta ad un animale, ecc.) cioè per “transgenesi”. Questo trasferimento può provocare effetti negativi, perché non ci sono soltanto danni diretti al DNA, ma anche alterazioni dovute al modo in cui le sequenze inserite possono essere utilizzate. Quando parliamo di DNA e di informazione genetica, più che di molecole parliamo di logica. L’informazione genetica sottintende una lingua e qualunque linguaggio deve essere dotato di sistemi che permettono di leggere un’informazione; ciò richiede dei requisiti ben precisi, come un alfabeto (in questo caso sono 4 lettere), un dizionario (nel linguaggio genetico sono le 64 triplette, equivalenti a parole), una grammatica, cioè regole per coordinare le parti (per esempio quelle interne ai geni) e una sintassi, ovvero le regole di relazione tra le parti. Se non si tiene conto della relazione tra le parti, quando si valutano gli OGM, si rischiano grossolani errori. Per esempio, a livello umano, abbiamo poco più di 20.000 geni per produrre più di 100.000 proteine, proprio perché possiamo utilizzare parti del gene (introni ed esoni) in maniera differenziata, per ottenere ricomposizioni completamente diverse, una situazione ben diversa da quella che si riteneva una volta, cioè “un gene, una proteina, un carattere”. La situazione è molto più complessa, ed esiste lo “splacing alternativo” che permette, a partire dalla stessa sequenza, riorganizzando esoni ed introni, di ottenere proteine diverse. Inoltre la gran parte del DNA non ha funzioni strutturali (cioè produzione di proteine) ma ha funzione regolativa. Questo fa sottintendere che le varie parti del DNA sono in relazione tra loro come nelle reti e le reti sottintendono a loro volta sistemi complessi di regolazione. Tra i vari sistemi di regolazione ci sono anche segnali che vengono dall’esterno. Per esempio le sostanze chimiche di cui parlava il prof. Marmiroli possono agire modificando i segnali che interagiscono con la regolazione del DNA e determinare modificazioni non direttamente genetiche ma, come vengono definite, epigenetiche. Le modificazioni epigenetiche sono di vario genere e la visione moderna dell’informazione genetica e delle interazioni tra geni e fattori ambientali, interni ed esterni all’organismo, sono molto più complesse di quello che si pensava un tempo. Ma se vogliamo analizzare le biotecnologie dobbiamo distinguere vari tipi di biotecnologie: biotecnologia è qualunque tecnologia che attraverso l’uso di organismi viventi o di processi biologici ottiene un prodotto nuovo. Fare il vino, fare lo yogurt, fare una talea, fare un innesto sono tutte biotecnologie. Ma quando parliamo di organismi transgenici parliamo di una particolarissima biotecnologia, che utilizza l’ingegneria genetica. Per formare piante transgeniche, si parte da protoplasti, cioè da cellule a cui è stata tolta la parete cellulare e messe in coltura, in modo che da ogni cellula si ottenga una pianta; a queste cellule si può cercare di modificare la struttura genetica inserendo geni nuovi per transgenesi. La transgenesi è ampiamente nota dagli anni 70 nei batteri e, grazie alla transgenesi batterica, possiamo produrre farmaci che sono molto utili. Quale è la differenza tra la transgenesi batterica o comunque di microrganismi e quella di organismi superiori come piante o animali? Se ci interessa l’aspetto commerciale, un microrganismo possiamo tenerlo in un ambiente confinato e ricavarne soltanto le proteine o le molecole che ci interessano come farmaci o per altre funzioni. Viceversa se ci interessa la pianta “in toto” non possiamo coltivarla in ambiente confinato, perché il costo sarebbe enorme. Per “ambiente confinato” si intende un laboratorio chiuso e protetto senza possibilità di dispersione né di pollini né di seme né di qualunque altra parte della pianta: è evidente che un organismo modificato, se lo mettiamo in campo aperto, produrrà polline sementi ed eventualmente porzioni riproducibili per talea che si possono diffondere liberamente nell’ambiente. Questo è il vero problema per l’agricoltura: chi realizza un’agricoltura di qualità e vuole 154 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 21 Novembre le caratteristiche del “Made in Italy”, rifiuta per scelta gli OGM, perché la possibile diffusione (che impropriamente viene chiamata inquinamento genetico) di caratteristiche transgeniche, non permette all’agricoltore di essere sicuro che il suo prodotto non sia contaminato. Abbiamo visto in precedenza il caso del miele e del polline nel miele: è un altro caso di possibile passaggio di materiale transgenico dove non li si vuole trovare. Ricordiamo inoltre che per inserire dei geni nelle piante o si utilizzano dei batteri, come l’agrobacterium, oppure si usa un sistema di bombardamento delle cellule con proiettili contenenti il gene estraneo; poi per sapere se il gene da inserire è andato a buon fine, si mettono dei marcatori, di solito fattori di resistenza agli antibiotici, compresi antibiotici ancora utilizzati in medicina, come la neomicina kanamicina. Se non conosciamo la sintassi di questo linguaggio genetico, non siamo in grado di inserire dei geni che si attivino e si disattivino in funzione di una regolazione tipica dell’organismo. Di conseguenza, per far funzionare un gene così inserito dobbiamo utilizzare un promotore di origine virale, completamente diverso da quello delle piante, che ha come scopo tenere sempre in funzione quel gene, bypassando i sistemi di controllo e regolazione della cellula vegetale. Ciò altera completamente i sistemi di regolazione e di relazione a rete all’interno della pianta. Le piante geneticamente modificate oggi diffuse nel mondo sono poche e con limitati geni inseriti: dunque in 30 anni non ci sono stati grandi successi per le piante transgeniche dato che sono diffuse solo 4 piante con essenzialmente due soli geni inseriti. La propaganda che affermava che si potevano coltivare piante GM in ambienti aridi, in ambienti freddi e in ogni ambiente particolare, con produttività maggiori non è risultata vera. Gli OGM non modificano ne l’utilizzo dei pesticidi (anzi è erbicida dipendente la gran parte delle piante transgeniche), ne modifica la produttività. Vale la pena dunque valutare anche socialmente ed economicamente se in un dato territorio ha senso o meno usare gli OGM. Attualmente le piante utilizzate sono cotone, soia, mais e colza: soia e mais sono utilizzati soprattutto per l’alimentazione degli animali, mentre il cotone non ha utilizzi alimentari. I due geni che vengono inseriti sono nell’85% delle piante un gene di tolleranza ad un diserbante e poi un gene di resistenza agli insetti. Quest’ultimo non ha avuto molto successo perché una tossina che colpisce gli insetti, grazie alla biodiversità, non li farà morire tutti, dato che alcuni risulteranno resistenti, e poi si riprodurranno solo gli insetti rimasti vivi: nel giro di alcune generazioni quasi tutti gli insetti diventeranno resistenti e a quel punto l’OGM non servirà più. Ma gli OGM più venduti sono quelli tolleranti agli erbicidi, così l’azienda produce un OGM resistente al suo erbicida e venderà entrambi. La pianta avrà però più rischi di contenere l’erbicida o suoi derivati. Ma oltre a questi problemi ci sono quelli derivanti dalla non conoscenza della “sintassi” del linguaggio genetico. Già nel 2002 Dulbecco, premio Nobel, ha chiarito questo problema, spiegando che si può verificare quali alterazioni possono derivare dalla presenza di un gene estraneo inserito per transgenesi: “Introducendo un nuovo gene nella cellula, la funzione di un gran numero altri geni viene alterata”, perché, se il funzionamento è a rete, è inevitabile che ogni perturbazione in un punto si ripercuota su tutti gli altri, per giunta con un gene che non può essere regolato e che produce comunque e sempre una proteina (ad esempio una tossina), a prescindere dalle esigenze della cellula e dell’organismo. Ovviamente noi non sappiamo né quali geni né quando saranno alterati, ma nel tempo questo fatto comporta gravi rischi. In base al principio di precauzione dovremmo avere garanzie che non si verifichino effetti negativi, ma che però non possiamo escludere. Se colleghiamo principio di precauzione e principio di responsabilità, usando le parole di un noto oncologo come Lorenzo Tomatis, bisogna evitare che si continui a considerare l’intera specie umana come un insieme di cavie sulle quali saggiare tutto quanto è capace di inventare il progresso tecnologico, dovremmo cioè avere una capacità di valutare prima i rischi e non verificare a posteriori i danni. Queste condizioni producono inevitabili impatti sull’ambiente. Uno studio di C. Benbrook, pubblicato nel 2009, spiega come negli Stati Uniti, nelle zone dove vi è ampia diffusione di OGM, l’utilizzo di erbicidi e di insetticidi è aumentato notevolmente: esattamente l’opposto di quanto era stato proclamato in passato, cioè una riduzione di pesticidi. Questo incremento è la conseguenza dell’aumento non solo di insetti resistenti alle tossine, ma anche di piante infestanti resistenti ai diserbanti. Il rischio si manifesta anche a grande distanza perché, per esempio, già tempo fa la Commissione di Cooperazione del Nafta (cioè l’area di scambio economico dei tre paesi del nord America), aveva messo in evidenza che in Messico si poteva esportare se solo mais OGM macinato per evitare una contaminazione dell’area d’origine del mais. Infatti la contaminazione può avvenire anche portando granella per uso alimentare che, cadendo per terra, dia origine ad una pianta che produrrà polline in grado di diffondersi. Si è parlato a lungo di quale era il limite ammissibile di contaminazione del mais: si parlava di valori compresi tra l’1 e il 4 per 1000. Ma in un ettaro si seminano 70.000 semi e l’1 per 1000 sono 70 piante transgeniche, che, distribuite a caso in un ettaro, hanno la capacità di disperdere il loro polline e di contaminare altre piante in un raggio di circa 50 m. Praticamente con l’1 per 1000 tutto il campo sarà contaminato inevitabilmente. Un altro aspetto rilevante per l’ambiente è il rischio che le piante in grado di produrre tossine contro gli insetti colpiscano sia gli insetti dannosi che quelli utili. Per gli americani il problema si pose inizialmente con la farfalla monarca, che non è un insetti utile, ma per gli americani è un simbolo. Più recentemente, nel 2012 in Svizzera, si Arezzo 20 - 23 novembre 2012 155 21 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute è visto che anche le larve di coccinella possono essere colpite dalla tossina della piante transgenica, ed in questo caso si tratta di insetti utili che mangiano insetti dannosi e quindi vi può essere un danno all’agricoltura provocato dalla mancanza di coccinelle. I danni possibili per la salute sono abbastanza noti: allergie, intolleranze, resistenze agli antibiotici, ma anche metaboliti di diserbanti (come il glifosate), rischi di malfunzionamento dei geni, ecc. Sul rischio di allergie ci sono vari dati, come nel caso del mais “starlink” che venne ritirato dal commercio negli USA, ma molte aziende, tra cui Kraft e Kellog’s, hanno dovuto ritirare dal commercio tutto quanto avevano prodotto perché contaminato da tale mais. Un altro problema rilevante è che il DNA contenuto negli OGM una volta mangiato da animali o da uomini trasferisce all’interno di questi anche il tratto di DNA modificato, che può integrarsi nel DNA di batteri dell’intestino, ma in certi casi anche nel DNA degli animali: non sappiamo che problemi potrebbero verificarsi, mas sicuramente sappiamo che quando mangiamo piante anche i micro-RNA, che sono fondamentali nella regolazione dell’espressione genica, vengono inglobati e partecipano alla regolazione; che funzioni possono avere quelli di una pianta geneticamente modificata, non lo sappiano ma sarebbe bene saperlo. Molti studi hanno messo in evidenza che a distanza di tempo e di generazioni, animali alimentati con mais transgenico hanno delle differenze di peso, delle alterazioni in alcuni organi e una riduzione di fertilità. Molti di questi studi sono stati contestati dalla Monsanto, ma la stessa Monsanto per mettere in vendita i propri mais modificati ha fatto studi sui ratti esattamente identici a quelli contestati e anche loro avevano trovato delle alterazioni, che però non hanno mai pubblicato, se non dopo una richiesta da parte della Germania. A questo proposito si possono ricordare i lavori della dott.sa Malatesta e del Prof. G. Séralini, un francese che ha provocato negli ultimi mesi un grande sussulto e preoccupazione perché uno studio su ratti protratto per 24 mesi ha messo in evidenza che sia i pesticidi maggiormente utilizzati nella coltivazione del mais (glifosate) sia il mais geneticamente modificato provocavano una serie di alterazione tra cui anche lo sviluppo di tumori. Lo studio può essere sicuramente criticato, ma i ceppi e la metodologia è esattamente la stessa usata dalla Monsanto, per ottenere l’autorizzazione al commercio del suo mais.. Ultimo dato che riporto riguarda alterazioni indotte non direttamente dall’inserimento dei geni estranei, ma da alterazioni del funzionamento a rete dei geni. Alcuni studiosi australiani, inserendo un gene di fagioli, che li rende resistenti alla larva di insetto che si nutre del seme, nel DNA di piselli attaccati dalla stessa larva, hanno effettivamente ottenuto piselli resistenti all’attacco dell’insetto, ma, mentre il pisello prima di questo inserimento non provocava allergie e nemmeno il fagiolo con questo gene, il pisello cosi modificato induceva allergie. Non è quindi la diretta azione del gene inserito, ma l’interazione del nuovo gene con gli altri geni a provocare tale effetto. Ovviamente questo tipo di pisello non è mai stato messo in commercio, ma serve ad evidenziare che questi eventi si possono verificare. In questo caso ci si è accorti subito, ma quali sono gli eventi che potrebbero avvenire in futuro, perché indotti da nuovi fattori ambientali non previsti? Credo che questi elementi siamo sufficienti per dirci che bisogna utilizzare la massima cautela e che, per le caratteristiche dell’agricoltura italiana, gli OGM non servono, anche non fossero così rischiosi, come alcuni studi sembrano mettere in evidenza. 156 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 21 Novembre Verso MILANO EXPO 2015 - Ambiente, sostenibilità e salute "Presentazione progetti - Garantire la sicurezza alimentare e valorizzare le produzioni" Silvio Borrello Ministero della Salute Trascrizione non revisionata dal relatore Buongiorno a tutti questo progetto intende aprire la strada ad Expo 2015 che vedrà l’Italia e non solo protagonisti nei temi legati alla sicurezza alimentare intesa nella sua duplice accezione cioè come food safety quindi sicurezza degli alimenti come acqua e cibo sani e sicuri e anche come food security, questo sembra un tema lontano dalle nostre case ma in momenti di crisi lo viviamo anche qui da noi. Per cui dal 31 maggio al 31 ottobre 2015 ci sarà questa grandissima manifestazione a cui hanno già aderito 150 Paesi di tutto il mondo. L’Italia si deve presentare unita per presentare quelle che sono le migliori pratiche in materia di sicurezza degli alimenti. Se andiamo a vedere quello che è la situazione italiana per quanto riguarda i prodotti alimentari, sappiamo tutti che sono alimenti classificati come alimenti di qualità, dove per qualità ognuno mette quello vuole ma se li classifichiamo con DOCP e IGP ne abbiamo un alto numero circa 4500 prodotti. Questo rappresenta una ricchezza culturale ed economica per il nostro Paese ed un fiore all’occhiello per le nostre produzioni nazionali. I prodotti tradizionali italiani sono apprezzati in tutto il mondo, lo abbiamo visto nel corso di questi anni quanto sia aumentato il flusso esportativo dei nostri prodotti verso paesi terzi a fronte di una contrazione dei consumi a livello nazionale. Cosa dobbiamo fare? Dobbiamo dimostrare agli altri quello che facciamo e presentarlo al meglio durante questa manifestazione. È necessario innanzi tutto una valorizzazione di quelle che sono le produzioni italiane con una riduzione dei rischi per il consumatore ma anche un aiuto un sostegno alle imprese che producono per farle migliorare sia in qualità che in sicurezza. È necessario conoscere i prodotti, abbiamo detto che ci sono 4500 prodotti che sono tipici delle varie regioni d’Italia, di ogni comune. È necessario conoscere i prodotti ma anche i processi che portano alla loro produzione per garantire la sicurezza alimentare. Come Ministero della salute e Regione Lombardia abbiamo pensato di promuovere questo progetto internazionale il cui coordinamento scientifico è offerto dall’Istituto Zooprofilattico della Lombardia e dell’Emilia e Romagna. Questi sono i 3 soggetti promotori ed è un progetto assolutamente aperto che prevede delle ricadute e delle partnership soprattutto con gli IIZZPP sperimentali per presentare uniti quella che è la migliore ricerca italiana. Il progetto è aperto anche a tutti gli enti di ricerca pubblici e privati, a produttori singoli e associati e alle associazioni dei consumatori. Chi vuole partecipare al progetto ne deve condividere gli obiettivi, le modalità operative e anche i risultati. È importante anche al cooperazione internazionale perché i nostri prodotti devono andare all’estero, ci sono azienda che sono interessate all’esportazione dei nostri prodotti ma è necessario andare a valutare quello che è il profilo microbiologico e valutare eventualmente il grado di rischio prodotto per prodotto che non può fare solo l’IZP di Brescia però penso ai prodotti siciliani ai prodotti abruzzesi ognuno ha una sua tipicità e gli istituti zooprofilattici saranno i veri attori per i prodotti locali. Dobbiamo promuovere inoltre la cooperazione internazionale, l’abbiamo visto i questi anni, dei casi di fenomeni di listeria sui formaggi anche italiani che sono andati all’estero e si è istaurato un meccanismo di collaborazione con gli istituti di ricerca con le autorità. In primo luogo sicurezza alimentare ma dobbiamo arrivare ad un miglioramento delle produzioni attraverso quelli che sono i profili nutrizionali. In definitiva si dovrà arrivare alla diffusione di quelle che sono le conoscenze acquisite, una valorizzazione dei risultati e di quella che è stata l’attività svolta in ambito nazionale e se ci sono anche attori internazionali possono partecipare al progetto stesso. Arezzo 20 - 23 novembre 2012 157 21 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute Verso MILANO EXPO 2015 - Ambiente, sostenibilità e salute "Presentazione progetti - Garantire la sicurezza alimentare e valorizzare le produzioni" Piero FrazziRegione Lombardia Buongiorno a tutti, per quello che riguarda il progetto noi siamo partiti dall’esperienza che abbiamo avuto durante l’emergenza della “mozzarella blu” e le varie emergenze che abbiamo avuto sull’esportazione di prodotti per quanto riguarda la listeria come i formaggi e i prodotti a base di carne. Da questa esperienza nata da tavoli dove sia l’impresa condivideva, con l’IZP e gli istituti di ricerca lombardi, il loro proprio know-how per quanto riguarda le loro conoscenze dal punto di vista microbiologico e le loro conoscenze dal punto di vista della lavorazione visti i risultati ottenuti, visto il coinvolgimento che abbiamo avuto sul territorio di questi progetti con il Ministero della Salute abbiamo pensato di estendere queste esperienza all’interno del progetto Expo 2015. Questa esperienza che è già partita con un nucleo di ricerca, un nucleo progettuale su un progetto CCM del Ministero finalizzato a questa attività. Per quanto riguarda il progetto che nasce e vuole essere una rete che coinvolga i centri di ricerca, le istituzioni e soprattutto il mondo produttivo attraverso le associazioni di categoria e attraverso il coinvolgimento diretto delle imprese. Perché oltre all’attività di controllo di verifica che è un compito istituzionale che noi svolgiamo e andiamo a fare, c’è un valore aggiunto che possiamo dare a queste imprese, che è quello di dire alle imprese come fare le cose giuste e le modalità corrette di farle. Quindi questo progetto porta avanti delle azioni sia incentrate sulla ricerca, dove attraverso la ricerca l’azienda diventa sia il promotore che come attori e che come fruitori del prodotto finale. Gli obiettivi strategici del progetto sono lo studio la promozione dei prodotti alimentari in modo da garantire sicurezza. La promozione di progetti di cooperazione internazionali con il ministero, ma soprattutto una documentazione sulla sicurezza dei prodotti alimentari che andiamo a studiare e la costruzione di modelli di microbiologia predittiva che tengano conto della peculiarità e della caratteristica di questi prodotti e della flora microbica autoctona ed eventualmente formulare dei nuovi indici di sicurezza microbiologica. Diventa fondamentale la costituzione di un sistema di raccolta che raccolga tutta la documentazione e i dati che sia condiviso e messo in rete perchè far lavorare tutti questi soggetti su un progetto finalizzato è fondamentale che tutto il lavoro venga condiviso e ci sia anche la possibilità di condividerne anche i risultati. Deve essere poi creato un sistema integrato in grado di gestire questi protocolli sperimentali fondamentali soprattutto per quelle aziende che si affacciamo su mondo dell’esportazione quindi hanno bisogno di dare delle garanzie. Abbiamo visto le varie emergenze che ci sono state in questi anni riguardo la listeria su vari prodotti, diventa fondamentale la gestione di questi protocolli. Per quanto riguarda le ricadute sul consumatore, il progetto vuole coinvolgere anche le varie associazioni dei consumatori attraverso l’illustrazione delle caratteristiche dei prodotti e dei processi per dare maggiore garanzia, per far conoscere le dinamiche microbiologiche dei vari prodotti per dargli garanzia di qualità e di sicurezza, il tutto attraverso una efficacie gestione dei processi e dei prodotti. Per quello che riguarda i produttori diventa fondamentale per il coinvolgimento del mondo produttivo un ritorno che può essere sia il supporto scientifica per permettere a queste imprese di avere una corretta gestione dei pericoli attraverso i loro sistemi di autocontrollo. Garantirgli una maggior penetrazione dei mercati dei paesi terzi in quanto se sono in grado di dare queste garanzie sono anche in grado di supportare e giustificare il loro interesse in determinati mercati esteri dove gli chiedono maggiori garanzie e qualità e sicurezza dei prodotti. Di permettere attraverso queste ricerca di determinare la durata dei prodotti e garantire l’identità dei prodotti. Momento fondamentale della ricerca diventa anche la comunicazione del rischio, le strategie comunicative che sono già state messe in atto da EVSA verrebbero ulteriormente sviluppate nell’intento di raggiungere obiettivi strategici quali garantire un programma di comunicazione del rischi, garantire che le informazioni vengano date in modo corretto e soprattutto guidare il processo informativo nei confronti dei consumatori. Accanto a queste azioni specifiche intendiamo sviluppare anche una fase di controllo che parte da due presupposti anzitutto un azione integrata con le autorità competenti che fanno capo a competenze regionali e ministeriali e una fase di controllo che parta dalle conoscenze scientifiche acquisite durante le azione che vengono sviluppate durante ricerca. Le azioni di controllo sull’attività diretta legata all’evento EXPO sia a tutto quello che c’è da fare prima dell’evento EXPO. Quindi la messa in atto di un sistema di controlli sulle criticità che ci sono già e che si sono riscontrate adesso che da qui al 2015 devono essere risolte e chiuse. Per quanto riguarda gli obiettivi strategici che ci poniamo con il progetto controlli oltre quello di sviluppare controlli ufficiali anche quello di sviluppare un modello di lavoro che può gestire le criticità in occasione di grandi eventi. Dato che EXPO è una vetrina, un qualcosa che si mette in mostra, ma deve essere anche un qualcosa che rimane, quindi questi progetti tesi alla ricerca all’attività di controllo alla comunicazione del rischio vuole essere un qualcosa che rimarrà anche in una seconda fase terminato l’evento EXPO quindi secondo noi è una cosa utile al sistema che va oltre EXPO 2015. 158 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 21 Novembre Verso MILANO EXPO 2015 - Ambiente, sostenibilità e salute "Presentazione progetti - Garantire la sicurezza alimentare e valorizzare le produzioni" IZS Lombardia Emilia- Romagna Trascrizione non revisionata dal relatore Stefano Cinotti Buongiorno a tutti, preso atto che questo è un progetto vuole dimostrare, ai partecipanti alla manifestazione di EXPO 2015, la quantità e la qualità di molti prodotti tipici italiani ma vuole anche dimostrare che la sicurezza alimentare che questi prodotti tipici possono garantire deriva dall’accertamento non solo superficiale ma intimo e profondo delle dinamiche che volgono alla produzione di questi prodotti e quindi a tutto ciò che questi prodotti costituiscono sia in termini di produzione primaria che di trasformazione. Quindi noi opereremo attraverso tre obiettivi successivi, tre macro-obiettivi e attraverso alcune fasi di intervento. Il primo obiettivo è lo studio e la caratterizzazione dei prodotti della tradizione italiana e dei processi che volgono e che sottendono alla loro produzione al fine di valutarne il profilo sanitario in quanto la sicurezza assoluta in termini alimentari deriva dalla acquisizione di tutte le nozioni utili alla produzioni di un analisi del rischio prevalente, quindi studio e caratterizzazione microbiotica, definizione di un sistema di identificazione basato sulla peculiarità delle comunità microbiche, quindi identificazione dei prodotti le valutazioni del profilo di sicurezza tale da inserire i prodotti stessi in aree principali, valutazione del profilo di sicurezza igienico sanitario, questa è la prima fase. Una prima fase che volge principalmente ad una identificazione della possibilità del rischio microbiologico più largamente inteso secondo le strategie che sono le più comuni cioè le valutazioni dei parametri di rischio in funzione delle variazioni della temperatura, del pH, dell’acqua libera, dell’acido lattico ecc.. La seconda fase è un pochino più articolata è lo studio dei meccanismi molecolari di competizione microbica al fine del loro utilizzo anche al di fuori del modello nel quale sono stati studiati quindi di un trasferimento, quindi lo studio della trasferibilità di un modello predittivo. Studio dei complessi meccanismi della competizione microbica noti o evidenziati anche durante la prima fase del processo. Lo studio degli effetti delle molecole effettrici sul tasso di crescita e quindi sulla morte dei microorganismi patogeni perché questi due elementi tasso di crescita e morte dei microrganismi patogeni sono le due boe attraverso le quali si dipana il circuito della sicurezza. Validazione del modello predittivo attraverso challenge test ma anche attraverso nuovi modelli matematici. Poi la terza fase che è la divulgazione e la condivisione dei risultati cosi come è già stato proposto dal dott. Frazzi e dal Dott. Borrello, attraverso l’implementazione di un sistema informativo sulla sicurezza alimentare. A questo proposito verrà messo a disposizione l’asse alimentaria che è uno strumento capace di accogliere tutte queste informazioni e di renderle pubbliche e disponibili sia in area pubblica che in area riservata. Questo strumento verrà gestito dall’Istituto di Brescia e avrà tra le altre attività anche l’attivazione di una sezione dedicata all’evento di EXPO 2015. Per concludere gli obiettivi del progetto e le fasi operative sono la caratterizzazione dei processi produttivi e dei prodotti di prima trasformazione, poi l’applicazione di modelli di microbiologia predittiva al fine della catalogazione degli alimenti secondo il profilo microbiologico e quindi l’entità del possibile rischio, la caratterizzazione delle comunità microbiologiche dei singoli prodotti lo studio dei comportamenti dei microrganismi patogeni durante il processo produttivo e le loro interazioni con le popolazioni lattiche endogene ed esogene. La costruzione dei modelli predittivi e la validazione dei modelli attraverso attività shelf-life. Invece i prodotti e risultati attesi sono un pochino più variegati, fornire elementi in grado di documentare la sicurezza di determinati prodotti alimentari, costruire e condividere modelli di microbiologia predittiva, fornire nuovi indici di sicurezza microbiologica. Costituire un sistema di raccolta documentazione e di condivisione e sviluppare un sistema organizzato integrato in grado di gestire una serie di protocolli sperimentali. Questo è un progetto molto ambizioso ma che non ha basi di sostegno finanziario definite e certe, questo lo dico perché mentre da una parte si dice che è aperto ad altri IZP, centri di ricerca e a tutti coloro che vogliono lavorare all’interno del progetto però attenzione perchè di soldi da dividere ce ne sono ben pochi, anzi siamo tutti in attesa che qualcuno ne porti. Quindi per parlarci chiaro non ci sono tesoretti da dividere ma ci sono tesori da condividere, siamo disponibili alla collaborazione alla condivisione degli strumenti sicuramente anche all’attenzione dei colleghi degli altri istituti delle attività di identificazione dei prodotti tipici e delle loro intime espressioni microbiologiche e quindi delle loro sicurezza però il richiamo e l’attenzione che mi sento di portare a questo tavolo è la condivisione ci sarà sicuramente ma dateci una mano perché il recupero di fondi sull’argomento non è che sia garantito lo dobbiamo costruire tutti insieme. Arezzo 20 - 23 novembre 2012 159 21 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute Verso MILANO EXPO 2015 - Ambiente, sostenibilità e salute "Forum PlantLIBRA: valutazione sicurezza degli estratti vegetali, esperienze e dati dal progetto europeo n. 245199. Il progetto" Patrizia Restani Università degli Studi di Milano Con questa presentazione si intende diffondere alcuni risultati del progetto PlantLIBRA, un progetto europeo iniziato nel 2010 e della durata di 4 anni. Il Progetto intende valutare gli aspetti dei rischi e benefici associati al consumo di integratori alimentari contenenti ingredienti botanici. L’intervento sarà per lo più incentrato sulla sicurezza, lasciando però i risultati degli studi tossicologici alla collega Marina Marinovich. Il progetto PlantLIBRA coinvolge 21 paesi nel continente europeo: 20 sono membri della comunità più la Svizzera che è un paese aggregato. I partners sono distribuiti nelle diverse aree geografiche dell’Europa, fatto che deriva dalla scelta di poter tracciare un quadro generale sul problema degli integratori nel nostro continente. Sono inclusi 4 partner esterni all’Europa, come previsto dal progetto: due paesi in Sud America (Argentina e Brasile), il Sud Africa e la Cina. Questi Paesi sono strategici per la produzione della materia prima di origine vegetale che viene utilizzata in Europa negli integratori alimentari. Uno dei lavori che stiamo concludendo in questo momento è la Survey sul consumatore, che è stata condotta in 6 paesi europei e che ha lo scopo di ottenre informazioni sull’uso degli integratori alimentari a base erboristica in Europa. Sono state scelte 6 nazioni (Finlandia, Italia, Spagna, Inghilterra, Germania e Romania) che risultano localizzate in varie aree geografiche dell’Europa allo scopo di ottenere un quadro più rappresentativo. È stato organizzato il lavoro con un questionario comune, tradotto nelle 6 lingue per renderlo più facilmente utilizzabile. La Survey è finita alcuni mesi fa e attualmente si stanno concludendo le operazioni di rielaborazione dei risultati; per questo motivo nel convegno vengono presentati risultati preliminari. L’obiettivo di questa Survey era quello di ottenere 2400 interviste valide nei 6 paesi in modo da ottenere un’idea delle ragioni d’uso, delle aspettative del consumatore, alcune indicazioni sulle dosi perché queste servono per gli studi di valutazione del rischio, informazioni sugli eventi avversi (che abbiamo ottenuto anche attraverso altre vie) e anche informazioni sull’approccio del consumatore a questa categoria di prodotti. [Slide] Sono stati quindi illustrati i risultati preliminari di questa Survey, a partire dal numero di interviste effettuate nei vari paesi. L’obiettivo finale era quello di avere almeno 400 interviste valide per ogni paese, obiettivo che è stato raggiunto; i dati sono stati elaborati anche in base al sesso e all’età; sono stati esclusi i bambini in quanto la Survey era riferita soltanto agli adulti. Innanzi tutto va chiarito che quando ci riferiamo a “consumatori” intendiamo, persone che hanno consumato integratori alimentari a base erboristica (non solo quelli vitaminico minerali) per almeno per un certo periodo negli ultimi due anni, quindi una categoria ben precisa, non la persona che li ha usati occasionalmente. Queste persone venivano arruolate attraverso interviste telefoniche a cui poi si chiedeva di compilare il questionario assistiti dall’intervistatore. La maggior parte delle persone intervistate consumava un solo prodotto, però [Slide] una certa percentuale ne consumava due o più (in Finlandia si arriva al 25%). Per quello che riguarda le ragioni, si osserva una certa differenza tra paese e paese negli obiettivi salutistici per cui le persone consumavano gli integratori [Slide]; le croci stanno a rappresentare una frequenza di risposta superiore al 15% per rendere più immediata la valutazione dei risultati. La Finlandia ha segnalato parecchie risposte. L’uso per migliorare la funzionalità del sistema immunitario è stato scelto da 4 paesi su 6; potenziare il sistema immunitario per combattere le malattie del periodo invernale è una delle ragioni per cui si usano gli integratori di questo tipo. Le assunzioni a scopo energetico e tonico sono state segnalate significativamente da tre paesi su 6; seguono gli utilizzi meno frequenti come il potenziamento della memoria in Romania, il controllo del peso corporeo in Spagna. Le varie indicazioni riportate e non segnate da croci sono state comunque segnalate dai consumatori ma con una frequenza inferiore al 15%. Sulla forma utilizzata la maggior parte della persone prende pillole, capsule quindi preferisce un uso orale comodo. Più raramente vengono utilizzate le forme liquide. A raccomandare un prodotto sono principalmente amici o parenti (il famoso passaparola), infatti molto spesso l’integratore alimentare viene consumato perché qualcuno in famiglia o qualche amico lo usa e consiglia di usarlo. Altri consumatori si autogestiscono, solo in due paesi su sei è il farmacista a consigliarlo ed è un po’ strano visto che la farmacia rappresenta uno dei punti vendita più importanti. In Italia un ruolo importante è giocato dagli erboristi e questo è abbastanza intuitivo, perché in Italia le erboristerie sono una realtà ben radicata e esiste anche una laurea breve in erboristeria. Stranamente non viene indicato internet come fonte di informazione importante. Relativamente al luogo di acquisto, la maggior parte delle persone ha risposto in farmacia, l’erboristeria o comunque in negozi che vendono prodotti salutistici; i supermarket sono stati indicati più frequentemente nei paesi nordici (Finlandia, Regno Unito) ma anche in Spagna; internet non è una fonte di acquisto importante a parte la Germania; negli altri paesi viene segnalato ma con frequenza inferiore al 15%. Per quello che riguarda le istruzioni utili al consumo del prodotto si utilizza molto quanto scritto sulla scatola, seguono le raccomandazioni di amici o parenti. Ancora una volta internet non è stato segnalato come importante fonte di informazione per il dosaggio, mentre diventa 160 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 21 Novembre estremamente importante per i consumatori che vogliano avere qualche informazione in più, insieme ai farmacisti, ai giornali e amici. Colpisce che per avere informazioni il consumatore non interroghi le fonti scientifiche ma amici, internet e altro. Un’altra Survey che abbiamo condotto è quella che coinvolge i centri antiveleno; lo scopo era quello di raccogliere gli eventi avversi agli integratori alimentari che sono spesso sottostimati e poco disponibili. Per avere questi dati è stato redatto un apposito questionario, che è stato inviato a tutti i centri antiveleno appartenenti all’associazione europea e che sono distribuiti geograficamente in tutta Europa. A questi si è aggiunto un centro antiveleno brasiliano che ha aderito spontaneamente in collaborazione con L’Università di San Paolo che è un partner di PlantLIBRA. I centri coinvolti erano 64, 30 hanno risposto e 10 di questi hanno segnalato eventi avversi. I risultati [Slide] sono stati rielaborati; i casi totali segnalati dai centri antiveleno sono stati 526 però andando a valutare quelli che sono veramente associati ad un prodotto erboristico o ad un integratore alimentare, i numeri scendono a 153. Alcuni centri hanno fatto una scelta più accurata di altri; l’Italia è stata abbastanza aderente alle richieste e di 71 casi segnalati ne sono stati scartati solo pochi; in Finlandia di 168 segnalati ne sono stati mantenuti solo 11 perché gli altri non erano sufficientemente documentati. [Slide] Relativamente alla percentuale di importanza degli eventi avversi, la pianta più coinvolta è la mandragola, poi la valeriana, l’ippocastano, il colchico, il the verde (Camelia senesis), la melissa, la passiflora e cosi via. Alcune di queste piante non sono incluse in integratori, ma sono state segnalate per errori di riconoscimento, come nel caso della mandragola. Gli eventi avversi segnalati erano in alcuni casi attesi perché ben noti (liquirizia); altri sono risultati meno attesi come quelli associati alla menta. Tra i vari casi si può citare la liquirizia che è nota per il suo aspetto ipertensivo; il suo utilizzo deve quindi essere sconsigliato a chi soffra di ipertensione arteriosa. Per quello che riguarda la Camelia sinensis, è nota l’associazione con epatopatie. La maggior parte degli eventi avversi è stata associata in passato agli estratti idroalcolici, ma più recentemente sono stati indotti anche da elevate quantità di infuso di te verde. Pur sporadici (se consideriamo i numerosissimi consumatori al mondo di te verde) queste epatopatie sono ormai ben documentate e gravi. L’obiettivo della raccolta di dati sugli eventi avversi era quello di poter identificare più chiaramente quali sono gli ingredienti botanici che possono rappresentare un rischio per il consumatore; capire le condizioni che possono portare ad un rischio maggiore, tra cui l’associazione con farmaci o alcune patologie come nel caso della liquirizia e l’ipertensione. È importante capire le cause della tossicità, ed identificare i gruppi a rischio per i quali sono necessarie particolari avvertenze. E’ importante che questi gruppi vengano tutelati con opportuna informazone da parte del medico, del farmacista e anche di chi produce l’integratore; naturalmente tutto deve collaborare ad una strategia idonea per ridurre al minimo i rischi di eventi avversi. In linea di massima si può dire che gli eventi avversi ai prodotti contenenti ingredienti erboristici sono in numero limitato, anche se un certo numero di casi sono stati segnalati dai centri antiveleno. Probabilmente in futuro il numero di segnalazioni aumenterà, sia per un aumento dell’uso degli integratori alimentari, sia per la maggior consapevolezza dei centri stessi. Un’altra importante attività del progetto PlantLIBRA è il meta-database che comprende tutte le informazioni disponibili nel settore degli integratori con ingredienti botanici: informazioni sulla composizione, sugli aspetti botanici, sugli aspetti di beneficio quindi gli effetti salutistici legati agli integratori e anche aspetti tossicologici, gli eventi avversi nell’uomo e i metodi di analisi. La banca dati è attualmente a disposizione dei partners di PlantLIBRA e dei collaboratori del progetto; in futuro si auspica di potere aprire l’accesso a tutte le persone che operano nel settore, quindi legislatori, produttori, laboratori di analisi, i centri antiveleno, ecc. [Slide] Le attività del progetto sono disponibili a tutti sul sito di PlantLIBRA (WWW.plantlibra.eu), da cui si possono scaricare le newsletters. Arezzo 20 - 23 novembre 2012 161 21 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute Verso MILANO EXPO 2015 - Ambiente, sostenibilità e salute "La valutazione della sicurezza dei Botanicals negli integratori" Università di Milano Trascrizione non revisionata dal relatore Marina Marinovich Buongiorno, la mia relazione parlerà della sicurezza alimentare degli integratori alimentari. Stiamo parlando di integratori a base vegetale. Potenziali problemi che normalmente si trova ad affrontare su questo tipo di prodotto. Il primo, la tossicità intrinseca di questi ingredienti, quindi la possibilità che per natura il prodotto botanico contenga degli ingredienti che singolarmente hanno una tossicità, la possibilità di adulterazione quindi una frode con l’inserimento di altri prodotti sempre di derivazione vegetale che però hanno una tossicità spiccata, una errata identificazione anche questo a volte succede quando il prodotto veicolato attraverso canali di piccole industrie di produzione o addirittura quasi a livello hobbistico. La contaminazione che può essere di metalli pesanti, questo si riscontra molto spesso in prodotti provenienti da paesi terzi, a volte non perché è una contaminazione ma perché deriva dal processamento che in alcuni paesi include l’utilizzo di metalli che poi rimangono a contaminare il prodotto oppure una contaminazione microbiologica. L’errato uso può essere un’altra fonte di tossicità l’utilizzo di una pianta con determinate applicazioni su alcuni problemi o caratteristiche fisiologiche viene utilizzata per altro. ho messo l’iterazione con farmaci perché è un problema grosso, alcuni integratori possono andare a disturbare l’apporto nutriente della normale dieta oppure una terapia e l’altra problematica è che la persona alla domanda del medico prende altri farmaci risposte no perché non vede l’integratore come un farmaco ma di fatto questo prodotto può costituire un problema. Parlare di sicurezza vuol dire che questi sono problemi generali, abbiamo visto che l’uso degli integratori è un uso globale, abbiamo visto che le materie primarie ci arrivano da mercati non locali ne europei quindi la problematica si è globalizzata e di conseguenza deve essere globalizzato anche l’approccio alla sicurezza, non possiamo avere criteri di valutazione validi solo per noi perché altrimenti tutta questa impalcatura cade. Il concetto di rischio nella popolazione è personale e molto spesso è legato alla sicurezza con cui approcciamo una materia, ad esempio un integratore naturale botanico ci sembra più sicuro di altri. Di conseguenza a questo mercato globale è giusto che ci sia stata una spinta non solo del mondo scientifico ma anche delle autorità preposte al controllo per dare suggerimenti su come gestire tutte le problematiche. Non entro nel merito delle linee guida, che sono disponibili e che sono piuttosto dettagliate, ma volevo fare l’esempio relativo a quando non è un adulterazione non è una contaminazione il problema ma è il prodotto botanico in se cioè uno o più ingredienti del prodotto botanico, cosa fare e quali sono le problematiche. La linea guida ci dice che se la sostanza è semplicemente tossica posso utilizzare un approccio tradizionale, quello che uso ad esempio per gli additivi alimentari, quindi valuterò cercherò di stabilire in base alla sperimentazione animale se è disponibile una dose giornaliera ammissibile e che non costituisce un rischio per la mia salute, dove questo non sia possibile perché i dati di tossicologia non ci sono posso tentare un altro approccio che si basa semplicemente sull’esposizione del TTC che mi permette di dire che la quantità che assumo come integratore è molto al di sotto della quantità che posso assumere come alimento di questo ingrediente quindi arrivo ad una sorta di valutazione di sicurezza. Ho poi dei problemi particolari, spesso le sostanze i prodotti botaniche contengono sostanze genotossiche cancerogene, nel caso del basilico se ne è sentito parlare diverse volte, che contengono ingredienti che se valutati singolarmente presentano delle criticità. In questo caso le linee guida suggeriscono un altro approccio che è quello del margine di esposizione. Il margine di esposizione è un approccio matematico è estrapolazione di dati che vengono sempre dalla sperimentazione animale, deriva appunto dall’utilizzo di questo benchmarking dose messo in relazione all’esposizione umana e sempre le linee guida ci dicono che quando questo rapporto è superiore a 10.000 mi considero in una zona di sicurezza per l’utilizzo di questo prodotto che contiene questo ingrediente. [Slide] se fate una sperimentazione, guardate gli asterischi utilizzate diverse dosi avete una risposta in questo caso una risposta di animali che presentavano tumori posso disegnare una curva o per quei punti posso disegnare più curve quindi poi ho bisogno di conoscere il range di errore di questa stessa curva e su uno dei limiti della curva stessa vado a estrapolare l’effetto al 10%. Questa è la benchmarking dose lower ten che avete visto nel rapporto precedente quindi è semplicemente un metodo per estrapolare la dose che mi causerebbe l’aumento dell’incidenza, in questo caso dei tumori, del 10% rispetto ai controlli. Il problema è che quando noi andiamo ad applicare queste formule matematiche alla realtà ci troviamo con delle amare sorprese. [Slide] Questi sono gli achenilbenzeni, una famiglia abbastanza conservata di sostanze con struttura molto simile (…) apparentemente non ci dicono niente ma sono presenti in molti ingredienti (prezzemolo, finocchio, noce moscata, cinnamomo …). Per molti di questi ingredienti che mangiamo e che sono utilizzati come integratori il margine di esposizione non è superiore a 10.000 ma è a volte pesantemente al disotto, quindi a questo punto si tratta di gestire, di capire cosa fare. Proibisco l’integratore va bene, ma la domanda successiva è proibisco il basilico o il sedano, cioè come gestisco questo tipo di problematica. Ci sono diverse strategie, una l’abbiamo detta riduco la concentrazione del 162 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 21 Novembre prodotto quando questo è un integratore o dell’ingrediente nel prodotto con pratiche agronomiche ma non sempre è possibile anche perché l’ingrediente tossico è a volte responsabile dell’effetto benefico del prodotto. Ottengo dati umani per capire se l’effetto che io pavento che ho osservato nell’animale da cui ho costruito il MOE è un effetto vero, quindi il meccanismo d’azione quindi tossico cinetica assorbo come l’animale, distribuisco, butto fuori questo alimento senza problemi, ma quello che appare sempre di più dalla letteratura e dalla ricerca, è che nel caso dei prodotti botanici non ha senso parlare di ingredienti separatamente ne pensare che il vegetale sia una somma matematica di una serie di ingredienti ma sia qualcosa di più, è un insieme vivo ed è qualcosa di differente e quindi in questo tipo di approcci bisogna andare a considerare l’effetto matrice. Di questo si sta occupando PlantLIBRA in particolare proprio sull’effetto matrice sui dati tossicologici. I gruppi sono uno olandese e uno dell’Università di Milano, già questi dati sono disponibili in letteratura ed hanno dimostrato come quando io valuto il metilgenolo l’estragolo da solo vedo un certo effetto quando valuto l’estratto di basilico, l’estratto di finocchio che contengono queste sostanze l’effetto è differente. In Olanda hanno osservato che l’estratto di basilico blocca il legame al DNA che si può osservare con l’estragolo o con metilgenolo, quindi se valuto solo queste sostanze vedo un legame al DNA che è un indice possibile di genotossicità, se valuto l’estratto di basilico in toto non vedo niente. Noi abbiamo preso estragolo e idrossiestragolo per valutarne la genotossicità e abbiamo preso gli estratti di basilico che contengono queste sostanze e abbiamo fatto una sperimentazione con sostanze che contengo più sostanze addizionate. Nella prima fase abbiamo preso estragolo e idrossiestragolo che è il metabolita responsabile del danno [Slide] in alto a destra è come funziona questo test che si chiama test della cometa perché quando le cellule non sono mutate appaiono completamente tonde normali, man mano che si ha il danno al DNA si forma una coda di frammento da cui appunto il nome del test. [Slide] sono state misurate le cellule normali e come vedete l’estragolo come tale non fa niente anche a diverse dosi mentre idrossiestragolo quindi il metabolita, quello che in effetti è responsabile anche in vivo dell’effetto, causa genotossicità. Cosa succede quando valuto gli estratti [Slide] primo pannello è il controllo, il secondo pannello è idrossiestragolo come vedete abbiamo delle comete abbastanza evidenti, terzo pannello l’estratto di basilico [Slide], quello che poi utilizzo come integratore, vede che è scomparsa non ho nessun effetto di danno al DNA. I pannelli inferiori sono qualcosa di diverso ancora [Slide], ho preso l’estratto che non causa danno e ho aggiunto esternamente idrossiestragolo che è in grado di causare il danno e quello che si vede è che l’estratto non solo è efficace ma è anche in grado di inibire l’eventuale effetto mutageno causato dall’idrossiestragolo come tale. Questo è un dato relativo a idrossiestragolo estratti di basilico ma sembra che tutti gli estratti vegetali abbiamo tutti questa capacità probabilmente perché contengono nel loro insieme elementi inibitori, contengono percetina, una serie di sostanze antiossidanti, sostanze in grado di inibire gli enzimi che forma l’idrossiestragolo in vivo. Questo pone l’attenzione sulla pericolosità nella generalizzazione e nel assumere che un prodotto di origine botanica, di origine vegetale sia appunto una miscela di monadi che non interagiscono, ma una miscela come tale è qualcosa di differente ed ha una sua attività che deve essere caratterizzata come tale. Sicuramente da dei dati allarmistici che sono sorti dalla considerazione dello studio degli ingredienti come tali si deve arrivare ad una valutazione di quello che realmente viene assunto non solo una più corretta valutazione dell’esposizione, cosa che sta valutando PlantLIBRA, perché abbiamo visto che il MOE è dato si da un valore sperimentale ma diviso l’esposizione umana. Molto spesso i dati sono dati generalizzati per diete che poi sono diete che non esistono quindi avere un dato di esposizione è importante. Concludo dicendo che naturale non vuol dire sicuro ma è altrettanto vero che prodotto botanico non vuol dire A+B+C ma è qualcosa di differente almeno dal punto di vista tossicologico. Arezzo 20 - 23 novembre 2012 163 21 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute Verso MILANO EXPO 2015 - Ambiente, sostenibilità e salute "Valorizzazione della filiera delle piante officinali: dati dell’Osservatorio economico della filiera agricola" Ministero delle Politiche Agricole Alimentari e Forestali Alberto Manzo Da circa due anni il Ministero sta lavorando attraverso il Tavolo della filiera in stretta collaborazione con il Ministero della Salute e l’idea è quello di portare in tempi brevi, prima della prossima estate, un Piano di settore che copra un po’ le carenze del settore dal punto di vista agricolo, in particolare carenze relative alle informazioni. Molti di questi dati sono stati presentati anche al Sana di Bologna e, diciamo, sono da prendere con le pinze ovvero con la massima attenzione perché verranno ovviamente verificati nel prosieguo dei lavori. [Slide] Dagli ultimi dati, il settore delle piante officinali è un settore di nicchia ma anche molto importante poiché sono 3300 ha coltivati, 3600 t di prodotto, 9 milioni di € il valore delle produzioni, tra i 500 e 1000 operatori di settore in tutta la filiera e 2000 marchi commerciali che impiegano piante officinali nei loro prodotti. [Slide] Non mi dilungo sulle leggi, poiché per la parte agricola sono piuttosto obsolete quindi anche questo è un motivo per dover approvare un Piano di Settore, che, dovrà passare attraverso la Conferenza Stato-Regioni e diventerà fruibile a livello nazionale fermo restando che l’idea del Piano di Settore è di andare ad incidere non tanto sulle normative, che come avete visto sono da rivedere, ma piuttosto cercare di migliorare e rendere più conosciuto, soprattutto dal punto di vista agricolo, questo settore. Un settore che si sta diffondendo e lo vedremo tra breve, ma che ha bisogno di essere indirizzato soprattutto per le pratiche agronomiche. Quali sono i target? Dare delle risposte immediate alle Associazioni quali FIPPO, Assoerbe e Siste che hanno fatto richiesta formale al Ministero di istituire un tavolo del settore. Tutto è nato nel 2010, per mettere un po’ a regime il settore e a capirci qualcosa di più, visto che si andava un po’ in ordine sparso quindi aggiornare anche dal punto di vista normativo il settore tenendo conto della sua significativa espansione, chiarire la definizione di prodotto erboristico, definirne i requisiti, l’etichettatura, le modalità di distribuzione e la vendita anche al fine del rilancio del settore garantendo al settore delle piante officinali, soprattutto se si tratta di specie autoctone e/o spontanee, caratteristiche di multidisciplinarietà, in un’ottica di salvaguardia del territorio e dell’ambiente. Tutti target che incidono molto sull’espansione del settore. Il Piano di Settore è in corso di elaborazione da 4 gruppi di lavoro: • GRUPPO 1 - Legislazione – Politiche nazionali e comunitaria (coord. Dr. Manzo del MiPAAF e Dr.ssa Dal Frà del Ministero della Salute); • GRUPPO 2 – Certificazione e qualità (coord. Dr. De Caro della Quality Assurance Martin Bauer S.p.a.); • GRUPPO 3 - Ricerca & Sperimentazione (coord. Prof.ssa Pistelli -Università di Pisa; Prof.ssa Di Renzo -Università di Roma Tor Vergata); • GRUPPO 4 - Osservatorio economico – Dati statistici (coord. Dr. Primavera –FIPPO in collaborazione con ISMEA). Deve essere approvato nell’ambito della Conferenza Stato- Regioni. [Slide] Vediamo i primi dati, li abbiamo aggiornati rispetto a quelli del 2000 che erano dati parziali. Questo progetto “Osservatorio economico del settore sulle piante officinali” nella parte agricola è un progetto elaborato grazie al contributo di chi sta lavorando nei gruppi ed in particolare sui dati statistici di ISTAT ed EUROSTAT ma anche della FederBio la federazione del biologico perché molte di queste piante sono coltivate secondo i regolamenti di agricoltura biologica. Il Censimento dell’agricoltura italiana del 2010 fornisce alcuni dati per l’Unione Europea, circa 120 mila ha investiti da parte di 20 mila aziende più o meno. Per l’Italia quasi 3000 aziende e 7100 ha investiti. [Slide] Come vedete dai grafici c’è una diminuzione delle aziende ma la superficie complessiva è in aumento, con un interesse del settore officinali che passa da una media molto bassa di mezzo ha a 2 ettari e mezzo di media. Quindi sono medie o grandi aziende che cominciano ad investire in questo settore, cominciando da pochi ha per poi evolversi, per vedere come va la produzione, con un trend positivo. Non è incluso il bergamotto in questi grafici perché ISTAT e EUROSTAT hanno deciso di escluderlo, altrimenti con il bergamotto queste statistiche subirebbero una modifica, si sta verificando anche questo dato. Accanto alla crescita della superficie complessiva il Censimento fa emergere dei dati interessanti, una redistribuzione territoriale tra le Regioni rispetto al 2000 infatti spiccano Marche ed Emilia Romagna ma questi dati sono da tenere sott’occhio, li stiamo verificando perché sono dovuti a talune dichiarazioni degli organismi di controllo del biologico che hanno inserito dei dati nelle schede di rilevazione piuttosto strani, da prendere quindi con beneficio di inventario. Nel prosieguo attendiamo le rettifiche della Federazione del biologico. Il dato certo è che le superfici sono aumentate in tutte le Regioni ma non in Piemonte e in Sicilia e tra le regioni più interessanti emerge la Puglia. Un commento su questi primi dati dell’”Osservatorio Economico”: emerge un settore in forte evoluzione nell’ultimo decennio. C’è una crescita di superficie come dimensione media per azienda e, i dati per regione, danno un aumento dei processi di ristrutturazione, in particolare nonostante diminuiscono le aziende aumentano le superfici. Quindi c’è una sorta di specializzazione per cui il commento che si può trarre dal punto di vista agricolo è che la maggior specializzazione, non più casuale, diventa 164 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 21 Novembre un vantaggio, quindi vi è sicuramente un ritorno economico. I dati dimensionali anche evidenziano una diminuzione delle aziende, micro piccole, mentre solo per le micro diminuisce anche la superfice investita, viceversa la superficie è aumentata in tutte le altre classi e soprattutto per le aziende che hanno una superficie agricola utilizzata maggiore di 50 ha, quindi c’è un interesse anche per provare perché normalmente i coltivatori testano su una parte del terreno aziendale se economicamente la coltura rende e poi continuano e allargano la produzione negli anni successivi. Infatti, nel 2000 il 48% delle aziende con officinali aveva meno di 1 ha di SAU e il 2% erano grandi aziende con SAU di oltre 50 ha; nel 2010 solo il 15% sono microaziende e l’8% sono grandi aziende ma con una quota pari al 40% della superficie totale a officinali. La domanda è: “Modello Aziendale: si affermano piccole aziende e molto specializzate e/o grandi aziende diversificate?”. Questo è un aspetto che dovremo sicuramente approfondire. Questi sono dati del Ministero del settore biologico, vediamo anche la superficie investita a piante aromatiche, medicinali e da condimento di colture biologiche, dalla banca dati del Sinab risulta ammontare a 2958 ha nel 2010, nel decennio le superfici stanno crescendo al netto delle oscillazioni annuali, quindi c’è un più 54% questo è un dato provvisorio che dovremo anzi definire nel 2011 rispetto al 2000 comunque è sicuramente significativo. [Slide] Anche questi dati, ripresi da fonte FAO, una tabella di cui prendiamo atto ma anche qui ci sarebbe da discutere moltissimo, io vi volevo far vedere ad esempio una tabella con la voce “Altri Agrumi” dove viene coltivato il bergamotto e il cedro e non si capisce da dove viene se dalla Cina o dalla Nigeria. Ma questo è un aspetto che evidentemente come istituzione centrale dovremmo verificare con la FAO a Roma per capire come si è arrivati ad avere dei dati che per gli addetti ai lavori non sono affatto chiari. Comunque la maggior superficie coltivata a livello mondiale riguarda il Tè, la maggior produzione è quella di “altri agrumi”. Per analizzare le importazioni e le esportazioni dell’Italia, si deve costruire un aggregato di prodotti d’interesse a partire dal massimo dettaglio della classificazione del commercio (NC8). Nel 2011 le importazioni in valore sfiorano 1 miliardo di euro, le esportazioni 413 milioni. Nel decennio l’export è cresciuto a un tasso annuo del 4,4%, l’import del 3,6%. È evidente che sembrerebbe dal tasso annuo che ci sia una controtendenza, ciò che per propria “mission” il Ministero dell’Agricoltura deve fare è incentivare le produzioni nazionali anche per un discorso di qualità perché un prodotto importato in maniera generica deve essere controllato sicuramente perché può avere dei problemi ai fini della trasformazione. Cosa evidente è che a livello nazionale si riesce a fare dei controlli o a gestire di più la filiera così si può sicuramente competere nei mercati comunitari ed internazionali a livello di qualità. [Slide] Il maggior esborso per le importazioni riguarda le «sostanze odorifere», sia per uso alimentare che non, e i «succhi ed estratti vegetali, pectina ecc.», mentre i nostri introiti derivano principalmente da «succhi ed estratti vegetali,..», «sostanze odorifere ad uso alimentare» e «oli essenziali». Quest’ultima è l’unica voce con saldo attivo (oltre al bergamotto fresco), che si è anche rafforzata tra il 2000 e il 2011. [Slide] Lo schema della filiera ovvero ciò che vuole fare l’Amministrazione. La prima difficoltà è ricostruire un quadro organico poiché da tempo nessuno ha provato a fare chiarezza. È un settore di nicchia ma ha un gran numero di prodotti (di cui tradizionalmente molte erano specie spontanee) nella fase primaria: carenza di statistiche ufficiali, volatilità, fenomeni congiunturali, influenza dei mercati internazionali e molteplici utilizzi. Quindi più filiere, con caratteristiche molto diverse. Definizione del settore; ambiti di inclusione e esclusione. Influenza della regolamentazione per i prodotti derivati, sia sul mercato interno che internazionale. È evidente che questi sono alcuni degli aspetti che dovremmo approfondire però si dovrebbe fare in collaborazione con gli Enti di ricerca e le Associazioni di filiera ed questo è ciò che stiamo cercando di fare e cercheremo di portare attraverso un Piano di Settore chiaro e fruibile. [Slide] Tanto per far capire lo schema di filiera, guardate questo grafico: sembra semplice ma non lo è perché c’è tutta la parte agricola poi c’è la trasformazione intermedia e ci sono i grossisti con tutte tematiche settoriali diverse. Un quadro di questo tipo, che evito di approfondire ma è davanti agli occhi di tutti voi, è un quadro estremamente complesso che copre tanti settori non solo dal punto di vista agricolo fino alla trasformazione finale. Questa situazione ci deve fare riflettere in prospettiva poiché è un settore che ha delle potenzialità importanti. La prospettiva, io credo, è soprattutto della politica agricola comunitaria, infatti la diminuzione dei contributi comunitari e la mancanza di politiche a sussidio degli agricoltori e di taluni settori con il disaccoppiamento può favorire sicuramente un settore come questo che ha delle prospettive importanti ma anche una funzionalità importante per l’ambiente e potrebbe diventare una valida alternativa a molte altre colture. È evidente che il passaggio successivo è quello della corretta informazione agli addetti ai lavori sul territorio ma con il supporto delle associazioni di settore e delle confederazioni agricole. Su questo progetto abbiamo investito 100 mila euro in due anni, non sono molti ma speriamo di contribuire di più anche per altri aspetti collaborando con la filiera sempre di più in futuro. Il progetto, che è ancora in corso, prevede una serie di passaggi. Anzitutto la definizione dell’oggetto di analisi cioè un elenco delle specie e dei derivati, glossario. Un analisi “a tavolino” delle fonti statistiche e dei dati ufficiali disponibili (Istat, Fao, Eurostat, ecc.), fonti che spesso non si parlano e valutazione critica delle fonti. Individuazione degli “universi” di operatori nelle diverse fasi della filiera attraverso l’acquisizione e l’elaborazione di archivi amministrativi e statistici (CCIAA, Settore Biologico, Censimenti,..) – con l’obiettivo di ridurre il «fastidio statistico» sulle imprese, che devono fornire dati sempre più aggiornati. Un’ indagine esplorativa finalizzata a Arezzo 20 - 23 novembre 2012 165 21 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute completare il quadro della filiera per quanto riguarda le relazioni tra gli attori, contesto competitivo, sbocchi di mercato e tendenze in atto e per fare emergere le criticità e gli ulteriori fabbisogni informativi. La metodologia d’indagine è basata su focus group e interviste dirette a soggetti di riferimento nella filiera. Output previsti e risultati attesi sono la definizione di un elenco aggiornato e condiviso delle specie coltivate e potenzialmente coltivabili in Italia e dei prodotti derivati intermedi e relativo glossario. La creazione di Banche dati organizzate, aggiornate e aggiornabili (commercio estero, produzioni mondiali, ecc.) e un Rapporto finale contenente una fotografia il più possibile completa della filiera. E’ necessaria la massima collaborazione di tutti coloro che dispongono di dati per aumentare la trasparenza, migliorare il funzionamento dei mercati, favorire la stipula di contratti. Si tratta di un settore che ha un grosso potenziale, perché ha diversi “plus”: affonda le radici nella tradizione ma è investito dall’innovazione, coniuga e va incontro a molti interessi dei consumatori moderni (naturalità, benessere, tradizione, cultura, territorio ma anche novità). Nella fase agricola potrebbero essere veicolate risorse anche pubbliche (nuova PAC, PSR), ma l’agricoltura nazionale rischia ancora una volta di essere fuori dai mercati europei e internazionali se non si evolve, migliorando la sua capacità contrattuale e i suoi rapporti commerciali a monte ed a valle (attraverso associazionismo, interprofessione e per esempio, attraverso un riconoscimento ufficiale della qualità delle materie prime). Per arrivare a questi risultati occorre che i soggetti coinvolti dispongano di informazioni e dati di riferimento. Queste occasioni di confronto sono preziose per ricevere suggerimenti e raccogliere i fabbisogni delle imprese e degli altri operatori. Vi ringrazio dell’attenzione. 166 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 21 Novembre Verso MILANO EXPO 2015 - Ambiente, sostenibilità e salute "Bergamotto: valorizzazione di un patrimonio unico del territorio: dati ed esperienze" Avvocato Amilcare Mollica Anzitutto Vorrei rivolgere un saluto e un ringraziamento agli organizzatori che mi hanno permesso di parlare qui oggi del bergamotto. Il tema a me consegnato contiene due termini: “valorizzazione” e “territorio” in relazione al prodotto bergamotto; entrambi i termini hanno bisogno di essere chiariti distintamente. Innanzi tutto per valorizzare è necessario conoscere, è questo un passaggio fondamentale ed imprescindibile per poter procedere verso una migliore prospettiva del prodotto collocato in un certo territorio. Per far ciò è d’obbligo lanciare uno sguardo alla nobile storia di tale incredibile agrume. Ogni cosa ha una sua storia, le piante in particolare suscitano forte interesse per le enormi potenzialità che possono offrire al mondo accademico e scientifico. La storia di questo particolare agrume ci insegna che per tanto tempo è stato bistrattato e, molto spesso, dimenticato senza alcuna seria ragione, direi senza alcuna condivisibile ragione. Anzitutto la sua nobile storia e la sua identità partendo dall’origine del suo nome. Le sue tracce si individuano già nel 196 A. C.. In quel tempo già si segnala l’utilizzo della sua essenza giacché il Re della città di Pergamo, situata nell’Asia Minore, faceva utilizzo di tale prodotto per la difesa delle pergamene da cui, si ritiene, sia sorto il nome del famoso agrume. In greco, infatti, il termine “motta” significa “difesa” e se ne trova traccia e conferma nella zona in cui più si produce il bergamotto: l’area Grecanica situata nella zona del basso Jonio calabrese ove tale termine veniva utilizzato per designare le antiche roccaforti poste a difesa del territorio, oggi sede di Comuni. Ne è un esempio Motta San Giovanni oppure Motticella in Provincia appunto di Reggio Calabria. Bergamotto è, appunto, la fusione tra il termine di “Pergamo” – Pergamena – e “motta” – difesa della pergamena, la sua originaria funzione, quella di salvare la cultura proteggendo i libri dall’aggressione della muffa e dall’inesorabile scorrere del tempo. In quel tempo si preferiva “fissare” la cultura anziché i profumi! Altre versioni che si riferiscono all’origine del suo nome risultano altamente improbabili, come quando si vuol far derivare il suo nome dalla città di Bergamo. In effetti non vi è alcun motivo per supporre tale derivazione. Pino Aprile, giornalista nonché scrittore, nel suo “Giù al Sud” a pag. 112 riporta una ricerca svolta dal CNR che ha dato il risultato di scoprire nell’Isola di Cipro tracce certe del famoso agrume già 2000 anni prima di Cristo così confermando, attraverso altra peculiarità di tale prodotto di cui si farà cenno più appresso, che già in quell’epoca vi era una sicura presenza umana sulla costa Jonica della Calabria per come peraltro confermano gli studi archeologici condotti nel 2008 dall’Università di Cambridge nella persona del Prof. John Robb. Il bergamotto, la sua essenza, la sua fragranza ha accompagnato dunque gli Dei, i miti e leggende sorti nel centro del pensiero mondiale: la Grecia, ivi trasportato dalla terra poi denominata Magnagrecia. Continuiamo a parlare della sua storia. In Europa fa il suo ingresso ufficiale presso le alte Corti nel 1536 con i “bergamini confetti” che poi non sono altro che bucce di bergamotto candite; nello stesso periodo venne realizzato il sorbetto al bergamotto utilizzando il suo succo unito ad un pizzico di sale per bloccare l’elemento freddo dato dallo scioglimento della neve. La Corte del Re Luigi XIV di Francia utilizzava l’acqua al bergamotto, ivi trasportata da certo Monsieur Procopio di Messina, per la sua fragranza, per i suoi riconosciuti poteri disinfettanti e per superare certe convinzione della medicina di un tempo secondo cui l’acqua era il veicolo con cui si diffondeva la peste: con l’avvento dell’essenza del bergamotto finalmente il Re e la sua numerosa Corte potettero lavarsi ma anche profumare! Nel 1704 venne creata l’ acqua admirabilis, oggi la famosa acqua di Colonia, - città ove è stata inventata una miscela di alcol, acqua e essenza di bergamotto. Nel 1830 la ditta inglese Twining mette in commercio per la prima volta un tè aromatizzato al bergamotto asserendo artatamente che l’aroma era di origine indiana, forse per conferire quell’importanza che solo gli inglesi sanno dare ai loro prodotti. In tutte le circostanze ricordate, per come si vede, non c’è presenza di alcun riferimento alla terra di origine: alla Calabria e, in particolare, alla città di Reggio Calabria. Utilizzo e applicazioni In relazione alle sue conosciute applicazioni, in particolare l’essenza, prima ricavata con il lavoro a spugna, poi con la “macchina calabrese” costruita da certo Nicola Barillà di Reggio Calabria già nel 1840, oggi con più sofisticati macchinari, viene utilmente adoperata in diversi campi merceologici quali il profumo, in cui l’essenza Arezzo 20 - 23 novembre 2012 167 21 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute deterpenata viene adoperata quale fissatore naturale, oltre che nell’igiene per rendere fragranti i saponi ma anche per contribuire a dare più forza sgrassante e migliori risultati ai fini di una efficace pulizia. In campo medico viene impiegata per combattere efficacemente la psoriasi o altre forme virali, batteriche o infiammatorie, micosi, vitiligine e sembra si stia rivelando un toccasana anche per l’alzheimer. Di recente l’Università della Calabria ha brevettato un prodotto derivato dal bergamotto idoneo per combattere il colesterolo. Gli estremi del brevetto sono da me riportati nel mio libro “Quale Sud? Itinerari possibili”. Vi è ancora da dire che, dopo la estrazione dell’essenza, dal frutto residuato si ricava il pastazzo che viene utilizzato come mangime per animali da latte ed è un ottimo alimento perché più ricco di vitamine rispetto a qualunque altro mangime per come documentato da una monografia del 1963 dell’agronomo Prof. Ignazio D’Alessandro Vadalà. Dal latte così originato i nostri contadini calabresi ricavavano particolari ricotte e formaggi con delicato aroma al bergamotto. Il pastazzo, essiccato e opportunamente sbriciolato, veniva adoperato anche in edilizia unito alla calce di Palizzi per conferire maggiore “traspirazione” e profumo ai muri in pietra per come documentano recenti studi condotti presso l’Università Mediterranea di Reggio Calabria, facoltà di Architettura, dipartimento PAU. Il frutto del bergamotto, nelle applicazioni locali, viene impiegato in cucina anche per realizzare piatti particolarmente delicati nel gusto e quale surrogato del limone del quale imita la forza dirompente dell’acidità unita però all’aroma inconfondibile di un gusto esotico ed inimitabile, viene impiegato nella lavorazione dei dolci, marmellate, nel settore degli alcolici (grappa al bergamotto) e delle bibite (gassosa al bergamotto) così rivelando la sua più ampia versatilità. Il bergamotto e il “suo” territorio Ai fini della sua valorizzazione unita al territorio, consideriamo adesso altra caratteristica di tale prodotto: la sua caparbietà alla localizzazione e converrete con me che più vengono esaltate e diffuse le caratteristiche di un territorio più sarà conosciuto lo stesso territorio. Bisogna dire che in tale missione il bergamotto ce la mette tutta se non fosse per alcune criticità antropiche e ambientali che fra poco avrò modo di esporre. L’agrume in questione, evidentemente per particolari fattori climatici e composizione chimica del terreno (sembra che il territorio considerato sia ricco di selenio che è notoriamente un potente antiossidante) rispetto al resto del mondo si può reperire e fruttifica con caratteristiche particolari solo in una strettissima fascia costiera della Calabria, da Villa San Giovanni a Monasterace. I tentativi di replicare il fenomeno in altre parti del mondo, pure a vocazione agrumicola, sono miseramente falliti, questa pianta evidentemente non intende abbandonare il posto in cui è nata e dedica i suoi frutti solo alla terra natia. A Torino, nella regia di Venarìa, i Savoia hanno voluto la pianta di bergamotto che però, andando contro ogni canone di buona educazione, non produce l’essenza che lo contraddistingue che viene, però, offerta naturalmente al contadino calabrese! Ci stiamo avvicinando al punto, quello che in qualche modo forse di più interessa questo convegno. Non si vuole qui affermare che l’albero sia posseduto in modo monopolistico ed in via esclusiva dal territorio prima accennato. Tale agrume e la sua pianta trovano asilo anche in Costa d’Avorio e in Brasile, forse anche in altri luoghi, ultimamente corre voce che anche i cinesi lo producono (ti pareva che i cinesi non arrivassero a produrre anche il bergamotto!!) ma c’è un particolare non da poco: il bergamotto calabrese non è solo un frutto, è anche un meraviglioso e generoso laboratorio chimico. Il bergamotto di Calabria, a differenza delle altre produzioni in terra straniera, annovera ben 350 componenti chimici naturali e altri ancora se ne stanno scoprendo attraverso metodi di ricerca diversificati per come il Prof. Sindona dell’Università di Cosenza può testimoniare per aver lui scoperto quell’enzima che lo ha poi condotto alla ulteriore scoperta della formula dell’anti colesterolo. Così per come si rivela una cornucopia di opportunità lo stesso prodotto può però causare dei danni alla salute. Pericoli per la salute Come può accadere che lo stesso prodotto trova tante applicazioni nel mondo scientifico e nella vita pratica e, poi, si può rivelare dannoso per la salute? Vediamo più da vicino cosa preoccupa alcuni settori, difensori della salute a tutti i costi, i salutisti puritani. Si suole infatti riferire che nel bergamotto vi sono le furocumarine o furanocumarine. Si conosce la loro struttura chimica. Essa consiste in un anello furanico fuso con la cumarina, tali anelli formano le furocumarine lineari e le angolari. Si possono osservare da vicino, anche ad occhio nudo sulla buccia dell’agrume. 168 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 21 Novembre Queste si rivelano tossiche e pertanto, se collocate sulla pelle nello stato puro ed esposte al sole possono essere causa di ulcerazioni e infiammazioni pustolose. Nel frutto di bergamotto si riscontrano le seguenti: Ossipeucedanina (presente anche nel limone) Biancagelicina (presente anche nel limone) Bergaptene Bergamottina (presente anche nel pompelmo) Esse però vengono trattate nel senso che vengono annullate con un processo meccanico e l’essenza viene deterpenata sino al punto che non hanno più alcun effetto dannoso. Infatti l’essenza così trattata, a quel punto, può essere utilizzata anche per scopi alimentari, tipo la composizione di dolci oppure in profumeria quale base per fissare i profumi o per uso abbronzante: dopo tale processo l’essenza perde il carattere aggressivo, rimane il suo aroma e l’impareggiabile capacità di essere il principe degli agrumi in tutti i campi prima visti e in più è naturale cioè ce lo fornisce direttamente la natura. D’altra parte, per arrivare a noi così per come descritto cioè naturale e versatile, il frutto e la sua pianta hanno dovuto proteggersi: la furocumarina, quale potente composto tossico, è generato dalla pianta per proteggere e difendere il frutto dai predatori parassiti senza ulteriori aiuti di antiparassitari sintetici da laboratorio. D’altra parte ancora, senza questa caratteristica, neanche le ultime scoperte a tutto favore della salute umana sarebbero state possibili: si allude specificamente alla scoperta del composto dell’anti colesterolo che impiega micro componenti del tossico incriminato oppure non si verificherebbero gli effetti benefici che si sono riscontrati nella lotta con prodotti naturali contro la psoriasi. Tuttavia, nonostante queste ovvietà, si riscontrano, da parte di alcune correnti salutistiche ed organizzazioni internazionali, molte difficoltà a ritenere il prodotto bergamotto e la sua essenza quali risorse da rivalutare e meglio pilotare per il raggiungimento del benessere umano. Il Quotidiano della Calabria del 14 novembre 2012 ha pubblicato la seguente notizia: “L’Unione Europea ha proposto di sostituire l’essenza DOP del bergamotto nei profumi” e, come sottotitolo: “La Coldiretti Calabria insorge contro le <lobby multinazionali della chimica>” alludendo così ad una manovra delle multinazionali chimiche a tutto vantaggio del prodotto sintetico. Sul punto non si riscontrano fatti o atti che depongono in modo ufficiale per tale presa di posizione. Bisogna però avvertire che di questi tentativi la storia si può ripetere (non si dimentichi che vi è stato un tempo in cui si mitizzava che l’essenza era causa di tumore, ipotesi non verificata in nessuna sede scientifica e pertanto infondata e meramente denigratoria) ma nel ripetersi, sia pure in altre forme e maniere, causa seri danni al territorio e a quei produttori che ancora insistono nel credere nella ripresa del prodotto. Qualche tempo fa, se non rammento male circa due anni or sono, è circolata la notizia secondo cui approfonditi studi condotti in Norvegia da appositi laboratori specializzati in materia alimentare, hanno “accertato” che assumere il tè aromatizzato al bergamotto provocava una alterazione ai battiti del cuore, una sorta di tachicardia. La notizia è stata pubblicata e da me letta sul settimanale l’Espresso ma era accompagnata da un ironico corsivo del giornalista il quale osservava che il lettore doveva pure sapere che ciò è stato accertato dopo che il paziente aveva assunto consecutivamente ben nove tazze di tè aromatizzato. Viene giustamente da condividere l’ironia e chiedersi cosa sarebbe successo se, ad esempio, si fossero fatti assumere al povero paziente ben nove tazzine di caffè anche senza alcun aroma. Forse anche in quel caso avrebbero constatato una piccola alterazione ai battiti cardiaci: per pervenire alla deduzione non c’è bisogno di scienziati, è intuitiva. Tuttavia è da segnalare che, sia pure per motivi diversi da quelli a cui si è fatto cenno, i veri nemici del bergamotto sono gli stessi calabresi, escludendo da questi i soli produttori ai quali è dato solo il compito di consegnare il frutto ovviamente naturale, ma includendo chi, apparati e personaggi, oggi sfruttano senza alcuna regola il mercato. Basta fare poche ma efficaci considerazioni, tutte fondamentali per una minima analisi del fenomeno che vede il bergamotto principe degli agrumi agli occhi del mondo ma cenerentola a casa propria. Si segnalano dunque le seguenti criticità che si pongono come ostacolo allo sviluppo sostenibile: La prima mancanza di catasto terreni coltivati a bergamotto con la conseguenza che ancora oggi non è dato sapere con un certo grado di certezza la quantità di bergamotto prodotta. Si assume che a tale individuazione si oppongono i produttori temendo un vincolo edificatorio ma l’ipotesi è assolutamente fuori ogni logica, io stesso parlando con molti di loro mi sono accorto che in effetti e nella realtà manca un progetto che coinvolga i produttori per far loro comprendere la convenienza; e la convenienza di avere una mappa dei terreni mi sembra plateale ove si pensi che a fronte di circa 120 tonnellate di essenza che si assume prodotta ogni anno si afferma che la quantità di essenza venduta sia intorno ai tre milioni, sempre di tonnellate! Arezzo 20 - 23 novembre 2012 169 21 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute Viene a tutti in mente che se la domanda è così robusta, il valore del prodotto e del suo territorio diverrà robusto di conseguenza ove venga rispettata la genuinità e la qualità ossia ove l’originaria essenza non venga manipolata diluendola oppure venga salvaguardato il reale valore iniziale. Si assiste, in alcune stagioni, alla giacenza nei magazzini di una certa notevole quantità di essenza invenduta quando viceversa la quantità commercializzata supera l’essenza prodotta: è evidente, quanto meno, il sospetto della manipolazione. La seconda L’attuale politica sul bergamotto viene incentrata sul prezzo, peraltro fissato solo da coloro che acquistano il prodotto per trasformarlo in essenza; come definireste voi un mercato in cui il venditore, non avendo alternative, è costretto a vendere il suo prodotto al prezzo che stabilirà l’acquirente? Immagino che stiate pensando ad una economia totalitaria, dirigista, comunista, insomma propria dei regimi dittatoriali; il prezzo infatti non è determinato dalla domanda e dall’offerta in un libero e sano mercato, manca una quotazione nel borsino della locale camera di commercio; presso la borsa di Londra vengono quotati tutti i prodotti esistenti al mondo, l’unico assente è il bergamotto e la sua essenza. E’ come se il prodotto bergamotto non esistesse per l’economia mondiale benché tale economia lo richieda ogni anno a piene mani! Ad oggi il prodotto bergamotto viene acquistato in sede locale imponendo il prezzo di € 40,00 ogni quintale cioè, a fare i conti, € 0,40 centesimi al kilo cioè l’equivalente di quanto costa al grossista un kilo di arance e la cosa è alquanto inspiegabile ritenuto che il bergamotto, e la sua essenza, sono richiesti a livello mondiale ma prodotti solo ed esclusivamente nella fascia costiera Jonica della Calabria così deprimendo non solo il prodotto in sé ma anche sottovalutando le aree in cui si produce inducendo gli stessi produttori a trovare magari più conveniente edificare piuttosto che conservare e sviluppare un valore non ancora ben compreso, mentre le arance, per come tutti sanno, sono prodotte a livello planetario. La terza Il prodotto attualmente è impiegato in prevalenza dall’industria profumiera senza che vi siano serie iniziative volte a diversificare il mercato di destinazione del frutto in sé, inteso come mercato nazionale e internazionale; il frutto non lo si trova neanche nelle negozi di frutta e verdura a disposizione dei singoli utenti per usi alimentari ovvero degli operatori economici perché venga utilizzato, per esempio, per comporre i cesti natalizi. Sembra che non sia un prodotto naturale da offrire nel settore dell’agricoltura ma di derivazione marziana; La quarta la DOP concessa dall’Unione Europea attraverso il Consorzio di Tutela, che è un ente pubblico soggetto alla vigilanza ministeriale, è in mano a chi è produttore ma contestualmente lo stesso dirige la politica sul bergamotto tramite il Consorzio del bergamotto, anche esso ente pubblico soggetto alla vigilanza della regione Calabria, così impoverendo il mercato attraverso la formula del conflitto plateale di interessi (il controllato controlla se stesso e dirige se medesimo); si consideri ancora che il consorzio di tutela, da quando è stato istituito, cioè dal 2008, non ha svolto alcuna indagine per garantire la qualità dell’essenza in ossequio al disciplinare governativo, indagini che pure sono doverose e che gli competono in esclusiva; La quinta Politica di allontanamento dei produttori dal processo di trasformazione attraverso meccanismi a dir poco discutibili e in aperta violazione di legge. La legge regionale 42/2002 (art. 12), rimodulando la normativa sul Consorzio del bergamotto considerato ente pubblico con vigilanza regionale, aveva garantito ai produttori la prelazione nella dismissione dell’azienda; i produttori non sono stati riuniti in assemblea benché la stessa legge ne imponesse la convocazione entro quattro mesi dalla sua pubblicazione. Il Consorzio, nella persona del commissario pro – tempore, nelle more, ha ceduto l’azienda ad una società privata avente come scopo sociale la trasformazione e la commercializzazione dell’essenza mentre i produttori sono stati convocati dopo nove anni, si avete sentito bene, dopo nove anni anziché quattro mesi così sottraendo ai produttori il loro diritto di prelazione sull’azienda ma così anche togliendo loro ogni interesse alle sorti del bergamotto e dello stesso Consorzio che, costituito secondo i dettami della nuova legge nel settembre del 2011 con pilotate elezioni, ha per legge il compito di redigere lo statuto da approvarsi entro tre mesi dall’insediamento del consiglio di amministrazione con la convocazione di tutti i soci. Ancora oggi, dopo oltre un anno dal suo insediamento, il consiglio di amministrazione non ha proposto alcuno statuto né ha convocato i soci per tale scopo, convocazione che è palesemente essenziale per una ordinata vita democratica e associativa. 170 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 21 Novembre La sesta La particolarità di fruttificare nel posto determinato, e cioè nella sola costa Jonica, fornisce a questo territorio un’arma inconsueta e cioè quello di essere identificato non solo per le sue incontestate bellezze paesaggistiche ma altresì per questa inaspettata caratteristica e cioè quella di essere l’unica area al mondo a possedere l’unico frutto al mondo con tutte le conseguenza in termini di organizzazione turistica del fenomeno e fungere da volano per attivare anche una sana economia basata sull’accoglienza, sulla cultura e sulla gastronomia, tutti calati lungo la strada del profumo costeggiata dal caldo e azzurro mare dei miti. Tuttavia anche questa unicità non viene colta come opportunità di ripresa e per conferire identità ad un territorio che ha enorme necessità di lavoro pulito e onesto attraverso il riconoscimento della sua autenticità. Ne è un esempio di perfetto anonimato la mancata indicazione dell’origine dell’essenza nei prodotti in cui è presente tale elemento: ci si limita a dire che il profumo o il prodotto contiene bergamotto, mai la localizzazione della sua produzione. Provate ad entrare in qualunque erboristeria di qualunque città d’Italia o all’estero, chiedete una fiala o bottiglietta di essenza di bergamotto, leggete l’etichettatura e sorprendentemente troverete che quell’essenza è stata prodotta da una ditta di Firenze, Assisi, Roma, Milano o altre ancora, non certo in Calabria. A rendere invisibile il territorio di produzione contribuiscono anche gli specialisti del settore. La scorsa estate, su La Repubblica, è uscito un articolo magnificante le qualità del profumo Armani: Acqua di Giò e il naso che veniva intervistato, del tutto candidamente, riferiva che “il bergamotto di Sicilia è il migliore in assoluto”. Non era un naso preparato, d’accordo, ma è anche vero che manca sul territorio una sorta di organismo che metta sotto tutela l’immagine e la focalizzi, che in qualche modo funga da condensatore delle plurime potenzialità e a tale proposito non si può non segnalare che da tempo, tra gli operatori economici diciamo così “neutrali e illuminati”, si parla di distretto (si veda ad esempio il libro del Prof. Pasquale Amato: Il Bergamotto, il principe degli agrumi), in analogia ai tanti distretti sparsi nel paese Italia (il distretto della lana, del cuoio, del vino ecc…..) unendo quelle realtà economiche medio piccole ma tuttavia anche in tale settore non vi sono iniziative politiche in tal senso, anzi vi è da registrare la massima indifferenza, il così detto ipocrita muro di gomma che è ormai un monumento all’imbecillità . Contribuisce a deprimere il territorio l’indifferenza dei politici a veder realizzata la struttura operativa voluta dal pacchetto Colombo per la città di Reggio Calabria che già nel 1973 è stata finanziata come centro di formazione e alta profumeria da collocarsi nell’area dello stretto, fondi che sono da quel tempo ancora giacenti nelle casse di quel Comune ma che non vengono impiegati per ragioni incomprensibili e tutto ciò mentre la città, così come la Calabria, continuano a sfornare emigrati nel mondo. Tutto ciò mentre si baratta la presenza o meno di una centrale a carbone promettendo posti di lavoro sulla terra del noto agrume con la minaccia di veder scomparire la coltivazione immessa ormai, ove venisse realizzata, nel circuito dell’inesorabile inquinamento invece che fornire lo stesso territorio di quella promessa fabbrica dei profumi, sano corollario alla stessa produzione locale per uno sviluppo sostenibile. Cosa c’entra tutto ciò con il tema del convegno? Ho forze sbagliato convegno? Gli argomenti da me adoperati rischiano di essere poco pertinenti? Niente di tutto ciò. E’ palese infatti, oltre che intuitivo, che il prodotto, qualunque sia il prodotto, allontanato dai suoi produttori, unici detentori della genuinità e della pretesa della sua integrità, lasciato nelle mani di chi intende monopolizzarlo per fini commerciali o per fini puramente egemonici, perde sin dal suo nascere il carattere di purezza per entrare immediatamente nel vortice della commercializzazione, del lucro fine a se stesso, nell’ipotesi della manipolazione e dello sfruttamento della risorsa o delle stesse cariche acquisite nel segno del comando e sotto il dominio dell’incompetenza, dunque della irresponsabilità sia nei confronti del prodotto in sé che del suo territorio che rimane sullo sfondo, anonimo, invisibile per divenire un non luogo. Per fare solo un esempio, immaginate il famoso parmigiano reggiano lasciato nelle mani dei soli commerciali, immaginate cosa diventa la genuinità e la qualità di quel prodotto apprezzato in tutto il mondo, ecco immaginate cosa possa significare lasciare fuori dai giochi coloro che hanno fornito il prodotto primario, nell’esempio il latte, perché altri sfruttino la qualità e la notorietà, immaginate quale grado di credibilità può assumere nel mercato quel prodotto all’origine sicuramente genuino. Ecco, se la vostra immaginazione è pervenuta ad un giusto grado di giudizio sul destino del prodotto finale, se avete immaginato bene, allora potete tranquillamente trasportare il vostro giudizio nell’ambito del tema qui discusso. Ecco perché ogni tanto fa capolino la minaccia della sostituzione dell’essenza naturale da impiegare nel mondo profumiero con miscugli sintetici realizzati in oscuri laboratori chimici, perché tutta la materia, i suoi aggregati, le organizzazioni e i personaggi che gravitano intorno, pure costituiti ai fini di una migliore e rispettosa produzione Arezzo 20 - 23 novembre 2012 171 21 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute della qualità, deviano il fine per il quale sono nati, pronti a percepire e rispondere ad interessi inconfessabili, non sono per nulla garanti degli scopi per cui sono stati nominati, ambiscono al potere dimentichi della missione propria degli istituti che rappresentano, tutta la loro funzione si esaurisce nello spazio di un mattino: nello stabilire quanto devono corrispondere ai coltivatori per il raccolto di un anno di lavoro e il tutto finisce qui, tranne qualche intervista ogni tanto qua e là, tanto per farsi un po’ di pubblicità e soddisfare il loro senso di vanità, mitomani al posto di dirigenti responsabili e preparati. In Calabria, in specie nella parte Jonica, si vive quotidianamente una dilacerazione profonda tra quello che dovrebbe essere e quello che è, non colmata da fantastiche ipotesi economiche basate sul sistema capitalistico. Basti pensare che le linee guida dettate dalla legge regionale nell’ormai lontano 2006 All. E recitano, tra l’altro, che bisogna “incrementare l’interesse sul bergamotto per le sue caratteristiche storiche, paesaggistiche e quale prodotto che crea lavoro sul territorio” riconoscendo, finalmente, la sua valenza di bene immateriale oggetto di tutela per come previsto dalla convenzione Unesco del 2003 ma, in realtà, poco o nulla accade sia nella parte organizzativa che produttiva se non una proliferazione di cariche e poltrone e in assoluta assenza del coinvolgimento di coloro che producono cioè dello stesso territorio che si voleva tutelare. A tutto ciò si aggiunge la burocrazia, cioè il potere degli uffici, con i suoi apparati situati a Catanzaro cioè ad oltre 200 chilometri dal luogo di produzione anziché prevedere specifici uffici collocati sul posto e tale situazione isola ancora di più i coltivatori lasciandoli soli con i loro problemi di gestione del territorio, produzione e di organizzazione. Arriviamo alle conclusioni. Mi sembra che ho tentato di dimostrare, in qualche misura riuscendoci, che il prodotto bergamotto, il frutto naturale, non è in alcun modo pericoloso per la salute umana, anzi una enorme opportunità per la medicina di avere a disposizione uno strumento raffinato dal laboratorio per eccellenza, la natura. La sua essenza naturale e genuina, opportunamente lavorata secondo la destinazione propria, soddisfa l’esigenza di prevenire qualunque pericolo e contribuisce al benessere delle persone. Gli ulteriori componenti di cui è dotato il frutto, succo o pasta di bergamotto, sono da sempre utilizzati quali ingredienti in gastronomia e pasticceria, addirittura in edilizia, non hanno mai provocato allergie né risultanze negative per la salute se non in particolarissimi e isolati casi. Il territorio, in particolare l’area grecanica della Calabria, quale realtà materiale ed immateriale per la presenza di risorse e cultura uniche al mondo, deve rivedere l’intera politica attraverso una governance più attenta alle peculiarità, identità ed unicità a partire dal bergamotto per realizzare quello sviluppo in linea con il concetto di sostenibilità. 172 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 21 Novembre Verso MILANO EXPO 2015 - Ambiente, sostenibilità e salute "La direttiva europea sull’uso sostenibile dei fitofarmaci" Ministero della Salute Monica Capasso L’argomento è abbastanza sensibile in questo momento, la presentazione prende in considerazione quelle che sono le indicazioni della direttiva comunitaria e quello che è stato fatto a livello nazionale per tradurle in un Decreto Legislativo e quindi in attività pratiche. Abbiamo parlato tanto di prodotti in senso generale [Slide] qui c’è una breve ricordo di quello che sono i fitofarmaci e i motivi per cui si utilizzano questi prodotti. Quindi questa nuova definizione, attualmente contenuta all’interno del nuovo Regolamento, anche se il n. 1107 è del 2009, per il momento è il nostro vangelo operativo per quanto riguarda le attività soprattutto dell’ufficio. [Slide] Il regolamento, nel parlare di uso sostenibile, fa riferimento non solo ad un attento utilizzo dei prodotti fitosanitari ma fa anche esplicito riferimento a quelle che sono le attività di difesa integrata. L’obiettivo prioritario delle difese è quello della produzione di colture, con metodi che turbino il meno possibile gli ecosistemi agricoli e che promuovano meccanismi naturali di controllo fitosanitario; quindi stiamo cercando di evolverci da quello che è un settore o un’attività di controllo effettuata con metodi squisitamente di tipo chimico a mezzi più naturali, più sostenibili dal punto di vista ambientale e che impattino in maniera minore su tutte quelle che sono le problematiche di tutela della salute dell’uomo e dell’ambiente. [Slide] Questa è la direttiva che prevedeva l’istituzione di un quadro di azione comunitaria. Nella direttiva si dice che tutti gli stati membri si dovranno dotare di un Piano d’Azione Nazionale il così detto PAN. All’interno di questo Piano d’Azione Nazionale, che è un Piano che deve prendere in considerazione le problematiche più diverse e tanto per ricondurle a quelle che sono le amministrazioni interessate, problematiche che afferiscono al Ministero della Salute, del Ministero dell’Ambiente e del Ministero delle Politiche Agricole e Forestali. I PAN dovranno contribuire, aiutare gli stati membri ad adottare nuovi sistemi di controllo fitosanitario più sostenibile e sicuramente meno invasivo. Sinteticamente all’interno della direttiva sono anche riportati degli allegati di tipo più tecnico all’interno dei quali vengono date indicazioni specifiche su quello che deve essere contenuto all’interno dei singoli Piani d’Azione Nazionale e come devono essere realizzate, con modalità tecniche, le disposizioni della direttiva. La cosa più importate è che bisognerebbe notificare entro il 30 giugno 2013, le misure per la difesa integrata, il primo gennaio dell’anno successivo 2014, andrebbero stabiliti i principi per la difesa integrata che sono elencati di seguito [Slide] e sono soluzioni tecniche a basso impatto sulla salute e sull’ambiente e soprattutto favorire la diffusione dell’agricoltura biologica. Vanno realizzate, alcune lo sono già, delle linee guida che diano indicazioni chiare e precise agli operatori per quanto riguarda la difesa della coltura integrata, il controllo delle infestanti sulle principali colture del nostro paese. Sul sito internet trovate già delle linee guida che possono essere utilizzate come orientamento. Ci sono poi gli indicatori di rischio, direi che in questo momento rappresentano il settore in cui forse siamo ancora più indietro forse dovrebbero essere meglio definiti o più chiaramente definiti. Il Piano di Azione Nazionale si occupa di tutto, [Slide] protezione degli utilizzatori, protezione delle popolazioni interessate nelle vicinanze delle aree che vengono trattate; abbiamo poi più in generale la tutela dei consumatori per quanti riguarda l’avere prodotti che sono stati trattati in maniera controllata, quindi prodotti commerciali sicuri, salvaguardia delle acque e soprattutto la conservazione della biodiversità degli ecosistemi. Il Piano direi che per quello che riguarda l’Italia è in avanzata fase di lavorazione. Come vedete [Slide] per realizzare questo Piano, che ha una valenza non solo di tipo politico, ma anche una valenza molto tecnica perché deve dare indicazioni molto specifiche, è stato costituito il Consiglio TecnicoScientifico che vedete indicato [Slide]. Il Consiglio Tecnico-Scientifico è composto da tutte le parti interessate, intendendo con questo le tre amministrazioni Salute, Ambiente, Agricoltura, tutti i rappresentanti delle Regioni e le cosi dette categorie degli stakeholder, cioè tutti gli attori interessati a queste attività. Il piano come vi ho detto è in avanzata fase di predisposizione e notizia recente il Ministero dell’Agricoltura e il Ministero dell’Ambiente hanno diffuso, dopo averlo concordato anche con il Ministero della Salute, la proposta di piano e l’hanno aperto a quella che è una consultazione pubblica. Quindi andando sui siti delle amministrazioni ci sarà la possibilità di accedere al piano, leggerlo e commentarlo. Direi che in questo è stato utilizzato un sistema che viene utilizzato anche a livello comunitario per la consultazione pubblica. Avrete la possibilità di fare commenti riga per riga perché questo semplifica la raccolta dei commenti che arriveranno da parte di tutti. Come vedete la scadenza molto prossima del piano, è prevista per il 26 novembre. Quindi il piano dovrebbe essere presentato alla Commissione Europea entro il 26 novembre prossimo. Dovrebbe perché la consultazione si è appena aperta e l’Italia si è riservata di prolungare un po’ il periodo di presentazione del PAN, non so quanto verrà concesso ma la consultazione ha la possibilità di essere aperta per 30 giorni. Subito dopo sarà nostra cura inviarlo alla Commissione Europea. Come vedete la Commissione Europea è il punto di raccordo di questa attività, raccoglierà tutti i PAN di tutti gli Stati Membri, ne farà un valutazione critica, speriamo condivisa a priori con gli Stati Membri, e successivamente verrà presentata al Parlamento Europeo. Il Parlamento avrà il compito di valutare se quello che è indicato nei Piani di Arezzo 20 - 23 novembre 2012 173 21 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute Azione Nazionali risponde, tiene in considerazione quelle che sono le indicazioni, le linee guida politiche e non dell’Unione Europea, in modo da avere un approccio il più possibile unitario, comunitario e concordato. Entro il 2018 la Commissione presenterà una relazione sull’esperienza acquisita, quindi noi avremo tempo direi dal 2013 di implementare il nostro PAN, renderlo operativo applicarlo fisicamente sul nostro territorio e relazionare periodicamente alla Commissione Europea, la quale nell’arco di sei anni dovrà fare un consuntivo su come effettivamente abbiamo funzionato questi sistemi. Obbligo per gli Stati Membri è quello di aggiornare il PAN ogni 5 anni, questo per tenere conto di tutte le evoluzioni scientifiche e tecnologiche. Nella Direttiva dove si fa riferimento al PAN sono indicati [Slide] articolo per articolo in maniera puntigliosa tutti quelli che sono gli obblighi degli Stati Membri. Tutti questi obblighi, che scorriamo rapidamente, li abbiamo poi ripresi all’interno del nostro Decreto Legislativo. Quindi nel dare attuazione alla Direttiva, noi facciamo un lavoro congiunto con le altre due amministrazioni Ministero Agricoltura e Ministero Ambiente [Slide]. Queste sono attività particolarmente precise e puntuali e il Decreto, punto per punto, riprende in considerazione quelli che sono i punti della Direttiva. Più in evidenza è la parte più relativa all’individuazione dei prodotti fitosanitari destinati ad utilizzatori non professionali. La Norma comunitaria e il Decreto prendono atto di questa differenza nelle categorie di attività professionali e non professionali e dovrà essere predisposto un Decreto ad hoc, che dovrà definire i requisiti per l’uso non professionale, dovrà dare indicazioni specifiche anche per l’etichettatura. Questo consentirà a tutti gli utilizzatori in senso più lato di lavorare nella massima sicurezza sia per se stessi che nei confronti dell’ambiente o della salute di altre persone eventualmente esposte nel momento in cui hanno a disposizione questi prodotti. Ognuno sarà chiaramente e specificamente informato su quello che potrà o non potrà utilizzare e quindi come dovrà gestire questi prodotti. [Slide] Qui entriamo nel merito di quello che è il rilascio di una sorta di patentino di abilitazione per i prodotti direi che è un punto abbastanza sensibile e probabilmente anche abbastanza critico. Le Regioni e le Province Autonome si dovranno organizzare e dotare di strutture ad hoc per rispondere a queste richieste. Anche in questo caso sicuramente l’attività di coordinamento, un’attività di produzione di norme condivise sicuramente sarà di aiuto per tutte le parti interessate. Ovviamente è chiaramente detto nella normativa che le Regioni possono agire, operare nell’ambito delle autonomie ma sicuramente, per consentire al sistema paese di lavorare nello stesso modo, il coordinamento da realizzare attraverso la Conferenza Stato-Regioni sarà un percorso quasi obbligato. Ci sono anche tutta una serie di proposte per informare gli utilizzatori e la popolazione potenzialmente esposta. Nell’invitare tutti gli Stati Membri alla predisposizione del Piano d’Azione Nazionale, l’Unione Europea ha preso in considerazione non sono l’utilizzatore professionale e non professionale ma anche tutte quelle categorie di persone che potrebbero trovarsi del tutto casualmente esposte ad una area o ad un ambiente in cui è stato utilizzato un prodotto fitosanitario e quando si parla di tutte vi possono venire in mente le aree pubbliche, i parchi giochi soprattutto quelli destinati ai bambini e non ultimo il trattamento di tutte le aree verdi che sono a lato di autostrade, strade ferrate e quant’altro, per le quali è stato fatto un espresso riferimento. Quindi in tutte le aree potenzialmente trattabili e trattate nelle vicinanze o all’interno delle quali la popolazione insiste, avranno necessità di essere individuate e per queste aree dovranno essere fornite dalle Regioni o dei servizi competenti delle informazioni specifiche nel momento in cui dovessero essere effettuate o sulle quale sono state effettuati dei trattamenti, per consentire a tutti di muoversi in maniera sicura e più responsabile all’interno delle proprie aree verdi. Ci sono anche una serie di attività di raccolta dati che riguardano le intossicazioni acute; in questo l’amministrazione sarà supportata dai colleghi dell’ISS che già raccolgono i dati e che annualmente ci trasmettono una relazione contenente non solo le informazioni di dettaglio ma anche una sorta di valutazione globale sui problemi legati alle intossicazioni acute. Qui scendiamo in un altro settore molto particolare cioè l’utilizzo del mezzo aereo, anche questo argomento molto spinoso, molto critico che viene affrontato, all’interno del Ministero durante le riunioni della nostra commissione consultiva ma rimane un argomento molto sensibile, di fatto la direttiva vieta l’uso del mezzo aereo. E’ possibile però operare in deroga perché ci sono, per quanto riguarda il nostro territorio, delle colture, delle connotazioni geografiche che lo rendono particolare e per il quale probabilmente l’uso del mezzo aereo è l’unico uso possibile. Quindi sia la Direttiva che il Decreto prevedono la possibilità di concedere tale uso, dietro specifici criteri e dietro specifiche richieste delle autorità regionali, non di un privato, a dopo valutazione del prodotto. Altro punto abbastanza critico che mi è stato segnalato sono i controlli sulle attrezzature. La Normativa è piuttosto dettagliata ma essendo una Norma di carattere generale lascia poi alle competenze specifiche delle strutture regionali l’adottare i sistemi migliori non solo per attivare un sistema puntuale di controllo ma per attivare il sistema di rilascio dei patentini e quindi il riconoscimento ufficiale delle competenze degli utilizzatori dei prodotti fitosanitari. Sicuramente è stato fatto molto, ma ci auguriamo e confidiamo che quello che originerà dalla consultazione pubblica siano proposte propositive che permettano alla Amministrazioni di realizzare un Piano d’Azione veramente nazionale. 174 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 21 Novembre Verso MILANO EXPO 2015 - Ambiente, sostenibilità e salute "Residui di pesticidi e armonizzazione dei LMR" Lucilla RossiMinistero della Salute Il contributo di questa relazione prende in esame l’armonizzazione dei limiti massimi di residui (LMR) dei residui dei pesticidi fissati da Regolamenti comunitari, pertanto si fa riferimento ai processi definiti a livello comunitario che conducono sia alla modifica/fissazione di nuovi LMR, sia alla revisione di quelli esistenti. Vengono date alcune definizioni che aiutano a cogliere il quadro generale di quanto verrà spiegato, prima di illustrare questi due punti. Alcune definizioni (def.): def. Prodotto fitosanitario come riportata nel Regolamento (CE) 1107/2009 def. Limite massimo di residuo (LMR) come riportata nel Regolamento residui (CE) 396/2005 Il Limite Massimo di Residuo (LMR) è la massima concentrazione del residuo di sostanza attiva presente sulle derrate agricole, dopo trattamento con un prodotto fitosanitario, in accordo con le Buone Pratiche Agricole (BPA), ossia sulla base del rispetto delle condizioni di impiego (dosi, numero dei trattamenti, intervallo di sicurezza), viene illustrato un esempio di GAP. Si illustrano i vari allegati (pubblicati e non) del Regolamento residui (CE) 396/2005. Novità connesse all’entrata in vigore del Regolamento (CE) n. 396/2005: - la fissazione e la modifica dei limiti massimi di residuo (LMR) sono attuate a livello comunitario e non più a livello dei singoli Stati Membri - l’EFSA (European Food Safety Authority) diventa l’Autorità di riferimento comunitario per la valutazione dei LMR - - abrogazione del DM 23 dicembre 1992 relativo al programma di controlli, in quanto tutti i controlli, nazionali e comunitari, sono disciplinati dal Regolamento 396/2005 (capo V). Illustrazione di due importanti articoli del Reg. 396/2005: Art. 16 - definisce i LMR provvisori in circostanze specifiche Art, 18.1b - definisce l’LMR di default 0,01 mg/Kg per i prodotti per i quali non siano stati fissati LMR specifici negli Allegati II o III, o per le sostanze attive non elencate nell‘Allegato IV. Illustrazione dei vari soggetti in gioco nel processo di armonizzazione comunitario (documenti prodotti, compiti dei soggetti in gioco): il Richiedente, lo Stato Membro, l’EFSA e la Commissione Europea. Il prodotto finale del processo di armonizzazione comunitario è un Regolamento collegato al Reg. residui 396/2005, sia nel caso della richiesta di modifica/fissazione del nuovo LMR, che parte dal richiedente (articoli 6-10 del Reg. 396/2005), sia nel caso della revisione dei LMR esistenti, che parte dall’EFSA (articoli 12.1 e 12.2 del Reg. 396/2005). Per quanto riguarda l’articolo 12 c’è un coordinamento maggiore fra Stato Membro Relatore della sostanza attiva, l’EFSA e gli altri Stati Membri, al fine di notificare all’EFSA gli usi della sostanza attiva ottenuti in Europa successivamente alla presentazione della Monografia, in modo che l’EFSA possa operare un completo accertamento del rischio per i LMR esistenti fissati su questi usi. Dunque i Regolamenti residui collegati al Reg. 396/2005 riportano dei LMR che possono variare secondo delle precise classi, in base a quanto stabilito dal documento SANCO 10634/2010 che dal 1/06/2010 sostituisce il doc. (CE) 7039/VI/95 del 22/7/1997. def. Limite massimo di residuo (LMR) come riportata nel linea guida SANCO/3346/2001 rev 7 relativa ai criteri di notifica per le allerte rapide RASFF (Rapid Alert System for Food and Feed) Il limite massimo di residuo di un pesticida (espresso in mg/Kg), rappresenta il contenuto massimo della sostanza attiva consentita in un particolare alimento derivante da una coltura trattata con un pesticida, tale da rendere al minimo il rischio dovuto all’assunzione del residuo attraverso la dieta, cioè in modo che tale livello sia inferiore al limite tossicologico caratteristico della sostanza attiva. I LMR fissati a livello comunitario sono reperibili nella Banca dati della Commissione EU: http://ec.europa.eu/ sanco_pesticides/public/index.cfm Arezzo 20 - 23 novembre 2012 175 21 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute Invece il numero degli studi per fissare i LMR sono reperibili nella linea guida SANCO/7525/VI/95 rev. 9 Valutazione del rischio dei residui dei pesticidi La valutazione del rischio costituisce un punto nodale nel processo di fissazione dei Limiti Massimi di Residui dei prodotti fitosanitari. Ogni LMR per ciascuna combinazione sostanza attiva/coltura è sottoposto ad un processo di valutazione del rischio cronico e acuto tramite il modello di calcolo EFSA: PRIMo (Pesticide Residue Intake Model) Tale strumento di valutazione del rischio cronico e acuto considera: • la tossicità intrinseca della sostanza attiva • l’entità dell’esposizione • le differenti diete EU • le differenti categorie dei consumatori La valutazione del rischio si effettua tramite il confronto tra un parametro correlato con l’ingestione della sostanza attiva contenuta nell’alimento da parte del consumatore (esposizione) e i livelli tossicologicamente accettabili per la sostanza attiva (ADI e ARfD). • RISCHIO CRONICO o a lungo termine (Acceptable Daily Intake = ADI mg/kg bw/day) • RISCHIO ACUTO o a breve termine (Acute Reference Dose = ARfD mg/kg bw/day) REGOLA GENERALE Se le stime dell’esposizione a breve e a lungo termine sono minori rispettivamente dell’ADI e dell’ARfD allora i rischi per l’uomo sono considerati accettabili. Il parametro per quantificare l’esposizione cronica è la TMDI (Theoretical Maximum Daily Intake), invece il parametro per quantificare l’esposizione acuta è la IESTI (International Estimate Short Term Intake). Illustrazione del MODELLO DETERMINISTICO che si sviluppa sull’ipotesi che venga consumata una grande porzione di alimento al più alto livello possibile. Modalità di controllo e misure di attuazione dei LMR: 1. Programma comunitario coordinato di controllo pluriennale - stabilisce per ciascuno Stato Membro le principali combinazioni pesticida-coltura da monitorare e il numero minimo di campioni da prelevare; gli Stati Membri devono elaborare annualmente una relazione con i risultati di tale monitoraggio; 2. Laboratori di riferimento comunitari – coordinano, formano il personale, mettono a punto i metodi di analisi e predispongono test per valutare le competenze dei vari laboratori di controllo nazionali (viene seguita la linea guida SANCO/12495/2011 relativa ai metodi di validazione e al controllo di qualità); 3. Ufficio alimentare e veterinario della Commissione Europea – conduce le ispezioni negli Stati Membri per valutarne e verificarne le attività di controllo. Qualora si riscontrino residui di pesticidi ad un livello preoccupante per i consumatori, il sistema di allerta rapido (RASFF) provvede alla circolazione delle informazioni, così da far adottare misure a tutela dei consumatori. 176 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 21 Novembre Microinquinanti e catena alimentare: valutazione del rischio sanitario "Breve introduzione della sessione" Alessandra Di Sandro Ministero della Salute Nell’ambito degli argomenti trattati nella giornata odierna, è opportuno introdurre i lavori partendo da una riflessione sulla frase “noi siamo ciò che mangiamo”. La nostra civiltà occidentale è ricca e dobbiamo iniziare a pensare non solo ai temi nutrizionali, quindi ad una corretta alimentazione e a corretti stili di vita, ma anche alla sicurezza degli alimenti. E’ chiaro che l’Italia, essendo un Paese, che ha superato le problematiche relative all’accesso agli alimenti (la sicurezza alimentare intesa nel senso della FAO OMS) oggi ci si può dedicare all’obiettivo di elevare gli standard di sicurezza degli alimenti. Questi standard di sicurezza per gli alimenti riguardano sia gli aspetti microbiologici che gli aspetti chimici. Oggi, in particolare, c’è una forte sensibilità per ciò che riguarda la contaminazione chimica degli alimenti, dato che la maggioranza dei contaminanti chimici con cui il nostro organismo viene a contatto è introdotta attraverso l’alimentazione. Le normative europee prevedono che i controlli stessi vengano effettuati “dal campo alla tavola”. E per “campo” non dobbiamo intendere esclusivamente le modalità di produzione, ma anche l’ambiente in cui avviene la nostra produzione agricolo-zootecnica. Il rapporto ambiente-salute è un rapporto complesso che deve essere necessariamente integrato per garantire proprio il rispetto del diritto alla salute sancito dalla nostra Costituzione. Nel diritto alla salute, quindi, deve essere garantita anche la sicurezza alimentare. E’ chiaro che nessuno oggi pensa che il rischio “zero” sia un obiettivo raggiungibile, ma sicuramente dobbiamo fare le nostre valutazioni affinché questo rischio sia accettabile, fino a diventare un rischio trascurabile. E’ chiaro che il rapporto con l’ambiente è un rapporto complesso che necessita di un’integrazione di competenze che riguardano professionalità, ambiti e conoscenze diverse. Soltanto da un’integrazione di queste competenze riusciremo ad avere un quadro che possa essere di garanzia per la salute. In questo settore, un altro punto critico è quello della comunicazione del rischio, perché oggi il consumatore è molto più sensibile alle tematiche relative alla contaminazione e al rispetto per l’ambiente. Sono sotto gli occhi di tutti i problemi che nascono dalle problematiche industriali. Siamo in un Paese industrializzato, per cui il rischio della presenza di microinquinanti è legato chiaramente, non al microinquinante naturalmente presente nell’ambiente, ma a un’attività legata all’industrializzazione o alle attività antropiche. Da questo connubio noi crediamo fondamentalmente che si possa arrivare a delle produzioni sicure, mettendo insieme una serie di competenze diverse. Alessandra Di Sandro Ministero della Salute "Il monitoraggio del Ministero della Salute" Scopo di questa relazione è l’illustrazione delle attività del Ministero della Salute nell’ambito dei contaminanti ambientali e della loro presenza negli alimenti. E’ chiaro che il problema dei contaminati ambientali è, rispetto anche alle politiche sanitarie, un problema recente, soprattutto per quello che riguarda la sensibilizzazione dell’opinione pubblica. Ormai sono più di vent’anni che il Piano Nazionale Residui, che viene predisposto sulla base della normativa comunitaria, ha imposto agli Stati membri la ricerca di sostanze e agenti contaminanti per l’ambiente negli alimenti di origine animale. In realtà il Piano Residui nasce con l’ obiettivo principale di controllare l’utilizzo di sostanze farmacologicamente attive (sostanze ad azione auxinica). Il Piano, nel corso degli anni, è tuttavia stato integrato con la ricerca di altre sostanze e agenti contaminanti per l’ambiente, tanto che a tutti gli Stati membri è stato chiesto di effettuare dei campionamenti per la ricerca di composti organoclorurati, compresi i PCB, organofosforati, elementi chimici, micotossine e coloranti. Questi controlli vengono effettuati su matrici campionate a livello di produzione primaria, predisponendo controlli sia a livello dell’azienda di allevamento che a livello di macello/prima trasformazione dei prodotti di origine animale (es. latte, carne). L’attuazione del Piano Nazionale Residui viene effettuata attraverso il prelievo di campioni random, quindi campioni assolutamente casuali. Il Piano ha consentito di rilevare la presenza di diossine nel 2002 in Campania così come del betaesaclorocicloesano nel 2005 nel Lazio. In particolare il Piano Nazionale Residui ha evidenziato che la maggior parte delle non conformità rilevate sono da attribuire alla presenza di contaminanti ambientali più che alla presenza di sostanze farmacologicamente attive (sostanze auxiniche o sostanze ad azione ormonale in generale). Mediamente ogni anno abbiamo il 12-13% di non conformità legate alla presenza di contaminanti ambientali (diossine, piombo, cadmio, aftatossine e ancora il beta-esaclorocicloesano). Arezzo 20 - 23 novembre 2012 177 21 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute Per le problematiche fin qui esposte, relative al riscontro di contaminanti ambientali negli alimenti, nel corso degli ultimi anni, è iniziata una cooperazione sempre più forte e più stretta tra il Ministero della Salute (Direzione Generale della Sicurezza degli Alimenti e della Nutrizione) e il Ministero dell’Ambiente e della Tutela del Territorio e del Mare. Questa cooperazione tra i due dicasteri si è rafforzata nel 2009, quando la Direzione Generale della Sicurezza degli Alimenti e della Nutrizione è stata coinvolta dal Ministero dell’Ambiente nelle Conferenze dei servizi sui Siti di Interesse Nazionale (SIN). I SIN sono quei siti (circa il 3% del territorio nazionale) che necessitano di interventi di bonifica, essendo caratterizzati in base alla quantità e alla pericolosità degli inquinanti presenti e al rilievo dell’impatto sull’ambiente circostante in termini di rischio sanitario ed ecologico. Accanto al rischio sanitario “diretto” sulla popolazione, la cui competenza nel Ministero della Salute è esercitata dalla Direzione Generale della Prevenzione sanitaria, si delinea un rischio sanitario dovuto al consumo di alimenti prodotti nel sito, o nelle sue immediate vicinanze, che possono risultare contaminati. Durante le Conferenze dei servizi è emerso che non sempre le conoscenze disponibili consentono di quantificare il rischio sanitario legato al consumo degli alimenti prodotti nei SIN o nelle loro immediate vicinanze, con il rischio di sottostimare o sovrastimare il fenomeno e di adottare delle misure di prevenzione inadatte o inopportune. La necessità di potenziare gli studi e le conoscenze sui contaminanti ambientali negli alimenti, ha portato gli uffici tecnici del Ministero a sollecitare i propri interlocutori politici, fino a definire il Piano sanitario nazionale 2011-2013, in cui per la prima volta è stato introdotto un obiettivo strategico di politica sanitaria che legasse in modo specifico la catena alimentare alle problematiche ambientali. Nel Piano sanitario nazionale è infatti riportato che occorre potenziare e ampliare gli studi sui contaminanti tossici persistenti, attraverso indicatori zootecnici, per identificare i luoghi ad alto rischio ambientale e valutarne le ripercussioni sulla catena alimentare effettuando un piano di monitoraggio sui contaminanti ambientali. A seguito di quanto detto, è stato quindi attivato un piano nazionale di monitoraggio dei contaminanti ambientali presenti negli alimenti di origine animale che sono prodotti all’interno, o vicino, ai siti di interesse nazionale. In tale ambito il Ministero della Salute svolge un ruolo di coordinamento per le attività regionali, in modo da poter fornire dati confrontabili e statisticamente significativi. Infatti, risultava già in passato, presso le regioni, un’attività di controllo, ma veniva effettuata in maniera disorganizzata, non coordinata, non sistematica e diversa da un sito all’altro, da una regione all’altra, a volte dipendente dalla sensibilità di chi interveniva su quel sito. Lo scopo del Piano nazionale di monitoraggio è quello di fornire i dati necessari per una corretta definizione dei livelli di rischio per i principali contaminanti. Sono state quindi definite le modalità di effettuazione del Piano (“chi fa che cosa”), ed è stato istituito un Gruppo Tecnico di Coordinamento per definire i criteri della programmazione e delle attività, supportando la scelta delle regioni in relazione ai siti da esaminare, alle matrici e alle ricerche da effettuare. Il Gruppo Tecnico di Coordinamento è costituito da rappresentanti del Ministero della Salute, dall’Istituto Superiore di Sanità, da un rappresentante individuato dal Coordinamento Tecnico delle Regioni e da tre Istituti Zooprofilattici Sperimentali. Le Regioni hanno il compito di individuare i siti e di rendere disponibili i risultati delle indagini precedenti. E’ prevista inoltre la collaborazione con il Centro di referenza per la valutazione del rischio (Istituto Zooprofilattico dell’Abruzzo e del Molise), per rilevare e georeferenziare le attività produttive e le pratiche agricole nei Siti di Interesse Nazionale e per eseguire una valutazione del rischio per i siti controllati, insieme all’Istituto Superiore di Sanità. Nel Piano sono state individuate come matrici d’elezione, maggiormente indicative della contaminazione ambientale, il latte ovino, come indicatore legato all’abitudine alimentare di allevamento a pascolo, e le vongole, perché vivono sul fondo del mare. In alternativa, sono state proposte anche uova e mitili. I principali analiti da ricercare sono i metalli pesanti, gli IPA, il pentaclorofenolo, il nonilfenolo, le diossine e i PCB (diossina simili e non diossina simili). Dal punto di vista operativo, il Gruppo Tecnico convoca una regione per volta, e in tale occasione la regione (Dipartimento Ambiente) presenta i propri dati disponibili sul SIN, per metterne a conoscenza il Gruppo e l’ISS. In tal modo, si definiscono le matrici più opportune da prelevare e i contaminanti da ricercare, per la natura particolare di quel sito, tenendo conto ovviamente dei costi delle analisi (es. beta- esaclorocicloesano nel sito di Frosinone). Nell’ambito del Piano di monitoraggio nazionale, è stato creato un Sistema Informativo Geografico (GIS), in cui ciascun attore dell’applicazione di questo piano inserisce i dati di propria competenza. Dal Sistema Informativo c’è la possibilità di scaricare verbali e di inserire tutti i dati dei controlli che vengono effettuati, con il relativo dettaglio (ad esempio tutti i congeneri dei PCB o delle diossine). E’ possibile inoltre ottenere una rappresentazione grafica che permette di visualizzare tutti i territori ricadenti nel SIN, gli allevamenti presenti nell’area, i campioni prelevati e i campioni non conformi. E’ stata anche fornita alle Regioni una check list, che deve essere compilata dai servizi veterinari che prelevano il campione in un’azienda, per poter escludere che la presenza di eventuali contaminanti sia legata a cattive 178 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 21 Novembre pratiche agricole o ad interferenze che possono impedire la corretta valutazione del dato (ad esempio correlate con le abitudini a bruciare plastiche, coperture di serre, ecc.), in modo da poter avere un dato il più possibile rappresentativo e attinente all’obiettivo. Nella figura di seguito riportata è illustrata la mappa dei 57 SIN presenti in Italia. Con tale sistema è possibile vedere, all’interno di ogni SIN, o nelle immediate vicinanze (nelle zone buffer, cioè zone circolari con un determinato raggio che individua la distanza dalla fonte di contaminazione), i campioni che sono stati prelevati e quelli non conformi, in quanto vengono rilevate esattamente le coordinate geografiche del punto di prelievo. Nel sistema informativo è inoltre possibile inserire i dati e le relazioni in formato Word, che sono già presenti a livello regionale, per esempio a livello di ASL e di ARPA. Questo sistema non è aperto a tutti, ma è un sistema dedicato ai tecnici, ossia a tutti coloro che si occupano sia della valutazione del rischio che della gestione del rischio (Regioni, l’ISS e coloro che ne faranno richiesta per parte ambientale), perché una corretta gestione del rischio sanitario non può prescindere da una base dati comune, integrata e che consenta di prendere in carico, nell’effettuazione delle proprie scelte, tutte le variabili e tutti i controlli già effettuati. Quindi solo con la collaborazione di tutti gli attori questo piano riuscirà ad essere operativo e a raggiungere il proprio obiettivo. Arezzo 20 - 23 novembre 2012 179 21 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute Microinquinanti e catena alimentare: valutazione del rischio sanitario Eleonora Beccaloni Istituto Superiore di Sanità Rispetto al progetto di cui vi ha accennato la Dr.ssa Di Sandro, come Istituto Superiore di Sanità e come Gruppo di lavoro che collabora attivamente, dando supporto sanitario, con il Ministero dell’Ambiente, ci occupiamo dei SIN per quanto riguarda le problematiche sanitarie in relazione a quelle ambientali. All’interno di questo programma di monitoraggio abbiamo il compito di mettere a disposizione le nostre conoscenze ambientali e inoltre fare la valutazione dei dati che vengono inseriti dai vari IZS che si occupano sia dei campionamenti che delle determinazioni analitiche degli inquinanti indicatori che sono stati selezionati nel piano. Per far questo, e quindi per poi andare a valutazione dell’esposizione, in aree in cui la popolazione potrebbe essere coinvolta, sia perché queste aree si possono trovare all’interno del perimetro di un sito considerato contaminato, sia perché si trovi in aree limitrofe ad esso, abbiamo dovuto predisporre un programma di elaborazione e valutazione dei risultati derivanti dal piano di monitoraggio Devo dire che, benché sono state interessate tutte le regioni e all’interno di ogni regione sono pochissime quelle che hanno soltanto un SIN, sono stati selezionati, nel primo anno, un SIN per ogni regione e poi si è cercato di coprire un po’ negli anni successivi tutti gli altri SIN presenti nelle regioni stesse. E’ chiaro che in una regione come la Campania, che da sola ha 5 SIN, non so fino a che punto riusciremo a coprire tutte le problematiche presenti, però abbiamo delle conoscenze pregresse conseguite per altri motivi e quindi cercheremo in qualche modo di usare anche i dati pregressi. Abbiamo la possibilità di raccogliere tutti i dati, man mano che questi vengono prodotti dalle indagini di monitoraggio, nel sistema SINVSA, di cui parlava la Dr.ssa Di Sandro. Io, facendo parte del Gruppo di Coordinamento, accedo a tutti i risultati analitici presenti nel SINVSA e per l’elaborazione di essi ci siamo dati questo criterio. Ci occupiamo della raccolta e selezione dati perché le matrici, come è stato già accennato, sono diverse e quindi i valori sono suddivisi prioritariamente per matrici. Queste sono fondamentalmente latte ovino, però in quelle aree in cui praticamente il territorio interessato dal SIN è soprattutto un’area marino costiera, abbiamo come matrice rappresentativa anche le vongole. Laddove non è stato possibile, per le aree a terra, avere a disposizione del latte ovino sono state definite come matrici sostitutive le uova oppure i mitili laddove non erano disponibili le vongole. Quindi, la raccolta e selezione dati diventa importante per poter appunto selezionare a priori, intanto, le matrici, poi armonizzare i dati stessi. I dati devono essere armonizzati perché non sempre le unità di misura o i limiti di rivelabilità delle procedure analitiche sono chiaramente definiti, cioè ci vengono restituiti come informazione. Noi abbiamo quindi il compito di armonizzare tutti i dati perché siano confrontabili, dopodiché, come primo approccio, stiamo già facendo delle elaborazioni statistiche descrittive molto semplici che consistono soltanto nel definire, all’interno del SIN, qual è il valore minimo ed il valore massimo per ogni contaminante e per ogni punto di campionamento. Si passa poi alla valutazione che verrà effettuata, e una parte è già stata fatta per alcuni SIN, rispetto alla distribuzione spaziale, come ha anche accennato la Dr.ssa Di Sandro, mediante una mappatura GIS. La mappatura GIS permette di individuare sul territorio quali sono i punti che risultano non conformi, o, per tutti quegli analiti che non sono normati, quali sono i punti di interesse o di criticità rispetto al valore medio calcolato. Nel caso di superamento dei valori definiti dalla normativa di settore, o della media, che a livello statistico risulta superata, poi andremo a verificare se c’è la possibilità di associare la presenza della sostanza in eccesso con le attività o le forzanti presenti nel sito in cui è stato prelevato il campione. Per di più vorremmo mettere in atto uno studio per quanto riguarda le diossine e i PCB facendo un ‘finger printing’, laddove è possibile, per verificarne l’origine tramite lo studio dei congeneri e le percentuali di presenza dei singoli congeneri per andare poi a focalizzare effettivamente la natura e la provenienza di tali sostanze, se possono in qualche modo essere associate all’attività dei SIN. Tutto questo andrà eseguito prima per il singolo SIN, per la singola sostanza e per la singola matrice dopodiché quando si avrà conoscenza approfondita del singolo SIN tutto verrà riportato a livello nazionale perché c’è necessità anche di capire e di confrontare a livello nazionale se si possono avere delle associazioni a seconda delle attività che vengono svolte nei SIN per poter essere certi di dare il giusto valore a quelle che sono le deduzioni derivanti da una valutazione analitica. Al momento nel SINSA sono disponibili 3 regioni Sicilia, Lazio e Marche e 3 siti Priolo, Bacino del Fiume Sacco e Falconara. Uno è il sito della Sicilia con Priolo che è uno dei siti più studiati. A Priolo sono stati effettuati 28 campionamenti sul latte e questi hanno riguardato i 7 congeneri delle diossine, i 10 furani, i 12 PCB non-dioxin-like e i PCB dioxine-like. Qui devo dire è stato semplice fare una valutazione perché tutte queste sostanze sono normate e qui 180 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 21 Novembre il confronto dei valori analitici ottenuti è stato facile. Per quanto riguarda il bacino del fiume Sacco, i campioni prelevati e analizzati sono stati 24, anche qui la matrice era il latte, però all’elenco degli analiti previsti sono stati aggiunti i fitofarmaci. Questo perché l’area è stata dichiarata SIN per la presenza nel latte nel 2005 dell’esaclorocicloesano, soprattutto del Lindano nel latte. Nel Sito è stato eseguito uno studio ambientale di caratterizzazione. Il SIN è di pertinenza di due strutture, la Commissariale e del Ministero, l’Ufficio Commissariale ha già da tempo iniziato tutte le procedure di caratterizzazione nonché di bonifica dell’area. Questo perché all’interno del sito c’era un’industria che produceva esaclorocicloesano e si è scoperto che in un’area limitrofa all’ex azienda erano state sversate e depositate praticamente le materie prime dell’esaclorocicloesano. Ciò faceva sì che per lisciviazione e per rottura dei fusti l’esaclorocicloesano aveva praticamente raggiunto il fiume Questa è stata una fonte continua di inquinamento tramite esondazioni, eccetera. La bonifica è stata effettuata e devo dire che i dati sono abbastanza confortanti. Per quanto riguarda invece le Marche abbiamo il sito di Falconara Marittima dove sono state prelevate appunto le vongole perché il sito perimetrato è praticamente l›area marino costiera. Sono stati prelevati e analizzati soltanto 6 campioni. Anche qui sono state determinate diossine e furani, PCB non-dioxin-like e i PCB dioxine-like. Facendo una rapida panoramica possiamo vedere come per quanto riguarda Priolo, io qui ho riportato il valore minimo, il valore massimo e il valore medio. Quello che è interessante è che il PCB118 sul valore massimo dell’intervallo definito presenta una concentrazione abbastanza elevata. Premesso che i dati sono espressi in concentrazione e non tossicità equivalente, anche per le diossine e i furani è riportato un valore minimo e un valore massimo e anche qui abbiamo delle concentrazioni molto variabili, dal limite di rilevabilità fino a valori massimi di 2 pg/g.. Per Priolo, come vedete, c’è un puntino rosso con cerchietto blu dove praticamente abbiamo avuto una difformità rispetto a quanto previsto dalla norma. Questo ci permette di poter andare a individuare qual è il punto critico e quindi ci dà la possibilità di vedere se è possibile associare le attività svolte nelle aree limitrofe a quel punto di campionamento alla presenza dei PCB e delle diossine riscontrate. Questo è uno studio che stiamo approfondendo perché è tutto in essere. Per quanto riguarda il bacino del fiume Sacco, sempre PCB118 risulta essere presente in concentrazioni elevate, però non desta al momento preoccupazione facendo riferimento a quanto riportato dalla norma. Le diossine e i furani rientrano anche essi nei limiti normativi, qualcuno in concentrazione un po’ significative, ma niente di determinante. La cosa interessante a questo punto invece riguarda l’esaclorocicloesano soprattutto il Lindano che viene riportato come limite di rilevabilità. Quando io vi parlavo di armonizzazione dei dati, volutamente ho riportato n.d,. cioè non determinabile, perché purtroppo, e questo adesso lo dobbiamo approfondire, nel database non sono stati definiti i valori numerici del limite di rilevabilità rispetto alla procedura analitica utilizzata. Il non determinabile porterebbe a considerare l’assenza dell’inquinante considerato, ma se dovessimo fare un confronto con altre situazioni non siamo in grado di farlo perché anche il valore del limite di rilevabilità potrebbe fare la differenza. Spesso vengono riportati i limiti di rilevabilità oppure i limiti di quantificazione e quindi questo crea un problema nel confronto dei dati. Per quanto riguarda i metalli questo, al momento, è l’unico sito in cui sono state restituite anche le loro concentrazione, e come potete vedere, sono tutti sotto i limiti di rilevabilità e non destano, almeno per quelli normati, preoccupazioni particolari. L’ultimo sito di cui ho avuto la possibilità di elaborare i dati è quello di Falconara Marittima. Sulle vongole, per esempio, il PCB118, è vero che è un’altra matrice, però è anche vero che le concentrazioni, benché più alte rispetto a tutti gli altri PCB, sono molto basse. La stessa cosa succede per le diossine e per i furani. Come potete vedere la presenza di limiti di rilevabilità è abbastanza importante per tutti i congeneri presenti. In conclusione, ad oggi questo è quanto abbiamo a disposizione, ma l’obiettivo - penso che in qualche modo sia stato chiaro - quello che si vuole arrivare a fare è capire innanzitutto quali sono le concentrazioni degli inquinanti in studio e, a livello sanitario, quali potrebbero essere le criticità rispetto ai SIN e vedere se si riesce ad associare tali criticità ad una problematica specifica del SIN ciò permetterebbe la gestione della problematica stessa e a livello di bonifica la definizione degli interventi più urgenti da fare prioritariamente a tutela della salute. Naturalmente tutto ciò ci impegnerà molto, ma l’obiettivo fondamentalmente è quello descritto, inoltre questo studio ci darà la possibilità di raccogliere tutti i dati e arrivare, a livello nazionale, ad avere una conoscenza di insieme che ci permetterà di fare il punto della situazione. Arezzo 20 - 23 novembre 2012 181 21 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute Microinquinanti e catena alimentare: valutazione del rischio sanitario "Esperienze di valutazione del rischio per il pescato proveniente da aree contaminate" Mario Carere Istituto Superiore di Sanità Nell’ambito dei Siti di Bonifica di Interesse Nazionale diverse aree includono corpi idrici fluviali, lacustri, marinocostieri, di transizione caratterizzati da una contaminazione diffusa delle matrici acquatiche, in particolare dei sedimenti che tendono ad accumulare sostanze chimiche con caratteristiche di persistenza ed anche bioaccumulabilità; tali contaminanti presenti nei sedimenti, a seguito di modificazioni ambientali fisico-chimiche, microbiologiche ed idrologiche, possono diventare biodisponibili e trasferirsi nella catena alimentare con ripercussioni sull’edibilità di prodotti della pesca e quindi con una potenzialità di causare rischi per la salute umana. Gli elementi che sono necessari per valutare correttamente l’esposizione sono costituiti da una corretta analisi di tutte le pressioni e degli impatti presenti in un determinato bacino idrografico o corpo idrico, la conoscenza delle fonti/sorgenti di inquinamento, la selezione di inquinanti indici, i dati analitici disponibili su matrici ambientali e alimentari, dati sui consumi, sulla dieta,eventuali studi di biomonitoraggio umano ed utilizzo di modelli. La normativa comunitaria in vigore per la protezione delle risorse idriche è la Direttiva Quadro sulle Acque (DQA) che persegue un approccio integrato di valutazione di protezione dell’ambiente e della salute umana con l’obiettivo del raggiungimento di un buono stato al 2015 al fine di garantire tutti gli usi possibili dei corpi idrici compresi quindi quelli della pesca, dell’acquacoltura ed anche dell’uso delle acque superficiali destinate a scopo idropotabile. La DQA obbliga gli Stati Membri a gestire la tutela dei corpi idrici a livello di bacino idrografico e tutela l’ambiente acquatico attraverso la definizione di un elenco di priorità europeo e di inquinanti specifici rilevati a livello di bacino idrografico. Per le sostanze e gruppi di sostanze dell’elenco di priorità europeo (attualmente 41), sussiste un obbligo di riduzione ed eliminazione da parte degli Stati membri da tutte le fonti di inquinamento; tale elenco viene aggiornato ogni 4 anni. Tra queste sostanze vi sono diverse sostanze bioaccumulabili come i pesticidi organoclorurati, il benzopirene, i metalli pesanti, i nonilfenoli che potrebbero costituire una problematica di rischio per la salute umana in relazione al consumo di prodotti della pesca. All’interno e nelle aree adiacenti dei siti di bonifica sono spesso presenti infatti attività importanti di acquacoltura di tipo estensivo, intensivo, molluschicoltura di tipo commerciale, ma anche presenza di banchi naturali di organismi acquatici edibili, pesca sportiva e professionale. Di conseguenza è emersa la necessità di stimare l’esposizione ambientale nell’ambito della procedura di valutazione del rischio in relazione al consumo di prodotti della pesca in aree contaminate. La laguna di Orbetello è stata identificata come SIN nel 2002 con una nuova perimetrazione aggiornata nel novembre 2007. Essa, oltre ad avere un interesse commerciale rappresenta anche uno dei siti più importanti in Italia dal punto di vista naturalistico. Nella laguna sussistono attività tradizionali di pesca di acquacoltura estensiva ed intensiva estremamente rilevanti, ma la laguna è stata soggetta, in entrambi i lati (ponente e levante) ad un inquinamento pregresso sia derivante da un’industria chimica (ex-Sitoco) ma anche da miniere presenti nell’area di levante.Per quanto riguarda il mercuriogià nel passato erano stati evidenziati superamenti dei tenori massimi del regolamento europeo 1881/2006/CE nelle spigole di dimensioni elevate, quindi con un’età più avanzata. Parallelamente nella laguna è presente una contaminazione di mercurio nei sedimenti diffusa con degli hot spot in alcune aree specifiche ed è anche da rilevare la presenza di concentrazioni di background naturali. E’ stato effettuato uno studio da parte dell’Istituto Superiore di Sanità insieme al Commissario delegato al risanamento della laguna di Orbetello, in coordinamento con il Ministero dell’Ambiente, per valutare i fattori di rischio igienico-sanitari causati appunto dalla contaminazione dei sedimenti e individuare un criterio di qualità dei sedimenti protettivvo per la salute umana. E’ stato effettuato quindi uno studio di monitoraggio mirato sui sedimenti del biota nella laguna. Sono state selezionate quattro aree nella laguna a diverso grado di contaminazione: due aree ad alta contaminazione, un’area a media contaminazione ed una a bassa contaminazione. Sono stati trapiantati dei mitili per due mesi per verificare la capacità di bioaccumulo del mercurio nella laguna e nel sedimento. Lo studio ha evidenziato nell’arco di due mesi un certo accumulo, specialmente in alcune aree, di mercurio dai sedimenti ad i mitili; tale contaminazione si può quindi potenzialmente trasferire nella catena 182 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 21 Novembre alimentarecon un rischio poi possibile per la salute umana. In tali aree è stata quindi adottata una metodologia, basata su fattori di accumulo biota-sedimento (BSAF) per elaborare criteri di qualità dei sedimenti protettivi per la salute umana e per supportare misure di gestione appropriate per la bonifica dei sedimenti. Un altro caso studio è quello relativo al Sin di Augusta/ Priolo in cui è in corso uno studio per valutare la contaminazione attuale delle matrici ambientali ed il rischio per la salute umana anche attraverso il supporto di studi epidemiologici. In tale area erano stati già valutati i dati relativi alle varie matrici ambientali nell’ambito di un progetto con il Ministero dell’Ambiente per valutare il danno sanitario nei siti di bonifica ed erano stati riscontrati superamenti di alcuni metalli pesanti (mercurio, piombo, cadmio) nei sauri e nei teleostei; parallelamente erano state riscontrate concentrazioni elevate nei sedimenti fino oltre a 100 volte gli standard di qualità ambientale definiti dalla normativa nazionale. Anche in questo caso quindi la contaminazione dei sedimenti risulta connessa con la contaminazione del pescato. Nel sito di Pieve Vergonte nel Lago Maggiore è presente una contaminazione storica dei sedimenti, in questo caso di DDT e metaboliti, con superamenti diffusi anche dei limiti di rischio ecotossicologico (PEL-Probable effectlevel). Saltuariamente continuano a manifestarsi, fin dagli anni ’90, superamenti dei limiti sanitari nei prodotti ittici stabiliti dal Ministero della Salute in particolare nell’agone e nel lavarello, come emerge dai rapporti annuali preparati dalla commissione CIPAIS;vi è una presenza variabile e fluttuante di D.D.T. nelle reti trofiche come ad esempio nei bivalvi ma anche nelle uova di uccelli acquatici. In tale contesto non deve essere sottovalutato il ruolo presente e futuro che potrebbero avere le inondazioni e le modifiche chimico-fisiche (anche di temperatura) connesse con i cambiamenti climatici. Le attività in tutte le aree contaminate sono svolte in coordinamento con il Ministero della Salute, con il Ministero dell’Ambiente, le autorità locali e gli istituti scientifici nazionali, come ISPRA e il CNR. Quest’attività di coordinamento è importante anche in casi specifici quando avvengono delle situazioni emergenziali che possono contaminare un’area come ad esempio il caso “fusti tossici” avvenuto nel Mar Tirreno. Nel dicembre 2011 in Toscana l’Eurocargo Venezia ha sversato nel mare non distante dall’isola di Gorgona,a causa di condizioni meteo avverse,circa 200 bidoni di fusti tossici contenenti catalizzatore esausto nichelmolibdeno. Sono state effettuateimmediate azioni per gestire questa emergenza con il supporto di tutti gli enti pubblici locali e nazionali. Dal punto di vista analitico sono state effettuate delle analisi con cadenza mensile di prodotti della pesca da parte dell’ARPAT e dell’IZS su diversi organismi appartenenti ai diversi livelli trofici proprio per valutare il bioaccumulo. Sono state analizzate le sostanze (nichel, vanadio, molibdeno, antimonio e cobalto) che potenzialmene potevano provenire dai catalizzatori dispersi. L’Istituto ha effettuato delle valutazioni preliminari mensili sui dati pervenuti e al momento le analisi non hanno evidenziato rischi particolari per la salute umana, ma è stato suggerito di proseguire i monitoraggi per avere un quadro complessivo della contaminazione nell’arco di un periodo temporale che possa racchiudere e rilevare eventuali fenomeni di bioaccumulo nel corso degli anni successivi. Sono state anche effettuate analisi della colonna d’acqua e dei sedimenti nonché saggi di ecotossicità da parte di ISPRA. In conclusione è necessario affermare che quando si valuta il rischio della salute umana in relazione al consumo di prodotti ittici ovviamente il controllo diretto del contaminante degli organismi acquatici edibili è sicuramente il criterio principale di valutazione, ma il monitoraggio di tipo ambientale, quindi di sedimenti, anche biota non edibile, colonna d’acqua rappresentano elementi di supporto importante per intraprendere anche le misure di bonifica e approfondire anche la conoscenza dei destini di trasferimento nella catena alimentare; inoltre al fine di migliorare il processo di valutazione di rischio descritto e per rafforzare progressivamente il nesso di causalità (emissione di un inquinante-sviluppo della patologia) è auspicabile l’incremento di tecniche di monitoraggio di tipo tossicologico ed ecotossicologico (es. saggi di tossicità in vivo ed in vitro, test di mutagenesi e strumenti per il rilevamento di interferenti endocrini) in parallelo alle analisi chimiche, in grado di rilevare ad esempio la presenza di miscele di inquinanti che hanno lo stesso modo di azione o la presenza di sostanze non incluse nei programmi di monitoraggio. Arezzo 20 - 23 novembre 2012 183 21 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute Microinquinanti e catena alimentare: valutazione del rischio sanitario "Contaminazione della catena alimentare da metalli pesanti" Paolo Stacchini Istituto Superiore di Sanità Trascrizione non revisionata dal relatore Perché parliamo di metalli pesanti nei prodotti alimentari? Perché anche oggi ci troviamo qui e abbiamo, tra i tanti contaminanti alimentari che sono stati elencati ed enumerati precedentemente, pensato che fosse opportuno parlare di metalli pesanti. Il primo motivo è perché ci sono conoscenze consolidate in questo settore, quindi anche da un punto di vista della esplicazione dei fenomeni è un modo per far capire, far conoscere le cose anche come metro per valutare le cose che accadono. Poi perché effettivamente, piaccia o non piaccia, per quello che riguarda i contaminanti chimici purtroppo sono fra i contaminati che ricorrono più frequentemente a determinare condizioni di attenzione. Non parlerei di condizioni di rischio perché poi sul termine valutazione del rischio c’è un grande affannarsi, però sulle quali noi siamo chiamati a esprimere valutazioni. Valutazioni che sono rese spesso difficoltose dalle caratteristiche che questo tipo di contaminazione assume e dal fatto che quando parliamo di alimenti parliamo di mondi spesso diversi l’uno dall’altro. Prima parlavamo di prodotti ittici, quindi di prodotti ittici freschi e quello è il chiaro esempio di una situazione che rende l’alimento esposto a un tipo di contaminazione che è quella ambientale tanto che parliamo qui di alimento e spesso lo stesso alimento funge anche da indicatore, da segnalatore di problematiche ambientali. Però alimenti ne mangiamo tanti e diversi l’uno dall’altro. Gli alimenti che oggi consumiamo sono sempre più determinati da trasformazioni alimentari. L’uomo fa qualcosa per produrre alimenti, fa qualcosa nell’ambito della produzione primaria, alleva, coltiva. Allevando e coltivando inserisce problemi nella produzione alimentare. Voi pensate, e qui l’ho richiamato rapidamente, che sono definiti, nell’ambito del controllo di trattamenti volontari - pensiamo ai pesticidi nel settore agroalimentare -, limiti per quello che riguarda elementi inorganici quindi metalli pesanti. Abbiamo alimenti che noi conosciamo da sempre che sono stati richiamati - mercurio, cadmio, piombo - che fortunatamente oggi sono completamente regolamentati e armonizzati a livello comunitario. Questa è una grande fortuna che noi abbiamo perché quando queste cose sono definite - non è che sono definite a casaccio, ma sono definite a seguito di percorsi di valutazione - abbiamo termini di confronto che ci consentono di stabilire, di decidere. Perché quante volte noi siamo chiamati a decidere e in assenza di limiti? E anche nel settore dei metalli questo purtroppo è presente, si verifica. Noi abbiamo altri elementi sui quali l’interesse sanitario è elevato, pensiamo all’arsenico, al cromo. Sono elementi per i quali c’è una grande attenzione da un punto di vista di chi valuta queste cose. Anche qui noi abbiamo fortunatamente un riferimento certo perché oggi abbiamo un’Agenzia Europea che si occupa di fare questo tipo di lavoro e abbiamo a livello mondiale a volte parenti scomodi perché c’è il JECFA, ad esempio, in ambito FAO/OMS che fa lo stesso tipo di lavoro e spesso invece dà indicazioni non sempre parallele. Proprio sul cadmio, voi pensate, abbiamo interpretazioni diverse da parte di gente che fa lo stesso mestiere, ma che vede le cose in maniera non sempre sovrapponibili. Abbiamo però, e lo richiamo anche dal punto di vista del metodo proprio, elementi sui quali invece non abbiamo livelli definiti e lì nasce il problema di quello di cosa fare. Che fare quando ci troviamo di fronte alla presenza di sostanze di cui sappiamo che sarebbe meglio che non ci fossero nei prodotti che consumiamo e che però non ci consentono un riscontro immediato perché non ci sono definiti i limiti. Abbiamo il problema che i metalli li troviamo negli alimenti freschi e parliamo allora di contaminazione ambientale, contaminazione che può essere di origine naturale e può essere però, ed è prevalente, di origine antropica, ma c’è il mercurio che in certe aree è esposto al doppio livello di contaminazione sia di origine naturale che antropica. La contaminazione da metalli pesanti non fa sconti, riguarda la produzione di originale animale, riguarda la produzione di origine vegetale perché ci sono elementi che preferiscono andarsi a ficcare all’interno di produzioni animali - è il caso del mercurio perché per affinità e per destino ambientale va a finire meglio in determinati contenitori quali alimenti ittici - ma ci sono anche le produzioni vegetali. Noi, come Paese, non possiamo essere indifferenti a questo problema anche perché abbiamo produzioni tipiche che hanno questo rischio, perché insistono in ambiti ad elevato impatto antropico, ad esempio è il caso della produzione del cadmio nazionale e del suo rischio di andare incontro a livelli di contaminazione nel riso. Ma abbiamo anche tutto il mondo degli alimenti trasformati e l’alimento trasformato è sempre più presente sulle nostre tavole. Sempre e crescente l’offerta e sempre questo nasconde la possibilità di trovarci di fronte a qualcos’altro anche per quello che riguarda la contaminazione da metalli. Abbiamo nel trasformato la contaminazione delle materie prime che è quella di natura ambientale, ma può derivare anche da ingredienti che non consideriamo proprio, ma che invece entrano a tutto titolo all’interno di un prodotto alimentare. 184 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 21 Novembre Pensate agli additivi: ma se voi prendete un qualsiasi prodotto alimentare trasformato e ne leggete l’etichetta, ne decodificate l’etichetta spesso leggete i nomi che sono riferimenti di additivi. Questi a loro volta possono apportare contaminanti, in particolare metalli, tanto che il legislatore comunitario non è stato indifferente al problema. Anche in questo caso ha definito limiti per quello che riguarda il contenuto di metalli nei singoli additivi, ma pensate ci sono prodotti alimentari che sono praticamente assemblaggio di additivi, cioè di sostanze volontariamente aggiunte nella produzione alimentare. Se voi prendete una caramella senza zucchero o un chewing gum, l’esito è la risultante di un assemblaggio di ingredienti alimentari che sono additivi, perché l’additivo, va ricordato, è un ingrediente alimentare. Orbene lì noi abbiamo i livelli limiti che devono essere recuperati dai limiti previsti nelle schede che il legislatore accompagna ad ogni additivo alimentare previsto. Abbiamo poi la contaminazione che può avvenire durante la trasformazione, quella che è chiamata contaminazione da processo. Pensate, ad esempio, alla produzione del vino, molto spesso noi andiamo incontro alla possibilità di arricchire involontariamente la nostra produzione attraverso quello che avviene mediante cessione nel momento in cui proprio il vino è prodotto, quindi qualcosa può accadere durante la produzione e trasformazione degli alimenti. Infine la contaminazione che può determinarsi nelle fasi di confezionamento e stoccaggio, pensate alla cessione da materiali a contatto. Perché questa disamina? Per dire che i problemi vanno affrontati tenendo conto delle diverse origini. Anche metodologicamente dobbiamo sapere una cosa: il prodotto alimentare è un bacino che raccoglie tanto, raccoglie quello che l’ambiente immette ma raccoglie anche quello che l’uomo, le produzioni, le diversificazioni di produzioni alimentari possono determinare. E quando noi andiamo a valutare queste cose dobbiamo conoscere, quindi quando parliamo di approccio integrato, l’approccio integrato prevede che se l’alimento è interno a un meccanismo valutativo deve essere pure prevista la competenza di chi è che conosce che cosa si muove all’interno di un sistema che porta poi alla determinazione di una produzione alimentare. Noi valutiamo mediante definizione di livelli di limiti di assunzione tollerabili. L’ho già detto, abbiamo dentro casa, perché ce l’abbiamo proprio a Parma, chi si occupa di fare questo lavoro, ma abbiamo anche interlocutori esterni all’ambito europeo. Noi abbiamo il JECFA, che opera in ambito OMS, che non sempre va estremamente d’accordo con l’Agenzia Europea per la Sicurezza Alimentare. Ciò significa che dobbiamo essere attenti a quello che avviene dentro e fuori Europa perché poi dalle valutazioni di carattere tossicologico escono fuori i limiti, quelli che determinano poi lo stato di conformità delle produzioni alimentari. Qui c’è il Direttore e sa che sforzi vengono fatti per armonizzare quello che viene stabilito a livello della Commissione Europea con quello che viene invece deciso a livello del Codex Alimentarius. Quali punti di frizione possono originarsi da diverse visioni che tuttora sussistono perché noi non dobbiamo dimenticare che per quello che riguarda la sicurezza alimentare siamo in un Paese che ha sempre avuto un approccio molto cautelativo. Basta pensare alla norma sugli additivi alimentari che è datata 1965, è stato il primo esempio di norma che era costruita sul principio della lista positiva, cioè io infilo in un prodotto alimentare ciò che valuto prima. Adesso sembra una cosa scontata perché è patrimonio di tutti, ma allora invece non era così e questo tipo di approccio permane e fa sì che se noi andiamo a scartabellare nelle varie tabelle dei limiti nei prodotti alimentari dei metalli pesanti definiti a livello europeo e li confrontiamo a livello del Codex Alimentarius abbiamo la possibilità di fotografare immediatamente questa divaricazione. Per valutare dobbiamo studiare l’esposizione della popolazione. Abbiamo diversi modelli, io ne ho riportati due. Studi riferiti a dieta totale e studi per gruppi di alimenti. Qui un’aperta parentesi: noi abbiamo sempre più una popolazione diversificata e composta, questo comporta abitudini alimentari diverse e dobbiamo, e questo viene fatto sempre più, essere attenti anche a quelli che sono definiti segmenti di popolazione vulnerabile, farci carico del destino dei diversi segmenti di popolazione. Due casi recenti, a titolo esemplificativo, che sottolineano qual è l’atteggiamento che l’Italia ha relativamente al problema della tutela della salute della popolazione in relazione alla presenza di contaminati chimici. Qui parliamo di metalli pesanti. Il Direttore sorride perché c’è stato un problema recente relativo al riscontro di elevati contenuti di cadmio in granciporri, in crostacei di dimensioni significative che venivano da Paesi quali la Francia, la Spagna e il Portogallo. Anche qui il limite di legge in un prodotto alimentare, secondo la visione italiana che poi è stata raccolta a livello europeo, è un limite di legge vincolato al concetto di edibilità, cioè il livello ha senso se io tengo conto di quella porzione di alimento che consumo. L’alimento ha spesso parti che non vengono consumate. Per quello che riguarda il granchio, esso é costruito da una parte “muscolare”, un tessuto chiamato tessuto bianco, e una parte chiamata epatopancreas che raccoglie una parte viscerale. Il cadmio va a raccogliersi preferibilmente nella parte viscerale e lì si determinano quei fattori di concentrazione e accumulo a cui faceva riferimento il Dr. Carere. Le abitudini italiane alimentari fanno sì che noi consumiamo tutto il prodotto. Noi abbiamo fatto incontri pure con la diplomazia francese proprio per sottolineare il fatto che per noi era impossibile, nell’ambito della tutela della salute della popolazione, riferire il contenuto solo alla parte muscolare perché di fatto il consumo riguardava tutto. Alla fine questo ha portato a una serie di discussioni in ambito comunitario che ha fatto sì che arrivassimo ad una ridefinizione della norma e a un’indicazione precisa al consumatore decisa in ambito comunitario. La normativa Arezzo 20 - 23 novembre 2012 185 21 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute quindi va avanti anche grazie a quello che viene proposto e fatto a livello nazionale. Concludo per dire una cosa: per lavorare bene ed essere attivi e produttivi nelle sedi che contano c’è bisogno di dati. Di dati che siano affidabili, di dati che siano di qualità. Io lavorando a contatto quotidiano con la Direzione del Ministero della Salute sottolineo sempre l’urgenza assoluta di prendere questi dati e utilizzarli per trasformare la norma laddove è necessario e per ridisegnare le cose. Noi siamo tra i Paesi che producono maggiormente dati analitici, il che significa anche costi, risorse, cosa di cui in questi tempi difficili è necessario porre particolare attenzione. E’ giusto utilizzarli nell’ambito di quello che maggiormente è richiesto oggi. Tutta la normativa sulla sicurezza alimentare richiama il concetto di valutazione del rischio, orbene la valutazione del rischio è possibile solo se abbiamo la disponibilità di numeri e di quelli ne abbiamo urgente bisogno. 186 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 21 Novembre Microinquinanti e catena alimentare: valutazione del rischio sanitario "La valutazione del rischio connesso ai suoli agricoli in Siti Contaminati" Fabiana Vanni Istituto Superiore di Sanità L’intervento presenta una panoramica delle problematiche connesse alla presenza di aree agricole in Siti Contaminati. Come è noto, la normativa in materia ambientale, il D. Lgs. 152/2006, stabilisce, specificatamente nel titolo V della parte quarta, le modalità di bonifica e di gestione dei siti contaminati. In particolare, per quanto riguarda le aree agricole, l’articolo 241 rimanda ad un successivo regolamento, da adottare di concerto tra i vari ministeri, che dovrebbe individuare gli interventi da realizzare per quanto attiene alla bonifica ed al ripristino ambientale di tali aree. Di fatto però questo regolamento non è mai stato emanato. Per quanto concerne i limiti normativi per destinazioni d’uso del suolo, nell’allegato 5, sono previsti soltanto le destinazioni d’uso quali verde pubblico, privato e residenziale, e destinazione d’uso commerciale e industriale, quindi in Italia non esiste una specifica normativa per i suoli agricoli. Si pone, di conseguenza, il problema della valutazione del rischio connesso alla presenza di aree agricole, che sono presenti anche in maniera molto estesa all’interno di siti contaminati, spesso anche di interesse nazionale. L’approccio gestionale per le aree costituite da suoli a destinazione d’uso diverso prevede l’applicazione dell’Analisi di Rischio (AdR) quando vengono superate i limiti normativi. L’AdR permette sia di stimare quantitativamente il rischio che di calcolare gli obiettivi di bonifica, cioè le concentrazioni soglia di rischio a tutela sanitaria. Di contro, per le aree a destinazione d’uso agricolo, si ritiene più opportuno non utilizzare uno strumento standardizzato, bensì ricorrere ad una valutazione dell’esposizione della popolazione che si ritiene avvenga, principalmente, mediante la dieta, con il consumo di alimenti prodotti nell’area. Ciò è dovuto a causa del possibile trasferimento della contaminazione dal suolo alla pianta, passando, quindi, nei vegetali ed entrando, successivamente, nella catena alimentare. In tutti i casi, comunque, è necessario ricostruire il modello concettuale del sito. Quest’ultimo, mediante la definizione degli elementi di interesse - cioè la sorgente di contaminazione, meccanismi di trasporto della contaminazione stessa e il bersaglio - descrive la situazione del sito. Si ricostruisce la storia dell’area, la presenza di eventuali impianti industriali o di tutte le attività di origine antropica che possano determinare, o aver determinato, una contaminazione presente o pregressa; successivamente si effettuano i vari sondaggi necessari allo caratterizzazione. In particolare per quanto riguarda le aree agricole, si ritiene che il modello concettuale possa essere espresso mediante due distinti modelli: l’ambientale e il sanitario. Nel modello concettuale ambientale il bersaglio è costituito da una matrice ambientale, quindi specificatamente dalle aree agricole o a pascolo che sono oggetto dello studio. Le sorgenti sono tutte le attività di origine prevalentemente antropica e, quindi, industriale. In questa fase vengono individuati i contaminanti indice dell’area, caratteristici sia per le loro caratteristiche tossicologiche che per l’elevata concentrazione con la quale vengono riscontrati. Il trasporto avviene mediante fenomeni atmosferici, quali la dispersione atmosferica, la ricaduta polveri nonché l’infiltrazione delle acque piovane. Nel bersaglio sanitario invece, quello che prima si configurava come bersaglio, cioè la matrice ambientale, diventa adesso la sorgente. Conseguentemente le aree agricole, in particolare gli alimenti che esse stesse producono, sono la potenziale fonte di contaminazione. Il bersaglio è costituito dalla popolazione generale ed il trasporto avviene mediante la dieta e, quindi, mediante il consumo di alimenti vegetali prodotti in loco. Qual è, quindi, la strategia di gestione e/o monitoraggio prioritaria? Come detto è la valutazione dell’esposizione, causata specificatamente dal potenziale passaggio suolo-pianta; ne consegue che gli alimenti di origine vegetale siano la matrice da campionare in via prioritaria perché possono entrare più direttamente nella catena alimentare. E’ pur vero che la presenza di colture foraggere e/o di pascoli può portare la contaminazione anche negli animali e, successivamente, negli alimenti di origine animale. In funzione dello studio delle aree, delle coltivazioni presenti, di eventuali tipologie di allevamento, ecc. si sceglie la tipologia alimentare (le varie matrici) ed è evidente che quanto più varia è la tipologia di matrici campionate tanto più caratteristica risulta la descrizione dell’area oggetto di studio, tenendo conto, eventualmente, anche della variabilità stagionale dei prodotti. E’ opportuno sottolineare sempre la necessità di dati affidabili, valutandone la numerosità campionaria e la comparabilità, nonché l’uso di metodiche validate corredate da limiti di rilevabilità comparabili. A fronte di tante metodiche utilizzate nella valutazione del rischio, è possibile proporre un approccio unificato per le aree agricole al fine anche di avere una gestione più organica delle stesse? E quando utilizzare i limiti normativi sui prodotti alimentari? I limiti normativi vanno utilizzati chiaramente sempre laddove disponibili, ma tali limiti sono previsti solamente per alcuni analiti. Il Reg. 1881/2006, per esempio, per le matrici ortofrutticole riporta limiti solo Arezzo 20 - 23 novembre 2012 187 21 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute per il piombo e per il cadmio. In assenza, quindi, di limiti normativi si procede ad una valutazione dell’esposizione che richiede la necessità della conoscenza dei consumi alimentari. Questo costituisce l’anello più debole della valutazione proprio per la difficoltà di reperire tali dati di consumo. A livello nazionale sono disponibili gli studi dell’INRAN che, periodicamente, fornisce i dati di consumo anche in base all’età, alla provenienza geografica, al sesso. Eventuali problematiche possono essere legate alla modalità con le quali i dati sono aggregati o disaggregati e, di conseguenza, si può incorrere in sovrastime o sottostime dell’esposizione stessa. Per aree agricole destinate al commercio nazionale sono utilizzabili questi studi; di contro, per aree agricole con una produzione destinata al consumo locale, sarebbe preferibile ricostruire le abitudini specifiche alimentari dell’area e utilizzando questionari e/o diari, valutando, nel contempo, le problematiche legate ai costi. Una volta effettuata la scelta dell’aggregazione delle matrici si procede all’elaborazione statistica nell’ambito delle voci alimentari individuate; si calcolerà la quantità di contaminanti assunta e, sommando le varie voci alimentari, si può valutare l’intake totale mediante tutte le voci individuate. Questa è semplicemente una tabella nella quale è mostrato un calcolo che era stato effettuato. Come vedete qui, per esempio, l’aglio e la cipolla erano state individuate separatamente come dati di consumo mentre nella frutta fresca o nella frutta secca afferivano diverse matrici. Si giunge, poi, alla valutazione vera e propria quindi, come già accennato in precedenza, ci sono vari organismi internazionali che fissano parametri tossicologici espressi come dosi tollerabili sia su base giornaliera che settimanale. Qui brevemente è riportato a sinistra un Tolerable Daily Intake, quindi base giornaliera, e a destra un intake su base settimanale, altro parametro da considerare è il peso corporeo. La percentuale di A rappresenta la percentuale di accettabilità del contaminante stesso. Tale parametro può assumere valori compresi nel range da 0 a 100 ed è chiaro che, a seconda di come è stato pianificato il monitoraggio iniziale, si può decidere di accettare un valore più o meno elevato; ad esempio se in partenza si è già tenuto conto della variabilità dovuta ai vari alimenti coltivati, si potrà considerare un’accettabilità più elevata, altrimenti si dovrà tener conto anche del possibile intake dovuto ad alimenti non monitorati. In questa seconda modalità, in analogia alla procedura standardizzata utilizzata nei software, viene utilizzato per la valutazione del rischio l’approccio statunitense e, quindi, si calcola l’Average Daily Dose, la dose media assunta, e la Lifetime Average Daily Dose rispettivamente per sostanze caratterizzate da effetti tossici con soglia e da sostanze cancerogene, più specificatamente con meccanismo genotossico. Entrano in gioco altri parametri di esposizione quali la frequenza e la durata. In particolare l’Averaging Time, cioè il tempo sul quale l’esposizione viene mediata, differenzia le due formule, in quanto per i tossici caratterizzati da un effetto con soglia l’Averaging Time è pari alla durata effettiva dell’esposizione, per sostanze cancerogene genotossiche, invece, si considera pari all’arco dell’intera vita, in quanto l’effetto cancerogeno può esplicarsi anche molto tempo dopo la cessata esposizione. Si prosegue con la stima quantitativa del rischio, per le sostanze caratterizzate da una soglia si calcola l’Hazard Index e il valore di accettabilità in questo caso può assumere valori nel range 0-1 con possibili considerazioni analoghe a quelle fatte in precedenza per il TDI e per il TWI. Di contro, per la stima quantitativa per le sostanze cancerogene, il rischio assume un concetto diverso ed è espresso come la probabilità incrementale dell›insorgenza di tumori in una popolazione esposta rispetto ad una popolazione non esposta. L›accettabilità del rischio, quindi, assume dei valori che chiaramente devono derivare da una considerazione di tipo etico e di utilità sociale, effettuando sempre delle considerazioni rischio-beneficio. Nella normativa nazionale per i suoli a destinazione d’uso verde o commerciale e industriale è accettato 1 caso incrementale su 1 milione di esposti; a livello internazionale sono usati anche valori più bassi. Brevemente si conclude dicendo che si è cercato, con questo studio, di presentare una proposta mirata ad una organica possibilità di gestione delle aree agricole, con la raccomandazione di effettuare sempre delle valutazioni sito-specifiche. La valutazione del rischio che tiene conto dei tassi di consumo giornaliero è chiaramente applicabile anche agli alimenti di origine animale. E’ bene sottolineare che, nelle fasi valutative, entrano in gioco dei parametri ai quali possono essere attribuiti valori diversi più o meno conservativi, quali la durata e la frequenza di esposizione, nonché il tasso di consumo, l’Intake Rate, per il quale si è considerato che tutti i consumi provengano dalla particolare area studiata. Anche in questo caso quindi si può essere più o meno cautelativi, a scapito di una più realistica caratterizzazione delle condizioni dell’area. Tutte le considerazioni sui superamenti di valori soglia o sul rischio incrementale accettabile per gli effetti cancerogeni devono venire da una valutazione attenta, per giungere ad una comunicazione con l’utenza finale che poi è lo scopo principe di tutte le valutazioni. 188 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 22 Novembre Cambiamenti ambientali globali, rischio chimico e infettivo: verso una prevenzione integrata "Zoonosi e rischi emergenti" Paola Scaramozzino IZS Lazio Toscana – Osservatorio epidemiologico L’approccio allo studio delle zoonosi ed alla loro sorveglianza è cambiato rispetto a quello classico, presentato nei libri di testo di Medicina o di Veterinaria. Il motivo per cui si parla di rischi emergenti in rapporto alle zoonosi è perché sono sopraggiunti negli ultimi decenni, dei nuovi pericoli in ambito infettivo, intesi come nuovi agenti patogeni che si possono trasmettere dagli animali all’uomo. A questo si deve aggiungere un cambiamento dei rischi provocati dai classici agenti patogeni a causa di un cambiamento delle vie di esposizione e di un parallelo cambiamento delle fasce di popolazione esposta e della loro consapevolezza dei pericoli. Attualmente risulta particolarmente interessante studiare la classica esposizione derivante dal contatto con gli animali e dalla ingestione di alimenti di origine animale alla luce dei cambiamenti ambientali che possono influire sulla probabilità di contagio. Questi cambiamenti devono essere intesi sia come cambiamenti climatici sia come cambiamenti sociali. Il concetto di globalizzazione si collega sicuramente ad una facilità di spostamento delle persone che era assolutamente impensabile fino a alcuni decenni fa, ma anche all’enorme trasporto di merci su rotte che, a volte, sono sconosciute e che vengono approfondire soltanto quando si pongono dei problemi sanitari che prima non erano mai stati affrontati. Inoltre la distruzione di alcuni ecosistemi ha comportato una variazione dell’interfaccia uomo-animale-ambiente tale da produrre dei nuovi rischi. Per quanto riguarda le vecchie zoonosi, quali la tubercolosi e la brucellosi, queste sono ben conosciute sia dai medici sia dai veterinari. Quello che può cambiare anche relativamente a queste classiche patologie è il modo in cui la popolazione umana o, a volte, anche la popolazione animale, può essere esposta. Ad esempio, la tubercolosi umana sta aumentando e la trasmissione zoonotica tradizionale dalle vacche da latte all’uomo, si sta invertendo: alcune vacche da latte si infettano da personale addetto alla loro cura che viene da paesi in via di sviluppo, dove a volte la tubercolosi è ancora molto diffusa. Vi sono però anche dei nuovi agenti patogeni o comunque degli agenti patogeni non sufficientemente studiati o conosciuti nella nostra pratica clinica o strategia di prevenzione, aggiornata ormai ad alcuni anni fa. Pensiamo soprattutto al problema degli Escherichia coli enteropatogeni i quali, rispetto ai ceppi che eravamo abituati a conoscere, hanno acquisito dei fattori di virulenza molto più preoccupanti. Altro esempio può essere costituito dall’Influenza pandemica, che è esistita storicamente anche in passato, tutti noi conosciamo quella spagnola, ma il turbamento sociale provocato dalla preoccupazione che le influenze aviarie potessero compiere il salto di specie e diventare la nuova pandemia, è stato un evento del tutto nuovo. Per fortuna, fin’ora, il pericolo non si è concretizzato, almeno non nei termini di cui si temeva. L’antibioticoresistenza è una zoonosi, inteso come un problema sanitario grave nell’uomo, che deriva anche, ma non solo, da un approccio alla terapia in medicina veterinaria che comporta, così com’era già successo in medicina umana, un abuso di antibiotici. Tutto questo provoca sicuramente la selezione di ceppi batterici resistenti, che poi facilmente passano dagli animali all’uomo e viceversa. Nella regione Lazio si sono verificate delle epidemie di Opistorchiasi. Questa patologia, fino a pochi anni fa praticamente sconosciuta in Italia anche dai parassitologi, nel Lazio attualmente è diventata una patologia abbastanza rilevante, considerando che ogni estate degli ultimi 4-5 anni si registrano casi isolati o vere e proprie epidemie, dovute a consumo di pesce di lago crudo. Questo alimento, il cui consumo si è affermato solo negli ultimi anni, perché non era nella nostra tradizione culinaria, causa una patologia epatica nell’uomo sconosciuta per lo più ai medici. Il paradigma di tutti i nuovi pericoli dovuti ai cambiamenti ambientali e climatici è rappresentato sicuramente dalle malattie trasmesse da vettori. Il clima, inteso come parametri di temperatura e di umidità, sicuramente influisce sullo sviluppo degli insetti vettori di malattie infettive, in particolare di virus, ma anche sulle modalità con cui i virus replicano all’interno dei vettori stessi. Quindi, per quanto riguarda il riscaldamento globale, c’è una doppia azione che fa sì che la pressione infettante, quindi la forza d’attacco di alcune patologie virali trasmesse da vettori, sia enormemente aumentata, anche alle nostre latitudini. Parlando di zoonosi tradizionali, le categorie di popolazione che noi eravamo abituati a studiare come categorie esposte erano agricoltori, allevatori, veterinari o macellatori. Fondamentalmente tutti coloro che per un motivo o per un altro erano a contatto con gli animali in ambiente rurale. Sicuramente un contadino era esposto più di una persona di città fino a cinquant’anni fa alla echinoccosi o alla brucellosi per esempio. Attualmente esistono nuove categorie esposte a rischi zoonosici, pensiamo per esempio agli escursionisti, che sono sicuramente aumentati negli ultimi decenni e che sono la categoria di persone maggiormente interessati da attacchi da zecche e alle patologie da loro trasmesse. Questo fenomeno, in alcuni parchi ed aree naturali del Nord Italia, ad esempio in Veneto, ha costituito un grosso problema, al punto tale che alcuni parchi sono stati chiusi per alcuni mesi perché la numerosità di artropodi, in particolare di zecche; costituiva un grosso rischio per i visitatori. Arezzo 20 - 23 novembre 2012 189 22 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute Un altro esempio è costituito dai consumatori “globali”, dipendenti dalla grande distribuzione. Un episodio emblematico si è verificato nel caso dei germogli che hanno provocato, nel 2011, l’epidemia di E.coli enterotossici. L’episodio ha dimostrato che, quello che prima poteva essere limitato a una ristretta cerchia di persone che consumavano i prodotti di una certa area geografica, attualmente facilmente si estende praticamente all’intera Europa, ormai diventata un mercato unico. Nel caso specifico, come si è scoperto purtroppo solo alcune settimane dopo l’epidemia, una ditta che produceva germogli vegetali ad uso alimentare umano (non soltanto di soia), li vendeva ad altre ditte che producevano anche alimenti cosiddetti “ready to eat”, come le insalate pronte. In questo modo si è diffuso un contagio in molti paesi europei, da una specie vegetale contaminata che probabilmente in origine proveniva dall’Egitto. Di fatto è più difficile ora identificare una o più specifiche categorie di persone a rischio; piuttosto siamo diventati tutti a rischio anche relativamente a nuovi e sconosciuti pericoli. Relativamente al concetto di One health è opportuno riportare i risultati di studi retrospettivi sulla possibile origine di alcune malattie umane secondo i quali alcuni Autori affermati sono giunti alla conclusione che il 70-75% delle patologie infettive dell’uomo derivano da agenti patogeni analoghi negli animali che, dopo un periodo di mutazione e selezione, si sono adattati all’uomo occupando un’altra nicchia ecologica. Da questo si evince che l’interfaccia animali-uomo debba essere uno dei principali bersagli della prevenzione, almeno per quanto riguarda il rischio infettivo. Diamond ha studiato quali possono essere i passaggi per cui un virus, o comunque un agente patogeno, dagli animali possa passare all’uomo nell’arco di centinaia di anni. Ha ipotizzato questo tipo di evoluzione: i microrganismi che causano malattie presenti inizialmente solo negli animali, come attualmente potrebbe essere l’afta epizootica nei Paesi in cui ancora essa è presente, diventano progressivamente agenti patogeni in grado di passare all’uomo. In una prima fase però non sono ancora in grado di trasmettersi da uomo a uomo o comunque la trasmissione interumana è autolimitante. In questo passaggio riconosciamo bene la West Nile Disease che può presentarsi nell’uomo anche in forma clinica molto grave, ma per fortuna non è trasmissibile da uomo a uomo ma deve sempre essere trasmessa da puntura di insetti, che a loro volta si sono infettati da animali. Il terzo passaggio in questo caso è rappresentato da virus anche molto pericolosi, quali l’Ebola, il Marburg, agenti di malattie emorragiche, che sicuramente originano da animali (in questo caso dai primati del centro Africa) ma di tanto in tanto passano alla popolazione umana e diventando trasmissibili da uomo a uomo, e quindi possono causare epidemie nella popolazione umana, anche se per ora ancora limitate. Il quarto stadio è costituito da agenti infettanti che invece, pur provenendo in origine dagli animali, hanno quasi occupato la nicchia umana come principale zona di colonizzazione. In questo riconosciamo la febbre gialla, il virus della dengue e anche alcuni virus influenzali. Tra questi ultimi, alcuni ceppi sono più legati ad alcune specie animali, mentre invece altri sono tipicamente umani. Tra di essi però ci sono dei ponti, cioè dei ceppi mutanti di virus influenzali che hanno delle caratteristiche intermedie e che si dice possano compiere il salto di specie. Sono gli agenti patogeni che probabilmente hanno costituito il gradino immediatamente precedente a quei virus che ormai si sono tipicamente specializzati sull’uomo. Il quinto passaggio infine sono è rappresentato dalle malattie tipiche della specie umana che pur non essendo minimamente infettanti per gli animali, si pensa, vista appunto la storia naturale che è stata descritta per gli altri agenti, che possano aver avuto in passato un’origine, data anche la loro vicinanza filogenetica, con analoghi agenti negli animali. Tra i fattori estrinseci che possono provocare un rischio emergente di zoonosi sono i mutamenti ambientali, in particolare i climatici ma anche quelli economici e sociali. C’è però un elemento che può esser tenuto sotto controllo: quello della prevenzione. Laddove i meccanismi di prevenzione falliscono perché non sono preparati a questi cambiamenti, ovviamente questo costituisce un punto di debolezza per la nostra difesa. Adesso faremo una carrellata di quali sono i rischi emergenti dal punto di vista zoonotico e perché sono diventati emergenti. Parliamo delle malattie trasmesse da vettori. La zanzara Aedes albopictus (zanzara tigre) è stata introdotta negli anni ‘90 tramite il commercio di copertoni usati. Probabilmente in ambito sanitario nessuno immaginava che fosse così importante e così esteso a livello mondiale il commercio di copertoni di camion usati. E’ diventato invece un argomento di attualità, ed è stato anche oggetto di normative specifiche da quando si è scoperto che è stato il mezzo con cui in Europa sono entrate delle specie di artropodi che erano esotiche fino a 15 anni fa. D’altronde c’è anche un aumento di persone che si dedicano nel tempo libero ad attività outdoor , sportive od escursionistiche, che fa sì che le malattie trasmesse da artropodi, soprattutto zecche, siano diventate di maggiore attualità. Inoltre sicuramente il riscaldamento globale favorisce sia lo sviluppo degli insetti sia la moltiplicazione degli agenti patogeni all’interno degli insetti stessi. Per quanto riguarda la tubercolosi, si è accennato prima alla possibile trasmissione dall’uomo agli animali. Un altro grosso rischio emergente è costituito dai Micobatteri ultra-resistenti che stanno emergendo e che rappresentano uno dei più grossi problemi per i medici che affrontano questa patologia nell’uomo. Questo fenomeno ha fatto riemergere l’attualità della problematica della terapia per la tubercolosi, dopo che per un lungo periodo questa era stata relativamente semplice. In questo quadro si può inserire come nuovo motivo di complicazione , le 190 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 22 Novembre immunodeficienze di origine infettiva o terapeutica. Abbiamo accennato prima alle mutazioni virali, che interessano in particolare i virus influenzali, fortemente soggetti a mutare ad ogni ondata epidemica che è così è sostenuta da ceppi diversi, che derivano da mutazione dei ceppi precedenti e che solo in parte somigliano dal punto di vista antigenico al gruppo di virus da cui derivano. Per quanto riguarda alcuni ceppi di influenza aviaria ed influenza suina, questi sono ritenuti quelli più pericolosi per l’uomo, in quanto i determinanti infettanti sulle membrane e sui capsidi di questi virus sono quelli che più si adattano ai recettori dell’apparato respiratorio umano. Quindi le popolazioni di polli e di suini sono oggetto di controllo dal punto di vista dell’attività di sorveglianza in medicina veterinaria, non solo e non tanto nell’ambito della sanità animale ma anche e soprattutto in un ambito preventivo nei confronti della popolazione umana. Anche la SARS, che è tipicamente umana, riconosce un’origine da mutazione di coronavirus animali. Le nuove tecnologie alimentari hanno determinato l’insorgenza della BSE (Bovine Spongiform Encephalopathy) . L’argomento è di minore attualità adesso in quanto attualmente la malattia è sotto controllo, nonostante abbia generato un’ondata panico in ambito veterinario una ventina di anni fa in tutta Europa. Diverse decine di casi sono stati riscontrati nei bovini anche nel nostro Paese. Adesso non se ne parla più anche se continuano ovviamente le campagne di controllo negli animali. Non si registrano più casi perché è stato rimosso il fattore di rischio consistente nella somministrazione alimentare ai bovini da latte di proteine animali derivanti dagli stessi bovini, probabilmente originariamente infettati con ceppi di Scrapie, una malattia analoga della pecora che però non ha carattere zoonotico. E’ stato promosso il bando delle farine animali, ma oltretutto sono anche per fortuna cambiate le tecnologie di produzione per cui anche i mangimi vengono prodotti con tecnologie diverse, più sicure. La BSE attualmente non rappresenta più un grosso pericolo però lo è stato ed è un esempio di quello che può succedere in ogni momento. Può essere sufficiente un cambiamento in una tecnologia di preparazione alimentare, per far sì che si che emergano dei rischi sconosciuti precedentemente. Delle nuove tendenze alimentari, si è già parlato a proposito dell’Opisthorchis, ma un altro esempio di pericolo sono le insalate ‘ready to eat’ di recente diffusione. Risulta particolarmente comodo comprare delle buste di insalata pronta al supermercato che non deve essere lavata. In realtà sono stati fatti degli studi per cui queste insalate sono altamente contaminate sia da diverse specie di germe saprofiti e patogeni, ma anche in alcuni casi da oocisti protozoarie, tra cui il toxoplasma. Quindi fondamentalmente anche la modalità di alimentarsi e di commercializzare alimenti può in qualche modo influire sul rischio di zoonosi. La deforestazione, o comunque la distruzione dell’ambiente naturale, può essere un elemento predisponente a nuovi rischi sanitari, non tanto in occidente, quanto in Paesi in via di sviluppo. La deforestazione ha provocato una maggiore facilità di contatto tra animali e uomo in paesi tropicali ed è ciò che probabilmente ha provocato anche l’insorgenza delle malattie emorragiche citate precedentemente. Stessa origine hanno avuto i casi di Nipah virus nei suini e nell’uomo in alcuni Paesi asiatici. Una situazione analoga, riferibile in questo caso ad un ambiente artificiale, può aver causato le epidemie di norovirus. I norovirus, di per sé non eccessivamente patogeni, sono diventati estremamente attuali dopo aver provocato diverse epidemie nelle navi da crociera, interessando contemporaneamente migliaia di persone, esposte ad un unica fonte idrica che è il deposito-cisterna della nave. Quello che di per sé quindi è un agente patogeno non particolarmente pericoloso, diventa un elemento di attualità in sanità pubblica in seguito ad un mutamento sociale, quale il fenomeno di massa delle vacanze in crociera. Il consumo di pesce crudo è aumentato in seguito all’acquisizione di abitudini alimentari tipicamente orientali. Ciò ha comportato l’insorgenza nel nostro Paese di patologie che, pur non essendo nuove, (l’Opistorchis è stato descritto nel gatto per la prima volta in Italia nell’Ottocento), non erano conosciute dai medici fino a pochi anni fa. Per la diffusione dell’Anisakiasi vale lo stesso discorso, considerando che praticamente quasi tutte le specie dei nostri mari sono almeno potenzialmente infettate da larve di Anisakis. Il carbonchio ematico da Bacillus anthracis era una patologia nota in ambito rurale. Tutti i veterinari e gli allevatori conoscevano il carbonchio, ma nessuno in ambito cittadino. L’agente patogeno è diventato noto alla popolazione generale da quando è stato usato in episodi di bioterrorismo negli Stati Uniti. Di recente, lo stesso agente patogeno è tornato di attualità, per una situazione ancora diversa: il bacillo del carbonchio ha contaminato delle partite di eroina importate in Europa, causando delle epidemie carbonchio tra i tossicodipendenti in Germania ed in Olanda. E’ stata una evenienza assolutamente inaspettata e probabilmente anche riconosciuta in ritardo visto che non era una cosa facile da sospettare. Dell’antibiotico resistenza, in ambito medico, un dato interessante è riportato dal CRAB (Centro di referenza per l’antibiotico resistenza, presso l’IZSLT): più del 50% dei ceppi di salmonella isolati dal suino sono multi resistenti, cioè resistenti a più di quattro categorie di antibiotici, quindi praticamente molto difficili da trattare. L’Echinoccosi-idatidosi e la Trichinellosi sono zoonosi classiche piuttosto conosciute dai medici e dai veterinari. L’ Echinoccosi-idatidosi in Sardegna è una malattia endemica, costante nel tempo, il cui controllo non si è mai raggiunto, nonostante sia stato perseguito dagli anni ‘60 in poi. Di recente poi è emersa una incongruenza nel sistema di notifica europeo. L’Italia è l’unica nazione a livello europeo che non riporta i casi umani di Echinoccosi idatidosi, cioè gli altri nostri colleghi medici europei non sanno ufficialmente che in Italia c’è l’Echinoccosi idatidosi Arezzo 20 - 23 novembre 2012 191 22 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute nell’uomo e che in una Regione, la Sardegna appunto, questa è addirittura endemica. Un altro esempio di mutamento sociale che influenza l’andamento di una patologia è costituito dalla Trichinellosi. Questa era una patologia molto confinata, dal momento che nei Paesi già sviluppati praticamente non costituiva più un problema. Negli anni ‘90, in seguito al crollo del muro di Berlino nei Paesi dell’Est europeo molte famiglie sono ritornate ad un economia rurale, quindi allevavano il maiale in casa. Inoltre, era venuto contemporaneamente a crollare il sistema ufficiale di controlli; di conseguenza le carni venivano consumate senza che ci fossero adeguati controlli sanitari. Ciò ha comportato un aumento inaspettato nei primi anni ‘90 di casi in Europa dell’Est di Trichinellosi umana. Voglio infine solo accennare al problema dei contaminanti chimici negli alimenti, trattato in altre relazioni, che può essere una nuova frontiera per medici e veterinari impegnati nella prevenzione, da non trascurare. In conclusione il ruolo che i veterinari possono avere nell’ambito della prevenzione delle malattie nell’uomo è ancora attuale, pur in contesti climatici, economici e sociali mutati rispetto al passato. La base di ciò va senz’altro ricondotta alla loro esperienza nell’ambito del controllo delle malattie infettive, ma anche nelle competenze di base di epidemiologia, management sanitario e gestione di interventi sanitari sul territorio. 192 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 22 Novembre Cambiamenti ambientali globali, rischio chimico e infettivo: verso una prevenzione integrata "Molluschi e biomonitoraggio ambientale" Mario Latini SIMeVeP / IZS Umbria e Marche Questa presentazione è perfetta come esempio di come il biota, in questo caso i molluschi bivalvi, possa essere utilizzato sia come indicatore sanitario che come indicatore ambientale. Il monitoraggio dei molluschi bivalvi, dal punto di vista sanitario, analizza una serie di sostanze chimiche, di microbi e di biotossine di origine algale. Nonostante siano abbastanza gli analiti che si vanno a cercare nei molluschi bivalvi, essi sono i realtà solo una minima parte di quanti se ne possono riscontrare. Esistono tante altre possibilità di ricerca che non rientrano nei piani di monitoraggio ufficiale dal punto di vista sanitario perché non sono normati. Non sono normati in quanto non si conosce bene il rischio reale di una sostanza chimica o di un germe in particolare o di un virus. In realtà, per questioni di ricerca pura o in alcuni piani di monitoraggio locali, queste ricerche vengono effettuate. In effetti una piccola produzione di nicchia così quale quella dei molluschi bivalvi, la frequenza dei controlli nelle zone di produzione è molto alta. Basta pensare che le biotossine algali si ricercano almeno una volta alla settimana, mentre l’Escherichia coli e la salmonella ogni 15 giorni o una volta al mese a seconda dei rischi. Abbiamo quindi una miriade di dati prodotti per questioni sanitarie. Le aree classificate su cui vengono fatte queste ricerche sono ovviamente concentrate molto in Adriatico e nel Nord Adriatico in quanto lì è il punto dove si produce il maggior numero di molluschi bivalvi. Abbiamo circa 470 aree in Italia, siamo tra quelli che ne hanno di più in Europa, quindi abbiamo una buona visione di quello che succede nei mari italiani. Queste ricerche vengono fatte, dal punto di vista microbiologico, dopo una sorveglianza sanitaria. La sorveglianza sanitaria è un’analisi legata agli inquinanti organici della zona di produzione che considerano una serie di informazioni ambientali. Quando si classifica un area per poter raccogliere, produrre e vendere molluschi bivalvi, devo fare inizialmente una analisi della zona che consideri una serie di parametri per conoscere se quella zona è a maggior o minor rischio di un inquinamento microbico. Si va dalla salinità, alle maree, alla pioggia, alla direzione dei venti, alla batimetria e tutta una serie di altre analisi. Il Centro di Referenza Nazionale per il Controllo Microbiologico e chimico dei molluschi bivalvi vivi (CEREM), sito presso l’Istituto Zooprofilatico Sperimentale Umbria Marche di Ancona, elabora anche delle inferenze statistiche storiche sui dati per studiare cambiamenti stagionali e secolari delle contaminazioni. Si è potuto così accertare che c’è un aumento dell’inquinamento microbico di E.coli dal 2007 al 2010, mentre a livello stagionale vi sono degli inquinamenti maggiori nei periodi autunnali e invernali. Esiste quindi un interazione molto forte fra le nozioni che abbiamo dall’ambiente e quelle che possiamo ricavare dai dati storici. Tutto questo si riesce a visualizzarlo tramite le mappe tematiche. Per esempio per le Marche in tutte le zone classificate dove si raccoglie il prodotto, si crea uno storico dell’inquinamento in maniera visiva. Questo permette di migliorare l’appropriatezza delle azioni nel senso di andare a fare, se vogliamo, dei piani di monitoraggio mirati. Ovviamente il compito come Istituto Zooprofilattico, essendo nel sistema sanitario, è quello di proteggere il consumatore. Ciò non vuol dire che tutte queste cose possono morire nella sanità, anzi possono essere poi trasferite all’ambiente e viceversa. In effetti la sorveglianza sanitaria non viene fatta per gli inquinamenti chimici, cioè mentre esiste un sistema iniziale di analisi del rischio per determinare il prelievo e l’analisi microbica nuda, questa analisi non viene effettuata per i prodotti chimici. Abbiamo dei piani di monitoraggio storici in cui le sostanze chimiche vanno ricercate una volta ogni sei mesi indipendentemente da quanto presente nel territorio. Nelle Marche, ad esempio, la distribuzione dei risultati di analisi chimiche effettuate negli ultimi tre anni evidenzia come la distribuizione dei i campioni risulti molto lontana dai limiti di legge. Ci si pone la domanda se ha senso continuare a fare questo tipo di analisi in questo modo. E’ ovvio che non si può smettere il monitoraggio di piombo e cadmio, ma ha senso in questo modo? Inoltre in letteratura si indica come la salinità e le sabbie hanno una influenza molto forte sulle quantità di metalli pesanti nell’acque e quindi anche nel biota. Sarebbe quindi consigliabile aggiungere nella normativa questa sorveglianza sanitaria prevista per la microbiologia, anche per la chimica. Esistono una serie di sostanze chimiche che non vengono analizzate di routine perché non sono normate, ma sono presenti. Si sono avuti casi di inquinamento da cromo, è noto che l’arsenico in alcune zone è molto presente o, addirittura, le stesse sostanze chimiche che sin trovano nei molluschi bivalvi possono essere indici di altri inquinamenti come il vanadio e il nichel, che in sé per sé potrebbe essere non tossici se non a concentrazioni elevatissime, ma sono comunque molto legati alla contaminazione da idrocarburi. Esiste un altro mezzo di allerta sull’inquinamento chimico: l’uso dei biomarkers. Esso viene utilizzato molto per studi ambientali, mentre noj viene utilizzato per studi sanitari. I biomarkers sono delle variazioni fisiologiche che ha il biota, in questo caso i molluschi bivalvi, quando entra in contatto con un inquinante. E’ un mondo molto Arezzo 20 - 23 novembre 2012 193 22 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute variegato, esitono decine e decine di biomarkers, va quindi studiato cosa andare a ricercare e come andarlo a ricercare, però è un mezzo che potrebbe essere molto utile per conoscere una variazione fisiologica dovuta al cambiamento dell’ambiente e quindi creare un sistema di allerta dovuto ad un cambiamento di origine chimica. Sono studi di solito molto meno costosi di un’analisi chimica la quale inoltre ricerca generalmente una singola molecola, o un gruppo di molecole, mentre i biomarker hanno una valenza più ampia rispondendo a stimoli diversi. Questo tipo di argomento, cioè i biomarkers nei molluschi, ha un centro di eccellenza in Ancona, presso l’Università Politecnica delle Marche, e nel Laboratorio di Ittiopatologia di Pisa. Ciò vuol dire che non c’è solo un’integrazione ambiente-sanità, ma c’è anche una rete, un network che può essere molto ben utilizzato, a volerlo, per questi argomenti. Negli ultimi anni qualcosa si è mosso perché la Marine Strategies, una normativa europea, che richiede da qui al 2020 un monitoraggio dei mari per capire qual è lo stato dei mari e la loro evoluzione utilizzando diversi indicatori. Tra questi indicatori l’ISPRA, l’ente preposto all’attuazione di tale normativa, ha voluto scegliere correttamente utilizzare le informazioni che gli Istituti Zooprofilattici avevano raccolto per motivi sanitari, e che vengono raccolte dal CEREM e poi insieme al Ministero della Salute date all’ISPRA per poter categorizzare le acque. Questa è una classica integrazione fra i due mondi, quello ambientale e quello della salute, che può portare a rivedere anche il discorso di prevenzione. Con le stesse risorse vorrebbe dire riuscire a raggiungere due obiettivi diversi. 194 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 22 Novembre Cambiamenti ambientali globali, rischio chimico e infettivo: verso una prevenzione integrata "Caratterizzazione del rischio e valutazione dell’esposizione alimentare a microinquinanti ambientali monitorati su biota acquatico: esperienze di campo nel SIN del Sulcis-Inglesiente" Pierluigi Piras SIMeVeP / ASL 7 Carbonia Sono un veterinario, provengo dalla ASL di Carbonia poi ve la racconterò in modo più dettagliato. Sono molto contento e onorato di essere qui e di rappresentarvi anche la mia esperienza. I due assist importanti, che sono stati lanciati dai relatori che mi hanno preceduto e che non sono stati concordati, devo raccoglierli per rimarcarli, perché secondo me alcuni messaggi li dobbiamo “portare a casa”. Chiederci quanto costa la mancata prevenzione è un tema per quantificare, ma quanto costa la prevenzione “inutile” vogliamo considerarla? La prevenzione inutile è un costo che distoglie dall’utilizzo appropriato delle risorse, cioè la spending review non è tagliare, è riorientare le risorse. Vuol dire andare a beccare gli strumenti più idonei per diminuire la prevalenza di malattie. Questo è in tutta onestà il lavoro “di campo”. La seconda è correlata con la prima ed è la medicina e la veterinaria di campo, cioè alcuni grossi concetti come l’analisi del rischio sembra che siano temi accademici ma che, secondo me, se opportunamente declinati in un ambito locale, vanno a caratterizzare il profilo epidemiologico locale che è lo strumento per fare prevenzione efficace. Non siamo un servizio d’attesa, scusate, o lavoriamo come il “giorno della pentolaccia”, bendati, a colpire al buio o altrimenti dobbiamo caratterizzare il rischio e avere le priorità locali all’interno ovviamente di uno scenario nazionale e internazionale dove ha le sue priorità. I grandi scenari della valutazione del rischio. Chiaro che ha dei sottoinsiemi, dei percorsi codificati ma la cosa importante è che l’analisi del rischio sia necessariamente la premessa alla gestione del rischio. Se non vogliamo colpire alla cieca, la gestione del rischio significa che dobbiamo opportunamente caratterizzare il rischio. Da questa ipotesi, che è concettuale, si può declinare un modello concettuale cioè di come la sorgente, il trasporto e il bersaglio possa far transitare l’attenzione da un livello ambientale al rischio effettivo sulla persona. Quindi come, anche della mia esperienza nell’area di Portovesme, oggi nota anche per crisi occupazionale, si possa ragionare in termini sia di valutazione e di caratterizzazione del rischio, sia in termini anche di valutazione dell’esposizione. La mia relazione, che è quindi anche il tentativo metodologico di lavorare in ambito locale si basa su queste due fasi fondamentalmente: la caratterizzazione del rischio e la sua valutazione. Vado veloce rappresentandovi il Sulcis-Inglesiente, che è un’area del Sud della Sardegna con 130mila abitanti, e quindi focalizzare l’attenzione su questo territorio. Forse 2000 anni di storia sono quelle documentate di estrazione mineraria, però già i romani allora minacciavano di mandare in Sardegna “ad metalla” i carcerati. Oggi forse rappresenta più un premio, ma va considerata la realtà è di un’estrazione mineraria storica, in particolare del piombo. Oggi quindi il contesto del territorio è caratterizzata non solo da realtà ancora attive, ma di attività minerarie dismesse, che possono ancora influire sul territorio con le cosiddette “code minerarie”. Pensate che è un territorio dove l’estrazione pionbo-zincifera era tra gli aspetti principali. Oggi completamente abbandonato e dove anche l’attività metallurgica nasceva come valorizzazione della produzione primaria di quei metalli. Ripeto: delle realtà peraltro oggi ancora bellissime, anche di archeologia industriale. Vi mostro le immagini di Porto Flavia, nel mio Comune di residenza, con anche la possibilità di soluzioni e accorgimenti importanti per scaricare i metalli direttamente sui vascelli. Però anche realtà di questo tipo, che sono a poche centinaia di metri da casa mia e di alcuni colleghi qui presenti. Questi sono i cumuli di estrazione, i cosiddetti fanghi rossi. Siamo nel Comune di Iglesias. Una realtà conosciuta. Dagli anni ‘90 ex area ad alto rischio di crisi ambientale con originariamente cinque Comuni. È una realtà che vedete rappresentata in quell’area rossa prospiciente alla laguna di Boi Cerbus che invece è il teatro della nostra indagine. Voglio solo farvi presente che tutte quelle aree gialle sono aree minerarie dismesse, in particolare di estrazione della galena che è appunto solfuro di piombo e di zinco. Un maggior dettaglio dell’area vi porta a individuare alcune attività industriali, l’Alcoa, la Portoverme Srl, che sono le industrie oggi in crisi, anche da un punto di vista occupazionale, che caratterizzano il polo industriale di Portovesme. L’area che vedete sotto invece è l’area del bacino dei fanghi rossi, sempre di Portovesme, prospiciente l’area di indagine. Quest’altra immagine è il polo di Portovesme vista dall’Isola di Carloforte. È su uno scenario naturale già bello, ma io direi con realtà confinate. Questo è il bacino dei fanghi rossi importante e giusto a ridosso la laguna di Boi Cerbus con una realtà anche abitativa abbastanza recente, Carbonia nasce nel primo dopoguerra. L’idea è quindi valutare in che termini la focalizzazione dell’attenzione sulla laguna di Boi Cerbus e sugli organismi acquatici che ci abitano possa rappresentare in un certo senso l’obiettivo di un eventuale inquinamento, ma anche la misura e la “lettura” di un eventuale inquinamento. Intanto si localizza in una posizione particolare dove, sia i venti sia lo scarso bacino imbrifero (perché si tratta di ruscelli, solo nel periodo invernale attivi), possono condizionarla. Sicuramente i venti - il vento in Sardegna, 9 giorni su 10, è il maestrale quindi nord-ovest - e in particolare il ruscellamento, il dilavamento, quindi il movimento dei sedimenti per quanto riguarda le zone minerarie che vi ho fatto vedere. Insomma che il vento sia importante Arezzo 20 - 23 novembre 2012 195 22 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute si sa, ecco quello che vi mostro è proprio un albero sulle colline di Portoscuso al tramonto. Un olivastro che è piegato dal vento già dà un’idea di quanto possa impattare. E ovviamente il ruscellamento, il dilavamento dalla zona mineraria e industriale verso la laguna. Quanto possa aver inciso la zona industriale e quanto l’attività mineraria storica è anche oggetto d’interesse della nostra indagine. Ora vi voglio rappresentare anche un po’ le caratteristiche della laguna velocemente. Vedete sullo sfondo c’è la ciminiera quindi stiamo parlando di una realtà vera, di oggi, fatta di attività anche produttiva perché ci sono cooperative di pescatori che vivono del loro lavoro in questa zona. Si tratta di zone umide importanti, qua riconoscerete sia l’airone che la garzetta ma in volo potete anche intravedere un falco pescatore che è un ottimo indicatore di salute ambientale perché significa che le prede ci sono e sono in buono stato. L’area di interesse è di circa 3 km e mezzo, dove troviamo l’affluenza di due rii, il Paringianu e il Flumentepido, e poi due frazioni urbane che sono direttamente prospicienti l’area di interesse. Ecco su questa area, appunto con i finanziamenti del SIN del Sulcis-Inglesiente, si è avviata un’indagine con un reticolo, che vedete qui rappresentato, di campionamento sia di sedimenti che di acqua e di biota. Potete rilevare nell’immagine le coordinate, i campionamenti sono stati ovviamente georeferenziati. Sui sedimenti sono stati svolti dei carotaggi alle profondità che vedete rappresentate. A noi è interessato in particolare lo strato più superficiale perché è quello che dà la biodisponibilità di alcuni microinquinanti. Non voglio commentarvi queste tabelle, ma per rappresentarvi che sono state cercate per ciascuno strato del sedimento metalli pesanti microinquinanti. Vedete i valori dei PCB, sia diossina simili che non, e ancora tutti gli IPA e le diossine, quindi pensate alla mole di dati disponibili. L’altro commento è che a volte non è che manchino i dati, ma è che non sappiamo interrogarli, o qualcuno dice “torturarli”, fino a che non parlino. Un’altra delle fonti di risparmio e l’utilizzo efficace della prevenzione è utilizzare i dati in quanto servono per poter ricavare l’informazione. Questi sono i tenori di microinquinanti nell’acqua lagunare. Qua è stato facile anche interpolare i dati dei punti di campionamento in modo da avere una distribuzione statisticamente rappresentativa dell’area. Vi voglio solo dire che, per esempio, la distribuzione sia del piombo, ma soprattutto del cadmio nell’acqua è esattamente coincidente con la distribuzione delle argille e dei limi, quindi a rappresentare che il sedimento in alcune porzioni di particolato è il veicolo di transito del cadmio e del piombo dalla parte mineraria dismessa verso la laguna. Qua rappresentazione del campionamento del biota, in questo caso pesce. Vedete la laguna prospiciente l’area. È la stessa cooperativa dei pescatori che in situazioni ordinarie di pesca ha pescato il prodotto su quei punti georeferenziati. In gran parte è anche il prodotto nobile delle nostre parti, si tratta di mugilidi. In particolare tre specie, la Liza ramada e la Liza aurata, ma in alcuni periodi anche il Mugil cefalus. Sono stati quindi prodotti dei pool, che sono stati poi pre-trattati (liofilizzati) per le analisi di laboratorio. La normativa richiede rigore sulla rappresentatività delle partite. In più anche altre specie, su altri livelli trofici, in particolare il “ghiozzo gò” e la sogliola comune, insieme a altri animali su livelli trofici ancora più bassi (che sono i molluschi lamellibranchi), il “cuore” in questo caso, e poi il “granchio da moleca”, come è chiamato in Veneto. Brevemente cosa abbiamo voluto fare. Intanto applicare l’approccio di confronto normativo e quindi abbiamo applicato i parametri stabiliti dal Regolamento (CE) n. 1881 del 2006. Primo problema, l’arsenico non è normato. Cosa facciamo? Ci disinteressiamo? Abbiamo dati sull’arsenico, cerchiamo di valutarlo non in termini solo di confronto con la norma (anche perché la valutazione del rischio tra vedere se un valore è dentro o fuori i limiti normati non mi sembra di una “complessità” che richieda l’intervento di un professionista laureato). Si tratta di usare questo primo passaggio per poi approfondirlo e abbiamo rilevato che il piombo (ce lo aspettavamo) è il problema del suo accumulo in almeno due specie: i molluschi lamellibranchi con valori medi almeno di 3-4 volte superiori, ma anche granchi che hanno un valore limite di 0,50 si trovano per 2/3 fuori da questo limite. Tenete presente, tra l’altro, che nel granchio il valore di legge è dato escludendo l’epatopancreas, le parti scure della polpa che corrispondono al nostro fegato, quindi a un organo che accumula con un fattore di almeno di 50-100 volte questi metalli. Quindi abbiamo considerato condizioni paragonabili di legge, la parte edibile. Non c’è bastato questo e come Servizio Veterinario abbiamo voluto approcciare anche con altri due metodi di valutazione dell’esposizione. Un metodo internazionale riconosciuto che è il metodo americano valutando tre classi di età e i tre fattori con valori di confronto però ricavati dal consumo medio italiano di quella categoria di prodotti (INRAN 2006). Non tratta i consumi specifici della popolazione di Portoscuso. Anche lì se volessimo lavorare potremo considerare il 95º percentile, cioè il consumo specifico di popolazioni rivierasche e quindi considerare lo scenario “peggiore”. Questa che vi proietto è la “formulaccia” dove vediamo al numeratore i fattori che moltiplicano, al denominatore quelli che demoltiplicano, cioè direttamente o indirettamente correlati, l’esposizione. Otteniamo dei valori di intake che possiamo confrontare coi valori di riferimento quindi cercare di capire insomma se il consumo ipotizzato totale di questi prodotti è verosimile. Vi ricordo che la “globalizzazione” con le crisi economiche sta portando anche alla coltivazione di orti casalinghi e quindi dal consumo prossimale e anche dalla raccolta domenicale di asparagi, prodotti della pesca e quindi è anche verosimile che popolazioni locali possono in gran parte nutrirsi di questi 196 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 22 Novembre prodotti. Otteniamo delle tabelle dove l’indice di rischio rappresenta in che percentuale, su ogni microcontaminante, l’assunzione giornaliera attraverso i prodotti della pesca in loco possa coprire l’intake tollerabile. Ipotizzando, quello 0,46 vuol dire che il consumo ordinario di un mix di prodotti della pesca della laguna di Boi Cerbus copre per il 46% il limite massimo tollerabile per quel microinquinante. Però siamo sempre sotto i valori di tollerabilità, quindi abbastanza tranquilli. Se utilizziamo invece il metodo EFSA, dove sono stabilite stavolta le dosi tollerabili settimanali (ma il concetto non cambia) e possiamo utilizzare anche un altro modello che è quello raccomandato dall’EFSA con questi valori limite, considerando per il cadmio anche la riduzione raccomandata da 7 µg/kg a 2,5 e otteniamo così un’altra tabella di valutazione dell’esposizione. Ecco in questo caso il valore dell’intake rispetto al valore settimanale ammissibile rappresenta sempre un indice di rischio. In questo caso possiamo interpretare in questo modo: il piombo (che era al di là dei limiti di legge applicando solo il criterio normativo) è molto precauzionale, cioè i limiti di legge sono molto preservativi rispetto al rischio. L’arsenico manifesta, apparentemente, un valore di rischio anche più di 2 volte rispetto all’intake raccomandato. Tenete presente che lo diversifica per fasce d’età, quindi mette in evidenza che i giovani sono quelli relativamente più esposti, ma non chiude il problema perché a questo punto se ne apre un altro. L’arsenico tal quale non può infatti caratterizzare il rischio perché i prodotti della pesca in particolare hanno arsenico organico che, contrariamente al mercurio, non è tossico. Si parla cautelativamente di una proporzione rilevante di arsenico organico (arsenobetaina, arsenocolina, arsenozuccheri nel caso di molluschi lamellibranchi). A questo punto siamo relativamente tranquilli, nel senso che la comunicazione del rischio è che non c’è il rischio evidente per l’arsenico, ma apriamo un’altro fronte che è quello di esplorare la speciazione dell’arsenico in questi animali sentinella che si sono prestati alla “informativa sulla salute”, in queste diverse specie come si comporta l’arsenico e in che termini dobbiamo considerarli indicatori di sicurezza o del suo contrario. La prima conclusione è che nella valutazione del rischio per esposizione alimentare da produzioni primarie situate in aree contaminate, anche ai fini della gestione del rischio stesso, non appare sufficiente ricorrere al solo approccio di verifica sul rispetto dei tenori massimi di alcuni contaminanti così come normativamente definiti. Dobbiamo “osare” di più, non è solo accademia la valutazione del rischio: la valutazione del rischio è compito dell’autorità competente su tutti i livelli (nazionale, regionale e territoriale), ma sempre con un minimo di rigore scientifico. L’altra conclusione è che l’utilizzo complementare di altri approcci, ovviamente validati a livello internazionale come quelli proposti, aggiunge informazioni in particolare su aspetti quantitativi del rischio e sulla individuazione dei gruppi a rischio. Altre popolazioni europee hanno il coraggio di dire non che non si mangia pesce perché c’è un valore aggiunto nel consumo di alcune componenti lipidiche del pesce, ma che i bambini e le donne gravide farebbero meglio a non consumare alcune specie di pesci e di grandi dimensioni. Nella fiducia riposta nelle autorità, che in modo trasparente comunicano il rischio, aumenta la fiducia. Secondo me noi dobbiamo col tempo dare robusta evidenza del fatto che le persone possono fidarsi di come presidiamo la prevenzione. Quindi per esposizione o particolare vulnerabilità ai gruppi di rischio sui quali si possono orientare le misure di prevenzione anche su diversi livelli e gradi di protezione e con proporzionalità. L’altro aspetto è infatti l’appropriatezza, insomma non possiamo “sparare col cannone” a tutti i rischi altrimenti apriamo a un altro limite che è la medicina difensiva, cioè contro tutti i rischi alziamo le stesse barriere, sproporzionatamente. No, dobbiamo affermare e difendere l’appropriatezza degli interventi sanitari, anche in campo preventivo. Arezzo 20 - 23 novembre 2012 197 22 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute Cambiamenti ambientali globali, rischio chimico e infettivo: verso una prevenzione integrata "Cambiamento climatico e sistemi di allevamento: il punto di vista di VSF Europa" SIMeVeP / SIVtro - VSF Italia Alessandro Dessì Dal punto di vista di una Organizzazione Non Governativa come Veterinari Senza Frontiere (SIVtro - VSF Italia) i cambiamenti globali assumono particolare rilevanza per il loro impatto sulla salute e produzione animale e sulla dinamica delle zoonosi. In senso più ampio toccano certamente anche le questioni agroalimentari, le politiche agricole e gli squilibri globali, specialmente con riferimento alle popolazioni più svantaggiate, e ai motivi per i quali questi squilibri persistono. In particolare La nostra associazione fa parte di VSF Europa, una rete internazionale di 10 ONG, le quali hanno un impegno chiaro in direzione della difesa della produzione familiare, cioè delle piccole unità di produzione di cibo. La nostra presenza ad un incontro come questo si giustifica in seno ad un tipo di attività che nel tempo si è evoluta in modo sostanziale, essendo nata come restituzione –in prima approssimazione “aneddotica”- delle esperienze fatte dai cooperanti, per diventare progressivamente quella che oggi viene chiamata formazione permanente (longlife learning) sui temi della complessità e della cittadinanza globale. Analisi cioè delle relazioni e delle implicazioni tra fenomeni e squilibri globali, che ci interessa affrontare in seno alla società italiana nella misura in cui i problemi che affrontiamo possono avere cause anche molto vicine e dirette nelle politiche dei nostri paesi, e nei nostri comportamenti individuali. A livello di premessa, credo sia utile anche sottolineare l’importanza per noi di contribuire alla formazione di una capacità critica dei nostri concittadini su questioni che ci riguardano direttamente. Venti anni fa –quando ero all’università- i temi ambientalisti erano difesi dal movimento ambientalista (perché si parlava di ‘movimenti’) con degli argomenti e proposte che sembravano utopistici. Molte di queste proposte oggi hanno superato l’ambientalismo, realizzandosi in pratiche come la raccolta differenziata, l’adozione dei pannelli solari ed altri comportamenti che sembravano visionari, ma svuotandoli del contenuto originario, che può venire addirittura stravolto. Ad esempio, chi vende i pannelli solari in molti casi non ha un background “ambientalista”, è un agente commerciale di un settore fiorente perché promosso dalle leggi finanziarie... chi li installa, in molti casi è spinto dal tornaconto economico, al punto che vediamo intere superfici agrarie cancellate da distese enormi di pannelli: un paradosso in termini ambientalisti, così come il concetto stesso di termovalorizzatore, che ha incenerito l’idea di produrre e vivere a “rifiuti zero” . Un altro esempio, è l’idea che diluire con agro-carburanti, (o biocarburanti) i combustibili che noi usiamo per il riscaldamento piuttosto che per la trazione sia qualcosa di virtuoso. In realtà si legittimano così i nostri consumi di energia, semplicemente insostenibili, Si pulisce un po’ l’atmosfera delle nostre aree urbane, ma con delle conseguenze molto pesanti per la natura e la sicurezza alimentare dei paese di produzione, con conseguenze sociali disastrose sui piccoli produttori e la sicurezza alimentare. Non a caso gli “investimenti in agricoltura” causati anche dalla richiesta di agrocarburanti, vengono criticati molto animatamente rispetto agli impatti che hanno sulla food governance, sulle politiche mondiali di gestione della produzione di cibo e della sua commercializzazione e trasformazione. Sempre da un punto di vista dell’approccio ai temi globali, un breve richiamo di ecologia è utile per inquadrare quello che andrò poi a dire. I sistemi dominanti di produzione alimentare alterano gli ecosistemi utilizzando le risorse territoriali in modo molto selettivo, sulla base di una caratteristica precisa delle poche specie, selezionate per la loro alta efficienza produttiva: ad esempio il mais interessa solo per la pannocchia, la mucca solo per il latte o il maiale solo per la carne (o per un dato taglio), In questo modo, da un lato si riduce la biodiversità in natura, ma anche nei campi, in stalla, come nell’acquacoltura (altro settore nel quale si è avuta una crescita esponenziale dei sistemi intensivi); dall’altro si hanno degli sprechi enormi di materia organica (che diventano rifiuti) e un forte assorbimento di energia fossile, con relative inefficienze (basti pensare al ciclo di Carnot) e squilibri termodinamici ... Il che genera comunque alterazioni del bilancio energetico e un surplus di materia ed energia. Energia che in natura non verrà sprecata: mentre le nicchie ecologiche si modificano, molte specie scompaiono,, e se ne affermano di nuove, che trovano spazio crescente. Infatti, nel momento in cui il range di adattabilità di una specie si ricrea in un ambiente diverso da quello di sua origine, questa specie può espandersi, portando anche con se nuove malattie, e i parassiti che le veicolano. E’ il caso, ad esempio della zanzara tigre di origine tropicale ma che si è adattata al nostro ambiente urbano e che date le temperature in aumento non scompare più neanche in inverno, oppure di alghe come la caulerpa taxifolia, che scomparivano fino a venti anni fa dal Mar Mediterraneo e che invece poi si sono affermate, a spese delle specie locali. 198 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 22 Novembre Se è vero, quindi, che in natura l’uso dell’energia viene ottimizzato sappiamo anche che esistono delle condizioni particolari in cui essa si accumula,, come ad esempio le torbiere, ma soprattutto i depositi enormi di combustibili fossili, che fino a 150 anni fa non venivano impiegati, o non lo erano nel modo massiccio che si è avviato poi con la rivoluzione industriale. E’ calcolato che ai tassi attuali di consumo di energie fossili, ogni anno viene bruciato l’equivalente della produzione primaria netta del pianeta in quattrocento anni. Ciò vuol dire che se ci affidassimo soltanto all’energia che può essere prodotta dalla trasformazione di energia solare in altre forme di energia che possiamo stoccare e trasportare (pannelli solari, agrocarburanti, ...) e potessimo consumare soltanto quello che produciamo annualmente, avremmo una disponibilità ben più bassa. O, da un altro punto di vista e secondo le stime più conservative che si reperiscono in letteratura, se noi dovessimo sostituire le energie fossili con pure energie di origine da biomassa, dovremmo prelevare biomasse per almeno il doppio delle disponibilità attuali, con impatti evidenti sulla sicurezza alimentare. . Un’altra cosa che voglio ricordare è che non siamo ancora in condizione di mangiare il petrolio, cioè che la rivoluzione verde o l’inizio dell’applicazione dei sistemi industriali di scala applicato all’agricoltura si deve al processo HaberBosch (H-B) che permette di trasformare l’Azoto atmosferico in composti organici,- e cioè di creare i fertilizzanti, che in estrema sintesi, sono stati fondamentali per lo sviluppo dell’agricoltura e dell’allevamento intensivo. A metà degli anni ’40 si iniziarono ad utilizzare per questo processo le scorte di nitrati prodotti per l’industria bellica, tanto che Vandana Shiva, afferma che stiamo ancora mangiando gli avanzi della seconda guerra mondiale ... Il passaggio comporta però un altissimo consumo di energia: non soltanto quella del processo H-B in sé, ma anche quella associata al tipo di trasformazione lungo tutta la filiera per la quale questo processo è il primo passo: cioè la meccanizzazione sempre più spinta delle produzioni, la trasformazione industriale, i trasporti e commerci a distanze crescenti eccetera. Non è un caso se l’agricoltura è tra i comparti che vengono maggiormente citati quando si parla della generazione di gas-serra da parte della specie umana, anche se nella percezione comune non la si associa direttamente ai cambiamenti globali. Non è frequente, tuttavia, che i non-specialisti abbiano idea del rapporto tra agricoltura e cambiamenti globali, anche a causa del tipo di rappresentazioni dominanti che se ne fanno. Il cambio climatico in particolare viene rappresentato in vario modo: alcune rappresentazioni si richiamano al dominio delle analisi scientifiche e presentando generalmente grafici di tendenze rilevate (ad esempio il livello di CO2, o le temperature medie stagionali). Le rappresentazioni mediatiche tendono a mostrare gli effetti drammatici di questi trend, (tipicamente il ghiacciaio del Kilimangiaro scomparso, o l’orso-naufrago su un iceberg striminzito). Le rappresentazioni tangibili infine, richiamano l’esperienza diretta di ciascuno di noi, che ormai può argomentare la differenza tra il clima attuale e quello che ricorda durante la sua infanzia, oppure , la scomparsa della prevedibilità stagionale, sostituita da una variabilità enorme e da un forte aumento dei picchi meteorologici, come ad esempio l’ultima gelata che si porta sempre di più verso giugno, gli inverni caldi, le grandinate, le alluvioni ed altri eventi estremi che anche sul nostro territorio si ripetono con sempre maggior frequenza. Tornando alla commistione tra questi tre piani di rappresentazione del cambiamento climatico, per volerlo riportare all’agricoltura e, in particolare, all’allevamento che interessa a VSF in ambito veterinario, ma a tutti noi (in prima istanza come consumatori di cibo, anche se non rilevante nella collocazione professionale di ciascuno) abbiamo una pietra miliare che è del 2006. E’ un lavoro prodotto dalla FAO sull’impatto climatico del comparto dell’allevamento. Il dato numerico individuato da questo studio faceva un riferimento sintetico affermando che il comparto è responsabile del 18% delle emissioni di gas-serra. Senza voler entrare qui nei dettagli, su questo tema si è aperto un dibattito molto animato, nel quale hanno trovato spazio anche gli argomenti già in possesso di chi (ONG, associazioni e piattaforme di produttori africani, centri di ricerca e molti altri) aveva lavorato sull’allevamento dal punto di vista della sicurezza alimentare, intesa sia come lotta alla fame, sia come approccio armonico alla salute animale e quella umana (One Health, per gli “addetti”). Da una prospettiva di Veterinari Senza Frontiere. L’aspetto rilevante del cambiamento climatico è proprio su questo fronte. Ovviamente la questione oggi è del tutto aperta. Ed ovviamente anche il dipartimento Livestock della FAO ha continuato a lavorare sul tema Per citare alcuni eventi importanti, va ricordato il Convegno organizzato dalla FAO nel 2007 per fare il punto sullo stato delle risorse genetiche animali utili per l’alimentazione. In quella sede si è tenuto anche un importante evento parallelo organizzato dalla società civile, che ha espresso la ricerca e l’advocacy per i piccoli produttori, intesi come allevatori familiari (lo dico per chi fosse interessato a ripartire da Arezzo 20 - 23 novembre 2012 199 22 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute questa breve conversazione per ricercare o chiedermi poi altri riferimenti) In quella fase, anche all’interno del mondo della cooperazione si è delineata la differenza tra chi sposa le tesi della rivoluzione verde e chi vi si oppone, La livestock revolution (come viene designata l’applicazione dei principi della rivoluzione verde ai sistemi di allevamento) suppone che l’adozione dei sistemi intensivi sia una chiave indispensabile per garantire sicurezza alimentare ai paesi dove questo è ancora un problema; vi si oppone chi invece sostiene che la differenza tra il Sud e il Nord è sempre più labile, e che il problema dell’alimentazione e della crisi ambientale è da affrontare mettendo in discussione i sistemi di produzione. Per questo “fronte”, la produzione di piccola scala, è una soluzione adottata in un clima di esigenza di sostenibilità, e rappresenta una risposta assolutamente di avanguardia per affrontare il cambiamento climatico. Dobbiamo però stare attenti ad evitare che l’agroindustria –che per adesso li contrasta- traduca anche questi principi in nuove forme di sfruttamento dissennato del territorio, come è successo per il solare o le “benzine verdi” alle quali si accennava in precedenza. Come rete di Veterinari Senza Frontiere europei, abbiamo esaminato a fondo le differenze tra i diversi tipi di sistemi di allevamento, producendo uno studio che mette in evidenza l’importanza di quelli familiari, evidenziando il loro potenziale in termini di risposta al cambiamento climatico ed illustrando perché diversi tipi di sistema di allevamento richiedono politiche e azioni differenti. La tabella qui riportata fa parte di questo nostro studio, e intende dare una panoramica visivamente e rapidamente leggibile delle variabili più importanti per classificare i diversi sistemi di allevamento, differenziandoli dalla piccola alla massima scala. L’ultima riga, (evidenziata in basso) si riferisce allo scopo che hanno. Teniamo presente che gli allevamenti intensivi, come qualunque impresa in un contesto di economia di scala, ha un fine ultimo che è quello di continuare a crescere per non soccombere. Sul fronte opposto abbiamo i piccoli sistemi di allevamento, l’allevamento familiare, che per non soccombere deve sviluppare la propria resilienza, cioè la capacità di produrre senza compromettere la rigenerazione delle risorse sulle quali insiste. Altri criteri di classificazione sono quelli elencati a seguire (in italiano). Qui rileviamo delle differenze macroscopiche (delle quali poi si possono approfondire i dettagli), ma in prima approssimazione possiamo affermare che nel momento in cui l’allevamento diventa un’industria, perde completamente il valore della resilienza. La monofunzionalità -ne accennavo prima- si riferisce al fatto che di una specie interessa soltanto una caratteristica. Sulla biodiversità sappiamo che, ad esempio, possiamo avere un allevamento intensivo di 10.000 capi, ottenuti per inseminazione artificiale, la cui diversità genetica interna è quella di un gruppo di 20. In queste condizioni si esaspera la pericolosità delle malattie, che oltre a poter passare direttamente all’uomo rappresentano una minaccia in termini di rischio per la produzione alimentare. Su questo argomento, i veterinari insegnano che da un toro selezionato per le proprie capacità riproduttive si producono 200 dosi di seme al giorno. Questi campioni vengono conservati per anni prima che si sappia come crescerà, però il suo sperma è già congelato. Nel momento in cui si verifica che è un campione, questa scorta viene messa in vendita: ogni giorno della sua vita, per anni, origina dunque 200 figli, il che spiega la bassissima diversità interna degli allevamenti industriali. Non solo italiani, ma a questo punto globali, anche perché la concentrazione genetica in mano a pochissimi grossi produttori di specie allevate è pazzesca. Molto più alta e molto più pericolosa di quella vegetale; non a caso l’allevamento industriale non può prescindere dall’uso preventivo (!!) di dosi massicce di antibiotici, che ovviamente si ritrovano poi nel nostro organismo, nell’ambiente e in tutta la catena alimentare. Anche su questo argomento si potrebbero fare molti approfondimenti e mostrare dati. La separazione dall’agricoltura genera una catena di problemi enormi, basti pensare anche soltanto alla gestione di un allevamento industriale in termini dell’inquinamento ammoniacale che genera. a fronte della difficoltà di far entrare l’azoto atmosferico negli organismi viventi, abbiamo dell’azoto concentrato che poi si perde e diventa un inquinante. Perché non viene più usato come concime. Perché non c’è più un’alternanza tra le coltivazioni di mais o di specie che impoveriscono il terreno di azoto con quelle che lo rigenerano. Infine la competizione con l’uso di risorse per l’alimentazione umana. Ovviamente se coltiviamo delle specie commestibili e le usiamo per fare alimenti concentrati per delle specie che invece di stare al pascolo stanno in stalla, generiamo un altro problema che oltre che di sicurezza alimentare diventa etico, e tutta un’altra serie di problemi, come ad esempio le conseguenze dell’espansione delle coltivazioni intensive sui paesi impoveriti da dove provengono. Gli investimenti in agricoltura fatti da paesi esteri su terreni e per produzioni fondamentalmente di mais e soia OGM, e ultimamente di agrocarburanti sono alla radice del cosidetto land grabbing, un problema che –fra altre occasioni- ha animato tantissimo il dibattito del mese scorso alla FAO al Comitato per la Sicurezza Alimentare Mondiale, essendo diventato un problema estremamente serio di concorrenza con le produzioni alimentari e incremento dei prezzi. Per quanto riguarda poi l’efficienza, che è uno degli argomenti principali per chi difende l’allevamento intensivo rispetto a quello estensivo, si sente affermare che un litro di latte prodotto intensivamente, o un chilo di carne o delle uova industriali hanno minor effetto sul cambiamento climatico dei corrispettivi prodotti da animali “ruspanti”. 200 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 22 Novembre Vista l’altissima industrializzazione di queste produzioni, pare evidente che esse emettano meno gas serra per quantità di prodotto. Bisogna però stare attenti a che tipo di parametro si sceglie di misurare, perché nel momento in cui si ribalta la prospettiva, partendo dall’unità di risorsa utilizzata, si dimostra al contrario che dimostra che un sistema familiare è molto meno dannoso in termini di emissione di gas serra. Non soltanto quanti litri di latte fai, ma quanto mais ti serve per produrre quel latte, dove lo vai a cercare piuttosto che quanto pascolo vai a cercare. Se partiamo dalle unità di territorio occupate cioè, vediamo che l’efficienza in termini di emissione di gas serra premia indubbiamente l’allevamento familiare – definizione con la quale intendo il pastoralismo, i sistemi non sedentari, mobili, i sistemi misti agro-zootecnici anche di cortile, domestici, eccetera. Un comparto determinante per la sicurezza alimentare di tante aree del pianeta, e ancora predominante anche in termini quantitativi Per quanto riguarda poi l’opportunità di affidarsi ai sistemi intensivi per sfamare la popolazione mondiale, bisogna ricordare che i dati a disposizione vengono prodotti dalla FAO, che li elabora per formulare documenti tecnici e suggerire politiche, anche discutibili: non si tratta di un organismo militante ambientalista ma di un’emissione della Nazioni Unite, dove i Governi richiedono e/o acquisiscono il lavoro dei ricercatori e tecnici, decidendo poi in che modo utilizzarli. Nessuno tuttavia discute l’utilità di raccogliere e mettere a disposizione informazioni e dati. I sistemi familiari e quelli di media scala assieme, dunque, producono l’83% della carne bovina, il 99% degli ovini, il 45% dei suini, il 28% della carne di pollo e il 39% delle uova. La loro importanza in termini di quantità è dunque enorme a livello mondiale, soprattutto per quanto riguarda i ruminanti. Ci sono ovviamente specie che si adattano di più all’allevamento intensivo, e queste sono state promosse, soprattutto nei paesi ricchi tramite uno spostamento significativo, dai sistemi multifunzionali a quelli industriali e rivolti esclusivamente al mercato, specialmente ai mercati crescenti dei centri urbani. Questo spostamento si accompagna ad un aumento netto di specie monogastriche alimentate con cereali, con diminuzione dei ruminanti. Ma dati alla mano, appunto, la componente familiare ha ancora un peso enorme, e dai sistemi familiari viene una risposta importante al tema di quanto cibo serve e come si può produrre per sfamare la popolazione mondiale. Un’altra nota importante è che il problema della mitigazione e dell’adattamento al cambiamento climatico si pone in modo particolarmente urgente quando la FAO proietta i dati di consumo di carne al 2050, per concludere che non possiamo, con i consumi attuali, pensare che i Paesi che stanno uscendo dalla povertà e quelli che si stanno urbanizzando sempre di più e che verosimilmente chiederanno sempre più carne, vengano alimentati con i sistemi di allevamento familiari oggi dominanti. Bisognerebbe chiedersi tuttavia come viene valutato il consumo di carne atteso, e se questo sia il risultato di una domanda o venga generato dall’offerta, che essendo in mano alla distribuzione ha un potere molto forte. Senza voler adesso entrare nel merito, basti dire che non è raro che le stesse organizzazioni non governative, quando realizzano attività ed eventi di sensibilizzazione sui temi agroalimentari, per il rinfresco devono rivolgersi ad un servizio di catering; e questo quasi sempre impone dei prodotti che rappresentano il contrario degli argomenti che cerchiamo di promuovere. Questo in qualche modo dimostra che la teoria della domanda e dell’offerta è veramente soltanto un modello, ma che sul terreno la domanda può essere molto forzata dai sistemi di produzione. Questo argomento ha una valenza scientifica, ma mette anche in evidenza come il singolo individuo possa coi suoi consumi agire direttamente sui processi alla base dei cambiamenti globali. Un altro criterio che possiamo utilizzare per orientarci e stabilire delle soglie a livello individuale può essere quello di porci il problema di quanta energia possiamo avere a disposizione, (fossile o di qualunque altra origine). La produzione di energia infatti, comporta l’emissione di gas serra e quindi un incremento del cambiamento climatico, il che suggerisce di stabilire un limite individuale di emissione. Questa cosa, di nuovo, non la propone Greenpeace, ma lo IPCC, che in tema di Cambio Climatico è universalmente riconosciuto come l’organismo più autorevole al mondo dal punto di vista scientifico, con il mandato di produrre i dati sul cambiamento climatico e dare indicazioni su come affrontarlo. Il “riscaldamento totale pro capite potenziale” è stato definito in termini di chilogrammi di CO2 equivalenti, (che siano anidride carbonica (CO2), metano (CH4), o biossido di azoto (NO2)). Vedete che in Italia siamo abbondantemente al di sopra del valore consentito per dare a tutti gli abitanti della terra da qui al 2100 la stessa opportunità di emissione senza far esplodere il pianeta. A fronte di un tetto di 5.890Kg pro capite, noi consumiamo per 9.400, di cui quasi 1.800 per l’alimentazione. Allora è evidente che ciascuno potrebbe incidere su questo dato, sia personalmente, attraverso delle scelte diverse di consumo, sia come professionista operante in organismi che in qualche modo si interfacciano con il settore agroalimentare, per garantire la salute pubblica. Porsi il problema di quali siano i sistemi produttivi, di distribuzione e di mercato nei quali il proprio lavoro si inserisce è un primo passo, necessario e urgente. Sicuramente un altro elemento determinante per l’impatto climatico e l’impronta ecologica dei nostri consumi, sono i sistemi di trasporto e l’inquinamento che comportano. In ogni caso, quando parliamo di come affrontare il cambiamento climatico nei suoi due aspetti principali che sono la mitigazione e l’adattamento, dove per mitigazione intendiamo la riduzione delle emissioni, e per adattamento Arezzo 20 - 23 novembre 2012 201 22 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute il modo comunque di far fronte a degli effetti del cambiamento climatico che sono già evidenti, dal nostro punto di vista bisogna tener presente che alcune risposte sono già state messe a punto da molti secoli, da parte dei sistemi produttivi tradizionali che per la propria natura hanno sempre dovuto far fronte alla variabilità climatica. Ciò ha permesso la generazione di una serie di meccanismi di risposte che sono già disponibili , e che dovremmo comunque tener presenti e valorizzare. Credo che il tipo di argomento e di posizione che difendo sia abbastanza chiara a questo punto, cioè sia a livello di politiche di cooperazione allo sviluppo o di promozione dei rapporti tra i nostri Paesi e quelli dai quali vengono molte delle risorse che poi diventano i nostri prodotti alimentari, dovremmo tener presente che l’allevamento di piccola scala è una risposta importante ad alcuni dei maggiori problemi causati dai cambiamenti globali, e questa consapevolezza può orientare la nostra dieta già da oggi. C’è infine un’altra serie di argomenti a favore dell’allevamento familiare che non ho trattato in questa presentazione, ma che varrebbe la pena comunque di considerare. Vorrei citare rapidamente quantomeno quelli che pubblica oggi AIAB (Associazione Italiana per l’Agricoltura Biologica), mostrando che per un giovane che decida di dedicarsi all’allevamento o all’agricoltura, anche dal punto di vista economico oggi è molto più conveniente operare nel biologico e al di fuori dei meccanismi di grande distribuzione. L’adozione di sistemi agroecologici de il rapporto diretto coi clienti sono due fattori di successo, positivi anche in termini di indipendenza ed autonomia sia nella gestione delle aziende che nella scelta, dei clienti e da parte dei clienti. I cambiamenti globali insomma sono una realtà quotidiana anche per noi, intimamente collegata alla produzione e al consumo degli alimenti. Le rivendicazioni e le azioni per un cambio sostanziale da parte sia dei produttori che dei movimenti dei cittadini, dunque, non sono circoscritte a realtà come il Messico, la Via Campesina o i Sem Terra in Brasile. Per un numero crescente di cittadini e movimenti anche in Europa, e noi di VSF ne facciamo parte, è una questione di diritti. Una questione che ci tocca tutti, e che riguarda anche la salute, la qualità dell’alimentazione, della vita e dell’ambiente nel nostro territorio. 202 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 22 Novembre Cambiamenti ambientali globali, rischio chimico e infettivo: verso una prevenzione integrata "Patologie da vettori e cambiamenti ambientali globali" Università di Bologna Vittorio Sambri Intanto ringrazio la Dr.ssa Sinisi per avermi invitato a raccontarvi un po’ quella che è la storia di un medico virologo clinico che da 10 anni, grazie alla collaborazione integrata che in Emilia-Romagna è stata sviluppata a partire dai fatti del carbonchio del 2002, ha consentito di avere una struttura veramente integrata di laboratorio medico, veterinario e entomologico che si occupa di questi problemi. Queste sono delle considerazioni molto banali che sicuramente voi avete molto più chiare di me perché io sono un dilettante globale in questo ambito, però sicuramente globalizzazione e cambiamenti climatici hanno una connessione. la globalizzazione si porta dietro, o forse è generata, da tutte quelle cose che vedete scritto lì sotto e i cambiamenti climatici sicuramente dal punto di vista medico hanno portato ad alcuni fatti che sono indubbiamente presenti oggi. Non so se siano presenti in maniera persistente oppure no, non ho la capacità per poterlo dire, però di fatto cambiamenti nella fauna selvatica e, insieme a questo, un aumento dei vettori artropodi capaci di trasmettere patologie di tutti i tipi ma soprattutto zoonotiche all’uomo è un dato assolutamente presente. Oggi è un dato di fatto. L’anno scorso abbiamo organizzato un corso per gli studenti su questo tipo di argomenti. Abbiamo coinvolto un climatologo dell’ARPA dell’Emilia-Romagna e i dati che ci ha fatto vedere sono assolutamente importanti perché la temperatura media dell’Emilia-Romagna è aumentata di un grado negli ultimi 12 anni. Detto così può sembrare niente, ma è un dato assolutamente rilevante. Vuol dire che le ginestre sulle colline di Bologna fioriscono in febbraio invece che il 20 marzo quindi vuol dire che abbiamo un’attività di insetti molto più precoce e tutto questo è un dato su cui io non ho nessuna capacità di riflettere, ma che vi trasmetto così com’è. Un dato importante, ed è un po’ il focus che pensavo di dare oggi pomeriggio a questa chiacchierata, è quello dell’impatto che queste patologie che chiamiamo emergenti perché effettivamente sono emergenti hanno su un’attività medica, se vogliamo poco mediatica, che è quella delle donazioni di organi e di sangue che invece sono fortemente affette. Questa tabella, che viene da un lavoro dell’American Red Cross, ci dà un’idea di quelle che sono le percezioni della opinione pubblica e quella che è la reale importanza, il reale impatto che queste patologie hanno sulla sicurezza della donazione di sangue. Sicuramente ci sono alcune patologie che dal punto di vista scientifico sono teoretiche come possibilità di trasmissione, come ad esempio il chikungunya, come le varianti di HIV, come il sottotipo H5N1 di influenza. Sono teoretiche, nel senso che non è stato mai dimostrata realmente la loro trasmissibilità col sangue e che però hanno un grosso impatto mediatico, cioè la gente ha paura di questa. Mentre ci sono patologie che sono molto meno ‘pensate’ in questo ambito, come la febbre dengue, che hanno una discreta possibilità di trasmissibilità e che sono in alcune aree di popolazione percepite. Cercheremo quindi di andare un po’ dentro questi aspetti per quel che riguarda la patologia virale per darvi idea di quello che è successo anche molto recentemente in Italia e che potrebbe capitarci di nuovo. Vi parlerò di questi quattro argomenti oggi pomeriggio: del virus Chikungunya, del virus della Dengue, del virus West Nile e del virus Usutu. Sono tutti nomi molto strani, sono tutti virus di origine africana con la sola eccezione di Dengue. Perchè Chikungunya? Perché questa è la nostra situazione. Questa è una mappa aggiornata a Giugno 2012 che ci fa vedere come le aree in rosso siano le aree dove nel continente europeo è presente aedes albopictus, che è la zanzara tigre, la asian tiger mosquito. La zanzara tigre asiatica è un vettore estremamente efficace per alcuni virus a trasmissibilità tropicale fra cui Chikungunya e, potenzialmente, Dengue. Vedete che il nostro Paese è assolutamente tutto rosso ed è parecchio rosso tutto il bacino del Mediterraneo. E questa è una situazione che fino a 10-12 anni fa non esisteva. la zanzara tigre ha fatto il suo ingresso in Italia a fine anni ‘90 e già da allora chi si occupava di questi argomenti diceva “attenzione, questo è un insettino piuttosto antipatico perché dove sta di casa trasmette della roba piuttosto disastrosa” e l’altra metà del cielo diceva “è responsabile della trasmissione, ma ci vuole il serbatoio”. Il serbatoio fondamentalmente per questi virus è l’uomo. Bene, noi siamo arrivati ad avere la mistura giusta, o sbagliata dipende da come la volete vedere, per realizzare questo tipo di trasmissione. E la faccenda è successa col virus Chikungunya nel 2007 in Emilia-Romagna. Il Chikungunya è un virus africano. E’ un virus arbor, che significa trasmesso da artropode, arthropod-borne. E’ un virus molto semplice, dal punto di vista virologico non mi dilungo su questo, però è un virus che conosciamo da una sessantina di anni che ha due vettori principali: aedes aegyipti e aedes albopictus. L’aedes aegypti fino a qualche anno fa in Europa non esisteva, oggi c’è un problema molto serio, legato all’aedes aegypti verosimilmente, alle Azzorre. L’aedes albopictus, vi dicevo, è arrivato in Italia una decina di anni fa per tutta una serie di considerazioni di tipo strettamente economico perché si pensa che sia stato introdotto con il mercato dei pneumatici rigenerati fondamentalmente e adesso ce l’abbiamo. Il virus è un virus che ha una capacità epidemica abbastanza blanda, nel senso che compare con una certa ciclicità e fino al 2004 fondamentalmente Arezzo 20 - 23 novembre 2012 203 22 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute questo virus si è mosso in Africa, cioè a casa sua. Nel 2005-2006 ha fatto una cosa che normalmente i virus non riescono a fare, ma riescono a farla gli uomini, si è mosso dall’Africa all’Isola di Réunion. Réunion è un isoletta francese ed è territorio metropolitano per cui dal punto di vista sanitario è come se il virus fosse sbarcato a Parigi perché è stata la prima volta che questo virus ha impattato su un sistema sanitario europeo. A Réunion è successo un discreto patatrac perché nel giro di tre stagioni delle piogge ci sono stati 300.000 casi su 700.000 abitanti e da lì il virus ha continuato a muoversi verso est. E’ arrivato in India dove c’è un’epidemia che probabilmente ha intorno al milione e mezzo di casi, si è spostato ancora in Malesia, in Tailandia e oggi è a Singapore. E a Singapore l’epidemia di Chikungunya è fondamentalmente fuori controllo e questo è un dato molto rilevante perché se pensate che lo standard sanitario di Singapore è come quello della Svizzera non riescono a controllarlo perché il vettore è drammaticamente efficiente. Fino al 2007 il virus aveva dato solo casi sporadici importati in Europa. Nel 2007 il virus ha fatto la sua comparsa in Italia. Se guardate questa mappa del 2008 tutti i Paesi con la I indicano Paesi di importazione, sull’Italia c’è una E perché è epidemico. Nel 2007 in Emilia-Romagna, nella provincia di Ravenna, c’è stata un’epidemia di trasmissione locale autoctona con 250 casi nell’arco di un mese e mezzo. Detta così può sembrare una cosa poco rilevante perché sono 250 casi coinvolti, ma è la prima volta che un virus tropicale si muove con un vettore in una zona che non è considerata tropicale. Questo è successo perché in quell’area dal 2004 la zanzara tigre ha praticamente soppiantato dal punto di vista quantitativo la zanzara culex, la zanzarina che tutti noi conosciamo e perché il virus, nonostante fosse poco trasmissibile dalla zanzara tigre, ha fatto una cosa che questi virus sono assolutamente capaci di fare, ha modificato il suo genoma. Di fatti se guardate, senza scendere nel dettaglio, questo è un albero filogenetico, ma se guardate la collocazione dei ceppi dei virus indica quanto sono lontani dal punto di vista evolutivi l’uno dall’altro. I nostri ceppi, quelli che vedete in cima, sono tutti identici fra di loro e sono drammaticamente identici ai ceppi indiani, quindi il virus è arrivato in India ed è arrivato in Italia dall’India. In effetti è arrivato in Italia dall’India perché, e questa è la curva epidemica dell’epidemia che è stata studiata, c’è un caso indice che è quello di un cittadino indiano tornato dal Kerala con il virus in fase florida, quindi era viremico, è andato a trovare suo cugino - ve la racconto perché è una storiellina anche abbastanza divertente - in uno di questi paesini della provincia di Ravenna e quindici giorni dopo, lo vedete qua, questo è il cugino del caso indice, questa è la vicina di casa del cugino. E’ partita la situazione e fino a metà agosto il virus ha cominciato a muoversi fuori controllo in maniera totale. Fuori controllo in maniera totale perché nessuno sapeva che cosa stesse succedendo e in questo caso, secondo me, da medico devo fare una riflessione abbastanza amara perché l’allarme è stato dato dai cittadini. Non sono stati i medici ad accorgersi che cosa stava succedendo, ma è stato un cittadino che ha telefonato all’Igiene Pubblica della provincia di Ravenna dicendo “ma, siamo a metà agosto, siamo in 25 a letto con l’influenza in questa stagione, non è normale, qua sta capitando qualcosa” e allora è partita l’indagine epidemiologica che ci ha consentito poi di arrivare nel giro di quindici giorni a definire che si trattava di questo strambo virus che c’era arrivato in casa. Il problema di questi virus è che nessuno di noi sa con certezza quanto siano capaci di dare una malattia sintomatica. Il problema risiede sostanzialmente nel fatto che se si parla di sicurezza delle donazioni di sangue, il paziente viremico, quindi col virus in fase attiva nel sangue, ma non sintomatico, quindi infetto ma sano, è una sorgente drammatica. Noi ci siamo posti un po’ il problema e su questa epidemia, ed è la prima volta che viene fatto perché chiaramente anche qua avevamo una popolazione limitata nel tempo e nello spazio e si poteva fare, circa il 18% dei soggetti erano infetti ma non sintomatici. E questo è consolante perché vuol dire che se il paziente si infetta si ammala e quindi lo puoi comunque identificare. Passiamo un attimo invece al discorso della Dengue. Dengue è in una situazione epidemiologica molto severa in tutte le aree tropicali del mondo. Le zone verdi che vedete in questa piantina sono assolutamente affette. E’ ragionevolmente fuori controllo in Brasile, ha un tasso di attacco nelle ultime settimane che è superiore a quello dell’influenza nelle aree urbane del Brasile, quindi veramente un tasso di attacco altissimo. E’ comunque diffuso in tutte le aree dove noi occidentali andiamo di solito in vacanza, ai Tropici, oppure andiamo per lavoro o andiamo per altre situazioni. In particolare la Dengue - che ha come vettore aedes aegypti, quindi il cugino dell’aedes albopictus, della zanzara tigre asiatica - si pensava non potesse comparire in Europa. In realtà la trasmissione autoctona di Dengue è avvenuta anche in Europa ed è avvenuta in Francia nel 2010 con pochi casi. Anche qua l’epidemia è stata di 3-4 casi, ma con la trasmissione autoctona documentata. E’ andata particolarmente bene perché è successo alla fine di settembre, quindi si è esaurita per conto suo, però ci sono stati 3 casi di trasmissione locale. Altrettanto importante è l’epidemia che è stata determinata in Croazia nel 2010, verosimilmente, su base retrospettiva. In questo caso un turista tedesco tornato dalla Croazia ha mostrato i sintomi di Dengue. Nessuno ci credeva perché in Croazia la Dengue non esiste, in realtà lui non è andato da nessun’altra parte. Ovviamente il CDC (Centers for Disease Control and Prevention) ha fatto una serie di indagini ed ha scoperto che esisteva un cluster di casi a trasmissione locale sulla costa della Croazia. Queste sono due considerazioni limitatissime dal punto di vista epidemiologico perché parliamo veramente di 204 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 22 Novembre pochi casi, ma se l’associamo a questa notizia di qualche giorno fa dell’isola di Madeira..a Madeira ci sono 1.357 casi autoctoni di trasmissione di Dengue da aedes aegypti. Aedes aegypti che fino al 2004 non era presente nell’arcipelago delle Azzorre. E’ entrata, sono bastati 8 anni perché si instaurasse un numero di casi che in questa situazione non è neanche un po’ da sottovalutare, perché più di 1.300 casi nell’attività stagionale delle zanzare è veramente un dato assolutamente importante. Importante anche perché, essendo una destinazione turistica, ci sono almeno 11 cittadini stranieri, cioè non autoctoni, sono tornati nel loro Paese di origine, che sono Portogallo, Francia, Regno Unito e Svezia mi sembra nonché Germania, con la Dengue in fase viremica quindi con la malattia attiva. E per questo, tanto per darvi un’idea di quella che è la situazione in una realtà molto piccola come l’EmiliaRomagna, il nostro laboratorio ha sorvegliato i cittadini che rientravano con dei sintomi sospetti negli ultimi 3-4 anni. Dal 2008 al 2009 abbiamo trovato da 3 a 17 casi acuti, quindi significa viremici, quindi significa con capacità di innescare una trasmissione locale se esiste il vettore ed il vettore abbiamo visto che c’è, solo in un area molto piccola come quella dell’Emilia-Romagna. Secondo me c’è un dato interessante. Il sistema di sorveglianza che ci ha portato a vedere questi pazienti non è cambiato dal 2008 al 2009, cioè la sensibilità del sistema che è basata sui medici di sanità pubblica è sempre quella. I numeri sono aumentati perché effettivamente è molto più aumentato il numero di casi che sono in giro per il mondo. Questo è un dato, secondo me, abbastanza rilevante. Poi parliamo di West Nile, che è il penultimo dei cattivi di turno oggi pomeriggio. Il West Nile è un virus che ha un genoma ad alta variabilità perché è facile che cambi per conto suo proprio per un problema di RNA polimerasi. Ha un ciclo di trasmissione che non coinvolge l’uomo. Il West Nile è un virus zoonotico per sbaglio, se mi consentite il termine, nel senso che si muove fra zanzare, soprattutto del genere culex, e uccelli selvatici, compresi i migratori. L’uomo e il cavallo entrano in questo ciclo di trasmissione come ospiti a fondo cieco, nel senso che si ammalano ma non sono in grado di ritrasmettere la malattia. Le modalità di trasmissione del virus all’uomo sono sì la puntura della zanzara, ma ancora una volta la trasmissione attraverso la donazione di organi e di sangue. Il problema del West Nile è un problema che nel bacino del Mediterraneo si conosce da 50 anni, nel senso che il sud del bacino del Mediterraneo e Israele sono zone endemiche da sempre. Il virus ha fatto una comparsa plateale in Grecia nel 2010, dopo essere comparso in Italia nell’uomo nel 2008. E’ vero che era stato già identificato 10 anni prima nel Padule di Fucecchio, ma solamente con casi veterinari. Nel 2008 è entrato in maniera abbastanza consistente in Italia ma, se mi consentite il paragone calcistico, è entrato a ‘gamba tesa’ nel 2010 in Grecia perché ha fatto un’epidemia con più di 300 casi e diversi morti. Altrettanto in Romania e quello che vedete qua è l’ultimo update, non è proprio l’ultimo ma ormai l’attività è conclusa, del virus in Europa. Ci sono alcune aree rosse che sono il nord-est del nostro Paese (il virus in questi ultimi due anni è particolarmente attivo fra il Veneto e il Friuli), la Sardegna (che quest’anno ha avuto un numero di casi decisamente inferiore rispetto all’anno scorso ma il virus continua a circolare), tutti i Balcani nonché questa zona dell’Ucraina e della Russia (dove il numero di casi stimati quest’anno sono circa 500 con 250 morti stimati, quindi il virus si sta muovendo decisamente bene). E’ importante il discorso della trasfusione di organi e di sangue perché il West Nile ha una figura clinica che è un iceberg. L’80% almeno dei soggetti infetti è completamente asintomatico. Qualcuno di noi in questa sala potrebbe aver avuto l’infezione da West Nile e potremmo non saperlo perché è passata in maniera completamente asintomatica. Un 1%, forse meno, sviluppa una malattia neuro invasiva severa, è una meningo-encefalite che ha una mortalità in alcune situazioni di popolazioni anche del 50%. E questa non è una bella notizia perché da una puntura di zanzara ci può essere una conseguenza prognostica negativa. Un 20% infine che ha una sindrome febbrile. Il problema vero sono quell’80% di asintomatici perché il virus in quella fase è assolutamente trasmissibile. E, siccome da questo punto di vista la Legge di Murphy si verifica con una correttezza quasi esemplare, è già successo. E’ successo che in Emilia-Romagna abbiamo fatto un trapianto con un donatore infetto, è successo l’anno scorso in Veneto. Abbiamo avuto diversi problemi perché chiaramente trasfondere è un conto, ma trapiantare un organo infetto su un soggetto che riceve che è immunodepresso ha delle conseguenze decisamente importanti. In Europa c’è un grosso lavoro di attenzione. La CDC ha cominciato nel 2011a pubblicare una lista settimanale di potenziali situazioni di rischio quindi un monitoraggio molto molto attento. Giusto per darvi un’idea di quanto può circolare il virus - noi l’abbiamo fatto sulla provincia di Ferrara ma lo stesso dato è sulla provincia di Milano e sul Friuli Venezia Giulia - fra i donatori di sangue della provincia di Ferrara, che è la prima provincia dove si sono verificati nel 2008 i casi umani, c’è una percentuale di siero prevalenza dello 0,7% che non è altissima, ma non è neanche bassissima. Vuol dire che lo 0,7% della popolazione dei donatori di sangue ha avuto un contatto col virus. I problemi non sono finiti perché in Italia, come sta succedendo in Grecia e in tutto l’est europeo, è emerso un secondo lineaggio di West Nile che non siamo sicuri di poter identificare con certezza. L’ultimo è questo virus dal nome assolutamente stano che si chiama Usutu. Un’altro virus africano che i veterinari conoscono sicuramente molto bene perché Usutu, che è un cugino più che di primo grado rispetto al West Nile Arezzo 20 - 23 novembre 2012 205 22 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute dal punto di vista filogenetico e appartiene al gruppo della encefalite giapponese, è un virus che fino al 2001 non ha dato nessun segno di sé. Nel 2001 il virus è sbarcato in Austria e ha causato un’epidemia importante di uccelli selvatici, ha colpito anche quelli dello zoo di Vienna e quindi ha suscitato l’attenzione dei veterinari perché non è normale che gli uccelli muoiano per strada. Il risultato finale è che dall’Austria, dal 2001, il virus si è spostata in Ungheria, in Italia, in Svizzera, in Repubblica Ceca. ha insomma invaso l’Europa centro-meridionale. Come sia arrivato non lo so, ci sono diverse ipotesi, di fatto i virus Usutu che stanno circolando oggi in Europa sono abbastanza lontani dal virus africano dal punto di vista filogenetico, quindi è probabile che il virus sia qua da un po’ perché si è evoluto. la cosa importante è che diversi studi hanno dimostrato che Usutu è in grado di mantenersi in natura fra zanzara e uccello in tutti quegli ambienti in cui ci sia un minimo di dieci giorni caldi, che significa temperatura superiore a 30°, all’anno. Che significa in tutta Europa ormai, ce l’abbiamo e ce lo teniamo. Per adesso il problema era solo veterinario, in realtà nel 2009 è emerso come patogeno umano. Siamo ancora in una situazione di valutazione, nel senso che abbiamo visto due casi in pazienti immunodepressi ottenuti durante la sorveglianza per il virus West Nile perché il virus è molto simile, lo abbiamo pescato per caso in un ricevente di trapianto di fegato. Quello che è noto adesso è che Usutu è sicuramente in grado di dare viremie asintomatiche, quindi di infettare in maniera asintomatica l’uomo sano come fa West Nile. Noi abbiamo trovato 4-5 donatori di sangue che sono stati sicuramente infettati da questo virus e lo stesso discorso l’hanno fatto dei colleghi in Germania. Dove il virus circola nella fauna selvatica, è capace di saltare nell’uomo. Il virus è drammaticamente diffuso in tutto il bacino del Po, tant’è che nella parte sud ha soppiantato West Nile. Il nostro sistema integrato di sorveglianza in Emilia-Romagna è in atto dal 2006 - integrato significa che abbiamo trappole per le zanzare, abbiamo catture di insetti, abbiamo sorveglianza sull’uomo - con un bollettino settimanale per cui tutto il sistema è perfettamente sempre registrato e sincronizzato su quelli che sono i risultati, l’ha determinato in maniera molto preponderante sia negli uccelli che nelle zanzare. Questa è molto semplice. C’è la bambina che si sveglia di notte e va a svegliare il padre e dice: “Papà, papà, c’è una zanzara nella mia stanza!” e il babbo risponde chiaramente “Torna a letto, non è un problema”. La bimba risponde: “Ok, allora vorrà dire che non mi preoccuperò di West Nile, Malaria, Dengue, Encefalite.....” e il babbo dice: “Mi manca tanto l’uomo nero!” 206 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 22 Novembre Cambiamenti ambientali globali, rischio chimico e infettivo: verso una prevenzione integrata "Effetto dei cambiamenti climatici sulle malattie trasmesse dall’acqua" Istituto Superiore di Sanità Enzo Funari Gli eventi meteorologici estremi comportano danni serissimi: perdita di vite, danni fisici, danni alle costruzioni di tutti i tipi, alle infrastrutture, alle attività economiche, spostamenti di popolazioni e forti contaminazioni ambientali. Nella Regione Europea negli ultimi 20 anni il numero di persone colpite da questi eventi estremi è aumentato del 400%. Soltanto nell’Unione Europea negli ultimi 20 anni sono state interessate da questi disastri 29 milioni di persone. Germania e Italia, anche per l’elevata densità di popolazione e infrastrutture, sono risultate tra i paesi maggiormente colpiti. La direttiva 2007/60/EC sulla valutazione e la gestione del rischio delle alluvioni fornisce importantissimi strumenti per mitigare questo rischio. Nel recente rapporto sui cambiamenti climatici dell’Intergovernmental Panel on Climate Change, per questo secolo viene previsto un aumento della frequenza delle forti precipitazioni ad alte latitudini e in zone tropicali (IPCC, 2012). L’aumento di questi eventi è previsto anche in zone a latitudini media come l’Europa nella stagione autunnale. Erosione delle coste e inondazioni si ritiene saranno confermati e intensificati. Sono attesi un aumento delle temperature massime e una maggiore frequenza di giorni con temperature elevate. Infine è previsto un aumento di siccità in alcune aree, compreso il bacino del Mediterraneo. La valutazione dell’influenza dei cambiamenti climatici sulle patologie trasmesse con le acque è molto complessa. Il primo elemento di complessità è rappresentato dalle difficoltà della comprensione dei processi di contaminazione delle acque da parte dei microrganismi patogeni. Molte conoscenze di questi processi a partire dalle fonti di contaminazione sono basate sugli indicatori batterici di contaminazione microbiologica, dunque non sui singoli , numerosissimi microrganismi patogeni. E’ stato rilevato in numerosi studi che virus e protozoi sono spesso più resistenti ai processi di inattivazione presenti nell’ambiente acquatico rispetto agli indicatori batterici di contaminazione fecale. Anche l’esposizione dell’uomo ai microrganismi patogeni attraverso l’acqua potabile, l’acqua di balneazione, il consumo di organismi acquatici, viene valutata indirettamente attraverso l’analisi degli indicatori. In questo quadro non è certo semplice capire come i cambiamenti climatici possano interagire nelle relazioni tra i microrganismi patogeni presenti nelle acque e le patologie da queste trasmesse. Inoltre, la diffusione delle malattie trasmesse con le acque, sia in termini qualitativi che quantitativi, è dovuta anche a spostamenti di popolazioni, ad una maggiore urbanizzazione, all’aumento della densità di popolazioni, al fenomeno della resistenza dei microrganismi agli antibiotici, alla qualità del sistema sanitario. Infine le informazioni su queste patologie dovrebbero essere fornite dai sistemi di sorveglianza ma in genere questi sistemi sono molto carenti proprio per le patologie trasmesse con le acque. Almeno nei paesi più industrializzati viene comunemente ritenuto che il problema della contaminazione microbiologica delle acque sia risolto grazie ad un’avanzata normativa e ai moderni strumenti di gestione. Risolte le epidemie di colera e di tifo che hanno flagellato le città europee nel passato sembra che il problema delle malattie trasmesse con le acque sia del tutto superato. In realtà le cose non stanno così, nonostante gli indiscutibili progressi. Dove sono presenti i sistemi di sorveglianza documentano numerosi episodi epidemici, ad esempio negli Stati Uniti e nel Regno Unito. Il Protocollo Acque e Salute UNECE/OMS per la Regione Europea (1999) rappresenta un approccio integrato in grado di valutare il peso di queste patologie e soprattutto offre strumenti per il loro controllo a fini preventivi. Il confronto di questo approccio con le direttive europee permette di costatare che queste ultime sono importanti strumenti di gestione ma offrono un quadro a volte frammentario. Nel loro insieme complesso e articolato sono presenti non certo trascurabili varchi, come ad esempio quello derivante dalla mancata applicazione integrata delle relazioni ambiente e salute (invece ben presenti nei Water Safety Plans dell’OMS e anche in una direttiva europea, quella del 2006 sulle acque di balneazione). E’ forse auspicabile che alcune direttive vengano riviste nel loro approccio, basate su disposizioni spesso molto dettagliate senza fornire criteri ed indirizzi da applicare sulla base delle necessarie conoscenze del territorio, delle pressioni antropiche e condizioni ambientali. La presentazione che segue è basata sull’articolo : Funari E., Manganelli M., Sinisi L. – Impact of climate change on waterborne diseases. Ann Ist Super Sanità 2012 , 48, 473-83. A questo articolo si rimanda per approfondimenti. Le forti piogge determinano un sovraccarico degli impianti di trattamento delle acque reflue con una conseguente fuoriuscita di acque reflue non trattate, attraverso il dilavamento delle aree agricole e urbane trasportano materiale organico, mobilizzano i microrganismi dai sedimenti comportando un aumento della contaminazione microbiologica delle acque. All’aumento delle concentrazioni di microrganismi patogeni nelle acque naturali , Arezzo 20 - 23 novembre 2012 207 22 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute senza adeguate misure di gestione, corrisponde un aumento del rischio di trasmissione di patologie infettive attraverso le acque potabili e di balneazione, il consumo di organismi acquatici e agricoli irrigati con queste acque. Sono molti i lavori pubblicati in letteratura scientifica che dimostrano l’associazione tra questi eventi e le epidemie trasmesse con le acque. In Tabella 1 ne vengono presenti alcuni tra i più noti. Tabella 1. Epidemie associate a contaminazione delle acque a seguito di forti piogge/alluvioni Località/anno Casi Veicolo M i l w a u k e e 403,000 casi Acqua lago (US)/1993 (54 deceduti) Iowa (US) Acqua sotterranea Montana (US) Inghilterra e Galles Città di 2300 casi, 65 Walkerton (Ca- ospedalizzati, nada) 7 deceduti Inghilterra Galles US 208 Fiume Acqua potabile ricavata da acqua sotterranea , Indagine su limitato database di epidemie trasmesse con le acque Indagine su 548 epidemie dal 1948 al 1994 Arezzo 20 - 23 novembre 2012 Agente eziolo- Causa Autori dello gico studio Cryptosporid- Forti piogge, Mac Kenzie et d i l a v a m e n t o al., 1994; Hoium aree xie et al., 1997 Hunter P., 2003 Acanthamoeba Alluvione keratitis Pioggia ecces- Weniger et al., Giardia siva 1983 Cryptospori- Eccessiva por- Lake et al., tata fiume 2005 dium E s c h e r i c h i a Contaminazio- O’Connor DR, coli O157:H7 ne da deiezioni 2002 , Campylo- animali da una fattoria locale a bacter jejuni seguito di inusuale pioggia intensa corre- Nichols et al., Giardia, Cryp- Forte tosporidium, lazione tra il 2009 E. coli, S. ty- 40% dei casi phi, S. para- e forti piogge typhi, Campy- nella settimana lobacter and che ha preceStreptobacillus duto le epidemie o pioggia moniliformis leggera per 4 settimane. Associazioni Curriero et al., statisticamen- 2001 te significative tra intense piogge ed epidemie trasmesse con l’acqua Atti 1° Forum Internazionale Sviluppo Ambiente Salute Paesi meno sviluppati 22 Novembre e WHO, 2012 Vibrio choler- Alluvioni uragani : diae struzione sistema distribuzione acqua e mescolamento acque potabili e acque reflue. Diffusione colera L’episodio più grave riportato negli Stati Uniti è stato associato alla presenza di cisti di Cryptosporidium nell’acqua potabile nel 1993. A seguito di forti precipitazioni il conseguente dilavamento delle aree agricole ha causato una forte contaminazione del lago Milwaukee, utilizzato per l’approvvigionamento potabile nell’area. Sono stati registrati 403.000 casi di criptosporidiosi e 54 decessi. I trattamenti di potabilizzazione e le attività di monitoraggio routinariamente condotti non sono stati in grado rispettivamente di intercettare e rilevare l’inusuale contaminazione. La lezione da trarre da questo drammatico evento è che non è sufficiente svolgere i propri compiti in modo diligente. Il vero compito assegnato a coloro che devono tutelare la salute dei cittadini è quello di acquisire al meglio le competenze necessarie per fronteggiare le diverse situazioni con responsabilità. L’aumento della temperatura è abbastanza controverso per quanto riguarda il comportamento dei patogeni nell’ambiente acquatico. Di certo sono favorite le specie ambientali come i batteri autoctoni. Negli Stati Uniti, le vibriosi causate principalmente da Vibrio parahaemolyticus, V. vulnificus e V. alginolyticus sono tra le sei malattie di origine alimentare più comuni e V. parahaemolyticus negli ultimi dieci anni è risultato la principale causa di gastroenterite (De Paola et al., 2010). Nei Paesi meno sviluppati è attesa un’estensione geografica e temporale di Vibrio cholerae se non vengono prese adeguate misure di gestione. La siccità comporta: • un peggioramento delle condizioni igieniche; • un aumento della probabilità di infiltrazione di materiale organico nel sistema di distribuzione delle acque potabili per le cadute di pressione l’acqua; • un maggiore riuso di acque reflue; • una minore diluizione delle acque reflue e delle emissioni da impianti di trattamento; • una maggiore probabilità di contaminazione delle acque sotterranee per infiltrazione da acque superficiali; • la mobilizzazione di microrganismi dai sedimenti dopo le prime piogge che seguono periodo prolungati di siccità. Alcune epidemie riportate negli Stati Uniti, in Giappone e nel Regno Unito mettono in luce un problema particolare , quello delle infiltrazioni di acque reflue o acque superficiali in acque sotterranee, favorite da fratture nel suolo o del letto dei fiumi che si verificano a seguito di prolungati periodi di siccità. Di conseguenza risultano contaminate acque che normalmente sono purissime. Proprio per la loro natura spesso vengono distribuite per il consumo senza trattamenti di disinfezione. L’associazione fra esposizione a contaminanti chimici presenti nelle acque potabili e patologie umane è stata dimostrata per un numero molto limitato di contaminanti, come l’arsenico, i nitrati (probabilmente in associazione con contaminazioni microbiologiche), e i floruri (WHO, 2008). Il piombo è un ulteriore elemento di preoccupazione. Il consumo di prodotti ittici in alcune aree espone le popolazioni a livelli elevati di metilmercurio e di composti organici persistenti. In genere è difficile che le concentrazioni dei contaminanti chimici nelle acque raggiungano livelli tali da comportare effetti osservabili, patologie per l’uomo. Come possono influire i cambiamenti climatici? Le piogge intense determinano sicuramente una mobilizzazione degli inquinanti da zone inquinate a zone non inquinate o meno inquinate. E’ stato dimostrato che l’erosione costiera associata alle inondazioni causa il rilascio dai siti contaminati di sostanze chimiche che possono poi ritrovarsi e accumulare lungo la catena trofica, con conseguente maggiore esposizione dell’uomo. Il dilavamento Arezzo 20 - 23 novembre 2012 209 22 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute dei suoli comporta un maggiore rilascio di sostanza organica che complessa i metalli facilitandone il rilascio dai minerali naturali. Potrebbero dunque aumentare in alcune aree le concentrazioni nelle acque di elementi come l’arsenico. La più alta presenza di sostanze organiche rappresenta un problema anche per quanto riguarda la formazione di precursori. Il trattamento di potabilizzazione con disinfettanti di queste acque dà luogo a più alti livelli dei sottoprodotti della disinfezione, molti dei quali sono caratterizzati da proprietà biologiche importanti. Inoltre nelle acque costiere un maggiore afflusso di acque dolci comporta una diversa distribuzione dei contaminanti. Di certo aumenta la biodisponibilità dei metalli, infatti nelle zone soggette a queste situazioni viene osservata una maggiore concentrazione di metalli nel biota, quindi un maggiore trasporto lungo la rete trofica. Le reazioni chimiche e biologiche vengono favorite dall’aumento della temperatura quindi vengono in genere favorite le reazioni di degradazione delle sostanze. Tuttavia temperature più elevate influenzeranno anche l’utilizzazione delle sostanze chimiche. Per esempio in agricoltura un assetto diverso del suolo e una conseguente nuova organizzazione potrebbero comportare un aumento dell’uso di fertilizzanti. Nel mare l’aumento della temperatura può comportare una maggiore formazione di metilmercurio, che è la forma più tossica del mercurio negli organismi acquatici. Poiché in alcune aree il metilmercurio ha dato luogo ad effetti neurologici molto rilevanti nelle popolazioni locali, è probabile che si verifichi una aumentata esposizione almeno per queste aree. Infine è stato visto che a temperature più elevate, durante il trasporto delle acque disinfettate aumentano i livelli dei sottoprodotti. La siccità comporta una minore diluizione dei corpi idrici quindi una maggiore concentrazione delle sostanze. Un periodo lungo di siccità determina un accumulo di sostanze chimiche nei letti dei fiumi temporanei, caratteristici dell’Italia centrale e soprattutto meridionale e insulare. Le prime acque di dilavamento trasportano picchi di concentrazione non soltanto di microrganismi patogeni ma anche di sostanze chimiche. Inoltre la siccità causa intrusioni saline in acque sotterranee nelle aree costiere per il loro abbassamento di livello. Un problema emergente è infine quello delle fioriture dei cianobatteri e delle alghe tossiche marine. L’aumento della temperatura comporta un aumento delle proliferazioni di questi microrganismi, lo spostamento di specie tropicali verso nord. Le forti piogge aumentano il trasporto di nutrienti nelle acque e favorendo la crescita dei cianobatteri e delle alghe. D’altra parte la siccità comporta una concentrazione di nutrienti nei laghi e quindi di nuovo aumento delle fioriture. Bibliografia Curriero FC, Patz JA, Rose JB, Lele S. (2001). The Association Between Extreme Precipitation and Waterborne Disease Outbreaks in the United States, 1948–1994. Am J Public Health ;91(8):1194-9. DePaola A, Jones JL, Woods J, Burkhardt W, Calci KR, Krantz JA, et al. Bacterial and Viral Pathogens in Live Oysters: 2007 United States Market Survey. Appl Environ Microbiol 2010 May 1, 2010;76(9):2754-68. doi:10.1128/ aem.02590-09. Directive 2007/60/EC, on the assessment and management of flood risks (2007). Hoxie NJ, Davis JP, Vergeront JM, Nashold RD, Blair KA. Cryptosporidiosis-associated mortality following a massive waterborne outbreak in Milwaukee, Wisconsin. Am J Public Health 1997;87(12):2032-5. Hunter P. Climate change and waterborne and vector-borne disease. Journal of Applied Microbiology 2003;94:3746. doi:10.1046/j.1365-2672.94.s1.5.x. IPCC, 2012. Managing the Risks of Extreme Events and Disasters to Advance Climate Change Adaptation. A Special Report of Working Groups I and II of the Intergovernmental Panel on Climate Change. Field CB, V. Barros, T.F. Stocker, D. Qin, D.J. Dokken, K.L. Ebi, et al., editors. Cambridge, UK, and New York, NY, USA: Cambridge University Press. Lake IR, Bentham G, Kovats RS, Nichols GL. Effects of weather and river flow on cryptosporidiosis. J Water Health 2005 Dec;3(4):469-74. Mac Kenzie WR, Hoxie NJ, Proctor ME, Gradus MS, Blair KA, Peterson DE, et al. 1994. A massive outbreak in Milwaukee of cryptosporidium infection transmitted through the public water supply. New Engl J Med;331(3):1617. http://dx.doi.org/10.1056/NEJM199407213310304. Nichols G, Lane C, Asgari N, Verlander NQ, Charlett A. 2009. Rainfall and outbreaks of drinking water related disease in England and Wales. J Water Health ;7:1-8. O’Connor DR. Report of the Walkerton Inquiry. Part 1. The Events of May 2000 and Related Issues. Toronto2002. 210 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 22 Novembre Protocol on Water and Health (1999): http://www.unece.org/env/water/pwh_text/text_protocol.html Weniger BG, Blaser MJ, Gedrose J, Lippy EC, Juranek DD. 1983. An outbreak of waterborne giardiasis associated with heavy water runoff due to warm weather and volcanic ashfall. Am J Public Health Aug;73(8):868-72. WHO, 2008. Guidelines for drinking-water quality [electronic resource]: incorporating 1st and 2nd addenda. Geneva: World Health Organization. WHO, WMO. Atlas of health and climate. Geneva: WHO, WMO; 2012. Available from: http://www.wmo.int/ebooks/ WHO/Atlas_EN_web.pdf. Arezzo 20 - 23 novembre 2012 211 22 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute Tecnologie per la gestione del ciclo dei rifiuti "Quadrifoglio: l’esperienza della gestione integrata, problematiche ed opportunità" Giorgio Moretti Amministratore Delegato Quadrifoglio Trascrizione non revisionata dal relatore Sono il Presidente della Quadrifoglio, l’azienda che gestisce il ciclo dei rifiuti nel territorio di Firenze, non tutto, avendo disperatamente cercato di mettere insieme anche tanti altri pezzi, ma finora non mi è andata benissimo, mi riferisco a elementi aggregativi di strutture che operano in questi territori. Relativamente al tema della raccolta differenziata, credo che bisognerebbe affrontare questi argomenti con un po’ di sano pragmatismo perché poi sul tema della raccolta differenziata si scatenano delle straordinarie guerre di religione dove è molto interessante osservare l’animosità in un senso o nell’altro, ma poi quando andiamo a fare i conti con le problematiche oggettive indubbiamente ci troviamo a dover gestire cose che molti di noi non conoscono. Qui gli addetti ai lavori sanno perfettamente di cosa stiamo parlando. Intanto la cosa principale è che il tema di differenziare fortunatamente sta evolvendo rapidamente verso il tema di riciclare perché raccogliere, differenziare senza poi processare questo materiale è faticoso, costoso e, non dico inutile, ma lo sforzo rischia di non valere la candela. Questo non è un messaggio per dire ai cittadini non differenziate, però siamo forse finalmente in un momento in cui, anche in virtù della normativa europea che entro breve dovremo adottare nelle modalità che sono previste e che sono anche abbastanza articolate, dovremo arrivare a strutturarci bene su tutto il tema del riciclo. Prima di me doveva parlare Caramassi sul tema del riciclo. Si è strutturato, insieme ad altre aziende toscane, nel dare origine a questa entità, e chiaramente ne parlerà lui, che diventa parte terminale dell’elemento di differenziazione. Entrando invece nel merito di quella che è la raccolta, posso dire che noi abbiamo effettivamente sperimentato un certo numero di metodologie perché troppe volte al differenziato si associa il concetto del porta a porta, quindi sembra che la raccolta differenziata sia simbiotica con il meccanismo del porta a porta. E’ vero, in certe situazioni, però quello che sicuramente dobbiamo non commettere è l’errore della generalizzazione. Processare rifiuti, trattare rifiuti, raccogliere rifiuti è estremamente articolato. E’ articolato in funzione dei territori su cui si opera, è articolato in funzione del tipo di urbanizzazione che noi abbiamo. Per esempio, noi trattiamo Firenze, il centro di Firenze è giornalmente urbato dello 0.6. Cosa vuol dire urbato dello 0.6? Vuol dire che per un abitante residente noi accogliamo 0.6 abitanti non residenti. E’ una percentuale che è equivalente solo a quella di New York nel mondo. Voi capite che il tema di convincere un visitatore, un turista a differenziare non esiste. E’ vero che però abbiamo fatto delle cose che sono abbastanza interessanti, ad esempio l’interramento dei cassonetti. C’è anche un aspetto del decoro del territorio, quindi sul centro storico abbiamo fatto e stiamo facendo un intervento abbastanza massiccio di interramento dei cassonetti. L’interramento dei cassonetti ha generato la possibilità di dividere il conferimento delle varie frazioni 24h24, perché un’altro problema che noi tutti abbiamo con il porta a porta è che ci sono degli slot sul quale il cittadino o l’esercente può esporre questi sacchetti, bidoncini, insomma tutti i vari meccanismi di raccolta. E quello nel centro di Firenze ha molto funzionato, ha portato ad un aumento molto significativo della quota di differenziata rispetto all’indifferenziato nel centro storico di Firenze. Ma allora questo perché non lo replichiamo tout court anche in periferia? No, perché in periferia possiamo agevolmente gestire anche il porta a porta. Il porta a porta è un’altra modalità efficace, ma indubbiamente anche molto costosa. E’ chiaro che noi oggi siamo costretti anche a dover fare i conti con quello che è il costo della tariffa, il costo della TIA (Tariffa Igiene Ambientale), come si chiamerà l’anno prossimo. La raccolta differenziata ha veramente tutta una serie di passaggi dove bisogna equilibrare comodità per il cittadino, convenienza in termini di conferimento al riuso, al riciclo e, indubbiamente, anche un conto economico di che cosa costa in termini di trattamento. L’esperienza che noi abbiamo è molto diversa. Abbiamo, per esempio, avviato in alcune zone del territorio servite da Quadrifoglio quelle che si chiamano “calotte intelligenti”, dove il cittadino con la chiavetta si presenta e conferisce, quindi il cittadino è riconosciuto rispetto a quello che sta conferendo. E’ chiaro che il tema dell’igiene urbana e, soprattutto, della raccolta è molto articolato e molto complesso. Nessuno immagini di avere la soluzione, la pietra filosofale di questa cosa. Bisogna essere molto pragmatici, bisogna essere consapevoli che ogni territorio deve essere trattato tenendo conto di molti fattori, scegliere la modalità e la tecnologia più adatta, ma sempre con il fondamentale obiettivo di avere ben chiaro dove il materiale raccolto e differenziato verrà poi portato per poterlo avviare all’elemento del riuso e del riciclo. Questa è la nostra esperienza. Noi andiamo sempre, in maniera più determinata, verso queste dinamiche di segmentazione del territorio in funzione di quello che riteniamo essere il modo più efficiente ed efficace per dare servizio al cittadino e qualità di raccolta differenziata. Qualche volta, ahimè, dobbiamo anche fare i conti con dei numeri che sono veramente numeri al lotto perché la normativa non è così stringente nell’andare a rappresentare 212 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 22 Novembre chiaramente qual è la percentuale di differenziazione. Da regione e regione osserviamo già delle differenze, ci sono vari modi per poter andare a calcolare queste cose. Anche qui bisognerebbe fare chiarezza, bisognerebbe prima uscire dalla fiera delle vanità, perché ognuno che maneggia le aziende ha piacere a dire “noi siamo arrivati al % X di differenziazione”, però bisognerebbe andare a vedere se quella realmente è differenziazione. Bisogna poi sapere che cosa si conferisce in questi “cassonetti”, perché noi ci troviamo di tutto. Per mille ragioni ci troviamo in situazioni paradossali. Abbiamo una crescita enorme degli abbandoni. Non so i colleghi delle altre strutture come vivono questo fenomeno. E’ un tema estremamente complesso ed anche per fare questo abbiamo costruito su Firenze 7 centri importanti di conferimento, dove, in molti di questi, è possibile conferire fino a 32 diverse tipologie di materiali. Occorre principalmente il senso civico dei cittadini. Noi possiamo montare qualunque tecnologia, qualunque metodologia, qualunque elemento di efficientamento, ma senza il senso civico dei cittadini non si va da nessuna parte. Uno potrebbe dire “inventatevi un sistema premiante su quello che è il comportamento virtuoso del cittadino”. Beh, sì, è facile a dirlo, ma è molto complicato a farsi. Immaginate io quale sistema premiante mi posso inventare in un centro storico fiorentino dove la prevalenza dell’urbato è 1.2, addirittura 1.4, 1.5 in certe giornate. E’ chiaro che è tutto molto difficile. Il sistema di conferimento sulle calotte, dove tu ti presenti e dici “Io sono Giorgio Moretti e ti sto conferendo una frazione umida, piuttosto che carta o cartone”, sì, ma in ogni caso bisogna fidarsi, no? E’ vero che mi presento con la chiavetta, è vero che sto dicendo che sono Giorgio Moretti ed è vero che sto dicendo che dentro c’ho messo l’organico, ma non è che il sistema è così intelligente, ad oggi, per poter capire se è vero o non è vero. Noi interveniamo anche con dei meccanismi sanzionatori. Non c’è niente da fare, ci vuole anche la sanzione. Solamente la Quadrifoglio gestisce 18.000 postazioni di cassonetti, provate ad immaginare cosa dovremmo avere. Dovremmo avere 18.000 persone che presidiano, insomma non è credibile. Il tema è complesso. Il tema è costantemente in evoluzione. Noi cerchiamo di fare il massimo sforzo per cercare di conseguire una crescita che, fortunatamente, sta avvenendo costantemente. Nel nostro territorio siamo quasi al 47% di raccolta differenziata vera, calcolata coi criteri più rigorosi e più conservativi. Abbiamo dei comuni che sono abbondantemente sopra il 50%, 52-53%. Riteniamo che avere Firenze che è salita sopra il 45%, con le complessità aggiuntive di cui vi ho detto, quindi con questi turisti che chiaramente buttano qualsiasi cosa, prevalentemente anche per terra. Siamo abbastanza soddisfatti, ma non c’è limite alla soddisfazione su questa cosa. Molto altro non ho da dirvi e vi ringrazio per avermi ascoltato. Buongiorno. Domanda: mi sono sempre chiesto che cosa succede se uno butta, per esempio, dell’umido nel cartone. Tutto il cassonetto va a farsi benedire oppure...? No, non è che tutto il cassonetto va a farsi benedire. Anche nel calcolo della raccolta differenziata c’è un meccanismo di purezza e di non purezza. Per esempio, più facile viene dire sulle bottiglie di plastica, sulla PET, perché ci sono dei materiali che se vengono bagnati dall’umido, voglio dire, cartone, ma è chiaro che se noi cominciamo a buttare insieme al PET, per esempio, il cartone si inquina notevolmente la frazione e l’avvio al riciclo diventa complicato. Le aziende, come il REVET, che fanno di mestiere la separazione, ma più che la separazione il controllo postraccolta differenziata, riprendono in mano quello che è stato il conferito e fanno un secondo livello di selezione. Voi capite che è tutto estremamente costoso. Non vorrei essere frainteso dicendo quello che sto per dire adesso. Gli americani hanno risolto il problema molto semplicemente, bruciano ogni cosa e quindi il problema è risolto. Come facciamo noi? Abbiamo su 1.150 persone più circa 400-450 persone, 8 ispettori ambientali, i quali vanno, aprono il sacchetto, guardano se dentro non c’è roba inquinata e li sanzionano, perché poi c’è anche una dinamica per risalire a chi sei, oltretutto con un sistema sanzionatorio che è indiretto. A Firenze abbiamo i cassonetti gialli e sulla raccolta porta a porta indubbiamente è più facile. Diciamo che sul cartone siamo meno stressati, è più stressata la parte del multimateriale perché lì c’è anche poi questa differenziazione meccanica che sta diventando sempre più sofisticata. Arezzo 20 - 23 novembre 2012 213 22 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute Tecnologie per la gestione del ciclo dei rifiuti "Presentazione Agenzia Regionale Recupero Risorse" Graziano CiprianiPresidente ARRR Agenzia Regionale Recupero Risorse Buonasera. Io sono Graziano Cipriani, Presidente della Agenzia Regionale Recupero Risorse, meglio nota come A.R.R.R. Spa. Illustrerò brevemente quelle che sono le attività e il ruolo dell’Agenzia che ha come socio unico la Regione Toscana, dopodiché i nostri tecnici e dirigenti parleranno del metodo di certificazione delle raccolte differenziate e, su questi temi, di quella che è la situazione in Toscana. Nel 2009, il socio di maggioranza Regione Toscana ha promosso una revisione societaria dell’Agenzia, finalizzata a trasformarla in società avente caratteristiche in house in conseguenza della Legge Bersani sulle spa partecipate da Enti Pubblici. A.R.R.R. Spa ha svolto negli anni un ruolo strategico di supporto alle politiche regionali in materia di rifiuti tanto da renderne indispensabile il mantenimento. La nuova società è stata costituita a gennaio del 2011 a conclusione di un lungo processo di trasformazione ed oggi ha un importante ruolo di supporto e assistenza all’attività della Regione Toscana in ambito della gestione dei rifiuti e della bonifica dei siti inquinati. La delibera della Giunta Regionale Toscana del 3 novembre 2008 n. 877 cita il ruolo strategico svolto da A.R.R.R. Spa e prende atto che: - A.R.R.R. Spa svolge, tra l’altro, funzioni legate alla gestione dei servizi informativi e di consulenza, oltre che prestazioni tecniche in favore della Regione Toscana, anche legate ad attività di studio e ricerca, nell’ambito dell’intera filiera della gestione dei rifiuti: dalla pianificazione della raccolta allo smaltimento, nonché per la certificazione , prevenzione, riduzione, riutilizzo, recupero e riciclaggio dei rifiuti, anche attraverso l’utilizzo di nuove tecnologie; - A.R.R.R. Spa ha, di fatto, rivestito in questi anni un ruolo strategico di supporto alle politiche regionali di gestione dei rifiuti, tanto che l’attuale struttura del settore regionale “Rifiuti e bonifiche” ne rende indispensabile il mantenimento, così come riconosciuto nel rapporto concernente il governo delle partecipazioni regionali approvato con decisione della Giunta Regionale n. 11 del 28/07/2008. La nuova società, deriva quindi dal processo di trasformazione della Agenzia Regionale Recupero Risorse promosso dalla Regione Toscana con legge 29 dicembre 2009, n. 87. Con delibera n. 1077, la Giunta Regionale Toscana il 28 dicembre 2010 ha approvato l’atto costitutivo e lo Statuto della nuova società. In data 18 gennaio 2011 la società ha provveduto a far propri l’atto costitutivo e il nuovo Statuto. Tra le attività che la società svolge nel campo dei rifiuti, particolare importanza ha quella di accertamento propedeutica alla certificazione del conseguimento degli obiettivi minimi di raccolta differenziata previsti dalla normativa statale e regionale in materia di gestione dei rifiuti. A seguito di quanto disposto dall’art. 205 comma 1 del D. Lgs. 152/06, ai sensi del quale in ogni ATO deve essere assicurata una percentuale minima di raccolta differenziata sulla base di determinate e differenti scadenze temporali, la certificazione che sarà effettuata nel 2012 verificherà il raggiungimento dell’obiettivo indicato dallo stesso decreto. La legge regionale 25/98 e successive modifiche e integrazioni ha previsto che gli obiettivi di legge devono essere certificati secondo le modalità affidate ad un metodo standard, che è quello di cui parleranno dopo i nostri tecnici, che fa riferimento alla delibera della Giunta Regionale Toscana n. 1248 del 28/12/2009, mediante il quale censire lo stato dell’organizzazione dei servizi in genere, nonché rilevare l’efficienza dei sistemi di raccolta differenziata raggiunta dai singoli Comuni e a livello di ATO. Ai sensi del suddetto metodo standard, il periodo di riferimento per il conseguimento degli obiettivi di efficienza di raccolta differenziata nel 2011 va dal 1° gennaio al 31 dicembre 2011. Io ho concluso, vedrete che dall’illustrazione che verrà fatta tra poco si capirà l’importanza di avere uno strumento nella nostra Regione che è considerato un’eccellenza anche da altre Regioni che conoscono il lavoro che i nostri tecnici svolgono, perché attraverso questo metodo si possono determinare risultati sulle raccolte differenziate e anche un controllo qualitativamente elevato su tutto il ciclo dei rifiuti. 214 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 22 Novembre Tecnologie per la gestione del ciclo dei rifiuti "Il metodo di certificazione dell’efficienza della raccolta differenziata in Toscana e lo stato delle RD" Stefano Bruzzesi Dirigente ARRR Agenzia Regionale Recupero Risorse Il tema è il metodo di certificazione dell’efficienza della raccolta differenziata in Toscana e lo stato della raccolta differenziata in questa regione. Come vedete ci sono due pilastri normativi al livello di normativa nazionale, uno è il D. Lgs. 22/1997 (c.d. Decreto Ronchi) e poi il successivo Decreto Legislativo, questo più vicino a noi come fase temporale, il 152/2006 che ha introdotto nuovi obiettivi di raccolta differenziata per fasce temporali. Il 35% entro il 31/12/2006, almeno il 45% entro il 31/12/2008 e, infine, almeno il 65% entro il 31/12/2012. Entrambi i decreti prevedevano l’emanazione di un decreto ministeriale che avrebbe stabilito la metodologia e i criteri di calcolo da utilizzare per la valutazione della percentuale delle raccolte differenziate, ma come spesso succede nel nostro sistema normativo, ad oggi il decreto ministeriale annunciato ormai da 15 anni non è stato pubblicato. A livello nazionale, Ispra ha adottato da anni un proprio metodo di calcolo che utilizza in modo uniforme sull’intero territorio nazionale al fine di rendere confrontabili i dati afferenti ai diversi contesti territoriali. Tale metodo può risultare diverso dalle procedure applicate a livello regionale, perché ogni regione ha un suo metodo, infatti molte regioni, in assenza dell’emanazione del decreto ministeriale che avrebbe dovuto definire i criteri di calcolo della percentuale di raccolta differenziata, hanno autonomamente proceduto alla definizione di proprie metodologie. Ora vediamo invece quello che succede nella Regione Toscana. La Regione Toscana, per prima in Italia, si dotò nel 1998 di un proprio metodo standard per il calcolo dell’efficienza della raccolta differenziata per colmare la lacuna normativa a livello nazionale. Da allora anche altre regioni, successivamente, hanno adottato propri metodi di calcolo. In Toscana la certificazione delle raccolte differenziate è effettuata da ARRR, mentre nelle altre Regioni principalmente questo lavoro è svolto dalle ARPA o, in alternativa, però in misura minore dalle Regioni. La Dr.ssa Corsini presenterà il metodo di calcolo della % di raccolta differenziata adottato in Regione Toscana e alcuni dati di produzione dei rifiuti urbani e della raccolta differenziata relativa all’anno 2011 e un confronto con i dati del 2010. Arezzo 20 - 23 novembre 2012 215 22 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute Tecnologie per la gestione del ciclo dei rifiuti Lucia Corsini ARRR Agenzia Regionale Recupero Risorse La formula per il calcolo dell’efficienza della raccolta differenziata in Toscana (vedi metodo standard regionale di certificazione delle RD) ha al numeratore la somma dei quantitativi dei rifiuti raccolti in forma differenziata e al denominatore il quantitativo dei rifiuti urbani totali al netto del quantitativo di metalli selezionati dai rifiuti urbani indifferenziati in impianti di selezione meccanica, a cui viene sottratta una percentuale attribuita convenzionalmente allo spazzamento stradale: tale percentuale è fissata al 6% per i Comuni con popolazione minore a 40.000 abitanti e all’8% per i Comuni con popolazione superiore a 40.000 abitanti. Alla percentuale calcolata con questa formula si aggiungono, se dovuti, un incentivo per il compostaggio domestico e un incentivo per il servizio di raccolta di rifiuti inerti da costruzione e demolizione di provenienza domestica. L’incentivo per la pratica del compostaggio domestico varia dallo 0,4 al 3% in funzione della percentuale di abitanti residenti nel comune che utilizzano questo metodo di riduzione alla fonte dei rifiuti. Per l’attribuzione dell’incentivo viene richiesto ogni anno un controllo su almeno il 25% dei composter distribuiti. L’incentivo per la gestione dei rifiuti inerti da costruzione e demolizione vale un 1% e viene riconosciuto a quei Comuni che effettuano un servizio di raccolta dei rifiuti inerti da costruzione e demolizione di provenienza domestica prodotti durante lavori effettuati in economia dal proprietario all’interno della propria abitazione. Alcuni dati relativi alla produzione di rifiuti urbani in Toscana nel 2011: La produzione dei rifiuti urbani totali nel 2011 in Regione era di circa 2,4 milioni di tonnellate, di questi 930.000 tonnellate circa sono rappresentate dalle raccolte differenziate. La percentuale di raccolta differenziata calcolata secondo il metodo standard toscano, a livello regionale, è stata del 42,2%. Nel 2011 la produzione pro capite di rifiuto urbano totale è stata di 630 kg/abitante*; delle raccolte differenziate circa 247 kg/abitante. Rispetto al 2010 la percentuale di raccolta differenziata è aumentata di oltre 2 punti percentuali, mentre il quantitativo della raccolta differenziata in termini di tonnellate è rimasto pressoché stabile, anzi ha subito una lieve flessione di circa 6.000 tonnellate. Il quantitativo dei rifiuti urbani indifferenziati invece ha subito una forte diminuzione dell’ordine dell’8,6%. Il rifiuto urbano totale, per la diminuzione dell’indifferenziato, ha subito una riduzione del 5,6%. La produzione pro capite del rifiuto urbano totale è passata dai 670 ai 630* kg/abitante ritornando ai valori del 2000. Descrizione di un grafico in cui è rappresentata l’evoluzione dal 1998 al 2011 della produzione pro capite di rifiuti da raccolta differenziata (in verde), della produzione pro capite dei rifiuti urbani indifferenziati (in grigio), della produzione dei rifiuti urbani totali (in azzurro) e della percentuale di raccolta differenziata (in rosso). Si possono distinguere tre fasi principali: una prima fase, che arriva fino al 2004, in cui le raccolte differenziate sono progressivamente aumentate accompagnate ad una crescita altrettanto evidente del rifiuto urbano totale, mentre il rifiuto urbano indifferenziato è rimasto pressoché costante o comunque ha subito delle minime oscillazioni; una seconda fase di stasi dal 2004 al 2007, in cui la percentuale della raccolta differenziata è rimasta pressoché costante intorno al 33%; infine una terza fase, dopo il 2007, in cui c’è stata una ripresa della raccolta differenziata, soprattutto un inizio di diminuzione nella produzione di rifiuto urbano indifferenziato che è la causa determinante della flessione anche nel rifiuto urbano totale. Dal 2006 al 2011 si è passati da 703 kg/abitante, che è stato il picco massimo raggiunto in Regione ed è stato anche un primato a livello nazionale, ai 630* kg/abitante nel 2011. Risultati di raccolta differenziata a livello di ATO e a livello di Comuni: nel 2011, dei tre ATO regionali solo l’ATO Toscana Centro ha superato l’obiettivo di RD del 45% attestandosi al 47,42%. Gli altri due ATO hanno avuto delle performance lievemente inferiori: per l’ATO Toscana Costa la percentuale di raccolta differenziata è stata pari al 42,4%, per l’ATO Toscana Sud è stata pari al 38,11%. Per quanto riguarda i Comuni, a livello regionale, 95 Comuni hanno superato l’obiettivo di raccolta differenziata del 45%, tra questi 21 hanno superato anche l’obiettivo del 65% fissato dalla norma nazionale per il 2012; gli altri 192 comuni nel 2011erano fermi a valori di raccolta differenziata inferiore al 45%. Che cosa viene raccolto in forma differenziata? (descrizione di un istogramma e di un diagramma a torta in cui sono rappresentate le diverse frazioni di rifiuti da raccolta differenziata). Il materiale maggiormente intercettato con le raccolte differenziate è rappresentato da carta e cartone. Quasi 300.000 tonnellate nel 2011, corrispondenti al 32% della raccolta differenziata regionale totale. Al secondo posto troviamo l’organico con 228.000 tonnellate, il verde con 107.000 tonnellate e così via gli altri materiali. Modalità di raccolta (tabella sulla diffusione delle diverse modalità di raccolta diffuse sul territorio regionale; dati relativi al 2010): la modalità di raccolta dominante era ancora una raccolta di tipo stradale seppure ci sono anche una quantità di comuni piuttosto importante che hanno affiancato a una raccolta di tipo stradale una raccolta di tipo porta a porta per la maggior parte delle raccolte differenziate. Per la raccolta differenziata dell’organico è 216 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 22 Novembre disponibile un aggiornamento con i dati relativi al 2011: la raccolta differenziata di questa frazione è stata estesa a 5 comuni in più rispetto al 2010 (191 comuni su 287); i casi di raccolta stradale sono diminuiti di circa 20 unità; la raccolta porta a porta è effettuata in 40 comuni, mentre i sistemi misti (porta a porta+stradale) sono passati da 52 del 2010 ai 75 del 2011. Rispetto alla situazione descritta per il 2010, nei prossimi anni assisteremo nella nostra regione alla diffusione delle raccolte domiciliari e alla diminuzione della raccolta dei rifiuti di imballaggio con modalità multimateriale pesante VPL (vetro-plastica-lattine) che sarà sostituita progressivamente dalla raccolta monomateriale del vetro accompagnata da una raccolta con modalità multimateriale leggero, cioè plastica + lattine. In proposito la Regione Toscana, all’inizio del 2011, ha stipulato un accordo con Revet, Revet Vetri, CoReVe, Conai, Cispel e ANCI per arrivare al 2015 a raccogliere il 70% del vetro con modalità monomateriale. *il dato pro capite a consuntivo relativo alla produzione di rifiuti urbani totali in Toscana, a seguito della pubblicazione del dato definitivo da parte dell’Istat della popolazione residente al 31/12/2011 tenuto conto anche dei risultati dell’ultimo censimento, risulta pari a 647 kg/abitante. Arezzo 20 - 23 novembre 2012 217 22 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute Tecnologie per la gestione del ciclo dei rifiuti "Il recupero della frazione organica in Italia" David Newman Direttore Generale CIC Consorzio Italiano Compostatori Io sono David Newman, Direttore del Consorzio Italiano Compostatori. Siamo una piccola struttura, 120 aziende in tutta Italia che gestiscono circa 200 impianti di compostaggio e rappresentiamo questo mondo di rifiuti organici. I rifiuti organici hanno un ruolo strategico per una serie di motivi. Prima di tutto, diciamolo chiaramente, è un business. I rifiuti pagano. E’ la chiusura però anche di un ciclo naturale, quello che viene dalla terra e che noi consumiamo torna alla terra in forma di fertilizzanti che mantiene la fertilità del suolo ed è un modo anche per sequestrare nel suolo il carbonio che tiriamo fuori quando coltiviamo. E’ importante fare questo lavoro perché 3/4 del suolo dell’area mediterranea ha un basso contenuto di sostanza organica, ciò significa che va verso la desertificazione quindi serve la sostanza organica. Una volta c’era il letame che gli agricoltori rimettevano sul suolo, oggi c’è il compost che viene dai centri urbani ed abbiamo molti rifiuti organici. Oggi in Italia quasi il 40% di tutte le raccolte differenziate sono rifiuto organico. Infatti sono curioso di sapere quanti di voi in questa sala fate la raccolta differenziata dell’umido a casa? Bene, è un buon numero infatti va a consolidare un dato che farò vedere. Abbiamo delle Regioni in Italia dove, pro capite, si raccolgono oltre 120kg annuo di rifiuto organico (Veneto, Emilia-Romagna, la Sardegna che stranamente è una delle Regioni più avanzate che nessuno avrebbe mai detto). E’ una pratica anche molto diffusa tra voi, sono molto contento di questo. Sono 30 milioni di cittadini italiani oggi che fanno la raccolta della frazione organica e, come vedete dalle zone gialle o chiare, sono i soliti sospetti che non la fanno, perché le Regioni del Sud sono indietro non soltanto per i rifiuti ma anche per tanti altri indicatori di sostenibilità e di buona economia. Con le raccolte è cresciuto il numero di impianti, siamo oggi a circa 270 impianti in giro per l’Italia. Molti di questi impianti sono piccole piattaforme, ma altri sono delle vere strutture industriali. Cresce anche il numero di impianti che trattano, prima del compostaggio, il rifiuto organico per produrre metano, quello che chiamiamo biogas. E’ una realtà piccola, però sono impianti molto grossi, molto costosi. Siamo a 23 impianti nel 2010 operanti ed un’altra decina di impianti in costruzione. Ecco vediamo un po’ il percorso. Voi che siete tutti molto virtuosi, bravi cittadini che fate la raccolta dell’organico, lo sapete anche voi che a casa si differenzia, si conferisce questo rifiuto ad un circuito di raccolta, viene trasportato ad un impianto di compostaggio e di gestione anaerobica dove viene trattato. Secondo dove abitate, quale tipo di struttura, di edificio, la villetta o un condominio o appartamento, voi riconoscerete sicuramente questo tipo di raccolta con il sacchetto compostabile, mi raccomando, non la plastica perché poi dopo la troviamo all’impianto. Quindi dalla cucina al sistema di raccolta differenziata. Ci sono diverse situazioni anche urbane, condominiali, cassonetti tradizionali dedicati all’organico o quelli più piccoli che trovate nel cortile del condominio. Più domiciliarizzata è la raccolta, più pulito è il materiale perché se andiamo a vedere questo grafico qui che magari vi dice molto poco, ma noi facciamo le analisi merceologiche, vuol dire che alla testa dell’impianto andiamo ad analizzare quello che arriva. L’82% delle nostre analisi indicano che arriva materiale organico con meno di 5% di impurità, addirittura il 35% delle analisi dicono che arriva con il 2,5% di impurità quindi veramente delle situazioni di eccellenza nella raccolta. Questo è dovuto all’attenzione dei cittadini certamente, ma anche alla domiciliarizzazione, al porta a porta di cui avevamo parlato prima. Purtroppo la Toscana, devo dire, è sulla destra di questo grafico perché la raccolta differenziata in Toscana è sempre, come diceva prima il collega, ancora molto dipendente su cassonetto stradale. Cassonetto stradale = Rifiuti non conformi, non compostabili. Trattiamo questi rifiuti essenzialmente in due sistemi. Un sistema estensivo che tratta soprattutto i rifiuti più a biomasse a bassa degradabilità, quindi gli sfalci, le potature, rifiuti prettamente verdi che hanno un tempo di processo che può durare addirittura fino ad un anno perché ci mette molto tempo questa roba a degradarsi. Sono sistemi però a bassa intensività energetica e anche a basso livello di investimento, perché, come vedremo da una fotografia, non si tratta di alta tecnologia, non è altro che un’industrializzazione della concimaia o della letamaia che i nostri nonni avevano nel cortile del podere. Questo produce però il terriccio più pregiato, perché è il terriccio più puro e quello più ricercato sul mercato. Si lavora in questo modo: si caricano le matrici all’ingresso, vengono triturati, i cumuli vengono allestiti in altezze che vanno dai 2 ai 4 metri, vengono poi rivoltati periodicamente per assicurare che ci sia l’ossigeno e che le matrici siano omogenee, infine una volta che si è degradato, che è diventato humus, viene vagliato per togliere le pezzature più grosse e anche qualche impurità. E’ un processo del tutto naturale, non bruciamo niente, non aggiungiamo niente. E’ una industrializzazione di un processo totalmente naturale. Questa è una foto aerea di un impianto di compostaggio che fa solo verde, tratta 40.000 t/anno. Ecco, Dr.ssa Passerini, quest’impianto è destinato a chiudere se passa quella normativa di cui parlavamo prima e questi li salutiamo e diciamo “Peccato! Avete investito per niente”. 218 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 22 Novembre L’umido viene invece trattato con un sistema intensivo, quindi un sistema con alti costi di investimento perché tutto al chiuso in quanto le frazioni umide hanno bisogno di un trattamento molto veloce con aria forzata. Sono putriscenti quindi puzzano, sono quelli che creano cattivo odore anche quando vanno in discarica e quindi lì c’è un consumo energetico relativamente alto e una necessità anche di un certo spazio per movimentare il materiale. Viene però lavorato molto velocemente perché in tre mesi riusciamo a comporre questi rifiuti e fare il terriccio. Il processo è più o meno identico a quello che abbiamo visto prima, solo che c’è un po’ più di vagliatura perché ci sono più impurità, questo viene dalle vostre case, quindi un po’ di plastica la troviamo. C’è più tempo di maturazione intensiva dove c’è l’insufflazione dell’aria per asciugare questa massa. Il rifiuto umido è 80% acqua, quindi è difficile trattarlo e ci vuole un processo tecnologico abbastanza complesso. Il compost finito esce fuori, come vediamo in questa slide, pronto per essere venduto. Questi impianti hanno dei presidi ambientali, anche molto costosi, di biofiltri per trattare quelle arie esauste che vengono dall’impianto in modo che non diano fastidio al vicinato. E poi c’è il terzo sistema che combina l’estrazione del metano biogas con l’estrazione o con il trattamento di materia. Questi sono impianti di alto costo industriale, cioè più del doppio di un impianto estensivo di compostaggio, e trattano però tutte quelle frazioni che sono umide per tirar fuori il gas con dei risultati anche economici notevoli. Attraverso l’estrazione del biogas si migliora ovviamente il bilancio energetico dell’impianto perché l’impianto diventa un produttore di energia. Si risolve anche il gran problema degli odori perché trattando l’umido all’interno dei container chiusi si controlla molto meglio. Il digestato è già un materiale che è più facile compostare perché abbiamo tolto già tanta acqua e si riduce anche lo spazio necessario. Si riduce l’emissione di CO2 , si sostituisce anche un fossil fuel con un gas del tutto naturale. E’ un sistema molto bello, ma ha una pecca. Dipende, per la sua economicità, dagli incentivi di energia rinnovabile e finché questi rimangono il sistema andrà avanti poi Dio solo sa se rimarranno. Questo processo è simile a quello che abbiamo visto prima con l’inserimento della fase di estrazione di biogas attraverso la digestione anaerobica. Questo è un impianto che fa compostaggio e digestione anaerobica. Uno dei più grossi impianti al mondo l’abbiamo qui in Italia, non dobbiamo andare in America per vederlo, basta prendere il treno e andare a Padova. Produce energia, produce compost, produce calore col quale riscaldano case e fabbriche lì intorno. Calore col quale, attraverso un convertitore, vendono aria fredda per i condizionatori durante l’estate. Senza bruciare niente si ha energia, calore e materia. Sembra un miracolo, ma così è! Eccolo il famoso compost. Il compost non è altro che un fertilizzante, classificato come un fertilizzante per legge. Ne facciamo 1.400.000 tonnellate quest’anno, tutti venduti più o meno da 1 euro in su, ma c’è chi vende per specifici usi come l’orticultura o il giardinaggio ha prezzi molto alti. Se voi andate al supermercato e comprate un sacco di terriccio, dentro quel terriccio sicuramente il 30-50% è compost e se calcolate lo pagate tra i 200 e i 300 euro a tonnellata. Più piccola è la confezione, più specializzato è il prodotto, più alto è il prezzo. La maggior parte del nostro compost viene però venduto agli agricoltori che, come vedete in questa foto a destra, lo mettono sui campi per ripristinare tutte quelle sostanze organiche che hanno tirato fuori con le coltivazioni. Si usa molto anche nel senese per la produzione del vostro ottimo Chianti dove il compost di Siena Ambiente viene venduto agli agricoltori. E’ un mondo molto interessante questo dei compost perché siamo uno dei pochi, forse l’unica filiera dei rifiuti che prende una cosa, per esempio la buccia della banana e la trasforma in qualcosa di completamente differente. Se prendo invece un cartone produco carta, se prendo l’alluminio produco altro alluminio, ma il compost viene da una fonte che non è identificabile, è un rifiuto organico. E’ la filiera di recupero, oggi in Italia, più grande. Sono qui a disposizione per domande. Grazie. Domanda: Qual è il vantaggio di abbinare il compostaggio al digestato, cioè non è possibile espandere direttamente il digestato dal digestore anaerobico? Per legge, se viene da fonti agricole è possibile andare direttamente in agricoltura, ma se il digestato viene dall’umido domestico non è 100% organico, come abbiamo visto c’è il 3, il 5 fino al 10% di materia compostabile dentro. Plastiche, pezzi di metallo, ma soprattutto plastiche. L’8% di quello che viene conferito da noi sono plastiche che dobbiamo togliere e portare in discarica. Se mettiamo quel digestato tale e quale sui campi, portiamo l’8% di plastica sui campi. Intervento Tullia Passerini (Ministero dell’Ambiente): La raccolta dell’organico rappresenta la prima frazione che raccogliamo in Italia, anche perché in termini percentuali della merceologica dei rifiuti rappresenta la più alta quota. Abbiamo una filiera che funziona molto bene perché è anche completata da un decreto che stabilisce le caratteristiche per i fertilizzanti e dobbiamo tutelarla per quello che è possibile. Inoltre come l’Italia, appartenendo all’Unione Europea, ha recepito gli obiettivi di riciclaggio e al 2020 dovremmo realizzare gli obiettivi di riciclaggio per rifiuti urbani e assimilati ad urbani pari al 50% di preparazione per il riutilizzo e per il riciclaggio. La Commissione Europea si è già pronunciata riconoscendo il compostaggio, sia domestico che non domestico, e il trattamento anaerobico come operazioni di riciclaggio, quindi anche in questi termini va incentivata e supportata perché ci aiuterà a raggiungere gli obiettivi di riciclaggio che per legge siamo tenuti a realizzare. Arezzo 20 - 23 novembre 2012 219 22 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute Tecnologie per la gestione del ciclo dei rifiuti "Analisi del ciclo di vita" Paolo Masoni ENEA In ENEA sono il responsabile del Laboratorio LCA ed Eco-design. Inoltre sono anche Presidente dell’Associazione Rete Italiana LCA che raggruppa tutti i principali studiosi che si occupano di questa metodologia e che è una risorsa disponibile per l’intero sistema Italia. Il mio laboratorio si occupa, da ormai più di 15 anni, di ricerca e sviluppo su metodologie di analisi di sostenibilità basate su approccio di ciclo di vita. Le applichiamo a molteplici settori. Il settore della gestione dei rifiuti è stato uno dei primo su cui, a seguito dell’approvazione del Decreto Ronchi alla fine degli anni novanta, facemmo subito una prima applicazione della metodologia LCA per valutarne gli effetti in un caso di un ATO della Regione EmiliaRomagna. Con questa mia presentazione non entro a descrivere che cos’è la metodologia LCA perché richiederebbe ovviamente un seminario ad hoc, quello che oggi voglio evidenziare è come questo strumento sia diventato ormai parte integrante della modalità europea di definizione delle politiche ambientali e come questo strumento fornisca risultati particolarmente utili per la definizione un sistema di gestione integrata dei rifiuti. Già il Decreto Ronchi prevedeva già l’applicazione della metodologia LCA. Il Decreto Ronchi è stato veramente all’avanguardia in ambito europeo, anche per quanto riguarda la previsione di questo strumento metodologico per valutare l’impatto ambientale del sistema di gestione dei rifiuti. Attualmente la strategia tematica della prevenzione e il riciclaggio dei rifiuti prevede appunto, oltre alla ben conosciuta piramide delle priorità, anche la possibilità di utilizzare l’LCA. Faccio un esempio tratto da una pubblicazione scientifica della stessa Commissione Europea, di ricercatori del “Joint Research Centre” che hanno sviluppato appunto una metodologia per la valutazione di quella che è la migliore opzione per il trattamento dei rifiuti organici. Ovviamente prima si considera quella che è la classica piramide - la prevenzione, ecc. - però poi dopo è prevista l’applicazione dell’approccio di ciclo di vita come metodologia per valutare, con basi quantitative e scientifiche, se e qual è la tecnologia migliore disponibile. Quest’altra slide, sempre tratta da questa pubblicazione, mette appunto in evidenza il primo passo, la prevenzione; al seguito della prevenzione si può effettuare una digestione anaerobica? Sì, allora è necessario usare l’LCA per stabilire quella che è la preferenza ambientale fra la digestione anaerobica, il compostaggio, l’incenerimento. Tutto ciiò ovviamente se sono tecnologie disponibili in quella specifica situazione; e così via di seguito fino a lasciare come ultima opzione il trattamento biologico e la stabilizzazione della frazione organica e poi mandarla alla discarica. L’ LCA consente di considerare tutti gli impatti ambientali e sulla salute umana in forma quantitativa derivanti da tutti i consumi di risorse e le emissioni associate all’intero sistema tecnologico che andiamo ad analizzare. Nell’applicazione al sistema di gestione integrata dei rifiuti, questo consente di valutare in modo comparativo diversi scenari tenendo conto di tutte quelle che sono le interrelazioni che si hanno all’interno delle fasi della filiera, permette di valutare le diverse opzioni tecnologiche e quindi ottimizzare quelle sia le singole tecnologie sia il sistema gestionale e la raccolta dell’intero sistema. Faccio vedere un esempio tratto da una nostra pubblicazione scientifica. Questo era il sistema da analizzare, un sistema di gestione dei rifiuti solidi urbani con le diverse frazioni merceologiche raccolte sia in modo separato sia in modo indifferenziato. Le tecnologie sia previste comprendevano l’incenerimento, il compostaggio, la selezione meccanica, la discarica e quant’altro. Questo sistema è stato strutturato per fare uno studio di LCA in quelli che sono i cosiddetti upstream processes, cioè i processi che stanno a monte del sistema che è oggetto di analisi, che riguarda tutto quello che è la raccolta, il trasporto e le diverse tecnologie di trattamento dei rifiuti; poi quelli che sono i processi invece ‘a valle’ e quindi quella che può essere la produzione di biogas, la produzione di fertilizzanti organici attraverso il compostaggio e così via di seguito; infine, quelli che sono i prodotti che si possono ottenere in termini di elettricità, fertilizzanti e altre materie riciclate. Ovviamente questi prodotti vanno a compensare quelli che sarebbero altri prodotti che dovrebbero essere realizzati in mancanza del riciclaggio o del recupero, quindi abbiamo che l’elettricità prodotta da un inceneritore con recupero energetico va ad evitare la necessità di produrre elettricità con un sistema tradizionale; il materiale che viene riciclato va a sostituire un materiale vergine; un compost va a sostituire un fertilizzante. Questi processi sostituiti, ovviamente, rendono possibile considerare il fatto che una corretta gestione dei rifiuti può consentire di evitare degli impatti ambientali, proprio perché attraverso il recupero della materia e dell’energia si può evitare di produrre dell’inquinamento associato alla produzione di materie vergini o di energia. Ecco un esempio, sempre tratto da questa nostra pubblicazione, in cui si vede come in caso di emissione di gas serra - se guardate le colonne a destra che riguardano l’intera area sottoposta ad esame che era poi suddivisa in 5 sottoaree caratterizzate da diversi sistemi di raccolta - si vede come si possono analizzare tre diversi scenari. 220 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 22 Novembre Uno scenario tendenziale, uno scenario che prevedeva un nuovo inceneritore nell’area 2 ed un terzo scenario che prevedeva un nuovo inceneritore in area 5. Si vede come, comunque, tutti gli scenari consentano di avere una riduzione di emissione di gas serra. Questo a prima vista può sembrare strano, ma se pensate a quello che vi ho appena detto, il fatto di avere un recupero energetico e un recupero materiali consente di evitare quelli che sono gli impatti associati alla produzione di altrettanta quantità di energia, altrettanta quantità di materiali vergini e quindi di impedire l’emissione di gas serra. Ovviamente questo si basa sull’assunzione che il rifiuto quando arriva al sistema di gestione si considera senza impatto, in quanto, tutto quello che era il suo impatto, le emissioni di gas serra in questo caso, relative alla produzione del prodotto che poi è diventato rifiuto sono già attribuite al prodotto stesso e non quindi al rifiuto. Ci sono anche degli impatti effettivi derivanti dal sistema di gestione integrata dei rifiuti, relativi alle emissioni dei diversi impianti, nonostante ci siano dei recuperi di materiale e dei recuperi di energia. Ad esempio, nel caso dell’eutrofizzazione si ha un impatto ambientale legato al fatto che comunque andiamo a inserire nell’ambiente un eccesso di sostanze nutrienti che possono provocare nei corpi idrici il fenomeno dell’eutrofizzazione. L’LCA è uno strumento che può essere considerato una sorta di microscopio per analizzare il nostro sistema. Riusciamo a guardare fino all’estremo dettaglio anche in un sistema estremamente complesso come quello della gestione integrata dei rifiuti, individuando quelli che sono gli effetti e le conseguenze ambientali delle diverse tecnologie e step del nostro sistema. Qui, ad esempio, ho mostrato gli impatti relativi al cambiamento climatico, le emissioni di gas serra complessivi espressi in grammi di CO2 equivalente relativi allo scenario tendenziale e relativi alla sola raccolta differenziata per le diverse frazioni raccolte separatamente. Per le diverse frazioni abbiamo anche la possibilità di vedere quanto incide la logistica, quindi il cassonetto, la raccolta, ecc., e quanto incide invece il fatto di recuperare la materia prima stessa. Abbiamo quindi un impatto positivo per quanto riguarda, ad esempio, la logistica della raccolta della carta, invece un impatto evitato legato al fatto che recuperando questa carta poi evito di dover fare ulteriore carta da fibra vergine. Questo può essere ulteriormente dettagliato andando fino a capire quelli che sono i singoli flussi, le singole emissioni legate alle singole tecnologie che provocano questi impatti. Una piccola parentesi sulla questione del riciclaggio. Il primo relatore, Moretti, ha posto subito l’attenzione sul fatti che si parla tanto di raccolta differenziata, però in realtà quello che conta, quando andiamo a valutarne effettivamente gli impatti ambientali di sistema di gestione dei rifiuti, non è la raccolta differenziata, ma il recupero ed il riciclaggio. E fra raccolta e recupero e riciclaggio c’è una grandissima differenza come voi tutti, che siete addetti ai lavori, sapete benissimo. Tra l’altro la nostra esperienza, quando andiamo a fare questo tipo di studi, è che nel momento in cui ci allontaniamo dalla raccolta differenziata e andiamo a cercare di seguire il flusso dei materiali, le difficoltà per raccogliere dati sicuri diventano piuttosto notevoli. Un altro elemento estremamente importante è che è inutile parlare di raccolta differenziata se poi non esiste un mercato per i materiali così raccolti. Spesso questo viene un po’ trascurato. Mi è capitato, anche parlando con dei decisori pubblici ad alto livello, di notare come venisse trascurato un elemento che invece è fondamentale. Ovviamente è fondamentale che esista una tecnologia in grado di raccogliere quella specifica filiera materiale, ma è altrettanto importante che esista un mercato per quel materiale così raccolto. Se non c’è mercato, inevitabilmente il materiale raccolto in modo differenziato primo o poi va a finire all’inceneritore o in discarica. I sistemi sono un po’ più complessi di come spesso ce li rappresentiamo. Ad esempio, nel caso della raccolta differenziata della plastica - faccio l’esempio della plastica ma questo si applica ovviamente a tutti i materiali - ci sono delle interazioni a livello di mercato che dovrebbero essere prese in conto. Se io aggiungo sul mercato della plastica derivante da plastica riciclata chiaramente posso avere una diminuzione del prezzo della plastica, nello stesso tempo ho una diminuzione della domanda di combustibili fossili per produrre plastica vergine. Questo quindi può comportare da un lato un aumento dell’utilizzo della plastica, dall’altro una diminuzione del prezzo dei combustibili fossili che a sua volta quindi possono comportare un effetto anche sul mercato dei prodotti competitivi a quelli della plastica e un incremento dell’uso dei combustibili fossili in altri settori. Tutto questo evidenzia che i meccanismi economici di mercato, insieme ad effetti di tipo comportamentale, possono creare dei fenomeni di rimbalzo, ossia dei fenomeni di retroazione che mutano lo scenario da analizzare. Se vogliamo quantificare effettivamente quello che è l’effetto ambientale derivante da una nostra scelta, ad esempio incrementare al massimo la raccolta differenziale della plastica, dobbiamo non solo valutare gli aspetti ambientali ma considerare tutti gli aspetti di mercato. Non solo microeconomici, perché poi intervengono anche quelli macroeconomici, fino ad arrivare poi anche ai meccanismi politico-culturali e istituzionali. Le cose hanno quindi un elevato grado di complessità, in particolare quando occorre analizzare sistemi a scala rilevante. Per andare a concludere la mia presentazione, quello che voglio sottolineare adesso sono una serie di vantaggi e di svantaggi relativi all’applicazione della LCA, in particolar modo focalizzandoci sui sistemi di gestione integrata dei rifiuti. I vantaggi sono che consente di gestire in forma strutturata una mole molto rilevante di dati quantitativi. Da questo può derivare il fatto che l’LCA può costituire il quadro razionale entro cui riportare la discussione relativa a temi Arezzo 20 - 23 novembre 2012 221 22 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute conflittuali. Veniamo dalla settimana scorsa da un referendum in una regione italiana proprio sul tema di una tecnologia di trattamento dei rifiuti dove spesso questo tipo di discussioni avvengono non su basi compiutamente scientifiche e razionali, ma a volte hanno anche basi più emotive. L’LCA può consentire in qualche modo anche di costruire un percorso di partecipazione che può consentire di riportare su binari più razionali la discussione. Come dicevo, l’approccio all’LCA può consentire e forse dovrebbe anche valutare tutti quelli che sono gli effetti di mercato a cui ho accennato con l’esempio della plastica. Lo stesso approccio metodologico, di cui ho accennato con la mia presentazione, per gli aspetti ambientali, cioè l’LCA, può essere applicato anche per valutazioni di tipo economico e sociali e quindi permettere una valutazione dell’intera sostenibilità del nostro sistema. Il tutto attraverso anche un percorso di trasparenza, quindi questo è un grosso vantaggio. Gli svantaggi. Uno degli svantaggi è la complessità dello strumento, come tutti sappiamo il diavolo spesso si nasconde nei dettagli e quando si tratta di analizzare quantità notevolissime di numeri bisogna stare attenti ai numeri che ci sono negli aspetti più di dettaglio. Per questo è necessario che chi fa questi studi abbia delle competenze specialistiche. Da questo punto di vista l’Associazione Rete Italiana LCA cerca appunto di promuovere un incremento della qualità degli studi di LCA in generale in Italia. Non nego che ad esempio, con questo ho discusso molto ad esempio con Centemero del Consorzio Italiano Compostatori, le difficoltà che ha l’LCA di valutare compiutamente tutti gli aspetti innegabilmente positivi che il compost ha rispetto all’incremento e il mantenimento della qualità del suolo. Attualmente l’LCA ha dei limiti da questo punto di vista, anche se ci sono in campo ricerche proprio per cercare di superarli. Non può essere ovviamente l’unico sistema per prendere delle decisioni, però è senz’altro uno strumento in grado di supportare le decisioni. L’applicazione poi a livello di politiche nazionali, quindi a livello complessivo di settore, richiede ulteriori ricerche e sviluppo su cui stiamo lavorando. Un ulteriore svantaggio di questa metodologia è che permette la trasparenza. Non nego che in questo ambito la trasparenza spesso non viene vista come un vantaggio, ma come uno svantaggio. L’LCA supporta con evidenze scientifiche verificabili le scelte, permette di confrontare e ottimizzare i sistemi, aiuta nei percorsi partecipativi ad organizzare, gestire e discutere una mole rilevante di dati come avviene già in moltissimi paesi, in particolar modo dell’Europa Centrale e nordica, aiuta perciò a mantenere la discussione sui temi controversi su un ambito razionale, cioè ci si mette d’accordo sulle regole del gioco. Applichiamo un metodo scientifico, sì, bene, poi dopo litighiamo se mettiamo il numerino 27 o 32, però litighiamo su delle cose concrete, scientifiche e quantificabili e non su ideologie. Aiuta a garantire la massima trasparenza delle scelte. Se questo politicamente viene ricercato chiaramente allora l’LCA diventa uno strumento indispensabile; se invece si cerca l’opacità allora l’LCA non va utilizzata. 222 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 22 Novembre Tecnologie per la gestione del ciclo dei rifiuti "Esperienza di un sistema “misto” di RD stradale, porta a porta e stazioni ecologiche: risultati, qualità e costi" Fabio Lapisti Dirigente Siena Ambiente Il tema di cui si tratta è molto delicato ,oggi si parla molto di efficienza, di obiettivi da raggiungere in percentuale di raccolta differenziata e noi stasera, contrariamente a quanto accade nei convegni, perché i numeri ovvero i costi del servizio rimangono talvolta nascosti, noi invece vogliamo dire anche qual’è il costo tecnico di Siena Ambiente nella realtà della provincia di Siena. Una realtà molto articolata e variegata dove abbiamo centri storici di pregio, periferie più o meno insediate ed anche case sparse dove si registrano 6/7 abitanti per km2. Una realtà senza dubbio interessante e insieme ai numeri vi diremo come questi vengono costruiti nella Provincia di Siena. Noi abbiamo avuto tante perplessità e ci siamo fatti anche tante domande e spesso non abbiamo trovato le risposte giuste, però abbiamo annotato alcune cose che noi riteniamo importanti. Prima di tutto c’è un cambio nella popolazione perché si hanno famiglie sempre meno numerose, abbiamo appartamenti sempre più piccoli e addirittura molti monolocali, dove è difficile tenere, soprattutto nei centri storici, bidoni, secchielli, mastelli, sacchi, ecc. Poi lo vedrete negli slides che vi presenta la collega Angelini che parlerà dopo di me, il lavoro che abbiamo preparato in questi giorni proprio in occasione del Convegno, che ci ha indotto in questi anni a fare diverse considerazioni. Le considerazioni che abbiamo fatto e che riteniamo siano importantissime per un sistema di raccolta integrata dei rifiuti sono essenzialmente due o tre. La prima è il sistema impiantistico perché senza un sistema impiantistico e tecnologie disponibili e adeguate ovviamente il tutto si rimanda in altre zone, altri territori anche distanti, altri impianti con sovraccosti non indifferenti. La seconda questione è la conoscenza del territorio che è una cosa di importanza fondamentale. La conoscenza del territorio significa conoscere le abitudini dei cittadini, i flussi dei rifiuti e soprattutto capire se ci sono flussi di rifiuti che eventualmente possono incidere in maniera pesante sul servizio e se in quel territorio ci sono anche soggetti terzi che fanno una raccolta, ad esempio, degli assimilati. Conoscenza quindi approfondita anche del comportamento degli utenti. E per ultimo, altra considerazione che non è ultima, anzi in questo momento direi che è la prima, è la necessaria razionalizzazione dei costi, quindi l’economia del sistema che si intende attuare. Io credo che Siena e parlo ovviamente del sistema Consorzio dei Comuni (A.T.O.) e Siena Ambiente abbiano fatto grandi cose calibrando tutti questi aspetti, i quali hanno determinato buona qualità del servizio a costi sostenibili. Nella Provincia di Siena abbiamo un sistema di raccolta misto essenzialmente stradale con raggruppamenti di contenitori di tutte le tipologie ed un sistema domiciliare o porta a porta per quanto riguarda alcuni centri storici come ad esempio Siena. E qui riprendo il ragionamento che facevo prima. Per la città di Siena, come per San Gimignano, per Pienza, per Montepulciano, ecc., abbiamo trovato enormi difficoltà a consegnare mastelli, secchielli, bidoni che invece in altre realtà è stata la soluzione. Noi non ci siamo riusciti non per incapacità, ma perché nelle abitazioni dei centri storici citati non c’è spazio per questi contenitori. Inoltre non possiamo dimenticare che sono mutate le abitudini, la mattina ci si alza, si porta fuori il sacco e si va al lavoro e nella maggior parte dei casi si torna a casa la sera. I mastelli o i bidoncini dove rimangono? Nelle vie e piazze tutto il giorno? Chi li ripone all’interno delle abitazioni? Questi sono stati gli ulteriori problemi che abbiamo dovuto affrontare, così abbiamo deciso di consegnare il sacchetto alle utenze domestiche, mentre alle attività produttive e commerciali in genere il bidoncino carrellato. In periferia, salvo alcuni casi di intercettazioni consistenti di imballaggi abbiamo un sistema a cassonetti. Per chiudere, il nostro sistema provinciale prevede che su tutti e 36 Comuni siano attivi i Centri di Raccolta/Stazioni Ecologiche, 31 Comuni li hanno già funzionanti, gli altri hanno già i progetti approvati, qualche Comune ne ha addirittura due. Quindi possiamo dire che in provincia di Siena ci sono più di 36 centri di raccolta/ stazioni ecologiche che contribuiscono, secondo noi in maniera determinante, anche al raggiungimento di risultati interessanti che prima ARRR ha fatto vedere per l’intero bacino, ma la provincia di Siena, come efficienza di RD, è al 45% circa. Questo sistema, non vogliamo rivendicare che sia il migliore, però ci tengo a precisare che è strutturato in base alle necessità del territorio stesso. Arezzo 20 - 23 novembre 2012 223 22 Novembre Atti 1° Forum Internazionale Sviluppo Ambiente Salute Tecnologie per la gestione del ciclo dei rifiuti "Esperienza di un sistema “misto” di RD stradale, porta a porta e stazioni ecologiche: risultati, qualità e costi" Monia Angelini Responsabile Tecnico Siena Ambiente Io brevemente vi illustro quello che è il territorio senese. Abbiamo 286.000 abitanti circa, una superficie molto vasta di 3.821 km2 con una densità media di 74/75 abitanti per km2. Tenete conto che si arriva anche a territorio con 7 abitanti per km2 quindi la gestione del sistema con densità così basse è sicuramente diversa da quella dei centri urbani con alta densità. Sono 36 Comuni, abbiamo una produzione pro capite annua di 538 kg (dati 2011) per abitante equivalente e una produzione pro capite di rifiuto differenziato di 200 kg per abitante. Questo è il territorio: in arancio sono stati evidenziati i Comuni che ad oggi hanno una raccolta a carattere misto, quindi cassonetti stradali fuori da nuclei abitati e porta a porta nei centri storici o nuclei abitati; gli altri, in grigio, hanno una prevalenza sostanzialmente di stradale ad esclusione degli imballaggi in cartone alle grandi utenze. In sostanza il servizio stradale ricopre l’83% degli abitanti equivalenti; il 17% è invece coperto dal servizio porta a porta di vario tipo. Con questo sistema abbiamo raggiunto negli anni, vedete questa è una curva di efficienza di RD negli anni che parte dal 1998 ed arriva al 2011, dati certificati ARRR, con un piccolo decremento nel 2009, ma che comunque è sempre in crescita, raggiungendo il 46,46% nel 2011. Ora passo direttamente a descrivervi brevemente quello che è il servizio. Il servizio di raccolta stradale, a cassonetti, noi cerchiamo per quanto è possibile nelle realtà di mettere i contenitori di tutte le frazioni - carta, indifferenziato, organico e multimateriale - per poter consentire ai cittadini di conferire il rifiuto in un’unica volta ovviamente perché altrimenti si rischia che il cittadino porti il rifiuto e butti tutto nell’indifferenziato se non c’è la presenza dei contenitori. Mediamente abbiamo una frequenza di svuotamento dell’indifferenziato di 4 volte/ settimana, con un minimo di 2 ed un massimo di 6 volte/settimana; della carta 2 volte/settimana; organico che va da 2 a 3 volte/settimana quindi una media di 2,2; VPL (vetro-plastica-lattine) 1 volta/settimana che aumenta nel periodo estivo e diminuisce nel periodo invernale, quindi nel periodo estivo in alcune zone sale a 2 volte/settimana mentre l’inverno anche ogni 15 giorni. Queste sono delle immagini dei nostri operatori. Noi per raccolta stradale abbiamo intendiamo sia il carico laterale che il carico posteriore, questo ci tengo a precisarlo in quanto per i costi è diverso individuare un costo a tonnellata per mono-operatore che non per posteriore. Noi abbiamo unito il dato in quanto l’80% dei nostri servizi stradali si svolgono col laterale, quindi non ci sembrava significativo evidenziare la differenza tra i due sistemi. La raccolta del VPL è effettuata esternamente quindi per il servizio stradale non abbiamo potuto quantificare i costi effettivi e pertanto vi daremo i costi interni, quelli di Siena Ambiente. Questo è un sunto di quelli che sono i risultati del servizio stradale. Abbiamo 24 Comuni serviti esclusivamente da contenitori stradali, la RD varia da un minimo di 14,3% perché è un Comune molto piccolo che è Castiglione d’Orcia a un massimo del 50,93% che è Buonconvento. Ovviamente la territorialità incide pesantemente sia sull’efficienza sia sui costi. Non si tratta di una regola, ma tendenzialmente abbassandosi la densità abitativa si abbassa anche l’efficienza della RD e salgono inevitabilmente i costi. Come potete vedere infatti nella parte superiore abbiamo Monteroni d’Arbia con 85 abitanti/km2, Buonconvento con 50 abitanti/km2 dove l’efficienza con un servizio esclusivamente stradale è comunque a livelli alti perché 49% con il solo stradale è un dato significativo. Questi sono costi diretti compreso ammortamento e remunerazione del capitale, escluso il coordinamento e i costi generali. Il servizio comprende appunto carico posteriore e carico laterale. Per l’indifferenziato raggiungiamo un costo a tonnellata medio - medio perché anche qui di nuovo la territorialità incide quindi avremo dei picchi e dei minimi - di € 54,72/ton; della carta € 119,11; organico €61,21; VPL, come già detto, è esternalizzato e quindi non abbiamo il dato. E’ facile capire la differenza tra l’indifferenziato e l’organico. In un rifiuto indifferenziato riusciamo, avendo gli impianti molto vicini nelle zone intensive, a fare doppio carico quindi portiamo con ogni viaggio non 10 ton di media ma 12-13 ton, anche 15 o 16 ton per volta, evidentemente questo abbassa i costi effettivi. Per la carta purtroppo noi abbiamo il sistema a cassonetti, comodo per il cittadino però allo stesso tempo il cassonetto risulta saturo con dei quantitativi molto bassi pertanto il costo a tonnellata sale. Importante è anche vedere i costi per il trattamento/smaltimento. Per l’indifferenziato i nostri impianti hanno dei costi a valle dei ricavi di €120/ton, € 10 per la carta, € 112 per l’organico ed € 10 per il VPL, detratti ovviamente i contributi. Molto diverse sono invece le esperienze porta a porta. Abbiamo voluto portare due casi particolari: uno è Siena centro e l’altro è Chiusi capoluogo. Differiscono molto tra di loro. Siena ha un esperienza di domiciliare esistente, arriva dal passato, da sempre i cittadini sono abituati a mettere fuori dal portone il proprio sacco, che prima era uno e adesso sono diventati ovviamente quattro. Ciò è stato fatto in modo graduale. Prima è stato introdotto VPL 224 Arezzo 20 - 23 novembre 2012 Atti 1° Forum Internazionale Sviluppo Ambiente Salute 22 Novembre e carta per le grandi utenze e poi per le utenze domestiche e adesso anche l’organico. Il cittadino quindi era già abituato, si è dovuto solo abituare alla riduzione della frequenza dell’indifferenziato nel momento in cui abbiamo attivato l’organico. Esperienza particolare in quanto Siena ha un urbanizzazione da centro storico medievale, quindi stradine strette, i mezzi con cui riusciamo a caricare i rifiuti sono molto piccoli, portata bassa per cui anche l’efficienza ne risente. L’esperienza di Chiusi è di nuova attivazione (febbraio 2011), prima era 100% stradale. Il territorio si trova al confine di Regione ed i Comuni limitrofi facevano già raccolta porta a porta, quindi ci trovavamo ad avere una migrazione di rifiuti. I cittadini che venivano dai Comuni adiacenti al lavoro portavano i rifiuti e questo l’abbiamo visto anche dai dati, dal momento in cui abbiamo attivato la RD nel capoluogo questo è venuto meno. Su Chiusi abbiamo 8.800 abitanti e ne serviamo 6.700 con il porta a porta, quindi le frazioni sono rimaste fuori mentre le aree industriali sono dentro al porta a porta. La presenza di un urbanizzazione con non particolari esigenze ci permette di avere la possibilità di utilizzare mezzi a carico posteriori (11/15 ton) e portare via quindi una quantità di rifiuto maggiore rispetto a quella che ci consente Siena. Questo è l’esempio di Siena. Un ulteriore particolarità di Siena sono le frequenze perché la presenza turistica ci obbliga a dover effettuare, per le grandi utenze, delle frequenze molto alte, anche di 7 volte a settimana per l’indifferenziato, proprio per quello che diceva il collega, perché non ci sono gli spazi. Il commerciante, il ristoratore non ha lo spazio per stoccare il rifiuto e pertanto mettono fuori come sempre. L’esigenza dell’amministrazione è quella di passare praticamente tutti i giorni. I sacchi vengono depositat direttamente a terra tranne che per il multimateriale e per la carta che in alcuni casi abbiamo avuto la possibilità di consegnare dei bidoncini carrellati o dei mastelli. Per la carta e multimateriale alle utenze domestiche la frequenza si riduce, quindi abbiamo una frequenza diversa rispetto alle utenze non domestiche. La facciamo 2 volte a settimana con l’ausilio di cooperative sociali che raccolgono contemporaneamente i sacchi, giallo e verde, delle due frazioni per poi conferirle e separarle presso la stazione ecologica cui si appoggiano. Per gli imballaggi invece alle grandi utenze, abbiamo due diverse tipologie: gli imballaggi e la carta. Alle grandi utenze commerciali facciamo, sempre con il porta a porta, un servizio giornaliero di raccolta del cartone mentre agli uffici, alle scuole, alle università, alle banche, a