Pubblicato nel 2005 da: INCA Consorzio Interuniversitario Nazionale la Chimica per l’Ambiente www.unive.it/inca INCA Consorzio Interuniversitario Nazionale La Chimica per l’Ambiente Green Chemistry Series N. 9 Via delle Industrie, 21/8 – 30175 Marghera – Italy http//www.unive.it/inca Green Chemistry Series N. 9 ISBN: 88-88214-12-7 Ministero dell’Istruzione, dell’Università e della Ricerca Con il contributo del Ministero dell’Istruzione, dell’Università e della Ricerca - ex art. 4, Legge 6/2000 INTRODUZIONE ALLA CHIMICA VERDE (GREEN CHEMISTRY) Libro per le Scuole Secondarie di 2° Grado Immagine di copertina, “La Tavola Periodica”, di Francesco Tundo ISBN: 88-88214-12-7 Stampa: Poligrafica, Venezia Fotocomposizione: CompuService, Venezia Editore: Pietro Tundo Co-editori: Stefano Paganelli - Lara Clemenza Tutti i diritti sono riservati. La presente pubblicazione, tutta o in parte, non può essere riprodotta, trasmessa in nessuna forma e con nessun mezzo: elettronico, meccanico, sotto forma di fotocopia, registrazione o altro, senza l’autorizzazione per iscritto dell’editore. Consorzio Interuniversitario Nazionale “La Chimica per l’Ambiente” Via delle Industrie, 21/8 – 30175 Marghera – Venezia INDICE Prefazione Pietro Tundo pag. 7 pag. 11 Le microonde come fonte d’energia per processi chimici ecocompatibili Emilia Mariani, Alberto Bargagna, Carla Villa pag 23 Celle a combustibile: progressi tecnologici per la produzione di energia ad alta efficienza, trascurabile impatto ambientale ed elevato rendimento Claudio Bianchini, Paolo Bert pag 31 Tecnologie catalitiche per il controllo e la prevenzione dell’inquinamento atmosferico da sorgenti mobilii Paolo Fornasiero pag 47 Le radiazioni elettromagnetiche come fonti energetiche alternative al calore Antonio Corsaro pag 67 pag 83 Le basi morali della Chimica Verde Josef Balatedi R. Gaie ENERGIA SOLVENTI Alla ricerca di nuovi solventi a ridotta pericolosità: un approccio molecolare Andrea Pochini FOTOCHIMICA Energia pulita: Risorse rinnovabili e processi fotochimici Angelo Albini pag. 115 Fotocatalisi con semiconduttori: fondamenti e applicazioni di interesse ambientale Andrea Maldotti pag. 129 INDUSTRIA Smaltimento e/o riciclo dei materiali Francesco Paolo La Mantia pag. 143 Riduzione delle emissioni e dei rifiuti nella produzione di energia e nell’industria chimica Michele Aresta, Angela Dibenedetto pag. 157 La catalisi in ambiente bifasico acquoso: una moderna tecnologia verso processi industriali a minor impatto ambientale Carlo Botteghi, Mauro Marchetti, Stefano Paganelli pag. 173 Ciclo di vita di prodotti, processi e attività Attilio Citterio pag. 187 CAMBIAMENTI CLIMATICI Il cambiamento globale del clima, effetto serra e buco dell’ozono Fulvio Zecchini pag. 217 Elenco autori pag. 251 Prefazione Questo libro, rivolto alle scuole secondarie di 2° grado, vuole essere un contributo per rendere l’apprendimento della chimica più agevole attraverso la conoscenza delle ultime frontiere scientifiche di questa disciplina. Già l’anno scorso il Consorzio Interuniversitario Nazionale “La Chimica per l’Ambiente”INCA, al fine di diffondere la conoscenza scientifica su temi di grande rilevanza, aveva pubblicato e distribuito alle scuole di 2° grado l’opuscolo “Il cambiamento globale del clima”. Il successo di tale iniziativa ci ha spinti a scrivere, con analoghi intenti, il fascicolo “L’aria che respiriamo”, che sarà disponibile nei prossimi mesi. Tale produzione editoriale si inquadra nelle attività di alta formazione del Consorzio, che ha pubblicato in italiano ed inglese numerosi testi nelle sue “Green Chemistry Series” e “Soil Remediation Series”, disponibili sul sito www.unive.it/inca, e che trattano problemi attuali a livello internazionale, anche in collaborazione con la “International Union of Pure and Applied Chemistry”, IUPAC. Il Consorzio INCA, operando nel settore della ricerca scientifica e tecnologica e dell’alta formazione, ha l’obiettivo di promuovere il ruolo della chimica nella prevenzione dei problemi d’impatto ambientale. Esso fu fondato nel 1993 ed è costituito da circa 30 università italiane. Il Consorzio conduce attività di ricerca nei suoi laboratori nell’ambito dei principi della Chimica verde Green/Sustainable Chemistry, della decontaminazione dei suoli e dell’analisi avanzata. Nel 1912 Giacomo Ciamician, fondatore della fotochimica organica, Senatore del Regno d’Italia per meriti scientifici, scriveva (Science, 36 (1912) 385). “Su aride terre sorgeranno industrie senza inquinamento e senza ciminiere; foreste di tubi di vetro si estenderanno nelle pianure e palazzi di vetro sorgeranno dovunque; al loro interno avranno luogo quei processi fotochimici che finora sono stati un segreto geloso delle piante, ma che saranno controllati dall’industria umana che avrà imparato come renderli più produttivi della stessa natura. Infatti la natura non ha fretta, ma l’umanità sì”. Ciamician anticipa il rifiuto delle produzioni industriali ad elevato impatto ambientale e promuove l’utilizzo di risorse energetiche rinnovabili – quale quella solare – e la necessità di imitare i processi naturali durante le sintesi organiche. Questi concetti, che un secolo fa erano frutto della fervida immaginazione e della fantasia di scienziati precursori, sono stati fino a poco tempo fa denigrati dalla maggior parte della gente, ma ora sono pienamente riconosciuti validi. Per queste ragioni il nostro Ciamician può essere considerato il Pioniere di quella che oggi noi chiamiamo “Green Chemistry”: ora abbiamo i mezzi tecnologici per queste direttive che si potranno attuare attraverso la fervida immaginazione delle giovani generazioni. Il Consorzio Interuniversitario Nazionale “La Chimica per l’Ambiente” è ben lieto di favorire questa crescita cui il nostro Paese è chiamato. Prof. Pietro Tundo Presidente del Consorzio INCA 9 Le informazioni sull’attività di ricerca, i programmi, i corsi, i laboratori, le pubblicationi, le collaborazioni nazionali ed internazionali del Consorzio INCA, si possono consultare a: Home page: http://www.unive.it/inca Struttura: http://venus.unive.it/inca/inca/index.php Ricerca: http://venus.unive.it/inca/research/index.php Formazione: http://venus.unive.it/inca/education/index.php Summer School: http://venus.unive.it/inca/education/summer_school_on_green_chemistry/index.php Pubblicazioni: http://venus.unive.it/inca/publications/index.php IUPAC: http://www.iupac.org/divisions/III/303/index.html Università consorziate a INCA Modena e Reggio Emilia Napoli “Federico II” Palermo Parma Pavia Perugia Piemonte Orientale Pisa Roma Sassari Torino Trieste Urbino Venezia, Ca’ Foscari Verona Viterbo, La Tuscia Bari Bologna Cagliari Camerino Campobasso, Univ. del Molise Caserta, Seconda Univ. di Napoli Catania Cosenza, Univ. della Calabria Ferrara Firenze Genova L’Aquila Lecce Messina Milano Politecnico di Milano Laboratori del Consorzio: Marghera (http://www.unive.it/inca), Cengio, Cagliari, Lecce, Catania, Palermo e Napoli 10 da: GREEN CHEMISTRY IN AFRICA – INCA Green Chemistry Series n° 5 – P. Tundo e L. Mammino editors Copyright INCA July 2002 – ISBN 88 88214 07 0 – IUPAC progetto n. 2002-018-1-300 Traduzione: Liliana Mammino, Università di Wenda, Sud Africa LE BASI MORALI DELLA CHIMICA VERDE JOSEPH BALATEDI R. GAIE Per alcuni studiosi, non c’è nessuna relazione fra l’etica/morale e la scienza in generale o la chimica in particolare. In altre parole, uno scienziato o un chimico non si occupa, di routine e di necessità, di questioni morali nell’ambito del suo lavoro di chimico. Anzi, il chimico non dovrebbe fare considerazioni morali nell’ambito delle attività legate alla chimica. La filosofia dell’etica/morale e la chimica sono visti come campi diversi, distinti e indipendenti, dei quali ci si può occupare separatamente e indipendentemente l’uno dall’altro. […] Ci sono tuttavia dei principi morali generali che possono fornire una guida morale per tutte le azioni umane, e precisamente il criterio di perseguire tutto ciò che è a vantaggio degli interessi e dello stato di benessere[1] delle persone e di evitare l’opposto, ogni qualvolta possibile. La chimica esiste innanzitutto e soprattutto per il progresso dell’umanità e, quindi, la sostituzione di tecnologie e processi “più sporchi” con tecnologie e processi “più puliti, attraverso l’uso di materiali di partenza rinnovabili e meno tossici, l’uso di prodotti disponibili in natura per lo sviluppo di materiali pregevoli, l’uso di solventi alternativi (meno tossici), la progettazione di sostanze più sicure, la messa a punto di processi chimici che richiedano meno energia, il riciclaggio dei materiali e l’educazione alla Chimica Verde, sono tutte opzioni richieste dalla morale. […] LE QUESTIONI DI BASE DELL’ETICA Se si chiedesse che cosa è la chimica a quelli che studiano chimica, molto probabilmente spiegherebbero che cosa è senza nessuna difficoltà. Essi sarebbero anche d’accordo se qualcuno dicesse che la chimica è una materia importante da studiare, e che l’importanza della chimica si basa sul fatto che è molto utile nella vita umana. Ma potrebbero non apprezzare molto che qualcuno chiedesse loro se è bene oppure no che le persone facciano ciò che è utile, cioè che qualcuno chiedesse loro se le persone debbano fare ciò che è utile per loro. […..] questa è precisamente la domanda che i chimici dovrebbero porsi – una domanda seria: che cosa c’è di male nel fare qualcosa che non è nell’interesse né di chi la fa né di chiunque altro? Detto in altre parole, che cosa c’è di male nel fare cose che non procurano nessun beneficio alle persone, o nel fare qualcosa che è dannoso per le persone? Tale domanda appartiene all’ambito della Filosofia Morale (Etica), che si occupa appunto della determinazione di che cosa è giusto e che cosa è sbagliato [1,2]. Qui, la questione è: “Che cosa significa dire che un’azione è moralmente sbagliata?”. Che cosa rende desiderabile che certe azioni vengano o non vengano compiute? Il rispondere a questa domanda ci aiuterà a capire perché la Chimica Verde è qualcosa da perseguire, cioè a comprendere la sua base morale. 11 1.1. MORALMENTE GIUSTO E MORALMENTE SBAGLIATO Il perseguimento di tali beni essenziali è normalmente inviolabile. E’ diritto morale di ciascuno il poter perseguire i propri beni essenziali, e anche l’essere aiutato in tale perseguimento, o il non essere ostacolato. Ciò significa che soltanto condizioni speciali possono consentire deroghe o violazioni. […] Ci si potrebbe domandare: come mai gli esseri umani hanno dei diritti? Oppure, quale è l’origine dei diritti umani? Questa è una domanda difficile, e gli studiosi non hanno raggiunto un accordo in proposito. Anche in questo caso, Alain Gewirth viene in aiuto. Secondo lui, possiamo osservare che tutte le persone desiderano fare ciò che è generalmente nel loro interesse. Mentre perseguono ciò che è nel loro interesse, le persone normalmente non vogliono essere disturbate. Non c’è nessuna ragione giustificabile per disturbarle a meno che, nel processo di perseguire ciò che è nel proprio interesse, esse non disturbino altre persone nel perseguimento del loro. Siccome le persone non vogliono essere disturbate mentre perseguono ciò che è nel proprio interesse, e siccome possono perseguirlo senza disturbare altri, non c’è nessuna ragione valida per cui si debba mettere un fermo al perseguimento dei loro interessi finché lo fanno senza disturbare altri. In altre parole, quando le persone fanno ciò che è bene per loro senza interferire nella felicità degli altri, hanno il diritto di essere lasciate in pace. […] L’utilitarismo delle regole è anch’esso pertinente a questa questione. Esso sostiene che una regola o un principio la cui applicazione comporta il massimo di bene per il numero più alto possibile delle persone interessate dovrebbero essere applicati e ottemperati [4, 6, 7]. […] L’utilitarismo della regola fa parte della teoria generale dell’utilitarismo, che sostiene che tutto ciò che promuove il massimo di bene per il numero più alto di persone è moralmente giusto e dovrebbe essere perseguito, mentre tutto ciò che ha l’effetto opposto è moralmente sbagliato e dovrebbe essere evitato. […] Che cosa significa dire che un’azione è moralmente giusta o moralmente sbagliata? […..] Dire che un’azione è moralmente sbagliata significa dire che quell’azione viola un principio morale. I principi morali riguardano le azioni. Si basano sull’ipotesi “dell’esistenza del bene e del male e di una qualche forma di attenzione riguardo alla loro esistenza e incidenza” [3,8]. Un principio di questo tipo è quello di beneficenza2, che significa: 1. Non si deve arrecare male o danno (perché ciò è male). 2. Si deve prevenire il male o il danno. 3. Si deve allontanare il male. 4. Si deve fare o promuovere il bene [3]. Si può anche intendere questo principio nel senso del dovere di aiutare gli altri, per quanto ragionevolmente possibile, e promuovere i loro interessi legittimi. L’altra faccia di questo principio viene chiamata non-maleficenza e significa che le persone non dovrebbero fare del male [3,4]. […] C’è una varietà di cose che possono causare danno alle persone. Alcune di queste cose sono prevenibili. Il principio richiede che, in tali casi, chiunque sia capace di farlo debba prevenire questi danni. […] La promozione del bene non è solo prerogativa dei filantropi o di alcuni piccoli gruppi di persone; è un imperativo morale che, secondo questo principio, vincola tutti gli esseri umani. Questo perché la promozione del bene è l’altra faccia del prevenire il male. […] C’è anche il principio di giustizia, che ha due lati: la giustizia distributiva e la ricompensa. il primo aspetto riguarda la distribuzione di beni o vantaggi in modo equo, mentre il secondo riguarda il negare o dare ricompense per le azioni compiute, in base agli sforzi di chi le fa. La giustizia distributiva si collega al principio di uguaglianza, che afferma che tutte le persone dovrebbero essere trattate allo stesso modo in condizioni simili. […..] Per quanto riguarda la ricompensa, l’idea è che le persone debbono ricevere ciò che meritano. […] Queste opinioni sono in accordo con quelle di Alain Gewirth, che ha introdotto ciò che lui chiama “il Principio di Coerenza Generica” (PCG), che dice che ogni individuo al il diritto, in modo uguale a qualsiasi altro individuo, di perseguire la propria libertà e il proprio benessere [5]. Secondo lui, l’etica riguarda innanzitutto i diritti morali e secondariamente la libertà di godere di quei diritti e di non essere ostacolati nel perseguirli. La libertà è l’abilità o capacità di controllare il proprio comportamento autonomamente, con la conoscenza e la comprensione delle condizioni e circostanze attinenti. Per “condizioni e circostanze attinenti” Gewirth intende che le informazioni e le circostanze che sono necessarie perché uno possa prendere una decisione informata devono avere un ruolo principe. […] Stato di benessere è lo stato per cui chi compie delle azioni è in grado di avere le condizioni necessarie per agire con successo perseguendo il raggiungimento degli obiettivi proposti. Le condizioni necessarie includono, fra le altre cose, l’accesso all’istruzione, la disponibilità di risorse perché la persona possa lavorare e guadagnarsi da vivere, l’assenza di ostacoli che possano impedire alla persona di esplicare appieno le proprie potenzialità, un ambiente favorevole a che la persona possa aiutare altri a esplicare le loro potenzialità, e così via. Ogni singolo essere umano ha il diritto, in modo uguale a qualsiasi altro individuo, di perseguire la propria libertà e il proprio benessere, che potremmo chiamare “beni essenziali”. […] Ora, se tutte le persone hanno in modo eguale il diritto di perseguire il proprio benessere e la propria libertà, ciò significa che qualsiasi cosa che impedisca tale perseguimento è moralmente sbagliata. Significa anche che il diritto al benessere e alla libertà dà origine al dovere di non interferire con il perseguimento di questi beni essenziali da parte di altre persone. I chimici sanno che le sostanze reagiscono in un certo modo quando vengono a contatto l’una con l’altra in certe condizioni. Ad esempio, l’acido cloridrico e l’idrossido di sodio reagiscono per dare cloruro di sodio e acqua (HCl + NaOH → NaCl + H2O). Molti chimici accettano questo fatto senza porsi domande. In effetti, molte regole della chimica, e della scienza in genere, sono considerate come aventi validità universale. La questione è se si possa dire lo stesso riguardo ai principi morali, oppure no. Potrebbe non risultare chiaro da quanto detto nei paragrafi precedenti che i principi morali non sono così chiari e diretti come tanti potrebbero desiderare. In realtà non sono così chiari. Possiamo considerare l’esempio della giustizia. Mentre molte persone, e certamente gli esperti di filosofia morale, sono d’accordo che è necessario perseguire la giustizia, che cosa precisamente sia la giustizia rimane una questione controversa. Non è facile nemmeno decidere se certe azioni siano giuste oppure no. […] Il principio dell’utilità (il principio usato dagli utilitaristi) comporta anch’esso delle difficoltà. Non è molto chiaro perché la felicità del più alto numero di persone sia meglio della felicità di pochi. Il problema è che la felicità non è quantificabile. Così, è difficile determinare come la felicità di, ad esempio, dieci persone, sia una cosa migliore della felicità di una sola. Anche se la felicità fosse quantificabile in termini che essa è tanto maggiore quanto più alto è il numero di persone felici, l’avere più persone felici non sarebbe definibile come un bene oggettivo. Dipenderebbe sempre dal punto di vista dal quale si guarda alla questione. Dal punto di vista delle poche persone infelici, non sarebbe possi- 12 13 1.2. LA MANCANZA DI UNA DEFINIZIONE ASSOLUTA DEI PRINCIPI MORALI [3] bile dire con certezza che sarebbe un bene che esse non siano felici. Tutto ciò suggerisce che i principi morali sono indefiniti [4]. Un altro problema fondamentale che gli studiosi di filosofia morale devono affrontare è il fatto che i principi primi o basilari della morale non sono evidenti di per sé. […] Ciò tuttavia non significa che le persone non possano o non debbano fare affermazioni o prendere decisioni di carattere morale. E’ solo un ammonimento a non prendere affermazioni e valutazioni di carattere morale in maniera dogmatica o ideologizzata. Se le persone sono caute riguardo a principi e decisioni morali, ciò non è necessariamente un invito ad abbandonare i principi morali. E’ solo perché le cose stanno in questo modo. C’è un certo ammontare di relatività nel mondo, e non soltanto nell’etica. [...] Ciò non dovrebbe essere preso come un fattore che impedisca alle persone di fare affermazioni di carattere morale riguardo alla Chimica Verde. Questo scaturisce dal fatto che, come detto sopra, ci sono questioni morali definite che non sono disputabili. L’idea che l’omicidio è moralmente sbagliato è accettabile a livello universale. [...] Inoltre, la morale è pratica. Riguarda le relazioni degli esseri umani fra di loro e con l’ambiente. Se si abbandonasse la morale, ci sarebbe caos al mondo perché la morale è la base dei principi-guida usati nelle relazioni umane. Ad esempio, le leggi non hanno senso se non hanno un fondamento morale. Diviene pertanto necessario procedere a una valutazione della base morale della Chimica Verde. Prima di farlo, c’è però un’altra questione che richiede la dovuta attenzione, quella se le professioni abbiano morali diverse oppure no. 1.3. LA MORALE DEL RUOLO Anche se la morale viene accettata come qualcosa che può guidare le azioni umane, rimane il problema di decidere se ci sia o no una morale generale applicabile a tutte le azioni umane, così che un chimico sia vincolato dalla morale nello stesso modo in cui lo sarebbero un medico o un politico. Alcuni studiosi hanno sostenuto che ogni professione ha la sua propria morale [9]. Questo punto di vista è chiamato separatismo [5]. E’ un punto di vista non sostenibile. Tale posizione implica che la morale professionale può originare obblighi suoi propri. Così. la professione medica genera diritti e responsabilità che sono diversi da quelli delle persone ordinarie o di altri professionisti, ad esempio, da quelli degli insegnanti. La morale professionale non genera obblighi che sono diversi da quelli della morale ordinaria. Piuttosto, le professioni generano obblighi speciali che sono in accordo con i principi morali ordinari. […] Mentre il ruolo a volte determina che cosa uno dovrebbe fare moralmente, ci sono molti ruoli che una persona svolge contemporaneamente. E’ quando la persona svolge tutti questi ruoli in modo equilibrato che è capace di condurre una vita morale. Si può dire quanto sopra perché le persone sono creature morali. Come tali, hanno responsabilità morali, così che ogni qualvolta fanno qualcosa, ciò ha implicazioni morali. Alcuni potrebbero pensare che non è compito del chimico considerare se il suo lavoro di chimico ha implicazioni morali. Questo punto di vista è sbagliato perché la chimica è moralmente importante. Ciò che rende la chimica moralmente importante è il fatto che essa influenza la vita delle persone o negativamente o positivamente. Da quanto detto sopra, risulta chiaro che qualunque cosa influenzi la vita delle persone è importante in termini di morale, per essere compatibile o incompatibile con i principi morali. Così, è necessario considerare come la chimica possa avere fondamenti morali. Per farlo, è opportuno considerare inizialmente le relazioni fra scienza ed etica. 14 2. ETICA E SCIENZA 2.1. CONSIDERAZIONI GENERALI La questione da esaminare è il modo in cui l’etica può essere messa in relazione con la scienza. Sono esse antagoniste l’una all’altra? E’ possibile metterle in relazione oppure no? In queste domande è implicata la questione più generale delle relazioni fra scienza e filosofia. Storicamente, furono i filosofi a diventare scienziati [10]. Quando la mente umana si pose domande su che cosa c’è nel mondo naturale e fece deduzioni, alcune delle quali erano errate; quando domande ultime vennero poste ed esplorate fino a limiti estremi; quando tutto divenne oggetto di indagine, nacque il campo della filosofia. La vita umana e le relazioni fra gli esseri umani vennero esaminate e furono individuati schemi, furono proposti e ridiscussi principi, e così nacque l’etica. Fu quando i filosofi si posero domande sulla composizione delle cose e su che cosa c’è nella natura che si svilupparono le varie aree della scienza. Così si può dire che, da un punto di vista storico, la scienza è un risultato della filosofia. La filosofia viene prima della scienza non solo storicamente, ma anche concettualmente, perché le scoperte scientifiche sono risposte a domande filosofiche precedenti. Ad esempio, l’astronomia nacque come conseguenza di un’indagine filosofica per spiegare l’esistenza e la natura delle stelle; e così via. La gravità fu scoperta a seguito della ricerca filosofica per spiegare il fenomeno della caduta degli oggetti. Anche la chimica è nata dall’indagine filosofica per spiegare la natura e la composizione degli oggetti. […] L’etica si collega a tutti i rami della scienza perché, essendo quest’ultima un’impresa umana, ha implicazioni per la prima. Resnik ha sostenuto: Penso che sia importante sia per la scienza sia per la società, che gli scienziati seguano linee di condotta appropriate, che gli scienziati imparino a riconoscere le fonti di preoccupazione etica nella scienza e a ragionare su di esse, e che gli scienziati vedano la scienza come parte di un più vasto contesto sociale con conseguenze importanti per l’umanità. [...] […] Detto in breve, le relazioni fra l’etica e la scienza in generale, e l’etica e la chimica in particolare, rientrano nella questione di come gli esseri umani dovrebbero comportarsi. La bomba atomica è opera di scienziati che si erano specializzati in fisica. E’ chiaro che il loro lavoro era collegato all’etica in maniera diretta. […] L’etica è la scienza del comportamento umano, la determinazione di come gli esseri umani dovrebbero comportarsi in tutti gli aspetti della loro vita. Le relazioni fra scienza ed etica dovrebbero occuparsi della questione di come gli esseri umani dovrebbero comportarsi in genere, e specificamente quando si occupano di scienza. Ciò significa che le relazioni fra etica e chimica dovrebbero anche riguardare il modo in cui i chimici dovrebbero occuparsi di chimica, non solo dal punto di vista dell’occuparsi di chimica come materia tecnica, ma dal punto di vista di ciò che gli esseri umani dovrebbero fare come esseri umani. Questa domanda porta alla discussione della chimica e dell’etica, che viene sviluppata nel prossimo paragrafo. 2.2 ETICA E CHIMICA […] Alcuni prodotti chimici sono pericolosi per la salute e la vita degli esseri umani. Sono pericolosi anche per altri animali e possono causare danni irreversibili all’ambiente, apportando così danni e sofferenze indicibili a un gran numero di specie animali. Produrre prodotti chimici è anche 15 molto costoso. Sorge inevitabile la domanda “Perché i chimici fanno il loro lavoro nonostante tutto ciò?”. In altre parole, gli studi di chimica e la preparazione di prodotti chimici richiedono una giustificazione morale. Nel ricercarla, la prima cosa da fare è considerare lo scopo o gli obiettivi della chimica, che sono in linea con quelli della scienza in generale. […] la scienza è un’istituzione sociale che dipende dal coinvolgimento, cooperazione e interesse di diverse persone per obiettivi comuni in un contesto sociale. E’ una società all’interno di una società più ampia. Inoltre, la scienza in generale e la chimica in particolare sono delle professioni [11]. Ogni professione ha un obiettivo e ogni società ha i suoi valori e i suoi costumi. La chimica, come istituzione che fornisce beni e servizi preziosi, ha due obiettivi fondamentali. Il primo obiettivo della chimica è epistemologico. Il secondo obiettivo della chimica è pratico e mira a risultati. Dire che il primo obiettivo della chimica è epistemologico significa dire che la chimica mira alla conoscenza oggettiva delle sostanze e di ciò che le riguarda. I chimici studiano dati diversi per scoprire nuove informazioni sulle sostanze: come certi atomi sono legati, le ragioni di certe reazioni chimiche, e così via. Essi cercano anche di scoprire l’impatto di certi prodotti su cose diverse e in condizioni diverse. In breve, lo scopo della chimica è di scoprire e impartire conoscenze. Se la conoscenza sia un fine per se stessa, oppure no, è una questione controversa, ma è un fatto che, essendo la natura umana quella che è, gli esseri umani cercano sempre delle giustificazioni. Di quale utilità è la conoscenza che viene cercata per amore di se stessa? Può questo obiettivo della chimica, cioè la conoscenza per se stessa, essere moralmente giustificabile? Questa domanda ci porta a considerare il secondo obiettivo della chimica. Come detto sopra, ci sono gravi rischi e grandi spese associati alla ricerca nel campo della chimica e all’attività chimica. Essi richiedono una giustificazione. Ma non soltanto. In molti paesi le risorse sono limitate, nel qual caso sorge la necessità di giustificare perché delle magre risorse debbano essere spese per la chimica piuttosto che per obiettivi come l’alleviamento della povertà o altri analoghi. Questo, secondo me, da origine al secondo obiettivo della chimica - i risultati pratici, l’utilità e i vantaggi dell’occuparsi di chimica. Così, possiamo dire che lo scopo della chimica è il raggiungimento di conoscenze dalle quali la società possa conseguire miglioramenti o benefici. Come dato di fatto, i chimici e gli scienziati in generale sono stati impegnati nella società per ragioni diverse, come professionisti a livelli diversi. Ancora più importante, i chimici sono stati coinvolti nello sviluppo di armi chimiche e biologiche. Sono anche stati coinvolti in industrie dove prodotti diversi vengono utilizzati per scopi diversi. A volte i casi giudiziari hanno bisogno di informazioni di carattere scientifico, che possono essere apportate da chimici. La questione importante è se i chimici debbano o non debbano essere in grado di conoscere ed effettivamente fare valutazioni morali delle loro attività nei casi ricordati sopra e in tanti altri. Da quanto detto sopra, si dovrebbe concludere che i chimici dovrebbero conoscere l’etica e dare valutazioni morali del loro lavoro. Questo perché i principi morali affermano che “azioni che arrecano danno ad altri senza ragione, quando è facile prevedere che quel danno farà seguito a un’azione scelta consapevolmente, sono moralmente discutibili”. di materiali di partenza, prodotti, prodotti secondari, solventi, reagenti etc. che sono pericolosi per la salute umana o per l’ambiente” [14]. Nella prefazione Anastas e Williamson sostengono che “La Chimica Verde si incentra sulla progettazione, produzione e uso di sostanze e processi chimici che hanno potenziale inquinante o rischio ambientale scarso o nullo e che siano realizzabili sia economicamente sia tecnologicamente. I principi della Chimica Verde possono essere applicati a tutte le aree della chimica: sintesi, catalisi, condizioni di reazione, separazione, analisi e monitoraggio”. L’importanza della Chimica Verde sta proprio nel fatto che mira a eliminare i rischi per l’ambiente e per gli esseri umani. In seconda luogo, essa mira a eliminare i costi nascosti associati con i rifiuti chimici che si originano dalla produzione industriale. In terzo luogo, mira ad aiutare gli industriali a produrre beni più compatibili con le esigenze dell’ambiente, assicurando in questo modo la sostenibilità e l’attuabilità dal punto di vista economico. Questi obiettivi sono stati in parte già raggiunti, come risulterà evidente da quanto verrà detto in seguito. La questione è ora quella di vedere se questi obiettivi hanno una base morale oppure no. Per arrivare a stabilirlo, cominciamo con il considerare l’uso di materiali di partenza alternativi. Stem e i suoi collaboratori, alla Monsanto Corporation, usarono una sostituzione aromatica nucleofila per la sostituzione dell’idrogeno, eliminando in tal modo la necessità di ricorrere a idrocarburi aromatici clorurati, il cui uso comunemente origina preoccupazioni per l’ambiente. Viene affrontata anche la questione dei materiali di partenza alternativi: ... per quanto riguarda l’uso di rifiuti biologici/agricoli come i polisaccaridi allo scopo di produrre nuove sostanze polimeriche. Il lavoro presenta un interesse particolare perché si occupa simultaneamente di parecchie preoccupazioni relative all’ambiente. Utilizza materiali monomerici, che sono abbastanza innocui, e costituisce così un esempio di uso di materiali di partenza ambientalmente compatibili. Il processo chimico si basa anche su una trasformazione biocatalitica che è per parecchi aspetti vantaggiosa rispetto a molti dei reagenti usati convenzionalmente nella produzione di sostanze polimeriche. Anche la preoccupazione per la persistenza dei polimeri e delle plastiche viene tenuta in conto in questo lavoro: i polimeri di Gross sono progettati in modo da essere biodegradabili dopo l’uso da parte del consumatore [12]. Dovrebbe essere chiaro a questo punto che la Chimica Verde, come ramo della chimica, ha una base morale. […] Il modo migliore per cominciare questa discussione è quello di vedere che cosa è la Chimica Verde e poi considerare la sua importanza. “Detto in modo semplice, la Chimica Verde è l’uso di quelle tecniche e metodologie della chimica che riducono o eliminano l’uso o la generazione I composti organici volatili (VOC) entrano nell’ambiente in molti modi, compresa la produzione chimica. I VOC contaminano l’acqua del mare mettendo così in pericolo la vita acquatica marina e possono anche penetrare nel suolo e ridurne la fertilità. I costi che derivano da questi problemi sono enormi. Un esempio di opzione alternativa è quello di un nuovo sistema spray, messo a punto in modo da “ridurre l’emissione di VOC fino all’80% ed eliminare totalmente l’emissione di inquinanti dell’aria pericolosi” [13]. Ciò che risulta importante dagli esempi appena visti di applicazione pratica della Chimica Verde è il fatto che essi sono direttamente attinenti alla morale e agli obiettivi della chimica, come proposti sopra. Il principio di beneficenza è chiaramente implicato. Se è accettabile che uno dovrebbe allontanare il male ogni qualvolta possibile, allora la Chimica Verde è coerente con questo principio nel momento in cui fa cose come quelle descritte prima. La protezione dello strato di ozono, la riduzione dei VOC, una gestione dei composti aromatici che tenga conto in modo efficace delle esigenze ambientali, ed altre tecniche di carattere chimico allontanano il male e promuovono il bene, e ciò è in accordo con le esigenze poste dal principio di beneficenza. Il fatto che si spenda così tanto denaro nell’industria di produzione e che i rifiuti da essa originati inquinino l’ambiente solleva la questione della giustizia. Ad esempio, è equo che le nazioni industrializzate producano quantità tanto enormi di rifiuti industriali e ottengano enormi profitti attraver- 16 17 2.3. IL CASO DELLA CHIMICA VERDE so le loro compagnie multinazionali? Esse danno pochissimo alle nazioni in via di sviluppo, mentre con le loro attività inquinano l’ambiente al punto che anche l’agricoltura di sussistenza ne subisce gli effetti negativi. Ciò avviene in realtà quando lo strato dell’ozono è danneggiato al punto da alterare le condizioni climatiche, con conseguenti periodi di siccità e/o alluvioni in alcuni paesi in via di sviluppo. Il successo della Chimica Verde fermerebbe questo tipo di sviluppo. Prodotti industriali a basso costo, ma anche biodegradabili, possono essere resi facilmente disponibili per tutto il mondo. Anche nelle nazioni industrializzate le ingenti risorse ora destinate alla riduzione dell’inquinamento potrebbero essere utilizzate per altri scopi. Qui è in gioco la questione della giustizia distributiva – tutti i popoli hanno diritto ad avere aria pulita e acqua pulita, e questo diritto verrebbe garantito dal successo della Chimica Verde. E’ anche molto evidente che gli sforzi della Chimica Verde sono coerenti con gli interessi e il benessere della società. Se si usano frequentemente solventi meno tossici, si riciclano più materiali e si progettano prodotti chimici più sicuri, la probabilità che i risultati siano a favore degli interessi e del benessere delle società del mondo è più alta che non la probabilità che avvenga l’opposto. Ciò significa che anche il principio di coerenza generica di Allan Gewirth non sarebbe violato. Questo è vero anche se la Chimica Verde viene insegnata, compresa e accettata dal mondo degli affari, dalla comunità scientifica e dal mondo in generale. E questo vorrebbe dire che il mondo lavorerebbe per il miglioramento non soltanto dell’ambiente, ma dell’intera umanità. La motivazione di queste attività non sarebbe semplicemente quella che piace farle, ma il fatto che, partendo dal riconoscimento della base morale della Chimica Verde, le persone la perseguirebbero come un dovere morale. L’utilitarismo sostiene che un’azione è moralmente giusta se porta al massimo di bene o felicità per il maggior numero possibile di persone, e che un’azione che abbia il risultato opposto è moralmente sbagliata. La situazione attuale del mondo è tale che, se non si fa nulla per invertire o fermare gli effetti dell’industrializzazione, milioni di persone avranno a soffrire. E’ incontrovertibile affermare che i benefici dell’attività industriale si accumulano nelle mani di poche compagnie multinazionali. Qualsiasi costo intervenga nella produzione dei beni viene passato al povero consumatore e i pochi investitori godono dei profitti. Se ciò non cambia, il pianeta Terra verrà molto probabilmente esaurito in poco tempo. Le generazioni future saranno perdenti. Ciò è chiaramente contro l’etica utilitaristica. La Chimica Verde ha le potenzialità per affrontare questo problema rendendo il pianeta Terra sicuro e dando alle masse la possibilità di trarre enormi vantaggi dalla disponibilità di beni a basso costo ma di qualità. Anche l’educazione alla Chimica Verde avrà gli effetti desiderati per quanto riguarda l’adempimento delle condizioni di una società con morale utilitaristica. 3 CONCLUSIONI […] Anche se le persone hanno ruoli diversi, ciò non significa che certi ruoli hanno una loro etica diversa da quella di altri ruoli. Il denominatore comune è che il comportamento umano è o benefico per gli altri, oppure dannoso agli altri. Questo è ciò che determina la validità morale, non la differenza dei ruoli. La scienza come professione è un tipo di ruolo che ha una base morale che si origina dai suoi obiettivi. L’obiettivo fondamentale della scienza è la conoscenza dei fatti scientifici in modo che gli esseri umani possano beneficiare da tale conoscenza. Ciò non soltanto collega la scienza all’etica, ma comporta l’implicazione che gli scienziati debbano avere conoscenze di etica, in modo da poter prendere decisioni eticamente informate riguardo al loro lavoro scientifico. 18 La Chimica Verde ha un fondamento morale. Vale a dire, non soltanto la Chimica Verde è coerente con i principi morali: essa è anche richiesta dai principi morali. Tale esigenza nasce dal fatto che l’obiettivo della chimica come impresa umana è lo sviluppo di una base di conoscenze da cui si possano sviluppare e applicare misure necessarie al miglioramento del benessere degli esseri umani e delle condizioni dell’ambiente. [...] 4 BIBLIOGRAFIA 1 J. C. CALLAHAN, Ethical Issues in Professional Life. Oxford University Press: New York & Oxford, says that ethics is the philosophical study of morality. In metaethics we enquire into what the terms “good”, “right” and “wrong” mean. Normative ethics deals with theories of good and evil, moral virtue and the impermissibility or otherwise of actions. 7. 2. C. HORNER, E. WESTACOTT, 2000. Thinking Through Philosophy. An Introduction. Cambridge University Press: Cambridge. 119. 3. W. FRANKENA, 1999. “A Reconciliation of Two Systems of Ethics” in Pojman, Louis. Philosophy. Wadsworth Publishing Company: Belmont and London, 439. 4. T.L. BEAUCHAMP, F. CHILDRESS, 1989. Principles of Biomedical Ethics (3rd Ed.). Oxford University Press: New York & Oxford, 120-256. 5. J.B.R. GAIE, B.R. JOSEPH 2000. The Ethics of Medical Involvement in Capital Punishment. (Unpublished thesis) A Thesis Submitted for the Degree of Doctor of Philosophy. University of Essex, 24. 6. J. HOSPERS, 1997. An Introduction to Philosophical Analysis. Routledge: London, 265. 7. SINGER, PETER. 1993. Practical Ethics (2nd ed.). Cambridge University Press: Cambridge & New York. 8. H.J. GENSLER, 1998. Ethics. A Contemporary Introduction. Routledge: London. 9. A.Z. CARR, 1988. “Is Business Bluffing Ethical?” in Callahan, Joan C. Ethical Issues in Professional Life. Oxford University Press: New York & Oxford. 10.F. COPLESTON, 1962. A History of Philosophy: Vol.1. Greece and Rome Part 1. Image Books: Garden City, N.Y. 11.D.B. RESNIK, 1998. The Ethics of Science, an introduction. Routledge: London & New York, 39,38,162,173. 12.P. ANASTAS, T. WILLIAMSON, 1996. “Green Chemistry: An Overview” in Anastas, Paul & Williamson, Tracy (eds). Green Chemistry. American Chemical Society: Washington, P.7,11. 13.M.D. DONOHUE, et. al. “Reduction of Volatile Organic Compound Emissions During Spray Painting.” 1996. Anastas, Paul & Williamson, Tracy. 1996. “Green Chemistry: An Overview” in Anastas, Paul & Williamson, Tracy (eds). Green Chemistry. American Chemical Society: Washington, 154. 19 Energia LE MICROONDE COME FONTE D’ENERGIA PER PROCESSI CHIMICI ECOCOMPATIBILI EMILIA MARIANI, ALBERTO BARGAGNA, CARLA VILLA INTRODUZIONE La scoperta del fenomeno del riscaldamento per irradiazione microonde risale al 1950 [1]. Le prime applicazioni delle microonde, come nuova fonte d’energia, sono riconducibili agli anni 1970 –1980, inizialmente limitate a particolari processi in campo industriale (essiccamento, vulcanizzazione) e agro-alimentare (cottura, essiccamento, conservazione). Solo successivamente, grazie ad un’ampia ricerca a livello teorico, applicativo e strumentale, si è cominciato ad esplorare il pieno potenziale di questa tecnologia in ogni settore della chimica [2]. E’ ormai evidente che il corretto utilizzo delle microonde, rispetto alle tecniche convenzionali, presenta indubbi vantaggi derivanti soprattutto dalla rapidità di riscaldamento e trasformazione dei materiali: risparmio energetico, efficienza dei processi, limitazione dell’uso di solventi e reagenti. Questo permette di collocare la tecnologia microonde tra i processi ecologicamente compatibili per lo sviluppo di una “chimica verde”. In questo contesto molti sono i campi di applicazione: industria conciaria; produzione di radiofarmaci; trattamento dei rifiuti urbani, ospedalieri e industriali (soprattutto per la detossificazione). In questo capitolo l’attenzione è focalizzata solo su alcuni processi industriali (polimerizzazione, sinterizzazione) e di laboratorio (sintesi ed analisi) dove l’utilizzo delle microonde risulta una realtà consolidata. LE MICROONDE Le microonde sono radiazioni elettromagnetiche non ionizzanti le cui lunghezze d’onda si collocano nello spettro elettromagnetico (Fig.1) tra la banda dell’infrarosso e le onde radio, con frequenze comprese tra 0.3 e 300 GHz. Per evitare interferenze con le telecomunicazioni e le frequenze dei telefoni cellulari, la legislazione internazionale prevede che solo alcune bande possano essere utilizzate per il riscaldamento. La frequenza di 2.45 (± 0.05) GHz, corrispondente nel vuoto ad una lunghezza d’onda (λ) di 12.2 cm, è quella utilizzata per applicazioni in campo domestico, scientifico, medico e per molti processi industriali. Figura 1. Spettro elettromagnetico 23 Le microonde possiedono alcune caratteristiche proprie delle radiazioni: propagazione lineare, riflessione, rifrazione e diffusione. Esse penetrano in molti materiali non metallici: materiali plastici (non polari), teflon, porcellana, vetro (pirex e soprattutto quarzo); si propagano in vari tipi di atmosfere, nel vuoto e sotto pressione ed interagiscono con le molecole polari alle quali cedono una parte della loro energia. I materiali metallici non magnetici sono riflettori delle microonde: su questo principio si basa la rivelazione radar ed il fenomeno delle scariche che si formano nei forni, in presenza di parti metalliche. Tabella 1. Riscaldamento di solidi per irradiazione microonde (forno domestico) ORIGINE DEL RISCALDAMENTO MICROONDE Il riscaldamento indotto dalle microonde è il risultato dell’interazione materia/onda ed è provocato dalla trasformazione in calore di una parte d’energia, contenuta nell’onda elettromagnetica. Per le molecole polari (molecole che possiedono un momento dipolare) l’effetto termico è una conseguenza dell’interazione dipolo-dipolo tra le molecole ed il campo elettromagnetico: fenomeno della polarizzazione dipolare [3]. In assenza di campo elettrico, i dipoli sono orientati a caso, nessuna direzione è privilegiata (Fig. 2a). Sotto l’effetto di un campo elettrico continuo, ciascun dipolo è sottoposto ad una forza che tende ad orientarlo nella direzione del campo stesso (Fig. 2b). In presenza di un campo elettrico alternato i dipoli cambiano orientamento ad ogni alternanza; se il campo è ad alta frequenza (2.45 GHz) questo induce agitazione e frizione intermolecolare (Fig. 2c) con conseguente riscaldamento. Per quanto riguarda i liquidi, i solventi apolari (per esempio esano, benzene, toluene, tetracloruro di carbonio) non sono in grado di interagire direttamente con le microonde e quindi non si riscaldano. Possono essere riscaldati solo indirettamente da altri componenti (polari), eventualmente presenti nel sistema ed in grado di interagire con le microonde. I liquidi polari (per esempio acqua, dimetilformammide, etanolo) assorbono le microonde e si riscaldano rapidamente; in questo contesto possono essere osservati valori più alti dei loro punti d’ebollizione, in paragone con quelli determinati con i metodi classici di riscaldamento. Quest’effetto è chiamato “surriscaldamento” [6]. In Tabella 2 sono riportati i punti di ebollizione di alcuni solventi polari, ottenuti con riscaldamento tradizionale e per irradiazione microonde in forno domestico ed in assenza di agitazione. Tabella 2. Punti d’ebollizione (°C) di alcuni solventi polari Figura 2. Effetto del campo elettrico sui dipoli Nel caso di solidi che appartengono alla categoria dei semiconduttori o conduttori, il riscaldamento è dovuto prevalentemente all’effetto del campo elettrico ad alta frequenza sugli elettroni liberi (elettroni di conduzione) del materiale, con conseguente polarizzazione ed effetto elettrico di resistenza [4]. In Tabella 1 sono riportate le temperature raggiunte da alcuni campioni di solidi, per tempi diversi di irradiazione, in un forno domestico (potenza = 600W); la struttura cristallina e le proprietà magnetiche del materiale incidono profondamente sul riscaldamento [5]. 24 25 VANTAGGI DEL RISCALDAMENTO MICROONDE Il riscaldamento indotto dalle microonde è caratterizzato da assenza d’inerzia e da un rapido trasferimento dell’energia in tutta la massa del materiale e presenta i seguenti vantaggi: • Omogeneità: lo sviluppo di calore ha luogo dall’interno (riscaldamento “a cuore”), con un flusso diretto verso l’esterno senza surriscaldamento superficiale, a differenza dei sistemi di riscaldamento convenzionali nei quali il flusso di calore è diretto dall’esterno verso l’interno. • Rapidità: l’incremento della temperatura è generalmente molto elevato (fino a 10°C al sec.) rispetto al riscaldamento tradizionale. Questo processo risulta quindi particolarmente efficace in tutti quei casi nei quali è richiesta un’omogenea e rapida trasmissione di calore e quando sono previsti tempi e temperature di esercizio molto elevate. • Efficace utilizzazione dell’energia: l’energia applicata è utilizzata esclusivamente per il riscaldamento del materiale, senza dispersioni all’esterno (aria, pareti del forno) con un notevole risparmio energetico. Figura 3. Sistema “multimodale” APPARECCHIATURE MICROONDE La parte fondamentale degli apparecchi è il generatore di microonde. Nei forni d’uso più comune (domestico, scientifico, ecc.) e che lavorano alla frequenza di 2.45 GHz, il generatore è costituito dal magnetron, un diodo termoionico costituito da un anodo ed un catodo riscaldato direttamente. Quando il catodo viene riscaldato gli elettroni sono rilasciati ed attratti verso l’anodo, sotto la forza combinata di un campo elettrico radiale e di un campo magnetico assiale. Le onde generate possono avere frequenze comprese tra 1 e 40 GHz. Sono disponibili due sistemi di applicazione delle microonde: multimodale (multimode system) e monomodale (monomode system)7. Il forno domestico è un esempio di applicatore multimodale e presenta le seguenti caratteristiche: • la distribuzione del campo elettrico non è omogenea perché le microonde sono soggette a multiple riflessioni sulle pareti interne del forno (Fig. 3). • la potenza non è regolabile e, di fatto, il campione è sottoposto al livello massimo di potenza erogabile dallo strumento. • la temperatura non può essere monitorata e misurata facilmente, in modo accurato. Tali caratteristiche rendono questi apparecchi poco idonei ad un uso scientifico poiché i processi sono difficilmente controllabili e riproducibili. I forni del tipo “monomode system” sono più idonei per applicazioni in campo chimico; le caratteristiche più importanti di un applicatore monomodale sono: • le onde elettromagnetiche sono focalizzate in una guida d’onda, ottenendo un’omogenea distribuzione del campo e la possibilità di una bassa emissione di potenza, con un’alta resa energetica (Fig. 4) • la temperatura può essere misurata in fase di processo (sensori IR, fibre ottiche) • la temperatura è modulabile tramite il controllo della potenza • i processi possono essere monitorati tramite computer • la riproducibilità degli esperimenti è elevata 26 Figura 4. Sistema “monomodale” CAMPI DI APPLICAZIONE DELLE MICROONDE PROCESSI DI POLIMERIZZAZIONE Una delle prime applicazioni industriali della tecnologia microonde è stata quella relativa alla vulcanizzazione delle gomme. Già dall’inizio del 1970, i nuovi impianti di vulcanizzazione a riscaldamento microonde si sono estesi a livello mondiale ed hanno sostituito, progressivamente, quelli ad aria calda, a letto fluido ed a sali minerali fusi. Forni microonde a guida d’onda sono d’impiego corrente nell’industria di articoli finiti e dei semilavorati estrusi, nella lavorazione di gomme sintetiche e naturali, con indubbi vantaggi quali: efficienza energetica, aumento della velocità dei processi, ecocompatibilità. Dalla fine del 1970 la tecnologia microonde ha avuto ampio sviluppo nella chimica dei polimeri. L’interazione microonde-materia ha caratteristiche molto versatili in questo campo, dove si è in presenza di sistemi multipli o di sostanze singole a struttura complessa o macromolecolare e di materiali di partenza polari [8]. Le resine epossidiche (adesivi, schiume, rivestimenti protettivi ecc.) sono state le prime ad essere studiate per la loro importanza industriale e per le loro proprietà dielettriche che le rendono idonee ad un’attivazione microonde. Il riscaldamento microonde è stato quindi esteso alla preparazione di altri materiali polimerici quali le resine poliammidiche (fibre tessili sintetiche), poliuretaniche (adesivi, schiume isolanti, ecc.), polianiline p-toluensolfonato e polipirroli p-toluensolfonato (collanti per materie plastiche); nel caso dei poliuretani, la polimerizzazione microonde mediata porta alla formazione di un polimero con caratteristiche di durezza superiori a quelle ottenute con metodo tradizionale. 27 SINTERIZZAZIONE DI MATERIALI CERAMICI La tecnologia microonde trova molte applicazioni anche nell’ambito della chimica dei materiali ceramici [2]. Di particolare interesse è il processo di sinterizzazione che può essere definito come un trattamento termico mediante il quale un sistema di particelle individuali, o un corpo poroso, modifica alcune sue proprietà evolvendo verso uno stato di maggiore consistenza meccanica. La sinterizzazione attivata da microonde offre indubbi vantaggi: tempi più brevi, processi più uniformi, produzione di microstrutture uniformi ad alta densità, temperature d’esercizio più basse, trattamento di componenti ceramici anche a complessa struttura. Inoltre, poichè il riscaldamento procede dall’interno del materiale, il gradiente termico intergranulare risulta minimizzato con la conseguenza che il cracking è molto ridotto rispetto alla sinterizzazione tradizionale. TRATTAMENTO DEL CAMPIONE ANALITICO Inizialmente la tecnologia microonde è stata introdotta in campo analitico per la preparazione di campioni geologici. Il forte incremento della velocità di disgregazione (da 5 a 100 volte) sotto irraggiamento microonde ha indotto ad utilizzare questo procedimento anche per la preparazione di campioni a matrice complessa, come materiali biologici, alimenti e cosmetici, offrendo una valida e vantaggiosa alternativa alle metodiche classiche con processi rapidi, economici ed a minor impatto ambientale [9]. La nuova tecnologia trova ampio spazio in contesto ambientale per la ricerca di inquinanti quali pesticidi clorurati e fosforati, fenoli, idrocarburi policiclici aromatici (PAH), policlorobifenili (PCB), nonché per la ricerca del fosforo nell’acqua [10] e del mercurio nei pesci [11]. La preparazione del campione da sottoporre ad analisi si basa essenzialmente su due tipi di trattamento: estrazione con solventi e digestione acida. L’estrazione prevede normalmente l’utilizzo di grandi quantità di solventi organici, spesso a riflusso. Il riscaldamento microonde, in sostituzione del riscaldamento classico, porta ad una netta riduzione dei tempi d’estrazione (con risparmio d’energia) e ad una drastica diminuzione della quantità (fino a 200 volte) dei solventi (trattamenti più ecologici). Gli apparecchi utilizzati sono di tipo monomodale, dotati di contenitori in quarzo (trasparenti alle microonde) in batteria, e di un software per il controllo di temperatura e potenza. La digestione acida è un metodo di mineralizzazione ad umido che si basa sull’ossidazione della matrice con acidi forti mediante riscaldamento e, secondo i metodi tradizionali, presenta tempi lunghi di trattamento, possibilità di contaminazioni, necessità di un costante controllo per rischio di reazioni violente, difficile manutenzione delle attrezzature, possibile perdita di analiti volatili. Queste problematiche possono essere superate con l’utilizzo di apparecchiature microonde specifiche per questo tipo di trattamento: forni monomodali o multimodali dotati di contenitori chiusi, in Teflon a doppia camera e valvola di sicurezza, collegati ad un sistema di controllo di pressione e temperatura. I vantaggi ottenibili sono: drastica riduzione dei tempi di dissoluzione, incremento in riproducibilità, efficienza e sicurezza. sperimentarono alcune reazioni di sintesi attivate da microonde (in solventi polari, forno microonde domestico) riscontrando una notevolissima riduzione dei tempi di reazione. L’effetto del riscaldamento microonde sulle reazioni di sintesi organica è definito con la sigla MORE (Microwave-induced Organic Reaction Enhancement) ed il risultato più importante è l’accelerazione dei processi di sintesi. Altri aspetti positivi sono una netta riduzione della degradazione termica dei reagenti e dei prodotti, un aumento delle rese ed in alcuni casi una migliore selettività della reazione stessa [14]. L’irraggiamento microonde può essere impiegato per attivare reazioni condotte in presenza ed in assenza di solvente. Nelle reazioni in fase liquida ogni solvente polare (acqua, alcoli, chetoni, dimetilformammide, ecc.) è potenzialmente utilizzabile; solventi apolari, come il benzene ed il toluene, possono essere utilizzati solo quando nel sistema sono presenti componenti polari che interagiscono con le microonde. L’utilizzo di solventi, a causa del rapido riscaldamento, può portare ad alcuni inconvenienti: evaporazione del solvente (se la reazione è condotta in reattore aperto) o aumento della pressione con possibili rischi d’esplosioni (se la reazione è condotta in reattore chiuso). Pertanto, particolarmente adatte risultano le metodiche di reazione in dry media quali: adsorbimento dei reagenti su supporti solidi minerali acidi o basici, catalisi per trasferimento di fase solido-liquido senza solvente, miscela eterogenea dei reagenti [15]. Queste procedure permettono di operare in sicurezza, nel rispetto dell’ambiente, con risparmio energetico, riduzione dei costi, minimizzazione dei residui e semplificazione delle procedure di sintesi. Tra i numerosi tipi di reazione, che possono essere realizzate con questa metodica, si possono citare reazioni di sostituzione, alchilazione, condensazione, saponificazione, isomerizzazione per catalisi basica, riduzione [16]. I forni specifici per la sintesi organica presentano peculiari caratteristiche: erogazione variabile della potenza, controllo della temperatura (sensore ad infrarossi o fibre ottiche), agitazione meccanica o magnetica, reattori aperti o chiusi, interfaccia con computer per monitorare l’andamento della reazione. SINTESI INORGANICA Dal 1986, in seguito alla pubblicazione degli studi di Gedye [12] e Giguere [13] si registra una svolta significativa nell’applicazione della tecnologia microonde nella sintesi organica. Questi autori Numerose sono le applicazioni delle microonde in sintesi inorganica, sia a livello industriale sia di laboratorio. Di particolare interesse, come processo ecocompatibile, è la sintesi idrotermale microonde mediata [17]. La sintesi idrotermale impiega l’acqua come solvente, avviene a pressioni inferiori a 1000 MPa ed a temperature inferiori a 250°C e coinvolge reazioni ioniche in fase eterogenea. Si opera in un singolo step con economia di reagenti, attrezzature e trattamenti per la purificazione dei prodotti ottenuti. L’applicazione del riscaldamento microonde porta ulteriori vantaggi: • la cinetica della reazione è aumentata di uno o due ordini di grandezza • il riscaldamento iniziale è rapido, l’energia risparmiata è considerevole. • si possono formare nuove fasi cristalline rispetto al riscaldamento tradizionale • il controllo della potenza è omogeneo e questo facilita l’uniformità delle particelle Questo procedimento è applicato alla sintesi di polveri metalliche, ossidi binari e compositi, polveri e pigmenti ceramici [18], pigmenti cosmetici [19], filtri, catalizzatori. Non esistono reattori specifici per le sintesi idrotermali microonde mediate e, normalmente, vengono utilizzati forni con le stesse caratteristiche di quelli utilizzati per la digestione dei campioni in ambito analitico. 28 29 SINTESI ORGANICA BIBLIOGRAFIA 1. P.L. SPENCER, US Patents, 2495429, 1950; 2593067, 1952; 2605383, 1952. 2. A.G. WHITTAKER and D.M.P. MINGOS, Journal of Microwave Power and Electromagnetic Energy, 1994, 29, 195-219 (1994). 3. L. PERREUX, A. LOUPY, Tetrahedron, 2001, 57, 9199-9223. 4. J. THUERY in “Microwaves: industrial, scientific and medicinal applications”, Artech House Inc., 1992. 5. J.W. WALKEWICZ, G. KAZONICH, J.L. MC GILL, Mineral and Metall. Process., 1988, 5, 39-42. 6. G. BOND, R.B. MOYES, J.D.POLLINGTON and D.A.WHAN, Chem and Ind. 1991, 686-687. 7. D. STUERGA and M. DELMOTTE in “Microwaves in Organic Synthesis”, A. Loupy (Ed), WileyVCH, Weinheim-Germany, 2002. 8. F. PARODI, La Chimica e l’Industria, 1998, 80, 55-61. 9. E.D. NEAS, M.J. COLLINS, “Introduction to Microwave Sample Preparation, Theory and Practice, Microwave Heating”, H.M. Kingston and Jassie L.B., ACS Professional Reference Book, Chapitre 2, Washington, DC (1988) 10. R.L. BENSON, I.D. MCKELVIE, B.T. HART, I.C. HAMILTON, Anal. Chim. Acta, 1994, 291, 233-242. 11. C. GERBERSMANN, M. HEISTERKAMP, ADAMS F.C., J.A.C. BROEKAERT, Anal. Chim. Acta, 1997, 350, 273-285. 12. R.N. GEDYE, F.E. SMITH, K.C. WESTAWAY, H. ALI, L. BALDISERA, L. LABERGE and J. ROUSELL Tetrahedron Letters, 1986, 27, 279-281. 13. R.J. GIGUERE, T.L. BRAY, S.M. DUNCAN and T. MAJETICH, Tetrahedron Letters 1986, 27, 49454948. 14. A. LOUPY, A. PETIT, J. HAMELIN, F. TEXIER-BOULLET, P. JACQUAULT, D. MATHÉ, Synthesis, 1998, 9, 1213-1234. 15. R.S. VARMA in “Microwaves in Organic Synthesis”, A. Loupy (Ed), Wiley-VCH, Weinheim Germany, 2002, 181-218. 16. L. PERREUX, A. LOUPY in “Microwaves in Organic Synthesis”, A. Loupy (Ed), Wiley-VCH, Weinheim-Germany, 2002, 61-114. 17. S. KOMARNENI, R.K. RAJHA, H. KATSUKI, Materials Chemistry and Physics 1999, 61, 50-54. 18. C. LEONELLI, C. SILIGARDI, F. BONDIOLI, M.C. D’ARRIGO, A. BONAMARTINI CORRADI in “Application of the microwave technology to synthesis and Materials processing 19. S. KOMARNENI, E. MARIANI, M. BRUNO, in “Application of the microwave technology to synthesis and Materials processing”, Mucchi Editore, Modena, 1999, 99-102). 30 CELLE A COMBUSTIBILE: PROGRESSI TECNOLOGICI PER LA PRODUZIONE DI ENERGIA AD ALTA EFFICIENZA, TRASCURABILE IMPATTO AMBIENTALE ED ELEVATO RENDIMENTO CLAUDIO BIANCHINI, PAOLO BERT Nel XX secolo, la ricerca scientifica ed il progresso tecnologico hanno permesso ad una buona parte dell’Umanità il raggiungimento di un elevato standard di benessere che tuttavia esige, per il proprio sostentamento, una costante crescita della produzione energetica, ancor più rapida laddove allo sviluppo tecnologico si affianca un elevato tasso di crescita demografica. Secondo una legge empirica detta “legge del raddoppio”, si calcola che per un tasso di crescita dei consumi energetici del 7% annuo (più o meno quello dei Paesi in via di sviluppo), il fabbisogno energetico raddoppia in 10 anni. Sebbene molto sia stato fatto nella diversificazione e sfruttamento delle risorse e nell’efficienza dei processi produttivi e della distribuzione di energia, la domanda di quest’ultima spesso supera l’offerta e prova ne sono i sempre più frequenti e drammatici black-out elettrici che colpiscono anche i Paesi più sviluppati ed industrializzati. Occorre infatti tener presente che l’energia elettrica presenta lo svantaggio di essere difficilmente immagazzinabile in grandi quantità (batterie di accumulatori e condensatori non sono abbastanza efficaci), il che determina una imprescindibile contemporaneità tra produzione ed impiego: piccoli squilibri nell’erogazione dell’energia sono ammessi solo per pochi istanti e si hanno vincoli molto rigidi sul mantenimento della frequenza di rete. La produzione di energia elettrica è oggi prevalentemente affidata a centrali che sfruttano la combustione di materiali di origine fossile (energia chimica) per generare energia meccanica e da questa energia elettrica (Figura 1). Tali sistemi (centrali termo-elettriche) presentano il problema che ad ogni passaggio di conversione energetica sono associate irreversibilità interne, siano esse di natura intrinseca (cioè legate alla natura del combustibile e del processo) od estrinseca (cioè legate ai macchinari), le quali hanno l’effetto di abbattere il rendimento totale verso valori spesso inferiori al 50%. L’energia non utilizzata viene immessa nell’ambiente sotto forma di calore e di sostanze gassose, alcune delle quali biologicamente nocive, come il monossido di carbonio (CO), e gli ossidi di azoto (NOx) e di zolfo (SOx). La maggior parte delle emissioni è tuttavia costituita da anidride carbonica (CO2) che, pur non essendo direttamente nociva alla salute ed in parte riciclabile dalle piante attraverso la fotosintesi, ha comunque un negativo impatto ambientale contribuendo al cosiddetto effetto serra. Infine, occorre sempre aver presente che i combustibili di origine fossile (gas naturale, petrolio, carbone) sono presenti in natura in quantità limitate, e soprattutto, che molti di essi sono indispensabili anche per la produzione di un’ampia gamma di prodotti, basti pensare alle materie plastiche. Per questi motivi, con grande speranza ed attenzione si guarda alle risorse rinnovabili o comunque disponibili in quantità pressoché illimitata (eolica, solare, idroelettrica, geotermica, da maree e biomasse). Al momento, l’apporto di tali risorse alla bilancia energetica è tuttavia trascurabile rispetto alle esigenze (in Italia, per esempio, le energie rinnovabili coprono meno del 7% del fabbisogno complessivo - fonte ENEA, 2002), né vi sono studi che indichino una loro molto maggiore incidenza nell’immediato futuro. 31 per estrarre l’idrogeno. Qualunque sia il combustibile, tulle le celle impiegano come co-reagente (comburente) l’ossigeno atmosferico che viene generalmente trasformato in acqua. In teoria, la produzione di energia elettrica da una cella a combustibile non ha interruzioni finché l’anodo ed il catodo vengono riforniti rispettivamente di combustibile ed ossigeno. Figura 1. Ciclo di produzione di energia elettrica con impianti tradizionali L’energia nucleare, infine, risolve solo in parte la domanda corrente di energia: i rischi connessi alla sicurezza delle centrali nucleari ed al potenziale uso militare di alcuni isotopi radioattivi hanno di fatto limitato la diffusione di questo sistema di produzione in molti Paesi tra cui l’ Italia che non ha più un programma energetico nucleare a seguito di referendum popolare. Nel contesto più generale di sviluppo sostenibile, indissolubilmente legato ai sistemi di produzione dell’energia, si inserisce l’impegno che la maggior parte dei Paesi industrializzati ha assunto firmando nel 1997 il protocollo di Kyoto, di ridurre entro il 2012 le proprie emissioni di gas serra almeno del 6.5% rispetto ai valori di emissione del 1990. Come fare dunque a coniugare i bisogni crescenti di energia con uno sviluppo sostenibile, evitando di depauperare eccessivamente le risorse naturali del pianeta? La realizzazione e la diffusione di efficienti tecnologie per l’impiego di idrogeno nella produzione di energia sembrano fornire una risposta adeguata. Come ha anche detto l’economista americano Jeremy Rifkin “L’era del petrolio è al tramonto ed il passaggio a nuove fonti energetiche, pulite e rinnovabili, prima fra tutte l’idrogeno, segnerà una rivoluzione paragonabile a quella provocata dal vapore (IXX secolo) e dall’uso dei combustibili fossili (XX secolo)” La ricerca scientifica ha da tempo accettato la sfida di realizzare la cosiddetta Hydrogen Economy e già oggi ci mette a disposizione una serie di dispositivi ad alta efficienza, trascurabile impatto ambientale ed elevato rendimento, per la produzione di energia da idrogeno molecolare o composti che lo contengono in forma atomica. Tali dispositivi sono le celle a combustibile. Figura 2. Ciclo di produzione di energia elettrica con celle a combustibile funzionanti ad idrogeno da reforming Non sfugge a chiunque abbia un po’ di familiarità con la fisica e la chimica la praticità e la semplicità della produzione di energia elettrica direttamente dalla materia. Infatti: • tutte le sostanze sono composte da atomi e quest’ultimi da particelle elementari tra cui gli elettroni carichi negativamente, • la corrente elettrica altro non è che un flusso di elettroni (e dunque di energia) che si muovono in un filo conduttore sotto l’azione di una differenza di potenziale. Pertanto l’estrazione diretta degli elettroni dalle sostanze particolarmente ricche di quest’ultimi appare come la soluzione più semplice e naturale per la produzione pulita ed efficiente di elettricità. La semplicità di un concetto non è però quasi mai sufficiente a convertirlo in realtà applicativa: le difficoltà ed i tempi necessari al trasferimento di una scoperta scientifica in una tecnologia diffusa ed accessibile a tutti sono spesso enormi e lo dimostra proprio il fatto che la prima notizia di una cella a combustibile risale addirittura al 1839 quando il fisico inglese William Grove annunciò di aver ottenuto energia elettrica facendo arrivare idrogeno ed ossigeno su due sottili fogli di platino immersi in una soluzione di acido solforico (Figura 3). COS’È UNA CELLA A COMBUSTIBILE Una cella a combustibile è un dispositivo capace di trasformare direttamente l’energia chimica contenuta in un combustibile in energia elettrica (Figura 2). Una cella a combustibile funziona quasi come una comune batteria, ma a differenza di quest’ultima non si scarica, almeno finché dura il rifornimento del combustibile. Il processo di produzione di energia elettrica in una cella a combustibile è silenzioso e senza parti mobili, ed avviene con evoluzione di calore e di acqua ed, in alcuni casi, di CO2, a seconda che il tipo di combustile impiegato sia idrogeno gassoso (H2) od un composto contenente idrogeno atomico. In quest’ultimo caso, può essere necessario un trattamento del combustibile 32 Figura 3. William Grove (1811-1896) ideatore della prima cella a combustibile nel 1839. 33 Sono passati più di 150 anni dalla scoperta di Grove e solo ora le celle a combustibile stanno entrando nella disponibilità quotidiana, anche se già a partire dagli anni 60, l’industria spaziale (missioni Apollo e Shuttle) impiegava celle a combustibile ad idrogeno per la produzione di energia. PRINCIPALI TIPI DI CELLE A COMBUSTIBILE CELLE AD ELETTROLITA POLIMERICO FUNZIONANTI CON IDROGENO Una moderna cella a combustibile ad elettrolita polimerico funzionante ad idrogeno è schematizzata in Figura 4. L’apparato è costituito da due elettrodi di materiale poroso e conduttivo separati da una membrana di materiale polimerico permeabile agli ioni, chiamato elettrolita. Gli ioni sono particelle costituite da atomi o gruppi di atomi con carica positiva (cationi) o negativa (anioni). Le celle ad idrogeno contenenti membrana polimerica sono note con l’acronimo PEFC da Polymer Electrolyte Fuel Cell. Nel caso di membrane permeabili solo ai cationi come quella mostrata in Figura 4, l’idrogeno viene ossidato all’anodo (elettrodo negativo) secondo la reazione (1) generando protoni (H+) ed elettroni (e-). Figura 4. Schema di funzionamento di una cella a combustibile di tipo PEFC alimentata ad idrogeno e con membrana polimerica a scambio cationico 34 I protoni migrano attraverso la membrana verso il catodo (elettrodo positivo) dove vengono utilizzati, insieme agli elettroni provenienti dall’anodo nella reazione di riduzione dell’ ossigeno atmosferico ad acqua (reazione 2): Anodo Catodo 2 H2 → 4 H + + 4 e O2 + 4 H+ + 4 e- → 2 H2O (1) (2) Il processo per cui idrogeno ed ossigeno si combinano per dare acqua ed energia può essere pertanto descritto dalla reazione complessiva (3) che altro non è che la somma delle reazioni 1 e 2 (chiamate per questo semireazioni), ed è accompagnato dalla produzione di elettricità e calore: 2H2 + O2 → 2 H2O (3) Come sarà mostrato più avanti, l’uso di un elettrolita costituito da una membrana polimerica a scambio anionico, capace cioè di far passare solo cariche negative, induce la formazione di ioni negativi, nella fattispecie ioni idrossido (OH-), nel processo di riduzione dell’ossigeno, mentre il processo elettrochimico complessivo rimane invariato. Sia la reazione anodica che quella catodica avvengono su catalizzatori (denominati anche elettrocatalizzatori), costituiti da lamine metalliche o da particelle metalliche di piccole dimensioni (generalmente nanometriche, 10-9 m, e perfino sub-nanometriche) disperse su un materiale conduttivo (es. carbone). I catalizzatori per celle ad idrogeno di tipo PEFC sono quasi esclusivamente costituiti da platino o leghe platino-rutenio, ed hanno lo scopo di accellerare la velocità delle reazioni anodiche e catodiche che altrimenti avverrebbero con estrema lentezza producendo intensità di corrente irrisorie. Il ruolo dei catalizzatori, insieme a quello dell’elettrolita, è quindi di fondamentale importanza per l’esistenza ed il funzionamento delle celle a combustibile. Nelle PEFC, l’elettrolita polimerico è generalmente costituito da Nafion®, una membrana fluorurata dello spessore di circa 50-200 micrometri, contenente al suo interno ioni negativi (di solito solfonati o carbossilati), capace per questo di permettere il passaggio dei protoni verso il catodo ma non quello degli elettroni. Quest’ultimi sono pertanto costretti a percorrere il circuito esterno generando una differenza di potenziale e quindi una corrente che può essere utilizzata prima del suo ritorno al catodo per produrre lavoro utile. Il Nafion®, come altre membrane polimeriche a scambio protonico, lavora efficacemente tra 70 e 100 °C, limitando in tal modo la funzionalità delle PEFC allo stesso intervallo di temperatura. Il voltaggio ideale ottenibile con una singola PEFC è di circa 1.23 V a 25 °C, tuttavia per varie ragioni (legate all’insorgere di sovratensioni per fenomeni di trasporto di massa, di resistenza, di diversa velocità delle reazioni agli elettrodi) si ottengono voltaggi nell’ordine di 0.7 V e correnti comprese tra 300 e 800 milliampere/cm2. La perdita di energia elettrica è compensata da un aumento del calore prodotto. Potenze e voltaggi maggiori sono ottenibili ponendo in serie, per mezzo di piatti bipolari, più celle singole a formare un cosiddetto stack (Figura 5). Gli stack possono essere a loro volta assemblati in moduli per ottenere generatori di potenza più elevata, attualmente fino a 250 kW con molteplici impieghi, dalla cogenerazione di energia elettrica e calore per usi civili ed industriali, all’autotrazione. 35 L’abbinamento PEFC/reformer viene attualmente impiegato dalle maggiori compagnie produttrici di autoveicoli a motore elettrico con lo schema di funzionamento illustrato in Figura 6. Dai prototipi, si è ormai passati alla produzione e commercializzazione, anche se limitata, di veicoli da parte di alcune compagnie come DaimlerChrysler e BMW. Molti sono anche i tentativi di utilizzare le PEFC come sorgenti di potenza ausiliaria (APU) sia per autoveicoli (DaimlerChrysler) che per aerei (Boeing). CELLE A COMBUSTIBILE DIRETTO Con questo termine si indicano tutte le celle nelle quali un combustibile diverso dall’idrogeno viene direttamente posto a contatto dell’anodo e non preventivamente trattato per estrarre l’idrogeno. La più diffusa cella di questo tipo utilizza il metanolo (CH3OH) ed è conosciuta come cella a metanolo diretto (DMFC da Direct Methanol Fuel Cell). Come illustrato in Figura 7, una tipica DMFC presenta una configurazione ed un funzionamento molto simile alla PEFC. Anche in questo caso, infatti, l’elettrolita è costituito da una membrana polimerica, generalmente a scambio protonico come Nafion®, e sono impiegati catalizzatori anodici e catodici a base di platino e sue leghe. L’intervallo di temperatura di esercizio è ancora tra 70 e 100 °C. Figura 5. Schema di uno stack di due celle planari L’idrogeno impiegato nelle PEFC può essere prodotto in molti modi, alcuni dei quali estremamente convenienti e sostenibili (biomasse, fotolisi di acqua). Resta però il problema del trasporto ed immagazzinamento dell’idrogeno in grandi quantità a causa della sua natura gassosa e dei problemi connessi con la sua liquefazione e l’alta infiammabilità. Per questi motivi si impiegano spesso combustibili liquidi dai quali l’idrogeno viene estratto attraverso un processo chimico chiamato reforming, che avviene in apparati esterni (reformers) alle cella dove sostanze contenenti idrogeno atomico (alcoli, gas naturale, benzine e nafta) reagiscono a temperature molto alte su catalizzatori metallici, generalmente a base di platino, per generare idrogeno e CO2. La dimensione fisica di questi apparati dipende ovviamente dalla quantità di idrogeno richiesta e ne limita comunque l’impiego alla ricarica di batterie per apparecchi elettronici come i computer portatili ed i telefoni cellulari. Figura 7. Schema di funzionamento di una cella a combustibile a metanolo diretto e membrana polimerica a scambio cationico Figura 6. Schema di funzionamento di un motore elettrico per autotrazione alimentato da cella a combustibile funzionante ad idrogeno prodotto da reformer 36 37 Nelle DMFC, il metanolo viene ossidato all’anodo per dare protoni, elettroni e CO2 secondo la reazione 4, mentre il processo catodico è del tutto analogo a quello nelle PEFC (reazione 5): Anodo Catodo CH3OH + H2O → 6 H+ + 6 e- + CO2 3/2 O2 + 6 H+ + 6 e- → 3 H2O (4) (5) Il processo complessivo può essere pertanto descritto dalla reazione (6): CH3OH + 3/2 O2 → CO2 + 2 H2O (+ elettricità + calore) (6) La più evidente differenza tra una DMFC ed una PEFC è il rilascio di CO2 nell’ambiente. La reazione di ossidazione del metanolo sui catalizzatori di platino è più difficile, ed in sé molto più complessa, di quella dell’idrogeno. Ad un certo stadio del processo di ossidazione si produce infatti monossido di carbonio (CO) che tende ad avvelenare il catalizzatore di platino con conseguente decadimento della efficienza di cella. Per limitare questo effetto indesiderato, si usano catalizzatori a base di platino-rutenio, più resistenti al CO. L’aspetto più negativo delle DMFC è dato dal fatto che l’efficienza elettrochimica del metanolo (34%) è largamente inferiore a quella dell’idrogeno nelle PEFC (61%); inoltre il voltaggio teorico è di 1.18 V ma già ad una densità di corrente di 500 milliampere/cm2 scende a 0.4 V. Perciò, per ottenere prestazioni simili a quelle mostrate dalle PEFC a parità di condizioni, occorre aumentare la quantità di platino sull’anodo di circa 10 volte con conseguenti aumenti di costo. Inoltre, si osservano effetti di polarizzazione del catodo di platino quando questo viene a contatto con il metanolo che, anche se in minime tracce, riesce a passare la barriera della membrana. Le celle DMFC ed in genere tutte quelle che non impiegano idrogeno come combustibile, producono CO2 come avviene nelle centrali termoelettriche. Tuttavia, la quantità di CO2 emessa, a parità di energia prodotta, è estremamente ridotta come illustrato dal diagramma in Figura 8 che confronta le emissioni di CO2 di impianti a celle a combustibile con impianti di generazione di energia tradizionali (fonte ENEA, 2002). A questa serie di inconvenienti delle DMFC rispetto alle PEFC si contrappone l’enorme vantaggio che, nelle prime, il combustibile è liquido e miscelato con acqua: si impiegano infatti soluzioni acquose di metanolo al 3-5 %. Ciò comporta l’impiego di normali serbatoi e permette un facile uso delle DMFC per la generazione di potenza a bordo di veicoli e per la costruzione di generatori portatili. La commercializzazione di entrambi i dispositivi è già in atto, specialmente nel settore del trasporto pubblico (oltre dieci autobus Mercedes operanti a Madrid). In Figura 9 è mostrato il veicolo DaimlerChrysler NECAR5-2000 alimentato a metanolo e caratterizzato da una potenza di 75 kW con un’autonomia di 500-600 Km ed una velocità massima di 150 Km/h. Tali prestazioni sono perfino leggermente superiori a quelle del veicolo analogo NECAR-4 1999 alimentato ad idrogeno. Un indiscutibile vantaggio delle celle a combustibile diretto nei confronti di quelle ad idrogeno è quello di poter utilizzare una vasta gamma di combustibili sia liquidi (alcoli in genere) che solidi solubili in acqua (acidi, aldeidi, zuccheri). Come l’etanolo, tutti questi combustibili vengono alla fine trasformati in CO2, acqua ed energia. Ovviamente le prestazioni elettrochimiche cambiano in funzione del combustibile e dal tipo di catalizzatore anodico impiegato. Particolare interesse stanno suscitando le celle ad etanolo diretto poiché questo alcool, a differenza del metanolo, non è tossico e, cosa più importante, è una risorsa rinnovabile perché facilmente ottenibile per fermentazione di molte specie vegetali. Figura 9. Autoveicolo NECAR5 alimentato con stack di celle a metallo diretto prodotto dalla DaimlerChrysler Figura 8. Confronto delle emissioni di CO2 da impianti a celle a combustibile con impianti di generazione di potenza tradizionali 38 La diffusione delle celle di tipo PEFC e DMFC, come di tutte le altre celle a combustibile funzionanti a platino, è drammaticamente limitata dalla scarsa abbondanza naturale di questo metallo e quindi dal suo alto costo. Il platino è infatti un metallo molto raro, già largamente impiegato nei convertitori catalitici per autoveicoli, con una produzione mondiale di sole 165 tonnellate nel 2002 (fonte Johnson Matthey); già oggi la domanda di platino è superiore all’offerta e destinata ad aumentare vertiginosamente proprio per l’espansione dell’industria dell’idrogeno. 39 Allo stato attuale della tecnologia una Mercedes classe A funzionante ad idrogeno da reformer impiega 180 g di platino. Perciò tutto il platino estratto nel 2002 non basterebbe a produrre che 900.000 auto, cioè nemmeno un quarto dei veicoli prodotti nello stesso anno. Parimenti se i 430 milioni di telefoni cellulari fossero dotati di celle a combustibile con catalizzatore a base di platino, assorbirebbero un terzo della produzione mondiale, causando una lievitazione dei costi e seri problemi di approvvigionamento per altri usi industriali. Per ovviare alla scarsa disponibilità di efficienti catalizzatori agli elettrodi e favorire dunque una maggiore diffusione delle celle a combustibile, sono stati recentemente sviluppati da ACTA SpA e CNR-ICCOM catalizzatori a base di metalli comuni come ferro, cobalto e nichel, addirittura più efficienti di quelli di platino a parità di concentrazione metallica. Questa scoperta ha rappresentato una vera e propria rivoluzione tecnologica e costituisce al momento l’unica tecnologia che possa permettere alle celle a combustibile di passare dai banchi di laboratorio agli scaffali dei negozi. Singole celle di tipo PEFC e DMFC con anodi a base di ferro-cobalto-nichel e catodi di nichel sono già in commercio a scopo didattico (Fig. 10), mentre stacks di celle per la realizzazione di generatori portatili fino a 1 kW saranno disponibili alla fine del 2006. Gli elettrodi a base di ferro-cobalto-nichel sono molto meno sensibili di quelli di platino ad eventuali inquinanti (es. CO) e, non causando sovratensioni per passaggio del combustibile dall’anodo al catodo, permettono l’impiego di concentrazioni di combustibile molto più alte di quelle delle celle a platino, con conseguente aumento dell’autonomia di funzionamento. Inoltre, i catalizzatori possono essere modulati in modo da utilizzare, con la stessa efficacia, non solo idrogeno o metanolo ma anche etanolo, glicole etilenico e perfino idrocarburi leggeri. Le celle a ferro-cobalto-nichel funzionano sia con membrane polimeriche a scambio protonico (tipicamente Nafion®) che con membrane polimeriche a scambio anionico che, come già accennato, inducono la formazione di ioni idrossido OH- ai quali sono permeabili. Nel caso degli elettroliti polimerici a scambio anionico le semireazioni che avvengono agli elettrodi, ad esempio con alimentazione ad idrogeno o a metanolo, sono pertanto leggermente diverse da quelle rappresentate in precedenza, mentre i processi complessivi sono identici. con idrogeno e membrana anionica Anodo Catodo H2 + 2 OH- → 2 e- + 2 H2O 1/2 O2 + 2 e- + H2O → 2 OH- (7) (8) con metanolo e membrana anionica Anodo Catodo CH3OH + 6 OH- → 6 e- + CO2 + 5 H2O 3/2 O2 + 6 e- + 3 H2O → 6 OH- (9) (10) E’ dunque il tipo di membrana a stabilire se la corrente elettrica ottenuta avviene in ambiente acido (presenza di H+) o basico (presenza di OH-). ALTRI TIPI DI CELLE A COMBUSTIBILE Oltre a quelle finora descritte, esistono altri tipi di celle a combustibile che si differenziano primariamente per la natura dell’elettrolita e degli ioni di trasporto nonché per le condizioni sperimentali di esercizio, in particolar modo la temperature. La Figura 11 illustra le caratteristiche di alcuni importanti tipi di cella e ne mette in risalto le differenze di funzionamento. Figura 11. Schema e specifiche di funzionamento di celle a combustibile di tipo AFC, PAFC, MCFC e SOFC Figura 10. Cella monoplanare Acta SpA alimentata ad etanolo diretto dotata di catalizzatori a ferro-cobalto-nichel 40 41 CELLE DI TIPO AFC Con l’acronimo AFC (Alkaline Fuel Cell) si indicano le celle che impiegano come elettrolita una soluzione acquosa concentrata di idrossido di potassio (generalmente al 30-45%). Il combustibile è sempre idrogeno (reazione 11) che deve essere però molto puro, in particolare privo di composti che potrebbero interagire con l’elettrolita (ad esempio, CO2 che forma ioni carbonato, CO32-). Gli ioni che attraversano la cella attratti, questa volta attratti dal polo positivo anodico, sono gli ioni idrossido (OH-) dell’elettrolita vengono rigenerati al catodo in seguito alla riduzione di ossigeno (reazione 12). Anodo Catodo H2 + 2 OH- → 2 H2O + 2 e1/2 O2 + 2 e- + H2O → 2 OH- (11) (12) Le celle AFC operano a temperature comprese tra 70 e 120 °C e possono impiegare al catodo anche metalli diversi dal platino come ad esempio nichel ed argento. Pur avendo rendimenti elettrici abbastanza elevati (fino al 65%), tempi di vita lunghi e basso costo dei componenti che ne favoriscono pertanto l’impiego nell’autotrasporto, le celle di tipo AFC sono quasi in disuso per la troppa sensibilità dell’elettrolita ai composti ossigenati del carbonio. L’alta temperatura di esercizio, aumentando la velocità delle reazioni agli elettrodi, permette l’impiego di metalli meno reattivi del platino, ma anche molto meno costosi, ed inoltre può funzionare direttamente con gas naturale e idrocarburi leggeri senza bisogno di reforming esterno (il reforming avviene infatti nella cella). L’alta corrosività dei carbonati fusi crea però dei problemi di stabilità strutturale ai componenti della cella, e costituisce pertanto un serio ostacolo alla diffusione di questo tipo di celle a combustibile. Le celle MCFC hanno buona efficienza (fino al 60%) e sono potenzialmente impiegabili per la generazione e cogenerazione di energia elettrica in impianti stazionari da 250 kW fino a 20-30 MW. CELLE DI TIPO SOFC Come le celle di tipo MCFC, le SOFC (Solid Oxide Fuel Cell) non utilizzano né idrogeno né catalizzatori a base di platino. Queste celle lavorano a temperature molto elevate (tra 900 e 1000 °C) e sono quindi adatte esclusivamente ad impianti stazionari. L’alta temperatura di esercizio è necessaria a permettere una sufficiente conducibilità interna dato che l’elettrolita è costituito da materiale ceramico (generalmente ossido di zirconio drogato con ossido di ittrio). A muoversi dal catodo all’anodo sono infatti gli ioni ossido (O2-) che prodotti al catodo (reazione 16) sono consumati all’anodo (reazione 15): CELLE DI TIPO PAFC Le celle di tipo PAFC (Phosphoric Acid Fuel Cell) funzionano ad una temperatura più alta delle celle finora descritte (almeno 200 °C) ed impiegano come elettrolita una soluzione concentrata di acido fosforico (H3PO4). Il combustibile è sempre idrogeno ed i catalizzatori sono a base di platino. Le reazioni agli elettrodi sono identiche a quelle delle PEFC. L’alta temperatura permetterebbe l’utilizzo di idrogeno direttamente proveniente da reforming, e quindi contenente piccole quantità di CO, tuttavia la presenza di platino agli elettrodi richiede un basso contenuto di CO (< 1%) a causa degli effetti deleteri di quest’ultimo gas sul catalizzatore di platino. Queste celle rappresentano, insieme alle celle ad alta temperatura, la tecnologia più matura per usi stazionari, per applicazioni di cogenerazione di energia elettrica nel settore residenziale e terziario. CELLE DI TIPO MCFC Le celle a carbonati fusi, MCFC da Molten Carbonate Fuel Cell, si differenziano da tutte le precedenti per l’alta temperatura di funzionamento (oltre 650 °C) ed usano, a questo scopo, un elettrolita costituito da una soluzione di carbonati alcalini fusi che impregna una matrice ceramica porosa. Gli ioni che trasportano la carica nella cella sono ioni carbonato CO32-. I catalizzatori per la reazione anodica (reazione 13) non necessitano di platino, essendo comunemente costituiti da nichel-cromo o nichel-alluminio. La riduzione dell’ossigeno atmosferico (reazione 14) procede su catalizzatori a base di ossido di nichel. E’ interessante notare come in questo tipo di celle la CO2 prodotta all’anodo venga poi riciclata al catodo. Anodo Catodo H2 + CO32- → H2O + CO2 +2 e1/2 O2 + CO2 + 2 e- → CO32- 42 (13) (14) Anodo Catodo 2 H2 + 2 O2- → 2H2O +4 eO2 + 4 e-→ 2 O2- (15) (16) Queste celle possono funzionare anche con idrogeno contaminato da monossido di carbonio. In questo caso, il CO reagisce, sempre all’anodo, con gli ioni ossido per formare CO2 e con acqua per rigenerare H2 secondo la reazione: CO + H2O → CO2 + H2. Gli anodi sono generalmente costituiti da miscele di ossidi di nichel e zirconio e i catodi da manganito di lantanio drogato con stronzio. Grazie all’elevata temperatura di funzionamento non sono richiesti impianti di pretrattamento del combustibile, pertanto possono essere impiegati gas naturale, biogas o gas da carbone. La Siemens Westinghouse ha già sviluppato impianti stazionari SOFC con moduli da 250 kW. In Tabella 1, per comodità del lettore, sono state riportate le principali caratteristiche delle celle a combustibile ad elettrocatalizzatori sintetici precedentemente trattate. CELLE A COMBUSTIBILE ENZIMATICHE Ancora allo stadio di ricerca, ma di grande interesse per l’assenza di ogni impatto ambientale, sono le celle a combustibile prive di catalizzatore metallico all’anodo. In queste celle, comunemente denominate BFC da biofuel cell, il combustibile, generalmente etanolo, viene ossidato producendo elettroni per azione di sistemi enzimatici opportunamente fissati ad un elettrodo conduttore, mentre il catodo può essere di tipo standard, per esempio di platino. Nel caso degli alcoli può essere impiegato l’enzima alcool deidrogenasi (ADH) che li converte in aldeidi liberando due elettroni. Altri due elettroni possono poi essere generati per azione di un altro enzima, l’aldeide deidrogenasi che appunto degrada le aldeidi a CO2. Un co-enzima, nicotinamide adenin dinucleotide, NADH, assiste l’ADH nel processo catalitico di ossidazione dell’alcool mediando il trasporto di elettroni come mostrato in Figura 12. 43 Tabella 1. Principali caratteristiche delle più diffuse celle a combustibile I principali inconvenienti delle biocelle sono la scarsa stabilità degli enzimi alla temperatura ed al pH, e la basse potenze finora ottenute. Importanti progressi, specialmente per quanto riguarda la durata dei sistemi, sono stati recentemente ottenuti attraverso l’immobilizzazione degli enzimi sulla superficie degli elettrodi mediante Nafion® modificato con sali ammonici quaternari. Figura 12. Ossidazione di etanolo ad aldeide in una biocella a combustibile con anodo costituito dall’enzima aldeide deidrogenasi (ADH) coadiuvata da nicotinamide adenin dinucleotide (NAD) CONCLUSIONI E PROSPETTIVE Le celle a combustibile rappresentano oggi la tecnologia più promettente per l’impiego dell’idrogeno nella produzione sostenibile di elettricità e calore. Come mostrato in questo breve capitolo, le celle a combustibile offrono una vasta gamma di applicazioni, dalla cogenerazione in impianti stazionari per abitati di piccole e medie dimensioni, ai trasporti fino all’elettronica portatile. Una cella a combustibile non ha parti meccaniche in movimento, quindi non comporta attriti né forze di inerzia, è silenziosa e fino a due volte e mezzo più efficiente del motore a combustione interna. Se alimentata ad idrogeno, gli unici prodotti che una cella genera sono elettricità, calore ed acqua distillata. Allo stato attuale, però, la produzione di idrogeno è ancora troppo costosa: questo fa sì ché la maggior parte delle celle a combustibile oggi funzionante sia di tipo stazionario alimentate a metano, biogas e gasolio. La sfida sarà dunque quella di rendere più competitiva la produzione di idrogeno attraverso lo sviluppo di nuovi e più efficienti catalizzatori di reforming e per la scissione fotolitica di acqua in idrogeno ed ossigeno. Di pari passo, dovranno essere sviluppati efficienti sistemi per l’immagazzinamento ed il trasporto sicuro di idrogeno. Nel medio termine, le celle a combustibile diretto, eventualmente alimentate ad etanolo e con catalizzatori a base di metalli non nobili, costituiranno una valida alternativa, soprattutto per la produzione di generatori di potenza portatili e per l’autotrasporto. 44 45 BIBLIOGRAFIA 1. M. RONCHETTI, A. IACOBAZZI, Celle a combustibile, ENEA, Febbraio 2002. 2. W. VIELSTICK, A. LAMM, Handbook for fuel cells, Vol. I-III; Wiley, New York, 2003. 3. J. RIFKIN, The Hydrogen Economy, Tarcher, 2002. TECNOLOGIE CATALITICHE PER IL CONTROLLO E LA PREVENZIONE DELL’INQUINAMENTO ATMOSFERICO DA SORGENTI MOBILI PAOLO FORNASIERO 1. INTRODUZIONE Inquinamento atmosferico significa presenza nell’atmosfera di uno o più sostanze, come polveri, gas, nebbie, odori, fumi o vapori, in quantità, caratteristiche e persisteza tali da risultare dannosi per la salute dell’uomo, degli animali e delle piante, o tali da danneggiare i manufatti (costruzioni, monumenti, connessioni telefoniche, ecc). Va subito notato come molte sostanze considerate inquinanti siano dei componenti minori dell’aria “pulita”; è il caso di NO2, CO, O3, SO2 e NH3. L’inquinamento non è quindi dovuto alla mera presenza di questi gas, ma alla loro concentrazione nei luoghi dove più alta è l’attività umana (città). Infatti la potenzialità di una esplosione vulcanica è ben superiore all’inquinamento da SO2 e H2S prodotto dall’uomo in un anno ma, grazie a una migliore distribuzione nell’atmosfera, essa provoca, in proporzione, danni minori. Quando, nel 1970, furono emanati gli emendamenti all’American Clean Air Act (prima importante legge americana in materia di controllo dell’inquinamento atmosferico), riguardanti la riduzione del 90% dei gas di scarico emessi dagli autoveicoli, è stato stimato che le automobili immatricolate erano circa 200 milioni. Da allora il numero degli autoveicoli in circolazione è più che raddoppiato ed è previsto che raggiunga quota 800 milioni nell’anno 2010. Non è dunque sorprendente che il problema dell’emissione dei gas di scarico degli autoveicoli, che è tra le principali cause dell’inquinamento atmosferico, abbia assunto un’importanza sempre maggiore nei paesi più industrializzati. Il pericolo derivante da tali emissioni va ricercato nella elevata tossicità di alcuni componenti della miscela di post-combustione. 1.1 EMISSIONI INQUINANTI DA FONTI MOBILI I principali inquinanti emessi dagli autoveicoli possono essere classificati come segue [1]: Monossido di carbonio (CO) E’ un gas invisibile e senza odore prodotto da una non perfetta combustione (carenza di ossigeno). Quasi il 90% delle emissioni di questo inquinante sono originate dai mezzi di trasporto. E’ un inquinante locale la cui presenza può variare in modo molto sensibile da luogo a luogo della città a seconda delle condizioni di traffico, di ventosità e dalla distanza dalle fonti d’emissione. Esso si combina con l’emoglobina nel sangue formando la carbossiemoglobina (COHb). Il complesso che ne risulta è 240 volte più stabile di quello con l’ossigeno e pertanto si ha una drastica riduzione della capacità di trasporto di ossigeno ai tessuti, che può portare alla morte. Ossidi di azoto (NOx) Si formano durante le reazioni di combustione ad alta temperatura, condizioni che permettono la combinazione dell’ossigeno e dell’azoto entrambi presenti nell’aria. Essi sono prodotti per oltre il 46 47 50% dagli autoveicoli, per il 20% dall’industria e dagli impianti di riscaldamento e per quasi il 30% dagli impianti termoelettrici. Sono inquinanti persistenti che possono essere trasportati a grandi distanze e danneggiano, oltre alla salute umana, la vegetazione e le acque, trasformandosi in acido nitrico nelle piogge acide. Aumentando il rapporto aria/combustibile, si favorisce la combustione, diminuendo le emissioni di CO ed idrocarburi. La temperatura del motore sale e quindi la formazione di ossidi di azoto risulta favorita. Il contributo della reazione tra N2 e O2 diventa significativo anche a causa della maggiore disponibilità di ossigeno. Ozono e smog fotochimico Lo smog fotochimico è un inquinante secondario, sostanzialmente costituito da ozono, perossiacetilnitrato (PAN) e altri perossidi, che si origina per interazione tra idrocarburi, CO, ossigeno e ossidi di azoto in presenza di un’opportuna radiazione luminosa. Il fenomeno risulta particolarmente pronunciato nel periodo estivo e primaverile (maggiore irraggiamento solare). Il forte potere ossidante di queste sostanze le rende particolarmente irritanti per le mucose delle vie aeree e delle congiuntive, nonché estremamente aggressive verso numerosi polimeri sintetici. Idrocarburi (HC) Le emissioni di idrocarburi incombusti o parzialmente combusti provengono al 40% dagli autoveicoli. In questo caso sono emessi dai tubi di scarico degli automezzi, dall’evaporazione del carburante dalle vetture, dal rifornimento delle stesse e dalla produzione e distribuzione di carburante. Tra questi destano particolare allarme gli idrocarburi aromatici (benzene) e i policiclici aromatici, di cui è accertata la cancerogenicità. Particolato (PM) E’ presente negli scarichi della combustione ed è costituito da un insieme di sostanze solide e liquide attorno ai quali sono trattenuti idrocarburi incombusti, metalli (arsenico, piombo, rame, ecc.) e altro. La gran parte delle emissioni di questi composti è causata dalla combustione negli autoveicoli, in particolare diesel, e dagli impianti di riscaldamento. Il pulviscolo atmosferico è tanto più pericoloso quanto è minore la sua dimensione: le particelle più piccole penetrano infatti nelle basse vie respiratorie e arrivano fino agli alveoli polmonari. Ossidi di zolfo (SOx) Provengono dallo zolfo contenuto nei combustibili e liberato durante la combustione. Assieme agli ossidi di azoto sono responsabili delle piogge acide. Attualmente, le principali fonti di questo tipo di inquinamento sono le centrali termoelettriche, le industrie e gli impianti di riscaldamento. Negli ultimi anni, l’utilizzo crescente del metano negli impianti di riscaldamento e la riduzione del tenore di zolfo nei combustibili per autotrazione hanno ridotto la gravità del fenomeno. Le quantità di CO, idrocarburi e NOx emesse dagli autoveicoli dipendono da molti fattori quali la temperatura di combustione e le condizioni di lavoro del motore. In un motore a benzina il fattore determinante risulta essere il rapporto aria/combustibile (A/F) [1]. E’ da notare che, come illustrato in Fig. 1, in nessuna condizione di A/F le tre principali classi di inquinanti possono essere contemporaneamente ridotte al minimo. Infatti, operando in condizioni di miscela ricca (A/F << 14.6), la carenza di ossigeno nella miscela di combustione fa si che le emissioni di idrocarburi e di CO siano elevate. La non ottimale combustione non consente al motore di raggiungere elevate temperature sfavorendo la reazione tra N2 e O2 dell’aria. Quest’ultima, risulta fortemente inibita anche dalla competizione con la reazione di combustione degli idrocarburi con O2 (in difetto). Pertanto le emissioni di ossidi di azoto sono ridotte. 48 Figura 1. Emissioni inquinanti e potenza del motore in funzione del rapporto aria combustibile per un autoveicolo a benzina. Quando la quantità di aria presente è esattamente quella necessaria per far avvenire la completa combustione della benzina si è in condizioni di miscela stechiometrica e il rapporto in peso A/F vale circa 14.6. Tale valore può essere calcolato considerando il n-ottano come idrocarburo rappresentativo della benzina. Si ha in questo caso che la combustione completa di una mole di n-ottano richiede l’utilizzo di 12.5 moli di ossigeno secondo la seguente reazione: C8H18 + 12.5 O2 + 12.5 (3.76 N2) → 8 CO2 + 9 H2O + 47 (N2) Si parla di combustione completa in quanto essa porta selettivamente alla produzione di CO2 e di H2O e non si formano CO o idrocarburi parzialmente ossidati (combustione parziale). Poiché l’aria contiene circa il 79 % di N2 ed il 21% di O2, bisogna considerare che durante la combustione completa del n-ottano utilizzando aria come ossidante, per ogni mole di ossigeno consumata debbono essere introdotte nel motore anche 3.76 moli di azoto. Pertanto per una mole di n-ottano si consumano 12.5 moli di ossigeno e risultano presenti 12.5 x 3.76 (47) moli di azoto. E’ possibile quindi calcolare il valore del rapporto Aria / Combustibile in condizioni stechiometriche dal rapporto tra la massa di n-ottano e quella di aria coinvolta nella reazione di combustione totale sopra descritta. Considerando una mole di n-ottano: A/F stechiometrico = (Peso molecolare C8H18) / (12.5 x Peso molecolare O2 + 47 x Peso molecolare N2) = 14.6 Operando a rapporti A/F superiori allo stechiometrico, l’eccesso di ossigeno nella miscela di combustione, rende minime le emissioni di idrocarburi incombusti e di CO ma provoca un aumento delle emissioni di NOx. Aumentando ulteriormente il rapporto A/F si osserva una diminuzione della 49 potenza del motore associata ad una non ottimale combustione (eccesso di comburente rispetto al combustibile). Ciò porta ad una diminuzione della temperatura del motore e quindi ad una riduzione delle emissioni di NOx. L’imperfetta combustione provoca però un aumento delle emissioni di idrocarburi incombusti. Sebbene negli ultimi anni le innovazioni motoristiche e il miglior controllo del rapporto A/F nel motore abbiano portato a significativi progressi nel campo dell’emissione e della potenza, nessuno di essi ha permesso di rispettare le limitazioni imposte dalle leggi attuali sulle emissioni senza l’uso di un sistema catalitico. 2. TECNOLOGIE CATALITICHE PER LA RIDUZIONE / PREVENZIONE DELL’INQUINAMENTO ATMOSFERICO DA FONTI MOBILI 2.1 VEICOLI A BENZINA Al fine di abbattere gli inquinanti emessi dai veicoli a benzina si utilizzano attualmente i catalizzatori a tre vie (“Three Way Catalyst”-TWC). Il nome deriva dalla possibilità di rimuovere contemporaneamente le tre principali classi di inquinanti (ossidi di azoto, monossido di carbonio ed idrocarburi). Solo per valori di A/F vicini a quello stechiometrico, il catalizzatore, promuovendo sia le reazioni di ossidazione che di riduzione, è in grado di ridurre simultaneamente le emissioni inquinanti di CO, NO ed idrocarburi fino a circa il 98% (Fig. 2) [2]. Figura 2. Efficienza del catalizzatore a tre vie in funzione del rapporto in peso aria/combustibile (A/F). E’ evidenziata la finestra operativa di A/F. La legislazione corrente richiede un abbattimento degli inquinanti pari al 98% rispetto ai livelli del 1968. Da qui si intuisce la necessità di operare in condizioni di A/F rigidamente controllate in quanto la finestra operativa di A/F in cui si hanno conversioni elevate è piuttosto stretta (Fig. 2). Per questo motivo viene utilizzato un sistema di controllo dell’alimentazione, costituito da iniettori e da una centralina elettronica collegata ad un sensore di ossigeno nei gas di scarico (sonda λ) (Fig. 3). 50 Figura 3. Sistema di controllo dei gas di scarico in un motore a scoppio. La sonda λ misura in continuo la concentrazione di ossigeno nei gas di scarico e fornisce l’informazione ad una centralina elettronica. Quando viene rilevata una carenza di ossigeno, la centralina elettronica comanda l’aggiunta di maggiore quantità di aria al motore operando sui flussimetri d’aria e sugli iniettori di benzina. In questa maniera si riesce a compensare almeno in parte le oscillazioni, attorno al valore stechiometrico del rapporto aria combustibile, che si hanno durante la guida. Le brusche accelerate o frenate ed in generale una guida non regolare rendono estremamente difficoltoso un controllo efficace del rapporto aria/combustibile e quindi riducono notevolmente l’efficacia dei catalizzatori a tre vie. Le seguenti reazioni possono avvenire su un catalizzatore a tre vie: CO HC H2 NO NO HC NO CO HC 3 NO 2 NO 2 N2O 2 NO 2 NH3 + + + + + + + + + + + 1/2 O2 O2 1/2 O2 CO H2 NO 5/2 H2 H2O H2O 2 NH3 H2 → → → → → → → → → → → → → → CO2 H2O H2O 1/2 N2 1/2 N2 N2 NH3 CO2 CO 5/2 N2 N2O 2 N2 N2 N2 + CO2 + + + + + + + + + + + CO2 H2O H2O H2O H2 H2 3 H2O H2O O2 O2 3 H2 + CO2 + CO2 Fra tutte, le uniche reazioni desiderate sono l’ossidazione di CO e idrocarburi (HC) a CO2 e H2O e la riduzione di NO a N2. Deve essere evitata, in particolare, la formazione di ammoniaca: è questa la ragione per cui i catalizzatori devono presentare elevata selettività. 51 Nella figura 4 è mostrata una marmitta catalitica. Il flusso di gas viene fatto passare attraverso un monolita ceramico composto di cordierite (2 MgO·2Al2O3·5 SiO2) con una tipica struttura a nido d’ape. Sulla superficie della cordierite è applicato un rivestimento di allumina (dello spessore di 30-50 µm) che ha la funzione di supporto del metallo nobile e ne favorisce la dispersione. Sapendo che per una sfera il volume = 4/3π r3 si ricava che il raggio della particella in oggetto è: Figura 4. Schema di una marmitta catalitica. In modo schematico, in una marmitta catalitica possono essere distinti tre elementi principali: a. Fase attiva (metalli nobili) b. Promotori c. Supporto. L’insieme di questi tre elementi viene definito “washcoat”. [2] a. Fase attiva (metalli nobili). Il rodio è il componente principale nel controllo delle emissioni di NOx nei catalizzatori a tre vie: è molto attivo nel promuovere selettivamente la riduzione di NOx a N2 con minima formazione di ammoniaca; catalizza inoltre l’ossidazione di CO. La quantità di metallo utilizzata in un convertitore catalitico varia da 0.18 a 1 grammo. La peculiare capacità del rodio di convertire l’NO è legata alla sua struttura elettronica. L’iridio e il rutenio pur catalizzando efficacemente la riduzione di NO, non sono utilizzati in quanto formano ossidi volatili alle temperature di lavoro. Il platino e il palladio sono invece utilizzati poiché promuovono l’ossidazione di CO e HC soprattutto a basse temperature. Le quantità utilizzate variano da 0.9 a 5 grammi per marmitta catalitica. b. Promotori. Tra i vari promotori/stabilizzatori di area superficiale presenti in una catalizzatore a tre vie riveste un ruolo fondamentale l’ossido di cerio (CeO2) al quale vengono attribuite le seguenti funzioni. [3] • profondamente portando alla distruzione della sua struttura porosa. Quest’ultima è di vitale importanza per un catalizzatore eterogeneo solido. Infatti, essa impartisce al materiale un’elevata area superficiale. La presenza di ossido di cerio impedisce che il supporto modifichi/diminuisca con la temperatura la sua superficie. Inoltre la presenza di CeO2 sulla superficie di Al2O3 consente di sintetizzare sul supporto particelle di metalli nobili di dimensioni nanometriche (1 nm = 10-9 m). Queste ultime, in quanto molto piccole, posseggono elevata dispersione metallica ( rapporto percentuale tra atomi metallici di superficie e atomi metallici totali). Ciò significa che la maggior parte del costoso metallo nobile si trova sulla superficie e che esso è accessibile ai gas che debbono essere convertiti. In assenza di ossido di cerio la dispersione che si ottiene è mediamente più bassa, cioè si producono, in fase di sintesi del catalizzatore, cristallini metallici di dimensioni notevoli. Questi ultimi sono caratterizzati da un basso rapporto superficie/massa e pertanto da una minore attività catalitica (proporzionale alla superficie). Il concetto che al diminuire delle dimensioni delle particelle aumenti la superficie totale può essere facilmente compreso considerando un esempio numerico. Si consideri ad esempio una massa M di metallo nobile (densità ρ) che viene depositata su un opportuno supporto formando un’unica particella metallica, per semplicità di calcolo, di geometria sferica. In questo caso la particella metallica presenterà un volume V dato da : Stabilizzazione del supporto e incremento della dispersione del metallo. L’utilizzo di ossido di cerio consente infatti di migliorare la resistenza termica dei materiali impiegati. In particolare l’ossido di alluminio (Al2O3) che viene utilizzato comunemente quale supporto per la fase attiva (metalli nobili), quando viene a contatto con i gas caldi emessi dal motore può raggiungere temperature dell’ordine dei 1000-1100 °C. A tali temperature il materiale tende a deformarsi 52 L’area superficiale per una particella sferica è S = 4π r2 e pertanto: Se invece ipotizziamo che con la stessa massa M di metallo nobile, al posto di una singola particella metallica sferica, si ottengono X particelle metalliche identiche tra loro e sempre di geometria sferica, allora il volume di una singola particella metallica (Vi) sarà: Dove V è il volume corrispondente alla massa M di metallo nobile calcolato prima. Il raggio di una delle X particelle identiche tra loro è: L’area superficiale per una delle X particelle identiche tra loro è: L’area superficiale totale corrispondente alle X particelle metalliche è: Pertanto si ricava che: 53 Appare evidente che, a parità di massa di metallo, all’aumentare del numero di particelle e quindi al diminuire delle loro dimensioni, aumenta la superficie complessiva. Operando ad esempio con 1 grammo di Rh (ρ = 12.41 g/cc), una singola particella sferica ha una superficie di 0.90 cm2 mentre 10 particelle metalliche hanno una superficie complessiva di 1.94 cm2, cioè 2.15 volte maggiore. • Capacità di immagazzinare e rilasciare ossigeno (OSC “Oxygen Storage Capacity”) rispettivamente in condizioni di miscela “magra” (eccesso di ossigeno/aria rispetto alle necessità per una combustione stechiometrica) e di miscela “ricca”, (eccesso di combustibile rispetto alle quantità di ossigeno presente o meglio carenza di ossigeno per effettuare una combustione completa, A/F <14.6) grazie alla coppia redox Ce(III)/Ce(IV): CeO2 • Promozione della reazione di conversione del gas d’acqua (si noti che è una reazione di equilibrio): CO + H2O • CeO2-x + 1/2 O2 La reazione di conversione degli inquinanti procede attraverso un meccanismo a più stadi (Fig. 6). Il primo è costituito dalla diffusione dei reagenti (gli inquinanti) dalla fase gassosa verso la superficie del catalizzatore. Successivamente si ha l’adsorbimento dei reagenti sui siti attivi (spesso siti metallici superficiali). Tali siti sono costituiti da difetti superficiali o da atomi di vertice o spigolo in quanto coordinativamente insaturi, cioè in grado di legare un atomo o una molecola. L’adsorbimento può essere di tipo dissociativo, come nel caso di NO, che per trasformarsi in N2 deve rompere il legame tra azoto ed ossigeno, o di tipo molecolare come nel caso del CO. Le specie superficiali formatesi hanno la possibilità di diffondere sulla superficie. La ricombinazione delle specie opportunamente attivate porta infine all’ottenimento dei prodotti (due atomi di azoto danno N2, CO con un atomo di ossigeno forma CO2, NO con un atomo di N dà N2O ecc). Infine si ha la diffusione dei prodotti dalla superficie verso la fase gassosa. CO2 + H2 Promozione della reazione di “steam reforming” che porta alla conversione degli idrocarburi incombusti presenti nei gas di scarico in anidride carbonica ed idrogeno. Quest’ultimo, può venir positivamente utilizzato successivamente per la riduzione delle emissioni di ossidi di azoto. HC + H2O CO2 + H2 (HC = idrocarburo) “steam reforming” Il secondo punto, in particolare, è di estrema importanza tecnologica: infatti, nonostante uno stretto controllo nell’iniezione di carburante e ossigeno, a causa delle rapide variazioni di velocità dell’autoveicolo si osservano vistose oscillazioni del rapporto A/F che superano l’ampiezza dell’intervallo di funzionamento ottimale del catalizzatore (Fig. 5). La capacità di CeO2 d’immagazzinare ossigeno consente di controllare il rapporto A/F aumentando così l’efficienza del sistema catalitico. [3] Figura 6. Rappresentazione schematica degli stadi di un processo chimico mediato da un catalizzatore eterogeneo. c. Supporto. I metalli nobili e i promotori sono depositati su allumina: quest’ultima è caratterizzata da un’elevata area superficiale, da una struttura porosa stabile nelle condizioni operative ed è facilmente reperibile e di basso costo. La situazione è in realtà molto più complessa, in quanto il supporto dei metalli nobili svolge spesso un ruolo attivo nella conversione degli inquinanti. Infatti, l’adsorbimento dei reagenti avviene anche sulla superficie del supporto. La elevata mobilità superficiale delle specie adsorbite consente poi la loro migrazione sui siti attivi del catalizzatore e la attesa conversione. La reattività può avvenire in parte anche sul supporto o all’interfase metallo nobile-supporto. Per il sistema Rh/CeO2, è stato proposto ad esempio che CO venga adsorbito sul metallo e si ossidi ad opera dell’ossigeno di CeO2, che può migrare dalla superficie dell’ossido a quella del metallo. Sulla superficie dell’ossido rimane una vacanza anionica, cioè un sito in cui manca un atomo di ossigeno, che è associata alla riduzione del supporto. Il ciclo catalitico viene quindi completato dalla riossidazione ad opera di H2O della ceria parzialmente ridotta [4]. (Fig. 7) Anche la conversione di NO è stato dimostrato poter avvenire su sistemi contenenti Ce(III) [5]. E’ questo il caso delle soluzioni solide di ceria e zirconia utilizzate nei moderni catalizzatori a tre vie. In questo caso è stata proposta l’esistenza di due cicli catalitici, uno attivo a bassa temperatura, mediato dal supporto ed uno ad alta temperatura, governato dalla reattività del metallo nobile (Fig. 8). Al di sotto di 230 °C, l’NO può essere ridotto a N2O o N2 su siti di Ce(III) riossidandoli a Ce(IV). Il ruolo 54 55 Figura 5. Variazione del rapporto A/F durante il ciclo americano di prova di un veicolo a benzina catalizzato. svolto dal metallo nobile (non necessariamente il costoso rodio) è quello di attivare l’agente riducente (CO o H2, presenti nei gas di scarico in rapporto 3 : 1) al fine di ripristinare i siti di Ce(III) e chiudere il ciclo catalitico. Al di sopra dei 230 °C, la reattività del metallo diventa predominante e le reazioni avvengono sulla sua superficie. L’esistenza di un ciclo catalitico mediato dal supporto getta le basi per una possibile riduzione della quantità di metalli nobili presenti nelle marmitte catalitiche. La promozione della riducibilità del Ce(IV) attraverso l’introduzione di opportuni cationi trivalenti quali Y, La, ....all’interno di soluzioni solide di ceria e zirconia risulta di fondamentale importanza al fine di poter eliminare la presenza di metalli nobili nelle marmitte catalitiche [5]. Sebbene negli ultimi anni siano stati fatti notevoli progressi nella ricerca di catalizzatori in grado di minimizzare le emissioni degli autoveicoli, vi sono attualmente alcuni problemi che ancora non sono stati risolti quali: a. Conversioni insufficienti a basse temperature. L’efficienza di un convertitore a tre vie è strettamente legata alla temperatura di reazione; in particolare, al di sotto della temperatura di “light off” (corrispondente al 50% di conversione), la percentuale di gas convertito diminuisce bruscamente (Fig. 9). Ciò costituisce uno dei maggiori inconvenienti nell’uso dei catalizzatori a tre vie in quanto, durante la fase di riscaldamento (accensione dell’autoveicolo), le emissioni di gas nocivi emessi risultano elevate. Figura 7: Meccanismo proposto per la reazione di conversione del gas d’acqua catalizzata da Rh/CeO2. Figura 9. Tipico andamento della conversione di NO, CO ed idrocarburi su un catalizzatore a tre vie in funzione delle temperatura. b. Deterioramento della marmitta catalitica. Le cause della disattivazione dei catalizzatori sono molteplici. Si possono distinguere comunque tre tipi di fattori: Figura 8: Schema proposto per la conversione di NO su sistemi a base di metalli nobili (Rh, Pt e Pd) supportati su ossidi a base di cerio. Bisogna ricordare che gli inquinanti che si vogliono convertire sono presenti in concentrazioni preoccupanti ma percentualmente basse. Infatti, i gas di scarico di un autoveicolo contengono circa 75% di N2, 10% di H2O, 13% di CO2, 2-3% CO, 0.5% NOx e 0.1% di idrocarburi. La competizione tra le specie presenti in fase gassosa per l’adsorbimento sui siti attivi del catalizzatore risulta pertanto notevole. L’adsorbimento sui centri attivi di molecole che non necessitano trasformazioni (ad esempio H2O o CO2) può ridurre notevolmente le prestazioni del catalizzatore. 56 • Fattori chimici: le sostanze che non vengono desorbite o che reagiscono in modo irreversibile con il catalizzatore portano alla modifica della composizione e alla perdita o al ricoprimento di siti attivi. I “veleni” più comuni sono il fosforo, presente sia nelle benzine che nell’olio lubrificante dei motori, il piombo (attualmente eliminato completamente dalla formulazione delle benzine) e il biossido di zolfo. • Fattori meccanici: in particolare l’attrito, dovuto alle vibrazioni e alle polveri abrasive, è in grado di ridurre notevolmente la durata della marmitta. • Fattori termici: la velocità con cui viene modificata la struttura del catalizzatore (crescita dei cristalliti, sinterizzazione) aumenta con la temperatura. Questi cambiamenti strutturali possono portare ad una diminuzione dell’area superficiale o ad una diminuzione della dispersione del metallo. In particolare il rodio, sottoposto a temperature superiori a 550 °C, interagisce con Al2O3 migrando all’interno della struttura del supporto, rimanendone intrappolato. Ciò porta alla diminuzione dei siti attivi (atomi metallici superficiali) e quindi ad una minore efficienza del convertitore. Inoltre, a lungo andare, l’esposizione del catalizzatore ad elevate temperature indu57 ce una diminuzione della capacità dell’ossido di cerio di controllare il rapporto aria/combustibile attraverso la coppia redox Ce(III)/Ce(IV) e di conseguenza, come descritto in precedenza, ad una minore efficienza di conversione degli inquinanti. Pertanto, al fine di evitare di dover cambiare con frequenza relativamente elevata il convertitore catalitico, risulta necessario studiare e sviluppare materiali sempre più resistenti alle elevate temperature a cui sono sottoposti. c. Elevato costo dei metalli nobili. Il rodio è il più costoso fra tutti i metalli nobili. Inoltre, da un’attenta analisi dell’impiego dei diversi metalli si può notare che nel 1989 quasi l’80% del rodio disponibile veniva impiegato nell’industria delle marmitte, mentre sia per il platino che per il palladio tali percentuali risultavano inferiori. Nel 2000 la percentuale di rodio utilizzata nell’industria automobilistica è stata ancora più consistente raggiungendo quota 98.3%. Vale la pena ricordare la dipendenza della comunità mondiale da poche fonti di approvvigionamento di rodio, essenzialmente localizzate in Russia e nel Sudafrica. Scelte economiche e strategiche impongono che la ricerca sia orientata verso lo sviluppo di catalizzatori nei quali il rodio sia sostituito da metalli più economici. Negli ultimi tempi sono state messe in commercio delle marmitte a base di palladio ad elevata stabilità termica. Particolare attenzione viene riservata all’eliminazione dei metalli nobili dalla formulazione delle marmitte catalitiche anche in quanto la loro emissione nell’atmosfera incomincia a preoccupare per gli effetti neoplastici associati alla loro presenza. La perdita di metalli nobili è di circa 10% in peso nel corso della vita totale di un autoveicolo. Le emissioni avvengono però sotto forma di ossidi metallici, che sono relativamente inerti. Il numero elevato di autoveicoli in circolazione impone però di non sottovalutare questo aspetto. [6] Numerosi sono stati i tentativi di sviluppo di materiali altamente reattivi, capaci di convertire gli inquinanti dopo pochi secondi dall’accensione dell’autoveicolo, ma senza grande successo. Vanno ricordati alcuni innovativi studi su oro supportato, certamente interessanti ma a causa della scarsa stabilità termica, poco applicativi. La soluzione attualmente adottata per aumentare l’efficacia dei catalizzatori a tre vie è quella di posizionare la marmitta sempre più vicino al collettore di uscita dal motore. Così facendo si favorisce il riscaldamento del catalizzatore da parte dei gas caldi in uscita dal motore. Minimizzando il tempo necessario al raggiungimento della temperatura operativa, si riducono notevolmente le emissioni inquinanti. Tale scelta operativa sottopone però i materiali utilizzati a notevoli sollecitazioni termiche. Variazioni repentine di temperatura e condizioni operative che possono raggiungere e superare i 1000 °C portano ad un’estesa sinterizzazione dei normali catalizzatori. In particolare, il supporto subisce un collasso dell’area superficiale con occlusione di una buona parte della sua struttura porosa (Fig. 10). Questo comporta l’inglobamento di una frazione significativa di metalli nobili, all’interno del supporto, con conseguente riduzione dei siti catalitici esposti e quindi una diminuzione di attività catalitica. Inoltre, l’esposizione ad elevate temperature comporta una diminuzione della superficie della stessa fase attiva, con accrescimento dei cristalliti metallici (Fig. 10). Tutto ciò ha come risultato una riduzione della superficie esposta e quindi attiva dei metalli nobili. La ricerca si è diretta negli ultimi anni allo sviluppo di materiali ad elevata resistenza termica, come ad esempio le soluzioni solide a base di ceria e zirconia. Queste ultime, se opportunamente sintetizzate, hanno dimostrato di possedere area superficiale elevata e stabile. Inoltre, sono dotate di eccellente capacità di immagazzinamento e rilascio di ossigeno, proprietà fondamentale per consentire un efficiente controllo chimico del rapporto aria/combustibile. [7] 58 Figura 10: Rappresentazione schematica della sinterizzazione che subisce un catalizzatore eterogeneo a seguito di un trattamento termico ad elevata temperatura. Le soluzioni solide di ceria e zirconia si sono dimostrate utili anche al fine di prevenire la sinterizzazione della fase metallica e quindi la disattivazione del sistema. Il loro utilizzo in vicinanza del collettore del motore non risulta pertanto problematico. La loro efficienza come tamponi di ossigeno e la capacità di catalizzare reazioni di conversione di inquinanti (reazione di conversione del gas d’acqua, reazioni di ossidazione, decomposizione di NO) ha consentito di migliorare notevolmente le prestazioni dei catalizzatori a tre vie. 2.2 MOTORI DIESEL E A COMBUSTIONE MAGRA La maggiore efficienza di combustione dei motori diesel e a combustione magra rispetto a quella dei tradizionali veicoli a benzina ne ha decretato in Europa una buona popolarità [2]. Il mercato, influenzato da altri fattori quali incentivi fiscali o scelte politiche, ha subito negli ultimi anni forti oscillazioni nelle vendite. Tali autoveicoli operano in condizioni fortemente ossidanti, consentendo un risparmio energetico che può variare, a seconda dell’ingegneria del motore, dal 15 al 20 %. L’elevato contenuto di ossigeno della miscela si traduce in una combustione a più bassa temperatura e con minori emissioni di NOx, CO e HC rispetto ai motori a benzina non catalizzati. Nel caso dei motori diesel, il combustibile e l’aria vengono compressi notevolmente fino a che non raggiungono la temperatura di combustione [2]. Nei motori diesel di vecchia generazione le condizioni operative del motore portano alla formazione di notevoli quantità di particolato. Infatti, l’iniezione del carburante nella camera di combustione avviene sottoforma di gocce piuttosto grandi, una significativa parte delle quali finisce sulle pareti dei cilindri. Tali gocce di combustibile non riescono a venire in contatto con una sufficiente quantità di ossigeno e pertanto non bruciano completamente ma tendono a trasformarsi in piccole particelle solide di tipo carbonioso. I moderni motori diesel garantiscono invece una migliore ed omogenea distribuzione del carburante nella camera di combustione. In questo caso, si ottengono microscopiche goccioline di carburante, che in presenza di un forte eccesso di ossigeno, danno luogo ad una completa combustione, riducendo notevolmente la formazione di particolato. Ciononostante, si ha comunque una certa emissione di particolato, principalmente sotto forma di particelle molto piccole. Va osservato che anche i motori a combustione interna alimentati a benzina, nonostante una ottimale omogeneità della miscela gassosa, possono generare particolato. La mancanza di un eccesso di ossigeno, aumenta tale probabilità. Nel caso dei motori a 59 benzina però le condizioni operative, specialmente le alte temperature dei gas di scarico, portano alla auto-combustione del particolato. Le temperature dei gas di scarico di un motore diesel sono invece notevolmente più basse e non consentono quindi alle particelle carboniose di reagire con l’ossigeno. Il particolato è costituito da carbone sul quale sono trattenuti idrocarburi incombusti, composti dello zolfo, metalli (arsenico, piombo, rame, ecc.) ed altro. Esso è tanto più pericoloso quanto minore è la sua dimensione. Le particelle più piccole penetrano infatti nelle basse vie respiratorie e arrivano fino agli alveoli polmonari, trasportandovi le sostanze tossiche di cui sono costituite. L’utilizzo di filtri per il particolato è stato attentamente studiato. Le specifiche di tali sistemi sono particolarmente restrittive: elevato grado di separazione soprattutto per le particelle più fini, flessibilità rispetto ai cambi di temperatura, scarsi effetti di caduta di pressione (il rapido intasamento del filtro provoca una riduzione del flusso gassoso in uscita e quindi una esponenziale riduzione delle prestazioni del motore), lunga durata e bassi costi. Sono stati sviluppati monoliti ceramici come quelli riportati in Fig. 11. I gas di scarico sono forzati ad attraversare il monolita ceramico poroso. Il particolato viene efficacemente trattenuto: la frazione con dimensioni superiori a quelle dei pori del monolita viene completamente trattenuta, assieme ad una parte delle particelle più fini che comunque, urtando le pareti del filtro, restano trattenute. Sono stati progettati filtri metallici, che nonostante il maggior peso rispetto a quelli ceramici, presentano l’indubbio vantaggio di una maggiore conducibilità termica. Quest’ultimo aspetto è particolarmente interessante in vista della necessità di rigenerare i filtri per motori diesel. In generale infatti, già dopo poche ore si deposita sul filtro una quantità di particolato tale da raggiungere la massima caduta di pressione sostenibile dal motore. Pertanto, risulta necessario eliminare, attraverso processi di combustione, il particolato accumulatosi. ne deriva porta alla completa ossidazione del materiale carbonioso accumulato. Anche in questo caso la rigenerazione penalizza però le prestazioni complessive dell’autoveicolo. Grande attenzione è rivolta allo studio di filtri catalitici con la speranza che la presenza di un catalizzatore porti a un notevole abbassamento della temperatura di combustione del particolato. Ciò consentirebbe almeno una parziale rigenerazione attiva, cioè durante il normale funzionamento dell’autoveicolo. Allungando quindi i tempi necessari per l’intasamento del filtro stesso, sarebbero richiesti meno frequenti intervalli di riscaldamento (rigenerazione passiva) e quindi una maggiore efficienza dell’autoveicolo. Le principali problematiche connesse con questo tipo di sistemi sono costituite dall’ottimizzazione della superficie di contatto tra particolato (dimensioni macroscopiche) e siti attivi del catalizzatore (dimensioni nanometriche o subnanometriche). Figura 12 Sistema di rigenerazione di filtri diesel tramite iniezioni di carburante. Figura 11. Schema di funzionamento di un monolita ceramico utilizzato come filtro per il particolato diesel. Il particolato innesca la sua autocombustione al di sopra dei 550°C, temperature raramente raggiungibili dai gas di scarico dei motori diesel. Risulta quindi necessario avere a disposizione un sistema ausiliario che consenta la rigenerazione del filtro. Poco utilizzata è la rigenerazione esterna all’autoveicolo, in quanto richiede l’utilizzo di filtri facilmente rimovibili (attraverso opportune connessioni meccaniche) e sostituibili. La frequenza dei cambi richiesti rende questa tecnologia estremamente impopolare. Viene utilizzato, in alcuni sistemi, il riscaldamento elettrico del filtro al fine di consentire il raggiungimento delle temperature alle quali si ha la combustione del particolato. Non risulta però conveniente tentare di riscaldare costantemente il filtro. Infatti, l’elevato flusso gassoso, che dissipa calore, imporrebbe l’utilizzo di una potenza superiore a quella mediamente erogabile dall’autoveicolo. Anche la rigenerazione periodica di alcuni dei filtri, mentre altri sono operativi, è piuttosto dispendiosa, sia in termini energetici che temporali. In questo caso però, isolando i filtri da rigenerare si riduce la dissipazione di calore. Il riscaldamento e quindi la rigenerazione dei filtri può avvenire sfruttando l’aggiunta diretta di piccole aliquote di carburante sul monolita (Fig. 12). La combustione che 60 Infine vengono studiati additivi (ossidi a base di cerio) da miscelare con il carburante al fine di favorire poi la combustione del particolato. L’emissione di tali sostanze nell’atmosfera deve essere però attentamente monitorata, per evitare lo spostamento del problema da un inquinamento da particolato carbonioso ad uno dovuto alla presenza di nanopolveri ossidiche. La rimozione delle emissioni di CO ed idrocarburi dai gas di scarico degli autoveicoli a combustione magra e diesel risulta relativamente semplice in quanto le condizioni fortemente ossidanti consentono l’utilizzo di normali catalizzatori di ossidazione a base di Pt o Pd. Difficoltosa risulta invece la riduzione degli ossidi di azoto. Lo studio di sistemi zeolitici per la decomposizione diretta di NO ad N2 e O2 non ha portato ad alcun risultato pratico in quanto l’eccesso di O2 inibisce completamente tale reazione. Gli stessi sistemi sono stati utilizzati per catalizzare la riduzione di NO ad opera di agenti riducenti quali gli idrocarburi (HC). Questi ultimi sono già presenti nei gas di scarico, come frazione di combustibile non combusto e in parte possono essere addizionati prima del sistema catalitico. La reazione desiderata è: NO + HC → N2 + CO2 + H2O Tale reazione deve però competere con l’ossidazione diretta degli idrocarburi ad opera dell’ossigeno, secondo: HC + O2 → CO2 + H2O. 61 Le zeoliti (alluminosilicati) utilizzate hanno dimostrato una scarsa stabilità termica specialmente in presenza di acqua, dando luogo a fenomeni di dealluminazione e di collasso strutturale. Tali sistemi non hanno trovato applicazione sugli autoveicoli, ma sono efficientemente impiegati quali catalizzatori di rimozione degli ossidi di azoto su impianti stazionari dove le condizioni operative sono meno drastiche [8]. Più stabili, e quindi potenzialmente applicabili, sono i sistemi a base di metalli nobili supportati su ossidi. Grande interesse ha suscitato Pt/Al2O3 che però ha dimostrato di possedere un’attività catalitica non elevata e in un intervallo di temperatura stretto. Infatti al di sotto dei 200°C non si osserva generalmente alcuna conversione mentre a temperature superiori a 300-350°C le reazioni prevalenti sono quelle di combustione diretta dell’idrocarburo con ossigeno e l’ossidazione di NO a NO2 su siti di Pt. Aumentando la carica di metallo nobile o operando sull’agente riducente è possibile spostare la reattività a temperature più basse. I risultati ottenuti si sono dimostrati in ogni modo insufficienti al fine di realizzare un sistema catalitico applicabile [9]. Un interessante approccio al problema della riduzione di NO in presenza di ossigeno è quello che vede l’utilizzo dell’argento quale catalizzatore. La scelta di tale metallo si basa sulla sua ridotta propensione a catalizzare reazioni di ossidazione (certamente inferiore ai metalli nobili sinora studiati ed, in particolare, rispetto al Pt). Pertanto la reazione di combustione diretta tra gli idrocarburi e l’ossigeno viene inibita e quindi una elevata frazione di agente riducente (già presente nei gas di scarico o addizionato al bisogno) è a disposizione per la reazione con NO. Modificando la natura del supporto utilizzato per disperdere la fase metallica (Ag depositato su Al2O3 o ZrO2 o CeO2-ZrO2) e la metodica di sintesi del catalizzatore è possibile modificare sia la reattività del sistema (attività e selettività a N2 e N2O) sia la dimensione dei cristalliti metallici. Non è ancora chiaro se il diverso comportamento chimico dei sistemi a base di argento sia legato alla diversa natura del supporto o alla diversa reattività dei cluster metallici di dimensione e forma differenti. I risultati preliminari ottenuti sono interessanti e promettenti, ma sono ancora lontani da una possibile applicazione pratica [10]. Un nuovo e per alcuni aspetti rivoluzionario approccio è quello sviluppato dalla Toyota. Esso è basato sulla presa d’atto della lunga serie di insuccessi ottenuti dalla comunità scientifica nel tentativo di sviluppare un catalizzatore in grado di effettuare una efficiente riduzione degli ossidi di azoto in condizioni nettamente ossidanti. sente sulla superficie del supporto a base di allumina. Durante tale reazione si libera della CO2. Una volta saturata la capacità di immagazzinamento del sistema, si opera opportunamente sulle condizione di alimentazione del motore, che passano da nettamente ossidanti a leggermente riducenti (in particolare, viene ridotto il flusso di aria agli iniettori). In tali condizioni si ha la decomposizione del nitrato di bario, il desorbimento di NO seguito da una sua reazione su siti di Rh con gli agenti riducenti presenti (CO ed idrocarburi) e la sua conversione ad azoto. In questa maniera lo stadio riduttivo avviene senza la presenza inibente dell’ossigeno. Si ha quindi il ripristino del carbonato di bario e della capacità di immagazzinamento di NO. L’alternanza di cicli ossidanti (periodi lunghi) e riducenti (brevi periodi di rigenerazione) non pregiudica il buon funzionamento del motore e le elevate prestazioni. Unica limitazione del sistema è la sua scarsa resistenza alla disattivazione da zolfo. Infatti la presenza di zolfo, anche a livelli di poche decine di parti per milione, porta ad una rapido deterioramento delle prestazioni. Attualmente, esso è adottato in Giappone dove il tasso di zolfo presente nei combustibili è estremamente basso. La prevista riduzione del contenuto di zolfo nei combustibili europei (50 ppm circa nel 2005 e 10 ppm nel 2009) aprirà anche in Europa nuove potenzialità applicative di questo promettente sistema. 2.3 VEICOLI AD IDROGENO I problemi connessi con il rispetto dell’ambiente e della qualità della vita, ed in particolare nella lotta alle emissioni atmosferiche dovute alla trazione, principalmente nell’ambito urbano, hanno dato vita negli ultimi anni ad una serie di ricerche per la creazione di veicoli ad impatto ambientale basso (LEV - Low Emission Vehicles) o nullo (ZEV - Zero Emission Vehicles). Tra questi sicuramente uno dei più interessanti è quello che vede l’utilizzo combinato dell’idrogeno e delle celle a combustibile (“fuel cells”). Nella cella a combustibile l’energia chimica liberata viene direttamente trasformata in energia elettrica, utilizzata per alimentare il motore elettrico impiegato per muovere il veicolo. In generale una cella a combustibile sfrutta la possibilità di far avvenire una reazione elettrochimica in maniera controllata, separando le due semireazioni in comparti diversi: il flusso degli elettroni dall’anodo al catodo consente il loro utilizzo per generare potenza elettrica [11]. Per chiudere il circuito elettrico è necessario avere un elettrolita che assicuri l’elettroneutralità dei due elettrodi. Il combustibile maggiormente impiegato è l’idrogeno, che all’anodo viene ossidato ad H2O liberando elettroni. Al catodo gli elettroni vengono impiegati per la riduzione di O2. A seconda dell’applicazione può venire utilizzato l’ossigeno atmosferico oppure O2 puro. Il funzionamento di una cella a combustibile è schematizzato in Fig. 14. Impiegando questa tecnologia le emissioni sono costituite soltanto da vapore d’acqua. Figura. 13. Schema di funzionamento del sistema sviluppato dalla “Toyota” per l’accumulo e la successiva conversione degli ossidi di azoto emessi da motori operanti in condizioni ossidanti. Partendo dalla ipotesi di impossibilità di realizzare tale catalizzatore, è stato sviluppato un materiale multicomponente in grado di immagazzinare NO durante le normali condizioni operative (Fig. 13). Il sistema è costituito da Pt che, in presenza di ossigeno, consente l’ossidazione di NO ad NO2. Quest’ultimo viene efficacemente adsorbito dal sistema per interazione con il carbonato di bario pre62 Figura 14: Rappresentazione schematica del funzionamento di una cella a combustibile. 63 Il principale problema legato all’utilizzo su larga scala di autoveicoli ad idrogeno è rappresentato dalla natura gassosa del combustibile, che richiederebbe nuovi sistemi di accumulo del carburante a bordo dell’autoveicolo. Mentre l’utilizzo di bombole contenenti idrogeno compresso ad alte pressioni può essere considerato per gli autobus cittadini, non sembra essere applicabile su larga scala sugli autoveicoli privati (ingombro e peso del “serbatoio” di idrogeno, motivi di sicurezza…). Inoltre, mentre il rifornimento centralizzato dell’idrogeno per i mezzi pubblici è di realizzazione relativamente facile, la costituzione di una rete di distribuzione di idrogeno per le automobili private risulterebbe complessa e costosa. La soluzione individuata in questo caso dovrebbe essere basata sulla produzione a bordo dell’idrogeno necessario a far funzionare l’automobile. Questo può essere ottenuto mediante opportuni convertitori catalitici (“steam reformers”) alimentati a benzina, (bio)-diesel o a metano. In tale modo sarebbe possibile utilizzare la normale rete di distribuzione dei carburanti attuali. Il problema da risolvere, in questo caso, è lo sviluppo di reattori catalitici per la reazione di “steam reforming” (HC + H2O = H2 + CO2) efficienti, operanti a basse temperature, compatti e di facile manutenzione, adatti ad essere montati su una automobile. Le celle a combustibile operanti a bassa temperatura attualmente in commercio richiedono che la miscela gassosa in ingresso sia priva di CO. La presenza di quest’ultimo, abbassa notevolmente le prestazioni del sistema. Infatti, CO si adsorbe più fortemente di H2 sulla superficie dell’anodo costituito da Pt supportato (solitamente su carbone poroso oppure su un materiale polimerico, PTFE PoliTetraFluoroEtilene), riducendo la superficie attiva dell’elettrodo. La quantità di CO presente nel gas di alimentazione alla cella a combustibile può essere notevolmente ridotta attraverso le reazioni di conversione del gas d’acqua (comunemente abbreviato con WGSR dall’inglese Water Gas Shift Reaction) e successivamente di ossidazione preferenziale del CO (comunemente abbreviato con PROX dall’inglese PReferential OXidation) ancora residuo. La produzione di H2 a bordo degli autoveicoli richiede quindi una serie di apparecchiature, schematizzate in Fig. 15. Permane comunque il problema di individuare un sistema efficiente di stoccaggio dell’idrogeno sull’autoveicolo, che consenta il funzionamento dello stesso durante la fase di accensione e per garantire un’alimentazione costante del motore durante le sollecitazioni più onerose. Nonostante gli sforzi della ricerca scientifica rivolti all’identificazione di materiali adatti ad immagazzinare idrogeno, nessun sistema attualmente disponibile presenta le caratteristiche necessarie per l’applicazione su larga scala negli autoveicoli. In particolare, gli idruri metallici, che sono utilizzati ad esempio nei sottomarini, non possono essere impiegati in questo caso per il loro elevato peso. Anche i materiali a base di nanotubi di carbonio (una delle forme allotropiche del carbonio, Fig. 16), che per le eccezionali prestazioni e per il basso peso avevano suscitato grandi speranze, si sono dimostrati, ad una più attenta analisi, molto meno interessanti del previsto. Figura 16 : Rappresentazione schematiche delle forme allotropiche del carbonio. A lungo termine la produzione di idrogeno verrà basata sull’utilizzo di sorgenti di energia rinnovabili. L’unica sorgente disponibile senza limitazioni per soddisfare il fabbisogno energetico è la luce solare. La miglior soluzione per produrre energia pulita consisterebbe perciò nel produrre idrogeno come carburante utilizzando soltanto la luce solare per dissociare acqua nelle sue componenti. Questo processo di fotoelettrolisi dell’acqua necessita di due passi successivi: produrre in un materiale semiconduttore elettricità dalla luce solare ed utilizzarla per produrre idrogeno ed ossigeno. Il processo in parte viene già utilizzato – ci sono vari prototipi di laboratorio che raggiungono una efficienza complessiva fino a 18 % - ma si è ancora lontani da poterlo utilizzare commercialmente: il processo finora non è abbastanza efficiente e la produzione del sistema fotoelettrolitico troppo costosa. Chi partecipa allo sviluppo di soluzioni applicabili a basso costo e su grande scala avrà quindi in mano una key technology del prossimo futuro. 3. CONCLUSIONI Figura 15 : rappresentazione schematica delle tecnologie necessarie a far funzionare un autoveicolo che sfrutta l’energia elettrica prodotta da una cella a combustibile alimentata ad idrogeno prodotto a bordo a partire da un combustibile tradizionale quale la benzina. 64 Attualmente la tecnologia più efficace per ridurre le emissioni inquinanti degli autoveicoli è costituita dai catalizzatori a tre vie per motori a benzina. Permangono problemi connessi con le significative emissioni all’accensione (motore e marmitta freddi) e legati alla disattivazione. L’ottimizzazione sia in termini di attività a bassa temperatura che di resistenza alla disattivazione sta dando buoni risultati e certamente consentirà di rispettare le più restrittive normative legislative in materia ambientale che entreranno in vigore nel 2005. Rimangono perplessità sugli effetti dannosi sulla salute umana che si possono avere a causa del rilascio nell’atmosfera dei metalli nobili dalle 65 attuali marmitte. Anche in assenza di dati certi su tali effetti, sono in progettazione nuovi catalizzatori a tre vie privi di metalli nobili. Le tecnologie sviluppate negli ultimi anni per l’abbattimento degli inquinanti emessi dai veicoli diesel si sono dimostrate efficaci, ma non ancora del tutto soddisfacenti. Ad esempio, a fronte di una notevole riduzione percentuale delle emissioni di particolato (grazie a motori di nuova concezione e all’utilizzo di filtri catalitici), si è ancora in presenza di rilascio nell’atmosfera di una inaccettabile quantità di particelle fini, le più pericolose. La soluzione ideale per l’eliminazione delle emissioni inquinanti da fonti mobili è rappresentata dall’utilizzo dell’idrogeno per alimentare celle a combustibile. Permangono però ancora numerosi problemi tecnologici prima di una applicazione su larga scala, quali la produzione e lo stoccaggio a bordo dell’idrogeno. Sarà estremamente importante un intervento legislativo a sostegno della ricerca in tale direzione, come pure l’introduzione di incentivi fiscali per le case costruttrici al fine di rendere economicamente conveniente puntare in questa direzione. Le realizzazioni pratiche non sono attese però prima di 5/10 anni. Ringraziamenti: desidero ringraziare per le utili discussioni e la collaborazione il Prof. M. Graziani, il Prof. J. Kašpar, il Dr. G. Balducci, il Dr. N. Hickey e il Dr. D. Montini. BIBLIOGRAFIA 1. Pollution, Causes, Effects and Control, Editore Roy M. Harrison, The Royal Society of Chemistry, Cambridge, 1996 2. R.M. HECH, R.J. FERRAUTO, Catalytic Air Pollution Control, Commercial Technology, Van Nostrand Reinhold, New York, 1995. 3. J. KAŠPAR, M. GRAZIANI, P. FORNASIERO, Ceria-containing three way catalysts., in Handbook on the physics and chemistry of rare earths: the role of rare earths in catalysis”, K.A.JR. GSCHNEIDNER and L. EYRING EDS., ELSEVIER B.V., Amsterdam, 2000 vol. 29, pp. 159-267. 4. G. S. ZAFFIRIS, R.J. GORTE, Evidence for a second CO oxidation mechanism on Rh ceria, J.Catal, 1993, 143, 86. 5. J. KAŠPAR, P. FORNASIERO, M. GRAZIANI, Use of CeO2-based oxides in the three way catalysis., Cat.Today 1999, 50 285. 6. Anthropogenic Platinum-Group Element Emissions, their Impact on Man and Environment, Zereini Fathi e Alt Friedrich Editori, Springer, Berlin, 1999. 7. R. DI MONTE, P. FORNASIERO, J. KAŠPAR, P. RUMORI, G. GUBITOSA, M. GRAZIANI, Pd/Ce0.6Zr0.4O2/Al2O3 as advanced materials for three-way catalysts. Part 1. Catalyst characterisation, thermal stability and catalytic activity in the reduction of NO by CO., Appl.Catal.B: Environmental, 2000, 24, 157. 8. MISONO MAKOTO, Catalytic reduction of nitrogen oxides by bifunctional catalysts, Cattech, 1998, 3, 53. 9. A. FRITZ, V. PITCHON, The current state of research on automotive lean NOx catalysis, Appl. Catal.B: Environm. 1997, 13, 1. 10. N. HICKEY, P. FORNASIERO, J. KAŠPAR, M. GRAZIANI, G. MARTRA, S. COLUCCIA, S. BIELLA, L. PRATI, M. ROSSI, Remarkable improvement of SOx-resistance of silver lean-DeNOx catalysts by supporting on a CeO2-containing zirconia, J.Catal., 2002, 209, 271. 11. K.KORDESCH, G. SIMADER, Fuel Cells and -Their Apllications, VCH, Ney York, 1996. 66 METODI ENERGETICI ALTERNATIVI ANTONINO CORSARO 1. INTRODUZIONE La conduzione di una trasformazione chimica richiede, molto spesso, l’ausilio di una fonte energetica esterna. Tradizionalmente, la più comune sorgente energetica usata è il calore, considerato come radiazione esterna che fornisce al sistema l’appropriata energia per fare avvenire la reazione. Nel caso dei composti organici, la temperatura di reazione non può raggiungere valori molto elevati perché può dar luogo ad estese decomposizioni. Queste comportano tutta una serie di conseguenze che rendono la trasformazione chimica non ecologicamente compatibile. In qualche caso può essere usata la tecnica della “flash vacuum thermolysis” che consiste nel riscaldare i reagenti ad alta temperatura per tempi brevissimi e quindi raffreddare i prodotti immediatamente fuori della zona riscaldata di modo che sia minimizzata la degradazione non desiderata dei reagenti e, più importante, quella dei prodotti. Saranno trattati pertanto quei sistemi alternativi al calore che rendono le trasformazioni chimiche compatibili con l’ambiente e saranno prese in considerazione, come sorgenti energetiche esterne, le insolite radiazioni elettromagnetiche. Sarà data enfasi agli aspetti pratici che sono molto utili dal punto di vista della “Green Chemistry” e brevemente saranno forniti i concetti sulla natura delle radiazioni e sulle conseguenze che le radiazioni determinano sulle sostanze in cui vengono applicate in modo che si possa prevedere quale è il tipo di tecnica più efficiente. Saranno trattate anche, in qualche misura, la disponibilità e la manualità delle apparecchiature in modo da privilegiare quei sistemi energetici che richiedono apparecchiature meno complicate e meno costose. Principalmente, saranno prese in considerazione le onde acustiche, responsabili di notevoli incrementi nella reattività chimica delle sostanze grazie allo sviluppo della loro tecnologia, e saranno quindi trattate brevemente anche le reazioni indotte con metodi elettrochimici e con le radioonde, la cui scarica comporta la formazione del plasma. Delle micro-onde, oggi diffusissime come sorgenti di calore, anche nelle cucine delle civili abitazioni, saranno dati solo alcuni cenni perché le microonde sono trattate in modo più esteso in un apposito capitolo di questo testo. 2. METODO AGLI ULTRASUONI [1-8] L’interesse verso gli ultrasuoni è indubbiamente dovuto alla attuale disponibilità delle apparecchiature commerciali. Accanto all’impiego nella pulizia dei materiali di vetro e nella dispersione di solventi organici in detergenti acquosi, le onde acustiche sono utilizzate anche per incrementare la reattività chimica delle sostanze. 2. 1 NATURA ED EFFETTO DELLA RADIAZIONE. Con il termine ultrasuoni vengono indicate le onde elastiche, cioè le onde che utilizzano un mezzo materiale per propagarsi, con una frequenza elevata superiore a 20 KHz. A causa della loro alta 67 frequenza e quindi bassa lunghezza d’onda si propagano con modalità e condizioni simili ai fasci luminosi. Gli ultrasuoni hanno un’ottima propagazione nei mezzi solidi o nei liquidi e una cattiva propagazione nei gas (aria) e pertanto non sono udibili dall’orecchio umano. Questo infatti riesce a percepire le frequenze comprese tra i 30 Hz ed i 20 KHz. Il limite superiore di frequenza degli ultrasuoni è di circa 109 Hz. Alcuni animali, come cani e delfini, hanno una maggiore sensibilità verso le alte frequenze (fino a 25 kHz) e quindi riescono a percepire onde sonore utilizzandole come mezzo di comunicazione. Gli ultrasuoni usati in chimica sono compresi fra 20 e 100 kHz, perchè a queste frequenze essi forniscono una forma di energia non convenzionale che si manifesta attraverso “bolle di cavitazione”. L’origine delle bolle di cavitazione nasce dalla interazione degli ultrasuoni con i liquidi, che produce delle cavità a causa della rottura della struttura dei liquidi. Le cavità sono instabili ed implodendo generano elevate pressioni e temperature che attivano il processo chimico. È stato stimato che la temperatura nelle cavità raggiunge diverse migliaia di gradi e la pressione diverse centinaia di pascal. Le radiazioni acustiche intense sono capaci di scindere l’acqua in radicali idrogeno ed ossidrile e similmente gli alcani, gli aromatici e gli alcoli sono scissi in radicali, la cui produzione, comunque, in condizioni controllate è minimizzata e pertanto questi radicali non interferiscono nei processi sintetici. L’impiego di ultrasuoni intensi, comunque, coinvolge anche la sicurezza degli operatori, perché le molecole di nucleosidi, zuccheri, e DNA sono instabili sotto l’azione della sonicazione ed attualmente sono in corso di esame i loro effetti connessi con il loro continuo uso per valutare i rischi diagnostici e terapeutici. 2.2 SOLVENTI E MEZZI DI REAZIONE. Il solvente gioca un ruolo importante negli esperimenti di sonicazione perché rappresenta il trasportatore di energia. Il massimo trasferimento di energia ai reagenti dipende chiaramente dalle proprietà fisiche del solvente, i cui parametri cruciali sono la viscosità e la tensione superficiale. In modo intuitivo l’aumento di viscosità comporta implosioni più violente delle cavità e pertanto è benefico. Viceversa un aumento della tensione superficiale è pregiudizievole a causa della più alta volatilità del solvente. A causa della stretta correlazione di queste due parametri con la temperatura, anche quest’ultima gioca un ruolo importante nella sonicazione. Il massimo effetto è stato osservato per valori bassi di temperatura a causa dell’aumento della viscosità del solvente. Gli ulteriori effetti si possono così raggruppare: 1) si produce emulsificazione nei sistemi eterogenei a causa della cavitazione nell’interfaccia dei due liquidi e pertanto si prevede un maggiore effetto; 2) sono molto efficaci i sistemi bifasici solido-liquido, in cui l’attivazione è dovuta alle implosioni delle cavità vicino la superficie solida o vicino l’interfaccia solido-liquido che aiuta il mescolamento dei reagenti nella zona critica, a parte la pulizia della superficie stessa; 3) il sistema solido-liquido è quello ideale perché la possibilità di cavità è massima; 4) il sistema gas-liquido (o solido) non viene preso in considerazione di solito perché l’effetto della sonicazione sarebbe il degassaggio della soluzione; 5) la sonicazione non sostituisce completamente l’agitazione. 68 2.3 APPARECCHIATURE. Comunemente, per irraggiare con gli ultrasuoni le reazioni organiche si utilizzano i normali bagni di pulizia (Figura 1). Alternativamente, gli apparecchi possono assumere disegni diversi a secondo delle applicazioni sintetiche. In genere, comunque, l’introduzione di una sonda nella miscela di reazione è il modo più efficace per irradiare con onde acustiche una trasformazione chimica, sebbene esista associato un certo numero di problemi. Apparecchiature particolari sono usate per applicazioni su larga scala. Normalmente, l’apparecchiatura sarà determinata dal tipo di processo impiegato, che a sua volta sarà governato dalla intensità di sonicazione richiesta. Figura 1. Bagno di pulitura tramite ultrasuoni 3. METODI ELETTROCHIMICI [9,10] La chimica elettroorganica è oggi uno dei più promettenti mezzi per la sintesi organica. Attualmente i procedimenti elettrochimici rappresentano passaggi chiave nei diversi protocolli sintetici che portano a preparazioni di laboratorio e/o industriali di composti chimici commerciali. Particolare interesse è stato rivolto all’elettrochimica dei gruppi funzionali, dei composti biologicamente attivi, e dei composti eterociclici. Specifica attenzione è stata rivolta al comportamento ossidativo del pirrolo, dell’indolo e dei carbazoli, alla formazione anodica e catodica del legame carbonio-carbonio. Anche l’applicazione dei metodi elettrochimici nel campo degli steroidi, del poliene e dei caroteni, all’interconversione degli antibiotici β-lattamici ha attratto i chimici organici. Saranno trattati brevemente i concetti di base della chimica elettroorganica, e la classificazione delle reazioni più rilevanti. 3. 1 CONCETTI DI BASE. La reattività chimica si ha per trasferimento di un elettrone fra la superficie dell’elettrodo e la specie chimica in soluzione. A questo modo, un reagente, in genere disciolto in un appropriato solvente organico a cui è addizionato un sale, chiamato “elettrolita di supporto” per aumentare la conducibilità del sistema, è convertito in un intermedio reattivo (Schema 1) che successivamente si trasforma in prodotti attraverso una sequenza di stadi chimici o elettrochimici. Schema 1. Tipologie di specie reattive generate da trasferimento di elettroni con elettrodi. Una caratteristica interessante dei processi elettrochimici è data dalla facilità con cui possono essere effettuate ossidazioni e riduzioni, altrimenti difficilissime, scegliendo l’idoneo potenziale elettrodico. La Figura 2 mostra il range di potenziali di ossidazione e riduzione di alcuni fra i più importanti composti organici ed i potenziali standard di alcuni comuni reagenti redox. Inoltre occorre ricordare altri due aspetti degni di nota: 1) l’elettrochimica, specialmente quella industriale, è un ovvio candidato a sostituire quei processi che portano a grandi volumi di effluenti contenenti ioni di metalli pesanti, come per esempio le riduzioni con polvere di ferro o di zinco, o le ossidazioni con permanganato o bicromato; 2) l’attivazione elettrochimica permette di ottenere una buona selettività in molti substrati inerti a temperatura ambiente, come per esempio, l’elettroossidazione degli idrocarburi alifatici contenti legami C-H allilici o terziari inerti. La caratteristica più interessante di molte reazioni elettroorganiche consiste nell’attivazione di un composto attraverso il trasferimento elettronico da o verso l’elettrodo con la conseguente inversione di polarità di uno dei reagenti, che non è facilmente ottenibile nelle comuni reazioni organiche. Normalmente, il tipo di intermedi generati alla superficie di un elettrodo sono gli stessi di quelli incontrati nella comune chimica e cioè anioni e cationi radicali, carbocationi, radicali, e carbanioni. Pertanto, è possibile predire il comportamento di tali specie reattive, una volta noto il loro normale comportamento chimico. Esistono, comunque, delle differenze comportamentali derivanti principalmente dal fatto che tali intermedi si formano vicino ad una superficie elettrodica, dove possono o non possono essere assorbiti, e dove possono convertirsi in prodotti nell’ambito di uno strato di reazione molto vicino all’elettrodo (doppio strato elettrico). A causa della presenza di un forte campo elettrico o di differenti proprietà di assorbimento delle varie specie in soluzione, la struttura e la composizione del doppio strato elettrico può risultare completamente differente da quella della normale soluzione e, pertanto, la distribuzione dei prodotti di reazione delle specie elettrochimicamente generate può risultare anch’essa diversa da quella aspettata sulla base delle conoscenze di chimica in soluzione. 3. 2 CLASSIFICAZIONE DELLE REAZIONI PIÙ IMPORTANTI [11,12] Nello schema 2 è riportata la classificazione delle principali reazioni elettrochimiche nelle diverse categorie della classica chimica organica. 1. Reazioni di trasformazione di gruppi funzionali 2. Reazioni di sostituzione 3. Reazioni di eliminazione 4. Reazioni di addizione 5. Reazioni di accoppiamento e di dimerizzazione 6. Reazioni di scissione e di deprotezione 7. Reazioni a catena con trasferimento elettronico 8. Generazione in situ di basi/nucleofili o di acidi/elettrofili 9. Reazioni di ciclizzazione. Schema 2. Applicazioni di reazioni elettroorganiche. A parte la resa chimica, quando si valuta una reazione elettroorganica, si deve considerare anche la resa in corrente che, attraverso il rapporto fra il consumo teorico e quello pratico dei coulomb, dà una idea dell’efficienza del processo. Lo Schema 3 raccoglie le principali variabili di una elettrosintesi, la cui distribuzione è apparentemente complessa, ma nella maggior parte dei casi e specialmente nelle preparazioni di laboratorio, non richiede maggiori conoscenze e capacità rispetto ad una normale sintesi chimica. Figura 2. Finestre elettroattive per alcune classi di composti organici e potenziali redox di reagenti comuni. 70 71 Variabili elettrochimiche Variabili chimiche usuali Solvente/elettrolita da supporto Materiale elettrodico Assorbimento Potenziale elettrodico Densità di corrente Schema di cella Solvente Concentrazione dei reagenti Temperatura Tempo pH Pressione Schema 3. Principali variabili da considerare nelle reazioni elettroorganiche insieme con le usuali variabili chimiche. Inoltre, devono essere considerate le seguenti note positive: l’attivazione è generalmente raggiunta a temperatura ambiente; il potenziale elettrodico offre un mezzo di controllo di reazione notevole; la sorgente di elettroni è facilmente aggiustabile e selettiva per il controllo del potenziale elettrodico; si formano alte concentrazioni locali degli intermedi reattivi; è possibile effettuare elettrolisi indirette (per esempio, usando quantità catalitiche di un mediatore redox); • è possibile generare in situ reagenti particolarmente sensibili, quali, per esempio, gli organometallici, gli agenti fluoruranti, l’anione superossido. • • • • • Per quanto riguarda le metodologie usate, vi sono due modi per condurre un processo elettrochimico: l’elettrolisi con corrente costante (CCE) (Schema 4) e l’elettrolisi con potenziale controllato (CPE) (Schema 5). In molti casi i due metodi sono equivalenti sebbene si abbia spesso una migliore regio- e chemo-selettività con il metodo CPE. Ciononostante, a dispetto della più bassa selettività, il CCE è preferito al CPE specialmente, quando la reazione è semplice e su larga scala. Schema 5. Componenti di una cella a potenziale controllato (CPE) [A: amperometro; V: voltmetro; C: coulombometro; WE: elettrodo di lavoro; CE: contro elettrodo (elettrodo ausiliario); RE: elettrodo di riferimento; il diaframma è solitamente costituito da membrane in vetro poroso o ceramica porosa]. Nello Schema 6 sono raccolte, insieme con le abbreviazioni usate per le tecniche elettrochimiche, i principali tipi di cella, i materiali elettrodici ed i sistemi solvente-elettrolita di supporto frequentemente usati nelle applicazioni sintetiche TECNICHE ELETTROCHIMICHE CCE - Elettrolisi con corrente costante CPE - Elettrolisi con potenziale controllato Tipi di cella UC - Cella indivisa: un compartimento DC - Cella divisa: solitamente una cella a due compartimenti con un appropriato diaframma fra catolita ed anolita MATERIALE ELETTRODICO (A) Anodo: Pt, Carbone vetroso (C), Grafite (Gr), Ni, Mg, Al. Gli ultimi due materiali sono usati come anodi sacrificali. (C) Catodo: Hg (lega), Pt, C, Gr, Mg, Sn, Pb, Ni, Fe, Au. SOLVENTI Acetonitrile, Dimetilformammide, Diclorometano, Acetato di etile, Tetraidrofurano, Alcooli ELETTRODI DA SUPPORTO Li+BF4-, Li+ClO4-, R4N+BF4-, R4N+ClO4-, R4N+Br-, R4N+ISchema 6. Principali variabili di reazione impiegate in processi elettrochimici. Schema 4. Componenti di una cella a corrente costante (CCE) (A: amperometro; V: voltmetro; WE: elettrodo di lavoro; CE: contro elettrodo). 72 Esistono numerose applicazioni di metodi elettrochimici nella sintesi organica, che coinvolgono una grande varietà di reazioni fra cui, per esempio, la reazione di sostituzione, addizione, scissione, deprotezione, accoppiamento, dimerizzazione e ciclizzazione. Fra questi, in particolare, sono degni di mensione per la loro importanza applicativa, la funzionalizzazione di molecole organiche, la 73 trasformazione di gruppi funzionali, la fluorurazione selettiva, le reazioni stereoselettive e stereospecifiche, le sintesi chirali, la preparazione di intermedi farmaceutici, le basi elettrogenerate, le reazioni mediate elettrodicamente, la chimica dei composti organometallici, dei composti organici del silicio, dello zolfo e del fosforo, la bioelettrosintesi, le reazioni a trasferimento elettronico con catalizzatori ed infine le reazioni dei composti inquinanti in presenza di ossidanti elettrogenerati e sotto l’azione delle radiazioni UV. 4. METODO AL PLASMA [13-15] energie sufficienti per ionizzare le molecole. La ionizzazione produce più elettroni, cosicché il sistema procede a valanga sino a quando non raggiunge uno stato persistente. Il plasma è definito freddo o caldo a seconda della quantità di materiale ionizzato che è presente. Nel plasma freddo, che è quello più usato dal chimico sintetico, si hanno poche molecole ionizzate. Il rapporto del materiale ionizzato contro quello neutro può cambiare in dipendenza della potenza applicata, della pressione e delle dimensioni del reattore. In genere più alto è il vuoto, più freddo è il plasma. 4. 2 EFFETTO DELLA RADIAZIONE. Il plasma è quel materiale costituito da elettroni liberi, ioni e specie neutre. In laboratorio può essere generato molto facilmente producendo scariche elettriche in un recipiente contenente un particolare composto sotto forma di gas. È la forma più comune della materia che comprende più del 99% dell’universo. Con riferimento alle maggiori “revolutions”, tipi di energia e tecnologie, per i plasmi industriali è stata suggerita la seguente griglia. La formazione di ioni e di radicali dà luogo ad una moltitudine di reazioni che però non sono selettive a causa della elevata energia associata. Il processo è comunque di utilità sintetica quando le energie delle possibili reazioni differiscono sostanzialmente fra di loro e gli elettroni possono essere generati in intervalli energetici selezionati. La selettività molto bassa, purtroppo, ha limitato l’impiego del plasma a substrati e reazioni semplici. 4. 3 APPARECCHIATURE. Revolution Energia Tecnologie Industriale Chimica Elettrica Nucleare Elettronica Ottica Energia meccanica Reazioni chimiche Elettromagnetismo Reazioni nucleari Stato solido Interazioni fotoniche Macchine, Metallurgia Catalizzatori, Trattamenti di scarti Trasformatori, Invertitori Reattori, Isotopi Elettronica, Semiconduttori Sorgenti luminose, Lasers In relazione all’ambiente, il plasma è molto usato per la sterilizzazione dell’acqua in quanto, sulla base delle intense emissioni UV, previene la replicazione del DNA di microorganismi nell’acqua. Questa tecnica impiega 12 secondi, non comporta alcun effetto sull’odore e sul sapore ed in termini energetici è ventimila volte inferiore rispetto alla distillazione. Inoltre, esistono apparecchiature funzionanti a base di plasmi che producono gas ricchi di idrogeno a partire da combustibili differenti, riducendo quindi nella loro combustione i prodotti tossici dal punto di vista ambientale. 4. 1 NATURA DELLA RADIAZIONE. Le apparecchiature (Figura 3) più semplici sono in vetro, con elettrodi metallici e pressioni riconducibili al tipo di scarica usata: così, per esempio, con le scariche a incandescenza si lavora sotto vuoto, mentre con le scariche corona o le silenziose si può lavorare a pressione normale. In genere, la radiazione è applicata dall’esterno del reattore e la superficie interna del tubo di vetro è spesso ricoperta con sostanze come l’acqua, l’acido fosforico, il teflon, ecc. per evitare la ricombinazione velocissima dei frammenti molecolari o degli atomi generati dalla scariche. Gli elettrodi metallici sono potenzialmente dannosi, ed in particolare, non sono molto idonei per le reazioni organiche perché gli elettrodi possono ricoprirsi dei prodotti di decomposizione. Per grandi quantità di reagenti più appropriate sono le scariche corona o quelle silenziose che richiedono apparecchiature simili, anche se con geometrie differenti. Un esperimento frequente nella chimica del plasma è la dissociazione delle molecole di idrogeno, di ossigeno ed anche di azoto in atomi che successivamente reagiscono per dare prodotti. Il modo di generare il plasma, comunque, limita fortemente i substrati che possono essere usati. Quelli più idonei sono gli idrocarburi a basso peso molecolare e le olefine facilmente volatilizzabili. In questi esperimenti, le cui tecniche coinvolgono energie molto elevate, sono favoriti i processi monomolecolari che comportano eliminazioni di piccoli frammenti molecolari quali l’azoto, l’idrogeno, l’ossido di carbonio e l’anidride carbonica. Di importanza industriale sono la formazione di ozono con le scariche silenziose e di ossido di azoto o di acetilene con le scariche ad arco. Molto spesso sono usate le scariche di radiofrequenze che determinano una pressione, una potenza e una temperatura delle molecole non attivate relativamente basse. Plasmi simili sono generati da scariche silenziose, corona, ad incandescenza e da microonde, che differiscono solo per il metodo con cui sono generate o per la geometria dell’apparecchiatura usata. La formazione dello stato di plasma è iniziata dai pochi elettroni che sono comunemente presenti in un normale gas. Questi elettroni sono accelerati dai campi elettrici applicati e quindi collidono con le molecole circostanti e si disperdono. Occasionalmente, le collisioni possono comportare 74 75 4. 4. 2 Processi bimolecolari Non sono ancora molto sviluppate, anche perché in genere richiedono apparati più complessi. Un processo che comunque non richiede particolari apparecchiature è la dimerizzazione di un composto organico con rimozione di idrogeno o di altri gruppi. Una delle reazioni al plasma più importanti, che può essere usata in Green Chemistry, oggi resta l’ossidazione dei rifiuti che stabilizza i materiali solidi presenti, ma abbatte completamente le sostanze tossiche contenute nei rifiuti producendo molecole relattivamente semplici come l’acqua e l’anidride carbonica. 5. METODO AD IRRAGGIAMENTO CON MICRO-ONDE [22-27] Figura 3. Semplici schemi di apparecchi per reazioni a scariche a bagliore 4.4 APPLICAZIONI [15-21] 4. 4. 1 Processi monomolecolari Reazioni di gas atomici con composti organici L’idrogeno, l’ossigeno e l’azoto molecolare si dissociano in radicali mediante scariche a scintilla. I radicali così ottenuti possono reagire con molti altri composti organici. L’idrogeno radicalico estrae atomi di idrogeno da composti saturi ed i radicali che si ottengono possono sommarsi ad altri composti insaturi. Attraverso lo stesso meccanismo l’ossigeno radicalico fornisce epossidi, fra cui la formazione del propilen ossido di interesse industriale, di aldeidi e di chetoni. L’azoto radicalico reagisce violentemente con i composti organici e pertanto non è molto usato per applicazioni sintetiche. Reazioni di composti organici Fra le reazioni più frequentemente incontrate, ci sono: l’isomerizzazione cis-trans delle olefine; le espansioni, le contrazioni e le scissioni di anelli eterociclici; le modificazioni nella posizione dei sostituenti degli anelli aromatici; le eliminazioni di molecole semplici. 76 L’irraggiamento con micro-onde ha raggiunto livelli di popolarità molto elevati a causa dei bassi costi dei forni che permettono il riscaldamento di campioni di laboratorio ed anche dell’industria. È un metodo di riscaldamento pulito, economico e conveniente che offre rese più alte e tempi di reazione più brevi. Le applicazioni del riscaldamento via micro-onde si estendono a quasi tutte le aeree della chimica, fatta eccezione per le reazioni di sintesi in fase gas che tendono a diventare reazioni al plasma indotte da micro-onde, quali per esempio quelle per creare films di diamante. Nella fase gas, infatti, le molecole sono libere di ruotare e pertanto le collisioni sono minimizzate. In questo caso l’energia assorbita via irraggiamento con micro-onde determina transizioni solo fra gli stati rotazionali. Nel caso dei liquidi e dei solidi le molecole non sono libere di ruotare e l’energia assorbita è liberata sotto forma di calore. Oltre alle modificazioni fisiche indotte nei materiali ceramici per effetto delle proprietà disidratanti delle micro-onde, le perdite dielettriche per irraggiamento con micro-onde di molti solidi sono state usate per fornire sufficiente calore da indurre trasformazioni chimiche. Particolare attenzione stanno ricevendo le sintesi organiche che utilizzano il riscaldamento via micro-onde. Queste coprono una vasta area di reazioni, che va estendendosi sempre più, includendo le N- acilazioni, le C-, N-, O- e S-alchilazioni, le sostituzioni elettrofile aromatiche, le sostituzioni nucleofile, le cicloaddizioni di Diels-Alder ed 1,3-dipolari inter- ed intra-molecolari, le deprotezioni e protezioni, le esterificazioni e transesterificazioni, le formazioni di composti eterociclici, le reazioni organometalliche, le ossidazioni, le riduzioni e i riarrangiamenti. In relazione all’uso delle micro-onde deve essere tenuto in considerazione un certo numero di fattori che riguarda la scelta dei solventi da impiegare. Così, alcuni di questi sono incompatibili con i reattori aperti per la loro infiammabilità e/o volatilità. La dimetilformammide, l’acetonitrile ed il diclorometano sono molto utili per particolari tipi di reazione, anche se resta qualche limitazione perchè raggiungono il punto di ebollizione in meno di 1 minuto a 560 watts. L’uso dell’acqua è molto attraente in relazione allo sviluppo delle reazioni organiche in acqua, un’area molto attiva nel prossimo futuro. È stato dimostrato che i solventi sottoposti ad irraggiamento con micro-onde possono anche essere riscaldati sopra il loro punto di ebollizione. Sembra, a questo proposito, che questa forma di super-riscaldamento sia anche responsabile dell’incremento di velocità di molte reazioni. Le reazioni effettuate allo stato anidro in assenza di solventi ed anche su supporti solidi (montmorillonite, allumina, silice, etc.) permettono di superare la maggior parte dei problemi connessi con l’uso di solventi e possono anche essere effettuate con sicurezza e su larga scala. Questi supporti solidi non assorbono le micro-onde, mentre i gruppi ossidrilici, o l’acqua o i composti organici presenti sulla superficie del solido sono fortemente attivati e promuovono le reazioni. L’uso delle metodologie, che non utilizza i solventi, è particolarmente interessante dal punto di vista ambientale perché per77 mette di evitare l’impiego di grandi volumi di solvente e quindi rende possibile la riduzione di emissioni di solvente; sono considerevolmente semplificate, inoltre, le manipolazioni dei grezzi di reazione, perché, in molti casi, il prodotto puro può essere ottenuto direttamente dal grezzo per semplice estrazione, distillazione o sublimazione; possono, infine, essere usati efficientemente supporti solidi riciclabili al posto di acidi minerali o di ossidanti in soluzione e sono facilitati i processi industriali per l’assenza di solventi. 5. CONCLUSIONI 22. L. Perreux, and A. Loupy, Tetrahedron, 2001, 57, 9199. 23. C. GABRIEL, S. GABRIEL, E. H. GRANT, B. S. J. HALSTEAD, and D. M. P. MINGOS, Chem. Soc. Rev, 1998, 27, 213. 24. D. M. P. MINGOS, P. MICHAEL, and A. G. WHITTAKER, Microwave dielectric heating effects in Chemical Synthesis, in Chemistry Under Extreme or Non-classical Condition, R. van Eldik, and C. D. Hubard Eds., John Wiley and Sons, 1997. 25. S. CADDICK Tetrahedron, 1995, 51, 10403. 26. P. LIDSTROM, J. TIERNEY, B. WATHEY, and J. WESTMAN, Tetrahedron, 2001, 57, 9225. 27. A. DE LA HOZ, A. DIAZ ORTIZ, and A. MORENO, F. Langa, Eur. J. Org. Chem. 2000, 3659. Ci sono ancora molti problemi tecnologici da risolvere prima che i processi elaborati per le sintesi di laboratorio possano essere applicati su scala industriale a causa dei notevoli costi delle apparecchiature. Nel prossimo futuro, i metodi al plasma che si svilupperanno, saranno molto probabilmente quelli che portano alla produzione di composti non ottenibili o anche ottenibili, ma con serie difficoltà mediante i metodi convenzionali. BIBLIOGRAFIA 1. ULTRASOUND, K. S. SUSLICK Ed., VHC,Weinheim, 1988; Ultrasound in synthesis, S. V. Ley and C. M. R. Low , Springer Verlag, Berlin, 1989. 2. T. J. MASON, Chem. Soc. Rev. 1997, 26, 443. 3. T. J. MASON, Philos. Trans. R. Soc. London, Ser. A, 1999, 357, 355. 4. P. H .LEE, K. BANG, K. LEE, S.-Y. SUNG, and S. CHANG, Synth. Commun., 2001, 31, 3781. 5. Y. PENG, and G. SONG, Green Chem. 2001, 3, 302. 6. J. S. YADAV, B. V. S. REDDY, K. B. REDDY, K. RAI, and S. A. R.. PRASAD, J. Chem. Soc., Perkin Trans. 1, 2001, 1939. 7. G. ABBIATI, F. CLERICI, M. L. GELMI, A. GAMBINI, and T. PILATI, J. Org. Chem. 2001, 66, 6299. 8. M. V. ADHIKARI, and S. D. SAMANT, Ultrasonic Sonochem., 2002, 107. 9. New Challenges in Organic Electrochemistry, T. Osa, Gordon and Breach Science Publishers, Amsterdam, 1998. 10. Organic Electrochemistry (4th edition), H. Lund and O. Hammerich Eds., Marcel Dekker, 2001. 11. Novel Trends in Electroorganic Synthesis, S. Torii Ed., Tokio, 1995. 12. Electrochemistry towards Organic Synthesis, Electrochimica Acta, 1997, 42 (13-14), special issue. 13. M. MOLLAH, A. YOUSUF, R. SCHENNACH, J. PATSCHEIDER, S. PROMREUK, and D. L. COCKE, J. Hazard Mat.B 79, 2000, 301. 14. M. B. KIZLING, and S. G. JARAS, Appl. Catalysis A: General, 1996, 147, 1. 15. D. I. SLOVETSKY, Pure Appl. Chem. 1990, 62, 1729. 16. L. L. C. MILLER, Acc. Chem. Res., 1983, 16194. 17. H. SUHR, Pure Appl. Chem. 1974, 39, 395. 18. H. SUHR, Angew. Chem. Int. Ed. Eng. 1972, 11, 781. 19. B. M. JOHNSON, W. C. BABCOCK, J. B. WEST, and D. T. FRIESEN, U.S.Pat. 1998, US 5772855. 20. H. SUHR, and U. KUENZEL, Liebigs Ann. Chem. 1979, 12, 2057. 21. K. GORZNY, Chem.-Ztg. 1975, 99, 257. 78 79 Solventi ALLA RICERCA DI NUOVI SOLVENTI A RIDOTTA PERICOLOSITÀ: UN APPROCCIO MOLECOLARE ANDREA POCHINI 1. INTRODUZIONE Lo sviluppo della conoscenza in generale e di quella scientifica in particolare può essere paragonato all’evoluzione subita dai sistemi biologici. Questi infatti erano inizialmente unicellulari, ma si sono poi sviluppati, al fine di affrontare ambienti sempre più diversificati, in strutture sempre più complesse di tipo pluricellulare. Analogamente l’approccio scientifico, che era inizialmente monodisciplinare, si è andato sviluppando in logiche sempre più spiccatamente pluridisciplinari. Questo è evidentemente legato alla possibilità di affrontare, interagendo in una logica multifunzionale e cooperativa, problemi sempre più complessi, che proprio per le loro caratteristiche possono trovare solo soluzioni in ambiti disciplinari ad elevata complessità. I criteri di scelta dei solventi e più in particolare la valutazione dei vari pericoli, fra cui anche quelli ambientali, correlati con il loro utilizzo, sono una interessante ed istruttiva esemplificazione del modo di procedere legato al progredire delle conoscenze provenienti da settori anche molto lontani dalla chimica e di come queste abbiano determinato nuovi criteri nella valutazione delle scelte. I solventi infatti sono sostanze liquide usate su larga scala per diluire o sciogliere un’altra sostanza al fine di ottenere una soluzione. L’acqua è un solvente largamente usato ma non è un buon solvente per molte sostanze organiche (contenenti atomi di carbonio e di idrogeno). Per questo vengono largamente impiegati solventi organici ad esempio nel settore delle vernici, nella rimozione di sostanze protettive da metalli, tessili, nella pulitura “a secco” di vestiti ed in molte applicazioni nel settore chimico. Prima di entrare ad affrontare questo specifico problema occorre fare una introduzione sulla visione molecolare della materia sia per comprendere i vari stati fisici, sia per capire cosa sono, come lavorano e dove si utilizzano i solventi ed i criteri di scelta degli stessi. Al fine di ottenere una corretta comprensione di questi concetti occorre infatti scendere dalla visione macroscopica, ad esempio un liquido con specifiche caratteristiche come il punto di ebollizione, a quella microscopica o molecolare. Quest’ultima è utile per vedere e capire la struttura e le proprietà delle molecole che costituiscono il liquido e che quindi determinano le sue proprietà chimiche e fisiche. 2. DAGLI ATOMI ALLE MOLECOLE. LE INTERAZIONI INTRAMOLECOLARI: LEGAMI COVALENTI Partendo dagli atomi dei vari elementi noti e presenti nella Tavola periodica, che sono poco più di cento, si verifica che quelli presenti nella crosta terrestre in quantità significative scendono a circa quindici. Infine nei sistemi biologici, quale ad esempio il corpo umano, gli elementi significativi scendono a circa dieci ed in particolare quattro di questi, il carbonio (C), l’idrogeno (H), l’ossigeno (O) e l’azoto (N), costituiscono più del 95% in peso del corpo umano. Come vedremo anche i solventi sono normalmente caratterizzati dalla presenza dei quattro elementi sopra riportati. 83 Gli atomi non sono normalmente stabili e cercano di evolvere per raggiungere, a livello degli elettroni che li caratterizzano, una configurazione stabile a più bassa energia tipica dei gas nobili. Per ottenere questo risultato gli atomi mettono in compartecipazione i propri elettroni con quelli di uno o più altri atomi dando origine a legami intramolecolari, definiti covalenti, arrivando così alla formazione di una molecola. Come tipici esempi prendiamo la molecola di idrogeno e quella di metano. L’atomo di idrogeno ha un solo elettrone che mette in compartecipazione con un altro atomo di idrogeno al fine di ottenere un legame fra i due atomi. Con questo legame viene raggiunta una situazione elettronica in cui ci sono due elettroni condivisi che è uguale a quella che caratterizza il gas nobile Elio. Attraverso la condivisione dei due elettroni, i due atomi si trovano nella molecola ad una distanza di 74 pm (distanza di legame) e l’energia del sistema si abbassa di 436 KJ/mole. Figura 2. Valori di elettronegatività degli atomi Figura 1. Energia di un sistema a due atomi in funzione della distanza interatomica In maniera analoga il Carbonio, caratterizzato da quattro elettroni da condividere, forma quattro legami con quattro atomi di Idrogeno al fine di raggiungere la situazione elettronica stabile ad otto elettroni, che caratterizza il gas nobile Neon. In questo modo si forma la molecola di metano CH4. Come regola generale possiamo dire che formando un legame si libera energia mentre per rompere un legame occorre fornire energia al sistema. 2.1. ELETTRONEGATIVITÀ, LEGAMI COVALENTI POLARIZZATI E POLARITÀ DELLE MOLECOLE Quando due atomi diversi sono uniti da un legame covalente, l’attrazione esercitata da ogni atomo sugli elettroni di legame può essere messa in relazione con una proprietà detta elettronegatività. Questa proprietà misura la capacità relativa dei vari atomi di attrarre elettroni. Molto adoperata è la scala delle elettronegatività di Pauling (vedi Fig. 2 ), in cui l’elettronegatività viene espressa numericamente. A valori più elevati corrispondono atomi più elettronegativi. L’elettronegatività cresce a parità di periodo (riga) da sinistra a destra ed a parità di gruppo (colonna) dal basso verso l’alto, per cui l’atomo più elettronegativo è il fluoro. 84 Ad esempio, in una molecola di HCl, l’atomo di cloro, più elettronegativo rispetto all’idrogeno, esercita un’attrazione maggiore sugli elettroni di legame, per cui il baricentro delle cariche positive e quello delle cariche negative non coincidono: quest’ultimo è più spostato verso l’atomo di cloro. Questa distribuzione non simmetrica delle cariche, dà luogo ad un legame covalente polarizzato in cui gli elettroni sono spostati verso l’atomo più elettronegativo. La presenza di un tale legame è la condizione necessaria, ma non sufficiente, per avere una molecola polare, in cui i baricentri separati delle cariche positive e negative costituiscono un dipolo. Il dipolo (vettore), generato grazie alla presenza di un elemento fortemente elettronegativo, può essere rappresentato formalizzando sul cloro una parziale carica negativa e sull’idrogeno una parziale carica positiva, indicate con i simboli δ+ e δ−. δ+ δ− H-Cl Il dipolo può essere quantificato dal valore del momento dipolare, che, in una molecola formata da più di due atomi, si calcola facendo la somma vettoriale dei valori di momento dipolare relativi a tutti i legami presenti. In una molecola biatomica il momento dipolare (µ ) dipende dalla differenza ( ∆ ) di elettronegatività degli atomi ed aumenta quando questa differenza diventa più grande: H-F H - Cl H - Br H-I µ = 1.82 µ = 1.03 µ = 0.82 µ = 0.44 ∆ ∆ ∆ ∆ Elettronegatività = 1.9 Elettronegatività = 0.9 Elettronegatività = 0.7 Elettronegatività = 0.4 Questa polarizzazione può essere evidenziata anche utilizzando le mappe di potenziale elettrostatico, che mostrano, tramite l’uso di colori, la densità di carica associata con una superficie molecolare. 85 Rosso < Arancio Potenziale elettrostatico più negativo LiH < Giallo < Verde < Blu Potenziale elettrostatico più positivo H2 HF Figura 3. Potenziali elettrostatici di alcune molecole biatomiche Quando il legame covalente unisce due atomi uguali, come ad esempio in H2 o Cl2, i centri delle cariche positive e negative sono coincidenti, in un punto equidistante dai due nuclei, e conseguentemente questi legami non presentano polarità. Quindi sono apolari le molecole in cui gli atomi non presentano una significativa differenza di elettronegatività, oppure quelle simmetriche (es CO2, CF4) in cui dipoli uguali si annullano a vicenda. In queste molecole il momento dipolare è nullo. Quindi la polarità di una molecola richiede sia la presenza di un legame covalente polarizzato sia una forma non simmetrica della molecola. Figura 4. Momenti dipolari (µ): effetti della polarizzazione dei legami e della forma delle molecole (Per i momenti dipolari dei solventi vedi Tabella 2). Figura 5. Le Forze Intramolecolari possono essere suddivise in ioniche, covalenti e legami metallici, sebbene non ci sia una netta suddivisone tra queste descrizioni. Le Forze intramolecolari sono quindi caratterizzate da energie relativamente elevate. Formare o rompere questi legami richiede quindi molta energia, come vedremo nelle reazioni chimiche. 3. LE INTERAZIONI INTERMOLECOLARI Le molecole interagiscono con altre molecole tramite forze attrattive intermolecolari. Una semplice dimostrazione dell’esistenza di tali forze si può avere confrontando l’acqua allo stato solido (ghiaccio), liquido e gassoso. Se non esistessero tali interazioni l’acqua dovrebbe esistere come gas. Le interazioni fra le molecole di acqua ( interazioni intermolecolari ) sono responsabili dell’esistenza dell’acqua liquida o solida. Formare o rompere questi legami richiede, come vedremo nei cambiamenti di stato fisico (solido – liquido – gas ) o nei processi di solubilizzazione, energie molto più basse. Nella Figura 6 sono presentate le varie possibili interazioni intermolecolari, con i valori energetici relativi. Si ricorda che in questa trattazione affronteremo solo quelle che avvengono fra specie non cariche (dipolo – dipolo, dipolo – dipolo indotto e le forze di dispersione di London cioè dipolo istantaneo – dipolo indotto). Va anche tenuto presente che le molecole polari interagiscono fra di loro con tutte e tre le possibili interazioni. Interazioni dipolo – dipolo: i dipoli si allineano completamente o parzialmente nel campo elettrico generato del dipolo adiacente, tale orientazione è contrastata dall’energia termica del sistema. Si ricorda che solo allo zero assoluto (0 K), circa – 273°C, le molecole sono immobili come pure gli atomi all’interno delle molecole. Ad esempio a temperatura ambiente (circa 300 K) nei liquidi e nei gas le molecole si muovono ed anche gli atomi dei vari legami oscillano spostandosi dalla distanza ottimale, corrispondente al minimo energetico della Distanza di Legame. Chiudiamo questa prima parte introduttiva sulle Forze Intramolecolari presentando nella Tabella un quadro più completo di tali forze e delle loro energie, ribadendo che in questa trattazione ci occuperemo solo di quelle covalenti. Interazioni dipolo – dipolo indotto: gli elettroni di una molecola sono mobili per cui quando una molecola si avvicina ad un dipolo, parzialmente carico, questi si muoveranno in risposta al campo elettrico prodotto dal dipolo, avvicinandosi alle parziali cariche positive ed allontanandosi da quelle negative. Questa libertà di movimento posseduta dagli elettroni di una molecola viene chiamata polarizzabilità. 86 87 Gli atomi piccoli, che possiedono pochi elettroni in prossimità dei protoni nucleari, sono molto poco polarizzabili. Al contrario gli atomi caratterizzati da un elevato numero atomico, avendo molti elettroni collocati in zone lontane dal nucleo, sono molto più facilmente polarizzabili. Su una molecola che contiene atomi facilmente polarizzabili sarà possibile la formazione di un dipolo indotto. La polarizzabilità delle molecole è maggiore quando il loro indice di rifrazione è più elevato (vedi Tabella 2). Forze di dipersione di London: possono essere interpretate come dovute all’attrazione tra dipoli istantanei che si generano in molecole apolari. Suddetti dipoli si formano ad esempio per perdita di simmetria della molecola come conseguenza dei moti molecolari. Ad esempio nel CCl4, che è una molecola priva di momento dipolare perché simmetrica, i moti molecolari possono allungare uno dei quattro legami C-Cl creando così un dipolo istantaneo. Tale dipolo polarizzerà a sua volta un’altra molecola di CCl4, molecola facilmente polarizzabile per la presenza degli atomi di cloro in cui gli elettroni sono sufficientemente diffusi. Legame ad idrogeno: questa particolare interazione intermolecolare presenta energie relativamente elevate ( ad esempio 20 – 40 KJ/mole ) e si verifica fra atomi di idrogeno legati ad atomi ad elevata elettronegatività (F, O, N) ed elettroni presenti su altri atomi di F, O, N. Figura 6 – Interazioni intermolecolari Nei liquidi le interazioni dipolo-dipolo possono essere sia attrattive (linee continue) che repulsive (linee tratteggiate) Figura 8. Molecole che danno interazioni intermolecolari via Legame ad idrogeno. Figura 7. Interazioni dipolo-dipolo nei vari stati fisici della materia 88 89 4. STATI FISICI DELLA MATERIA: GAS – LIQUIDI – SOLIDI Nei gas le forze attrattive intermolecolari sono praticamente nulle e le molecole sono libere di muoversi con una velocità che aumenta all’aumentare della temperatura (energia cinetica). Nei liquidi esistono consistenti interazioni intermolecolari fra le molecole, che le costringono a tenersi in stretto contatto con le altre molecole anche se mantengono una certa libertà di movimento. Nei solidi queste forze sono talmente elevate da bloccare ogni movimento (vedi Figura 7 e 9). Qui a destra sono riportate una serie di molecole apolari sia monoatomiche come i gas nobili Elio, Neon, Argon, Kripto e Xeno, sia biatomiche come gli alogeni Fluoro, Cloro, Bromo e Iodio, con i loro relativi punti di ebollizione. Si osserva che i punti di ebollizione crescono enormemente con l’aumentare della grandezza dell’atomo (peso atomico) o della molecola (peso molecolare PM ottenuto dalla somma dei pesi atomici). Questa proporzionalità può essere messa in stretta correlazione con un aumento della polarizzabilità dell’atomo più grande e conseguentemente delle forze di dispersione di London. Punti di ebollizione, numero degli atomi di carbonio e pesi molecolari (PM) negli alcani Metano Propano Butano Esano Decano Eicosano Figura 9. Stati fisici della materia Cambiamenti di stato. Nella successiva figura 10 sono stati riassunti i possibili passaggi di stato: con le frecce blu sono stati indicati i processi in cui viene ceduta energia, mentre in rosso quelli in cui bisogna fornire energia perché avvengano. Ad esempio il calore di evaporazione è una misura delle energie delle forze intermolecolari presenti fra le molecole del liquido e che vanno vinte per farlo passare allo stato gassoso. Ne consegue che una misura delle energie associata alle forze intermolecolari si può ottenere dai punti di ebollizione delle varie sostanze. CH4 C3H8 C4H10 C6H14 C10H14 C20H42 T. ebolliz. T. ebolliz. T. ebolliz. T. ebolliz. T. ebolliz. T. ebolliz. Un aumento del punto di ebollizione con il peso molecolare si osserva anche con gli alcani, molecole che contengono solo atomi di carbonio e di idrogeno (vedi Figura 11). In questo caso le molecole apolari aumentano il numero di interazioni dipolo istantaneo – dipolo indotto all’aumentare della lunghezza della catena e conseguentemente anche le relative energie. Temperatura di ebollizione °C Gassosa Numero degli atomi di carbonio delle molecole 1 to 4 Nafta 5 to 10 25 - 175 Cherosene Gasolio leggero Gasolio pesante 10 to 16 14 to 50 20 to 70 150 - 260 235 - 360 330 - 380 Olio lubrificante > 60 340 - 575 < 40 Olio combustibile > 70 > 490 Bitume >580 > 80 Figura 12. Frazioni petrolifere 90 -164,0 °C -42,1 °C -0,5 °C 68,9 °C 174,1 °C 343 Figura 11. Dipendenza della temperatura di ebollizione dal peso molecolare Frazione Figura 10. Variazioni energetiche nei passaggi di stato. PM=12+4x1=16 PM=44 PM=58 PM=86 PM=134 PM=282 91 Usi • • • • • • • Combustibile Bombole di gas liquido Benzina per auto Sorgente di prodotti chimici Combustibile per aerei Gasolio per auto Sorgente di prodotti per il «cracking» • Prodotti lubrificanti • Sorgente di prodotti per il «cracking» • Combustibile per impianti termoelettrici e navi • Superfici stradali, tetti Anche le frazioni petrolifere, costituite prevalentemente da idrocarburi apolari ed ottenute dalla distillazione del petrolio, hanno temperature di ebollizione che aumentano all’aumentare del peso molecolare e quindi del numero di atomi di carbonio contenuti nelle molecole presenti nelle varie frazioni (vedi Figura 12). Quando la molecola non è più apolare, oltre alle forze di dispersione di London intervengono anche gli altri tipi di interazioni intermolecolari. Riportiamo qui tre molecole che hanno peso molecolare simile ma presentano diversi tipi di interazione intermolecolari. All’aumentare di queste interazioni aumenta anche il punto di ebollizione. Molecula Propano Etere dimetilico Alcol etilico Formula CH3CH2CH3 CH3OCH3 CH3CH2OH Temperatura di ebollizione °C -42°C -25°C +78°C Tipologia delle Forze Attrattive Intermoleculari * Tipo 1 Tipo 1+2 Tipo 1+2+3 *Dove le Forze attrattive intermolecolari vengono scomposte in: Tipo 1 = Dipolo istantaneo (dissimetrizzazione da moti molecolari) - dipolo indotto (polarizzabilità) [Forze di dispersione di London] Tipo 2 = Dipolo - dipolo o dipolo-dipolo indotto Tipo 3 = Legame ad idrogeno Figura 15. Dipendenza della Tensione di vapore dalla Temperatura Figura 13. Correlazione fra le forze attrattive intermolecolari e la temperatura di ebollizione Equilibri liquido-gas: tensione di vapore - Nei liquidi le molecole hanno una energia cinetica determinata dalla temperatura in cui questi si trovano. Le molecole hanno energie differenti con una distribuzione statistica delle energie e quindi alcune di esse hanno una energia sufficiente per vincere le interazioni intermolecolari e passare in fase gas. Figura 16. Parametri relativi al passaggio di stato liquido - gas (Temperatura di ebollizione = P.E. ; Tensione di vapore; Calore di evaporazione =∆Hvap ) Figura 14. Equilibri liquido - gas Tale equilibrio è dinamico e quindi molecole di gas, perdendo parte della propria energia, possono tornare nella fase liquida. La tensione di vapore di un liquido ad una certa temperatura misura la pressione esercitata dal vapore ed è un indice del numero di molecole presenti allo stato di vapore ed aumenta all’aumentare della temperatura ed al diminuire della energia delle interazioni intermolecolari. Un altro parametro importante che determina la diffusione di un gas o di un vapore nell’ambiente e la sua densità relativa rispetto all’aria. La composizione dell’aria è circa la seguente: 78% azoto (PM=28), 21% ossigeno (PM=32), e 1% argon (PM=40). Il peso molecolare (PM) di questa miscela gassosa si ottiene dalla media pesata dei pesi molecolari. 92 93 Peso Molecolare medio dell’aria = 0,78x28 + 0.21x32 + 0.01x40 = ca. 29 Applicando l’equazione di stato dei gas pv = (g/PM)RT, dove p, v, T, g e PM sono rispettivamente la pressione, il volume, la temperatura, i grammi ed il peso molecolare del gas, si ricava che la densità di un gas d = g/v = (p/RT)PM dipende dalla pressione, temperatura e dal peso molecolare del gas stesso. Operando quindi a temperatura e pressioni costanti la densità diviene direttamente dipendente dal peso molecolare del gas. Densità dei gas = K (PM) [K = costante a T, p = costanti) Il peso molecolare delle sostanze organiche è generalmente >> 29 ; per cui la densità dei gas o vapori da sostanze organiche >> densità aria. Questi stratificano quindi verso il basso (diffondono lentamente nell’atmosfera). Es: Etere dietilico Butano Metano Idrogeno C2H5O C2H5 C4H10 CH4 H2 PM = 74 PM = 58 PM = 16 PM = 2 Tipo di soluzione Gas in gas Gas in liquido Gas in solido Liquido in liquido Liquido in solido Solido in liquido Solido in solido Esempio Aria (O2, N2, Ar, e altri gas) Acqua gassata (CO2 in acqua) H2 in palladio Gasolio (miscela di idrocarburi) Pasta per otturazione dentale (Mercurio in argento) Acqua di mare (NaCl e altri sali in acqua) Leghe metalliche Figura 17. Tipi diversi di soluzioni Soluti e solventi – Soluto è la sostanza che vogliamo sciogliere – Solvente è la sostanza (normalmente un liquido che è la componente principale della miscela) che scioglie il soluto. Vapore molto pesante Gas pesante Gas leggero Gas molto leggero La densità relativa di questi gas determina la loro diffusione nell’aria e quindi anche la posizione di eventuali sensori specifici istallati in una logica protettiva. Così ad esempio un rivelatore per gas di città (CH4) dovrà essere collocato a soffitto mentre quello per i gas in bombole (miscela di propano e butano) va collocato in basso. Altri esempi di importanza della densità dei gas nel determinare eventuali rischi viene dalla CO2 che si libera nella fermentazione alcolica (produzione di vini). Questo gas ha un peso molecolare uguale a 44 e quindi essendo più pesante dell’aria stratifica verso il basso del tino spostando l’aria ivi presente. Se una persona, al termine del processo fermentativo, entra in un tino non opportunamente ventilato si trova a contatto con un gas non tossico ma soffocante. Infatti la diminuzione di ossigeno presente nel tino può portare a rischi anche mortali. SOLUTO SOLVENTE Figura 18. La solubilizzazione del cloruro di sodio (sale da cucina) Nella Figura 18 è schematizzato il processo di solubilizzazione del sale da cucina (soluto solido) in acqua (solvente liquido). Anche la miscibilità dei liquidi in generale e dei solventi in particolare può fornire utili indicazioni sui parametri che guidano il processo di solubilizzazione (Figura 19). 5. SOLUZIONI Se mescoliamo due sostanze diverse, ad esempio un solido ed un liquido, possiamo avere due casi: formazione di una miscela eterogenea con presenza di regioni a differente composizione e con osservabili separazioni dei componenti oppure formazione di una miscela omogenea con composizione uniforme e costante e senza osservabili separazioni dei componenti come ad esempio nelle soluzioni. Queste sono in genere costituite da solidi o liquidi disciolti in un altro liquido ma altri tipi di soluzioni sono possibili. • Ad esempio Soluzioni Gas-Liquido – Piccole quantità di gas non polari possono essere disciolti in acqua tramite interazioni attrattive dipolo – dipolo indotto. Così a 25°C ed 1 atmosfera 3,2 mL di O2 si sciolgono in 100mL di acqua e questa solubilità è essenziale per la vita negli ambienti acquatici. 94 SOLUZIONE Figura 19. Una dimostrazione della solubilità: la miscibilità di due liquidi 95 L’acqua, molecola polare in grado di formare legami ad idrogeno, scioglie l’etanolo che è anch’esso polare ed avente la capacità di dare legami ad idrogeno. Questi due solventi sono quindi completamente miscibili tra loro. Al contrario l’acqua non scioglie l’esano o il diclorometano che sono molecole non polari e questa immiscibilità dà origine alla formazione di due fasi liquide di cui quella con densità più bassa formerà lo strato superiore della miscela eterogenea. Esano e diclorometano d’altra parte sono mutuamente miscibili tra loro essendo due molecole apolari. Nella Figura 20 viene presentata in maniera schematica la miscibilità di vari liquidi. A sinistra ci sono i solventi polari capaci di dare legami ad idrogeno come l’acqua, l’etandiolo o glicol etilenico, l’etanolo e l’acido acetico. La polarità diminuisce con il 2-butanone, l’etil acetato e l’etere etilico ed infine con il toluene, il tetraclorometano e l’esano si hanno i solventi apolari. Linea continua fra due solventi = completa miscibilità, Linea tratteggiata = parziale miscibilità, Linea puntiforme = miscibilità molto bassa, Assenza di linea = immiscibile Figura 20. Miscibilità dei solventi Come si vede dalla figura, le linee continue, specialmente con i solventi capaci di dare legami ad idrogeno, sono presenti solo con i solventi contigui. La regola generale che quindi si può ricavare da questi dati, ma anche da quelli riportati in precedenza per la solubilità, è che “le sostanze simili sciolgono sostanze simili”. Se facciamo un bilancio delle forze intermolecolari che entrano in giuoco nella solubilizzazione di un soluto, dobbiamo da un lato considerare l’energia spesa per separare sia le molecole di soluto che di solvente e quindi, perché il processo avvenga, dovremmo ottenere almeno una pari quantità di energia dalle interazioni fra le molecole di soluto e di solvente. 6. UTILIZZO DEI SOLVENTI Un solvente è una sostanza usata per diluire o sciogliere un’altra sostanza per creare una soluzione. L’acqua è un solvente largamente usato ma per quanto precedentemente discusso non è un buon solvente per molte sostanze organiche (contenenti atomi di carbonio e di idrogeno) o apolari o a bassa polarità. Per questo vengono ampiamente impiegati solventi organici che avendo caratteristiche meno polari dell’acqua e maggior somiglianza strutturale hanno le caratteristiche di essere migliori solventi per le sostanze organiche. Le possibili applicazioni dei solventi sono molte. Ad esempio quali “carrier” di solidi o di liquidi, riducendone la viscosità, come ad esempio nel settore delle vernici; per la rimozione di sostanze protettive da metalli, tessili etc. ; per la pulitura “a secco” di vestiti ecc. I solventi possono anche essere utilizzati nell’estrazione, separazione selettiva mediante dissoluzione, nella cristallizzazione, purificazione mediante fenomeni legati alla solubilità, nella cromatografia, separazione mediante fenomeni di ripartizione, e quale mezzo di reazione, solvente non reattivo, in cui altre specie chimiche sono libere di muoversi e di reagire ed in cui il fluido serve per il trasferimento del calore liberato dalla reazione. Svariati sono gli aspetti che vanno presi in considerazione per scegliere un solvente in una certa applicazione. Si riportano qui i parametri più importanti che devono guidare la scelta dei solventi: 1.-la capacità solvente; 2.-le proprietà fisiche (e.g. :tensione di vapore, punto di. ebollizione, miscibilità o immiscibilità con altri solventi, viscosità, tensione superficiale); 3.-il costo; 4.-l’infiammabilità (valutata tramite la temperatura di autoaccensione e di infiammabilità); 5.-la tossicità. 6.-l’ecocompatibilità e la facilità di smaltimento o recupero. In questa logica uno dei primi parametri che ha inizialmente influenzato le scelte dei solventi è stata l’infiammabilità degli stessi. Questo ha portato all’introduzione dei solventi clorurati. L’acquisizione di nuove conoscenze tossicologiche ed ambientali (quali ad esempio i problemi connessi con la ecostabilità ed ecopermanenza e la difficoltà nello smaltimento) sta portando ad una revisione critica di questa scelta con una conseguente forte riduzione nel consumo di tali solventi. Certamente la conoscenza di nuovi dati tossicologici ed ambientali, unita alla richiesta di standard di sicurezza sempre maggiori sta portando ad una continua revisione critica dei solventi impiegati. Ad esempio la conoscenza dei cicli fotochimici della troposfera (zona della atmosfera in cui vivono i sistemi biologici) ed in particolare sull’origine del cosiddetto “smog fotochimico” sta attirando l’attenzione sulle “Sostanze Organiche Volatili” (in inglese VOC) ivi presenti e sulla necessità di operare un controllo sulle concentrazioni di queste sostanze presenti nell’atmosfera e quindi su tutte le possibili sorgenti di immissione compreso l’utilizzo dei solventi. Figura 21. Energie coinvolte nel processo di solubilizzazione 96 97 7. VALUTAZIONE DEI FATTORI DI RISCHIO CHIMICO [1] Al fine di dare utili indicazioni sulla valutazione del rischio nell’utilizzo dei solventi e dei criteri di scelta degli stessi, saranno qui affrontati alcuni aspetti correlati con la valutazione del rischio chimico in generale e di quello da infiammabilità in particolare. Partiamo da alcune definizioni generali. Identificazione dei pericoli o fattori di rischio (hazard)- Proprietà o qualità intrinseca di una determinata entità (sostanza, attrezzo, metodo etc.) avente potenzialità di causare danni Valutazione del rischio (risk)- Probabilità che sia raggiunto il livello potenziale di danno nelle condizioni di impiego e o di esposizione nonché dimensioni possibili del danno stesso. R (Rischio) = F (frequenza attesa) x M (magnitudo del danno) Per ridurre quindi il Rischio si può operare a livello di F (prevenzione) e di M (protezione). La gestione del rischio (Risk menagement) viene compiuta tramite l’adeguamento strutturale, la formazione, l’informazione, le procedure etc. Valutazione dei fattori di rischio chimico - Facendo riferimento alla normativa europea sull’etichettatura dei prodotti chimici il problema della valutazione dei pericoli connessi con tali sostanze può essere affrontato mediante una sua suddivisione in: Infiammabilità – Reattività –Tossicità –Rischio ambientale. Come discusso precedentemente verrà qui affrontato in particolare il pericolo infiammabilità e sarà introdotto qualche semplice concetto connesso con la tossicità. Questi rischi dipendono da: Proprietà Fisiche discusse nelle pagine precedenti - Proprietà Chimiche. Proprietà chimiche - Una reazione chimica per essere spontanea deve soddisfare contemporaneamente due requisiti: 1-Energetico L’energia dei prodotti di reazione deve essere minore di quella dei reagenti L’energia dei vari legami presenti nelle molecole determina prevalentemente questa energia, quindi tendono a formarsi prodotti di reazione con legami più forti rispetto ad i reagenti iniziali. Nel caso di combustione di solventi si formano ad esempio anidride carbonica (O=C=O) ed acqua (H-O-H) molecole che presentano legami molto forti. 2-Cinetico La velocità con cui avviene la reazione deve essere compatibile con i tempi umani Nelle reazioni organiche sia a livello applicativo (es. ottenimento di energia per combustione di sostanze organiche quali benzina, gasolio, metano ecc.) che biologico (catabolismo con ottenimento di energia per combustione di sostanze organiche quali il glucosio derivato dall’amido) le reazioni non hanno normalmente problemi energetici ma solo cinetici. La velocità della reazione può essere talmente bassa che non avviene nei tempi umani. La velocità di una reazione viene misurata attraverso la velocità di scomparsa dei reagenti o la velocità di formazione dei prodotti di reazione ed aumenta all’aumentare delle concentrazioni delle specie reagenti. Prendendo come esempio la reazione di combustione del metano: CH4 + 2 O2 → CO2 + 2 H2O + Energia, questa reazione è molto favorita da un punto di vista energetico, i legami presenti nelle molecole di anidride carbonica (CO2) ed acqua (H2O) sono infatti molto forti, ma in assenza di un innesco non avviene. La velocità della reazione è troppo bassa a temperatura ambiente. Perché le molecole reagiscano devono infatti avvenire degli urti fra le molecole reagenti ma questi per portare all’evento reattivo devono avvenire con Energia > Energia di attivazione (Ea – Figura 22). Infatti prima di cominciare a formarsi i nuovi legami covalenti, che porteranno ad i prodotti di reazione, bisogna vincere delle interazioni repulsive esistenti fra le molecole reagenti. 98 La velocità della reazione aumenta con la temperatura in quanto con l’aumento della temperatura aumenta l’energia cinetica di tutte le molecole e quindi aumenta il numero di molecole aventi energia superiore all’energia di attivazione, capaci di portare all’evento reattivo (Figura 23). Aumenti di velocità di reazione si possono anche ottenere mediante l’utilizzo di catalizzatori (ad esempio catalisi enzimatica presente nei sistemi biologici), che abbassano la energia di attivazione incrementando così il numero di molecole che possono superare questa barriera più bassa (Figura 22). E’ evidente che quando un processo di combustione viene innescato poi la forte liberazione di calore che avviene nella reazione mantiene e sostiene la velocità della reazione. Figura 22. Schematizzazione delle variazioni energetiche richieste per ottenere il procedere di una reazione chimica e confronto fra una reazione non catalizzata e catalizzata. Figura 23. Dipendenza delle Energie cinetiche delle molecole dalla Temperatura 7.1. RISCHIO DA INCENDIO Dopo queste note introduttive affrontiamo il problema della valutazione del rischio di un possibile incendio, che porta a rilasci non controllati di energia termica e di prodotti di combustione che possono essere soffocanti (CO2) o tossici (CO, HCl, HCN etc.). Si ricorda infatti che il mondo attuale è “energia dipendente” e che la massima parte di questa energia viene ottenuta tramite processi di combustione. Esempi classici sono le centrali termoelettri99 che, per la produzione dell’energia elettrica, ed i mezzi di trasporto su strada come le nostre auto, che bruciando benzina o gasolio ottengono energia meccanica per muoversi. In ambedue questi casi il rilascio energetico, al contrario degli incendi, è controllato e quindi può essere facilmente sfruttato. Qualche definizione introduttiva: Combustibile: sostanza capace di ossidarsi in presenza di un ossidante (comburente) in una reazione chimica. Può essere un composto puro (Es. H2, CH4, CO) oppure sostanze in cui sono presenti miscele di composti (Es. benzina, gas liquido, legno). Comburente: Sostanza capace di ridursi. Normalmente è O2 (ossigeno) presente nell’aria. Combustione: Reazione con forte liberazione di calore fra il combustibile e il comburente. Fiamma: Emissione di radiazioni, di cui una parte nel visibile, collegato allo sviluppo di energia che si verifica durante una combustione, che procede in fase gassosa. 7.1.1. Combustione dei gas Temperatura di autoaccensione (Ta): E’ una misura dell’Energia di attivazione del processo di combustione. Se questa energia è molto elevata la reazione di combustione non avviene ed il prodotto non è combustibile. La Ta è la temperatura minima alla quale il combustibile inizia a bruciare spontaneamente in presenza di comburenti (es. aria) senza necessità di un innesco come una fiamma od una scintilla. Se non si raggiunge la Ta non avviene la reazione di combustione (generalmente >> 200 °C). I composti cosiddetti non infiammabili hanno una Ta >800°C. Possibili inneschi: Fiamme, scintille, materiali caldi, reazioni chimiche che liberano calore etc. Limiti di infiammabilità inferiore e superiore: Miscela compresa entro i valori limiti del campo di infiammabilità che, se innescata, dà luogo ad una combustione con propagazione della fiamma (reazione autosostenuta). Se la quantità combustibile è troppo piccola si avrà una miscela povera, se la quantità combustibile è troppo elevata avremo una miscela troppo ricca. In tutti e due i casi la reazione di combustione non si autosostenta. Es.: C2H2 (acetilene):Limiti di infiammabilità in aria = 1,5 – 82%; CH4 (metano): Limiti di infiammabilità in aria = 5 – 15%. Quindi se un innesco fa scattare il processo di combustione in una miscela gassosa di combustibile e comburente, con concentrazioni relative tali da portarla al di fuori del campo di infiammabilità, la reazione di combustione si blocca sione di vapore più bassa. Quindi una perdita di benzina può portare, in presenza di un innesco, ad un incendio mentre la perdita di gasolio non porta a temperatura ambiente, anche in presenza di un innesco, ad un incendio. Essendo fuori dal proprio campo di infiammabilità la sua reazione di combustione non è autosostenuta e quindi non procede. Va infine ricordato che quando il processo di combustione parte la forte liberazione di calore facilita il passaggio allo stato di vapore delle molecole del liquido. Su questa base la valutazione del rischio da incendio di un liquido va fatta considerando la Temperatura di autoaccensione (i solventi clorurati non sono infiammabili perché la Ta è troppo elevata) ed il Punto di infiammabilità (se questo è uguale od inferiore alla temperatura ambiente, questi liquidi, in presenza di un innesco, possono prendere fuoco, come accade per la benzina ma non per il gasolio). Esempio: Classificazione liquidi infiammabili (D.M. oli minerali) sulla base del loro Punto di Infiammabilità: A) Liquidi inf. con punto di inf. < 21°C Es: benzina -alcol etilico B) Liquidi inf. con punto di inf. > 21°C e < 65°C Es: gasolio - petrolio C) Liquidi combustibili con punto di inf.>65°C Es: olio combustibile, lubrificante. 7.1.3. Combustione dei solidi La combustione con fiamma avviene in fase gas dopo la pirolisi (degradazione termica) del solido con produzione di sostanze gassose infiammabili. Il processo di combustione di liquidi o solidi dipende dalla grandezza delle particelle liquide o solide. La combustione di specie ad elevata area superficiale, quali le nebbie o le polveri, si avvicina alla combustione delle sostanze gassose (caratteristiche esplosive con rilasci energetici in tempi molto brevi). La conoscenza dei vari parametri che intervengono a determinare il rischio da incendio permette da un lato di operare a livello preventivo ma nel caso che questo si verifichi anche a livello protettivo. In questa logica si può vedere la ricerca di sostituti o non infiammabili o con rischio di infiammabilità inferiore, l’utilizzo di impianti elettrici adeguati ai solventi utilizzati, l’utilizzo di sistemi di ventilazione adeguati, la previsione di opportuni sistemi estinguenti etc. 7.2. GLI ASPETTI TOSSICOLOGICI NELLA VALUTAZIONE DEL RISCHIO CHIMICO 7.1.2. Combustione dei liquidi Il processo di combustione avviene in fase gassosa, sono infatti le molecole presenti al di sopra del liquido allo stato di vapore che, urtando con energia superiore all’energia di attivazione (necessità di un innesco) le molecole di ossigeno dell’aria, porteranno alla combustione del liquido. Di qui la necessità di un passaggio di stato da liquido a vapore. Quindi oltre alla Temperatura di autoaccensione, che definisce se un liquido è infiammabile oppure non lo è, occorre prendere in considerazione come per i gas il Limite di infiammabilità inferiore. Da qui: Punto di infiammabilità = T minima alla quale il liquido emette una concentrazione di vapori tali da rientrare nei limiti di infiammabilità. Confrontando due liquidi infiammabili quali la benzina ed il gasolio, osserviamo che a temperatura ambiente mentre la benzina ha una tensione di vapore tale da fare entrare i suoi vapori nel campo di infiammabilità questo non avviene con il gasolio, che essendo più altobollente, ha una ten- Una sostanza è tossica quando causa effetti biologici dannosi in un organismo vivente che assume tale sostanza. Come vedremo tutte le sostanze possono esserlo, il parametro che determina la tossicità è la dose a cui avviene il danno biologico. Le vie di assunzione delle sostanze tossiche sono: 1 - Inalazione di gas o vapori- via polmoni e bronchi - sistemi biologici ad elevata area superficiale - via a maggior rischio - controllabile con mezzi di protezione collettivi quali sistemi di areazione, cappe o con DPI = Dispositivi di Protezione Individuali ecc. quali ad esempio mashere con filtri specifici, autorespiratori ecc. 2 - Ingestione - via stomaco ed intestino - facile da controllare con adeguate norme di comportamento e di igiene. 3 - Assorbimento cutaneo - via tessuti della pelle -specifico per sostanze apolari lipofile (facile da controllare con adeguati DPI - ad esempio guanti ecc.) 100 101 Uno dei parametri per valutare tale tossicità è il valore di LD50 che misura su basi statistiche la concentrazione letale per il 50% delle specie biologica in studio, normalmente ratti. Questi valori vengono espressi in grammi o milligrami per kilogrammo peso della specie biologica in studio. Riportiamo nella Tabella il grado di tossicità di sostanze sia provenienti dal mondo naturale, sia sintetizzate dall’uomo. ambientale. Infatti, attraverso un complesso processo, questa elevata stabilità legata alla sua bassa reattività porta ad elevati tempi di permanenza nell’ambiente e conseguentemente a fenomeni di bioaccumulo nelle specie biologiche ed in particolare in quelle ricche di tessuti adiposi, che possono portare al superamento della concentrazione tossica con danni anche irreversibili per la specie stessa. In questa categoria si colloca ad esempio il Percloroetilene, solvente largamente usato ad esempio nel lavaggio “a secco”. Tabella 1. Tossicità di sostanze naturali e sintetiche LD50 (approssimato) LD50 (approssimato) Sostanze “Naturali” in mg/Kg in g/Kg >10'000 >10 Zucchero 1'000 1 Sale, etanolo, piretrine 100 10 10-1 10-2 Caffeina, rotenone 1 10-1 10-3 10-4 10-2 10-3 10-4 10-5 10-5 10-6 10-7 10-8 Nicotina Tossina del serpente a sonagli Aflatossina-B Sostanze “Sintetiche” Malathion, atrazina, mirex, aspirina DDT, paraquat, codeina Carbofurano, diazinone, NaCN, As2O3 Parathion, stricnina 2,3,7,8-TCDD (diossina) Tossine del tetano e del botulino 8. CAPACITA’ SOLVENTE [2] Nella ricerca di sostituti dei vari solventi bisogna tenere conto dei vari requisiti richiesti al solvente da utilizzare. Sicuramente quello fondamentale è la sua capacità solvente. Questa, prima di una verifica sperimentale, può essere valutata sulla base dei parametri empirici di solubilità2 basati sulle forze intermolecolari che entrano in giuoco nel processo di solubilizzazione e sulla regola empirica che sostanze che hanno parametri di solubilità molto simili sono mutuamente solubili o miscibili. 8.1. PARAMETRI DI SOLUBILITÀ DI HILDEBRAND Al fine di arrivare a definire quantitativamente la capacità solvente un primo approccio si basa su un singolo parametro δ ricavato da Hildebrand sfruttando i calori di evaporazione, quale misura di tutte le forze intermolecolari che operano all’interno del solvente. In particolare il parametro δ di Hildebrand è la radice quadrata della energia coesiva c. Pressione di coesione di un liquido c (∆Hv = calore di evaporazione, Vm = volume molare, R = costante dei gas, T = temperatura espressa in K). Ricordiamo che a livello della normativa europea sulla etichettatura di prodotti chimici una sostanza con un LD50 inferiore od uguale a 25 mg/Kg peso viene classificata come altamente tossica, se LD50 è compreso fra 25 e 200mg/kg peso come tossica e per valori di LD50 compreso fra 200 e 2000 mg/kg peso come nociva. 7.3. IL RISCHIO AMBIENTALE c =(∆Hv – RT)/Vm Parametro di solubilità di Hildebrand δ = c1/2 Questi parametri sono normalmente espressi in MPa1/2 o in cal1/2 cm-3/2. Quelli misurati in sono circa due volte (per l’esattezza 2.0455) i valori misurati in cal1/2 cm-3/2.In Tabella 2 sono riportati i valori di δ di vari solventi da cui si evidenzia un aumento di tale parametro passando dagli alcani, ai clorurati, agli aromatici, agli esteri e chetoni, agli alcoli fino a raggiungere il valore massimo con l’acqua. MPa1/2 Come già accennato in precedenza i rischi ambientali legati a specifici prodotti chimici possono essere dovuti ad interazioni negative con cicli naturali quali quelli che portano negli strati alti della atmosfera alla formazione di ozono, che serve quale filtro per bloccare le radiazioni ad alta energia, pericolose per l’uomo, provenienti dal sole. Questo ha portato ad accordi internazionali quali il “Protocollo di Montreal” ed i suoi successivi emendamenti sulle sostanze che impoveriscono lo strato d’ozono. Una altro parametro che incrementa la pericolosità ambientale è quella dovuta ai “Composti Organici Volatili” (COV) che incrementando la già presente concentrazione naturale può portare, in particolari condizioni climatiche, alla formazione di “Smog fotochimico” con formazione di concentrazioni elevate di ozono tossico. Anche questo aspetto è entrato nella normativa europea e recentemente anche in quella italiana. Anche le sostanze che hanno una elevata stabilità, reagendo molto lentamente con l’acqua e l’ossigeno presenti nella superficie terrestre, possono creare problemi connessi con la loro stabilità 102 103 Tabella 2. Parametri chimico fisici e di solubilità di Hildebrand δ per alcuni solventi Solventi Acqua Formammide 1,2-Etandiolo Metanolo Etanolo Acido acetico 1-Propanolo 2-Propanolo Nitrometano Acetonitrile Dimetilsolfossido N,N-Dimetil formammide Acetone Nitrobenzene Diclorometano Piridina Cloroformio Etilacetato Tetraidrofurano Clorobenzene Dietiletere Benzene Toluene CCl4 n-Esano Cicloesano Tabella 3 - Parametri di Hildebrand δ ( MPa1/2 ) indicativi per alcune classi di polimeri Temp. Fusione °C 0.0 2.55 -12.6 -97.7 -114.5 16.7 -126.2 -88.0 -28.55 -43.8 18.5 Temp. ebollizione °C 100.0 210.5 197.5 64.5 78.3 117.9 97.15 82.2 101.2 81.6 189.0 Costante dielettrica ε 78.30 111.0 37.7 32.66 24.55 6.17 20.45 19.92 35.94 35.94 46.45 Momento dipolare µ 5.9 11.2 7.7 5.7 5.8 5.6 5.5 5.5 11.9 11.8 13.5 Indice di rifrazione nD20 1.3330 1.4475 1.4318 1.3284 1.3614 1.3719 1.3856 1.3772 1.3819 1.3441 1.4793 MPa1/2 -60.4 -94.7 5.8 -94.9 -41.55 -63.5 -83.55 -108.4 -45.6 -116.3 5.5 -95.0 -22.8 -95.3 6.7 153.0 56.1 210.8 39.6 115.25 61.2 77.1 66.0 131.7 34.4 80.1 110.6 77.6 68.7 80.7 36.71 20.56 34.78 8.93 12.91 4.81 6.02 7.58 5.62 4.20 2.27 2.38 2.23 1.88 2.02 10.8 9.0 13.3 5.2 7.9 3.8 6.1 5.8 5.4 3.8 0.0 1.0 0.0 0.0 0.0 1.4305 1.3587 1.5562 1.4242 1.5102 1.4459 1.3724 1.4072 1.5248 1.3524 1.5011 1.4969 1.4602 1.3749 1.4262 24.8 20.2 20.5 19.8 21.9 19.0 18.6 18.6 19.4 15.1 18.8 18.2 17.6 14.9 16.8 δ 47.9 39.3 29.9 29.6 26.0 20.7 24.3 23.5 26.0 24.3 24,5 Polimero Politetrafluoroetilene Polipropilene Polietilene Gomma stirene butadiene Polistirene δ 12.7 16.2 16.4 16.6-17.4 17.4-19.6 Polimero Polivinilcloruro Polietilen tereftalato Poliossimetilene Poliammide6-6 Poliacrilonitrile 8.2.PARAMETRI DI SOLUBILITÀ DI HANSEN Sebbene i parametri δ di Hildebrand siano ancora molto impiegati nella letteratura tecnica, sono state verificate con solventi a maggior valore di δ delle incongruenze con i risultati sperimentali, che hanno spinto altri autori ad una definizione multiparametrica della polarità dei solventi. L’approccio multiparametrico, che è stato maggiormente utilizzato a livello applicativo, è quello proposto da Hansen.3 In questa trattazione il valore di Hildebrand viene suddiviso in tre componenti: il primo δd collegato alle forze di dispersione (dipolo istantaneo – dipolo indotto), un secondo δp collegato alle interazioni di tipo dipolo-dipolo e dipolo-dipolo indotto ed un terzo δh dovuto alle interazioni di legame ad idrogeno. Su questa base: δo2 = δd2 + δp2 + δh2 dove δo è il parametro di solubilità di Hildebrand e δd, δp e δh sono i parametri di solubilità di Hansen (HSP) rispettivamente per le interazioni dispersive, polari e di legame ad idrogeno. In Tabella 4 sono riportati tali parametri per una serie di solventi. Hansen, studiando la solubilità dei polimeri, trovò che raddoppiando l’asse del parametri delle forze dispersive, otteneva un volume di solubilità approssimativamente sferico per ciascun polimero. In particolare il centro della sfera di solubilità era definito da tre parametri δd, δp, e δh e da un raggio di interazione R, per cui solo i liquidi i cui parametri rientravano nel volume della sfera erano solventi capaci di sciogliere quel polimero. Sulla base di questi parametri un soluto per esempio un polimero (vedi Tabella 3) presenta una completa solubilità o miscibilità se ha un parametro δ il più possibile uguale a quello del solvente. 104 δ 19.6 21.9 22.7 27.6 31.5 105 Tabella 4 - Parametri di Hansen ( HSP - MPa1/2) per alcuni solventi Solventi δο δd δp δh Solventi δο δd δp δh Acqua Formammide 1,2-Etandiolo Dimetilsolfone Metanolo DMSO Etanolo Sulfolano Nitrometano DMF 1-Propanolo Acetonitrile 2-Propanolo N-metil-2pirrolidone N,N-dimetil acetammide Nitrobenzene Piridina Etillattato 47.8 36.6 32.9 29.8 29.6 26.7 26.5 25.9 25.1 24.8 24.5 24.4 23.5 15.5 17.2 17.0 19.0 15.1 18.4 15.8 18.4 15.8 17.4 16.0 15.3 15.8 16.0 26.2 11.0 19.4 12.3 16.4 8.8 16.6 18.8 13.7 6.8 18.0 6.1 42.3 19.0 26.0 12.3 22.3 10.2 19.4 7.4 5.1 11.3 17.4 6.1 16.4 21.4 20.3 20.3 20.0 19.6 19.4 19.0 19.0 18.7 18.6 18.2 18.1 17.8 14.5 18.2 18.3 15.5 19.0 16.8 17.8 16.0 15.5 18.4 18.0 15.8 17.8 8.0 6.3 5.7 10 4.3 5.7 3.1 9.0 3.9 0.0 1.4 5.3 0.0 13 6.1 0.0 7.0 2.0 8.0 5.7 5.1 9.7 2.0 2.0 7.2 0.6 22.9 18.0 12.3 7.2 Acido acetico Diclorometano Percloroetilene Acetone Clorobenzene Tetraidrofurano Cloroformio Metiletilchetone Dimetilcarbonato Benzene Toluene Etilacetato Tetraclorometano Metilisobutil chetone 17.0 15.3 3.9 9.7 22.7 22.2 21.8 21.7 16.8 20.0 19.0 16.0 11.5 8.6 8.8 7.6 10.2 4.1 5.9 12.5 16.8 16.8 0.0 15.8 14.5 2.9 14.9 14.9 0.0 0.2 5.1 0.0 12.0 12.0 0.0 0.0 Cicloesano Dietiletere n-Esano Perfluoro eptano Una corretta applicazione dei parametri di Hansen dovrebbe portare a grafici tridimensionali ed a sfere di solvatazione (vedi Figura 24). Nell’ambito di tali sfere, essendo i parametri di solubilità sufficientemente simili a quelli del soluto rappresentato dal centro della sfera, sono soddisfatti i requisiti di similitudine strutturale richiesti per ottenere la solubilità. Per semplificare l’applicabilità, i volumi di solubilità possono essere illustrati in due dimensioni, generalmente utilizzando δp e δh ed utilizzando un cerchio, quale area che caratterizza la solubilità (vedi Figura 25 ). Mediante l’utilizzo di questo approccio parametrico è possibile quindi avere informazioni preliminari sul potere solvente di un liquido nei confronti di uno specifico soluto. Utilizzando infatti il principio della similitudine strutturale fra soluto e solvente, che si ricerca in base a questi parametri, si può restringere la verifica sperimentale solo a quei solventi che rientrano nel volume di solubilità. Figura 25. Visione bidimensionale del volume di solubilità. Un’altra visione dei parametri di solubilità di Hansen può essere ottenuta dai grafici triangolari, che riportano in un solo piano i tre parametri espressi in una logica relativa. Nella figura 26 sono riportate le varie classi di solventi suddivisi in base alle loro caratteristiche strutturali. Ad esempio i solventi alifatici ed aromatici avranno come componente quasi esclusiva (ca. 100%) le interazioni dispersive mentre gli altri tipi di interazioni intervengono in misura quasi trascurabile. Negli alcoli ed i glicol sono invece le interazioni via legame ad idrogeno a prevalere rispetto alle altre. In questi grafici possono essere quindi visualizzati i campi di solubilità di un determinato soluto. Figura 24. Visione tridimensionale del volume di solubilità (espresso con i parametri di Hansen ed il raggio di interazione). 106 107 9. RICERCA DI NUOVI SOLVENTI 9.1. DIMETILCARBONATO [3] Interazioni via legame ad idrogeno fh Interazioni polari fp Dall’inizio degli anni ‘80 EniChem ha introdotto sul mercato degli intermedi il dimetilcarbonato [(CH3O)2CO - DMC], producendolo su scala industriale secondo una tecnologia pulita ed innovativa, che si differenzia radicalmente dalla tecnologia tradizionale, basata sull’utilizzo del fosgene (ClCO-COCl), sostanza ad elevato rischio tossicologico. La nuova tecnologia, basata sulla carbonilazione ossidativa del metanolo, permette di affrancarsi totalmente dal ciclo industriale del cloro. Lo schema di reazione è il seguente: CO + 2 CH3OH + 1/2 O2 → (CH3O)2CO + H2O Interazioni dispersive fd Il nuovo procedimento di produzione presenta caratteristiche favorevoli dal punto di vista ambientale, in primis perché impiega materie prime relativamente meno pericolose, ma soprattutto in quanto l’unico sottoprodotto significativo della reazione è acqua. Esso ben si presta alla realizzazione di impianti produttivi di elevata capacità. Il DMC a sua volta è in grado di sostituire il fosgene nelle reazioni di carbonilazione, ed il dimetil solfato o il metil cloruro nelle reazioni di metilazione, fornendo quindi, nel segmento della produzione di intermedi, un’alternativa a prodotti rischiosi. Sulla base di tali caratteristiche, il DMC ha trovato impiego come intermedio in processi sia nel settore farmaceutico e dei “fine-chemicals”, prodotti chimici per impieghi specialistici, sia nella fabbricazione di polimeri, quali i policarbonati aromatici e, in prospettiva, i poliuretani. Accanto a queste applicazioni come intermedio, ormai consolidate, il DMC sta ora trovando impiego anche nel settore dei solventi, in quanto molti produttori ed utilizzatori sono consapevoli del fatto che l’utilizzo di formulazioni basate su solventi tradizionali a rischio di tossicità e ad elevato impatto ambientale è sempre meno tollerabile. Sulla base di tali motivazioni, in ambito mondiale, e con maggiore intensità nei paesi maggiormente evoluti, si riscontra in generale un andamento negativo per quanto riguarda la quantità di solventi utilizzati. Figura 26. Visione in un piano dei tre parametri di solubilità. Figura 27. Collocazione del DMC nel diagramma di Hansen 108 109 Ad esempio, nel settore dei prodotti vernicianti, si adottano nuove tecnologie, che da una parte prevedono la messa a punto di formulazioni a base acquosa o ad alto contenuto di solidi e dall’altra sono orientate verso la sostituzione dei solventi a rischio più elevato. Questo processo di sostituzione in taluni casi ha assunto la forma di un vero e proprio bando dettato obbligatoriamente dal legislatore. Le applicazioni più coinvolte non sono solo quelle che prevedono il rilascio finale della totalità del solvente all’atmosfera, ma la maggior parte delle lavorazioni industriali, data l’introduzione di leggi che regolano in modo sempre più stringente la quantità e la qualità delle emissioni delle sostanze organiche volatili (in inglese V.O.C. in italiano C.O.V.). Per il mercato dei solventi, il segmento degli ossigenati è l’unico che presenta una leggera crescita in valore assoluto, con un andamento in percentuale fortemente positivo .Tuttavia, anche nella classe dei solventi ossigenati, non mancano problematiche relative al loro impiego, ad esempio l’utilizzo degli esteri va sostituendo quello dei chetoni. Nella classe degli esteri la possibilità di impiego dei carbonati alchilici come solventi è nota da tempo e non rappresenta in assoluto una novità, ma la crescente sensibilità sviluppatasi nell’ultimo decennio verso le tematiche ambientali ed il connesso interesse all’impiego di prodotti chimici “puliti” hanno portato a valorizzare in modo più consapevole e approfondito le loro potenzialità applicative. Il parametro di solubilità del DMC, calcolato secondo Hildebrand in riferimento alla densità di energia coesiva, sulla base del volume molare e dell’energia di vaporizzazione, risulta pari a 18.7 [MPa1/2] a 25 °C, assai simile, ad esempio, a quello dell’acetone (vedi Tabella 4 e Figura 27). Il DMC si inserisce nell’area dei solventi moderatamente polari e con moderata capacità di formare legame di idrogeno. Le caratteristiche chimico-fisiche del DMC non condurrebbero da sole ad una reale valenza applicativa se non vi fossero riscontri altrettanto positivi nelle caratteristiche di sicurezza e di ridotto impatto ambientale. Il DMC presenta, infatti, un profilo tossicologico ed eco-tossicologico particolarmente favorevole, che ne permette lo stoccaggio e l’applicazione senza particolari precauzioni. Infatti il DMC è caratterizzato da bassissima tossicità acuta, sia per ingestione e contatto che per inalazione, e subcronica, per assimilazione prolungata. Dal punto di vista ambientale il DMC denota bassissima tossicità verso gli organismi acquatici e pronta biodegradabilità e non è considerato potenzialmente bioaccumulabile. Di conseguenza la classificazione di pericolosità per le acque prevede per il DMC una valutazione di debole rischiosità .E’ altresì degna di nota la sua trascurabile tendenza alla formazione fotochimica d’ozono nei bassi strati atmosferici. I solventi sono tipiche sostanze organiche volatili (comunemente denominate S.O.V. o V.O.C.) implicate, come già detto, nella produzione fotochimica troposferica di ozono in aree urbane inquinate. Lavori recenti hanno evidenziato che il DMC presenta di gran lunga la più bassa tendenza alla formazione di ozono tra le più comuni sostanze organiche volatili ossigenate. Sulla base delle proprietà sopra illustrate, il DMC non rientra in alcuna classe di pericolosità secondo le norme dell’Unione Europea, salvo la facile infiammabilità. Figura 28. Regione supercritica. Per molti sistemi, ad esempio l’acqua, tali valori critici corrispondono a temperature e pressioni molto elevate. Sicuramente i valori di Tc = 31.3°C e Pc = 72.9 Atm che caratterizzano la CO2 hanno permesso un sua semplice utilizzazione quale solvente supercritico. I solventi supercritici, proprio per la loro caratteristica di essere in uno stato fisico intermedio fra quello gassoso e quello liquido, sono caratterizzati da una notevole velocità di diffusione all’interno dei solidi, facilitando in tal modo enormemente i processi di estrazione. Ad esempio l’estrazione della caffeina dal caffè per ottenere i caffè deccaffeinati ottenuta utilizzando la CO2 supercritica è un ottimo esempio di tali applicazioni. Tale processo evita inoltre che nel prodotto destinato ad usi alimentari siano presenti traccie di solventi residui. A questo si aggiunge una assenza di rischi da infiammabilità e da tossicità, che rendono questo mezzo molto interessante da un punto di vista applicativo. 9.2. UTILIZZO DI SOLVENTI SUPERCRITICI [4] Figura 29. Parametri di solubilità di Hildebrand dell'anidride carbonica supercritica a differenti temperature (40 - 50 - 60 °C) e pressioni e confronto con quelli di alcuni solventi. Lo stato supercritico è un particolare stato fisico della materia, intermedio fra quello liquido e quello gassoso, che viene raggiunto quando la temperatura e la pressione del sistema sono superiori ad una temperatura ed una pressione critica specifica per ogni sostanza (vedi Figura 28). Al di sopra di tale pressione e temperatura non c’è più possibilità di coesistenza di una fase gas ed una liquida, esiste una sola fase chiamata supercritica. Nella figura sono riportate le varie zone di esistenza dello stato gassoso, liquido, solido e supercritico, che evidentemente dipendono dai due parametri fisici pressione e temperatura. Anche il potere solvente della CO2 supercritica può essere valutato con i parametri di solubilità ad esempio di Hildebrand (vedi Figura 29), che evidenziano una bassa polarità di questo mezzo. Interessante è la possibilità di poter variare il suo potere solvente con la pressione. Nel caso in cui non 110 111 si riesca ad ottenere un parametro di Hildebrand soddisfacente per ottenere la solubilizzazione di specifici soluti, si può ricorrere all’utilizzo di cosolventi polari. Ad esempio si può addizionare piccole quantità di acqua, che presenta un parametro di Hildebrand elevato, alla CO2 supercritica. In questo modo la miscela risultante presenterà valori del parametro di Hildebrand sufficientemente elevati (2025 MPa1/2) da poter solubilizzare un soluto a media polarità. Concludendo riportiamo alcune applicazioni industriali recenti della CO2 supercritica. Nel 1999 la Du Pont ha annunciato un investimento di 40 milioni di dollari in North Carolina per valutare la CO2 supercritica quale solvente per la produzione di Teflon (solventi usuali della polimerizzazione sono i clorofluorocarburi, che rientrano nel protocollo di Montreal). La CO2 supercritica è un buon plasticizzante per i polimeri. Questo apre nuove possibilità nell’impregnazione di molecole nel materiale polimerico (coloranti per polimeri e fibre). Alcune industrie americane stanno mandando in produzione sistemi per il lavaggio a secco basati sull’impiego di anidride carbonica supercritica e speciali surfattanti Questo approccio tecnologico potrebbe quindi risolvere il problema della sostituzione del percloroetilene, solvente attualmente in uso in tali applicazioni, che per quanto sia non infiammabile e a tossicità non elevata, pone però grossi problemi ambientali, legati alla sua bassa reattività, con elevati tempi di ecopermanenza e fenomeni di bioaccumulo come discusso in precedenza. 10. CONCLUSIONI Come già riportato nell’introduzione, la scelta di un solvente sta diventando un problema sempre più complesso, sia per il numero elevatissimo di parametri da valutare, conseguenza anche dell’apporto di nuove conoscenze, sia per la richiesta di standard di sicurezza sempre più elevati. Sicuramente l’avanzare delle conoscenze sta rispondendo positivamente a queste richieste ad esempio con l’utilizzo di solventi più sicuri quale l’acqua, con l’avvento di nuovi mezzi solventi etc. In questa logica va anche visto l’utilizzo dei parametri di solubilità che permettono già su basi non sperimentali una previsione del potere solvente dei nuovi mezzi. BIBLIOGRAFIA 1- Per gli aspetti correlati con i pericoli chimici vedi ad esempio i seguenti siti internet http://www.unipr.it/arpa/spp/NormeBuonaTecnica/ManualeSicurezza.doc http://www.unipv.it/safety/ http://safe.uniud.it (Questi siti offrono anche interessanti collegamenti con altri siti sia italiani che esteri – Ad esempio per i problemi ambientali si consiglia il collegamento al sito della Environmental Protection Agency -USA). 2- Per gli aspetti correlati con i parametri di solubilità vedi ad esempio http://techdev.freeyellow. com/parameters.html A. F. M. Barton - Chem. Rev. 1975 75 730-753. C. M. Hansen Hansen Solubility Parameters - A User’s Handbook -CRC Press Boca Raton 2000, A. Pochini, Parametri empirici per definire la capacità solvente, La Chimica e L’Industria, Luglio/Agosto 2000, p. 657. 3- Per il dimetilcarbonato vedi F. Mizia, M. Notari, F. Rivetti, U. Romano, C. Zecchini, Carbonati alchilici: solventi della nuova generazione, La Chimica e L’Industria, Marzo 2001, p. 47. 4- Per i fluidi supercritici vedi ad esempio: http://ull.chemistry.uakron.edu/chemsep/super/ Per gli aspetti applicativi collegati all’utilizzo dei fluidi supercritici, visto il notevole sviluppo del settore, si consigli, per ottenere dati aggiornati, di compiere una ricerca utilizzando i comuni motori di ricerca 112 Fotochimica ENERGIA PULITA: RISORSE RINNOVABILI E PROCESSI FOTOCHIMICI ANGELO ALBINI 1. RISORSE RINNOVABILI: IL RUOLO DELL’ENERGIA SOLARE L’attenzione posta dall’opinione pubblica su temi quali l’uso corretto dell’energia, che sia meno inquinante per l’ambiente, come pure sulla disponibilità e sulla rinnovabilità delle risorse energetiche è sempre crescente. Si tratta evidentemente di problemi diversi: da una parte usare bene le risorse naturali, senza causare danni irreversibili all’ambiente; dall’altra, chiederci se stiamo consumando queste risorse a un ritmo che condurrà presto al loro esaurimento. Di fatto, la fonte di energia primaria è la radiazione solare, che raggiunge il nostro pianeta con un flusso che, pur ovviamente variando secondo le differenti latitudini, sul totale della superficie terrestre corrisponde alla ragguardevole quantità media di 1017 watt. Questa enorme quantità di energia supera il fabbisogno energetico che la società umana ha adesso e in un futuro prevedibile. Il problema è: come raccogliere la radiazione e convertirla in energia utilizzabile in modo efficiente? La natura si serve della radiazione solare per convertire, attraverso gli organismi vegetali, anidride carbonica ed acqua in sostanze organiche. Queste ultime, non solo sono utilizzate come materiali da costruzione, in quanto sono le molecole costituenti gli organismi vegetali ed animali, ma vengono riossidate fornendo energia. I composti organici quindi hanno una doppia funzione, plastica ed energetica, ed in definitiva sono comunque destinati alla riossidazione. La moderna industria utilizza petrolio e carbone derivanti dalla fossilizzazione, per trasformarli sia in combustibili sia in prodotti (Fig. 1). Queste fonti sono relativamente facili da usare, e su di esse si basa lo sviluppo della chimica, che ha rivoluzionato la vita quotidiana, ma ci pone appunto i problemi dell’inquinamento e della limitata disponibilità. Figura 1: La moderna industria utilizza petrolio e carbone derivanti dalla fossilizzazione, per trasformarli sia in combustibili sia in prodotti. 115 2. LA RADIAZIONE SOLARE COME FONTE DI ENERGIA 2.1 SFRUTTAMENTO DELL’ENERGIA SOLARE A medio lungo termine bisogna quindi considerare se si possa usufruire direttamente dell’energia solare. La lunghezza d’onda della radiazione che raggiunge la Terra si estende dal vicino ultravioletto a tutto l’infrarosso (Fig. 2). Questa è composta quindi da fotoni diversi, da quelli molto energetici dell’ultravioletto a quelli assai meno energetici dell’infrarosso. La trasformazione in calore non dà problemi: ad esempio, l’acqua assorbe parte dell’IR. Questo corrisponde a energia vibrazionale delle molecole e viene facilmente tradotto in un aumento dell’energia cinetica delle molecole, cioè in un innalzamento della temperatura, come è esperienza comune. sulla terra integralmente, cioè con un cielo sereno. Tuttavia, se si tiene conto che la radiazione a maggior lunghezza d’onda è maggiormente deviata o assorbita dalle nuvole, con un cielo nuvoloso è più conveniente che lo stato eccitato sia all’estremo del visibile, ca. 750-800 nm (Tab. 1). La molecola che assorbe la luce, la clorofilla, assorbe appunto in questa regione, ragionevolmente a motivo del fatto che le piante verdi si sono evolute in ere con cieli nuvolosi. Comunque sia, anche se questo è il miglior compromesso, corrisponde sempre a uno sfruttamento parziale della radiazione solare. Figura 2: Spettro della radiazione solare. Più interessante sarebbe trasformare l’energia solare in forme più versatili di energia, come energia elettrica o energia chimica. In questo caso però il secondo principio della termodinamica ci dice che solo parte sarà convertibile nella forma desiderata, parte sarà comunque trasformata in calore. Il sistema usato dalla natura, la fotosintesi clorofilliana, sfrutta l’energia solare attraverso la promozione di molecole nello stato eccitato, il che porta ad ulteriori limitazioni. Infatti, questa conversione avviene solo se il fotone incidente ha energia almeno pari alla differenza d’energia tra stato eccitato e stato fondamentale. Dobbiamo allora porci il seguente problema: quale energia deve avere lo stato eccitato per sfruttare nel modo più conveniente i fotoni della radiazione solare? Se scegliamo una molecola con uno stato eccitato molto alto, avremo bensì immagazzinato di un grosso quantitativo d’energia per ogni fotone assorbito, ma di tali fotoni nello spettro solare ce n’è pochi. D’altra parte, se lo stato eccitato è troppo basso, la frazione assorbita sarà grande dato che i fotoni assorbiti sono quelli di energia eguale o superiore, ma solo la parte esattamente corrispondente all’energia di quello stato verrà immagazzinata come energia elettronica, mentre il resto verrà perso come calore. Di nuovo quindi si ha uno sfruttamento parziale, perdendo una gran parte dell’energia dei fotoni più energetici (un livellamento verso il basso, come si vede in Fig. 3).[1] Un semplice calcolo aritmetico che tenga conto dello spettro della radiazione solare (Fig. 2) ci permette di calcolare il miglior compromesso. Questo mostra che l’efficienza massima di assorbimento si ha con uno stato eccitato nel vicino infrarosso (ca. 1100 nm) se la radiazione solare giunge 116 Figura 3: I fotoni assorbiti sono quelli di energia eguale o superiore a quella dello stato eccitato più basso di una molecola. Se lo stato eccitato è troppo alto, una frazione troppo piccola della radiazione verrà assorbita, se è troppo basso, la frazione assorbita sarà grande ma solo una parte verrà immagazzinata come energia elettronica, mentre il resto verrà perso come calore 117 Di fatto, su questa base si può calcolare che un sistema che convertisse la radiazione solare in energia attraverso uno schema fotochimico come quello della fotosintesi clorofilliana (di cui si dirà ancora in seguito) dovrebbe avere un rendimento del 12%. Tabella 1. Efficienza di conversione dell’energia solare. E’ opportuno notare che la fotosintesi clorofilliana produce molecole organiche, carboidrati da anidride carbonica, appunto perché orientata a fornire il materiale plastico alle cellule, oltre che l’energia per le loro funzioni, ma se mirassimo al solo scopo di ottenere energia si potrebbero far avvenire con la luce solare reazioni diverse, ad esempio si potrebbe ridurre l’azoto ad ammoniaca (utilizzabile poi come fertilizzante), oppure produrre idrogeno, che è un combustibile molto più pulito degli idrocarburi. Come si vede dalla Tabella 3, questi tre processi forniscono quantità simili di energia. Tabella 3: quantità di energia fornita dai processi: fotosintesi colorofilliana, riduzione dell’azoto ad ammoniaca, produzione di idrogeno dall’acqua. → (CH2O) + O2 ∆G 124 kJ/mol per 1/4 O2 2/3 N2 + 2 H2O → 4/3 NH3 + O2 ∆G 113 kJ/mol per 1/4 O2 2 H2 + O2 ∆G 118 kJ/mol per 1/4 O2 CO2 + H2O 2 H2O → 2. 2 IMMAGAZZINARE ENERGIA CHIMICA 2.1 EFFICIENZA Quello detto sopra è comunque solo un limite teorico. In realtà, la Tabella 2 mostra chiaramente che l’efficienza della conversione della radiazione solare in energia per la vegetazione spontanea avviene con un rendimento molto più basso di quanto previsto. Una constatazione questa che non deve stupire, dato che la fotosintesi dei vegetali mira allo sviluppo dell’individuo e della specie, non certo ad accumulare energia per fruitori esterni. L’agricoltura, nel corso della sua lunga storia ha alterato le specie vegetali in modo che accumulassero sempre più energia chimica sfruttabile dall’organismo umano sotto forma di cibi energetici (si pensi alla spiga del frumento moderno in confronto a quella delle specie selvatiche), sviluppando sistemi sempre più efficienti fino a raggiungere valori molto ragguardevoli (4%). Va tuttavia tenuto presente che l’accresciuto rendimento è in parte apparente, in quanto l’agricoltura avanzata richiede l’uso di fertilizzanti, diserbanti e insetticidi, che l’industria chimica ha a sua volta prodotto consumando energia; così pure consumano energia l’irrigazione e l’uso delle macchine agricole. Quindi al maggior ricavo di energia va sottratta la spesa di energia per ottenerlo Inoltre, spesso l’uso a scopi energetici dei prodotti vegetali richiede ulteriore elaborazione chimica (ad esempio, gli zuccheri non sono adatti come combustibile e bisogna trasformarli in etanolo attraverso fermentazione e distillazione), che comporta un ulteriore consumo di parte dell’energia disponibile. In realtà, se lo scopo è produrre solo energia e non composti chimici, si può pensare di ricorrere a un sistema ciclico. In questo caso la radiazione solare genera prodotti ad alta energia (P nella Fig. 4) a partire da una forma a bassa energia (R). I prodotti P poi si riconvertono nei reagenti R in un ciclo ripetibile a volontà restituendo l’energia. Tuttavia, questo schema non sfrutterebbe tutta l’energia assorbita (hν). Infatti P si può formare solo se è energeticamente più basso dello stato eccitato R* (vedi il termine Es) e inoltre, perché l’energia sia immagazzinabile finché non è richiesta, la conversione di P in R non deve essere troppo veloce, deve cioè avvenire attraverso una barriera considerevole di attivazione (vedi il termine Ea), che bisognerà fornire al sistema al momento dell’utilizzo. La quantità di energia effettivamente usabile sarà quindi hν - Es - Ea. Tabella 2. Efficienza della conversione da parte delle piante verdi Valore teorico per uno schema a due fotoni da parte delle piante verdi: 12% biomassa totale ca. 0.15% agricoltura avanzata 0.2-1.2% agricoltura, valori massimi 2-4% Figura 4: Ciclo di generazione di prodotti ad alta energia (P) che poi si riconvertano nella forma a bassa energia (R) 118 119 Sistemi del genere sono stati attivamente studiati e ne sono stati individuati alcuni che possono essere convertiti tra forma a bassa e ad alta energia molte volte senza decomposizione. Un esempio tra le sostanze organiche ne è la fotoisomerizzazione reversibile del norbornadiene a quadriciclano (Fig. 5); si passa da un idrocarburo (simile per struttura ai componenti delle benzine) a energia relativamente bassa a uno più energetico e viceversa attraverso un sistema concettualmente semplice che però richiede fotoni di energia piuttosto alta per passare alla forma a maggior energia e poi ne spreca una notevole frazione nel tornare alla forma meno energetica. In realtà forse l’uso più semplice del quadriciclano è quello come supercarburante ad alta energia. Un esempio invece tra i composti inorganici è la fotodissociazione reversibile del cloruro di nitrosile (NOCl). In questo caso l’energia necessaria al processo è piuttosto bassa e quindi viene sfruttata una gran arte dell’energia solare (fotoni fino a 640 nm, Fig. 6). Peraltro il sistema si basa su sostanze altamente corrosive (in particolare il cloro) e quindi se lo si volesse applicare in grande scala sarebbe necessario risolvere gravi problemi di ingegneria. 2.3 FOTOSINTESI ARTIFICIALE Se si volesse comunque realizzare una fotosintesi artificiale per produrre un combustibile, converrebbe orientarsi verso un combustibile pulito, l’idrogeno, cioè svolgere l’elettrolisi fotoindotta dell’acqua, che, come indicato in Tabella 4 (equazione 1), avviene a un potenziale simile a quello a cui (teoricamente) potrebbe essere realizzata elettrochimicamente la riduzione dell’anidride carbonica a dare carboidrati (equazione 2). Tabella 4.: (1) fotosintesi clorofilliana; (2) elettrolisi fotoindotta dell’acqua 1 2 Questa reazione differirebbe dalla fotosintesi clorofilliana nel produrre direttamente idrogeno, invece che molecole di NADH e NADPH per riduzione dei corrispondenti coenzimi (possiamo dire che la fotosintesi clorofilliana produce ‘potere riducente’, cioè molecole in grado di ridurre altri composti e non direttamente idrogeno). Figura 5: fotoisomerizzazione reversibile del norbornadiene a quadriciclano Figura 6: fotodissociazione reversibile del cloruro di nitrosile 120 Figura 7. Nella fotosintesi clorofilliana la riduzione a NAPDH avviene attraverso una serie di intermedi situati nella membrana 121 Come si vede nella Fig. 7, la fotosintesi si basa sull’assorbimento di due fotoni di luce da parte di due sistemi diversi, PS I e PS II e in ciascuno dei due casi la molecola di clorofilla eccitata cede un elettrone a un accettore, ad esempio un chinone Q, che a sua volta lo trasferisce a un accettore col potenziale redox meno negativo, ad esempio un citocromo C. Questo sistema piuttosto complicato serve ad impedire gli equilibri in senso opposto, rendendo irreversibile l’iniziale trasferimento di elettrone fotoindotto, in maniera che in definitiva l’acqua liberi ossigeno e si accumuli coenzima ridotto (NADPH) che poi la cellula usa come fonte di energia. Tale fotoelettrolisi potrebbe essere ottenuta senza elettrodi, in maniera simile alla fotosintesi, sfruttando il fatto che gli stati eccitati sono sia migliori ossidanti (in quanto possono accettare un elettrone nel ‘buco’ creatosi nell’orbitale occupato più alto, legante o non legante) sia migliori riducenti (in quanto possono donare l’elettrone promosso in un orbitale antilegante) dei corrispondenti stati fondamentali (Fig. 8). Ad esempio, un riducente portato nello stato eccitato con un fotone di 700 nm, corrispondenti a 1.76 V, vede il proprio potenziale abbassarsi di una tale quantità, e nello stesso modo un ossidante vede alzarsi il potenziale della stessa quantità. sufficiente a produrre la variazione richiesta, cioè è maggiore della differenza di potenziale tra gli equilibri di ossidazione e riduzione dell’acqua. Non basta però trovare un sensibilizzatore che abbia energia di eccitazione e potenziali redox opportuni: infatti, i processi di trasferimento di elettrone sono troppo lenti per competere con la breve vita dello stato eccitato e semplici sistemi come quelli indicati nella figura 9 non funzionano. Non per nulla la fotosintesi clorofilliana non avviene con le molecole di clorofilla isolate, ma nel sistema altamente organizzato dei due fotosistemi PS I e PS II nei cloroplasti, in cui i passaggi redox coinvolgono una serie di intermedi opportunamente situati nella membrana in modo da rendere efficiente il processo (Fig. 7). Figura 9: Fotoelettrolisi dell’acqua con l’utilizzo di un fotosensibilizzatore (S) Figura 8. Gli stati eccitati sono sia migliori ossidanti (in quanto possono accettare un elettrone nel ‘buco’ creatosi nell’orbitale occupato più alto, legante o non legante) sia migliori riducenti (in quanto possono donare l’elettrone promosso in un orbitale antilegante) dei corrispondenti stati fondamentali A partire dagli anni 80, dopo la crisi energetica degli anni precedenti, c’è stata molta ricerca sulla fotoelettrolisi dell’acqua. Per esempio si potrebbe scegliere un fotosensibilizzatore S (cioè una molecola che assorbe la radiazione hν, passando allo stato eccitato S*, vedi Fig. 9). Il potenziale redox di S nello stato fondamentale (S•+/S) è tale che questo può ossidare l’acqua, mentre quello nello stato eccitato (S•+/S*) permette la riduzione dell’acqua dopo l’eccitazione. Un quanto di 700 nm è più che 122 Figura 10: Svolgimento dell’idrogeno dall’acqua attraverso un donatore sacrificale. 123 La ricerca ha portato a realizzare molti sistemi in cui l’idrogeno viene di fatto svolto per irraggiamento, non però per riduzione dell’acqua, ma attraverso la partecipazione di un cosiddetto ‘donatore sacrificale’ (D nella Fig. 10). Questo è una molecola che è in grado di donare un elettrone abbastanza velocemente da rendere la reazione sufficientemente efficiente. Si tratta quindi di un sistema scientificamente interessante come modello, ma non di una valida alternativa per produrre idrogeno dato che questi donatori sono molecole ad alta energia esse stesse. Similmente si può ottenere lo svolgimento di ossigeno sfruttando un ossidante sacrificale, con le stesse limitazioni applicative. Anzi, i due semisistemi possono essere accoppiati in modo da sviluppare sia idrogeno sia ossigeno per assorbimento di radiazione solare, anche se evidentemente in questo modo non si immagazzina di fatto energia solare, ma piuttosto si usa l’energia chimica del donatore e dell’accettore per produrre la scissione dell’acqua. Allo stato attuale, si può dire che una fotosintesi artificiale non è stata ancora sviluppata ed il sistema naturale per trasformare energia luminosa in energia chimica è troppo complesso per essere imitato.2 Un risultato decisamente migliore è stato ottenuto con le celle fotovoltaiche che trasformano l’energia solare in energia elettrica. 3. LA RADIAZIONE SOLARE PER LA SINTESI DI MOLECOLE 3.1 REAZIONI FOTOCHIMICHE Un altro utilizzo vantaggioso della radiazione solare è quello di produrre molecole utili di per sè o come intermedi per ulteriori trasformazioni, realizzare cioè delle reazioni fotochimiche. Metodi fotochimici sono infatti intrinsecamente ‘verdi’, cioè ecocompatibili, in quanto realizzano le trasformazioni chimiche non attraverso reattivi aggressivi, che poi danno problemi di eliminazione di residui, ma attraverso il reagente ‘verde’ per eccellenza, la luce (solare) che viene assorbita.3 Reazioni fotochimiche sono quelle che avvengono partendo da uno stato elettronicamente eccitato (Fig. 11). Le reazioni fotochimiche sono intrinsecamente diverse da quelle allo stato fondamentale. Le molecole organiche infatti sono stabili perché tenute insieme da forti legami covalenti e non reagiscono facilmente, appunto perché la reazione comporta la rottura di qualche legame. Le reazioni quindi richiedono il superamento di un’alta energia di attivazione (barriera energetica) ed avvengono quindi con velocità basse. Anzi di solito solo grazie all’intervento di un ‘attivatore,’ ad esempio un acido o una base che formano un intermedio attivato ad alta energia, il processo avviene a velocità utile. Al contrario lo stato elettronicamente eccitato formatosi con l’assorbiento di un fotone di luce si trova già a energia alta, anzi ha un contenuto energetico molto superiore a quello implicato nelle reazioni termiche e, non dovendo affrontare un’alta barriera, di fatto reagisce a velocità molti ordini di grandezza superiori a quelle degli stati fondamentali. Questo non significa però che gli stati eccitati reagiscano in maniera indiscriminata. In realtà, le reazioni sono di solito molto selettive in quanto questi stati hanno vita molto breve e decadono allo stato fondamentale in un tempo inferiore al microsecondo (e spesso al nanosecondo): per questo solo vie di reazione che implichino un’attivazione veramente minima (ad esempio 2, 3 kcal/mol) riescono ad avere velocità sufficiente da competere col decadimento. Tali cammini preferenziali di solito esistono, in quanto la profonda trasformazione indotta nella struttura elettronica dall’eccitazione labilizza selettivamente alcuni siti della molecola. Ad esempio, nel caso illustrato in Fig. 11, si confronta la struttura dello stato fondamentale e dello stato eccitato di un chetone. Lo stato fondamentale (A) ha tutti gli orbitali doppiamente leganti (ad esempio l’orbitale di tipo π tra carbonio ed ossigeno) e quelli non leganti (tale è l’orbitale di tipo n sull’atomo di ossigeno) doppiamente occupati, il che appunto corrisponde ad una situazione di grande stabilità e di minima reattività. L’assorbimento di un fotone però, porta allo stato eccitato (A*) in cui un elettrone si sposta dall’orbitale non legante sull’ossigeno all’orbitale antilegante tra carbonio ed ossigeno (π∗). A parte la grande energia, lo stato eccitato è quindi caratterizzato da una specifica attivazione, dovuta al fatto che nell’orbitale non legante sull’ossigeno è rimasto un elettrone solo. E’ ben noto che specie con un elettrone singolo (dette radicali) sono molto reattive tendendo a ricomporre un doppietto. Così avviene infatti nello stato eccitato dei chetoni, che tendono a strappare atomi ad altre molecole legandoli all’ossigeno; queste reazioni avvengono a velocità altissime (ad esempio 106 M-1s-1) del tutto sconosciute per le reazioni allo stato fondamentale. Per la maggior parte delle molecole organiche vi è reattività chimica nello stato eccitato, e tale reattività si può prevedere, come nell’esempio visto sopra, sulla base della struttura elettronica dello stato eccitato. Si potrebbe almeno ricordare che la visione si basa ovviamente su una reazione fotochimica e che la vitamina D, necessaria ad evitare il rachitismo, si forma nella pelle a partire da provitamine assunte con i cibi solo sotto l’azione della luce solare. Esistono ovviamente molte reazioni fotochimiche che si applicano nell’industria per la sintesi di prodotti artificiali. 3.2 METODI FOTOCATALITICI Su questa base si possono costruire dei sistemi fotocatalitici,3, 4 come quello illustrato nella Fig. 12, in cui un fotocatalizzatore, avendo assorbita la radiazione luminosa (preferibilmente, dal punto di vista ecologico, quella solare), strappa un atomo (di solito di idrogeno) o un elettrone al substrato, generando un intermedio attivato, svolgendo una funzione che è concettualmente simile a quella degli ‘attivatori’ della chimica termica, ma evidentemente più pulita. Figura 11: Schema di reazione fotochimica 124 125 Figura 12: Schema di reazione fotocatalizzata. La luce genera la forma attiva del catalizzatore che è in grado di formare dal reagente l’intermedio attivato della reazione desiderata, così disattivandosi allo stato fondamentale. Infatti, il fotocatalizzatore viene rigenerato nel seguito del processo, in modo che l’unico reagente consumato è la luce e, cosa altrettanto importante, si opera in condizioni blande, senza attivazione per riscaldamento od usando reagenti chimici aggressivi, e non si generano scarti dal processo di attivazione. Tipici cicli di fotocatalisi si basano sulla formazione come intermedi attivi di radicali alchilici per trasferimento di atomo o di elettrone, come illustrato nella Fig. 13. Figura 13: Tipici cicli di fotosensibilizzazione che formano come intermedi attivi radicali alchilici per trasferimento di atomo o di elettrone. L’intermedio attivato è il radicale alchilico R , che si forma dal reagente RH (schema in alto) or RX (schema in basso) per estrazione di idrogeno o, rispettivamente, estrazione di elettrone seguita da perdita del gruppo X+. Il radicaleR . si addiziona a un doppio legame ed il radicale addotto dà il prodotto finale rigenerando il catalizzatore che torna in ciclo, per essere ancora attivato dalla luce. 126 127 La luce viene assorbita dal fotocalizzatore, che può essere sia una molecola organica, di solito una sostanza aromatica (chetone, chinone, nitrile estere), un sale inorganico insolubile (ad esempio un politungstato) o un materiale solido semiconduttore (ad esempio biossido di titanio). Questi dopo l’assorbimento di luce attivano un substrato organico (anche un alcano) per estrazione di idrogeno o di elettrone, in definitiva generando un radicale alchilico che si addiziona a un alchene elettrofilo (che porta cioè un gruppo elettron attrattore che lo attiva verso le reazioni radicaliche). Il radicale addotto così formato scambia atomo o elettrone con la forma ridotta del fotocatalizzatore che così rientra in ciclo mentre si forma il prodotto alchilato finale. Sfruttando la grande reattività degli stati eccitati, molti processi selettivi sono stati sviluppati su questo schema di base, spesso partendo da reagenti molto stabili, che difficilmente potrebbero essere indotti a reagire anche con i più aggressivi attivatori termici. Questo aggiunge un ulteriore vantaggio, perché si può così arrivare con un minor numero di passaggi a molecole assai complesse, corrispondendo ad un altro dei postulati della ‘chimica verde’. 4. CONCLUSIONI Sfruttare l’energia solare per ottenere energia o composti chimici è sicuramente la sfida più ambiziosa nel campo ambientale e quella in cui l’attuale livello della scienza più è lontano dai mirabile sistemi che la natura ha sviluppato. Tuttavia solo in questo modo possono essere ottenute risorse veramente rinnovabili con il vantaggio addizionale di minimizzare l’inquinamento. L’impoverirsi delle risorse fossili attualmente alla base di tutta l’industria chimica ed energetica renderà fatalmente, seppure in un futuro non immediato, fondamentale dedicare uno sforzo importante per l’uso attraverso sistemi artificiali della radiazione solare BIBLIOGRAFIA 1. W.M. HORSPOOL, P.S. SONG, Handbook of Organic Photochemistry and Photobiology, 1995, CRC Press, Boca Raton. 2. E. PELIZZETTI, M. SCHIAVELLO, Photochemical Conversion and Storage of Solar Energy, 1991, Kluwer Ac. Pub., Dordrecht. 3. A. ALBINI, M. FAGNONI, MELLA, Pure Appl. Chem., 2000, 72, 1321. 4. N. SERPONE, E. PELIZZETTI, Photocatalysis: Fundations and Applications, 1989 FOTOCATALISI CON SEMICONDUTTORI: FONDAMENTI E APPLICAZIONI DI INTERESSE AMBIENTALE ANDREA MALDOTTI 1. DEFINIZIONE E INTERESSE AMBIENTALE DELLA FOTOCATALISI Catalisi e ambiente. Lo sviluppo di processi e tecnologie innovative per l’abbattimento di sostanze nocive o per la riduzione della loro immissione nell’ambiente è di fondamentale importanza per il controllo dell’inquinamento e per lo sviluppo di una chimica sostenibile. Un’ importante strategia che viene seguita per raggiungere questi obiettivi consiste nell’impiego di metodi catalitici. I catalizzatori sono sostanze in grado di aumentare la velocità di una reazione chimica attraverso vie alternative che richiedono un minore dispendio energetico (minore energia di attivazione). La grande efficienza e specificità che caratterizzano i sistemi catalitici hanno importanti implicazioni ambientali: consentono di ottimizzare l’uso di reagenti chimici e migliorare l’efficienza e la selettività dei processi anche in condizioni blande di temperatura e di pressione. Luce solare e ossigeno come “reagenti puliti”. I fotocatalizzatori possono essere definiti come particolari sistemi catalitici con funzioni specifiche attivate dalla luce. Fotocatalizzatori ideali dal punto di vista ambientale sono quelli che vengono attivati dalla radiazione solare, una sorgente di energia di per sé pulita e totalmente rinnovabile. I metodi fotocatalitici vengono applicati per realizzare svariate reazioni chimiche. In questo capitolo la discussione sarà limitata a fotocatalizzatori in grado di utilizzare la molecola di ossigeno come specie reagente. Va sottolineato il fatto che l’impiego di O2, largamente disponibile nell’ambiente e relativamente economico, contribuisce ulteriormente a rendere pulito ed economicamente vantaggioso il processo di interesse. Fotocatalisi con semiconduttori. Tra i tanti composti organici e inorganici che trovano impiego nella fotocatalisi, i materiali semiconduttori rivestono particolare importanza. Nei successivi paragrafi la discussione sarà focalizzata su questo tipo di fotocatalizzatori, con particolare attenzione al TiO2, il semiconduttore di gran lunga più utilizzato per la sua relativa economicità e la sua stabilità chimica e fotochimica. Verranno discusse, in particolare, le sue proprietà elettroniche, la sua reattività a seguito dell’eccitazione fotochimica, le principali strategie per l’ottimizzazione delle sue proprietà fotocatalitiche. Saranno riportati alcuni esempi di applicazioni per la degradazione di sostanze inquinanti e per la sintesi di intermedi di interesse nella chimica fine. I risultati presentati sono stati ampiamente discussi nella recente letteratura scientifica [1-5]. 2. FONDAMENTI SULL’ECCITAZIONE ELETTRONICA DI SEMICONDUTTORI. 2.1 CONDUCIBILITÀ ELETTRICA NEI MATERIALI SOLIDI I materiali solidi possono essere classificati sulla base di molte proprietà chimiche e fisiche. Sulla base della conducibilità elettrica i materiali possono essere suddivisi in tre classi a seconda del numero delle cariche, ioni o elettroni, e della loro mobilità. In un conduttore, il valore della conducibilià elettrica è elevato con un numero di elettroni libe128 129 ri dell’ordine di 1024 e-/m3. In un isolante, la conducibilità è molto più bassa per la presenza di circa 107 e-/m3 elettroni liberi. Nei semiconduttori la conducibilità è intermedia al valore delle due classi precedenti. Esempi di materiali conduttori sono i metalli, di isolanti sono SiO2, Al2O3, il diamante, di semiconduttori sono TiO2, PbS, Cu2O,. pio nel silicio (circa 1 eV), alcuni elettroni possono passare nella banda di conduzione per eccitazione termica, conferendo così proprietà conduttrici al materiale. Questo comportamento è tipico dei solidi semiconduttori. 2.3 TRASPORTO DI CARICA NEI SEMICONDUTTORI. 2.2 TEORIA DELLE BANDE Metalli conduttori. La teoria delgli orbitali molecolari (MO) prevede che l’interazione tra due orbitali atomici di due atomi porti alla formazione di due orbitali molecolari ben distinti tra loro: uno di legame a più bassa energia e uno di antilegame a energia più elevata. Gli elettroni degli orbitali atomici esterni vanno ad occupare l’orbitale di legame diminuendo così il contenuto energetico del sistema e stabilizzando la molecola che si forma. Fig 1: a) formazione di una banda di energia; b) banda di valenza e banda di conduzione in un semiconduttore Gli elettroni che per qualche motivo passano nella banda di conduzione (ecb-, dove cb sta per conduction band) lasciano una carica positiva detta lacuna o buca nella banda di valenza (hvb+, dove vb sta per valence band) (Figura 2). Poiché anche le buche e non i soli elettroni, sono mobili, la conducibilità elettrica in un semiconduttore è data da due tipi di portatori di carica che, sotto effetto di un campo elettrico, migrano in direzioni opposte. In realtà, il movimento delle buche è solo apparente visto che le loro posizioni vengono continuamente occupate dagli elettroni vicini che lasciano, a loro volta, una carica positiva. Fig 2: banda di valenza e di conduzione nei semiconduttori Esistono tre tipi di semiconduttori: 1. intrinseci, in cui il numero di elettroni nella banda di conduzione è uguale al numero di buche nella banda di valenza. In altre parole la banda di valenza è completamente piena mentre la banda di conduzione è vuota; 2. di tipo n, in cui si ha un eccesso di elettroni; 3. di tipo p, in cui si ha un eccesso di buche positive. I semiconduttori possono essere “drogati” per controllare la natura dei portatori di carica e la loro efficienza. Introducendo, infatti, atomi che hanno un elettrone in meno rispetto all’atomo che costituisce il semiconduttore intrinseco [ad esempio un atomo di Boro (terzo gruppo) in un semiconduttore di Silicio (quarto gruppo)] si ottengono semiconduttori di tipo p. Viceversa, un atomo che fornisce al semiconduttore un elettrone in più, ad esempio un atomo di Fosforo nel Silicio puro, rende il semiconduttore di tipo n. Il TiO2 è un semiconduttore di tipo n. Quando la teoria MO viene applicata ad un numero N molto grande di atomi, come ad esempio nei solidi metallici, si ottiene un numero totale N di orbitali molecolari i cui livelli energetici sono così vicini tra loro da formare una banda continua (Fig. 1a). In questo caso la distribuzione degli elettroni negli orbitali secondo valori crescenti di energia provoca un riempimento solo parziale della banda. Inoltre, data la stretta vicinanza degli orbitali in una banda, è sufficiente poca energia perché gli elettroni passino dagli orbitali inferiori pieni a quelli sovrastanti vuoti. Il risultato è che gli elettroni possono spostarsi liberamente nel solido e, quindi, condurre corrente elettrica. Isolanti e Semiconduttori. Il modello a bande sviluppato per i metalli può essere applicato a tutti i solidi cristallini covalenti, le cui proprietà conduttrici risultano determinate dalla distribuzione degli elettroni nelle diverse bande e dalla differenza di energia tra queste. L’ultima banda completamente piena prende il nome di banda di valenza (Figura 1b). A energia più alta della banda di valenza può essere identificata una banda che non contiene elettroni e che prende il nome di banda di conduzione. Banda di valenza e banda di conduzione sono separate da una differenza di energia (band gap) più o meno grande a seconda dei limiti imposti dalla struttura cristallina del solido. Se il band gap è molto elevato, come ad esempio nel diamante (circa 5 eV; 1eV = 1,602 x 10-19 J), nessun elettrone è libero di muoversi anche se si applicano campi elettrici molto intensi, per cui il solido si comporta da isolante. Se, al contrario, l’intervallo di energia non è molto grande, come ad esem- Ad ogni radiazione elettromagnetica di lunghezza d’onda (λ) è associata un’energia data dalla relazione E = hν, dove h è la costante di Planck e ν = c/λ è la frequenza della radiazione (c = velocità della luce nel vuoto). La radiazione solare che raggiunge la crosta terrestre è costituita da onde elettromagnetiche di lunghezza d’onda maggiore di circa 300 nm (1 nm = 10-9 m). La relativa ener- 130 131 2.4 ECCITAZIONE FOTOCHIMICA DI SEMICONDUTTORI. gia è sufficiente per promuovere elettroni dalla banda di valenza alla banda di conduzione di diversi semiconduttori. 3. SEPARAZIONE DI CARICA NEL TIO2 La Figura 4 riporta in maniera schematica i processi che avvengono su una particella di forma sferica di TiO2 fotoeccitato. Fig 4: schema del processo fotocatalitico su TiO2. Fig 3: bande di valenza e di conduzione di alcuni semiconduttori in mezzo acquoso a pH = 1 La Figura 3 riporta su una scala di energia le posizioni delle bande di valenza e di conduzione di alcuni materiali semiconduttori dispersi in mezzo acquoso a pH=1. Affinchè un elettrone possa essere promosso nella banda di conduzione il semiconduttore deve essere irradiato con una radiazione elettromagnetica di energia hν uguale o maggiore del band gap. Il CdS risulta colorato (giallo) poichË líenergia necessaria per indurre il processo di separazione di carica corrisponde a frequenze che cadono nella regione del visibile. Il TiO2, al contrario, è bianco dal momento che i circa 3,2 eV necessari per promuovere un elettrone dalla banda di valenza a quella di conduzione sono forniti solo da radiazioni di lunghezza d’onda inferiore a 420 nm (ultra-violetto). Quali sono i processi che seguono il processo primario di separazione di carica fotoindotta? Elettroni e buche possono innanzi tutto ricombinarsi dissipando energia sotto forma di calore. Questo è un processo molto veloce che avviene in pochi nanosecondi. D’altra parte, elettroni e buche possono anche essere intercettati da specie ossidanti o riducenti in grado di interagire con la superficie (adsorbimento). Le capacità ossidanti e riducenti di un semiconduttore fotoeccitato dipenderanno dai potenziali redox della banda di valenza e di quella di conduzione. 132 Sostanze adsorbite sulla superficie potranno subire due diversi tipi di reazione: un processo di riduzione ad opera degli elettroni nella banda di conduzione e uno di ossidazione da parte delle buche nella banda di valenza. La contemporanea e rapida cattura di elettroni e buche è condizione necessaria per evitare la loro ricombinazione e la conseguente disattivazione del semiconduttore fotoeccitato attraverso emissione di calore o di luce. Le forme cristalline più importanti del TiO2 sono due: il rutilo, termodinamicamente più stabile a temperatura ambiente e l’anatasio. La forma cristallina più attiva del TiO2 e l’anatasio. Questo è meno stabile del rutilo dal punto di vista termodinamico, ma la sua formazione è favorita dal punto di vista cinetico a più bassa temperatura (< 600 °C). La preparazione a temperature relativamente basse rende l’anatasio più attivo del rutilo per la maggiore area superficiale e per il più alto numero di siti attivi per l’adsorbimento. Il TiO2 Degussa P25, è il prodotto commerciale più usato: è un prodotto ben definito e costituito da una miscela non porosa di anatasio e rutilo nella proporzione 70 a 30; l’area superficiale è dell’ordine di 55 ± 15 m2 g-1 le dimensioni delle particelle variano da 30 nm a 1 mm; la sua attività fotocatalitica è più alta rispetto a quella di altri tipi di TiO2. Possono essere utilizzate anche grandi quantità di TiO2 nella fotocatalisi di processi su larga scala di interesse sia ambientale che industriale (vedi ad esempio paragrafo 6.1). 133 4. FORMAZIONE DI SPECIE REATTIVE DI INTERESSE CATALITICO 4.1 REATTIVITÀ O2 L’equazione 1 schematizza una possibile reazione di ossidazione di un generico substrato organico (indicato con X) da parte della molecola di ossigeno. L’equazione 2 riporta a titolo esemplificativo l’ossidazione della molecola di metano a metanolo. Il decorso della reazione 1 può essere seguito in maniera qualitativa su un diagramma che riporti l’energia potenziale del sistema in funzione del procedere della reazione (Figura 5). Le specie O2 e X reagendo tra di loro liberano energia e si trasformano nel prodotto (XO) caratterizzato da una maggiore stabilità. Caratteristica comune a queste reazioni di ossidazione è la notevole quantità di energia che viene rilasciata sotto forma di calore (reazioni esotermiche in termini termodinamici). La conversione del metano a metanolo, per esempio, comporta lo sviluppo di circa 30 kcal/mole. I fattori positivi che rendono la reazione 1 estremamente favorita dal punto di vista del bilancio energetico finale (termodinamici) sono, però, accompagnati da non meno importanti fattori che la rendono estremamente lenta (cinetici). La bassa velocità delle reazioni di ossidazione mediate dall’ossigeno evita, tra l’altro, che gli organismi viventi siano rapidamente”bruciati” in condizioni aerobiche ed è, quindi, alla base della vita stessa sulla terra. Il principale ostacolo alla rapida ossidazione dei composti organici da parte dell’ossigeno è dovuto alla struttura elettronica di questa molecola che contiene due elettroni spaiati e, quindi, può essere considerato un diradicale. La natura di diradicale dell’O2 risulta evidente osservando il riempimento elettronico dei suoi orbitali molecolari (teoria OM). Questi sono ottenuti mescolando orbitali atomici di tipo s e di tipo p (combinazione lineare) dei due atomi di ossigeno che formano la molecola (Figura 6). Fig. 5: Decorso della reazione fra un substrato organico X e la molecola di ossigeno Fig. 6: Orbitali molecolari dell’ O2 134 135 A seconda del tipo di combinazione si ottengono orbitali molecolari σ e π a più bassa energia e di tipo σ∗ e π∗ a livelli energetici più alti. I dodici elettroni esterni dei due atomi di ossigeno riempiono gli orbitali in ordine crescente di energia in accordo con la regola secondo cui gli elettroni si sistemano in orbitali isoenergetici prima di accoppiarsi con spin antiparallelo. Il risultato finale è che rimangono due elettroni spaiati in due orbitali π∗ di antilegame che conferiscono all’ossigeno la natura di diradicale paramagnetico. Due considerazioni ulteriori devono essere fatte per comprendere i fattori cinetici sfavorevoli alle reazioni fra la molecola di ossigeno e i substrati organici: 1. contrariamente all’ossigeno la maggior parte dei composti organici non contiene elettroni spaiati; 2. le reazioni chimiche avvengono sempre in tempi più brevi del tempo necessario per invertire lo spin dell’elettrone. Di conseguenza il numero di elettroni spaiati in un processo chimico deve rimanere invariato dopo ciascun stadio elementare. Su queste basi possiamo concludere che il processo schematizzato dall’equazione 3 non può procedere attraverso un unico stadio veloce, visto che non rispetta la seconda condizione. Questo processo, per avvenire, deve seguire cammini di reazione a più stadi che, in tutti i casi, comportano un notevole dispendio dal punto di vista energetico. Fig. 7: Posizione delle bande del TiO2 rispetto alla coppia O2/O2-. I processi principali che seguono la riduzione monoelettronica di O2 a O2-. sono riportati in Figura 8 (equazioni 4-8). O2-. può generare H2O2 per semplice disproporzione (eq. 6) o per cattura di un elettrone della banda di conduzione (eq. 7). H2O2, a sua volta, può subire un processo di riduzione da parte del semiconduttore fotoeccitato dando luogo alla formazione di una specie fortemente ossidante: il radicale OH· (eq. 8). Tutti gli intermedi ottenuti sono, comunque, caratterizzati da una grande reattività nei confronti di substrati organici e inorganici. 4.3 PROCESSI OSSIDATIVI DA HVB+. La figura 5 mostra, una possibilità. Le restrizioni dovute allo spin possono essere evitate se la reazione fra O2 e X porta alla formazione di XO in uno stato eccitato che conserva i due elettroni spaiati. La successiva lenta inversione dello spin genera il prodotto finale nel suo stato fondamentale. Questoa cammino di reazione implica, comunque, il superamento di una barriera di energia elevata (energia di attivazione), considerato che gli stati eccitati del tipo di quello riportato in figura 5 sono notoriamente molto meno stabili dello stato fondamentale di partenza: 40-70 kcal/mol nel caso di molecole insature e con valori molto più alti per molecole sature. Sulla base di quanto detto, si conclude che la molecola di ossigeno deve essere attivata per poter reagire con i substrati organici. Una possibile strategia consiste nel renderla compatibile con questi composti spendendo un po’ di energia per accoppiare i due elettroni spaiati nello stesso orbitale π∗ di antilegame. L’energia necessaria per fare avvenire questo processo può essere fornita anche attraverso sensibilizzazione fotochimica (vedi contributo Prof. A. Albini). Una importante alternativa consiste nell’attivare la molecola di ossigeno attraverso la sua riduzione, per dare specie altamente reattive. Questo è l’approccio seguito nei processi fotocatalitici discussi nei prossimi paragrafi. L’energia delle buche positive nel TiO2 è tale da poter facilmente ossidare la maggior parte dei substrati organici. Questo processo può avvenire attraverso due vie. • Composti organici (RH2) adsorbiti sulla superficie del semiconduttore subiscono un processo diretto di ossidazione monoelettronica che ha come conseguenza la formazione di specie radicaliche e protoni (eq. 9 in Fig. 8) • Il processo ossidativo da parte di hvb+ interessa molecole d’acqua e gruppi ossidrilici della superficie e passa attraverso la formazione di radicali OH. secondo le equazioni 10 e 11. Reazioni successive che coinvolgono gli intermedi fotogenerati portano alla formazione di prodotti di ossidazione che, nel caso in cui il substrato sia un idrocarburo, possono essere alcoli e chetoni (equazioni 12 e 13). Il potere ossidante del TiO2 è comunque tale da indurre una successiva ossidazione di questi intermedii fino alla completa mineralizzazione del substrato organico con formazione di CO2 e H2O. 4.2 ATTIVAZIONE RIDUTTIVA DI O2: REATTIVITÀ ECBLa Figura 7 riporta in una scala di potenziali la posizione delle bande del TiO2 rispetto alla coppia O2/O2-.. Il valore riportato in figura è stato ottenuto in ambiente fortemente acido (pH = 1), dove lo ione superossido viene facilmente protonato per generare radicali HO2.. Risulta evidente che il potenziale di riduzione degli elettroni nella banda di conduzione è sufficientemente negativo per ridurre l’ossigeno. 136 137 progettati sistemi fotocatalitici “organizzati” in cui la superficie del semiconduttore viene modificata chimicamente. E’ possibile, per esempio, drogare la matrice solida con ioni metallici di varia natura, depositare metalli nobili (come il platino) sulla superficie dell’ossido, funzionalizzare la stessa con sistemi enzimatici naturali. Riduzione (e-cb) Ossidazione (h+vb) Fig. 9. Spettri di assorbimento di TiO2 (a) e di TiO2 modificato con cromo (b) Fig. 8: Processi fotocatalitici con biossido di titanio 5. CONTROLLO DELL’EFFICIENZA E DELLA SELETTIVITA’ 5.1. MASSIMA UTILIZZAZIONE DELLO SPETTRO SOLARE L’energia di band gap del TiO2 è relativamente grande (3.2 eV) e consente l’assorbimento della sola componente ultravioletta della radiazione solare che raggiunge il suolo (<10% del totale). E’ quindi molto importante preparare fotocatalizzatori capaci di operare anche per eccitazione con luce visibile. L’assorbimento di luce da parte del TiO2 può essere spostato verso la regione del visibile in maniera significativa attraverso “l’impianto” di ioni metallici nella matrice solida. In questo modo si producono importanti variazioni degli stati elettronici del TiO2 che, probabilmente, coinvolgono gli orbitali d del metallo drogante. La figura 9 mostra il positivo effetto di ioni cromo sullo spettro di assorbimento del TiO2. 5.2. EFFICIENZA E SELETTIVITÀ L’efficienza del processo con cui avviene il trasferimento di carica all’interfaccia semiconduttore-substrato dipende anche dall’equilibrio di adsorbimento del substrato stesso sulla superficie del fotocatalizzatore. Si ottiene un’efficienza maggiore se il reagente si adsorbe bene e se il prodotto di ossidazione viene deadsorbito rapidamente, in modo da lasciare libero il sito di coordinazione per un’altra molecola di substrato. Il controllo competitivo dell’adsorbimento degli intermedi di reazione può anche consentire di indirizzare i processi ossidativi verso la formazione dei prodotti di interesse. Come esempio si riportano i risultati ottenuti nell’ossidazione del cicloesano. Questo semplice cicloalcano può essere considerato una molecola modello per ottenere informazioni di interesse generale sulla ossidazione di alcani e, allo stesso tempo, i suoi prodotti di ossidazione sono importanti precursori nella sintesi di prodotti chimici e nella produzione di nylon, acido adipico, nitro-cellulosa, lacche, pelli artificiali, coloranti. L’irradiazione di TiO2 sospeso in cicloesano puro porta alla formazione di cicloesanone con una selettività quasi del 100%; mentre in presenza di quantità crescenti di diclorometano la percentuale di cicloesanolo aumenta fino a diventare uguale a quella di cicloesanone quando il rapporto cicloesano/diclorometano è uno. Questo cambiamento di chemoselettività può essere attribuito al fatto che la polarità dell’ambiente di reazione ha un effetto importante sull’adsorbimento competitivo di intermedi e prodotti finali. In particolare, quantità crescenti di diclorometano aumentano la polarità del mezzo disperdente favorendo così l’accumulo di cicloesanolo in soluzione e sfavorendo il suo adsorbimento sulla superficie del TiO2 dove può essere fotoossidato a cicloesanone. Da notare, inoltre, che la presenza di diclorometano riduce in maniera significativa la percentule di CO2 tra i prodotti di ossidazione (da 6% a 1%) rendendo, quindi, il processo di maggior interesse dal punto di vista sintetico. L’efficienza del sistema è strettamente legata alla possibilità che elettroni e buche fotogenerate vengano rapidamente intercettate prima che possano ricombinarsi. A questo scopo possono essere 138 139 6. FOTODEGRADAZIONE DI SOSTANZE INQUINANTI. La possibilità di sviluppare processi e tecnologie innovative e a basso impatto ambientale per degradare sostanze inquinanti disciolte nelle acque e per purificare emissioni gassose di origine industriale o prodotte da veicoli ha un forte interesse ambientale e costituisce una importante sfida per i prossimi anni. 6.1 PURIFICAZIONE DELLE ACQUE La fotocatalisi ossidativa con TiO2 è stata utilizzata per il trattamento di acque inquinate. Vari anioni inorganici come nitriti, solfiti, cianuri possono essere ossidati a composti meno tossici usando TiO2 come fotocatalizzatore. Per quanto riguarda il disinquinamento da sostanze organiche, le classi di composti studiati e che possono essere mineralizzati a CO2 e H2O sono numerose: alcani alogenati, composti aromatici (ad. esempio benzene, naftalene, fenoli, clorofenoli), erbicidi, pesticidi, tensioattivi. La prima realizzazione su ampia scala di un reattore fotocatalitico per il trattamento delle acque è stata realizzata in California nel 1991 per inquinamento dovuto principalmente a tricloroetilene. Il sistema era costituito da reattori parabolici con superfici riflettenti in alluminio (circa 150 m2 ) in grado di focalizzare la luce solare su tubi di vetro all’interno dei quali circolava l’acqua contenente circa 1 g/l di TiO2 in sospensione. La concentrazione di tricloroetilene poteva essere ridotta da 106 a 0,5 ppb in 5 ore. 6.2 ELIMINAZIONE DI SOSTANZE INQUINANTI PRESENTI NELL’ATMOSFERA. Il trattamento fotocatalitico con TiO2 può anche consentire di eliminare sostanze inquinanti presenti nell’atmosfera. A questo proposito va ricordato che la riduzione della concentrazione di NOx e di SOx nell’atmosfera in prossimità di strade ad intenso traffico, di tunnels e di aree intensamente abitate è un problema ambientale di grande interesse. Da alcuni anni si sta studiando la possibilità di impiegare TiO2 supportato su pannelli, anche di grandi dimensioni, di cemento o silice per la degradazione di questi gas. Risultati interessanti sono stati ottenuti utilizzando questo sistema in un’area urbana fortemente inquinata ad Osaka. A dimostrazione delle potenzialità applicative della tecnica fotocatalitica, numerosi brevetti prevedono l’uso di TiO2 incorporato in materiali di varia natura per decontaminare ambienti inquinati e mantenere puliti manufatti di interesse commerciale. Il TiO2 può essere impiegato all’interno di camere operatorie per la loro sterilizzazione, sulle pareti esterne di edifici anche di grandi dimensioni come materiale autopulente, nei vetri delle finestre o nei rivestimenti interni di abitazioni private o di ambienti pubblici sia con funzioni autopulenti che per eliminare odori sgradevoli e sostanze nocive. BIBLIOGRAFIA 1. 2. 3. 4. 5. “Photocatalysis. Fundamentals and Applications”. N. Serpone e E. Pelizzetti Eds.; Wiley, 1989. A. L. LINSEBIGLER, G. LU, J.T.YATES, Chem. Rev., 1995, 95, 735. M. R. HOFFMANN, S.T. MARTIN, W. CHOI, D. W. BAHNEMANN; Chem. Rev., 1995, 95, 69. A. MALDOTTI, A. MOLINARI, R. AMADELLI, Chem. Rev., 2002, 102, 3811. M. ANPO in “Green Chemistry, Challenging and Perspectives”; P. Tundo, P. Anastas Eds. , Oxford University press, 2000. 140 Industria SMALTIMENTO e/o RICICLO DEI MATERIALI FRANCESCO PAOLO LA MANTIA INTRODUZIONE Lo smaltimento e/o il riciclo dei materiali alla fine del loro ciclo di vita assume sempre maggiore importanza nella società moderna. I principali motivi di questa emergenza sono principalmente: • crescita vertiginosa, in quantità e tipologia, di manufatti ed, in particolare, di prodotti usa e getta dal brevissimo ciclo di vita; • problemi ambientali legati sia alla mancanza di siti di smaltimento che alla messa in discarica di materiali inquinanti; • perdita di materia ed energia. Anche se non ci fossero motivazioni ambientali, il problema dello smaltimento dei prodotti a fine vita andrebbe comunque risolto per migliorare il bilancio economico dell’industria manifatturiera e della società nel suo complesso. Per smaltimento intendiamo sia la messa in discarica che la distruzione termica dei rifiuti civili ed industriali. Lo smaltimento inteso come messa in discarica dei materiali produce, non solo la perdita economica della materia e del suo contenuto energetico, ma anche l’utilizzo di spazi il cui costo cresce notevolmente e problemi ambientali connessi con la possibile presenza di composti che inquinano terreno e falde acquifere. Inoltre, i siti per lo smaltimento dei rifiuti sono di sempre più difficile rinvenimento. Lo smaltimento attraverso la termodistruzione senza recupero energetico elimina alcuni dei problemi prima discussi, ma non evita le perdite economiche ed anzi implica un costo. Ovvia alternativa allo smaltimento, sia in discarica che per termodistruzione, è il riciclo dei prodotti a fine vita. Non tutti i materiali possono essere sottoposti all’intera serie di tipologie di riciclo che l’industria può (o potrebbe) attualmente mettere in atto. Sebbene le generalizzazioni, che hanno il compito di esemplificare processi numerosi e complicati, siano in questo caso molto difficili, si possono catalogare diverse metodologie di riciclo: 1) riutilizzo del prodotto anche per altre funzioni 2) riuso del materiale attraverso successive rilavorazioni 3) riuso del materiale per altre lavorazioni o utilizzi 4) recupero energetico. La possibilità effettiva di riciclare oggetti a fine vita con una delle precedenti metodologie dipende dal materiale, dal tipo di raccolta, da considerazioni tecniche ed economiche. 143 1. METODOLOGIE DI RICICLO 1.1 RIUTILIZZO DEL PRODOTTO ANCHE SE PER ALTRE FUNZIONI Il modo più facile per riciclare manufatti dopo il loro uso è certamente quello di riutilizzarli per la stessa funzione, se possibile, o per altre funzioni. Per esempio, sacchetti “shoppers” possono essere utilizzati per lo stesso scopo o come sacchetti per spazzatura. Il riutilizzo “allunga la vita” dei manufatti con l’innegabile vantaggio di diminuire il consumo di materia prima, di diminuire il costo dei manufatti e quindi di diminuire l’impatto economico ed ambientale di questi manufatti. Naturalmente, riutilizzare i manufatti ritarda ma non risolve il problema dell’eliminazione finale dei rifiuti. 1.2 RIUSO DEL MATERIALE ATTRAVERSO SUCCESSIVE RILAVORAZIONI Per riuso del materiale intenderemo l’utilizzazione del materiale attraverso varie operazioni di lavorazione per produrre nuovi manufatti. Il materiale così riciclato è chiamato materia seconda. In genere le lavorazioni che conducono alla materia seconda consistono in operazioni di lavaggio, separazione, triturazione, lavorazione a caldo e trasformazione. Naturalmente, queste operazioni dipendono dal tipo di materiale e variazioni a questa sequenza di operazioni sono possibili in dipendenza del materiale e del manufatto da produrre. Esempi: da carrozzerie di automobili si ottiene banda stagnata o travi, etc. Da bottiglie in PET per bevande si ottengono fibre per tessuti. 1.3 RIUSO DEL MATERIALE PER ALTRE LAVORAZIONI O UTILIZZI In questa categoria intenderemo quella tipologia di riciclo che permette di riottenere della materia seconda, come nel caso precedente, ma che non è la stessa del materiale di provenienza. Come vedremo nel seguito, questo tipo di riciclo può fondamentalmente essere usato per le materie plastiche. Infatti, processi di depolimerizzazione possono portare alla produzione di monomeri (con cui produrre nuovi polimeri) o di altri prodotti chimici. Esempio: da lastre in polimetilmetacrilato si ottiene per depolimerizzazione il metilmetacrilato con cui riottenere lo stesso polimero. 1.4 RECUPERO ENERGETICO Tutte le precedenti operazioni permettono di utilizzare il contenuto di materia dei prodotti a fine vita; quando ciò risulti impossibile o economicamente svantaggioso, la combustione dei rifiuti può permettere il recupero del loro contenuto energetico. Il processo risulta economicamente valido per materiali con elevato contenuto energetico come molte materie plastiche. 2. MATERIALI riciclabilità intendiamo la capacità di un materiale di potersi rilavorare facilmente con produzione di materie seconde con proprietà molto simili o addirittura identiche a quelle dello stesso materiale vergine. Lo stesso materiale, polietilene per contenitori per liquidi e per pannolini, è nel primo caso riciclabile e nel secondo praticamente non riciclabile proprio perché sporco! Naturalmente il riciclo del materiale è possibile solo se a monte c’è stata una raccolta differenziata che ha separato i vari materiali in frazioni omogenee. Infine, particolarmente importanti sono le operazioni di preparazione al processo di riciclo. Per esempio, la pulizia dei manufatti, la triturazione, la separazione di altri materiali inquinanti, etc precedono sempre l’operazione fondamentale che è costituita, per esempio, dalla fusione e lavorazione a caldo. 2.1 METALLI I metalli sono facilmente riciclabili perché fondendoli si ottengono semilavorati che, dopo opportuna lavorazione, si possono trasformare in prodotti di qualunque tipo le cui caratteristiche sono identiche a quelli ottenuti con materiale vergine. Naturalmente, per i metalli non sono attuabili altri metodi di riciclo. Questo riciclo, che chiameremo “riciclo meccanico”, risulta facile per i metalli perché la struttura e le caratteristiche non variano con la lavorazione né con l’uso e fenomeni come la corrosione sono essenzialmente superficiali. Una volta eliminato lo strato ossidato non si osserva nessun peggioramento delle proprietà del metallo. Acciaio, bande stagnate, rame sono i metalli più frequentemente incontrati nei rifiuti civili ed industriali. 2.2 VETRO I materiali vetrosi presentano composizioni chimiche diverse dato che bottiglie ed altri manufatti sono prodotti con miscele di diversi silicati. Ciò dovrebbe comportare una certa difficoltà nel riciclo meccanico. Infatti, la miscela di diversi composti chimici potrebbe portare ad una certa immiscibilità e quindi a materiali dalla difficile lavorabilità e dalle scadenti caratteristiche. In effetti ciò non avviene e quindi il riciclo meccanico di manufatti in vetro risulta relativamente facile. Le materie seconde possono essere rilavorate con le stesse tecnologie utilizzate per le materie prime vergini per produrre la stessa tipologia di oggetti. 2.3 CARTA La carta viene comunemente considerata un materiale biodegradabile, ma anche facilmente riciclabile. In realtà, la cinetica di biodegradazione è abbastanza veloce solo in presenza di favorevoli condizioni esterne (umidità, temperatura, ossigeno, etc). Il riciclo della carta produce una materia seconda di qualità inferiore al materiale vergine, in particolare è meno bianca. Il processo di sbianca è, però, particolarmente inquinante per l’ambiente perché implica l’uso di notevoli quantità di soluzioni acide. Come detto precedentemente, le tecnologie di riciclo dipendono anche dal tipo e dalle caratteristiche del materiale stesso. I materiali più frequentemente trovati nei rifiuti industriali e civili sono: carta, metalli (soprattutto banda di ferro stagnata e rame), vetro e materie plastiche. Questi materiali hanno natura chimica, strutture, caratteristiche e quindi “riciclabilità” molto diverse fra di loro. Con 144 145 2.4 MATERIE PLASTICHE Il riciclo di materie plastiche risulta certamente più complicato di quello di altri materiali per due motivi fondamentali: le materie plastiche si deteriorano anche a livello strutturale durante l’uso e durante le lavorazioni ed esistono molti diversi polimeri commerciali che non possono essere lavorati insieme perché immiscibili. Per questi motivi – che saranno meglio dettagliati nel paragrafo successivo – il riciclo delle materie plastiche viene attualmente effettuato su frazioni omogenee (stesso polimero) e dà luogo a materie seconde con proprietà peggiori di quelle delle stesse materie vergini. 3. CONCETTI FONDAMENTALI DI RICICLO DI MATERIE PLASTICHE nellate di polimeri provenienti da rifiuti plastici differenziati. Di queste circa 300.000 ton sono state riciclate per ottenere materie seconde ed il resto incenerite con recupero energetico. I rifiuti di materie plastiche sono prevalentemente costituiti da poliolefine (≈61%), polistirene (≈13%), polivinilcloruro (≈7%) e polietilentereftalato (≈6%). Bisogna però considerare altre sorgenti potenziali di materie plastiche da riciclare come le fibre tessili, costituite prevalentemente da poliammidi, le materie plastiche da cablaggio e da agricoltura, costituite essenzialmente da poliolefine, e le plastiche provenienti dalle autovetture, costituite da elevate percentuali di poliuretani. Il riciclo e/o recupero di materiali è certamente crescente in questi ultimi anni. Nella tab.1 sono riportati i dati relativi agli imballaggi per tipologia di materiale negli anni 1998-2002. Nella stessa tabella viene riporta, per il 2002, la percentuale di materiale recuperato rispetto a quello immesso nel mercato dell’imballaggio. Le percentuali di recupero si avvicinano a quanto previsto dalle normative europee, tranne che per le materie plastiche. 3.1 INTRODUZIONE Tab.1. Rifiuti d’imballaggio avviati a recupero complessivo e percentuali di recupero complessivo dei rifiuti d’imballaggio immesso a consumo (2002) Il riciclo delle materie plastiche è sempre stato effettuato nell’ambito del recupero di sfridi industriali, ma si è sviluppato in maniera consistente a partire dalla metà degli anni settanta. Una delle cause di tale sviluppo è stata la crisi petrolifera e la conseguente scarsezza di resine polimeriche in un periodo in cui la domanda del mercato era in fortissima espansione. Proprio in quegli anni, il riciclo sembrò la sola soluzione per superare il problema della mancanza di materiali polimerici richiesti dal mercato. All’inizio degli anni ottanta le strategie cambiarono nuovamente. La fine della crisi petrolifera unitamente ad un forte sviluppo industriale portarono ad un costante e progressivo abbandono di gran parte delle tecnologie precedentemente sviluppate. Un rinnovato interesse per il riciclo delle materie plastiche si è sviluppato a partire dagli anni novanta a causa di un sempre crescente interesse del pubblico, e di conseguenza delle imprese, nei confronti di problematiche ambientali ed ecologiste. La plastica ha assunto in quegli anni la figura di materiale “ambientalmente indesiderabile” e si è esercitata una pressione sempre maggiore sui consumatori e sui governi per sviluppare e promuovere tutte quelle tecnologie legate al riciclo che consentivano la produzione di materie plastiche più “ambientalmente compatibili”. Questa nuova situazione ha avuto come risultato l’accumularsi di enormi quantità di materie plastiche e lo svilupparsi di una vera e propria industria del riciclo con crescenti interessi sia di ricerca che commerciali. Alla metà degli anni novanta la situazione è però ulteriormente cambiata. Una nuova recessione economica con la necessità di minimizzare i costi e massimizzare gli utili ha portato alla sottovalutazione delle problematiche ambientaliste. Appare chiaro quindi che lo sviluppo o una battuta d’arresto sul riciclo delle materie plastiche sarà sempre in qualche modo legato allo sviluppo economico ed all’alternarsi di periodi floridi a recessioni. A tutto questo bisogna naturalmente aggiungere l’effetto dell’aumento della popolazione, il miglioramento degli standard di vita, i consumi pro-capite oltre che la sempre maggiore diffusione tra la popolazione di una sensibilità ambientalista promossa fin dai primi gradi dell’istruzione obbligatoria. L’organizzazione per lo sviluppo economico e della cooperazione è formata da Austria, Australia, Belgio, Canada, Danimarca, Finlandia, Francia, Germania, Italia, Giappone, Olanda, Nuova Zelanda, Norvegia, Spagna, Svezia, Svizzera, Turchia e Stati Uniti. Queste nazioni producono un totale di circa 420 milioni di tonnellate di rifiuti solidi all’anno (fine anni ‘80). Se si assume che circa 8% è costituito da materiali polimerici, si arriva ad una quantità pari a circa 34 milioni di tonnellate per anno. La quantità totale di materie plastiche è prevista in forte aumento e la percentuale di materiali polimerici salirà fino a circa l’11%. In Italia nel 2000 sono state riciclate circa 520.000 ton- Il riciclo delle materie plastiche si può guardare sia da un punto di vista economico che da un punto di vista ambientale. Da un punto di vista economico esso rappresenta il recupero di valore presente in un prodotto che è già stato utilizzato. A seconde della frazione e della modalità di recupero di questo valore il riciclo può essere classificato, come sopra specificato, in: • riciclo meccanico • riciclo chimico • recupero energetico. 146 147 3.2 CLASSIFICAZIONE DEL RICICLO DI MATERIE PLASTICHE Nel primo caso si riesce a recuperare quasi interamente il valore del materiale. Si può suddividere in un riciclo primario ed uno secondario. Tipico esempio di riciclo meccanico primario è quello del recupero di materiale da pezzi difettosi o dalle materozze degli oggetti stampati. In generale questi sono granulati e rilavorati in miscela con materiale vergine. Anche se leggermente degradato, il materiale può essere utilizzato e lavorato per le stesse applicazioni e con le stesse modalità del materiale vergine. Nel riciclo meccanico secondario il materiale viene riutilizzato per manufatti che richiedono minori proprietà rispetto a quelle del materiale di partenza. Tipico esempio è costituito dall’uso di miscele di rifiuti di materie plastiche per la produzione di vasi per piante, arredi urbani, sacchi per immondizie, ecc.. Nel riciclo chimico i rifiuti sono convertiti in materie prime (monomeri) e recuperati ed utilizzati come tali. Il valore aggiunto per la conversione di essi in resina è completamente perso. Un tipico esempio di riciclo terziario è il recupero di stirene per pirolisi di polistirene. Infine, nel recupero energetico si ha meramente il recupero di energia per incenerimento dei rifiuti. 4. RICICLO MECCANICO • • • I principali problemi nel riciclo meccanico di materie plastiche sono: degradazione durante il periodo di utilizzo (fotoossidazione, degradazione sotto sforzo, ecc.) degradazione termomeccanica durante la rilavorazione incompatibilità tra i diversi polimeri. 4.1 DEGRADAZIONE Durante la lavorazione e la vita del manufatto in materiale polimerico, calore, sforzi meccanici e radiazioni ultraviolette possono profondamente cambiare la struttura e la morfologia del polimero. Lo schema generale della degradazione di un polimero (P) in presenza di ossigeno può essere schematizzata come segue: P-H → P· + H· P·+ O2 → P-O-O· P-O-O· + P-H → POOH + P· Sebbene la fotoossidazione e la degradazione termomeccanica possano causare differenti cambiamenti nella struttura dei materiali polimerici, è possibile schematizzare gli effetti di questi processi degradativi come qui di seguito riportato: • variazione del peso molecolare e della sua distribuzione • formazione di ramificazioni • formazione di composti ossigenati, insaturazioni, etc. Va sottolineato che la variazione del peso molecolare induce anche una variazione della cristallinità perché le molecole più corte sono più mobili e quindi possono più facilmente impacchettarsi nel reticolo cristallino. Il grado ed il tipo di degradazione dipendono dalle condizioni di lavorazione e dalla natura del polimero ma, naturalmente, tutti i cambiamenti subiti dalla struttura chimica causeranno variazioni delle proprietà del materiale. La gran parte delle operazioni di lavorazione utilizzano condizioni abbastanza delicate e polimeri con peso molecolare moderatamente elevato: in queste condizioni quindi i fenomeni degradativi sono relativamente modesti. Ciò nondimeno, condizioni di lavorazioni più severe o ripetute lavorazioni possono causare variazioni significative nelle caratteristiche del polimero. Le considerazioni fatte -diminuzione del peso molecolare e riduzione delle proprietà meccaniche rispetto al materiale vergine- suggeriscono che in molti casi la “materia seconda” non può essere utilizzata per le stesse operazioni di lavorazione eseguite sul materiale vergine né per lo stesso tipo di prodotto finale, ma il suo uso è consentito solo per lavorazioni in cui è richiesta una bassa viscosità e ridotte proprietà meccaniche. La vita del polimero può essere così estesa attraverso il riciclo, ma le applicazioni cambieranno, così come illustrato nello schema seguente dove sono riportati le diverse fasi del riciclo di PET da bottiglie: Per quanto riguarda i primi due punti, questi sono comuni a tutte le materie plastiche. Infatti, questi materiali subiscono la rottura delle macromolecole se sono sottoposti a sforzi esterni come calore, sforzo meccanico, radiazioni ultraviolette, ma anche durante la lavorazione. Infatti, alle alte temperature di lavorazione le macromolecole possono rompersi e diminuire il loro peso molecolare. L’ultimo punto, invece, va preso in considerazione soltanto quando la plastica da riciclare è costituita da un miscuglio di diversi polimeri. Altri problemi possono nascere da: • diversi punti di fusione dei polimeri presenti nel miscuglio • diverse forma e dimensione dei materiali. La degradazione durante il periodo di vita è prevalentemente causata da processi fotoossidativi. I cambiamenti nella struttura dei polimeri sono del tutto simili a quelli provocati dalla degradazione termomeccanica che avviene durante le lavorazioni allo stato fuso. La presenza di diversi materiali polimerici può aumentare notevolmente la difficoltà dell’operazione di riciclo. In particolare, diversi punti di fusione possono causare la degradazione di alcuni componenti della miscela, mentre l’incompatibilità tra le diverse fasi può dar luogo a materiali con scadenti caratteristiche finali. Naturalmente, mentre la degradazione è presente in tutte le operazioni di riciclo, l’incompatibilità rappresenta un problema solo nel caso di riciclo eterogeneo, cioè nel caso di riciclo di miscele di materie plastiche. Il riciclo omogeneo può essere considerato un’operazione di lavorazione effettuata su polimeri già parzialmente degradati o che comunque sono facilmente degradabili duranti la rilavorazione, mentre il riciclo eterogeneo può essere considerato come la lavorazione di miscele incompatibili i cui componenti sono inclini alla degradazione. E’ ben noto che soltanto poche coppie di polimeri sono compatibili. Inoltre, il concetto di compatibilità è di per sé difficile da definire e quantificare. Sebbene non sia del tutto corretto, per i nostri scopi possiamo definire la compatibilità sulla base di curve proprietà-composizione, dove per proprietà si intendono tutte le caratteristiche macroscopiche del materiale come le proprietà meccaniche, reologiche, etc. 148 149 VARIAZIONE DELLE APPLICAZIONI NEL RICICLO DI PET PET vergine → bottiglie per bevande → fibre (o altri prodotti) → bottiglie non per alimenti → altri prodotti (stampaggio ad iniezione) → incenerimento 4.2 MISCELE POLIMERICHE La ristabilizzazione dei polimeri riciclati va effettuata non solo per proteggere i materiali durante la lavorazione ma anche per salvaguardarli durante l’applicazione finale se il manufatto “vivrà all’aperto”. Per esempio, composti fenolici o ammine impedite riducono notevolmente la degradazione termica e fotoossidativa di poliolefine (polietilene e polipropilene) e poliesteri (PET, per esempio). 4.3.2 Compatibilizzazione Come già discusso, le miscele polimeriche mostrano in generale scadenti proprietà meccaniche a causa della mancanza di adesione tra le fasi polimeriche causata dall’incompatibilità tra i differenti polimeri. Per migliorare l’adesione, e cioè per compatibilizzare le miscele, bisogna essenzialmente abbassare la tensione interfacciale fra le due fasi in quanto valori diversi della tensione superficiale tendono ad allontanarle. Si possono principalmente usare due metodi: • legami fisici tra le fasi • legami chimici tra le fasi Fig. 1 Andamenti tipici di curve proprietà – composizione di miscele polimeriche In Fig. 1 sono riportati gli andamenti qualitativi delle curve proprietà-composizione per miscele compatibili, semicompatibili (parzialmente compatibili) o incompatibili. L’effetto sinergico (curve con il massimo) si può trovare soltanto in miscele con forti interazioni fra le due fasi. Al contrario, l’effetto antagonista è tipico di quelle coppie di polimeri con forti repulsioni (per esempio polimeri apolari/polimeri fortemente polari). Nella maggior parte dei casi le proprietà delle miscele sono intermedie rispetto a quelle dei due componenti (parzialmente compatibili o semicompatibili) sebbene la maggior parte di essi mostri valori più bassi di quelli attesi sulla base di una semplice regola additiva. Inoltre, per le stesse miscele non tutte le proprietà seguono lo stesso andamento. L’incompatibilità e gli effetti antagonisti possono esistere non solo nelle miscele di polimeri con differente natura chimica, ma anche nelle miscele di polimeri di natura chimica simile o addirittura uguale. Ciò accade ad esempio quando le miscele sono preparate dallo stesso polimero, vergine e riciclato. 4.3 STABILIZZAZIONE E COMPATIBILIZZAZIONE 4.3.1 Stabilizzazione La degradazione durante le operazioni di riciclo allo stato fuso può essere arrestata, o almeno ridotta, utilizzando opportuni stabilizzanti. Gli stabilizzanti aggiunti al polimero vergine, però, si consumano in seguito alle operazioni di lavorazione e durante la vita del polimero e quindi non esplicano alcuna azione nelle successive rilavorazioni né nell’eventuale successiva esposizione al sole. Molti composti sono stati preparati per la stabilizzazione durante la lavorazione e contro l’azione degradativa dei raggi ultravioletti. La struttura chimica degli stabilizzanti in realtà è il parametro più importante per una stabilizzazione efficace. Un buon sistema stabilizzante va studiato e preparato per ogni singolo polimero. Per questa ragione non tutti gli stabilizzanti che sono usati per i polimeri vergini sono utilizzabili anche per i polimeri riciclati. Nuove formulazioni di stabilizzanti e nuove composizioni di stabilizzanti già esistenti sono adesso studiate e alcuni buoni risultati sono stati ottenuti in alcuni sistemi riciclati. 150 Entrambe le modalità possono essere raggiunte per aggiunta di piccole quantità di un terzo componente alla miscela che agisce da agente legante tra le due fasi incompatibili. A seconda della struttura dei compatibilizzanti e dei componenti della miscela, il meccanismo di compatibilizzazione è diverso. Quando il composto macromolecolare è un copolimero costituito da unità monomeriche uguali o almeno compatibili con ciascuna fase, si creano dei legami fisici tra le fasi. Il copolimero è miscibile nelle due fasi e si crea così un legame tra i due polimeri completamente incompatibili. Compatibilizzazione fisica può essere chiamata anche quella che si ottiene quando un terzo componente è miscibile in una fase e abbassa la tensione interfacciale provocando legami fisici (per esempio ponti idrogeno) con le catene del secondo componente. Nel secondo caso il terzo componente è un polimero miscibile in una delle due fasi ed include gruppi funzionali innestati sulla catena principale. Tale componente è quindi miscibile in una delle due fasi polimeriche mentre i gruppi funzionali possono reagire con altri presenti nel secondo polimero della coppia da compatibilizzare dando quindi luogo alla formazione di legami chimici tra le due fasi. Quest’ultima modalità di creare legami tra le due fasi differenti può anche essere ottenuta inducendo reazioni chimiche tra le macromolecole delle diverse fasi durante la lavorazione e quindi anche durante il riciclo. Tale processo è chiamato “lavorazione reattiva” o “miscelazione reattiva” e il polimero compatibilizzante viene formato in situ. Ciò può accadere perché durante la lavorazione lo sforzo meccanico e la temperatura possono causare la rottura delle catene polimeriche con conseguente possibile reazione tra i differenti radicali. Naturalmente quest’ultimo sistema è molto interessante, ma non può essere applicato a tutte le coppie di polimeri ed inoltre è molto difficile controllare le reazioni durante la lavorazione. Infatti, i copolimeri formati in situ possono a loro volta essere degradati con conseguente diminuzione del peso molecolare e possono cambiare la loro struttura (non più copolimeri ad innesto ma copolimeri a blocchi o casuali) riducendo così drasticamente la loro capacità di agire come agenti compatibilizzanti. Esempi tipici di compatibilizzanti sono le poliolefine modificate con anidride maleica o acido acrilico che sono capaci di compatibilizzare miscele di poliolefine e poliammidi. 151 5. IMPIANTI PER IL RICICLO MECCANICO 5.2 MACCHINE PER IL RECUPERO DI SCARTI POLIMERICI ETEROGENEI 5.1 MACCHINE PER IL RECUPERO DI SCARTI DI PLASTICHE OMOGENEE In generale, le macchine per il recupero di scarti di plastiche omogenee sono composte di unità per: granulazione lavaggio estrusione/pellettizzazione La prima fase consiste nella riduzione in piccoli pezzi degli scarti che poi passano alla fase di lavaggio la cui severità dipende essenzialmente dalla tipologia dei rifiuti. Per esempio, il lavaggio è particolarmente difficile per i teloni da serra e quasi assente per film da imballaggio. Infine, questi materiali passano in un estrusore dove vengono fusi e trafilati attraverso una testa con foro circolare. Questo “spaghetto” viene tagliato una volta raffreddato e ridotto in piccoli cilindretti (pellettizzazione). Naturalmente, non tutti i processi di riciclo sono composti soltanto da queste unità fondamentali, così come non tutte le operazioni di riciclo richiedono la presenza necessaria di tutte le apparecchiature. In alcuni casi, ad esempio, la granulazione costituisce l’intero processo di recupero, mentre la parte estrusione/pellettizzazione è mancante in altre situazioni. Il recupero di fogli di polivinilcloruro (PVC) e di polistirene (PS) per termoformatura è un esempio del primo caso, mentre il riciclo del polietilentereftalato (PET) ha luogo essenzialmente tramite le fasi di lavaggio e granulazione. Infine tutte le unità sono presenti negli impianti di rigenerazione di PE (polietilene) e PP (polipropilene). Tra gli impianti per il riciclo di scarti polimerici omogenei, ce ne sono svariati con una tecnologia abbastanza consolidata. Tra questi ricordiamo i più importanti: • impianti per il riciclo di film di polietilene • impianti per il riciclo di bottiglie in PET Gli impianti per il riciclo di film di PE includono tutte le sezioni brevemente descritte prima e differiscono poco le une dalle altre, essenzialmente nella sezione di lavaggio ovviamente in dipendenza dal tipo di film (imballaggio o agricolo) da riciclo. Generalmente, questi impianti sono composti di una unità di granulazione, una o più unità di lavaggio e seccaggio, uno o due estrusori ed infine un pellettizzatore. La sistemazione di due estrusori in serie rende possibile l’ottenimento di materiali con una migliore qualità, migliore omogeneità e, a causa di maggiori filtrazioni nel fuso polimerico, con minore contenuto di particelle estranee ed infusibili. Gli impianti per il riciclo di bottiglie di PET, sono molto diversi da quelli per il recupero di film di PE dato che il corpo delle bottiglie va preventivamente separato dai più svariati materiali come etichette di carta, coppette di base in PE, tappi, ecc.. Dopo una o più sezioni di sminuzzamento e granulazione, i fiocchi così ottenuti sono lavati due volte per eliminare residui di carta, colla ecc.. I residui sono PET e occasionalmente alluminio delle coppette. Una susseguente operazione di flottazione consente di eliminare il PE (l’unico materiale meno denso dell’acqua) che viene seccato e riutilizzato. Quando necessario, PET ed alluminio sono separati in separatori elettrostatici ed il PET, pronto per la rilavorazione viene stoccato. Contrariamente all’impianto precedentemente descritto, lo stadio di estrusione è mancante ed il materiale non subisce severi fenomeni degradativi. I due esempi sopra descritti mostrano come sia impossibile avere un singolo impianto o una sola tecnologia per il riciclo. Al contrario, bisogna trovare il migliore modo di procedere per ogni singolo polimero aspirando alla massima produzione (in quantità e qualità) ed al minimo costo, riducendo per quanto possibile i processi degradativi a cui il materiale è soggetto. • • • 152 • • • Gli impianti per il recupero di scarti polimerici eterogenei sono costituiti da tre fasi fondamentali: granulazione lavaggio lavorazione Diversamente dagli impianti per il recupero di scarti polimerici omogenei, questi non hanno gli stadi di estrusione e pellettizzazione. Infatti, come precedentemente ricordato, i materiali ottenuti dal recupero di scarti di questo tipo, hanno scadenti proprietà meccaniche quindi un processo di riciclo simile a quello descritto per le plastiche omogenee non sarebbe conveniente da un punto di vista economico. In questi casi gli articoli devono essere prodotti direttamente durante l’operazione di riciclo. Generalmente parlando, si producono oggetti di grosse dimensioni che non sono soggetti a forti sforzi durante l’utilizzo (bobine, pali, steccati, vasi, aiuole, ecc.). Mentre la granulazione e il lavaggio sono operazioni abbastanza simili a quelle precedentemente descritte, per la lavorazione si utilizza un’apparecchiatura completamente differente. Essa consiste in un estrusore che fonde e trasporta la miscela polimerica verso lo stampo posto a valle. Una nuova tecnologia per il riciclo di scarti polimerici eterogenei (Newplast) recentemente presentata, si basa sulla cosiddetta “omomicronizzazione”, un processo di profonda microomogeneizzazione che consente di trasformare differenti polimeri in un amalgama solido con buone proprietà fisiche. La plastica miscelata può essere riciclata senza nessun compatibilizzante dando luogo a materiali secondari lavorabili nelle convenzionali apparecchiature e con buone proprietà meccaniche. Durante la severa miscelazione in questo dispositivo, lo sforzo termomeccanico causa un qualche tipo di legame tra le differenti fasi polimeriche. 6. RICICLO CHIMICO Il riciclo con recupero di intermedi chimici (detto anche riciclo terziario o chimico) è concettualmente la forma di riciclo più corretta in quanto in teoria consente di chiudere il ciclo [monomeri ⇒ produzione di polimeri ⇒ trasformazione in oggetti ⇒ uso ⇒ raccolta ⇒ riciclo con produzione di monomeri ⇒] Complessivamente si otterrebbero diversi risultati vantaggiosi consumando solo energia; si provvederebbe allo smaltimento di rifiuti e si otterrebbero nuovi materiali vergini risparmiando risorse (petrolio) altrimenti necessarie per la produzione di monomeri. Il principale problema per l’impiego di un tale processo di riciclo è economico, dovuto al fatto che sono richiesti forti investimenti per gli impianti e considerevoli costi di gestione (in particolare per energia). Una riduzione di costi si potrebbe avere con un aumento delle potenzialità degli impianti, ma in questo caso si introdurrebbero problemi legati alla possibilità di raccogliere e conferire allo stabilimento un prodotto di qualità elevata, in grande quantità e in modo costante. A questo si aggiunga che processi di riciclo chimico possono attualmente essere applicati solo a pochi tipi di materiali (PET, poliuretani, poliammidi ecc.). Un esempio industrializzabile di riciclo chimico è quello del PET. La struttura chimica del PET 153 ha caratteristiche tali da consentire reazioni che portano ad una frammentazione delle molecole del PET originale con formazione di un numero limitato di specie chimiche di basso peso molecolare e facilmente. A tale scopo il PET può essere fatto reagire con acqua (idrolisi), I possibili problemi che possono nascere dalla combustione di manufatti plastici post-consumo dipendono fondamentalmente dalla emissione di inquinanti. Inquinanti che possono essere “intrinseci” alla natura chimica del polimero (acido cloridrico che si libera dalla combustione del PVC) o dovuti alla presenza di sostanze come additivi, pesticidi, etc. Problemi che, però, sono in genere superabili con le attuali tecnologie, se gli impianti di combustione sono ben gestiti. Restano invece i problemi legati alla possibilità di avere un flusso quantitativamente elevato e costante e soprattutto, i problemi connessi con i costi di raccolta e trasporto dei rifiuti plastici. Infatti, questi grandi impianti possono lavorare in modo economicamente conveniente solo se alimentati con grandi e costanti quantità di polimeri 8. CONCLUSIONI con metanolo (metanolisi), Lo smaltimento dei materiali post-consumo deve preferibilmente avvenire attraverso il riciclo per il recupero di materia o attraverso il recupero energetico. La messa in discarica, oltre che creare problemi ambientali, è costosa e fa perdere il contenuto di materia ed energia dei manufatti a fine vita. Il riciclo, quindi, non è solo un dovere ambientale, ma anche una necessità economica. La possibilità effettiva di riciclare oggetti con una delle metodologie precedentemente illustrate dipende dal materiale, dal tipo di raccolta, da considerazioni tecniche ed economiche. Metalli, carta e vetro sono, a diversi livelli, relativamente facili da riciclare, mentre più problemi pongono le materie plastiche. Tuttavia, anche questi materiali sono in gran parte riciclabili ed in ogni caso la combustione può risolvere i problemi dello smaltimento senza la massiccia messa in discarica, costosa ed ecologicamente pericolosa. con glicole etilico o con altri glicoli (glicolisi) I monomeri recuperati in questo modo possono poi essere nuovamente impiegati per la produzione di PET vergine o di altri poliesteri. Un vantaggio di questo processo consiste nel fatto che esso tollera l’impiego di PET con percentuali di alcuni contaminanti maggiori, che possono essere eliminati in una delle varie fasi del processo. Tra le diverse possibili reazioni, la metanolisi è quella che al momento sembra riscuotere il maggiore successo perché relativamente più semplice dell’idrolisi e, rispetto alla glicolisi con etilen glicole, può consentire di produrre nuovo PET adatto per usi alimentari in quanto garantisce di evitare accumuli di residui catalitici. La glicolisi eseguita con altri glicoli è impiegata per produrre polioli per poliuretani (dietilenglicole) o poliesteri insaturi (propilen glicole). I principali svantaggi derivanti da un riciclo chimico sono di natura economica, in quanto per la sua realizzazione sono richiesti grossi investimenti e per avere un ritorno economicamente conveniente sono necessari impianti di potenzialità relativamente alta e considerevoli consumi energetici. BIBLIOGRAFIA La combustione dei materiali polimerici, oltre alla quasi completa eliminazione dei rifiuti, permette lo sfruttamento del contenuto energetico di questi materiali. Considerando che i polimeri sono nella maggior parte derivati dal petrolio costituiti da carbonio ed idrogeno, è facile capire che il loro contenuto energetico è notevole. Bruciare 1 Kg di polietilene equivale a bruciare circa 2 Kg di petrolio. Benché altri polimeri (per esempio i poliesteri e le poliammidi) presentino un potere calorifico minore, anche la loro combustione può portare ad un considerevole risparmio energetico. 1. F.P. LA MANTIA, “Different approaches to the environmental impact of plastic materials” 1996 Mediterintec, 5-9 Novembre 2. F.P. LA MANTIA “Tecniche e problematiche nel riciclo dei materiali plastici” 1990 Macplas, Marzo, p.67 3. G. PEZZIN, C. CAMINO, F.P. LA MANTIA, P. MALTESE, F. PILATI, 1990 “Le Materie Plastiche e l’Ambiente” Grafis Edizioni, Bologna 4. F.P. LA MANTIA, 1991 “Riciclo di rifiuti plastici: tecnologie attuali, prospettive, ricerca” Ambiente Risorse Salute, Maggio p. 13 5. R.J. EHRIG, ed., “Plastics Recycling” 1992 Hanser, Munchen, 6. F.P. LA MANTIA, ed, 1993 “Plastic Materials Recycling” ChemTec, Toronto 7. F.P. LA MANTIA, 1995 “Il Riciclo di Materie Plastiche” Plastiservice, Milano 8. F.P. LA MANTIA, ed, 1996 “ Recycling of PVC and Mixed Plastics” ChemTec, Toronto 9. J. BRANDRUP, M. BITTNER, W. MICHAELI and G. MENGES, eds., 1996 “Recycling and Recovery of Plastics”, Hanser, Munchen, 10. J. SCHEIRS, “Polymer Recycling”, 1998 John Wiley & Sons Ltd., England 1998 11. G. AKOVALI, C. A. BERANARDO, J. LEIDNER, L. A. UTRACKI and M. Xanthos, eds., 1998 “Fondaments in the Science and Tecnology of Polymer Recycling”, Kluwer Academic Pubblishers, The Netherlands, 154 155 7. RECUPERO ENERGETICO 12. F.P LA MANTIA, ed, 2002 “Handbook of Polymer Recycling” RAPRA 13. F.P. LA MANTIA, R. SCAFFARO “Riciclo di Materie Plastiche” in Sergio Bruckner, G. Allegra, M. Pegoraro; F.P. La Mantia 2002, “Scienza e Tecnologia dei Materiali Polimerici” EdiSES, Napoli 14. www.sinanet.anpa.it RIDUZIONE DELLE EMISSIONI E DEI RIFIUTI NELLA PRODUZIONE DI ENERGIA E NELL’INDUSTRIA CHIMICA MICHELE ARESTA, ANGELA DIBENEDETTO 1. INTRODUZIONE Chimica verde, processi puliti, chimica sostenibile: diversi modi per esprimere un’unica necessità: ridurre le emissioni e la produzione di rifiuti anche nel settore chimico, come negli altri settori industriali (industria della produzione di energia, industria elettronica, industria tessile, industria meccanica, industria dei servizi, trattamento dei rifiuti) considerati a più elevato impatto ambientale. 1.1 PRODUZIONE DI ENERGIA ELETTRICA DA COMBUSTIBILI A BASE DI CARBONIO Prima di affrontare il tema del ruolo della catalisi nella innovazione della industria chimica, mi pare opportuno commentare lo stato dell’arte della produzione di energia elettrica. Tutti i processi chimici utilizzano energia e la quantificazione delle emissioni legate alla produzione di una qualsiasi specie chimica non può prescindere dal considerare le emissioni associate alla quantità di energia utilizzata. Da queste considerazioni preliminari appare chiaro che la minimizzazione del consumo di energia è uno dei punti chiave della innovazione della industria chimica per raggiungere la condizione di “emissione zero” spesso “reclamizzata” come caratteristica di un processo. Ma c’è da chiedersi se tale condizione sia realizzabile. In realtà, la condizione di “emissione zero”, che nei processi chimici significa resa e selettività del 100% in ogni stadio di una sintesi, non sono realizzabili, ma solo più o meno approssimabili. Come esempio di quanto sia possibile approssimare la condizione di “emissione zero” considero la combustione del metano. (Schema 1) Reazione globale Iniziazione CH4 + 2 O2 → CO2 + 2H2O CH4 + •OH → CH3• + H2O ∆H298K = 192 kcal/mol log k ≅ 33 a 1270 K Schema 1 Entalpia della combustione del metano 156 157 La reazione è fortemente esotermica, il che significa che essa è fortemente spostata a destra. Essendo la reazione cineticamente favorita si realizza la condizione ideale per una reazione completa. Dai dati termodinamici è possibile calcolare che, in teoria, dovrebbe residuare una molecola di metano per 1033 molecole di diossido di carbonio formate, o circa 3 molecole in 10 Mmc di aria. Se si considera quello che è il limite di emissione di metano dalle auto alimentate con gas metano oggi accettato per normativa, che ammette una combustione con conversione pari a 99.9999, non sempre raggiunto, si può calcolare che tra teoria e pratica esiste un fattore di separazione pari a 1027. In realtà, quindi, si è molto lontani dalla condizione di “emissione zero”: pur essendo la reazione di combustione del metano teoricamente un processo molto pulito, in pratica la tecnologia esistente non consente di raggiungere il limite teorico, lasciando aperto il problema del controllo della emissione di metano incombusto. Sia il diossido di carbonio che il metano sono “gas serra”, (Schema 2) ossia gas che amplificano l’effetto serra naturale e la loro emissione deve essere tenuta sotto controllo [1-6], così come concordato con il Protocollo di Kyoto. Emissione di CO2 nella produzione di energia elettrica Emissione di CO2 • Ruolo delle tecnologie innovative • • Fuel shift: passando dall’uso del carbone a quello del LNG (Gas liquido naturale) si riduce a metà la quantità di diossido di carbonio emessa per kWh di energia prodotta. (Schema 3) Tecnologie esistenti ηconv = 28-32%! 70% calore emesso in atmosfera • Carbone polverizzato Ciclo combinato Recupero di calore Produzione di vapore η = 40 %! • IGCC Schema 2 Lista di gas serra e loro origine La emissione di diossido di carbonio ammonta oggi a quasi 27.6 Gt di CO2 per anno ed il 36% deriva dalla produzione di energia elettrica da combustibili a base di carbonio (26% dai processi industriali, 30% dai trasporti, 10% dal riscaldamento). Pertanto, la produzione di energia e l’industria, che emettono il 60% del diossido di carbonio, sono fonti continue e localizzate e quindi esse vengono considerate in via prioritaria per la riduzione di CO2. Le tecnologie di riduzione della emissione possono essere distinte in diverse categorie: kg/kwh kg/kwh kg/kwh Aumento della efficienza nella produzione di energia elettrica (Schema 4): passando dalle attuali tecnologie alla IGCC (Integrated Gasification Combined Cycle ossia Gasificazione del carbone a dare H2 ed utilizzo di questo come combustibile in un ciclo combinato con recupero di calore per la produzione di energia elettrica) si può aumentare l’efficienza dal 28-32% al 52%, con una sensibile riduzione della emissione di CO2. Inoltre la IGCC presenta una reazione di combustione molto pulita senza emissione di altri inquinanti, se si usa ossigeno come comburente, invece di aria. CO2, CH4, N2O, CFC, O3, SF6 Produzione di energia Uso propellenti Attività agricole Attività industriali Trasporto 1 0.7 0.5 Schema 3 Emissione di diossido di carbonio (uno dei gas serra) nella produzione di energia elettrica, utilizzando coke, petrolio o gas. Gas Serra Origine: Coke Olio Gas Integrated Gasification Combined Cycle η = 52 %! C + H2O CO + H2O C + 2H2O → → → Separazione H2 + 1/2 O2 CO + H2 CO2 + H2 CO2 + 2H2 reazione globale H2/CO2 → H2O + Q combustione pulita Schema 4 Efficienza (η) di conversione di energia chimica in energia elettrica con diverse tecnologie 158 159 • Separazione del diossido di carbonio dai gas di combustione ed eliminazione in campi naturali (pozzi esausti di estrazione di LNG o petrolio, ovvero in acquiferi). Questa tecnologia, molto innovativa, è già adottata da compagnie che estraggono LNG: dopo separazione del CO2 dal metano, il CO2 è iniettato nei pozzi esausti. La separazione si effettua con ammine o con membrane semipermeabili. La innovazione tecnologica può consentire di dare una soluzione ai problemi ambientali legati alla produzione di energia, non solo per il controllo della emissione di gas serra, ma anche nella riduzione di gas che generano “piogge acide”. Lo Schema 5 mostra che, quantunque il gas naturale non contenga sostanze organiche solforate o azotate, tuttavia produce ossidi di azoto nella combustione, chiarendo che l’origine di questi è l’aria utilizzata per alimentare la combustione, piuttosto che le sostanze organiche azotate presenti nel combustibile. Abbattimento SOx, NOx • End of pipe 3 NO + 2 NH3 → Volume dei gas da trattare è grande → 5/2 N2 + 3 H2O • Durante la combustione → SO2 + CaCO3 CaSO3 + 1/2 O2 → CaSO3 + CO2 CaSO4 Riduzione della disponibilità di energia elettrica efficace: 8-12% Gas che generano “piogge acide” Schema 6 Tecnologie di abbattimento di NOx e SOx. SOx, NOx Carbone Gasolio Gas Origine NOx Contiene → S, N → S → → → → → Emissione nella combustione SOx, NOx SOx, NOx NOx Aria Schema 5: Emissione di SOx ed NOx nel corso della combustione dei combustibili. L’origine dell’NOx è essenzialmente l’azoto presente nell’aria, e solo in minima parte il combustibile. E’ opportuno evidenziare che il trattamento dei gas “end of pipe” (fine processo ossia dopo la combustione) comporta la necessità di dover trattare volumi molto grandi di gas, costituiti essenzialmente da azoto (circa 75%). Esistono alternative alle attuali tecnologie. La emissione di ossidi di azoto può quasi totalmente essere tagliata se si usa ossigeno invece di aria nella combustione, il che richiede la separazione di ossigeno ed azoto a monte della combustione, mediante distillazione dell’aria liquida o utilizzando membrane. Utilizzando ossigeno puro come comburente, si può utilizzare una parte del diossido di carbonio come diluente inerte. La valutazione economica della tecnologia deve comprendere i benefici ambientali derivati dalla sua implementazione. Per quanto concerne l’abbattimento di ossidi di zolfo l’approccio più efficace sta nella desolforazione dei combustibili (Schema 7), che deve essere applicata solo a carbone e gasolio, essendo il gas naturale privo di sostanze solforate non separabili. L’abbattimento di NOx ed SOx richiede tecnologie diverse (Schema 6) che riducono la quantità di energia elettrica efficace prodotta. Infatti, parte di essa viene utilizzata nei processi di separazione/abbattimento degli inquinanti. 160 161 Desolforazione di combustibili Combustibile • Gasolio Processo HDS Hydrodesulphurization (Idrodesolforazione) H2 + “S-organico” cat → H2S + C-organico H2S + 1/2O2 → H2O + 1/8 S8 • Carbone S2- + 4 H2O SRB → → Sulphate reducing bacteria (Batteri che riducono il solfato) SO4= + 8e- + 8H+ Schema 7 Tecniche di desolforazione di combustibile liquido o solido Un diverso approccio deve essere usato per i due combustibili: il trattamento del carbone con batteri solfato riducenti è molto più indicato di ogni altra tecnologia basata sull’uso di catalizzatori, tecnologia che può invece essere vantaggiosamente usata per la idrodesolforazione di gasolio. Quanto sin qui detto indica che esistono tecnologie che possono limitare l’impatto ambientale di attività industriali: la loro effettiva utilizzazione può dipendere da fattori economici, dal costo della costruzione degli impianti o dai costi di gestione, dalla esistenza di condizioni naturali che consentano la utilizzazione della tecnologia: per esempio, la eliminazione del diossido di carbonio recuperato richiede l’esistenza di campi naturali adatti per la sua eliminazione. D’altro canto, è evidente che solo il supporto della normativa può rendere possibile la attivazione di circuiti nei quali la innovazione diventi il motore del cambiamento. In qualche caso, infatti, opportune tasse ambientali finalizzate alla protezione dei sistemi naturali hanno promosso l’introduzione di tecnologie innovative che hanno effetti positivi sull’ambiente. Per esempio, la “carbon tax” è stata la molla che ha consentito la utilizzazione della tecnologia del recupero del diossido di carbonio da LNG estratto e della sua reimmissione in pozzi esausti evitando l’immissione in atmosfera. Pertanto, la riduzione dell’impatto ambientale delle attività industriali richiede, accanto allo sviluppo di tecnologie innovative a basso impatto ambientale, anche la realizzazione delle opportune condizioni normative e politiche per la loro applicazione. 2. EMISSIONI NELL’INDUSTRIA CHIMICA Verso processi puliti Vecchio approccio basato su uso di: • Metalli pesanti • Reazioni di sostituzione • Acidi e basi • Reagenti Friedel-Craft • Solventi organici • Prodotti alogenati • Alto consumo energia → → → → → → → Effetti: Nuovi concetti: Rifiuti tossici Sottoprodotti Sali Residui tossici Emissioni, rifiuti Rifiuti tossici Emissioni Nuovi catalizzatori Processi diretti Economia di atomi Alta selettività Solvent shift Ossidazioni con ossigeno Basso consumo di energia Schema 8 Cambiamenti in atto nell’industria chimica La produzione di rifiuti nella sintesi chimica dipende dalla complessità della sintesi e del prodotto: maggiore è la complessità molecolare, più numerosi sono gli step di reazione, maggiore la produzione di rifiuti. Una sintesi che abbia una resa del 90% appare già come molto buona, ma se un prodotto viene sintetizzato attraverso dieci passaggi, anche se ognuno di essi presenta una resa del 90%, alla fine si ha un rapporto rifiuti/prodotto = 2: questo rapporto è detto “fattore di emissione”. Il “fattore di emissione”, Ef, è, quindi, proporzionale alla complessità del processo o del prodotto come indicato nella Tabella 1. Il mercato (tonnellate per anno, t/a) dei prodotti chimici è anche in qualche modo legato alla complessità molecolare, ma in modo inverso: prodotti a maggiore complessità molecolare hanno un mercato più limitato. Tabella 1 Fattore di emissione per diversi prodotti dell’Industria Chimica. Fattore di emissione Industria/Prodotto Mercato, t/a Ef Combustibili liquidi ≈ 109 <0.1 Chimica di base > 106 1-5 Chimica fine 104-105 5-20 Farmaceutica 103-104 25-100 L’Industria Chimica, anche se all’esterno può non apparire evidente, da lungo tempo realizza una politica di innovazione di processo, di recupero e riciclo di fatto di prodotti. (Schema 8) Non meraviglia, quindi, che i prodotti dell’industria farmaceutica, che non solo hanno una notevole complessità molecolare ma possono presentare anche particolari requisiti di stereochimica, siano quelli che presentano il più elevato fattore di emissione (anche 100, cioè cento chili di rifiuti per chilo di prodotto!). Mi pare opportuno dare qualche esempio di come sia stato e sia possibile migliorare un processo. Prenderò in considerazione prodotti che abbiano un mercato superiore ad un Mt (milioni di tonnellate) per anno. 162 163 2.1 ACIDO ACETICO 2.2 OSSIDO DI ETILENE L’acido acetico è stato sintetizzato sino dagli inizi del 1800 mediante ossidazione dell’alcool etilico ottenuto per fermentazione alcolica dello zucchero. (Schema 9) Successivamente, a causa dell’aumentata richiesta di mercato, è stata sviluppata una via chimica basata sull’ossidazione del butano che, però, presenta un basso rendimento in termine di atomi: infatti, due atomi di carbonio su quattro sono perduti. Questo processo è caratterizzato da una bassa “economia di atomi”. Negli anni ’80 sono stati sviluppati e realizzati industrialmente processi ad alta economia di atomi (totale utilizzazione) come il processo Monsanto che usa un catalizzatore di Rh per la conversione del metanolo. Altri processi ad alta economia di atomi sono basati sull’ossidazione dell’etilene. Il processo ideale è la reazione di metano e diossido di carbonio, processo che in natura avviene spesso in verso opposto catalizzato da batteri metanogeni che convertono l’acido acetico in metano e CO2. Esistono evidenze della possibilità di realizzare per via chimica la sintesi di acido acetico da metano e diossido di carbonio con catalizzatori a base di Ti, o con plasmi a bassa temperatura, ma la resa è ancora molto bassa; come mostrato nello Schema 9 si passa quindi da processi che hanno un’efficienza del 50% in termini di atomi, ad un processo con il 100% di utilizzazione di atomi. L’ossido di etilene (Schema 10) è stato a lungo sintetizzato dalla cloridrina etilenica. Tale processo implica la sintesi e l’uso di cloro, il che comporta un elevato impatto ambientale. Come sottoprodotto della reazione si forma dicloroetano che, se recuperato, potrebbe essere utilizzato per la sintesi di cloruro di vinile, monomero del PVC. Ma tale recupero comporterebbe elevati costi di separazione e purificazione e pertanto, non viene realizzato. Ciò comporta la produzione di rifiuti alogenati che hanno un elevato impatto ambientale. La scoperta di catalizzatori di Ag capaci di ossidare l’etilene a dare il prodotto desiderato in un solo passaggio ha costituito un notevole progresso verso la riduzione dell’impatto ambientale. Ossido di etilene • Processo basato sulla cloridrina etilenica → C2H4 + Cl2 + H2O HOCH2CH2Cl CH3COOH ~ 10 Mt/a HOCH2CH2Cl + HCl → H2C CH2 + HCl O • Fermentazione alcolica ed ossidazione dell’alcool C6H12O6 → 2CH3CH2OH + 2CO2 1/2 O2 CH3CH2OH ⎯→ 1/2 CH3CHO ⎯→ O2 • Possibile reazione concomitante C2H4 + Cl2 CH3COOH • Sintesi industriale: ossidazione del butano O2 CH3CH2CH2CH3 ⎯⎯⎯⎯→ CH3COOH + CO2 Co(CH3COO)2 4C 2C ClCH2CH2Cl • Possibile recupero del dicloroetano ClCH2CH2Cl 50% del C è perduto • Sintesi innovative: conversione del metanolo, ossidazione di etene CH3OH + CO → CH3COOH C2H4 + 1/2 O2 → CH3CHO → CH3COOH C2H4 + O2 → CH3COOH • Processo naturale CH4 + CO2 ⎯→ CH3COOH ∆ ⎯→ ClCH=CH2 ⎯→ PVC • Processo innovativo C2H4 + 1/2 O → H2C CH2 O Schema 10 Comparazione di diverse vie sintetiche dell’ossido di etilene: l’ossidazione dell’etene può evitare perdita di atomi di carbonio 2.3 CAPROLATTAME Schema 9 Sintesi dell’acido acetico a confronto: si noti la diversa “economia di atomi” in termini di atomi di carbonio utilizzati e fissati nella molecola di acido acetico 164 Il caprolattame è un monomero utilizzato per la sintesi del Perlon (fibra). La sua sintesi è stata a lungo basata su un processo ad elevato fattore di emissione (Schema 11) che produceva 4.4 t di solfati non riciclabili per t di caprolattame. 165 Sintesi del Caprolattame 3 NH3 + 2 CO2 + 2 H2O = NH4HCO3 + (NH4)2CO3 2 NH3 + 3 O2 = NO + NO2 + 3 H2O NO NO2 + (NH4)2CO3 = 2 NH4NO2 + CO2 NH4NO2 + NH3 + 2 SO2 + H2O = HON(SO3NH4)2 Schema 13 Correlazione tra sintesi di carbonati, carbammati e isocianati: queste specie possono essere convertite le une nelle altre HON(SO3H4)2 + 2 H2O = NH2OH H2SO4 + (NH4)2SO4 Rifiuti: 4.4 t/t caprolattame Schema 11 Sintesi del caprolattame secondo un processo in disuso Tale processo è sostituito da un nuovo processo che praticamente non genera rifiuti (Schema 12) realizzato dopo la scoperta di un adatto catalizzatore. Se si considera la reazione di alcoli con CO2 come sostitutiva della reazione del fosgene con alcoli, si nota subito che il CO2 essendo molto meno reattivo del fosgene (∆Gf = -96.5 kcal/mol) richiede catalizzatori molto attivi rispetto al fosgene che non richiede alcun catalizzatore. Il dimetilcarbonato è un prodotto il cui mercato è in ampia espansione per l’utilizzo in molti settori dell’industria chimica. Esso è stato sintetizzato per lungo tempo dal fosgene (Schema 14). Dimetilcarbonato Sintesi del Caprolattame Processo ENIChem: non produce sali come sottoprodotti Processo basato sul fosgene COCl2 + CH3OH → ClCOOCH3 + CH3OH → Schema 12 Nuova sintesi del caprolattame che evita la produzione di sali di ammonio 2.4 CARBONATI ORGANICI [(RO)2CO], CARBAMMATI (RNHCOOR) E ISOCIANATI (RNCO) I carbonati organici [7-8], i carbammati [9-10] e gli isocianati rappresentano una classe di composti di notevole interesse industriale, vista l’ampia gamma di usi. I prodotti citati sono legati da una rete di reazioni [11] molto interessanti. (Schema 13). Sinora questi composti sono stati ottenuti dal fosgene, COCl2, una specie altamente tossica il cui uso non può essere esteso, anzi deve essere evitato. Le vie alternative necessitano lo sviluppo di nuovi catalizzatori che consentano di realizzare reazioni in condizioni di basso consumo di energia partendo da specie meno reattive del fosgene. 166 ClCOOCH3 (CH3O)2CO Processo ENIChem 2 CH3OH + CO + 1/2 O2 → (CH3O)2CO + H2O Nuovo processo basato sul CO2 2 CH3OH + CO2 → (CH3O)2CO + H2O Schema 14 Lo schema illustra i tre processi di produzione del dimetilcarbonato 167 Recentemente ENIChem ha messo a punto un processo di carbonilazione ossidativa del metanolo catalizzato da sali di Cu, che evita l’uso del fosgene. La sintesi del dimetilcarbonato da metanolo e CO2 porterebbe ad un ulteriore passo in avanti verso condizioni operative meno aggressive per gli impianti. Che la sostituzione del processo basato sull’uso del fosgene produca un beneficio ambientale è chiaramente dimostrato dall’applicazione della metodologia Life Cycle Assessment (LCA o Analisi del Ciclo di Vita) (Schema 15) [12-13] che dimostra che la via carbossilazione del metanolo ha un impatto ambientale di un ordine di grandezza più basso, anche perché ricicla CO2 che è un gas serra. Lo Schema 15 compara le emissioni (in ordinata) del processo di sintesi di DMC da fosgene (COCl2, Processo 1) con quelle dei processi di sintesi da urea (Processo 2) e da diossido di carbonio (Processo 3). COCl2 + 2 CH3OH = (CH3O)2CO + 2 HCl (Processo 1) (H2N)2CO + 2 CH3OH = (CH3O)2CO + 2 NH3 (Processo 2) 2 CH3OH + CO2 = (CH3O)2CO + H2O (Processo 3) 2.5 METANOLO La sintesi di metanolo è un altro caso esemplificativo molto interessante. (Schema 16) Sintesi del Metanolo • Processo naturale CH4 + 1/2 O2 → CH3OH • Processo industriale CH4 + H2O → CO + 3H2 CO + 2H2 → CH3OH • Approccio innovativo CO2 + 3 H2 → CH3OH + H2O Schema 16 Comparazione di tre processi per la sintesi di metanolo: il processo naturale è il più semplice. Il processo naturale di ossidazione selettiva del metano, peraltro non ripetuto in vitro, sarebbe l’approccio sintetico più desiderabile. In realtà ossidare selettivamente il metano è tanto difficile quanto facile è la ossidazione totale a dare diossido di carbonio (reazione che avviene nella combustione del metano). La via industriale di sintesi del metanolo è basata sull’uso di gas di sintesi (miscela di CO e H2), prodotto mediante reazione di carbone o metano con acqua ad elevata temperatura. C + H2O = CO + H2 (Water gas reaction, WGR, o reazione del gas d’acqua) CH4 + H2O = CO + 3 H2 (LNG steam reforming, conversione del metano con vapore d’acqua) Schema 15 Comparazione delle emissioni (in ordinata) per tre processi alternativi di sintesi del DMC Una via innovativa per la produzione del gas di sintesi è la reazione di diossido di carbonio con metano, una reazione di notevole interesse che converte due gas serra nella miscela CO-H2 (Syngas) utilizzata per la sintesi di metanolo e di idrocarburi: CO2 + CH4 = 2 CO + 2 H2 (methane dry reforming, conversione a secco del metano) La utilizzazione del CO2 come fonte di carbonio è una via oggi nota e percorribile che presenta un notevole vantaggio ambientale rispetto alle vie tradizionali, come mostrato nello Schema 17. Questa compara l’impatto ambientale delle emissioni (in ordinata, scala arbitraria) in funzione delle diverse possibili reazioni (1-4) di produzione del metanolo. Si nota che il più elevato impatto è generato dall’attuale tecnologia (1a) mentre l’impatto viene drasticamente ridotto se si usa CO2 di recupero come fonte di carbonio per il metanolo. 168 169 CONCLUSIONI 1a 1b 2 3 4i Syngas prodotto da LNG steam reforming senza recupero di calore Syngas prodotto da LNG steam reforming con recupero di calore LNG-SR Syngas (75%) e diossido di carbonio recuperato (25%) senza recupero di calore LNG-SR e LNG-DR con recupero di energia per la sintesi di metanolo Diossido di carbonio recuperato per reazione con H2 dall’acqua (energia fotovoltaica per splitting dell’acqua) 4ii Diossido di carbonio recuperato per reazione con H2 (energia nucleare per splitting dell’acqua). Schema 17 Comparazione dell’impatto ambientale di sei diverse metodologie di sintesi del metanolo 2.6 ACIDI AROMATICI DICARBOSSILICI L’ultimo esempio qui considerato (ce ne sarebbero molti altri) è dato dalla sintesi di acidi aromatici dicarbossilici. Tradizionalmente ottenuti per ossidazione non catalitica di naftaline, reazione caratterizzata da una bassa economia di atomi, essi possono essere sintetizzati in condizioni molto più vantaggiose per ossidazione di o-xilene (Schema 18). In questo capitolo sono considerate metodologie sintetiche e tecnologie di produzione di energia elettrica da combustibili fossili a base di carbonio. E’ stato evidenziato come l’innovazione tecnologica abbia un ruolo importante per realizzare processi sostenibili (a basso impatto ambientale e basso consumo energetico) e non necessariamente svantaggiosi dal punto di vista economico. In particolare le nuove tecnologie di produzione dell’energia elettrica consentono di ridurre l’emissione di CO2 e di altri gas ad elevato impatto ambientale, aumentando l’efficienza di conversione dell’energia chimica in energia elettrica. La loro introduzione comporta costi di investimento elevati, ma rappresenta l’unico modo per poter soddisfare i contenuti delle normative in materia di controllo delle emissioni. La innovazione di processo nell’industria chimica passa attraverso lo sviluppo di nuovi catalizzatori e nuovi processi che consentano di realizzare vie sintetiche più dirette, a basso impatto ambientale, con elevata efficienza di atomi, utilizzando specie non tossiche e realizzando, se possibile, un riciclo di carbonio. BIBLIOGRAFIA 1. M. ARESTA, G. FORTI, (Eds), Carbon Dioxide as a Source of Carbon, Elsevier Publ. 1987 2. M. ARESTA, J.V. SCHLOSS, (Eds), Enzymatic and Model Reaction for Carbon Dioxide Carboxylation and Reduction Reactions, Elsevier Publ. 1990. 3. M. ARESTA, Advances in Chemical Conversions for Mitigating Carbon Dioxide T. Anpo, M. Izui, K. Yanagida, S. Yamaguchi, (Eds), Elsevier Publ. 1998, p. 65. 4. ARESTA M., QUARANTA E. ChemTech, 1997, 32, 27. 5. ARESTA M., DIBENEDETTO A. ACS Book on “CO2 Conversion and Utilisation”, 2001 in corso di stampa 6. M. ARESTA, DIBENEDETTO A., I. TOMMASI Energy&Fuels, 2001, 15, 2, 269-273. 7. M. ARESTA, DIBENEDETTO A., I. TOMMASI Appl. Organomet. Chem., 2000, 14, 799-802. 8. M. ARESTA, A. DIBENEDETTO A. J. Mol. Catal. 2002 in corso di stampa. 9. M. ARESTA, A. DIBENEDETTO, E. QUARANTA, Tetrahedron, 1998, 54, 14145-14156 10. M. ARESTA, A. DIBENEDETTO, E. QUARANTA, Green Chemistry, 1999, 237-242. 11. M. ARESTA, La chimica e l’Industria, 1998, 80, 1051. 12. M. ARESTA, M. GALATOLA, Journal of Cleaner Production, 1999, vol. 7, 181. 13. M. ARESTA, A. CAROPPO, A. DIBENEDETTO, M. NARRACCI, ACS book on “Environmental Challenges and Greenhouse Gas Control for Fossil Fuel Utilization in the 21st Century” 2002 in corso di stampa. Schema 17 Economia di atomi per due diverse vie di sintesi di acidi di carbossilici. Nella ossidazione del naftalene vengono perduti due atomi di carbonio. Nell’ossidazione dello xilene in teoria non si ha perdita di carbonio. 170 171 LA CATALISI IN AMBIENTE BIFASICO ACQUOSO: UNA MODERNA TECNOLOGIA VERSO PROCESSI INDUSTRIALI A MINOR IMPATTO AMBIENTALE CARLO BOTTEGHI, MAURO MARCHETTI, STEFANO PAGANELLI 1. INTRODUZIONE L’acqua è il solvente dei processi naturali: interazioni molecolari e trasformazioni biochimiche in organismi viventi avvengono prevalentemente in ambienti acquosi. Tuttavia l’uso dell’acqua come solvente per processi chimici è stato fino a pochi anni fa estremamente limitato, specialmente da quando sono stati introdotti nella prassi industriale solventi organici polari dotati di capacità di solubilizzare un gran numero di molecole sia inorganiche che organiche. Molti composti organici sono praticamente insolubili in acqua, inoltre molti reagenti o intermedi di reazione sono sensibili all’acqua fino al punto di reagire con questa e di subire trasformazioni irreversibili: tutto questo ha fortemente compromesso l’utilizzo dell’acqua come solvente per processi di sintesi organica soprattutto a livello industriale.[1-3] La situazione ha iniziato a cambiare, quando a partire dagli anni ’80, sono state scoperte varie reazioni organiche, che non solo non venivano inibite dall’acqua, anzi venivano drasticamente accelerate in ambiente acquoso rispetto a quelle condotte in solventi organici. E’ stato dimostrato che reazioni di cicloaddizione, di addizione a composti carbonilici, di ossido-riduzione coinvolgenti molecole organiche forniscono alte rese nei desiderati prodotti di reazione, se effettuate in solventi acquosi; può succedere che l’aggiunta di controllate quantità di acqua induca più elevate velocità di reazione e selettività in numerose trasformazioni organiche. Un altro importante fattore che ha promosso in modo sostanziale l’uso dell’acqua come solvente industriale è stata la mutata sensibilità ambientale e la spinta verso la Chimica Verde (Green Chemistry) cioè la tendenza a sviluppare processi chimici con il minor impatto possibile sull’ambiente naturale.[4] La Green Chemistry viene definita come: • invenzione, progettazione e applicazione di processi e prodotti chimici per ridurre o eliminare l’uso e la generazione di sostanze pericolose; • approccio alla sintesi, processi ed uso di prodotti chimici che riducano i rischi per l’uomo e l’ambiente. Per quanto riguarda il primo punto, è importante sottolineare che la maggior parte dei solventi organici presentano gradi variabili di tossicità; inoltre al termine di un processo chimico generalmente questi solventi devono essere recuperati, purificati e riciclati, oppure inviati allo smaltimento con notevole impegno economico da parte delle industrie manifatturiere. I temi di ricerca tipici della chimica verde possono essere così schematizzati: • natura alternativa dei composti di partenza; • natura alternativa dei reagenti e delle trasformazioni; • natura alternativa dei solventi • natura alternativa dei prodotti di reazione • natura alternativa dei catalizzatori. 173 L’uso dell’acqua come solvente rappresenta quindi un cardine della Green Chemistry e presenta i seguenti vantaggi: • è la sostanza liquida nettamente più abbondante sulla terra, è quella più a buon mercato e, cosa più importante, non è tossica, così da poter essere usata in grandi quantità in assoluta sicurezza; • per le reazioni che vengono condotte in ambiente acquoso sono generalmente sufficienti miti condizioni sperimentali e pertanto le rese e le selettività sono suscettibili di notevoli miglioramenti; • composti organici solubili in acqua come carboidrati possono essere direttamente utilizzati senza subire trasformazioni; • come vedremo successivamente, i catalizzatori idrosolubili possono essere riutilizzati dopo filtrazione, decantazione o estrazione dei prodotti insolubili in acqua. Soprattutto per la sua economicità, la sua non tossicità ed il trascurabile impatto ambientale l’acqua sta gradualmente sostituendo i tradizionali solventi idrocarburici, aromatici e clorurati più inquinanti, in nuove formulazioni industriali di vernici, materiali protettivi, lubrificanti ed altri, in cui i componenti attivi incompatibili con l’acqua vengono tenuti in emulsioni stabili con l’ausilio di efficienti tensioattivi. E’ evidente, che le nuove e più restrittive norme contro l’inquinamento del nostro ambiente nonché l’esigenza di limitare fortemente i costi spesso intollerabili dello smaltimento di reflui e residui dell’attività industriale, hanno spinto l’industria chimica a studiare nuovi processi più puliti per sostituirli ai vecchi a più alto tasso di inquinamento. [4] Tabella 1 – Vantaggi e svantaggi della catalisi omogenea e della catalisi eterogenea: Catalisi omogenea Catalisi eterogenea Vantaggi a) I catalizzatori sono più attivi b) Tutti i siti catalitici sono attivi c) I catalizzatori sono maggiormente selettivi d) Le reazioni sono maggiormente riproducibili a) I catalizzatori sono molto stabili termicamente b) I catalizzatori si rigenerano per combustione o per lavaggio delle sostanze avvelenatrici, anche in situ c) Grande facilità di recupero della miscela di reazione (filtrazione o decantazione) d) I catalizzatori sono costituiti da un supporto come allumina o silice su cui è disperso un metallo; maggiore economicità. Svantaggi a) E’ difficile il recupero del catalizzatore a) Il catalizzatore è attivo solo in superficie b) La reazione ha una minore riproducibilità (deposizione, granulometrie e dispersione della fase catalitica, porosità e stato della superficie) 2. CATALISI IN AMBIENTE ACQUOSO 2.1 GENERALITÀ La maggior parte dei processi industriali che l’industria chimica tenta di rendere più eco-sostenibili come la sintesi dell’ammoniaca e dell’acido solforico, l’idrodesolforazione del petrolio, la sintesi del metanolo, le varie reazioni di carbonilazione di questo alcool, l’oligomerizzazione delle olefine, l’ossidazione dell’etilene ad ossido di etilene e molti altri ancora sono processi catalitici, che possono cioè avvenire solo in presenza di un catalizzatore. Questo è definito dai chimici come un composto inorganico od organico, che, pur essendo in quantità anche molto inferiori a quella dei reagenti, è capace di accelerare in modo drastico la loro trasformazione, rimanendo, nel caso ideale, praticamente inalterato alla fine della reazione. Ad esempio, l’etilene e l’idrogeno possono rimanere inerti per un tempo indefinito miscelati anche ad alte temperature: è sufficiente una piccola quantità di platino finemente suddiviso, perchè i due reagenti diano luogo quantitativamente ad etano anche a temperatura e pressione ambiente. E’ facilmente intuibile come lo studio della catalisi sia fin dalla nascita dell’attività industriale uno dei fondamenti per lo sviluppo dei processi chimici produttivi e costituisca il principale presupposto per una crescita del mercato dei prodotti chimici. L’azione del catalizzatore può avvenire in fase omogenea o in fase eterogenea. Nel primo caso il catalizzatore, i reagenti ed i prodotti sono in una singola fase; nella catalisi eterogenea invece siamo in presenza di un catalizzatore solido con reagenti gassosi o liquidi Nella tabella seguente sono evidenziati i vantaggi e gli svantaggi di entrambi i tipi di catalisi: La maggior parte dei catalizzatori impiegati nell’industria chimica sono derivati di metalli di transizione come ossidi, sali, complessi (composti di coordinazione) di ferro, cobalto, nichel, rutenio, platino, palladio, rodio, e molti altri. Questo è dovuto al fatto che i metalli di transizione presentano: • Capacità di legare e di attivare, via coordinazione, molecole relativamente inerti (es. CO); • Abilità a stabilizzare intermedi instabili, come idruri metallici e specie metallo-alchiliche, in complessi relativamente stabili, ma cineticamente reattivi; • Variabilità dello stato di ossidazione; • Variabilità del numero di coordinazione; • Capacità di organizzare ed orientare più “componenti” di reazione all’interno della loro sfera di coordinazione; • Capacità di variare la natura del legame a seconda della struttura del legante (effetto del legante). 174 175 Cerchiamo di definire meglio la natura dei composti di coordinazione (più semplicemente COMPLESSI): essi sono molecole contenenti un atomo metallico centrale (o più atomi) legati a gruppi organici o inorganici chiamati leganti. Il numero di atomi legati all’atomo centrale è definito: NUMERO DI COORDINAZIONE. Un esempio particolarmente istruttivo di processo catalitico in acqua è l’ossidazione dell’etilene ad acetaldeide in presenza di sali di palladio (II) (processo Wacker-Hoechst).[2] L’acqua è coinvolta nella reazione sia come reagente che come solvente (Schema 1): 2.2 CATALISI IN SISTEMI BIFASICI Schema 1. Ossidazione dell’etilene ad acetaldeide. La riossidazione del palladio (Pd° → Pd2+) avviene mediante il cloruro rameico, CuCl2, sempre in ambiente acquoso: Come è possibile combinare i più importanti vantaggi della catalisi omogenea con quelli dell’eterogenea, e cioè sfruttare la più grande attività e selettività dei catalizzatori omogenei e nello stesso tempo risolvere il problema della separazione dei prodotti di reazione dal catalizzatore stesso?[6] Indubbiamente, se il processo catalitico può essere condotto usando la tecnologia che prevede due fasi liquido-liquido, ed il complesso cataliticamente attivo viene costretto a svolgere la sua azione esclusivamente in una delle due fasi, si apre un’importante prospettiva per la soluzione di questo problema tecnico. Già verso la fine degli anni ’70 la SHELL ha messo in marcia un processo di oligomerizzazione dell’etilene per l’ottenimento di α-olefine C14-18, che impiega come sistema catalitico complessi di nichel con leganti chelanti aventi struttura di trifenilfosfine carbossilate come, ad esempio, l’acido o-difenilfosfinobenzoico: [2] Schema 2. Riossidazione del palladio. Mentre l’ossigeno interviene per rigenerare il sale di Cu(II): Figura 3. Acido o-difenilfosfinobenzoico Schema 3. Rigenerazione del sale di rame (II). Con questo processo vengono attualmente prodotte circa 600.000 tonnellate l’anno di acetaldeide, un importante composto intermedio precursore di acido acetico, anidride acetica, acetato di etile ed altri prodotti di uso industriale. I processi chimici su larga scala che impiegano sistemi catalitici omogenei sono relativamente poco numerosi: oltre al processo Wacker-Hoechst ricordiamo la carbonilazione del metanolo ad acido acetico catalizzata da complessi carbonilici di rodio CH3OH + CO → CH3COOH la reazione di idroformilazione delle olefine catalizzata da complessi carbonilici di rodio e di cobalto, l’ossidazione del p.xilene ad acido tereftalico catalizzata da sali di cobalto. [5] In effetti questo tipo di processi presenta alcuni notevoli svantaggi dal punto di vista operativo: in particolare la separazione tecnicamente ed economicamente impegnativa dei prodotti dalla miscela di reazione ed il recupero ed il riciclo del catalizzatore rimasto in soluzione alla fine del processo. E’ per questa ragione che l’industria chimica è da sempre orientata verso l’applicazione di sistemi catalitici supportati o ancorati a vari tipi di materiali solidi ad alta area specifica superficiale come carbone attivo, silice, allumina, varie specie di ossidi metallici, silicati. 176 La reazione di oligomerizzazione viene effettuata in un solvente polare, in cui il catalizzatore di nichel è disciolto, ma i prodotti non polari, le α-olefine, sono praticamente insolubili. Come solvente viene generalmente usato l’1,4-butandiolo. Lo sviluppo di questo concetto basato su reazione condotte in ambiente bifasico è legato, tra l’altro alla sua ecosostenibilità ed in quest’ottica la catalisi bifasica acqua/fase organica ha offerto all’industria chimica nuove e tecnicamente valide opportunità rispetto ai sitemi catalitici “tradizionali”. 2.3 REAZIONE DI IDROFORMILAZIONE IN SISTEMA BIFASICO ACQUOSO Il principio su cui si basa la catalisi bifasica in acqua/liquido organico è concettualmente semplice: le due fasi devono essere immiscibili tra loro ed il catalizzatore, generalmente un complesso di un metallo di transizione, deve essere solubile in acqua ed essere capace di esplicare la sua attività in questa fase.[2] I complessi idrosolubili di metalli di transizione si possono dividere nelle seguenti classi: • complessi intrinsecamente solubili in acqua, generalmente idrossidi e acquo-complessi; • complessi con leganti idrosolubili capaci di mantenere gli stessi stabilmente in acqua. Un tipico esempio della prima classe su descritta è il complesso di palladio considerato una delle specie cataliticamente attive nel processo Wacker-Hoechst (Figura 4a); anche l’acquo-complessi cationici ottaedrici di rutenio e di iridio (figura 4b e 4c) sono solubili in acqua e presentano interessanti proprietà catalitiche in questo ambiente. 177 La reazione catalitica che si è rivelata la più idonea e la più conveniente ad essere sviluppata con la catalisi bifasica acquosa è senza ombra di dubbio la reazione di idroformilazione o reazione oxo. Questa consiste nell’addizione di ossido di carbonio ed idrogeno ad un doppio legame olefinico con formazione di una o più aldeidi aventi un atomo di carbonio in più (Schema 4). Figura 4. Complessi idrosolubili di Palladio, Rutenio e Iridio Schema 4. Reazione di idroformilazione Per quanto riguarda la seconda classe di complessi idrosolubili, numerosi e di struttura molto varia sono i leganti che riescono a formare con i metalli di transizione composti di coordinazione solubili e stabili in soluzione acquosa. In Figura 5 sono riportati alcuni dei più importanti esempi di questi agenti di coordinazione: questi comprendono fosfine terziare contenenti uno o più gruppi solfonici salificati, come TPPTS e XANTPHOS(SO3Na)2; (Fig. 5) gruppi carbossilici anch’essi sotto forma di sali sodici, come l’etilendifosfinotetracarbossilato sodico; gruppi ammonici quaternari come l’AMPHOS o fosfonici quaternari come la PHOPHOS (Fig. 5). In tempi più recenti sono stati utilizzati anche polimeri come leganti idrosolubili, come poli-vinilalcooli parzialmente ossidati, policarbossilati e biopolimeri come, ad esempio, proteine.[7] L’importanza industriale di questo processo, che contempla la formazione di un nuovo legame carbonio-carbonio, è dimostrata dal fatto che attualmente vengono prodotti circa 9 milioni di tonnellate all’anno di composti oxo.[8] L’olefina più usata è sicuramente il propene (CH3-CH=CH2) e l’aldeide più nota è quella a catena lineare, cioè il n-butanale. Una vasta gamma di composti come alcoli, acidi, ammine, glicoli possono essere facilmente preparati dalle aldeidi, contribuendo al successo della reazione di idroformilazione (Figura 6). Figura 6. Gamma di prodotti facilmente ottenibili dalle oxo-aldeidi I più comuni catalizzatori della reazione oxo sono complessi carbonilici di cobalto e di rodio; quest’ultimi, introdotti solo alla fine degli anni ’60 nei laboratori di ricerca, hanno subito uno sviluppo straordinario, tanto che oggi praticamente tutti i nuovi impianti industriali impiegano questi catalizzatori. Altri complessi carbonilici di metalli di transizione come platino, rutenio, iridio ed anche Figura 5. Leganti fosfinici idrosolubili 178 179 ferro mostrano attività verso l’idroformilazione delle olefine, che possono raggiungere specialmente nel caso del platino livelli talvolta confrontabili con quelli del rodio; tuttavia i complessi carbonilici usati industrialmente sono soltanto quelli di cobalto e di rodio. In Figura 7 sono riportate le formule dei complessi carbonilici più comunemente usati nella reazione oxo. Le condizioni operative richieste dal processo oxo sono molto variabili e dipendono specialmente dalla struttura dell’olefina e dalla natura del sistema catalitico: la temperatura di reazione può variare da quella ambiente fino ad oltre 200°C, mentre la pressione da quella atmosferica fino alle 250 atm di CO e H2. Le ragioni del crescente successo del rodio nella preparazione di catalizzatori oxo, nonostante la sua relativamente bassa produzione annua (≈2 t) ed il suo alto prezzo (≈ 32 US $/g), sono molteplici. Poulenc Ind. in Lione nel 1975, la Ruhrchemie AG tedesca ha sviluppato tecnologicamente questo processo catalitico fino a tal punto, che già nel 1984 faceva partire un primo impianto industriale da 100.000 t/anno di capacità per la produzione di n-butanale da propene. Figura 8. Complesso rodio TPPTS. Il rodio è nettamente il metallo cataliticamente più attivo (fino ad oltre 1000 volte il cobalto!) e quindi permette di operare in condizioni di reazione estremamente blande (con semplici olefine come propene anche a temperatura e pressione ambiente!). Questo fatto si ripercuote favorevolmente sulla selettività della reazione: le rese di aldeidi sono molto più alte, perché operando in condizioni blande, subiscono in minore misura reazioni secondarie (principalmente riduzione ad alcoli); inoltre reazioni parassite, che accompagnano generalmente la reazione oxo come idrogenazione o isomerizzazione dell’olefina, sono estremamente contenute rispetto a quanto avviene impiegando complessi carbonilici di cobalto o altri metalli. Un altro merito non trascurabile dei catalizzatori a base di rodio consiste nel fatto che esplicano la loro attività anche in solventi protici, acqua compresa. E’ noto che soltanto un numero limitato di complessi metallici sono capaci di catalizzare efficacemente varie reazioni organiche anche in soluzioni acquose. Questa proprietà di alcuni complessi di mantenere la loro attività catalitica in acqua è il presupposto necessario per sviluppare un processo in sistema bifasico acquoso: così Emile G. Kuntz della Rhône-Poulenc mise a punto nel 1973 un processo omogeneo di idroformilazione, usando un sistema catalitico idrosolubile.[8] Questo venne facilmente preparato per coordinazione di un complesso idrofobico di rodio, ad esempio [Rh(COD)Cl]2 (dove COD = cis, cis-1,5-cicloottadiene) con un legante idrofilico come il sale trisodico della tris(m-sulfofenil)fosfina denominato TPPTS (Figura 8). La straordinaria importanza ed il rapido successo di questa scoperta sono documentati dal fatto che, dopo i primi brevetti della Rhône- Il processo ha avuto un tale successo, che oggi l’impianto è stato triplicato e la capacità produttiva ha ormai raggiunto le 600.000 t/anno. [3] Nel 1997 la Honwha Corp. nella Corea del Sud ha inagurato un nuovo impianto con tecnologia Ruhrchemie- Rhône-Poulenc, avente una capacità produttiva di 120.000 t/anno. Questo processo quindi costituisce il primo clamoroso esempio di applicazione di una catalisi bifasica acquosa promossa da complessi di metalli di transizione, in cui il catalizzatore opera e viene mantenuto nella fase acquosa. I vantaggi di questi nuovi impianti rispetto a quelli tradizionali sono evidenti e di varia natura, perchè riguardano la selettività, la semplicità di conduzione tecnica dell’impianto, l’economicità, il risparmio energetico ed il ridotto impatto ambientale. In particolare: • la conversione del propene a n-butanale raggiunge il 95%; • la selettività della formazione delle aldeidi C4 è intorno al 99%; • la quantità di sottoprodotti è limitata allo 0,5%; • il rapporto molare delle aldeidi isomere è nettamente a favore di quella lineare, il n-butanale, che è commercialmente la più importante e raggiunge il valore di 20 a 1; • la concentrazione di rodio nella fase acquosa può avere valori molto bassi fino a 0,1 g/litro e questo riduce notevolmente la perdita del costoso metallo: dopo 10 anni di conduzione dell’impianto si prevedono in genere solo circa 2 Kg di rodio (corrispondente a 6400 dollari US) e questo incide per lo 0,0020% nel prezzo del n-butanale.[6,8] Per quanto riguarda l’aspetto economico, tre sono i fattori principali responsabili della riduzione dei costi nel processo Ruhrchemie: • un recupero energetico estremamente efficiente; • una ridotta esigenza di capitali per un’unità di impianto; • un elevato sfruttamento dell’alimentazione, che si realizza, combinando l’impianto bifasico con un reattore tradizionale che converte gli effluenti gassosi contenenti ancora propene ed aldeidi. 180 181 Figura 7. Complessi carbonilici di metalli di transizione usati comunemente nella reazione di idroformilazione. Questi risultati sono senz’altro da atttribuire alla notevole semplicità tecnica dell’impianto, che è solo possibile usando un sistema catalitico solubile in acqua. Il diagramma dei flussi dell’impianto Ruhrchemie/Rhône-Poulenc è riportato in Figura 9: Man mano che l’aldeidi si formano, essendo limitatamente solubili in acqua, si stratificano sulla fase liquida dando luogo alla fase organica e vengono inviate in continuo al decantatore b, dove avviene il loro recupero semplicemente per separazione di fase. A scopo illustrativo, nella Figura 11 vengono riportate le solubilità in acqua espresse in moli % di olefina ed aldeidi in funzione del loro peso molecolare; si vede chiaramente che all’aumentare del numero degli atomi di carbonio diminuisce notevolmente la solubilità dei composti. Figura 9 - Diagramma dei flussi dell’impianto Ruhr-Chemie/Rhône-Poulenc. Il propene ed il gas di sintesi (CO/H2 = 1) vengono alimentati dal fondo del reattore a ad una pressione complessiva di 50 atm. Il catalizzatore di rodio idrosolubile preformato è sciolto nella fase acquosa, dove avviene la reazione, e cioè l’addizione dell’ossido di carbonio e dell’idrogeno al doppio legame dell’olefina con formazione delle aldeidi. A questo punto occorre precisare che numerosi ed accurati studi hanno indicato che la reazione avviene principalmente all’interfaccia tra fase gassosa e fase liquida, piuttosto che all’interno della fase liquida. [9] Nella Figura 10 viene schematizzato questo concetto: Figura 10. Reazione all’interfaccia acqua/solvente organico. 182 Figura 11. Solubilità in acqua di olefine ed aldeidi. E’ interessante sottolineare che la reazione di idroformilazione è una reazione esotermica, che produce circa 30 Kcal per mole di aldeide prodotta. Negli impianti tradizionali questo calore viene utilizzato per separare le aldeidi dal solvente organico mediante distillazione. Nell’impianto Ruhrchemie/Rhône-Poulenc, che stiamo descrivendo, il calore di reazione può facilmente essere recuperato mediante uno scambiatore di calore e ed utilizzato dall’industria stessa per produrre vapore ad alta pressione. Dopo una normale operazione di stripping con recupero di parte dei gas della reazione, che vengono riconvogliati al reattore a, la miscela di aldeidi grezza viene inviata alla colonna di rettifica d, dove in testa viene raccolto l’i-butanale (l’aldeide che si forma in quantità minore) ed in coda l’aldeide n-butanale. Malgrado i costi relativamente alti nella preparazione del catalizzatore di rodio, i ridotti costi fissi, il minore impegno di capitale ed un più efficiente bilancio energetico rendono il processo Ruhrchemie/Rhône-Poulenc di circa il 10% più economico per quanto riguarda i costi di produzione rispetto al processo di idroformilazione tradizionale, che utilizza un catalizzatore di rodio omogeneo modificato con leganti fosfinici. Pertanto possiamo concludere che la catalisi bifasica acquosa riunisce in sè i benefici della catalisi omogenea: alta attività, alta selettività e condizioni di reazione miti, e quelli della catalisi eterogenea: prolungata vita del catalizzatore e facile separazione del prodotto di reazione dal catalizzatore. 183 2.4 ALTRE REAZIONI IN SISTEMA BIFASICO ACQUOSO Abbiamo ritenuto opportuno dilungarci sulla descrizione dell’impianto Ruhrchemie/RhônePoulenc, dal momento che è quello che ha ottenuto maggior successo ed è l’unico ad essere stato sviluppato industrialmente in impianti di grandi dimensioni; tuttavia altri processi che utilizzano la catalisi bifasica acquosa sono stati realizzati o sono in fase di studio per la manifattura di prodotti su scala commerciale e della chimica fine.[10] La catalisi bifasica acquosa è utilizzata nella reazione di idrodimerizzazione di butadiene e acqua con produzione dell’importante alcool primario lineare n-ottanolo (Schema 5) catalizzata da complessi di palladio con il sale sodico di trifenilfosfina monosolfonata (TPPMS). Il primo prodotto della reazione, un octadienolo, può essere deidrogenato/idrogenato per dare l’aldeide insatura 7-ottenale e questa può essere idroformilata con catalizzatori di rodio idrosolubili per produrre la dialdeide nonandiale, la quale a sua volta per idrogenazione viene convertita a 1,9-nonandiolo, un importante intermedio per la sintesi di resine poliestere e poliuretaniche. Schema 6. Doppia addizione dell’acido cianidrico al butadiene. Per azione di un catalizzatore di Ni(0) l’acido cianidrico si addiziona ad un doppio legame dell’1,3-butadiene con formazione del 3-pentene nitrile: successivamente l’addizione di un’altra molecola di acido cianidrico conduce all’adiponitrile finale.[10] Tra le numerosi reazioni condotte in sistema bifasico acquoso segnaliamo altri interessanti esempi come: i) la produzione di acido fenilacetico e derivati mediante reazione di carbonilazione di appropriati cloruri benzilici catalizzata da complessi idrosolubili di palladio con TPPTS (Schema 7); Schema 7. Carbonilazione di cloruri benzilici. ii) la sintesi di stireni variamente sostituiti per reazione di Heck tra alogenuri aromatici ed etilene catalizzata dagli stessi complessi di palladio (Schema 8); Schema 8. Sintesi di stireni per reazione di Heck. Schema 5. Reazione di idrodimerizzazione del butadiene ed acqua. Particolarmente interessante è la versione in sistema bifasico acquoso della doppia addizione dell’acido cianidrico al butadiene per la produzione di adiponitrile, che rappresenta un prezioso materiale di partenza per la sintesi di acido adipico ed esametilendiammina e pertanto di nylon 6,6 (Schema 6). 184 iii) la riduzione di nitrobenzeni ad anilina mediante idrogenazione in sistema bifasico acquoso ancora una volta catalizzata dal versatile complesso di palladio con TPPTS (Schema 9). Schema 9. Riduzione di nitrobenzeni ad aniline. 185 CICLO DI VITA DI PRODOTTI, PROCESSI E ATTIVITÀ 3. CONCLUSIONI Sulla base degli argomenti e dei risultati descritti nel presente capitolo appare evidente che c’è da attendersi un brillante futuro per la produzione di composti intermedi e della chimica fine, utilizzando le metodologie della catalisi omogenea in sistema bifasico acquoso. Sotto la spinta degli innegabili vantaggi economici connessi alla razionalizzazione degli impianti di produzione e soprattutto del ridotto impatto ambientale degli stessi, che soddisfa le nuove esigenze di processi chimici puliti (Green Chemistry), queste metodologie sono attualmente oggetto di approfonditi studi per raggiungere un grado di perfezione e di efficienza sostenibili con le esigenze del mercato dei prodotti chimici. BIBLIOGRAFIA 1. “Organic Synthesis in Water”, Grieco Paul A. Ed., Blackie Academic & Professional, London 1998. 2. “Aqueous-phase Organometallic Catalysis”, Cornils Boy and Herrmann Wolfgang A. Eds., VCH, Weiheim 1998. 3. “Aqueous Organometallic Catalysis”, Kluver Acad. Publ., Dordrecht 2001. 4. “Green Chemical Syntheses and Processes”, Anastas Paul T., Heine Lauren G. and Williamson Tracy C. Eds., ACS Symposium Series 767, Washington D.C., 2000. 5. “Industrial Organic Chemistry”, Weissermel Klaus and Arpe Hans-Jürgen, 3. completely revised Edition, Wiley-VCH, Weinheim, 1997. 6. “Rhodium Catalyzed Hydroformylation”, van Leeuwen Piet W. N. M. and Claver Carmen Eds., Kluwer Academic Publisher, Dordrecht, 2000, p. 189. 7. M. MARCHETTI, G. MANGANO, S. PAGANELLI, C. BOTTEGHI, Tetrahedron Letters, 2000, 41, 3717. 8. W.A. HERRMANN, C.W. KOHLPAINTER, Angew. Chem. Int. Ed. Engl., 1993, 32, 1524. 9. O. WACHSEN, K. HIMMLER, B. CORNILS, Catalysis Today, 1998, 42, 373. 10. B. CORNILS, J. Mol. Catal. A: Chemical, 1999, 143, 1. ATTILIO CITTERIO Le attività umane hanno inciso e continueranno ad incidere sul mondo naturale (biosfera) in relazione alla necessità di soddisfacimento dei bisogni delle popolazioni. Lo sviluppo industriale, promuovendo la produzione di quantità massicce di beni e soddisfacendo un numero sempre crescente di esigenze umane, ha fatto emergere l’incompatibilità tra una crescita senza limiti e la ristrettezza delle risorse e le difficoltà di recupero della Terra. Questa constatazione su basi scientifiche è relativamente recente (anni 1980-90) ed è il risultato per lo più di indagini sui cambiamenti globali in atto sulla Terra. Essa segue anni di dissennato utilizzo delle risorse ambientali e di scarsa attenzione alla “ecologia” delle produzioni con rilevanti ricadute sull’inquinamento di aria, acqua e suolo, oltre che sulla sicurezza e salute delle popolazioni. L’urgenza di proporre un rimedio a questa situazione è andata di pari passo al crescere esponenziale delle normative in campo ambientale e dei costi sostenuti dall’industria per il loro rispetto. Tutto ciò ha portato a prese di posizione sul piano politico e individuale che, per non rimanere sul piano emotivo, hanno dovuto radicarsi su analisi e progettualità basate su fondamenti scientifici. Ciò ha portato a livello mondiale allo sviluppo di teorie, approcci, modelli e norme che sono servite negli anni da guida per proporre soluzioni per uno sviluppo delle società umane di tipo compatibile con l’ambiente terrestre. L’obiettivo a cui si mira è il passaggio progressivo da una visione a flusso tradizionale basata su una illimitata disponibilità di risorse e ad una illimitata creazione di rifiuti (tipo I) ad una visione più integrata a parziale riciclo (tipo II) e a quella più matura auspicata per un ecosistema compatibile a completo riciclo (tipo III) (figura 1). [1] Figura 1 – Evoluzione dalla visione tradizionale di illimitato sfruttamento delle risorse e smaltimento degli scarti (tipo I) a forme di integrazione (tipo II), con l’obiettivo di raggiungere un ecosistema sostenibile (tipo III) 186 187 ECOLOGIA INDUSTRIALE L’analogia con il comportamento degli ecosistemi biologici, evidente nel sistema Tipo III, è voluta e ricercata, perché questi rappresentano modelli evoluti da molto tempo, stazionari in condizioni stabili e abbastanza facilmente adattabili nel caso di cambiamento delle condizioni, quindi modelli complessi che ben si prestano al confronto con i moderni complessi sistemi industriali. Non è perciò un caso che la scienza che si occupa di dare una visione sistemica, comprensibile, ed integrata di tutte le componenti dell’’economia industriale e le loro relazioni con la biosfera è chiamata Ecologia Industriale (E.I.). In essa si sottolineano le basi biofisiche delle attività umane: i complessi scenari dei flussi dei materiali sia all’interno che all’esterno del sistema industriale e si pone in alternativa all’analisi correnti che considerano l’economia essenzialmente in termini di bilanci monetari o flussi di energia. L’E.I. considera le dinamiche tecnologiche come un elemento cruciale per realizzare il passaggio dall’attuale sistema non sostenibile ad un valido ecosistema industriale. In questo senso il flusso primario di Figura 2 dalle materie prime naturali alla sequenza di lavorazioni industriali per ottenere prodotti, al loro uso, raccolta, trattamento e collocamento in discarica viene integrato da fasi di ripristino che, in dipendenza del punto di inserimento del ciclo, vengono indicati con i termini riuso, rifabbricazione o riciclo. L’obiettivo è quello di minimizzare l’entità dei materiali non coinvolgibili nei vari cicli, portando a scarti non integrabili (circuito aperto) il più possibile ridotti. Figura 3 – Scienze coinvolte nelle attività industriali per uno sviluppo sostenibile La “Chimica Verde” (trattata in altre parti di questo libro) è la scienza delle trasformazioni chimiche a basso impatto ambientale attenta all’uso efficiente delle risorse e dell’energia. Essa mira a raggiungere significativi miglioramenti nella eco-efficienza dei prodotti, servizi e processi chimici, in modo da ottenere un ambiente sostenibile, più pulito e più sano ed un profitto competitivo”. La G.C. si basa su un insieme di principi atti a ridurre o eliminare l’uso o la generazione di sostanze pericolose nella progettazione, manifattura ed applicazione dei prodotti chimici, che in forma riassuntiva sono raccolti in tabella 1. Essa si propone in particolare di minimizzazione gli scarti alla fonte, di usare catalizzatori anziché reagenti in quantità stechiometriche, di ridurre o eliminare reagenti e intermedi tossici, di impiegare risorse rinnovabili, di riciclare prodotti e materiali nel corso della loro vita evitando di ricorrere a risorse non rinnovabili, di migliorare l’efficienza atomica e il parametro E delle reazioni chimiche, aumentandone la selettività, di sviluppare sistemi che non usino solventi o operino con solventi riciclabili ambientalmente benigni, di integrare le produzioni nella stessa azienda o aziende dello stesso distretto industriale, ecc. Allo scopo sono cruciali gli avanzamenti delle conoscenze in campo chimico, chimico-fisico, chimico ambientale, biotecnologico e tossicologico. Figura 2 – Cicli di produzione naturale senza ripristino industriale (in rosso) e con ripristino (in azzurro) previsti dall’Ecologia Industriale per eliminare gli scarti non riusabili (circuito aperto). L’Ecologia Industriale si avvale di una serie di scienze complementari (Figura 3) che coinvolgono la progettazione per l’ambiente di prodotti ed attività (DfE) o che si interessano delle trasformazione della materia, ambito questo che si sta consolidando in due branchie: la “Chimica Verde” (“Green Chemistry”, G.E.) [2] e la Sicurezza Intrinseca (SI) [3], la prima rivolta più alle problematiche chimiche dei prodotti e la seconda alle problematiche ingegneristiche dei processi. 188 189 • Tabella 1 – I 12 principi della Chimica Verde 1. Prevenzione E’ meglio prevenire gli scarti che trattarli o bonificare gli scarti una volta creati. 2. Economia Atomica I metodi sintetici devono essere progettati in modo da massimizzare l’incorporazione di tutti i materiali usati nel processo nel prodotto finale. 3. Sintesi Chimica Meno Pericolosa In tutti i casi sia possibile, i metodi sintetici devono essere progettati per usare e generare sostanze che posseggano poca o nulla tossicità per le persone e l’ambiente. 4. Progettazione di Composti Chimici Salubri Si devono progettare prodotti chimici per assolvere la funzione attesa minimizzandone nel contempo la tossicità. 5. Solventi e Ausiliari più Salubri L’uso di sostanze ausiliarie (quali, solventi o agenti di separazione) per quando possibile devono essere evitati e, se usati, devono essere innocui. 6. Progettazione per l’Efficienza Energetica I requisiti energetici dei processi chimici devono essere riconosciuti per il loro impatto ambientale ed economico e si devono minimizzare. Se possibile, i metodi sintetici devono essere realizzati a temperatura e pressione ambiente. 7. Uso di Materie Prime Rinnovabili Una materia prima o precursore deve essere rinnovabile piuttosto che non rinnovabile per quanto tecnicamente ed economicamente fattibile. 8. Limitare i Derivati Si devono minimizzare o se possibile eliminare le derivatizzazioni non necessarie (uso di gruppi bloccanti, protezioni/de-protezioni, e modifica temporanea di processi fisici/chimici), in quanto questi stadi necessitano di ulteriori reagenti e possono produrre scarti. 9. Catalisi I reagenti catalitici (il più selettivi possibile) sono superiori ai reagenti stechiometrici. 10. Progettazione per la Degradazione Si devono progettare prodotti chimici in modo che alla fine del loro ciclo di vita possano decomporsi in prodotti di degradazione innocui e non persistano nell’ambiente. 11. Analisi in tempo reale della Prevenzione dell’Inquinamento Si devono sviluppare ulteriormente le metodologie analitiche per consentire il monitoraggio e controllo in tempo reale e all’interno del processo prima della formazione di sostanze pericolose. 12. Chimica Intrinsecamente Più Sicura per Prevenire Incidenti Si devono scegliere le sostanze e le formulazioni delle sostanze usate in un processo chimico per minimizzare il rischio di incidente chimico, inclusi i rilasci, le esplosioni, e gli incendi. Attenuazione – uso di materiali pericolosi in forme meno dannose, per esempio aumentando le dimensioni delle polveri infiammabili o diluendo un materiale pericoloso. • Sostituzione – uso di un materiale più sicuro o produzione di un prodotto più sicuro, per esempio sostituendo i solventi infiammabili con acqua, passando a vernici in emulsione anziché a olio. • Limitazione – riduzione al minimo dell’effetto di un incidente, per esempio riducendo il diametro delle tubazioni per il trasporto di gas e liquidi tossici che comporta la riduzione al minimo delle dispersioni di materiale quando avviene un incidente. • Semplificazione – riduzione delle opportunità di errori e malfunzionamenti, per esempio fornendo istruzioni ben comprensibili e complete agli operatori. Anche l’Ingegneria verde si basa su un insieme di principi operativi che in forma riassuntiva sono raccolti nella tabella 2. Tabella 2 – I 9 principi dell’Ingegneria Verde 1. Ingegnerizzare processi e prodotti con una filosofia olistica, usare l’analisi dei sistemi, e integrare gli strumenti di valutazione dell’impatto ambientale. 2. Conservare e migliorare gli ecosistemi naturali mentre si protegge la salute ed il benessere umano 3. Utilizzare in tutte le attività ingegneristiche un modo di pensare basato sul ciclo di vita 4. Assicurare che tutti i materiali e le energie in ingresso e uscita siano il più possibile intrinsecamente sicuri e benigni 5. Minimizzare lo sfruttamento delle risorse naturali 6. Impegnarsi per prevenire scarti e rifiuti 7. Sviluppare e applicare soluzioni ingegneristiche, ben coscienti della geografia, aspirazioni e culture del luogo 8. Creare soluzioni ingegneristiche al di là delle tecnologie correnti o dominanti; migliorare, innovare e inventare (tecnologie) per raggiungere la sostenibilità 9. Coinvolgere attivamente comunità e investitori nello sviluppo delle soluzioni ingegneristiche CICLO DI VITA La Sicurezza intrinseca (talvolta indicata come Ingegneria Verde) si interessa invece alla riduzione o eliminazione dei pericoli associati a livello industriale ai materiali utilizzati e alle operazioni coinvolte nelle trasformazioni chimiche, e cerca di inserire queste riduzioni o eliminazioni come parti permanenti ed inseparabili della tecnologia di processo. Si realizza attraverso varie vie integrate o alternative di cui le più importanti sono: • Intensificazione – uso di minori quantità di un materiale pericoloso, per esempio usando migliori catalizzatori per ridurre le dimensioni di un impianto e minimizzare le conseguenze di un incidente Dal quadro esposto, in particolare dai principi generali delle due componenti a prevalente base chimico-tecnologico, emerge l’importanza data al concetto di ciclo di vita di un prodotto, processo o attività. Solo l’analisi in dettaglio dell’evoluzione che l’aggregazione degli atomi subisce passando dai prodotti naturali ai prodotti industriali ed il reinserimento di questi ultimi nel mondo naturale può infatti consentire una corretta chiusura dei cicli ecoindustriali di TIPO III. Seguire pertanto nel dettaglio l’evoluzione che le materie prime subiscono “dalla nascita alla tomba”, cioè dall’estrazione, alle lavorazioni industriali e al loro smaltimento (figura 4) è perciò un requisito essenziale di qualsiasi progetto ecosostenibile. Questa analisi sul Ciclo di Vita non può però essere una semplice descrizione qualitativa del processo, ma deve prendere in esame in maniera quantitativa i vari passaggi e deve definire degli indicatori misurabili in modo da consentire confronti tra alternative ed accertare l’effettivo rispetto dei cicli nelle loro complesse evoluzioni. Ciò è tutt’altro che semplice e viene tradotto in maniera riassuntiva con una quantificazione degli impatti che l’intero ciclo di vita ha su salute umana, ecosistemi, e risorse. Così in un processo dove sono implicate trasformazioni chimiche (cioè riaggregazioni di atomi) esistono, oltre 190 191 alle reazioni coinvolte con i loro problemi di sicurezza e eco-compatibilità, e quindi con i relativi coinvolgimenti di prodotti più o meno tossici e condizioni operative ed apparecchiature più o meno pericolose, anche stadi pre-chimici e post-chimici che comunque avranno impatti sull’ambiente e la salute. E’ infatti necessario che i materiali, prima di divenire reagenti in reazioni chimiche, siano recuperati o estratti dai prodotti naturali loro precursori, trasportati fino al sito di lavorazione, raffinati se non già sufficientemente puri, immagazzinati e trasportati all’interno dei siti di lavorazione, caricati e scaricati, ecc.. Dopo che le reazioni chimiche hanno riaggregato in modo diverso gli atomi iniziali, è poi necessario produrre il prodotto finale (con eventuali passaggi intermedi nella trasformazione in un nuovo adatto materiale), commercializzarlo, eventualmente riusarlo o riciclarlo, fino, alla fine della sua vita, trattarlo o smaltirlo immettendolo in discarica o rilasciandolo nell’ambiente. Figura 4 – Rappresentazione schematica del Ciclo di Vita di un Prodotto (“dalla nascita alla morte”) Figura 5 – Impatti sull’ambiente e la salute nella produzione di prodotti e materiali e ruolo centrale dei processi chimici. 192 Lo schema 5 riassume l’insieme di tali sequenze di operazioni e ben illustra come sia complesso seguire nel dettaglio l’evoluzione di un prodotto e come solo un’attenta e dettagliata analisi può consentire di tenere in debito conto tutte le grandezze coinvolte e poter così valutare in maniera quantitativa le ricadute dell’insieme delle attività coinvolte. VALUTAZIONE DEL CICLO DI VITA (LCA) La Valutazione del Ciclo di Vita è definita dalla “Society of Environmental Toxicology and Chemistry” (SETAC) [4] come un procedimento analitico, obiettivo e sistematico di valutazione dei carichi energetici ed ambientali associati all’intero ciclo di vita di un prodotto, processo o attività, effettuate tramite l’identificazione e la quantificazione dell’energia e dei materiali usati, nonché dei rifiuti rilasciati nell’ambiente, per valutarne l’impatto e per identificare e valutare le opportunità di miglioramento. In funzione del prodotto, il ciclo di vita può essere più o meno breve, complesso e con implicazioni fisico/chimiche, finanziarie e sociali. Il metodo si presta per confrontare nuove prodotti, tecnologie o servizi con quelli preesistenti e aiuta a focalizzare le aree che richiedono attenzioni speciali ed è in grado di rivelate inattesi impatti ambientali e porvi rimedio. I primi studi sugli aspetti del ciclo di vita dei prodotti e dei materiali datano al 1968-1972, e si erano focalizzati su temi quali l’efficienza energetica e il consumo di materie prime. Al 1969 risale, per esempio, uno studio sui contenitori per bibite e, in Europa, si sviluppò un approccio per valutare la LCA, noto come ‘Ecobalance’. Nel 1972, in Inghilterra si valutò l’energia totale usata nella produzione di alcuni beni di consumo e si consolidò la metodologia per renderla applicabile a vari materiali.5 Inizialmente, si considerò a priorità più alta l’energia rispetto a reflui e sottoprodotti. Perciò, si faceva poca distinzione tra sviluppo degli inventari (risorse che finiscono in prodotto) e l’analisi degli impatti totali associati. Ma, finita la crisi petrolifera, la questione energetica si fece meno pressante e, pur continuando l’interesse per l’LCA, non si ebbero più novità rilevanti. Solo dopo il 1990 si accentuò l’interesse per l’LCA in forma generale da parte di industrie, società di progettazione o commerciali, e amministrazioni pubbliche. La LCA è ancora uno strumento relativamente giovane. Solo nel 1992 in una riunione delle Nazioni Unite si sancì che le metodologie di valutazione del ciclo di vita erano tra i supporti più promettenti per affrontare un ampio spettro di compiti di direzione ambientale. La più completa raccolta sull’LCA a tutt’oggi è il testo The LCA Sourcebook (1993). Questi studi circolanti tra una ristretta comunità scientifica passarono così finalmente al mondo reale. Ancora oggi però alcune realtà hanno scarse competenze in materia di LCA, mentre altre si sono organizzate con accademici e società per affrontare i problemi ambientali più disparati. Mentre il campo continua a progredire, sono emerse varie barriere ad una sua sistematica applicazione legate ad un basso livello di esperienza con l’LCA, cui si sono sommate eccessive aspettative e pubblicità. Per cui si sono avuti cocenti disillusioni, aggravate dalla sensazione che molti operatori del settore operassero più per rafforzare delle posizioni dominanti, che per cercare di capire e rispondere a reali problemi. In questo momento, si è in una fase di sviluppo e consolidamento della metodologia (si vedano l’insieme delle Norme ISO 14000 di Figura 6 che dai soli titoli evidenziano bene la complessità dell’argomento ed il ruolo centrare della LCA in tali normative, mentre l’acquisizione di una mentalità sul ciclo di vita si va diffondendo. Alcuni però pensano che l’LCA sia ancora lontana dall’offrire analisi e soluzioni chiare a tutti. 193 Figura 6 – Percorso della norma ISO-14000 con il ruolo cruciale della fase di LCA Tabella 3 – Il pacchetto delle norme ISO 14000 sulla Gestione Ambientale e Valutazione del Ciclo di Vita ISO 14001 – ISO14004 – ISO 14010/11/12 – ISO 14015 – ISO 14020 – ISO 14021 – ISO 14024 – ISO TR 14025 – ISO 14031 – ISO 14032 – ISO 14040 – ISO 14041 – ISO 14042 – ISO 14043 – ISO TR 14047 – ISO 14048 – ISO TR 14049 – ISO 14050 – ISO 14060 – ISO TR 14061 – ISO TR 14062 – ISO 14063 – ISO 14064 – Sistemi di Gestione Ambientale – Descrizione con guida per l’Uso Sistemi di Gestione Ambientale – Guide generali sui principi, sistemi e tecniche di supporto Sostituite dalle norme ISO 19011 – Guide per la qualità e/o per le verifiche EMS Gestione Ambientale – Valutazione ambientale dei siti e delle organizzazioni Marchi e dichiarazioni ambientali – Principi generali Marchi e dichiarazioni ambientali – Autocertificazione ambientale (etichettatura ambientale Tipo II) Marchi e dichiarazioni ambientali – Etichettatura ambientale Tipo I – Principi e procedure (etichettatura di prodotti) Marchi e dichiarazioni ambientali – Dichiarazione ambientale Tipo 111 Gestione Ambientale – Valutazione della efficienza ambientale – Linee guida Gestione Ambientale – Valutazione dell’efficienza ambientale – Esempi illustrativi dell’uso della ISO 14031 Gestione Ambientale – Valutazione del ciclo di vita - Principi e Struttura Gestione Ambientale – Valutazione del ciclo di vita – Definizione degli obiettivi e dell’ambito e analisi degli inventari Gestione Ambientale – Valutazione del ciclo di vita – Valutazione dell’impatto del ciclo di vita Gestione Ambientale – Valutazione del ciclo di vita – Interpretazione del ciclo di vita Gestione Ambientale – Valutazione del ciclo di vita – Esempi di applicazione della ISO 14042 Gestione Ambientale – Valutazione del ciclo di vita – Formato dei dati per la documentazione della valutazione del ciclo di vita Gestione Ambientale – Valutazione del ciclo di vita – Esempi di Applicazione della ISO 14041 alla definizione di obiettivi ed ambiti ed analisi degli inventari Gestione Ambientale – glossario Guida per l’inclusione degli Aspetti Ambientali negli Standard di Prodotto Informazioni per assistere le organizzazioni estere nell’uso degli standard ISO 14001 e ISO 14004 del Sistema di Gestione Ambientale Gestione Ambientale – Linee guida per integrare gli aspetti ambientali nello sviluppo di prodotto Gestione Ambientale – Comunicazioni Ambientali – Linee guida e esempi Linee guida per Misurare, Rendicontare e Verificare l’entità- e il livello prefissato di Emissioni di Gas Serra 194 Pur nelle difficoltà sopra menzionate, la valutazione del ciclo di vita più o meno approfondita e condivisa, rimane una grandezza importante nello sviluppo futuro di prodotti, processi ed attività. In particolare le analisi finora condotte hanno evidenziato come sia cruciale per i nuovi approcci alla sostenibilità il concetto di progettazione (“design”) basate sul ciclo di vita. E’ infatti evidente che se si tiene conto in fase di progettazione di prodotti, processi e attività di realizzare funzioni di massima eco-compatibilità, si avranno meno problemi e la necessità di minori correzioni rilevanti in futuro. Si stima che circa il 70% dei costi di sviluppo, produzione ed uso di un prodotto sia determinato dalla fase iniziale di progettazione. Ciò rende la “progettazione per l’ambiente” (DfE) un fattore determinante critico della competitività di un prodotto/processo/servizio. La fase di progettazione fornisce la massima flessibilità nel scegliere non solo le materie prime ma anche le trasformazioni da adottare e i relativi processi. La DfE per essere efficace deve prendere in considerazione un numero elevato di parametri per proporre soluzioni valide con attente fasi di ottimizzazione sulle materie prime, le trasformazioni, i trasporti e/o comunicazioni, sviluppando altresì nuovi concetti, quali la dematerializzazione, l’uso condiviso dei prodotti, l’integrazioni delle funzioni, l’ottimizzazione funzionale di componenti di un prodotto, processo o servizio. In figura 7 sono riassunti alcuni degli ambiti di primaria attenzione per la DfE. Il diagramma centrale a raggiera sta ad indicare che i singoli parametri ambientali, sociali ed economici devono essere quantificati e confrontati per individuare il compromesso ottimale da proporre. Figura 7 – Strategie per la progettazione per l’ambiente (DfE) e ciclo di vita dei prodotti (LCA) Per poter progettare un prodotto o processo, bisogna essere in grado di analizzarlo, caratterizzarlo, valutarlo e manipolarlo sufficientemente per raggiungere le finalità cui mira, e l’analisi del ciclo di vita costituisce pertanto lo strumento di base per la soluzione più corretta o, con le informazioni attuali, meno sconsiderata. Per gli sviluppatori di prodotti e per i progettisti sono disponibili una serie di linee guida e regole internazionali che riflettono le considerazioni ambientali per numerosi settori. Molte di queste regole sono costruite sugli stessi principi e si indicano spesso come “filosofia 6 RI”: • Ri-pensare – ripensare al prodotto e alle sue funzioni 195 • • • • • Ri-durre – ridurre i consumi di energia e di materiali lungo tutto il ciclo di vita del prodotto Ri-mpiazzare – sostituire le sostanze ambientalmente dannose con alternative più compatibili Ri-ciclare – selezionare i materiali che si possono riciclare Ri-usare – progettare i prodotti in modo che le loro parti costituenti si possano riusare o rifabbricare Ri-parare – progettare i prodotti in modo che siano facili da riparare Una volta analizzate e sviluppate le idee di nuovi prodotti sulla base di questi principi, se ne può visualizzare il profilo ambientale utilizzando un diagramma a rete (figura 7) che illustra graficamente i risultati attesi dello sviluppo di prodotto. In pratica, si possono evidenziare situazioni contraddittorie, per esempio tra una vita lunga del prodotto e l’impiego di una sostanza pericolosa nella fabbricazione. In questi casi diventa essenziale una dettagliata analisi del ciclo di vita per valutare l’impatto prevedibile e decidere l’immissione o meno del prodotto o cambiare strategia. Per situazioni industriali preesistenti si opera invece analizzando nel dettaglio l’organizzazione, la logistica e sicurezza operativa dei siti produttivi e dei singoli processi o servizi coinvolti, evidenziando le situazioni critiche, studiando le soluzioni più eco-compatibili ed applicando le tecnologie meno costose ma rispettose dell’ambiente e della salute degli operatori. La complessità dell’insieme delle attività coinvolte e i relativi oneri finanziari, tecnologici e organizzativi per rispettarne i dettami sono ben evidenti nel pacchetto delle norme ISO 14000 di Tabella 3, il cui rispetto è diventato uno standard per aziende che vogliono essere ambientalmente certificate. • Analisi dell’Impatto del Ciclo di Vita: Un processo tecnico quantitativo (e/o qualitativo) per caratterizzare e valutare gli effetti sull’ambiente dei carichi identificati nella fase di costruzione degli inventari. La valutazione deve riguardare considerazioni sia ecologiche che sanitarie come pure altri effetti, quali, per esempio, le modifiche dell’habitat e l’inquinamento da rumore. • Analisi del miglioramento del Ciclo di Vita: Una valutazione sistematica delle necessità e opportunità di ridurre il peso ambientale associato all’uso di energia e materie prime ed ai rilasci ambientali nel corso dell’intero ciclo di vita del prodotto, processo o attività. Questa analisi può includere sia misure quantitative che qualitative di miglioramenti, quali modifiche nella progettazione del prodotto, processo e attività, nell’uso di materie prime, nelle lavorazioni industriali, nell’uso da parte del consumatore finale e nel trattamento dei rifiuti. L’organizzazione complessiva prevista dalla metodologia LCA è riassunta nello schema di Figura 8. STRUMENTI DELL’LCA Per la valutazione del ciclo di vita ci si avvale di tre strumenti principali: • l’EIA (valutazione dell’impatto ambientale) uno strumento sito-specifico tipicamente usato per valutare l’impatto ambientale di investimenti/servizi progettati. • L’EA (verifica ambientale) uno strumento sito-specifico tipicamente usato per valutare un servizio esistente. Include considerazione su comunicazioni e gestione delle informazioni legate all’ambiente. • La RA (valutazione del rischio, talvolta incluso sia in EA che EIA) considera il rischio presentato da un materiale o servizio e include considerazioni sia del potenziale pericolo che della probabilità di accadimento. L’EIA si riferisce alla sola fase temporale della produzione e valuta le concentrazioni e le velocità di produzione delle emissioni, mentre la LCA copre l’intero processo dal punto di vista spaziale dalla estrazione alla produzione, all’uso e allo smaltimento. In generale perché una analisi LCA sia fattibile e con valide ricadute decisionali deve essere ben definito l’obiettivo e gli scopi che ci si pone, delineando l’ampiezza e i contorni del sistema che si intende prendere in esame. Si verifica infatti spesso che una definizione troppo limitata degli obiettivi può portare a sottovalutare alcuni fattori e condurre a risultati inattendibili, per cui in fase di avvio una procedura LCA deve essere la più ampia possibile (LCA completa), restringendo gli scopi non appena le prime valutazioni evidenzino situazioni poco rilevanti o trascurabili (LCA parziale). Una LCA completa è composta da tre componenti separate ma interconnesse: • Inventari del Ciclo di Vita: è un processo obiettivo di raccolta di dati per identificare e quantificare i carichi ambientali – l’energia e le materie prime usate, e le emissioni e i rifiuti conseguentemente rilasciati (emissioni in aria, effluenti liquidi, rifiuti solidi) nel corso del ciclo di vita di un prodotto, processo o attività. La costruzione degli inventari costituisce una fase critica e tutt’altro che elementare dovendosi fondare su criteri i più oggettivi possibile perché l’analisi abbia valore. E’ perciò indispensabile che sia condotta in modo dettagliato, ricorrendo ad informazioni più consolidate e certe (banche dati di riferimento, da più fonti) ed estrapolando il meno possibile i dati. Allo scopo è essenziale che venga- 196 197 Figura 8 - Aspetti della metodologia LCA. no utilizzati criteri predisposti su rigorose analisi scientifiche, specificando sempre le incertezze e gli assunti nei dati e nelle metodologie impiegate. La completezza dei dati è in genere correlata all’ampiezza dell’analisi che si vuol condurre e deve essere completa per gli specifici obiettivi e finalità definiti inizialmente o sufficientemente ampia da descrivere bene l’effetto atteso di un certo parametro sulla conclusione dello studio. Le fonti dei dati e le metodologie impiegate devono essere ben descritte e referenziate in modo da consentire verifiche e accertamenti sulla reale applicabilità (validazione). Devono essere segnalati tutti i casi in cui vengano trascurati dei dati perché non noti o troppo incerti e stimata la non significatività di questa semplificazione. Ogni dato deve poi essere correlato all’unità di processo e all’unità funzionale FU (cioè alla misura della prestazione del risultato funzionale del sistema prodotto) cui si riferisce, aggregando i dati se la grandezza o prodotto si estende su più unità di processo o unità funzionale. E’ bene tener presente che l’unità funzionale può essere ambigua se non ben definita, per esempio se si vuole confrontare 3 diverse unità funzionali costituite da 3 contenitori di diverso volume, una lattina di alluminio da 350 ml, una bottiglia di vetro da 500 ml ed una bottiglia di PET da 1 litro, è evidente che il quantitativo di liquido contenuto è diverso e si devono perciò rapportare i risultati al prodotto contenuto nel contenitore di dimensione inferiore. Infine sulla base dell’analisi critica dei dati si definiscono meglio i contorni del sistema prodotto, chiarendo quanto appartenente o meno ad esso. La definizione del contorno del sistema e delle unità di processo costituiscono delle fasi preliminari importanti che condizionano le attività di raccolta ed analisi dei dati, per cui si richiede un’attenta ricognizione delle varie componenti unitarie del sistema. Così per esempio per valutare la produzione ed uso di un manufatto di acciaio si è identificato che il sistema prodotto è costituito da 15 processi unitari riportati schematicamente nella figura 9. 198 Come detto i dati vengono raccolti per unità di processo e per unità funzionale (per esempio chilogrammi di anidride carbonica prodotta per chilogrammo di prodotto commercializzato) e le metodologie variano in dipendenza dell’obiettivo e dell’unità di processo, ma si deve tener presente che questa fase è molto costosa e richiede un uso intensivo di risorse umane e di calcolo. In particolare è bene stabilire delle procedure di assegnazione nel caso in cui si ha a che fare con sistemi a prodotti multipli in modo da valutare il contributo relativo di ognuno. I calcoli del flusso dell’energia devono poi tenere in considerazione i diversi combustibili e fonti di elettricità utilizzati, oltre che l’efficienza della conversione e distribuzione dell’energia nonché degli ingressi e delle uscite associate alla generazione ed uso di tali flussi energetici. Raccolta dati Procedure di calcolo Quantificazione ingressi e uscite Uso di risorse rilasci in aria rilasci in acqua rilasci nel suolo Ogni uscita creata dal ciclo di vita deve essere quantificata e normalizzata in modo riassuntivo con valor medi o indicatori per facilitarne l’uso in fase di definizione degli impatti e nella predisposizione di misure correttive. Affinché la LCA possa aiutare a prendere delle decisioni, i dati degli inventari devono essere poi interpretati. In base alle conoscenze maturate sull’evoluzione nell’ambiente dei composti prodotti e l’attività degli specifici composti, gli scambi vengono convertiti in impatti sull’ambiente, sul consumo delle risorse e sulla salute (Figura 10). Si tratta di una operazione non immediata in quanto non è sempre così univoca la connessione tra i dati raccolti e la grandezza presa in esame, specie nel caso di fenomeni globali. Per esempio, si deve tener presente tutti i gas impiegati o prodotti che provocano un effetto serra quantificabile, tutti i gas che provocano un riduzione dello strato di ozono, tutti i gas che provocano smog, la tossicità di tutti i composti impiegati, la degradazione dei suoli o del territorio, ecc. ed ad ognuno di questi fenomeni deve essere associabile un indice di quantificazione, che moltiplicato per la quantità di ogni prodotto che concorre a generare il fenomeno fornisce l’impatto ambientale di tale prodotto. Questa fase, molto difficile e spesso controversa, può essere realizzata in diversi modi, si possono per esempio: • sommare le emissioni simili (per es., CO2 prodotta, …), le diminuzioni di risorse, ecc., e discutere • stimare gli impatti dalle emissioni (per es., riscaldamento globale,…), gli effetti della diminuzione delle risorse, ecc., e discutere • pesare i vari impatti e combinarli per ricavare pochi numeri da confrontare. 199 La scelta delle categorie di impatto condiziona il numero, tipo e significato degli indicatori ad esse associate e non stupisce che nel tempo le categorie siano cambiate da nazione a nazione e in relazione ai diversi obiettivi posti all’LCA, per lo più per tener conto in dettaglio dei molteplici tipi di danni locali o globali provocati dall’uso di prodotti o di processi. In particolare, per individuare le categorie sono stati impiegati approcci classici orientati al problema (intermedi), in cui i risultati LCI sono modellizzati in base a dove si verificano gli effetti, oppure approcci orientati al danno (finali), in cui i risultati sono modellizzati in base a dove si verificano i danni (Figura 12). Le categorie di impatto più frequentemente utilizzate, suddivise in base al tipo di approccio, sono raccolte in Figura 12, mentre in Tabella 4 sono riportate le più tipiche categorie di impatto (il riscaldamento globale (GWP), la diminuzione dell’ozono stratosferico, l’acidificazione, l’eutrofizzazione, la tossicità acquatica, lo smog fotochimico, la tossicità terrestre, la salute umana, l’esuarimento della risorse, l’uso della terra) con il tipo di scala cui si riferiscono (globale, regionale o locale), i dati LCI più rilevanti per ogni categoria di impatto, il fattore comune di caratterizzazione e la modalità di definizione di tale fattore. Questa fase (detta generalmente LCI) è in genere assistita da calcolatori per tenere in considerazione i numerosi dati degli inventari e le espressioni matematiche di conversione di questi in unità confrontabili e in impatti previsti, oltre che per raggruppare gli impatti in indicatori generali. Le principali difficoltà risiedono nei criteri di valutazione obiettiva degli indici di impatto, spesso noti in maniera approssimata e quindi soggetti a valutazioni personali, e nei fattori di conversione dei diversi componenti che si ritiene utile aggregare. Una serie di software sono stati proposti per semplificare tale analisi.6 Proprio queste considerazioni hanno suggerito ai redattori delle norme ISO 14040 di suddividere le fasi di valutazione degli impatti in due sezioni, una obbligatoria, contenente da un lato la definizione delle categorie di impatto, le categorie di indicatori e i modelli adottati, e dall’altro la classificazione dei risultati alle varie categorie di impatto e ai relativi calcoli, ed una facoltativa che prevede la normalizzazione dei dati rispetto ad un riferimento standard, il raggruppamento e la pesatura dei dati in indici complessivi, seguita da una fase di analisi della qualità dei risultati ottenuti e il loro confronto con i risultati di analisi LCA di prodotti simili o di strutture competitive (Fig. 11). Approcci Intermedi Diminuzione delle risorse, uso della terra Riscaldamento globale Scomparsa dell’ozono Tossicità umana Ecotossicità Potenziale Ossidante Fotochimico Acidificazione Eutroficazione Odore, Disturbi Danni all’ecosistema Vittime Radioattività Economia Atomica Approcci finali Danni alle risorse minerali e fossili Salute umana Salute dell’ecosistema Fig. 12. Alcune tipiche categorie di impatto suddivise in funzione della valutazione dell’effetto o del danno Figura 11 – Elementi della procedura della valutazione del ciclo di vita secondo la norma ISO14040 200 201 Tabella 4 – Esempi di categorie di impatto con la relativa scala, i dati LCI, e il fattore di caratterizzazione Categoria di Impatto Scala Dati LCI Rilevanti (p. es., classificazione) Fattore Comune di Caratterizzazione Descrizione del Fattore Riscaldamento Globale Globale Biossido di carbonio (CO2.) Biossido di azoto (NO2.) Metano (CH4) Clorofluorocarburi (CFC) Idroclorofluorocarburi (HCFC) Metil Bromuro (CH3Br) Potenziale di Riscaldamento Globale (GWP) Converte i dati LCI in equivalenti di CO2. Nota: i potenziali di riscaldamento globale sono 50, 100, o 500 anni. Diminuzione dell’Ozono Stratosferico Globale Clorofluorocarburi (CFC) Idroclorofluorocarburi (HCFC) Halon Metil Bromuro (CH3Br) Potenziale di distruzione dell’ozono Converte i dati LCI in equivalenti di tricloro-fluorometano (CFC-11). Acidificazione Regionale Locale Ossidi di zolfo (SOx) Ossidi di Azoto (NOx) Acido Cloridrico (HCl) Acido Fluoridrico (HF) Ammoniaca (NH3) Potenziale di Acidificazione Converte i dati LCI in equivalenti di ioni idrogeno (H+) . Fosfato (PO43-) Ossido di azoto (NO) Biossido di azoto (NO2) Nitrati (NO3-) Ammoniaca (NH3) Potenziale di Eutrofizzazione Eutrofizzazione Locale Converte i dati LCI in equivalenti di ioni fosfato (PO43-) Tossicità acquatica Locale Composti chimici tossici con una concentrazione letale nota per i pesci LD50 Converte i dati di LD50 in equivalenti Riscaldamento Globale Locale Idrocarburi, escluso metano Potenziale di creazione di ossidanti fotochimici Converte i dati LCI in equivalenti di etano. Tossicità terrestre Locale Composti chimici tossici con concentrazioni riportate per i roditori LC50 Converte i dati LC50 in equivalenti. Salute umana Globale Regionale Locale Rilasci totali in aria, acqua e suolo LC50 Converte i dati LC50 in equivalenti. Esaurimento delle risorse Globale Regionale Locale Quantità di minerali usati Quantità di combustibili fossili usati Potenziale di Esaurimento delle risorse Converte i dati LCI in rapporto tra quantità di risorse usate e quantità lasciate di riserva Uso della terra Globale Regionale Locale Quantità immesse in discarica Rifiuti solidi Converte la massa dei rifiuti solidi in volume tramite la densità 202 Se alcune categorie sono intuitive, altre lo sono molto meno, perché meno evidenti anche se di significato molto profondo. Si prenda per esempio la categoria dell’Economia Atomica (EA), questo è un parametro chimico associato alla bontà di una o più trasformazioni chimiche ed è definito dal rapporto degli atomi contenuti nel prodotto rispetto a tutti gli atomi contenuti nelle materie prime utilizzate. L’ottimale (EA = 1) si raggiunge quando un processo è altamente selettivo e la resa della(e) trasformazione(i) è quantitativa. Questo parametro permette il confronto tra processi chimici valutando quantitativamente l’entità degli scarti e la bontà delle strategie di sintesi dei prodotti che devono incorporare il massimo numero di atomi possibile evitando gli sprechi. Così se si prendono in esame due metodi di preparazione dell’anidride maleica (C4H4O), quello per ossidazione del benzene e quello per ossidazione del butano, si può facilmente stabilire che l’Economia Atomica associata al processo da butano è migliore di quella da benzene. Ciò indica che questo processo utilizza meglio gli atomi dei reagenti non formando il coprodotto anidride carbonica; ciò indipendentemente da considerazioni sulla tossicità, che comunque lo fanno preferire a causa dell’elevata tossicità del benzene. C6H6 + 4.5 O2 → C4H4O + 2 CO2 + 2 H2O E.A. = 0,441 C4H8 + 3 O2 → C4H4O + 3 H2O E.A. = 0,645 Anche i modelli impiegati per valutare i contributi delle varie categorie di impatto hanno subito numerose evoluzioni, adottati per lo più da singole nazioni nell’intento di tener precipuo conto delle peculiarità dei vari paesi. I più indagati in Europa sono di seguito riportati, suddivisi in base al tipo di classificazione adottata: • Volumi critici (distanza dall’obiettivo): BUWAL 1991 (Svizzera - standard di qualità dell’aria ambiente, limiti occupazionali di aria, standard di scarichi nelle acque), CML 1991 (Olanda standard di esposizione occupazionale, direttive EU per le acque superficiali usate come acqua potabile). • Categoria di effetto (alcuni esempi): CML 1992/2000 (Olanda - 14 categorie, intermedi). IVL 1992 (Svezia - 6 categorie, intermedie), UBA 1994 (Germania - 10 categorie, intermedie), EDIP 1997 (Danimarca - 9 categorie, intermedie), Eco-indicatore 99 (Olanda - 3 categorie, finali). • Valutazione Integrata: BUWAL 1993 (eco-indicatore svizzero - basato sulla scarsità ecologica (approccio domanda/offerta), utilizza uno standard svizzero. PRE 1992 (eco-indicatore tedesco basato sulla scarsità ecologica, usa uno standard tedesco). Riassumendo il processo di costruzione degli inventari sembra abbastanza semplice in principio. In pratica, però esso è soggetto ad un vasto numero di problemi pratici e metodologici, e precisamente: • Contorni del sistema Nell’inserire il ciclo di vita nei processi, non è sempre chiaro quanto lontano si deve andare nell’includere processi appartenenti al prodotto di interesse. Nella produzione del polietilene, per esempio, si deve estrarre il petrolio; questo deve esser trasportato in autobotti; dell’acciaio è necessario per costruire le autobotti, e le materie prime necessarie per produrre questo acciaio devono essere estratte. Per ragioni pratiche si deve tracciare una linea di confine. Per esempio, la produzione di beni capitali viene normalmente esclusa. 203 • • • • • Processi che generano più di un prodotto Per esempio l’elettrolisi del sale per produrre cloro. Gli effetti ambientali del processo di elettrolisi non si possono ascrivere interamente al solo cloro, in quando si co-producono anche soda caustica e idrogeno. In questi casi si rende necessario introdurre una opportune regola di allocazione, per esempio allocazione su basi di massa o di valore economico dei prodotti. Impatti evitati Quando un processo di smaltimento genera un prodotto remunerativo, come la generazione di energia in un impianto municipale di incenerimento, non solo l’impatto diminuisce, ma si evitano anche degli impatti, in quanto non è più necessario produrre l’energia o il materiale con l’approccio normale. Per tener conto di ciò, si introducono gli impatti evitati. Questi sono equivalenti agli impatti che si sarebbero avuti nella reale produzione del materiale o dell’energia. Gli impatti evitati di un processo si deducono dagli impatti causati da altri processi. In molti programmi software di analisi LCA si usano entrambi i concetti di attribuzione degli impatti che di emissioni evitate. Variazioni geografiche Un impianto di elettrolisi in Svezia impiega elettricità molto meno ambientalmente dannosa che un identico impianto in Italia, in quanto in Svezia l’energia idroelettrica è più diffusamente usata. Qualità dei dati Le pubblicazioni dei dati ambientali dei processi sono spesso incomplete o non accurate. Inoltre, i dati sono soggetti ad obsolescenza; sono noti vari casi in cui le industrie manifatturiere hanno tagliato le emissioni del 90% nel corso degli ultimi dieci anni. L’uso di dati obsoleti può perciò causare distorsioni. Scelta della tecnologia Si deve fare una netta distinzione tra tecnologia peggiore (o superata), media, e ottima (o moderna). Prima di partire a raccogliere i dati è importante tener conto di che tipo di tecnologia ci si sta interessando. In vari programmi di calcolo sono presenti per lo più tecnologie medie nell’intento da dare delle stime di minimo accettabili. Vanno evitate invece le tecnologie peggiori. L’aggiornamento alle tecnologie ottimali è condizionato spesso da problemi di investimento e di consolidamento temporale che si esauriscono spesso nell’arco di numerosi anni. Nonostante questi problemi, è spesso facile eseguire un inventario degli impatti. E’ però chiaro che è irragionevole trattare i risultati come verità assolute. Fattori come la scelta della tecnologia e dei confine del sistema, della qualità dei dati, ecc. devono esser tenuti in debita considerazione nell’interpretare i risultati deducibili dalla analisi LCA. Non deve perciò stupire che esistano disaccordi tra gli esperti sulla bontà ambientale di un prodotto, processo o attività. L’indicatore permette cioè in forma riassuntiva di confrontare diversi prodotti o processi valutandone l’incidenza nel modo più ampio possibile comprese le ricadute in ambito economico e sociale. Se ben definito esso può fornire lo strumento operativo per decisioni consapevoli a livello politico, senza trascurare le possibili incertezze nella valutazione di tali parametri che possono condurre a conclusioni sbagliate. In alcuni casi infatti l’andamento dell’indicatore è ben chiaro, in altri gli scostamenti sono modesti e solo una analisi di sensitività dell’indicatore può essere di supporto ad una corretta decisione. Tabella 5. Le tre linee principali degli indicatori ambientali (EPI) Così, per esempio, analizzando due diversi sistemi di produzione dell’energia basati sul carbone (Figura 14) o biomasse-legno (Figura 15), è fuori da ogni ragionevole dubbio la diversa entità del parametro effetto serra (GWP), con un bilancio sull’intero ciclo di quasi un ordine di grandezza superiore per il carbone che per le biomasse. Le necessità di condensare l’enorme massa di dati oggetto dell’analisi LCA in indicatori dipende anche dall’eterogeneità dei soggetti a cui si rivolge. E’ evidente infatti che analisi troppo dettagliate non interessano ad un vasto pubblico e che le informazioni utili per gli scienziati sono sovrabbondanti per gli operatori politici. Ne consegue che si assiste ad una progressiva condensazione dei dati in indicatori quantitativi sempre più percepibili da operatori meno specializzati. In Figura 13 è riportata schematicamente il tipico andamento seguito nella creazione della gerarchia degli indicatori nella maggior parte dei programmi utilizzati nelle analisi LCA. Gli indicatori per il pubblico sono di più immediata percezione e sono in genere accompagnati da spiegazioni volte a chiarirne limiti e significato. Una forma estrema di indicatore è l’etichetta, che condensa in pochi numeri o simboli un’ampia serie di dati. Più è semplice e chiara più efficace è l’effetto che può produrre. Nelle etichette si riportano numeri solo associati ad indicatori immediatamente percepibili, più comunemente si ricorre a simboli che sottintendono un valore di soglia raggiunto da uno o più indicatori. INDICATORE AMBIENTALE (EPI). E’ definito come un parametro (o valore derivato da parametri), che fornisce informazione su un fenomeno. L’indicatore ha un significato che va oltre le proprietà direttamente associate al valore del parametro stesso e tende a stimare in forma globale l’incidenza del ciclo di vita in esame sulle ricadute ambientali, finanziarie e sociali associate al prodotto, processo o attività relative. In tabella 5 sono riportati alcuni dei numerosi indicatori oggetto dell’analisi LCA, classificati nei tre ambiti a cui l’analisi LCA intende rivolgersi, quello tecnico, quello finanziario e quello sociale. 204 205 VALUTAZIONE DELL’IMPATTO La valutazione dell’impatto si compone normalmente di quattro stadi: classificazione caratterizzazione normalizzazione valutazione Nella Classificazione, i dati dalle tabelle dell’inventario vengono raggruppati assieme in un certo numero di categorie di impatto (per es. effetto gas serra, eutrofizzazione, acidificazione, ecotossicità, ecc…). Questo raggruppamento implica che alcune emissioni si devono introdurre in categorie di impatto differenti. Così, per es. le emissioni di NOx si devono introdurre nelle categorie acidificazione ed eutrofizzazione. Metodi diversi di valutazione dell’impatto possono impiegare categorie di impatto differenti. Nella Caratterizzazione, si calcolano i contributi all’effetto totale di ogni singola emissione in un singolo parametro (per es. “equivalenti di CO2”). Si impiegano diversi approcci: Approccio del Volume Critico (distanza dall’obiettivo). Le emissioni in aria e acqua sono correlati a standard di qualità dell’aria e dell’acqua. Ogni emissione si moltiplica per un fattore di peso e i valori vengono sommati per recuperare un indicatore complessivo per l’ “aria” e per l’ “acqua”. Categoria Effetto/Danno. Le emissioni si raggruppano secondo le categorie di impatto e quindi si moltiplicano per il fattore di peso. Metodi di Valutazione Integrata. Si usano “Eco-fattori” basati sul principio della domanda e offerta (o inquinamento permesso). Predisposto per l’uso in un’area specifica (per es. nazione). • • • • Figura 14 - GWP del ciclo di vita e bilancio energetico per un sistema di produzione di energia basato sulla combustione del carbone. Le sostanze vengono aggregate in ciascuna classe per produrre un punteggio di effetto. Non è corretto sommare semplicemente le quantità di sostanze implicate senza applicare dei pesi. Alcune sostanze producono infatti effetti più intensi di altre. Si affronta il problema applicando dei fattori di pesatura per le diverse sostanze. Un semplice esempio di questi calcoli è riportato in Tabella 6. Tabella 6 Esempio di caratterizzazione di una piccola tabella di inventario. Le emissioni sono moltiplicate per il corrispondente fattore di pesatura prima di venir sommate per classi. I risultati sono i punteggi d'effetto. Emissione CO2 CO NOx SO2 Punteggi di effetto: Figura 15 - GWP del ciclo di vita e bilancio energetico per un sistema di produzione di energia basato sulla combustione diretta di biomasse. 206 Quantità (kg) 1.792 0.000670 0.001091 0.000987 Eff. serra x1 - Diminuzione strato ozono - Tossicità umana x 0.012 x 0.78 x 1.2 Acidificazione x 0.7 x1 1.792 0 0.00204 0.0017 L’effetto maggiore calcolato viene scalato a 100%. Per cui si possono confrontare i materiali e processi solo per singolo effetto. Questa fase è molto utile per realizzare confronti tra prodotti e processi. 207 Nella Normalizzazione, si definisce l’importanza relativa di ogni categoria di impatto rispetto ad un riferimento scelto, quale l’emissione totale annuale di gas serra prodotto dalla popolazione mondiale. Dopo aver normalizzato i risultati, si individua meglio l’importanza relativa di ciascuna categoria di impatto. Nella Valutazione, si pesano e confrontano i valori di tutte le categorie di impatto. L’obiettivo è quello di integrare i “valori” delle differenti categorie di impatto in una conclusione complessiva. Questa fase è politica o menageriale, non basata sulla scienza. Spesso usata per decisioni politiche ma l’importanza relativa e la prioritizzazione è normalmente molto controversa. In Figura 16 è schematicamente rappresentata la sequenza delle operazioni sopra descritte. La valutazione quantitativa di questi indicatori deve sempre comprendere una analisi sull’incertezza della misura (valor medio + deviazione standard) in quanto l’assenza di tali informazioni potrebbe condurre a conclusioni errate. Nell’esempio di figura 17 il grafico a barre a sinistra confronta due indicatori complessivi GWP-CO2 e BOD (biodegradabilità) di due diversi prodotti A e B senza tener conto dei limiti di errore associati alla misura, mentre il grafico a destra li prende correttamente in considerazione (linee rosse). La conclusione corretta di questo confronto è che i due prodotti sono sostanzialmente equivalenti, mentre dal grafico di sinistra si sarebbe indotti a ritenere che il prodotto A sia migliore del prodotto B. Figura 16. Le quattro fasi nella valutazione dell'impatto di un prodotto secondo 4 categorie di impatto (A, B e Y sono parametri di pesatura, mentre NF indica la normalizzazione rispetto allo standard scelto) Figura 17. Risultati di una valutazione LCA per 2 emissioni prodotte da 2 prodotti espresse senza e con gli errori sulla misura. RISULTATI DELLA LCA Il risultato dell’analisi LCA è molto spesso un indicatore numerico che definisce l’impatto ambientale per unità funzionale, per esempio la quantità di ioni nitrato (NO3-) o ione ammonio (NH4+) nelle acque superficiali rispetto alla quantità di foraggio prodotto nei campi ad esse collegate. 208 Determinare l’incertezza nei vari parametri e, più in generale, le problematiche significative di un sistema prodotto può essere semplice o complesso. Sono raccomandati i seguenti approcci per assistere nell’identificazione delle problematiche ambientali e nel determinarne l’efficacia: • Analisi dei Contributi - il contributo degli stadi del ciclo di vita o gruppi di processi sono confrontati con il risultato totale ed esaminati per la relativa rilevanza. • Analisi dei Fattori Dominanti – analisi statistiche o altre tecniche, quali la graduazione quantitativa o qualitativa, vengono usate per identificare i contributi significativi da esaminare per rilevanza. • Valutazione delle Anomalie - basate su esperienze precedenti, le deviazioni normali o sorprendenti rispetto a risultati attesi o normali vengono osservate ed esaminate per rilevanza. 209 In questa fase si stabilisce il grado di confidenza dei risultati valutandone la completezza, la consistenza e la sensitività. Quest’ultima verifica si può effettuare sulle problematiche più significative usando le seguenti tre tecniche comuni per l’analisi di qualità dei dati: 1. Analisi di Gravità – Identifica i dati che hanno un contributo maggiore sui risultati dell’indicatore di impatto. 2. Analisi dell’Incertezza – Descrive la variabilità dei dati LCIA per determinare la rilevanza di risultati dell’indicatore di impatto. 3. Analisi di Sensitività – Misura l’entità che cambiamenti nei risultati LCI e nei modelli di caratterizzazione hanno sui risultati dell’indicatore di impatto. Alla fine di queste verifiche si procede all’interpretazione dei risultati della valutazione dell’impatto del ciclo di vita per determinare quale prodotto/processo ha il minimo impatto complessivo per la salute umana e per l’ambiente, e/o ad una o più aree specifiche di preoccupazione come definite dagli obiettivi e finalità dello studio. Le conclusioni devono segnalare sempre gli assunti fatti. • • • • ETICHETTE (MARCHI) ECOLOGICI Le etichette o marchi ecologici sono oggetti, applicati direttamente su un prodotto o su un servizio, che forniscono informazioni sulla sua performance ambientale complessiva, o su uno o più aspetti ambientali specifici. Con esse si cerca di fornire in modo succinto indicazioni sulle conclusioni dell’analisi LCA o più spesso sul rispetto di un criterio ecologico. Questo è definito come un requisito che deve essere rispettato da un prodotto o da un produttore per dimostrare che quel dato prodotto o processo produttivo ha un impatto ambientale ridotto rispetto a un prodotto o processo che svolga la stessa funzione. Ad esempio, il Comitato dell’Unione Europea per il Marchio Ecologico (CUEME) fissa i criteri ecologici a cui si deve conformare un prodotto per ottenere il marchio Ecolabel (“il fiore”). Allo stesso modo, le pubbliche amministrazioni possono inserire dei criteri ecologici nei propri bandi di gara per orientare le proprie scelte verso l’acquisto di prodotti/servizi a impatto ambientale ridotto. I sistemi di etichettatura sono suddivisi in obbligatori o volontari. ETICHETTATURE OBBLIGATORIE Le etichettature obbligatorie nell’Unione Europea si applicano in diversi settori e vincolano i produttori utilizzatori, distributori e le altri parti in causa ad attenersi alle prescrizioni legislative. Questa tipologia di etichettatura si colloca all’interno del tradizionale approccio “command and control” ma comunque contribuisce in modo significativo al raggiungimento di alcuni fondamentali obiettivi ambientali fissati a livello europeo e nazionale, tanto che in alcuni casi rappresenta un forte stimolo per le imprese all’attivazione di iniziative ambientali volontarie (accordi di programma, EMAS, ecc.). Le etichettature obbligatorie si applicano principalmente ai seguenti gruppi di prodotti: • Sostanze tossiche e pericolose Le etichette apposte sui contenitori di sostanze tossiche e pericolose sono rivolte ai consumatori/utilizzatori che ne fanno direttamente uso, di conseguenza gli aspetti più importanti di questa etichetta si riferiscono alla salute e alla sicurezza. La direttiva 93/21/EEC ha introdotto il simbolo di pericolo specifico per le sostanze “ambientalmente pericolose”. 210 Elettrodomestici - Energy Label La Direttiva Europea 92/75/CEE recepita in Italia con il DPR n.107 del 9 marzo 1998, ha reso obbligatorio per i produttori di elettrodomestici di indicare il consumo di energia e di altre risorse quali l’acqua. L’Energy Label ha lo scopo di fornire all’utilizzatore finale una corretta e chiara informazione circa il consumo energetico dell’apparecchio al momento dell’acquisto. Tutte le etichette riportano i dati di consumo e di prestazione misurati applicando la norma En 153. Prodotti Alimentari Il campo delle etichettature dei prodotti alimentari è molto complesso con più di 40 leggi Europee al riguardo. La legge impone alcune regole ma non garantisce ancora la completa trasparenza delle informazioni. Per esempio per quanto riguarda gli ingredienti la normativa attuale prevede che se l’ingrediente composto non supera il 25% del totale, non è necessario dichiararne la composizione. Imballaggi - Packaging Label Il marchio è stato introdotto a seguito del decreto Ronchi, permette di facilitare la raccolta, il recupero e il riciclo dei materiali a fine vita. Il marchio è di forma triangolare accompagnato da un sigla o un numero ed identifica il materiale. Elettricità da fonti rinnovabili – Certificati Verdi Il certificato è un titolo ufficiale comprovante che uno specifico quantitativo di energia è stato generato da fonti rinnovabili. Questi certificati sono negoziabili, cioè possono essere acquistati dalle aziende distributrici a dimostrazione della capacità produttiva di energia da fonti rinnovabili immessa nella rete. ETICHETTATURE VOLONTARIE La richiesta di un marchio è del tutto volontaria, per cui i fabbricanti, gli importatori, o i distributori possono decidere di aderire al sistema di etichettatura, una volta verificata la rispondenza dei prodotti ai criteri. Le etichette volontarie possono essere distinte in base alle definizioni date dalle norme internazionali della serie 14020:1999. ISO Tipo I – ISO 14024, 1999 Etichetta basata su un sistema a più criteri che considera l’intero ciclo di vita del prodotto, certificata e gestita da una terza parte indipendente. Indica le migliori prestazioni ambientali di un prodotto appartenente a delle categorie particolari. L’Ecolabel rientra in questa categoria. Alcuni dei marchi più conosciuti e consolidati sono sotto riportati. Esistono inoltre marchi per l’identificazione dei prodotti derivati dall’agricoltura biologica e marchi per prodotti tessili e per prodotti derivati da risorse forestali. 211 ISO tipo II – ISO 14021, 1999 Auto-dichiarazione (green claim) ambientale da parte di produttori, importatori o distributori dei prodotti, senza l’intervento di un organismo di certificazione indipendente. Include tutte le dichiarazioni, etichette, simboli di valenza ambientale presenti sulle confezioni dei prodotti, sugli imballaggi, o nelle pubblicità utilizzati dagli stessi produttori come strumento di informazione ambientale. ISO Tipo III – ISO 14025 La dichiarazione ambientale di prodotto (EPD - DAP) è uno strumento di informazione, sulle performance ambientali di un prodotto, di tipo quantitativo e basato sugli impatti individuati dall’LCA. È applicabile a tutti i prodotti o servizi indipendentemente dal loro uso o posizionamento nella catena produttiva e viene verificata e convalidata da un organismo accreditato indipendente che garantisce la credibilità e veridicità delle informazioni contenute nello studio di LCA nella dichiarazione. I Marchi sociali Oltre ai sistemi di etichettatura ambientale di prodotti e servizi ne esistono altri, diffusi in tutti i paesi europei, che riguardano la sicurezza, le implicazioni sulla salute dell’uomo o aspetti tecnici, economici, etici e sociali relativi ai prodotti. Tra questi, i marchi sociali, che si sono diffusi in Europa maggiormente dall’inizio degli anni ’90, sono particolarmente significativi in riferimento ai temi e agli obiettivi della sostenibilità ambientale. I marchi di garanzia del Commercio Equo Solidale sono 17 nei diversi paesi europei, riuniti sotto l’Organizzazione Internazionale FLO-Fairtrade Labelling Organizations. Un altro sistema interessante di certificazione degli aspetti sociali legati alla produzione di un prodotto è il Social Accountability 8000 (SA8000): uno standard internazionale che è stato promosso e definito dal Council of Economic Priorities Accreditation Agency, in collaborazione con ONG, sindacati e imprese, ed emesso ufficialmente nell’ottobre 1997. RIFERIMENTI BIBLIOGRAFICI Etichette e marchi hanno l’obiettivo di informare il possibile acquirente del prodotto, processo o servizio del rispetto di alcuni criteri ambientali e/o sociali, ma la loro efficacia dipende dalle scelte dell’acquirente /gestore/proprietario e dalla sua sensibilità verso le problematiche ambientali e/o sociali. Una scelta sistematica in questa direzione del singolo o di intere organizzazioni può costituire la base per un sistematico miglioramento verso il raggiungimento di uno sviluppo sostenibile.vii Un codice di comportamento sugli acquisti che operi scelte sistematiche di prodotti e servizi in questa direzione è indicato col termine acquisti verdi. Sono soprattutto gli enti pubblici e privati che finora hanno operato in questa direzione, mentre le scarse informazioni disponibili per i singoli cittadini hanno condizionato la sensibilità del pubblico in questa direzione. Sono tuttavia noti casi in cui il pubblico ha condizionato lo sviluppo di certi prodotti nella direzione della eco-compatibilità, anche se sono ben documentati i tentativi di influenzare le scelte del pubblico in altre direzioni anche sfruttando il potere pervasivo dei mezzi di comunicazione di massa. Tra i tre principi che regolano le scelte nell’ambito degli acquisti verdi spicca una ampia e generalizzata informazione sui dati di LCA, oltre che la definizione di politiche e pratiche di gestione degli acquisti rispettosi della sostenibilità e il sistematico ricorso a informazioni eco-correlate per valutare produttori e distributori dei prodotti o servizi. 1. R.A.BRADEN, “Industrial Ecology: The Materials Scientist in an Environmentally Constrained World,” MRS Bulletin 17, 1992, 3, 46–51. 2. P. ANASTAS, A. WARNER, Green Chemistry Theory and Practice, Oxford University Press, 2000. 3. (a) D.T. ALLEN, D.R. SHONNARD, Green Engineering : Environmentally- Conscious Design of Chemical Processes, Prentice Hall, pg. 552, 2002. (b) Sandestin declaration: Green Engineering: Defining the Principles, Engineering Conferences International, FL, USA, May 17-22, 2003. 4. Society of Environmental Toxicology and Chemistry Guidelines for Life Cycle Assessment ‘A Code of Practice’ Agosto 1993. Vedi anche http://www.envipark.com/ . 5. Boustead, Handbook of Industrial Energy Analysis, 1979. Hendrickson, C., A. Horvath, S. Joshi and L.B. Lave, “Economic Input-Output Models for Environmental Life Cycle Analysis,” Environmental Science & Technology, April, 1998 6. I software per analisi LCA più conosciuti sono: CMLCA -Chain Management by Life Cycle Assessment - CML all’Università di Leiden Design for Environment, Ver 1.0 - Boothroyd Dewhurst, Inc. e TNO Institute ECO-it: Eco-Indicator Tool for environmentally friendly design - PRé Consultants EcoManager - Franklin Associates EcoPro - sinum Corporate Environmental Management ECOScan - Turtle Bay dal TNO EDIP - Environmental design of industrial products - EPA Danese EIOLCA - Economic Input-Output LCA alla Carnegie Mellon University GaBi 3 - (Ganzheitliche Bilanzierung) - Università di Stoccarda (IKP)/PE Product Engineering IDEMAT - Delft University Clean Technology Institute Interduct Environmental Product 212 213 Development KCL-ECO 3.0 - KCL LCA software Life-Cycle Advantage – Battelle LCAiT - CIT EkoLogik (Chalmers Industriteknik) LCNetBase - Life cycle assessment using traceble US data – Sylvatica PTLaser A Tool to Evaluate both Economic and Environmental Impacts of Process Decisions – Sylvatica REPAQ - Franklin Associates SimaPro 4.0 for Windows - PRé Consultants SPINE - SPINE is an information model for environmental LCI and LCA data. SPOLD - Society for the Promotion of Life-cycle Assessment Development TCAce - Life cycle assessment and economic evaluation integration – Sylvatica TIIM - Franklin Associates Umberto - An advanced software tool for Life Cycle Assessment - Institut für Umweltinformatik 7. Esistono vari buoni siti web su cui trovare aiuto informazione in rete su questi argomenti: Prodotti più puliti: vedere http://www.minambiente.it/Sito/home.asp (sito web del Ministero dell’Ambiente Italiano). Su questo sito si possono trovare relazioni su progetti, riferimenti a tipi di prodotti, informazione su iniziative nel settore. http://venus.unive.it/inca/ (Consorzio INCA); http://www.globalwitness.org/ (Global Witness); http://esl.jrc.it/dc/index_IT.htm (Collezione in linea degli indicatori ambientali) Energia: vedere http://www.enea.it/ (Enea), http://www.autorita.energia.it/, http://www.feem.it/ (Fondazione Eni Enrico Mattei), http://www.afdc.doe.gov/altfuels.html (combustibili alternativi) Rifiuti: vedere http://www.borsarifiuti.com/ ; www.corepla.it (Consorzio Nazionale per la Raccolta, il Riciclaggio e il Recupero dei Rifiuti di Imballaggi in Plastica (CO.RE.PLA); http://www.conai.it/ (Consorzio Nazionale Imballaggi), http://www.flanet.org/ (Fondazione Lombardia per l’Ambiente) Trasporti: vedere http://www.infrastrutturetrasporti.it/page/standard/site.php (sito del ministero delle infrastrutture e dei trasporti); www.transit.dk (transIT – fornisce informazioni sul trasporto di merci). Composti chimici: vedere http://www.nsc.org/ehc/ew/chemical.htm; http://www.speciation.net/ e www.dtc.dk (Danish Toxicology Centre). Sostanze Pericolose e Indesiderate: controllare la “lista delle sostanze indesiderabili” sul sito www.mst.dk. Per l’amianto vedere: http://www.asbestos-institute.ca/main.html. Per problematiche di sicurezza vedere: http://www-sic.ing.unifi.it/Sicurezza/default.asp; http://www.greenpeace.it/ ; http://www.legambiente.it/ Commercio ambientale: Eco-comm http://www.eco-comm.it/default.asp; Associazione industriali: vedere per esempio il sito www.federchimica.it , e la (Confederazione delle Industrie Italiane), e il sito http://www.cefic.org/ (Confederazione delle industrie Chimiche Europee), 214 Cambiamenti climatici IL CAMBIAMENTO GLOBALE DEL CLIMA EFFETTO SERRA E BUCO DELL’OZONO FULVIO ZECCHINI 1. INTRODUZIONE Con questo capitolo abbiamo voluto trattare da un punto di vista educativo e divulgativo, ma rigorosamente scientifico, l’argomento dei cambiamenti climatici, oggigiorno di scottante attualità. La prima parte è dedicata all’effetto serra, fenomeno che sta probabilmente contribuendo al riscaldamento globale del pianeta, l’aspetto più preoccupante dei cambiamenti climatici globali. Questi ultimi incarnano l’effetto risultante dall’incuria dell’umanità nei confronti dell’ambiente, durante la sua corsa ad un benessere sempre maggiore. Il tema trattato è intimamente legato alla produzione di energia, un fattore fondamentale per lo sviluppo socio-economico, già trattato all’inizio di questo volume, perché l’emissione di gas ad effetto serra (anidride carbonica ed altri) è in gran parte un ‘effetto collaterale’ dei processi di combustione, ampiamente usati per la produzione di energia elettrica e la locomozione dei veicoli. La seconda parte del capitolo è dedicata alla distruzione dell’ozono stratosferico, il cosiddetto ‘buco dell’ozono’, un altro problema di attualità, causato principalmente dall’uso di gas alogenati di sintesi (freon, halon, ecc.). Questi composti hanno caratteristiche uniche che li rendono utilissimi come refrigeranti, propellenti per spray, materiali isolanti e sistemi antincendio. Curiosamente, e sfortunatamente, queste stesse proprietà – derivanti in massima parte dalla presenza di alogeni nella molecola (soprattutto cloro e bromo) – sono dannose per l’ozono stratosferico che viene distrutto mediante reazioni a catena. Ciò comporta vari rischi per l’ambiente e la salute dovuti all’aumento dei raggi ultravioletti, che raggiungono la superficie terrestre a seguito della diminuita efficacia filtrante dell’ozono. Abbiamo voluto evidenziare soprattutto gli aspetti scientifici, le cause, i meccanismi e le differenze o le interconnessioni tra i due fenomeni, non sempre noti a livello di opinione pubblica. Contrariamente a quanto si possa generalmente ritenere, i danni all’ambiente non sono sempre, o non solo, causati dall’emissione d’inquinanti xenobiotici, molecole di sintesi estranee ai processi naturali. Sono talvolta coinvolte molecole fondamentali per la vita, come l’anidride carbonica, che, in alcuni ambiti ed in determinate concentrazioni, possono avere effetti negativi. Ciò avviene a seguito di un meccanismo di amplificazione antropica, in cui le attività umane mettono in gioco quantità addizionali di tali molecole così elevate da alterare (potenzialmente) gli equilibri naturali. Questo capitolo è stato precedentemente pubblicato dal Consorzio INCA nel Marzo 2004 in occasione della XIV Settimana della Cultura Scientifica indetta dal Ministero dell’Istruzione, dell’Università e della Ricerca. Tale monografia, completa di note introduttive alla struttura e agli inquinanti dell’atmosfera, può essere scaricata gratuitamente dal sito del Consorzio INCA (www.unive.it/inca) alla pagina http://www.unive.it/inca/publications/papers.php (file pdf). 217 2. L’EFFETTO SERRA 6 CO2 + 6 H2O + luce È quantomeno ironico che uno degli astri più belli e luminosi del cielo sia Venere, il nome della dea della bellezza degli antichi romani. Tale nome poco si adatta ad un pianeta inospitale, che le sonde degli Stati Uniti e dell’ex Unione Sovietica hanno rivelato essere un luogo desolato, cosparso di rocce brulle, con una temperatura media di 450°C. Se ciò non bastasse, la sua pressione atmosferica è circa 90 volte quella terrestre, la sua atmosfera è costituita per il 96% da anidride carbonica e ci sono nuvole di acido solforico! Tutto questo ci fa apprezzare molto di più il nostro bel pianeta verde e blu, dove c’è una gradevole temperatura media di 15°C. In base alla loro distanza dal Sole ed alla radiazione globale che ricevono, Venere e Terra dovrebbero essere molto più freddi; la temperatura media del primo dovrebbe essere di circa 100°C e quella del secondo di –18°C. L’atmosfera è fondamentale nel mantenere il nostro pianeta mediamente 33°C al di sopra del valore su indicato, permettendo la vita come noi la conosciamo. Questo è possibile soprattutto grazie ai due elementi che costituiscono la componente fondamentale degli esseri viventi, l’acqua e il carbonio, sotto forma di vapore acqueo e anidride carbonica. L’idea che i gas atmosferici potessero in qualche modo “intrappolare” l’energia solare fu proposta per la prima volta attorno all’anno 1800 dal matematico e fisico francese Jean-Baptiste Joseph Fourier (1768-1830). Egli paragonò l’atmosfera terrestre al vetro di una serra, il quale lascia passare i raggi solari all’interno, intrappolando parte del calore che non può riuscire. Sebbene egli non comprendesse i meccanismi chimico-fisici alla base del fenomeno, il suo paragone ha dato poi il nome al fenomeno di riscaldamento globale della Terra, noto appunto come effetto serra. Quasi sessant’anni dopo John Tyndall (1820-1893), in Inghilterra, dimostrò sperimentalmente che acqua e anidride carbonica assorbono calore sotto forma di radiazione (infrarossa) e calcolò anche il riscaldamento dovuto alla presenza di queste molecole in atmosfera. Oggi ci sono evidenze scientifiche certe che: • l’anidride carbonica assorbe calore; • la concentrazione di anidride carbonica è aumentata negli ultimi 150 anni; • la temperatura media della Terra non è rimasta costante nelle diverse ere. 2.1 METODI D’INDAGINE RETROSPETTIVA E DATAZIONE Una macchina del tempo sarebbe il mezzo ideale per capire l’evoluzione del nostro pianeta e delle condizioni climatiche. Se mai sarà realizzata, tale invenzione è ancora molto lontana nel tempo, ma la chimica, la fisica e la biologia possono dirci molte cose circa la storia della Terra e l’evoluzione della “serra” in cui essa è rinchiusa. Nei suoi 4,5 miliardi di anni di vita la Terra e la sua atmosfera sono molto cambiate, la composizione dei gas vulcanici ci indica che la concentrazione dell’anidride carbonica nell’atmosfera primordiale era mille volte superiore a quella attuale. Gran parte dell’anidride carbonica disciolta negli oceani si è mineralizzata a formare il calcare dei sedimenti, cioè carbonato di calcio (CaCO3), ma l’alta concentrazione di questo gas ha permesso la nascita della vita intrappolando il calore e mantenendo una temperatura idonea, anche se l’energia della radiazione solare era di circa 25-30% inferiore a quella attuale. Così 3 miliardi di anni fa i cianobatteri, primitive microscopiche piante unicellulari, hanno riempito i mari e oggi ancora si trovano sia in questi che in altri habitat. Al pari delle evolute piante moderne, i cianobatteri sono in grado di operare la fotosintesi utilizzando la luce solare per combinare anidride carbonica ed acqua a formare i carboidrati (detti comunemente zuccheri). Il glucosio, ad esempio, si forma attraverso una catena di reazioni, secondo la seguente equazione: 218 clorofilla C6H12O6 (glucosio) + 6 O2 La fotosintesi non ha solo ridotto drasticamente la concentrazione di anidride carbonica in atmosfera, ma ha anche incrementato decisamente la quantità di ossigeno in essa presente. Sebbene la microbiologa e biochimica Lynn Margulis (Università del Massachusetts; USA) abbia definito questo “il maggiore inquinamento a cui la Terra sia andata incontro”, gli animali hanno potuto evolversi respirando ossigeno e cibandosi inizialmente dei tessuti delle piante. Nonostante ciò, anche al tempo dei dinosauri (100 milioni di anni fa), ben prima che l’uomo comparisse, la temperatura media della Terra doveva essere più elevata di circa 10-15°C e la concentrazione dell’anidride carbonica atmosferica decisamente maggiore. Fondate evidenze scientifiche ci dicono che, negli ultimi 200.000 anni, un attimo in termini geologici, la temperatura è andata incontro a fluttuazioni notevoli. Alcuni metodi di analisi costituiscono la nostra macchina del tempo e ci aiutano a vedere nel passato. I carotaggi profondi dei sedimenti oceanici (escavazioni per prelevare campioni cilindrici di sottosuolo, detti “carote”) ci forniscono uno spaccato del tempo trascorso. Il numero e la natura dei microrganismi presenti in ogni strato ci danno informazioni sulla temperatura alla quale essi vivevano. Inoltre l’allineamento del campo magnetico nelle particelle di sedimento ci dà un’informazione indipendente sull’età dello strato1. Un’ulteriore fonte di notizie sul passato sono i carotaggi delle zone glaciali perenni. Il progetto sovietico di escavazione profonda presso la Stazione di Vostok in Antartide ha fornito carote costituite dalle nevi di 160 millenni. L’analisi isotopica di questi campioni si basa sulla frazione d’idrogeno presente sotto forma di deuterio (2H, un isotopo pesante della comune forma 1H); questa può essere stimata per valutare la temperatura al periodo in cui quelle nevi caddero. Infatti le molecole d’acqua che contengono il comune idrogeno (numero di massa 1) sono più leggere di quelle che contengono la forma pesante (numero di massa 2), ciò significa che esse evaporano più facilmente; così in proporzione c’è più idrogeno e meno deuterio nel vapore acqueo atmosferico rispetto a quanto ce n’è nelle acque superficiali. Le precipitazioni (pioggia, neve), portando al suolo il vapore condensato, alterano il rapporto 2H/ 1H che, inoltre, aumenta proporzionalmente alla temperatura media. Le bollicine d’aria intrappolate nel ghiaccio possono essere analizzate per quantificare l’anidride carbonica ed eventuali altri gas presenti. Se con questi dati realizziamo un grafico con il tempo sull’asse delle ascisse e la temperatura assieme alla concentrazione di CO2 sui due assi delle ordinate (Fig. 2.1) vediamo che, sorprendentemente, le due “curve” hanno un andamento parallelo, per tutti i 160.000 anni di tempo considerato. Ciò indica che deve esserci un rapporto di proporzionalità diretta tra concentrazione di CO2 e temperatura. Quest’ultima ha avuto un suo minimo durante l’ultima glaciazione (9°C sotto la media degli anni 1950-1980) ed un massimo, con una temperatura media di poco oltre i 16°C, circa 130.000 anni fa. Altre indagini indicano che nei periodi di massima temperatura non solo la concentrazione dell’anidride carbonica, ma anche quella del metano (CH4) era elevata. 1. Si consideri che l’asse terrestre ruota assai lentamente, con un movimento doppio-conico con vertice al centro della Terra; ciò causa la cosiddetta migrazione dei poli, un lento spostamento del Polo Nord magnetico che perciò non coincide esattamente con 219 Figura 2.1. Andamento della concentrazione di CO2 e della variazione di temperatura media della Terra negli ultimi 160.000 anni (presente = 2000). Per le differenze di temperatura il valore 0 si riferisce alla media del periodo 19501980 (dati American Chemical Society, 2000). Quanto sopra esposto non prova necessariamente che le concentrazioni di CO2 e CH4 in atmosfera hanno causato un aumento delle temperature nelle ere passate, in quanto vanno considerati anche altri fattori. Oggi sappiamo che questi gas assorbono calore e possono aver giocato un qualche ruolo. Si è evidenziata una fluttuazione periodica delle temperature che sembrano raggiungere dei massimi ciclicamente, ogni 100.000 anni circa, intervallati a periodi glaciali. Nello scorso milione di anni ci sono state 10 glaciazioni maggiori e 40 minori. Tra i vari fattori che determinano le variazioni della temperatura dobbiamo annoverare i piccoli cambiamenti dell’orbita terrestre che influenzano la distanza della Terra dal Sole e l’inclinazione con cui i raggi arrivano sulla superficie del nostro pianeta. A questi fattori “spaziali e orbitali” si devono aggiungere fattori atmosferici, come la variazione della capacità di riflessione della radiazione, la copertura delle nuvole, il pulviscolo atmosferico e, appunto, la concentrazione di CO2 e CH4. Quale sia il meccanismo di autoregolazione, che permette di arrestare ad un certo punto il rialzo o la diminuzione di temperatura, non possiamo ancora dirlo con precisione, a causa della complessità del fenomeno. È comunque certo che la Terra, come oggi noi la conosciamo, è differente da quella che è stata nel periodo di massima temperatura di 130.000 anni fa. 2.2 LA MODELLAZIONE PREDITTIVA COMPUTERIZZATA La modellazione predittiva si occupa di valutare l’andamento temporale dei fenomeni e di fornirci degli scenari attendibili per il futuro simulando al computer ciò che accade e accadrà nella realtà. Altra funzione della modellazione è quella di verificare teorie espresse solo sulla carta, una volta accertata l’affidabilità del modello. Detto così sembrerebbe facile, ma pensate a quanto può essere complesso creare un modello al computer della Terra e del suo clima. Quanti di noi non si sono mai lamentati con le previsioni del tempo che non ci azzeccano mai, certamente l’errore non è voluto; durante questa vostra lettura vi renderete conto di quante variabili influiscano sul clima a livello locale e globale. 2.2.1. Complessità di calcolo A titolo esplicativo si riportano le variabili che un supercomputer valuta elaborando i modelli delle previsioni meteorologiche (Box 2.1). La complessità è tale che, seppure si hanno ormai a disposizione dei supercomputer capaci di qualcosa come 3,0 Tflops al secondo2, non sempre i risultati delle previsioni meteo sono affidabili. Se la complessità delle previsioni meteorologiche è enorme, pensate cosa vuole dire elaborare dei modelli predittivi del cambiamento globale del clima, valutare i dati del passato che riusciamo ad avere grazie ai metodi di datazione e prevedere quale sarà il clima ad esempio fra 50-100 anni nelle varie zone del globo. Ciò significa identificare e integrare tutte le correlazioni tra le variabili riportate nel Box 2.1 con altre ancora come: l’insolazione, l’attività vulcanica, la produzione e l’effetto dei gas serra, la formazione di pulviscolo e aerosol, l’effetto degli oceani, l’effetto dei ghiacci, l’emissione di inquinanti naturali, l’influenza della biosfera nel suo insieme e, non di meno, che cosa deciderà di fare l’essere vivente che ha maggior influsso sulle sorti del pianeta, l’uomo. Farsi un’idea precisa di quale sia la complessità della modellazione del cambio globale del clima è davvero difficile; la lista delle variabili qui esposta è lungi dall’esser completa. Perciò in questo paragrafo abbiamo voluto solo dare un’idea della difficoltà che implica la modellazione predittiva. Al fine di fornire al lettore un’idea della complessità dei calcoli per le previsioni meteo, si riportano come esempio le variabili analizzate presso il centro di previsioni meteorologiche nazionale dell’Emilia Romagna grazie ad un supercomputer del CINECA (www.cineca.it): Parametri a 7 livelli verticali di pressione (cioè a 7 altitudini diverse): ● temperatura; ● umidità specifica; ● geopotenziale; ● vento: direzione e velocità; ● velocità verticale del vento. Parametri al livello del suolo: ● temperatura (a 2 metri dal suolo); ● umidità relativa (a 2 metri dal suolo); ● pressione (ridotta al livello medio del mare); ● copertura nuvolosa (in percentuale); ● precipitazione totale (cumulata su 6 ore, al suolo); ● precipitazione convettiva (cumulata su 6 ore, al suolo); ● manto nevoso (in acqua equivalente); ● vento, direzione e velocità (a 10 metri dal suolo). Parametri su singolo livello di pressione: ● Vorticità relativa (al livello 250 hPa; circa 10 Km). Box 2.1. Le variabili analizzate da un centro di previsioni meteorologiche. 2. Tflops al secondo: teraflops al secondo, 1 teraflop è pari a 1012 operazioni con virgola mobile. 220 221 Facciamo un esempio semplificato di stima della CO2 emessa dalle automobili italiane, considerando che esse funzionino tutte a benzina. Quest’ultima è una miscela è una miscela di idrocarburi “leggeri” (con meno di 12 atomi di carbonio) in cui l’ottano è quello maggiormente rappresentato, perciò un’accettabile approssimazione nei calcoli si può ottenere considerando la benzina composta al 100% da ottano. La sua formula chimica: CH3-CH2-CH2- CH2- CH2- CH2- CH2-CH3 può essere più convenientemente scritta come C8H18 per i nostri calcoli. Consideriamo che, nelle auto moderne, la combustione della benzina avvenga secondo la reazione ideale: C8H18 + 12,5 O2 8 CO2 + 9 H2O dove tutto l’ossigeno atmosferico si combini con l’idrogeno dell’ottano a dare acqua e con il carbonio a dare anidride carbonica, senza alcun sottoprodotto (cosa che in realtà non avviene). Dal dato della densità dell’ottano sappiamo che ogni litro di ottano pesa 692 g, che diviso per il peso molecolare dell’ottano (114) ci dà il numero di moli di ottano presenti in un litro, cioè 6,07 circa. Si produranno così 48,56 (6,07 x 8) moli di CO2. Dato che una mole di CO2 pesa 44 g avremo che bruciando un litro di benzina (considerata come ottano), in condizioni ideali nel motore di una macchina media, si emettono dal tubo di scappamento in atmosfera circa 2.137 g di anidride carbonica! Ammettiamo che quest’auto media (nel senso che essa rappresenta il consumo medio degli autoveicoli circolanti attualmente in Italia) consumi 1 litro di carburante per fare 10 Km, tenendo conto di tutti i vari tipi di percorso (urbano, extraurbano ed autostradale). Se, per comodità di calcolo, stimiamo che la popolazione italiana sia di 55.000.000 di persone e consideriamo che in media la famiglia italiana sia composta di 4 persone e abbia un’auto, avremo un parco auto italiano che ammonta a 13.750.000 automobili. Ipotizziamo inoltre che ognuna di queste percorra in media, 15.000 Km all’anno. In considerazione dei chilometri percorsi da tutte le automobili e il loro consumo di benzina otteniamo che: ogni anno la sola circolazione delle autovetture in Italia provoca l’emissione in atmosfera di circa 4,4 milioni di tonnellate di CO2! Box 2.2. Una stima dell’emissione annuale di anidride carbonica dovuta al traffico in Italia. 2.2.2 Input dei modelli Come input del sistema possiamo inserire dei dati calcolati (stime), e/o dei dati strumentali ottenuti a terra o sui satelliti. Ad esempio, per avere un’idea dell’impatto ambientale dovuto al traffico in Italia dobbiamo capire come calcolare quanta CO2 emette un’auto in base ai chilometri percorsi o al tempo e sapere quante automobili circolano (Box 2.2). Con calcoli simili potremo stimare quanta CO2 deriva dagli impianti di riscaldamento, quanta dall’incenerimento dei rifiuti e così via. Altri input possono essere immessi nei modelli di calcolo grazie all’analisi sperimentale dei dati. Ciò può avvenire sia prendendo campioni di aria a terra o a varie quote tramite palloni aerostatici ed aerei opportunamente attrezzati, oppure mediante l’uso di sistemi d’analisi posti sui satelliti. Un esempio di studio dell’atmosfera da satellite è quello condotto dal gruppo Remote Sensing of the Stratosphere (gruppo di Controllo Remoto della Stratofera) dell’Istituto di Scienze dell’Atmosfera e del Clima del Consiglio Nazionale delle Ricerche (ISAC-CNR; Box 2.3). Tutti i dati raccolti vengono inseriti nei supercomputer assieme a complicate formule matematiche, che correlano le diverse variabili tra loro, per valutare gli effetti della variazione di ogni singola variabile sul fenomeno in esame. 222 Il progetto GASTRAN 2 studia la composizione chimica della stratosfera usando gli spettri infrarossi (descritti al § 3.4.2) misurati da MIPAS (Michelson Interferometer for Passive Atmospheric Sounding, interferometro di Michelsen per il sondaggio passivo dell’atmosfera) per usare tali dati in modelli di trasporto chimico, per analizzarne l’andamento temporale e per capire i processi chimici e di trasporto nella stratosfera. MIPAS è uno strumento sviluppato dall’European Space Agency (ESA, Agenzia Spaziale Europea) che opera a bordo del satellite ENVISAT (ENVIronmental SATellite, satellite ambientale), lanciato il 1° Marzo 2002. L’obiettivo scientifico di MIPAS è di misurare la distribuzione verticale della concentrazione dei gas serra a livello stratosferico, in un intervallo di altezza da 8 a 70 km. Gli spettri di emissione permettono di misurare i profili di distribuzione in altezza di gas che sono di grande importanza nello studio della chimica dell’atmosfera centrale. MIPAS fornirà i profili di Volume Mixing Ratio (VMR, rapporto di miscelazione in volume) di H2O, O3, HNO3, CH4, e N2O. Inoltre visto che le capacità di misurazione di MIPAS comprendono gli spettri di molte altre molecole che hanno un ruolo importante nella chimica atmosferica, verranno misurati i VMR di tali molecole. Queste quantità saranno poi usate come valori di partenza per i modelli di trasporto chimico, per studiare le variazioni chimiche sul lungo periodo, e per studiare i processi chimici eterogenei a sviluppo rapido che coinvolgono le specie misurate. Box 2.3. Un esempio di analisi dei gas atmosferici da satellite (Istituto di Scienze dell’Atmosfera e del Clima del Consiglio Nazionale delle Ricerche; ISAC-CNR). 2.2.3 Tipi di modelli Spesso nella modellazione si ricorre a semplificazioni, ad esempio utilizzando modelli bidimensionali. Ce ne sono due abbastanza comuni, uno potremmo identificarlo come “modello a longitudine fissa”, si considera fisso il piano che passa per un meridiano ad una longitudine media, le dimensioni variabili sono solo quelle dell’alto e basso (variazione di quota) e del nord e sud (variazione di latitudine). Questo è il modello che gli scienziati hanno usato per capire come i gas traccia (tra cui molti gas serra) sono distribuiti negli strati superiori dell’atmosfera. Un’applicazione specifica è lo studio del rilascio delle specie gassose del cloro e della loro interazione con l’ozono stratosferico. Una seconda semplificazione è il “modello a quota fissa”, in cui ci si muove sul piano di una sfera posto ad una quota media, in questo caso le direzioni variabili sono quelle nord-sud ed ovestest. Questo modello è adatto a studi nella stratosfera, in cui il movimento delle masse d’aria rimane uniforme a diverse altitudini e viene usato proprio per studiare i venti. Difficilmente i modelli semplificati bidimensionali si possono applicare alla troposfera, qui le condizioni cambiano troppo rapidamente nelle tre dimensioni. Pertanto vanno usati modelli più complessi ed ancora in fase di miglioramento dell’affidabilità. Attualmente alcuni di questi modelli considerano gli oceani come un sistema multistrato in circolazione continua, l’atmosfera come dieci o più strati sovrapposti in interazione tra loro e la superficie della Terra suddivisa in 10.000 celle. Sebbene questi sistemi non siano adatti a fornire previsioni dettagliate a livello locale, sono un buon strumento per valutare gli andamenti futuri a livello globale. Applicando modelli simili è stato possibile prevedere l’aumento di concentrazione di CO2 atmosferica (25%) e della temperatura (0,5-0,6°C) che si sono verificati nell’ultimo secolo; questi risultati concordano con le evidenze sperimentali. 223 2.3 IL BILANCIO ENERGETICO DELLA TERRA La fonte maggiore di energia della Terra è il Sole. Metà dell’energia solare che arriva sulla Terra viene riflessa o assorbita dell’atmosfera. Sappiamo anche che i raggi ultravioletti sono in buona parte assorbiti dall’ossigeno e dall’ozono (torneremo su quest’argomento in seguito perché questo meccanismo è fondamentale nel ciclo dell’ozono). La Terra si scalda in quanto assorbe parte della radiazione che colpisce la sua superficie, quindi riemette parte dell’energia è assorbita sotto forma di raggi infrarossi (Fig. 2.2; Tab. 2.1). Il risultato di questo equilibrio dinamico è la temperatura media di 15°C, che il nostro pianeta raggiunge seppure immerso nello spazio a –270°C. Nello stato stazionario circa l’80% delle energia radiata dalla superficie terrestre viene assorbita nuovamente dall’atmosfera e in parte riemessa nuovamente verso il suolo (effetto serra), ciò permette di mantenere temperature idonee alla vita. Se però viene trattenuta una quantità sempre maggiore di radiazione in atmosfera si ha uno stato di disequilibrio e la temperatura media tende ad aumentare. Non possiamo certo considerare la CO2 come una molecola nociva alla vita, anzi è stata fondamentale per la sua origine ed ancor oggi è alla base della produzione primaria (produzione di zuccheri e biomasse vegetali per via fotosintetica) nelle reti trofiche. Quindi l’effetto della CO2 sulla vita è decisamente positivo, ma una sua maggior concentrazione non implica benefici maggiori. La CO2 non è un gas tossico, diventa nociva quando raggiunge l’alta concentrazione di 5000 ppm3 principalmente perché è un gas irrespirabile. Il pericolo per la vita sul nostro pianeta deriva proprio dal fattore che l’ha resa così utile. Nel lontano 1896 il chimico svedese Svante Arrhenius (1859-1927) valutò che ad un raddoppiamento della concentrazione di anidride carbonica in atmosfera corrisponde un aumento di 5-6°C della temperatura media. In quel tempo la rivoluzione industriale era in pieno svolgimento ed Arrhenius, in uno dei suoi scritti, dichiarò che l’uomo stava facendo evaporare in aria le miniere di carbone. Il combustibile (in massima parte carbone) che serviva per fare andare a regime sempre maggiore le macchine a vapore, ci ha portato ad aumentare la produzione industriale e il benessere, ma con essi è aumentata l’emissione di CO2. Tab. 2.1. Bilancio della radiazione solare. Radiazione in arrivo (gamma, X, UV, IR) % specifica Radiazione riflessa/diffusa verso lo spazio dal pulviscolo 5 Radiazione riflessa/diffusa verso lo spazio dalle nuvole 21 Radiazione riflessa dalla superficie terrestre (albedo) 6 Assorbimento di molecole (CO2, H2O, ecc.), nuvole, pulviscolo 18 Assorbimento della superficie terrestre (terre e mari) 50 Totale riflessione e assorbimento Radiazione in uscita (IR) % specifica Radiazione IR emessa dalla superficie terrestre 98 Perdita di IR emessi dalla superficie terrestre verso lo spazio Radiazione IR emessa dall’atmosfera Perdita di IR emessi dall’atmosfera verso lo spazio Radiazione netta emessa dalla superficie terrestre Radiazione netta emessa dall’atmosfera 8 137* 60 21 47 % di tipo 32% riflesso o diffuso 68% assorbito 100% % di tipo 90% IR emessi dalla Terra assorbiti dall’atmosfera 77% IR assorbiti dall’atmosfera 68% IR riemessi *: percentuali maggiori del 100% indicano che le radiazioni aumentano in percentuale, rispetto al loro valore in entrata, a seguito di fenomeni di assorbimento e riemissione. Figura 2.2. Bilancio della radiazione solare. Lo spessore delle frecce è proporzionale alle quantità in gioco (dati American Chemical Society, 2000). La chiave per valutare gli effetti futuri dell’effetto serra risiede nel capire l’andamento della produzione di CO2 e delle temperature medie globali assieme ai fattori che influenzano queste variabili, così da poter applicare correttamente i modelli predittivi. Ci sono prove fondate che la concentrazione di anidride carbonica sia aumentata del 25% circa negli ultimi 100 anni. I dati più affidabili sono quelli raccolti dal 1958 al 2003 alle Hawaii nella stazione di Mauna Loa che mostrano un aumento anche della concentrazione del metano, un altro gas serra (Fig.2.3 A e B). Sebbene vi siano delle fluttuazioni dovute alle variazioni stagionali annuali, è decisamente evidente l’aumento di concentrazione di CO2 dalle 315 alle circa 370 ppm attuali. I dati di Mauna Loa sulla CO2 concordano con quanto trovato dagli osservatori della rete GREEN-NET in Italia (Fig. 2.3 C). Inoltre le previsioni computerizzate indicano la tendenza ad un aumento sempre più rapido della concentrazione di CO2. Gli scienziati ritengono che ciò sia dovuto al sempre maggior consumo di combustibili fossili (petrolio, carbone, gas). Quasi tutti noi abbiamo esperienza diretta dell’effetto serra su piccola scala. Pensate a cosa succede quando si lascia l’automobile al sole coi finestrini chiusi nei mesi estivi. Il vetro lascia passare la radiazione UV e visibile, parte di questa viene assorbita dai sedili e dagli interni dell’auto e rilasciata poi sotto forma di raggi infrarossi che, a causa della loro maggiore lunghezza d’onda, non riescono a riattraversare i vetri, portando così ad un riscaldamento dell’interno dell’auto (è l’effetto sfruttato in una serra da vivaio). A livello planetario, il vetro dell’automobile Terra è l’atmosfera, i suoi gas sono trasparenti alla luce visibile, ma alcuni assorbono e riflettono i raggi infrarossi portando ad un aumento della temperatura. Tra questi gas, per questo motivo detti comunemente anche gas serra, troviamo l’anidride carbonica, il vapore acqueo, il metano ed altre molecole che possiamo trovare in atmosfera. 3. ppm: parti per milione, unità di concentrazione in peso e/o volume che non andrebbe più usata, ma viene mantenuta per comodità; ad esempio 1 ppm di CO2 corrisponde a 1 cm3 di CO2 per 1 m3 di atmosfera. 224 225 Figura 2.3. Dati dell’andamento della concentrazione di anidride carbonica dal 1958 al 2003 (A) e del metano dal 1990 al 2002 (B) a Mauna Loa, Hawaii (Climate Monitoring and Diagnostics Laboratory; National Oceanic and Atmospheric Administration, NOAA; USA) e aumento della concentrazione della CO2 in Italia dal 1979 al 2003 (C) (Osservatori Green-Net; Italia). 2.4.1. La struttura tridimensionale delle molecole La struttura di Lewis delle molecole dipende dalla cosiddetta regola dell’ottetto, la quale prevede che una molecola sia stabile se ogni atomo che la compone (l’idrogeno fa eccezione) possiede otto elettroni (condivisi a formare un legame o meno) nel suo strato esterno. Nel caso di una molecola biatomica come N2 ed O2 (Fig. 2.5) la struttura di Lewis riflette anche la geometria della molecola, che non può essere altro che lineare. Nelle molecole con tre o più atomi divengono possibili variazioni della geometria molecolare che può essere predetta teoricamente conoscendo la posizione degli elettroni degli orbitali esterni. Nelle molecole, uno o più elettroni degli atomi che la compongono si accoppiano a formare uno o più singoli legami, oppure a formare doppi (O2) o tripli (N2) legami fra atomi. La chiave per valutare la struttura molecolare tridimensionale è quella di considerare che le coppie di elettroni, sia quelle di legame, sia quelle non condivise, si respingono in quanto hanno tutte carica negativa. Per questo motivo i legami e le coppie non condivise di elettroni si disporranno distanziandosi in modo da ottenere la minor energia potenziale (di repulsione) possibile. Altri dati indicano che la temperatura media sia aumentata anche fino a 5°C in alcune parti del globo dal 1950 al 1999 (Fig. 2.4). L’incremento medio dal 1880 ad oggi è di 0,6°C, ma non possiamo affermare con piena certezza che sia dovuto all’aumento della concentrazione di CO2, anche se abbiamo prove sperimentali che la CO2 di fonte antropica (cioè dovuta alle attività umane) sia una delle cause del riscaldamento globale degli ultimi anni. Stime attuali ci dicono che Arrhenius aveva sbagliato per eccesso, anche se di poco; infatti indicano che il raddoppio della concentrazione di CO2 dovrebbe portare ad un aumento della temperatura media di 1,0-3,5°C. Se un tale aumento di concentrazione dell’anidride carbonica avverrà o no dipende da ciò che noi umani decideremo di fare. La comprensione di come avviene l’assorbimento dei raggi infrarossi da parte dei gas serra ci aiuta a valutare le contromisure, a preservare il nostro pianeta per le generazioni future. Questo è il ruolo socio-politico della scienza. Figura 2.5. Struttura tridimensionale e formule di Lewis di vari gas serra e di alcune molecole citate nel testo. I colori e le dimensioni relative degli atomi sono puramente indicativi. Gli elettroni sono dello stesso colore dell’atomo da cui derivano o cui appartengono. Innanzi tutto bisogna capire perché il metano (CH4), l’acqua allo stato gassoso (H2O) e l’anidride carbonica (CO2) sono gas serra, mentre i due componenti principali dell’atmosfera, l’azoto (N2) e l’ossigeno (O2) non lo sono. Ciò dipende dalla diversa struttura tridimensionale che queste molecole possiedono (Fig. 2.5). Una semplice procedura pragmatica può essere utilizzata per comprendere la struttura tridimensionale delle molecole; faremo qui un esempio col metano. Prima bisogna determinare il numero di elettroni esterni associato ad ogni atomo. Nel carbonio (numero atomico 6, Gruppo IV A della tavola periodica) ci sono quattro elettroni esterni: ne mancano quindi altri quattro per raggiungere l’ottetto. Questi derivano dai quattro atomi d’idrogeno che hanno un solo elettrone ciascuno (numero atomico 1, Gruppo I A) otteniamo così la formula di Lewis del metano, in cui ognuno dei quattro idrogeni è legato al carbonio centrale rispettando la regola dell’ottetto (Fig. 2.5). Ora dobbiamo verificare qual è la struttura tridimensionale che permette alle varie coppie di elettroni, di legame o non condivise, di essere il più distante possibile nello spazio, per quanto permesso dalla struttura di legame. Nel caso del metano, inoltre, essendo uguali, i quattro atomi attaccati al carbonio saranno equidistanti e alla massima distanza fra di loro. La figura solida che soddisfa questi requisiti è il tetraedro, una piramide con base e facce triangolari in cui il carbonio si trova all’interno in posizione centrale, gli 226 227 Figura 2.4. Dati della variazione delle temperature medie nel globo dal 1950 al 1999 (Global Historical Climate Network; National Oceanic and Atmospheric Administration, NOAA; USA). 2.4. L’EFFETTO SERRA DIPENDE DALLA STRUTTURA MOLECOLARE DEI GAS idrogeni sono ai vertici e tutti gli angoli sono di 109,5° (Fig. 2.5). Questa struttura è stata confermata sperimentalmente ed è comune a molte molecole presenti in natura, soprattutto quando contengono carbonio. Lo stesso procedimento si può applicare per la molecola del triclorofluorometano (CFCl3), un gas serra che fa parte dei famosi clorofluorocarburi (CFC), co-responsabili della distruzione dello strato di ozono. Applicando le regole di prima, vediamo che sia il fluoro che il cloro possiedono sette elettroni esterni, facendo parte entrambi del gruppo degli alogeni (Gruppo VII A). Ognuno di questi atomi condividerà un elettrone con il carbonio posto al centro nella struttura di Lewis, la regola dell’ottetto sarà soddisfatta e la struttura tridimensionale sarà tetraedrica con il fluoro e gli atomi di cloro ai vertici. Diversamente dal metano, in questo caso il tetraedro non è perfetto perché le distanze di legame F-C e Cl-C non sono uguali (Fig. 2.5). Può capitare che alcune molecole abbiano atomi che possiedono coppie di elettroni non impegnate in legami, in questo caso la forza di repulsione è ancora maggiore rispetto a quella degli elettroni di legame, in quanto “occupano” uno spazio più ampio. Ad esempio nella molecola dell’ammoniaca (NH3, un altro gas serra), la coppia non condivisa di elettroni spinge i tre idrogeni sotto al piano dell’azoto; la molecola non è quindi planare con l’azoto al centro, ma è comunque tetraedrica, con l’azoto al centro e i vertici della base occupati dai tre idrogeni, mentre il vertice superiore è occupato dalla coppia di elettroni con condivisi (Fig. 2.5). La repulsione maggiore da parte di quest’ultima porta ad avere angoli di 107,5°, un po’ inferiori rispetto ai 109,5° che ci aspetteremmo in un tetraedro perfetto. Lo stesso fenomeno si verifica nella molecola dell’acqua (H2O) in cui i due idrogeni condividono ognuno un elettrone con uno dei sei esterni dell’ossigeno (Gruppo VI A) per obbedire alla regola dell’ottetto. La molecola non è lineare con l’ossigeno nel mezzo come si potrebbe immaginare, ma le due coppie non condivise di elettroni dell’ossigeno respingono fortemente quelle di legame e la molecola ha una forma a “V” con l’ossigeno al vertice ed un angolo di 104,5° fra i due idrogeni (Fig. 2.5). In pratica è come se le due coppie non condivise di elettroni dell’ossigeno occupassero ognuna un vertice del tetraedro. Nell’anidride carbonica due degli elettroni esterni di ogni ossigeno devono coniugarsi con altrettanti del carbonio per dare due legami o, meglio, un doppio legame. Essendoci due ossigeni la molecola avrà il carbonio al centro legato da due doppi legami ai due ossigeni. Il doppio legame ha geometria planare e non avendo il carbonio coppie non condivise di elettroni esterni, la molecola di CO2 risulta lineare (Fig. 2.5). Fino ad ora abbiamo parlato di legami covalenti, in cui ognuno dei due atomi partecipa con un elettrone al legame. Nell’ozono (O3, anch’esso considerato un gas serra) le cose sono lievemente diverse. Per soddisfare la regola dell’ottetto l’ossigeno al centro della molecola forma un singolo legame dativo (tutti e due gli elettroni vengono dall’ossigeno centrale) con uno degli altri due ossigeni ed un doppio legame covalente con l’altro. In questo modo la regola dell’ottetto è soddisfatta per tutti e tre gli ossigeni (Fig. 2.5). A causa della coppia non condivisa di elettroni esterni dell’ossigeno centrale, anche in questo caso, la molecola è piegata in maniera simile a quella dell’acqua con un angolo di 117°. proprietà dei campi elettrici e magnetici. In particolare, l’onda elettromagnetica è caratterizzata da un’energia E correlata alla sua frequenza dalla relazione E = hν, dove h è la costante di Planck (6,63 x 10-34 joule x s). Nella sua struttura corpuscolare, la luce è associata a corpuscoli detti fotoni, che trasportano e scambiano l’energia della radiazione con la materia, con interazioni che, come vedremo di seguito, sono altamente specifiche. La teoria atomica considera la materia costituita da insiemi organizzati di atomi e molecole, a loro volta costituiti da nuclei, carichi positivamente (trascuriamo le particelle subnucleari), ed elettroni, carichi negativamente. Gli elettroni si trovano negli orbitali che potremmo semplicemente definire come la zona dello spazio intorno al nucleo in cui si ha la massima probabilità di trovare gli elettroni. È fondamentale ricordare che ad ogni orbitale è associata una certa energia e che gli elettroni “riempiono” gli orbitali secondo regole ben definite (Principio di Pauli4). La configurazione elettronica ad energia più bassa è detta stato fondamentale e corrisponde al caso in cui gli elettroni sono collocati negli orbitali aventi energie minori, compatibilmente con il Principio di Pauli. Lo stato fondamentale definisce tutte le proprietà chimico-fisiche dell’atomo o della molecola, incluse quelle strutturali e la sua reattività chimica. Quanto detto sopra per gli atomi può essere esteso alle molecole, di qualsiasi dimensione esse siano (da molecole biatomiche omonucleari come l’idrogeno molecolare a molecole complesse come il DNA), con la differenza che dovranno essere considerati orbitali molecolari invece di semplici orbitali atomici. L’interazione luce-materia è pertanto quantizzata, cioè, qualsiasi sia il tipo di fenomeno indotto dalla luce in una molecola5, questo può avvenire solo se quest’ultima assorbe fotoni (quanti di energia luminosa) con energia pari a quella necessaria per indurre un “fenomeno di eccitazione” che sposta la molecola dal suo stato fondamentale ad un livello energetico superiore permesso per quella molecola (salto quantico). Tali livelli sono discontinui e solo alcuni sono permessi, in base alla configurazione elettronica e alla struttura della molecola, ai tipi di legame e alla radiazione incidente (Fig 2.6). Oltre all’ovvio surplus energetico, la molecola in condizioni di aumentata energia è caratterizzata da peculiari proprietà chimico-fisiche (angoli di legame, distanze di legame, potenziali redox, ecc.), che possono essere molto diverse da quelle del suo stato fondamentale: di conseguenza la reattività può differire significativamente da quella della molecola nel suo stato fondamentale. Dopo aver assorbito la radiazione/energia, le molecole tendono a tornare molto rapidamente ad uno stato di minore energia. I possibili processi di “diseccitazione” di una molecola A, possono riportarla semplicemente al suo stato fondamentale di partenza, oppure portano alla formazione di una nuova molecola mediante interazioni A-A o con altre molecole presenti nel sistema. I processi che portano al ritorno allo stato fondamentale quasi sempre non prevedono trasformazioni chimiche. In tali processi il surplus di energia immagazzinato nella molecola può essere dissipato per via non radiativa (si ha un aumento dell’energia cinetica delle molecole e queste urtandosi più frequentemente cedono calore al sistema) o per via radiativa (vengono emesse radiazioni). Nei processi in cui si formano altre specie chimiche a partire da A, il surplus energetico viene usato per la formazione dei nuovi legami. 2.4.2 Interazione tra raggi infrarossi e molecole: la vibrazione dei legami Ora che abbiamo un’idea di come sono fatte le loro molecole dei gas serra, dobbiamo capire come questi gas interagiscono con le radiazioni, nello specifico con i raggi infrarossi. La radiazione elettromagnetica ha una duplice natura, corpuscolare ed ondulatoria. In quanto onda, le sue proprietà possono essere ricondotte alle proprietà delle onde elettromagnetiche, ogni radiazione risulta caratterizzata da una frequenza (ν, in s-1), da una lunghezza d’onda (λ) e dalle altre 4. Il famoso fisico Wolfgang Pauli (Vienna, 1900 – Zurigo, 1958) enunciò il suo principio nel 1925. Questo prevede, in parole semplici, che la disposizione degli elettroni in un atomo sia regolata da 4 numeri quantici e che solo un elettrone possa occupare ogni singolo stato quantico. Il numero di spin, s, definisce la rivoluzione sul proprio asse dell’elettrone e può assumere solo due valori, a seconda che l’elettrone ruoti in un verso o in quello opposto (+1/2 oppure –1/2). Gli altri tre numeri quantici sono n, l, e m, ma la loro trattazione esula dagli scopi di questo testo. Ci basterà qui ricordare che due o più elettroni non possono stare nello stesso spazio allo stesso tempo (stesso stato quantico), per cui l’unico modo per due elettroni di condividere lo stesso orbitale è quello di avere s diverso. 5. Tra i vari fenomeni inducibili troviamo i salti di elettroni in orbitali ad energia maggiore (eccitazione propriamente detta), la vibrazione o la rotazione delle molecole, in ordine decrescente di energia della radiazione/fotone incidente. 228 229 Figura 2.7. Spettro all’infrarosso dell’anidride carbonica. Sono evidenziati i picchi di assorbimento (minimi di trasmittanza) corrispondenti alle vibrazioni di stretching Tipo 2 (VS; vedi testo) e di bending (VB). Figura 2.6. Livelli energetici delle molecole, salti quantici ed effetti dell’interazione tra radiazioni (raggi ultravioletti, UV; radiazione visibile, LUCE; raggi infrarossi, IR) e molecole; nell’esempio viene usata la molecola dell’anidride carbonica. L*: livello energetico legato ad uno stato di eccitazione propriamente detta. LM: livello di minima energia (stato fondamentale). Quando la molecola dissipa il surplus di energia per via radiativa, di solito emette radiazioni a lunghezza d’onda maggiore. Ad esempio, l’assorbimento di un fotone può far saltare l’elettrone in un orbitale a più alta energia senza passare attraverso i vari livelli energetici intermedi possibili per quella molecola; l’elettrone, però, nel tornare al livello energetico corrispondente allo stato fondamentale attraversa livelli energetici ad energia sempre minore e nel contempo emette una radiazione con energia pari alla differenza tra due livelli successivi. Pertanto può succedere che una molecola assorba energia ad una determinata lunghezza d’onda durante l’eccitazione, ma che, nel tornare allo stato fondamentale, la riemetta sotto forma di due o più lunghezze d’onda maggiori. Bisogna inoltre ricordare che l’assorbimento di una radiazione è un fenomeno probabilistico, in quanto intervengono altri fattori a determinare come e se una molecola interagirà con una radiazione incidente che è potenzialmente in grado di assorbire. Come già accennato, il salto quantico può essere pari alla differenza energetica tra un orbitale ed uno di quelli più esterni caratterizzati da energia maggiore, tipici di ogni atomo o molecola. Ad esempio, in una molecola colpita da un fotone di raggi UV con opportuna lunghezza d’onda un elettrone salta in un orbitale a più alta energia, la reattività cambia (molecola eccitata), e, talvolta, i legami covalenti possono rompersi e riformarsi con configurazioni diverse (reazioni fotochimiche). Quest’ultimo è il caso della distruzione delle molecole di O2 ed O3 da parte dei raggi UV-B e UV-C (§ 3.1). 230 Figura 2.8. Interazione della molecola di anidride carbonica con i raggi infrarossi e microonde. Vibrazioni di stretching di Tipo 1 (A) e 2 (B) e di bending (C-D). Interazione con le microonde (Rotazione) (dati American Chemical Society, 2000; lievemente modificato). 231 I raggi IR hanno energia minore rispetto agli UV, insufficiente a causare salti di elettroni in orbitali superiori ed eventualmente a rompere i legami. Gli IR possono però causare salti quantici che possono corrispondere, in base alla loro lunghezza d’onda, alla vibrazione di uno specifico legame in una molecola (Fig. 2.6). Tali molecole potranno quindi essere identificate o, comunque, caratterizzate sulla base delle lunghezze d’onda IR assorbite: si parla a tal proposito di spettro infrarosso di una molecola (Fig. 2.7). Ricorriamo ancora all’anidride carbonica come esempio. I due doppi legami tra il carbonio ed i due ossigeni non devono essere considerati rigidi, come se ognuno dei doppi legami fosse formato da un’asta metallica. Essi sono invece capaci di accorciarsi ed allungarsi come delle molle e ciò permette ai legami di vibrare in risposta all’assorbimento di energia. Vi sono diversi tipi di vibrazione: quelle di stretching (allungamento) e quelle di bending (“piega”). Le vibrazioni di stretching si dividono in due sottotipi: nel primo caso, per la CO2, l’atomo di carbonio rimane fermo, mentre i due atomi di ossigeno si allontanano e si avvicinano muovendosi in direzioni opposte e in linea retta (lo indicheremo come Tipo 1; Fig. 2.8 A). Nel secondo caso l’atomo di carbonio ed uno dei due ossigeni si avvicinano mentre l’altro ossigeno si allontana e viceversa sempre muovendosi in linea retta (Tipo 2; Fig. 2.8 B). Mentre nelle vibrazioni di stretching gli atomi si muovono sulla direttrice che li congiunge, nelle vibrazioni di bending gli atomi si disallineano; ogni “piega” conta come due vibrazioni perché può avvenire sopra o sotto il piano della direttrice. Esistono due sottotipi molto simili di vibrazioni di bending a seconda che gli atomi si muovano in direzioni opposte, ma perpendicolari alla direttrice o che, nell’altro caso, la direzione sia obliqua rispetto alla direttrice (Fig. 2.8 C e D). Similmente a ciò che avviene in una molla, occorre meno energia per “piegare” i legami che non per “allungarli o accorciarli”; così i due tipi di vibrazioni di bending della CO2 sono indotti dall’assorbimento di raggi IR con lunghezza d’onda, λ = 15,000 µm, mentre per causare vibrazioni di stretching servono raggi con λ = 4,257 µm, con energia maggiore rispetto ai precedenti. Nella CO2 gli IR possono causare vibrazioni di stretching solo di Tipo 2; infatti l’assorbimento avviene solo se la vibrazione causa una variazione del dipolo della molecola, con un cambiamento netto della distribuzione della carica. Nella CO2 l’ossigeno ha una maggior tendenza a trattenere su di sé gli elettroni (ha maggior elettronegatività) rispetto al carbonio, quindi gli ossigeni risulteranno parzialmente carichi negativamente e il carbonio avrà una parziale carica positiva. Nella vibrazione di stretching di Tipo 1 della CO2 il movimento dei due ossigeni è simmetricamente opposto e il cambiamento di carica si annulla; quindi le radiazioni IR non possono indurre tale vibrazione in questa molecola. Come abbiamo detto lo spettro infrarosso di una molecola è caratteristico (si parla di impronta digitale delle molecole) e può essere caratterizzato mediante uno spettrometro all’infrarosso. La radiazione infrarossa di un filamento incandescente viene incanalata e fatta passare attraverso un campione posto in un contenitore con spessore noto e trasparente agli IR. La radiazione che passa, se è della lunghezza d’onda giusta (può essere variata dall’operatore entro certi limiti), indurrà un salto quantico nelle molecole del campione. Più molecole ci sono, maggiori saranno i fotoni assorbiti (misura detta assorbanza) e, ovviamente, minore sarà il numero dei fotoni che attraversano il campione (legge di Lambert-Beer 6). Questi ultimi arrivano ad un rivelatore che ci dice quanta radiazione è passata (trasmittanza). Ciò permette di capire la concentrazione del campione in analisi mediante il confronto con assorbanza e trasmittanza di campioni a concentrazione standard nota. Cambiando in maniera continua la lunghezza d’onda del raggio IR nello spettrofotometro, possiamo vedere quali lunghezze vengono assorbite dal campione trovando così il suo spettro IR (Fig. 2.7) e, quindi, le lunghezze d’onda di vibrazione di una molecola. Per quanto detto sopra, le molecole di CO2 causano l’effetto serra assorbendo gli IR con lunghezza d’onda specifica. Si verifica un salto quantico ad un livello energetico superiore, associato alla vibrazione della molecola, quindi le molecole tendono a tornare allo stato di minore energia, riemettendo radiazioni IR con lunghezze d’onda maggiori rispetto a quella incidente. Parte di queste viene nuovamente indirizzata verso la superficie terrestre aumentando la temperatura. Anidride carbonica e vapore acqueo (quest’ultimo assorbe radiazioni IR con λ= 2,5 e 6,5 µm) sono i principali gas serra, ma qualsiasi molecola capace di assorbire IR è potenzialmente un gas serra; ne sono esempi metano, protossido d’azoto (N2O), ozono e clorofluorocarburi (come il CFCl3). Al contrario le molecole di azoto (N2) ed ossigeno (O2) non sono gas serra, perché, pur potendo vibrare, sono simmetriche ed elettricamente neutre essendo costituite da atomi uguali e con la stessa elettronegatività; pertanto, dato che la loro vibrazione non comporta una variazione di dipolo, non assorbono IR. Un’ultima curiosità riguardo all’interazione molecole-radiazione riguarda le microonde (λ=105 µm). La loro lunghezza d’onda e, quindi, la loro bassa energia rispetto ad UV ed IR non permette né la rottura, né la vibrazione dei legami, ma è sufficiente a causare una rotazione delle molecole, se sono colpite dalla lunghezza d’onda opportuna (Fig. 2.8). Nei comuni forni a microonde λ è tarata in modo da fare aumentare la velocità di rotazione delle molecole d’acqua presenti nei cibi; queste ruotando rapidamente una contro l’altra creano per attrito il calore che cuoce gli alimenti (in maniera simile a quanto facciamo sfregandoci le mani quando il clima è freddo), in pratica “lessano” i cibi con l’acqua in essi contenuta. Le interazioni tra materia ed onde elettromagnetiche sono importanti per il mantenimento delle condizioni ideali per la vita sul pianeta. Inoltre a dispetto dei tipi di raggi e di lunghezze d’onda usati, l’assorbimento è quantizzato, nel senso che solo alcune precise e specifiche lunghezze d’onda possono essere assorbite dai vari atomi e molecole, a seconda dei livelli d’energia dei loro elettroni. L’interazione onda-materia ci dà varie possibilità per analizzare la struttura degli atomi e delle molecole (metodi spettrometrici). 2.5 L’ANIDRIDE CARBONICA COME PRINCIPALE GAS SERRA 6. Legge di Lambert-Beer: A = ebc; in cui A è l’assorbanza, c è la concentrazione molare della sostanza in esame, b è il cammino ottico (cioè lo spessore del campione attraversato dal raggio), e è il coefficiente di estinzione molare, cioè l’assorbanza di una soluzione 1M di un composto puro in condizioni standard di solvente, temperatura e lunghezza d’onda. Nel libro intitolato La Tavola Periodica, Primo Levi, chimico e scrittore scampato ai campi di concentramento nazisti, scrisse che l’anidride carbonica è il gas che costituisce la materia prima della vita, è la scorta presso cui tutti gli esseri viventi attingono, il destino ultimo della decomposizione della carne, non è uno dei maggiori costituenti dell’atmosfera, ma solo un ridicolo residuo che nessuno nota, trenta volte meno concentrato dell’argon… Eppure noi originiamo da quest’impurità, noi piante e animali e noi, la razza umana, con i nostri miliardi di opinioni diverse, la nostra storia millenaria, le nostre guerre e vergogne, la nostra nobiltà ed il nostro orgoglio. In questo saggio Levi traccia la storia di una molecola di un atomo di carbonio, dal calcare minerale in cui esso “è congelato in un eterno presente”, per passare ad una molecola di CO2, quindi in una di glucosio in una foglia, fino a diventare parte del cervello dell’autore stesso. Quell’atomo di carbonio, che ha già miliardi di anni di età, continuerà a vivere per un inimmaginabile futuro. La continuità della materia viene spesso sintetizzata nella frase “Nulla si crea, nulla si distrugge… tutto si trasforma” scritta nel libro dell’I Ching (anche chiamato Il Libro Delle Mutazioni) che racchiude mas- 232 233 sime tratte dalla millenaria cultura cinese. Se Eraclito (filosofo greco del VI-V secolo a.C.) aveva introdotto il concetto di panta rei, tutto scorre (e si evolve), come possiamo ben capire oggi, a livello atomico tutto scorre sì, ma in un ciclo infinito. Gli atomi rimangono solitamente tali e vanno incontro a cicli eterni nei quali passano da un compartimento all’altro dell’ecosistema, trasformandosi e combinandosi più volte in molecole diverse, fino a tornare ciò che erano prima7. Il ciclo del carbonio (Fig. 2.9) ne è un affascinante esempio. Ogni anno circa 215 miliardi di tonnellate di carbonio sono rimosse dall’atmosfera sotto forma di CO2, poco più della metà, (110 miliardi di tonnellate) sono “fissate” dalla fotosintesi clorofilliana, diventando prima zuccheri ed infine biomassa, prima vegetale e poi animale. La maggior parte del resto si dissolve negli oceani, si concentra per via biologica in strutture come i coralli e le conchiglie, per diventare calcare o contribuire a formare altri minerali e rocce dei fondali. In questo modo la Terra agisce da vasta riserva di CO2. Questo però è uno stato stazionario, dovuto ad un equilibrio dinamico in cui altrettanta CO2 ritorna in atmosfera. Le piante muoiono e le loro biomasse vengono decomposte dalla flora batterica con formazione di CO2, oppure entrano nella catena alimentare dove vengono ridotte a CO2, H2O ed altre piccole molecole dal metabolismo. Inoltre gli animali esalano CO2, i carbonati delle rocce si decompongono rilasciando CO2 a causa di fattori atmosferici (ad es. piogge acide) e i vulcani emettono CO2 dai loro crateri. Ed il ciclo continua. Alcuni scienziati hanno stimato che l’atomo medio di carbonio è passato attraverso i vari comparti della biosfera per circa venti volte da quando la Terra esiste8. Se esistesse solo l’inquinamento d’origine naturale questo sarebbe bilanciato da processi di autoregolazione (feedback) per raggiungere, comunque, un equilibrio stazionario. L’uomo però non è un animale come tutti gli altri, respira sì, mangia e produce deiezioni, vive e muore, producendo CO2 da processi metabolici e di decomposizione come gli altri animali, ma ne differisce perché la sua intelligenza l’ha portato a compiere delle attività che gli permettono un sempre maggiore benessere, al prezzo però di un’alterazione significativa degli equilibri naturali. Le emissioni antropiche di CO2 sono così elevate, che i sistemi di feedback naturali non riescono a riportare la concentrazione di CO2 ad un valore costante, ad un nuovo equilibrio. Così la concentrazione di CO2 in atmosfera aumenta costantemente e continuerà a farlo se non metteremo in atto opportune contromisure. Noi produciamo CO2 assai rapidamente bruciando in pochi attimi l’energia solare che si è concentrata nei combustibili fossili in milioni di anni, bruciando petrolio e carbone, ad alto contenuto in carbonio, in un’atmosfera ricca di ossigeno. La Rivoluzione Industriale, nata in Europa, è stata alimentata dal carbone, utilizzato per le macchine a vapore delle miniere, delle industrie, delle locomotive, delle navi e, più tardi, dei generatori elettrici. La scoperta del petrolio e dei suoi derivati ha permesso la diffusione di mezzi di trasporto più piccoli e numerosi, le automobili. Oltre alla nostra vita quotidiana, la Rivoluzione Industriale ha in cambiato totalmente le fonti ed il flusso dell’energia. Assieme all’aumento della produzione di energia e di consumo di combustibili fossili, è aumentata quella dei prodotti di combustione rilasciati nell’atmosfera, tra cui l’anidride carbonica, passando dalla concentrazione di circa 290 ppm del 1860 alle circa 370 ppm attuali. Il tasso di crescita è inoltre in aumento costante ed è attualmente di 1,5 ppm di CO2 all’anno (Tab. 2.2). Tab. 2.2. Variazione nella concentrazione dei principali gas serra dai tempi pre-industriali al 1994 (Dati American Chemical Society, 2000). Gas serra Concentrazione ai tempi pre-industriali Concentrazione al 1994 Tasso di variazione annuo Tempo di vita in atmosfera Figura 2.9. Schema del ciclo del carbonio. Sono indicati i flussi in miliardi di tonnellate di carbonio. I dati possono essere lievemente diversi rispetto a quelli derivati da altre fonti e riportati nel testo (Istituto Applicazioni di Calcolo – CNR; Napoli). 7. Vi sono delle rare eccezioni come reazioni a livello sub-atomico, fusione o fissione nucleare e decadimento atomico spontaneo degli isotopi radioattivi. 8. La chimica studia tutti gli spostamenti del carbonio nel suo ciclo. Mentre si muove da un comparto all’altro gassoso, liquido o solido; mentre passa dai vegetali agli animali, ai minerali, e viceversa, l’atomo di carbonio si trasforma in composti chimici differenti. Diventa oggetto di studio dei biochimici (che studiano la chimica degli esseri viventi), dei chimici organici (che studiano i composti del carbonio) e dei chimici inorganici che studiano i composti derivati dai minerali. I chimici analitici ne determinano le concentrazioni, mentre i chimici fisici studiano la struttura della materia e i meccanismi generali che ne determinano le sue trasformazioni. 234 CO2 280 ppm 358 ppm +1,5 ppm/anno 50-200 CH4 0,70 ppm 1,7 ppm +0,01 ppm/anno 12 N2O 0,28 ppm 0,31 ppm +0,0008 ppm/anno 120 Ogni anno si usa un quantitativo di combustibili fossili che corrisponde ad un contenuto in carbonio di cinque miliardi di tonnellate e secondo alcune stime la quantità relativa di CO2 emessa in base agli usi dell’energia va da un massimo del 35% per le utenze varie, al 31% per i trasporti, 21% per usi industriali, 7% per usi residenziali e, infine, 5% per usi commerciali. La deforestazione può alterare enormemente gli equilibri del ciclo del carbonio. In condizioni naturali le grandi foreste agiscono da polmone del pianeta, fissano la CO2 e producono O2 e zuccheri; nel contempo emettono CO2 con la loro respirazione ed il carbonio che forma i loro tessuti andrà a finire nel ciclo di tale elemento e potrà tornare a formare CO2. La deforestazione però riduce notevolmente la capacità di fissazione della CO2 mediante fotosintesi traducendosi in un aumento della concentrazione di anidride carbonica atmosferica. Annualmente viene tagliata o, peggio bruciata, una superficie di foresta pluviale pari a 150.000 Km2, l’equivalente della superficie della Svizzera e dell’Olanda insieme. Se gli alberi vengono bruciati, oltre a perdere l’assorbimento di CO2 attraverso la fotosintesi, si forma molta anidride carbonica (1-2 miliardi di tonnellate di carbonio all’anno); 235 se sono tagliati, lasciando i detriti organici viene formata CO2 più lentamente per decomposizione delle biomasse vegetali. Pur sostituendo la foresta con una superficie equivalente di campi coltivati ed usando il legno per le costruzioni, si ha una perdita dell’80% in assorbimento di CO2 per via fotosintetica9. La quantità totale di carbonio di origine antropica (combustibile e deforestazione) rilasciato in atmosfera è di 6-7 miliardi di tonnellate all’anno; circa la metà viene riciclata dagli oceani e dalla biosfera, il resto rimane in atmosfera come quantità addizionale (3 miliardi tonnellate/anno) che si va ad aggiungere alla base “naturale” (740 miliardi di tonnellate/anno; Fig. 2.9). Tra i vari inquinanti atmosferici, a livello globale, la preoccupazione maggiore la desta proprio l’anidride carbonica che è legata all’effetto serra ed al riscaldamento globale. Sappiamo che il surplus di 3 miliardi di tonnellate/anno di carbonio deriva da 11 miliardi di tonnellate/anno di anidride carbonica; per prevedere però quale sarà l’impatto nel futuro dobbiamo sapere quanta CO2 creiamo con le nostre attività (si veda ad es. il Box 2.2). 2.6 IL METANO E GLI ALTRI GAS SERRA Recenti stime suggeriscono che circa la metà dell’effetto di riscaldamento globale della Terra sia imputabile all’immissione in atmosfera di gas serra diversi dall’anidride carbonica. Tra questi il metano ha una capacità superiore di assorbire IR rispetto a quella dell’anidride carbonica. La sua concentrazione atmosferica è relativamente bassa, ma quella attuale di 1.7 ppm è raddoppiata rispetto all’epoca pre-industriale e dal 1979 viene indicato un aumento annuo dell’1% (Tabb. 2.2 e 2.3; Fig. 2.3). Tab. 3.3. Potenziale di riscaldamento globale (PRG), struttura e vita media in atmosfera in anni (VMA) di alcuni dei principali gas serra. Oltre all’anidride carbonica, al metano, al protossido d’azoto e all’esafluoruro di zolfo (SF6), sono riportati diversi tipi di clorofluorocarburi (CFC), idroclorofluorocarburi (HCFC) e idrofluorocarburi (HFC). Dati American Chemical Society, Università di Urbino e Carassiti et al. 1995. Gas serra CO2 CH4 N2O SF6 CFC-11 CFC-12 CFC-113 CFC-114 Struttura CFCl3 CF2Cl2 CF2Cl-CFCl2 CF2Cl-CF2Cl PRG 1 7 158 22450 4680 10720 6039 9860 VMA 50-200 12 120 stabile 60 120 90 200 Gas serra HCFC-22 HCFC-141b HCFC-142b HCFC-124 HFC-125 HFC-152a HFC-134a HFC-143a Struttura CHF2Cl CH3-CCl2F CH3-CF2Cl CHFCl-CF3 CHF2-CF3 CHF2-CH3 CH2F-CF3 CH3-CF3 PRG 1780 713 1850 599 3450 129 1400 440 VMA 14 7,1 17,8 6 26 1,5 14 40 2.6.1 Il metano Il metano proviene da un gran numero di sorgenti, sia antropiche che naturali; queste ultime rappresentano il maggior contributo alle emissioni atmosferiche. È un gas naturale presente nel sottosuolo e può essere rilasciato in atmosfera attraverso fessurazioni della roccia. A tale contributo va a sommarsi quello legato allo sfruttamento umano dei giacimenti naturali ed alla raffinazione del petrolio. Il metano è da sempre anche un prodotto della decomposizione delle biomasse vegetali, ma oltre 9. Dati American Chemical Society, 2000. 236 alle aree dove ciò avviene secondo i cicli naturali della materia, l’uomo ha aggiunto delle aree artificiali dove ciò avviene con le stesse modalità naturali, come le discariche e le foreste disboscate, aumentando così la produzione. In alcuni casi il gas naturale prodotto dalle discariche (miscela di metano ed altri idrocarburi) viene utilizzato per il riscaldamento delle abitazioni, ma solitamente esso viene solamente incanalato e rilasciato in atmosfera. L’agricoltura e la zootecnica contribuiscono all’incremento della produzione di metano da fonti naturali. Un esempio sono le risaie e gli allevamenti intensivi di bovini, ovini e simili (alti numeri di capi in aree ristrette). Questi ultimi sono detti ruminanti e possiedono nel loro complesso sistema digestivo dei batteri simbionti che li aiutano a digerire la cellulosa presente nell’erba che brucano, che sarebbe altrimenti indigeribile. Il processo è in pratica una lunga fermentazione che avviene nella struttura digestiva detta rumine, in cui, oltre alla degradazione della cellulosa in zuccheri più semplici, si ha la formazione di metano. Questo viene poi immesso in atmosfera attraverso gli orifizi del canale digerente. Se pensiamo che una sola mucca può produrre 500 litri di metano al giorno, capiamo come le quantità in gioco siano significative; alcune stime parlano addirittura di 73 milioni di tonnellate all’anno di CH4 prodotte dai ruminanti del globo! Anche le termiti hanno dei batteri simbionti che li aiutano a digerire lignina e cellulosa e producono metano. Per capire di che portata può essere la loro produzione (una stima esatta è davvero difficile), pensiamo che si stima ci sia mezza tonnellata di termiti per ogni abitante della Terra. Esiste la possibilità che il riscaldamento del pianeta possa avere intensificato il rilascio di metano dai sedimenti oceanici, dalle paludi, dalle torbaie e dal permafrost (il suolo perennemente ghiacciato delle alte latitudini). In queste zone una considerevole quantità di metano rimane “ingabbiata” tra le molecole d’acqua, ma in caso di aumento della temperatura la “fuga” delle molecole di metano risulta più probabile. Fortunatamente la vita media del metano in atmosfera è relativamente breve (12 anni), soprattutto se la compariamo a quella dell’anidride carbonica (50-200 anni; Tab. 2.2); infatti il metano viene prontamente convertito in specie chimiche meno dannose che entrano in altri cicli di trasformazione. La complessità, dovuta alla numerosità delle sorgenti del metano e delle sue molte trasformazioni chimiche possibili, rende difficile sapere con certezza quale può essere l’influenza del metano atmosferico sulla temperatura media del pianeta. Accenneremo ora brevemente ad alcuni altri gas serra. Sarà interessante notare (vedi anche Cap. 4) come alcuni di questi gas abbiano un ruolo sia nell’effetto serra che nel ciclo dell’ozono stratosferico. 2.6.2 L’ozono Omero nei canti VII e XIV dell’Iliade e XII e XIV dell’Odissea descriveva l’odore aspro e pungente che l’aria acquista in seguito al passaggio di un temporale. Verso la fine del XVIII secolo fu notato che lo stesso odore si presentava nelle vicinanze di alcune macchine elettriche, per questo motivo si pensò che fosse dovuto alla “presenza” di elettricità nell’aria. Il termine “ozono” deriva dal greco “ozein” (“che ha odore”) e venne attribuito a questo gas nel 1840 da Christian F. Schönbein (17991868), professore all’Università di Basilea. Egli fu il primo ad intuire che questo strano odore era dovuto alla presenza nell’aria di un gas che veniva formato in seguito al rilascio di scariche elettriche nell’aria durante i temporali. La molecola di ozono è stata isolata per la prima volta poco più di quarant’anni fa, perciò tale gas viene studiato approfonditamente da un tempo relativamente breve. L’interesse che attualmente riscuote l’ozono, non solo da un punto di vista scientifico, è principalmente dovuto a due fenomeni della stessa gravità, ma di natura totalmente diversa: la riduzione dello strato di ozono stratosferico e 237 l’aumento della concentrazione di ozono troposferico. Sebbene in stratosfera l’ozono svolga un ruolo fondamentale nella protezione della biosfera dai dannosi raggi ultravioletti, in troposfera, oltre ad essere un pericoloso inquinante per gli esseri umani e vegetali, assume anche il ruolo di efficace gas serra. Secondo l’Intergovernmental Panel on Climate Change (IPCC; commissione intergovernativa sui cambiamenti del clima; 2001) l’ozono troposferico è il terzo gas in ordine di contribuzione all’assorbimento delle radiazioni IR in atmosfera, a partire dall’epoca preindustriale. Inoltre, essendo il precursore di OH- e NO3, i principali agenti ossidanti in atmosfera, l’O3 può influenzare notevolmente la vita media e, quindi, il contenuto atmosferico di altri gas serra, come CH4 e idroclorofluorocarburi (HCFC, vedi prossimo paragrafo), assumendo così anche un ruolo indiretto nella determinazione del processo di riscaldamento globale del pianeta. Non è affatto facile stimare il contributo dell’ozono all’effetto serra. Infatti esso non si trova come inquinante primario, non esistendo fonti antropiche e/o naturali. Lo troviamo solo come inquinante secondario, formato a seguito di complesse reazioni fotochimiche che coinvolgono varie molecole, quali gli idrocarburi e gli ossidi di azoto (NOx), considerate come precursori. Le relazioni che legano le concentrazioni di O3 alle emissioni di molecole precursori risultano assai complesse e ciò rende difficile la realizzazione di modelli affidabili. Il contributo all’assorbimento ed alla emissione di radiazione IR da parte dell’ozono dipende sensibilmente dalla quota e dalla zona del pianeta in cui esso si trova. Si stima, infatti, che la diminuzione di ozono registrata in stratosfera negli ultimi 50 anni abbia portato, come effetto netto, ad un raffreddamento della superficie del pianeta. Al contrario, incrementi della concentrazione di ozono in troposfera portano ad un aumento della temperatura media del pianeta. Il fatto che già dal 1850 fosse stato sviluppato ed applicato, soprattutto in Europa, un metodo chimico per effettuare misure di concentrazioni di ozono in troposfera (metodo di Schönbein), ci permette di confrontare in modo sufficientemente attendibile i dati storici con quelli odierni. Il livello di ozono nella bassa troposfera è rimasto costante fino al 1950 circa; da quel periodo in poi fin quasi al 2000, in Europa, si è riscontrato un aumento di circa 1% per anno10. 2.6.3 Gli altri gas serra Il protossido d’azoto (N2O), detto anche gas esilarante, viene usato come gas anestetico nelle pratiche dentistiche e chirurgiche in genere. Quello presente in atmosfera viene emesso soprattutto dagli oceani, dai suoli agricoli e non, oltre che da processi industriali e dalla combustione delle biomasse. Ha una vita media di 120 anni ed è un gas serra molto più efficace di CO2 e CH4. Negli ultimi 200 anni la sua concentrazione è stata in lenta, ma costante crescita (Tabb. 2.2 e 2.3). I clorofluorocarburi (i famosi CFC o Freon) sono composti xenobiotici, infatti non esistevano in natura prima che l’uomo iniziasse a produrli sinteticamente attorno al 1930. Erano usati soprattutto come propellenti per le bombolette spray, come fluidi refrigeranti (nei frigoriferi e in impianti di condizionamento), come espandenti e come solventi. Oltre ad essere implicati nella distruzione del- l’ozono stratosferico, agiscono da gas serra. Attualmente il loro utilizzo è vietato in tutte le Nazioni che hanno firmato il “Protocollo di Montreal sulle Sostanze Dannose per l’Ozono Stratosferico” (1987). La loro efficienza come gas serra è elevatissima, in quanto questi gas sono in grado di assorbire la radiazione IR in una regione delle spettro elettromagnetico in cui non assorbe nessuno dei gas serra sopra elencati. Questa regione, detta finestra atmosferica comprende lunghezze d’onda tra gli 8 e gli 11 µm. I composti che a partire dal 1980 circa sono stati sintetizzati per sostituire i CFC sono gli idroclorofluorocarburi (HCFC) e gli idrofluorocarburi (HFC). Entrambe le classi di composti sono poco dannose per l’ozono, ma sono efficientissime come gas serra. CFC, HCFC, ed HFC, pur essendo presenti in atmosfera in concentrazioni molto basse (dell’ordine di 10-8%; per tale motivo sono anche detti gas traccia), grazie alla loro elevatissima capacità di assorbire la radiazione IR, contribuiscono al riscaldamento globale (Fig. 2.10). Bisogna ricordare che non tutti i gas serra hanno la stessa efficacia nell’assorbire ed emettere raggi infrarossi, questa viene valutata attraverso il cosiddetto potenziale di riscaldamento globale (PRG) confrontandola con la molecola di anidride carbonica (cui è stato dato valore 1; Tab. 2.3). I perfluorocarburi (PFC), un’altra classe di composti alogenati del carbonio ad effetto serra, hanno un PRG cha varia approssimativamente da 7.000 a 12.000. I PFC sono in pratica idrocarburi in cui atomi di fluoro sostituiscono tutti gli idrogeni presenti, sostituiscono i CFC nella produzione di refrigeranti e semiconduttori e sono sottoprodotti della fusione dell’alluminio e dell’arricchimento dell’uranio. Uno dei massimi PRG appartiene all’esafluoruro di zolfo (SF6; PRG= 22.450 circa), un composto stabile in atmosfera usato come isolante termico ed elettrico. L’impatto di questo gas traccia va a sommarsi a quello degli altri composti alogenati e la sua concentrazione sta aumentando rapidamente (4,6% all’anno). Il contributo percentuale dei diversi gas serra al riscaldamento globale è riportato in Fig. 2.10. Figura 2.10. Apporto relativo dei principali gas serra al riscaldamento globale del pianeta (dati IPCC, 2001). 2.7 IL CAMBIAMENTO GLOBALE DEL CLIMA: ALCUNI SCENARI 10. Per studiare queste evoluzioni, particolarmente utili risultano le stazioni remote. In Italia, i siti di Plateau Rosà (Aosta), Monte Cimone (Modena) e Lampedusa (Agrigento) sono ritenuti particolarmente adatti a misurare le concentrazioni dei gas costituenti il fondo naturale della libera troposfera. Sono aree sufficientemente remote e tali da non risentire dell’influenza delle emissioni di gas inquinanti sia di origine antropica che di origine naturale. Le stazioni di Plateau Rosà e Monte Cimone, situate in alta montagna, si trovano abitualmente al di sopra dello strato di rimescolamento atmosferico e nelle aree circostanti è quasi nulla l’attività della vegetazione. Lampedusa è l’isola più remota al centro del Mar Mediterraneo, lontana da grandi aree industrializzate. Queste tre Stazioni costituiscono la rete GREEN-NET (Rete Nazionale di Misura di Gas ad Effetto Serra), partecipano alla rete internazionale Global Atmosphere Watch (osservatorio globale dell’atmosfera) dell’Organizzazione Meteorologica Mondiale e sono parte del World Data Centre for Greenhouse Gases (banca dati mondiale sui gas serra) con sede a Tokyo. L’effetto dell’impatto antropico sul riscaldamento del pianeta è ormai accettato dalla maggior parte del mondo scientifico, ma essendo così complessa la previsione dell’evoluzione dell’effetto serra e dei cambiamenti globali del clima, non stupisce che talvolta gli scienziati si trovino in disaccordo. La prima questione è quella dell’incremento dei gas serra: oggi verifichiamo un tasso d’aumento della loro concentrazione in atmosfera dell’1,5% annuo. Ciò è in massima parte dovuto all’aumento della popolazione mondiale, alle moderne pratiche agricole e all’industrializzazione. Nell’ultimo secolo la popolazione si è triplicata e raddoppierà o triplicherà nel prossimo. La produ- 238 239 zione industriale è pari a 50 volte quella che era 50 anni fa e potrà decuplicarsi ancora nei prossimi 50. La produzione di energia è aumentata del 23%, in massima parte a seguito dell’utilizzo sempre maggiore di combustibili fossili, causando un aumento della CO2 atmosferica che dovrebbe raddoppiare entro il 2030-2050 rispetto alla sua concentrazione stimata del 1860. Ciò potrebbe causare un aumento della temperatura, che stime attendibili situano tra 1,0°C e 3,5°C. Lo scenario che ci si presenterà nel 2100 potrebbe essere simile al periodo di massima temperatura verificatosi 130.000 anni fa. La temperatura media era di 16°C, per questo le calotte polari erano più piccole e gli oceani avevano un livello di 5 m più alto. Se ciò avvenisse oggi, molte isole, l’Olanda e buona parte del Bangladesh, sarebbero sommerse; milioni di persone dovrebbero essere sfollate. Una situazione ancora peggiore potrebbe verificarsi se si rompesse la platea di ghiaccio: ciò porterebbe ad un ulteriore aumento del livello dei mari di 15-95 cm mettendo in pericolo alcune grandi e famose città costiere come New York, Miami, Venezia, Bangkok e molte altre ancora. Un aumento della temperatura causerebbe anche molti problemi a livello sanitario. Potrebbe favorire la rapida moltiplicazione degli agenti patogeni, il che significherebbe un veloce sviluppo delle epidemie. Inoltre, le mutate condizioni climatiche potrebbero permettere un ampliamento dell’areale di diffusione di agenti patogeni al momento confinati in alcune zone del globo; la diffusione potrebbe essere sia diretta che indiretta, dovuta cioè all’ampliamento dell’areale dei vettori che veicolano i patogeni (come mosche e zanzare). Con un tale meccanismo, ad esempio, la malaria potrebbe arrivare anche in Europa e negli Stati Uniti. Faremo ora qualche semplice esempio di scenari particolari dovuti ad un aumento della temperatura media globale, ottenuti grazie anche ai modelli computerizzati. 1) L’aumento della temperatura farebbe diminuire la solubilità dei gas in acqua, in quanto gli oceani e gli specchi d’acqua rilascerebbero più CO2 in atmosfera. L’aumento di temperatura che ne deriverebbe potrebbe, però, anche aumentare il tasso di crescita del fitoplancton, costituito da minuscoli esseri vegetali fotosintetici, che quindi eliminerebbero più anidride carbonica dall’atmosfera. Già, ma nella realtà potrebbe essere possibile anche l’inverso, cioè l’aumento della temperatura potrebbe influenzare il rimescolamento delle acque marine e diminuire l’apporto dei nutrienti (principalmente azoto e fosforo), risultando in un effetto dannoso per la crescita del fitoplancton. 2) Un aumento della temperatura globale porterebbe sicuramente ad una restrizione delle aree coperte dai ghiacci; ciò diminuirebbe a sua volta la riflessione della radiazione solare da parte della superficie terrestre (albedo), portando ad un ulteriore aumento della temperatura. 3) Un aumento della temperatura potrebbe permettere agli alberi di vivere a latitudini maggiori, dove troviamo il permafrost colonizzato principalmente da muschi e licheni che sono molto meno attivi nella fotosintesi rispetto alle piante superiori. Lo stesso fenomeno potrebbe, però, portare ad una maggiore desertificazione alle basse latitudini, a seguito della diminuzione delle precipitazioni e della più rapida evaporazione, diminuendo così la capacità di assorbimento di CO2 per via fotosintetica. 4) La maggiore evaporazione creerebbe maggior umidità in atmosfera contribuendo ad aumentare l’effetto serra (abbiamo detto che il vapore acqueo è considerato un gas serra). Si formerebbero anche più nubi. Ad ogni modo sembra che quelle basse contribuiscano all’effetto serra, mentre quelle alte siano più efficaci nell’intercettare la radiazione solare; quindi l’effetto netto delle nubi pare essere quello di un raffreddamento. 240 Un altro effetto di raffreddamento può essere dato dagli aerosol. Questi solitamente consistono di minuscole particelle di solfato d’ammonio, (NH4)2SO4, che si formano a partire dall’anidride solforosa (o biossido di zolfo, SO2) rilasciata da fonti naturali (vulcani, ecc.) o artificiali (uso dei combustibili fossili, ecc.). L’effetto di raffreddamento si deve alla riflessione ed alla diffusione di parte della radiazione solare che arriva sulla Terra. Questi scenari sono sicuramente catastrofici, ma dobbiamo tener conto del fatto che tutti questi cambiamenti, se ci saranno, saranno probabilmente graduali e, pertanto, ci sarà modo di adottare delle contromisure, se ce ne sarà la volontà politica a livello globale. 3. LA DISTRUZIONE DELL’OZONOSFERA L’ozonosfera si estende principalmente tra i 20 ed i 35 Km di altitudine, ma può arrivare fino a 50-55 Km (stratosfera superiore e mesosfera). Qui l’ossigeno si concentra nella sua forma di molecola tri-atomica (O3), l’ozono, il quale si forma a partire dalla comune molecola bi-atomica dell’ossigeno (O2) per assorbimento dei raggi ultravioletti (UV), proteggendo così la superficie terrestre da una tale eccessiva e nociva irradiazione. A causa dell’assorbimento della radiazione UV, nello strato di ozono si raggiungono temperature più elevate rispetto agli strati contigui. Ogni anno, in settembre-ottobre (periodo primaverile nell’emisfero australe), la concentrazione dell’ozono stratosferico antartico diminuisce a causa di variazioni naturali. Questo fenomeno, come altri che abbiamo discusso, va incontro ad una sorta di amplificazione antropica; infatti a causa degli inquinanti immessi in atmosfera, a partire dal 1980 circa, questa periodica riduzione è diventata sempre maggiore ed il fenomeno è stato indicato dai mass media come “buco dell’ozono” dell’Antartide. Ultimamente è stato scoperto un buco dell’ozono minore al Polo Nord, sopra il Mare Artico. Il “buco” antartico riflette in maniera evidente la generale e graduale diminuzione della concentrazione stratosferica di questo gas. Come vedremo, il corrispondente aumento di UV che giungono sulla superficie della Terra ha conseguenze gravi sugli animali (uomo compreso) e sull’ambiente. 3.1 L’OZONOSFERA In massima parte l’ozono si forma a 30 Km di altezza circa (stratosfera), in corrispondenza della zona equatoriale dove risulta più rilevante l’irraggiamento solare. Curiosamente i raggi UV possono catalizzare sia la formazione, che la distruzione della molecola di ozono. Gli UV con λ < 242 nm (o 0,242 µm) dissociano l’ossigeno molecolare (O2) in ossigeno atomico (O), questo presenta un’elevata reattività (essendo un cosiddetto radicale; rappresentato meglio come O•) e si combina rapidamente con O2 originando l’ozono (O3). Nella reazione opposta, le molecole di ozono, che si formano con la precedente reazione, assorbono le radiazioni solari con 240 < λ < 340 nm, che hanno energia tale da provocare la fotolisi dell’ozono (scissione mediante luce), si liberano così un atomo ed una molecola di ossigeno, O• può quindi reagire con altre molecole, ad esempio con O3 o un altro O•, e formare O2. Quindi per quanto riguarda le radiazioni in gioco, esse sono tutte UV, ma è fondamentale la loro lunghezza d’onda. Queste due reazioni fotochimiche portano ad un equilibrio dinamico che mantiene la concentrazione dell’ozono costante e permette di filtrare buona parte degli UV. Si ritiene che in questo modo si producano (e si distruggano) globalmente circa 4.000 tonnellate di O3 al secondo. Dalle zone equatoriali l’ozono viene poi trasportato verso i poli dai venti stratosferici che confluiscono nelle aree cicloniche polari (i vortici polari). 241 Le osservazioni da satellite e dalla Terra hanno permesso di valutare la distribuzione media dell’ozono totale sia in funzione della latitudine che della stagione (Fig. 3.1). L’ozono viene solitamente misurato come ozono presente in una colonna d’aria che si estende dalla superficie terrestre fino al limite superiore dell’atmosfera; l’unità di misura dell’O3 usata è l’Unità Dobson (DU)11. Alle latitudini tropicali i livelli di ozono oscillano nel corso dell’anno da 250 a 300 DU, tale valore si mantiene praticamente stabile perché l’attività fotochimica avviene a carico dell’irraggiamento solare che è costante. Ad altre latitudini le variazioni sono maggiori, la concentrazione massima di O3 si trova alle latitudini medio-alte. Alle diverse longitudini si possono avere escursioni limitate della concentrazione dovute all’alternarsi delle terre emerse e dei mari. Oltre a questi fattori, notevoli oscillazioni annuali (anche del 40%) sono legate alla variabilità naturale, mentre fenomeni sporadici e locali (ad es. le eruzioni vulcaniche) possono provocare variazioni anche del 10%. Altre variazioni anche significative sono dovute alle condizioni meteo locali. Figura 3.1. Concentrazione dell’ozono stratosferico in Unità Dobson (DU). A: Rappresentazione tridimensionale del buco dell'ozono, realizzata sulla base dei dati di concentrazione dell'ozono stratosferico (Goddard Space Flight Center, NASA; USA). In primo piano, in penombra, è visibile il Sud America. B: Elaborazione grafica che rappresenta la distribuzione dell'ozono nell’emisfero boreale in data 1° settembre 2002 (World Meteorological Organization, United Nations Specialized Agency). Il profilo dell’Italia è visibile in basso al centro. L’interazione tra inquinanti di origine antropica ed ozono è stata ampiamente provata. A prescindere dalle variazioni cicliche naturali, l’aumento costante dell’emissione di alcuni gas inquinanti sta causando una graduale diminuzione dell’ozono stratosferico. Dal 1979 ad oggi la diminuzione della concentrazione di ozono alle latitudini più popolose è stata circa pari al 20-25% e a latitudini maggiori la diminuzione è stata ancora più elevata. In Antartide il buco dell’ozono si riforma periodicamente all’inizio della primavera australe (settembre), portando ad un repentino assottigliamento dell’ozonosfera (anche del 60%) che dura per circa 60 giorni. Alla fine del fenomeno, però, il “buco” non si richiude mai completamente e si ripresenta con dimensioni sempre maggiori l’anno successivo. L’assottigliamento risulta più marcato ai poli per l’azione determinante che hanno le basse temperature sui meccanismi di degradazione dell’ozono. 11. L’Unita Dobson (DU) fu così chiamata in onore di G.M.B. Dobson (1889-1976), uno dei primi scienziati a studiare l’ozono atmosferico. Una DU definisce l’ozono presente in una colonna di atmosfera che, riportato su tutta la superficie della Terra, presenti uno spessore di 0,01 mm, in condizioni standard di pressione e temperatura (0°C, 1 atm). In pratica 1 DU corrisponde ad un volume di circa 5x109 m3, o a circa 2,69x1016 molecole di ozono in una colonna di atmosfera con sezione di 1 cm2, in condizioni standard. 242 3.2 DISTRUZIONE DELL’OZONO La continua e graduale distruzione dell’ozono della stratosfera può essere ricondotta alla presenza di un gran numero d’inquinanti gassosi atmosferici in grado di reagire con l’ozono degradandolo; questi sono di solito stabili nella troposfera e si degradano fotochimicamente in seguito all’irraggiamento UV nella stratosfera e la loro degradazione forma atomi di cloro e di bromo molto reattivi nei confronti dell’ozono (radicali Cl• e Br•). Le sostanze che più hanno influenza nella distruzione dell’ozonosfera sono proprio i radicali Cl• e Br•, derivati dei clorofluorocarburi (CFC) e bromofluorocarburi, i quali sono anche attivissimi gas serra. Come abbiamo già detto, i CFC sono composti costituiti da cloro, fluoro e carbonio, la cui produzione è stata ormai bandita, utilizzati soprattutto come refrigeranti ed agenti propellenti. Altri composti implicati nel fenomeno sono gli idroclorofluorocarburi (HCFC), una classe di composti chimici attualmente utilizzati in via temporanea per rimpiazzare i CFC. Contenendo meno cloro sono meno attivi nel deterioramento della fascia di ozono nella stratosfera; inoltre sono molto meno persistenti in atmosfera avendo una vita media in atmosfera che può variare da 1,5 a 40 anni contro i 60-400 dei CFC12. Ad ogni modo anche la produzione di HCFC dovrà essere abbandonata (nell’anno 2020 nei Paesi industrializzati), perché sono efficientissimi gas serra. I bromofluorocarburi contengono bromo al posto del cloro e sono utilizzati negli estintori per spegnere gli incendi. Questi sono molto più efficaci nella distruzione dell’ozono, perché contengono il bromo che è più reattivo, ma per fortuna sono molto meno usati e quindi meno concentrati in atmosfera. Tutte le sostanze gassose emesse in atmosfera che contengono cloro o bromo sono quindi potenzialmente dannose per l’ozono; ne sono un esempio i comuni solventi industriali metilcloroformio (o 1,1,1-tricloroetano, CH3CCl3) e tetracloruro di carbonio (o tetraclorometano, CCl4). La presenza dei su citati inquinanti ha alterato il ciclo naturale dell’ozono: la sua distruzione è marcata nell’atmosfera antartica durante l’inverno australe (giugno-settembre) periodo in cui l’insolazione è minima e si acuisce l’azione del vortice polare. Quest’ultimo isola grandi masse d’aria sulla verticale del Polo (esse sono come intrappolate nell’occhio di un ciclone), le quali diventano sempre più fredde a causa dell’assenza dei raggi solari e della mancanza di scambi termici con altre masse d’aria. Quando la temperatura raggiunge i -80°C, si formano nubi di acqua ad alto contenuto di acido nitrico in forma gassosa (che si forma a partire dal NO2) dette nubi stratosferiche polari. Queste nubi funzionano da catalizzatore: sulla superficie delle loro particelle si creano condizioni che favoriscono una catena di reazioni che porta alla liberazione di cloro (Cl2) e bromo molecolare (Br2) dagli inquinanti alogenati. All’inizio della primavera australe, il ritorno dell’insolazione provoca la dispersione delle nubi stratosferiche polari e la radiazione solare causa la scissione delle molecole di cloro e bromo in singoli atomi altamente reattivi (radicali). Questi danno inizio ad una serie di reazioni autocatalitiche a catena che comportano in ultimo la degradazione dell’ozono. Infatti i radicali cloro e bromo agiscono a loro volta come catalizzatori, combinandosi ripetutamente con molecole di ozono e formando una molecola di ossigeno e una di monossido di cloro o bromo (ad es. Cl• + O3 → O2 + ClO). Il monossido si combina poi con un radicale di ossigeno (derivato dalla fotolisi di O2 o O3) liberando ossigeno molecolare e un atomo dell’alogeno che ricomincia il processo (ad es. ClO + O• → O2 + Cl•). In questo modo pochi radicali Cl• e Br• portano alla degradazione di molte molecole di O3. 12. Dati di Carassiti et al. (1995) – “Un’introduzione alla chimica dell’atmosfera” in La Protezione dell’Ambiente in Italia – I. Bertini, R. Cipollini e P. Tundo Edd. Pubblicato da Società Chimica Italiana, Consiglio Nazionale delle Ricerche e Consorzio Interuniversitario “La Chimica per l’Ambiente”. 243 La reazione di degradazione di O3 termina solo quando questi radicali reagiscono con altre specie chimiche come il metano, il perossido di idrogeno (H2O2) e l’idrogeno molecolare (H2), in quanto non si formano più Cl• e Br• e la reazione a catena si interrompe. 3.3 EFFETTI SULLA FAUNA, SULLA FLORA E SULL’AMBIENTE Allo stato attuale la diminuzione dell’ozono stratosferico non rappresenta una minaccia immediata per la salute dell’uomo e degli animali, anche perché al momento l’effetto maggiore si ha in zone scarsamente abitate. Inoltre diversi organismi viventi hanno sviluppato particolari meccanismi di protezione dall’azione dei raggi UV-B, alcuni bloccano le loro attività e si rifugiano in zone in ombra durante i periodi giornalieri di maggiore insolazione, altri si proteggono con dei pigmenti, altri ancora possiedono dei meccanismi di riparazione del DNA e/o dei tessuti danneggiati. Questi meccanismi diventano però insufficienti a livelli eccessivi d’irradiazione UV-B, per cui se il “buco dell’ozono” dovesse raggiungere dimensioni critiche, il rischio potrebbe diventare elevato. Secondo recenti stime, una diminuzione dell’1% della concentrazione di ozono potrebbe comportare un aumento delle radiazioni ultraviolette al suolo pari all’1,2%. Questi raggi, soprattutto gli UV-B, sono assorbiti dalle molecole di DNA ed RNA e causano rotture nelle loro catene, ciò causa la comparsa di vari tipi di tumore dell’epidermide (melanomi, ecc.). Un altro effetto possibile sugli animali è l’immunodepressione, cioè una diminuzione dell’immunità (produzione di anticorpi e di cellule immunitarie) che aumenta la suscettibilità alle malattie. L’effetto fisiologico più evidente e diretto è il danno da UV a carico della retina dell’occhio, dove tali raggi provocano patologie di gravità diversa a seconda della dose, fino alla cecità, relativamente più diffuse in zone equatoriali dove è maggiore l’irraggiamento. Per questi motivi nelle stagioni più assolate in occasione di viaggi in zone (sub)equatoriali è importante riparare occhi e cute dall’eccesso di UV. Dato che queste radiazioni non sono penetranti, vengono assorbite solo dei pochi strati superficiali di cellule. Ciò comporta che gli esseri piccoli o unicellulari siano i più danneggiati. In effetti gli organismi marini, che costituiscono il fitoplancton e lo zooplancton e giocano un ruolo cruciale nelle reti trofiche marine, sono estremamente sensibili e per alcuni di loro il livello attuale d’irraggiamento UV è quasi al limite della nocività. In questo caso anche un aumento limitato dei livelli degli UV-B potrebbe diminuire la varietà ed il numero delle specie presenti, con ripercussioni su tutta la comunità acquatica. Sulle piante superiori le radiazioni UV comportano in genere un rallentamento della crescita, dovuto all’effetto di riduzione della superficie fogliare, area deputata alla cattura dell’energia solare per la fotosintesi. In piante irradiate artificialmente con raggi UV si verifica sempre un decadimento generale ed una riduzione delle dimensioni. Non sono attualmente disponibili informazioni scientifiche accurate sugli effetti causati dai raggi UV per tutti gli ecosistemi vegetali, finora sono state studiate approfonditamente solamente le foreste temperate, le praterie, la tundra, le zone alpine e soprattutto le aree coltivate. I risultati non sono generalmente incoraggianti; una delle stime indica che ad una diminuzione del 25% della concentrazione dell’ozono stratosferico corrisponde una percentuale equivalente di riduzione nella resa della soia. Ad ogni modo, va considerato che la maggior parte di questi studi avvengono ancora su scala di laboratorio o di serra e che le varie specie vegetali mostrano un ampio spettro di resistenza agli UV. Le specie selvatiche, infatti, presentano solitamente una resistenza maggiore rispetto alle corrispondenti specie coltivate. 244 3.4. DISTRUZIONE DELL’OZONOSFERA ED EFFETTO SERRA Leggendo questo capitolo vi sarete accorti che in vari punti sono richiamati collegamenti ed interconnessioni tra effetto serra e distruzione dello strato di ozono. Questo è proprio un esempio di cosa vuol dire la frase “cambiamento globale del clima”, tutte le variabili sono più o meno collegate e contribuiscono al mutamento che sta alla base della difficoltà della realizzazione dei modelli predittivi (§ 2.2). Per brevità e semplicità non abbiamo trattato, se non con brevi accenni, ad altri effetti dell’inquinamento che possono riflettersi in cambiamenti sia del clima che della biosfera, ad esempio le piogge acide e lo smog fotochimico. Vorremmo in ultimo riassumere le differenze e le similitudini più evidenti tra effetto serra e distruzione dell’ozonosfera. Siamo ben consci che con quest’operazione effettuiamo una semplificazione estrema, che come tale va considerata, ma ci sembra che comunque sia un valido strumento per mettere a fuoco alcuni aspetti fondamentali (Tab. 3.1). Tab. 3.1. Relazioni tra effetto serra e distruzione dell’ozonosfera. Strato atmosferico coinvolto Gas coinvolti Radiazioni coinvolte Natura del problema Cause fondamentali Possibili conseguenze Possibili soluzioni Effetto serra Principalmente troposfera. Gas serra (CO2, H2O, CH4, N2O, CFC, HFC, PFC); O3 a livello troposferico. IR, assorbiti e riemessi in parte verso la Terra. L’aumento della concentrazione dei gas serra sta apparentemente portando ad un aumento globale della temperatura media della Terra. Emissione CO2 da utilizzo di combustibili fossili e deforestazione; aumento di CH4 da agro-zootecnia. Cambiamento del clima ed alterazionedella produzione agricola, aumento dei livelli dei mari. Diminuzione dell’utilizzo di combustibili fossili; terminare o diminuire la deforestazione. 245 Distruzione ozonosfera Stratosfera. O2, O3, CFC, bromofluorocarburi ed HFC. UV (soprattutto UV-B) che degradano i gas atmosferici alogenati liberando Cl• e Br•. La diminuzione della concentrazione di O3 sta apparentemente causando l’aumento dell’esposizione a UV. Rilascio di clorofluorocarburi e bromofluorocarburi da sistemi refrigeranti, agenti schiumogeni, bombolette spray e solventi; rilasciano Cl• e Br• che distruggono O3. Aumento dei tumori della pelle, danno al fitoplancton e distrofia nei mari. Sostituire CFC e molecole simili con altre eco-compatibili. 4. LE PROSPETTIVE FUTURE Dobbiamo chiarire che l’effetto serra nasce con la comparsa dei gas serra in atmosfera (CO2, CH4 e H2O) e che, come abbiamo detto più volte, è fondamentale a mantenere condizioni di vita ideali sulla Terra, che senza questo effetto atmosferico avrebbe una temperatura media attorno ai –18°C. Secondo l’American Chemical Society, la preoccupazione degli scienziati sta nel fatto che, seppure ancora non ci siano certezze, alcune prove sperimentali ci inducono a credere che questo aumento della temperatura media globale, dovuto ad una sempre maggior emissione di gas serra, sia seriamente possibile. 4.1 LA REALTÀ SULL’EFFETTO SERRA Sappiamo per certo che una maggior concentrazione di anidride carbonica in atmosfera contribuisce all’innalzamento della temperatura. Ne abbiamo varie prove, come le temperature della Terra e di Venere e il meccanismo di assorbimento e rilascio dei raggi infrarossi da parte delle molecole. • Abbiamo prove analitiche che la concentrazione atmosferica di anidride carbonica è aumentata nell’ultimo secolo. • Ci sono evidenze che le attività antropiche, come l’utilizzo di combustibili fossili e la deforestazione, abbiano contribuito, almeno parzialmente, all’incremento della concentrazione di anidride carbonica. • Inoltre è molto probabile che ci sia stato un aumento della temperatura media globale nell’ultimo secolo. I dati analitici concordano con questa tesi; le modellazioni al computer, le analisi dei carotaggi dei ghiacci, gli anelli di accrescimento degli alberi ed il tasso di crescita dei coralli indicherebbero un aumento di 0,5°C (± 0,2°C) e attesterebbero il ventesimo secolo come il periodo più caldo a partire dal 1400. • Si ritiene possibile che l’anidride carbonica e gli altri gas serra di origine antropica abbiano contribuito all’aumento di temperatura dell’ultimo secolo. Si stanno accumulando varie prove scientifiche a supporto di questa ipotesi, ma ancora non giustificano una conferma definitiva. • Poiché molte delle affermazioni precedenti non sono definitivamente provate, non possiamo affermare con certezza che la temperatura media del pianeta continuerà a crescere in futuro all’aumentare dell’emissione in atmosfera di gas serra di origine antropica. L’incertezza è peraltro aumentata dalla complessità e dalla non completa affidabilità dei modelli predittivi applicati su scala globale. 4.2 IL PROTOCOLLO DI KYOTO Proprio questa incertezza sugli sviluppi dell’effetto serra e sul cambiamento globale del clima ha portato alla ratifica del cosiddetto “protocollo di Kyoto”. In questa città giapponese, nel Dicembre 1997, diecimila partecipanti provenienti del mondo scientifico, politico ed economico di 159 nazioni hanno collaborato alla stesura di un documento programmatico per la riduzione graduale dell’emissione di gas serra da parte dei Paesi industrializzati ed in via di sviluppo, da realizzarsi definitivamente entro il periodo 2008-2012. Un quadro della situazione dell’applicazione del protocollo di Kyoto in Europa ce lo fornisce l’Agenzia Europea per l’Ambiente (in sigla EEA, dall’inglese European Environment Agency) in una pubblicazione del Dicembre 2003. Secondo la EEA, in sintesi, gli stati europei nel loro complesso sono in ritardo nel raggiungimento degli obiettivi di Kyoto previsti per l’Europa: riduzione dell’8% delle emissioni rispetto ai 246 livelli del 1990. Inoltre dieci stati membri non sembrano poter ottenere gli obiettivi nazionali con le misure fin qui adottate. Sembra comunque che né le politiche locali, né quelle comunitarie potranno far sì che l’Europa raggiunga gli obiettivi di Kyoto in tempo (Fig. 4.1). Infatti con le sole misure fin qui attuate si prevede al 2010 una riduzione dell’emissione di solo lo 0,5% nei confronti dei livelli del 1990. Per questo sono state prese misure addizionali, incluse in varie direttive europee che potranno possibilmente portare ad una riduzione finale dell’emissione di gas serra del 5,1%. Tali misure prevedono l’accordo europeo commerciale sui gas serra, l’incentivazione alla produzione di energia elettrica da fonti rinnovabili e della produzione combinata di calore ed energia, la diminuzione del consumo energetico negli edifici e nei grandi stabilimenti industriali, l’uso di elettrodomestici a basso consumo energetico. Altre misure comprendono l’adozione di biocombustibili nei trasporti (ad es. gas naturali), la riduzione delle emissioni di anidride carbonica delle auto, la diminuzione del conferimento di rifiuti biodegradabili in discarica, il recupero dei gas naturali dalle discariche (CH4 ed altri) e la riduzione dei gas fluorurati in genere (tra cui i CFC). L’intenzione degli stati europei sembra essere quella di sfruttare la flessibilità del protocollo di Kyoto e di introdurre anche metodi di rimozione attiva del carbonio atmosferico. 4.2.1 Gli obiettivi di Kyoto dell’Unione Europea Il fine ultimo del protocollo di Kyoto è contribuire al raggiungimento di un livello sostenibile di emissione di gas serra, un livello cioè che non danneggi l’ambiente e il clima e che, altresì, non richieda una tale limitazione di attività umane da comportare una recessione economica. Questo obiettivo sarebbe raggiungibile se fosse possibile una riduzione globale del 50-70% delle emissioni mondiali. Il protocollo di Kyoto è solo un primo passo e prevede la riduzione dell’emissione di sei gas serra: CO2, CH4, HCFC, PFC, N2O, e SF6. La diminuzione percentuale richiesta varia a seconda della nazione considerata. Diversamente da Stati Uniti e Russia, l’Europa ha già ratificato l’accordo, nel suo complesso l’obiettivo è una riduzione di emissione dell’8% rispetto ai livelli del 1990 entro il periodo 2008-2012. I vari stati membri si sono poi accordati sui traguardi nazionali nel cosiddetto accordo di burden-sharing (suddivisione del carico). Alcuni stati membri potranno tenere invariati i loro livelli di emissione considerando il buon rapporto emissione/economia già ottenuto (Francia e Finlandia), altri come Svezia, Irlanda, Portogallo, Grecia e Spagna potranno addirittura aumentarli, mentre ai restanti è, comunque, a vario titolo richiesta una riduzione delle emissioni (emissione eccessiva, possibilità di ulteriore diminuzione, ecc.). A tutti i paesi candidati o in fase d’ingresso nella Unione Europea è stato richiesto un livello di riduzione dell’8% ad eccezione della Polonia e dell’Ungheria (6%). In queste nazioni le emissioni di gas serra sono sostanzialmente diminuite dal 2001; ad eccezione della Slovenia, sembra che possano raggiungere i loro obiettivi nazionali. Nel 2001 purtroppo le emissioni rispetto al 1990 erano ridotte del solo 2,3%, appena un quarto di quanto richiesto. Secondo le previsioni solo cinque paesi saranno in grado di rispettare gli obiettivi del burden-sharing grazie alle loro politiche nazionali (Francia, Germania, Lussemburgo, Svezia e Gran Bretagna), gli altri dieci sembrano avviati ad un fallimento con i risultati peggiori previsti per Irlanda, Portogallo e Spagna. Nel 2001 l’apporto percentuale di gas serra dei vari settori economici era (dati EEA): • del 28% per il settore della produzione di energia (centrali elettriche e raffinerie, apporto soprattutto dovuto alla produzione di CO2); • del 21% dal settore dei trasporti (apporto di CO2 ed NOx - ossidi d’azoto); 247 • del 20% dall’industria manifatturiera (apporto di CO2, ma anche di NOx e gas fluorurati); • del 10% dall’agricoltura (CH4 dal bestiame e NOx dai fertilizzanti); • il restante proviene da altre fonti (principalmente emissione di CO2 dovuto all’uso di combustibili fossili per il riscaldamento di case private ed esercizi commerciali). Dal 1990 al 2001 le emissioni sono generalmente diminuite in tutti i settori con l’eccezione dei trasporti. Sebbene dal 1990 al 2001 nel settore della produzione di energia l’emissione di gas serra sia diminuita del 2%, la produzione è aumentata del 23% mostrando un valido rapporto tra emissione e produzione. Nel settore dei trasporti dal 1990 al 2001 c’è stato un aumento del 20% delle emissioni (in maggior parte dovuto a trasporto su gomma). Oltretutto l’apporto di CO2 dall’aviazione e dalla navigazione (non inclusi nell’accordo di Kyoto) assommano al 6% delle emissioni europee, con un aumento del 44% dal 1990. Nell’industria manifatturiera l’emissione di CO2 da uso di combustibili fossili è diminuita del 9% grazie all’utilizzo di sistemi con maggiore resa energetica. La produzione di NO da parte delle industrie chimiche che producono acido adipico è calata del 54%. La produzione di gas idrofluorocarbonici (HCFC), è aumentata del 400% dal 1995 al 2001, ammontando ora allo 0,8% dei gas serra presenti in atmosfera. La produzione di ossido nitroso (NO) dall’agricoltura è diminuita grazie alla riduzione dell’uso di fertilizzanti azotati prevista dalle politiche agricole comunitarie. La produzione di metano da fermentazione enterica dei ruminanti è diminuita a seguito della riduzione del numero dei capi e anche grazie all’adozione di opportune politiche agricole. Le emissioni dovute ad attività domestiche erano rimaste praticamente costanti fino al 2001, quando sono improvvisamente aumentate del 7% a causa degli inverni particolarmente rigidi che hanno aumentato il consumo di combustibili per riscaldamento. Fortunatamente il tasso di crescita di tali emissioni è rallentato grazie all’adozione di gas naturali e biomasse come combustibili per riscaldamento ed alla diffusione di efficienti sistemi di isolamento termico nelle costruzioni. Per quanto riguarda il settore della gestione dei rifiuti, la produzione di metano dalle discariche è diminuita del 28% grazie all’adozione della direttiva europea e a normative nazionali che mirano a ridurre la quantità di rifiuti biologici non trattati immessi in discarica e ad introdurre sistemi di recupero dei biogas. tiche d’incentivazione all’uso del trasporto su rotaia o su acqua. Sebbene limitino la presenza di altri inquinanti (CO, SOx, NOx) l’uso delle marmitte catalitiche nelle auto a benzina porterà ad lieve aumento di NO in atmosfera. L’anidride carbonica emessa dalle auto è diminuita del 10% circa dal 1995 al 2001, ciò vuol dire che il limite di 140 g di CO2 emessa per chilometro percorso entro il 20082009 (stabilito in accordo con le aziende automobilistiche) è tecnicamente raggiungibile. Le emissioni di gas serra da parte dell’agricoltura sono previste in calo, grazie alla continua diminuzione dei capi di bestiame ed all’ulteriore riduzione dell’uso dei fertilizzanti nitrati. Nel settore dell’industria manifatturiera si prevede che le concentrazioni di ossido nitroso emesse dovrebbero continuare a diminuire fino al 2010, ma gli effetti benefici dovrebbero essere in parte negativamente bilanciati dal continuo aumento di idrofluorocarburi destinati alla sostituzione completa dei clorofluorocarburi e bromofluorocarburi. Anche nel settore della gestione dei rifiuti ci si aspetta una diminuzione finale dell’emissione di gas serra pari a circa il 50% nel periodo 1990-2010, grazie al proseguimento dell’applicazione della direttiva sulle discariche che prevede il recupero obbligatorio dei biogas. Figura 4.2. Riduzione delle emissioni di carbonio (come milioni di tonnellate di CO2) previste per vari settori nei paesi membri europei per il 2010 a seguito delle misure e politiche esistenti e di quelle addizionali intraprese, a seguito della previsione di mancato raggiungimento degli obiettivi di Kyoto (European Environmental Agency, EEA, 2003). 4.3 LE PROSPETTIVE Come abbiamo accennato, varie direttive europee sono state emanate, come misure addizionali, per la riduzione delle emissioni nei settori della produzione di energia, dei trasporti, delle industrie manifatturiere e per la gestione dei rifiuti. Dai modelli predittivi utilizzati ci si aspetta che nei Paesi membri queste potranno portare ad una netta diminuzione dell’emissione di carbonio in atmosfera da parte dei vari settori produttivi (Fig. 4.2). Per ciò che riguarda le prospettive future della emissioni da parte del settore della produzione ed utilizzo di energia (trasporti esclusi), con l’attuazione di misure addizionali nazionali nel 2010 si dovrebbe avere una diminuzione netta del 6% rispetto al 1990. Non verranno invece raggiunti i livelli previsti per l’utilizzo di fonti rinnovabili e per la produzione combinata di energia e calore. Nel settore trasporti si prevede un aumento del 34% delle emissioni nel periodo 1990-2010, ciò a seguito del sempre maggior aumento del trasporto su gomma di merci e persone, nonostante le poli- Fin qui abbiamo discusso di ciò che potremmo definire come strumenti passivi di riduzione delle emissioni, nel senso che mirano solo a limitare l’emissione in modo da fare abbassare le concentrazioni in atmosfera grazie al tempo ed alla circolazione delle masse d’aria. Oltre a questi, otto stati membri (Austria, Belgio, Finlandia, Olanda, Portogallo, Spagna, Svezia e Gran Bretagna), pur avendo espresso l’intenzione di voler usare la flessibilità delle scadenze di Kyoto, hanno anche manifestato l’intenzione di usare degli strumenti attivi di rimozione della CO2 atmosferica, prevedendo di eliminare entro il 2008-2012 circa dieci milioni di tonnellate di CO2 con pratiche forestali (ripristino della forestazione) e altri tre milioni all’anno con pratiche agricole mirate. Il totale di queste rimozioni attive assommerebbe al 4% della diminuzione di CO2 richiesta all’Europa da Kyoto. Sono stati anche proposti altri sistemi di rimozione attiva, come il pompaggio di CO2 nei fondali oceanici o la fertilizzazione degli oceani con ferro per promuovere la crescita e, conseguente- 248 249 mente, l’attività fotosintetica del fitoplancton. Mentre il primo è stato contestato per i potenziali danni ai coralli, il secondo è stato testato su scala ridotta, ma l’aumento del fitoplancton ha indotto un parallelo aumento del suo “predatore”, lo zooplancton, portando alla fine al riequilibrio della popolazione del fitoplancton e ad un effetto netto di rimozione della CO2 trascurabile. 4.3.1 Il ruolo della Green Chemistry nei cambiamenti climatici Già nel 1912 Giacomo Ciamician (Trieste, 1857 – Bologna, 1922), senatore del Regno d’Italia per meriti scientifici, scriveva sulla prestigiosa rivista Science: “Su aride terre sorgeranno industrie senza inquinamento e senza ciminiere; foreste di tubi di vetro si estenderanno nelle pianure e palazzi di vetro sorgeranno dovunque; al loro interno avranno luogo quei processi fotochimici che finora sono stati un segreto geloso delle piante, ma che saranno controllati dall’industria umana che avrà imparato come renderli più produttivi della stessa natura. Infatti la natura non ha fretta, l’umanità sì.” Ciamician è il padre fondatore della Green Chemistry; egli si rese conto con ampio anticipo degli effetti che le attività antropiche avrebbero avuto sull’ambiente e negli ultimi periodi della sua carriera concentrò i suoi studi sull’utilizzo della luce come “reagente pulito” per la sintesi di molecole d’interesse come chetoni, aldeidi e composti dell’azoto. La Green Chemistry (chimica verde, sostenibile, eco-compatibile) avrà un ruolo fondamentale nel ridurre sia i fenomeni che stanno alla base dell’effetto serra sia quelli responsabili della comparsa del buco dell’ozono; infatti il termine Green Chemistry è definito in breve come: l'invenzione, la progettazione e l'applicazione dei prodotti chimici e dei processi atti a ridurre, o eliminare, l'uso e la produzione delle sostanze pericolose (IUPAC, International Union of Pure and Applied Chemistry)13. Se ancora non si riesce a vedere se e quando la previsione di Ciamician si avvererà, senz’altro la Green Chemistry rimane uno strumento fondamentale per lo sviluppo sostenibile, in quanto si occupa di diversi aspetti ad esso correlati: • uso di materie prime rinnovabili, come fonte di composti chimici; • uso di reagenti innocui; • uso di processi naturali, uso della biosintesi e della biocatalisi; • uso di solventi alternativi agli odierni solventi organici volatili e/o clorurati; • progettazione di composti chimici più sicuri; • sviluppo di condizioni di reazione alternative; • riduzione del consumo di energia. Tra le attività della Green Chemistry che abbiamo testé elencato, alcune sono fondamentali per contrastare effetto serra e distruzione dell’ozonosfera: lo studio e l’uso di solventi alternativi a quelli alogenati, la riduzione del consumo energetico e l’utilizzo di materie prime rinnovabili. Toccherà alla società e alle classi dirigenti fare buon uso dei risultati ottenuti dalla Green Chemistry e far sì che la ricerca scientifica in questo settore possa portare a risultati sempre più importanti per la protezione dell’ambiente. 13. Chi volesse approfondire i temi della Green Chemistry può consultare il sito http://www.unive.it/inca/research/ green_chemistry/index.php 250 Elenco degli autori ELENCO AUTORI Angelo Albini Dipartimento di Chimica Organica Università di Pavia Michela Aresta Centro di Ricerche METEA Università degli Studi di Bari Alberto Bargagna Dipartimento di Scienze Farmaceutiche Università degli Studi di Genova Paolo Bert ACTA SpA Milano Claudio Bianchini Istituto dei Composti Organometallici del CNR Area di Ricerca di Firenze Sesto Fiorentino (FI) Carlo Botteghi Dipartimento di Chimica Università Ca’ Foscari di Venezia Attilio Citterio Dipartimento di Chimica, Materiali e Ingegneria Chimica Politecnico di Milano Antonino Corsaro Dipartimento di Scienze Chimiche Università di Catania Angela Dibenedetto Centro di Ricerche METEA Università degli Studi di Bari Paolo Fornasiero Dipartimento di Scienze Chimiche Università di Trieste Joseph Balatedi R. Gaie Dipartimento di Teologia e Studi Religiosi Università del Botswana 253 Francesco Paolo La Mantia Dipartimento di Ingegneria Chimica dei Processi e dei Materiali Università di Palermo Andrea Maldotti Dipartimento di Chimica Università di Ferrara Mauro Marchetti Istituto di Chimica Biomolecolare del CNR Sezione di Sassari Regione Baldinca-Li Punti (SS) Emilia Mariani Dipartimento di Scienze Farmaceutiche Università degli Studi di Genova Stefano Paganelli Dipartimento di Chimica Università Ca’ Foscari di Venezia Andrea Pochini Dipartimento di Chimica Organica e Industriale Università di Parma Pietro Tundo Dipartimento di Scienze Ambientali Università Ca’ Foscari di Venezia Carla Villa Dipartimento di Scienze Farmaceutiche Università degli Studi di Genova Fulvio Zecchini Consorzio Interuniversitario Nazionale “La Chimica per l’Ambiente” (INCA) Marghera (VE) 254 Finito di stampare nel mese di giugno 2005 da Poligrafica, Venezia Fotocomposizione: CompuService, Venezia