Pubblicato nel 2005 da:
INCA
Consorzio Interuniversitario Nazionale
la Chimica per l’Ambiente
www.unive.it/inca
INCA
Consorzio Interuniversitario Nazionale
La Chimica per l’Ambiente
Green Chemistry Series N. 9
Via delle Industrie, 21/8 – 30175 Marghera – Italy
http//www.unive.it/inca
Green Chemistry Series N. 9
ISBN: 88-88214-12-7
Ministero dell’Istruzione,
dell’Università
e della Ricerca
Con il contributo del Ministero dell’Istruzione,
dell’Università e della Ricerca - ex art. 4, Legge 6/2000
INTRODUZIONE ALLA CHIMICA VERDE
(GREEN CHEMISTRY)
Libro per le Scuole Secondarie di 2° Grado
Immagine di copertina, “La Tavola Periodica”, di Francesco Tundo
ISBN: 88-88214-12-7
Stampa: Poligrafica, Venezia
Fotocomposizione: CompuService, Venezia
Editore: Pietro Tundo
Co-editori: Stefano Paganelli - Lara Clemenza
Tutti i diritti sono riservati. La presente pubblicazione, tutta o in parte, non può essere riprodotta,
trasmessa in nessuna forma e con nessun mezzo: elettronico, meccanico, sotto forma di fotocopia,
registrazione o altro, senza l’autorizzazione per iscritto dell’editore.
Consorzio Interuniversitario Nazionale “La Chimica per l’Ambiente”
Via delle Industrie, 21/8 – 30175 Marghera – Venezia
INDICE
Prefazione
Pietro Tundo
pag.
7
pag.
11
Le microonde come fonte d’energia per processi chimici ecocompatibili
Emilia Mariani, Alberto Bargagna, Carla Villa
pag
23
Celle a combustibile: progressi tecnologici per la produzione di energia
ad alta efficienza, trascurabile impatto ambientale ed elevato rendimento
Claudio Bianchini, Paolo Bert
pag
31
Tecnologie catalitiche per il controllo e la prevenzione dell’inquinamento
atmosferico da sorgenti mobilii
Paolo Fornasiero
pag
47
Le radiazioni elettromagnetiche come fonti energetiche alternative al calore
Antonio Corsaro
pag
67
pag
83
Le basi morali della Chimica Verde
Josef Balatedi R. Gaie
ENERGIA
SOLVENTI
Alla ricerca di nuovi solventi a ridotta pericolosità: un approccio molecolare
Andrea Pochini
FOTOCHIMICA
Energia pulita: Risorse rinnovabili e processi fotochimici
Angelo Albini
pag. 115
Fotocatalisi con semiconduttori: fondamenti e applicazioni di interesse ambientale
Andrea Maldotti
pag. 129
INDUSTRIA
Smaltimento e/o riciclo dei materiali
Francesco Paolo La Mantia
pag. 143
Riduzione delle emissioni e dei rifiuti nella produzione di energia
e nell’industria chimica
Michele Aresta, Angela Dibenedetto
pag. 157
La catalisi in ambiente bifasico acquoso: una moderna tecnologia
verso processi industriali a minor impatto ambientale
Carlo Botteghi, Mauro Marchetti, Stefano Paganelli
pag. 173
Ciclo di vita di prodotti, processi e attività
Attilio Citterio
pag. 187
CAMBIAMENTI CLIMATICI
Il cambiamento globale del clima, effetto serra e buco dell’ozono
Fulvio Zecchini
pag. 217
Elenco autori
pag. 251
Prefazione
Questo libro, rivolto alle scuole secondarie di 2° grado, vuole essere un contributo per rendere
l’apprendimento della chimica più agevole attraverso la conoscenza delle ultime frontiere scientifiche
di questa disciplina.
Già l’anno scorso il Consorzio Interuniversitario Nazionale “La Chimica per l’Ambiente”INCA, al fine di diffondere la conoscenza scientifica su temi di grande rilevanza, aveva pubblicato e
distribuito alle scuole di 2° grado l’opuscolo “Il cambiamento globale del clima”. Il successo di tale
iniziativa ci ha spinti a scrivere, con analoghi intenti, il fascicolo “L’aria che respiriamo”, che sarà
disponibile nei prossimi mesi.
Tale produzione editoriale si inquadra nelle attività di alta formazione del Consorzio, che ha
pubblicato in italiano ed inglese numerosi testi nelle sue “Green Chemistry Series” e “Soil
Remediation Series”, disponibili sul sito www.unive.it/inca, e che trattano problemi attuali a livello
internazionale, anche in collaborazione con la “International Union of Pure and Applied Chemistry”,
IUPAC.
Il Consorzio INCA, operando nel settore della ricerca scientifica e tecnologica e dell’alta formazione, ha l’obiettivo di promuovere il ruolo della chimica nella prevenzione dei problemi d’impatto ambientale. Esso fu fondato nel 1993 ed è costituito da circa 30 università italiane.
Il Consorzio conduce attività di ricerca nei suoi laboratori nell’ambito dei principi della Chimica
verde Green/Sustainable Chemistry, della decontaminazione dei suoli e dell’analisi avanzata.
Nel 1912 Giacomo Ciamician, fondatore della fotochimica organica, Senatore del Regno
d’Italia per meriti scientifici, scriveva (Science, 36 (1912) 385).
“Su aride terre sorgeranno industrie senza inquinamento e senza ciminiere; foreste di tubi di
vetro si estenderanno nelle pianure e palazzi di vetro sorgeranno dovunque; al loro interno avranno
luogo quei processi fotochimici che finora sono stati un segreto geloso delle piante, ma che saranno
controllati dall’industria umana che avrà imparato come renderli più produttivi della stessa natura.
Infatti la natura non ha fretta, ma l’umanità sì”.
Ciamician anticipa il rifiuto delle produzioni industriali ad elevato impatto ambientale e promuove l’utilizzo di risorse energetiche rinnovabili – quale quella solare – e la necessità di imitare i
processi naturali durante le sintesi organiche.
Questi concetti, che un secolo fa erano frutto della fervida immaginazione e della fantasia di
scienziati precursori, sono stati fino a poco tempo fa denigrati dalla maggior parte della gente, ma ora
sono pienamente riconosciuti validi.
Per queste ragioni il nostro Ciamician può essere considerato il Pioniere di quella che oggi noi
chiamiamo “Green Chemistry”: ora abbiamo i mezzi tecnologici per queste direttive che si potranno
attuare attraverso la fervida immaginazione delle giovani generazioni.
Il Consorzio Interuniversitario Nazionale “La Chimica per l’Ambiente” è ben lieto di favorire
questa crescita cui il nostro Paese è chiamato.
Prof. Pietro Tundo
Presidente del Consorzio INCA
9
Le informazioni sull’attività di ricerca, i programmi, i corsi, i laboratori, le pubblicationi, le
collaborazioni nazionali ed internazionali del Consorzio INCA, si possono consultare a:
Home page:
http://www.unive.it/inca
Struttura:
http://venus.unive.it/inca/inca/index.php
Ricerca:
http://venus.unive.it/inca/research/index.php
Formazione:
http://venus.unive.it/inca/education/index.php
Summer School:
http://venus.unive.it/inca/education/summer_school_on_green_chemistry/index.php
Pubblicazioni:
http://venus.unive.it/inca/publications/index.php
IUPAC:
http://www.iupac.org/divisions/III/303/index.html
Università consorziate a INCA
Modena e Reggio Emilia
Napoli “Federico II”
Palermo
Parma
Pavia
Perugia
Piemonte Orientale
Pisa
Roma
Sassari
Torino
Trieste
Urbino
Venezia, Ca’ Foscari
Verona
Viterbo, La Tuscia
Bari
Bologna
Cagliari
Camerino
Campobasso, Univ. del Molise
Caserta, Seconda Univ. di Napoli
Catania
Cosenza, Univ. della Calabria
Ferrara
Firenze
Genova
L’Aquila
Lecce
Messina
Milano
Politecnico di Milano
Laboratori del Consorzio:
Marghera (http://www.unive.it/inca), Cengio, Cagliari, Lecce, Catania, Palermo e Napoli
10
da: GREEN CHEMISTRY IN AFRICA – INCA
Green Chemistry Series n° 5 – P. Tundo e L. Mammino editors
Copyright INCA July 2002 – ISBN 88 88214 07 0 – IUPAC progetto n. 2002-018-1-300
Traduzione: Liliana Mammino, Università di Wenda, Sud Africa
LE BASI MORALI DELLA CHIMICA VERDE
JOSEPH BALATEDI R. GAIE
Per alcuni studiosi, non c’è nessuna relazione fra l’etica/morale e la scienza in generale o la chimica in particolare. In altre parole, uno scienziato o un chimico non si occupa, di routine e di necessità, di questioni morali nell’ambito del suo lavoro di chimico. Anzi, il chimico non dovrebbe fare
considerazioni morali nell’ambito delle attività legate alla chimica. La filosofia dell’etica/morale e la
chimica sono visti come campi diversi, distinti e indipendenti, dei quali ci si può occupare separatamente e indipendentemente l’uno dall’altro.
[…] Ci sono tuttavia dei principi morali generali che possono fornire una guida morale per tutte
le azioni umane, e precisamente il criterio di perseguire tutto ciò che è a vantaggio degli interessi e
dello stato di benessere[1] delle persone e di evitare l’opposto, ogni qualvolta possibile.
La chimica esiste innanzitutto e soprattutto per il progresso dell’umanità e, quindi, la sostituzione di tecnologie e processi “più sporchi” con tecnologie e processi “più puliti, attraverso l’uso di
materiali di partenza rinnovabili e meno tossici, l’uso di prodotti disponibili in natura per lo sviluppo
di materiali pregevoli, l’uso di solventi alternativi (meno tossici), la progettazione di sostanze più
sicure, la messa a punto di processi chimici che richiedano meno energia, il riciclaggio dei materiali
e l’educazione alla Chimica Verde, sono tutte opzioni richieste dalla morale. […]
LE QUESTIONI DI BASE DELL’ETICA
Se si chiedesse che cosa è la chimica a quelli che studiano chimica, molto probabilmente spiegherebbero che cosa è senza nessuna difficoltà. Essi sarebbero anche d’accordo se qualcuno dicesse
che la chimica è una materia importante da studiare, e che l’importanza della chimica si basa sul fatto
che è molto utile nella vita umana. Ma potrebbero non apprezzare molto che qualcuno chiedesse loro
se è bene oppure no che le persone facciano ciò che è utile, cioè che qualcuno chiedesse loro se le
persone debbano fare ciò che è utile per loro. […..] questa è precisamente la domanda che i chimici
dovrebbero porsi – una domanda seria: che cosa c’è di male nel fare qualcosa che non è nell’interesse né di chi la fa né di chiunque altro? Detto in altre parole, che cosa c’è di male nel fare cose che non
procurano nessun beneficio alle persone, o nel fare qualcosa che è dannoso per le persone? Tale
domanda appartiene all’ambito della Filosofia Morale (Etica), che si occupa appunto della determinazione di che cosa è giusto e che cosa è sbagliato [1,2]. Qui, la questione è: “Che cosa significa dire
che un’azione è moralmente sbagliata?”. Che cosa rende desiderabile che certe azioni vengano o non
vengano compiute? Il rispondere a questa domanda ci aiuterà a capire perché la Chimica Verde è qualcosa da perseguire, cioè a comprendere la sua base morale.
11
1.1. MORALMENTE GIUSTO E MORALMENTE SBAGLIATO
Il perseguimento di tali beni essenziali è normalmente inviolabile. E’ diritto morale di ciascuno il poter perseguire i propri beni essenziali, e anche l’essere aiutato in tale perseguimento, o il non
essere ostacolato. Ciò significa che soltanto condizioni speciali possono consentire deroghe o violazioni. […]
Ci si potrebbe domandare: come mai gli esseri umani hanno dei diritti? Oppure, quale è l’origine dei diritti umani? Questa è una domanda difficile, e gli studiosi non hanno raggiunto un accordo in proposito. Anche in questo caso, Alain Gewirth viene in aiuto. Secondo lui, possiamo osservare che tutte le persone desiderano fare ciò che è generalmente nel loro interesse. Mentre perseguono ciò che è nel loro interesse, le persone normalmente non vogliono essere disturbate. Non c’è
nessuna ragione giustificabile per disturbarle a meno che, nel processo di perseguire ciò che è nel
proprio interesse, esse non disturbino altre persone nel perseguimento del loro. Siccome le persone
non vogliono essere disturbate mentre perseguono ciò che è nel proprio interesse, e siccome possono perseguirlo senza disturbare altri, non c’è nessuna ragione valida per cui si debba mettere un
fermo al perseguimento dei loro interessi finché lo fanno senza disturbare altri. In altre parole, quando le persone fanno ciò che è bene per loro senza interferire nella felicità degli altri, hanno il diritto
di essere lasciate in pace. […]
L’utilitarismo delle regole è anch’esso pertinente a questa questione. Esso sostiene che una
regola o un principio la cui applicazione comporta il massimo di bene per il numero più alto possibile delle persone interessate dovrebbero essere applicati e ottemperati [4, 6, 7]. […]
L’utilitarismo della regola fa parte della teoria generale dell’utilitarismo, che sostiene che tutto
ciò che promuove il massimo di bene per il numero più alto di persone è moralmente giusto e dovrebbe essere perseguito, mentre tutto ciò che ha l’effetto opposto è moralmente sbagliato e dovrebbe
essere evitato. […]
Che cosa significa dire che un’azione è moralmente giusta o moralmente sbagliata? […..]
Dire che un’azione è moralmente sbagliata significa dire che quell’azione viola un principio
morale. I principi morali riguardano le azioni. Si basano sull’ipotesi “dell’esistenza del bene e del
male e di una qualche forma di attenzione riguardo alla loro esistenza e incidenza” [3,8]. Un principio di questo tipo è quello di beneficenza2, che significa:
1. Non si deve arrecare male o danno (perché ciò è male).
2. Si deve prevenire il male o il danno.
3. Si deve allontanare il male.
4. Si deve fare o promuovere il bene [3].
Si può anche intendere questo principio nel senso del dovere di aiutare gli altri, per quanto
ragionevolmente possibile, e promuovere i loro interessi legittimi. L’altra faccia di questo principio
viene chiamata non-maleficenza e significa che le persone non dovrebbero fare del male [3,4]. […]
C’è una varietà di cose che possono causare danno alle persone. Alcune di queste cose sono prevenibili. Il principio richiede che, in tali casi, chiunque sia capace di farlo debba prevenire questi
danni. […]
La promozione del bene non è solo prerogativa dei filantropi o di alcuni piccoli gruppi di persone; è un imperativo morale che, secondo questo principio, vincola tutti gli esseri umani. Questo perché la promozione del bene è l’altra faccia del prevenire il male. […] C’è anche il principio di giustizia, che ha due lati: la giustizia distributiva e la ricompensa. il primo aspetto riguarda la distribuzione di beni o vantaggi in modo equo, mentre il secondo riguarda il negare o dare ricompense per le
azioni compiute, in base agli sforzi di chi le fa. La giustizia distributiva si collega al principio di uguaglianza, che afferma che tutte le persone dovrebbero essere trattate allo stesso modo in condizioni
simili. […..]
Per quanto riguarda la ricompensa, l’idea è che le persone debbono ricevere ciò che meritano. […]
Queste opinioni sono in accordo con quelle di Alain Gewirth, che ha introdotto ciò che lui chiama “il Principio di Coerenza Generica” (PCG), che dice che ogni individuo al il diritto, in modo uguale a qualsiasi altro individuo, di perseguire la propria libertà e il proprio benessere [5]. Secondo lui,
l’etica riguarda innanzitutto i diritti morali e secondariamente la libertà di godere di quei diritti e di non
essere ostacolati nel perseguirli. La libertà è l’abilità o capacità di controllare il proprio comportamento autonomamente, con la conoscenza e la comprensione delle condizioni e circostanze attinenti. Per
“condizioni e circostanze attinenti” Gewirth intende che le informazioni e le circostanze che sono
necessarie perché uno possa prendere una decisione informata devono avere un ruolo principe. […]
Stato di benessere è lo stato per cui chi compie delle azioni è in grado di avere le condizioni
necessarie per agire con successo perseguendo il raggiungimento degli obiettivi proposti. Le condizioni necessarie includono, fra le altre cose, l’accesso all’istruzione, la disponibilità di risorse perché
la persona possa lavorare e guadagnarsi da vivere, l’assenza di ostacoli che possano impedire alla persona di esplicare appieno le proprie potenzialità, un ambiente favorevole a che la persona possa aiutare altri a esplicare le loro potenzialità, e così via. Ogni singolo essere umano ha il diritto, in modo
uguale a qualsiasi altro individuo, di perseguire la propria libertà e il proprio benessere, che potremmo chiamare “beni essenziali”. […] Ora, se tutte le persone hanno in modo eguale il diritto di perseguire il proprio benessere e la propria libertà, ciò significa che qualsiasi cosa che impedisca tale perseguimento è moralmente sbagliata. Significa anche che il diritto al benessere e alla libertà dà origine al dovere di non interferire con il perseguimento di questi beni essenziali da parte di altre persone.
I chimici sanno che le sostanze reagiscono in un certo modo quando vengono a contatto l’una
con l’altra in certe condizioni. Ad esempio, l’acido cloridrico e l’idrossido di sodio reagiscono per
dare cloruro di sodio e acqua (HCl + NaOH → NaCl + H2O). Molti chimici accettano questo fatto
senza porsi domande. In effetti, molte regole della chimica, e della scienza in genere, sono considerate come aventi validità universale. La questione è se si possa dire lo stesso riguardo ai principi morali, oppure no. Potrebbe non risultare chiaro da quanto detto nei paragrafi precedenti che i principi
morali non sono così chiari e diretti come tanti potrebbero desiderare. In realtà non sono così chiari.
Possiamo considerare l’esempio della giustizia. Mentre molte persone, e certamente gli esperti di filosofia morale, sono d’accordo che è necessario perseguire la giustizia, che cosa precisamente sia la giustizia rimane una questione controversa. Non è facile nemmeno decidere se certe azioni siano giuste
oppure no. […]
Il principio dell’utilità (il principio usato dagli utilitaristi) comporta anch’esso delle difficoltà.
Non è molto chiaro perché la felicità del più alto numero di persone sia meglio della felicità di pochi.
Il problema è che la felicità non è quantificabile. Così, è difficile determinare come la felicità di, ad
esempio, dieci persone, sia una cosa migliore della felicità di una sola. Anche se la felicità fosse quantificabile in termini che essa è tanto maggiore quanto più alto è il numero di persone felici, l’avere più
persone felici non sarebbe definibile come un bene oggettivo. Dipenderebbe sempre dal punto di vista
dal quale si guarda alla questione. Dal punto di vista delle poche persone infelici, non sarebbe possi-
12
13
1.2. LA MANCANZA DI UNA DEFINIZIONE ASSOLUTA
DEI PRINCIPI MORALI [3]
bile dire con certezza che sarebbe un bene che esse non siano felici.
Tutto ciò suggerisce che i principi morali sono indefiniti [4]. Un altro problema fondamentale
che gli studiosi di filosofia morale devono affrontare è il fatto che i principi primi o basilari della
morale non sono evidenti di per sé. […] Ciò tuttavia non significa che le persone non possano o non
debbano fare affermazioni o prendere decisioni di carattere morale. E’ solo un ammonimento a non
prendere affermazioni e valutazioni di carattere morale in maniera dogmatica o ideologizzata.
Se le persone sono caute riguardo a principi e decisioni morali, ciò non è necessariamente un
invito ad abbandonare i principi morali. E’ solo perché le cose stanno in questo modo. C’è un certo
ammontare di relatività nel mondo, e non soltanto nell’etica. [...] Ciò non dovrebbe essere preso come
un fattore che impedisca alle persone di fare affermazioni di carattere morale riguardo alla Chimica
Verde. Questo scaturisce dal fatto che, come detto sopra, ci sono questioni morali definite che non
sono disputabili. L’idea che l’omicidio è moralmente sbagliato è accettabile a livello universale. [...]
Inoltre, la morale è pratica. Riguarda le relazioni degli esseri umani fra di loro e con l’ambiente. Se
si abbandonasse la morale, ci sarebbe caos al mondo perché la morale è la base dei principi-guida
usati nelle relazioni umane. Ad esempio, le leggi non hanno senso se non hanno un fondamento morale. Diviene pertanto necessario procedere a una valutazione della base morale della Chimica Verde.
Prima di farlo, c’è però un’altra questione che richiede la dovuta attenzione, quella se le professioni
abbiano morali diverse oppure no.
1.3. LA MORALE DEL RUOLO
Anche se la morale viene accettata come qualcosa che può guidare le azioni umane, rimane il
problema di decidere se ci sia o no una morale generale applicabile a tutte le azioni umane, così che
un chimico sia vincolato dalla morale nello stesso modo in cui lo sarebbero un medico o un politico.
Alcuni studiosi hanno sostenuto che ogni professione ha la sua propria morale [9]. Questo punto di
vista è chiamato separatismo [5]. E’ un punto di vista non sostenibile. Tale posizione implica che la
morale professionale può originare obblighi suoi propri. Così. la professione medica genera diritti e
responsabilità che sono diversi da quelli delle persone ordinarie o di altri professionisti, ad esempio,
da quelli degli insegnanti.
La morale professionale non genera obblighi che sono diversi da quelli della morale ordinaria.
Piuttosto, le professioni generano obblighi speciali che sono in accordo con i principi morali ordinari.
[…]
Mentre il ruolo a volte determina che cosa uno dovrebbe fare moralmente, ci sono molti ruoli
che una persona svolge contemporaneamente. E’ quando la persona svolge tutti questi ruoli in modo
equilibrato che è capace di condurre una vita morale.
Si può dire quanto sopra perché le persone sono creature morali. Come tali, hanno responsabilità morali, così che ogni qualvolta fanno qualcosa, ciò ha implicazioni morali. Alcuni potrebbero pensare che non è compito del chimico considerare se il suo lavoro di chimico ha implicazioni morali.
Questo punto di vista è sbagliato perché la chimica è moralmente importante. Ciò che rende la chimica moralmente importante è il fatto che essa influenza la vita delle persone o negativamente o positivamente. Da quanto detto sopra, risulta chiaro che qualunque cosa influenzi la vita delle persone è
importante in termini di morale, per essere compatibile o incompatibile con i principi morali. Così, è
necessario considerare come la chimica possa avere fondamenti morali. Per farlo, è opportuno considerare inizialmente le relazioni fra scienza ed etica.
14
2. ETICA E SCIENZA
2.1. CONSIDERAZIONI GENERALI
La questione da esaminare è il modo in cui l’etica può essere messa in relazione con la scienza.
Sono esse antagoniste l’una all’altra? E’ possibile metterle in relazione oppure no? In queste domande
è implicata la questione più generale delle relazioni fra scienza e filosofia. Storicamente, furono i filosofi a diventare scienziati [10]. Quando la mente umana si pose domande su che cosa c’è nel mondo
naturale e fece deduzioni, alcune delle quali erano errate; quando domande ultime vennero poste ed
esplorate fino a limiti estremi; quando tutto divenne oggetto di indagine, nacque il campo della filosofia. La vita umana e le relazioni fra gli esseri umani vennero esaminate e furono individuati schemi,
furono proposti e ridiscussi principi, e così nacque l’etica. Fu quando i filosofi si posero domande sulla
composizione delle cose e su che cosa c’è nella natura che si svilupparono le varie aree della scienza.
Così si può dire che, da un punto di vista storico, la scienza è un risultato della filosofia.
La filosofia viene prima della scienza non solo storicamente, ma anche concettualmente, perché le scoperte scientifiche sono risposte a domande filosofiche precedenti. Ad esempio, l’astronomia
nacque come conseguenza di un’indagine filosofica per spiegare l’esistenza e la natura delle stelle; e
così via. La gravità fu scoperta a seguito della ricerca filosofica per spiegare il fenomeno della caduta degli oggetti. Anche la chimica è nata dall’indagine filosofica per spiegare la natura e la composizione degli oggetti.
[…] L’etica si collega a tutti i rami della scienza perché, essendo quest’ultima un’impresa
umana, ha implicazioni per la prima. Resnik ha sostenuto:
Penso che sia importante sia per la scienza sia per la società, che gli scienziati seguano linee
di condotta appropriate, che gli scienziati imparino a riconoscere le fonti di preoccupazione
etica nella scienza e a ragionare su di esse, e che gli scienziati vedano la scienza come parte
di un più vasto contesto sociale con conseguenze importanti per l’umanità. [...]
[…] Detto in breve, le relazioni fra l’etica e la scienza in generale, e l’etica e la chimica in particolare, rientrano nella questione di come gli esseri umani dovrebbero comportarsi. La bomba atomica è opera di scienziati che si erano specializzati in fisica. E’ chiaro che il loro lavoro era collegato all’etica in maniera diretta.
[…] L’etica è la scienza del comportamento umano, la determinazione di come gli esseri umani
dovrebbero comportarsi in tutti gli aspetti della loro vita. Le relazioni fra scienza ed etica dovrebbero occuparsi della questione di come gli esseri umani dovrebbero comportarsi in genere, e specificamente quando si occupano di scienza. Ciò significa che le relazioni fra etica e chimica dovrebbero
anche riguardare il modo in cui i chimici dovrebbero occuparsi di chimica, non solo dal punto di vista
dell’occuparsi di chimica come materia tecnica, ma dal punto di vista di ciò che gli esseri umani
dovrebbero fare come esseri umani. Questa domanda porta alla discussione della chimica e dell’etica, che viene sviluppata nel prossimo paragrafo.
2.2 ETICA E CHIMICA
[…] Alcuni prodotti chimici sono pericolosi per la salute e la vita degli esseri umani. Sono pericolosi anche per altri animali e possono causare danni irreversibili all’ambiente, apportando così
danni e sofferenze indicibili a un gran numero di specie animali. Produrre prodotti chimici è anche
15
molto costoso. Sorge inevitabile la domanda “Perché i chimici fanno il loro lavoro nonostante tutto
ciò?”. In altre parole, gli studi di chimica e la preparazione di prodotti chimici richiedono una giustificazione morale. Nel ricercarla, la prima cosa da fare è considerare lo scopo o gli obiettivi della chimica, che sono in linea con quelli della scienza in generale.
[…] la scienza è un’istituzione sociale che dipende dal coinvolgimento, cooperazione e interesse di diverse persone per obiettivi comuni in un contesto sociale. E’ una società all’interno di una
società più ampia. Inoltre, la scienza in generale e la chimica in particolare sono delle professioni
[11]. Ogni professione ha un obiettivo e ogni società ha i suoi valori e i suoi costumi. La chimica,
come istituzione che fornisce beni e servizi preziosi, ha due obiettivi fondamentali. Il primo obiettivo della chimica è epistemologico. Il secondo obiettivo della chimica è pratico e mira a risultati.
Dire che il primo obiettivo della chimica è epistemologico significa dire che la chimica mira
alla conoscenza oggettiva delle sostanze e di ciò che le riguarda. I chimici studiano dati diversi per
scoprire nuove informazioni sulle sostanze: come certi atomi sono legati, le ragioni di certe reazioni
chimiche, e così via. Essi cercano anche di scoprire l’impatto di certi prodotti su cose diverse e in condizioni diverse. In breve, lo scopo della chimica è di scoprire e impartire conoscenze. Se la conoscenza sia un fine per se stessa, oppure no, è una questione controversa, ma è un fatto che, essendo la
natura umana quella che è, gli esseri umani cercano sempre delle giustificazioni. Di quale utilità è la
conoscenza che viene cercata per amore di se stessa? Può questo obiettivo della chimica, cioè la conoscenza per se stessa, essere moralmente giustificabile?
Questa domanda ci porta a considerare il secondo obiettivo della chimica. Come detto sopra, ci
sono gravi rischi e grandi spese associati alla ricerca nel campo della chimica e all’attività chimica.
Essi richiedono una giustificazione. Ma non soltanto. In molti paesi le risorse sono limitate, nel qual
caso sorge la necessità di giustificare perché delle magre risorse debbano essere spese per la chimica
piuttosto che per obiettivi come l’alleviamento della povertà o altri analoghi. Questo, secondo me, da
origine al secondo obiettivo della chimica - i risultati pratici, l’utilità e i vantaggi dell’occuparsi di
chimica. Così, possiamo dire che lo scopo della chimica è il raggiungimento di conoscenze dalle quali
la società possa conseguire miglioramenti o benefici.
Come dato di fatto, i chimici e gli scienziati in generale sono stati impegnati nella società per
ragioni diverse, come professionisti a livelli diversi. Ancora più importante, i chimici sono stati coinvolti nello sviluppo di armi chimiche e biologiche. Sono anche stati coinvolti in industrie dove prodotti diversi vengono utilizzati per scopi diversi. A volte i casi giudiziari hanno bisogno di informazioni
di carattere scientifico, che possono essere apportate da chimici. La questione importante è se i chimici debbano o non debbano essere in grado di conoscere ed effettivamente fare valutazioni morali delle
loro attività nei casi ricordati sopra e in tanti altri. Da quanto detto sopra, si dovrebbe concludere che i
chimici dovrebbero conoscere l’etica e dare valutazioni morali del loro lavoro. Questo perché i principi morali affermano che “azioni che arrecano danno ad altri senza ragione, quando è facile prevedere che quel danno farà seguito a un’azione scelta consapevolmente, sono moralmente discutibili”.
di materiali di partenza, prodotti, prodotti secondari, solventi, reagenti etc. che sono pericolosi per la
salute umana o per l’ambiente” [14]. Nella prefazione Anastas e Williamson sostengono che “La
Chimica Verde si incentra sulla progettazione, produzione e uso di sostanze e processi chimici che
hanno potenziale inquinante o rischio ambientale scarso o nullo e che siano realizzabili sia economicamente sia tecnologicamente. I principi della Chimica Verde possono essere applicati a tutte le aree
della chimica: sintesi, catalisi, condizioni di reazione, separazione, analisi e monitoraggio”.
L’importanza della Chimica Verde sta proprio nel fatto che mira a eliminare i rischi per l’ambiente e per gli esseri umani. In seconda luogo, essa mira a eliminare i costi nascosti associati con i
rifiuti chimici che si originano dalla produzione industriale. In terzo luogo, mira ad aiutare gli industriali a produrre beni più compatibili con le esigenze dell’ambiente, assicurando in questo modo la
sostenibilità e l’attuabilità dal punto di vista economico. Questi obiettivi sono stati in parte già raggiunti, come risulterà evidente da quanto verrà detto in seguito. La questione è ora quella di vedere se
questi obiettivi hanno una base morale oppure no. Per arrivare a stabilirlo, cominciamo con il considerare l’uso di materiali di partenza alternativi.
Stem e i suoi collaboratori, alla Monsanto Corporation, usarono una sostituzione aromatica
nucleofila per la sostituzione dell’idrogeno, eliminando in tal modo la necessità di ricorrere a idrocarburi aromatici clorurati, il cui uso comunemente origina preoccupazioni per l’ambiente. Viene
affrontata anche la questione dei materiali di partenza alternativi:
... per quanto riguarda l’uso di rifiuti biologici/agricoli come i polisaccaridi allo scopo di produrre nuove sostanze polimeriche. Il lavoro presenta un interesse particolare perché si occupa
simultaneamente di parecchie preoccupazioni relative all’ambiente. Utilizza materiali monomerici, che sono abbastanza innocui, e costituisce così un esempio di uso di materiali di partenza ambientalmente compatibili. Il processo chimico si basa anche su una trasformazione
biocatalitica che è per parecchi aspetti vantaggiosa rispetto a molti dei reagenti usati convenzionalmente nella produzione di sostanze polimeriche. Anche la preoccupazione per la persistenza dei polimeri e delle plastiche viene tenuta in conto in questo lavoro: i polimeri di Gross
sono progettati in modo da essere biodegradabili dopo l’uso da parte del consumatore [12].
Dovrebbe essere chiaro a questo punto che la Chimica Verde, come ramo della chimica, ha una
base morale.
[…] Il modo migliore per cominciare questa discussione è quello di vedere che cosa è la
Chimica Verde e poi considerare la sua importanza. “Detto in modo semplice, la Chimica Verde è
l’uso di quelle tecniche e metodologie della chimica che riducono o eliminano l’uso o la generazione
I composti organici volatili (VOC) entrano nell’ambiente in molti modi, compresa la produzione chimica. I VOC contaminano l’acqua del mare mettendo così in pericolo la vita acquatica marina
e possono anche penetrare nel suolo e ridurne la fertilità. I costi che derivano da questi problemi sono
enormi. Un esempio di opzione alternativa è quello di un nuovo sistema spray, messo a punto in modo
da “ridurre l’emissione di VOC fino all’80% ed eliminare totalmente l’emissione di inquinanti dell’aria pericolosi” [13].
Ciò che risulta importante dagli esempi appena visti di applicazione pratica della Chimica
Verde è il fatto che essi sono direttamente attinenti alla morale e agli obiettivi della chimica, come
proposti sopra. Il principio di beneficenza è chiaramente implicato. Se è accettabile che uno dovrebbe allontanare il male ogni qualvolta possibile, allora la Chimica Verde è coerente con questo principio nel momento in cui fa cose come quelle descritte prima. La protezione dello strato di ozono, la
riduzione dei VOC, una gestione dei composti aromatici che tenga conto in modo efficace delle esigenze ambientali, ed altre tecniche di carattere chimico allontanano il male e promuovono il bene, e
ciò è in accordo con le esigenze poste dal principio di beneficenza.
Il fatto che si spenda così tanto denaro nell’industria di produzione e che i rifiuti da essa originati inquinino l’ambiente solleva la questione della giustizia. Ad esempio, è equo che le nazioni industrializzate producano quantità tanto enormi di rifiuti industriali e ottengano enormi profitti attraver-
16
17
2.3. IL CASO DELLA CHIMICA VERDE
so le loro compagnie multinazionali? Esse danno pochissimo alle nazioni in via di sviluppo, mentre
con le loro attività inquinano l’ambiente al punto che anche l’agricoltura di sussistenza ne subisce gli
effetti negativi. Ciò avviene in realtà quando lo strato dell’ozono è danneggiato al punto da alterare le
condizioni climatiche, con conseguenti periodi di siccità e/o alluvioni in alcuni paesi in via di sviluppo. Il successo della Chimica Verde fermerebbe questo tipo di sviluppo. Prodotti industriali a basso
costo, ma anche biodegradabili, possono essere resi facilmente disponibili per tutto il mondo. Anche
nelle nazioni industrializzate le ingenti risorse ora destinate alla riduzione dell’inquinamento potrebbero essere utilizzate per altri scopi. Qui è in gioco la questione della giustizia distributiva – tutti i
popoli hanno diritto ad avere aria pulita e acqua pulita, e questo diritto verrebbe garantito dal successo della Chimica Verde.
E’ anche molto evidente che gli sforzi della Chimica Verde sono coerenti con gli interessi e il
benessere della società. Se si usano frequentemente solventi meno tossici, si riciclano più materiali e si progettano prodotti chimici più sicuri, la probabilità che i risultati siano a favore degli interessi e del benessere delle società del mondo è più alta che non la probabilità che avvenga l’opposto. Ciò significa che anche il principio di coerenza generica di Allan Gewirth non sarebbe violato.
Questo è vero anche se la Chimica Verde viene insegnata, compresa e accettata dal mondo degli
affari, dalla comunità scientifica e dal mondo in generale. E questo vorrebbe dire che il mondo lavorerebbe per il miglioramento non soltanto dell’ambiente, ma dell’intera umanità. La motivazione di
queste attività non sarebbe semplicemente quella che piace farle, ma il fatto che, partendo dal riconoscimento della base morale della Chimica Verde, le persone la perseguirebbero come un dovere
morale.
L’utilitarismo sostiene che un’azione è moralmente giusta se porta al massimo di bene o felicità per il maggior numero possibile di persone, e che un’azione che abbia il risultato opposto è moralmente sbagliata. La situazione attuale del mondo è tale che, se non si fa nulla per invertire o fermare
gli effetti dell’industrializzazione, milioni di persone avranno a soffrire. E’ incontrovertibile affermare che i benefici dell’attività industriale si accumulano nelle mani di poche compagnie multinazionali. Qualsiasi costo intervenga nella produzione dei beni viene passato al povero consumatore e i pochi
investitori godono dei profitti. Se ciò non cambia, il pianeta Terra verrà molto probabilmente esaurito in poco tempo. Le generazioni future saranno perdenti. Ciò è chiaramente contro l’etica utilitaristica. La Chimica Verde ha le potenzialità per affrontare questo problema rendendo il pianeta Terra
sicuro e dando alle masse la possibilità di trarre enormi vantaggi dalla disponibilità di beni a basso
costo ma di qualità. Anche l’educazione alla Chimica Verde avrà gli effetti desiderati per quanto
riguarda l’adempimento delle condizioni di una società con morale utilitaristica.
3 CONCLUSIONI
[…] Anche se le persone hanno ruoli diversi, ciò non significa che certi ruoli hanno una loro
etica diversa da quella di altri ruoli. Il denominatore comune è che il comportamento umano è o benefico per gli altri, oppure dannoso agli altri. Questo è ciò che determina la validità morale, non la differenza dei ruoli. La scienza come professione è un tipo di ruolo che ha una base morale che si origina dai suoi obiettivi. L’obiettivo fondamentale della scienza è la conoscenza dei fatti scientifici in
modo che gli esseri umani possano beneficiare da tale conoscenza. Ciò non soltanto collega la scienza all’etica, ma comporta l’implicazione che gli scienziati debbano avere conoscenze di etica, in modo
da poter prendere decisioni eticamente informate riguardo al loro lavoro scientifico.
18
La Chimica Verde ha un fondamento morale. Vale a dire, non soltanto la Chimica Verde è coerente con i principi morali: essa è anche richiesta dai principi morali. Tale esigenza nasce dal fatto che
l’obiettivo della chimica come impresa umana è lo sviluppo di una base di conoscenze da cui si possano sviluppare e applicare misure necessarie al miglioramento del benessere degli esseri umani e
delle condizioni dell’ambiente. [...]
4 BIBLIOGRAFIA
1 J. C. CALLAHAN, Ethical Issues in Professional Life. Oxford University Press: New York &
Oxford, says that ethics is the philosophical study of morality. In metaethics we enquire into what
the terms “good”, “right” and “wrong” mean. Normative ethics deals with theories of good and
evil, moral virtue and the impermissibility or otherwise of actions. 7.
2. C. HORNER, E. WESTACOTT, 2000. Thinking Through Philosophy. An Introduction. Cambridge
University Press: Cambridge. 119.
3. W. FRANKENA, 1999. “A Reconciliation of Two Systems of Ethics” in Pojman, Louis. Philosophy.
Wadsworth Publishing Company: Belmont and London, 439.
4. T.L. BEAUCHAMP, F. CHILDRESS, 1989. Principles of Biomedical Ethics (3rd Ed.). Oxford University
Press: New York & Oxford, 120-256.
5. J.B.R. GAIE, B.R. JOSEPH 2000. The Ethics of Medical Involvement in Capital Punishment.
(Unpublished thesis) A Thesis Submitted for the Degree of Doctor of Philosophy. University of
Essex, 24.
6. J. HOSPERS, 1997. An Introduction to Philosophical Analysis. Routledge: London, 265.
7. SINGER, PETER. 1993. Practical Ethics (2nd ed.). Cambridge University Press: Cambridge & New
York.
8. H.J. GENSLER, 1998. Ethics. A Contemporary Introduction. Routledge: London.
9. A.Z. CARR, 1988. “Is Business Bluffing Ethical?” in Callahan, Joan C. Ethical Issues in
Professional Life. Oxford University Press: New York & Oxford.
10.F. COPLESTON, 1962. A History of Philosophy: Vol.1. Greece and Rome Part 1. Image Books:
Garden City, N.Y.
11.D.B. RESNIK, 1998. The Ethics of Science, an introduction. Routledge: London & New York,
39,38,162,173.
12.P. ANASTAS, T. WILLIAMSON, 1996. “Green Chemistry: An Overview” in Anastas, Paul &
Williamson, Tracy (eds). Green Chemistry. American Chemical Society: Washington, P.7,11.
13.M.D. DONOHUE, et. al. “Reduction of Volatile Organic Compound Emissions During Spray
Painting.” 1996. Anastas, Paul & Williamson, Tracy. 1996. “Green Chemistry: An Overview” in
Anastas, Paul & Williamson, Tracy (eds). Green Chemistry. American Chemical Society:
Washington, 154.
19
Energia
LE MICROONDE COME FONTE D’ENERGIA
PER PROCESSI CHIMICI ECOCOMPATIBILI
EMILIA MARIANI, ALBERTO BARGAGNA, CARLA VILLA
INTRODUZIONE
La scoperta del fenomeno del riscaldamento per irradiazione microonde risale al 1950 [1]. Le
prime applicazioni delle microonde, come nuova fonte d’energia, sono riconducibili agli anni 1970
–1980, inizialmente limitate a particolari processi in campo industriale (essiccamento, vulcanizzazione) e agro-alimentare (cottura, essiccamento, conservazione). Solo successivamente, grazie ad un’ampia ricerca a livello teorico, applicativo e strumentale, si è cominciato ad esplorare il pieno potenziale di questa tecnologia in ogni settore della chimica [2].
E’ ormai evidente che il corretto utilizzo delle microonde, rispetto alle tecniche convenzionali,
presenta indubbi vantaggi derivanti soprattutto dalla rapidità di riscaldamento e trasformazione dei
materiali: risparmio energetico, efficienza dei processi, limitazione dell’uso di solventi e reagenti.
Questo permette di collocare la tecnologia microonde tra i processi ecologicamente compatibili per lo sviluppo di una “chimica verde”. In questo contesto molti sono i campi di applicazione: industria conciaria; produzione di radiofarmaci; trattamento dei rifiuti urbani, ospedalieri e industriali
(soprattutto per la detossificazione).
In questo capitolo l’attenzione è focalizzata solo su alcuni processi industriali (polimerizzazione, sinterizzazione) e di laboratorio (sintesi ed analisi) dove l’utilizzo delle microonde risulta una
realtà consolidata.
LE MICROONDE
Le microonde sono radiazioni elettromagnetiche non ionizzanti le cui lunghezze d’onda si collocano nello spettro elettromagnetico (Fig.1) tra la banda dell’infrarosso e le onde radio, con frequenze comprese tra 0.3 e 300 GHz. Per evitare interferenze con le telecomunicazioni e le frequenze
dei telefoni cellulari, la legislazione internazionale prevede che solo alcune bande possano essere utilizzate per il riscaldamento. La frequenza di 2.45 (± 0.05) GHz, corrispondente nel vuoto ad una lunghezza d’onda (λ) di 12.2 cm, è quella utilizzata per applicazioni in campo domestico, scientifico,
medico e per molti processi industriali.
Figura 1. Spettro elettromagnetico
23
Le microonde possiedono alcune caratteristiche proprie delle radiazioni: propagazione lineare,
riflessione, rifrazione e diffusione. Esse penetrano in molti materiali non metallici: materiali plastici
(non polari), teflon, porcellana, vetro (pirex e soprattutto quarzo); si propagano in vari tipi di atmosfere, nel vuoto e sotto pressione ed interagiscono con le molecole polari alle quali cedono una parte
della loro energia. I materiali metallici non magnetici sono riflettori delle microonde: su questo principio si basa la rivelazione radar ed il fenomeno delle scariche che si formano nei forni, in presenza
di parti metalliche.
Tabella 1. Riscaldamento di solidi per irradiazione microonde (forno domestico)
ORIGINE DEL RISCALDAMENTO MICROONDE
Il riscaldamento indotto dalle microonde è il risultato dell’interazione materia/onda ed è provocato dalla trasformazione in calore di una parte d’energia, contenuta nell’onda elettromagnetica.
Per le molecole polari (molecole che possiedono un momento dipolare) l’effetto termico è una
conseguenza dell’interazione dipolo-dipolo tra le molecole ed il campo elettromagnetico: fenomeno
della polarizzazione dipolare [3].
In assenza di campo elettrico, i dipoli sono orientati a caso, nessuna direzione è privilegiata
(Fig. 2a). Sotto l’effetto di un campo elettrico continuo, ciascun dipolo è sottoposto ad una forza che
tende ad orientarlo nella direzione del campo stesso (Fig. 2b). In presenza di un campo elettrico alternato i dipoli cambiano orientamento ad ogni alternanza; se il campo è ad alta frequenza (2.45 GHz)
questo induce agitazione e frizione intermolecolare (Fig. 2c) con conseguente riscaldamento.
Per quanto riguarda i liquidi, i solventi apolari (per esempio esano, benzene, toluene, tetracloruro di carbonio) non sono in grado di interagire direttamente con le microonde e quindi non si riscaldano. Possono essere riscaldati solo indirettamente da altri componenti (polari), eventualmente presenti nel sistema ed in grado di interagire con le microonde.
I liquidi polari (per esempio acqua, dimetilformammide, etanolo) assorbono le microonde e si
riscaldano rapidamente; in questo contesto possono essere osservati valori più alti dei loro punti d’ebollizione, in paragone con quelli determinati con i metodi classici di riscaldamento. Quest’effetto è
chiamato “surriscaldamento” [6].
In Tabella 2 sono riportati i punti di ebollizione di alcuni solventi polari, ottenuti con riscaldamento tradizionale e per irradiazione microonde in forno domestico ed in assenza di agitazione.
Tabella 2. Punti d’ebollizione (°C) di alcuni solventi polari
Figura 2. Effetto del campo elettrico sui dipoli
Nel caso di solidi che appartengono alla categoria dei semiconduttori o conduttori, il riscaldamento è dovuto prevalentemente all’effetto del campo elettrico ad alta frequenza sugli elettroni liberi (elettroni di conduzione) del materiale, con conseguente polarizzazione ed effetto elettrico di resistenza [4]. In Tabella 1 sono riportate le temperature raggiunte da alcuni campioni di solidi, per tempi
diversi di irradiazione, in un forno domestico (potenza = 600W); la struttura cristallina e le proprietà
magnetiche del materiale incidono profondamente sul riscaldamento [5].
24
25
VANTAGGI DEL RISCALDAMENTO MICROONDE
Il riscaldamento indotto dalle microonde è caratterizzato da assenza d’inerzia e da un rapido
trasferimento dell’energia in tutta la massa del materiale e presenta i seguenti vantaggi:
• Omogeneità: lo sviluppo di calore ha luogo dall’interno (riscaldamento “a cuore”), con un flusso
diretto verso l’esterno senza surriscaldamento superficiale, a differenza dei sistemi di riscaldamento convenzionali nei quali il flusso di calore è diretto dall’esterno verso l’interno.
• Rapidità: l’incremento della temperatura è generalmente molto elevato (fino a 10°C al sec.)
rispetto al riscaldamento tradizionale. Questo processo risulta quindi particolarmente efficace in
tutti quei casi nei quali è richiesta un’omogenea e rapida trasmissione di calore e quando sono previsti tempi e temperature di esercizio molto elevate.
• Efficace utilizzazione dell’energia: l’energia applicata è utilizzata esclusivamente per il riscaldamento del materiale, senza dispersioni all’esterno (aria, pareti del forno) con un notevole risparmio energetico.
Figura 3. Sistema “multimodale”
APPARECCHIATURE MICROONDE
La parte fondamentale degli apparecchi è il generatore di microonde. Nei forni d’uso più comune (domestico, scientifico, ecc.) e che lavorano alla frequenza di 2.45 GHz, il generatore è costituito
dal magnetron, un diodo termoionico costituito da un anodo ed un catodo riscaldato direttamente.
Quando il catodo viene riscaldato gli elettroni sono rilasciati ed attratti verso l’anodo, sotto la forza
combinata di un campo elettrico radiale e di un campo magnetico assiale. Le onde generate possono
avere frequenze comprese tra 1 e 40 GHz.
Sono disponibili due sistemi di applicazione delle microonde: multimodale (multimode system)
e monomodale (monomode system)7.
Il forno domestico è un esempio di applicatore multimodale e presenta le seguenti caratteristiche:
• la distribuzione del campo elettrico non è omogenea perché le microonde sono soggette a multiple riflessioni sulle pareti interne del forno (Fig. 3).
• la potenza non è regolabile e, di fatto, il campione è sottoposto al livello massimo di potenza erogabile dallo strumento.
• la temperatura non può essere monitorata e misurata facilmente, in modo accurato.
Tali caratteristiche rendono questi apparecchi poco idonei ad un uso scientifico poiché i processi sono difficilmente controllabili e riproducibili.
I forni del tipo “monomode system” sono più idonei per applicazioni in campo chimico; le
caratteristiche più importanti di un applicatore monomodale sono:
• le onde elettromagnetiche sono focalizzate in una guida d’onda, ottenendo un’omogenea distribuzione del campo e la possibilità di una bassa emissione di potenza, con un’alta resa energetica
(Fig. 4)
• la temperatura può essere misurata in fase di processo (sensori IR, fibre ottiche)
• la temperatura è modulabile tramite il controllo della potenza
• i processi possono essere monitorati tramite computer
• la riproducibilità degli esperimenti è elevata
26
Figura 4. Sistema “monomodale”
CAMPI DI APPLICAZIONE DELLE MICROONDE
PROCESSI DI POLIMERIZZAZIONE
Una delle prime applicazioni industriali della tecnologia microonde è stata quella relativa alla
vulcanizzazione delle gomme. Già dall’inizio del 1970, i nuovi impianti di vulcanizzazione a riscaldamento microonde si sono estesi a livello mondiale ed hanno sostituito, progressivamente, quelli ad
aria calda, a letto fluido ed a sali minerali fusi.
Forni microonde a guida d’onda sono d’impiego corrente nell’industria di articoli finiti e dei
semilavorati estrusi, nella lavorazione di gomme sintetiche e naturali, con indubbi vantaggi quali: efficienza energetica, aumento della velocità dei processi, ecocompatibilità.
Dalla fine del 1970 la tecnologia microonde ha avuto ampio sviluppo nella chimica dei polimeri. L’interazione microonde-materia ha caratteristiche molto versatili in questo campo, dove si è in
presenza di sistemi multipli o di sostanze singole a struttura complessa o macromolecolare e di materiali di partenza polari [8].
Le resine epossidiche (adesivi, schiume, rivestimenti protettivi ecc.) sono state le prime ad essere studiate per la loro importanza industriale e per le loro proprietà dielettriche che le rendono idonee
ad un’attivazione microonde. Il riscaldamento microonde è stato quindi esteso alla preparazione di altri
materiali polimerici quali le resine poliammidiche (fibre tessili sintetiche), poliuretaniche (adesivi,
schiume isolanti, ecc.), polianiline p-toluensolfonato e polipirroli p-toluensolfonato (collanti per materie plastiche); nel caso dei poliuretani, la polimerizzazione microonde mediata porta alla formazione di
un polimero con caratteristiche di durezza superiori a quelle ottenute con metodo tradizionale.
27
SINTERIZZAZIONE DI MATERIALI CERAMICI
La tecnologia microonde trova molte applicazioni anche nell’ambito della chimica dei materiali
ceramici [2]. Di particolare interesse è il processo di sinterizzazione che può essere definito come un
trattamento termico mediante il quale un sistema di particelle individuali, o un corpo poroso, modifica alcune sue proprietà evolvendo verso uno stato di maggiore consistenza meccanica.
La sinterizzazione attivata da microonde offre indubbi vantaggi: tempi più brevi, processi più
uniformi, produzione di microstrutture uniformi ad alta densità, temperature d’esercizio più basse,
trattamento di componenti ceramici anche a complessa struttura.
Inoltre, poichè il riscaldamento procede dall’interno del materiale, il gradiente termico intergranulare risulta minimizzato con la conseguenza che il cracking è molto ridotto rispetto alla sinterizzazione tradizionale.
TRATTAMENTO DEL CAMPIONE ANALITICO
Inizialmente la tecnologia microonde è stata introdotta in campo analitico per la preparazione
di campioni geologici. Il forte incremento della velocità di disgregazione (da 5 a 100 volte) sotto
irraggiamento microonde ha indotto ad utilizzare questo procedimento anche per la preparazione di
campioni a matrice complessa, come materiali biologici, alimenti e cosmetici, offrendo una valida e
vantaggiosa alternativa alle metodiche classiche con processi rapidi, economici ed a minor impatto
ambientale [9]. La nuova tecnologia trova ampio spazio in contesto ambientale per la ricerca di inquinanti quali pesticidi clorurati e fosforati, fenoli, idrocarburi policiclici aromatici (PAH), policlorobifenili (PCB), nonché per la ricerca del fosforo nell’acqua [10] e del mercurio nei pesci [11].
La preparazione del campione da sottoporre ad analisi si basa essenzialmente su due tipi di trattamento: estrazione con solventi e digestione acida.
L’estrazione prevede normalmente l’utilizzo di grandi quantità di solventi organici, spesso a
riflusso. Il riscaldamento microonde, in sostituzione del riscaldamento classico, porta ad una netta
riduzione dei tempi d’estrazione (con risparmio d’energia) e ad una drastica diminuzione della quantità (fino a 200 volte) dei solventi (trattamenti più ecologici). Gli apparecchi utilizzati sono di tipo
monomodale, dotati di contenitori in quarzo (trasparenti alle microonde) in batteria, e di un software
per il controllo di temperatura e potenza.
La digestione acida è un metodo di mineralizzazione ad umido che si basa sull’ossidazione
della matrice con acidi forti mediante riscaldamento e, secondo i metodi tradizionali, presenta tempi
lunghi di trattamento, possibilità di contaminazioni, necessità di un costante controllo per rischio di
reazioni violente, difficile manutenzione delle attrezzature, possibile perdita di analiti volatili. Queste
problematiche possono essere superate con l’utilizzo di apparecchiature microonde specifiche per
questo tipo di trattamento: forni monomodali o multimodali dotati di contenitori chiusi, in Teflon a
doppia camera e valvola di sicurezza, collegati ad un sistema di controllo di pressione e temperatura.
I vantaggi ottenibili sono: drastica riduzione dei tempi di dissoluzione, incremento in riproducibilità, efficienza e sicurezza.
sperimentarono alcune reazioni di sintesi attivate da microonde (in solventi polari, forno microonde
domestico) riscontrando una notevolissima riduzione dei tempi di reazione.
L’effetto del riscaldamento microonde sulle reazioni di sintesi organica è definito con la sigla
MORE (Microwave-induced Organic Reaction Enhancement) ed il risultato più importante è l’accelerazione dei processi di sintesi. Altri aspetti positivi sono una netta riduzione della degradazione termica dei reagenti e dei prodotti, un aumento delle rese ed in alcuni casi una migliore selettività della
reazione stessa [14].
L’irraggiamento microonde può essere impiegato per attivare reazioni condotte in presenza ed
in assenza di solvente. Nelle reazioni in fase liquida ogni solvente polare (acqua, alcoli, chetoni, dimetilformammide, ecc.) è potenzialmente utilizzabile; solventi apolari, come il benzene ed il toluene,
possono essere utilizzati solo quando nel sistema sono presenti componenti polari che interagiscono
con le microonde.
L’utilizzo di solventi, a causa del rapido riscaldamento, può portare ad alcuni inconvenienti:
evaporazione del solvente (se la reazione è condotta in reattore aperto) o aumento della pressione con
possibili rischi d’esplosioni (se la reazione è condotta in reattore chiuso).
Pertanto, particolarmente adatte risultano le metodiche di reazione in dry media quali: adsorbimento dei reagenti su supporti solidi minerali acidi o basici, catalisi per trasferimento di fase solido-liquido senza solvente, miscela eterogenea dei reagenti [15]. Queste procedure permettono di operare in sicurezza, nel rispetto dell’ambiente, con risparmio energetico, riduzione dei costi, minimizzazione dei residui e semplificazione delle procedure di sintesi.
Tra i numerosi tipi di reazione, che possono essere realizzate con questa metodica, si possono
citare reazioni di sostituzione, alchilazione, condensazione, saponificazione, isomerizzazione per
catalisi basica, riduzione [16].
I forni specifici per la sintesi organica presentano peculiari caratteristiche: erogazione variabile
della potenza, controllo della temperatura (sensore ad infrarossi o fibre ottiche), agitazione meccanica o
magnetica, reattori aperti o chiusi, interfaccia con computer per monitorare l’andamento della reazione.
SINTESI INORGANICA
Dal 1986, in seguito alla pubblicazione degli studi di Gedye [12] e Giguere [13] si registra una
svolta significativa nell’applicazione della tecnologia microonde nella sintesi organica. Questi autori
Numerose sono le applicazioni delle microonde in sintesi inorganica, sia a livello industriale sia
di laboratorio. Di particolare interesse, come processo ecocompatibile, è la sintesi idrotermale
microonde mediata [17]. La sintesi idrotermale impiega l’acqua come solvente, avviene a pressioni
inferiori a 1000 MPa ed a temperature inferiori a 250°C e coinvolge reazioni ioniche in fase eterogenea. Si opera in un singolo step con economia di reagenti, attrezzature e trattamenti per la purificazione dei prodotti ottenuti.
L’applicazione del riscaldamento microonde porta ulteriori vantaggi:
• la cinetica della reazione è aumentata di uno o due ordini di grandezza
• il riscaldamento iniziale è rapido, l’energia risparmiata è considerevole.
• si possono formare nuove fasi cristalline rispetto al riscaldamento tradizionale
• il controllo della potenza è omogeneo e questo facilita l’uniformità delle particelle
Questo procedimento è applicato alla sintesi di polveri metalliche, ossidi binari e compositi,
polveri e pigmenti ceramici [18], pigmenti cosmetici [19], filtri, catalizzatori.
Non esistono reattori specifici per le sintesi idrotermali microonde mediate e, normalmente,
vengono utilizzati forni con le stesse caratteristiche di quelli utilizzati per la digestione dei campioni
in ambito analitico.
28
29
SINTESI ORGANICA
BIBLIOGRAFIA
1. P.L. SPENCER, US Patents, 2495429, 1950; 2593067, 1952; 2605383, 1952.
2. A.G. WHITTAKER and D.M.P. MINGOS, Journal of Microwave Power and Electromagnetic Energy,
1994, 29, 195-219 (1994).
3. L. PERREUX, A. LOUPY, Tetrahedron, 2001, 57, 9199-9223.
4. J. THUERY in “Microwaves: industrial, scientific and medicinal applications”, Artech House Inc.,
1992.
5. J.W. WALKEWICZ, G. KAZONICH, J.L. MC GILL, Mineral and Metall. Process., 1988, 5, 39-42.
6. G. BOND, R.B. MOYES, J.D.POLLINGTON and D.A.WHAN, Chem and Ind. 1991, 686-687.
7. D. STUERGA and M. DELMOTTE in “Microwaves in Organic Synthesis”, A. Loupy (Ed), WileyVCH, Weinheim-Germany, 2002.
8. F. PARODI, La Chimica e l’Industria, 1998, 80, 55-61.
9. E.D. NEAS, M.J. COLLINS, “Introduction to Microwave Sample Preparation, Theory and Practice,
Microwave Heating”, H.M. Kingston and Jassie L.B., ACS Professional Reference Book,
Chapitre 2, Washington, DC (1988)
10. R.L. BENSON, I.D. MCKELVIE, B.T. HART, I.C. HAMILTON, Anal. Chim. Acta, 1994, 291, 233-242.
11. C. GERBERSMANN, M. HEISTERKAMP, ADAMS F.C., J.A.C. BROEKAERT, Anal. Chim. Acta, 1997,
350, 273-285.
12. R.N. GEDYE, F.E. SMITH, K.C. WESTAWAY, H. ALI, L. BALDISERA, L. LABERGE and J. ROUSELL
Tetrahedron Letters, 1986, 27, 279-281.
13. R.J. GIGUERE, T.L. BRAY, S.M. DUNCAN and T. MAJETICH, Tetrahedron Letters 1986, 27, 49454948.
14. A. LOUPY, A. PETIT, J. HAMELIN, F. TEXIER-BOULLET, P. JACQUAULT, D. MATHÉ, Synthesis, 1998, 9,
1213-1234.
15. R.S. VARMA in “Microwaves in Organic Synthesis”, A. Loupy (Ed), Wiley-VCH, Weinheim
Germany, 2002, 181-218.
16. L. PERREUX, A. LOUPY in “Microwaves in Organic Synthesis”, A. Loupy (Ed), Wiley-VCH,
Weinheim-Germany, 2002, 61-114.
17. S. KOMARNENI, R.K. RAJHA, H. KATSUKI, Materials Chemistry and Physics 1999, 61, 50-54.
18. C. LEONELLI, C. SILIGARDI, F. BONDIOLI, M.C. D’ARRIGO, A. BONAMARTINI CORRADI in
“Application of the microwave technology to synthesis and Materials processing
19. S. KOMARNENI, E. MARIANI, M. BRUNO, in “Application of the microwave technology to synthesis
and Materials processing”, Mucchi Editore, Modena, 1999, 99-102).
30
CELLE A COMBUSTIBILE: PROGRESSI TECNOLOGICI
PER LA PRODUZIONE DI ENERGIA AD ALTA EFFICIENZA,
TRASCURABILE IMPATTO AMBIENTALE
ED ELEVATO RENDIMENTO
CLAUDIO BIANCHINI, PAOLO BERT
Nel XX secolo, la ricerca scientifica ed il progresso tecnologico hanno permesso ad una buona
parte dell’Umanità il raggiungimento di un elevato standard di benessere che tuttavia esige, per il proprio sostentamento, una costante crescita della produzione energetica, ancor più rapida laddove allo
sviluppo tecnologico si affianca un elevato tasso di crescita demografica. Secondo una legge empirica detta “legge del raddoppio”, si calcola che per un tasso di crescita dei consumi energetici del 7%
annuo (più o meno quello dei Paesi in via di sviluppo), il fabbisogno energetico raddoppia in 10 anni.
Sebbene molto sia stato fatto nella diversificazione e sfruttamento delle risorse e nell’efficienza dei
processi produttivi e della distribuzione di energia, la domanda di quest’ultima spesso supera l’offerta e prova ne sono i sempre più frequenti e drammatici black-out elettrici che colpiscono anche i Paesi
più sviluppati ed industrializzati. Occorre infatti tener presente che l’energia elettrica presenta lo
svantaggio di essere difficilmente immagazzinabile in grandi quantità (batterie di accumulatori e condensatori non sono abbastanza efficaci), il che determina una imprescindibile contemporaneità tra
produzione ed impiego: piccoli squilibri nell’erogazione dell’energia sono ammessi solo per pochi
istanti e si hanno vincoli molto rigidi sul mantenimento della frequenza di rete.
La produzione di energia elettrica è oggi prevalentemente affidata a centrali che sfruttano la
combustione di materiali di origine fossile (energia chimica) per generare energia meccanica e da
questa energia elettrica (Figura 1). Tali sistemi (centrali termo-elettriche) presentano il problema che
ad ogni passaggio di conversione energetica sono associate irreversibilità interne, siano esse di natura intrinseca (cioè legate alla natura del combustibile e del processo) od estrinseca (cioè legate ai macchinari), le quali hanno l’effetto di abbattere il rendimento totale verso valori spesso inferiori al 50%.
L’energia non utilizzata viene immessa nell’ambiente sotto forma di calore e di sostanze gassose,
alcune delle quali biologicamente nocive, come il monossido di carbonio (CO), e gli ossidi di azoto
(NOx) e di zolfo (SOx). La maggior parte delle emissioni è tuttavia costituita da anidride carbonica
(CO2) che, pur non essendo direttamente nociva alla salute ed in parte riciclabile dalle piante attraverso la fotosintesi, ha comunque un negativo impatto ambientale contribuendo al cosiddetto effetto
serra. Infine, occorre sempre aver presente che i combustibili di origine fossile (gas naturale, petrolio, carbone) sono presenti in natura in quantità limitate, e soprattutto, che molti di essi sono indispensabili anche per la produzione di un’ampia gamma di prodotti, basti pensare alle materie plastiche. Per questi motivi, con grande speranza ed attenzione si guarda alle risorse rinnovabili o comunque disponibili in quantità pressoché illimitata (eolica, solare, idroelettrica, geotermica, da maree e
biomasse). Al momento, l’apporto di tali risorse alla bilancia energetica è tuttavia trascurabile rispetto alle esigenze (in Italia, per esempio, le energie rinnovabili coprono meno del 7% del fabbisogno
complessivo - fonte ENEA, 2002), né vi sono studi che indichino una loro molto maggiore incidenza
nell’immediato futuro.
31
per estrarre l’idrogeno. Qualunque sia il combustibile, tulle le celle impiegano come co-reagente
(comburente) l’ossigeno atmosferico che viene generalmente trasformato in acqua. In teoria, la produzione di energia elettrica da una cella a combustibile non ha interruzioni finché l’anodo ed il catodo vengono riforniti rispettivamente di combustibile ed ossigeno.
Figura 1. Ciclo di produzione di energia elettrica con impianti tradizionali
L’energia nucleare, infine, risolve solo in parte la domanda corrente di energia: i rischi connessi alla sicurezza delle centrali nucleari ed al potenziale uso militare di alcuni isotopi radioattivi hanno
di fatto limitato la diffusione di questo sistema di produzione in molti Paesi tra cui l’ Italia che non ha
più un programma energetico nucleare a seguito di referendum popolare.
Nel contesto più generale di sviluppo sostenibile, indissolubilmente legato ai sistemi di produzione dell’energia, si inserisce l’impegno che la maggior parte dei Paesi industrializzati ha assunto firmando nel 1997 il protocollo di Kyoto, di ridurre entro il 2012 le proprie emissioni di gas serra almeno del 6.5% rispetto ai valori di emissione del 1990.
Come fare dunque a coniugare i bisogni crescenti di energia con uno sviluppo sostenibile, evitando di depauperare eccessivamente le risorse naturali del pianeta? La realizzazione e la diffusione
di efficienti tecnologie per l’impiego di idrogeno nella produzione di energia sembrano fornire una
risposta adeguata. Come ha anche detto l’economista americano Jeremy Rifkin “L’era del petrolio è
al tramonto ed il passaggio a nuove fonti energetiche, pulite e rinnovabili, prima fra tutte l’idrogeno,
segnerà una rivoluzione paragonabile a quella provocata dal vapore (IXX secolo) e dall’uso dei combustibili fossili (XX secolo)”
La ricerca scientifica ha da tempo accettato la sfida di realizzare la cosiddetta Hydrogen
Economy e già oggi ci mette a disposizione una serie di dispositivi ad alta efficienza, trascurabile
impatto ambientale ed elevato rendimento, per la produzione di energia da idrogeno molecolare o
composti che lo contengono in forma atomica. Tali dispositivi sono le celle a combustibile.
Figura 2. Ciclo di produzione di energia elettrica con celle a combustibile funzionanti ad idrogeno da reforming
Non sfugge a chiunque abbia un po’ di familiarità con la fisica e la chimica la praticità e la semplicità della produzione di energia elettrica direttamente dalla materia. Infatti:
• tutte le sostanze sono composte da atomi e quest’ultimi da particelle elementari tra cui gli elettroni carichi negativamente,
• la corrente elettrica altro non è che un flusso di elettroni (e dunque di energia) che si muovono in
un filo conduttore sotto l’azione di una differenza di potenziale.
Pertanto l’estrazione diretta degli elettroni dalle sostanze particolarmente ricche di quest’ultimi
appare come la soluzione più semplice e naturale per la produzione pulita ed efficiente di elettricità.
La semplicità di un concetto non è però quasi mai sufficiente a convertirlo in realtà applicativa:
le difficoltà ed i tempi necessari al trasferimento di una scoperta scientifica in una tecnologia diffusa
ed accessibile a tutti sono spesso enormi e lo dimostra proprio il fatto che la prima notizia di una cella
a combustibile risale addirittura al 1839 quando il fisico inglese William Grove annunciò di aver ottenuto energia elettrica facendo arrivare idrogeno ed ossigeno su due sottili fogli di platino immersi in
una soluzione di acido solforico (Figura 3).
COS’È UNA CELLA A COMBUSTIBILE
Una cella a combustibile è un dispositivo capace di trasformare direttamente l’energia chimica
contenuta in un combustibile in energia elettrica (Figura 2). Una cella a combustibile funziona quasi
come una comune batteria, ma a differenza di quest’ultima non si scarica, almeno finché dura il rifornimento del combustibile. Il processo di produzione di energia elettrica in una cella a combustibile è
silenzioso e senza parti mobili, ed avviene con evoluzione di calore e di acqua ed, in alcuni casi, di
CO2, a seconda che il tipo di combustile impiegato sia idrogeno gassoso (H2) od un composto contenente idrogeno atomico. In quest’ultimo caso, può essere necessario un trattamento del combustibile
32
Figura 3. William Grove (1811-1896) ideatore della prima cella a combustibile nel 1839.
33
Sono passati più di 150 anni dalla scoperta di Grove e solo ora le celle a combustibile stanno
entrando nella disponibilità quotidiana, anche se già a partire dagli anni 60, l’industria spaziale (missioni Apollo e Shuttle) impiegava celle a combustibile ad idrogeno per la produzione di energia.
PRINCIPALI TIPI DI CELLE A COMBUSTIBILE
CELLE AD ELETTROLITA POLIMERICO FUNZIONANTI CON IDROGENO
Una moderna cella a combustibile ad elettrolita polimerico funzionante ad idrogeno è schematizzata in Figura 4.
L’apparato è costituito da due elettrodi di materiale poroso e conduttivo separati da una membrana di materiale polimerico permeabile agli ioni, chiamato elettrolita. Gli ioni sono particelle costituite da atomi o gruppi di atomi con carica positiva (cationi) o negativa (anioni). Le celle ad idrogeno contenenti membrana polimerica sono note con l’acronimo PEFC da Polymer Electrolyte Fuel
Cell. Nel caso di membrane permeabili solo ai cationi come quella mostrata in Figura 4, l’idrogeno
viene ossidato all’anodo (elettrodo negativo) secondo la reazione (1) generando protoni (H+) ed elettroni (e-).
Figura 4. Schema di funzionamento di una cella a combustibile di tipo PEFC alimentata ad idrogeno e con
membrana polimerica a scambio cationico
34
I protoni migrano attraverso la membrana verso il catodo (elettrodo positivo) dove vengono utilizzati, insieme agli elettroni provenienti dall’anodo nella reazione di riduzione dell’ ossigeno atmosferico ad acqua (reazione 2):
Anodo
Catodo
2 H2 → 4 H + + 4 e O2 + 4 H+ + 4 e- → 2 H2O
(1)
(2)
Il processo per cui idrogeno ed ossigeno si combinano per dare acqua ed energia può essere pertanto descritto dalla reazione complessiva (3) che altro non è che la somma delle reazioni 1 e 2 (chiamate per questo semireazioni), ed è accompagnato dalla produzione di elettricità e calore:
2H2 + O2 → 2 H2O
(3)
Come sarà mostrato più avanti, l’uso di un elettrolita costituito da una membrana polimerica a
scambio anionico, capace cioè di far passare solo cariche negative, induce la formazione di ioni negativi, nella fattispecie ioni idrossido (OH-), nel processo di riduzione dell’ossigeno, mentre il processo
elettrochimico complessivo rimane invariato.
Sia la reazione anodica che quella catodica avvengono su catalizzatori (denominati anche elettrocatalizzatori), costituiti da lamine metalliche o da particelle metalliche di piccole dimensioni
(generalmente nanometriche, 10-9 m, e perfino sub-nanometriche) disperse su un materiale conduttivo (es. carbone). I catalizzatori per celle ad idrogeno di tipo PEFC sono quasi esclusivamente costituiti da platino o leghe platino-rutenio, ed hanno lo scopo di accellerare la velocità delle reazioni anodiche e catodiche che altrimenti avverrebbero con estrema lentezza producendo intensità di corrente
irrisorie. Il ruolo dei catalizzatori, insieme a quello dell’elettrolita, è quindi di fondamentale importanza per l’esistenza ed il funzionamento delle celle a combustibile.
Nelle PEFC, l’elettrolita polimerico è generalmente costituito da Nafion®, una membrana fluorurata dello spessore di circa 50-200 micrometri, contenente al suo interno ioni negativi (di solito
solfonati o carbossilati), capace per questo di permettere il passaggio dei protoni verso il catodo ma
non quello degli elettroni. Quest’ultimi sono pertanto costretti a percorrere il circuito esterno generando una differenza di potenziale e quindi una corrente che può essere utilizzata prima del suo ritorno al catodo per produrre lavoro utile. Il Nafion®, come altre membrane polimeriche a scambio protonico, lavora efficacemente tra 70 e 100 °C, limitando in tal modo la funzionalità delle PEFC allo
stesso intervallo di temperatura.
Il voltaggio ideale ottenibile con una singola PEFC è di circa 1.23 V a 25 °C, tuttavia per varie
ragioni (legate all’insorgere di sovratensioni per fenomeni di trasporto di massa, di resistenza, di
diversa velocità delle reazioni agli elettrodi) si ottengono voltaggi nell’ordine di 0.7 V e correnti comprese tra 300 e 800 milliampere/cm2. La perdita di energia elettrica è compensata da un aumento del
calore prodotto. Potenze e voltaggi maggiori sono ottenibili ponendo in serie, per mezzo di piatti bipolari, più celle singole a formare un cosiddetto stack (Figura 5). Gli stack possono essere a loro volta
assemblati in moduli per ottenere generatori di potenza più elevata, attualmente fino a 250 kW con
molteplici impieghi, dalla cogenerazione di energia elettrica e calore per usi civili ed industriali,
all’autotrazione.
35
L’abbinamento PEFC/reformer viene attualmente impiegato dalle maggiori compagnie produttrici di autoveicoli a motore elettrico con lo schema di funzionamento illustrato in Figura 6. Dai prototipi, si è ormai passati alla produzione e commercializzazione, anche se limitata, di veicoli da parte
di alcune compagnie come DaimlerChrysler e BMW. Molti sono anche i tentativi di utilizzare le
PEFC come sorgenti di potenza ausiliaria (APU) sia per autoveicoli (DaimlerChrysler) che per aerei
(Boeing).
CELLE A COMBUSTIBILE DIRETTO
Con questo termine si indicano tutte le celle nelle quali un combustibile diverso dall’idrogeno
viene direttamente posto a contatto dell’anodo e non preventivamente trattato per estrarre l’idrogeno.
La più diffusa cella di questo tipo utilizza il metanolo (CH3OH) ed è conosciuta come cella a metanolo diretto (DMFC da Direct Methanol Fuel Cell).
Come illustrato in Figura 7, una tipica DMFC presenta una configurazione ed un funzionamento molto simile alla PEFC. Anche in questo caso, infatti, l’elettrolita è costituito da una membrana polimerica, generalmente a scambio protonico come Nafion®, e sono impiegati catalizzatori anodici e catodici a base di platino e sue leghe. L’intervallo di temperatura di esercizio è ancora tra 70 e
100 °C.
Figura 5. Schema di uno stack di due celle planari
L’idrogeno impiegato nelle PEFC può essere prodotto in molti modi, alcuni dei quali estremamente convenienti e sostenibili (biomasse, fotolisi di acqua). Resta però il problema del trasporto ed
immagazzinamento dell’idrogeno in grandi quantità a causa della sua natura gassosa e dei problemi
connessi con la sua liquefazione e l’alta infiammabilità. Per questi motivi si impiegano spesso combustibili liquidi dai quali l’idrogeno viene estratto attraverso un processo chimico chiamato reforming,
che avviene in apparati esterni (reformers) alle cella dove sostanze contenenti idrogeno atomico (alcoli, gas naturale, benzine e nafta) reagiscono a temperature molto alte su catalizzatori metallici, generalmente a base di platino, per generare idrogeno e CO2. La dimensione fisica di questi apparati dipende ovviamente dalla quantità di idrogeno richiesta e ne limita comunque l’impiego alla ricarica di batterie per apparecchi elettronici come i computer portatili ed i telefoni cellulari.
Figura 7. Schema di funzionamento di una cella a combustibile a metanolo diretto e membrana polimerica
a scambio cationico
Figura 6. Schema di funzionamento di un motore elettrico per autotrazione alimentato da cella a combustibile
funzionante ad idrogeno prodotto da reformer
36
37
Nelle DMFC, il metanolo viene ossidato all’anodo per dare protoni, elettroni e CO2 secondo la
reazione 4, mentre il processo catodico è del tutto analogo a quello nelle PEFC (reazione 5):
Anodo
Catodo
CH3OH + H2O → 6 H+ + 6 e- + CO2
3/2 O2 + 6 H+ + 6 e- → 3 H2O
(4)
(5)
Il processo complessivo può essere pertanto descritto dalla reazione (6):
CH3OH + 3/2 O2 → CO2 + 2 H2O (+ elettricità + calore)
(6)
La più evidente differenza tra una DMFC ed una PEFC è il rilascio di CO2 nell’ambiente. La
reazione di ossidazione del metanolo sui catalizzatori di platino è più difficile, ed in sé molto più complessa, di quella dell’idrogeno. Ad un certo stadio del processo di ossidazione si produce infatti
monossido di carbonio (CO) che tende ad avvelenare il catalizzatore di platino con conseguente decadimento della efficienza di cella. Per limitare questo effetto indesiderato, si usano catalizzatori a base
di platino-rutenio, più resistenti al CO. L’aspetto più negativo delle DMFC è dato dal fatto che l’efficienza elettrochimica del metanolo (34%) è largamente inferiore a quella dell’idrogeno nelle PEFC
(61%); inoltre il voltaggio teorico è di 1.18 V ma già ad una densità di corrente di 500 milliampere/cm2 scende a 0.4 V. Perciò, per ottenere prestazioni simili a quelle mostrate dalle PEFC a parità di
condizioni, occorre aumentare la quantità di platino sull’anodo di circa 10 volte con conseguenti
aumenti di costo. Inoltre, si osservano effetti di polarizzazione del catodo di platino quando questo
viene a contatto con il metanolo che, anche se in minime tracce, riesce a passare la barriera della
membrana.
Le celle DMFC ed in genere tutte quelle che non impiegano idrogeno come combustibile, producono CO2 come avviene nelle centrali termoelettriche. Tuttavia, la quantità di CO2 emessa, a parità
di energia prodotta, è estremamente ridotta come illustrato dal diagramma in Figura 8 che confronta
le emissioni di CO2 di impianti a celle a combustibile con impianti di generazione di energia tradizionali (fonte ENEA, 2002).
A questa serie di inconvenienti delle DMFC rispetto alle PEFC si contrappone l’enorme vantaggio che, nelle prime, il combustibile è liquido e miscelato con acqua: si impiegano infatti soluzioni acquose di metanolo al 3-5 %. Ciò comporta l’impiego di normali serbatoi e permette un facile uso
delle DMFC per la generazione di potenza a bordo di veicoli e per la costruzione di generatori portatili. La commercializzazione di entrambi i dispositivi è già in atto, specialmente nel settore del trasporto pubblico (oltre dieci autobus Mercedes operanti a Madrid). In Figura 9 è mostrato il veicolo
DaimlerChrysler NECAR5-2000 alimentato a metanolo e caratterizzato da una potenza di 75 kW con
un’autonomia di 500-600 Km ed una velocità massima di 150 Km/h. Tali prestazioni sono perfino leggermente superiori a quelle del veicolo analogo NECAR-4 1999 alimentato ad idrogeno.
Un indiscutibile vantaggio delle celle a combustibile diretto nei confronti di quelle ad idrogeno è quello di poter utilizzare una vasta gamma di combustibili sia liquidi (alcoli in genere) che solidi solubili in acqua (acidi, aldeidi, zuccheri). Come l’etanolo, tutti questi combustibili vengono alla
fine trasformati in CO2, acqua ed energia. Ovviamente le prestazioni elettrochimiche cambiano in
funzione del combustibile e dal tipo di catalizzatore anodico impiegato. Particolare interesse stanno
suscitando le celle ad etanolo diretto poiché questo alcool, a differenza del metanolo, non è tossico e,
cosa più importante, è una risorsa rinnovabile perché facilmente ottenibile per fermentazione di molte
specie vegetali.
Figura 9. Autoveicolo NECAR5 alimentato con stack di celle a metallo diretto prodotto dalla DaimlerChrysler
Figura 8. Confronto delle emissioni di CO2 da impianti a celle a combustibile con impianti di generazione
di potenza tradizionali
38
La diffusione delle celle di tipo PEFC e DMFC, come di tutte le altre celle a combustibile funzionanti a platino, è drammaticamente limitata dalla scarsa abbondanza naturale di questo metallo e
quindi dal suo alto costo. Il platino è infatti un metallo molto raro, già largamente impiegato nei convertitori catalitici per autoveicoli, con una produzione mondiale di sole 165 tonnellate nel 2002 (fonte
Johnson Matthey); già oggi la domanda di platino è superiore all’offerta e destinata ad aumentare vertiginosamente proprio per l’espansione dell’industria dell’idrogeno.
39
Allo stato attuale della tecnologia una Mercedes classe A funzionante ad idrogeno da reformer
impiega 180 g di platino. Perciò tutto il platino estratto nel 2002 non basterebbe a produrre che
900.000 auto, cioè nemmeno un quarto dei veicoli prodotti nello stesso anno. Parimenti se i 430 milioni di telefoni cellulari fossero dotati di celle a combustibile con catalizzatore a base di platino, assorbirebbero un terzo della produzione mondiale, causando una lievitazione dei costi e seri problemi di
approvvigionamento per altri usi industriali.
Per ovviare alla scarsa disponibilità di efficienti catalizzatori agli elettrodi e favorire dunque
una maggiore diffusione delle celle a combustibile, sono stati recentemente sviluppati da ACTA SpA
e CNR-ICCOM catalizzatori a base di metalli comuni come ferro, cobalto e nichel, addirittura più
efficienti di quelli di platino a parità di concentrazione metallica. Questa scoperta ha rappresentato
una vera e propria rivoluzione tecnologica e costituisce al momento l’unica tecnologia che possa permettere alle celle a combustibile di passare dai banchi di laboratorio agli scaffali dei negozi. Singole
celle di tipo PEFC e DMFC con anodi a base di ferro-cobalto-nichel e catodi di nichel sono già in
commercio a scopo didattico (Fig. 10), mentre stacks di celle per la realizzazione di generatori portatili fino a 1 kW saranno disponibili alla fine del 2006.
Gli elettrodi a base di ferro-cobalto-nichel sono molto meno sensibili di quelli di platino ad
eventuali inquinanti (es. CO) e, non causando sovratensioni per passaggio del combustibile dall’anodo al catodo, permettono l’impiego di concentrazioni di combustibile molto più alte di quelle delle
celle a platino, con conseguente aumento dell’autonomia di funzionamento. Inoltre, i catalizzatori
possono essere modulati in modo da utilizzare, con la stessa efficacia, non solo idrogeno o metanolo
ma anche etanolo, glicole etilenico e perfino idrocarburi leggeri.
Le celle a ferro-cobalto-nichel funzionano sia con membrane polimeriche a scambio protonico
(tipicamente Nafion®) che con membrane polimeriche a scambio anionico che, come già accennato,
inducono la formazione di ioni idrossido OH- ai quali sono permeabili. Nel caso degli elettroliti polimerici a scambio anionico le semireazioni che avvengono agli elettrodi, ad esempio con alimentazione ad idrogeno o a metanolo, sono pertanto leggermente diverse da quelle rappresentate in precedenza, mentre i processi complessivi sono identici.
con idrogeno e membrana anionica
Anodo
Catodo
H2 + 2 OH- → 2 e- + 2 H2O
1/2 O2 + 2 e- + H2O → 2 OH-
(7)
(8)
con metanolo e membrana anionica
Anodo
Catodo
CH3OH + 6 OH- → 6 e- + CO2 + 5 H2O
3/2 O2 + 6 e- + 3 H2O → 6 OH-
(9)
(10)
E’ dunque il tipo di membrana a stabilire se la corrente elettrica ottenuta avviene in ambiente
acido (presenza di H+) o basico (presenza di OH-).
ALTRI TIPI DI CELLE A COMBUSTIBILE
Oltre a quelle finora descritte, esistono altri tipi di celle a combustibile che si differenziano primariamente per la natura dell’elettrolita e degli ioni di trasporto nonché per le condizioni sperimentali di esercizio, in particolar modo la temperature. La Figura 11 illustra le caratteristiche di alcuni
importanti tipi di cella e ne mette in risalto le differenze di funzionamento.
Figura 11. Schema e specifiche di funzionamento di celle a combustibile di tipo AFC, PAFC, MCFC e SOFC
Figura 10. Cella monoplanare Acta SpA alimentata ad etanolo diretto dotata di catalizzatori a ferro-cobalto-nichel
40
41
CELLE DI TIPO AFC
Con l’acronimo AFC (Alkaline Fuel Cell) si indicano le celle che impiegano come elettrolita
una soluzione acquosa concentrata di idrossido di potassio (generalmente al 30-45%). Il combustibile è sempre idrogeno (reazione 11) che deve essere però molto puro, in particolare privo di composti
che potrebbero interagire con l’elettrolita (ad esempio, CO2 che forma ioni carbonato, CO32-). Gli ioni
che attraversano la cella attratti, questa volta attratti dal polo positivo anodico, sono gli ioni idrossido
(OH-) dell’elettrolita vengono rigenerati al catodo in seguito alla riduzione di ossigeno (reazione 12).
Anodo
Catodo
H2 + 2 OH- → 2 H2O + 2 e1/2 O2 + 2 e- + H2O → 2 OH-
(11)
(12)
Le celle AFC operano a temperature comprese tra 70 e 120 °C e possono impiegare al catodo
anche metalli diversi dal platino come ad esempio nichel ed argento. Pur avendo rendimenti elettrici
abbastanza elevati (fino al 65%), tempi di vita lunghi e basso costo dei componenti che ne favoriscono pertanto l’impiego nell’autotrasporto, le celle di tipo AFC sono quasi in disuso per la troppa sensibilità dell’elettrolita ai composti ossigenati del carbonio.
L’alta temperatura di esercizio, aumentando la velocità delle reazioni agli elettrodi, permette
l’impiego di metalli meno reattivi del platino, ma anche molto meno costosi, ed inoltre può funzionare direttamente con gas naturale e idrocarburi leggeri senza bisogno di reforming esterno (il reforming avviene infatti nella cella). L’alta corrosività dei carbonati fusi crea però dei problemi di stabilità strutturale ai componenti della cella, e costituisce pertanto un serio ostacolo alla diffusione di questo tipo di celle a combustibile.
Le celle MCFC hanno buona efficienza (fino al 60%) e sono potenzialmente impiegabili per la
generazione e cogenerazione di energia elettrica in impianti stazionari da 250 kW fino a 20-30 MW.
CELLE DI TIPO SOFC
Come le celle di tipo MCFC, le SOFC (Solid Oxide Fuel Cell) non utilizzano né idrogeno né
catalizzatori a base di platino. Queste celle lavorano a temperature molto elevate (tra 900 e 1000 °C)
e sono quindi adatte esclusivamente ad impianti stazionari. L’alta temperatura di esercizio è necessaria a permettere una sufficiente conducibilità interna dato che l’elettrolita è costituito da materiale
ceramico (generalmente ossido di zirconio drogato con ossido di ittrio). A muoversi dal catodo all’anodo sono infatti gli ioni ossido (O2-) che prodotti al catodo (reazione 16) sono consumati all’anodo
(reazione 15):
CELLE DI TIPO PAFC
Le celle di tipo PAFC (Phosphoric Acid Fuel Cell) funzionano ad una temperatura più alta delle
celle finora descritte (almeno 200 °C) ed impiegano come elettrolita una soluzione concentrata di
acido fosforico (H3PO4). Il combustibile è sempre idrogeno ed i catalizzatori sono a base di platino.
Le reazioni agli elettrodi sono identiche a quelle delle PEFC. L’alta temperatura permetterebbe l’utilizzo di idrogeno direttamente proveniente da reforming, e quindi contenente piccole quantità di CO,
tuttavia la presenza di platino agli elettrodi richiede un basso contenuto di CO (< 1%) a causa degli
effetti deleteri di quest’ultimo gas sul catalizzatore di platino.
Queste celle rappresentano, insieme alle celle ad alta temperatura, la tecnologia più matura per
usi stazionari, per applicazioni di cogenerazione di energia elettrica nel settore residenziale e terziario.
CELLE DI TIPO MCFC
Le celle a carbonati fusi, MCFC da Molten Carbonate Fuel Cell, si differenziano da tutte le precedenti per l’alta temperatura di funzionamento (oltre 650 °C) ed usano, a questo scopo, un elettrolita costituito da una soluzione di carbonati alcalini fusi che impregna una matrice ceramica porosa. Gli
ioni che trasportano la carica nella cella sono ioni carbonato CO32-. I catalizzatori per la reazione anodica (reazione 13) non necessitano di platino, essendo comunemente costituiti da nichel-cromo o
nichel-alluminio. La riduzione dell’ossigeno atmosferico (reazione 14) procede su catalizzatori a base
di ossido di nichel. E’ interessante notare come in questo tipo di celle la CO2 prodotta all’anodo venga
poi riciclata al catodo.
Anodo
Catodo
H2 + CO32- → H2O + CO2 +2 e1/2 O2 + CO2 + 2 e- → CO32-
42
(13)
(14)
Anodo
Catodo
2 H2 + 2 O2- → 2H2O +4 eO2 + 4 e-→ 2 O2-
(15)
(16)
Queste celle possono funzionare anche con idrogeno contaminato da monossido di carbonio. In
questo caso, il CO reagisce, sempre all’anodo, con gli ioni ossido per formare CO2 e con acqua per
rigenerare H2 secondo la reazione: CO + H2O → CO2 + H2.
Gli anodi sono generalmente costituiti da miscele di ossidi di nichel e zirconio e i catodi da
manganito di lantanio drogato con stronzio. Grazie all’elevata temperatura di funzionamento non sono
richiesti impianti di pretrattamento del combustibile, pertanto possono essere impiegati gas naturale,
biogas o gas da carbone. La Siemens Westinghouse ha già sviluppato impianti stazionari SOFC con
moduli da 250 kW.
In Tabella 1, per comodità del lettore, sono state riportate le principali caratteristiche delle celle
a combustibile ad elettrocatalizzatori sintetici precedentemente trattate.
CELLE A COMBUSTIBILE ENZIMATICHE
Ancora allo stadio di ricerca, ma di grande interesse per l’assenza di ogni impatto ambientale,
sono le celle a combustibile prive di catalizzatore metallico all’anodo. In queste celle, comunemente
denominate BFC da biofuel cell, il combustibile, generalmente etanolo, viene ossidato producendo
elettroni per azione di sistemi enzimatici opportunamente fissati ad un elettrodo conduttore, mentre il
catodo può essere di tipo standard, per esempio di platino. Nel caso degli alcoli può essere impiegato l’enzima alcool deidrogenasi (ADH) che li converte in aldeidi liberando due elettroni. Altri due
elettroni possono poi essere generati per azione di un altro enzima, l’aldeide deidrogenasi che appunto degrada le aldeidi a CO2. Un co-enzima, nicotinamide adenin dinucleotide, NADH, assiste l’ADH
nel processo catalitico di ossidazione dell’alcool mediando il trasporto di elettroni come mostrato in
Figura 12.
43
Tabella 1. Principali caratteristiche delle più diffuse celle a combustibile
I principali inconvenienti delle biocelle sono la scarsa stabilità degli enzimi alla temperatura ed
al pH, e la basse potenze finora ottenute. Importanti progressi, specialmente per quanto riguarda la
durata dei sistemi, sono stati recentemente ottenuti attraverso l’immobilizzazione degli enzimi sulla
superficie degli elettrodi mediante Nafion® modificato con sali ammonici quaternari.
Figura 12. Ossidazione di etanolo ad aldeide in una biocella a combustibile con anodo costituito dall’enzima aldeide
deidrogenasi (ADH) coadiuvata da nicotinamide adenin dinucleotide (NAD)
CONCLUSIONI E PROSPETTIVE
Le celle a combustibile rappresentano oggi la tecnologia più promettente per l’impiego dell’idrogeno nella produzione sostenibile di elettricità e calore. Come mostrato in questo breve capitolo,
le celle a combustibile offrono una vasta gamma di applicazioni, dalla cogenerazione in impianti stazionari per abitati di piccole e medie dimensioni, ai trasporti fino all’elettronica portatile. Una cella a
combustibile non ha parti meccaniche in movimento, quindi non comporta attriti né forze di inerzia,
è silenziosa e fino a due volte e mezzo più efficiente del motore a combustione interna.
Se alimentata ad idrogeno, gli unici prodotti che una cella genera sono elettricità, calore ed
acqua distillata. Allo stato attuale, però, la produzione di idrogeno è ancora troppo costosa: questo fa
sì ché la maggior parte delle celle a combustibile oggi funzionante sia di tipo stazionario alimentate
a metano, biogas e gasolio.
La sfida sarà dunque quella di rendere più competitiva la produzione di idrogeno attraverso lo
sviluppo di nuovi e più efficienti catalizzatori di reforming e per la scissione fotolitica di acqua in
idrogeno ed ossigeno.
Di pari passo, dovranno essere sviluppati efficienti sistemi per l’immagazzinamento ed il trasporto sicuro di idrogeno. Nel medio termine, le celle a combustibile diretto, eventualmente alimentate ad etanolo e con catalizzatori a base di metalli non nobili, costituiranno una valida alternativa,
soprattutto per la produzione di generatori di potenza portatili e per l’autotrasporto.
44
45
BIBLIOGRAFIA
1. M. RONCHETTI, A. IACOBAZZI, Celle a combustibile, ENEA, Febbraio 2002.
2. W. VIELSTICK, A. LAMM, Handbook for fuel cells, Vol. I-III; Wiley, New York, 2003.
3. J. RIFKIN, The Hydrogen Economy, Tarcher, 2002.
TECNOLOGIE CATALITICHE PER IL CONTROLLO
E LA PREVENZIONE DELL’INQUINAMENTO ATMOSFERICO
DA SORGENTI MOBILI
PAOLO FORNASIERO
1. INTRODUZIONE
Inquinamento atmosferico significa presenza nell’atmosfera di uno o più sostanze, come polveri, gas, nebbie, odori, fumi o vapori, in quantità, caratteristiche e persisteza tali da risultare dannosi per la salute dell’uomo, degli animali e delle piante, o tali da danneggiare i manufatti (costruzioni,
monumenti, connessioni telefoniche, ecc). Va subito notato come molte sostanze considerate inquinanti siano dei componenti minori dell’aria “pulita”; è il caso di NO2, CO, O3, SO2 e NH3.
L’inquinamento non è quindi dovuto alla mera presenza di questi gas, ma alla loro concentrazione nei
luoghi dove più alta è l’attività umana (città). Infatti la potenzialità di una esplosione vulcanica è ben
superiore all’inquinamento da SO2 e H2S prodotto dall’uomo in un anno ma, grazie a una migliore
distribuzione nell’atmosfera, essa provoca, in proporzione, danni minori.
Quando, nel 1970, furono emanati gli emendamenti all’American Clean Air Act (prima importante legge americana in materia di controllo dell’inquinamento atmosferico), riguardanti la riduzione del 90% dei gas di scarico emessi dagli autoveicoli, è stato stimato che le automobili immatricolate erano circa 200 milioni. Da allora il numero degli autoveicoli in circolazione è più che raddoppiato ed è previsto che raggiunga quota 800 milioni nell’anno 2010. Non è dunque sorprendente che
il problema dell’emissione dei gas di scarico degli autoveicoli, che è tra le principali cause dell’inquinamento atmosferico, abbia assunto un’importanza sempre maggiore nei paesi più industrializzati. Il pericolo derivante da tali emissioni va ricercato nella elevata tossicità di alcuni componenti della
miscela di post-combustione.
1.1 EMISSIONI INQUINANTI DA FONTI MOBILI
I principali inquinanti emessi dagli autoveicoli possono essere classificati come segue [1]:
Monossido di carbonio (CO)
E’ un gas invisibile e senza odore prodotto da una non perfetta combustione (carenza di ossigeno). Quasi il 90% delle emissioni di questo inquinante sono originate dai mezzi di trasporto. E’ un
inquinante locale la cui presenza può variare in modo molto sensibile da luogo a luogo della città a
seconda delle condizioni di traffico, di ventosità e dalla distanza dalle fonti d’emissione. Esso si combina con l’emoglobina nel sangue formando la carbossiemoglobina (COHb). Il complesso che ne
risulta è 240 volte più stabile di quello con l’ossigeno e pertanto si ha una drastica riduzione della
capacità di trasporto di ossigeno ai tessuti, che può portare alla morte.
Ossidi di azoto (NOx)
Si formano durante le reazioni di combustione ad alta temperatura, condizioni che permettono
la combinazione dell’ossigeno e dell’azoto entrambi presenti nell’aria. Essi sono prodotti per oltre il
46
47
50% dagli autoveicoli, per il 20% dall’industria e dagli impianti di riscaldamento e per quasi il 30%
dagli impianti termoelettrici. Sono inquinanti persistenti che possono essere trasportati a grandi
distanze e danneggiano, oltre alla salute umana, la vegetazione e le acque, trasformandosi in acido
nitrico nelle piogge acide.
Aumentando il rapporto aria/combustibile, si favorisce la combustione, diminuendo le emissioni di CO ed idrocarburi. La temperatura del motore sale e quindi la formazione di ossidi di azoto risulta favorita. Il contributo della reazione tra N2 e O2 diventa significativo anche a causa della maggiore disponibilità di ossigeno.
Ozono e smog fotochimico
Lo smog fotochimico è un inquinante secondario, sostanzialmente costituito da ozono, perossiacetilnitrato (PAN) e altri perossidi, che si origina per interazione tra idrocarburi, CO, ossigeno e
ossidi di azoto in presenza di un’opportuna radiazione luminosa. Il fenomeno risulta particolarmente
pronunciato nel periodo estivo e primaverile (maggiore irraggiamento solare). Il forte potere ossidante di queste sostanze le rende particolarmente irritanti per le mucose delle vie aeree e delle congiuntive, nonché estremamente aggressive verso numerosi polimeri sintetici.
Idrocarburi (HC)
Le emissioni di idrocarburi incombusti o parzialmente combusti provengono al 40% dagli autoveicoli. In questo caso sono emessi dai tubi di scarico degli automezzi, dall’evaporazione del carburante dalle vetture, dal rifornimento delle stesse e dalla produzione e distribuzione di carburante. Tra
questi destano particolare allarme gli idrocarburi aromatici (benzene) e i policiclici aromatici, di cui
è accertata la cancerogenicità.
Particolato (PM)
E’ presente negli scarichi della combustione ed è costituito da un insieme di sostanze solide e
liquide attorno ai quali sono trattenuti idrocarburi incombusti, metalli (arsenico, piombo, rame, ecc.)
e altro. La gran parte delle emissioni di questi composti è causata dalla combustione negli autoveicoli, in particolare diesel, e dagli impianti di riscaldamento. Il pulviscolo atmosferico è tanto più pericoloso quanto è minore la sua dimensione: le particelle più piccole penetrano infatti nelle basse vie
respiratorie e arrivano fino agli alveoli polmonari.
Ossidi di zolfo (SOx)
Provengono dallo zolfo contenuto nei combustibili e liberato durante la combustione. Assieme
agli ossidi di azoto sono responsabili delle piogge acide. Attualmente, le principali fonti di questo tipo
di inquinamento sono le centrali termoelettriche, le industrie e gli impianti di riscaldamento. Negli
ultimi anni, l’utilizzo crescente del metano negli impianti di riscaldamento e la riduzione del tenore
di zolfo nei combustibili per autotrazione hanno ridotto la gravità del fenomeno.
Le quantità di CO, idrocarburi e NOx emesse dagli autoveicoli dipendono da molti fattori quali
la temperatura di combustione e le condizioni di lavoro del motore. In un motore a benzina il fattore
determinante risulta essere il rapporto aria/combustibile (A/F) [1].
E’ da notare che, come illustrato in Fig. 1, in nessuna condizione di A/F le tre principali classi
di inquinanti possono essere contemporaneamente ridotte al minimo. Infatti, operando in condizioni
di miscela ricca (A/F << 14.6), la carenza di ossigeno nella miscela di combustione fa si che le emissioni di idrocarburi e di CO siano elevate. La non ottimale combustione non consente al motore di
raggiungere elevate temperature sfavorendo la reazione tra N2 e O2 dell’aria. Quest’ultima, risulta fortemente inibita anche dalla competizione con la reazione di combustione degli idrocarburi con O2 (in
difetto). Pertanto le emissioni di ossidi di azoto sono ridotte.
48
Figura 1. Emissioni inquinanti e potenza del motore in funzione del rapporto aria combustibile per un autoveicolo
a benzina.
Quando la quantità di aria presente è esattamente quella necessaria per far avvenire la completa combustione della benzina si è in condizioni di miscela stechiometrica e il rapporto in peso A/F
vale circa 14.6. Tale valore può essere calcolato considerando il n-ottano come idrocarburo rappresentativo della benzina. Si ha in questo caso che la combustione completa di una mole di n-ottano
richiede l’utilizzo di 12.5 moli di ossigeno secondo la seguente reazione:
C8H18 + 12.5 O2 + 12.5 (3.76 N2) → 8 CO2 + 9 H2O + 47 (N2)
Si parla di combustione completa in quanto essa porta selettivamente alla produzione di CO2 e
di H2O e non si formano CO o idrocarburi parzialmente ossidati (combustione parziale). Poiché l’aria contiene circa il 79 % di N2 ed il 21% di O2, bisogna considerare che durante la combustione completa del n-ottano utilizzando aria come ossidante, per ogni mole di ossigeno consumata debbono
essere introdotte nel motore anche 3.76 moli di azoto. Pertanto per una mole di n-ottano si consumano 12.5 moli di ossigeno e risultano presenti 12.5 x 3.76 (47) moli di azoto. E’ possibile quindi calcolare il valore del rapporto Aria / Combustibile in condizioni stechiometriche dal rapporto tra la
massa di n-ottano e quella di aria coinvolta nella reazione di combustione totale sopra descritta.
Considerando una mole di n-ottano:
A/F stechiometrico = (Peso molecolare C8H18) / (12.5 x Peso molecolare O2 + 47 x Peso molecolare N2) = 14.6
Operando a rapporti A/F superiori allo stechiometrico, l’eccesso di ossigeno nella miscela di
combustione, rende minime le emissioni di idrocarburi incombusti e di CO ma provoca un aumento
delle emissioni di NOx. Aumentando ulteriormente il rapporto A/F si osserva una diminuzione della
49
potenza del motore associata ad una non ottimale combustione (eccesso di comburente rispetto al
combustibile). Ciò porta ad una diminuzione della temperatura del motore e quindi ad una riduzione
delle emissioni di NOx. L’imperfetta combustione provoca però un aumento delle emissioni di idrocarburi incombusti.
Sebbene negli ultimi anni le innovazioni motoristiche e il miglior controllo del rapporto A/F nel
motore abbiano portato a significativi progressi nel campo dell’emissione e della potenza, nessuno di
essi ha permesso di rispettare le limitazioni imposte dalle leggi attuali sulle emissioni senza l’uso di
un sistema catalitico.
2. TECNOLOGIE CATALITICHE PER LA RIDUZIONE / PREVENZIONE
DELL’INQUINAMENTO ATMOSFERICO DA FONTI MOBILI
2.1 VEICOLI A BENZINA
Al fine di abbattere gli inquinanti emessi dai veicoli a benzina si utilizzano attualmente i catalizzatori a tre vie (“Three Way Catalyst”-TWC). Il nome deriva dalla possibilità di rimuovere contemporaneamente le tre principali classi di inquinanti (ossidi di azoto, monossido di carbonio ed idrocarburi). Solo per valori di A/F vicini a quello stechiometrico, il catalizzatore, promuovendo sia le reazioni di ossidazione che di riduzione, è in grado di ridurre simultaneamente le emissioni inquinanti di
CO, NO ed idrocarburi fino a circa il 98% (Fig. 2) [2].
Figura 2. Efficienza del catalizzatore a tre vie in funzione del rapporto in peso aria/combustibile (A/F).
E’ evidenziata la finestra operativa di A/F.
La legislazione corrente richiede un abbattimento degli inquinanti pari al 98% rispetto ai livelli del 1968. Da qui si intuisce la necessità di operare in condizioni di A/F rigidamente controllate in
quanto la finestra operativa di A/F in cui si hanno conversioni elevate è piuttosto stretta (Fig. 2). Per
questo motivo viene utilizzato un sistema di controllo dell’alimentazione, costituito da iniettori e da
una centralina elettronica collegata ad un sensore di ossigeno nei gas di scarico (sonda λ) (Fig. 3).
50
Figura 3. Sistema di controllo dei gas di scarico in un motore a scoppio.
La sonda λ misura in continuo la concentrazione di ossigeno nei gas di scarico e fornisce
l’informazione ad una centralina elettronica. Quando viene rilevata una carenza di ossigeno, la centralina elettronica comanda l’aggiunta di maggiore quantità di aria al motore operando sui flussimetri d’aria e sugli iniettori di benzina. In questa maniera si riesce a compensare almeno in parte le oscillazioni, attorno al valore stechiometrico del rapporto aria combustibile, che si hanno durante la guida.
Le brusche accelerate o frenate ed in generale una guida non regolare rendono estremamente difficoltoso un controllo efficace del rapporto aria/combustibile e quindi riducono notevolmente l’efficacia dei catalizzatori a tre vie.
Le seguenti reazioni possono avvenire su un catalizzatore a tre vie:
CO
HC
H2
NO
NO
HC
NO
CO
HC
3 NO
2 NO
2 N2O
2 NO
2 NH3
+
+
+
+
+
+
+
+
+
+
+
1/2 O2
O2
1/2 O2
CO
H2
NO
5/2 H2
H2O
H2O
2 NH3
H2
→
→
→
→
→
→
→
→
→
→
→
→
→
→
CO2
H2O
H2O
1/2 N2
1/2 N2
N2
NH3
CO2
CO
5/2 N2
N2O
2 N2
N2
N2
+
CO2
+
+
+
+
+
+
+
+
+
+
+
CO2
H2O
H2O
H2O
H2
H2
3 H2O
H2O
O2
O2
3 H2
+
CO2
+
CO2
Fra tutte, le uniche reazioni desiderate sono l’ossidazione di CO e idrocarburi (HC) a CO2 e
H2O e la riduzione di NO a N2. Deve essere evitata, in particolare, la formazione di ammoniaca: è
questa la ragione per cui i catalizzatori devono presentare elevata selettività.
51
Nella figura 4 è mostrata una marmitta catalitica. Il flusso di gas viene fatto passare attraverso
un monolita ceramico composto di cordierite (2 MgO·2Al2O3·5 SiO2) con una tipica struttura a nido
d’ape. Sulla superficie della cordierite è applicato un rivestimento di allumina (dello spessore di
30-50 µm) che ha la funzione di supporto del metallo nobile e ne favorisce la dispersione.
Sapendo che per una sfera il volume = 4/3π r3 si ricava che il raggio della particella in oggetto è:
Figura 4. Schema di una marmitta catalitica.
In modo schematico, in una marmitta catalitica possono essere distinti tre elementi principali:
a. Fase attiva (metalli nobili) b. Promotori c. Supporto. L’insieme di questi tre elementi viene definito “washcoat”. [2]
a. Fase attiva (metalli nobili). Il rodio è il componente principale nel controllo delle emissioni di
NOx nei catalizzatori a tre vie: è molto attivo nel promuovere selettivamente la riduzione di NOx
a N2 con minima formazione di ammoniaca; catalizza inoltre l’ossidazione di CO. La quantità di
metallo utilizzata in un convertitore catalitico varia da 0.18 a 1 grammo. La peculiare capacità del
rodio di convertire l’NO è legata alla sua struttura elettronica. L’iridio e il rutenio pur catalizzando efficacemente la riduzione di NO, non sono utilizzati in quanto formano ossidi volatili alle
temperature di lavoro. Il platino e il palladio sono invece utilizzati poiché promuovono l’ossidazione di CO e HC soprattutto a basse temperature. Le quantità utilizzate variano da 0.9 a 5 grammi
per marmitta catalitica.
b. Promotori. Tra i vari promotori/stabilizzatori di area superficiale presenti in una catalizzatore a
tre vie riveste un ruolo fondamentale l’ossido di cerio (CeO2) al quale vengono attribuite le
seguenti funzioni. [3]
•
profondamente portando alla distruzione della sua struttura porosa. Quest’ultima è di vitale
importanza per un catalizzatore eterogeneo solido. Infatti, essa impartisce al materiale un’elevata
area superficiale. La presenza di ossido di cerio impedisce che il supporto modifichi/diminuisca
con la temperatura la sua superficie. Inoltre la presenza di CeO2 sulla superficie di Al2O3 consente
di sintetizzare sul supporto particelle di metalli nobili di dimensioni nanometriche (1 nm = 10-9
m). Queste ultime, in quanto molto piccole, posseggono elevata dispersione metallica ( rapporto
percentuale tra atomi metallici di superficie e atomi metallici totali). Ciò significa che la maggior
parte del costoso metallo nobile si trova sulla superficie e che esso è accessibile ai gas che debbono essere convertiti. In assenza di ossido di cerio la dispersione che si ottiene è mediamente più
bassa, cioè si producono, in fase di sintesi del catalizzatore, cristallini metallici di dimensioni
notevoli. Questi ultimi sono caratterizzati da un basso rapporto superficie/massa e pertanto da una
minore attività catalitica (proporzionale alla superficie). Il concetto che al diminuire delle dimensioni delle particelle aumenti la superficie totale può essere facilmente compreso considerando un
esempio numerico. Si consideri ad esempio una massa M di metallo nobile (densità ρ) che viene
depositata su un opportuno supporto formando un’unica particella metallica, per semplicità di calcolo, di geometria sferica. In questo caso la particella metallica presenterà un volume V dato da :
Stabilizzazione del supporto e incremento della dispersione del metallo. L’utilizzo di ossido di
cerio consente infatti di migliorare la resistenza termica dei materiali impiegati. In particolare
l’ossido di alluminio (Al2O3) che viene utilizzato comunemente quale supporto per la fase attiva
(metalli nobili), quando viene a contatto con i gas caldi emessi dal motore può raggiungere temperature dell’ordine dei 1000-1100 °C. A tali temperature il materiale tende a deformarsi
52
L’area superficiale per una particella sferica è S = 4π r2 e pertanto:
Se invece ipotizziamo che con la stessa massa M di metallo nobile, al posto di una singola particella metallica sferica, si ottengono X particelle metalliche identiche tra loro e sempre di geometria
sferica, allora il volume di una singola particella metallica (Vi) sarà:
Dove V è il volume corrispondente alla massa M di metallo nobile calcolato prima.
Il raggio di una delle X particelle identiche tra loro è:
L’area superficiale per una delle X particelle identiche tra loro è:
L’area superficiale totale corrispondente alle X particelle metalliche è:
Pertanto si ricava che:
53
Appare evidente che, a parità di massa di metallo, all’aumentare del numero di particelle e quindi al diminuire delle loro dimensioni, aumenta la superficie complessiva. Operando ad esempio con 1
grammo di Rh (ρ = 12.41 g/cc), una singola particella sferica ha una superficie di 0.90 cm2 mentre 10
particelle metalliche hanno una superficie complessiva di 1.94 cm2, cioè 2.15 volte maggiore.
•
Capacità di immagazzinare e rilasciare ossigeno (OSC “Oxygen Storage Capacity”) rispettivamente in condizioni di miscela “magra” (eccesso di ossigeno/aria rispetto alle necessità per una
combustione stechiometrica) e di miscela “ricca”, (eccesso di combustibile rispetto alle quantità
di ossigeno presente o meglio carenza di ossigeno per effettuare una combustione completa, A/F
<14.6) grazie alla coppia redox Ce(III)/Ce(IV):
CeO2
•
Promozione della reazione di conversione del gas d’acqua (si noti che è una reazione di equilibrio):
CO + H2O
•
CeO2-x + 1/2 O2
La reazione di conversione degli inquinanti procede attraverso un meccanismo a più stadi
(Fig. 6). Il primo è costituito dalla diffusione dei reagenti (gli inquinanti) dalla fase gassosa verso la
superficie del catalizzatore. Successivamente si ha l’adsorbimento dei reagenti sui siti attivi (spesso
siti metallici superficiali). Tali siti sono costituiti da difetti superficiali o da atomi di vertice o spigolo in quanto coordinativamente insaturi, cioè in grado di legare un atomo o una molecola.
L’adsorbimento può essere di tipo dissociativo, come nel caso di NO, che per trasformarsi in N2 deve
rompere il legame tra azoto ed ossigeno, o di tipo molecolare come nel caso del CO. Le specie superficiali formatesi hanno la possibilità di diffondere sulla superficie. La ricombinazione delle specie
opportunamente attivate porta infine all’ottenimento dei prodotti (due atomi di azoto danno N2, CO
con un atomo di ossigeno forma CO2, NO con un atomo di N dà N2O ecc). Infine si ha la diffusione
dei prodotti dalla superficie verso la fase gassosa.
CO2 + H2
Promozione della reazione di “steam reforming” che porta alla conversione degli idrocarburi
incombusti presenti nei gas di scarico in anidride carbonica ed idrogeno. Quest’ultimo, può venir
positivamente utilizzato successivamente per la riduzione delle emissioni di ossidi di azoto.
HC + H2O
CO2 + H2
(HC = idrocarburo)
“steam reforming”
Il secondo punto, in particolare, è di estrema importanza tecnologica: infatti, nonostante uno
stretto controllo nell’iniezione di carburante e ossigeno, a causa delle rapide variazioni di velocità dell’autoveicolo si osservano vistose oscillazioni del rapporto A/F che superano l’ampiezza dell’intervallo di funzionamento ottimale del catalizzatore (Fig. 5). La capacità di CeO2 d’immagazzinare ossigeno consente di controllare il rapporto A/F aumentando così l’efficienza del sistema catalitico. [3]
Figura 6. Rappresentazione schematica degli stadi di un processo chimico mediato da un catalizzatore eterogeneo.
c. Supporto. I metalli nobili e i promotori sono depositati su allumina: quest’ultima è caratterizzata da un’elevata area superficiale, da una struttura porosa stabile nelle condizioni operative ed è
facilmente reperibile e di basso costo.
La situazione è in realtà molto più complessa, in quanto il supporto dei metalli nobili svolge
spesso un ruolo attivo nella conversione degli inquinanti. Infatti, l’adsorbimento dei reagenti avviene
anche sulla superficie del supporto. La elevata mobilità superficiale delle specie adsorbite consente
poi la loro migrazione sui siti attivi del catalizzatore e la attesa conversione. La reattività può avvenire in parte anche sul supporto o all’interfase metallo nobile-supporto. Per il sistema Rh/CeO2, è stato
proposto ad esempio che CO venga adsorbito sul metallo e si ossidi ad opera dell’ossigeno di CeO2,
che può migrare dalla superficie dell’ossido a quella del metallo. Sulla superficie dell’ossido rimane
una vacanza anionica, cioè un sito in cui manca un atomo di ossigeno, che è associata alla riduzione
del supporto. Il ciclo catalitico viene quindi completato dalla riossidazione ad opera di H2O della ceria
parzialmente ridotta [4]. (Fig. 7)
Anche la conversione di NO è stato dimostrato poter avvenire su sistemi contenenti Ce(III) [5].
E’ questo il caso delle soluzioni solide di ceria e zirconia utilizzate nei moderni catalizzatori a tre vie.
In questo caso è stata proposta l’esistenza di due cicli catalitici, uno attivo a bassa temperatura, mediato dal supporto ed uno ad alta temperatura, governato dalla reattività del metallo nobile (Fig. 8). Al di
sotto di 230 °C, l’NO può essere ridotto a N2O o N2 su siti di Ce(III) riossidandoli a Ce(IV). Il ruolo
54
55
Figura 5. Variazione del rapporto A/F durante il ciclo americano di prova di un veicolo a benzina catalizzato.
svolto dal metallo nobile (non necessariamente il costoso rodio) è quello di attivare l’agente riducente (CO o H2, presenti nei gas di scarico in rapporto 3 : 1) al fine di ripristinare i siti di Ce(III) e chiudere il ciclo catalitico. Al di sopra dei 230 °C, la reattività del metallo diventa predominante e le reazioni avvengono sulla sua superficie. L’esistenza di un ciclo catalitico mediato dal supporto getta le
basi per una possibile riduzione della quantità di metalli nobili presenti nelle marmitte catalitiche. La
promozione della riducibilità del Ce(IV) attraverso l’introduzione di opportuni cationi trivalenti quali
Y, La, ....all’interno di soluzioni solide di ceria e zirconia risulta di fondamentale importanza al fine
di poter eliminare la presenza di metalli nobili nelle marmitte catalitiche [5].
Sebbene negli ultimi anni siano stati fatti notevoli progressi nella ricerca di catalizzatori in
grado di minimizzare le emissioni degli autoveicoli, vi sono attualmente alcuni problemi che ancora
non sono stati risolti quali:
a. Conversioni insufficienti a basse temperature. L’efficienza di un convertitore a tre vie è strettamente legata alla temperatura di reazione; in particolare, al di sotto della temperatura di “light
off” (corrispondente al 50% di conversione), la percentuale di gas convertito diminuisce bruscamente (Fig. 9). Ciò costituisce uno dei maggiori inconvenienti nell’uso dei catalizzatori a tre vie
in quanto, durante la fase di riscaldamento (accensione dell’autoveicolo), le emissioni di gas nocivi emessi risultano elevate.
Figura 7: Meccanismo proposto per la reazione di conversione del gas d’acqua catalizzata da Rh/CeO2.
Figura 9. Tipico andamento della conversione di NO, CO ed idrocarburi su un catalizzatore a tre vie in funzione
delle temperatura.
b. Deterioramento della marmitta catalitica. Le cause della disattivazione dei catalizzatori sono
molteplici. Si possono distinguere comunque tre tipi di fattori:
Figura 8: Schema proposto per la conversione di NO su sistemi a base di metalli nobili (Rh, Pt e Pd) supportati su
ossidi a base di cerio.
Bisogna ricordare che gli inquinanti che si vogliono convertire sono presenti in concentrazioni
preoccupanti ma percentualmente basse. Infatti, i gas di scarico di un autoveicolo contengono circa
75% di N2, 10% di H2O, 13% di CO2, 2-3% CO, 0.5% NOx e 0.1% di idrocarburi. La competizione
tra le specie presenti in fase gassosa per l’adsorbimento sui siti attivi del catalizzatore risulta pertanto notevole. L’adsorbimento sui centri attivi di molecole che non necessitano trasformazioni (ad esempio H2O o CO2) può ridurre notevolmente le prestazioni del catalizzatore.
56
•
Fattori chimici: le sostanze che non vengono desorbite o che reagiscono in modo irreversibile con il catalizzatore portano alla modifica della composizione e alla perdita o al ricoprimento di siti attivi. I “veleni” più comuni sono il fosforo, presente sia nelle benzine che nell’olio lubrificante dei motori, il piombo (attualmente eliminato completamente dalla formulazione delle benzine) e il biossido di zolfo.
•
Fattori meccanici: in particolare l’attrito, dovuto alle vibrazioni e alle polveri abrasive, è in
grado di ridurre notevolmente la durata della marmitta.
•
Fattori termici: la velocità con cui viene modificata la struttura del catalizzatore (crescita dei cristalliti, sinterizzazione) aumenta con la temperatura. Questi cambiamenti strutturali possono
portare ad una diminuzione dell’area superficiale o ad una diminuzione della dispersione del
metallo. In particolare il rodio, sottoposto a temperature superiori a 550 °C, interagisce con
Al2O3 migrando all’interno della struttura del supporto, rimanendone intrappolato. Ciò porta
alla diminuzione dei siti attivi (atomi metallici superficiali) e quindi ad una minore efficienza del
convertitore. Inoltre, a lungo andare, l’esposizione del catalizzatore ad elevate temperature indu57
ce una diminuzione della capacità dell’ossido di cerio di controllare il rapporto aria/combustibile attraverso la coppia redox Ce(III)/Ce(IV) e di conseguenza, come descritto in precedenza,
ad una minore efficienza di conversione degli inquinanti. Pertanto, al fine di evitare di dover
cambiare con frequenza relativamente elevata il convertitore catalitico, risulta necessario studiare e sviluppare materiali sempre più resistenti alle elevate temperature a cui sono sottoposti.
c. Elevato costo dei metalli nobili. Il rodio è il più costoso fra tutti i metalli nobili. Inoltre, da un’attenta analisi dell’impiego dei diversi metalli si può notare che nel 1989 quasi l’80% del rodio
disponibile veniva impiegato nell’industria delle marmitte, mentre sia per il platino che per il palladio tali percentuali risultavano inferiori. Nel 2000 la percentuale di rodio utilizzata nell’industria automobilistica è stata ancora più consistente raggiungendo quota 98.3%. Vale la pena ricordare la dipendenza della comunità mondiale da poche fonti di approvvigionamento di rodio,
essenzialmente localizzate in Russia e nel Sudafrica. Scelte economiche e strategiche impongono
che la ricerca sia orientata verso lo sviluppo di catalizzatori nei quali il rodio sia sostituito da
metalli più economici. Negli ultimi tempi sono state messe in commercio delle marmitte a base
di palladio ad elevata stabilità termica. Particolare attenzione viene riservata all’eliminazione dei
metalli nobili dalla formulazione delle marmitte catalitiche anche in quanto la loro emissione nell’atmosfera incomincia a preoccupare per gli effetti neoplastici associati alla loro presenza. La
perdita di metalli nobili è di circa 10% in peso nel corso della vita totale di un autoveicolo. Le
emissioni avvengono però sotto forma di ossidi metallici, che sono relativamente inerti. Il numero elevato di autoveicoli in circolazione impone però di non sottovalutare questo aspetto. [6]
Numerosi sono stati i tentativi di sviluppo di materiali altamente reattivi, capaci di convertire gli
inquinanti dopo pochi secondi dall’accensione dell’autoveicolo, ma senza grande successo. Vanno
ricordati alcuni innovativi studi su oro supportato, certamente interessanti ma a causa della scarsa stabilità termica, poco applicativi. La soluzione attualmente adottata per aumentare l’efficacia
dei catalizzatori a tre vie è quella di posizionare la marmitta sempre più vicino al collettore di
uscita dal motore. Così facendo si favorisce il riscaldamento del catalizzatore da parte dei gas
caldi in uscita dal motore. Minimizzando il tempo necessario al raggiungimento della temperatura operativa, si riducono notevolmente le emissioni inquinanti. Tale scelta operativa sottopone
però i materiali utilizzati a notevoli sollecitazioni termiche. Variazioni repentine di temperatura e
condizioni operative che possono raggiungere e superare i 1000 °C portano ad un’estesa sinterizzazione dei normali catalizzatori. In particolare, il supporto subisce un collasso dell’area superficiale con occlusione di una buona parte della sua struttura porosa (Fig. 10). Questo comporta l’inglobamento di una frazione significativa di metalli nobili, all’interno del supporto, con conseguente riduzione dei siti catalitici esposti e quindi una diminuzione di attività catalitica. Inoltre,
l’esposizione ad elevate temperature comporta una diminuzione della superficie della stessa fase
attiva, con accrescimento dei cristalliti metallici (Fig. 10). Tutto ciò ha come risultato una riduzione della superficie esposta e quindi attiva dei metalli nobili.
La ricerca si è diretta negli ultimi anni allo sviluppo di materiali ad elevata resistenza termica,
come ad esempio le soluzioni solide a base di ceria e zirconia. Queste ultime, se opportunamente sintetizzate, hanno dimostrato di possedere area superficiale elevata e stabile. Inoltre, sono
dotate di eccellente capacità di immagazzinamento e rilascio di ossigeno, proprietà fondamentale per consentire un efficiente controllo chimico del rapporto aria/combustibile. [7]
58
Figura 10: Rappresentazione schematica della sinterizzazione che subisce un catalizzatore eterogeneo a seguito di un
trattamento termico ad elevata temperatura.
Le soluzioni solide di ceria e zirconia si sono dimostrate utili anche al fine di prevenire la sinterizzazione della fase metallica e quindi la disattivazione del sistema. Il loro utilizzo in vicinanza del
collettore del motore non risulta pertanto problematico. La loro efficienza come tamponi di ossigeno
e la capacità di catalizzare reazioni di conversione di inquinanti (reazione di conversione del gas d’acqua, reazioni di ossidazione, decomposizione di NO) ha consentito di migliorare notevolmente le prestazioni dei catalizzatori a tre vie.
2.2 MOTORI DIESEL E A COMBUSTIONE MAGRA
La maggiore efficienza di combustione dei motori diesel e a combustione magra rispetto a quella dei tradizionali veicoli a benzina ne ha decretato in Europa una buona popolarità [2]. Il mercato,
influenzato da altri fattori quali incentivi fiscali o scelte politiche, ha subito negli ultimi anni forti
oscillazioni nelle vendite. Tali autoveicoli operano in condizioni fortemente ossidanti, consentendo un
risparmio energetico che può variare, a seconda dell’ingegneria del motore, dal 15 al 20 %. L’elevato
contenuto di ossigeno della miscela si traduce in una combustione a più bassa temperatura e con
minori emissioni di NOx, CO e HC rispetto ai motori a benzina non catalizzati.
Nel caso dei motori diesel, il combustibile e l’aria vengono compressi notevolmente fino a che
non raggiungono la temperatura di combustione [2]. Nei motori diesel di vecchia generazione le condizioni operative del motore portano alla formazione di notevoli quantità di particolato. Infatti, l’iniezione del carburante nella camera di combustione avviene sottoforma di gocce piuttosto grandi,
una significativa parte delle quali finisce sulle pareti dei cilindri. Tali gocce di combustibile non riescono a venire in contatto con una sufficiente quantità di ossigeno e pertanto non bruciano completamente ma tendono a trasformarsi in piccole particelle solide di tipo carbonioso. I moderni motori diesel garantiscono invece una migliore ed omogenea distribuzione del carburante nella camera di combustione. In questo caso, si ottengono microscopiche goccioline di carburante, che in presenza di un
forte eccesso di ossigeno, danno luogo ad una completa combustione, riducendo notevolmente la formazione di particolato. Ciononostante, si ha comunque una certa emissione di particolato, principalmente sotto forma di particelle molto piccole. Va osservato che anche i motori a combustione interna
alimentati a benzina, nonostante una ottimale omogeneità della miscela gassosa, possono generare
particolato. La mancanza di un eccesso di ossigeno, aumenta tale probabilità. Nel caso dei motori a
59
benzina però le condizioni operative, specialmente le alte temperature dei gas di scarico, portano alla
auto-combustione del particolato. Le temperature dei gas di scarico di un motore diesel sono invece
notevolmente più basse e non consentono quindi alle particelle carboniose di reagire con l’ossigeno.
Il particolato è costituito da carbone sul quale sono trattenuti idrocarburi incombusti, composti
dello zolfo, metalli (arsenico, piombo, rame, ecc.) ed altro. Esso è tanto più pericoloso quanto minore è la sua dimensione. Le particelle più piccole penetrano infatti nelle basse vie respiratorie e arrivano fino agli alveoli polmonari, trasportandovi le sostanze tossiche di cui sono costituite.
L’utilizzo di filtri per il particolato è stato attentamente studiato. Le specifiche di tali sistemi
sono particolarmente restrittive: elevato grado di separazione soprattutto per le particelle più fini, flessibilità rispetto ai cambi di temperatura, scarsi effetti di caduta di pressione (il rapido intasamento del
filtro provoca una riduzione del flusso gassoso in uscita e quindi una esponenziale riduzione delle prestazioni del motore), lunga durata e bassi costi. Sono stati sviluppati monoliti ceramici come quelli
riportati in Fig. 11. I gas di scarico sono forzati ad attraversare il monolita ceramico poroso. Il particolato viene efficacemente trattenuto: la frazione con dimensioni superiori a quelle dei pori del monolita viene completamente trattenuta, assieme ad una parte delle particelle più fini che comunque,
urtando le pareti del filtro, restano trattenute.
Sono stati progettati filtri metallici, che nonostante il maggior peso rispetto a quelli ceramici,
presentano l’indubbio vantaggio di una maggiore conducibilità termica. Quest’ultimo aspetto è particolarmente interessante in vista della necessità di rigenerare i filtri per motori diesel. In generale infatti, già dopo poche ore si deposita sul filtro una quantità di particolato tale da raggiungere la massima
caduta di pressione sostenibile dal motore. Pertanto, risulta necessario eliminare, attraverso processi
di combustione, il particolato accumulatosi.
ne deriva porta alla completa ossidazione del materiale carbonioso accumulato. Anche in questo caso
la rigenerazione penalizza però le prestazioni complessive dell’autoveicolo.
Grande attenzione è rivolta allo studio di filtri catalitici con la speranza che la presenza di un
catalizzatore porti a un notevole abbassamento della temperatura di combustione del particolato. Ciò
consentirebbe almeno una parziale rigenerazione attiva, cioè durante il normale funzionamento dell’autoveicolo. Allungando quindi i tempi necessari per l’intasamento del filtro stesso, sarebbero
richiesti meno frequenti intervalli di riscaldamento (rigenerazione passiva) e quindi una maggiore
efficienza dell’autoveicolo. Le principali problematiche connesse con questo tipo di sistemi sono
costituite dall’ottimizzazione della superficie di contatto tra particolato (dimensioni macroscopiche)
e siti attivi del catalizzatore (dimensioni nanometriche o subnanometriche).
Figura 12 Sistema di rigenerazione di filtri diesel tramite iniezioni di carburante.
Figura 11. Schema di funzionamento di un monolita ceramico utilizzato come filtro per il particolato diesel.
Il particolato innesca la sua autocombustione al di sopra dei 550°C, temperature raramente raggiungibili dai gas di scarico dei motori diesel. Risulta quindi necessario avere a disposizione un sistema ausiliario che consenta la rigenerazione del filtro. Poco utilizzata è la rigenerazione esterna all’autoveicolo, in quanto richiede l’utilizzo di filtri facilmente rimovibili (attraverso opportune connessioni meccaniche) e sostituibili. La frequenza dei cambi richiesti rende questa tecnologia estremamente
impopolare. Viene utilizzato, in alcuni sistemi, il riscaldamento elettrico del filtro al fine di consentire il raggiungimento delle temperature alle quali si ha la combustione del particolato. Non risulta però
conveniente tentare di riscaldare costantemente il filtro. Infatti, l’elevato flusso gassoso, che dissipa
calore, imporrebbe l’utilizzo di una potenza superiore a quella mediamente erogabile dall’autoveicolo. Anche la rigenerazione periodica di alcuni dei filtri, mentre altri sono operativi, è piuttosto dispendiosa, sia in termini energetici che temporali. In questo caso però, isolando i filtri da rigenerare si riduce la dissipazione di calore. Il riscaldamento e quindi la rigenerazione dei filtri può avvenire sfruttando l’aggiunta diretta di piccole aliquote di carburante sul monolita (Fig. 12). La combustione che
60
Infine vengono studiati additivi (ossidi a base di cerio) da miscelare con il carburante al fine di
favorire poi la combustione del particolato. L’emissione di tali sostanze nell’atmosfera deve essere
però attentamente monitorata, per evitare lo spostamento del problema da un inquinamento da particolato carbonioso ad uno dovuto alla presenza di nanopolveri ossidiche.
La rimozione delle emissioni di CO ed idrocarburi dai gas di scarico degli autoveicoli a combustione magra e diesel risulta relativamente semplice in quanto le condizioni fortemente ossidanti
consentono l’utilizzo di normali catalizzatori di ossidazione a base di Pt o Pd. Difficoltosa risulta invece la riduzione degli ossidi di azoto. Lo studio di sistemi zeolitici per la decomposizione diretta di NO
ad N2 e O2 non ha portato ad alcun risultato pratico in quanto l’eccesso di O2 inibisce completamente tale reazione. Gli stessi sistemi sono stati utilizzati per catalizzare la riduzione di NO ad opera di
agenti riducenti quali gli idrocarburi (HC). Questi ultimi sono già presenti nei gas di scarico, come
frazione di combustibile non combusto e in parte possono essere addizionati prima del sistema catalitico. La reazione desiderata è:
NO + HC → N2 + CO2 + H2O
Tale reazione deve però competere con l’ossidazione diretta degli idrocarburi ad opera dell’ossigeno, secondo:
HC + O2 → CO2 + H2O.
61
Le zeoliti (alluminosilicati) utilizzate hanno dimostrato una scarsa stabilità termica specialmente in
presenza di acqua, dando luogo a fenomeni di dealluminazione e di collasso strutturale. Tali sistemi non
hanno trovato applicazione sugli autoveicoli, ma sono efficientemente impiegati quali catalizzatori di rimozione degli ossidi di azoto su impianti stazionari dove le condizioni operative sono meno drastiche [8].
Più stabili, e quindi potenzialmente applicabili, sono i sistemi a base di metalli nobili supportati su ossidi. Grande interesse ha suscitato Pt/Al2O3 che però ha dimostrato di possedere un’attività
catalitica non elevata e in un intervallo di temperatura stretto. Infatti al di sotto dei 200°C non si osserva generalmente alcuna conversione mentre a temperature superiori a 300-350°C le reazioni prevalenti sono quelle di combustione diretta dell’idrocarburo con ossigeno e l’ossidazione di NO a NO2
su siti di Pt. Aumentando la carica di metallo nobile o operando sull’agente riducente è possibile spostare la reattività a temperature più basse. I risultati ottenuti si sono dimostrati in ogni modo insufficienti al fine di realizzare un sistema catalitico applicabile [9].
Un interessante approccio al problema della riduzione di NO in presenza di ossigeno è quello
che vede l’utilizzo dell’argento quale catalizzatore. La scelta di tale metallo si basa sulla sua ridotta
propensione a catalizzare reazioni di ossidazione (certamente inferiore ai metalli nobili sinora studiati ed, in particolare, rispetto al Pt). Pertanto la reazione di combustione diretta tra gli idrocarburi e
l’ossigeno viene inibita e quindi una elevata frazione di agente riducente (già presente nei gas di scarico o addizionato al bisogno) è a disposizione per la reazione con NO. Modificando la natura del supporto utilizzato per disperdere la fase metallica (Ag depositato su Al2O3 o ZrO2 o CeO2-ZrO2) e la
metodica di sintesi del catalizzatore è possibile modificare sia la reattività del sistema (attività e selettività a N2 e N2O) sia la dimensione dei cristalliti metallici. Non è ancora chiaro se il diverso comportamento chimico dei sistemi a base di argento sia legato alla diversa natura del supporto o alla
diversa reattività dei cluster metallici di dimensione e forma differenti. I risultati preliminari ottenuti
sono interessanti e promettenti, ma sono ancora lontani da una possibile applicazione pratica [10].
Un nuovo e per alcuni aspetti rivoluzionario approccio è quello sviluppato dalla Toyota. Esso è
basato sulla presa d’atto della lunga serie di insuccessi ottenuti dalla comunità scientifica nel tentativo di sviluppare un catalizzatore in grado di effettuare una efficiente riduzione degli ossidi di azoto
in condizioni nettamente ossidanti.
sente sulla superficie del supporto a base di allumina. Durante tale reazione si libera della CO2. Una
volta saturata la capacità di immagazzinamento del sistema, si opera opportunamente sulle condizione
di alimentazione del motore, che passano da nettamente ossidanti a leggermente riducenti (in particolare, viene ridotto il flusso di aria agli iniettori). In tali condizioni si ha la decomposizione del nitrato di
bario, il desorbimento di NO seguito da una sua reazione su siti di Rh con gli agenti riducenti presenti
(CO ed idrocarburi) e la sua conversione ad azoto. In questa maniera lo stadio riduttivo avviene senza la
presenza inibente dell’ossigeno. Si ha quindi il ripristino del carbonato di bario e della capacità di immagazzinamento di NO. L’alternanza di cicli ossidanti (periodi lunghi) e riducenti (brevi periodi di rigenerazione) non pregiudica il buon funzionamento del motore e le elevate prestazioni. Unica limitazione del
sistema è la sua scarsa resistenza alla disattivazione da zolfo. Infatti la presenza di zolfo, anche a livelli
di poche decine di parti per milione, porta ad una rapido deterioramento delle prestazioni. Attualmente,
esso è adottato in Giappone dove il tasso di zolfo presente nei combustibili è estremamente basso. La
prevista riduzione del contenuto di zolfo nei combustibili europei (50 ppm circa nel 2005 e 10 ppm nel
2009) aprirà anche in Europa nuove potenzialità applicative di questo promettente sistema.
2.3 VEICOLI AD IDROGENO
I problemi connessi con il rispetto dell’ambiente e della qualità della vita, ed in particolare nella
lotta alle emissioni atmosferiche dovute alla trazione, principalmente nell’ambito urbano, hanno dato
vita negli ultimi anni ad una serie di ricerche per la creazione di veicoli ad impatto ambientale basso
(LEV - Low Emission Vehicles) o nullo (ZEV - Zero Emission Vehicles). Tra questi sicuramente uno dei
più interessanti è quello che vede l’utilizzo combinato dell’idrogeno e delle celle a combustibile (“fuel
cells”). Nella cella a combustibile l’energia chimica liberata viene direttamente trasformata in energia
elettrica, utilizzata per alimentare il motore elettrico impiegato per muovere il veicolo. In generale una
cella a combustibile sfrutta la possibilità di far avvenire una reazione elettrochimica in maniera controllata, separando le due semireazioni in comparti diversi: il flusso degli elettroni dall’anodo al catodo consente il loro utilizzo per generare potenza elettrica [11]. Per chiudere il circuito elettrico è necessario
avere un elettrolita che assicuri l’elettroneutralità dei due elettrodi. Il combustibile maggiormente impiegato è l’idrogeno, che all’anodo viene ossidato ad H2O liberando elettroni. Al catodo gli elettroni vengono impiegati per la riduzione di O2. A seconda dell’applicazione può venire utilizzato l’ossigeno
atmosferico oppure O2 puro. Il funzionamento di una cella a combustibile è schematizzato in Fig. 14.
Impiegando questa tecnologia le emissioni sono costituite soltanto da vapore d’acqua.
Figura. 13. Schema di funzionamento del sistema sviluppato dalla “Toyota” per l’accumulo e la successiva
conversione degli ossidi di azoto emessi da motori operanti in condizioni ossidanti.
Partendo dalla ipotesi di impossibilità di realizzare tale catalizzatore, è stato sviluppato un materiale multicomponente in grado di immagazzinare NO durante le normali condizioni operative (Fig. 13).
Il sistema è costituito da Pt che, in presenza di ossigeno, consente l’ossidazione di NO ad NO2.
Quest’ultimo viene efficacemente adsorbito dal sistema per interazione con il carbonato di bario pre62
Figura 14: Rappresentazione schematica del funzionamento di una cella a combustibile.
63
Il principale problema legato all’utilizzo su larga scala di autoveicoli ad idrogeno è rappresentato dalla natura gassosa del combustibile, che richiederebbe nuovi sistemi di accumulo del carburante a
bordo dell’autoveicolo. Mentre l’utilizzo di bombole contenenti idrogeno compresso ad alte pressioni
può essere considerato per gli autobus cittadini, non sembra essere applicabile su larga scala sugli autoveicoli privati (ingombro e peso del “serbatoio” di idrogeno, motivi di sicurezza…). Inoltre, mentre il
rifornimento centralizzato dell’idrogeno per i mezzi pubblici è di realizzazione relativamente facile, la
costituzione di una rete di distribuzione di idrogeno per le automobili private risulterebbe complessa e
costosa. La soluzione individuata in questo caso dovrebbe essere basata sulla produzione a bordo dell’idrogeno necessario a far funzionare l’automobile. Questo può essere ottenuto mediante opportuni
convertitori catalitici (“steam reformers”) alimentati a benzina, (bio)-diesel o a metano. In tale modo
sarebbe possibile utilizzare la normale rete di distribuzione dei carburanti attuali.
Il problema da risolvere, in questo caso, è lo sviluppo di reattori catalitici per la reazione di
“steam reforming” (HC + H2O = H2 + CO2) efficienti, operanti a basse temperature, compatti e di
facile manutenzione, adatti ad essere montati su una automobile.
Le celle a combustibile operanti a bassa temperatura attualmente in commercio richiedono che
la miscela gassosa in ingresso sia priva di CO. La presenza di quest’ultimo, abbassa notevolmente le
prestazioni del sistema. Infatti, CO si adsorbe più fortemente di H2 sulla superficie dell’anodo costituito da Pt supportato (solitamente su carbone poroso oppure su un materiale polimerico, PTFE PoliTetraFluoroEtilene), riducendo la superficie attiva dell’elettrodo. La quantità di CO presente nel
gas di alimentazione alla cella a combustibile può essere notevolmente ridotta attraverso le reazioni
di conversione del gas d’acqua (comunemente abbreviato con WGSR dall’inglese Water Gas Shift
Reaction) e successivamente di ossidazione preferenziale del CO (comunemente abbreviato con
PROX dall’inglese PReferential OXidation) ancora residuo. La produzione di H2 a bordo degli autoveicoli richiede quindi una serie di apparecchiature, schematizzate in Fig. 15.
Permane comunque il problema di individuare un sistema efficiente di stoccaggio dell’idrogeno sull’autoveicolo, che consenta il funzionamento dello stesso durante la fase di accensione e per
garantire un’alimentazione costante del motore durante le sollecitazioni più onerose.
Nonostante gli sforzi della ricerca scientifica rivolti all’identificazione di materiali adatti ad
immagazzinare idrogeno, nessun sistema attualmente disponibile presenta le caratteristiche necessarie per l’applicazione su larga scala negli autoveicoli. In particolare, gli idruri metallici, che sono utilizzati ad esempio nei sottomarini, non possono essere impiegati in questo caso per il loro elevato
peso. Anche i materiali a base di nanotubi di carbonio (una delle forme allotropiche del carbonio, Fig.
16), che per le eccezionali prestazioni e per il basso peso avevano suscitato grandi speranze, si sono
dimostrati, ad una più attenta analisi, molto meno interessanti del previsto.
Figura 16 : Rappresentazione schematiche delle forme allotropiche del carbonio.
A lungo termine la produzione di idrogeno verrà basata sull’utilizzo di sorgenti di energia rinnovabili. L’unica sorgente disponibile senza limitazioni per soddisfare il fabbisogno energetico è la
luce solare. La miglior soluzione per produrre energia pulita consisterebbe perciò nel produrre idrogeno come carburante utilizzando soltanto la luce solare per dissociare acqua nelle sue componenti.
Questo processo di fotoelettrolisi dell’acqua necessita di due passi successivi: produrre in un materiale semiconduttore elettricità dalla luce solare ed utilizzarla per produrre idrogeno ed ossigeno. Il
processo in parte viene già utilizzato – ci sono vari prototipi di laboratorio che raggiungono una efficienza complessiva fino a 18 % - ma si è ancora lontani da poterlo utilizzare commercialmente: il
processo finora non è abbastanza efficiente e la produzione del sistema fotoelettrolitico troppo costosa. Chi partecipa allo sviluppo di soluzioni applicabili a basso costo e su grande scala avrà quindi in
mano una key technology del prossimo futuro.
3. CONCLUSIONI
Figura 15 : rappresentazione schematica delle tecnologie necessarie a far funzionare un autoveicolo che sfrutta
l’energia elettrica prodotta da una cella a combustibile alimentata ad idrogeno prodotto a bordo a partire da un
combustibile tradizionale quale la benzina.
64
Attualmente la tecnologia più efficace per ridurre le emissioni inquinanti degli autoveicoli è
costituita dai catalizzatori a tre vie per motori a benzina. Permangono problemi connessi con le significative emissioni all’accensione (motore e marmitta freddi) e legati alla disattivazione.
L’ottimizzazione sia in termini di attività a bassa temperatura che di resistenza alla disattivazione sta
dando buoni risultati e certamente consentirà di rispettare le più restrittive normative legislative in
materia ambientale che entreranno in vigore nel 2005. Rimangono perplessità sugli effetti dannosi
sulla salute umana che si possono avere a causa del rilascio nell’atmosfera dei metalli nobili dalle
65
attuali marmitte. Anche in assenza di dati certi su tali effetti, sono in progettazione nuovi catalizzatori a tre vie privi di metalli nobili.
Le tecnologie sviluppate negli ultimi anni per l’abbattimento degli inquinanti emessi dai veicoli diesel si sono dimostrate efficaci, ma non ancora del tutto soddisfacenti. Ad esempio, a fronte
di una notevole riduzione percentuale delle emissioni di particolato (grazie a motori di nuova concezione e all’utilizzo di filtri catalitici), si è ancora in presenza di rilascio nell’atmosfera di una inaccettabile quantità di particelle fini, le più pericolose.
La soluzione ideale per l’eliminazione delle emissioni inquinanti da fonti mobili è rappresentata dall’utilizzo dell’idrogeno per alimentare celle a combustibile. Permangono però ancora numerosi problemi tecnologici prima di una applicazione su larga scala, quali la produzione e lo stoccaggio a bordo dell’idrogeno. Sarà estremamente importante un intervento legislativo a sostegno della
ricerca in tale direzione, come pure l’introduzione di incentivi fiscali per le case costruttrici al fine
di rendere economicamente conveniente puntare in questa direzione. Le realizzazioni pratiche non
sono attese però prima di 5/10 anni.
Ringraziamenti: desidero ringraziare per le utili discussioni e la collaborazione il Prof. M.
Graziani, il Prof. J. Kašpar, il Dr. G. Balducci, il Dr. N. Hickey e il Dr. D. Montini.
BIBLIOGRAFIA
1. Pollution, Causes, Effects and Control, Editore Roy M. Harrison, The Royal Society of
Chemistry, Cambridge, 1996
2. R.M. HECH, R.J. FERRAUTO, Catalytic Air Pollution Control, Commercial Technology, Van
Nostrand Reinhold, New York, 1995.
3. J. KAŠPAR, M. GRAZIANI, P. FORNASIERO, Ceria-containing three way catalysts., in Handbook on
the physics and chemistry of rare earths: the role of rare earths in catalysis”, K.A.JR.
GSCHNEIDNER and L. EYRING EDS., ELSEVIER B.V., Amsterdam, 2000 vol. 29, pp. 159-267.
4. G. S. ZAFFIRIS, R.J. GORTE, Evidence for a second CO oxidation mechanism on Rh ceria,
J.Catal, 1993, 143, 86.
5. J. KAŠPAR, P. FORNASIERO, M. GRAZIANI, Use of CeO2-based oxides in the three way catalysis.,
Cat.Today 1999, 50 285.
6. Anthropogenic Platinum-Group Element Emissions, their Impact on Man and Environment,
Zereini Fathi e Alt Friedrich Editori, Springer, Berlin, 1999.
7. R. DI MONTE, P. FORNASIERO, J. KAŠPAR, P. RUMORI, G. GUBITOSA, M. GRAZIANI,
Pd/Ce0.6Zr0.4O2/Al2O3 as advanced materials for three-way catalysts. Part 1. Catalyst characterisation, thermal stability and catalytic activity in the reduction of NO by CO., Appl.Catal.B:
Environmental, 2000, 24, 157.
8. MISONO MAKOTO, Catalytic reduction of nitrogen oxides by bifunctional catalysts, Cattech,
1998, 3, 53.
9. A. FRITZ, V. PITCHON, The current state of research on automotive lean NOx catalysis, Appl.
Catal.B: Environm. 1997, 13, 1.
10. N. HICKEY, P. FORNASIERO, J. KAŠPAR, M. GRAZIANI, G. MARTRA, S. COLUCCIA, S. BIELLA,
L. PRATI, M. ROSSI, Remarkable improvement of SOx-resistance of silver lean-DeNOx catalysts
by supporting on a CeO2-containing zirconia, J.Catal., 2002, 209, 271.
11. K.KORDESCH, G. SIMADER, Fuel Cells and -Their Apllications, VCH, Ney York, 1996.
66
METODI ENERGETICI ALTERNATIVI
ANTONINO CORSARO
1. INTRODUZIONE
La conduzione di una trasformazione chimica richiede, molto spesso, l’ausilio di una fonte
energetica esterna.
Tradizionalmente, la più comune sorgente energetica usata è il calore, considerato come radiazione esterna che fornisce al sistema l’appropriata energia per fare avvenire la reazione. Nel caso dei
composti organici, la temperatura di reazione non può raggiungere valori molto elevati perché può dar
luogo ad estese decomposizioni. Queste comportano tutta una serie di conseguenze che rendono la
trasformazione chimica non ecologicamente compatibile. In qualche caso può essere usata la tecnica
della “flash vacuum thermolysis” che consiste nel riscaldare i reagenti ad alta temperatura per tempi
brevissimi e quindi raffreddare i prodotti immediatamente fuori della zona riscaldata di modo che sia
minimizzata la degradazione non desiderata dei reagenti e, più importante, quella dei prodotti.
Saranno trattati pertanto quei sistemi alternativi al calore che rendono le trasformazioni chimiche compatibili con l’ambiente e saranno prese in considerazione, come sorgenti energetiche esterne,
le insolite radiazioni elettromagnetiche. Sarà data enfasi agli aspetti pratici che sono molto utili dal
punto di vista della “Green Chemistry” e brevemente saranno forniti i concetti sulla natura delle radiazioni e sulle conseguenze che le radiazioni determinano sulle sostanze in cui vengono applicate in
modo che si possa prevedere quale è il tipo di tecnica più efficiente. Saranno trattate anche, in qualche misura, la disponibilità e la manualità delle apparecchiature in modo da privilegiare quei sistemi
energetici che richiedono apparecchiature meno complicate e meno costose.
Principalmente, saranno prese in considerazione le onde acustiche, responsabili di notevoli
incrementi nella reattività chimica delle sostanze grazie allo sviluppo della loro tecnologia, e saranno quindi trattate brevemente anche le reazioni indotte con metodi elettrochimici e con le radioonde,
la cui scarica comporta la formazione del plasma. Delle micro-onde, oggi diffusissime come sorgenti di calore, anche nelle cucine delle civili abitazioni, saranno dati solo alcuni cenni perché le microonde sono trattate in modo più esteso in un apposito capitolo di questo testo.
2. METODO AGLI ULTRASUONI [1-8]
L’interesse verso gli ultrasuoni è indubbiamente dovuto alla attuale disponibilità delle apparecchiature commerciali. Accanto all’impiego nella pulizia dei materiali di vetro e nella dispersione
di solventi organici in detergenti acquosi, le onde acustiche sono utilizzate anche per incrementare la
reattività chimica delle sostanze.
2. 1 NATURA ED EFFETTO DELLA RADIAZIONE.
Con il termine ultrasuoni vengono indicate le onde elastiche, cioè le onde che utilizzano un
mezzo materiale per propagarsi, con una frequenza elevata superiore a 20 KHz. A causa della loro alta
67
frequenza e quindi bassa lunghezza d’onda si propagano con modalità e condizioni simili ai fasci
luminosi. Gli ultrasuoni hanno un’ottima propagazione nei mezzi solidi o nei liquidi e una cattiva propagazione nei gas (aria) e pertanto non sono udibili dall’orecchio umano. Questo infatti riesce a percepire le frequenze comprese tra i 30 Hz ed i 20 KHz. Il limite superiore di frequenza degli ultrasuoni è di circa 109 Hz. Alcuni animali, come cani e delfini, hanno una maggiore sensibilità verso le alte
frequenze (fino a 25 kHz) e quindi riescono a percepire onde sonore utilizzandole come mezzo di
comunicazione.
Gli ultrasuoni usati in chimica sono compresi fra 20 e 100 kHz, perchè a queste frequenze essi
forniscono una forma di energia non convenzionale che si manifesta attraverso “bolle di cavitazione”.
L’origine delle bolle di cavitazione nasce dalla interazione degli ultrasuoni con i liquidi, che produce
delle cavità a causa della rottura della struttura dei liquidi. Le cavità sono instabili ed implodendo
generano elevate pressioni e temperature che attivano il processo chimico. È stato stimato che la temperatura nelle cavità raggiunge diverse migliaia di gradi e la pressione diverse centinaia di pascal.
Le radiazioni acustiche intense sono capaci di scindere l’acqua in radicali idrogeno ed ossidrile e similmente gli alcani, gli aromatici e gli alcoli sono scissi in radicali, la cui produzione, comunque, in condizioni controllate è minimizzata e pertanto questi radicali non interferiscono nei processi
sintetici. L’impiego di ultrasuoni intensi, comunque, coinvolge anche la sicurezza degli operatori, perché le molecole di nucleosidi, zuccheri, e DNA sono instabili sotto l’azione della sonicazione ed
attualmente sono in corso di esame i loro effetti connessi con il loro continuo uso per valutare i rischi
diagnostici e terapeutici.
2.2 SOLVENTI E MEZZI DI REAZIONE.
Il solvente gioca un ruolo importante negli esperimenti di sonicazione perché rappresenta il trasportatore di energia. Il massimo trasferimento di energia ai reagenti dipende chiaramente dalle proprietà fisiche del solvente, i cui parametri cruciali sono la viscosità e la tensione superficiale. In modo
intuitivo l’aumento di viscosità comporta implosioni più violente delle cavità e pertanto è benefico.
Viceversa un aumento della tensione superficiale è pregiudizievole a causa della più alta volatilità del
solvente. A causa della stretta correlazione di queste due parametri con la temperatura, anche quest’ultima gioca un ruolo importante nella sonicazione. Il massimo effetto è stato osservato per valori
bassi di temperatura a causa dell’aumento della viscosità del solvente.
Gli ulteriori effetti si possono così raggruppare:
1) si produce emulsificazione nei sistemi eterogenei a causa della cavitazione nell’interfaccia dei due
liquidi e pertanto si prevede un maggiore effetto;
2) sono molto efficaci i sistemi bifasici solido-liquido, in cui l’attivazione è dovuta alle implosioni
delle cavità vicino la superficie solida o vicino l’interfaccia solido-liquido che aiuta il mescolamento dei reagenti nella zona critica, a parte la pulizia della superficie stessa;
3) il sistema solido-liquido è quello ideale perché la possibilità di cavità è massima;
4) il sistema gas-liquido (o solido) non viene preso in considerazione di solito perché l’effetto della
sonicazione sarebbe il degassaggio della soluzione;
5) la sonicazione non sostituisce completamente l’agitazione.
68
2.3 APPARECCHIATURE.
Comunemente, per irraggiare con gli ultrasuoni le reazioni organiche si utilizzano i normali
bagni di pulizia (Figura 1). Alternativamente, gli apparecchi possono assumere disegni diversi a
secondo delle applicazioni sintetiche. In genere, comunque, l’introduzione di una sonda nella miscela di reazione è il modo più efficace per irradiare con onde acustiche una trasformazione chimica, sebbene esista associato un certo numero di problemi. Apparecchiature particolari sono usate per applicazioni su larga scala.
Normalmente, l’apparecchiatura sarà determinata dal tipo di processo impiegato, che a sua
volta sarà governato dalla intensità di sonicazione richiesta.
Figura 1. Bagno di pulitura tramite ultrasuoni
3. METODI ELETTROCHIMICI [9,10]
La chimica elettroorganica è oggi uno dei più promettenti mezzi per la sintesi organica.
Attualmente i procedimenti elettrochimici rappresentano passaggi chiave nei diversi protocolli sintetici che portano a preparazioni di laboratorio e/o industriali di composti chimici commerciali.
Particolare interesse è stato rivolto all’elettrochimica dei gruppi funzionali, dei composti biologicamente attivi, e dei composti eterociclici. Specifica attenzione è stata rivolta al comportamento ossidativo del pirrolo, dell’indolo e dei carbazoli, alla formazione anodica e catodica del legame carbonio-carbonio. Anche l’applicazione dei metodi elettrochimici nel campo degli steroidi, del poliene e
dei caroteni, all’interconversione degli antibiotici β-lattamici ha attratto i chimici organici.
Saranno trattati brevemente i concetti di base della chimica elettroorganica, e la classificazione
delle reazioni più rilevanti.
3. 1 CONCETTI DI BASE.
La reattività chimica si ha per trasferimento di un elettrone fra la superficie dell’elettrodo e la
specie chimica in soluzione. A questo modo, un reagente, in genere disciolto in un appropriato solvente organico a cui è addizionato un sale, chiamato “elettrolita di supporto” per aumentare la conducibilità del sistema, è convertito in un intermedio reattivo (Schema 1) che successivamente si trasforma in prodotti attraverso una sequenza di stadi chimici o elettrochimici.
Schema 1. Tipologie di specie reattive generate da trasferimento di elettroni con elettrodi.
Una caratteristica interessante dei processi elettrochimici è data dalla facilità con cui possono
essere effettuate ossidazioni e riduzioni, altrimenti difficilissime, scegliendo l’idoneo potenziale elettrodico. La Figura 2 mostra il range di potenziali di ossidazione e riduzione di alcuni fra i più importanti composti organici ed i potenziali standard di alcuni comuni reagenti redox.
Inoltre occorre ricordare altri due aspetti degni di nota:
1) l’elettrochimica, specialmente quella industriale, è un ovvio candidato a sostituire quei processi
che portano a grandi volumi di effluenti contenenti ioni di metalli pesanti, come per esempio le
riduzioni con polvere di ferro o di zinco, o le ossidazioni con permanganato o bicromato;
2) l’attivazione elettrochimica permette di ottenere una buona selettività in molti substrati inerti a
temperatura ambiente, come per esempio, l’elettroossidazione degli idrocarburi alifatici contenti
legami C-H allilici o terziari inerti.
La caratteristica più interessante di molte reazioni elettroorganiche consiste nell’attivazione di
un composto attraverso il trasferimento elettronico da o verso l’elettrodo con la conseguente inversione di polarità di uno dei reagenti, che non è facilmente ottenibile nelle comuni reazioni organiche.
Normalmente, il tipo di intermedi generati alla superficie di un elettrodo sono gli stessi di
quelli incontrati nella comune chimica e cioè anioni e cationi radicali, carbocationi, radicali, e carbanioni. Pertanto, è possibile predire il comportamento di tali specie reattive, una volta noto il loro
normale comportamento chimico. Esistono, comunque, delle differenze comportamentali derivanti
principalmente dal fatto che tali intermedi si formano vicino ad una superficie elettrodica, dove possono o non possono essere assorbiti, e dove possono convertirsi in prodotti nell’ambito di uno strato di reazione molto vicino all’elettrodo (doppio strato elettrico). A causa della presenza di un forte
campo elettrico o di differenti proprietà di assorbimento delle varie specie in soluzione, la struttura
e la composizione del doppio strato elettrico può risultare completamente differente da quella della
normale soluzione e, pertanto, la distribuzione dei prodotti di reazione delle specie elettrochimicamente generate può risultare anch’essa diversa da quella aspettata sulla base delle conoscenze di chimica in soluzione.
3. 2 CLASSIFICAZIONE DELLE REAZIONI PIÙ IMPORTANTI [11,12]
Nello schema 2 è riportata la classificazione delle principali reazioni elettrochimiche nelle
diverse categorie della classica chimica organica.
1. Reazioni di trasformazione di gruppi funzionali
2. Reazioni di sostituzione
3. Reazioni di eliminazione
4. Reazioni di addizione
5. Reazioni di accoppiamento e di dimerizzazione
6. Reazioni di scissione e di deprotezione
7. Reazioni a catena con trasferimento elettronico
8. Generazione in situ di basi/nucleofili o di acidi/elettrofili
9. Reazioni di ciclizzazione.
Schema 2. Applicazioni di reazioni elettroorganiche.
A parte la resa chimica, quando si valuta una reazione elettroorganica, si deve considerare
anche la resa in corrente che, attraverso il rapporto fra il consumo teorico e quello pratico dei coulomb, dà una idea dell’efficienza del processo.
Lo Schema 3 raccoglie le principali variabili di una elettrosintesi, la cui distribuzione è apparentemente complessa, ma nella maggior parte dei casi e specialmente nelle preparazioni di laboratorio, non richiede maggiori conoscenze e capacità rispetto ad una normale sintesi chimica.
Figura 2. Finestre elettroattive per alcune classi di
composti organici e potenziali redox di reagenti comuni.
70
71
Variabili elettrochimiche
Variabili chimiche usuali
Solvente/elettrolita da supporto
Materiale elettrodico
Assorbimento
Potenziale elettrodico
Densità di corrente
Schema di cella
Solvente
Concentrazione dei reagenti
Temperatura
Tempo
pH
Pressione
Schema 3. Principali variabili da considerare nelle reazioni elettroorganiche insieme con le usuali variabili chimiche.
Inoltre, devono essere considerate le seguenti note positive:
l’attivazione è generalmente raggiunta a temperatura ambiente;
il potenziale elettrodico offre un mezzo di controllo di reazione notevole;
la sorgente di elettroni è facilmente aggiustabile e selettiva per il controllo del potenziale elettrodico;
si formano alte concentrazioni locali degli intermedi reattivi;
è possibile effettuare elettrolisi indirette (per esempio, usando quantità catalitiche di un mediatore
redox);
• è possibile generare in situ reagenti particolarmente sensibili, quali, per esempio, gli organometallici,
gli agenti fluoruranti, l’anione superossido.
•
•
•
•
•
Per quanto riguarda le metodologie usate, vi sono due modi per condurre un processo elettrochimico: l’elettrolisi con corrente costante (CCE) (Schema 4) e l’elettrolisi con potenziale controllato (CPE) (Schema 5). In molti casi i due metodi sono equivalenti sebbene si abbia spesso una migliore regio- e chemo-selettività con il metodo CPE. Ciononostante, a dispetto della più bassa selettività,
il CCE è preferito al CPE specialmente, quando la reazione è semplice e su larga scala.
Schema 5. Componenti di una cella a potenziale controllato (CPE) [A: amperometro; V: voltmetro; C: coulombometro; WE: elettrodo di lavoro; CE: contro elettrodo (elettrodo ausiliario); RE: elettrodo di riferimento; il diaframma è
solitamente costituito da membrane in vetro poroso o ceramica porosa].
Nello Schema 6 sono raccolte, insieme con le abbreviazioni usate per le tecniche elettrochimiche, i principali tipi di cella, i materiali elettrodici ed i sistemi solvente-elettrolita di supporto frequentemente usati nelle applicazioni sintetiche
TECNICHE ELETTROCHIMICHE
CCE - Elettrolisi con corrente costante
CPE - Elettrolisi con potenziale controllato
Tipi di cella
UC - Cella indivisa: un compartimento
DC - Cella divisa: solitamente una cella a due compartimenti
con un appropriato diaframma fra catolita ed anolita
MATERIALE ELETTRODICO
(A) Anodo: Pt, Carbone vetroso (C), Grafite (Gr), Ni, Mg, Al.
Gli ultimi due materiali sono usati come anodi sacrificali.
(C) Catodo: Hg (lega), Pt, C, Gr, Mg, Sn, Pb, Ni, Fe, Au.
SOLVENTI
Acetonitrile, Dimetilformammide, Diclorometano, Acetato di etile,
Tetraidrofurano, Alcooli
ELETTRODI DA SUPPORTO
Li+BF4-, Li+ClO4-, R4N+BF4-, R4N+ClO4-, R4N+Br-, R4N+ISchema 6. Principali variabili di reazione impiegate in processi elettrochimici.
Schema 4. Componenti di una cella a corrente costante (CCE)
(A: amperometro; V: voltmetro; WE: elettrodo di lavoro; CE: contro elettrodo).
72
Esistono numerose applicazioni di metodi elettrochimici nella sintesi organica, che coinvolgono una grande varietà di reazioni fra cui, per esempio, la reazione di sostituzione, addizione, scissione, deprotezione, accoppiamento, dimerizzazione e ciclizzazione. Fra questi, in particolare, sono
degni di mensione per la loro importanza applicativa, la funzionalizzazione di molecole organiche, la
73
trasformazione di gruppi funzionali, la fluorurazione selettiva, le reazioni stereoselettive e stereospecifiche, le sintesi chirali, la preparazione di intermedi farmaceutici, le basi elettrogenerate, le reazioni mediate elettrodicamente, la chimica dei composti organometallici, dei composti organici del silicio, dello zolfo e del fosforo, la bioelettrosintesi, le reazioni a trasferimento elettronico con catalizzatori ed infine le reazioni dei composti inquinanti in presenza di ossidanti elettrogenerati e sotto l’azione delle radiazioni UV.
4. METODO AL PLASMA [13-15]
energie sufficienti per ionizzare le molecole. La ionizzazione produce più elettroni, cosicché il sistema procede a valanga sino a quando non raggiunge uno stato persistente.
Il plasma è definito freddo o caldo a seconda della quantità di materiale ionizzato che è presente. Nel plasma freddo, che è quello più usato dal chimico sintetico, si hanno poche molecole ionizzate. Il rapporto del materiale ionizzato contro quello neutro può cambiare in dipendenza della potenza applicata, della pressione e delle dimensioni del reattore. In genere più alto è il vuoto, più freddo
è il plasma.
4. 2 EFFETTO DELLA RADIAZIONE.
Il plasma è quel materiale costituito da elettroni liberi, ioni e specie neutre. In laboratorio può
essere generato molto facilmente producendo scariche elettriche in un recipiente contenente un particolare composto sotto forma di gas. È la forma più comune della materia che comprende più del 99%
dell’universo. Con riferimento alle maggiori “revolutions”, tipi di energia e tecnologie, per i plasmi
industriali è stata suggerita la seguente griglia.
La formazione di ioni e di radicali dà luogo ad una moltitudine di reazioni che però non sono
selettive a causa della elevata energia associata. Il processo è comunque di utilità sintetica quando le
energie delle possibili reazioni differiscono sostanzialmente fra di loro e gli elettroni possono essere
generati in intervalli energetici selezionati.
La selettività molto bassa, purtroppo, ha limitato l’impiego del plasma a substrati e reazioni
semplici.
4. 3 APPARECCHIATURE.
Revolution
Energia
Tecnologie
Industriale
Chimica
Elettrica
Nucleare
Elettronica
Ottica
Energia meccanica
Reazioni chimiche
Elettromagnetismo
Reazioni nucleari
Stato solido
Interazioni fotoniche
Macchine, Metallurgia
Catalizzatori, Trattamenti di scarti
Trasformatori, Invertitori
Reattori, Isotopi
Elettronica, Semiconduttori
Sorgenti luminose, Lasers
In relazione all’ambiente, il plasma è molto usato per la sterilizzazione dell’acqua in quanto,
sulla base delle intense emissioni UV, previene la replicazione del DNA di microorganismi nell’acqua. Questa tecnica impiega 12 secondi, non comporta alcun effetto sull’odore e sul sapore ed in termini energetici è ventimila volte inferiore rispetto alla distillazione. Inoltre, esistono apparecchiature
funzionanti a base di plasmi che producono gas ricchi di idrogeno a partire da combustibili differenti, riducendo quindi nella loro combustione i prodotti tossici dal punto di vista ambientale.
4. 1 NATURA DELLA RADIAZIONE.
Le apparecchiature (Figura 3) più semplici sono in vetro, con elettrodi metallici e pressioni
riconducibili al tipo di scarica usata: così, per esempio, con le scariche a incandescenza si lavora sotto
vuoto, mentre con le scariche corona o le silenziose si può lavorare a pressione normale. In genere, la
radiazione è applicata dall’esterno del reattore e la superficie interna del tubo di vetro è spesso ricoperta con sostanze come l’acqua, l’acido fosforico, il teflon, ecc. per evitare la ricombinazione velocissima dei frammenti molecolari o degli atomi generati dalla scariche.
Gli elettrodi metallici sono potenzialmente dannosi, ed in particolare, non sono molto idonei
per le reazioni organiche perché gli elettrodi possono ricoprirsi dei prodotti di decomposizione.
Per grandi quantità di reagenti più appropriate sono le scariche corona o quelle silenziose che
richiedono apparecchiature simili, anche se con geometrie differenti.
Un esperimento frequente nella chimica del plasma è la dissociazione delle molecole di idrogeno, di ossigeno ed anche di azoto in atomi che successivamente reagiscono per dare prodotti. Il
modo di generare il plasma, comunque, limita fortemente i substrati che possono essere usati. Quelli
più idonei sono gli idrocarburi a basso peso molecolare e le olefine facilmente volatilizzabili.
In questi esperimenti, le cui tecniche coinvolgono energie molto elevate, sono favoriti i processi monomolecolari che comportano eliminazioni di piccoli frammenti molecolari quali l’azoto, l’idrogeno, l’ossido di carbonio e l’anidride carbonica.
Di importanza industriale sono la formazione di ozono con le scariche silenziose e di ossido di
azoto o di acetilene con le scariche ad arco.
Molto spesso sono usate le scariche di radiofrequenze che determinano una pressione, una
potenza e una temperatura delle molecole non attivate relativamente basse. Plasmi simili sono generati da scariche silenziose, corona, ad incandescenza e da microonde, che differiscono solo per il
metodo con cui sono generate o per la geometria dell’apparecchiatura usata.
La formazione dello stato di plasma è iniziata dai pochi elettroni che sono comunemente presenti in un normale gas. Questi elettroni sono accelerati dai campi elettrici applicati e quindi collidono con le molecole circostanti e si disperdono. Occasionalmente, le collisioni possono comportare
74
75
4. 4. 2 Processi bimolecolari
Non sono ancora molto sviluppate, anche perché in genere richiedono apparati più complessi.
Un processo che comunque non richiede particolari apparecchiature è la dimerizzazione di un composto organico con rimozione di idrogeno o di altri gruppi. Una delle reazioni al plasma più importanti, che può essere usata in Green Chemistry, oggi resta l’ossidazione dei rifiuti che stabilizza i
materiali solidi presenti, ma abbatte completamente le sostanze tossiche contenute nei rifiuti producendo molecole relattivamente semplici come l’acqua e l’anidride carbonica.
5. METODO AD IRRAGGIAMENTO CON MICRO-ONDE [22-27]
Figura 3. Semplici schemi di apparecchi per reazioni a scariche a bagliore
4.4 APPLICAZIONI [15-21]
4. 4. 1 Processi monomolecolari
Reazioni di gas atomici con composti organici
L’idrogeno, l’ossigeno e l’azoto molecolare si dissociano in radicali mediante scariche a scintilla. I radicali così ottenuti possono reagire con molti altri composti organici. L’idrogeno radicalico
estrae atomi di idrogeno da composti saturi ed i radicali che si ottengono possono sommarsi ad altri
composti insaturi. Attraverso lo stesso meccanismo l’ossigeno radicalico fornisce epossidi, fra cui la
formazione del propilen ossido di interesse industriale, di aldeidi e di chetoni. L’azoto radicalico reagisce violentemente con i composti organici e pertanto non è molto usato per applicazioni sintetiche.
Reazioni di composti organici
Fra le reazioni più frequentemente incontrate, ci sono:
l’isomerizzazione cis-trans delle olefine;
le espansioni, le contrazioni e le scissioni di anelli eterociclici;
le modificazioni nella posizione dei sostituenti degli anelli aromatici;
le eliminazioni di molecole semplici.
76
L’irraggiamento con micro-onde ha raggiunto livelli di popolarità molto elevati a causa dei bassi
costi dei forni che permettono il riscaldamento di campioni di laboratorio ed anche dell’industria.
È un metodo di riscaldamento pulito, economico e conveniente che offre rese più alte e tempi
di reazione più brevi. Le applicazioni del riscaldamento via micro-onde si estendono a quasi tutte le
aeree della chimica, fatta eccezione per le reazioni di sintesi in fase gas che tendono a diventare reazioni al plasma indotte da micro-onde, quali per esempio quelle per creare films di diamante. Nella
fase gas, infatti, le molecole sono libere di ruotare e pertanto le collisioni sono minimizzate. In questo caso l’energia assorbita via irraggiamento con micro-onde determina transizioni solo fra gli stati
rotazionali. Nel caso dei liquidi e dei solidi le molecole non sono libere di ruotare e l’energia assorbita è liberata sotto forma di calore.
Oltre alle modificazioni fisiche indotte nei materiali ceramici per effetto delle proprietà disidratanti delle micro-onde, le perdite dielettriche per irraggiamento con micro-onde di molti solidi
sono state usate per fornire sufficiente calore da indurre trasformazioni chimiche.
Particolare attenzione stanno ricevendo le sintesi organiche che utilizzano il riscaldamento via
micro-onde. Queste coprono una vasta area di reazioni, che va estendendosi sempre più, includendo
le N- acilazioni, le C-, N-, O- e S-alchilazioni, le sostituzioni elettrofile aromatiche, le sostituzioni
nucleofile, le cicloaddizioni di Diels-Alder ed 1,3-dipolari inter- ed intra-molecolari, le deprotezioni
e protezioni, le esterificazioni e transesterificazioni, le formazioni di composti eterociclici, le reazioni organometalliche, le ossidazioni, le riduzioni e i riarrangiamenti.
In relazione all’uso delle micro-onde deve essere tenuto in considerazione un certo numero di
fattori che riguarda la scelta dei solventi da impiegare. Così, alcuni di questi sono incompatibili con i
reattori aperti per la loro infiammabilità e/o volatilità. La dimetilformammide, l’acetonitrile ed il
diclorometano sono molto utili per particolari tipi di reazione, anche se resta qualche limitazione perchè raggiungono il punto di ebollizione in meno di 1 minuto a 560 watts. L’uso dell’acqua è molto
attraente in relazione allo sviluppo delle reazioni organiche in acqua, un’area molto attiva nel prossimo futuro. È stato dimostrato che i solventi sottoposti ad irraggiamento con micro-onde possono
anche essere riscaldati sopra il loro punto di ebollizione. Sembra, a questo proposito, che questa forma
di super-riscaldamento sia anche responsabile dell’incremento di velocità di molte reazioni.
Le reazioni effettuate allo stato anidro in assenza di solventi ed anche su supporti solidi (montmorillonite, allumina, silice, etc.) permettono di superare la maggior parte dei problemi connessi con
l’uso di solventi e possono anche essere effettuate con sicurezza e su larga scala. Questi supporti solidi non assorbono le micro-onde, mentre i gruppi ossidrilici, o l’acqua o i composti organici presenti
sulla superficie del solido sono fortemente attivati e promuovono le reazioni. L’uso delle metodologie, che non utilizza i solventi, è particolarmente interessante dal punto di vista ambientale perché per77
mette di evitare l’impiego di grandi volumi di solvente e quindi rende possibile la riduzione di emissioni di solvente; sono considerevolmente semplificate, inoltre, le manipolazioni dei grezzi di reazione, perché, in molti casi, il prodotto puro può essere ottenuto direttamente dal grezzo per semplice
estrazione, distillazione o sublimazione; possono, infine, essere usati efficientemente supporti solidi
riciclabili al posto di acidi minerali o di ossidanti in soluzione e sono facilitati i processi industriali
per l’assenza di solventi.
5. CONCLUSIONI
22. L. Perreux, and A. Loupy, Tetrahedron, 2001, 57, 9199.
23. C. GABRIEL, S. GABRIEL, E. H. GRANT, B. S. J. HALSTEAD, and D. M. P. MINGOS, Chem. Soc. Rev,
1998, 27, 213.
24. D. M. P. MINGOS, P. MICHAEL, and A. G. WHITTAKER, Microwave dielectric heating effects in
Chemical Synthesis, in Chemistry Under Extreme or Non-classical Condition, R. van Eldik, and
C. D. Hubard Eds., John Wiley and Sons, 1997.
25. S. CADDICK Tetrahedron, 1995, 51, 10403.
26. P. LIDSTROM, J. TIERNEY, B. WATHEY, and J. WESTMAN, Tetrahedron, 2001, 57, 9225.
27. A. DE LA HOZ, A. DIAZ ORTIZ, and A. MORENO, F. Langa, Eur. J. Org. Chem. 2000, 3659.
Ci sono ancora molti problemi tecnologici da risolvere prima che i processi elaborati per le sintesi di laboratorio possano essere applicati su scala industriale a causa dei notevoli costi delle apparecchiature. Nel prossimo futuro, i metodi al plasma che si svilupperanno, saranno molto probabilmente quelli che portano alla produzione di composti non ottenibili o anche ottenibili, ma con serie
difficoltà mediante i metodi convenzionali.
BIBLIOGRAFIA
1. ULTRASOUND, K. S. SUSLICK Ed., VHC,Weinheim, 1988; Ultrasound in synthesis, S. V. Ley and
C. M. R. Low , Springer Verlag, Berlin, 1989.
2. T. J. MASON, Chem. Soc. Rev. 1997, 26, 443.
3. T. J. MASON, Philos. Trans. R. Soc. London, Ser. A, 1999, 357, 355.
4. P. H .LEE, K. BANG, K. LEE, S.-Y. SUNG, and S. CHANG, Synth. Commun., 2001, 31, 3781.
5. Y. PENG, and G. SONG, Green Chem. 2001, 3, 302.
6. J. S. YADAV, B. V. S. REDDY, K. B. REDDY, K. RAI, and S. A. R.. PRASAD, J. Chem. Soc., Perkin
Trans. 1, 2001, 1939.
7. G. ABBIATI, F. CLERICI, M. L. GELMI, A. GAMBINI, and T. PILATI, J. Org. Chem. 2001, 66, 6299.
8. M. V. ADHIKARI, and S. D. SAMANT, Ultrasonic Sonochem., 2002, 107.
9. New Challenges in Organic Electrochemistry, T. Osa, Gordon and Breach Science Publishers,
Amsterdam, 1998.
10. Organic Electrochemistry (4th edition), H. Lund and O. Hammerich Eds., Marcel Dekker, 2001.
11. Novel Trends in Electroorganic Synthesis, S. Torii Ed., Tokio, 1995.
12. Electrochemistry towards Organic Synthesis, Electrochimica Acta, 1997, 42 (13-14), special
issue.
13. M. MOLLAH, A. YOUSUF, R. SCHENNACH, J. PATSCHEIDER, S. PROMREUK, and D. L. COCKE, J.
Hazard Mat.B 79, 2000, 301.
14. M. B. KIZLING, and S. G. JARAS, Appl. Catalysis A: General, 1996, 147, 1.
15. D. I. SLOVETSKY, Pure Appl. Chem. 1990, 62, 1729.
16. L. L. C. MILLER, Acc. Chem. Res., 1983, 16194.
17. H. SUHR, Pure Appl. Chem. 1974, 39, 395.
18. H. SUHR, Angew. Chem. Int. Ed. Eng. 1972, 11, 781.
19. B. M. JOHNSON, W. C. BABCOCK, J. B. WEST, and D. T. FRIESEN, U.S.Pat. 1998, US 5772855.
20. H. SUHR, and U. KUENZEL, Liebigs Ann. Chem. 1979, 12, 2057.
21. K. GORZNY, Chem.-Ztg. 1975, 99, 257.
78
79
Solventi
ALLA RICERCA DI NUOVI SOLVENTI A RIDOTTA
PERICOLOSITÀ: UN APPROCCIO MOLECOLARE
ANDREA POCHINI
1. INTRODUZIONE
Lo sviluppo della conoscenza in generale e di quella scientifica in particolare può essere paragonato all’evoluzione subita dai sistemi biologici. Questi infatti erano inizialmente unicellulari, ma si
sono poi sviluppati, al fine di affrontare ambienti sempre più diversificati, in strutture sempre più
complesse di tipo pluricellulare. Analogamente l’approccio scientifico, che era inizialmente monodisciplinare, si è andato sviluppando in logiche sempre più spiccatamente pluridisciplinari. Questo è
evidentemente legato alla possibilità di affrontare, interagendo in una logica multifunzionale e cooperativa, problemi sempre più complessi, che proprio per le loro caratteristiche possono trovare solo
soluzioni in ambiti disciplinari ad elevata complessità.
I criteri di scelta dei solventi e più in particolare la valutazione dei vari pericoli, fra cui anche
quelli ambientali, correlati con il loro utilizzo, sono una interessante ed istruttiva esemplificazione del
modo di procedere legato al progredire delle conoscenze provenienti da settori anche molto lontani
dalla chimica e di come queste abbiano determinato nuovi criteri nella valutazione delle scelte.
I solventi infatti sono sostanze liquide usate su larga scala per diluire o sciogliere un’altra
sostanza al fine di ottenere una soluzione. L’acqua è un solvente largamente usato ma non è un buon
solvente per molte sostanze organiche (contenenti atomi di carbonio e di idrogeno). Per questo vengono largamente impiegati solventi organici ad esempio nel settore delle vernici, nella rimozione di
sostanze protettive da metalli, tessili, nella pulitura “a secco” di vestiti ed in molte applicazioni nel
settore chimico.
Prima di entrare ad affrontare questo specifico problema occorre fare una introduzione sulla
visione molecolare della materia sia per comprendere i vari stati fisici, sia per capire cosa sono, come
lavorano e dove si utilizzano i solventi ed i criteri di scelta degli stessi. Al fine di ottenere una corretta comprensione di questi concetti occorre infatti scendere dalla visione macroscopica, ad esempio un
liquido con specifiche caratteristiche come il punto di ebollizione, a quella microscopica o molecolare. Quest’ultima è utile per vedere e capire la struttura e le proprietà delle molecole che costituiscono il liquido e che quindi determinano le sue proprietà chimiche e fisiche.
2. DAGLI ATOMI ALLE MOLECOLE. LE INTERAZIONI INTRAMOLECOLARI:
LEGAMI COVALENTI
Partendo dagli atomi dei vari elementi noti e presenti nella Tavola periodica, che sono poco più
di cento, si verifica che quelli presenti nella crosta terrestre in quantità significative scendono a circa
quindici. Infine nei sistemi biologici, quale ad esempio il corpo umano, gli elementi significativi scendono a circa dieci ed in particolare quattro di questi, il carbonio (C), l’idrogeno (H), l’ossigeno (O) e
l’azoto (N), costituiscono più del 95% in peso del corpo umano. Come vedremo anche i solventi sono
normalmente caratterizzati dalla presenza dei quattro elementi sopra riportati.
83
Gli atomi non sono normalmente stabili e cercano di evolvere per raggiungere, a livello degli elettroni che li caratterizzano, una configurazione stabile a più bassa energia tipica dei gas nobili. Per ottenere questo risultato gli atomi mettono in compartecipazione i propri elettroni con quelli di uno o più
altri atomi dando origine a legami intramolecolari, definiti covalenti, arrivando così alla formazione
di una molecola.
Come tipici esempi prendiamo la molecola di idrogeno e quella di metano. L’atomo di idrogeno ha un solo elettrone che mette in compartecipazione con un altro atomo di idrogeno al fine di ottenere un legame fra i due atomi. Con questo legame viene raggiunta una situazione elettronica in cui
ci sono due elettroni condivisi che è uguale a quella che caratterizza il gas nobile Elio.
Attraverso la condivisione dei due elettroni, i due atomi si trovano nella molecola ad una
distanza di 74 pm (distanza di legame) e l’energia del sistema si abbassa di 436 KJ/mole.
Figura 2. Valori di elettronegatività degli atomi
Figura 1. Energia di un sistema a due atomi in funzione della distanza interatomica
In maniera analoga il Carbonio, caratterizzato da quattro elettroni da condividere, forma quattro legami con quattro atomi di Idrogeno al fine di raggiungere la situazione elettronica stabile ad otto
elettroni, che caratterizza il gas nobile Neon. In questo modo si forma la molecola di metano CH4.
Come regola generale possiamo dire che formando un legame si libera energia mentre per rompere un legame occorre fornire energia al sistema.
2.1. ELETTRONEGATIVITÀ, LEGAMI COVALENTI POLARIZZATI
E POLARITÀ DELLE MOLECOLE
Quando due atomi diversi sono uniti da un legame covalente, l’attrazione esercitata da ogni
atomo sugli elettroni di legame può essere messa in relazione con una proprietà detta elettronegatività. Questa proprietà misura la capacità relativa dei vari atomi di attrarre elettroni. Molto adoperata
è la scala delle elettronegatività di Pauling (vedi Fig. 2 ), in cui l’elettronegatività viene espressa
numericamente. A valori più elevati corrispondono atomi più elettronegativi. L’elettronegatività cresce a parità di periodo (riga) da sinistra a destra ed a parità di gruppo (colonna) dal basso verso l’alto, per cui l’atomo più elettronegativo è il fluoro.
84
Ad esempio, in una molecola di HCl, l’atomo di cloro, più elettronegativo rispetto all’idrogeno, esercita un’attrazione maggiore sugli elettroni di legame, per cui il baricentro delle cariche positive e quello delle cariche negative non coincidono: quest’ultimo è più spostato verso l’atomo di cloro. Questa
distribuzione non simmetrica delle cariche, dà luogo ad un legame covalente polarizzato in cui gli
elettroni sono spostati verso l’atomo più elettronegativo. La presenza di un tale legame è la condizione necessaria, ma non sufficiente, per avere una molecola polare, in cui i baricentri separati delle cariche positive e negative costituiscono un dipolo. Il dipolo (vettore), generato grazie alla presenza di un
elemento fortemente elettronegativo, può essere rappresentato formalizzando sul cloro una parziale
carica negativa e sull’idrogeno una parziale carica positiva, indicate con i simboli δ+ e δ−.
δ+ δ−
H-Cl
Il dipolo può essere quantificato dal valore del momento dipolare, che, in una molecola formata da più di due atomi, si calcola facendo la somma vettoriale dei valori di momento dipolare relativi a tutti i legami presenti.
In una molecola biatomica il momento dipolare (µ ) dipende dalla differenza ( ∆ ) di elettronegatività degli atomi ed aumenta quando questa differenza diventa più grande:
H-F
H - Cl
H - Br
H-I
µ = 1.82
µ = 1.03
µ = 0.82
µ = 0.44
∆
∆
∆
∆
Elettronegatività = 1.9
Elettronegatività = 0.9
Elettronegatività = 0.7
Elettronegatività = 0.4
Questa polarizzazione può essere evidenziata anche utilizzando le mappe di potenziale elettrostatico, che mostrano, tramite l’uso di colori, la densità di carica associata con una superficie molecolare.
85
Rosso
<
Arancio
Potenziale elettrostatico
più negativo
LiH
<
Giallo
<
Verde
<
Blu
Potenziale elettrostatico
più positivo
H2
HF
Figura 3. Potenziali elettrostatici di alcune molecole biatomiche
Quando il legame covalente unisce due atomi uguali, come ad esempio in H2 o Cl2, i centri delle
cariche positive e negative sono coincidenti, in un punto equidistante dai due nuclei, e conseguentemente questi legami non presentano polarità. Quindi sono apolari le molecole in cui gli atomi non
presentano una significativa differenza di elettronegatività, oppure quelle simmetriche (es CO2, CF4)
in cui dipoli uguali si annullano a vicenda. In queste molecole il momento dipolare è nullo. Quindi la
polarità di una molecola richiede sia la presenza di un legame covalente polarizzato sia una forma
non simmetrica della molecola.
Figura 4. Momenti dipolari (µ): effetti della polarizzazione dei legami e della forma delle molecole
(Per i momenti dipolari dei solventi vedi Tabella 2).
Figura 5. Le Forze Intramolecolari possono essere suddivise in ioniche, covalenti e legami metallici, sebbene non
ci sia una netta suddivisone tra queste descrizioni.
Le Forze intramolecolari sono quindi caratterizzate da energie relativamente elevate. Formare
o rompere questi legami richiede quindi molta energia, come vedremo nelle reazioni chimiche.
3. LE INTERAZIONI INTERMOLECOLARI
Le molecole interagiscono con altre molecole tramite forze attrattive intermolecolari. Una
semplice dimostrazione dell’esistenza di tali forze si può avere confrontando l’acqua allo stato solido
(ghiaccio), liquido e gassoso. Se non esistessero tali interazioni l’acqua dovrebbe esistere come gas.
Le interazioni fra le molecole di acqua ( interazioni intermolecolari ) sono responsabili dell’esistenza dell’acqua liquida o solida.
Formare o rompere questi legami richiede, come vedremo nei cambiamenti di stato fisico (solido – liquido – gas ) o nei processi di solubilizzazione, energie molto più basse.
Nella Figura 6 sono presentate le varie possibili interazioni intermolecolari, con i valori energetici relativi. Si ricorda che in questa trattazione affronteremo solo quelle che avvengono fra specie
non cariche (dipolo – dipolo, dipolo – dipolo indotto e le forze di dispersione di London cioè dipolo
istantaneo – dipolo indotto). Va anche tenuto presente che le molecole polari interagiscono fra di loro
con tutte e tre le possibili interazioni.
Interazioni dipolo – dipolo: i dipoli si allineano completamente o parzialmente nel campo
elettrico generato del dipolo adiacente, tale orientazione è contrastata dall’energia termica del sistema. Si ricorda che solo allo zero assoluto (0 K), circa – 273°C, le molecole sono immobili come pure
gli atomi all’interno delle molecole. Ad esempio a temperatura ambiente (circa 300 K) nei liquidi e
nei gas le molecole si muovono ed anche gli atomi dei vari legami oscillano spostandosi dalla distanza ottimale, corrispondente al minimo energetico della Distanza di Legame.
Chiudiamo questa prima parte introduttiva sulle Forze Intramolecolari presentando nella
Tabella un quadro più completo di tali forze e delle loro energie, ribadendo che in questa trattazione
ci occuperemo solo di quelle covalenti.
Interazioni dipolo – dipolo indotto: gli elettroni di una molecola sono mobili per cui quando una
molecola si avvicina ad un dipolo, parzialmente carico, questi si muoveranno in risposta al campo elettrico prodotto dal dipolo, avvicinandosi alle parziali cariche positive ed allontanandosi da quelle negative.
Questa libertà di movimento posseduta dagli elettroni di una molecola viene chiamata polarizzabilità.
86
87
Gli atomi piccoli, che possiedono pochi elettroni in prossimità dei protoni nucleari, sono molto
poco polarizzabili. Al contrario gli atomi caratterizzati da un elevato numero atomico, avendo molti
elettroni collocati in zone lontane dal nucleo, sono molto più facilmente polarizzabili. Su una molecola che contiene atomi facilmente polarizzabili sarà possibile la formazione di un dipolo indotto. La
polarizzabilità delle molecole è maggiore quando il loro indice di rifrazione è più elevato (vedi
Tabella 2).
Forze di dipersione di London: possono essere interpretate come dovute all’attrazione tra
dipoli istantanei che si generano in molecole apolari. Suddetti dipoli si formano ad esempio per perdita di simmetria della molecola come conseguenza dei moti molecolari. Ad esempio nel CCl4, che è
una molecola priva di momento dipolare perché simmetrica, i moti molecolari possono allungare uno
dei quattro legami C-Cl creando così un dipolo istantaneo. Tale dipolo polarizzerà a sua volta un’altra molecola di CCl4, molecola facilmente polarizzabile per la presenza degli atomi di cloro in cui gli
elettroni sono sufficientemente diffusi.
Legame ad idrogeno: questa particolare interazione intermolecolare presenta energie relativamente elevate ( ad esempio 20 – 40 KJ/mole ) e si verifica fra atomi di idrogeno legati ad atomi ad
elevata elettronegatività (F, O, N) ed elettroni presenti su altri atomi di F, O, N.
Figura 6 – Interazioni intermolecolari
Nei liquidi le interazioni dipolo-dipolo possono essere
sia attrattive (linee continue) che repulsive (linee tratteggiate)
Figura 8. Molecole che danno interazioni intermolecolari via Legame ad idrogeno.
Figura 7. Interazioni dipolo-dipolo nei vari stati fisici della materia
88
89
4. STATI FISICI DELLA MATERIA: GAS – LIQUIDI – SOLIDI
Nei gas le forze attrattive intermolecolari sono praticamente nulle e le molecole sono libere di
muoversi con una velocità che aumenta all’aumentare della temperatura (energia cinetica).
Nei liquidi esistono consistenti interazioni intermolecolari fra le molecole, che le costringono a
tenersi in stretto contatto con le altre molecole anche se mantengono una certa libertà di movimento.
Nei solidi queste forze sono talmente elevate da bloccare ogni movimento (vedi Figura 7 e 9).
Qui a destra sono riportate una serie di molecole apolari sia
monoatomiche come i gas nobili Elio, Neon, Argon, Kripto e
Xeno, sia biatomiche come gli alogeni Fluoro, Cloro, Bromo e
Iodio, con i loro relativi punti di ebollizione.
Si osserva che i punti di ebollizione crescono enormemente
con l’aumentare della grandezza dell’atomo (peso atomico) o
della molecola (peso molecolare PM ottenuto dalla somma dei
pesi atomici).
Questa proporzionalità può essere messa in stretta correlazione con un aumento della polarizzabilità dell’atomo più grande
e conseguentemente delle forze di dispersione di London.
Punti di ebollizione, numero degli atomi di carbonio e pesi
molecolari (PM) negli alcani
Metano
Propano
Butano
Esano
Decano
Eicosano
Figura 9. Stati fisici della materia
Cambiamenti di stato. Nella successiva figura 10 sono stati riassunti i possibili passaggi di
stato: con le frecce blu sono stati indicati i processi in cui viene ceduta energia, mentre in rosso quelli in cui bisogna fornire energia perché avvengano. Ad esempio il calore di evaporazione è una misura delle energie delle forze intermolecolari presenti fra le molecole del liquido e che vanno vinte per
farlo passare allo stato gassoso. Ne consegue che una misura delle energie associata alle forze intermolecolari si può ottenere dai punti di ebollizione delle varie sostanze.
CH4
C3H8
C4H10
C6H14
C10H14
C20H42
T. ebolliz.
T. ebolliz.
T. ebolliz.
T. ebolliz.
T. ebolliz.
T. ebolliz.
Un aumento del punto di ebollizione con il peso molecolare si osserva anche con gli alcani,
molecole che contengono solo atomi di carbonio e di idrogeno (vedi Figura 11). In questo caso le
molecole apolari aumentano il numero di interazioni dipolo istantaneo – dipolo indotto all’aumentare della lunghezza della catena e conseguentemente anche le relative energie.
Temperatura di
ebollizione °C
Gassosa
Numero degli atomi
di carbonio
delle molecole
1 to 4
Nafta
5 to 10
25 - 175
Cherosene
Gasolio leggero
Gasolio pesante
10 to 16
14 to 50
20 to 70
150 - 260
235 - 360
330 - 380
Olio lubrificante
> 60
340 - 575
< 40
Olio combustibile > 70
> 490
Bitume
>580
> 80
Figura 12. Frazioni petrolifere
90
-164,0 °C
-42,1 °C
-0,5 °C
68,9 °C
174,1 °C
343
Figura 11. Dipendenza della temperatura di ebollizione dal peso molecolare
Frazione
Figura 10. Variazioni energetiche nei passaggi di stato.
PM=12+4x1=16
PM=44
PM=58
PM=86
PM=134
PM=282
91
Usi
•
•
•
•
•
•
•
Combustibile
Bombole di gas liquido
Benzina per auto
Sorgente di prodotti chimici
Combustibile per aerei
Gasolio per auto
Sorgente di prodotti per il
«cracking»
• Prodotti lubrificanti
• Sorgente di prodotti per il
«cracking»
• Combustibile per impianti
termoelettrici e navi
• Superfici stradali, tetti
Anche le frazioni petrolifere, costituite prevalentemente da idrocarburi apolari ed ottenute dalla
distillazione del petrolio, hanno temperature di ebollizione che aumentano all’aumentare del peso
molecolare e quindi del numero di atomi di carbonio contenuti nelle molecole presenti nelle varie frazioni (vedi Figura 12).
Quando la molecola non è più apolare, oltre alle forze di dispersione di London intervengono
anche gli altri tipi di interazioni intermolecolari. Riportiamo qui tre molecole che hanno peso molecolare simile ma presentano diversi tipi di interazione intermolecolari. All’aumentare di queste interazioni aumenta anche il punto di ebollizione.
Molecula
Propano
Etere dimetilico
Alcol etilico
Formula
CH3CH2CH3
CH3OCH3
CH3CH2OH
Temperatura di
ebollizione °C
-42°C
-25°C
+78°C
Tipologia delle Forze
Attrattive Intermoleculari *
Tipo 1
Tipo 1+2
Tipo 1+2+3
*Dove le Forze attrattive intermolecolari vengono scomposte in:
Tipo 1 = Dipolo istantaneo (dissimetrizzazione da moti molecolari) - dipolo indotto (polarizzabilità)
[Forze di dispersione di London]
Tipo 2 = Dipolo - dipolo o dipolo-dipolo indotto
Tipo 3 = Legame ad idrogeno
Figura 15. Dipendenza della Tensione di vapore dalla Temperatura
Figura 13. Correlazione fra le forze attrattive intermolecolari e la temperatura di ebollizione
Equilibri liquido-gas: tensione di vapore - Nei liquidi le molecole hanno una energia cinetica determinata dalla temperatura in cui questi si trovano. Le molecole hanno energie differenti con
una distribuzione statistica delle energie e quindi alcune di esse hanno una energia sufficiente per vincere le interazioni intermolecolari e passare in fase gas.
Figura 16. Parametri relativi al passaggio di stato liquido - gas (Temperatura di ebollizione = P.E. ; Tensione di
vapore; Calore di evaporazione =∆Hvap )
Figura 14. Equilibri liquido - gas
Tale equilibrio è dinamico e quindi molecole di gas, perdendo parte della propria energia, possono tornare nella fase liquida.
La tensione di vapore di un liquido ad una certa temperatura misura la pressione esercitata dal
vapore ed è un indice del numero di molecole presenti allo stato di vapore ed aumenta all’aumentare
della temperatura ed al diminuire della energia delle interazioni intermolecolari.
Un altro parametro importante che determina la diffusione di un gas o di un vapore nell’ambiente e la sua densità relativa rispetto all’aria.
La composizione dell’aria è circa la seguente: 78% azoto (PM=28), 21% ossigeno (PM=32), e
1% argon (PM=40). Il peso molecolare (PM) di questa miscela gassosa si ottiene dalla media pesata
dei pesi molecolari.
92
93
Peso Molecolare medio dell’aria = 0,78x28 + 0.21x32 + 0.01x40 = ca. 29
Applicando l’equazione di stato dei gas pv = (g/PM)RT, dove p, v, T, g e PM sono rispettivamente la pressione, il volume, la temperatura, i grammi ed il peso molecolare del gas, si ricava che la
densità di un gas d = g/v = (p/RT)PM dipende dalla pressione, temperatura e dal peso molecolare del
gas stesso. Operando quindi a temperatura e pressioni costanti la densità diviene direttamente dipendente dal peso molecolare del gas.
Densità dei gas = K (PM) [K = costante a T, p = costanti)
Il peso molecolare delle sostanze organiche è generalmente >> 29 ; per cui la densità dei gas o
vapori da sostanze organiche >> densità aria. Questi stratificano quindi verso il basso (diffondono lentamente nell’atmosfera).
Es:
Etere dietilico
Butano
Metano
Idrogeno
C2H5O C2H5
C4H10
CH4
H2
PM = 74
PM = 58
PM = 16
PM = 2
Tipo di soluzione
Gas in gas
Gas in liquido
Gas in solido
Liquido in liquido
Liquido in solido
Solido in liquido
Solido in solido
Esempio
Aria (O2, N2, Ar, e altri gas)
Acqua gassata (CO2 in acqua)
H2 in palladio
Gasolio (miscela di idrocarburi)
Pasta per otturazione dentale (Mercurio in argento)
Acqua di mare (NaCl e altri sali in acqua)
Leghe metalliche
Figura 17. Tipi diversi di soluzioni
Soluti e solventi – Soluto è la sostanza che vogliamo sciogliere – Solvente è la sostanza (normalmente un liquido che è la componente principale della miscela) che scioglie il soluto.
Vapore molto pesante
Gas pesante
Gas leggero
Gas molto leggero
La densità relativa di questi gas determina la loro diffusione nell’aria e quindi anche la posizione di eventuali sensori specifici istallati in una logica protettiva. Così ad esempio un rivelatore per
gas di città (CH4) dovrà essere collocato a soffitto mentre quello per i gas in bombole (miscela di propano e butano) va collocato in basso.
Altri esempi di importanza della densità dei gas nel determinare eventuali rischi viene dalla
CO2 che si libera nella fermentazione alcolica (produzione di vini). Questo gas ha un peso molecolare uguale a 44 e quindi essendo più pesante dell’aria stratifica verso il basso del tino spostando l’aria
ivi presente. Se una persona, al termine del processo fermentativo, entra in un tino non opportunamente ventilato si trova a contatto con un gas non tossico ma soffocante. Infatti la diminuzione di
ossigeno presente nel tino può portare a rischi anche mortali.
SOLUTO
SOLVENTE
Figura 18. La solubilizzazione del cloruro di sodio (sale da cucina)
Nella Figura 18 è schematizzato il processo di solubilizzazione del sale da cucina (soluto
solido) in acqua (solvente liquido).
Anche la miscibilità dei liquidi in generale e dei solventi in particolare può fornire utili indicazioni sui parametri che guidano il processo di solubilizzazione (Figura 19).
5. SOLUZIONI
Se mescoliamo due sostanze diverse, ad esempio un solido ed un liquido, possiamo avere due casi:
formazione di una miscela eterogenea con presenza di regioni a differente composizione e con osservabili separazioni dei componenti oppure formazione di una miscela omogenea con composizione
uniforme e costante e senza osservabili separazioni dei componenti come ad esempio nelle soluzioni. Queste sono in genere costituite da solidi o liquidi disciolti in un altro liquido ma altri tipi di soluzioni sono possibili.
• Ad esempio Soluzioni Gas-Liquido – Piccole quantità di gas non polari possono essere
disciolti in acqua tramite interazioni attrattive dipolo – dipolo indotto. Così a 25°C ed 1 atmosfera 3,2
mL di O2 si sciolgono in 100mL di acqua e questa solubilità è essenziale per la vita negli ambienti
acquatici.
94
SOLUZIONE
Figura 19. Una dimostrazione della solubilità: la miscibilità di due liquidi
95
L’acqua, molecola polare in grado di formare legami ad idrogeno, scioglie l’etanolo che è
anch’esso polare ed avente la capacità di dare legami ad idrogeno. Questi due solventi sono quindi
completamente miscibili tra loro. Al contrario l’acqua non scioglie l’esano o il diclorometano che
sono molecole non polari e questa immiscibilità dà origine alla formazione di due fasi liquide di cui
quella con densità più bassa formerà lo strato superiore della miscela eterogenea. Esano e diclorometano d’altra parte sono mutuamente miscibili tra loro essendo due molecole apolari.
Nella Figura 20 viene presentata in maniera schematica la miscibilità di vari liquidi. A sinistra
ci sono i solventi polari capaci di dare legami ad idrogeno come l’acqua, l’etandiolo o glicol etilenico, l’etanolo e l’acido acetico. La polarità diminuisce con il 2-butanone, l’etil acetato e l’etere etilico
ed infine con il toluene, il tetraclorometano e l’esano si hanno i solventi apolari.
Linea continua fra due solventi = completa miscibilità,
Linea tratteggiata = parziale miscibilità,
Linea puntiforme = miscibilità molto bassa,
Assenza di linea = immiscibile
Figura 20. Miscibilità dei solventi
Come si vede dalla figura, le linee continue, specialmente con i solventi capaci di dare legami
ad idrogeno, sono presenti solo con i solventi contigui. La regola generale che quindi si può ricavare
da questi dati, ma anche da quelli riportati in precedenza per la solubilità, è che “le sostanze simili
sciolgono sostanze simili”.
Se facciamo un bilancio delle forze intermolecolari che entrano in giuoco nella solubilizzazione di un soluto, dobbiamo da un lato considerare l’energia spesa per separare sia le molecole di soluto che di solvente e quindi, perché il processo avvenga, dovremmo ottenere almeno una pari quantità
di energia dalle interazioni fra le molecole di soluto e di solvente.
6. UTILIZZO DEI SOLVENTI
Un solvente è una sostanza usata per diluire o sciogliere un’altra sostanza per creare una soluzione. L’acqua è un solvente largamente usato ma per quanto precedentemente discusso non è un buon
solvente per molte sostanze organiche (contenenti atomi di carbonio e di idrogeno) o apolari o a bassa
polarità. Per questo vengono ampiamente impiegati solventi organici che avendo caratteristiche meno
polari dell’acqua e maggior somiglianza strutturale hanno le caratteristiche di essere migliori solventi per le sostanze organiche.
Le possibili applicazioni dei solventi sono molte. Ad esempio quali “carrier” di solidi o di
liquidi, riducendone la viscosità, come ad esempio nel settore delle vernici; per la rimozione di
sostanze protettive da metalli, tessili etc. ; per la pulitura “a secco” di vestiti ecc. I solventi possono anche essere utilizzati nell’estrazione, separazione selettiva mediante dissoluzione, nella cristallizzazione, purificazione mediante fenomeni legati alla solubilità, nella cromatografia, separazione mediante fenomeni di ripartizione, e quale mezzo di reazione, solvente non reattivo, in cui altre
specie chimiche sono libere di muoversi e di reagire ed in cui il fluido serve per il trasferimento del
calore liberato dalla reazione.
Svariati sono gli aspetti che vanno presi in considerazione per scegliere un solvente in una certa
applicazione.
Si riportano qui i parametri più importanti che devono guidare la scelta dei solventi: 1.-la
capacità solvente; 2.-le proprietà fisiche (e.g. :tensione di vapore, punto di. ebollizione, miscibilità
o immiscibilità con altri solventi, viscosità, tensione superficiale); 3.-il costo; 4.-l’infiammabilità
(valutata tramite la temperatura di autoaccensione e di infiammabilità); 5.-la tossicità. 6.-l’ecocompatibilità e la facilità di smaltimento o recupero.
In questa logica uno dei primi parametri che ha inizialmente influenzato le scelte dei solventi è
stata l’infiammabilità degli stessi. Questo ha portato all’introduzione dei solventi clorurati.
L’acquisizione di nuove conoscenze tossicologiche ed ambientali (quali ad esempio i problemi connessi con la ecostabilità ed ecopermanenza e la difficoltà nello smaltimento) sta portando ad una revisione critica di questa scelta con una conseguente forte riduzione nel consumo di tali solventi.
Certamente la conoscenza di nuovi dati tossicologici ed ambientali, unita alla richiesta di standard
di sicurezza sempre maggiori sta portando ad una continua revisione critica dei solventi impiegati.
Ad esempio la conoscenza dei cicli fotochimici della troposfera (zona della atmosfera in cui
vivono i sistemi biologici) ed in particolare sull’origine del cosiddetto “smog fotochimico” sta attirando l’attenzione sulle “Sostanze Organiche Volatili” (in inglese VOC) ivi presenti e sulla necessità
di operare un controllo sulle concentrazioni di queste sostanze presenti nell’atmosfera e quindi su
tutte le possibili sorgenti di immissione compreso l’utilizzo dei solventi.
Figura 21. Energie coinvolte nel processo di solubilizzazione
96
97
7. VALUTAZIONE DEI FATTORI DI RISCHIO CHIMICO [1]
Al fine di dare utili indicazioni sulla valutazione del rischio nell’utilizzo dei solventi e dei criteri di scelta degli stessi, saranno qui affrontati alcuni aspetti correlati con la valutazione del rischio chimico in generale e di quello da infiammabilità in particolare. Partiamo da alcune definizioni generali.
Identificazione dei pericoli o fattori di rischio (hazard)- Proprietà o qualità intrinseca di una
determinata entità (sostanza, attrezzo, metodo etc.) avente potenzialità di causare danni
Valutazione del rischio (risk)- Probabilità che sia raggiunto il livello potenziale di danno nelle
condizioni di impiego e o di esposizione nonché dimensioni possibili del danno stesso.
R (Rischio) = F (frequenza attesa) x M (magnitudo del danno)
Per ridurre quindi il Rischio si può operare a livello di F (prevenzione) e di M (protezione).
La gestione del rischio (Risk menagement) viene compiuta tramite l’adeguamento strutturale,
la formazione, l’informazione, le procedure etc.
Valutazione dei fattori di rischio chimico - Facendo riferimento alla normativa europea sull’etichettatura dei prodotti chimici il problema della valutazione dei pericoli connessi con tali sostanze può essere affrontato mediante una sua suddivisione in:
Infiammabilità – Reattività –Tossicità –Rischio ambientale.
Come discusso precedentemente verrà qui affrontato in particolare il pericolo infiammabilità e
sarà introdotto qualche semplice concetto connesso con la tossicità. Questi rischi dipendono da: Proprietà Fisiche discusse nelle pagine precedenti - Proprietà Chimiche.
Proprietà chimiche - Una reazione chimica per essere spontanea deve soddisfare contemporaneamente due requisiti:
1-Energetico
L’energia dei prodotti di reazione deve essere minore di quella dei reagenti L’energia dei
vari legami presenti nelle molecole determina prevalentemente questa energia, quindi tendono a formarsi prodotti di reazione con legami più forti rispetto ad i reagenti iniziali. Nel caso di combustione
di solventi si formano ad esempio anidride carbonica (O=C=O) ed acqua (H-O-H) molecole che presentano legami molto forti.
2-Cinetico
La velocità con cui avviene la reazione deve essere compatibile con i tempi umani
Nelle reazioni organiche sia a livello applicativo (es. ottenimento di energia per combustione di
sostanze organiche quali benzina, gasolio, metano ecc.) che biologico (catabolismo con ottenimento
di energia per combustione di sostanze organiche quali il glucosio derivato dall’amido) le reazioni non
hanno normalmente problemi energetici ma solo cinetici. La velocità della reazione può essere talmente bassa che non avviene nei tempi umani.
La velocità di una reazione viene misurata attraverso la velocità di scomparsa dei reagenti o la
velocità di formazione dei prodotti di reazione ed aumenta all’aumentare delle concentrazioni delle
specie reagenti. Prendendo come esempio la reazione di combustione del metano: CH4 + 2 O2 →
CO2 + 2 H2O + Energia, questa reazione è molto favorita da un punto di vista energetico, i legami
presenti nelle molecole di anidride carbonica (CO2) ed acqua (H2O) sono infatti molto forti, ma in
assenza di un innesco non avviene. La velocità della reazione è troppo bassa a temperatura ambiente.
Perché le molecole reagiscano devono infatti avvenire degli urti fra le molecole reagenti ma
questi per portare all’evento reattivo devono avvenire con Energia > Energia di attivazione (Ea –
Figura 22). Infatti prima di cominciare a formarsi i nuovi legami covalenti, che porteranno ad i prodotti di reazione, bisogna vincere delle interazioni repulsive esistenti fra le molecole reagenti.
98
La velocità della reazione aumenta con la temperatura in quanto con l’aumento della temperatura aumenta l’energia cinetica di tutte le molecole e quindi aumenta il numero di molecole aventi energia superiore all’energia di attivazione, capaci di portare all’evento reattivo (Figura 23).
Aumenti di velocità di reazione si possono anche ottenere mediante l’utilizzo di catalizzatori (ad
esempio catalisi enzimatica presente nei sistemi biologici), che abbassano la energia di attivazione
incrementando così il numero di molecole che possono superare questa barriera più bassa (Figura 22).
E’ evidente che quando un processo di combustione viene innescato poi la forte liberazione di
calore che avviene nella reazione mantiene e sostiene la velocità della reazione.
Figura 22. Schematizzazione delle variazioni energetiche richieste per ottenere il procedere di una reazione chimica e confronto fra una reazione non catalizzata e catalizzata.
Figura 23. Dipendenza delle Energie cinetiche delle molecole dalla Temperatura
7.1. RISCHIO DA INCENDIO
Dopo queste note introduttive affrontiamo il problema della valutazione del rischio di un possibile incendio, che porta a rilasci non controllati di energia termica e di prodotti di combustione che possono essere soffocanti (CO2) o tossici (CO, HCl, HCN etc.).
Si ricorda infatti che il mondo attuale è “energia dipendente” e che la massima parte di questa
energia viene ottenuta tramite processi di combustione. Esempi classici sono le centrali termoelettri99
che, per la produzione dell’energia elettrica, ed i mezzi di trasporto su strada come le nostre auto, che
bruciando benzina o gasolio ottengono energia meccanica per muoversi. In ambedue questi casi il
rilascio energetico, al contrario degli incendi, è controllato e quindi può essere facilmente sfruttato.
Qualche definizione introduttiva: Combustibile: sostanza capace di ossidarsi in presenza di
un ossidante (comburente) in una reazione chimica. Può essere un composto puro (Es. H2, CH4, CO)
oppure sostanze in cui sono presenti miscele di composti (Es. benzina, gas liquido, legno).
Comburente: Sostanza capace di ridursi. Normalmente è O2 (ossigeno) presente nell’aria.
Combustione: Reazione con forte liberazione di calore fra il combustibile e il comburente.
Fiamma: Emissione di radiazioni, di cui una parte nel visibile, collegato allo sviluppo di energia che si verifica durante una combustione, che procede in fase gassosa.
7.1.1. Combustione dei gas
Temperatura di autoaccensione (Ta): E’ una misura dell’Energia di attivazione del processo
di combustione. Se questa energia è molto elevata la reazione di combustione non avviene ed il prodotto non è combustibile. La Ta è la temperatura minima alla quale il combustibile inizia a bruciare
spontaneamente in presenza di comburenti (es. aria) senza necessità di un innesco come una fiamma
od una scintilla. Se non si raggiunge la Ta non avviene la reazione di combustione (generalmente >>
200 °C). I composti cosiddetti non infiammabili hanno una Ta >800°C.
Possibili inneschi: Fiamme, scintille, materiali caldi, reazioni chimiche che liberano calore etc.
Limiti di infiammabilità inferiore e superiore: Miscela compresa entro i valori limiti del
campo di infiammabilità che, se innescata, dà luogo ad una combustione con propagazione della fiamma (reazione autosostenuta).
Se la quantità combustibile è troppo piccola si avrà una miscela povera, se la quantità combustibile è troppo elevata avremo una miscela troppo ricca. In tutti e due i casi la reazione di combustione non si autosostenta.
Es.:
C2H2 (acetilene):Limiti di infiammabilità in aria = 1,5 – 82%;
CH4 (metano): Limiti di infiammabilità in aria = 5 – 15%.
Quindi se un innesco fa scattare il processo di combustione in una miscela gassosa di combustibile e comburente, con concentrazioni relative tali da portarla al di fuori del campo di infiammabilità, la reazione di combustione si blocca
sione di vapore più bassa. Quindi una perdita di benzina può portare, in presenza di un innesco, ad un
incendio mentre la perdita di gasolio non porta a temperatura ambiente, anche in presenza di un innesco, ad un incendio. Essendo fuori dal proprio campo di infiammabilità la sua reazione di combustione non è autosostenuta e quindi non procede.
Va infine ricordato che quando il processo di combustione parte la forte liberazione di calore
facilita il passaggio allo stato di vapore delle molecole del liquido.
Su questa base la valutazione del rischio da incendio di un liquido va fatta considerando la
Temperatura di autoaccensione (i solventi clorurati non sono infiammabili perché la Ta è troppo elevata)
ed il Punto di infiammabilità (se questo è uguale od inferiore alla temperatura ambiente, questi liquidi, in
presenza di un innesco, possono prendere fuoco, come accade per la benzina ma non per il gasolio).
Esempio: Classificazione liquidi infiammabili (D.M. oli minerali)
sulla base del loro Punto di Infiammabilità:
A) Liquidi inf. con punto di inf. < 21°C
Es: benzina -alcol etilico
B) Liquidi inf. con punto di inf. > 21°C e < 65°C
Es: gasolio - petrolio
C) Liquidi combustibili con punto di inf.>65°C
Es: olio combustibile, lubrificante.
7.1.3. Combustione dei solidi
La combustione con fiamma avviene in fase gas dopo la pirolisi (degradazione termica) del solido con produzione di sostanze gassose infiammabili.
Il processo di combustione di liquidi o solidi dipende dalla grandezza delle particelle liquide o
solide. La combustione di specie ad elevata area superficiale, quali le nebbie o le polveri, si avvicina alla
combustione delle sostanze gassose (caratteristiche esplosive con rilasci energetici in tempi molto brevi).
La conoscenza dei vari parametri che intervengono a determinare il rischio da incendio permette da un lato di operare a livello preventivo ma nel caso che questo si verifichi anche a livello protettivo. In questa logica si può vedere la ricerca di sostituti o non infiammabili o con rischio di infiammabilità inferiore, l’utilizzo di impianti elettrici adeguati ai solventi utilizzati, l’utilizzo di sistemi di
ventilazione adeguati, la previsione di opportuni sistemi estinguenti etc.
7.2. GLI ASPETTI TOSSICOLOGICI NELLA VALUTAZIONE DEL RISCHIO
CHIMICO
7.1.2. Combustione dei liquidi
Il processo di combustione avviene in fase gassosa, sono infatti le molecole presenti al di
sopra del liquido allo stato di vapore che, urtando con energia superiore all’energia di attivazione
(necessità di un innesco) le molecole di ossigeno dell’aria, porteranno alla combustione del liquido.
Di qui la necessità di un passaggio di stato da liquido a vapore. Quindi oltre alla Temperatura di
autoaccensione, che definisce se un liquido è infiammabile oppure non lo è, occorre prendere in considerazione come per i gas il Limite di infiammabilità inferiore.
Da qui: Punto di infiammabilità = T minima alla quale il liquido emette una concentrazione
di vapori tali da rientrare nei limiti di infiammabilità.
Confrontando due liquidi infiammabili quali la benzina ed il gasolio, osserviamo che a temperatura ambiente mentre la benzina ha una tensione di vapore tale da fare entrare i suoi vapori nel
campo di infiammabilità questo non avviene con il gasolio, che essendo più altobollente, ha una ten-
Una sostanza è tossica quando causa effetti biologici dannosi in un organismo vivente che assume tale sostanza. Come vedremo tutte le sostanze possono esserlo, il parametro che determina la tossicità è la dose a cui avviene il danno biologico.
Le vie di assunzione delle sostanze tossiche sono:
1 - Inalazione di gas o vapori- via polmoni e bronchi - sistemi biologici ad elevata area
superficiale - via a maggior rischio - controllabile con mezzi di protezione collettivi quali sistemi di
areazione, cappe o con DPI = Dispositivi di Protezione Individuali ecc. quali ad esempio mashere
con filtri specifici, autorespiratori ecc.
2 - Ingestione - via stomaco ed intestino - facile da controllare con adeguate norme di comportamento e di igiene.
3 - Assorbimento cutaneo - via tessuti della pelle -specifico per sostanze apolari lipofile (facile da controllare con adeguati DPI - ad esempio guanti ecc.)
100
101
Uno dei parametri per valutare tale tossicità è il valore di LD50 che misura su basi statistiche la
concentrazione letale per il 50% delle specie biologica in studio, normalmente ratti. Questi valori vengono espressi in grammi o milligrami per kilogrammo peso della specie biologica in studio.
Riportiamo nella Tabella il grado di tossicità di sostanze sia provenienti dal mondo naturale, sia sintetizzate dall’uomo.
ambientale. Infatti, attraverso un complesso processo, questa elevata stabilità legata alla sua bassa
reattività porta ad elevati tempi di permanenza nell’ambiente e conseguentemente a fenomeni di
bioaccumulo nelle specie biologiche ed in particolare in quelle ricche di tessuti adiposi, che possono
portare al superamento della concentrazione tossica con danni anche irreversibili per la specie stessa.
In questa categoria si colloca ad esempio il Percloroetilene, solvente largamente usato ad esempio nel
lavaggio “a secco”.
Tabella 1. Tossicità di sostanze naturali e sintetiche
LD50 (approssimato) LD50 (approssimato) Sostanze “Naturali”
in mg/Kg
in g/Kg
>10'000
>10
Zucchero
1'000
1
Sale, etanolo, piretrine
100
10
10-1
10-2
Caffeina, rotenone
1
10-1
10-3
10-4
10-2
10-3
10-4
10-5
10-5
10-6
10-7
10-8
Nicotina
Tossina del serpente
a sonagli
Aflatossina-B
Sostanze “Sintetiche”
Malathion, atrazina,
mirex, aspirina
DDT, paraquat, codeina
Carbofurano, diazinone,
NaCN, As2O3
Parathion, stricnina
2,3,7,8-TCDD (diossina)
Tossine del tetano
e del botulino
8. CAPACITA’ SOLVENTE [2]
Nella ricerca di sostituti dei vari solventi bisogna tenere conto dei vari requisiti richiesti al solvente da utilizzare. Sicuramente quello fondamentale è la sua capacità solvente. Questa, prima di una
verifica sperimentale, può essere valutata sulla base dei parametri empirici di solubilità2 basati sulle
forze intermolecolari che entrano in giuoco nel processo di solubilizzazione e sulla regola empirica che
sostanze che hanno parametri di solubilità molto simili sono mutuamente solubili o miscibili.
8.1. PARAMETRI DI SOLUBILITÀ DI HILDEBRAND
Al fine di arrivare a definire quantitativamente la capacità solvente un primo approccio si basa
su un singolo parametro δ ricavato da Hildebrand sfruttando i calori di evaporazione, quale misura di tutte le forze intermolecolari che operano all’interno del solvente. In particolare il parametro δ di Hildebrand è la radice quadrata della energia coesiva c.
Pressione di coesione di un liquido c (∆Hv = calore di evaporazione, Vm = volume molare,
R = costante dei gas, T = temperatura espressa in K).
Ricordiamo che a livello della normativa europea sulla etichettatura di prodotti chimici una
sostanza con un LD50 inferiore od uguale a 25 mg/Kg peso viene classificata come altamente tossica,
se LD50 è compreso fra 25 e 200mg/kg peso come tossica e per valori di LD50 compreso fra 200 e
2000 mg/kg peso come nociva.
7.3. IL RISCHIO AMBIENTALE
c =(∆Hv – RT)/Vm
Parametro di solubilità di Hildebrand δ = c1/2
Questi parametri sono normalmente espressi in MPa1/2 o in cal1/2 cm-3/2. Quelli misurati in
sono circa due volte (per l’esattezza 2.0455) i valori misurati in cal1/2 cm-3/2.In Tabella 2 sono
riportati i valori di δ di vari solventi da cui si evidenzia un aumento di tale parametro passando dagli
alcani, ai clorurati, agli aromatici, agli esteri e chetoni, agli alcoli fino a raggiungere il valore massimo con l’acqua.
MPa1/2
Come già accennato in precedenza i rischi ambientali legati a specifici prodotti chimici possono essere dovuti ad interazioni negative con cicli naturali quali quelli che portano negli strati alti della
atmosfera alla formazione di ozono, che serve quale filtro per bloccare le radiazioni ad alta energia,
pericolose per l’uomo, provenienti dal sole. Questo ha portato ad accordi internazionali quali il
“Protocollo di Montreal” ed i suoi successivi emendamenti sulle sostanze che impoveriscono lo strato d’ozono.
Una altro parametro che incrementa la pericolosità ambientale è quella dovuta ai “Composti
Organici Volatili” (COV) che incrementando la già presente concentrazione naturale può portare, in
particolari condizioni climatiche, alla formazione di “Smog fotochimico” con formazione di concentrazioni elevate di ozono tossico. Anche questo aspetto è entrato nella normativa europea e recentemente anche in quella italiana.
Anche le sostanze che hanno una elevata stabilità, reagendo molto lentamente con l’acqua e
l’ossigeno presenti nella superficie terrestre, possono creare problemi connessi con la loro stabilità
102
103
Tabella 2. Parametri chimico fisici e di solubilità di Hildebrand δ per alcuni solventi
Solventi
Acqua
Formammide
1,2-Etandiolo
Metanolo
Etanolo
Acido acetico
1-Propanolo
2-Propanolo
Nitrometano
Acetonitrile
Dimetilsolfossido
N,N-Dimetil
formammide
Acetone
Nitrobenzene
Diclorometano
Piridina
Cloroformio
Etilacetato
Tetraidrofurano
Clorobenzene
Dietiletere
Benzene
Toluene
CCl4
n-Esano
Cicloesano
Tabella 3 - Parametri di Hildebrand δ ( MPa1/2 ) indicativi per alcune classi di polimeri
Temp.
Fusione
°C
0.0
2.55
-12.6
-97.7
-114.5
16.7
-126.2
-88.0
-28.55
-43.8
18.5
Temp.
ebollizione
°C
100.0
210.5
197.5
64.5
78.3
117.9
97.15
82.2
101.2
81.6
189.0
Costante
dielettrica
ε
78.30
111.0
37.7
32.66
24.55
6.17
20.45
19.92
35.94
35.94
46.45
Momento
dipolare
µ
5.9
11.2
7.7
5.7
5.8
5.6
5.5
5.5
11.9
11.8
13.5
Indice di
rifrazione
nD20
1.3330
1.4475
1.4318
1.3284
1.3614
1.3719
1.3856
1.3772
1.3819
1.3441
1.4793
MPa1/2
-60.4
-94.7
5.8
-94.9
-41.55
-63.5
-83.55
-108.4
-45.6
-116.3
5.5
-95.0
-22.8
-95.3
6.7
153.0
56.1
210.8
39.6
115.25
61.2
77.1
66.0
131.7
34.4
80.1
110.6
77.6
68.7
80.7
36.71
20.56
34.78
8.93
12.91
4.81
6.02
7.58
5.62
4.20
2.27
2.38
2.23
1.88
2.02
10.8
9.0
13.3
5.2
7.9
3.8
6.1
5.8
5.4
3.8
0.0
1.0
0.0
0.0
0.0
1.4305
1.3587
1.5562
1.4242
1.5102
1.4459
1.3724
1.4072
1.5248
1.3524
1.5011
1.4969
1.4602
1.3749
1.4262
24.8
20.2
20.5
19.8
21.9
19.0
18.6
18.6
19.4
15.1
18.8
18.2
17.6
14.9
16.8
δ
47.9
39.3
29.9
29.6
26.0
20.7
24.3
23.5
26.0
24.3
24,5
Polimero
Politetrafluoroetilene
Polipropilene
Polietilene
Gomma stirene butadiene
Polistirene
δ
12.7
16.2
16.4
16.6-17.4
17.4-19.6
Polimero
Polivinilcloruro
Polietilen tereftalato
Poliossimetilene
Poliammide6-6
Poliacrilonitrile
8.2.PARAMETRI DI SOLUBILITÀ DI HANSEN
Sebbene i parametri δ di Hildebrand siano ancora molto impiegati nella letteratura tecnica, sono
state verificate con solventi a maggior valore di δ delle incongruenze con i risultati sperimentali, che
hanno spinto altri autori ad una definizione multiparametrica della polarità dei solventi.
L’approccio multiparametrico, che è stato maggiormente utilizzato a livello applicativo, è quello proposto da Hansen.3 In questa trattazione il valore di Hildebrand viene suddiviso in tre componenti: il primo δd collegato alle forze di dispersione (dipolo istantaneo – dipolo indotto), un secondo δp collegato alle interazioni di tipo dipolo-dipolo e dipolo-dipolo indotto ed un terzo δh dovuto alle interazioni di legame ad idrogeno.
Su questa base: δo2 = δd2 + δp2 + δh2
dove δo è il parametro di solubilità di Hildebrand e δd, δp e δh sono i parametri di solubilità di
Hansen (HSP) rispettivamente per le interazioni dispersive, polari e di legame ad idrogeno.
In Tabella 4 sono riportati tali parametri per una serie di solventi.
Hansen, studiando la solubilità dei polimeri, trovò che raddoppiando l’asse del parametri delle
forze dispersive, otteneva un volume di solubilità approssimativamente sferico per ciascun polimero.
In particolare il centro della sfera di solubilità era definito da tre parametri δd, δp, e δh e da un raggio di interazione R, per cui solo i liquidi i cui parametri rientravano nel volume della sfera erano solventi capaci di sciogliere quel polimero.
Sulla base di questi parametri un soluto per esempio un polimero (vedi Tabella 3) presenta una
completa solubilità o miscibilità se ha un parametro δ il più possibile uguale a quello del solvente.
104
δ
19.6
21.9
22.7
27.6
31.5
105
Tabella 4 - Parametri di Hansen ( HSP - MPa1/2) per alcuni solventi
Solventi
δο
δd
δp
δh
Solventi
δο
δd
δp
δh
Acqua
Formammide
1,2-Etandiolo
Dimetilsolfone
Metanolo
DMSO
Etanolo
Sulfolano
Nitrometano
DMF
1-Propanolo
Acetonitrile
2-Propanolo
N-metil-2pirrolidone
N,N-dimetil
acetammide
Nitrobenzene
Piridina
Etillattato
47.8
36.6
32.9
29.8
29.6
26.7
26.5
25.9
25.1
24.8
24.5
24.4
23.5
15.5
17.2
17.0
19.0
15.1
18.4
15.8
18.4
15.8
17.4
16.0
15.3
15.8
16.0
26.2
11.0
19.4
12.3
16.4
8.8
16.6
18.8
13.7
6.8
18.0
6.1
42.3
19.0
26.0
12.3
22.3
10.2
19.4
7.4
5.1
11.3
17.4
6.1
16.4
21.4
20.3
20.3
20.0
19.6
19.4
19.0
19.0
18.7
18.6
18.2
18.1
17.8
14.5
18.2
18.3
15.5
19.0
16.8
17.8
16.0
15.5
18.4
18.0
15.8
17.8
8.0
6.3
5.7
10
4.3
5.7
3.1
9.0
3.9
0.0
1.4
5.3
0.0
13
6.1
0.0
7.0
2.0
8.0
5.7
5.1
9.7
2.0
2.0
7.2
0.6
22.9
18.0
12.3
7.2
Acido acetico
Diclorometano
Percloroetilene
Acetone
Clorobenzene
Tetraidrofurano
Cloroformio
Metiletilchetone
Dimetilcarbonato
Benzene
Toluene
Etilacetato
Tetraclorometano
Metilisobutil
chetone
17.0 15.3 3.9
9.7
22.7
22.2
21.8
21.7
16.8
20.0
19.0
16.0
11.5
8.6
8.8
7.6
10.2
4.1
5.9
12.5
16.8 16.8 0.0
15.8 14.5 2.9
14.9 14.9 0.0
0.2
5.1
0.0
12.0 12.0 0.0
0.0
Cicloesano
Dietiletere
n-Esano
Perfluoro
eptano
Una corretta applicazione dei parametri di Hansen dovrebbe portare a grafici tridimensionali ed
a sfere di solvatazione (vedi Figura 24).
Nell’ambito di tali sfere, essendo i parametri di solubilità sufficientemente simili a quelli del
soluto rappresentato dal centro della sfera, sono soddisfatti i requisiti di similitudine strutturale richiesti per ottenere la solubilità.
Per semplificare l’applicabilità, i volumi di solubilità possono essere illustrati in due dimensioni, generalmente utilizzando δp e δh ed utilizzando un cerchio, quale area che caratterizza la solubilità (vedi Figura 25 ).
Mediante l’utilizzo di questo approccio parametrico è possibile quindi avere informazioni preliminari sul potere solvente di un liquido nei confronti di uno specifico soluto. Utilizzando infatti il
principio della similitudine strutturale fra soluto e solvente, che si ricerca in base a questi parametri,
si può restringere la verifica sperimentale solo a quei solventi che rientrano nel volume di solubilità.
Figura 25. Visione bidimensionale del volume di solubilità.
Un’altra visione dei parametri di solubilità di Hansen può essere ottenuta dai grafici triangolari, che riportano in un solo piano i tre parametri espressi in una logica relativa. Nella figura 26 sono
riportate le varie classi di solventi suddivisi in base alle loro caratteristiche strutturali. Ad esempio i
solventi alifatici ed aromatici avranno come componente quasi esclusiva (ca. 100%) le interazioni
dispersive mentre gli altri tipi di interazioni intervengono in misura quasi trascurabile. Negli alcoli ed
i glicol sono invece le interazioni via legame ad idrogeno a prevalere rispetto alle altre.
In questi grafici possono essere quindi visualizzati i campi di solubilità di un determinato soluto.
Figura 24. Visione tridimensionale del volume di solubilità
(espresso con i parametri di Hansen ed il raggio di interazione).
106
107
9. RICERCA DI NUOVI SOLVENTI
9.1. DIMETILCARBONATO [3]
Interazioni via legame
ad idrogeno fh
Interazioni polari fp
Dall’inizio degli anni ‘80 EniChem ha introdotto sul mercato degli intermedi il dimetilcarbonato
[(CH3O)2CO - DMC], producendolo su scala industriale secondo una tecnologia pulita ed innovativa, che si
differenzia radicalmente dalla tecnologia tradizionale, basata sull’utilizzo del fosgene (ClCO-COCl), sostanza
ad elevato rischio tossicologico. La nuova tecnologia, basata sulla carbonilazione ossidativa del metanolo, permette di affrancarsi totalmente dal ciclo industriale del cloro. Lo schema di reazione è il seguente:
CO + 2 CH3OH + 1/2 O2 → (CH3O)2CO + H2O
Interazioni dispersive fd
Il nuovo procedimento di produzione presenta caratteristiche favorevoli dal punto di vista
ambientale, in primis perché impiega materie prime relativamente meno pericolose, ma soprattutto in
quanto l’unico sottoprodotto significativo della reazione è acqua. Esso ben si presta alla realizzazione di impianti produttivi di elevata capacità.
Il DMC a sua volta è in grado di sostituire il fosgene nelle reazioni di carbonilazione, ed il
dimetil solfato o il metil cloruro nelle reazioni di metilazione, fornendo quindi, nel segmento della
produzione di intermedi, un’alternativa a prodotti rischiosi. Sulla base di tali caratteristiche, il DMC
ha trovato impiego come intermedio in processi sia nel settore farmaceutico e dei “fine-chemicals”,
prodotti chimici per impieghi specialistici, sia nella fabbricazione di polimeri, quali i policarbonati
aromatici e, in prospettiva, i poliuretani.
Accanto a queste applicazioni come intermedio, ormai consolidate, il DMC sta ora trovando
impiego anche nel settore dei solventi, in quanto molti produttori ed utilizzatori sono consapevoli del
fatto che l’utilizzo di formulazioni basate su solventi tradizionali a rischio di tossicità e ad elevato
impatto ambientale è sempre meno tollerabile. Sulla base di tali motivazioni, in ambito mondiale, e
con maggiore intensità nei paesi maggiormente evoluti, si riscontra in generale un andamento negativo per quanto riguarda la quantità di solventi utilizzati.
Figura 26. Visione in un piano dei tre parametri di solubilità.
Figura 27. Collocazione del DMC nel diagramma di Hansen
108
109
Ad esempio, nel settore dei prodotti vernicianti, si adottano nuove tecnologie, che da una parte
prevedono la messa a punto di formulazioni a base acquosa o ad alto contenuto di solidi e dall’altra
sono orientate verso la sostituzione dei solventi a rischio più elevato. Questo processo di sostituzione
in taluni casi ha assunto la forma di un vero e proprio bando dettato obbligatoriamente dal legislatore. Le applicazioni più coinvolte non sono solo quelle che prevedono il rilascio finale della totalità del
solvente all’atmosfera, ma la maggior parte delle lavorazioni industriali, data l’introduzione di leggi
che regolano in modo sempre più stringente la quantità e la qualità delle emissioni delle sostanze
organiche volatili (in inglese V.O.C. in italiano C.O.V.).
Per il mercato dei solventi, il segmento degli ossigenati è l’unico che presenta una leggera crescita in valore assoluto, con un andamento in percentuale fortemente positivo .Tuttavia, anche nella
classe dei solventi ossigenati, non mancano problematiche relative al loro impiego, ad esempio l’utilizzo degli esteri va sostituendo quello dei chetoni. Nella classe degli esteri la possibilità di impiego
dei carbonati alchilici come solventi è nota da tempo e non rappresenta in assoluto una novità, ma la
crescente sensibilità sviluppatasi nell’ultimo decennio verso le tematiche ambientali ed il connesso
interesse all’impiego di prodotti chimici “puliti” hanno portato a valorizzare in modo più consapevole e approfondito le loro potenzialità applicative.
Il parametro di solubilità del DMC, calcolato secondo Hildebrand in riferimento alla densità di
energia coesiva, sulla base del volume molare e dell’energia di vaporizzazione, risulta pari a 18.7
[MPa1/2] a 25 °C, assai simile, ad esempio, a quello dell’acetone (vedi Tabella 4 e Figura 27).
Il DMC si inserisce nell’area dei solventi moderatamente polari e con moderata capacità di formare legame di idrogeno.
Le caratteristiche chimico-fisiche del DMC non condurrebbero da sole ad una reale valenza applicativa se non vi fossero riscontri altrettanto positivi nelle caratteristiche di sicurezza e di ridotto impatto ambientale. Il DMC presenta, infatti, un profilo tossicologico ed eco-tossicologico particolarmente
favorevole, che ne permette lo stoccaggio e l’applicazione senza particolari precauzioni. Infatti il DMC
è caratterizzato da bassissima tossicità acuta, sia per ingestione e contatto che per inalazione, e subcronica, per assimilazione prolungata. Dal punto di vista ambientale il DMC denota bassissima tossicità
verso gli organismi acquatici e pronta biodegradabilità e non è considerato potenzialmente bioaccumulabile. Di conseguenza la classificazione di pericolosità per le acque prevede per il DMC una valutazione di debole rischiosità .E’ altresì degna di nota la sua trascurabile tendenza alla formazione fotochimica d’ozono nei bassi strati atmosferici. I solventi sono tipiche sostanze organiche volatili (comunemente denominate S.O.V. o V.O.C.) implicate, come già detto, nella produzione fotochimica troposferica di
ozono in aree urbane inquinate. Lavori recenti hanno evidenziato che il DMC presenta di gran lunga la
più bassa tendenza alla formazione di ozono tra le più comuni sostanze organiche volatili ossigenate.
Sulla base delle proprietà sopra illustrate, il DMC non rientra in alcuna classe di pericolosità
secondo le norme dell’Unione Europea, salvo la facile infiammabilità.
Figura 28. Regione supercritica.
Per molti sistemi, ad esempio l’acqua, tali valori critici corrispondono a temperature e pressioni
molto elevate. Sicuramente i valori di Tc = 31.3°C e Pc = 72.9 Atm che caratterizzano la CO2 hanno
permesso un sua semplice utilizzazione quale solvente supercritico. I solventi supercritici, proprio per la
loro caratteristica di essere in uno stato fisico intermedio fra quello gassoso e quello liquido, sono caratterizzati da una notevole velocità di diffusione all’interno dei solidi, facilitando in tal modo enormemente i processi di estrazione. Ad esempio l’estrazione della caffeina dal caffè per ottenere i caffè deccaffeinati ottenuta utilizzando la CO2 supercritica è un ottimo esempio di tali applicazioni. Tale processo evita
inoltre che nel prodotto destinato ad usi alimentari siano presenti traccie di solventi residui.
A questo si aggiunge una assenza di rischi da infiammabilità e da tossicità, che rendono questo
mezzo molto interessante da un punto di vista applicativo.
9.2. UTILIZZO DI SOLVENTI SUPERCRITICI [4]
Figura 29. Parametri di solubilità di Hildebrand dell'anidride carbonica supercritica a differenti temperature (40 - 50
- 60 °C) e pressioni e confronto con quelli di alcuni solventi.
Lo stato supercritico è un particolare stato fisico della materia, intermedio fra quello liquido e quello gassoso, che viene raggiunto quando la temperatura e la pressione del sistema sono superiori ad una
temperatura ed una pressione critica specifica per ogni sostanza (vedi Figura 28). Al di sopra di tale pressione e temperatura non c’è più possibilità di coesistenza di una fase gas ed una liquida, esiste una sola fase
chiamata supercritica. Nella figura sono riportate le varie zone di esistenza dello stato gassoso, liquido, solido e supercritico, che evidentemente dipendono dai due parametri fisici pressione e temperatura.
Anche il potere solvente della CO2 supercritica può essere valutato con i parametri di solubilità ad esempio di Hildebrand (vedi Figura 29), che evidenziano una bassa polarità di questo mezzo.
Interessante è la possibilità di poter variare il suo potere solvente con la pressione. Nel caso in cui non
110
111
si riesca ad ottenere un parametro di Hildebrand soddisfacente per ottenere la solubilizzazione di specifici soluti, si può ricorrere all’utilizzo di cosolventi polari. Ad esempio si può addizionare piccole
quantità di acqua, che presenta un parametro di Hildebrand elevato, alla CO2 supercritica. In questo
modo la miscela risultante presenterà valori del parametro di Hildebrand sufficientemente elevati (2025 MPa1/2) da poter solubilizzare un soluto a media polarità.
Concludendo riportiamo alcune applicazioni industriali recenti della CO2 supercritica. Nel
1999 la Du Pont ha annunciato un investimento di 40 milioni di dollari in North Carolina per valutare la CO2 supercritica quale solvente per la produzione di Teflon (solventi usuali della polimerizzazione sono i clorofluorocarburi, che rientrano nel protocollo di Montreal).
La CO2 supercritica è un buon plasticizzante per i polimeri. Questo apre nuove possibilità nell’impregnazione di molecole nel materiale polimerico (coloranti per polimeri e fibre).
Alcune industrie americane stanno mandando in produzione sistemi per il lavaggio a secco basati sull’impiego di anidride carbonica supercritica e speciali surfattanti Questo approccio tecnologico potrebbe quindi
risolvere il problema della sostituzione del percloroetilene, solvente attualmente in uso in tali applicazioni, che
per quanto sia non infiammabile e a tossicità non elevata, pone però grossi problemi ambientali, legati alla sua
bassa reattività, con elevati tempi di ecopermanenza e fenomeni di bioaccumulo come discusso in precedenza.
10. CONCLUSIONI
Come già riportato nell’introduzione, la scelta di un solvente sta diventando un problema sempre più complesso, sia per il numero elevatissimo di parametri da valutare, conseguenza anche dell’apporto di nuove conoscenze, sia per la richiesta di standard di sicurezza sempre più elevati.
Sicuramente l’avanzare delle conoscenze sta rispondendo positivamente a queste richieste ad
esempio con l’utilizzo di solventi più sicuri quale l’acqua, con l’avvento di nuovi mezzi solventi etc.
In questa logica va anche visto l’utilizzo dei parametri di solubilità che permettono già su basi non
sperimentali una previsione del potere solvente dei nuovi mezzi.
BIBLIOGRAFIA
1- Per gli aspetti correlati con i pericoli chimici vedi ad esempio i seguenti siti internet
http://www.unipr.it/arpa/spp/NormeBuonaTecnica/ManualeSicurezza.doc
http://www.unipv.it/safety/ http://safe.uniud.it (Questi siti offrono anche interessanti collegamenti con altri siti sia italiani che esteri – Ad esempio per i problemi ambientali si consiglia il collegamento al sito della Environmental Protection Agency -USA).
2- Per gli aspetti correlati con i parametri di solubilità vedi ad esempio http://techdev.freeyellow.
com/parameters.html A. F. M. Barton - Chem. Rev. 1975 75 730-753. C. M. Hansen Hansen
Solubility Parameters - A User’s Handbook -CRC Press Boca Raton 2000, A. Pochini, Parametri
empirici per definire la capacità solvente, La Chimica e L’Industria, Luglio/Agosto 2000, p. 657.
3- Per il dimetilcarbonato vedi F. Mizia, M. Notari, F. Rivetti, U. Romano, C. Zecchini, Carbonati
alchilici: solventi della nuova generazione, La Chimica e L’Industria, Marzo 2001, p. 47.
4- Per i fluidi supercritici vedi ad esempio: http://ull.chemistry.uakron.edu/chemsep/super/
Per gli aspetti applicativi collegati all’utilizzo dei fluidi supercritici, visto il notevole sviluppo del settore, si
consigli, per ottenere dati aggiornati, di compiere una ricerca utilizzando i comuni motori di ricerca
112
Fotochimica
ENERGIA PULITA: RISORSE RINNOVABILI
E PROCESSI FOTOCHIMICI
ANGELO ALBINI
1. RISORSE RINNOVABILI: IL RUOLO DELL’ENERGIA SOLARE
L’attenzione posta dall’opinione pubblica su temi quali l’uso corretto dell’energia, che sia
meno inquinante per l’ambiente, come pure sulla disponibilità e sulla rinnovabilità delle risorse energetiche è sempre crescente.
Si tratta evidentemente di problemi diversi: da una parte usare bene le risorse naturali, senza
causare danni irreversibili all’ambiente; dall’altra, chiederci se stiamo consumando queste risorse a
un ritmo che condurrà presto al loro esaurimento.
Di fatto, la fonte di energia primaria è la radiazione solare, che raggiunge il nostro pianeta con
un flusso che, pur ovviamente variando secondo le differenti latitudini, sul totale della superficie terrestre corrisponde alla ragguardevole quantità media di 1017 watt. Questa enorme quantità di energia
supera il fabbisogno energetico che la società umana ha adesso e in un futuro prevedibile. Il problema è: come raccogliere la radiazione e convertirla in energia utilizzabile in modo efficiente?
La natura si serve della radiazione solare per convertire, attraverso gli organismi vegetali, anidride carbonica ed acqua in sostanze organiche. Queste ultime, non solo sono utilizzate come materiali da costruzione, in quanto sono le molecole costituenti gli organismi vegetali ed animali, ma vengono riossidate fornendo energia. I composti organici quindi hanno una doppia funzione, plastica ed
energetica, ed in definitiva sono comunque destinati alla riossidazione. La moderna industria utilizza
petrolio e carbone derivanti dalla fossilizzazione, per trasformarli sia in combustibili sia in prodotti
(Fig. 1). Queste fonti sono relativamente facili da usare, e su di esse si basa lo sviluppo della chimica, che ha rivoluzionato la vita quotidiana, ma ci pone appunto i problemi dell’inquinamento e della
limitata disponibilità.
Figura 1: La moderna industria utilizza petrolio e carbone derivanti dalla fossilizzazione, per trasformarli sia in
combustibili sia in prodotti.
115
2. LA RADIAZIONE SOLARE COME FONTE DI ENERGIA
2.1 SFRUTTAMENTO DELL’ENERGIA SOLARE
A medio lungo termine bisogna quindi considerare se si possa usufruire direttamente dell’energia solare. La lunghezza d’onda della radiazione che raggiunge la Terra si estende dal vicino ultravioletto a tutto l’infrarosso (Fig. 2). Questa è composta quindi da fotoni diversi, da quelli molto energetici dell’ultravioletto a quelli assai meno energetici dell’infrarosso. La trasformazione in calore non
dà problemi: ad esempio, l’acqua assorbe parte dell’IR. Questo corrisponde a energia vibrazionale
delle molecole e viene facilmente tradotto in un aumento dell’energia cinetica delle molecole, cioè in
un innalzamento della temperatura, come è esperienza comune.
sulla terra integralmente, cioè con un cielo sereno. Tuttavia, se si tiene conto che la radiazione a maggior lunghezza d’onda è maggiormente deviata o assorbita dalle nuvole, con un cielo nuvoloso è più
conveniente che lo stato eccitato sia all’estremo del visibile, ca. 750-800 nm (Tab. 1). La molecola
che assorbe la luce, la clorofilla, assorbe appunto in questa regione, ragionevolmente a motivo del
fatto che le piante verdi si sono evolute in ere con cieli nuvolosi. Comunque sia, anche se questo è il
miglior compromesso, corrisponde sempre a uno sfruttamento parziale della radiazione solare.
Figura 2: Spettro della radiazione solare.
Più interessante sarebbe trasformare l’energia solare in forme più versatili di energia, come
energia elettrica o energia chimica. In questo caso però il secondo principio della termodinamica ci
dice che solo parte sarà convertibile nella forma desiderata, parte sarà comunque trasformata in calore. Il sistema usato dalla natura, la fotosintesi clorofilliana, sfrutta l’energia solare attraverso la promozione di molecole nello stato eccitato, il che porta ad ulteriori limitazioni. Infatti, questa conversione avviene solo se il fotone incidente ha energia almeno pari alla differenza d’energia tra stato eccitato e stato fondamentale. Dobbiamo allora porci il seguente problema: quale energia deve avere lo
stato eccitato per sfruttare nel modo più conveniente i fotoni della radiazione solare?
Se scegliamo una molecola con uno stato eccitato molto alto, avremo bensì immagazzinato di
un grosso quantitativo d’energia per ogni fotone assorbito, ma di tali fotoni nello spettro solare ce n’è
pochi. D’altra parte, se lo stato eccitato è troppo basso, la frazione assorbita sarà grande dato che i
fotoni assorbiti sono quelli di energia eguale o superiore, ma solo la parte esattamente corrispondente all’energia di quello stato verrà immagazzinata come energia elettronica, mentre il resto verrà perso
come calore. Di nuovo quindi si ha uno sfruttamento parziale, perdendo una gran parte dell’energia
dei fotoni più energetici (un livellamento verso il basso, come si vede in Fig. 3).[1]
Un semplice calcolo aritmetico che tenga conto dello spettro della radiazione solare (Fig. 2) ci
permette di calcolare il miglior compromesso. Questo mostra che l’efficienza massima di assorbimento si ha con uno stato eccitato nel vicino infrarosso (ca. 1100 nm) se la radiazione solare giunge
116
Figura 3: I fotoni assorbiti sono quelli di energia eguale o superiore a quella dello stato eccitato più basso di una molecola. Se lo stato eccitato è troppo alto, una frazione troppo piccola della radiazione verrà assorbita, se è troppo basso,
la frazione assorbita sarà grande ma solo una parte verrà immagazzinata come energia elettronica, mentre il resto verrà
perso come calore
117
Di fatto, su questa base si può calcolare che un sistema che convertisse la radiazione solare in
energia attraverso uno schema fotochimico come quello della fotosintesi clorofilliana (di cui si dirà
ancora in seguito) dovrebbe avere un rendimento del 12%.
Tabella 1. Efficienza di conversione dell’energia solare.
E’ opportuno notare che la fotosintesi clorofilliana produce molecole organiche, carboidrati da
anidride carbonica, appunto perché orientata a fornire il materiale plastico alle cellule, oltre che l’energia per le loro funzioni, ma se mirassimo al solo scopo di ottenere energia si potrebbero far avvenire con la luce solare reazioni diverse, ad esempio si potrebbe ridurre l’azoto ad ammoniaca (utilizzabile poi come fertilizzante), oppure produrre idrogeno, che è un combustibile molto più pulito degli
idrocarburi. Come si vede dalla Tabella 3, questi tre processi forniscono quantità simili di energia.
Tabella 3: quantità di energia fornita dai processi: fotosintesi colorofilliana, riduzione dell’azoto ad ammoniaca,
produzione di idrogeno dall’acqua.
→
(CH2O) + O2
∆G 124 kJ/mol per 1/4 O2
2/3 N2 + 2 H2O →
4/3 NH3 + O2
∆G 113 kJ/mol per 1/4 O2
2 H2 + O2
∆G 118 kJ/mol per 1/4 O2
CO2 + H2O
2 H2O
→
2. 2 IMMAGAZZINARE ENERGIA CHIMICA
2.1 EFFICIENZA
Quello detto sopra è comunque solo un limite teorico. In realtà, la Tabella 2 mostra chiaramente
che l’efficienza della conversione della radiazione solare in energia per la vegetazione spontanea
avviene con un rendimento molto più basso di quanto previsto. Una constatazione questa che non
deve stupire, dato che la fotosintesi dei vegetali mira allo sviluppo dell’individuo e della specie, non
certo ad accumulare energia per fruitori esterni. L’agricoltura, nel corso della sua lunga storia ha alterato le specie vegetali in modo che accumulassero sempre più energia chimica sfruttabile dall’organismo umano sotto forma di cibi energetici (si pensi alla spiga del frumento moderno in confronto a
quella delle specie selvatiche), sviluppando sistemi sempre più efficienti fino a raggiungere valori
molto ragguardevoli (4%). Va tuttavia tenuto presente che l’accresciuto rendimento è in parte apparente, in quanto l’agricoltura avanzata richiede l’uso di fertilizzanti, diserbanti e insetticidi, che l’industria chimica ha a sua volta prodotto consumando energia; così pure consumano energia l’irrigazione e l’uso delle macchine agricole. Quindi al maggior ricavo di energia va sottratta la spesa di energia per ottenerlo Inoltre, spesso l’uso a scopi energetici dei prodotti vegetali richiede ulteriore elaborazione chimica (ad esempio, gli zuccheri non sono adatti come combustibile e bisogna trasformarli
in etanolo attraverso fermentazione e distillazione), che comporta un ulteriore consumo di parte dell’energia disponibile.
In realtà, se lo scopo è produrre solo energia e non composti chimici, si può pensare di ricorrere a un sistema ciclico. In questo caso la radiazione solare genera prodotti ad alta energia (P nella Fig.
4) a partire da una forma a bassa energia (R). I prodotti P poi si riconvertono nei reagenti R in un ciclo
ripetibile a volontà restituendo l’energia. Tuttavia, questo schema non sfrutterebbe tutta l’energia
assorbita (hν). Infatti P si può formare solo se è energeticamente più basso dello stato eccitato R*
(vedi il termine Es) e inoltre, perché l’energia sia immagazzinabile finché non è richiesta, la conversione di P in R non deve essere troppo veloce, deve cioè avvenire attraverso una barriera considerevole di attivazione (vedi il termine Ea), che bisognerà fornire al sistema al momento dell’utilizzo. La
quantità di energia effettivamente usabile sarà quindi hν - Es - Ea.
Tabella 2. Efficienza della conversione da parte delle piante verdi
Valore teorico per uno schema a due fotoni
da parte delle piante verdi:
12%
biomassa totale
ca. 0.15%
agricoltura avanzata
0.2-1.2%
agricoltura, valori massimi
2-4%
Figura 4: Ciclo di generazione di prodotti ad alta energia (P) che poi si riconvertano nella forma a bassa energia (R)
118
119
Sistemi del genere sono stati attivamente studiati e ne sono stati individuati alcuni che possono
essere convertiti tra forma a bassa e ad alta energia molte volte senza decomposizione. Un esempio tra
le sostanze organiche ne è la fotoisomerizzazione reversibile del norbornadiene a quadriciclano (Fig.
5); si passa da un idrocarburo (simile per struttura ai componenti delle benzine) a energia relativamente bassa a uno più energetico e viceversa attraverso un sistema concettualmente semplice che però
richiede fotoni di energia piuttosto alta per passare alla forma a maggior energia e poi ne spreca una
notevole frazione nel tornare alla forma meno energetica. In realtà forse l’uso più semplice del quadriciclano è quello come supercarburante ad alta energia. Un esempio invece tra i composti inorganici è
la fotodissociazione reversibile del cloruro di nitrosile (NOCl). In questo caso l’energia necessaria al
processo è piuttosto bassa e quindi viene sfruttata una gran arte dell’energia solare (fotoni fino a 640
nm, Fig. 6). Peraltro il sistema si basa su sostanze altamente corrosive (in particolare il cloro) e quindi se lo si volesse applicare in grande scala sarebbe necessario risolvere gravi problemi di ingegneria.
2.3 FOTOSINTESI ARTIFICIALE
Se si volesse comunque realizzare una fotosintesi artificiale per produrre un combustibile, converrebbe orientarsi verso un combustibile pulito, l’idrogeno, cioè svolgere l’elettrolisi fotoindotta dell’acqua, che, come indicato in Tabella 4 (equazione 1), avviene a un potenziale simile a quello a cui
(teoricamente) potrebbe essere realizzata elettrochimicamente la riduzione dell’anidride carbonica a
dare carboidrati (equazione 2).
Tabella 4.: (1) fotosintesi clorofilliana; (2) elettrolisi fotoindotta dell’acqua
1
2
Questa reazione differirebbe dalla fotosintesi clorofilliana nel produrre direttamente idrogeno,
invece che molecole di NADH e NADPH per riduzione dei corrispondenti coenzimi (possiamo dire
che la fotosintesi clorofilliana produce ‘potere riducente’, cioè molecole in grado di ridurre altri composti e non direttamente idrogeno).
Figura 5: fotoisomerizzazione reversibile del norbornadiene a quadriciclano
Figura 6: fotodissociazione reversibile del cloruro di nitrosile
120
Figura 7. Nella fotosintesi clorofilliana la riduzione a NAPDH avviene attraverso una serie di intermedi situati
nella membrana
121
Come si vede nella Fig. 7, la fotosintesi si basa sull’assorbimento di due fotoni di luce da parte
di due sistemi diversi, PS I e PS II e in ciascuno dei due casi la molecola di clorofilla eccitata cede
un elettrone a un accettore, ad esempio un chinone Q, che a sua volta lo trasferisce a un accettore col
potenziale redox meno negativo, ad esempio un citocromo C. Questo sistema piuttosto complicato
serve ad impedire gli equilibri in senso opposto, rendendo irreversibile l’iniziale trasferimento di elettrone fotoindotto, in maniera che in definitiva l’acqua liberi ossigeno e si accumuli coenzima ridotto
(NADPH) che poi la cellula usa come fonte di energia.
Tale fotoelettrolisi potrebbe essere ottenuta senza elettrodi, in maniera simile alla fotosintesi,
sfruttando il fatto che gli stati eccitati sono sia migliori ossidanti (in quanto possono accettare un elettrone nel ‘buco’ creatosi nell’orbitale occupato più alto, legante o non legante) sia migliori riducenti
(in quanto possono donare l’elettrone promosso in un orbitale antilegante) dei corrispondenti stati
fondamentali (Fig. 8). Ad esempio, un riducente portato nello stato eccitato con un fotone di 700 nm,
corrispondenti a 1.76 V, vede il proprio potenziale abbassarsi di una tale quantità, e nello stesso modo
un ossidante vede alzarsi il potenziale della stessa quantità.
sufficiente a produrre la variazione richiesta, cioè è maggiore della differenza di potenziale tra gli
equilibri di ossidazione e riduzione dell’acqua. Non basta però trovare un sensibilizzatore che abbia
energia di eccitazione e potenziali redox opportuni: infatti, i processi di trasferimento di elettrone
sono troppo lenti per competere con la breve vita dello stato eccitato e semplici sistemi come quelli
indicati nella figura 9 non funzionano. Non per nulla la fotosintesi clorofilliana non avviene con le
molecole di clorofilla isolate, ma nel sistema altamente organizzato dei due fotosistemi PS I e PS II
nei cloroplasti, in cui i passaggi redox coinvolgono una serie di intermedi opportunamente situati nella
membrana in modo da rendere efficiente il processo (Fig. 7).
Figura 9: Fotoelettrolisi dell’acqua con l’utilizzo di un fotosensibilizzatore (S)
Figura 8. Gli stati eccitati sono sia migliori ossidanti (in quanto possono accettare un elettrone nel ‘buco’ creatosi
nell’orbitale occupato più alto, legante o non legante) sia migliori riducenti (in quanto possono donare l’elettrone
promosso in un orbitale antilegante) dei corrispondenti stati fondamentali
A partire dagli anni 80, dopo la crisi energetica degli anni precedenti, c’è stata molta ricerca
sulla fotoelettrolisi dell’acqua. Per esempio si potrebbe scegliere un fotosensibilizzatore S (cioè una
molecola che assorbe la radiazione hν, passando allo stato eccitato S*, vedi Fig. 9). Il potenziale redox
di S nello stato fondamentale (S•+/S) è tale che questo può ossidare l’acqua, mentre quello nello stato
eccitato (S•+/S*) permette la riduzione dell’acqua dopo l’eccitazione. Un quanto di 700 nm è più che
122
Figura 10: Svolgimento dell’idrogeno dall’acqua attraverso un donatore sacrificale.
123
La ricerca ha portato a realizzare molti sistemi in cui l’idrogeno viene di fatto svolto per irraggiamento, non però per riduzione dell’acqua, ma attraverso la partecipazione di un cosiddetto ‘donatore sacrificale’ (D nella Fig. 10). Questo è una molecola che è in grado di donare un elettrone abbastanza velocemente da rendere la reazione sufficientemente efficiente. Si tratta quindi di un sistema scientificamente
interessante come modello, ma non di una valida alternativa per produrre idrogeno dato che questi donatori sono molecole ad alta energia esse stesse. Similmente si può ottenere lo svolgimento di ossigeno sfruttando un ossidante sacrificale, con le stesse limitazioni applicative. Anzi, i due semisistemi possono essere accoppiati in modo da sviluppare sia idrogeno sia ossigeno per assorbimento di radiazione solare, anche
se evidentemente in questo modo non si immagazzina di fatto energia solare, ma piuttosto si usa l’energia
chimica del donatore e dell’accettore per produrre la scissione dell’acqua. Allo stato attuale, si può dire
che una fotosintesi artificiale non è stata ancora sviluppata ed il sistema naturale per trasformare energia
luminosa in energia chimica è troppo complesso per essere imitato.2 Un risultato decisamente migliore è
stato ottenuto con le celle fotovoltaiche che trasformano l’energia solare in energia elettrica.
3. LA RADIAZIONE SOLARE PER LA SINTESI DI MOLECOLE
3.1 REAZIONI FOTOCHIMICHE
Un altro utilizzo vantaggioso della radiazione solare è quello di produrre molecole utili di per
sè o come intermedi per ulteriori trasformazioni, realizzare cioè delle reazioni fotochimiche. Metodi
fotochimici sono infatti intrinsecamente ‘verdi’, cioè ecocompatibili, in quanto realizzano le trasformazioni chimiche non attraverso reattivi aggressivi, che poi danno problemi di eliminazione di residui, ma attraverso il reagente ‘verde’ per eccellenza, la luce (solare) che viene assorbita.3 Reazioni
fotochimiche sono quelle che avvengono partendo da uno stato elettronicamente eccitato (Fig. 11).
Le reazioni fotochimiche sono intrinsecamente diverse da quelle allo stato fondamentale. Le
molecole organiche infatti sono stabili perché tenute insieme da forti legami covalenti e non reagiscono facilmente, appunto perché la reazione comporta la rottura di qualche legame. Le reazioni
quindi richiedono il superamento di un’alta energia di attivazione (barriera energetica) ed avvengono quindi con velocità basse. Anzi di solito solo grazie all’intervento di un ‘attivatore,’ ad esempio
un acido o una base che formano un intermedio attivato ad alta energia, il processo avviene a velocità utile. Al contrario lo stato elettronicamente eccitato formatosi con l’assorbiento di un fotone di
luce si trova già a energia alta, anzi ha un contenuto energetico molto superiore a quello implicato
nelle reazioni termiche e, non dovendo affrontare un’alta barriera, di fatto reagisce a velocità molti
ordini di grandezza superiori a quelle degli stati fondamentali. Questo non significa però che gli stati
eccitati reagiscano in maniera indiscriminata. In realtà, le reazioni sono di solito molto selettive in
quanto questi stati hanno vita molto breve e decadono allo stato fondamentale in un tempo inferiore al microsecondo (e spesso al nanosecondo): per questo solo vie di reazione che implichino un’attivazione veramente minima (ad esempio 2, 3 kcal/mol) riescono ad avere velocità sufficiente da
competere col decadimento. Tali cammini preferenziali di solito esistono, in quanto la profonda trasformazione indotta nella struttura elettronica dall’eccitazione labilizza selettivamente alcuni siti
della molecola.
Ad esempio, nel caso illustrato in Fig. 11, si confronta la struttura dello stato fondamentale e
dello stato eccitato di un chetone. Lo stato fondamentale (A) ha tutti gli orbitali doppiamente leganti
(ad esempio l’orbitale di tipo π tra carbonio ed ossigeno) e quelli non leganti (tale è l’orbitale di tipo
n sull’atomo di ossigeno) doppiamente occupati, il che appunto corrisponde ad una situazione di grande stabilità e di minima reattività. L’assorbimento di un fotone però, porta allo stato eccitato (A*) in
cui un elettrone si sposta dall’orbitale non legante sull’ossigeno all’orbitale antilegante tra carbonio
ed ossigeno (π∗). A parte la grande energia, lo stato eccitato è quindi caratterizzato da una specifica
attivazione, dovuta al fatto che nell’orbitale non legante sull’ossigeno è rimasto un elettrone solo. E’
ben noto che specie con un elettrone singolo (dette radicali) sono molto reattive tendendo a ricomporre un doppietto. Così avviene infatti nello stato eccitato dei chetoni, che tendono a strappare atomi
ad altre molecole legandoli all’ossigeno; queste reazioni avvengono a velocità altissime (ad esempio
106 M-1s-1) del tutto sconosciute per le reazioni allo stato fondamentale. Per la maggior parte delle
molecole organiche vi è reattività chimica nello stato eccitato, e tale reattività si può prevedere, come
nell’esempio visto sopra, sulla base della struttura elettronica dello stato eccitato. Si potrebbe almeno
ricordare che la visione si basa ovviamente su una reazione fotochimica e che la vitamina D, necessaria ad evitare il rachitismo, si forma nella pelle a partire da provitamine assunte con i cibi solo sotto
l’azione della luce solare. Esistono ovviamente molte reazioni fotochimiche che si applicano nell’industria per la sintesi di prodotti artificiali.
3.2 METODI FOTOCATALITICI
Su questa base si possono costruire dei sistemi fotocatalitici,3, 4 come quello illustrato nella Fig.
12, in cui un fotocatalizzatore, avendo assorbita la radiazione luminosa (preferibilmente, dal punto di
vista ecologico, quella solare), strappa un atomo (di solito di idrogeno) o un elettrone al substrato,
generando un intermedio attivato, svolgendo una funzione che è concettualmente simile a quella degli
‘attivatori’ della chimica termica, ma evidentemente più pulita.
Figura 11: Schema di reazione fotochimica
124
125
Figura 12: Schema di reazione fotocatalizzata. La luce genera la forma attiva del catalizzatore che è in grado
di formare dal reagente l’intermedio attivato della reazione desiderata, così disattivandosi allo stato fondamentale.
Infatti, il fotocatalizzatore viene rigenerato nel seguito del processo, in modo che l’unico reagente consumato è la luce e, cosa altrettanto importante, si opera in condizioni blande, senza attivazione per riscaldamento od usando reagenti chimici aggressivi, e non si generano scarti dal processo
di attivazione. Tipici cicli di fotocatalisi si basano sulla formazione come intermedi attivi di radicali
alchilici per trasferimento di atomo o di elettrone, come illustrato nella Fig. 13.
Figura 13: Tipici cicli di fotosensibilizzazione che formano come intermedi attivi radicali alchilici per trasferimento
di atomo o di elettrone. L’intermedio attivato è il radicale alchilico R , che si forma dal reagente RH (schema in alto)
or RX (schema in basso) per estrazione di idrogeno o, rispettivamente, estrazione di elettrone seguita da perdita del
gruppo X+. Il radicaleR . si addiziona a un doppio legame ed il radicale addotto dà il prodotto finale rigenerando il
catalizzatore che torna in ciclo, per essere ancora attivato dalla luce.
126
127
La luce viene assorbita dal fotocalizzatore, che può essere sia una molecola organica, di solito
una sostanza aromatica (chetone, chinone, nitrile estere), un sale inorganico insolubile (ad esempio
un politungstato) o un materiale solido semiconduttore (ad esempio biossido di titanio). Questi dopo
l’assorbimento di luce attivano un substrato organico (anche un alcano) per estrazione di idrogeno o
di elettrone, in definitiva generando un radicale alchilico che si addiziona a un alchene elettrofilo (che
porta cioè un gruppo elettron attrattore che lo attiva verso le reazioni radicaliche). Il radicale addotto
così formato scambia atomo o elettrone con la forma ridotta del fotocatalizzatore che così rientra in
ciclo mentre si forma il prodotto alchilato finale.
Sfruttando la grande reattività degli stati eccitati, molti processi selettivi sono stati sviluppati su
questo schema di base, spesso partendo da reagenti molto stabili, che difficilmente potrebbero essere
indotti a reagire anche con i più aggressivi attivatori termici. Questo aggiunge un ulteriore vantaggio,
perché si può così arrivare con un minor numero di passaggi a molecole assai complesse, corrispondendo ad un altro dei postulati della ‘chimica verde’.
4. CONCLUSIONI
Sfruttare l’energia solare per ottenere energia o composti chimici è sicuramente la sfida più
ambiziosa nel campo ambientale e quella in cui l’attuale livello della scienza più è lontano dai mirabile sistemi che la natura ha sviluppato. Tuttavia solo in questo modo possono essere ottenute risorse veramente rinnovabili con il vantaggio addizionale di minimizzare l’inquinamento. L’impoverirsi
delle risorse fossili attualmente alla base di tutta l’industria chimica ed energetica renderà fatalmente, seppure in un futuro non immediato, fondamentale dedicare uno sforzo importante per l’uso
attraverso sistemi artificiali della radiazione solare
BIBLIOGRAFIA
1. W.M. HORSPOOL, P.S. SONG, Handbook of Organic Photochemistry and Photobiology, 1995,
CRC Press, Boca Raton.
2. E. PELIZZETTI, M. SCHIAVELLO, Photochemical Conversion and Storage of Solar Energy, 1991,
Kluwer Ac. Pub., Dordrecht.
3. A. ALBINI, M. FAGNONI, MELLA, Pure Appl. Chem., 2000, 72, 1321.
4. N. SERPONE, E. PELIZZETTI, Photocatalysis: Fundations and Applications, 1989
FOTOCATALISI CON SEMICONDUTTORI:
FONDAMENTI E APPLICAZIONI DI INTERESSE AMBIENTALE
ANDREA MALDOTTI
1. DEFINIZIONE E INTERESSE AMBIENTALE DELLA FOTOCATALISI
Catalisi e ambiente. Lo sviluppo di processi e tecnologie innovative per l’abbattimento di
sostanze nocive o per la riduzione della loro immissione nell’ambiente è di fondamentale importanza per il controllo dell’inquinamento e per lo sviluppo di una chimica sostenibile. Un’ importante strategia che viene seguita per raggiungere questi obiettivi consiste nell’impiego di metodi catalitici. I
catalizzatori sono sostanze in grado di aumentare la velocità di una reazione chimica attraverso vie
alternative che richiedono un minore dispendio energetico (minore energia di attivazione). La grande
efficienza e specificità che caratterizzano i sistemi catalitici hanno importanti implicazioni ambientali: consentono di ottimizzare l’uso di reagenti chimici e migliorare l’efficienza e la selettività dei
processi anche in condizioni blande di temperatura e di pressione.
Luce solare e ossigeno come “reagenti puliti”. I fotocatalizzatori possono essere definiti
come particolari sistemi catalitici con funzioni specifiche attivate dalla luce. Fotocatalizzatori ideali
dal punto di vista ambientale sono quelli che vengono attivati dalla radiazione solare, una sorgente di
energia di per sé pulita e totalmente rinnovabile. I metodi fotocatalitici vengono applicati per realizzare svariate reazioni chimiche. In questo capitolo la discussione sarà limitata a fotocatalizzatori in
grado di utilizzare la molecola di ossigeno come specie reagente. Va sottolineato il fatto che l’impiego di O2, largamente disponibile nell’ambiente e relativamente economico, contribuisce ulteriormente a rendere pulito ed economicamente vantaggioso il processo di interesse.
Fotocatalisi con semiconduttori. Tra i tanti composti organici e inorganici che trovano impiego nella fotocatalisi, i materiali semiconduttori rivestono particolare importanza. Nei successivi paragrafi la discussione sarà focalizzata su questo tipo di fotocatalizzatori, con particolare attenzione al
TiO2, il semiconduttore di gran lunga più utilizzato per la sua relativa economicità e la sua stabilità
chimica e fotochimica. Verranno discusse, in particolare, le sue proprietà elettroniche, la sua reattività
a seguito dell’eccitazione fotochimica, le principali strategie per l’ottimizzazione delle sue proprietà
fotocatalitiche. Saranno riportati alcuni esempi di applicazioni per la degradazione di sostanze inquinanti e per la sintesi di intermedi di interesse nella chimica fine. I risultati presentati sono stati ampiamente discussi nella recente letteratura scientifica [1-5].
2. FONDAMENTI SULL’ECCITAZIONE ELETTRONICA DI SEMICONDUTTORI.
2.1 CONDUCIBILITÀ ELETTRICA NEI MATERIALI SOLIDI
I materiali solidi possono essere classificati sulla base di molte proprietà chimiche e fisiche.
Sulla base della conducibilità elettrica i materiali possono essere suddivisi in tre classi a seconda del
numero delle cariche, ioni o elettroni, e della loro mobilità.
In un conduttore, il valore della conducibilià elettrica è elevato con un numero di elettroni libe128
129
ri dell’ordine di 1024 e-/m3. In un isolante, la conducibilità è molto più bassa per la presenza di circa
107 e-/m3 elettroni liberi. Nei semiconduttori la conducibilità è intermedia al valore delle due classi
precedenti. Esempi di materiali conduttori sono i metalli, di isolanti sono SiO2, Al2O3, il diamante, di
semiconduttori sono TiO2, PbS, Cu2O,.
pio nel silicio (circa 1 eV), alcuni elettroni possono passare nella banda di conduzione per eccitazione termica, conferendo così proprietà conduttrici al materiale. Questo comportamento è tipico dei
solidi semiconduttori.
2.3 TRASPORTO DI CARICA NEI SEMICONDUTTORI.
2.2 TEORIA DELLE BANDE
Metalli conduttori. La teoria delgli orbitali molecolari (MO) prevede che l’interazione tra due
orbitali atomici di due atomi porti alla formazione di due orbitali molecolari ben distinti tra loro: uno
di legame a più bassa energia e uno di antilegame a energia più elevata. Gli elettroni degli orbitali
atomici esterni vanno ad occupare l’orbitale di legame diminuendo così il contenuto energetico del
sistema e stabilizzando la molecola che si forma.
Fig 1: a) formazione di una banda di energia;
b) banda di valenza e banda di conduzione in un semiconduttore
Gli elettroni che per qualche motivo passano nella banda di conduzione (ecb-, dove cb sta per
conduction band) lasciano una carica positiva detta lacuna o buca nella banda di valenza (hvb+, dove
vb sta per valence band) (Figura 2). Poiché anche le buche e non i soli elettroni, sono mobili, la conducibilità elettrica in un semiconduttore è data da due tipi di portatori di carica che, sotto effetto di un
campo elettrico, migrano in direzioni opposte. In realtà, il movimento delle buche è solo apparente
visto che le loro posizioni vengono continuamente occupate dagli elettroni vicini che lasciano, a loro
volta, una carica positiva.
Fig 2: banda di valenza e di conduzione nei semiconduttori
Esistono tre tipi di semiconduttori:
1. intrinseci, in cui il numero di elettroni nella banda di conduzione è uguale al numero di buche
nella banda di valenza. In altre parole la banda di valenza è completamente piena mentre la banda
di conduzione è vuota;
2. di tipo n, in cui si ha un eccesso di elettroni;
3. di tipo p, in cui si ha un eccesso di buche positive.
I semiconduttori possono essere “drogati” per controllare la natura dei portatori di carica e la
loro efficienza. Introducendo, infatti, atomi che hanno un elettrone in meno rispetto all’atomo che
costituisce il semiconduttore intrinseco [ad esempio un atomo di Boro (terzo gruppo) in un semiconduttore di Silicio (quarto gruppo)] si ottengono semiconduttori di tipo p. Viceversa, un atomo che fornisce al semiconduttore un elettrone in più, ad esempio un atomo di Fosforo nel Silicio puro, rende il
semiconduttore di tipo n. Il TiO2 è un semiconduttore di tipo n.
Quando la teoria MO viene applicata ad un numero N molto grande di atomi, come ad esempio nei solidi metallici, si ottiene un numero totale N di orbitali molecolari i cui livelli energetici sono
così vicini tra loro da formare una banda continua (Fig. 1a). In questo caso la distribuzione degli elettroni negli orbitali secondo valori crescenti di energia provoca un riempimento solo parziale della
banda. Inoltre, data la stretta vicinanza degli orbitali in una banda, è sufficiente poca energia perché
gli elettroni passino dagli orbitali inferiori pieni a quelli sovrastanti vuoti. Il risultato è che gli elettroni possono spostarsi liberamente nel solido e, quindi, condurre corrente elettrica.
Isolanti e Semiconduttori. Il modello a bande sviluppato per i metalli può essere applicato a
tutti i solidi cristallini covalenti, le cui proprietà conduttrici risultano determinate dalla distribuzione
degli elettroni nelle diverse bande e dalla differenza di energia tra queste.
L’ultima banda completamente piena prende il nome di banda di valenza (Figura 1b). A energia più alta della banda di valenza può essere identificata una banda che non contiene elettroni e che
prende il nome di banda di conduzione. Banda di valenza e banda di conduzione sono separate da una
differenza di energia (band gap) più o meno grande a seconda dei limiti imposti dalla struttura cristallina del solido.
Se il band gap è molto elevato, come ad esempio nel diamante (circa 5 eV; 1eV = 1,602 x 10-19 J),
nessun elettrone è libero di muoversi anche se si applicano campi elettrici molto intensi, per cui il solido si comporta da isolante. Se, al contrario, l’intervallo di energia non è molto grande, come ad esem-
Ad ogni radiazione elettromagnetica di lunghezza d’onda (λ) è associata un’energia data dalla
relazione E = hν, dove h è la costante di Planck e ν = c/λ è la frequenza della radiazione (c = velocità della luce nel vuoto). La radiazione solare che raggiunge la crosta terrestre è costituita da onde
elettromagnetiche di lunghezza d’onda maggiore di circa 300 nm (1 nm = 10-9 m). La relativa ener-
130
131
2.4 ECCITAZIONE FOTOCHIMICA DI SEMICONDUTTORI.
gia è sufficiente per promuovere elettroni dalla banda di valenza alla banda di conduzione di diversi
semiconduttori.
3. SEPARAZIONE DI CARICA NEL TIO2
La Figura 4 riporta in maniera schematica i processi che avvengono su una particella di forma
sferica di TiO2 fotoeccitato.
Fig 4: schema del processo fotocatalitico su TiO2.
Fig 3: bande di valenza e di conduzione di alcuni semiconduttori in mezzo acquoso a pH = 1
La Figura 3 riporta su una scala di energia le posizioni delle bande di valenza e di conduzione
di alcuni materiali semiconduttori dispersi in mezzo acquoso a pH=1. Affinchè un elettrone possa
essere promosso nella banda di conduzione il semiconduttore deve essere irradiato con una radiazione elettromagnetica di energia hν uguale o maggiore del band gap. Il CdS risulta colorato (giallo)
poichË líenergia necessaria per indurre il processo di separazione di carica corrisponde a frequenze
che cadono nella regione del visibile. Il TiO2, al contrario, è bianco dal momento che i circa 3,2 eV
necessari per promuovere un elettrone dalla banda di valenza a quella di conduzione sono forniti solo
da radiazioni di lunghezza d’onda inferiore a 420 nm (ultra-violetto).
Quali sono i processi che seguono il processo primario di separazione di carica fotoindotta?
Elettroni e buche possono innanzi tutto ricombinarsi dissipando energia sotto forma di calore.
Questo è un processo molto veloce che avviene in pochi nanosecondi. D’altra parte, elettroni e buche
possono anche essere intercettati da specie ossidanti o riducenti in grado di interagire con la superficie (adsorbimento). Le capacità ossidanti e riducenti di un semiconduttore fotoeccitato dipenderanno
dai potenziali redox della banda di valenza e di quella di conduzione.
132
Sostanze adsorbite sulla superficie potranno subire due diversi tipi di reazione: un processo di
riduzione ad opera degli elettroni nella banda di conduzione e uno di ossidazione da parte delle buche
nella banda di valenza. La contemporanea e rapida cattura di elettroni e buche è condizione necessaria per evitare la loro ricombinazione e la conseguente disattivazione del semiconduttore fotoeccitato
attraverso emissione di calore o di luce.
Le forme cristalline più importanti del TiO2 sono due: il rutilo, termodinamicamente più stabile a temperatura ambiente e l’anatasio. La forma cristallina più attiva del TiO2 e l’anatasio. Questo è
meno stabile del rutilo dal punto di vista termodinamico, ma la sua formazione è favorita dal punto di
vista cinetico a più bassa temperatura (< 600 °C). La preparazione a temperature relativamente basse
rende l’anatasio più attivo del rutilo per la maggiore area superficiale e per il più alto numero di siti
attivi per l’adsorbimento. Il TiO2 Degussa P25, è il prodotto commerciale più usato: è un prodotto ben
definito e costituito da una miscela non porosa di anatasio e rutilo nella proporzione 70 a 30; l’area
superficiale è dell’ordine di 55 ± 15 m2 g-1 le dimensioni delle particelle variano da 30 nm a 1 mm;
la sua attività fotocatalitica è più alta rispetto a quella di altri tipi di TiO2. Possono essere utilizzate
anche grandi quantità di TiO2 nella fotocatalisi di processi su larga scala di interesse sia ambientale
che industriale (vedi ad esempio paragrafo 6.1).
133
4. FORMAZIONE DI SPECIE REATTIVE DI INTERESSE CATALITICO
4.1 REATTIVITÀ O2
L’equazione 1 schematizza una possibile reazione di ossidazione di un generico substrato organico (indicato con X) da parte della molecola di ossigeno. L’equazione 2 riporta a titolo esemplificativo l’ossidazione della molecola di metano a metanolo.
Il decorso della reazione 1 può essere seguito in maniera qualitativa su un diagramma che
riporti l’energia potenziale del sistema in funzione del procedere della reazione (Figura 5).
Le specie O2 e X reagendo tra di loro liberano energia e si trasformano nel prodotto (XO) caratterizzato da una maggiore stabilità. Caratteristica comune a queste reazioni di ossidazione è la notevole quantità di energia che viene rilasciata sotto forma di calore (reazioni esotermiche in termini termodinamici). La conversione del metano a metanolo, per esempio, comporta lo sviluppo di circa 30
kcal/mole.
I fattori positivi che rendono la reazione 1 estremamente favorita dal punto di vista del bilancio
energetico finale (termodinamici) sono, però, accompagnati da non meno importanti fattori che la
rendono estremamente lenta (cinetici). La bassa velocità delle reazioni di ossidazione mediate dall’ossigeno evita, tra l’altro, che gli organismi viventi siano rapidamente”bruciati” in condizioni aerobiche ed è, quindi, alla base della vita stessa sulla terra.
Il principale ostacolo alla rapida ossidazione dei composti organici da parte dell’ossigeno è
dovuto alla struttura elettronica di questa molecola che contiene due elettroni spaiati e, quindi, può
essere considerato un diradicale. La natura di diradicale dell’O2 risulta evidente osservando il riempimento elettronico dei suoi orbitali molecolari (teoria OM). Questi sono ottenuti mescolando orbitali atomici di tipo s e di tipo p (combinazione lineare) dei due atomi di ossigeno che formano la
molecola (Figura 6).
Fig. 5: Decorso della reazione fra un substrato organico X e la molecola di ossigeno
Fig. 6: Orbitali molecolari dell’ O2
134
135
A seconda del tipo di combinazione si ottengono orbitali molecolari σ e π a più bassa energia e di
tipo σ∗ e π∗ a livelli energetici più alti. I dodici elettroni esterni dei due atomi di ossigeno riempiono
gli orbitali in ordine crescente di energia in accordo con la regola secondo cui gli elettroni si sistemano in orbitali isoenergetici prima di accoppiarsi con spin antiparallelo. Il risultato finale è che
rimangono due elettroni spaiati in due orbitali π∗ di antilegame che conferiscono all’ossigeno la natura di diradicale paramagnetico.
Due considerazioni ulteriori devono essere fatte per comprendere i fattori cinetici sfavorevoli
alle reazioni fra la molecola di ossigeno e i substrati organici:
1. contrariamente all’ossigeno la maggior parte dei composti organici non contiene elettroni spaiati;
2. le reazioni chimiche avvengono sempre in tempi più brevi del tempo necessario per invertire lo
spin dell’elettrone. Di conseguenza il numero di elettroni spaiati in un processo chimico deve
rimanere invariato dopo ciascun stadio elementare.
Su queste basi possiamo concludere che il processo schematizzato dall’equazione 3 non può
procedere attraverso un unico stadio veloce, visto che non rispetta la seconda condizione. Questo processo, per avvenire, deve seguire cammini di reazione a più stadi che, in tutti i casi, comportano un
notevole dispendio dal punto di vista energetico.
Fig. 7: Posizione delle bande del TiO2 rispetto alla coppia O2/O2-.
I processi principali che seguono la riduzione monoelettronica di O2 a O2-. sono riportati in
Figura 8 (equazioni 4-8). O2-. può generare H2O2 per semplice disproporzione (eq. 6) o per cattura di
un elettrone della banda di conduzione (eq. 7). H2O2, a sua volta, può subire un processo di riduzione da parte del semiconduttore fotoeccitato dando luogo alla formazione di una specie fortemente
ossidante: il radicale OH· (eq. 8). Tutti gli intermedi ottenuti sono, comunque, caratterizzati da una
grande reattività nei confronti di substrati organici e inorganici.
4.3 PROCESSI OSSIDATIVI DA HVB+.
La figura 5 mostra, una possibilità. Le restrizioni dovute allo spin possono essere evitate se la
reazione fra O2 e X porta alla formazione di XO in uno stato eccitato che conserva i due elettroni
spaiati. La successiva lenta inversione dello spin genera il prodotto finale nel suo stato fondamentale.
Questoa cammino di reazione implica, comunque, il superamento di una barriera di energia elevata
(energia di attivazione), considerato che gli stati eccitati del tipo di quello riportato in figura 5 sono
notoriamente molto meno stabili dello stato fondamentale di partenza: 40-70 kcal/mol nel caso di
molecole insature e con valori molto più alti per molecole sature.
Sulla base di quanto detto, si conclude che la molecola di ossigeno deve essere attivata per poter
reagire con i substrati organici. Una possibile strategia consiste nel renderla compatibile con questi
composti spendendo un po’ di energia per accoppiare i due elettroni spaiati nello stesso orbitale π∗ di
antilegame. L’energia necessaria per fare avvenire questo processo può essere fornita anche attraverso sensibilizzazione fotochimica (vedi contributo Prof. A. Albini). Una importante alternativa consiste nell’attivare la molecola di ossigeno attraverso la sua riduzione, per dare specie altamente reattive. Questo è l’approccio seguito nei processi fotocatalitici discussi nei prossimi paragrafi.
L’energia delle buche positive nel TiO2 è tale da poter facilmente ossidare la maggior parte dei
substrati organici. Questo processo può avvenire attraverso due vie.
• Composti organici (RH2) adsorbiti sulla superficie del semiconduttore subiscono un processo
diretto di ossidazione monoelettronica che ha come conseguenza la formazione di specie radicaliche e protoni (eq. 9 in Fig. 8)
• Il processo ossidativo da parte di hvb+ interessa molecole d’acqua e gruppi ossidrilici della superficie e passa attraverso la formazione di radicali OH. secondo le equazioni 10 e 11.
Reazioni successive che coinvolgono gli intermedi fotogenerati portano alla formazione di prodotti di ossidazione che, nel caso in cui il substrato sia un idrocarburo, possono essere alcoli e chetoni (equazioni 12 e 13). Il potere ossidante del TiO2 è comunque tale da indurre una successiva ossidazione di questi intermedii fino alla completa mineralizzazione del substrato organico con formazione di CO2 e H2O.
4.2 ATTIVAZIONE RIDUTTIVA DI O2: REATTIVITÀ ECBLa Figura 7 riporta in una scala di potenziali la posizione delle bande del TiO2 rispetto alla coppia O2/O2-.. Il valore riportato in figura è stato ottenuto in ambiente fortemente acido (pH = 1), dove
lo ione superossido viene facilmente protonato per generare radicali HO2.. Risulta evidente che il
potenziale di riduzione degli elettroni nella banda di conduzione è sufficientemente negativo per
ridurre l’ossigeno.
136
137
progettati sistemi fotocatalitici “organizzati” in cui la superficie del semiconduttore viene modificata
chimicamente. E’ possibile, per esempio, drogare la matrice solida con ioni metallici di varia natura,
depositare metalli nobili (come il platino) sulla superficie dell’ossido, funzionalizzare la stessa con
sistemi enzimatici naturali.
Riduzione (e-cb)
Ossidazione (h+vb)
Fig. 9. Spettri di assorbimento di TiO2 (a) e di TiO2 modificato con cromo (b)
Fig. 8: Processi fotocatalitici con biossido di titanio
5. CONTROLLO DELL’EFFICIENZA E DELLA SELETTIVITA’
5.1. MASSIMA UTILIZZAZIONE DELLO SPETTRO SOLARE
L’energia di band gap del TiO2 è relativamente grande (3.2 eV) e consente l’assorbimento della sola
componente ultravioletta della radiazione solare che raggiunge il suolo (<10% del totale). E’ quindi molto
importante preparare fotocatalizzatori capaci di operare anche per eccitazione con luce visibile.
L’assorbimento di luce da parte del TiO2 può essere spostato verso la regione del visibile in maniera significativa attraverso “l’impianto” di ioni metallici nella matrice solida. In questo modo si producono importanti variazioni degli stati elettronici del TiO2 che, probabilmente, coinvolgono gli orbitali d del metallo
drogante. La figura 9 mostra il positivo effetto di ioni cromo sullo spettro di assorbimento del TiO2.
5.2. EFFICIENZA E SELETTIVITÀ
L’efficienza del processo con cui avviene il trasferimento di carica all’interfaccia semiconduttore-substrato dipende anche dall’equilibrio di adsorbimento del substrato stesso sulla superficie del
fotocatalizzatore. Si ottiene un’efficienza maggiore se il reagente si adsorbe bene e se il prodotto di
ossidazione viene deadsorbito rapidamente, in modo da lasciare libero il sito di coordinazione per
un’altra molecola di substrato.
Il controllo competitivo dell’adsorbimento degli intermedi di reazione può anche consentire di
indirizzare i processi ossidativi verso la formazione dei prodotti di interesse. Come esempio si riportano i risultati ottenuti nell’ossidazione del cicloesano. Questo semplice cicloalcano può essere considerato una molecola modello per ottenere informazioni di interesse generale sulla ossidazione di alcani
e, allo stesso tempo, i suoi prodotti di ossidazione sono importanti precursori nella sintesi di prodotti
chimici e nella produzione di nylon, acido adipico, nitro-cellulosa, lacche, pelli artificiali, coloranti.
L’irradiazione di TiO2 sospeso in cicloesano puro porta alla formazione di cicloesanone con una
selettività quasi del 100%; mentre in presenza di quantità crescenti di diclorometano la percentuale di
cicloesanolo aumenta fino a diventare uguale a quella di cicloesanone quando il rapporto cicloesano/diclorometano è uno. Questo cambiamento di chemoselettività può essere attribuito al fatto che la
polarità dell’ambiente di reazione ha un effetto importante sull’adsorbimento competitivo di intermedi
e prodotti finali. In particolare, quantità crescenti di diclorometano aumentano la polarità del mezzo
disperdente favorendo così l’accumulo di cicloesanolo in soluzione e sfavorendo il suo adsorbimento
sulla superficie del TiO2 dove può essere fotoossidato a cicloesanone. Da notare, inoltre, che la presenza di diclorometano riduce in maniera significativa la percentule di CO2 tra i prodotti di ossidazione (da 6% a 1%) rendendo, quindi, il processo di maggior interesse dal punto di vista sintetico.
L’efficienza del sistema è strettamente legata alla possibilità che elettroni e buche fotogenerate
vengano rapidamente intercettate prima che possano ricombinarsi. A questo scopo possono essere
138
139
6. FOTODEGRADAZIONE DI SOSTANZE INQUINANTI.
La possibilità di sviluppare processi e tecnologie innovative e a basso impatto ambientale per degradare sostanze inquinanti disciolte nelle acque e per purificare emissioni gassose di origine industriale o prodotte da veicoli ha un forte interesse ambientale e costituisce una importante sfida per i prossimi anni.
6.1 PURIFICAZIONE DELLE ACQUE
La fotocatalisi ossidativa con TiO2 è stata utilizzata per il trattamento di acque inquinate.
Vari anioni inorganici come nitriti, solfiti, cianuri possono essere ossidati a composti meno tossici
usando TiO2 come fotocatalizzatore. Per quanto riguarda il disinquinamento da sostanze organiche, le classi di composti studiati e che possono essere mineralizzati a CO2 e H2O sono numerose: alcani alogenati,
composti aromatici (ad. esempio benzene, naftalene, fenoli, clorofenoli), erbicidi, pesticidi, tensioattivi.
La prima realizzazione su ampia scala di un reattore fotocatalitico per il trattamento delle acque è
stata realizzata in California nel 1991 per inquinamento dovuto principalmente a tricloroetilene. Il sistema
era costituito da reattori parabolici con superfici riflettenti in alluminio (circa 150 m2 ) in grado di focalizzare la luce solare su tubi di vetro all’interno dei quali circolava l’acqua contenente circa 1 g/l di TiO2 in
sospensione. La concentrazione di tricloroetilene poteva essere ridotta da 106 a 0,5 ppb in 5 ore.
6.2 ELIMINAZIONE DI SOSTANZE INQUINANTI PRESENTI
NELL’ATMOSFERA.
Il trattamento fotocatalitico con TiO2 può anche consentire di eliminare sostanze inquinanti
presenti nell’atmosfera. A questo proposito va ricordato che la riduzione della concentrazione di NOx
e di SOx nell’atmosfera in prossimità di strade ad intenso traffico, di tunnels e di aree intensamente
abitate è un problema ambientale di grande interesse. Da alcuni anni si sta studiando la possibilità di
impiegare TiO2 supportato su pannelli, anche di grandi dimensioni, di cemento o silice per la degradazione di questi gas. Risultati interessanti sono stati ottenuti utilizzando questo sistema in un’area
urbana fortemente inquinata ad Osaka.
A dimostrazione delle potenzialità applicative della tecnica fotocatalitica, numerosi brevetti prevedono l’uso di TiO2 incorporato in materiali di varia natura per decontaminare ambienti inquinati e
mantenere puliti manufatti di interesse commerciale. Il TiO2 può essere impiegato all’interno di camere operatorie per la loro sterilizzazione, sulle pareti esterne di edifici anche di grandi dimensioni come
materiale autopulente, nei vetri delle finestre o nei rivestimenti interni di abitazioni private o di
ambienti pubblici sia con funzioni autopulenti che per eliminare odori sgradevoli e sostanze nocive.
BIBLIOGRAFIA
1.
2.
3.
4.
5.
“Photocatalysis. Fundamentals and Applications”. N. Serpone e E. Pelizzetti Eds.; Wiley, 1989.
A. L. LINSEBIGLER, G. LU, J.T.YATES, Chem. Rev., 1995, 95, 735.
M. R. HOFFMANN, S.T. MARTIN, W. CHOI, D. W. BAHNEMANN; Chem. Rev., 1995, 95, 69.
A. MALDOTTI, A. MOLINARI, R. AMADELLI, Chem. Rev., 2002, 102, 3811.
M. ANPO in “Green Chemistry, Challenging and Perspectives”; P. Tundo, P. Anastas Eds. , Oxford
University press, 2000.
140
Industria
SMALTIMENTO e/o RICICLO DEI MATERIALI
FRANCESCO PAOLO LA MANTIA
INTRODUZIONE
Lo smaltimento e/o il riciclo dei materiali alla fine del loro ciclo di vita assume sempre maggiore
importanza nella società moderna. I principali motivi di questa emergenza sono principalmente:
• crescita vertiginosa, in quantità e tipologia, di manufatti ed, in particolare, di prodotti usa e getta
dal brevissimo ciclo di vita;
• problemi ambientali legati sia alla mancanza di siti di smaltimento che alla messa in discarica di
materiali inquinanti;
• perdita di materia ed energia.
Anche se non ci fossero motivazioni ambientali, il problema dello smaltimento dei prodotti a
fine vita andrebbe comunque risolto per migliorare il bilancio economico dell’industria manifatturiera e della società nel suo complesso.
Per smaltimento intendiamo sia la messa in discarica che la distruzione termica dei rifiuti civili ed industriali.
Lo smaltimento inteso come messa in discarica dei materiali produce, non solo la perdita
economica della materia e del suo contenuto energetico, ma anche l’utilizzo di spazi il cui costo
cresce notevolmente e problemi ambientali connessi con la possibile presenza di composti che
inquinano terreno e falde acquifere. Inoltre, i siti per lo smaltimento dei rifiuti sono di sempre più
difficile rinvenimento.
Lo smaltimento attraverso la termodistruzione senza recupero energetico elimina alcuni dei
problemi prima discussi, ma non evita le perdite economiche ed anzi implica un costo.
Ovvia alternativa allo smaltimento, sia in discarica che per termodistruzione, è il riciclo dei prodotti a fine vita.
Non tutti i materiali possono essere sottoposti all’intera serie di tipologie di riciclo che l’industria può (o potrebbe) attualmente mettere in atto. Sebbene le generalizzazioni, che hanno il compito
di esemplificare processi numerosi e complicati, siano in questo caso molto difficili, si possono catalogare diverse metodologie di riciclo:
1) riutilizzo del prodotto anche per altre funzioni
2) riuso del materiale attraverso successive rilavorazioni
3) riuso del materiale per altre lavorazioni o utilizzi
4) recupero energetico.
La possibilità effettiva di riciclare oggetti a fine vita con una delle precedenti metodologie
dipende dal materiale, dal tipo di raccolta, da considerazioni tecniche ed economiche.
143
1. METODOLOGIE DI RICICLO
1.1 RIUTILIZZO DEL PRODOTTO ANCHE SE PER ALTRE FUNZIONI
Il modo più facile per riciclare manufatti dopo il loro uso è certamente quello di riutilizzarli per
la stessa funzione, se possibile, o per altre funzioni. Per esempio, sacchetti “shoppers” possono essere
utilizzati per lo stesso scopo o come sacchetti per spazzatura. Il riutilizzo “allunga la vita” dei manufatti con l’innegabile vantaggio di diminuire il consumo di materia prima, di diminuire il costo dei
manufatti e quindi di diminuire l’impatto economico ed ambientale di questi manufatti. Naturalmente,
riutilizzare i manufatti ritarda ma non risolve il problema dell’eliminazione finale dei rifiuti.
1.2 RIUSO DEL MATERIALE ATTRAVERSO SUCCESSIVE RILAVORAZIONI
Per riuso del materiale intenderemo l’utilizzazione del materiale attraverso varie operazioni di
lavorazione per produrre nuovi manufatti. Il materiale così riciclato è chiamato materia seconda. In
genere le lavorazioni che conducono alla materia seconda consistono in operazioni di lavaggio, separazione, triturazione, lavorazione a caldo e trasformazione. Naturalmente, queste operazioni dipendono dal tipo di materiale e variazioni a questa sequenza di operazioni sono possibili in dipendenza del
materiale e del manufatto da produrre. Esempi: da carrozzerie di automobili si ottiene banda stagnata o travi, etc. Da bottiglie in PET per bevande si ottengono fibre per tessuti.
1.3 RIUSO DEL MATERIALE PER ALTRE LAVORAZIONI O UTILIZZI
In questa categoria intenderemo quella tipologia di riciclo che permette di riottenere della materia seconda, come nel caso precedente, ma che non è la stessa del materiale di provenienza. Come
vedremo nel seguito, questo tipo di riciclo può fondamentalmente essere usato per le materie plastiche. Infatti, processi di depolimerizzazione possono portare alla produzione di monomeri (con cui
produrre nuovi polimeri) o di altri prodotti chimici.
Esempio: da lastre in polimetilmetacrilato si ottiene per depolimerizzazione il metilmetacrilato
con cui riottenere lo stesso polimero.
1.4 RECUPERO ENERGETICO
Tutte le precedenti operazioni permettono di utilizzare il contenuto di materia dei prodotti a fine
vita; quando ciò risulti impossibile o economicamente svantaggioso, la combustione dei rifiuti può
permettere il recupero del loro contenuto energetico. Il processo risulta economicamente valido per
materiali con elevato contenuto energetico come molte materie plastiche.
2. MATERIALI
riciclabilità intendiamo la capacità di un materiale di potersi rilavorare facilmente con produzione di
materie seconde con proprietà molto simili o addirittura identiche a quelle dello stesso materiale vergine. Lo stesso materiale, polietilene per contenitori per liquidi e per pannolini, è nel primo caso riciclabile e nel secondo praticamente non riciclabile proprio perché sporco!
Naturalmente il riciclo del materiale è possibile solo se a monte c’è stata una raccolta differenziata che ha separato i vari materiali in frazioni omogenee.
Infine, particolarmente importanti sono le operazioni di preparazione al processo di riciclo.
Per esempio, la pulizia dei manufatti, la triturazione, la separazione di altri materiali inquinanti, etc
precedono sempre l’operazione fondamentale che è costituita, per esempio, dalla fusione e lavorazione a caldo.
2.1 METALLI
I metalli sono facilmente riciclabili perché fondendoli si ottengono semilavorati che, dopo
opportuna lavorazione, si possono trasformare in prodotti di qualunque tipo le cui caratteristiche sono
identiche a quelli ottenuti con materiale vergine. Naturalmente, per i metalli non sono attuabili altri
metodi di riciclo. Questo riciclo, che chiameremo “riciclo meccanico”, risulta facile per i metalli perché la struttura e le caratteristiche non variano con la lavorazione né con l’uso e fenomeni come la
corrosione sono essenzialmente superficiali. Una volta eliminato lo strato ossidato non si osserva nessun peggioramento delle proprietà del metallo.
Acciaio, bande stagnate, rame sono i metalli più frequentemente incontrati nei rifiuti civili ed
industriali.
2.2 VETRO
I materiali vetrosi presentano composizioni chimiche diverse dato che bottiglie ed altri manufatti sono prodotti con miscele di diversi silicati. Ciò dovrebbe comportare una certa difficoltà nel riciclo meccanico. Infatti, la miscela di diversi composti chimici potrebbe portare ad una certa immiscibilità e quindi a materiali dalla difficile lavorabilità e dalle scadenti caratteristiche. In effetti ciò non
avviene e quindi il riciclo meccanico di manufatti in vetro risulta relativamente facile. Le materie
seconde possono essere rilavorate con le stesse tecnologie utilizzate per le materie prime vergini per
produrre la stessa tipologia di oggetti.
2.3 CARTA
La carta viene comunemente considerata un materiale biodegradabile, ma anche facilmente
riciclabile. In realtà, la cinetica di biodegradazione è abbastanza veloce solo in presenza di favorevoli condizioni esterne (umidità, temperatura, ossigeno, etc).
Il riciclo della carta produce una materia seconda di qualità inferiore al materiale vergine, in
particolare è meno bianca. Il processo di sbianca è, però, particolarmente inquinante per l’ambiente
perché implica l’uso di notevoli quantità di soluzioni acide.
Come detto precedentemente, le tecnologie di riciclo dipendono anche dal tipo e dalle caratteristiche del materiale stesso. I materiali più frequentemente trovati nei rifiuti industriali e civili sono:
carta, metalli (soprattutto banda di ferro stagnata e rame), vetro e materie plastiche. Questi materiali
hanno natura chimica, strutture, caratteristiche e quindi “riciclabilità” molto diverse fra di loro. Con
144
145
2.4 MATERIE PLASTICHE
Il riciclo di materie plastiche risulta certamente più complicato di quello di altri materiali per
due motivi fondamentali: le materie plastiche si deteriorano anche a livello strutturale durante l’uso e
durante le lavorazioni ed esistono molti diversi polimeri commerciali che non possono essere lavorati insieme perché immiscibili. Per questi motivi – che saranno meglio dettagliati nel paragrafo successivo – il riciclo delle materie plastiche viene attualmente effettuato su frazioni omogenee (stesso
polimero) e dà luogo a materie seconde con proprietà peggiori di quelle delle stesse materie vergini.
3. CONCETTI FONDAMENTALI DI RICICLO DI MATERIE PLASTICHE
nellate di polimeri provenienti da rifiuti plastici differenziati. Di queste circa 300.000 ton sono state
riciclate per ottenere materie seconde ed il resto incenerite con recupero energetico.
I rifiuti di materie plastiche sono prevalentemente costituiti da poliolefine (≈61%), polistirene
(≈13%), polivinilcloruro (≈7%) e polietilentereftalato (≈6%). Bisogna però considerare altre sorgenti
potenziali di materie plastiche da riciclare come le fibre tessili, costituite prevalentemente da poliammidi, le materie plastiche da cablaggio e da agricoltura, costituite essenzialmente da poliolefine, e le
plastiche provenienti dalle autovetture, costituite da elevate percentuali di poliuretani.
Il riciclo e/o recupero di materiali è certamente crescente in questi ultimi anni. Nella tab.1 sono
riportati i dati relativi agli imballaggi per tipologia di materiale negli anni 1998-2002. Nella stessa
tabella viene riporta, per il 2002, la percentuale di materiale recuperato rispetto a quello immesso nel
mercato dell’imballaggio. Le percentuali di recupero si avvicinano a quanto previsto dalle normative
europee, tranne che per le materie plastiche.
3.1 INTRODUZIONE
Tab.1. Rifiuti d’imballaggio avviati a recupero complessivo e percentuali di recupero complessivo dei rifiuti
d’imballaggio immesso a consumo (2002)
Il riciclo delle materie plastiche è sempre stato effettuato nell’ambito del recupero di sfridi industriali, ma si è sviluppato in maniera consistente a partire dalla metà degli anni settanta. Una delle cause
di tale sviluppo è stata la crisi petrolifera e la conseguente scarsezza di resine polimeriche in un periodo in cui la domanda del mercato era in fortissima espansione. Proprio in quegli anni, il riciclo sembrò
la sola soluzione per superare il problema della mancanza di materiali polimerici richiesti dal mercato.
All’inizio degli anni ottanta le strategie cambiarono nuovamente. La fine della crisi petrolifera
unitamente ad un forte sviluppo industriale portarono ad un costante e progressivo abbandono di gran
parte delle tecnologie precedentemente sviluppate.
Un rinnovato interesse per il riciclo delle materie plastiche si è sviluppato a partire dagli anni
novanta a causa di un sempre crescente interesse del pubblico, e di conseguenza delle imprese, nei
confronti di problematiche ambientali ed ecologiste. La plastica ha assunto in quegli anni la figura di
materiale “ambientalmente indesiderabile” e si è esercitata una pressione sempre maggiore sui consumatori e sui governi per sviluppare e promuovere tutte quelle tecnologie legate al riciclo che consentivano la produzione di materie plastiche più “ambientalmente compatibili”. Questa nuova situazione ha avuto come risultato l’accumularsi di enormi quantità di materie plastiche e lo svilupparsi di
una vera e propria industria del riciclo con crescenti interessi sia di ricerca che commerciali.
Alla metà degli anni novanta la situazione è però ulteriormente cambiata. Una nuova recessione economica con la necessità di minimizzare i costi e massimizzare gli utili ha portato alla sottovalutazione delle problematiche ambientaliste. Appare chiaro quindi che lo sviluppo o una battuta d’arresto sul riciclo delle materie plastiche sarà sempre in qualche modo legato allo sviluppo economico
ed all’alternarsi di periodi floridi a recessioni. A tutto questo bisogna naturalmente aggiungere l’effetto dell’aumento della popolazione, il miglioramento degli standard di vita, i consumi pro-capite
oltre che la sempre maggiore diffusione tra la popolazione di una sensibilità ambientalista promossa
fin dai primi gradi dell’istruzione obbligatoria.
L’organizzazione per lo sviluppo economico e della cooperazione è formata da Austria,
Australia, Belgio, Canada, Danimarca, Finlandia, Francia, Germania, Italia, Giappone, Olanda,
Nuova Zelanda, Norvegia, Spagna, Svezia, Svizzera, Turchia e Stati Uniti. Queste nazioni producono
un totale di circa 420 milioni di tonnellate di rifiuti solidi all’anno (fine anni ‘80). Se si assume che
circa 8% è costituito da materiali polimerici, si arriva ad una quantità pari a circa 34 milioni di tonnellate per anno. La quantità totale di materie plastiche è prevista in forte aumento e la percentuale di
materiali polimerici salirà fino a circa l’11%. In Italia nel 2000 sono state riciclate circa 520.000 ton-
Il riciclo delle materie plastiche si può guardare sia da un punto di vista economico che da un
punto di vista ambientale. Da un punto di vista economico esso rappresenta il recupero di valore presente in un prodotto che è già stato utilizzato. A seconde della frazione e della modalità di recupero
di questo valore il riciclo può essere classificato, come sopra specificato, in:
• riciclo meccanico
• riciclo chimico
• recupero energetico.
146
147
3.2 CLASSIFICAZIONE DEL RICICLO DI MATERIE PLASTICHE
Nel primo caso si riesce a recuperare quasi interamente il valore del materiale. Si può suddividere in un riciclo primario ed uno secondario. Tipico esempio di riciclo meccanico primario è quello
del recupero di materiale da pezzi difettosi o dalle materozze degli oggetti stampati. In generale questi sono granulati e rilavorati in miscela con materiale vergine. Anche se leggermente degradato, il
materiale può essere utilizzato e lavorato per le stesse applicazioni e con le stesse modalità del materiale vergine.
Nel riciclo meccanico secondario il materiale viene riutilizzato per manufatti che richiedono
minori proprietà rispetto a quelle del materiale di partenza. Tipico esempio è costituito dall’uso di
miscele di rifiuti di materie plastiche per la produzione di vasi per piante, arredi urbani, sacchi per
immondizie, ecc..
Nel riciclo chimico i rifiuti sono convertiti in materie prime (monomeri) e recuperati ed utilizzati come tali. Il valore aggiunto per la conversione di essi in resina è completamente perso. Un tipico esempio di riciclo terziario è il recupero di stirene per pirolisi di polistirene.
Infine, nel recupero energetico si ha meramente il recupero di energia per incenerimento dei rifiuti.
4. RICICLO MECCANICO
•
•
•
I principali problemi nel riciclo meccanico di materie plastiche sono:
degradazione durante il periodo di utilizzo (fotoossidazione, degradazione sotto sforzo, ecc.)
degradazione termomeccanica durante la rilavorazione
incompatibilità tra i diversi polimeri.
4.1 DEGRADAZIONE
Durante la lavorazione e la vita del manufatto in materiale polimerico, calore, sforzi meccanici e radiazioni ultraviolette possono profondamente cambiare la struttura e la morfologia del polimero. Lo schema generale della degradazione di un polimero (P) in presenza di ossigeno può essere schematizzata come segue:
P-H → P· + H·
P·+ O2 → P-O-O·
P-O-O· + P-H → POOH + P·
Sebbene la fotoossidazione e la degradazione termomeccanica possano causare differenti
cambiamenti nella struttura dei materiali polimerici, è possibile schematizzare gli effetti di questi processi degradativi come qui di seguito riportato:
• variazione del peso molecolare e della sua distribuzione
• formazione di ramificazioni
• formazione di composti ossigenati, insaturazioni, etc.
Va sottolineato che la variazione del peso molecolare induce anche una variazione della cristallinità perché le molecole più corte sono più mobili e quindi possono più facilmente impacchettarsi nel reticolo cristallino.
Il grado ed il tipo di degradazione dipendono dalle condizioni di lavorazione e dalla natura del
polimero ma, naturalmente, tutti i cambiamenti subiti dalla struttura chimica causeranno variazioni
delle proprietà del materiale. La gran parte delle operazioni di lavorazione utilizzano condizioni abbastanza delicate e polimeri con peso molecolare moderatamente elevato: in queste condizioni quindi i
fenomeni degradativi sono relativamente modesti. Ciò nondimeno, condizioni di lavorazioni più severe o ripetute lavorazioni possono causare variazioni significative nelle caratteristiche del polimero. Le
considerazioni fatte -diminuzione del peso molecolare e riduzione delle proprietà meccaniche rispetto al materiale vergine- suggeriscono che in molti casi la “materia seconda” non può essere utilizzata per le stesse operazioni di lavorazione eseguite sul materiale vergine né per lo stesso tipo di prodotto finale, ma il suo uso è consentito solo per lavorazioni in cui è richiesta una bassa viscosità e
ridotte proprietà meccaniche. La vita del polimero può essere così estesa attraverso il riciclo, ma le
applicazioni cambieranno, così come illustrato nello schema seguente dove sono riportati le diverse
fasi del riciclo di PET da bottiglie:
Per quanto riguarda i primi due punti, questi sono comuni a tutte le materie plastiche. Infatti,
questi materiali subiscono la rottura delle macromolecole se sono sottoposti a sforzi esterni come
calore, sforzo meccanico, radiazioni ultraviolette, ma anche durante la lavorazione. Infatti, alle alte
temperature di lavorazione le macromolecole possono rompersi e diminuire il loro peso molecolare.
L’ultimo punto, invece, va preso in considerazione soltanto quando la plastica da riciclare è costituita da un miscuglio di diversi polimeri.
Altri problemi possono nascere da:
• diversi punti di fusione dei polimeri presenti nel miscuglio
• diverse forma e dimensione dei materiali.
La degradazione durante il periodo di vita è prevalentemente causata da processi fotoossidativi. I cambiamenti nella struttura dei polimeri sono del tutto simili a quelli provocati dalla degradazione termomeccanica che avviene durante le lavorazioni allo stato fuso.
La presenza di diversi materiali polimerici può aumentare notevolmente la difficoltà dell’operazione di riciclo. In particolare, diversi punti di fusione possono causare la degradazione di alcuni
componenti della miscela, mentre l’incompatibilità tra le diverse fasi può dar luogo a materiali con
scadenti caratteristiche finali. Naturalmente, mentre la degradazione è presente in tutte le operazioni
di riciclo, l’incompatibilità rappresenta un problema solo nel caso di riciclo eterogeneo, cioè nel caso
di riciclo di miscele di materie plastiche.
Il riciclo omogeneo può essere considerato un’operazione di lavorazione effettuata su polimeri
già parzialmente degradati o che comunque sono facilmente degradabili duranti la rilavorazione, mentre il riciclo eterogeneo può essere considerato come la lavorazione di miscele incompatibili i cui
componenti sono inclini alla degradazione.
E’ ben noto che soltanto poche coppie di polimeri sono compatibili. Inoltre, il concetto di compatibilità è di per sé difficile da definire e quantificare. Sebbene non sia del tutto corretto, per i nostri
scopi possiamo definire la compatibilità sulla base di curve proprietà-composizione, dove per proprietà si intendono tutte le caratteristiche macroscopiche del materiale come le proprietà meccaniche,
reologiche, etc.
148
149
VARIAZIONE DELLE APPLICAZIONI NEL RICICLO DI PET
PET vergine → bottiglie per bevande → fibre (o altri prodotti) → bottiglie non per alimenti →
altri prodotti (stampaggio ad iniezione) → incenerimento
4.2 MISCELE POLIMERICHE
La ristabilizzazione dei polimeri riciclati va effettuata non solo per proteggere i materiali durante la lavorazione ma anche per salvaguardarli durante l’applicazione finale se il manufatto “vivrà all’aperto”. Per esempio, composti fenolici o ammine impedite riducono notevolmente la degradazione
termica e fotoossidativa di poliolefine (polietilene e polipropilene) e poliesteri (PET, per esempio).
4.3.2 Compatibilizzazione
Come già discusso, le miscele polimeriche mostrano in generale scadenti proprietà meccaniche
a causa della mancanza di adesione tra le fasi polimeriche causata dall’incompatibilità tra i differenti polimeri. Per migliorare l’adesione, e cioè per compatibilizzare le miscele, bisogna essenzialmente
abbassare la tensione interfacciale fra le due fasi in quanto valori diversi della tensione superficiale
tendono ad allontanarle. Si possono principalmente usare due metodi:
• legami fisici tra le fasi
• legami chimici tra le fasi
Fig. 1 Andamenti tipici di curve proprietà – composizione di miscele polimeriche
In Fig. 1 sono riportati gli andamenti qualitativi delle curve proprietà-composizione per miscele compatibili, semicompatibili (parzialmente compatibili) o incompatibili. L’effetto sinergico (curve
con il massimo) si può trovare soltanto in miscele con forti interazioni fra le due fasi. Al contrario,
l’effetto antagonista è tipico di quelle coppie di polimeri con forti repulsioni (per esempio polimeri
apolari/polimeri fortemente polari). Nella maggior parte dei casi le proprietà delle miscele sono intermedie rispetto a quelle dei due componenti (parzialmente compatibili o semicompatibili) sebbene la
maggior parte di essi mostri valori più bassi di quelli attesi sulla base di una semplice regola additiva. Inoltre, per le stesse miscele non tutte le proprietà seguono lo stesso andamento.
L’incompatibilità e gli effetti antagonisti possono esistere non solo nelle miscele di polimeri
con differente natura chimica, ma anche nelle miscele di polimeri di natura chimica simile o addirittura uguale. Ciò accade ad esempio quando le miscele sono preparate dallo stesso polimero, vergine
e riciclato.
4.3 STABILIZZAZIONE E COMPATIBILIZZAZIONE
4.3.1 Stabilizzazione
La degradazione durante le operazioni di riciclo allo stato fuso può essere arrestata, o almeno
ridotta, utilizzando opportuni stabilizzanti. Gli stabilizzanti aggiunti al polimero vergine, però, si consumano in seguito alle operazioni di lavorazione e durante la vita del polimero e quindi non esplicano alcuna azione nelle successive rilavorazioni né nell’eventuale successiva esposizione al sole. Molti
composti sono stati preparati per la stabilizzazione durante la lavorazione e contro l’azione degradativa dei raggi ultravioletti. La struttura chimica degli stabilizzanti in realtà è il parametro più importante per una stabilizzazione efficace. Un buon sistema stabilizzante va studiato e preparato per ogni
singolo polimero. Per questa ragione non tutti gli stabilizzanti che sono usati per i polimeri vergini
sono utilizzabili anche per i polimeri riciclati. Nuove formulazioni di stabilizzanti e nuove composizioni di stabilizzanti già esistenti sono adesso studiate e alcuni buoni risultati sono stati ottenuti in
alcuni sistemi riciclati.
150
Entrambe le modalità possono essere raggiunte per aggiunta di piccole quantità di un terzo
componente alla miscela che agisce da agente legante tra le due fasi incompatibili. A seconda della
struttura dei compatibilizzanti e dei componenti della miscela, il meccanismo di compatibilizzazione
è diverso. Quando il composto macromolecolare è un copolimero costituito da unità monomeriche
uguali o almeno compatibili con ciascuna fase, si creano dei legami fisici tra le fasi. Il copolimero è
miscibile nelle due fasi e si crea così un legame tra i due polimeri completamente incompatibili.
Compatibilizzazione fisica può essere chiamata anche quella che si ottiene quando un terzo componente è miscibile in una fase e abbassa la tensione interfacciale provocando legami fisici (per esempio ponti idrogeno) con le catene del secondo componente.
Nel secondo caso il terzo componente è un polimero miscibile in una delle due fasi ed include
gruppi funzionali innestati sulla catena principale. Tale componente è quindi miscibile in una delle
due fasi polimeriche mentre i gruppi funzionali possono reagire con altri presenti nel secondo polimero della coppia da compatibilizzare dando quindi luogo alla formazione di legami chimici tra le
due fasi.
Quest’ultima modalità di creare legami tra le due fasi differenti può anche essere ottenuta inducendo reazioni chimiche tra le macromolecole delle diverse fasi durante la lavorazione e quindi anche
durante il riciclo. Tale processo è chiamato “lavorazione reattiva” o “miscelazione reattiva” e il polimero compatibilizzante viene formato in situ. Ciò può accadere perché durante la lavorazione lo sforzo meccanico e la temperatura possono causare la rottura delle catene polimeriche con conseguente
possibile reazione tra i differenti radicali. Naturalmente quest’ultimo sistema è molto interessante, ma
non può essere applicato a tutte le coppie di polimeri ed inoltre è molto difficile controllare le reazioni
durante la lavorazione. Infatti, i copolimeri formati in situ possono a loro volta essere degradati con
conseguente diminuzione del peso molecolare e possono cambiare la loro struttura (non più copolimeri ad innesto ma copolimeri a blocchi o casuali) riducendo così drasticamente la loro capacità di
agire come agenti compatibilizzanti.
Esempi tipici di compatibilizzanti sono le poliolefine modificate con anidride maleica o acido
acrilico che sono capaci di compatibilizzare miscele di poliolefine e poliammidi.
151
5. IMPIANTI PER IL RICICLO MECCANICO
5.2 MACCHINE PER IL RECUPERO DI SCARTI POLIMERICI ETEROGENEI
5.1 MACCHINE PER IL RECUPERO DI SCARTI DI PLASTICHE OMOGENEE
In generale, le macchine per il recupero di scarti di plastiche omogenee sono composte di unità per:
granulazione
lavaggio
estrusione/pellettizzazione
La prima fase consiste nella riduzione in piccoli pezzi degli scarti che poi passano alla fase di
lavaggio la cui severità dipende essenzialmente dalla tipologia dei rifiuti. Per esempio, il lavaggio è particolarmente difficile per i teloni da serra e quasi assente per film da imballaggio. Infine, questi materiali passano in un estrusore dove vengono fusi e trafilati attraverso una testa con foro circolare. Questo
“spaghetto” viene tagliato una volta raffreddato e ridotto in piccoli cilindretti (pellettizzazione).
Naturalmente, non tutti i processi di riciclo sono composti soltanto da queste unità fondamentali, così come non tutte le operazioni di riciclo richiedono la presenza necessaria di tutte le apparecchiature. In alcuni casi, ad esempio, la granulazione costituisce l’intero processo di recupero, mentre
la parte estrusione/pellettizzazione è mancante in altre situazioni. Il recupero di fogli di polivinilcloruro (PVC) e di polistirene (PS) per termoformatura è un esempio del primo caso, mentre il riciclo
del polietilentereftalato (PET) ha luogo essenzialmente tramite le fasi di lavaggio e granulazione.
Infine tutte le unità sono presenti negli impianti di rigenerazione di PE (polietilene) e PP (polipropilene). Tra gli impianti per il riciclo di scarti polimerici omogenei, ce ne sono svariati con una
tecnologia abbastanza consolidata. Tra questi ricordiamo i più importanti:
• impianti per il riciclo di film di polietilene
• impianti per il riciclo di bottiglie in PET
Gli impianti per il riciclo di film di PE includono tutte le sezioni brevemente descritte prima e
differiscono poco le une dalle altre, essenzialmente nella sezione di lavaggio ovviamente in dipendenza dal tipo di film (imballaggio o agricolo) da riciclo. Generalmente, questi impianti sono composti di una unità di granulazione, una o più unità di lavaggio e seccaggio, uno o due estrusori ed infine un pellettizzatore.
La sistemazione di due estrusori in serie rende possibile l’ottenimento di materiali con una
migliore qualità, migliore omogeneità e, a causa di maggiori filtrazioni nel fuso polimerico, con minore contenuto di particelle estranee ed infusibili.
Gli impianti per il riciclo di bottiglie di PET, sono molto diversi da quelli per il recupero di film
di PE dato che il corpo delle bottiglie va preventivamente separato dai più svariati materiali come etichette di carta, coppette di base in PE, tappi, ecc.. Dopo una o più sezioni di sminuzzamento e granulazione, i fiocchi così ottenuti sono lavati due volte per eliminare residui di carta, colla ecc.. I residui sono PET e occasionalmente alluminio delle coppette. Una susseguente operazione di flottazione
consente di eliminare il PE (l’unico materiale meno denso dell’acqua) che viene seccato e riutilizzato. Quando necessario, PET ed alluminio sono separati in separatori elettrostatici ed il PET, pronto
per la rilavorazione viene stoccato. Contrariamente all’impianto precedentemente descritto, lo stadio
di estrusione è mancante ed il materiale non subisce severi fenomeni degradativi.
I due esempi sopra descritti mostrano come sia impossibile avere un singolo impianto o una
sola tecnologia per il riciclo. Al contrario, bisogna trovare il migliore modo di procedere per ogni singolo polimero aspirando alla massima produzione (in quantità e qualità) ed al minimo costo, riducendo per quanto possibile i processi degradativi a cui il materiale è soggetto.
•
•
•
152
•
•
•
Gli impianti per il recupero di scarti polimerici eterogenei sono costituiti da tre fasi fondamentali:
granulazione
lavaggio
lavorazione
Diversamente dagli impianti per il recupero di scarti polimerici omogenei, questi non hanno gli
stadi di estrusione e pellettizzazione. Infatti, come precedentemente ricordato, i materiali ottenuti dal
recupero di scarti di questo tipo, hanno scadenti proprietà meccaniche quindi un processo di riciclo
simile a quello descritto per le plastiche omogenee non sarebbe conveniente da un punto di vista economico. In questi casi gli articoli devono essere prodotti direttamente durante l’operazione di riciclo.
Generalmente parlando, si producono oggetti di grosse dimensioni che non sono soggetti a forti sforzi durante l’utilizzo (bobine, pali, steccati, vasi, aiuole, ecc.). Mentre la granulazione e il lavaggio
sono operazioni abbastanza simili a quelle precedentemente descritte, per la lavorazione si utilizza
un’apparecchiatura completamente differente. Essa consiste in un estrusore che fonde e trasporta la
miscela polimerica verso lo stampo posto a valle.
Una nuova tecnologia per il riciclo di scarti polimerici eterogenei (Newplast) recentemente presentata, si basa sulla cosiddetta “omomicronizzazione”, un processo di profonda microomogeneizzazione che consente di trasformare differenti polimeri in un amalgama solido con buone proprietà fisiche. La plastica miscelata può essere riciclata senza nessun compatibilizzante dando luogo a materiali
secondari lavorabili nelle convenzionali apparecchiature e con buone proprietà meccaniche. Durante
la severa miscelazione in questo dispositivo, lo sforzo termomeccanico causa un qualche tipo di legame tra le differenti fasi polimeriche.
6. RICICLO CHIMICO
Il riciclo con recupero di intermedi chimici (detto anche riciclo terziario o chimico) è concettualmente la forma di riciclo più corretta in quanto in teoria consente di chiudere il ciclo
[monomeri ⇒ produzione di polimeri ⇒ trasformazione in oggetti ⇒ uso ⇒ raccolta ⇒ riciclo con produzione di monomeri ⇒]
Complessivamente si otterrebbero diversi risultati vantaggiosi consumando solo energia; si
provvederebbe allo smaltimento di rifiuti e si otterrebbero nuovi materiali vergini risparmiando risorse (petrolio) altrimenti necessarie per la produzione di monomeri. Il principale problema per l’impiego di un tale processo di riciclo è economico, dovuto al fatto che sono richiesti forti investimenti per
gli impianti e considerevoli costi di gestione (in particolare per energia). Una riduzione di costi si
potrebbe avere con un aumento delle potenzialità degli impianti, ma in questo caso si introdurrebbero problemi legati alla possibilità di raccogliere e conferire allo stabilimento un prodotto di qualità
elevata, in grande quantità e in modo costante. A questo si aggiunga che processi di riciclo chimico
possono attualmente essere applicati solo a pochi tipi di materiali (PET, poliuretani, poliammidi ecc.).
Un esempio industrializzabile di riciclo chimico è quello del PET. La struttura chimica del PET
153
ha caratteristiche tali da consentire reazioni che portano ad una frammentazione delle molecole del
PET originale con formazione di un numero limitato di specie chimiche di basso peso molecolare e
facilmente. A tale scopo il PET può essere fatto reagire con acqua (idrolisi),
I possibili problemi che possono nascere dalla combustione di manufatti plastici post-consumo
dipendono fondamentalmente dalla emissione di inquinanti. Inquinanti che possono essere “intrinseci” alla natura chimica del polimero (acido cloridrico che si libera dalla combustione del PVC) o
dovuti alla presenza di sostanze come additivi, pesticidi, etc.
Problemi che, però, sono in genere superabili con le attuali tecnologie, se gli impianti di combustione sono ben gestiti. Restano invece i problemi legati alla possibilità di avere un flusso quantitativamente elevato e costante e soprattutto, i problemi connessi con i costi di raccolta e trasporto dei
rifiuti plastici. Infatti, questi grandi impianti possono lavorare in modo economicamente conveniente
solo se alimentati con grandi e costanti quantità di polimeri
8. CONCLUSIONI
con metanolo (metanolisi),
Lo smaltimento dei materiali post-consumo deve preferibilmente avvenire attraverso il riciclo
per il recupero di materia o attraverso il recupero energetico. La messa in discarica, oltre che creare
problemi ambientali, è costosa e fa perdere il contenuto di materia ed energia dei manufatti a fine vita.
Il riciclo, quindi, non è solo un dovere ambientale, ma anche una necessità economica.
La possibilità effettiva di riciclare oggetti con una delle metodologie precedentemente illustrate dipende dal materiale, dal tipo di raccolta, da considerazioni tecniche ed economiche. Metalli, carta
e vetro sono, a diversi livelli, relativamente facili da riciclare, mentre più problemi pongono le materie plastiche. Tuttavia, anche questi materiali sono in gran parte riciclabili ed in ogni caso la combustione può risolvere i problemi dello smaltimento senza la massiccia messa in discarica, costosa ed
ecologicamente pericolosa.
con glicole etilico o con altri glicoli (glicolisi)
I monomeri recuperati in questo modo possono poi essere nuovamente impiegati per la produzione di PET vergine o di altri poliesteri. Un vantaggio di questo processo consiste nel fatto che esso
tollera l’impiego di PET con percentuali di alcuni contaminanti maggiori, che possono essere eliminati in una delle varie fasi del processo. Tra le diverse possibili reazioni, la metanolisi è quella che al
momento sembra riscuotere il maggiore successo perché relativamente più semplice dell’idrolisi e,
rispetto alla glicolisi con etilen glicole, può consentire di produrre nuovo PET adatto per usi alimentari in quanto garantisce di evitare accumuli di residui catalitici.
La glicolisi eseguita con altri glicoli è impiegata per produrre polioli per poliuretani (dietilenglicole) o poliesteri insaturi (propilen glicole).
I principali svantaggi derivanti da un riciclo chimico sono di natura economica, in quanto per
la sua realizzazione sono richiesti grossi investimenti e per avere un ritorno economicamente conveniente sono necessari impianti di potenzialità relativamente alta e considerevoli consumi energetici.
BIBLIOGRAFIA
La combustione dei materiali polimerici, oltre alla quasi completa eliminazione dei rifiuti, permette lo sfruttamento del contenuto energetico di questi materiali. Considerando che i polimeri sono
nella maggior parte derivati dal petrolio costituiti da carbonio ed idrogeno, è facile capire che il loro
contenuto energetico è notevole. Bruciare 1 Kg di polietilene equivale a bruciare circa 2 Kg di petrolio. Benché altri polimeri (per esempio i poliesteri e le poliammidi) presentino un potere calorifico
minore, anche la loro combustione può portare ad un considerevole risparmio energetico.
1. F.P. LA MANTIA, “Different approaches to the environmental impact of plastic materials” 1996
Mediterintec, 5-9 Novembre
2. F.P. LA MANTIA “Tecniche e problematiche nel riciclo dei materiali plastici” 1990 Macplas,
Marzo, p.67
3. G. PEZZIN, C. CAMINO, F.P. LA MANTIA, P. MALTESE, F. PILATI, 1990 “Le Materie Plastiche e
l’Ambiente” Grafis Edizioni, Bologna
4. F.P. LA MANTIA, 1991 “Riciclo di rifiuti plastici: tecnologie attuali, prospettive, ricerca” Ambiente
Risorse Salute, Maggio p. 13
5. R.J. EHRIG, ed., “Plastics Recycling” 1992 Hanser, Munchen,
6. F.P. LA MANTIA, ed, 1993 “Plastic Materials Recycling” ChemTec, Toronto
7. F.P. LA MANTIA, 1995 “Il Riciclo di Materie Plastiche” Plastiservice, Milano
8. F.P. LA MANTIA, ed, 1996 “ Recycling of PVC and Mixed Plastics” ChemTec, Toronto
9. J. BRANDRUP, M. BITTNER, W. MICHAELI and G. MENGES, eds., 1996 “Recycling and Recovery of
Plastics”, Hanser, Munchen,
10. J. SCHEIRS, “Polymer Recycling”, 1998 John Wiley & Sons Ltd., England 1998
11. G. AKOVALI, C. A. BERANARDO, J. LEIDNER, L. A. UTRACKI and M. Xanthos, eds., 1998
“Fondaments in the Science and Tecnology of Polymer Recycling”, Kluwer Academic
Pubblishers, The Netherlands,
154
155
7. RECUPERO ENERGETICO
12. F.P LA MANTIA, ed, 2002 “Handbook of Polymer Recycling” RAPRA
13. F.P. LA MANTIA, R. SCAFFARO “Riciclo di Materie Plastiche” in Sergio Bruckner, G. Allegra, M.
Pegoraro; F.P. La Mantia 2002, “Scienza e Tecnologia dei Materiali Polimerici” EdiSES, Napoli
14. www.sinanet.anpa.it
RIDUZIONE DELLE EMISSIONI E DEI RIFIUTI NELLA
PRODUZIONE DI ENERGIA E NELL’INDUSTRIA CHIMICA
MICHELE ARESTA, ANGELA DIBENEDETTO
1. INTRODUZIONE
Chimica verde, processi puliti, chimica sostenibile: diversi modi per esprimere un’unica necessità: ridurre le emissioni e la produzione di rifiuti anche nel settore chimico, come negli altri settori
industriali (industria della produzione di energia, industria elettronica, industria tessile, industria meccanica, industria dei servizi, trattamento dei rifiuti) considerati a più elevato impatto ambientale.
1.1 PRODUZIONE DI ENERGIA ELETTRICA DA COMBUSTIBILI A BASE
DI CARBONIO
Prima di affrontare il tema del ruolo della catalisi nella innovazione della industria chimica, mi pare
opportuno commentare lo stato dell’arte della produzione di energia elettrica. Tutti i processi chimici utilizzano energia e la quantificazione delle emissioni legate alla produzione di una qualsiasi specie chimica non può prescindere dal considerare le emissioni associate alla quantità di energia utilizzata. Da queste considerazioni preliminari appare chiaro che la minimizzazione del consumo di energia è uno dei
punti chiave della innovazione della industria chimica per raggiungere la condizione di “emissione zero”
spesso “reclamizzata” come caratteristica di un processo. Ma c’è da chiedersi se tale condizione sia realizzabile. In realtà, la condizione di “emissione zero”, che nei processi chimici significa resa e selettività
del 100% in ogni stadio di una sintesi, non sono realizzabili, ma solo più o meno approssimabili.
Come esempio di quanto sia possibile approssimare la condizione di “emissione zero” considero la combustione del metano. (Schema 1)
Reazione globale
Iniziazione
CH4 + 2 O2 → CO2 + 2H2O
CH4 + •OH → CH3• + H2O
∆H298K = 192 kcal/mol
log k ≅ 33 a 1270 K
Schema 1 Entalpia della combustione del metano
156
157
La reazione è fortemente esotermica, il che significa che essa è fortemente spostata a destra.
Essendo la reazione cineticamente favorita si realizza la condizione ideale per una reazione completa. Dai dati termodinamici è possibile calcolare che, in teoria, dovrebbe residuare una molecola di
metano per 1033 molecole di diossido di carbonio formate, o circa 3 molecole in 10 Mmc di aria. Se
si considera quello che è il limite di emissione di metano dalle auto alimentate con gas metano oggi
accettato per normativa, che ammette una combustione con conversione pari a 99.9999, non sempre
raggiunto, si può calcolare che tra teoria e pratica esiste un fattore di separazione pari a 1027. In realtà,
quindi, si è molto lontani dalla condizione di “emissione zero”: pur essendo la reazione di combustione del metano teoricamente un processo molto pulito, in pratica la tecnologia esistente non consente di raggiungere il limite teorico, lasciando aperto il problema del controllo della emissione di
metano incombusto.
Sia il diossido di carbonio che il metano sono “gas serra”, (Schema 2) ossia gas che amplificano l’effetto serra naturale e la loro emissione deve essere tenuta sotto controllo [1-6], così come concordato con il Protocollo di Kyoto.
Emissione di CO2 nella produzione di energia elettrica
Emissione di CO2
•
Ruolo delle tecnologie innovative
•
•
Fuel shift: passando dall’uso del carbone a quello del LNG (Gas liquido naturale) si riduce a metà
la quantità di diossido di carbonio emessa per kWh di energia prodotta. (Schema 3)
Tecnologie esistenti
ηconv = 28-32%!
70% calore emesso in atmosfera
•
Carbone polverizzato
Ciclo combinato
Recupero di calore
Produzione di vapore
η = 40 %!
•
IGCC
Schema 2 Lista di gas serra e loro origine
La emissione di diossido di carbonio ammonta oggi a quasi 27.6 Gt di CO2 per anno ed il 36%
deriva dalla produzione di energia elettrica da combustibili a base di carbonio (26% dai processi industriali, 30% dai trasporti, 10% dal riscaldamento). Pertanto, la produzione di energia e l’industria, che
emettono il 60% del diossido di carbonio, sono fonti continue e localizzate e quindi esse vengono considerate in via prioritaria per la riduzione di CO2. Le tecnologie di riduzione della emissione possono essere distinte in diverse categorie:
kg/kwh
kg/kwh
kg/kwh
Aumento della efficienza nella produzione di energia elettrica (Schema 4): passando dalle attuali
tecnologie alla IGCC (Integrated Gasification Combined Cycle ossia Gasificazione del carbone a
dare H2 ed utilizzo di questo come combustibile in un ciclo combinato con recupero di calore per
la produzione di energia elettrica) si può aumentare l’efficienza dal 28-32% al 52%, con una sensibile riduzione della emissione di CO2. Inoltre la IGCC presenta una reazione di combustione
molto pulita senza emissione di altri inquinanti, se si usa ossigeno come comburente, invece di aria.
CO2, CH4, N2O, CFC, O3, SF6
Produzione di energia
Uso propellenti
Attività agricole
Attività industriali
Trasporto
1
0.7
0.5
Schema 3 Emissione di diossido di carbonio (uno dei gas serra) nella produzione di energia elettrica,
utilizzando coke, petrolio o gas.
Gas Serra
Origine:
Coke
Olio
Gas
Integrated Gasification Combined Cycle η = 52 %!
C + H2O
CO + H2O
C + 2H2O
→
→
→
Separazione
H2 + 1/2 O2
CO + H2
CO2 + H2
CO2 + 2H2 reazione globale
H2/CO2
→
H2O + Q
combustione pulita
Schema 4 Efficienza (η) di conversione di energia chimica in energia elettrica con diverse tecnologie
158
159
•
Separazione del diossido di carbonio dai gas di combustione ed eliminazione in campi naturali
(pozzi esausti di estrazione di LNG o petrolio, ovvero in acquiferi). Questa tecnologia, molto
innovativa, è già adottata da compagnie che estraggono LNG: dopo separazione del CO2 dal metano, il CO2 è iniettato nei pozzi esausti. La separazione si effettua con ammine o con membrane
semipermeabili.
La innovazione tecnologica può consentire di dare una soluzione ai problemi ambientali legati
alla produzione di energia, non solo per il controllo della emissione di gas serra, ma anche nella riduzione di gas che generano “piogge acide”. Lo Schema 5 mostra che, quantunque il gas naturale non
contenga sostanze organiche solforate o azotate, tuttavia produce ossidi di azoto nella combustione,
chiarendo che l’origine di questi è l’aria utilizzata per alimentare la combustione, piuttosto che le
sostanze organiche azotate presenti nel combustibile.
Abbattimento SOx, NOx
• End of pipe
3 NO + 2 NH3
→
Volume dei gas da trattare è grande
→
5/2 N2 + 3 H2O
• Durante la combustione
→
SO2 + CaCO3
CaSO3 + 1/2 O2
→
CaSO3 + CO2
CaSO4
Riduzione della disponibilità di energia elettrica efficace: 8-12%
Gas che generano “piogge acide”
Schema 6 Tecnologie di abbattimento di NOx e SOx.
SOx, NOx
Carbone
Gasolio
Gas
Origine NOx
Contiene
→
S, N
→
S
→
→
→
→
→
Emissione nella combustione
SOx, NOx
SOx, NOx
NOx
Aria
Schema 5: Emissione di SOx ed NOx nel corso della combustione dei combustibili. L’origine dell’NOx
è essenzialmente l’azoto presente nell’aria, e solo in minima parte il combustibile.
E’ opportuno evidenziare che il trattamento dei gas “end of pipe” (fine processo ossia dopo la
combustione) comporta la necessità di dover trattare volumi molto grandi di gas, costituiti essenzialmente da azoto (circa 75%). Esistono alternative alle attuali tecnologie. La emissione di ossidi di
azoto può quasi totalmente essere tagliata se si usa ossigeno invece di aria nella combustione, il che
richiede la separazione di ossigeno ed azoto a monte della combustione, mediante distillazione dell’aria liquida o utilizzando membrane. Utilizzando ossigeno puro come comburente, si può utilizzare
una parte del diossido di carbonio come diluente inerte. La valutazione economica della tecnologia
deve comprendere i benefici ambientali derivati dalla sua implementazione. Per quanto concerne l’abbattimento di ossidi di zolfo l’approccio più efficace sta nella desolforazione dei combustibili
(Schema 7), che deve essere applicata solo a carbone e gasolio, essendo il gas naturale privo di sostanze solforate non separabili.
L’abbattimento di NOx ed SOx richiede tecnologie diverse (Schema 6) che riducono la quantità di energia elettrica efficace prodotta. Infatti, parte di essa viene utilizzata nei processi di separazione/abbattimento degli inquinanti.
160
161
Desolforazione di combustibili
Combustibile
• Gasolio
Processo
HDS
Hydrodesulphurization
(Idrodesolforazione)
H2 + “S-organico”
cat
→ H2S + C-organico
H2S + 1/2O2
→ H2O + 1/8 S8
• Carbone
S2- + 4 H2O
SRB
→
→
Sulphate reducing bacteria
(Batteri che riducono il solfato)
SO4= + 8e- + 8H+
Schema 7 Tecniche di desolforazione di combustibile liquido o solido
Un diverso approccio deve essere usato per i due combustibili: il trattamento del carbone con
batteri solfato riducenti è molto più indicato di ogni altra tecnologia basata sull’uso di catalizzatori,
tecnologia che può invece essere vantaggiosamente usata per la idrodesolforazione di gasolio.
Quanto sin qui detto indica che esistono tecnologie che possono limitare l’impatto ambientale
di attività industriali: la loro effettiva utilizzazione può dipendere da fattori economici, dal costo della
costruzione degli impianti o dai costi di gestione, dalla esistenza di condizioni naturali che consentano la utilizzazione della tecnologia: per esempio, la eliminazione del diossido di carbonio recuperato
richiede l’esistenza di campi naturali adatti per la sua eliminazione. D’altro canto, è evidente che solo
il supporto della normativa può rendere possibile la attivazione di circuiti nei quali la innovazione
diventi il motore del cambiamento. In qualche caso, infatti, opportune tasse ambientali finalizzate alla
protezione dei sistemi naturali hanno promosso l’introduzione di tecnologie innovative che hanno
effetti positivi sull’ambiente. Per esempio, la “carbon tax” è stata la molla che ha consentito la utilizzazione della tecnologia del recupero del diossido di carbonio da LNG estratto e della sua reimmissione in pozzi esausti evitando l’immissione in atmosfera. Pertanto, la riduzione dell’impatto ambientale delle attività industriali richiede, accanto allo sviluppo di tecnologie innovative a basso impatto
ambientale, anche la realizzazione delle opportune condizioni normative e politiche per la loro applicazione.
2. EMISSIONI NELL’INDUSTRIA CHIMICA
Verso processi puliti
Vecchio approccio
basato su uso di:
• Metalli pesanti
• Reazioni di sostituzione
• Acidi e basi
• Reagenti Friedel-Craft
• Solventi organici
• Prodotti alogenati
• Alto consumo energia
→
→
→
→
→
→
→
Effetti:
Nuovi concetti:
Rifiuti tossici
Sottoprodotti
Sali
Residui tossici
Emissioni, rifiuti
Rifiuti tossici
Emissioni
Nuovi catalizzatori
Processi diretti
Economia di atomi
Alta selettività
Solvent shift
Ossidazioni con ossigeno
Basso consumo di energia
Schema 8 Cambiamenti in atto nell’industria chimica
La produzione di rifiuti nella sintesi chimica dipende dalla complessità della sintesi e del prodotto: maggiore è la complessità molecolare, più numerosi sono gli step di reazione, maggiore la produzione di rifiuti. Una sintesi che abbia una resa del 90% appare già come molto buona, ma se un prodotto viene sintetizzato attraverso dieci passaggi, anche se ognuno di essi presenta una resa del 90%,
alla fine si ha un rapporto rifiuti/prodotto = 2: questo rapporto è detto “fattore di emissione”. Il “fattore di emissione”, Ef, è, quindi, proporzionale alla complessità del processo o del prodotto come
indicato nella Tabella 1. Il mercato (tonnellate per anno, t/a) dei prodotti chimici è anche in qualche
modo legato alla complessità molecolare, ma in modo inverso: prodotti a maggiore complessità molecolare hanno un mercato più limitato.
Tabella 1 Fattore di emissione per diversi prodotti dell’Industria Chimica.
Fattore di emissione
Industria/Prodotto
Mercato, t/a
Ef
Combustibili liquidi
≈ 109
<0.1
Chimica di base
> 106
1-5
Chimica fine
104-105
5-20
Farmaceutica
103-104
25-100
L’Industria Chimica, anche se all’esterno può non apparire evidente, da lungo tempo realizza
una politica di innovazione di processo, di recupero e riciclo di fatto di prodotti. (Schema 8)
Non meraviglia, quindi, che i prodotti dell’industria farmaceutica, che non solo hanno una notevole complessità molecolare ma possono presentare anche particolari requisiti di stereochimica, siano
quelli che presentano il più elevato fattore di emissione (anche 100, cioè cento chili di rifiuti per chilo
di prodotto!). Mi pare opportuno dare qualche esempio di come sia stato e sia possibile migliorare un
processo. Prenderò in considerazione prodotti che abbiano un mercato superiore ad un Mt (milioni di
tonnellate) per anno.
162
163
2.1 ACIDO ACETICO
2.2 OSSIDO DI ETILENE
L’acido acetico è stato sintetizzato sino dagli inizi del 1800 mediante ossidazione dell’alcool
etilico ottenuto per fermentazione alcolica dello zucchero. (Schema 9)
Successivamente, a causa dell’aumentata richiesta di mercato, è stata sviluppata una via chimica basata sull’ossidazione del butano che, però, presenta un basso rendimento in termine di atomi:
infatti, due atomi di carbonio su quattro sono perduti. Questo processo è caratterizzato da una bassa
“economia di atomi”. Negli anni ’80 sono stati sviluppati e realizzati industrialmente processi ad alta
economia di atomi (totale utilizzazione) come il processo Monsanto che usa un catalizzatore di Rh
per la conversione del metanolo. Altri processi ad alta economia di atomi sono basati sull’ossidazione dell’etilene. Il processo ideale è la reazione di metano e diossido di carbonio, processo che in natura avviene spesso in verso opposto catalizzato da batteri metanogeni che convertono l’acido acetico
in metano e CO2. Esistono evidenze della possibilità di realizzare per via chimica la sintesi di acido
acetico da metano e diossido di carbonio con catalizzatori a base di Ti, o con plasmi a bassa temperatura, ma la resa è ancora molto bassa; come mostrato nello Schema 9 si passa quindi da processi che
hanno un’efficienza del 50% in termini di atomi, ad un processo con il 100% di utilizzazione di atomi.
L’ossido di etilene (Schema 10) è stato a lungo sintetizzato dalla cloridrina etilenica.
Tale processo implica la sintesi e l’uso di cloro, il che comporta un elevato impatto ambientale. Come sottoprodotto della reazione si forma dicloroetano che, se recuperato, potrebbe essere utilizzato per la sintesi di cloruro di vinile, monomero del PVC. Ma tale recupero comporterebbe elevati costi di separazione e purificazione e pertanto, non viene realizzato. Ciò comporta la produzione di
rifiuti alogenati che hanno un elevato impatto ambientale. La scoperta di catalizzatori di Ag capaci di
ossidare l’etilene a dare il prodotto desiderato in un solo passaggio ha costituito un notevole progresso verso la riduzione dell’impatto ambientale.
Ossido di etilene
• Processo basato sulla cloridrina etilenica
→
C2H4 + Cl2 + H2O
HOCH2CH2Cl
CH3COOH ~ 10 Mt/a
HOCH2CH2Cl + HCl
→
H2C
CH2 + HCl
O
• Fermentazione alcolica ed ossidazione dell’alcool
C6H12O6 →
2CH3CH2OH + 2CO2
1/2 O2
CH3CH2OH ⎯→
1/2
CH3CHO ⎯→
O2
• Possibile reazione concomitante
C2H4 + Cl2
CH3COOH
• Sintesi industriale: ossidazione del butano
O2
CH3CH2CH2CH3 ⎯⎯⎯⎯→
CH3COOH + CO2
Co(CH3COO)2
4C
2C
ClCH2CH2Cl
• Possibile recupero del dicloroetano
ClCH2CH2Cl
50% del C è perduto
• Sintesi innovative: conversione del metanolo, ossidazione di etene
CH3OH + CO
→ CH3COOH
C2H4 + 1/2 O2
→ CH3CHO
→ CH3COOH
C2H4 + O2
→ CH3COOH
• Processo naturale
CH4 + CO2
⎯→
CH3COOH
∆
⎯→
ClCH=CH2
⎯→
PVC
• Processo innovativo
C2H4 + 1/2 O
→
H2C
CH2
O
Schema 10 Comparazione di diverse vie sintetiche dell’ossido di etilene: l’ossidazione dell’etene può evitare
perdita di atomi di carbonio
2.3 CAPROLATTAME
Schema 9 Sintesi dell’acido acetico a confronto: si noti la diversa “economia di atomi” in termini di atomi di
carbonio utilizzati e fissati nella molecola di acido acetico
164
Il caprolattame è un monomero utilizzato per la sintesi del Perlon (fibra). La sua sintesi è stata
a lungo basata su un processo ad elevato fattore di emissione (Schema 11) che produceva 4.4 t di solfati non riciclabili per t di caprolattame.
165
Sintesi del Caprolattame
3 NH3 + 2 CO2 + 2 H2O = NH4HCO3 + (NH4)2CO3
2 NH3 + 3 O2 = NO + NO2 + 3 H2O
NO NO2 + (NH4)2CO3 = 2 NH4NO2 + CO2
NH4NO2 + NH3 + 2 SO2 + H2O = HON(SO3NH4)2
Schema 13 Correlazione tra sintesi di carbonati, carbammati e isocianati: queste specie possono essere convertite
le une nelle altre
HON(SO3H4)2 + 2 H2O = NH2OH H2SO4 + (NH4)2SO4
Rifiuti: 4.4 t/t caprolattame
Schema 11 Sintesi del caprolattame secondo un processo in disuso
Tale processo è sostituito da un nuovo processo che praticamente non genera rifiuti (Schema
12) realizzato dopo la scoperta di un adatto catalizzatore.
Se si considera la reazione di alcoli con CO2 come sostitutiva della reazione del fosgene con
alcoli, si nota subito che il CO2 essendo molto meno reattivo del fosgene (∆Gf = -96.5 kcal/mol)
richiede catalizzatori molto attivi rispetto al fosgene che non richiede alcun catalizzatore.
Il dimetilcarbonato è un prodotto il cui mercato è in ampia espansione per l’utilizzo in molti
settori dell’industria chimica. Esso è stato sintetizzato per lungo tempo dal fosgene (Schema 14).
Dimetilcarbonato
Sintesi del Caprolattame
Processo ENIChem: non produce sali come sottoprodotti
Processo basato sul fosgene
COCl2 + CH3OH
→
ClCOOCH3 + CH3OH →
Schema 12 Nuova sintesi del caprolattame che evita la produzione di sali di ammonio
2.4 CARBONATI ORGANICI [(RO)2CO], CARBAMMATI (RNHCOOR)
E ISOCIANATI (RNCO)
I carbonati organici [7-8], i carbammati [9-10] e gli isocianati rappresentano una classe di
composti di notevole interesse industriale, vista l’ampia gamma di usi. I prodotti citati sono legati da
una rete di reazioni [11] molto interessanti. (Schema 13). Sinora questi composti sono stati ottenuti
dal fosgene, COCl2, una specie altamente tossica il cui uso non può essere esteso, anzi deve essere
evitato. Le vie alternative necessitano lo sviluppo di nuovi catalizzatori che consentano di realizzare
reazioni in condizioni di basso consumo di energia partendo da specie meno reattive del fosgene.
166
ClCOOCH3
(CH3O)2CO
Processo ENIChem
2 CH3OH + CO + 1/2 O2 →
(CH3O)2CO + H2O
Nuovo processo basato sul CO2
2 CH3OH + CO2 → (CH3O)2CO + H2O
Schema 14 Lo schema illustra i tre processi di produzione del dimetilcarbonato
167
Recentemente ENIChem ha messo a punto un processo di carbonilazione ossidativa del metanolo catalizzato da sali di Cu, che evita l’uso del fosgene. La sintesi del dimetilcarbonato da metanolo e CO2 porterebbe ad un ulteriore passo in avanti verso condizioni operative meno aggressive per
gli impianti.
Che la sostituzione del processo basato sull’uso del fosgene produca un beneficio ambientale è
chiaramente dimostrato dall’applicazione della metodologia Life Cycle Assessment (LCA o Analisi
del Ciclo di Vita) (Schema 15) [12-13] che dimostra che la via carbossilazione del metanolo ha un
impatto ambientale di un ordine di grandezza più basso, anche perché ricicla CO2 che è un gas serra.
Lo Schema 15 compara le emissioni (in ordinata) del processo di sintesi di DMC da fosgene
(COCl2, Processo 1) con quelle dei processi di sintesi da urea (Processo 2) e da diossido di carbonio
(Processo 3).
COCl2 + 2 CH3OH = (CH3O)2CO + 2 HCl (Processo 1)
(H2N)2CO + 2 CH3OH = (CH3O)2CO + 2 NH3 (Processo 2)
2 CH3OH + CO2 = (CH3O)2CO + H2O (Processo 3)
2.5 METANOLO
La sintesi di metanolo è un altro caso esemplificativo molto interessante. (Schema 16)
Sintesi del Metanolo
• Processo naturale
CH4 + 1/2 O2
→
CH3OH
• Processo industriale
CH4 + H2O
→
CO + 3H2
CO + 2H2
→
CH3OH
• Approccio innovativo
CO2 + 3 H2
→
CH3OH + H2O
Schema 16 Comparazione di tre processi per la sintesi di metanolo: il processo naturale è il più semplice.
Il processo naturale di ossidazione selettiva del metano, peraltro non ripetuto in vitro, sarebbe
l’approccio sintetico più desiderabile. In realtà ossidare selettivamente il metano è tanto difficile
quanto facile è la ossidazione totale a dare diossido di carbonio (reazione che avviene nella combustione del metano). La via industriale di sintesi del metanolo è basata sull’uso di gas di sintesi (miscela di CO e H2), prodotto mediante reazione di carbone o metano con acqua ad elevata temperatura.
C + H2O = CO + H2 (Water gas reaction, WGR, o reazione del gas d’acqua)
CH4 + H2O = CO + 3 H2 (LNG steam reforming, conversione del metano con vapore d’acqua)
Schema 15 Comparazione delle emissioni (in ordinata) per tre processi alternativi di sintesi del DMC
Una via innovativa per la produzione del gas di sintesi è la reazione di diossido di carbonio con
metano, una reazione di notevole interesse che converte due gas serra nella miscela CO-H2 (Syngas)
utilizzata per la sintesi di metanolo e di idrocarburi:
CO2 + CH4 = 2 CO + 2 H2 (methane dry reforming, conversione a secco del metano)
La utilizzazione del CO2 come fonte di carbonio è una via oggi nota e percorribile che presenta un notevole vantaggio ambientale rispetto alle vie tradizionali, come mostrato nello Schema 17.
Questa compara l’impatto ambientale delle emissioni (in ordinata, scala arbitraria) in funzione delle
diverse possibili reazioni (1-4) di produzione del metanolo. Si nota che il più elevato impatto è generato dall’attuale tecnologia (1a) mentre l’impatto viene drasticamente ridotto se si usa CO2 di recupero come fonte di carbonio per il metanolo.
168
169
CONCLUSIONI
1a
1b
2
3
4i
Syngas prodotto da LNG steam reforming senza recupero di calore
Syngas prodotto da LNG steam reforming con recupero di calore
LNG-SR Syngas (75%) e diossido di carbonio recuperato (25%) senza recupero di calore
LNG-SR e LNG-DR con recupero di energia per la sintesi di metanolo
Diossido di carbonio recuperato per reazione con H2 dall’acqua
(energia fotovoltaica per splitting dell’acqua)
4ii Diossido di carbonio recuperato per reazione con H2 (energia nucleare per splitting dell’acqua).
Schema 17 Comparazione dell’impatto ambientale di sei diverse metodologie di sintesi del metanolo
2.6 ACIDI AROMATICI DICARBOSSILICI
L’ultimo esempio qui considerato (ce ne sarebbero molti altri) è dato dalla sintesi di acidi aromatici dicarbossilici. Tradizionalmente ottenuti per ossidazione non catalitica di naftaline, reazione
caratterizzata da una bassa economia di atomi, essi possono essere sintetizzati in condizioni molto più
vantaggiose per ossidazione di o-xilene (Schema 18).
In questo capitolo sono considerate metodologie sintetiche e tecnologie di produzione di energia
elettrica da combustibili fossili a base di carbonio. E’ stato evidenziato come l’innovazione tecnologica abbia un ruolo importante per realizzare processi sostenibili (a basso impatto ambientale e basso
consumo energetico) e non necessariamente svantaggiosi dal punto di vista economico. In particolare
le nuove tecnologie di produzione dell’energia elettrica consentono di ridurre l’emissione di CO2 e di
altri gas ad elevato impatto ambientale, aumentando l’efficienza di conversione dell’energia chimica in
energia elettrica. La loro introduzione comporta costi di investimento elevati, ma rappresenta l’unico
modo per poter soddisfare i contenuti delle normative in materia di controllo delle emissioni.
La innovazione di processo nell’industria chimica passa attraverso lo sviluppo di nuovi catalizzatori e nuovi processi che consentano di realizzare vie sintetiche più dirette, a basso impatto ambientale, con elevata efficienza di atomi, utilizzando specie non tossiche e realizzando, se possibile, un
riciclo di carbonio.
BIBLIOGRAFIA
1. M. ARESTA, G. FORTI, (Eds), Carbon Dioxide as a Source of Carbon, Elsevier Publ. 1987
2. M. ARESTA, J.V. SCHLOSS, (Eds), Enzymatic and Model Reaction for Carbon Dioxide
Carboxylation and Reduction Reactions, Elsevier Publ. 1990.
3. M. ARESTA, Advances in Chemical Conversions for Mitigating Carbon Dioxide T. Anpo, M. Izui,
K. Yanagida, S. Yamaguchi, (Eds), Elsevier Publ. 1998, p. 65.
4. ARESTA M., QUARANTA E. ChemTech, 1997, 32, 27.
5. ARESTA M., DIBENEDETTO A. ACS Book on “CO2 Conversion and Utilisation”, 2001 in corso di
stampa
6. M. ARESTA, DIBENEDETTO A., I. TOMMASI Energy&Fuels, 2001, 15, 2, 269-273.
7. M. ARESTA, DIBENEDETTO A., I. TOMMASI Appl. Organomet. Chem., 2000, 14, 799-802.
8. M. ARESTA, A. DIBENEDETTO A. J. Mol. Catal. 2002 in corso di stampa.
9. M. ARESTA, A. DIBENEDETTO, E. QUARANTA, Tetrahedron, 1998, 54, 14145-14156
10. M. ARESTA, A. DIBENEDETTO, E. QUARANTA, Green Chemistry, 1999, 237-242.
11. M. ARESTA, La chimica e l’Industria, 1998, 80, 1051.
12. M. ARESTA, M. GALATOLA, Journal of Cleaner Production, 1999, vol. 7, 181.
13. M. ARESTA, A. CAROPPO, A. DIBENEDETTO, M. NARRACCI, ACS book on “Environmental Challenges
and Greenhouse Gas Control for Fossil Fuel Utilization in the 21st Century” 2002 in corso di
stampa.
Schema 17 Economia di atomi per due diverse vie di sintesi di acidi di carbossilici. Nella ossidazione del naftalene
vengono perduti due atomi di carbonio. Nell’ossidazione dello xilene in teoria non si ha perdita di carbonio.
170
171
LA CATALISI IN AMBIENTE BIFASICO ACQUOSO:
UNA MODERNA TECNOLOGIA VERSO PROCESSI
INDUSTRIALI A MINOR IMPATTO AMBIENTALE
CARLO BOTTEGHI, MAURO MARCHETTI, STEFANO PAGANELLI
1. INTRODUZIONE
L’acqua è il solvente dei processi naturali: interazioni molecolari e trasformazioni biochimiche
in organismi viventi avvengono prevalentemente in ambienti acquosi. Tuttavia l’uso dell’acqua come
solvente per processi chimici è stato fino a pochi anni fa estremamente limitato, specialmente da
quando sono stati introdotti nella prassi industriale solventi organici polari dotati di capacità di solubilizzare un gran numero di molecole sia inorganiche che organiche. Molti composti organici sono
praticamente insolubili in acqua, inoltre molti reagenti o intermedi di reazione sono sensibili all’acqua fino al punto di reagire con questa e di subire trasformazioni irreversibili: tutto questo ha fortemente compromesso l’utilizzo dell’acqua come solvente per processi di sintesi organica soprattutto a
livello industriale.[1-3]
La situazione ha iniziato a cambiare, quando a partire dagli anni ’80, sono state scoperte varie
reazioni organiche, che non solo non venivano inibite dall’acqua, anzi venivano drasticamente accelerate in ambiente acquoso rispetto a quelle condotte in solventi organici.
E’ stato dimostrato che reazioni di cicloaddizione, di addizione a composti carbonilici, di ossido-riduzione coinvolgenti molecole organiche forniscono alte rese nei desiderati prodotti di reazione,
se effettuate in solventi acquosi; può succedere che l’aggiunta di controllate quantità di acqua induca
più elevate velocità di reazione e selettività in numerose trasformazioni organiche.
Un altro importante fattore che ha promosso in modo sostanziale l’uso dell’acqua come solvente industriale è stata la mutata sensibilità ambientale e la spinta verso la Chimica Verde (Green
Chemistry) cioè la tendenza a sviluppare processi chimici con il minor impatto possibile sull’ambiente naturale.[4]
La Green Chemistry viene definita come:
• invenzione, progettazione e applicazione di processi e prodotti chimici per ridurre o eliminare
l’uso e la generazione di sostanze pericolose;
• approccio alla sintesi, processi ed uso di prodotti chimici che riducano i rischi per l’uomo e l’ambiente.
Per quanto riguarda il primo punto, è importante sottolineare che la maggior parte dei solventi
organici presentano gradi variabili di tossicità; inoltre al termine di un processo chimico generalmente questi solventi devono essere recuperati, purificati e riciclati, oppure inviati allo smaltimento con
notevole impegno economico da parte delle industrie manifatturiere.
I temi di ricerca tipici della chimica verde possono essere così schematizzati:
• natura alternativa dei composti di partenza;
• natura alternativa dei reagenti e delle trasformazioni;
• natura alternativa dei solventi
• natura alternativa dei prodotti di reazione
• natura alternativa dei catalizzatori.
173
L’uso dell’acqua come solvente rappresenta quindi un cardine della Green Chemistry e presenta i seguenti vantaggi:
• è la sostanza liquida nettamente più abbondante sulla terra, è quella più a buon mercato e, cosa
più importante, non è tossica, così da poter essere usata in grandi quantità in assoluta sicurezza;
• per le reazioni che vengono condotte in ambiente acquoso sono generalmente sufficienti miti condizioni sperimentali e pertanto le rese e le selettività sono suscettibili di notevoli miglioramenti;
• composti organici solubili in acqua come carboidrati possono essere direttamente utilizzati senza
subire trasformazioni;
• come vedremo successivamente, i catalizzatori idrosolubili possono essere riutilizzati dopo filtrazione, decantazione o estrazione dei prodotti insolubili in acqua.
Soprattutto per la sua economicità, la sua non tossicità ed il trascurabile impatto ambientale
l’acqua sta gradualmente sostituendo i tradizionali solventi idrocarburici, aromatici e clorurati più
inquinanti, in nuove formulazioni industriali di vernici, materiali protettivi, lubrificanti ed altri, in cui
i componenti attivi incompatibili con l’acqua vengono tenuti in emulsioni stabili con l’ausilio di efficienti tensioattivi.
E’ evidente, che le nuove e più restrittive norme contro l’inquinamento del nostro ambiente
nonché l’esigenza di limitare fortemente i costi spesso intollerabili dello smaltimento di reflui e residui dell’attività industriale, hanno spinto l’industria chimica a studiare nuovi processi più puliti per
sostituirli ai vecchi a più alto tasso di inquinamento. [4]
Tabella 1 – Vantaggi e svantaggi della catalisi omogenea e della catalisi eterogenea:
Catalisi omogenea
Catalisi eterogenea
Vantaggi
a) I catalizzatori sono più attivi
b) Tutti i siti catalitici sono attivi
c) I catalizzatori sono maggiormente selettivi
d) Le reazioni sono
maggiormente riproducibili
a) I catalizzatori sono molto stabili
termicamente
b) I catalizzatori si rigenerano per
combustione o per lavaggio delle
sostanze avvelenatrici, anche in situ
c) Grande facilità di recupero della
miscela di reazione (filtrazione o
decantazione)
d) I catalizzatori sono costituiti da un
supporto come allumina o silice su
cui è disperso un metallo; maggiore
economicità.
Svantaggi
a) E’ difficile il recupero
del catalizzatore
a) Il catalizzatore è attivo solo in
superficie
b) La reazione ha una minore riproducibilità (deposizione, granulometrie e
dispersione della fase catalitica,
porosità e stato della superficie)
2. CATALISI IN AMBIENTE ACQUOSO
2.1 GENERALITÀ
La maggior parte dei processi industriali che l’industria chimica tenta di rendere più eco-sostenibili come la sintesi dell’ammoniaca e dell’acido solforico, l’idrodesolforazione del petrolio, la sintesi del metanolo, le varie reazioni di carbonilazione di questo alcool, l’oligomerizzazione delle olefine, l’ossidazione dell’etilene ad ossido di etilene e molti altri ancora sono processi catalitici, che
possono cioè avvenire solo in presenza di un catalizzatore. Questo è definito dai chimici come un
composto inorganico od organico, che, pur essendo in quantità anche molto inferiori a quella dei reagenti, è capace di accelerare in modo drastico la loro trasformazione, rimanendo, nel caso ideale, praticamente inalterato alla fine della reazione.
Ad esempio, l’etilene e l’idrogeno possono rimanere inerti per un tempo indefinito miscelati
anche ad alte temperature: è sufficiente una piccola quantità di platino finemente suddiviso, perchè i
due reagenti diano luogo quantitativamente ad etano anche a temperatura e pressione ambiente.
E’ facilmente intuibile come lo studio della catalisi sia fin dalla nascita dell’attività industriale
uno dei fondamenti per lo sviluppo dei processi chimici produttivi e costituisca il principale presupposto per una crescita del mercato dei prodotti chimici.
L’azione del catalizzatore può avvenire in fase omogenea o in fase eterogenea. Nel primo caso
il catalizzatore, i reagenti ed i prodotti sono in una singola fase; nella catalisi eterogenea invece siamo
in presenza di un catalizzatore solido con reagenti gassosi o liquidi
Nella tabella seguente sono evidenziati i vantaggi e gli svantaggi di entrambi i tipi di catalisi:
La maggior parte dei catalizzatori impiegati nell’industria chimica sono derivati di metalli di
transizione come ossidi, sali, complessi (composti di coordinazione) di ferro, cobalto, nichel, rutenio,
platino, palladio, rodio, e molti altri. Questo è dovuto al fatto che i metalli di transizione presentano:
• Capacità di legare e di attivare, via coordinazione, molecole relativamente inerti (es. CO);
• Abilità a stabilizzare intermedi instabili, come idruri metallici e specie metallo-alchiliche, in complessi relativamente stabili, ma cineticamente reattivi;
• Variabilità dello stato di ossidazione;
• Variabilità del numero di coordinazione;
• Capacità di organizzare ed orientare più “componenti” di reazione all’interno della loro sfera di
coordinazione;
• Capacità di variare la natura del legame a seconda della struttura del legante (effetto del legante).
174
175
Cerchiamo di definire meglio la natura dei composti di coordinazione (più semplicemente
COMPLESSI): essi sono molecole contenenti un atomo metallico centrale (o più atomi) legati a gruppi organici o inorganici chiamati leganti. Il numero di atomi legati all’atomo centrale è definito:
NUMERO DI COORDINAZIONE.
Un esempio particolarmente istruttivo di processo catalitico in acqua è l’ossidazione dell’etilene ad acetaldeide in presenza di sali di palladio (II) (processo Wacker-Hoechst).[2] L’acqua è coinvolta nella reazione sia come reagente che come solvente (Schema 1):
2.2 CATALISI IN SISTEMI BIFASICI
Schema 1. Ossidazione dell’etilene ad acetaldeide.
La riossidazione del palladio (Pd° → Pd2+) avviene mediante il cloruro rameico, CuCl2, sempre in ambiente acquoso:
Come è possibile combinare i più importanti vantaggi della catalisi omogenea con quelli dell’eterogenea, e cioè sfruttare la più grande attività e selettività dei catalizzatori omogenei e nello stesso tempo risolvere il problema della separazione dei prodotti di reazione dal catalizzatore stesso?[6]
Indubbiamente, se il processo catalitico può essere condotto usando la tecnologia che prevede
due fasi liquido-liquido, ed il complesso cataliticamente attivo viene costretto a svolgere la sua azione esclusivamente in una delle due fasi, si apre un’importante prospettiva per la soluzione di questo
problema tecnico. Già verso la fine degli anni ’70 la SHELL ha messo in marcia un processo di oligomerizzazione dell’etilene per l’ottenimento di α-olefine C14-18, che impiega come sistema catalitico complessi di nichel con leganti chelanti aventi struttura di trifenilfosfine carbossilate come, ad
esempio, l’acido o-difenilfosfinobenzoico: [2]
Schema 2. Riossidazione del palladio.
Mentre l’ossigeno interviene per rigenerare il sale di Cu(II):
Figura 3. Acido o-difenilfosfinobenzoico
Schema 3. Rigenerazione del sale di rame (II).
Con questo processo vengono attualmente prodotte circa 600.000 tonnellate l’anno di acetaldeide, un importante composto intermedio precursore di acido acetico, anidride acetica, acetato di
etile ed altri prodotti di uso industriale.
I processi chimici su larga scala che impiegano sistemi catalitici omogenei sono relativamente
poco numerosi: oltre al processo Wacker-Hoechst ricordiamo la carbonilazione del metanolo ad acido
acetico catalizzata da complessi carbonilici di rodio
CH3OH + CO → CH3COOH
la reazione di idroformilazione delle olefine catalizzata da complessi carbonilici di rodio e di
cobalto, l’ossidazione del p.xilene ad acido tereftalico catalizzata da sali di cobalto. [5]
In effetti questo tipo di processi presenta alcuni notevoli svantaggi dal punto di vista operativo:
in particolare la separazione tecnicamente ed economicamente impegnativa dei prodotti dalla miscela di reazione ed il recupero ed il riciclo del catalizzatore rimasto in soluzione alla fine del processo.
E’ per questa ragione che l’industria chimica è da sempre orientata verso l’applicazione di sistemi catalitici supportati o ancorati a vari tipi di materiali solidi ad alta area specifica superficiale come
carbone attivo, silice, allumina, varie specie di ossidi metallici, silicati.
176
La reazione di oligomerizzazione viene effettuata in un solvente polare, in cui il catalizzatore
di nichel è disciolto, ma i prodotti non polari, le α-olefine, sono praticamente insolubili. Come solvente viene generalmente usato l’1,4-butandiolo.
Lo sviluppo di questo concetto basato su reazione condotte in ambiente bifasico è legato, tra l’altro alla sua ecosostenibilità ed in quest’ottica la catalisi bifasica acqua/fase organica ha offerto all’industria chimica nuove e tecnicamente valide opportunità rispetto ai sitemi catalitici “tradizionali”.
2.3 REAZIONE DI IDROFORMILAZIONE IN SISTEMA BIFASICO ACQUOSO
Il principio su cui si basa la catalisi bifasica in acqua/liquido organico è concettualmente semplice: le due fasi devono essere immiscibili tra loro ed il catalizzatore, generalmente un complesso di
un metallo di transizione, deve essere solubile in acqua ed essere capace di esplicare la sua attività in
questa fase.[2]
I complessi idrosolubili di metalli di transizione si possono dividere nelle seguenti classi:
• complessi intrinsecamente solubili in acqua, generalmente idrossidi e acquo-complessi;
• complessi con leganti idrosolubili capaci di mantenere gli stessi stabilmente in acqua.
Un tipico esempio della prima classe su descritta è il complesso di palladio considerato una
delle specie cataliticamente attive nel processo Wacker-Hoechst (Figura 4a); anche l’acquo-complessi cationici ottaedrici di rutenio e di iridio (figura 4b e 4c) sono solubili in acqua e presentano interessanti proprietà catalitiche in questo ambiente.
177
La reazione catalitica che si è rivelata la più idonea e la più conveniente ad essere sviluppata
con la catalisi bifasica acquosa è senza ombra di dubbio la reazione di idroformilazione o reazione
oxo. Questa consiste nell’addizione di ossido di carbonio ed idrogeno ad un doppio legame olefinico
con formazione di una o più aldeidi aventi un atomo di carbonio in più (Schema 4).
Figura 4. Complessi idrosolubili di Palladio, Rutenio e Iridio
Schema 4. Reazione di idroformilazione
Per quanto riguarda la seconda classe di complessi idrosolubili, numerosi e di struttura molto
varia sono i leganti che riescono a formare con i metalli di transizione composti di coordinazione solubili e stabili in soluzione acquosa. In Figura 5 sono riportati alcuni dei più importanti esempi di questi agenti di coordinazione: questi comprendono fosfine terziare contenenti uno o più gruppi solfonici salificati, come TPPTS e XANTPHOS(SO3Na)2; (Fig. 5) gruppi carbossilici anch’essi sotto forma
di sali sodici, come l’etilendifosfinotetracarbossilato sodico; gruppi ammonici quaternari come
l’AMPHOS o fosfonici quaternari come la PHOPHOS (Fig. 5). In tempi più recenti sono stati utilizzati anche polimeri come leganti idrosolubili, come poli-vinilalcooli parzialmente ossidati, policarbossilati e biopolimeri come, ad esempio, proteine.[7]
L’importanza industriale di questo processo, che contempla la formazione di un nuovo legame
carbonio-carbonio, è dimostrata dal fatto che attualmente vengono prodotti circa 9 milioni di tonnellate all’anno di composti oxo.[8]
L’olefina più usata è sicuramente il propene (CH3-CH=CH2) e l’aldeide più nota è quella a catena lineare, cioè il n-butanale. Una vasta gamma di composti come alcoli, acidi, ammine, glicoli possono essere facilmente preparati dalle aldeidi, contribuendo al successo della reazione di idroformilazione (Figura 6).
Figura 6. Gamma di prodotti facilmente ottenibili dalle oxo-aldeidi
I più comuni catalizzatori della reazione oxo sono complessi carbonilici di cobalto e di rodio;
quest’ultimi, introdotti solo alla fine degli anni ’60 nei laboratori di ricerca, hanno subito uno sviluppo straordinario, tanto che oggi praticamente tutti i nuovi impianti industriali impiegano questi catalizzatori. Altri complessi carbonilici di metalli di transizione come platino, rutenio, iridio ed anche
Figura 5. Leganti fosfinici idrosolubili
178
179
ferro mostrano attività verso l’idroformilazione delle olefine, che possono raggiungere specialmente
nel caso del platino livelli talvolta confrontabili con quelli del rodio; tuttavia i complessi carbonilici
usati industrialmente sono soltanto quelli di cobalto e di rodio.
In Figura 7 sono riportate le formule dei complessi carbonilici più comunemente usati nella reazione oxo. Le condizioni operative richieste dal processo oxo sono molto variabili e dipendono specialmente dalla struttura dell’olefina e dalla natura del sistema catalitico: la temperatura di reazione
può variare da quella ambiente fino ad oltre 200°C, mentre la pressione da quella atmosferica fino alle
250 atm di CO e H2.
Le ragioni del crescente successo del rodio nella preparazione di catalizzatori oxo, nonostante la
sua relativamente bassa produzione annua (≈2 t) ed il suo alto prezzo (≈ 32 US $/g), sono molteplici.
Poulenc Ind. in Lione nel 1975, la Ruhrchemie AG tedesca ha sviluppato tecnologicamente questo
processo catalitico fino a tal punto, che già nel 1984 faceva partire un primo impianto industriale da
100.000 t/anno di capacità per la produzione di n-butanale da propene.
Figura 8. Complesso rodio TPPTS.
Il rodio è nettamente il metallo cataliticamente più attivo (fino ad oltre 1000 volte il cobalto!)
e quindi permette di operare in condizioni di reazione estremamente blande (con semplici olefine
come propene anche a temperatura e pressione ambiente!). Questo fatto si ripercuote favorevolmente
sulla selettività della reazione: le rese di aldeidi sono molto più alte, perché operando in condizioni
blande, subiscono in minore misura reazioni secondarie (principalmente riduzione ad alcoli); inoltre
reazioni parassite, che accompagnano generalmente la reazione oxo come idrogenazione o isomerizzazione dell’olefina, sono estremamente contenute rispetto a quanto avviene impiegando complessi
carbonilici di cobalto o altri metalli. Un altro merito non trascurabile dei catalizzatori a base di rodio
consiste nel fatto che esplicano la loro attività anche in solventi protici, acqua compresa.
E’ noto che soltanto un numero limitato di complessi metallici sono capaci di catalizzare efficacemente varie reazioni organiche anche in soluzioni acquose. Questa proprietà di alcuni complessi
di mantenere la loro attività catalitica in acqua è il presupposto necessario per sviluppare un processo in sistema bifasico acquoso: così Emile G. Kuntz della Rhône-Poulenc mise a punto nel 1973 un
processo omogeneo di idroformilazione, usando un sistema catalitico idrosolubile.[8] Questo venne
facilmente preparato per coordinazione di un complesso idrofobico di rodio, ad esempio
[Rh(COD)Cl]2 (dove COD = cis, cis-1,5-cicloottadiene) con un legante idrofilico come il sale trisodico della tris(m-sulfofenil)fosfina denominato TPPTS (Figura 8). La straordinaria importanza ed il
rapido successo di questa scoperta sono documentati dal fatto che, dopo i primi brevetti della Rhône-
Il processo ha avuto un tale successo, che oggi l’impianto è stato triplicato e la capacità produttiva ha ormai raggiunto le 600.000 t/anno. [3] Nel 1997 la Honwha Corp. nella Corea del Sud ha
inagurato un nuovo impianto con tecnologia Ruhrchemie- Rhône-Poulenc, avente una capacità produttiva di 120.000 t/anno. Questo processo quindi costituisce il primo clamoroso esempio di applicazione di una catalisi bifasica acquosa promossa da complessi di metalli di transizione, in cui il catalizzatore opera e viene mantenuto nella fase acquosa.
I vantaggi di questi nuovi impianti rispetto a quelli tradizionali sono evidenti e di varia natura,
perchè riguardano la selettività, la semplicità di conduzione tecnica dell’impianto, l’economicità, il
risparmio energetico ed il ridotto impatto ambientale. In particolare:
• la conversione del propene a n-butanale raggiunge il 95%;
• la selettività della formazione delle aldeidi C4 è intorno al 99%;
• la quantità di sottoprodotti è limitata allo 0,5%;
• il rapporto molare delle aldeidi isomere è nettamente a favore di quella lineare, il n-butanale, che
è commercialmente la più importante e raggiunge il valore di 20 a 1;
• la concentrazione di rodio nella fase acquosa può avere valori molto bassi fino a 0,1 g/litro e questo riduce notevolmente la perdita del costoso metallo: dopo 10 anni di conduzione dell’impianto si prevedono in genere solo circa 2 Kg di rodio (corrispondente a 6400 dollari US) e questo
incide per lo 0,0020% nel prezzo del n-butanale.[6,8]
Per quanto riguarda l’aspetto economico, tre sono i fattori principali responsabili della riduzione dei costi nel processo Ruhrchemie:
• un recupero energetico estremamente efficiente;
• una ridotta esigenza di capitali per un’unità di impianto;
• un elevato sfruttamento dell’alimentazione, che si realizza, combinando l’impianto bifasico con
un reattore tradizionale che converte gli effluenti gassosi contenenti ancora propene ed aldeidi.
180
181
Figura 7. Complessi carbonilici di metalli di transizione usati comunemente nella reazione di idroformilazione.
Questi risultati sono senz’altro da atttribuire alla notevole semplicità tecnica dell’impianto, che
è solo possibile usando un sistema catalitico solubile in acqua.
Il diagramma dei flussi dell’impianto Ruhrchemie/Rhône-Poulenc è riportato in Figura 9:
Man mano che l’aldeidi si formano, essendo limitatamente solubili in acqua, si stratificano sulla
fase liquida dando luogo alla fase organica e vengono inviate in continuo al decantatore b, dove avviene il loro recupero semplicemente per separazione di fase. A scopo illustrativo, nella Figura 11 vengono riportate le solubilità in acqua espresse in moli % di olefina ed aldeidi in funzione del loro peso
molecolare; si vede chiaramente che all’aumentare del numero degli atomi di carbonio diminuisce
notevolmente la solubilità dei composti.
Figura 9 - Diagramma dei flussi dell’impianto Ruhr-Chemie/Rhône-Poulenc.
Il propene ed il gas di sintesi (CO/H2 = 1) vengono alimentati dal fondo del reattore a ad una
pressione complessiva di 50 atm. Il catalizzatore di rodio idrosolubile preformato è sciolto nella fase
acquosa, dove avviene la reazione, e cioè l’addizione dell’ossido di carbonio e dell’idrogeno al doppio legame dell’olefina con formazione delle aldeidi. A questo punto occorre precisare che numerosi
ed accurati studi hanno indicato che la reazione avviene principalmente all’interfaccia tra fase gassosa e fase liquida, piuttosto che all’interno della fase liquida. [9]
Nella Figura 10 viene schematizzato questo concetto:
Figura 10. Reazione all’interfaccia acqua/solvente organico.
182
Figura 11. Solubilità in acqua di olefine ed aldeidi.
E’ interessante sottolineare che la reazione di idroformilazione è una reazione esotermica, che
produce circa 30 Kcal per mole di aldeide prodotta. Negli impianti tradizionali questo calore viene
utilizzato per separare le aldeidi dal solvente organico mediante distillazione. Nell’impianto
Ruhrchemie/Rhône-Poulenc, che stiamo descrivendo, il calore di reazione può facilmente essere recuperato mediante uno scambiatore di calore e ed utilizzato dall’industria stessa per produrre vapore ad
alta pressione.
Dopo una normale operazione di stripping con recupero di parte dei gas della reazione, che vengono riconvogliati al reattore a, la miscela di aldeidi grezza viene inviata alla colonna di rettifica d,
dove in testa viene raccolto l’i-butanale (l’aldeide che si forma in quantità minore) ed in coda l’aldeide n-butanale.
Malgrado i costi relativamente alti nella preparazione del catalizzatore di rodio, i ridotti costi
fissi, il minore impegno di capitale ed un più efficiente bilancio energetico rendono il processo
Ruhrchemie/Rhône-Poulenc di circa il 10% più economico per quanto riguarda i costi di produzione
rispetto al processo di idroformilazione tradizionale, che utilizza un catalizzatore di rodio omogeneo
modificato con leganti fosfinici.
Pertanto possiamo concludere che la catalisi bifasica acquosa riunisce in sè i benefici della catalisi omogenea: alta attività, alta selettività e condizioni di reazione miti, e quelli della catalisi eterogenea: prolungata vita del catalizzatore e facile separazione del prodotto di reazione dal catalizzatore.
183
2.4 ALTRE REAZIONI IN SISTEMA BIFASICO ACQUOSO
Abbiamo ritenuto opportuno dilungarci sulla descrizione dell’impianto Ruhrchemie/RhônePoulenc, dal momento che è quello che ha ottenuto maggior successo ed è l’unico ad essere stato sviluppato industrialmente in impianti di grandi dimensioni; tuttavia altri processi che utilizzano la catalisi bifasica acquosa sono stati realizzati o sono in fase di studio per la manifattura di prodotti su scala
commerciale e della chimica fine.[10]
La catalisi bifasica acquosa è utilizzata nella reazione di idrodimerizzazione di butadiene e
acqua con produzione dell’importante alcool primario lineare n-ottanolo (Schema 5) catalizzata da
complessi di palladio con il sale sodico di trifenilfosfina monosolfonata (TPPMS).
Il primo prodotto della reazione, un octadienolo, può essere deidrogenato/idrogenato per dare
l’aldeide insatura 7-ottenale e questa può essere idroformilata con catalizzatori di rodio idrosolubili
per produrre la dialdeide nonandiale, la quale a sua volta per idrogenazione viene convertita a
1,9-nonandiolo, un importante intermedio per la sintesi di resine poliestere e poliuretaniche.
Schema 6. Doppia addizione dell’acido cianidrico al butadiene.
Per azione di un catalizzatore di Ni(0) l’acido cianidrico si addiziona ad un doppio legame
dell’1,3-butadiene con formazione del 3-pentene nitrile: successivamente l’addizione di un’altra
molecola di acido cianidrico conduce all’adiponitrile finale.[10]
Tra le numerosi reazioni condotte in sistema bifasico acquoso segnaliamo altri interessanti
esempi come:
i) la produzione di acido fenilacetico e derivati mediante reazione di carbonilazione di appropriati cloruri benzilici catalizzata da complessi idrosolubili di palladio con TPPTS (Schema 7);
Schema 7. Carbonilazione di cloruri benzilici.
ii) la sintesi di stireni variamente sostituiti per reazione di Heck tra alogenuri aromatici ed etilene catalizzata dagli stessi complessi di palladio (Schema 8);
Schema 8. Sintesi di stireni per reazione di Heck.
Schema 5. Reazione di idrodimerizzazione del butadiene ed acqua.
Particolarmente interessante è la versione in sistema bifasico acquoso della doppia addizione
dell’acido cianidrico al butadiene per la produzione di adiponitrile, che rappresenta un prezioso materiale di partenza per la sintesi di acido adipico ed esametilendiammina e pertanto di nylon 6,6
(Schema 6).
184
iii) la riduzione di nitrobenzeni ad anilina mediante idrogenazione in sistema bifasico acquoso
ancora una volta catalizzata dal versatile complesso di palladio con TPPTS (Schema 9).
Schema 9. Riduzione di nitrobenzeni ad aniline.
185
CICLO DI VITA DI PRODOTTI, PROCESSI E ATTIVITÀ
3. CONCLUSIONI
Sulla base degli argomenti e dei risultati descritti nel presente capitolo appare evidente che c’è
da attendersi un brillante futuro per la produzione di composti intermedi e della chimica fine, utilizzando le metodologie della catalisi omogenea in sistema bifasico acquoso. Sotto la spinta degli innegabili vantaggi economici connessi alla razionalizzazione degli impianti di produzione e soprattutto del
ridotto impatto ambientale degli stessi, che soddisfa le nuove esigenze di processi chimici puliti (Green
Chemistry), queste metodologie sono attualmente oggetto di approfonditi studi per raggiungere un
grado di perfezione e di efficienza sostenibili con le esigenze del mercato dei prodotti chimici.
BIBLIOGRAFIA
1. “Organic Synthesis in Water”, Grieco Paul A. Ed., Blackie Academic & Professional, London
1998.
2. “Aqueous-phase Organometallic Catalysis”, Cornils Boy and Herrmann Wolfgang A. Eds., VCH,
Weiheim 1998.
3. “Aqueous Organometallic Catalysis”, Kluver Acad. Publ., Dordrecht 2001.
4. “Green Chemical Syntheses and Processes”, Anastas Paul T., Heine Lauren G. and Williamson
Tracy C. Eds., ACS Symposium Series 767, Washington D.C., 2000.
5. “Industrial Organic Chemistry”, Weissermel Klaus and Arpe Hans-Jürgen, 3. completely revised
Edition, Wiley-VCH, Weinheim, 1997.
6. “Rhodium Catalyzed Hydroformylation”, van Leeuwen Piet W. N. M. and Claver Carmen Eds.,
Kluwer Academic Publisher, Dordrecht, 2000, p. 189.
7. M. MARCHETTI, G. MANGANO, S. PAGANELLI, C. BOTTEGHI, Tetrahedron Letters, 2000, 41, 3717.
8. W.A. HERRMANN, C.W. KOHLPAINTER, Angew. Chem. Int. Ed. Engl., 1993, 32, 1524.
9. O. WACHSEN, K. HIMMLER, B. CORNILS, Catalysis Today, 1998, 42, 373.
10. B. CORNILS, J. Mol. Catal. A: Chemical, 1999, 143, 1.
ATTILIO CITTERIO
Le attività umane hanno inciso e continueranno ad incidere sul mondo naturale (biosfera) in
relazione alla necessità di soddisfacimento dei bisogni delle popolazioni. Lo sviluppo industriale, promuovendo la produzione di quantità massicce di beni e soddisfacendo un numero sempre crescente
di esigenze umane, ha fatto emergere l’incompatibilità tra una crescita senza limiti e la ristrettezza
delle risorse e le difficoltà di recupero della Terra. Questa constatazione su basi scientifiche è relativamente recente (anni 1980-90) ed è il risultato per lo più di indagini sui cambiamenti globali in atto
sulla Terra. Essa segue anni di dissennato utilizzo delle risorse ambientali e di scarsa attenzione alla
“ecologia” delle produzioni con rilevanti ricadute sull’inquinamento di aria, acqua e suolo, oltre che
sulla sicurezza e salute delle popolazioni. L’urgenza di proporre un rimedio a questa situazione è
andata di pari passo al crescere esponenziale delle normative in campo ambientale e dei costi sostenuti dall’industria per il loro rispetto. Tutto ciò ha portato a prese di posizione sul piano politico e
individuale che, per non rimanere sul piano emotivo, hanno dovuto radicarsi su analisi e progettualità
basate su fondamenti scientifici. Ciò ha portato a livello mondiale allo sviluppo di teorie, approcci,
modelli e norme che sono servite negli anni da guida per proporre soluzioni per uno sviluppo delle
società umane di tipo compatibile con l’ambiente terrestre. L’obiettivo a cui si mira è il passaggio progressivo da una visione a flusso tradizionale basata su una illimitata disponibilità di risorse e ad una
illimitata creazione di rifiuti (tipo I) ad una visione più integrata a parziale riciclo (tipo II) e a quella
più matura auspicata per un ecosistema compatibile a completo riciclo (tipo III) (figura 1). [1]
Figura 1 – Evoluzione dalla visione tradizionale di illimitato sfruttamento delle risorse e smaltimento degli scarti
(tipo I) a forme di integrazione (tipo II), con l’obiettivo di raggiungere un ecosistema sostenibile (tipo III)
186
187
ECOLOGIA INDUSTRIALE
L’analogia con il comportamento degli ecosistemi biologici, evidente nel sistema Tipo III, è
voluta e ricercata, perché questi rappresentano modelli evoluti da molto tempo, stazionari in condizioni stabili e abbastanza facilmente adattabili nel caso di cambiamento delle condizioni, quindi
modelli complessi che ben si prestano al confronto con i moderni complessi sistemi industriali. Non
è perciò un caso che la scienza che si occupa di dare una visione sistemica, comprensibile, ed integrata di tutte le componenti dell’’economia industriale e le loro relazioni con la biosfera è chiamata
Ecologia Industriale (E.I.). In essa si sottolineano le basi biofisiche delle attività umane: i complessi
scenari dei flussi dei materiali sia all’interno che all’esterno del sistema industriale e si pone in alternativa all’analisi correnti che considerano l’economia essenzialmente in termini di bilanci monetari o
flussi di energia. L’E.I. considera le dinamiche tecnologiche come un elemento cruciale per realizzare il passaggio dall’attuale sistema non sostenibile ad un valido ecosistema industriale. In questo
senso il flusso primario di Figura 2 dalle materie prime naturali alla sequenza di lavorazioni industriali
per ottenere prodotti, al loro uso, raccolta, trattamento e collocamento in discarica viene integrato da
fasi di ripristino che, in dipendenza del punto di inserimento del ciclo, vengono indicati con i termini riuso, rifabbricazione o riciclo. L’obiettivo è quello di minimizzare l’entità dei materiali non coinvolgibili nei vari cicli, portando a scarti non integrabili (circuito aperto) il più possibile ridotti.
Figura 3 – Scienze coinvolte nelle attività industriali per uno sviluppo sostenibile
La “Chimica Verde” (trattata in altre parti di questo libro) è la scienza delle trasformazioni chimiche a basso impatto ambientale attenta all’uso efficiente delle risorse e dell’energia. Essa mira a
raggiungere significativi miglioramenti nella eco-efficienza dei prodotti, servizi e processi chimici, in
modo da ottenere un ambiente sostenibile, più pulito e più sano ed un profitto competitivo”. La G.C.
si basa su un insieme di principi atti a ridurre o eliminare l’uso o la generazione di sostanze pericolose nella progettazione, manifattura ed applicazione dei prodotti chimici, che in forma riassuntiva
sono raccolti in tabella 1. Essa si propone in particolare di minimizzazione gli scarti alla fonte, di
usare catalizzatori anziché reagenti in quantità stechiometriche, di ridurre o eliminare reagenti e
intermedi tossici, di impiegare risorse rinnovabili, di riciclare prodotti e materiali nel corso della loro
vita evitando di ricorrere a risorse non rinnovabili, di migliorare l’efficienza atomica e il parametro E
delle reazioni chimiche, aumentandone la selettività, di sviluppare sistemi che non usino solventi o
operino con solventi riciclabili ambientalmente benigni, di integrare le produzioni nella stessa azienda o aziende dello stesso distretto industriale, ecc. Allo scopo sono cruciali gli avanzamenti delle
conoscenze in campo chimico, chimico-fisico, chimico ambientale, biotecnologico e tossicologico.
Figura 2 – Cicli di produzione naturale senza ripristino industriale (in rosso) e con ripristino (in azzurro) previsti
dall’Ecologia Industriale per eliminare gli scarti non riusabili (circuito aperto).
L’Ecologia Industriale si avvale di una serie di scienze complementari (Figura 3) che coinvolgono la progettazione per l’ambiente di prodotti ed attività (DfE) o che si interessano delle trasformazione della materia, ambito questo che si sta consolidando in due branchie: la “Chimica Verde”
(“Green Chemistry”, G.E.) [2] e la Sicurezza Intrinseca (SI) [3], la prima rivolta più alle problematiche chimiche dei prodotti e la seconda alle problematiche ingegneristiche dei processi.
188
189
•
Tabella 1 – I 12 principi della Chimica Verde
1. Prevenzione
E’ meglio prevenire gli scarti che trattarli o bonificare gli scarti una volta creati.
2. Economia Atomica
I metodi sintetici devono essere progettati in modo da massimizzare l’incorporazione di tutti
i materiali usati nel processo nel prodotto finale.
3. Sintesi Chimica Meno Pericolosa
In tutti i casi sia possibile, i metodi sintetici devono essere progettati per usare e generare
sostanze che posseggano poca o nulla tossicità per le persone e l’ambiente.
4. Progettazione di Composti Chimici Salubri
Si devono progettare prodotti chimici per assolvere la funzione attesa minimizzandone nel
contempo la tossicità.
5. Solventi e Ausiliari più Salubri
L’uso di sostanze ausiliarie (quali, solventi o agenti di separazione) per quando possibile
devono essere evitati e, se usati, devono essere innocui.
6. Progettazione per l’Efficienza Energetica
I requisiti energetici dei processi chimici devono essere riconosciuti per il loro impatto
ambientale ed economico e si devono minimizzare. Se possibile, i metodi sintetici devono
essere realizzati a temperatura e pressione ambiente.
7. Uso di Materie Prime Rinnovabili
Una materia prima o precursore deve essere rinnovabile piuttosto che non rinnovabile per
quanto tecnicamente ed economicamente fattibile.
8. Limitare i Derivati
Si devono minimizzare o se possibile eliminare le derivatizzazioni non necessarie (uso di gruppi bloccanti, protezioni/de-protezioni, e modifica temporanea di processi fisici/chimici), in
quanto questi stadi necessitano di ulteriori reagenti e possono produrre scarti.
9. Catalisi
I reagenti catalitici (il più selettivi possibile) sono superiori ai reagenti stechiometrici.
10. Progettazione per la Degradazione
Si devono progettare prodotti chimici in modo che alla fine del loro ciclo di vita possano
decomporsi in prodotti di degradazione innocui e non persistano nell’ambiente.
11. Analisi in tempo reale della Prevenzione dell’Inquinamento
Si devono sviluppare ulteriormente le metodologie analitiche per consentire il monitoraggio e controllo in tempo reale e all’interno del processo prima della formazione di sostanze pericolose.
12. Chimica Intrinsecamente Più Sicura per Prevenire Incidenti
Si devono scegliere le sostanze e le formulazioni delle sostanze usate in un processo chimico
per minimizzare il rischio di incidente chimico, inclusi i rilasci, le esplosioni, e gli incendi.
Attenuazione – uso di materiali pericolosi in forme meno dannose, per esempio aumentando le
dimensioni delle polveri infiammabili o diluendo un materiale pericoloso.
• Sostituzione – uso di un materiale più sicuro o produzione di un prodotto più sicuro, per esempio
sostituendo i solventi infiammabili con acqua, passando a vernici in emulsione anziché a olio.
• Limitazione – riduzione al minimo dell’effetto di un incidente, per esempio riducendo il diametro
delle tubazioni per il trasporto di gas e liquidi tossici che comporta la riduzione al minimo delle
dispersioni di materiale quando avviene un incidente.
• Semplificazione – riduzione delle opportunità di errori e malfunzionamenti, per esempio fornendo istruzioni ben comprensibili e complete agli operatori.
Anche l’Ingegneria verde si basa su un insieme di principi operativi che in forma riassuntiva
sono raccolti nella tabella 2.
Tabella 2 – I 9 principi dell’Ingegneria Verde
1. Ingegnerizzare processi e prodotti con una filosofia olistica, usare l’analisi dei sistemi, e integrare gli strumenti di valutazione dell’impatto ambientale.
2. Conservare e migliorare gli ecosistemi naturali mentre si protegge la salute ed il benessere
umano
3. Utilizzare in tutte le attività ingegneristiche un modo di pensare basato sul ciclo di vita
4. Assicurare che tutti i materiali e le energie in ingresso e uscita siano il più possibile intrinsecamente sicuri e benigni
5. Minimizzare lo sfruttamento delle risorse naturali
6. Impegnarsi per prevenire scarti e rifiuti
7. Sviluppare e applicare soluzioni ingegneristiche, ben coscienti della geografia, aspirazioni e
culture del luogo
8. Creare soluzioni ingegneristiche al di là delle tecnologie correnti o dominanti; migliorare,
innovare e inventare (tecnologie) per raggiungere la sostenibilità
9. Coinvolgere attivamente comunità e investitori nello sviluppo delle soluzioni ingegneristiche
CICLO DI VITA
La Sicurezza intrinseca (talvolta indicata come Ingegneria Verde) si interessa invece alla
riduzione o eliminazione dei pericoli associati a livello industriale ai materiali utilizzati e alle operazioni coinvolte nelle trasformazioni chimiche, e cerca di inserire queste riduzioni o eliminazioni come
parti permanenti ed inseparabili della tecnologia di processo. Si realizza attraverso varie vie integrate o alternative di cui le più importanti sono:
• Intensificazione – uso di minori quantità di un materiale pericoloso, per esempio usando migliori catalizzatori per ridurre le dimensioni di un impianto e minimizzare le conseguenze di un incidente
Dal quadro esposto, in particolare dai principi generali delle due componenti a prevalente base chimico-tecnologico, emerge l’importanza data al concetto di ciclo di vita di un prodotto, processo o attività.
Solo l’analisi in dettaglio dell’evoluzione che l’aggregazione degli atomi subisce passando dai prodotti
naturali ai prodotti industriali ed il reinserimento di questi ultimi nel mondo naturale può infatti consentire una corretta chiusura dei cicli ecoindustriali di TIPO III. Seguire pertanto nel dettaglio l’evoluzione che
le materie prime subiscono “dalla nascita alla tomba”, cioè dall’estrazione, alle lavorazioni industriali e al
loro smaltimento (figura 4) è perciò un requisito essenziale di qualsiasi progetto ecosostenibile.
Questa analisi sul Ciclo di Vita non può però essere una semplice descrizione qualitativa del processo, ma deve prendere in esame in maniera quantitativa i vari passaggi e deve definire degli indicatori misurabili in modo da consentire confronti tra alternative ed accertare l’effettivo rispetto dei cicli nelle
loro complesse evoluzioni. Ciò è tutt’altro che semplice e viene tradotto in maniera riassuntiva con una
quantificazione degli impatti che l’intero ciclo di vita ha su salute umana, ecosistemi, e risorse. Così in
un processo dove sono implicate trasformazioni chimiche (cioè riaggregazioni di atomi) esistono, oltre
190
191
alle reazioni coinvolte con i loro problemi di sicurezza e eco-compatibilità, e quindi con i relativi coinvolgimenti di prodotti più o meno tossici e condizioni operative ed apparecchiature più o meno pericolose, anche stadi pre-chimici e post-chimici che comunque avranno impatti sull’ambiente e la salute. E’
infatti necessario che i materiali, prima di divenire reagenti in reazioni chimiche, siano recuperati o
estratti dai prodotti naturali loro precursori, trasportati fino al sito di lavorazione, raffinati se non già sufficientemente puri, immagazzinati e trasportati all’interno dei siti di lavorazione, caricati e scaricati, ecc..
Dopo che le reazioni chimiche hanno riaggregato in modo diverso gli atomi iniziali, è poi necessario produrre il prodotto finale (con eventuali passaggi intermedi nella trasformazione in un nuovo adatto materiale), commercializzarlo, eventualmente riusarlo o riciclarlo, fino, alla fine della sua vita, trattarlo o
smaltirlo immettendolo in discarica o rilasciandolo nell’ambiente.
Figura 4 – Rappresentazione schematica del Ciclo di Vita di un Prodotto (“dalla nascita alla morte”)
Figura 5 – Impatti sull’ambiente e la salute nella produzione di prodotti e materiali e ruolo centrale dei processi chimici.
192
Lo schema 5 riassume l’insieme di tali sequenze di operazioni e ben illustra come sia complesso seguire nel dettaglio l’evoluzione di un prodotto e come solo un’attenta e dettagliata analisi può
consentire di tenere in debito conto tutte le grandezze coinvolte e poter così valutare in maniera quantitativa le ricadute dell’insieme delle attività coinvolte.
VALUTAZIONE DEL CICLO DI VITA (LCA)
La Valutazione del Ciclo di Vita è definita dalla “Society of Environmental Toxicology and
Chemistry” (SETAC) [4] come un procedimento analitico, obiettivo e sistematico di valutazione dei
carichi energetici ed ambientali associati all’intero ciclo di vita di un prodotto, processo o attività,
effettuate tramite l’identificazione e la quantificazione dell’energia e dei materiali usati, nonché dei
rifiuti rilasciati nell’ambiente, per valutarne l’impatto e per identificare e valutare le opportunità di
miglioramento. In funzione del prodotto, il ciclo di vita può essere più o meno breve, complesso e con
implicazioni fisico/chimiche, finanziarie e sociali. Il metodo si presta per confrontare nuove prodotti,
tecnologie o servizi con quelli preesistenti e aiuta a focalizzare le aree che richiedono attenzioni speciali ed è in grado di rivelate inattesi impatti ambientali e porvi rimedio.
I primi studi sugli aspetti del ciclo di vita dei prodotti e dei materiali datano al 1968-1972, e si
erano focalizzati su temi quali l’efficienza energetica e il consumo di materie prime. Al 1969 risale,
per esempio, uno studio sui contenitori per bibite e, in Europa, si sviluppò un approccio per valutare
la LCA, noto come ‘Ecobalance’. Nel 1972, in Inghilterra si valutò l’energia totale usata nella produzione di alcuni beni di consumo e si consolidò la metodologia per renderla applicabile a vari materiali.5 Inizialmente, si considerò a priorità più alta l’energia rispetto a reflui e sottoprodotti. Perciò, si
faceva poca distinzione tra sviluppo degli inventari (risorse che finiscono in prodotto) e l’analisi degli
impatti totali associati. Ma, finita la crisi petrolifera, la questione energetica si fece meno pressante e,
pur continuando l’interesse per l’LCA, non si ebbero più novità rilevanti. Solo dopo il 1990 si accentuò l’interesse per l’LCA in forma generale da parte di industrie, società di progettazione o commerciali, e amministrazioni pubbliche.
La LCA è ancora uno strumento relativamente giovane. Solo nel 1992 in una riunione delle
Nazioni Unite si sancì che le metodologie di valutazione del ciclo di vita erano tra i supporti più
promettenti per affrontare un ampio spettro di compiti di direzione ambientale. La più completa
raccolta sull’LCA a tutt’oggi è il testo The LCA Sourcebook (1993). Questi studi circolanti tra una
ristretta comunità scientifica passarono così finalmente al mondo reale. Ancora oggi però alcune
realtà hanno scarse competenze in materia di LCA, mentre altre si sono organizzate con accademici e società per affrontare i problemi ambientali più disparati. Mentre il campo continua
a progredire, sono emerse varie barriere ad una sua sistematica applicazione legate ad un basso
livello di esperienza con l’LCA, cui si sono sommate eccessive aspettative e pubblicità. Per cui
si sono avuti cocenti disillusioni, aggravate dalla sensazione che molti operatori del settore operassero più per rafforzare delle posizioni dominanti, che per cercare di capire e rispondere a reali
problemi.
In questo momento, si è in una fase di sviluppo e consolidamento della metodologia (si vedano l’insieme delle Norme ISO 14000 di Figura 6 che dai soli titoli evidenziano bene la complessità
dell’argomento ed il ruolo centrare della LCA in tali normative, mentre l’acquisizione di una mentalità sul ciclo di vita si va diffondendo. Alcuni però pensano che l’LCA sia ancora lontana dall’offrire
analisi e soluzioni chiare a tutti.
193
Figura 6 – Percorso della norma ISO-14000 con il ruolo cruciale della fase di LCA
Tabella 3 – Il pacchetto delle norme ISO 14000 sulla Gestione Ambientale e Valutazione del Ciclo di Vita
ISO 14001 –
ISO14004 –
ISO 14010/11/12 –
ISO 14015 –
ISO 14020 –
ISO 14021 –
ISO 14024 –
ISO TR 14025 –
ISO 14031 –
ISO 14032 –
ISO 14040 –
ISO 14041 –
ISO 14042 –
ISO 14043 –
ISO TR 14047 –
ISO 14048 –
ISO TR 14049 –
ISO 14050 –
ISO 14060 –
ISO TR 14061 –
ISO TR 14062 –
ISO 14063 –
ISO 14064 –
Sistemi di Gestione Ambientale – Descrizione con guida per l’Uso
Sistemi di Gestione Ambientale – Guide generali sui principi, sistemi e tecniche di supporto
Sostituite dalle norme ISO 19011 – Guide per la qualità e/o per le verifiche EMS
Gestione Ambientale – Valutazione ambientale dei siti e delle organizzazioni
Marchi e dichiarazioni ambientali – Principi generali
Marchi e dichiarazioni ambientali – Autocertificazione ambientale (etichettatura ambientale Tipo II)
Marchi e dichiarazioni ambientali – Etichettatura ambientale Tipo I – Principi e procedure
(etichettatura di prodotti)
Marchi e dichiarazioni ambientali – Dichiarazione ambientale Tipo 111
Gestione Ambientale – Valutazione della efficienza ambientale – Linee guida
Gestione Ambientale – Valutazione dell’efficienza ambientale – Esempi illustrativi dell’uso
della ISO 14031
Gestione Ambientale – Valutazione del ciclo di vita - Principi e Struttura
Gestione Ambientale – Valutazione del ciclo di vita – Definizione degli obiettivi e dell’ambito
e analisi degli inventari
Gestione Ambientale – Valutazione del ciclo di vita – Valutazione dell’impatto del ciclo di vita
Gestione Ambientale – Valutazione del ciclo di vita – Interpretazione del ciclo di vita
Gestione Ambientale – Valutazione del ciclo di vita – Esempi di applicazione della ISO 14042
Gestione Ambientale – Valutazione del ciclo di vita – Formato dei dati per la documentazione
della valutazione del ciclo di vita
Gestione Ambientale – Valutazione del ciclo di vita – Esempi di Applicazione della ISO 14041
alla definizione di obiettivi ed ambiti ed analisi degli inventari
Gestione Ambientale – glossario
Guida per l’inclusione degli Aspetti Ambientali negli Standard di Prodotto
Informazioni per assistere le organizzazioni estere nell’uso degli standard ISO 14001
e ISO 14004 del Sistema di Gestione Ambientale
Gestione Ambientale – Linee guida per integrare gli aspetti ambientali nello sviluppo
di prodotto
Gestione Ambientale – Comunicazioni Ambientali – Linee guida e esempi
Linee guida per Misurare, Rendicontare e Verificare l’entità- e il livello prefissato
di Emissioni di Gas Serra
194
Pur nelle difficoltà sopra menzionate, la valutazione del ciclo di vita più o meno approfondita e
condivisa, rimane una grandezza importante nello sviluppo futuro di prodotti, processi ed attività. In particolare le analisi finora condotte hanno evidenziato come sia cruciale per i nuovi approcci alla sostenibilità il concetto di progettazione (“design”) basate sul ciclo di vita. E’ infatti evidente che se si tiene
conto in fase di progettazione di prodotti, processi e attività di realizzare funzioni di massima eco-compatibilità, si avranno meno problemi e la necessità di minori correzioni rilevanti in futuro. Si stima che
circa il 70% dei costi di sviluppo, produzione ed uso di un prodotto sia determinato dalla fase iniziale di
progettazione. Ciò rende la “progettazione per l’ambiente” (DfE) un fattore determinante critico della
competitività di un prodotto/processo/servizio. La fase di progettazione fornisce la massima flessibilità
nel scegliere non solo le materie prime ma anche le trasformazioni da adottare e i relativi processi.
La DfE per essere efficace deve prendere in considerazione un numero elevato di parametri per proporre soluzioni valide con attente fasi di ottimizzazione sulle materie prime, le trasformazioni, i trasporti e/o
comunicazioni, sviluppando altresì nuovi concetti, quali la dematerializzazione, l’uso condiviso dei prodotti,
l’integrazioni delle funzioni, l’ottimizzazione funzionale di componenti di un prodotto, processo o servizio.
In figura 7 sono riassunti alcuni degli ambiti di primaria attenzione per la DfE. Il diagramma
centrale a raggiera sta ad indicare che i singoli parametri ambientali, sociali ed economici devono
essere quantificati e confrontati per individuare il compromesso ottimale da proporre.
Figura 7 – Strategie per la progettazione per l’ambiente (DfE) e ciclo di vita dei prodotti (LCA)
Per poter progettare un prodotto o processo, bisogna essere in grado di analizzarlo, caratterizzarlo, valutarlo e manipolarlo sufficientemente per raggiungere le finalità cui mira, e l’analisi del ciclo
di vita costituisce pertanto lo strumento di base per la soluzione più corretta o, con le informazioni
attuali, meno sconsiderata. Per gli sviluppatori di prodotti e per i progettisti sono disponibili una serie
di linee guida e regole internazionali che riflettono le considerazioni ambientali per numerosi settori.
Molte di queste regole sono costruite sugli stessi principi e si indicano spesso come “filosofia 6 RI”:
• Ri-pensare – ripensare al prodotto e alle sue funzioni
195
•
•
•
•
•
Ri-durre – ridurre i consumi di energia e di materiali lungo tutto il ciclo di vita del prodotto
Ri-mpiazzare – sostituire le sostanze ambientalmente dannose con alternative più compatibili
Ri-ciclare – selezionare i materiali che si possono riciclare
Ri-usare – progettare i prodotti in modo che le loro parti costituenti si possano riusare o rifabbricare
Ri-parare – progettare i prodotti in modo che siano facili da riparare
Una volta analizzate e sviluppate le idee di nuovi prodotti sulla base di questi principi, se ne
può visualizzare il profilo ambientale utilizzando un diagramma a rete (figura 7) che illustra graficamente i risultati attesi dello sviluppo di prodotto. In pratica, si possono evidenziare situazioni contraddittorie, per esempio tra una vita lunga del prodotto e l’impiego di una sostanza pericolosa nella
fabbricazione. In questi casi diventa essenziale una dettagliata analisi del ciclo di vita per valutare
l’impatto prevedibile e decidere l’immissione o meno del prodotto o cambiare strategia.
Per situazioni industriali preesistenti si opera invece analizzando nel dettaglio l’organizzazione, la logistica e sicurezza operativa dei siti produttivi e dei singoli processi o servizi coinvolti, evidenziando le situazioni critiche, studiando le soluzioni più eco-compatibili ed applicando le tecnologie meno costose ma rispettose dell’ambiente e della salute degli operatori.
La complessità dell’insieme delle attività coinvolte e i relativi oneri finanziari, tecnologici e organizzativi per rispettarne i dettami sono ben evidenti nel pacchetto delle norme ISO 14000 di Tabella 3,
il cui rispetto è diventato uno standard per aziende che vogliono essere ambientalmente certificate.
• Analisi dell’Impatto del Ciclo di Vita: Un processo tecnico quantitativo (e/o qualitativo) per caratterizzare e valutare gli effetti sull’ambiente dei carichi identificati nella fase di costruzione degli
inventari. La valutazione deve riguardare considerazioni sia ecologiche che sanitarie come pure
altri effetti, quali, per esempio, le modifiche dell’habitat e l’inquinamento da rumore.
• Analisi del miglioramento del Ciclo di Vita: Una valutazione sistematica delle necessità e opportunità di ridurre il peso ambientale associato all’uso di energia e materie prime ed ai rilasci
ambientali nel corso dell’intero ciclo di vita del prodotto, processo o attività. Questa analisi può
includere sia misure quantitative che qualitative di miglioramenti, quali modifiche nella progettazione del prodotto, processo e attività, nell’uso di materie prime, nelle lavorazioni industriali, nell’uso da parte del consumatore finale e nel trattamento dei rifiuti.
L’organizzazione complessiva prevista dalla metodologia LCA è riassunta nello schema di Figura 8.
STRUMENTI DELL’LCA
Per la valutazione del ciclo di vita ci si avvale di tre strumenti principali:
• l’EIA (valutazione dell’impatto ambientale) uno strumento sito-specifico tipicamente usato per
valutare l’impatto ambientale di investimenti/servizi progettati.
• L’EA (verifica ambientale) uno strumento sito-specifico tipicamente usato per valutare un servizio esistente. Include considerazione su comunicazioni e gestione delle informazioni legate
all’ambiente.
• La RA (valutazione del rischio, talvolta incluso sia in EA che EIA) considera il rischio presentato
da un materiale o servizio e include considerazioni sia del potenziale pericolo che della probabilità di accadimento.
L’EIA si riferisce alla sola fase temporale della produzione e valuta le concentrazioni e le
velocità di produzione delle emissioni, mentre la LCA copre l’intero processo dal punto di vista
spaziale dalla estrazione alla produzione, all’uso e allo smaltimento.
In generale perché una analisi LCA sia fattibile e con valide ricadute decisionali deve essere
ben definito l’obiettivo e gli scopi che ci si pone, delineando l’ampiezza e i contorni del sistema che
si intende prendere in esame. Si verifica infatti spesso che una definizione troppo limitata degli obiettivi può portare a sottovalutare alcuni fattori e condurre a risultati inattendibili, per cui in fase di avvio
una procedura LCA deve essere la più ampia possibile (LCA completa), restringendo gli scopi non
appena le prime valutazioni evidenzino situazioni poco rilevanti o trascurabili (LCA parziale).
Una LCA completa è composta da tre componenti separate ma interconnesse:
• Inventari del Ciclo di Vita: è un processo obiettivo di raccolta di dati per identificare e quantificare i carichi ambientali – l’energia e le materie prime usate, e le emissioni e i rifiuti conseguentemente rilasciati (emissioni in aria, effluenti liquidi, rifiuti solidi) nel corso del ciclo di vita di un
prodotto, processo o attività.
La costruzione degli inventari costituisce una fase critica e tutt’altro che elementare dovendosi
fondare su criteri i più oggettivi possibile perché l’analisi abbia valore. E’ perciò indispensabile che
sia condotta in modo dettagliato, ricorrendo ad informazioni più consolidate e certe (banche dati di
riferimento, da più fonti) ed estrapolando il meno possibile i dati. Allo scopo è essenziale che venga-
196
197
Figura 8 - Aspetti della metodologia LCA.
no utilizzati criteri predisposti su rigorose analisi scientifiche, specificando sempre le incertezze e gli
assunti nei dati e nelle metodologie impiegate.
La completezza dei dati è in genere correlata all’ampiezza dell’analisi che si vuol condurre e deve
essere completa per gli specifici obiettivi e finalità definiti inizialmente o sufficientemente ampia da
descrivere bene l’effetto atteso di un certo parametro sulla conclusione dello studio. Le fonti dei dati e le
metodologie impiegate devono essere ben descritte e referenziate in modo da consentire verifiche e accertamenti sulla reale applicabilità (validazione). Devono essere segnalati tutti i casi in cui vengano trascurati dei dati perché non noti o troppo incerti e stimata la non significatività di questa semplificazione.
Ogni dato deve poi essere correlato all’unità di processo e all’unità funzionale FU (cioè alla
misura della prestazione del risultato funzionale del sistema prodotto) cui si riferisce, aggregando i
dati se la grandezza o prodotto si estende su più unità di processo o unità funzionale. E’ bene tener
presente che l’unità funzionale può essere ambigua se non ben definita, per esempio se si vuole confrontare 3 diverse unità funzionali costituite da 3 contenitori di diverso volume, una lattina di alluminio da 350 ml, una bottiglia di vetro da 500 ml ed una bottiglia di PET da 1 litro, è evidente che il
quantitativo di liquido contenuto è diverso e si devono perciò rapportare i risultati al prodotto contenuto nel contenitore di dimensione inferiore.
Infine sulla base dell’analisi critica dei dati si definiscono meglio i contorni del sistema prodotto, chiarendo quanto appartenente o meno ad esso. La definizione del contorno del sistema e delle unità
di processo costituiscono delle fasi preliminari importanti che condizionano le attività di raccolta ed
analisi dei dati, per cui si richiede un’attenta ricognizione delle varie componenti unitarie del sistema.
Così per esempio per valutare la produzione ed uso di un manufatto di acciaio si è identificato che il
sistema prodotto è costituito da 15 processi unitari riportati schematicamente nella figura 9.
198
Come detto i dati vengono raccolti per
unità di processo e per unità funzionale (per
esempio chilogrammi di anidride carbonica prodotta per chilogrammo di prodotto commercializzato) e le metodologie variano in dipendenza
dell’obiettivo e dell’unità di processo, ma si deve
tener presente che questa fase è molto costosa e
richiede un uso intensivo di risorse umane e di
calcolo. In particolare è bene stabilire delle procedure di assegnazione nel caso in cui si ha a che
fare con sistemi a prodotti multipli in modo da
valutare il contributo relativo di ognuno. I calcoli del flusso dell’energia devono poi tenere in
considerazione i diversi combustibili e fonti di
elettricità utilizzati, oltre che l’efficienza della
conversione e distribuzione dell’energia nonché
degli ingressi e delle uscite associate alla generazione ed uso di tali flussi energetici.
Raccolta
dati
Procedure
di calcolo
Quantificazione
ingressi e uscite
Uso di risorse
rilasci in aria
rilasci in acqua
rilasci nel suolo
Ogni uscita creata dal ciclo di vita deve essere quantificata e normalizzata in modo riassuntivo
con valor medi o indicatori per facilitarne l’uso in fase di definizione degli impatti e nella predisposizione di misure correttive.
Affinché la LCA possa aiutare a prendere delle decisioni, i dati degli inventari devono essere
poi interpretati. In base alle conoscenze maturate sull’evoluzione nell’ambiente dei composti prodotti e l’attività degli specifici composti, gli scambi vengono convertiti in impatti sull’ambiente, sul consumo delle risorse e sulla salute (Figura 10). Si tratta di una operazione non immediata in quanto non
è sempre così univoca la connessione tra i dati raccolti e la grandezza presa in esame, specie nel caso
di fenomeni globali. Per esempio, si deve tener presente tutti i gas impiegati o prodotti che provocano un effetto serra quantificabile, tutti i gas che provocano un riduzione dello strato di ozono, tutti i
gas che provocano smog, la tossicità di tutti i composti impiegati, la degradazione dei suoli o del territorio, ecc. ed ad ognuno di questi fenomeni deve essere associabile un indice di quantificazione, che
moltiplicato per la quantità di ogni prodotto che concorre a generare il fenomeno fornisce l’impatto
ambientale di tale prodotto. Questa fase, molto difficile e spesso controversa, può essere realizzata in
diversi modi, si possono per esempio:
• sommare le emissioni simili (per es., CO2 prodotta, …), le diminuzioni di risorse, ecc., e
discutere
• stimare gli impatti dalle emissioni (per es., riscaldamento globale,…), gli effetti della diminuzione delle risorse, ecc., e discutere
• pesare i vari impatti e combinarli per ricavare pochi numeri da confrontare.
199
La scelta delle categorie di impatto condiziona il numero, tipo e significato degli indicatori ad
esse associate e non stupisce che nel tempo le categorie siano cambiate da nazione a nazione e in relazione ai diversi obiettivi posti all’LCA, per lo più per tener conto in dettaglio dei molteplici tipi di
danni locali o globali provocati dall’uso di prodotti o di processi. In particolare, per individuare le
categorie sono stati impiegati approcci classici orientati al problema (intermedi), in cui i risultati LCI
sono modellizzati in base a dove si verificano gli effetti, oppure approcci orientati al danno (finali),
in cui i risultati sono modellizzati in base a dove si verificano i danni (Figura 12).
Le categorie di impatto più frequentemente utilizzate, suddivise in base al tipo di approccio,
sono raccolte in Figura 12, mentre in Tabella 4 sono riportate le più tipiche categorie di impatto (il
riscaldamento globale (GWP), la diminuzione dell’ozono stratosferico, l’acidificazione, l’eutrofizzazione, la tossicità acquatica, lo smog fotochimico, la tossicità terrestre, la salute umana, l’esuarimento della risorse, l’uso della terra) con il tipo di scala cui si riferiscono (globale, regionale o locale), i
dati LCI più rilevanti per ogni categoria di impatto, il fattore comune di caratterizzazione e la modalità di definizione di tale fattore.
Questa fase (detta generalmente LCI) è in genere assistita da calcolatori per tenere in considerazione i numerosi dati degli inventari e le espressioni matematiche di conversione di questi in unità confrontabili e in impatti previsti, oltre che per raggruppare gli impatti in indicatori generali. Le principali
difficoltà risiedono nei criteri di valutazione obiettiva degli indici di impatto, spesso noti in maniera
approssimata e quindi soggetti a valutazioni personali, e nei fattori di conversione dei diversi componenti che si ritiene utile aggregare. Una serie di software sono stati proposti per semplificare tale analisi.6
Proprio queste considerazioni hanno suggerito ai redattori delle norme ISO 14040 di suddividere le fasi di valutazione degli impatti in due sezioni, una obbligatoria, contenente da un lato la definizione delle categorie di impatto, le categorie di indicatori e i modelli adottati, e dall’altro la classificazione dei risultati alle varie categorie di impatto e ai relativi calcoli, ed una facoltativa che prevede la normalizzazione dei dati rispetto ad un riferimento standard, il raggruppamento e la pesatura dei
dati in indici complessivi, seguita da una fase di analisi della qualità dei risultati ottenuti e il loro confronto con i risultati di analisi LCA di prodotti simili o di strutture competitive (Fig. 11).
Approcci Intermedi
Diminuzione delle risorse, uso della terra
Riscaldamento globale
Scomparsa dell’ozono
Tossicità umana
Ecotossicità
Potenziale Ossidante Fotochimico
Acidificazione
Eutroficazione
Odore, Disturbi
Danni all’ecosistema
Vittime
Radioattività
Economia Atomica
Approcci finali
Danni alle risorse minerali e fossili
Salute umana
Salute dell’ecosistema
Fig. 12. Alcune tipiche categorie di impatto suddivise in funzione della valutazione dell’effetto o del danno
Figura 11 – Elementi della procedura della valutazione del ciclo di vita secondo la norma ISO14040
200
201
Tabella 4 – Esempi di categorie di impatto con la relativa scala, i dati LCI, e il fattore di caratterizzazione
Categoria di
Impatto
Scala
Dati LCI Rilevanti
(p. es., classificazione)
Fattore
Comune di
Caratterizzazione
Descrizione del
Fattore
Riscaldamento
Globale
Globale
Biossido di carbonio (CO2.)
Biossido di azoto (NO2.)
Metano (CH4)
Clorofluorocarburi (CFC)
Idroclorofluorocarburi (HCFC)
Metil Bromuro (CH3Br)
Potenziale di
Riscaldamento
Globale (GWP)
Converte i dati LCI
in equivalenti di
CO2. Nota: i potenziali di riscaldamento globale
sono 50, 100, o
500 anni.
Diminuzione
dell’Ozono
Stratosferico
Globale
Clorofluorocarburi (CFC)
Idroclorofluorocarburi (HCFC)
Halon
Metil Bromuro (CH3Br)
Potenziale di
distruzione
dell’ozono
Converte i dati LCI
in equivalenti di
tricloro-fluorometano (CFC-11).
Acidificazione
Regionale
Locale
Ossidi di zolfo (SOx)
Ossidi di Azoto (NOx)
Acido Cloridrico (HCl)
Acido Fluoridrico (HF)
Ammoniaca (NH3)
Potenziale di
Acidificazione
Converte i dati LCI
in equivalenti di
ioni idrogeno (H+)
.
Fosfato (PO43-)
Ossido di azoto (NO)
Biossido di azoto (NO2)
Nitrati (NO3-)
Ammoniaca (NH3)
Potenziale di
Eutrofizzazione
Eutrofizzazione
Locale
Converte i dati LCI
in equivalenti di
ioni fosfato (PO43-)
Tossicità
acquatica
Locale
Composti chimici tossici con una
concentrazione letale nota per i
pesci
LD50
Converte i dati di
LD50 in equivalenti
Riscaldamento
Globale
Locale
Idrocarburi, escluso metano
Potenziale di creazione di ossidanti
fotochimici
Converte i dati LCI
in equivalenti di
etano.
Tossicità terrestre
Locale
Composti chimici tossici con
concentrazioni riportate per i
roditori
LC50
Converte i dati
LC50 in
equivalenti.
Salute umana
Globale
Regionale
Locale
Rilasci totali in aria, acqua e
suolo
LC50
Converte i dati
LC50 in
equivalenti.
Esaurimento delle
risorse
Globale
Regionale
Locale
Quantità di minerali usati
Quantità di combustibili fossili
usati
Potenziale di
Esaurimento delle
risorse
Converte i dati LCI
in rapporto tra
quantità di risorse
usate e quantità
lasciate di riserva
Uso della terra
Globale
Regionale
Locale
Quantità immesse in discarica
Rifiuti solidi
Converte la massa
dei rifiuti solidi in
volume tramite la
densità
202
Se alcune categorie sono intuitive, altre lo sono molto meno, perché meno evidenti anche se di
significato molto profondo. Si prenda per esempio la categoria dell’Economia Atomica (EA), questo
è un parametro chimico associato alla bontà di una o più trasformazioni chimiche ed è definito dal
rapporto degli atomi contenuti nel prodotto rispetto a tutti gli atomi contenuti nelle materie prime utilizzate. L’ottimale (EA = 1) si raggiunge quando un processo è altamente selettivo e la resa della(e)
trasformazione(i) è quantitativa. Questo parametro permette il confronto tra processi chimici valutando quantitativamente l’entità degli scarti e la bontà delle strategie di sintesi dei prodotti che devono
incorporare il massimo numero di atomi possibile evitando gli sprechi.
Così se si prendono in esame due metodi di preparazione dell’anidride maleica (C4H4O), quello per ossidazione del benzene e quello per ossidazione del butano, si può facilmente stabilire che
l’Economia Atomica associata al processo da butano è migliore di quella da benzene. Ciò indica che
questo processo utilizza meglio gli atomi dei reagenti non formando il coprodotto anidride carbonica; ciò indipendentemente da considerazioni sulla tossicità, che comunque lo fanno preferire a causa
dell’elevata tossicità del benzene.
C6H6 + 4.5 O2 → C4H4O + 2 CO2 + 2 H2O
E.A. = 0,441
C4H8 + 3 O2 → C4H4O + 3 H2O
E.A. = 0,645
Anche i modelli impiegati per valutare i contributi delle varie categorie di impatto hanno subito numerose evoluzioni, adottati per lo più da singole nazioni nell’intento di tener precipuo conto delle
peculiarità dei vari paesi. I più indagati in Europa sono di seguito riportati, suddivisi in base al tipo di
classificazione adottata:
• Volumi critici (distanza dall’obiettivo): BUWAL 1991 (Svizzera - standard di qualità dell’aria
ambiente, limiti occupazionali di aria, standard di scarichi nelle acque), CML 1991 (Olanda standard di esposizione occupazionale, direttive EU per le acque superficiali usate come acqua
potabile).
• Categoria di effetto (alcuni esempi): CML 1992/2000 (Olanda - 14 categorie, intermedi). IVL
1992 (Svezia - 6 categorie, intermedie), UBA 1994 (Germania - 10 categorie, intermedie), EDIP
1997 (Danimarca - 9 categorie, intermedie), Eco-indicatore 99 (Olanda - 3 categorie, finali).
• Valutazione Integrata: BUWAL 1993 (eco-indicatore svizzero - basato sulla scarsità ecologica
(approccio domanda/offerta), utilizza uno standard svizzero. PRE 1992 (eco-indicatore tedesco basato sulla scarsità ecologica, usa uno standard tedesco).
Riassumendo il processo di costruzione degli inventari sembra abbastanza semplice in principio.
In pratica, però esso è soggetto ad un vasto numero di problemi pratici e metodologici, e precisamente:
• Contorni del sistema
Nell’inserire il ciclo di vita nei processi, non è sempre chiaro quanto lontano si deve andare nell’includere processi appartenenti al prodotto di interesse. Nella produzione del polietilene, per
esempio, si deve estrarre il petrolio; questo deve esser trasportato in autobotti; dell’acciaio è
necessario per costruire le autobotti, e le materie prime necessarie per produrre questo acciaio
devono essere estratte. Per ragioni pratiche si deve tracciare una linea di confine. Per esempio, la
produzione di beni capitali viene normalmente esclusa.
203
•
•
•
•
•
Processi che generano più di un prodotto
Per esempio l’elettrolisi del sale per produrre cloro. Gli effetti ambientali del processo di elettrolisi non si possono ascrivere interamente al solo cloro, in quando si co-producono anche soda caustica e idrogeno. In questi casi si rende necessario introdurre una opportune regola di allocazione, per esempio allocazione su basi di massa o di valore economico dei prodotti.
Impatti evitati
Quando un processo di smaltimento genera un prodotto remunerativo, come la generazione di
energia in un impianto municipale di incenerimento, non solo l’impatto diminuisce, ma si evitano anche degli impatti, in quanto non è più necessario produrre l’energia o il materiale con l’approccio normale. Per tener conto di ciò, si introducono gli impatti evitati. Questi sono equivalenti agli impatti che si sarebbero avuti nella reale produzione del materiale o dell’energia. Gli impatti evitati di un processo si deducono dagli impatti causati da altri processi. In molti programmi
software di analisi LCA si usano entrambi i concetti di attribuzione degli impatti che di emissioni evitate.
Variazioni geografiche
Un impianto di elettrolisi in Svezia impiega elettricità molto meno ambientalmente dannosa che
un identico impianto in Italia, in quanto in Svezia l’energia idroelettrica è più diffusamente usata.
Qualità dei dati
Le pubblicazioni dei dati ambientali dei processi sono spesso incomplete o non accurate. Inoltre,
i dati sono soggetti ad obsolescenza; sono noti vari casi in cui le industrie manifatturiere hanno
tagliato le emissioni del 90% nel corso degli ultimi dieci anni. L’uso di dati obsoleti può perciò
causare distorsioni.
Scelta della tecnologia
Si deve fare una netta distinzione tra tecnologia peggiore (o superata), media, e ottima (o moderna). Prima di partire a raccogliere i dati è importante tener conto di che tipo di tecnologia ci si sta
interessando. In vari programmi di calcolo sono presenti per lo più tecnologie medie nell’intento
da dare delle stime di minimo accettabili. Vanno evitate invece le tecnologie peggiori.
L’aggiornamento alle tecnologie ottimali è condizionato spesso da problemi di investimento e di
consolidamento temporale che si esauriscono spesso nell’arco di numerosi anni.
Nonostante questi problemi, è spesso facile eseguire un inventario degli impatti. E’ però chiaro
che è irragionevole trattare i risultati come verità assolute. Fattori come la scelta della tecnologia e dei
confine del sistema, della qualità dei dati, ecc. devono esser tenuti in debita considerazione nell’interpretare i risultati deducibili dalla analisi LCA. Non deve perciò stupire che esistano disaccordi tra
gli esperti sulla bontà ambientale di un prodotto, processo o attività.
L’indicatore permette cioè in forma riassuntiva di confrontare diversi prodotti o processi valutandone l’incidenza nel modo più ampio possibile comprese le ricadute in ambito economico e sociale. Se ben definito esso può fornire lo strumento operativo per decisioni consapevoli a livello politico, senza trascurare le possibili incertezze nella valutazione di tali parametri che possono condurre a
conclusioni sbagliate. In alcuni casi infatti l’andamento dell’indicatore è ben chiaro, in altri gli scostamenti sono modesti e solo una analisi di sensitività dell’indicatore può essere di supporto ad una
corretta decisione.
Tabella 5. Le tre linee principali degli indicatori ambientali (EPI)
Così, per esempio, analizzando due diversi sistemi di produzione dell’energia basati sul carbone (Figura 14) o biomasse-legno (Figura 15), è fuori da ogni ragionevole dubbio la diversa entità del
parametro effetto serra (GWP), con un bilancio sull’intero ciclo di quasi un ordine di grandezza superiore per il carbone che per le biomasse.
Le necessità di condensare l’enorme massa di dati oggetto dell’analisi LCA in indicatori dipende
anche dall’eterogeneità dei soggetti a cui si rivolge. E’ evidente infatti che analisi troppo dettagliate non
interessano ad un vasto pubblico e che le informazioni utili per gli scienziati sono sovrabbondanti per gli
operatori politici. Ne consegue che si assiste ad una progressiva condensazione dei dati in indicatori quantitativi sempre più percepibili da operatori meno specializzati. In Figura 13 è riportata schematicamente
il tipico andamento seguito nella creazione della gerarchia degli indicatori nella maggior parte dei programmi utilizzati nelle analisi LCA.
Gli indicatori per il pubblico sono di più immediata percezione e sono in genere accompagnati da spiegazioni volte a chiarirne limiti e significato.
Una forma estrema di indicatore è l’etichetta, che condensa in pochi numeri o simboli
un’ampia serie di dati. Più è semplice e chiara più efficace è l’effetto che può produrre. Nelle etichette si riportano numeri solo associati ad indicatori immediatamente percepibili, più comunemente si ricorre a simboli che sottintendono un valore di soglia raggiunto da uno o più indicatori.
INDICATORE AMBIENTALE (EPI).
E’ definito come un parametro (o valore derivato da parametri), che fornisce informazione su
un fenomeno. L’indicatore ha un significato che va oltre le proprietà direttamente associate al valore
del parametro stesso e tende a stimare in forma globale l’incidenza del ciclo di vita in esame sulle
ricadute ambientali, finanziarie e sociali associate al prodotto, processo o attività relative. In tabella 5
sono riportati alcuni dei numerosi indicatori oggetto dell’analisi LCA, classificati nei tre ambiti a cui
l’analisi LCA intende rivolgersi, quello tecnico, quello finanziario e quello sociale.
204
205
VALUTAZIONE DELL’IMPATTO
La valutazione dell’impatto si compone normalmente di quattro stadi:
classificazione
caratterizzazione
normalizzazione
valutazione
Nella Classificazione, i dati dalle tabelle dell’inventario vengono raggruppati assieme in un
certo numero di categorie di impatto (per es. effetto gas serra, eutrofizzazione, acidificazione, ecotossicità, ecc…). Questo raggruppamento implica che alcune emissioni si devono introdurre in categorie di impatto differenti. Così, per es. le emissioni di NOx si devono introdurre nelle categorie acidificazione ed eutrofizzazione. Metodi diversi di valutazione dell’impatto possono impiegare categorie di impatto differenti.
Nella Caratterizzazione, si calcolano i contributi all’effetto totale di ogni singola emissione in
un singolo parametro (per es. “equivalenti di CO2”). Si impiegano diversi approcci:
Approccio del Volume Critico (distanza dall’obiettivo). Le emissioni in aria e acqua sono correlati a standard di qualità dell’aria e dell’acqua. Ogni emissione si moltiplica per un fattore di peso
e i valori vengono sommati per recuperare un indicatore complessivo per l’ “aria” e per l’ “acqua”.
Categoria Effetto/Danno. Le emissioni si raggruppano secondo le categorie di impatto e quindi si moltiplicano per il fattore di peso.
Metodi di Valutazione Integrata. Si usano “Eco-fattori” basati sul principio della domanda e
offerta (o inquinamento permesso). Predisposto per l’uso in un’area specifica (per es. nazione).
•
•
•
•
Figura 14 - GWP del ciclo di vita e bilancio energetico per un sistema di produzione di energia
basato sulla combustione del carbone.
Le sostanze vengono aggregate in ciascuna classe per produrre un punteggio di effetto. Non è
corretto sommare semplicemente le quantità di sostanze implicate senza applicare dei pesi. Alcune
sostanze producono infatti effetti più intensi di altre. Si affronta il problema applicando dei fattori di
pesatura per le diverse sostanze. Un semplice esempio di questi calcoli è riportato in Tabella 6.
Tabella 6 Esempio di caratterizzazione di una piccola tabella di inventario. Le emissioni sono moltiplicate per il corrispondente fattore di pesatura prima di venir sommate per classi. I risultati sono i punteggi d'effetto.
Emissione
CO2
CO
NOx
SO2
Punteggi
di effetto:
Figura 15 - GWP del ciclo di vita e bilancio energetico per un sistema di produzione di energia
basato sulla combustione diretta di biomasse.
206
Quantità
(kg)
1.792
0.000670
0.001091
0.000987
Eff. serra
x1
-
Diminuzione
strato ozono
-
Tossicità
umana
x 0.012
x 0.78
x 1.2
Acidificazione
x 0.7
x1
1.792
0
0.00204
0.0017
L’effetto maggiore calcolato viene scalato a 100%. Per cui si possono confrontare i materiali e
processi solo per singolo effetto. Questa fase è molto utile per realizzare confronti tra prodotti e processi.
207
Nella Normalizzazione, si definisce l’importanza relativa di ogni categoria di impatto rispetto
ad un riferimento scelto, quale l’emissione totale annuale di gas serra prodotto dalla popolazione
mondiale. Dopo aver normalizzato i risultati, si individua meglio l’importanza relativa di ciascuna
categoria di impatto.
Nella Valutazione, si pesano e confrontano i valori di tutte le categorie di impatto. L’obiettivo
è quello di integrare i “valori” delle differenti categorie di impatto in una conclusione complessiva.
Questa fase è politica o menageriale, non basata sulla scienza. Spesso usata per decisioni politiche
ma l’importanza relativa e la prioritizzazione è normalmente molto controversa.
In Figura 16 è schematicamente rappresentata la sequenza delle operazioni sopra descritte.
La valutazione quantitativa di questi indicatori deve sempre comprendere una analisi sull’incertezza della misura (valor medio + deviazione standard) in quanto l’assenza di tali informazioni
potrebbe condurre a conclusioni errate. Nell’esempio di figura 17 il grafico a barre a sinistra confronta
due indicatori complessivi GWP-CO2 e BOD (biodegradabilità) di due diversi prodotti A e B senza
tener conto dei limiti di errore associati alla misura, mentre il grafico a destra li prende correttamente in considerazione (linee rosse). La conclusione corretta di questo confronto è che i due prodotti
sono sostanzialmente equivalenti, mentre dal grafico di sinistra si sarebbe indotti a ritenere che il prodotto A sia migliore del prodotto B.
Figura 16. Le quattro fasi nella valutazione dell'impatto di un prodotto secondo 4 categorie di impatto
(A, B e Y sono parametri di pesatura, mentre NF indica la normalizzazione rispetto allo standard scelto)
Figura 17. Risultati di una valutazione LCA per 2 emissioni prodotte da 2 prodotti espresse senza e con
gli errori sulla misura.
RISULTATI DELLA LCA
Il risultato dell’analisi LCA è molto spesso un indicatore numerico che definisce l’impatto
ambientale per unità funzionale, per esempio la quantità di ioni nitrato (NO3-) o ione ammonio (NH4+)
nelle acque superficiali rispetto alla quantità di foraggio prodotto nei campi ad esse collegate.
208
Determinare l’incertezza nei vari parametri e, più in generale, le problematiche significative di
un sistema prodotto può essere semplice o complesso. Sono raccomandati i seguenti approcci per assistere nell’identificazione delle problematiche ambientali e nel determinarne l’efficacia:
• Analisi dei Contributi - il contributo degli stadi del ciclo di vita o gruppi di processi sono confrontati con il risultato totale ed esaminati per la relativa rilevanza.
• Analisi dei Fattori Dominanti – analisi statistiche o altre tecniche, quali la graduazione quantitativa o qualitativa, vengono usate per identificare i contributi significativi da esaminare per rilevanza.
• Valutazione delle Anomalie - basate su esperienze precedenti, le deviazioni normali o sorprendenti
rispetto a risultati attesi o normali vengono osservate ed esaminate per rilevanza.
209
In questa fase si stabilisce il grado di confidenza dei risultati valutandone la completezza, la
consistenza e la sensitività. Quest’ultima verifica si può effettuare sulle problematiche più significative usando le seguenti tre tecniche comuni per l’analisi di qualità dei dati:
1. Analisi di Gravità – Identifica i dati che hanno un contributo maggiore sui risultati dell’indicatore di impatto.
2. Analisi dell’Incertezza – Descrive la variabilità dei dati LCIA per determinare la rilevanza di risultati dell’indicatore di impatto.
3. Analisi di Sensitività – Misura l’entità che cambiamenti nei risultati LCI e nei modelli di caratterizzazione hanno sui risultati dell’indicatore di impatto.
Alla fine di queste verifiche si procede all’interpretazione dei risultati della valutazione dell’impatto del ciclo di vita per determinare quale prodotto/processo ha il minimo impatto complessivo per la salute umana e per l’ambiente, e/o ad una o più aree specifiche di preoccupazione come
definite dagli obiettivi e finalità dello studio. Le conclusioni devono segnalare sempre gli assunti
fatti.
•
•
•
•
ETICHETTE (MARCHI) ECOLOGICI
Le etichette o marchi ecologici sono oggetti, applicati direttamente su un prodotto o su un servizio, che forniscono informazioni sulla sua performance ambientale complessiva, o su uno o più
aspetti ambientali specifici. Con esse si cerca di fornire in modo succinto indicazioni sulle conclusioni
dell’analisi LCA o più spesso sul rispetto di un criterio ecologico. Questo è definito come un requisito che deve essere rispettato da un prodotto o da un produttore per dimostrare che quel dato prodotto
o processo produttivo ha un impatto ambientale ridotto rispetto a un prodotto o processo che svolga
la stessa funzione. Ad esempio, il Comitato dell’Unione Europea per il Marchio Ecologico (CUEME)
fissa i criteri ecologici a cui si deve conformare un prodotto per ottenere il marchio Ecolabel (“il
fiore”). Allo stesso modo, le pubbliche amministrazioni possono inserire dei criteri ecologici nei propri bandi di gara per orientare le proprie scelte verso l’acquisto di prodotti/servizi a impatto ambientale ridotto. I sistemi di etichettatura sono suddivisi in obbligatori o volontari.
ETICHETTATURE OBBLIGATORIE
Le etichettature obbligatorie nell’Unione Europea si applicano in diversi settori e vincolano i
produttori utilizzatori, distributori e le altri parti in causa ad attenersi alle prescrizioni legislative.
Questa tipologia di etichettatura si colloca all’interno del tradizionale approccio “command and
control” ma comunque contribuisce in modo significativo al raggiungimento di alcuni fondamentali
obiettivi ambientali fissati a livello europeo e nazionale, tanto che in alcuni casi rappresenta un forte
stimolo per le imprese all’attivazione di iniziative ambientali volontarie (accordi di programma,
EMAS, ecc.). Le etichettature obbligatorie si applicano principalmente ai seguenti gruppi di prodotti:
• Sostanze tossiche e pericolose
Le etichette apposte sui contenitori di sostanze tossiche e pericolose sono rivolte ai consumatori/utilizzatori che ne fanno direttamente uso, di conseguenza gli aspetti più importanti di questa
etichetta si riferiscono alla salute e alla sicurezza. La direttiva 93/21/EEC ha introdotto il simbolo di pericolo specifico per le sostanze “ambientalmente pericolose”.
210
Elettrodomestici - Energy Label
La Direttiva Europea 92/75/CEE recepita in Italia con il DPR n.107 del 9 marzo 1998, ha reso
obbligatorio per i produttori di elettrodomestici di indicare il consumo di energia e di altre risorse quali l’acqua. L’Energy Label ha lo scopo di fornire all’utilizzatore finale una corretta e chiara informazione circa il consumo energetico dell’apparecchio al momento dell’acquisto. Tutte le
etichette riportano i dati di consumo e di prestazione misurati applicando la norma En 153.
Prodotti Alimentari
Il campo delle etichettature dei prodotti alimentari è molto complesso con più di 40 leggi Europee
al riguardo. La legge impone alcune regole ma non garantisce ancora la completa trasparenza
delle informazioni. Per esempio per quanto riguarda gli ingredienti la normativa attuale prevede
che se l’ingrediente composto non supera il 25% del totale, non è necessario dichiararne la composizione.
Imballaggi - Packaging Label
Il marchio è stato introdotto a seguito del decreto Ronchi, permette di facilitare la raccolta, il recupero e il riciclo dei materiali a fine vita. Il marchio è di forma triangolare accompagnato da un
sigla o un numero ed identifica il materiale.
Elettricità da fonti rinnovabili – Certificati Verdi
Il certificato è un titolo ufficiale comprovante che uno specifico quantitativo di energia è stato
generato da fonti rinnovabili. Questi certificati sono negoziabili, cioè possono essere acquistati
dalle aziende distributrici a dimostrazione della capacità produttiva di energia da fonti rinnovabili immessa nella rete.
ETICHETTATURE VOLONTARIE
La richiesta di un marchio è del tutto volontaria, per cui i fabbricanti, gli importatori, o i distributori possono decidere di aderire al sistema di etichettatura, una volta verificata la rispondenza dei
prodotti ai criteri. Le etichette volontarie possono essere distinte in base alle definizioni date dalle
norme internazionali della serie 14020:1999.
ISO Tipo I – ISO 14024, 1999
Etichetta basata su un sistema a più criteri che considera l’intero ciclo di vita del prodotto, certificata e gestita da una terza parte indipendente. Indica le migliori prestazioni ambientali di un prodotto
appartenente a delle categorie particolari. L’Ecolabel rientra in questa categoria. Alcuni dei marchi più
conosciuti e consolidati sono sotto riportati. Esistono inoltre marchi per l’identificazione dei prodotti
derivati dall’agricoltura biologica e marchi per prodotti tessili e per prodotti derivati da risorse forestali.
211
ISO tipo II – ISO 14021, 1999
Auto-dichiarazione (green claim) ambientale da parte di produttori, importatori o distributori
dei prodotti, senza l’intervento di un organismo di certificazione indipendente. Include tutte le dichiarazioni, etichette, simboli di valenza ambientale presenti sulle confezioni dei prodotti, sugli imballaggi, o nelle pubblicità utilizzati dagli stessi produttori come strumento di informazione ambientale.
ISO Tipo III – ISO 14025
La dichiarazione ambientale di prodotto (EPD - DAP) è uno strumento di informazione, sulle
performance ambientali di un prodotto, di tipo quantitativo e basato sugli impatti individuati dall’LCA.
È applicabile a tutti i prodotti o servizi indipendentemente dal loro uso o posizionamento nella catena
produttiva e viene verificata e convalidata da un organismo accreditato indipendente che garantisce la
credibilità e veridicità delle informazioni contenute nello studio di LCA nella dichiarazione.
I Marchi sociali
Oltre ai sistemi di etichettatura ambientale di prodotti e servizi ne esistono altri, diffusi in tutti
i paesi europei, che riguardano la sicurezza, le implicazioni sulla salute dell’uomo o aspetti tecnici,
economici, etici e sociali relativi ai prodotti. Tra questi, i marchi sociali, che si sono diffusi in Europa
maggiormente dall’inizio degli anni ’90, sono particolarmente significativi in riferimento ai temi e
agli obiettivi della sostenibilità ambientale. I marchi di garanzia del Commercio Equo Solidale sono
17 nei diversi paesi europei, riuniti sotto l’Organizzazione Internazionale FLO-Fairtrade Labelling
Organizations. Un altro sistema interessante di certificazione degli aspetti sociali legati alla produzione di un prodotto è il Social Accountability 8000 (SA8000): uno standard internazionale che è stato
promosso e definito dal Council of Economic Priorities Accreditation Agency, in collaborazione con
ONG, sindacati e imprese, ed emesso ufficialmente nell’ottobre 1997.
RIFERIMENTI BIBLIOGRAFICI
Etichette e marchi hanno l’obiettivo di informare il possibile acquirente del prodotto, processo o
servizio del rispetto di alcuni criteri ambientali e/o sociali, ma la loro efficacia dipende dalle scelte dell’acquirente /gestore/proprietario e dalla sua sensibilità verso le problematiche ambientali e/o sociali.
Una scelta sistematica in questa direzione del singolo o di intere organizzazioni può costituire la base
per un sistematico miglioramento verso il raggiungimento di uno sviluppo sostenibile.vii Un codice di
comportamento sugli acquisti che operi scelte sistematiche di prodotti e servizi in questa direzione è
indicato col termine acquisti verdi. Sono soprattutto gli enti pubblici e privati che finora hanno operato in questa direzione, mentre le scarse informazioni disponibili per i singoli cittadini hanno condizionato la sensibilità del pubblico in questa direzione. Sono tuttavia noti casi in cui il pubblico ha condizionato lo sviluppo di certi prodotti nella direzione della eco-compatibilità, anche se sono ben documentati i tentativi di influenzare le scelte del pubblico in altre direzioni anche sfruttando il potere pervasivo dei mezzi di comunicazione di massa. Tra i tre principi che regolano le scelte nell’ambito degli
acquisti verdi spicca una ampia e generalizzata informazione sui dati di LCA, oltre che la definizione
di politiche e pratiche di gestione degli acquisti rispettosi della sostenibilità e il sistematico ricorso a
informazioni eco-correlate per valutare produttori e distributori dei prodotti o servizi.
1. R.A.BRADEN, “Industrial Ecology: The Materials Scientist in an Environmentally Constrained
World,” MRS Bulletin 17, 1992, 3, 46–51.
2. P. ANASTAS, A. WARNER, Green Chemistry Theory and Practice, Oxford University Press, 2000.
3. (a) D.T. ALLEN, D.R. SHONNARD, Green Engineering : Environmentally- Conscious Design of
Chemical Processes, Prentice Hall, pg. 552, 2002. (b) Sandestin declaration: Green Engineering:
Defining the Principles, Engineering Conferences International, FL, USA, May 17-22, 2003.
4. Society of Environmental Toxicology and Chemistry Guidelines for Life Cycle Assessment ‘A
Code of Practice’ Agosto 1993. Vedi anche http://www.envipark.com/ .
5. Boustead, Handbook of Industrial Energy Analysis, 1979. Hendrickson, C., A. Horvath, S. Joshi
and L.B. Lave, “Economic Input-Output Models for Environmental Life Cycle Analysis,”
Environmental Science & Technology, April, 1998
6. I software per analisi LCA più conosciuti sono:
CMLCA -Chain Management by Life Cycle Assessment - CML all’Università di Leiden
Design for Environment, Ver 1.0 - Boothroyd Dewhurst, Inc. e TNO Institute
ECO-it: Eco-Indicator Tool for environmentally friendly design - PRé Consultants
EcoManager - Franklin Associates
EcoPro - sinum Corporate Environmental Management
ECOScan - Turtle Bay dal TNO
EDIP - Environmental design of industrial products - EPA Danese
EIOLCA - Economic Input-Output LCA alla Carnegie Mellon University
GaBi 3 - (Ganzheitliche Bilanzierung) - Università di Stoccarda (IKP)/PE Product Engineering
IDEMAT - Delft University Clean Technology Institute Interduct Environmental Product
212
213
Development
KCL-ECO 3.0 - KCL LCA software
Life-Cycle Advantage – Battelle
LCAiT - CIT EkoLogik (Chalmers Industriteknik)
LCNetBase - Life cycle assessment using traceble US data – Sylvatica
PTLaser A Tool to Evaluate both Economic and Environmental Impacts of Process Decisions –
Sylvatica
REPAQ - Franklin Associates
SimaPro 4.0 for Windows - PRé Consultants
SPINE - SPINE is an information model for environmental LCI and LCA data.
SPOLD - Society for the Promotion of Life-cycle Assessment Development
TCAce - Life cycle assessment and economic evaluation integration – Sylvatica
TIIM - Franklin Associates
Umberto - An advanced software tool for Life Cycle Assessment - Institut für
Umweltinformatik
7. Esistono vari buoni siti web su cui trovare aiuto informazione in rete su questi argomenti:
Prodotti più puliti: vedere http://www.minambiente.it/Sito/home.asp (sito web del Ministero
dell’Ambiente Italiano). Su questo sito si possono trovare relazioni su progetti, riferimenti a tipi
di prodotti, informazione su iniziative nel settore. http://venus.unive.it/inca/ (Consorzio INCA);
http://www.globalwitness.org/ (Global Witness); http://esl.jrc.it/dc/index_IT.htm (Collezione in
linea degli indicatori ambientali)
Energia: vedere http://www.enea.it/ (Enea), http://www.autorita.energia.it/, http://www.feem.it/
(Fondazione Eni Enrico Mattei), http://www.afdc.doe.gov/altfuels.html (combustibili alternativi)
Rifiuti: vedere http://www.borsarifiuti.com/ ; www.corepla.it (Consorzio Nazionale per la
Raccolta, il Riciclaggio e il Recupero dei Rifiuti di Imballaggi in Plastica (CO.RE.PLA);
http://www.conai.it/ (Consorzio Nazionale Imballaggi), http://www.flanet.org/ (Fondazione
Lombardia per l’Ambiente)
Trasporti: vedere http://www.infrastrutturetrasporti.it/page/standard/site.php (sito del ministero
delle infrastrutture e dei trasporti); www.transit.dk (transIT – fornisce informazioni sul trasporto
di merci).
Composti chimici: vedere http://www.nsc.org/ehc/ew/chemical.htm; http://www.speciation.net/ e
www.dtc.dk (Danish Toxicology Centre).
Sostanze Pericolose e Indesiderate: controllare la “lista delle sostanze indesiderabili” sul sito
www.mst.dk. Per l’amianto vedere: http://www.asbestos-institute.ca/main.html. Per problematiche di sicurezza vedere: http://www-sic.ing.unifi.it/Sicurezza/default.asp; http://www.greenpeace.it/ ; http://www.legambiente.it/
Commercio ambientale: Eco-comm http://www.eco-comm.it/default.asp;
Associazione industriali: vedere per esempio il sito www.federchimica.it , e la (Confederazione
delle Industrie Italiane), e il sito http://www.cefic.org/ (Confederazione delle industrie Chimiche
Europee),
214
Cambiamenti climatici
IL CAMBIAMENTO GLOBALE DEL CLIMA
EFFETTO SERRA E BUCO DELL’OZONO
FULVIO ZECCHINI
1. INTRODUZIONE
Con questo capitolo abbiamo voluto trattare da un punto di vista educativo e divulgativo, ma
rigorosamente scientifico, l’argomento dei cambiamenti climatici, oggigiorno di scottante attualità.
La prima parte è dedicata all’effetto serra, fenomeno che sta probabilmente contribuendo al
riscaldamento globale del pianeta, l’aspetto più preoccupante dei cambiamenti climatici globali.
Questi ultimi incarnano l’effetto risultante dall’incuria dell’umanità nei confronti dell’ambiente,
durante la sua corsa ad un benessere sempre maggiore. Il tema trattato è intimamente legato alla produzione di energia, un fattore fondamentale per lo sviluppo socio-economico, già trattato all’inizio di
questo volume, perché l’emissione di gas ad effetto serra (anidride carbonica ed altri) è in gran parte
un ‘effetto collaterale’ dei processi di combustione, ampiamente usati per la produzione di energia
elettrica e la locomozione dei veicoli.
La seconda parte del capitolo è dedicata alla distruzione dell’ozono stratosferico, il cosiddetto
‘buco dell’ozono’, un altro problema di attualità, causato principalmente dall’uso di gas alogenati di
sintesi (freon, halon, ecc.). Questi composti hanno caratteristiche uniche che li rendono utilissimi
come refrigeranti, propellenti per spray, materiali isolanti e sistemi antincendio. Curiosamente, e sfortunatamente, queste stesse proprietà – derivanti in massima parte dalla presenza di alogeni nella molecola (soprattutto cloro e bromo) – sono dannose per l’ozono stratosferico che viene distrutto mediante reazioni a catena. Ciò comporta vari rischi per l’ambiente e la salute dovuti all’aumento dei raggi
ultravioletti, che raggiungono la superficie terrestre a seguito della diminuita efficacia filtrante dell’ozono.
Abbiamo voluto evidenziare soprattutto gli aspetti scientifici, le cause, i meccanismi e le differenze o le interconnessioni tra i due fenomeni, non sempre noti a livello di opinione pubblica.
Contrariamente a quanto si possa generalmente ritenere, i danni all’ambiente non sono sempre, o non
solo, causati dall’emissione d’inquinanti xenobiotici, molecole di sintesi estranee ai processi naturali. Sono talvolta coinvolte molecole fondamentali per la vita, come l’anidride carbonica, che, in alcuni ambiti ed in determinate concentrazioni, possono avere effetti negativi. Ciò avviene a seguito di un
meccanismo di amplificazione antropica, in cui le attività umane mettono in gioco quantità addizionali di tali molecole così elevate da alterare (potenzialmente) gli equilibri naturali.
Questo capitolo è stato precedentemente pubblicato dal Consorzio INCA nel Marzo 2004 in
occasione della XIV Settimana della Cultura Scientifica indetta dal Ministero dell’Istruzione,
dell’Università e della Ricerca. Tale monografia, completa di note introduttive alla struttura e agli
inquinanti dell’atmosfera, può essere scaricata gratuitamente dal sito del Consorzio INCA
(www.unive.it/inca) alla pagina http://www.unive.it/inca/publications/papers.php (file pdf).
217
2. L’EFFETTO SERRA
6 CO2 + 6 H2O + luce
È quantomeno ironico che uno degli astri più belli e luminosi del cielo sia Venere, il nome
della dea della bellezza degli antichi romani. Tale nome poco si adatta ad un pianeta inospitale, che
le sonde degli Stati Uniti e dell’ex Unione Sovietica hanno rivelato essere un luogo desolato, cosparso di rocce brulle, con una temperatura media di 450°C. Se ciò non bastasse, la sua pressione atmosferica è circa 90 volte quella terrestre, la sua atmosfera è costituita per il 96% da anidride carbonica e ci sono nuvole di acido solforico! Tutto questo ci fa apprezzare molto di più il nostro bel pianeta verde e blu, dove c’è una gradevole temperatura media di 15°C.
In base alla loro distanza dal Sole ed alla radiazione globale che ricevono, Venere e Terra dovrebbero essere molto più freddi; la temperatura media del primo dovrebbe essere di circa 100°C e quella del
secondo di –18°C. L’atmosfera è fondamentale nel mantenere il nostro pianeta mediamente 33°C al di
sopra del valore su indicato, permettendo la vita come noi la conosciamo. Questo è possibile soprattutto
grazie ai due elementi che costituiscono la componente fondamentale degli esseri viventi, l’acqua e il carbonio, sotto forma di vapore acqueo e anidride carbonica.
L’idea che i gas atmosferici potessero in qualche modo “intrappolare” l’energia solare fu proposta per la prima volta attorno all’anno 1800 dal matematico e fisico francese Jean-Baptiste Joseph
Fourier (1768-1830). Egli paragonò l’atmosfera terrestre al vetro di una serra, il quale lascia passare i
raggi solari all’interno, intrappolando parte del calore che non può riuscire. Sebbene egli non comprendesse i meccanismi chimico-fisici alla base del fenomeno, il suo paragone ha dato poi il nome al
fenomeno di riscaldamento globale della Terra, noto appunto come effetto serra. Quasi sessant’anni
dopo John Tyndall (1820-1893), in Inghilterra, dimostrò sperimentalmente che acqua e anidride carbonica assorbono calore sotto forma di radiazione (infrarossa) e calcolò anche il riscaldamento dovuto alla
presenza di queste molecole in atmosfera.
Oggi ci sono evidenze scientifiche certe che:
• l’anidride carbonica assorbe calore;
• la concentrazione di anidride carbonica è aumentata negli ultimi 150 anni;
• la temperatura media della Terra non è rimasta costante nelle diverse ere.
2.1 METODI D’INDAGINE RETROSPETTIVA E DATAZIONE
Una macchina del tempo sarebbe il mezzo ideale per capire l’evoluzione del nostro pianeta e delle
condizioni climatiche. Se mai sarà realizzata, tale invenzione è ancora molto lontana nel tempo, ma la
chimica, la fisica e la biologia possono dirci molte cose circa la storia della Terra e l’evoluzione della
“serra” in cui essa è rinchiusa. Nei suoi 4,5 miliardi di anni di vita la Terra e la sua atmosfera sono molto
cambiate, la composizione dei gas vulcanici ci indica che la concentrazione dell’anidride carbonica nell’atmosfera primordiale era mille volte superiore a quella attuale.
Gran parte dell’anidride carbonica disciolta negli oceani si è mineralizzata a formare il calcare dei
sedimenti, cioè carbonato di calcio (CaCO3), ma l’alta concentrazione di questo gas ha permesso la nascita
della vita intrappolando il calore e mantenendo una temperatura idonea, anche se l’energia della radiazione
solare era di circa 25-30% inferiore a quella attuale. Così 3 miliardi di anni fa i cianobatteri, primitive microscopiche piante unicellulari, hanno riempito i mari e oggi ancora si trovano sia in questi che in altri habitat.
Al pari delle evolute piante moderne, i cianobatteri sono in grado di operare la fotosintesi utilizzando la luce
solare per combinare anidride carbonica ed acqua a formare i carboidrati (detti comunemente zuccheri). Il
glucosio, ad esempio, si forma attraverso una catena di reazioni, secondo la seguente equazione:
218
clorofilla
C6H12O6 (glucosio) + 6 O2
La fotosintesi non ha solo ridotto drasticamente la concentrazione di anidride carbonica in
atmosfera, ma ha anche incrementato decisamente la quantità di ossigeno in essa presente. Sebbene
la microbiologa e biochimica Lynn Margulis (Università del Massachusetts; USA) abbia definito questo “il maggiore inquinamento a cui la Terra sia andata incontro”, gli animali hanno potuto evolversi
respirando ossigeno e cibandosi inizialmente dei tessuti delle piante. Nonostante ciò, anche al tempo
dei dinosauri (100 milioni di anni fa), ben prima che l’uomo comparisse, la temperatura media della
Terra doveva essere più elevata di circa 10-15°C e la concentrazione dell’anidride carbonica atmosferica decisamente maggiore.
Fondate evidenze scientifiche ci dicono che, negli ultimi 200.000 anni, un attimo in termini
geologici, la temperatura è andata incontro a fluttuazioni notevoli. Alcuni metodi di analisi costituiscono la nostra macchina del tempo e ci aiutano a vedere nel passato. I carotaggi profondi dei sedimenti oceanici (escavazioni per prelevare campioni cilindrici di sottosuolo, detti “carote”) ci forniscono uno spaccato del tempo trascorso. Il numero e la natura dei microrganismi presenti in ogni strato ci danno informazioni sulla temperatura alla quale essi vivevano. Inoltre l’allineamento del campo
magnetico nelle particelle di sedimento ci dà un’informazione indipendente sull’età dello strato1.
Un’ulteriore fonte di notizie sul passato sono i carotaggi delle zone glaciali perenni. Il progetto sovietico di escavazione profonda presso la Stazione di Vostok in Antartide ha fornito carote costituite dalle nevi di 160 millenni. L’analisi isotopica di questi campioni si basa sulla frazione d’idrogeno presente sotto forma di deuterio (2H, un isotopo pesante della comune forma 1H); questa può
essere stimata per valutare la temperatura al periodo in cui quelle nevi caddero. Infatti le molecole
d’acqua che contengono il comune idrogeno (numero di massa 1) sono più leggere di quelle che contengono la forma pesante (numero di massa 2), ciò significa che esse evaporano più facilmente; così
in proporzione c’è più idrogeno e meno deuterio nel vapore acqueo atmosferico rispetto a quanto ce
n’è nelle acque superficiali. Le precipitazioni (pioggia, neve), portando al suolo il vapore condensato, alterano il rapporto 2H/ 1H che, inoltre, aumenta proporzionalmente alla temperatura media. Le
bollicine d’aria intrappolate nel ghiaccio possono essere analizzate per quantificare l’anidride carbonica ed eventuali altri gas presenti.
Se con questi dati realizziamo un grafico con il tempo sull’asse delle ascisse e la temperatura
assieme alla concentrazione di CO2 sui due assi delle ordinate (Fig. 2.1) vediamo che, sorprendentemente, le due “curve” hanno un andamento parallelo, per tutti i 160.000 anni di tempo considerato.
Ciò indica che deve esserci un rapporto di proporzionalità diretta tra concentrazione di CO2 e temperatura. Quest’ultima ha avuto un suo minimo durante l’ultima glaciazione (9°C sotto la media degli
anni 1950-1980) ed un massimo, con una temperatura media di poco oltre i 16°C, circa 130.000 anni
fa. Altre indagini indicano che nei periodi di massima temperatura non solo la concentrazione dell’anidride carbonica, ma anche quella del metano (CH4) era elevata.
1. Si consideri che l’asse terrestre ruota assai lentamente, con un movimento doppio-conico con vertice al centro della Terra; ciò
causa la cosiddetta migrazione dei poli, un lento spostamento del Polo Nord magnetico che perciò non coincide esattamente con
219
Figura 2.1. Andamento della concentrazione di CO2 e della variazione di temperatura media della Terra negli ultimi
160.000 anni (presente = 2000). Per le differenze di temperatura il valore 0 si riferisce alla media del periodo 19501980 (dati American Chemical Society, 2000).
Quanto sopra esposto non prova necessariamente che le concentrazioni di CO2 e CH4 in
atmosfera hanno causato un aumento delle temperature nelle ere passate, in quanto vanno considerati anche altri fattori. Oggi sappiamo che questi gas assorbono calore e possono aver giocato un qualche ruolo. Si è evidenziata una fluttuazione periodica delle temperature che sembrano raggiungere dei
massimi ciclicamente, ogni 100.000 anni circa, intervallati a periodi glaciali. Nello scorso milione di
anni ci sono state 10 glaciazioni maggiori e 40 minori. Tra i vari fattori che determinano le variazioni della temperatura dobbiamo annoverare i piccoli cambiamenti dell’orbita terrestre che influenzano
la distanza della Terra dal Sole e l’inclinazione con cui i raggi arrivano sulla superficie del nostro pianeta. A questi fattori “spaziali e orbitali” si devono aggiungere fattori atmosferici, come la variazione
della capacità di riflessione della radiazione, la copertura delle nuvole, il pulviscolo atmosferico e,
appunto, la concentrazione di CO2 e CH4. Quale sia il meccanismo di autoregolazione, che permette
di arrestare ad un certo punto il rialzo o la diminuzione di temperatura, non possiamo ancora dirlo con
precisione, a causa della complessità del fenomeno. È comunque certo che la Terra, come oggi noi la
conosciamo, è differente da quella che è stata nel periodo di massima temperatura di 130.000 anni fa.
2.2 LA MODELLAZIONE PREDITTIVA COMPUTERIZZATA
La modellazione predittiva si occupa di valutare l’andamento temporale dei fenomeni e di fornirci degli scenari attendibili per il futuro simulando al computer ciò che accade e accadrà nella realtà.
Altra funzione della modellazione è quella di verificare teorie espresse solo sulla carta, una volta
accertata l’affidabilità del modello. Detto così sembrerebbe facile, ma pensate a quanto può essere
complesso creare un modello al computer della Terra e del suo clima. Quanti di noi non si sono mai
lamentati con le previsioni del tempo che non ci azzeccano mai, certamente l’errore non è voluto;
durante questa vostra lettura vi renderete conto di quante variabili influiscano sul clima a livello locale e globale.
2.2.1. Complessità di calcolo
A titolo esplicativo si riportano le variabili che un supercomputer valuta elaborando i modelli
delle previsioni meteorologiche (Box 2.1). La complessità è tale che, seppure si hanno ormai a disposizione dei supercomputer capaci di qualcosa come 3,0 Tflops al secondo2, non sempre i risultati delle
previsioni meteo sono affidabili. Se la complessità delle previsioni meteorologiche è enorme, pensate cosa vuole dire elaborare dei modelli predittivi del cambiamento globale del clima, valutare i dati
del passato che riusciamo ad avere grazie ai metodi di datazione e prevedere quale sarà il clima ad
esempio fra 50-100 anni nelle varie zone del globo. Ciò significa identificare e integrare tutte le correlazioni tra le variabili riportate nel Box 2.1 con altre ancora come: l’insolazione, l’attività vulcanica, la produzione e l’effetto dei gas serra, la formazione di pulviscolo e aerosol, l’effetto degli oceani, l’effetto dei ghiacci, l’emissione di inquinanti naturali, l’influenza della biosfera nel suo insieme
e, non di meno, che cosa deciderà di fare l’essere vivente che ha maggior influsso sulle sorti del pianeta, l’uomo. Farsi un’idea precisa di quale sia la complessità della modellazione del cambio globale
del clima è davvero difficile; la lista delle variabili qui esposta è lungi dall’esser completa. Perciò in
questo paragrafo abbiamo voluto solo dare un’idea della difficoltà che implica la modellazione predittiva.
Al fine di fornire al lettore un’idea della complessità dei calcoli per le previsioni meteo, si riportano
come esempio le variabili analizzate presso il centro di previsioni meteorologiche nazionale
dell’Emilia Romagna grazie ad un supercomputer del CINECA (www.cineca.it):
Parametri a 7 livelli verticali di pressione
(cioè a 7 altitudini diverse):
● temperatura;
● umidità specifica;
● geopotenziale;
● vento: direzione e velocità;
● velocità verticale del vento.
Parametri al livello del suolo:
● temperatura (a 2 metri dal suolo);
● umidità relativa (a 2 metri dal suolo);
● pressione (ridotta al livello medio del mare);
● copertura nuvolosa (in percentuale);
● precipitazione totale (cumulata su 6 ore, al suolo);
● precipitazione convettiva (cumulata su 6 ore, al suolo);
● manto nevoso (in acqua equivalente);
● vento, direzione e velocità (a 10 metri dal suolo).
Parametri su singolo livello di pressione:
● Vorticità relativa (al livello 250 hPa; circa 10 Km).
Box 2.1. Le variabili analizzate da un centro di previsioni
meteorologiche.
2. Tflops al secondo: teraflops al secondo, 1 teraflop è pari a 1012 operazioni con virgola mobile.
220
221
Facciamo un esempio semplificato di stima della CO2 emessa dalle automobili italiane, considerando che
esse funzionino tutte a benzina. Quest’ultima è una miscela è una miscela di idrocarburi “leggeri” (con
meno di 12 atomi di carbonio) in cui l’ottano è quello maggiormente rappresentato, perciò un’accettabile
approssimazione nei calcoli si può ottenere considerando la benzina composta al 100% da ottano. La sua
formula chimica:
CH3-CH2-CH2- CH2- CH2- CH2- CH2-CH3
può essere più convenientemente scritta come C8H18 per i nostri calcoli. Consideriamo che, nelle auto
moderne, la combustione della benzina avvenga secondo la reazione ideale:
C8H18 + 12,5 O2
8 CO2 + 9 H2O
dove tutto l’ossigeno atmosferico si combini con l’idrogeno dell’ottano a dare acqua e con il carbonio
a dare anidride carbonica, senza alcun sottoprodotto (cosa che in realtà non avviene).
Dal dato della densità dell’ottano sappiamo che ogni litro di ottano pesa 692 g, che diviso per il peso
molecolare dell’ottano (114) ci dà il numero di moli di ottano presenti in un litro, cioè 6,07 circa. Si produranno così 48,56 (6,07 x 8) moli di CO2. Dato che una mole di CO2 pesa 44 g avremo che bruciando
un litro di benzina (considerata come ottano), in condizioni ideali nel motore di una macchina media, si
emettono dal tubo di scappamento in atmosfera circa 2.137 g di anidride carbonica!
Ammettiamo che quest’auto media (nel senso che essa rappresenta il consumo medio degli autoveicoli
circolanti attualmente in Italia) consumi 1 litro di carburante per fare 10 Km, tenendo conto di tutti i vari
tipi di percorso (urbano, extraurbano ed autostradale). Se, per comodità di calcolo, stimiamo che la
popolazione italiana sia di 55.000.000 di persone e consideriamo che in media la famiglia italiana sia
composta di 4 persone e abbia un’auto, avremo un parco auto italiano che ammonta a 13.750.000 automobili. Ipotizziamo inoltre che ognuna di queste percorra in media, 15.000 Km all’anno. In considerazione dei chilometri percorsi da tutte le automobili e il loro consumo di benzina otteniamo che:
ogni anno la sola circolazione delle autovetture in Italia provoca l’emissione in atmosfera di circa 4,4
milioni di tonnellate di CO2!
Box 2.2. Una stima dell’emissione annuale di anidride carbonica dovuta al traffico in Italia.
2.2.2 Input dei modelli
Come input del sistema possiamo inserire dei dati calcolati (stime), e/o dei dati strumentali ottenuti a terra o sui satelliti. Ad esempio, per avere un’idea dell’impatto ambientale dovuto al traffico in
Italia dobbiamo capire come calcolare quanta CO2 emette un’auto in base ai chilometri percorsi o al
tempo e sapere quante automobili circolano (Box 2.2).
Con calcoli simili potremo stimare quanta CO2 deriva dagli impianti di riscaldamento, quanta
dall’incenerimento dei rifiuti e così via. Altri input possono essere immessi nei modelli di calcolo grazie all’analisi sperimentale dei dati. Ciò può avvenire sia prendendo campioni di aria a terra o a varie
quote tramite palloni aerostatici ed aerei opportunamente attrezzati, oppure mediante l’uso di sistemi
d’analisi posti sui satelliti. Un esempio di studio dell’atmosfera da satellite è quello condotto dal gruppo Remote Sensing of the Stratosphere (gruppo di Controllo Remoto della Stratofera) dell’Istituto di
Scienze dell’Atmosfera e del Clima del Consiglio Nazionale delle Ricerche (ISAC-CNR; Box 2.3).
Tutti i dati raccolti vengono inseriti nei supercomputer assieme a complicate formule matematiche, che correlano le diverse variabili tra loro, per valutare gli effetti della variazione di ogni singola variabile sul fenomeno in esame.
222
Il progetto GASTRAN 2 studia la composizione chimica della stratosfera usando gli spettri infrarossi
(descritti al § 3.4.2) misurati da MIPAS (Michelson Interferometer for Passive Atmospheric Sounding, interferometro di Michelsen per il sondaggio passivo dell’atmosfera) per usare tali dati in modelli di trasporto
chimico, per analizzarne l’andamento temporale e per capire i processi chimici e di trasporto nella stratosfera.
MIPAS è uno strumento sviluppato dall’European Space Agency (ESA, Agenzia Spaziale Europea) che
opera a bordo del satellite ENVISAT (ENVIronmental SATellite, satellite ambientale), lanciato il 1°
Marzo 2002. L’obiettivo scientifico di MIPAS è di misurare la distribuzione verticale della concentrazione dei gas serra a livello stratosferico, in un intervallo di altezza da 8 a 70 km.
Gli spettri di emissione permettono di misurare i profili di distribuzione in altezza di gas che sono di
grande importanza nello studio della chimica dell’atmosfera centrale. MIPAS fornirà i profili di Volume
Mixing Ratio (VMR, rapporto di miscelazione in volume) di H2O, O3, HNO3, CH4, e N2O. Inoltre visto
che le capacità di misurazione di MIPAS comprendono gli spettri di molte altre molecole che hanno un
ruolo importante nella chimica atmosferica, verranno misurati i VMR di tali molecole. Queste quantità
saranno poi usate come valori di partenza per i modelli di trasporto chimico, per studiare le variazioni
chimiche sul lungo periodo, e per studiare i processi chimici eterogenei a sviluppo rapido che coinvolgono le specie misurate.
Box 2.3. Un esempio di analisi dei gas atmosferici da satellite (Istituto di Scienze dell’Atmosfera e del Clima del Consiglio
Nazionale delle Ricerche; ISAC-CNR).
2.2.3 Tipi di modelli
Spesso nella modellazione si ricorre a semplificazioni, ad esempio utilizzando modelli bidimensionali. Ce ne sono due abbastanza comuni, uno potremmo identificarlo come “modello a longitudine fissa”, si considera fisso il piano che passa per un meridiano ad una longitudine media, le
dimensioni variabili sono solo quelle dell’alto e basso (variazione di quota) e del nord e sud (variazione di latitudine). Questo è il modello che gli scienziati hanno usato per capire come i gas traccia
(tra cui molti gas serra) sono distribuiti negli strati superiori dell’atmosfera. Un’applicazione specifica è lo studio del rilascio delle specie gassose del cloro e della loro interazione con l’ozono stratosferico. Una seconda semplificazione è il “modello a quota fissa”, in cui ci si muove sul piano di una
sfera posto ad una quota media, in questo caso le direzioni variabili sono quelle nord-sud ed ovestest. Questo modello è adatto a studi nella stratosfera, in cui il movimento delle masse d’aria rimane
uniforme a diverse altitudini e viene usato proprio per studiare i venti.
Difficilmente i modelli semplificati bidimensionali si possono applicare alla troposfera, qui le
condizioni cambiano troppo rapidamente nelle tre dimensioni. Pertanto vanno usati modelli più complessi ed ancora in fase di miglioramento dell’affidabilità. Attualmente alcuni di questi modelli considerano gli oceani come un sistema multistrato in circolazione continua, l’atmosfera come dieci o più
strati sovrapposti in interazione tra loro e la superficie della Terra suddivisa in 10.000 celle. Sebbene
questi sistemi non siano adatti a fornire previsioni dettagliate a livello locale, sono un buon strumento per valutare gli andamenti futuri a livello globale. Applicando modelli simili è stato possibile prevedere l’aumento di concentrazione di CO2 atmosferica (25%) e della temperatura (0,5-0,6°C) che si
sono verificati nell’ultimo secolo; questi risultati concordano con le evidenze sperimentali.
223
2.3 IL BILANCIO ENERGETICO DELLA TERRA
La fonte maggiore di energia della Terra è il Sole. Metà dell’energia solare che arriva sulla Terra
viene riflessa o assorbita dell’atmosfera. Sappiamo anche che i raggi ultravioletti sono in buona parte
assorbiti dall’ossigeno e dall’ozono (torneremo su quest’argomento in seguito perché questo meccanismo è fondamentale nel ciclo dell’ozono). La Terra si scalda in quanto assorbe parte della radiazione che colpisce la sua superficie, quindi riemette parte dell’energia è assorbita sotto forma di raggi
infrarossi (Fig. 2.2; Tab. 2.1). Il risultato di questo equilibrio dinamico è la temperatura media di
15°C, che il nostro pianeta raggiunge seppure immerso nello spazio a –270°C. Nello stato stazionario circa l’80% delle energia radiata dalla superficie terrestre viene assorbita nuovamente dall’atmosfera e in parte riemessa nuovamente verso il suolo (effetto serra), ciò permette di mantenere temperature idonee alla vita. Se però viene trattenuta una quantità sempre maggiore di radiazione in atmosfera si ha uno stato di disequilibrio e la temperatura media tende ad aumentare.
Non possiamo certo considerare la CO2 come una molecola nociva alla vita, anzi è stata fondamentale per la sua origine ed ancor oggi è alla base della produzione primaria (produzione di zuccheri e biomasse vegetali per via fotosintetica) nelle reti trofiche. Quindi l’effetto della CO2 sulla vita
è decisamente positivo, ma una sua maggior concentrazione non implica benefici maggiori. La CO2
non è un gas tossico, diventa nociva quando raggiunge l’alta concentrazione di 5000 ppm3 principalmente perché è un gas irrespirabile. Il pericolo per la vita sul nostro pianeta deriva proprio dal fattore che l’ha resa così utile. Nel lontano 1896 il chimico svedese Svante Arrhenius (1859-1927) valutò
che ad un raddoppiamento della concentrazione di anidride carbonica in atmosfera corrisponde un
aumento di 5-6°C della temperatura media. In quel tempo la rivoluzione industriale era in pieno svolgimento ed Arrhenius, in uno dei suoi scritti, dichiarò che l’uomo stava facendo evaporare in aria le
miniere di carbone. Il combustibile (in massima parte carbone) che serviva per fare andare a regime
sempre maggiore le macchine a vapore, ci ha portato ad aumentare la produzione industriale e il
benessere, ma con essi è aumentata l’emissione di CO2.
Tab. 2.1. Bilancio della radiazione solare.
Radiazione in arrivo (gamma, X, UV, IR)
% specifica
Radiazione riflessa/diffusa verso lo spazio dal pulviscolo
5
Radiazione riflessa/diffusa verso lo spazio dalle nuvole
21
Radiazione riflessa dalla superficie terrestre (albedo)
6
Assorbimento di molecole (CO2, H2O, ecc.), nuvole, pulviscolo
18
Assorbimento della superficie terrestre (terre e mari)
50
Totale riflessione e assorbimento
Radiazione in uscita (IR)
% specifica
Radiazione IR emessa dalla superficie terrestre
98
Perdita di IR emessi dalla superficie terrestre verso lo spazio
Radiazione IR emessa dall’atmosfera
Perdita di IR emessi dall’atmosfera verso lo spazio
Radiazione netta emessa dalla superficie terrestre
Radiazione netta emessa dall’atmosfera
8
137*
60
21
47
% di tipo
32% riflesso o diffuso
68% assorbito
100%
% di tipo
90% IR emessi dalla
Terra assorbiti
dall’atmosfera
77% IR assorbiti
dall’atmosfera
68% IR riemessi
*: percentuali maggiori del 100% indicano che le radiazioni aumentano in percentuale, rispetto al loro valore in entrata, a
seguito di fenomeni di assorbimento e riemissione.
Figura 2.2. Bilancio della radiazione solare. Lo spessore delle frecce è proporzionale alle quantità in gioco
(dati American Chemical Society, 2000).
La chiave per valutare gli effetti futuri dell’effetto serra risiede nel capire l’andamento della produzione di CO2 e delle temperature medie globali assieme ai fattori che influenzano queste variabili, così
da poter applicare correttamente i modelli predittivi. Ci sono prove fondate che la concentrazione di anidride carbonica sia aumentata del 25% circa negli ultimi 100 anni. I dati più affidabili sono quelli raccolti dal 1958 al 2003 alle Hawaii nella stazione di Mauna Loa che mostrano un aumento anche della
concentrazione del metano, un altro gas serra (Fig.2.3 A e B). Sebbene vi siano delle fluttuazioni dovute alle variazioni stagionali annuali, è decisamente evidente l’aumento di concentrazione di CO2 dalle
315 alle circa 370 ppm attuali. I dati di Mauna Loa sulla CO2 concordano con quanto trovato dagli osservatori della rete GREEN-NET in Italia (Fig. 2.3 C). Inoltre le previsioni computerizzate indicano la tendenza ad un aumento sempre più rapido della concentrazione di CO2. Gli scienziati ritengono che ciò
sia dovuto al sempre maggior consumo di combustibili fossili (petrolio, carbone, gas).
Quasi tutti noi abbiamo esperienza diretta dell’effetto serra su piccola scala. Pensate a cosa succede quando si lascia l’automobile al sole coi finestrini chiusi nei mesi estivi. Il vetro lascia passare
la radiazione UV e visibile, parte di questa viene assorbita dai sedili e dagli interni dell’auto e rilasciata poi sotto forma di raggi infrarossi che, a causa della loro maggiore lunghezza d’onda, non riescono a riattraversare i vetri, portando così ad un riscaldamento dell’interno dell’auto (è l’effetto sfruttato in una serra da vivaio). A livello planetario, il vetro dell’automobile Terra è l’atmosfera, i suoi gas
sono trasparenti alla luce visibile, ma alcuni assorbono e riflettono i raggi infrarossi portando ad un
aumento della temperatura. Tra questi gas, per questo motivo detti comunemente anche gas serra, troviamo l’anidride carbonica, il vapore acqueo, il metano ed altre molecole che possiamo trovare in
atmosfera.
3. ppm: parti per milione, unità di concentrazione in peso e/o volume che non andrebbe più usata, ma viene mantenuta
per comodità; ad esempio 1 ppm di CO2 corrisponde a 1 cm3 di CO2 per 1 m3 di atmosfera.
224
225
Figura 2.3. Dati dell’andamento della concentrazione di anidride carbonica dal 1958 al 2003 (A) e del metano dal
1990 al 2002 (B) a Mauna Loa, Hawaii (Climate Monitoring and Diagnostics Laboratory; National Oceanic and
Atmospheric Administration, NOAA; USA) e aumento della concentrazione della CO2 in Italia dal 1979 al 2003 (C)
(Osservatori Green-Net; Italia).
2.4.1. La struttura tridimensionale delle molecole
La struttura di Lewis delle molecole dipende dalla cosiddetta regola dell’ottetto, la quale prevede che una molecola sia stabile se ogni atomo che la compone (l’idrogeno fa eccezione) possiede
otto elettroni (condivisi a formare un legame o meno) nel suo strato esterno. Nel caso di una molecola biatomica come N2 ed O2 (Fig. 2.5) la struttura di Lewis riflette anche la geometria della molecola, che non può essere altro che lineare. Nelle molecole con tre o più atomi divengono possibili variazioni della geometria molecolare che può essere predetta teoricamente conoscendo la posizione degli
elettroni degli orbitali esterni. Nelle molecole, uno o più elettroni degli atomi che la compongono si
accoppiano a formare uno o più singoli legami, oppure a formare doppi (O2) o tripli (N2) legami fra
atomi. La chiave per valutare la struttura molecolare tridimensionale è quella di considerare che le
coppie di elettroni, sia quelle di legame, sia quelle non condivise, si respingono in quanto hanno tutte
carica negativa. Per questo motivo i legami e le coppie non condivise di elettroni si disporranno
distanziandosi in modo da ottenere la minor energia potenziale (di repulsione) possibile.
Altri dati indicano che la temperatura media sia aumentata anche fino a 5°C in alcune parti del
globo dal 1950 al 1999 (Fig. 2.4). L’incremento medio dal 1880 ad oggi è di 0,6°C, ma non possiamo
affermare con piena certezza che sia dovuto all’aumento della concentrazione di CO2, anche se abbiamo
prove sperimentali che la CO2 di fonte antropica (cioè dovuta alle attività umane) sia una delle cause del
riscaldamento globale degli ultimi anni. Stime attuali ci dicono che Arrhenius aveva sbagliato per eccesso, anche se di poco; infatti indicano che il raddoppio della concentrazione di CO2 dovrebbe portare ad
un aumento della temperatura media di 1,0-3,5°C. Se un tale aumento di concentrazione dell’anidride
carbonica avverrà o no dipende da ciò che noi umani decideremo di fare. La comprensione di come
avviene l’assorbimento dei raggi infrarossi da parte dei gas serra ci aiuta a valutare le contromisure, a
preservare il nostro pianeta per le generazioni future. Questo è il ruolo socio-politico della scienza.
Figura 2.5. Struttura tridimensionale e formule di Lewis di vari gas serra e di alcune molecole citate nel testo.
I colori e le dimensioni relative degli atomi sono puramente indicativi. Gli elettroni sono dello stesso colore
dell’atomo da cui derivano o cui appartengono.
Innanzi tutto bisogna capire perché il metano (CH4), l’acqua allo stato gassoso (H2O) e l’anidride carbonica (CO2) sono gas serra, mentre i due componenti principali dell’atmosfera, l’azoto (N2)
e l’ossigeno (O2) non lo sono. Ciò dipende dalla diversa struttura tridimensionale che queste molecole possiedono (Fig. 2.5).
Una semplice procedura pragmatica può essere utilizzata per comprendere la struttura tridimensionale delle molecole; faremo qui un esempio col metano. Prima bisogna determinare il numero di elettroni esterni associato ad ogni atomo. Nel carbonio (numero atomico 6, Gruppo IV A della
tavola periodica) ci sono quattro elettroni esterni: ne mancano quindi altri quattro per raggiungere
l’ottetto. Questi derivano dai quattro atomi d’idrogeno che hanno un solo elettrone ciascuno (numero
atomico 1, Gruppo I A) otteniamo così la formula di Lewis del metano, in cui ognuno dei quattro idrogeni è legato al carbonio centrale rispettando la regola dell’ottetto (Fig. 2.5). Ora dobbiamo verificare qual è la struttura tridimensionale che permette alle varie coppie di elettroni, di legame o non condivise, di essere il più distante possibile nello spazio, per quanto permesso dalla struttura di legame.
Nel caso del metano, inoltre, essendo uguali, i quattro atomi attaccati al carbonio saranno equidistanti e alla massima distanza fra di loro. La figura solida che soddisfa questi requisiti è il tetraedro, una
piramide con base e facce triangolari in cui il carbonio si trova all’interno in posizione centrale, gli
226
227
Figura 2.4. Dati della variazione delle temperature medie nel globo dal 1950 al 1999 (Global Historical Climate
Network; National Oceanic and Atmospheric Administration, NOAA; USA).
2.4. L’EFFETTO SERRA DIPENDE DALLA STRUTTURA MOLECOLARE
DEI GAS
idrogeni sono ai vertici e tutti gli angoli sono di 109,5° (Fig. 2.5). Questa struttura è stata confermata sperimentalmente ed è comune a molte molecole presenti in natura, soprattutto quando contengono carbonio.
Lo stesso procedimento si può applicare per la molecola del triclorofluorometano (CFCl3), un
gas serra che fa parte dei famosi clorofluorocarburi (CFC), co-responsabili della distruzione dello
strato di ozono. Applicando le regole di prima, vediamo che sia il fluoro che il cloro possiedono sette
elettroni esterni, facendo parte entrambi del gruppo degli alogeni (Gruppo VII A). Ognuno di questi
atomi condividerà un elettrone con il carbonio posto al centro nella struttura di Lewis, la regola dell’ottetto sarà soddisfatta e la struttura tridimensionale sarà tetraedrica con il fluoro e gli atomi di cloro
ai vertici. Diversamente dal metano, in questo caso il tetraedro non è perfetto perché le distanze di
legame F-C e Cl-C non sono uguali (Fig. 2.5).
Può capitare che alcune molecole abbiano atomi che possiedono coppie di elettroni non impegnate in legami, in questo caso la forza di repulsione è ancora maggiore rispetto a quella degli elettroni di legame, in quanto “occupano” uno spazio più ampio. Ad esempio nella molecola dell’ammoniaca (NH3, un altro gas serra), la coppia non condivisa di elettroni spinge i tre idrogeni sotto al piano
dell’azoto; la molecola non è quindi planare con l’azoto al centro, ma è comunque tetraedrica, con
l’azoto al centro e i vertici della base occupati dai tre idrogeni, mentre il vertice superiore è occupato dalla coppia di elettroni con condivisi (Fig. 2.5). La repulsione maggiore da parte di quest’ultima
porta ad avere angoli di 107,5°, un po’ inferiori rispetto ai 109,5° che ci aspetteremmo in un tetraedro
perfetto. Lo stesso fenomeno si verifica nella molecola dell’acqua (H2O) in cui i due idrogeni condividono ognuno un elettrone con uno dei sei esterni dell’ossigeno (Gruppo VI A) per obbedire alla
regola dell’ottetto. La molecola non è lineare con l’ossigeno nel mezzo come si potrebbe immaginare, ma le due coppie non condivise di elettroni dell’ossigeno respingono fortemente quelle di legame
e la molecola ha una forma a “V” con l’ossigeno al vertice ed un angolo di 104,5° fra i due idrogeni
(Fig. 2.5). In pratica è come se le due coppie non condivise di elettroni dell’ossigeno occupassero
ognuna un vertice del tetraedro.
Nell’anidride carbonica due degli elettroni esterni di ogni ossigeno devono coniugarsi con
altrettanti del carbonio per dare due legami o, meglio, un doppio legame. Essendoci due ossigeni la
molecola avrà il carbonio al centro legato da due doppi legami ai due ossigeni. Il doppio legame ha
geometria planare e non avendo il carbonio coppie non condivise di elettroni esterni, la molecola di
CO2 risulta lineare (Fig. 2.5).
Fino ad ora abbiamo parlato di legami covalenti, in cui ognuno dei due atomi partecipa con un
elettrone al legame. Nell’ozono (O3, anch’esso considerato un gas serra) le cose sono lievemente diverse. Per soddisfare la regola dell’ottetto l’ossigeno al centro della molecola forma un singolo legame dativo (tutti e due gli elettroni vengono dall’ossigeno centrale) con uno degli altri due ossigeni ed un doppio legame covalente con l’altro. In questo modo la regola dell’ottetto è soddisfatta per tutti e tre gli ossigeni (Fig. 2.5). A causa della coppia non condivisa di elettroni esterni dell’ossigeno centrale, anche in
questo caso, la molecola è piegata in maniera simile a quella dell’acqua con un angolo di 117°.
proprietà dei campi elettrici e magnetici. In particolare, l’onda elettromagnetica è caratterizzata
da un’energia E correlata alla sua frequenza dalla relazione E = hν, dove h è la costante di Planck
(6,63 x 10-34 joule x s). Nella sua struttura corpuscolare, la luce è associata a corpuscoli detti fotoni,
che trasportano e scambiano l’energia della radiazione con la materia, con interazioni che, come
vedremo di seguito, sono altamente specifiche.
La teoria atomica considera la materia costituita da insiemi organizzati di atomi e molecole, a
loro volta costituiti da nuclei, carichi positivamente (trascuriamo le particelle subnucleari), ed elettroni, carichi negativamente. Gli elettroni si trovano negli orbitali che potremmo semplicemente definire come la zona dello spazio intorno al nucleo in cui si ha la massima probabilità di trovare gli elettroni. È fondamentale ricordare che ad ogni orbitale è associata una certa energia e che gli elettroni
“riempiono” gli orbitali secondo regole ben definite (Principio di Pauli4). La configurazione elettronica ad energia più bassa è detta stato fondamentale e corrisponde al caso in cui gli elettroni sono collocati negli orbitali aventi energie minori, compatibilmente con il Principio di Pauli. Lo stato fondamentale definisce tutte le proprietà chimico-fisiche dell’atomo o della molecola, incluse quelle strutturali e la sua reattività chimica. Quanto detto sopra per gli atomi può essere esteso alle molecole, di
qualsiasi dimensione esse siano (da molecole biatomiche omonucleari come l’idrogeno molecolare a
molecole complesse come il DNA), con la differenza che dovranno essere considerati orbitali molecolari invece di semplici orbitali atomici.
L’interazione luce-materia è pertanto quantizzata, cioè, qualsiasi sia il tipo di fenomeno indotto dalla luce in una molecola5, questo può avvenire solo se quest’ultima assorbe fotoni (quanti di energia luminosa) con energia pari a quella necessaria per indurre un “fenomeno di eccitazione” che sposta la molecola dal suo stato fondamentale ad un livello energetico superiore permesso per quella
molecola (salto quantico). Tali livelli sono discontinui e solo alcuni sono permessi, in base alla configurazione elettronica e alla struttura della molecola, ai tipi di legame e alla radiazione incidente
(Fig 2.6). Oltre all’ovvio surplus energetico, la molecola in condizioni di aumentata energia è caratterizzata da peculiari proprietà chimico-fisiche (angoli di legame, distanze di legame, potenziali
redox, ecc.), che possono essere molto diverse da quelle del suo stato fondamentale: di conseguenza
la reattività può differire significativamente da quella della molecola nel suo stato fondamentale.
Dopo aver assorbito la radiazione/energia, le molecole tendono a tornare molto rapidamente ad
uno stato di minore energia. I possibili processi di “diseccitazione” di una molecola A, possono riportarla semplicemente al suo stato fondamentale di partenza, oppure portano alla formazione di una nuova
molecola mediante interazioni A-A o con altre molecole presenti nel sistema. I processi che portano al
ritorno allo stato fondamentale quasi sempre non prevedono trasformazioni chimiche. In tali processi il
surplus di energia immagazzinato nella molecola può essere dissipato per via non radiativa (si ha un
aumento dell’energia cinetica delle molecole e queste urtandosi più frequentemente cedono calore al
sistema) o per via radiativa (vengono emesse radiazioni). Nei processi in cui si formano altre specie chimiche a partire da A, il surplus energetico viene usato per la formazione dei nuovi legami.
2.4.2 Interazione tra raggi infrarossi e molecole: la vibrazione dei legami
Ora che abbiamo un’idea di come sono fatte le loro molecole dei gas serra, dobbiamo capire
come questi gas interagiscono con le radiazioni, nello specifico con i raggi infrarossi.
La radiazione elettromagnetica ha una duplice natura, corpuscolare ed ondulatoria. In quanto
onda, le sue proprietà possono essere ricondotte alle proprietà delle onde elettromagnetiche, ogni
radiazione risulta caratterizzata da una frequenza (ν, in s-1), da una lunghezza d’onda (λ) e dalle altre
4. Il famoso fisico Wolfgang Pauli (Vienna, 1900 – Zurigo, 1958) enunciò il suo principio nel 1925. Questo prevede, in parole
semplici, che la disposizione degli elettroni in un atomo sia regolata da 4 numeri quantici e che solo un elettrone possa occupare ogni singolo stato quantico. Il numero di spin, s, definisce la rivoluzione sul proprio asse dell’elettrone e può assumere solo
due valori, a seconda che l’elettrone ruoti in un verso o in quello opposto (+1/2 oppure –1/2). Gli altri tre numeri quantici sono
n, l, e m, ma la loro trattazione esula dagli scopi di questo testo. Ci basterà qui ricordare che due o più elettroni non possono stare
nello stesso spazio allo stesso tempo (stesso stato quantico), per cui l’unico modo per due elettroni di condividere lo stesso orbitale è quello di avere s diverso.
5. Tra i vari fenomeni inducibili troviamo i salti di elettroni in orbitali ad energia maggiore (eccitazione propriamente detta), la
vibrazione o la rotazione delle molecole, in ordine decrescente di energia della radiazione/fotone incidente.
228
229
Figura 2.7. Spettro all’infrarosso dell’anidride carbonica. Sono evidenziati i picchi di assorbimento (minimi di trasmittanza) corrispondenti alle vibrazioni di stretching Tipo 2 (VS; vedi testo) e di bending (VB).
Figura 2.6. Livelli energetici delle molecole, salti quantici ed effetti dell’interazione tra radiazioni (raggi ultravioletti, UV; radiazione visibile, LUCE; raggi infrarossi, IR) e molecole; nell’esempio viene usata la molecola dell’anidride carbonica. L*: livello energetico legato ad uno stato di eccitazione propriamente detta. LM: livello di minima energia (stato fondamentale).
Quando la molecola dissipa il surplus di energia per via radiativa, di solito emette radiazioni a
lunghezza d’onda maggiore. Ad esempio, l’assorbimento di un fotone può far saltare l’elettrone in un
orbitale a più alta energia senza passare attraverso i vari livelli energetici intermedi possibili per quella molecola; l’elettrone, però, nel tornare al livello energetico corrispondente allo stato fondamentale
attraversa livelli energetici ad energia sempre minore e nel contempo emette una radiazione con energia pari alla differenza tra due livelli successivi. Pertanto può succedere che una molecola assorba
energia ad una determinata lunghezza d’onda durante l’eccitazione, ma che, nel tornare allo stato fondamentale, la riemetta sotto forma di due o più lunghezze d’onda maggiori. Bisogna inoltre ricordare che l’assorbimento di una radiazione è un fenomeno probabilistico, in quanto intervengono altri fattori a determinare come e se una molecola interagirà con una radiazione incidente che è potenzialmente in grado di assorbire.
Come già accennato, il salto quantico può essere pari alla differenza energetica tra un orbitale ed uno di quelli più esterni caratterizzati da energia maggiore, tipici di ogni atomo o molecola.
Ad esempio, in una molecola colpita da un fotone di raggi UV con opportuna lunghezza d’onda un
elettrone salta in un orbitale a più alta energia, la reattività cambia (molecola eccitata), e, talvolta, i
legami covalenti possono rompersi e riformarsi con configurazioni diverse (reazioni fotochimiche).
Quest’ultimo è il caso della distruzione delle molecole di O2 ed O3 da parte dei raggi UV-B e
UV-C (§ 3.1).
230
Figura 2.8. Interazione della molecola di anidride carbonica con i raggi infrarossi e microonde. Vibrazioni di stretching di Tipo 1 (A) e 2 (B) e di bending (C-D). Interazione con le microonde (Rotazione) (dati American Chemical
Society, 2000; lievemente modificato).
231
I raggi IR hanno energia minore rispetto agli UV, insufficiente a causare salti di elettroni in
orbitali superiori ed eventualmente a rompere i legami. Gli IR possono però causare salti quantici che
possono corrispondere, in base alla loro lunghezza d’onda, alla vibrazione di uno specifico legame in
una molecola (Fig. 2.6). Tali molecole potranno quindi essere identificate o, comunque, caratterizzate sulla base delle lunghezze d’onda IR assorbite: si parla a tal proposito di spettro infrarosso di una
molecola (Fig. 2.7).
Ricorriamo ancora all’anidride carbonica come esempio. I due doppi legami tra il carbonio ed
i due ossigeni non devono essere considerati rigidi, come se ognuno dei doppi legami fosse formato
da un’asta metallica. Essi sono invece capaci di accorciarsi ed allungarsi come delle molle e ciò permette ai legami di vibrare in risposta all’assorbimento di energia. Vi sono diversi tipi di vibrazione:
quelle di stretching (allungamento) e quelle di bending (“piega”). Le vibrazioni di stretching si dividono in due sottotipi: nel primo caso, per la CO2, l’atomo di carbonio rimane fermo, mentre i due
atomi di ossigeno si allontanano e si avvicinano muovendosi in direzioni opposte e in linea retta (lo
indicheremo come Tipo 1; Fig. 2.8 A). Nel secondo caso l’atomo di carbonio ed uno dei due ossigeni si avvicinano mentre l’altro ossigeno si allontana e viceversa sempre muovendosi in linea retta
(Tipo 2; Fig. 2.8 B). Mentre nelle vibrazioni di stretching gli atomi si muovono sulla direttrice che li
congiunge, nelle vibrazioni di bending gli atomi si disallineano; ogni “piega” conta come due vibrazioni perché può avvenire sopra o sotto il piano della direttrice. Esistono due sottotipi molto simili di
vibrazioni di bending a seconda che gli atomi si muovano in direzioni opposte, ma perpendicolari alla
direttrice o che, nell’altro caso, la direzione sia obliqua rispetto alla direttrice (Fig. 2.8 C e D).
Similmente a ciò che avviene in una molla, occorre meno energia per “piegare” i legami che non per
“allungarli o accorciarli”; così i due tipi di vibrazioni di bending della CO2 sono indotti dall’assorbimento di raggi IR con lunghezza d’onda, λ = 15,000 µm, mentre per causare vibrazioni di stretching
servono raggi con λ = 4,257 µm, con energia maggiore rispetto ai precedenti.
Nella CO2 gli IR possono causare vibrazioni di stretching solo di Tipo 2; infatti l’assorbimento
avviene solo se la vibrazione causa una variazione del dipolo della molecola, con un cambiamento netto
della distribuzione della carica. Nella CO2 l’ossigeno ha una maggior tendenza a trattenere su di sé gli
elettroni (ha maggior elettronegatività) rispetto al carbonio, quindi gli ossigeni risulteranno parzialmente carichi negativamente e il carbonio avrà una parziale carica positiva. Nella vibrazione di stretching di
Tipo 1 della CO2 il movimento dei due ossigeni è simmetricamente opposto e il cambiamento di carica
si annulla; quindi le radiazioni IR non possono indurre tale vibrazione in questa molecola.
Come abbiamo detto lo spettro infrarosso di una molecola è caratteristico (si parla di impronta
digitale delle molecole) e può essere caratterizzato mediante uno spettrometro all’infrarosso. La
radiazione infrarossa di un filamento incandescente viene incanalata e fatta passare attraverso un campione posto in un contenitore con spessore noto e trasparente agli IR. La radiazione che passa, se è
della lunghezza d’onda giusta (può essere variata dall’operatore entro certi limiti), indurrà un salto
quantico nelle molecole del campione. Più molecole ci sono, maggiori saranno i fotoni assorbiti
(misura detta assorbanza) e, ovviamente, minore sarà il numero dei fotoni che attraversano il campione (legge di Lambert-Beer 6). Questi ultimi arrivano ad un rivelatore che ci dice quanta radiazione
è passata (trasmittanza). Ciò permette di capire la concentrazione del campione in analisi mediante il
confronto con assorbanza e trasmittanza di campioni a concentrazione standard nota. Cambiando in
maniera continua la lunghezza d’onda del raggio IR nello spettrofotometro, possiamo vedere quali
lunghezze vengono assorbite dal campione trovando così il suo spettro IR (Fig. 2.7) e, quindi, le lunghezze d’onda di vibrazione di una molecola.
Per quanto detto sopra, le molecole di CO2 causano l’effetto serra assorbendo gli IR con lunghezza d’onda specifica. Si verifica un salto quantico ad un livello energetico superiore, associato alla
vibrazione della molecola, quindi le molecole tendono a tornare allo stato di minore energia, riemettendo radiazioni IR con lunghezze d’onda maggiori rispetto a quella incidente. Parte di queste viene
nuovamente indirizzata verso la superficie terrestre aumentando la temperatura.
Anidride carbonica e vapore acqueo (quest’ultimo assorbe radiazioni IR con λ= 2,5 e 6,5 µm)
sono i principali gas serra, ma qualsiasi molecola capace di assorbire IR è potenzialmente un gas
serra; ne sono esempi metano, protossido d’azoto (N2O), ozono e clorofluorocarburi (come il CFCl3).
Al contrario le molecole di azoto (N2) ed ossigeno (O2) non sono gas serra, perché, pur potendo vibrare, sono simmetriche ed elettricamente neutre essendo costituite da atomi uguali e con la stessa elettronegatività; pertanto, dato che la loro vibrazione non comporta una variazione di dipolo, non assorbono IR.
Un’ultima curiosità riguardo all’interazione molecole-radiazione riguarda le microonde
(λ=105 µm). La loro lunghezza d’onda e, quindi, la loro bassa energia rispetto ad UV ed IR non permette né la rottura, né la vibrazione dei legami, ma è sufficiente a causare una rotazione delle molecole, se sono colpite dalla lunghezza d’onda opportuna (Fig. 2.8). Nei comuni forni a microonde λ è
tarata in modo da fare aumentare la velocità di rotazione delle molecole d’acqua presenti nei cibi; queste ruotando rapidamente una contro l’altra creano per attrito il calore che cuoce gli alimenti (in
maniera simile a quanto facciamo sfregandoci le mani quando il clima è freddo), in pratica “lessano”
i cibi con l’acqua in essi contenuta.
Le interazioni tra materia ed onde elettromagnetiche sono importanti per il mantenimento delle
condizioni ideali per la vita sul pianeta. Inoltre a dispetto dei tipi di raggi e di lunghezze d’onda usati,
l’assorbimento è quantizzato, nel senso che solo alcune precise e specifiche lunghezze d’onda possono essere assorbite dai vari atomi e molecole, a seconda dei livelli d’energia dei loro elettroni.
L’interazione onda-materia ci dà varie possibilità per analizzare la struttura degli atomi e delle molecole (metodi spettrometrici).
2.5 L’ANIDRIDE CARBONICA COME PRINCIPALE GAS SERRA
6. Legge di Lambert-Beer: A = ebc; in cui A è l’assorbanza, c è la concentrazione molare della sostanza in esame, b è il cammino
ottico (cioè lo spessore del campione attraversato dal raggio), e è il coefficiente di estinzione molare, cioè l’assorbanza di una soluzione 1M di un composto puro in condizioni standard di solvente, temperatura e lunghezza d’onda.
Nel libro intitolato La Tavola Periodica, Primo Levi, chimico e scrittore scampato ai campi di
concentramento nazisti, scrisse che l’anidride carbonica è il gas che costituisce la materia prima
della vita, è la scorta presso cui tutti gli esseri viventi attingono, il destino ultimo della decomposizione della carne, non è uno dei maggiori costituenti dell’atmosfera, ma solo un ridicolo residuo che
nessuno nota, trenta volte meno concentrato dell’argon… Eppure noi originiamo da quest’impurità,
noi piante e animali e noi, la razza umana, con i nostri miliardi di opinioni diverse, la nostra storia
millenaria, le nostre guerre e vergogne, la nostra nobiltà ed il nostro orgoglio.
In questo saggio Levi traccia la storia di una molecola di un atomo di carbonio, dal calcare
minerale in cui esso “è congelato in un eterno presente”, per passare ad una molecola di CO2, quindi
in una di glucosio in una foglia, fino a diventare parte del cervello dell’autore stesso. Quell’atomo di
carbonio, che ha già miliardi di anni di età, continuerà a vivere per un inimmaginabile futuro. La continuità della materia viene spesso sintetizzata nella frase “Nulla si crea, nulla si distrugge… tutto si
trasforma” scritta nel libro dell’I Ching (anche chiamato Il Libro Delle Mutazioni) che racchiude mas-
232
233
sime tratte dalla millenaria cultura cinese. Se Eraclito (filosofo greco del VI-V secolo a.C.) aveva
introdotto il concetto di panta rei, tutto scorre (e si evolve), come possiamo ben capire oggi, a livello
atomico tutto scorre sì, ma in un ciclo infinito. Gli atomi rimangono solitamente tali e vanno incontro a cicli eterni nei quali passano da un compartimento all’altro dell’ecosistema, trasformandosi e
combinandosi più volte in molecole diverse, fino a tornare ciò che erano prima7. Il ciclo del carbonio
(Fig. 2.9) ne è un affascinante esempio. Ogni anno circa 215 miliardi di tonnellate di carbonio sono
rimosse dall’atmosfera sotto forma di CO2, poco più della metà, (110 miliardi di tonnellate) sono “fissate” dalla fotosintesi clorofilliana, diventando prima zuccheri ed infine biomassa, prima vegetale e
poi animale. La maggior parte del resto si dissolve negli oceani, si concentra per via biologica in strutture come i coralli e le conchiglie, per diventare calcare o contribuire a formare altri minerali e rocce
dei fondali. In questo modo la Terra agisce da vasta riserva di CO2. Questo però è uno stato stazionario, dovuto ad un equilibrio dinamico in cui altrettanta CO2 ritorna in atmosfera. Le piante muoiono e le loro biomasse vengono decomposte dalla flora batterica con formazione di CO2, oppure entrano nella catena alimentare dove vengono ridotte a CO2, H2O ed altre piccole molecole dal metabolismo. Inoltre gli animali esalano CO2, i carbonati delle rocce si decompongono rilasciando CO2 a
causa di fattori atmosferici (ad es. piogge acide) e i vulcani emettono CO2 dai loro crateri. Ed il ciclo
continua. Alcuni scienziati hanno stimato che l’atomo medio di carbonio è passato attraverso i vari
comparti della biosfera per circa venti volte da quando la Terra esiste8.
Se esistesse solo l’inquinamento d’origine naturale questo sarebbe bilanciato da processi di
autoregolazione (feedback) per raggiungere, comunque, un equilibrio stazionario. L’uomo però non è
un animale come tutti gli altri, respira sì, mangia e produce deiezioni, vive e muore, producendo CO2
da processi metabolici e di decomposizione come gli altri animali, ma ne differisce perché la sua intelligenza l’ha portato a compiere delle attività che gli permettono un sempre maggiore benessere, al
prezzo però di un’alterazione significativa degli equilibri naturali. Le emissioni antropiche di CO2
sono così elevate, che i sistemi di feedback naturali non riescono a riportare la concentrazione di CO2
ad un valore costante, ad un nuovo equilibrio. Così la concentrazione di CO2 in atmosfera aumenta
costantemente e continuerà a farlo se non metteremo in atto opportune contromisure.
Noi produciamo CO2 assai rapidamente bruciando in pochi attimi l’energia solare che si è concentrata nei combustibili fossili in milioni di anni, bruciando petrolio e carbone, ad alto contenuto in
carbonio, in un’atmosfera ricca di ossigeno.
La Rivoluzione Industriale, nata in Europa, è stata alimentata dal carbone, utilizzato per le macchine a vapore delle miniere, delle industrie, delle locomotive, delle navi e, più tardi, dei generatori
elettrici. La scoperta del petrolio e dei suoi derivati ha permesso la diffusione di mezzi di trasporto
più piccoli e numerosi, le automobili. Oltre alla nostra vita quotidiana, la Rivoluzione Industriale ha
in cambiato totalmente le fonti ed il flusso dell’energia.
Assieme all’aumento della produzione di energia e di consumo di combustibili fossili, è aumentata quella dei prodotti di combustione rilasciati nell’atmosfera, tra cui l’anidride carbonica, passando dalla concentrazione di circa 290 ppm del 1860 alle circa 370 ppm attuali. Il tasso di crescita è
inoltre in aumento costante ed è attualmente di 1,5 ppm di CO2 all’anno (Tab. 2.2).
Tab. 2.2. Variazione nella concentrazione dei principali gas serra dai tempi pre-industriali al 1994 (Dati American
Chemical Society, 2000).
Gas serra
Concentrazione ai tempi pre-industriali
Concentrazione al 1994
Tasso di variazione annuo
Tempo di vita in atmosfera
Figura 2.9. Schema del ciclo del carbonio. Sono indicati i flussi in miliardi di tonnellate di carbonio. I dati possono
essere lievemente diversi rispetto a quelli derivati da altre fonti e riportati nel testo (Istituto Applicazioni di Calcolo
– CNR; Napoli).
7. Vi sono delle rare eccezioni come reazioni a livello sub-atomico, fusione o fissione nucleare e decadimento atomico spontaneo
degli isotopi radioattivi.
8. La chimica studia tutti gli spostamenti del carbonio nel suo ciclo. Mentre si muove da un comparto all’altro gassoso, liquido o
solido; mentre passa dai vegetali agli animali, ai minerali, e viceversa, l’atomo di carbonio si trasforma in composti chimici differenti. Diventa oggetto di studio dei biochimici (che studiano la chimica degli esseri viventi), dei chimici organici (che studiano i
composti del carbonio) e dei chimici inorganici che studiano i composti derivati dai minerali. I chimici analitici ne determinano le
concentrazioni, mentre i chimici fisici studiano la struttura della materia e i meccanismi generali che ne determinano le sue trasformazioni.
234
CO2
280 ppm
358 ppm
+1,5 ppm/anno
50-200
CH4
0,70 ppm
1,7 ppm
+0,01 ppm/anno
12
N2O
0,28 ppm
0,31 ppm
+0,0008 ppm/anno
120
Ogni anno si usa un quantitativo di combustibili fossili che corrisponde ad un contenuto in carbonio di cinque miliardi di tonnellate e secondo alcune stime la quantità relativa di CO2 emessa in
base agli usi dell’energia va da un massimo del 35% per le utenze varie, al 31% per i trasporti, 21%
per usi industriali, 7% per usi residenziali e, infine, 5% per usi commerciali.
La deforestazione può alterare enormemente gli equilibri del ciclo del carbonio. In condizioni naturali le grandi foreste agiscono da polmone del pianeta, fissano la CO2 e producono O2 e zuccheri; nel contempo emettono CO2 con la loro respirazione ed il carbonio che forma i loro tessuti
andrà a finire nel ciclo di tale elemento e potrà tornare a formare CO2. La deforestazione però riduce
notevolmente la capacità di fissazione della CO2 mediante fotosintesi traducendosi in un aumento
della concentrazione di anidride carbonica atmosferica. Annualmente viene tagliata o, peggio bruciata, una superficie di foresta pluviale pari a 150.000 Km2, l’equivalente della superficie della Svizzera
e dell’Olanda insieme. Se gli alberi vengono bruciati, oltre a perdere l’assorbimento di CO2 attraverso la fotosintesi, si forma molta anidride carbonica (1-2 miliardi di tonnellate di carbonio all’anno);
235
se sono tagliati, lasciando i detriti organici viene formata CO2 più lentamente per decomposizione
delle biomasse vegetali. Pur sostituendo la foresta con una superficie equivalente di campi coltivati ed
usando il legno per le costruzioni, si ha una perdita dell’80% in assorbimento di CO2 per via fotosintetica9.
La quantità totale di carbonio di origine antropica (combustibile e deforestazione) rilasciato in atmosfera è di 6-7 miliardi di tonnellate all’anno; circa la metà viene riciclata dagli oceani e dalla
biosfera, il resto rimane in atmosfera come quantità addizionale (3 miliardi tonnellate/anno) che si va
ad aggiungere alla base “naturale” (740 miliardi di tonnellate/anno; Fig. 2.9).
Tra i vari inquinanti atmosferici, a livello globale, la preoccupazione maggiore la desta proprio l’anidride carbonica che è legata all’effetto serra ed al riscaldamento globale. Sappiamo che il
surplus di 3 miliardi di tonnellate/anno di carbonio deriva da 11 miliardi di tonnellate/anno di anidride carbonica; per prevedere però quale sarà l’impatto nel futuro dobbiamo sapere quanta CO2 creiamo con le nostre attività (si veda ad es. il Box 2.2).
2.6 IL METANO E GLI ALTRI GAS SERRA
Recenti stime suggeriscono che circa la metà dell’effetto di riscaldamento globale della Terra sia
imputabile all’immissione in atmosfera di gas serra diversi dall’anidride carbonica. Tra questi il metano ha una capacità superiore di assorbire IR rispetto a quella dell’anidride carbonica. La sua concentrazione atmosferica è relativamente bassa, ma quella attuale di 1.7 ppm è raddoppiata rispetto all’epoca pre-industriale e dal 1979 viene indicato un aumento annuo dell’1% (Tabb. 2.2 e 2.3; Fig. 2.3).
Tab. 3.3. Potenziale di riscaldamento globale (PRG), struttura e vita media in atmosfera in anni (VMA) di alcuni dei
principali gas serra. Oltre all’anidride carbonica, al metano, al protossido d’azoto e all’esafluoruro di zolfo (SF6), sono
riportati diversi tipi di clorofluorocarburi (CFC), idroclorofluorocarburi (HCFC) e idrofluorocarburi (HFC).
Dati American Chemical Society, Università di Urbino e Carassiti et al. 1995.
Gas serra
CO2
CH4
N2O
SF6
CFC-11
CFC-12
CFC-113
CFC-114
Struttura
CFCl3
CF2Cl2
CF2Cl-CFCl2
CF2Cl-CF2Cl
PRG
1
7
158
22450
4680
10720
6039
9860
VMA
50-200
12
120
stabile
60
120
90
200
Gas serra
HCFC-22
HCFC-141b
HCFC-142b
HCFC-124
HFC-125
HFC-152a
HFC-134a
HFC-143a
Struttura
CHF2Cl
CH3-CCl2F
CH3-CF2Cl
CHFCl-CF3
CHF2-CF3
CHF2-CH3
CH2F-CF3
CH3-CF3
PRG
1780
713
1850
599
3450
129
1400
440
VMA
14
7,1
17,8
6
26
1,5
14
40
2.6.1 Il metano
Il metano proviene da un gran numero di sorgenti, sia antropiche che naturali; queste ultime
rappresentano il maggior contributo alle emissioni atmosferiche. È un gas naturale presente nel sottosuolo e può essere rilasciato in atmosfera attraverso fessurazioni della roccia. A tale contributo va a
sommarsi quello legato allo sfruttamento umano dei giacimenti naturali ed alla raffinazione del petrolio. Il metano è da sempre anche un prodotto della decomposizione delle biomasse vegetali, ma oltre
9. Dati American Chemical Society, 2000.
236
alle aree dove ciò avviene secondo i cicli naturali della materia, l’uomo ha aggiunto delle aree artificiali dove ciò avviene con le stesse modalità naturali, come le discariche e le foreste disboscate,
aumentando così la produzione. In alcuni casi il gas naturale prodotto dalle discariche (miscela di
metano ed altri idrocarburi) viene utilizzato per il riscaldamento delle abitazioni, ma solitamente esso
viene solamente incanalato e rilasciato in atmosfera.
L’agricoltura e la zootecnica contribuiscono all’incremento della produzione di metano da
fonti naturali. Un esempio sono le risaie e gli allevamenti intensivi di bovini, ovini e simili (alti numeri di capi in aree ristrette). Questi ultimi sono detti ruminanti e possiedono nel loro complesso sistema digestivo dei batteri simbionti che li aiutano a digerire la cellulosa presente nell’erba che brucano, che sarebbe altrimenti indigeribile. Il processo è in pratica una lunga fermentazione che avviene
nella struttura digestiva detta rumine, in cui, oltre alla degradazione della cellulosa in zuccheri più
semplici, si ha la formazione di metano. Questo viene poi immesso in atmosfera attraverso gli orifizi
del canale digerente. Se pensiamo che una sola mucca può produrre 500 litri di metano al giorno,
capiamo come le quantità in gioco siano significative; alcune stime parlano addirittura di 73 milioni
di tonnellate all’anno di CH4 prodotte dai ruminanti del globo! Anche le termiti hanno dei batteri simbionti che li aiutano a digerire lignina e cellulosa e producono metano. Per capire di che portata può
essere la loro produzione (una stima esatta è davvero difficile), pensiamo che si stima ci sia mezza
tonnellata di termiti per ogni abitante della Terra.
Esiste la possibilità che il riscaldamento del pianeta possa avere intensificato il rilascio di
metano dai sedimenti oceanici, dalle paludi, dalle torbaie e dal permafrost (il suolo perennemente
ghiacciato delle alte latitudini). In queste zone una considerevole quantità di metano rimane “ingabbiata” tra le molecole d’acqua, ma in caso di aumento della temperatura la “fuga” delle molecole di
metano risulta più probabile. Fortunatamente la vita media del metano in atmosfera è relativamente
breve (12 anni), soprattutto se la compariamo a quella dell’anidride carbonica (50-200 anni; Tab. 2.2);
infatti il metano viene prontamente convertito in specie chimiche meno dannose che entrano in altri
cicli di trasformazione. La complessità, dovuta alla numerosità delle sorgenti del metano e delle sue
molte trasformazioni chimiche possibili, rende difficile sapere con certezza quale può essere l’influenza del metano atmosferico sulla temperatura media del pianeta.
Accenneremo ora brevemente ad alcuni altri gas serra. Sarà interessante notare (vedi anche
Cap. 4) come alcuni di questi gas abbiano un ruolo sia nell’effetto serra che nel ciclo dell’ozono stratosferico.
2.6.2 L’ozono
Omero nei canti VII e XIV dell’Iliade e XII e XIV dell’Odissea descriveva l’odore aspro e pungente che l’aria acquista in seguito al passaggio di un temporale. Verso la fine del XVIII secolo fu
notato che lo stesso odore si presentava nelle vicinanze di alcune macchine elettriche, per questo motivo si pensò che fosse dovuto alla “presenza” di elettricità nell’aria. Il termine “ozono” deriva dal greco
“ozein” (“che ha odore”) e venne attribuito a questo gas nel 1840 da Christian F. Schönbein (17991868), professore all’Università di Basilea. Egli fu il primo ad intuire che questo strano odore era
dovuto alla presenza nell’aria di un gas che veniva formato in seguito al rilascio di scariche elettriche
nell’aria durante i temporali.
La molecola di ozono è stata isolata per la prima volta poco più di quarant’anni fa, perciò tale
gas viene studiato approfonditamente da un tempo relativamente breve. L’interesse che attualmente
riscuote l’ozono, non solo da un punto di vista scientifico, è principalmente dovuto a due fenomeni
della stessa gravità, ma di natura totalmente diversa: la riduzione dello strato di ozono stratosferico e
237
l’aumento della concentrazione di ozono troposferico. Sebbene in stratosfera l’ozono svolga un ruolo
fondamentale nella protezione della biosfera dai dannosi raggi ultravioletti, in troposfera, oltre ad
essere un pericoloso inquinante per gli esseri umani e vegetali, assume anche il ruolo di efficace gas
serra. Secondo l’Intergovernmental Panel on Climate Change (IPCC; commissione intergovernativa
sui cambiamenti del clima; 2001) l’ozono troposferico è il terzo gas in ordine di contribuzione all’assorbimento delle radiazioni IR in atmosfera, a partire dall’epoca preindustriale. Inoltre, essendo il precursore di OH- e NO3, i principali agenti ossidanti in atmosfera, l’O3 può influenzare notevolmente
la vita media e, quindi, il contenuto atmosferico di altri gas serra, come CH4 e idroclorofluorocarburi (HCFC, vedi prossimo paragrafo), assumendo così anche un ruolo indiretto nella determinazione
del processo di riscaldamento globale del pianeta.
Non è affatto facile stimare il contributo dell’ozono all’effetto serra. Infatti esso non si trova
come inquinante primario, non esistendo fonti antropiche e/o naturali. Lo troviamo solo come inquinante secondario, formato a seguito di complesse reazioni fotochimiche che coinvolgono varie molecole, quali gli idrocarburi e gli ossidi di azoto (NOx), considerate come precursori. Le relazioni che
legano le concentrazioni di O3 alle emissioni di molecole precursori risultano assai complesse e ciò
rende difficile la realizzazione di modelli affidabili.
Il contributo all’assorbimento ed alla emissione di radiazione IR da parte dell’ozono dipende
sensibilmente dalla quota e dalla zona del pianeta in cui esso si trova. Si stima, infatti, che la diminuzione di ozono registrata in stratosfera negli ultimi 50 anni abbia portato, come effetto netto, ad un
raffreddamento della superficie del pianeta. Al contrario, incrementi della concentrazione di ozono in
troposfera portano ad un aumento della temperatura media del pianeta.
Il fatto che già dal 1850 fosse stato sviluppato ed applicato, soprattutto in Europa, un metodo
chimico per effettuare misure di concentrazioni di ozono in troposfera (metodo di Schönbein), ci permette di confrontare in modo sufficientemente attendibile i dati storici con quelli odierni. Il livello di
ozono nella bassa troposfera è rimasto costante fino al 1950 circa; da quel periodo in poi fin quasi al
2000, in Europa, si è riscontrato un aumento di circa 1% per anno10.
2.6.3 Gli altri gas serra
Il protossido d’azoto (N2O), detto anche gas esilarante, viene usato come gas anestetico nelle
pratiche dentistiche e chirurgiche in genere. Quello presente in atmosfera viene emesso soprattutto
dagli oceani, dai suoli agricoli e non, oltre che da processi industriali e dalla combustione delle biomasse. Ha una vita media di 120 anni ed è un gas serra molto più efficace di CO2 e CH4. Negli ultimi 200 anni la sua concentrazione è stata in lenta, ma costante crescita (Tabb. 2.2 e 2.3).
I clorofluorocarburi (i famosi CFC o Freon) sono composti xenobiotici, infatti non esistevano
in natura prima che l’uomo iniziasse a produrli sinteticamente attorno al 1930. Erano usati soprattutto come propellenti per le bombolette spray, come fluidi refrigeranti (nei frigoriferi e in impianti di
condizionamento), come espandenti e come solventi. Oltre ad essere implicati nella distruzione del-
l’ozono stratosferico, agiscono da gas serra. Attualmente il loro utilizzo è vietato in tutte le Nazioni
che hanno firmato il “Protocollo di Montreal sulle Sostanze Dannose per l’Ozono Stratosferico”
(1987). La loro efficienza come gas serra è elevatissima, in quanto questi gas sono in grado di assorbire la radiazione IR in una regione delle spettro elettromagnetico in cui non assorbe nessuno dei gas
serra sopra elencati. Questa regione, detta finestra atmosferica comprende lunghezze d’onda tra gli 8
e gli 11 µm. I composti che a partire dal 1980 circa sono stati sintetizzati per sostituire i CFC sono gli
idroclorofluorocarburi (HCFC) e gli idrofluorocarburi (HFC). Entrambe le classi di composti sono
poco dannose per l’ozono, ma sono efficientissime come gas serra. CFC, HCFC, ed HFC, pur essendo presenti in atmosfera in concentrazioni molto basse (dell’ordine di 10-8%; per tale motivo sono
anche detti gas traccia), grazie alla loro elevatissima capacità di assorbire la radiazione IR, contribuiscono al riscaldamento globale (Fig. 2.10).
Bisogna ricordare che non tutti i gas serra hanno la stessa efficacia nell’assorbire ed emettere
raggi infrarossi, questa viene valutata attraverso il cosiddetto potenziale di riscaldamento globale
(PRG) confrontandola con la molecola di anidride carbonica (cui è stato dato valore 1; Tab. 2.3). I perfluorocarburi (PFC), un’altra classe di composti alogenati del carbonio ad effetto serra, hanno un PRG
cha varia approssimativamente da 7.000 a 12.000. I PFC sono in pratica idrocarburi in cui atomi di
fluoro sostituiscono tutti gli idrogeni presenti, sostituiscono i CFC nella produzione di refrigeranti e
semiconduttori e sono sottoprodotti della fusione dell’alluminio e dell’arricchimento dell’uranio. Uno
dei massimi PRG appartiene all’esafluoruro di zolfo (SF6; PRG= 22.450 circa), un composto stabile in
atmosfera usato come isolante termico ed elettrico. L’impatto di questo gas traccia va a sommarsi a
quello degli altri composti alogenati e la sua concentrazione sta aumentando rapidamente (4,6% all’anno). Il contributo percentuale dei diversi gas serra al riscaldamento globale è riportato in Fig. 2.10.
Figura 2.10. Apporto relativo dei principali gas serra al riscaldamento globale del pianeta (dati IPCC, 2001).
2.7 IL CAMBIAMENTO GLOBALE DEL CLIMA: ALCUNI SCENARI
10. Per studiare queste evoluzioni, particolarmente utili risultano le stazioni remote. In Italia, i siti di Plateau Rosà (Aosta), Monte
Cimone (Modena) e Lampedusa (Agrigento) sono ritenuti particolarmente adatti a misurare le concentrazioni dei gas costituenti il
fondo naturale della libera troposfera. Sono aree sufficientemente remote e tali da non risentire dell’influenza delle emissioni di
gas inquinanti sia di origine antropica che di origine naturale. Le stazioni di Plateau Rosà e Monte Cimone, situate in alta montagna, si trovano abitualmente al di sopra dello strato di rimescolamento atmosferico e nelle aree circostanti è quasi nulla l’attività
della vegetazione. Lampedusa è l’isola più remota al centro del Mar Mediterraneo, lontana da grandi aree industrializzate. Queste
tre Stazioni costituiscono la rete GREEN-NET (Rete Nazionale di Misura di Gas ad Effetto Serra), partecipano alla rete internazionale Global Atmosphere Watch (osservatorio globale dell’atmosfera) dell’Organizzazione Meteorologica Mondiale e sono parte
del World Data Centre for Greenhouse Gases (banca dati mondiale sui gas serra) con sede a Tokyo.
L’effetto dell’impatto antropico sul riscaldamento del pianeta è ormai accettato dalla maggior
parte del mondo scientifico, ma essendo così complessa la previsione dell’evoluzione dell’effetto serra
e dei cambiamenti globali del clima, non stupisce che talvolta gli scienziati si trovino in disaccordo.
La prima questione è quella dell’incremento dei gas serra: oggi verifichiamo un tasso d’aumento della loro concentrazione in atmosfera dell’1,5% annuo. Ciò è in massima parte dovuto all’aumento della popolazione mondiale, alle moderne pratiche agricole e all’industrializzazione.
Nell’ultimo secolo la popolazione si è triplicata e raddoppierà o triplicherà nel prossimo. La produ-
238
239
zione industriale è pari a 50 volte quella che era 50 anni fa e potrà decuplicarsi ancora nei prossimi
50. La produzione di energia è aumentata del 23%, in massima parte a seguito dell’utilizzo sempre
maggiore di combustibili fossili, causando un aumento della CO2 atmosferica che dovrebbe raddoppiare entro il 2030-2050 rispetto alla sua concentrazione stimata del 1860. Ciò potrebbe causare un
aumento della temperatura, che stime attendibili situano tra 1,0°C e 3,5°C.
Lo scenario che ci si presenterà nel 2100 potrebbe essere simile al periodo di massima temperatura verificatosi 130.000 anni fa. La temperatura media era di 16°C, per questo le calotte polari
erano più piccole e gli oceani avevano un livello di 5 m più alto. Se ciò avvenisse oggi, molte isole,
l’Olanda e buona parte del Bangladesh, sarebbero sommerse; milioni di persone dovrebbero essere
sfollate. Una situazione ancora peggiore potrebbe verificarsi se si rompesse la platea di ghiaccio: ciò
porterebbe ad un ulteriore aumento del livello dei mari di 15-95 cm mettendo in pericolo alcune grandi e famose città costiere come New York, Miami, Venezia, Bangkok e molte altre ancora.
Un aumento della temperatura causerebbe anche molti problemi a livello sanitario. Potrebbe
favorire la rapida moltiplicazione degli agenti patogeni, il che significherebbe un veloce sviluppo
delle epidemie. Inoltre, le mutate condizioni climatiche potrebbero permettere un ampliamento dell’areale di diffusione di agenti patogeni al momento confinati in alcune zone del globo; la diffusione
potrebbe essere sia diretta che indiretta, dovuta cioè all’ampliamento dell’areale dei vettori che veicolano i patogeni (come mosche e zanzare). Con un tale meccanismo, ad esempio, la malaria potrebbe arrivare anche in Europa e negli Stati Uniti.
Faremo ora qualche semplice esempio di scenari particolari dovuti ad un aumento della temperatura media globale, ottenuti grazie anche ai modelli computerizzati.
1) L’aumento della temperatura farebbe diminuire la solubilità dei gas in acqua, in quanto gli
oceani e gli specchi d’acqua rilascerebbero più CO2 in atmosfera. L’aumento di temperatura
che ne deriverebbe potrebbe, però, anche aumentare il tasso di crescita del fitoplancton, costituito da minuscoli esseri vegetali fotosintetici, che quindi eliminerebbero più anidride carbonica dall’atmosfera. Già, ma nella realtà potrebbe essere possibile anche l’inverso, cioè l’aumento della temperatura potrebbe influenzare il rimescolamento delle acque marine e diminuire
l’apporto dei nutrienti (principalmente azoto e fosforo), risultando in un effetto dannoso per la
crescita del fitoplancton.
2) Un aumento della temperatura globale porterebbe sicuramente ad una restrizione delle aree
coperte dai ghiacci; ciò diminuirebbe a sua volta la riflessione della radiazione solare da parte
della superficie terrestre (albedo), portando ad un ulteriore aumento della temperatura.
3) Un aumento della temperatura potrebbe permettere agli alberi di vivere a latitudini maggiori,
dove troviamo il permafrost colonizzato principalmente da muschi e licheni che sono molto
meno attivi nella fotosintesi rispetto alle piante superiori. Lo stesso fenomeno potrebbe, però,
portare ad una maggiore desertificazione alle basse latitudini, a seguito della diminuzione delle
precipitazioni e della più rapida evaporazione, diminuendo così la capacità di assorbimento di
CO2 per via fotosintetica.
4) La maggiore evaporazione creerebbe maggior umidità in atmosfera contribuendo ad aumentare l’effetto serra (abbiamo detto che il vapore acqueo è considerato un gas serra). Si formerebbero anche più nubi. Ad ogni modo sembra che quelle basse contribuiscano all’effetto serra,
mentre quelle alte siano più efficaci nell’intercettare la radiazione solare; quindi l’effetto netto
delle nubi pare essere quello di un raffreddamento.
240
Un altro effetto di raffreddamento può essere dato dagli aerosol. Questi solitamente consistono
di minuscole particelle di solfato d’ammonio, (NH4)2SO4, che si formano a partire dall’anidride
solforosa (o biossido di zolfo, SO2) rilasciata da fonti naturali (vulcani, ecc.) o artificiali (uso dei combustibili fossili, ecc.). L’effetto di raffreddamento si deve alla riflessione ed alla diffusione di parte
della radiazione solare che arriva sulla Terra.
Questi scenari sono sicuramente catastrofici, ma dobbiamo tener conto del fatto che tutti questi cambiamenti, se ci saranno, saranno probabilmente graduali e, pertanto, ci sarà modo di adottare
delle contromisure, se ce ne sarà la volontà politica a livello globale.
3. LA DISTRUZIONE DELL’OZONOSFERA
L’ozonosfera si estende principalmente tra i 20 ed i 35 Km di altitudine, ma può arrivare fino
a 50-55 Km (stratosfera superiore e mesosfera). Qui l’ossigeno si concentra nella sua forma di molecola tri-atomica (O3), l’ozono, il quale si forma a partire dalla comune molecola bi-atomica dell’ossigeno (O2) per assorbimento dei raggi ultravioletti (UV), proteggendo così la superficie terrestre da
una tale eccessiva e nociva irradiazione. A causa dell’assorbimento della radiazione UV, nello strato di ozono si raggiungono temperature più elevate rispetto agli strati contigui.
Ogni anno, in settembre-ottobre (periodo primaverile nell’emisfero australe), la concentrazione dell’ozono stratosferico antartico diminuisce a causa di variazioni naturali. Questo fenomeno, come altri che
abbiamo discusso, va incontro ad una sorta di amplificazione antropica; infatti a causa degli inquinanti
immessi in atmosfera, a partire dal 1980 circa, questa periodica riduzione è diventata sempre maggiore ed
il fenomeno è stato indicato dai mass media come “buco dell’ozono” dell’Antartide. Ultimamente è stato
scoperto un buco dell’ozono minore al Polo Nord, sopra il Mare Artico.
Il “buco” antartico riflette in maniera evidente la generale e graduale diminuzione della
concentrazione stratosferica di questo gas. Come vedremo, il corrispondente aumento di UV che giungono sulla superficie della Terra ha conseguenze gravi sugli animali (uomo compreso) e sull’ambiente.
3.1 L’OZONOSFERA
In massima parte l’ozono si forma a 30 Km di altezza circa (stratosfera), in corrispondenza della
zona equatoriale dove risulta più rilevante l’irraggiamento solare. Curiosamente i raggi UV possono catalizzare sia la formazione, che la distruzione della molecola di ozono. Gli UV con
λ < 242 nm (o 0,242 µm) dissociano l’ossigeno molecolare (O2) in ossigeno atomico (O), questo presenta un’elevata reattività (essendo un cosiddetto radicale; rappresentato meglio come O•) e si combina rapidamente con O2 originando l’ozono (O3). Nella reazione opposta, le molecole di ozono, che si formano
con la precedente reazione, assorbono le radiazioni solari con 240 < λ < 340 nm, che hanno energia tale
da provocare la fotolisi dell’ozono (scissione mediante luce), si liberano così un atomo ed una molecola
di ossigeno, O• può quindi reagire con altre molecole, ad esempio con O3 o un altro O•, e formare O2.
Quindi per quanto riguarda le radiazioni in gioco, esse sono tutte UV, ma è fondamentale la loro
lunghezza d’onda. Queste due reazioni fotochimiche portano ad un equilibrio dinamico che mantiene
la concentrazione dell’ozono costante e permette di filtrare buona parte degli UV. Si ritiene che in questo modo si producano (e si distruggano) globalmente circa 4.000 tonnellate di O3 al secondo. Dalle
zone equatoriali l’ozono viene poi trasportato verso i poli dai venti stratosferici che confluiscono nelle
aree cicloniche polari (i vortici polari).
241
Le osservazioni da satellite e dalla Terra hanno permesso di valutare la distribuzione media dell’ozono totale sia in funzione della latitudine che della stagione (Fig. 3.1). L’ozono viene solitamente misurato come ozono presente in una colonna d’aria che si estende dalla superficie terrestre fino al
limite superiore dell’atmosfera; l’unità di misura dell’O3 usata è l’Unità Dobson (DU)11.
Alle latitudini tropicali i livelli di ozono oscillano nel corso dell’anno da 250 a 300 DU, tale
valore si mantiene praticamente stabile perché l’attività fotochimica avviene a carico dell’irraggiamento solare che è costante. Ad altre latitudini le variazioni sono maggiori, la concentrazione massima di O3 si trova alle latitudini medio-alte. Alle diverse longitudini si possono avere escursioni limitate della concentrazione dovute all’alternarsi delle terre emerse e dei mari. Oltre a questi fattori, notevoli oscillazioni annuali (anche del 40%) sono legate alla variabilità naturale, mentre fenomeni sporadici e locali (ad es. le eruzioni vulcaniche) possono provocare variazioni anche del 10%. Altre variazioni anche significative sono dovute alle condizioni meteo locali.
Figura 3.1. Concentrazione dell’ozono stratosferico in Unità Dobson (DU).
A: Rappresentazione tridimensionale del buco dell'ozono, realizzata sulla base dei dati di concentrazione dell'ozono
stratosferico (Goddard Space Flight Center, NASA; USA). In primo piano, in penombra, è visibile il Sud America.
B: Elaborazione grafica che rappresenta la distribuzione dell'ozono nell’emisfero boreale in data 1° settembre 2002
(World Meteorological Organization, United Nations Specialized Agency). Il profilo dell’Italia è visibile in basso al
centro.
L’interazione tra inquinanti di origine antropica ed ozono è stata ampiamente provata. A prescindere dalle variazioni cicliche naturali, l’aumento costante dell’emissione di alcuni gas inquinanti
sta causando una graduale diminuzione dell’ozono stratosferico. Dal 1979 ad oggi la diminuzione
della concentrazione di ozono alle latitudini più popolose è stata circa pari al 20-25% e a latitudini
maggiori la diminuzione è stata ancora più elevata.
In Antartide il buco dell’ozono si riforma periodicamente all’inizio della primavera australe (settembre), portando ad un repentino assottigliamento dell’ozonosfera (anche del 60%) che dura per circa
60 giorni. Alla fine del fenomeno, però, il “buco” non si richiude mai completamente e si ripresenta
con dimensioni sempre maggiori l’anno successivo. L’assottigliamento risulta più marcato ai poli per
l’azione determinante che hanno le basse temperature sui meccanismi di degradazione dell’ozono.
11. L’Unita Dobson (DU) fu così chiamata in onore di G.M.B. Dobson (1889-1976), uno dei primi scienziati a studiare l’ozono
atmosferico. Una DU definisce l’ozono presente in una colonna di atmosfera che, riportato su tutta la superficie della Terra, presenti uno spessore di 0,01 mm, in condizioni standard di pressione e temperatura (0°C, 1 atm). In pratica 1 DU corrisponde ad un
volume di circa 5x109 m3, o a circa 2,69x1016 molecole di ozono in una colonna di atmosfera con sezione di 1 cm2, in condizioni standard.
242
3.2 DISTRUZIONE DELL’OZONO
La continua e graduale distruzione dell’ozono della stratosfera può essere ricondotta alla presenza di un gran numero d’inquinanti gassosi atmosferici in grado di reagire con l’ozono degradandolo; questi sono di solito stabili nella troposfera e si degradano fotochimicamente in seguito all’irraggiamento UV nella stratosfera e la loro degradazione forma atomi di cloro e di bromo molto reattivi nei confronti dell’ozono (radicali Cl• e Br•).
Le sostanze che più hanno influenza nella distruzione dell’ozonosfera sono proprio i radicali
Cl• e Br•, derivati dei clorofluorocarburi (CFC) e bromofluorocarburi, i quali sono anche attivissimi
gas serra. Come abbiamo già detto, i CFC sono composti costituiti da cloro, fluoro e carbonio, la cui
produzione è stata ormai bandita, utilizzati soprattutto come refrigeranti ed agenti propellenti.
Altri composti implicati nel fenomeno sono gli idroclorofluorocarburi (HCFC), una classe di
composti chimici attualmente utilizzati in via temporanea per rimpiazzare i CFC. Contenendo meno
cloro sono meno attivi nel deterioramento della fascia di ozono nella stratosfera; inoltre sono molto
meno persistenti in atmosfera avendo una vita media in atmosfera che può variare da 1,5 a 40 anni
contro i 60-400 dei CFC12. Ad ogni modo anche la produzione di HCFC dovrà essere abbandonata
(nell’anno 2020 nei Paesi industrializzati), perché sono efficientissimi gas serra.
I bromofluorocarburi contengono bromo al posto del cloro e sono utilizzati negli estintori per spegnere gli incendi. Questi sono molto più efficaci nella distruzione dell’ozono, perché contengono il bromo
che è più reattivo, ma per fortuna sono molto meno usati e quindi meno concentrati in atmosfera.
Tutte le sostanze gassose emesse in atmosfera che contengono cloro o bromo sono quindi
potenzialmente dannose per l’ozono; ne sono un esempio i comuni solventi industriali metilcloroformio (o 1,1,1-tricloroetano, CH3CCl3) e tetracloruro di carbonio (o tetraclorometano, CCl4).
La presenza dei su citati inquinanti ha alterato il ciclo naturale dell’ozono: la sua distruzione è
marcata nell’atmosfera antartica durante l’inverno australe (giugno-settembre) periodo in cui l’insolazione è minima e si acuisce l’azione del vortice polare. Quest’ultimo isola grandi masse d’aria sulla
verticale del Polo (esse sono come intrappolate nell’occhio di un ciclone), le quali diventano sempre
più fredde a causa dell’assenza dei raggi solari e della mancanza di scambi termici con altre masse
d’aria. Quando la temperatura raggiunge i -80°C, si formano nubi di acqua ad alto contenuto di acido
nitrico in forma gassosa (che si forma a partire dal NO2) dette nubi stratosferiche polari. Queste nubi
funzionano da catalizzatore: sulla superficie delle loro particelle si creano condizioni che favoriscono una catena di reazioni che porta alla liberazione di cloro (Cl2) e bromo molecolare (Br2) dagli
inquinanti alogenati. All’inizio della primavera australe, il ritorno dell’insolazione provoca la dispersione delle nubi stratosferiche polari e la radiazione solare causa la scissione delle molecole di cloro
e bromo in singoli atomi altamente reattivi (radicali). Questi danno inizio ad una serie di reazioni
autocatalitiche a catena che comportano in ultimo la degradazione dell’ozono. Infatti i radicali cloro
e bromo agiscono a loro volta come catalizzatori, combinandosi ripetutamente con molecole di ozono
e formando una molecola di ossigeno e una di monossido di cloro o bromo (ad es. Cl• + O3 → O2 +
ClO). Il monossido si combina poi con un radicale di ossigeno (derivato dalla fotolisi di O2 o O3) liberando ossigeno molecolare e un atomo dell’alogeno che ricomincia il processo (ad es. ClO + O• →
O2 + Cl•). In questo modo pochi radicali Cl• e Br• portano alla degradazione di molte molecole di O3.
12. Dati di Carassiti et al. (1995) – “Un’introduzione alla chimica dell’atmosfera” in La Protezione dell’Ambiente in Italia – I.
Bertini, R. Cipollini e P. Tundo Edd. Pubblicato da Società Chimica Italiana, Consiglio Nazionale delle Ricerche e Consorzio
Interuniversitario “La Chimica per l’Ambiente”.
243
La reazione di degradazione di O3 termina solo quando questi radicali reagiscono con altre specie chimiche come il metano, il perossido di idrogeno (H2O2) e l’idrogeno molecolare (H2), in quanto non
si formano più Cl• e Br• e la reazione a catena si interrompe.
3.3 EFFETTI SULLA FAUNA, SULLA FLORA E SULL’AMBIENTE
Allo stato attuale la diminuzione dell’ozono stratosferico non rappresenta una minaccia immediata per la salute dell’uomo e degli animali, anche perché al momento l’effetto maggiore si ha in zone
scarsamente abitate. Inoltre diversi organismi viventi hanno sviluppato particolari meccanismi di protezione dall’azione dei raggi UV-B, alcuni bloccano le loro attività e si rifugiano in zone in ombra
durante i periodi giornalieri di maggiore insolazione, altri si proteggono con dei pigmenti, altri ancora possiedono dei meccanismi di riparazione del DNA e/o dei tessuti danneggiati. Questi meccanismi
diventano però insufficienti a livelli eccessivi d’irradiazione UV-B, per cui se il “buco dell’ozono”
dovesse raggiungere dimensioni critiche, il rischio potrebbe diventare elevato. Secondo recenti stime,
una diminuzione dell’1% della concentrazione di ozono potrebbe comportare un aumento delle radiazioni ultraviolette al suolo pari all’1,2%. Questi raggi, soprattutto gli UV-B, sono assorbiti dalle molecole di DNA ed RNA e causano rotture nelle loro catene, ciò causa la comparsa di vari tipi di tumore dell’epidermide (melanomi, ecc.). Un altro effetto possibile sugli animali è l’immunodepressione,
cioè una diminuzione dell’immunità (produzione di anticorpi e di cellule immunitarie) che aumenta
la suscettibilità alle malattie. L’effetto fisiologico più evidente e diretto è il danno da UV a carico della
retina dell’occhio, dove tali raggi provocano patologie di gravità diversa a seconda della dose, fino
alla cecità, relativamente più diffuse in zone equatoriali dove è maggiore l’irraggiamento. Per questi
motivi nelle stagioni più assolate in occasione di viaggi in zone (sub)equatoriali è importante riparare occhi e cute dall’eccesso di UV.
Dato che queste radiazioni non sono penetranti, vengono assorbite solo dei pochi strati superficiali di cellule. Ciò comporta che gli esseri piccoli o unicellulari siano i più danneggiati. In effetti
gli organismi marini, che costituiscono il fitoplancton e lo zooplancton e giocano un ruolo cruciale
nelle reti trofiche marine, sono estremamente sensibili e per alcuni di loro il livello attuale d’irraggiamento UV è quasi al limite della nocività. In questo caso anche un aumento limitato dei livelli degli
UV-B potrebbe diminuire la varietà ed il numero delle specie presenti, con ripercussioni su tutta la
comunità acquatica.
Sulle piante superiori le radiazioni UV comportano in genere un rallentamento della crescita,
dovuto all’effetto di riduzione della superficie fogliare, area deputata alla cattura dell’energia solare
per la fotosintesi. In piante irradiate artificialmente con raggi UV si verifica sempre un decadimento
generale ed una riduzione delle dimensioni. Non sono attualmente disponibili informazioni scientifiche accurate sugli effetti causati dai raggi UV per tutti gli ecosistemi vegetali, finora sono state studiate approfonditamente solamente le foreste temperate, le praterie, la tundra, le zone alpine e soprattutto le aree coltivate. I risultati non sono generalmente incoraggianti; una delle stime indica che ad
una diminuzione del 25% della concentrazione dell’ozono stratosferico corrisponde una percentuale
equivalente di riduzione nella resa della soia. Ad ogni modo, va considerato che la maggior parte di
questi studi avvengono ancora su scala di laboratorio o di serra e che le varie specie vegetali mostrano un ampio spettro di resistenza agli UV. Le specie selvatiche, infatti, presentano solitamente una
resistenza maggiore rispetto alle corrispondenti specie coltivate.
244
3.4. DISTRUZIONE DELL’OZONOSFERA ED EFFETTO SERRA
Leggendo questo capitolo vi sarete accorti che in vari punti sono richiamati collegamenti ed
interconnessioni tra effetto serra e distruzione dello strato di ozono. Questo è proprio un esempio di
cosa vuol dire la frase “cambiamento globale del clima”, tutte le variabili sono più o meno collegate
e contribuiscono al mutamento che sta alla base della difficoltà della realizzazione dei modelli predittivi (§ 2.2). Per brevità e semplicità non abbiamo trattato, se non con brevi accenni, ad altri effetti
dell’inquinamento che possono riflettersi in cambiamenti sia del clima che della biosfera, ad esempio
le piogge acide e lo smog fotochimico.
Vorremmo in ultimo riassumere le differenze e le similitudini più evidenti tra effetto serra
e distruzione dell’ozonosfera. Siamo ben consci che con quest’operazione effettuiamo una semplificazione estrema, che come tale va considerata, ma ci sembra che comunque sia un valido strumento
per mettere a fuoco alcuni aspetti fondamentali (Tab. 3.1).
Tab. 3.1. Relazioni tra effetto serra e distruzione dell’ozonosfera.
Strato atmosferico coinvolto
Gas coinvolti
Radiazioni coinvolte
Natura del problema
Cause fondamentali
Possibili conseguenze
Possibili soluzioni
Effetto serra
Principalmente troposfera.
Gas serra (CO2, H2O, CH4,
N2O, CFC, HFC, PFC); O3
a livello troposferico.
IR, assorbiti e riemessi in
parte verso la Terra.
L’aumento della concentrazione
dei gas serra sta apparentemente
portando ad un aumento globale
della temperatura media della Terra.
Emissione CO2 da utilizzo di
combustibili fossili e
deforestazione; aumento di CH4
da agro-zootecnia.
Cambiamento del clima ed
alterazionedella produzione agricola,
aumento dei livelli dei mari.
Diminuzione dell’utilizzo di
combustibili fossili; terminare o
diminuire la deforestazione.
245
Distruzione ozonosfera
Stratosfera.
O2, O3, CFC, bromofluorocarburi
ed HFC.
UV (soprattutto UV-B) che
degradano i gas atmosferici alogenati
liberando Cl• e Br•.
La diminuzione della concentrazione
di O3 sta apparentemente causando
l’aumento dell’esposizione a UV.
Rilascio di clorofluorocarburi e
bromofluorocarburi da sistemi
refrigeranti, agenti schiumogeni,
bombolette spray e solventi; rilasciano
Cl• e Br• che distruggono O3.
Aumento dei tumori della pelle,
danno al fitoplancton e distrofia
nei mari.
Sostituire CFC e molecole simili
con altre eco-compatibili.
4. LE PROSPETTIVE FUTURE
Dobbiamo chiarire che l’effetto serra nasce con la comparsa dei gas serra in atmosfera (CO2, CH4
e H2O) e che, come abbiamo detto più volte, è fondamentale a mantenere condizioni di vita ideali sulla
Terra, che senza questo effetto atmosferico avrebbe una temperatura media attorno ai –18°C. Secondo
l’American Chemical Society, la preoccupazione degli scienziati sta nel fatto che, seppure ancora non
ci siano certezze, alcune prove sperimentali ci inducono a credere che questo aumento della temperatura media globale, dovuto ad una sempre maggior emissione di gas serra, sia seriamente possibile.
4.1 LA REALTÀ SULL’EFFETTO SERRA
Sappiamo per certo che una maggior concentrazione di anidride carbonica in atmosfera contribuisce all’innalzamento della temperatura. Ne abbiamo varie prove, come le temperature della Terra e
di Venere e il meccanismo di assorbimento e rilascio dei raggi infrarossi da parte delle molecole.
• Abbiamo prove analitiche che la concentrazione atmosferica di anidride carbonica è aumentata nell’ultimo secolo.
• Ci sono evidenze che le attività antropiche, come l’utilizzo di combustibili fossili e la deforestazione, abbiano contribuito, almeno parzialmente, all’incremento della concentrazione di anidride
carbonica.
• Inoltre è molto probabile che ci sia stato un aumento della temperatura media globale nell’ultimo secolo. I dati analitici concordano con questa tesi; le modellazioni al computer, le analisi dei
carotaggi dei ghiacci, gli anelli di accrescimento degli alberi ed il tasso di crescita dei coralli indicherebbero un aumento di 0,5°C (± 0,2°C) e attesterebbero il ventesimo secolo come il periodo più
caldo a partire dal 1400.
• Si ritiene possibile che l’anidride carbonica e gli altri gas serra di origine antropica abbiano
contribuito all’aumento di temperatura dell’ultimo secolo. Si stanno accumulando varie prove scientifiche a supporto di questa ipotesi, ma ancora non giustificano una conferma definitiva.
• Poiché molte delle affermazioni precedenti non sono definitivamente provate, non possiamo
affermare con certezza che la temperatura media del pianeta continuerà a crescere in futuro all’aumentare dell’emissione in atmosfera di gas serra di origine antropica. L’incertezza è peraltro aumentata dalla complessità e dalla non completa affidabilità dei modelli predittivi applicati su scala globale.
4.2 IL PROTOCOLLO DI KYOTO
Proprio questa incertezza sugli sviluppi dell’effetto serra e sul cambiamento globale del clima
ha portato alla ratifica del cosiddetto “protocollo di Kyoto”. In questa città giapponese, nel Dicembre
1997, diecimila partecipanti provenienti del mondo scientifico, politico ed economico di 159 nazioni
hanno collaborato alla stesura di un documento programmatico per la riduzione graduale dell’emissione di gas serra da parte dei Paesi industrializzati ed in via di sviluppo, da realizzarsi definitivamente
entro il periodo 2008-2012.
Un quadro della situazione dell’applicazione del protocollo di Kyoto in Europa ce lo fornisce
l’Agenzia Europea per l’Ambiente (in sigla EEA, dall’inglese European Environment Agency) in una
pubblicazione del Dicembre 2003.
Secondo la EEA, in sintesi, gli stati europei nel loro complesso sono in ritardo nel raggiungimento degli obiettivi di Kyoto previsti per l’Europa: riduzione dell’8% delle emissioni rispetto ai
246
livelli del 1990. Inoltre dieci stati membri non sembrano poter ottenere gli obiettivi nazionali con le
misure fin qui adottate. Sembra comunque che né le politiche locali, né quelle comunitarie potranno
far sì che l’Europa raggiunga gli obiettivi di Kyoto in tempo (Fig. 4.1). Infatti con le sole misure fin
qui attuate si prevede al 2010 una riduzione dell’emissione di solo lo 0,5% nei confronti dei livelli del
1990. Per questo sono state prese misure addizionali, incluse in varie direttive europee che potranno
possibilmente portare ad una riduzione finale dell’emissione di gas serra del 5,1%. Tali misure prevedono l’accordo europeo commerciale sui gas serra, l’incentivazione alla produzione di energia elettrica da fonti rinnovabili e della produzione combinata di calore ed energia, la diminuzione del consumo energetico negli edifici e nei grandi stabilimenti industriali, l’uso di elettrodomestici a basso
consumo energetico. Altre misure comprendono l’adozione di biocombustibili nei trasporti (ad es. gas
naturali), la riduzione delle emissioni di anidride carbonica delle auto, la diminuzione del conferimento di rifiuti biodegradabili in discarica, il recupero dei gas naturali dalle discariche (CH4 ed altri)
e la riduzione dei gas fluorurati in genere (tra cui i CFC). L’intenzione degli stati europei sembra essere quella di sfruttare la flessibilità del protocollo di Kyoto e di introdurre anche metodi di rimozione
attiva del carbonio atmosferico.
4.2.1 Gli obiettivi di Kyoto dell’Unione Europea
Il fine ultimo del protocollo di Kyoto è contribuire al raggiungimento di un livello sostenibile di
emissione di gas serra, un livello cioè che non danneggi l’ambiente e il clima e che, altresì, non richieda una tale limitazione di attività umane da comportare una recessione economica. Questo obiettivo
sarebbe raggiungibile se fosse possibile una riduzione globale del 50-70% delle emissioni mondiali.
Il protocollo di Kyoto è solo un primo passo e prevede la riduzione dell’emissione di sei gas
serra: CO2, CH4, HCFC, PFC, N2O, e SF6. La diminuzione percentuale richiesta varia a seconda della
nazione considerata. Diversamente da Stati Uniti e Russia, l’Europa ha già ratificato l’accordo, nel
suo complesso l’obiettivo è una riduzione di emissione dell’8% rispetto ai livelli del 1990 entro il
periodo 2008-2012. I vari stati membri si sono poi accordati sui traguardi nazionali nel cosiddetto
accordo di burden-sharing (suddivisione del carico). Alcuni stati membri potranno tenere invariati i
loro livelli di emissione considerando il buon rapporto emissione/economia già ottenuto (Francia e
Finlandia), altri come Svezia, Irlanda, Portogallo, Grecia e Spagna potranno addirittura aumentarli,
mentre ai restanti è, comunque, a vario titolo richiesta una riduzione delle emissioni (emissione eccessiva, possibilità di ulteriore diminuzione, ecc.). A tutti i paesi candidati o in fase d’ingresso nella
Unione Europea è stato richiesto un livello di riduzione dell’8% ad eccezione della Polonia e
dell’Ungheria (6%). In queste nazioni le emissioni di gas serra sono sostanzialmente diminuite dal
2001; ad eccezione della Slovenia, sembra che possano raggiungere i loro obiettivi nazionali.
Nel 2001 purtroppo le emissioni rispetto al 1990 erano ridotte del solo 2,3%, appena un quarto di quanto richiesto. Secondo le previsioni solo cinque paesi saranno in grado di rispettare gli obiettivi del burden-sharing grazie alle loro politiche nazionali (Francia, Germania, Lussemburgo, Svezia
e Gran Bretagna), gli altri dieci sembrano avviati ad un fallimento con i risultati peggiori previsti per
Irlanda, Portogallo e Spagna.
Nel 2001 l’apporto percentuale di gas serra dei vari settori economici era (dati EEA):
• del 28% per il settore della produzione di energia (centrali elettriche e raffinerie, apporto
soprattutto dovuto alla produzione di CO2);
• del 21% dal settore dei trasporti (apporto di CO2 ed NOx - ossidi d’azoto);
247
• del 20% dall’industria manifatturiera (apporto di CO2, ma anche di NOx e gas fluorurati);
• del 10% dall’agricoltura (CH4 dal bestiame e NOx dai fertilizzanti);
• il restante proviene da altre fonti (principalmente emissione di CO2 dovuto all’uso di combustibili fossili per il riscaldamento di case private ed esercizi commerciali).
Dal 1990 al 2001 le emissioni sono generalmente diminuite in tutti i settori con l’eccezione dei
trasporti. Sebbene dal 1990 al 2001 nel settore della produzione di energia l’emissione di gas serra sia
diminuita del 2%, la produzione è aumentata del 23% mostrando un valido rapporto tra emissione e
produzione.
Nel settore dei trasporti dal 1990 al 2001 c’è stato un aumento del 20% delle emissioni (in
maggior parte dovuto a trasporto su gomma). Oltretutto l’apporto di CO2 dall’aviazione e dalla navigazione (non inclusi nell’accordo di Kyoto) assommano al 6% delle emissioni europee, con un
aumento del 44% dal 1990.
Nell’industria manifatturiera l’emissione di CO2 da uso di combustibili fossili è diminuita del
9% grazie all’utilizzo di sistemi con maggiore resa energetica. La produzione di NO da parte delle
industrie chimiche che producono acido adipico è calata del 54%. La produzione di gas idrofluorocarbonici (HCFC), è aumentata del 400% dal 1995 al 2001, ammontando ora allo 0,8% dei gas serra
presenti in atmosfera.
La produzione di ossido nitroso (NO) dall’agricoltura è diminuita grazie alla riduzione dell’uso di fertilizzanti azotati prevista dalle politiche agricole comunitarie. La produzione di metano da fermentazione enterica dei ruminanti è diminuita a seguito della riduzione del numero dei capi e anche
grazie all’adozione di opportune politiche agricole.
Le emissioni dovute ad attività domestiche erano rimaste praticamente costanti fino al 2001,
quando sono improvvisamente aumentate del 7% a causa degli inverni particolarmente rigidi che
hanno aumentato il consumo di combustibili per riscaldamento. Fortunatamente il tasso di crescita di
tali emissioni è rallentato grazie all’adozione di gas naturali e biomasse come combustibili per riscaldamento ed alla diffusione di efficienti sistemi di isolamento termico nelle costruzioni.
Per quanto riguarda il settore della gestione dei rifiuti, la produzione di metano dalle discariche
è diminuita del 28% grazie all’adozione della direttiva europea e a normative nazionali che mirano a
ridurre la quantità di rifiuti biologici non trattati immessi in discarica e ad introdurre sistemi di recupero dei biogas.
tiche d’incentivazione all’uso del trasporto su rotaia o su acqua. Sebbene limitino la presenza di altri
inquinanti (CO, SOx, NOx) l’uso delle marmitte catalitiche nelle auto a benzina porterà ad lieve
aumento di NO in atmosfera. L’anidride carbonica emessa dalle auto è diminuita del 10% circa dal
1995 al 2001, ciò vuol dire che il limite di 140 g di CO2 emessa per chilometro percorso entro il 20082009 (stabilito in accordo con le aziende automobilistiche) è tecnicamente raggiungibile.
Le emissioni di gas serra da parte dell’agricoltura sono previste in calo, grazie alla continua
diminuzione dei capi di bestiame ed all’ulteriore riduzione dell’uso dei fertilizzanti nitrati.
Nel settore dell’industria manifatturiera si prevede che le concentrazioni di ossido nitroso
emesse dovrebbero continuare a diminuire fino al 2010, ma gli effetti benefici dovrebbero essere in
parte negativamente bilanciati dal continuo aumento di idrofluorocarburi destinati alla sostituzione
completa dei clorofluorocarburi e bromofluorocarburi.
Anche nel settore della gestione dei rifiuti ci si aspetta una diminuzione finale dell’emissione
di gas serra pari a circa il 50% nel periodo 1990-2010, grazie al proseguimento dell’applicazione della
direttiva sulle discariche che prevede il recupero obbligatorio dei biogas.
Figura 4.2. Riduzione delle emissioni di carbonio (come milioni di tonnellate di CO2) previste per vari settori nei paesi
membri europei per il 2010 a seguito delle misure e politiche esistenti e di quelle addizionali intraprese, a seguito della
previsione di mancato raggiungimento degli obiettivi di Kyoto (European Environmental Agency, EEA, 2003).
4.3 LE PROSPETTIVE
Come abbiamo accennato, varie direttive europee sono state emanate, come misure addizionali, per la riduzione delle emissioni nei settori della produzione di energia, dei trasporti, delle industrie
manifatturiere e per la gestione dei rifiuti. Dai modelli predittivi utilizzati ci si aspetta che nei Paesi
membri queste potranno portare ad una netta diminuzione dell’emissione di carbonio in atmosfera da
parte dei vari settori produttivi (Fig. 4.2).
Per ciò che riguarda le prospettive future della emissioni da parte del settore della produzione ed utilizzo di energia (trasporti esclusi), con l’attuazione di misure addizionali nazionali nel
2010 si dovrebbe avere una diminuzione netta del 6% rispetto al 1990. Non verranno invece raggiunti i livelli previsti per l’utilizzo di fonti rinnovabili e per la produzione combinata di energia e calore.
Nel settore trasporti si prevede un aumento del 34% delle emissioni nel periodo 1990-2010, ciò
a seguito del sempre maggior aumento del trasporto su gomma di merci e persone, nonostante le poli-
Fin qui abbiamo discusso di ciò che potremmo definire come strumenti passivi di riduzione
delle emissioni, nel senso che mirano solo a limitare l’emissione in modo da fare abbassare le concentrazioni in atmosfera grazie al tempo ed alla circolazione delle masse d’aria. Oltre a questi, otto
stati membri (Austria, Belgio, Finlandia, Olanda, Portogallo, Spagna, Svezia e Gran Bretagna), pur
avendo espresso l’intenzione di voler usare la flessibilità delle scadenze di Kyoto, hanno anche manifestato l’intenzione di usare degli strumenti attivi di rimozione della CO2 atmosferica, prevedendo di
eliminare entro il 2008-2012 circa dieci milioni di tonnellate di CO2 con pratiche forestali (ripristino
della forestazione) e altri tre milioni all’anno con pratiche agricole mirate. Il totale di queste rimozioni attive assommerebbe al 4% della diminuzione di CO2 richiesta all’Europa da Kyoto.
Sono stati anche proposti altri sistemi di rimozione attiva, come il pompaggio di CO2 nei fondali oceanici o la fertilizzazione degli oceani con ferro per promuovere la crescita e, conseguente-
248
249
mente, l’attività fotosintetica del fitoplancton. Mentre il primo è stato contestato per i potenziali danni
ai coralli, il secondo è stato testato su scala ridotta, ma l’aumento del fitoplancton ha indotto un parallelo aumento del suo “predatore”, lo zooplancton, portando alla fine al riequilibrio della popolazione
del fitoplancton e ad un effetto netto di rimozione della CO2 trascurabile.
4.3.1 Il ruolo della Green Chemistry nei cambiamenti climatici
Già nel 1912 Giacomo Ciamician (Trieste, 1857 – Bologna, 1922), senatore del Regno d’Italia
per meriti scientifici, scriveva sulla prestigiosa rivista Science:
“Su aride terre sorgeranno industrie senza inquinamento e senza ciminiere; foreste di tubi di
vetro si estenderanno nelle pianure e palazzi di vetro sorgeranno dovunque; al loro interno avranno
luogo quei processi fotochimici che finora sono stati un segreto geloso delle piante, ma che saranno
controllati dall’industria umana che avrà imparato come renderli più produttivi della stessa natura.
Infatti la natura non ha fretta, l’umanità sì.”
Ciamician è il padre fondatore della Green Chemistry; egli si rese conto con ampio anticipo degli effetti che le attività antropiche avrebbero avuto sull’ambiente e negli ultimi periodi della sua
carriera concentrò i suoi studi sull’utilizzo della luce come “reagente pulito” per la sintesi di molecole d’interesse come chetoni, aldeidi e composti dell’azoto.
La Green Chemistry (chimica verde, sostenibile, eco-compatibile) avrà un ruolo fondamentale
nel ridurre sia i fenomeni che stanno alla base dell’effetto serra sia quelli responsabili della comparsa del buco dell’ozono; infatti il termine Green Chemistry è definito in breve come: l'invenzione, la
progettazione e l'applicazione dei prodotti chimici e dei processi atti a ridurre, o eliminare, l'uso e la
produzione delle sostanze pericolose (IUPAC, International Union of Pure and Applied Chemistry)13.
Se ancora non si riesce a vedere se e quando la previsione di Ciamician si avvererà, senz’altro la Green Chemistry rimane uno strumento fondamentale per lo sviluppo sostenibile, in quanto si
occupa di diversi aspetti ad esso correlati:
• uso di materie prime rinnovabili, come fonte di composti chimici;
• uso di reagenti innocui;
• uso di processi naturali, uso della biosintesi e della biocatalisi;
• uso di solventi alternativi agli odierni solventi organici volatili e/o clorurati;
• progettazione di composti chimici più sicuri;
• sviluppo di condizioni di reazione alternative;
• riduzione del consumo di energia.
Tra le attività della Green Chemistry che abbiamo testé elencato, alcune sono fondamentali per
contrastare effetto serra e distruzione dell’ozonosfera: lo studio e l’uso di solventi alternativi a quelli
alogenati, la riduzione del consumo energetico e l’utilizzo di materie prime rinnovabili.
Toccherà alla società e alle classi dirigenti fare buon uso dei risultati ottenuti dalla Green
Chemistry e far sì che la ricerca scientifica in questo settore possa portare a risultati sempre più importanti per la protezione dell’ambiente.
13. Chi volesse approfondire i temi della Green Chemistry può consultare il sito http://www.unive.it/inca/research/
green_chemistry/index.php
250
Elenco degli autori
ELENCO AUTORI
Angelo Albini
Dipartimento di Chimica Organica
Università di Pavia
Michela Aresta
Centro di Ricerche METEA
Università degli Studi di Bari
Alberto Bargagna
Dipartimento di Scienze Farmaceutiche
Università degli Studi di Genova
Paolo Bert
ACTA SpA
Milano
Claudio Bianchini
Istituto dei Composti Organometallici del CNR
Area di Ricerca di Firenze
Sesto Fiorentino (FI)
Carlo Botteghi
Dipartimento di Chimica
Università Ca’ Foscari di Venezia
Attilio Citterio
Dipartimento di Chimica, Materiali e Ingegneria Chimica
Politecnico di Milano
Antonino Corsaro
Dipartimento di Scienze Chimiche
Università di Catania
Angela Dibenedetto
Centro di Ricerche METEA
Università degli Studi di Bari
Paolo Fornasiero
Dipartimento di Scienze Chimiche
Università di Trieste
Joseph Balatedi R. Gaie
Dipartimento di Teologia e Studi Religiosi
Università del Botswana
253
Francesco Paolo La Mantia
Dipartimento di Ingegneria Chimica dei Processi e dei Materiali
Università di Palermo
Andrea Maldotti
Dipartimento di Chimica
Università di Ferrara
Mauro Marchetti
Istituto di Chimica Biomolecolare del CNR
Sezione di Sassari
Regione Baldinca-Li Punti (SS)
Emilia Mariani
Dipartimento di Scienze Farmaceutiche
Università degli Studi di Genova
Stefano Paganelli
Dipartimento di Chimica
Università Ca’ Foscari di Venezia
Andrea Pochini
Dipartimento di Chimica Organica e Industriale
Università di Parma
Pietro Tundo
Dipartimento di Scienze Ambientali
Università Ca’ Foscari di Venezia
Carla Villa
Dipartimento di Scienze Farmaceutiche
Università degli Studi di Genova
Fulvio Zecchini
Consorzio Interuniversitario Nazionale “La Chimica per l’Ambiente” (INCA)
Marghera (VE)
254
Finito di stampare nel mese di giugno 2005 da Poligrafica, Venezia
Fotocomposizione: CompuService, Venezia
Scarica

intro chimica verde ok - Consorzio Interuniversitario Nazionale "La