Il secondo principio della
termodinamica e la vita
Ubaldo MASTROMATTEO
STMicroelectronics – FTM group – R&D Scientific Fellow
Universita’ di Milano, 14 Ottobre 2006
STMicroelectronics
Sommario
Sistemi di N particelle: entropia
Gibbs paradox
“Istruzioni” ed entropia
Entropia nei sistemi complessi
Diavoletto di Maxwell
Istruzioni nei sistemi viventi
Sistemi complessi per la sintesi del DNA
Conclusioni
Ubaldo Mastromatteo – Universita’ di Milano, 14 ottobre 2006
2
Entropia in sistemi di N particelle
Per i sistemi di N particelle l’entropia e’ una
funzione facilmente calcolabile.
Un sistema del genere se riceve unicamente
energia dall’esterno sotto qualsiasi forma
aumenta la sua entropia.
Se si “struttura” lo spazio in cui le N particelle
sono contenute, l’entropia del sistema
diminuisce.
Ubaldo Mastromatteo – Universita’ di Milano, 14 ottobre 2006
3
Il paradosso di Gibbs
Se “N” e’ il numero di particelle che costituiscono un gas in un determinato
volume “V”, l’entropia “S” ad una certa temperatura (T) si esprime in modo
semplificato con S= Nk (lnV) + Costante.
Il paradosso emerge quando volendo ad esempio dividere il volume in due parti
uguali, si determina una diminuzione dell’entropia totale dato che S diventa
uguale alla somma di (N/2)k(lnV – ln2) e (N/2)k(lnV – ln2), due termini uguali, il
che’ significa S=Nk(lnV - ln2) che e’ minore dell’entropia di partenza senza che,
in linea di principio, si sia fatto alcun lavoro sul sistema o dal sistema.
La soluzione del paradosso passa attraverso l’informazione che e’ necessario
acquisire dall’esterno per conoscere quante particelle di gas sono da una parte
e dall’altra dei due semivolumi. Guarda caso la registrazione di questo dato
impone che venga acquisita informazione in un dispositivo capace di
memorizzare un numero di stati pari a 2N, che tradotto in entropia e’ proprio il
valore Nkln(2) (Landauer) che va a compensare l’apparente riduzione di
entropia del sistema. (Si attua un processo ergotico sullo stato configurazionale
verificandolo per ogni particella).
Ubaldo Mastromatteo – Universita’ di Milano, 14 ottobre 2006
4
Ruolo delle istruzioni
Osserviamo che nel caso del paradosso di Gibbs,
l’informazione , ovvero l’entropia negativa che
puo’ essere generata all’interno di un sistema,
dipende essenzialmente dalla presenza e dalla
esecuzione di istruzioni. Queste normalmente
vengono eseguite sul sistema agendo
dall’esterno con strumenti piu’ o meno sofisticati a
seconda delle dimensioni del sistema e della
quantita’ di informazione che si introduce.
Ubaldo Mastromatteo – Universita’ di Milano, 14 ottobre 2006
5
Entropia nella fabbricazione di Circuiti
Integrati
Data un’area “A” ci sono p=2n possibilita’ per
disporre geometrie minime di area “a”, dove
“n” e’ il rapporto A/a. Tutte le configurazioni sono
statisticamente equivalenti.
Qualunque configurazione venga scelta, al valore
di “p” corrisponde entropia negativa S= –Kln(p).
a
A
Le difficolta’ di realizzazione per abbassare il valore
dell’entropia sono tanto maggiori quanto minore e’
il valore di “a”. Vediamo perche’.
Ubaldo Mastromatteo – Universita’ di Milano, 14 ottobre 2006
6
Entropia e microchip
La variazione di entropia per un singolo “bit” di informazione, se consideriamo il
caso di uno degli strati che sono usati nei processi di fabbricazione dei
microchip, e’ data dal DS che subisce il materiale di un “bit”. Una media
ragionevole riguarda ½N(bit)= ½(A/a). D'altronde l’entropia secondo Landauer
e’: Sc=kln(1/p) dove Sc e’ l’entropia di configurazione e “p” la probabilita’ della
singola configurazione.
In un processo ergotico per fissare una configurazione bisogna passare per tutte
le altre (questa ipotesi spiegherebbe la bassissima efficienza nella fabbricazione
dei sistemi complessi che si sperimenta nella pratica), quindi se il numero di
configurazioni e’ 1/p, devo moltiplicare la variazione di entropia alla temperatura
T per questo valore e ottengo che il lavoro necessario L sara’ L=TDS(1/p) e dato
che 1/p = eSc/k, abbiamo L=TDS eSc/k dove Sc e’ l’entropia configurazionale.
Ricordando che Sc/k=(A/a)ln(2), sostituendo si ottiene L=TDSe((A/a)ln(2)).
Naturalmente DS, dato che al diminuire di “a” il numero di “bit” aumenta in
maniera inversamente proporzionale, assume un valore costante e pari alla
variazione di entropia di meta’ del materiale utilizzato per l’area “A”.
Ubaldo Mastromatteo – Universita’ di Milano, 14 ottobre 2006
7
Esecuzione di istruzioni sul sistema
Osserviamo che dal punto di vista termodinamico
eseguire le istruzioni all’esterno del sistema e sul
sistema, come appena visto per i microchip, pur
riducendo l’entropia del sistema, non comporta
alcun problema dal punto di vista termodinamico
(secondo principio). Infatti l’efficienza cosi’ ridotta,
comporta un tale aumento dell’entropia
nell’ambiente da compensare ampiamente la
diminuzione che si ha all’interno del dispositivo
Ubaldo Mastromatteo – Universita’ di Milano, 14 ottobre 2006
8
Efficienza nei processi di fabbricazione di
dispositivi ad alta complessita’
Negli anni 90 una stima dell’efficienza dei processi per la
fabbricazione dei Circuiti Integrati dava un valore di 1ppm circa.
Questo valore sta ad indicare quanto del materiale usato per la
fabbricazione rimane all’interno del dispositivo finito. Nei processi
attuali, data la loro complessita’, il numero di istruzioni necessarie per
la fabbricazione risulta notevolmente cresciuto, specie quelle
istruzioni che hanno carattere non strutturale e che sono la causa
principale di aumento di entropia esterna. Ci sono vari modi per
migliorare l’efficienza. Si puo’ ricorrere ad esempio alla inclusione nel
processo di strati che verranno strutturati all’occorrenza (durante la
vita del dispositivo), evitando cosi’ le onerose operazioni necessarie
alla generazione di geometrie sempre piu piccole. Altra possibilita’,
quando il processo lo consente, e’ quella di includere strati in grado di
autostrutturarsi per reazione chimica, come iI SOMA nel caso delle
memorie non volatili di tipo magnetico.
Ubaldo Mastromatteo – Universita’ di Milano, 14 ottobre 2006
9
Esempi di strutture complesse per la
fabbricazione di memorie non volatili.
Ubaldo Mastromatteo – Universita’ di Milano, 14 ottobre 2006
10
Maxwell’s demon
Come nel caso del paradossi di Gibbs l’entropia finale
del sistema si e’ ridotta di DS=Nkln2, con la differenza
pero’ che questa variazione ora non e’ compensata
all’esterno in quanto la gestione dell’informazione e’
tutta fatta all’interno del sistema dato che si ritiene il
diavoletto gia’ preventivamente istruito sul suo lavoro di
selezione.
Ubaldo Mastromatteo – Universita’ di Milano, 14 ottobre 2006
11
Entropia e flusso di energia nei sistemi di N
particelle
A
Q
Q/m
B
C
Il flusso di calore Q provoca innalzamento di entropia in B e in
C tale che DSA+DSB+DSC e’ >= 0
Notiamo che DSA e’ negativo perche’ il calore e’ uscente.
Qualunque sia la frazione di calore da B a C (valore di “m”)
I termini positivi superano o al massimo sono uguali a quelli
negativi dato che T di C < di T di B < T di A
Ubaldo Mastromatteo – Universita’ di Milano, 14 ottobre 2006
12
Flusso di energia ed entropia in sistemi
contenenti “diavoletti di Maxwell”
A
Q
Q/m
B
C
Se il diavoletto di Maxwell utilizza il calore (Q-Q/m) per ridurre l’entropia del
sistema e la capacita’ termica di C e’ cosi’ grande da tenere B alla sua
stessa temperatura si ha che DS’B relativo alla cessione di Q/m e DSC
diventano uguali ed opposti e si elidono ((Q/m)/T- (Q/m)/T), mentre DSA
rimane ancora negativo e DS”B che indica la diminuzione di entropia operata
dal diavoletto e’ minore di zero.
Risultato: la variazione di entropia complessiva e’ minore di zero
indipendentemente dalla sorgente A.
Ubaldo Mastromatteo – Universita’ di Milano, 14 ottobre 2006
13
Entropia e flusso di energia nei sistemi
viventi
N2
O2
All’interno dell’organismo vivente
esistono una serie di microsistemi
che sulla base delle istruzioni
contenute nel DNA operano come
dei veri “diavoletti di Maxwell”
(Coherence 2006, lezioni di
fisiologia). Se ci riferiamo alle
piante, in particolare quelle
acquatiche, notiamo anche che le
condizioni di temperatura (T della
pianta e T ambiente) sono proprio
quelle che consentono alla
variazione di entropia totale di
mantenere il segno negativo
(processo endotermico alla
temperatura ambiente).
Ubaldo Mastromatteo – Universita’ di Milano, 14 ottobre 2006
14
Combimatrix/ST bioarray technology
150mm wafer: Mixed Signal CMOS
Software Controlled Chemical
Reactions
Ubaldo Mastromatteo – Universita’ di Milano, 14 ottobre 2006
15
Phosphoramidite chemistry
OCH3
BASE1
O
HO
O
H3CO
O
O
O
P
O
O
O
CN
P
O
O
CN
BASE2
N(iPr)2
BASE2
DMTO
O
O
O
NC
O
tetrazole
O
O
P
NC
MEMBRANE
MEMBRANE
DMTO
O
O
H+
O
BASE2
DMTO
BASE1
P
BASE1
O
NC
O
O
P
O
O
1. Ac2O, lutidine
O
O
P
O
2. I2, pyridine, H2O, THF
O
CN
MEMBRANE
BASE1
O
O
O
P
O
O
CN
MEMBRANE
BASE = protected A or T or G or C
Ubaldo Mastromatteo – Universita’ di Milano, 14 ottobre 2006
16
START
Ubaldo Mastromatteo – Universita’ di Milano, 14 ottobre 2006
17
ELECTROCHEMICALLY
DETRITYLATE
(Deprotect)
HIGH FIDELITY SYNTHESIS
Ubaldo Mastromatteo – Universita’ di Milano, 14 ottobre 2006
18
COUPLE
Ubaldo Mastromatteo – Universita’ di Milano, 14 ottobre 2006
19
WASH AND REPEAT PROCESS WITH
SEQUENTIAL AMIDITE EXPOSURE
Ubaldo Mastromatteo – Universita’ di Milano, 14 ottobre 2006
20
Conclusioni
L’aumento di entropia prodotto dalle attivita’
umane e’ legato all’esecuzione di istruzioni.
Diversamente a quanto vale nella costruzione e
uso di artefatti opera dell’ingegno umano, anche
di grande complessita’, per i sistemi viventi esiste
una legge che non fa gruppo con le leggi fisiche
del mondo non vivo: la legge dell’antientropia.
Questa legge e’ determinata dalla presenza ed
esecuzione di specifiche istruzioni presenti
unicamente all’interno del sistema vivo.
Ubaldo Mastromatteo – Universita’ di Milano, 14 ottobre 2006
21
Scarica

Ubaldo Mastromatteo