Il secondo principio della termodinamica e la vita Ubaldo MASTROMATTEO STMicroelectronics – FTM group – R&D Scientific Fellow Universita’ di Milano, 14 Ottobre 2006 STMicroelectronics Sommario Sistemi di N particelle: entropia Gibbs paradox “Istruzioni” ed entropia Entropia nei sistemi complessi Diavoletto di Maxwell Istruzioni nei sistemi viventi Sistemi complessi per la sintesi del DNA Conclusioni Ubaldo Mastromatteo – Universita’ di Milano, 14 ottobre 2006 2 Entropia in sistemi di N particelle Per i sistemi di N particelle l’entropia e’ una funzione facilmente calcolabile. Un sistema del genere se riceve unicamente energia dall’esterno sotto qualsiasi forma aumenta la sua entropia. Se si “struttura” lo spazio in cui le N particelle sono contenute, l’entropia del sistema diminuisce. Ubaldo Mastromatteo – Universita’ di Milano, 14 ottobre 2006 3 Il paradosso di Gibbs Se “N” e’ il numero di particelle che costituiscono un gas in un determinato volume “V”, l’entropia “S” ad una certa temperatura (T) si esprime in modo semplificato con S= Nk (lnV) + Costante. Il paradosso emerge quando volendo ad esempio dividere il volume in due parti uguali, si determina una diminuzione dell’entropia totale dato che S diventa uguale alla somma di (N/2)k(lnV – ln2) e (N/2)k(lnV – ln2), due termini uguali, il che’ significa S=Nk(lnV - ln2) che e’ minore dell’entropia di partenza senza che, in linea di principio, si sia fatto alcun lavoro sul sistema o dal sistema. La soluzione del paradosso passa attraverso l’informazione che e’ necessario acquisire dall’esterno per conoscere quante particelle di gas sono da una parte e dall’altra dei due semivolumi. Guarda caso la registrazione di questo dato impone che venga acquisita informazione in un dispositivo capace di memorizzare un numero di stati pari a 2N, che tradotto in entropia e’ proprio il valore Nkln(2) (Landauer) che va a compensare l’apparente riduzione di entropia del sistema. (Si attua un processo ergotico sullo stato configurazionale verificandolo per ogni particella). Ubaldo Mastromatteo – Universita’ di Milano, 14 ottobre 2006 4 Ruolo delle istruzioni Osserviamo che nel caso del paradosso di Gibbs, l’informazione , ovvero l’entropia negativa che puo’ essere generata all’interno di un sistema, dipende essenzialmente dalla presenza e dalla esecuzione di istruzioni. Queste normalmente vengono eseguite sul sistema agendo dall’esterno con strumenti piu’ o meno sofisticati a seconda delle dimensioni del sistema e della quantita’ di informazione che si introduce. Ubaldo Mastromatteo – Universita’ di Milano, 14 ottobre 2006 5 Entropia nella fabbricazione di Circuiti Integrati Data un’area “A” ci sono p=2n possibilita’ per disporre geometrie minime di area “a”, dove “n” e’ il rapporto A/a. Tutte le configurazioni sono statisticamente equivalenti. Qualunque configurazione venga scelta, al valore di “p” corrisponde entropia negativa S= –Kln(p). a A Le difficolta’ di realizzazione per abbassare il valore dell’entropia sono tanto maggiori quanto minore e’ il valore di “a”. Vediamo perche’. Ubaldo Mastromatteo – Universita’ di Milano, 14 ottobre 2006 6 Entropia e microchip La variazione di entropia per un singolo “bit” di informazione, se consideriamo il caso di uno degli strati che sono usati nei processi di fabbricazione dei microchip, e’ data dal DS che subisce il materiale di un “bit”. Una media ragionevole riguarda ½N(bit)= ½(A/a). D'altronde l’entropia secondo Landauer e’: Sc=kln(1/p) dove Sc e’ l’entropia di configurazione e “p” la probabilita’ della singola configurazione. In un processo ergotico per fissare una configurazione bisogna passare per tutte le altre (questa ipotesi spiegherebbe la bassissima efficienza nella fabbricazione dei sistemi complessi che si sperimenta nella pratica), quindi se il numero di configurazioni e’ 1/p, devo moltiplicare la variazione di entropia alla temperatura T per questo valore e ottengo che il lavoro necessario L sara’ L=TDS(1/p) e dato che 1/p = eSc/k, abbiamo L=TDS eSc/k dove Sc e’ l’entropia configurazionale. Ricordando che Sc/k=(A/a)ln(2), sostituendo si ottiene L=TDSe((A/a)ln(2)). Naturalmente DS, dato che al diminuire di “a” il numero di “bit” aumenta in maniera inversamente proporzionale, assume un valore costante e pari alla variazione di entropia di meta’ del materiale utilizzato per l’area “A”. Ubaldo Mastromatteo – Universita’ di Milano, 14 ottobre 2006 7 Esecuzione di istruzioni sul sistema Osserviamo che dal punto di vista termodinamico eseguire le istruzioni all’esterno del sistema e sul sistema, come appena visto per i microchip, pur riducendo l’entropia del sistema, non comporta alcun problema dal punto di vista termodinamico (secondo principio). Infatti l’efficienza cosi’ ridotta, comporta un tale aumento dell’entropia nell’ambiente da compensare ampiamente la diminuzione che si ha all’interno del dispositivo Ubaldo Mastromatteo – Universita’ di Milano, 14 ottobre 2006 8 Efficienza nei processi di fabbricazione di dispositivi ad alta complessita’ Negli anni 90 una stima dell’efficienza dei processi per la fabbricazione dei Circuiti Integrati dava un valore di 1ppm circa. Questo valore sta ad indicare quanto del materiale usato per la fabbricazione rimane all’interno del dispositivo finito. Nei processi attuali, data la loro complessita’, il numero di istruzioni necessarie per la fabbricazione risulta notevolmente cresciuto, specie quelle istruzioni che hanno carattere non strutturale e che sono la causa principale di aumento di entropia esterna. Ci sono vari modi per migliorare l’efficienza. Si puo’ ricorrere ad esempio alla inclusione nel processo di strati che verranno strutturati all’occorrenza (durante la vita del dispositivo), evitando cosi’ le onerose operazioni necessarie alla generazione di geometrie sempre piu piccole. Altra possibilita’, quando il processo lo consente, e’ quella di includere strati in grado di autostrutturarsi per reazione chimica, come iI SOMA nel caso delle memorie non volatili di tipo magnetico. Ubaldo Mastromatteo – Universita’ di Milano, 14 ottobre 2006 9 Esempi di strutture complesse per la fabbricazione di memorie non volatili. Ubaldo Mastromatteo – Universita’ di Milano, 14 ottobre 2006 10 Maxwell’s demon Come nel caso del paradossi di Gibbs l’entropia finale del sistema si e’ ridotta di DS=Nkln2, con la differenza pero’ che questa variazione ora non e’ compensata all’esterno in quanto la gestione dell’informazione e’ tutta fatta all’interno del sistema dato che si ritiene il diavoletto gia’ preventivamente istruito sul suo lavoro di selezione. Ubaldo Mastromatteo – Universita’ di Milano, 14 ottobre 2006 11 Entropia e flusso di energia nei sistemi di N particelle A Q Q/m B C Il flusso di calore Q provoca innalzamento di entropia in B e in C tale che DSA+DSB+DSC e’ >= 0 Notiamo che DSA e’ negativo perche’ il calore e’ uscente. Qualunque sia la frazione di calore da B a C (valore di “m”) I termini positivi superano o al massimo sono uguali a quelli negativi dato che T di C < di T di B < T di A Ubaldo Mastromatteo – Universita’ di Milano, 14 ottobre 2006 12 Flusso di energia ed entropia in sistemi contenenti “diavoletti di Maxwell” A Q Q/m B C Se il diavoletto di Maxwell utilizza il calore (Q-Q/m) per ridurre l’entropia del sistema e la capacita’ termica di C e’ cosi’ grande da tenere B alla sua stessa temperatura si ha che DS’B relativo alla cessione di Q/m e DSC diventano uguali ed opposti e si elidono ((Q/m)/T- (Q/m)/T), mentre DSA rimane ancora negativo e DS”B che indica la diminuzione di entropia operata dal diavoletto e’ minore di zero. Risultato: la variazione di entropia complessiva e’ minore di zero indipendentemente dalla sorgente A. Ubaldo Mastromatteo – Universita’ di Milano, 14 ottobre 2006 13 Entropia e flusso di energia nei sistemi viventi N2 O2 All’interno dell’organismo vivente esistono una serie di microsistemi che sulla base delle istruzioni contenute nel DNA operano come dei veri “diavoletti di Maxwell” (Coherence 2006, lezioni di fisiologia). Se ci riferiamo alle piante, in particolare quelle acquatiche, notiamo anche che le condizioni di temperatura (T della pianta e T ambiente) sono proprio quelle che consentono alla variazione di entropia totale di mantenere il segno negativo (processo endotermico alla temperatura ambiente). Ubaldo Mastromatteo – Universita’ di Milano, 14 ottobre 2006 14 Combimatrix/ST bioarray technology 150mm wafer: Mixed Signal CMOS Software Controlled Chemical Reactions Ubaldo Mastromatteo – Universita’ di Milano, 14 ottobre 2006 15 Phosphoramidite chemistry OCH3 BASE1 O HO O H3CO O O O P O O O CN P O O CN BASE2 N(iPr)2 BASE2 DMTO O O O NC O tetrazole O O P NC MEMBRANE MEMBRANE DMTO O O H+ O BASE2 DMTO BASE1 P BASE1 O NC O O P O O 1. Ac2O, lutidine O O P O 2. I2, pyridine, H2O, THF O CN MEMBRANE BASE1 O O O P O O CN MEMBRANE BASE = protected A or T or G or C Ubaldo Mastromatteo – Universita’ di Milano, 14 ottobre 2006 16 START Ubaldo Mastromatteo – Universita’ di Milano, 14 ottobre 2006 17 ELECTROCHEMICALLY DETRITYLATE (Deprotect) HIGH FIDELITY SYNTHESIS Ubaldo Mastromatteo – Universita’ di Milano, 14 ottobre 2006 18 COUPLE Ubaldo Mastromatteo – Universita’ di Milano, 14 ottobre 2006 19 WASH AND REPEAT PROCESS WITH SEQUENTIAL AMIDITE EXPOSURE Ubaldo Mastromatteo – Universita’ di Milano, 14 ottobre 2006 20 Conclusioni L’aumento di entropia prodotto dalle attivita’ umane e’ legato all’esecuzione di istruzioni. Diversamente a quanto vale nella costruzione e uso di artefatti opera dell’ingegno umano, anche di grande complessita’, per i sistemi viventi esiste una legge che non fa gruppo con le leggi fisiche del mondo non vivo: la legge dell’antientropia. Questa legge e’ determinata dalla presenza ed esecuzione di specifiche istruzioni presenti unicamente all’interno del sistema vivo. Ubaldo Mastromatteo – Universita’ di Milano, 14 ottobre 2006 21