? !! Meccanica Statistica Classica marzo 2014 Sommario L’idea centrale della meccanica statistica e’ che gli stati macroscopici sono misure di probabilita’ definite sullo spazio degli stati microscopici e descritte da pochi parametri, e che le grandezze macroscopiche sono le aspettazioni, secondo queste misure, di osservabili miscroscopiche Ma la questione della descrizioni di stati macroscopici prescinde dal problema termodinamico: e’ il problema generale di come emergano e si impongano semplici proprieta’ collettive, fissate da poche variabili, in un sistema costituito da molti componenti. Abbiamo gia’ visto una situazione simile nel caso di misure di probabilita’: i vari bacini di attrazione. Ma torniamo alla meccanica statistica. Come nasce l‘idea di una descrizione probabilistica? La motivazione intuitiva è legata all’idea che, nei tempi propri del sistema macroscopico, moltissimi stati microscopici sono “visitati” nella evoluzione dinamica del sistema cosicchè, quello che conta alla scala macro, è la frequenza con cui i vari stati microscopici si presentano. Il peso relativo degli stati micro determina le proprieta‘ macro che appaiono come valori medi di grandezze microscopiche. Un programma “massimalista” consiste nel dimostrare come dalla dinamica microscopica sia possibile ottenere le leggi macroscopiche. definendo misure compatibili con la dinamica ed equivalenti alle frequenze di visita. Un programma “minimalista” consiste nel mostrare come sia possibile costruire la termodinamica a partire dai “conteggi” degli stati microscopici e delle loro energie. Ci concentreremo sul programma minimalista Gli appunti che seguono sono solo una traccia, è opportuno che scegliate (almeno) uno dei testi che seguono per avere un pò più che una traccia • Peliti “Appunti di meccanica statistica” – Cap. 3,4 (+): c’e’ tutto quello che uno deve sapere, conciso • K.Huang “ Meccanica Statistica” – Parte B – Cap. 6,7,8: Didattica su Micro . . . Grancanonico – Cap. 9: Può essere interessante una lettura del par.1 perchè racconta la cosa da un punto di vista diverso da quello seguito a lezione. Per gli altri paragrafi, più sintetici Glimm e Jaffe. • Glimm – Jaffe “Moder Physics” – Cap. 2 (+): Il più breve (e matematicamente attento) schema per Micro . . . Grancanonico + Analiticità Ξ (almeno 2.1 – 2.2) • G.Parisi “Statistical Field Therory” – Cap. 1 (++): A me pare molto bello. • G.Gallavotti “Statistical Mechanics - Short treatise”, 1999 [Dip. Fisica, Università di Roma, La Sapienza] – Cap. 1 (++): molto interessante analisi dei fondamenti della M.S. Dinamica microscopica −→ discretizzazioni −→ tempi di ricorrenza −→ . . . – Cap. 2 : Microcaconico, Canonico, Grancanonico – Cap. 3 (+): Equipartizione e critiche – Cap. 4 (+): Stabilità – ... – Cap. 9 (++): Non equilibrio: interessante leggere le appendici 2 Indice I Introduzione 4 1 micro e macro stati 1.1 Meccanica statistica di una pallina confinata . . . . . . . . . 2 idee per il ’programma massimalista’ 2.1 Sistema dinamico . . . . . . . . . . . 2.2 punti ricorrenti, transienti, etc. . . . . 2.3 Teorema Poincare’ . . . . . . . . . . . 2.4 Sistemi Ergodici . . . . . . . . . . . . 2.5 Teorema Birkhoff: medie temporali. . 2.6 Teorema di Kac: probabilita’ e tempi 2.7 ricostruzione della termodinamica . . 2.8 Nota: Misura indotta . . . . . . . . . 2.8.1 una definizione e due relazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 8 10 11 12 13 15 16 18 19 21 24 3 idee per un ‘programma minimalista’ 27 3.1 • Misure di Gibbs . . . . . . . . . . . . . . . . . . . . . . . . 27 3.1.1 Commenti . . . . . . . . . . . . . . . . . . . . . . . . 28 3.2 • Ricostruzione della Termodinamica . . . . . . . . . . . . . . 30 II Ensemble 3.3 32 sistema isolato, sistema icon riserva di calore, sistema icon riserva di materia . . . . . . . . . . . . . . . . . 1 33 4 5 6 Sistemi classici isolati 4.1 Misura Microcanonica e Termodinamica . . . . . . . . . 4.2 Limite termodinamico ed Entropia . . . . . . . . . . . . 4.3 il caso dei Sistemi ideali . . . . . . . . . . . . . . . . . . 4.3.1 limite termodinamico . . . . . . . . . . . . . . . 4.3.2 Monotonia, Positività e Convessità dell‘ entropia 4.3.3 Additività dell’Entropia microcanonica . . . . . 4.3.4 Gas ideale classico e paradosso di Gibbs . . . . . 4.4 Equipartizione . . . . . . . . . . . . . . . . . . . . . . . 4.4.1 equipartizione statistica, equipartizione dinamica Sistema Canonico 5.1 MICROCANONICO −→ CANONICO . . . . . 5.2 Teorema fluttuazione-dissipazione . . . . . . . . . . 5.2.1 Teoria di Einstein delle fluttuazioni . . . . . 5.3 Equipartizione . . . . . . . . . . . . . . . . . . . . . 5.4 Equivalenza microcanonico - canonico . . . . . . . . 5.5 hamiltoniani quadratici . . . . . . . . . . . . . . . . 5.6 Cristallo Classico . . . . . . . . . . . . . . . . . . . . 5.7 campo scalare, corda, membrana ... . . . . . . . . . 5.8 Campo elettromagnetico . . . . . . . . . . . . . . . 5.8.1 densita’ di energia in frequenza . . . . . . . . 5.9 confronto . . . . . . . . . . . . . . . . . . . . . . . . 5.10 Gradi di libertà L, volume V, numero di particelle N . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34 35 37 38 40 41 42 44 48 48 . . . . . . . . . . . . 50 50 53 54 55 55 58 58 61 63 64 65 66 sistema Grancanonico 67 6.1 Canonico ⇒ Grancanonico . . . . . . . . . . . . . . . . . . . . 67 6.2 commenti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68 7 oltre gli oscillatori armonici 7.1 sviluppi a cluster e modelli di fluido . . 7.2 campo medio . . . . . . . . . . . . . . . 7.2.1 termodinamica elementare di una 7.2.2 gas su reticolo . . . . . . . . . . 7.2.3 cristalli liquidi . . . . . . . . . . 2 . . . . . . . . . . galassia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70 71 75 78 80 82 8 Introduzione alle transizioni di fase 8.1 funzione di partizione e fasi . . . . . . . 8.2 definizioni . . . . . . . . . . . . . . . . . 8.3 regola delle fasi . . . . . . . . . . . . . . 8.4 una transizione di primo ordine: cristalli 8.5 una transizione di secondo ordine . . . . . . . . . . . . . . . . liquidi . . . . . . . . . 9 Esistenza del limite termodinamico 9.1 interazione “troppo attrattiva” a corte distanze 9.2 ‘ troppo attrattiva” a grandi distanze . . . . . . 9.3 ‘ troppo repulsiva” a grandi distanze . . . . . . . 9.4 Teoremi di esistenza . . . . . . . . . . . . . . . . 9.5 argomenti non trattati . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83 85 86 87 89 95 . . . . . 96 97 98 100 101 102 10 appendix 103 10.1 the second derivative . . . . . . . . . . . . . . . . . . . . . . . 103 3 Parte I Introduzione 4 Capitolo 1 micro e macro stati Un sistema macroscopico (un bicchier d’acqua, una calamita, una membrana, un pezzo di vetro,...) é costituito da “oggetti elementari”,“particelle”. Prendiamo il sistema macroscopico e ’dividiamolo’ in sottosistemi di dimensione sempre piu’ piccola. Per un pó le proprieta’ dei sottosistemi sono identiche a quelle del sistema di partenza, poi arrivati ad una certa dimensione, queste proprieta’ cambiano ... abbiamo individuato una scala microscopica e i corrispondenti oggetti elementari Ci sono varie scale microscopiche: Se studiamo le proprieta’ dell’ acqua possiamo considerare “particella” la molecola d’acqua e non interessarci al fatto che dividendo la molecola troviamo atomi, gli atomi da .... fino ai quarks. Una soluzione di polimeri é descritta come un insieme di “particella” caratterizzate da un raggio tipico, a scala inferiore le particelle appaiono come matasse, collane di monomeri etc... (In che modo si ’divide’ è un capitolo diverso ...) Le nostre “particelle” sono descritte da attributi che “riassumono” tutto cio’ che accade alla scala microscopica. Assumiamo che queste propieta’ siano ben definite. Per esempio le “particelle” acqua hanno una massa ben definita, sono dotate di un dipolo elettrico ... le “particelle” che costituiscono un cristallo liquido sono “segmenti”, le “particelle” di un materiale ferromagnetico sono dotate di uno spin, ... Il problema che ci poniamo e’ descrivere le proprieta’ del sistema macroscopico a partire dalle proprieta’ di queste “particelle” e delle loro interazioni. Ogni scala microspopica ha dimensioni, tempi, energie, “particelle” e interazioni caratterisctiche. È possibile seguire passo passo i cambiamenti delle proprietà al variare della scala scelta, e dare consistenza alla spiegazione del 5 comportamento macroscopico. stati microscopici Classici o quantistici che siano, gli stati microscopici corrispondonono alla descrizione dettagliata e completa dell‘ insieme di particelle che costituiscono il sistema Per esempio gli stati microscopici di un fluido semplice sono lo spazio delle fasi del sistema: posizioni e velocitá delle molecole che lo costituiscono. N molecole hanno uno spazio delle fasi eguale a R6 N (vedi paragrafo 4.3.4, pagina 44) stati macroscopici Quello che l’esperienza insegna e’ che gli stati del sistema macroscopico sono tutt’altra cosa. Sappiamo che la termodinamica individua una classe di stati (detti stati di equilibrio) descritti da poche coordinate (indipendentemente dal numero di “particelle” che costituiscono il sistema), fissando le quali il sistema e’ completamente determinato. L’idea centrale e’ che gli stati macroscopici sono le misure di probabilita’ definibili sullo spazio degli stati microscopici, misure che soddisfano ad alcuni vincoli semplici. Inoltre le grandezze macroscopiche sono le aspettazioni, secondo queste misure, di osservabili miscroscopiche Perche’ ? Nel caso termodinamico la motivazione intuitiva e’ legata all’idea che nei tempi propri del sistema macroscopico moltissimi stati microscopici sono “visitati” nella evoluzione dinamica del sistema cosicche’ quello che conta alla scala macro, è la frequenza con cui si presentano i vari stati microscopici. Il peso relativo degli stati micro determimina le proprieta‘ macro che appaiono come valori medi di grandezze microscopiche E’ tuttaltro che semplice sviluppare tecnicamente questa intuizione ma questa e’ l’idea che sta alla base della possibilita’ di passare dal microscopico al macroscopico. Helmholtz fu il primo a capire che i valori medi temporali di grandezze dinamiche sono legati da relazioni che hanno l’aspetto di equazioni termodinamiche e a proporre uno schema per passare dalle leggi della meccanica newtoniana alle leggi della termodinamica. Precisamente Helmholtz mostrò che ai sistemi dinamici monociclici è associata una termodinamica identificando energia interna ≡ energia meccanica totale temperatura ≡ media temporale dell′ energia cinetica entropia ≡ logaritmo Azione meccanica 6 (Nel paragrafo 1.1 riporto l‘argomentazione di Helmholtz.) Con i lavori di Boltzmann, Maxwell, Gibbs concetti e grandezze probabilistiche entrano nella fisica e l‘intuizione di Helmholtz ne diventa capitolo essenziale. Il ’ teorema H’ , enunciato nel 1872 da Ludwig Boltzmann piò essere considerato il terema fondante la Meccanica statistica. (cito da Wikipedia) The H-theorem describes the tendency to increase in the dynamical quantity H (defined below) in a nearly-ideal gas of molecules. As this quantity H was meant to represent the entropy of thermodynamics, the H-theorem was an early demonstration of the power of statistical mechanics as it claimed to derive the second law of thermodynamicsa statement about fundamentally irreversible processes from reversible microscopic mechanics. The ”H” value is determined from the function f (E, t)dE , which is the energy distribution function of molecules at time t. The value f (E, t)dE is the number of molecules that have kinetic energy between [E, E + dE]. ”H” itself is defined as: Z ∞ f (E, t) √ f (E, t) log H(t) = − 1 dE E 0 For an isolated ideal gas (with fixed total energy and fixed total number of particles), the function ”H” is at a minimum when the particles have a MaxwellBoltzmann distribution; if the molecules of the ideal gas are distributed in some other way (say, all having the same kinetic energy), then the value of ”H” will be higher. Boltzmann’s ”H”-theorem shows that when collisions between molecules are allowed, such distributions are unstable and tend to irreversibly seek towards the minimum value of ”H” (towards the MaxwellBoltzmann distribution). Although Boltzmann’s H-theorem turned out not to be the absolute proof of the second law of thermodynamics as originally claimed, the H-theorem led Boltzmann in the last years of the 19th century to more and more probabilistic arguments about the nature of thermodynamics. The probabilistic view of thermodynamics culminated in 1902 with Josiah Willard Gibbs’s statistical mechanics for fully general systems (not just gases), and the introduction of generalized statistical ensembles. Nel paragrafo 2 a pagina 10 cerco di darvi una traccia delle idee base che sono necessarie per realizzare il programma massimalista, ma nel fare questo non riassumo le argomentazioni di Boltzmann ( e di Gibb) ma vi enuncio tre teoremi riguardanti proprietà generiche di sistemi dinamici, i teoremi di Poincare’ (ricorrenza), Birkoff ( dp dq ≡ dtt ), e Kac (tempi di ricorrenza). Questi teoremi sono tecnicamente molto più semplici e meno problematici nelle assunzioni. A mio parere ‘psicologicamente‘ tranquillizzanti sulla possibilità di realizzare il programma proposto. 7 1.1 Meccanica statistica di una pallina confinata Motivazioni del paragrafo: La MS non ha senso solo per sistemi con molti gradi di libertà. Le medie temporali di grandezze dinamiche sono legate da relazioni termodinamiche ( ⇒ vedi Gallavotti M.S.) q q δU . q δV (U,V) . q . q 000 111 111 000 000 111 000 111 000 111 000 111 000 111 000 111 000 111 000 111 (U’,V’) trasformazione termodinamica Sistema microscopico: 1 + 1 gradi di libertà, stato microscopico è descritto da una coordinata q e dalla relativa velocità Il sistema è caratterizzato da un potenziale φV (q) a crescita rapida, dipendente dal parametro V. Per esempio: φV (q) = ⇒ V 2 2q . I moti sono tutti ciclici. K = energia cinetica U = energia totale = K + φ T = media temporale di K ∂φ p = media temporale di ∂V ——————————(*) La media su un ciclo è Rt limt→∞ 1t 0 dt′ K(t′ ) ——————————- stato macroscopico un’orbita . . . ↔ (U, V ) ↔ guardo le proprietà generiche di 8 variazione dU, dV ; definisco : n δL = −pdV δQ = dU − δL Intuitivamente: per φV (q) = to V V 2 2q , se aumen- localizzo maggiormente il punto, “comprimo”. . . Teorema (Helmholtz) Il differenziale δQ dU + pdV = T T è esatto. ⇒ Dim.: oscillazione. Considero q± (U, V ) = estremi di oscillazione; t± = semiperiodi di S(U, V ) =: 2 ln Z q+ q− p U − φ dq = 2 ln Z q+ √ K dq q− Il differenziale di S si calcola facilmente ( in q± si ha q̇ = 0 n Z q+ Z q+ 1 1 ∂φ o ∂S ∂S 1 dU − dq √ dq √ dS = dV = dU + dV = R q+ √ ∂U ∂V K dq K K ∂V q− q− q− = dU − pdV (t± )dU − (t± )pdV = (t± )T T A un sistema monodimensionale monociclico è associata una termodinamica identificando energia interna ≡ energia meccanica totale temperatura ≡ media temporale dell′ energia cinetica entropia ≡ logaritmo Azione meccanica Altre variabili coniugate sono i parametri V di φ e le medie temporali di 9 ∂φ ∂V . Capitolo 2 idee per il ’programma massimalista’ Motivazione della sezione: tracciare lo schema del ‘programma massimalista‘ (lo dico scherzosamente), ovvero passaggio : Dinamica ⇒ Termodinamica Reversibilità ⇒ irreversibilità (per sistemi a ’pochi’ gradi di libertà) La definizione di alcune grandezze e tre teoremi fanno da sfondo nel passaggio dalla dinamica alla statistica. reversibile irrebersibile pulce In un sistema hamiltoniano classico tutti i moti sono reversibili. Sulle superfici a energia costante M e’ definita una misura µ invariante per la dinamica. Questa misura e’ finita ed e’ quindi una misura di probabilita’. Se il sistema e’ ergodico le aspettazioni calcolate con tale misura coincidono con le medie temporali dµ dt ≡ t µ(M) 10 e hanno caratteristiche tipiche delle grandezze termodinamiche, irreversibilita’ compresa. ( Nei paragrafi successivi - E3, . . . - ci focalizziamo sulle grandezze, parleremo dei processi nel secondo modulo.) 2.1 Sistema dinamico • Superficie ad energia costante M, m ∈ M e’ un punto dello spazio delle fasi • dinamica et·L : M → M et·L è la trasformazione che dà l’evoluzione cioé se al tempo t = 0 fisso il dato iniziale m, al tempo t ho m(t) = et·L (m) e’ iniettiva: m 6= m′ → eL m 6= eL m′ • misura su {M, B(M) µ}, invariante per la dinamica: µ(A) = µ(etL A) ∀t compatibile con la dinamica, finita : µ(M) < ∞ , perche’ l’energia e’ fissata e finita misura finita ≡ misura di probabilita’ ————————————————————————• Si puo’ anche ragionare in termini di traiettorie Spazio delle orbite: Ω ≡ {ω : ω(t) ∈ M, t = 0, 1, 2, . . . } – si considerano i proiettori Πt : Π(ω) = ωt che ad ogni orbita associano il punto occupato al tempo t – si definiscono gli insiemi cilindrici: −1 Ct1 ,..tn = {Π−1 t1 (A1 ) ∩ · · · ∩ Πtn (An } con Ai insiemi misurabili di M – si costruisce a partire da questi la σ–algebra dei misurabili • si definisce una misura sulle traiettorie a partire da : µΩ (Ct ) = : µ(Πt (C)) 11 t .t .. 2 . .A t1 A2 1 . .. Π t (A 1 ) 1 Πt (A 2 ) 2 con questa misura calcolo X(ω) cioe’ grandezze tipo X(ωt ) X(ω0 ) , X(ωt ) X(ωs ) . . . X(ω0 ) 2.2 punti ricorrenti, transienti, etc. Breve richiamo (Feller vol1 cap XIII pag 303) evento E: per esempio nel seguito essere in A, A ⊂ M, µ(A) > 0 Penso il tempo discretizzato Sia p(k) è la probabilità che al tempo k si verifichi l‘evento E Sia f (n), n > 0 è la probabilità di primo ritono, di prima ripetizione dell‘evento. f (n) è la probabilità che l‘evento E si (ri)presenti per la prima volta dopo un intervallo di tempo n Gli eventi P primo ritorno a tempi distinti sono autoescludentosi quindi f (n) ≤ 1 P P Le funzioni generatirici sono P (s) = k p(k)sk , F (s) = n f (n)sn La probabilità che l‘evento ‘non si presenti in una serie di prove infinitamente prolungata ‘ è 1 − F (1) (2) la probabilità che l‘evento E si presenti la seconda volta al tempo n è fN = f (1)f (n − 1) + f (2)f (n − 2) + · · · etc da cui F (r) (1) = F (1)r etc. Assumendo P p(0) = 1 ho p(n) = nk=0 f (k)p(n − k) + δn,0 . e quindi P (s) = P (s)F (s) + 1 ovvero P (s) = 1 1 − F (s) 12 P Dico: l‘evento E transiente P se P (1) = ∞ 0 p(k) < ∞ certo (ricorrente) se P (1) = ∞ p(k) = ∞ 0 certo ergodico se (limN →∞ ) P (1)/N > 0 Vale P (1) = ∞ ↔ F (1)1 = 1 Il numero medio di volte con cui si presenta un evento certo è infinito Il numero medio di volte con cui si presenta un evento non certo è finito P (1) = 1/(1 − F (1) Per eventi certi vale il teorema X < tR >= nf (n) n lim p(n) = n→∞ (1/N lim N →∞ (< tR > è il tempo medio di ritorno) N X Notare: < tR > finito ⇒ p(n) → finito (esempio Markov con π eq < tR >= 1/π eq (x), 1 p(n)) = < tR > (2.1) p(n) → π eq (x)) P < tR >= ∞ ⇒ p(n) → 0 ( ma p(n) = ∞) (esempio RW in D < 2 p(t) ∼ t−D/2 ⇒< tR >∼ tD/2 RW in D > 2 F (1) < 1 e non vale il teorema Nel caso in cui F (1) < 1 il tempo medio di ritorno è amente infinito. 2.3 P nf (n) F (1) ed è necessari- Teorema Poincare’ Quando lo spazio delle fasi e’ discretizzato si dice che m ∈ M e’ punto ricorrente se: una traiettoria che parte da m ripassa, in un tempo finito, per m cioe’ se esiste t(m) tale che et(m)·L m = m. Notare che se esiste un t(m) ne esistono infiniti. Quindi i punti ricorrenti sono visitati infinite volte. Per contro i punti detti transienti sono visitati un numero finito di volte. (Bisogna poi distinguere ulteriormente, ma qui basta). (Trovate tutto in Marinari Parisi cap 8: per dinamiche aleatorie). 13 Se lo spazio delle fasi e’ continuo e la misura e’ tipo (indotta da) Liouville non e’ possibile ragionar per punti ma bisogna ragionare per misurabili: m ∈ A si dice ricorrente in A se esiste t(m) tale che et(m)·L m ∈ A. • Teorema di Poincarè [ 1899] (Teorema Eterno Ritorno) Le traiettorie che partono da un qualunque insieme misurabile (quasi certamente) vi ritornano ∀A, µ(A) > 0 ⇒ quasi certamente m ∈ A e’ un punto ricorrente per A ———————————– traccia dimostrazione Consideriamo una dinamica con tempi discretizzati Sia N l’insieme dei punti non ricorrenti di A: N = {m ∈ A, ∀t : et0 L (m) ∈ Ac } = A ∩ ∩t (e−(t0 L) Ac ) Ac complementare di A N e’ intersezione di misurabili e quindi misurabile N ha misura nulla, infatti: poiche’ ∀t : e(t·L) N ⊂ N c , (altrimenti ci sarebbe ricorrenza) allora e(t·L) N ∩ e(s·L) = 0 (altrimenti ci sarebbe ricorrenza) ⇓ P P (t0 L) N = µ ∩t e(t0 L N = t µ e t µ N la serie e’ a termini costanti, ma la misura e’ finita e quindi la serie non puo’ permettersi di divergere ⇒ µ N e’ zero. commento - non ci possono essere punti fissi, bacini di attrazione - come valutare t(m) ? quanto e’ grande? - c’e’ anche un enunciato piu’ forte, per le traiettorie: definito ΩA l’insieme delle traiettorie ω tali che ω(0) ∈ A ed esiste tω(0) t.c. etω(0) L ω(0) ∈ A allora: µΩ (ΩcA ) = 0. 14 2.4 Sistemi Ergodici Un sistema dinamico {M, B(M), µ} e’ detto ergodico se soddisfa una delle tre equivalenti proprieta’ • -(1): Qualsiasi costante f (m) del moto e’ q.c. (quasi certamente) costante in M, cioe’ indipendente da m M = H −1 (E) non ci sono costanti del moto indipendenti dall’energia. • -(2): gli unici insiemi stabili per la dinamica sono M e il vuoto cioe’ A = (etL )A ⇒ µ(A) · µ(Ac ) = 0 • -(3): la misura µ non e’ scomponibile in αµ1 + (1 − α)µ2 con µi invarianti per evoluzione, α ∈ [0, 1] la misura µ e’ pura, estremale ———————————– Osserviamo che detta χA funzione caratteristica di A: χA (m) = 1 per m ∈ A e χA (m) = 0 per m ∈ /A A = (etL )A ⇒ χA costante del moto e viceversa ———————————— ——————————————– Le tre definizioni sono equivalenti schematicamente: (1) → (2) : una funzione caratteristica puo’ valere solo 0 o 1, quindi χA (m) costante q.c. significa o sempre (q.c.) nulla o sempre 1 Quindi... (non 1) → (non 3) : se esiste una costante del moto g(m) non q.c. costante allora µ1 = g(m)µ puo’ essere usata per decomporre µ ... da (non 3)→(non 2) se la misura e’ decomponibile si costruisce una costante del moto con valori diversi in M 2 → 1 (tecnica) ———————————— Att! l’ ergodicita’ e’ una proprieta’ molto forte per un sistema dinamico 15 2.5 Teorema Birkhoff: medie temporali. Kolmogorov scrive: “Il teorema fu dimostrato da Birkoff come un teorema di meccanica o, come uno puo’ vedere, come un teorema legato alla evoluzione di un arbitrario sistema i cui stati sono completamente determinati da un numero finito di parametri e il cui comportamento e’ governato da equazioni differenziali che ammettono un integrale invariante. Per integrale invariante si intende una set-function µ(A) = µ(et·L A) Il teorema suona : Per qualsiasi funzione a valori reali f (m) definita su M il limite Z 1 C lim f (et·L m)dt = ψ(m) C→∞ C esiste per tutti gli m eccetto al piu’ per insieme di punti a misura nulla Questo teorema puo’ essere guardato come caso speciale del seguente piu’ generale teorema: Dato un processo stocastico stazionario nel senso di Khinchin , e cioe’ un set di random variabili xt dipendenti dal parametro t e tale che le distribuzion dei sistemi {xt1 , xt2 , . . . , xtn } {xt1 +τ , xt2 +τ , . . . , xtn +τ } coincida per ogni n e per ogni {t1 , t2 , . . . , tn } e per ogni τ ; si supponga che le variabili xt abbiano media finita ( che e’ indipendente da t poiche’ il processo e’ stazionario) e che siano continue in t con probabilita’ 1. Allora con probabilita’ 1 l’ integrale Z 1 C lim xt dt C→∞ C esiste Questo e’ il teorema generale di Birkoff-Khinchin. Il precedente teorema di Birkoff e’ infatti un caso particolare poiche’ se la probabilita’ che un punto m stia in A e’ assunta essere eguale a µ(A) allora le random variabili xt = f (et·L m) soddisfano tutte le condizioni del teorema generale Kolmogorov Opere complete, pg 271 Kolmogorov prosegue mostrando che e’ sufficiente dimostrare il teorema per Z 1 n xt dt lim n→∞ n 16 R n+1 con n intero considerando le RV x̄n = n xt dt. In tal caso il teorema di Birkoff-Khinchin si riduce a provare che : Sia {x̄t } una sequenza stazionaria di RV con aspettazione finita allora il limite x̄0 + x̄1 + x̄2 + · · · + x̄n−1 lim n→∞ n esiste con probabilita’ 1. (osservazione: Vi ricorda nulla?) Concludendo: Sia {M, B(M), µ} un sistema dinamico Sia f (m) una funzione misurabile • quasi certamente in M esiste il limite t 1 X f (e(s·L m) ≡ f¯(m) t→∞ t s=0 lim • f¯(m) e’ costante del moto, f¯(m) ∈ L1 (µ) R R • f¯(m)dµ = f (m)dµ R f dµ • Se µ e’ ergodica allora f¯(m) = f¯ = µ(M) ( ! indipendente da m ≡ q.c. costante) nota: dimostrata l’esistenza e’ banale constatare che f¯(m) risulta essere una costante del moto (e’ una media temporale...) altrettanto immediato e’ dimostrare gli altri punti 17 2.6 Teorema di Kac: probabilita’ e tempi frequenza di visita frequenza di visita di m ∈ M ad un insieme A: t 1X χA (eτ ·L m) t→∞ t fA (m) = lim τ =0 e’ il rapporto far il tempo di permanenza in A e l’intervallo di tempo considerato quando quest’ ultimo diventa infinito • esiste per ∀m ∈ M a meno di un set di misura nulla • e’ una costante del moto • se µ e’ ergodica allora fA (m) e’ indipendente da m µ(A) µ(M) • in tal caso fA = i primi tre punti sono conseguenza immediata del teorema di Birkoff R per l’ultimo si confronta dµfA (m) = fA · µ(M) con Z dµfA (m) = Z Z t i 1X τ ·L dµ lim( χA (e m) = dµχA (m) t t τ =0 h Quindi per un sistema ergodico la probabilita’ m ∈ A ≡ al rapporto far il tempo di permanenza in A e il tempo considerato. Vale il viceversa : se una misura e’ tale che: ∀A : ν(A) = fA allora la misura e’ ergodica. tempi ricorrenza primo tempo ricorrenza di m ∈ A in A: tA (m) = inf {t > 0 | et·L m ∈ A} t • esiste per Poincare’ (ed e’ una funzione A → R+ ) • il tempo medio minimo che devo aspettare affinche’ partendo da A mi ritrovi in A e’ l’aspettazione della funzione tA (m): Z 1 dµ tA (m) tA = µ(M) A 18 Teorema di Kac In un sistema ergodico : 1 tA = fA ————————————— commento il tempo di attesa e’ proporzionale a tA µ(A) = µ(M) 2.7 1 µ(A) ricostruzione della termodinamica La misura indotta da Liouville sulla ipersuperficie H(p, q) = E è la grandezza matematica che descrive lo stato di equilibrio di un sistema isolato con energia interna E. Analizzeremo con dettaglio questa affermazione nei prossimi capitoli. Per ora basti sapere che E e i vari parametri che descrivono la hamiltoniana sono le grandezze estensive o intensive che labellano lo stato termodinamico di equilibrio, che il (logartimo) del volume dell‘ipersuperficie è l‘entropia dello stato etc. Intuitivamente il fatto che la misura dia stessa probabilità ad ogni stato si traduce, per esempio nel caso di un gas perfetto contenuto in un volume V , nel fatto che ci aspettiamo di vedere macroscopicamente (= statisticamente) una densità costante , e il fatto che la misura sia invariante per la dinamica micro ci dice che lo stato macroscopico non cambia con il tempo, è stato di equilibrio termodinamico. Ma i teroremi precedenti hanno una ambizione molto più grande che descrivere ’semplicemente’ gli stati di equilibrio e le equazioni di stato termodinamiche del sistema in esame. Vogliono spiegare come dalla reversibilità dinamica nasca la irreversibilità macroscopica, come preparando il sistema in una configurazione particolare questo evolva fino a divenire lo stato di equilibrio. Per esempio se costringiamo, in un certo istante, il gas ad occupare una parte ∆V ⊂ V del volume a disposizione e poi lasciamo evolvere con le leggi microscopiche il sistema vogliono dimostrare che lo stato macro del gas sarà descritto, dopo un transiente, dalla misura omogenea. Poincarè, e la nostra idea intuitiva di reversibilità, ci dice che esiste un tempo dopo il quale il gas ritorna ad essere disomogeneo, ovvero tutto contenuto in ∆V . Questo macroscopicamente non torna. Il teorema di Kac ci spiega il motivo. Se (sempre limitandomi alla parte configurazionale) le condizioni al tempo t = 0 sono ∆V < V e ci chiediamo 19 quanto si deve aspettare per rivedere il sistema “circa cosi”’ la risposta è VN ∆V N Questo è un tempo ordini di grandezza più grande dell‘etè dell‘ universo. La riversibilità microscopica non contrasta con la irreversibilità ‘macroscopica‘ Ancora: se la condizione iniziale in cui prepariamo il gas è descritta dalla 1 misura di probabilità µ(0) = χA · µ(A) la dinamica con cui evolve lo stato è 1 µ(t) = χA (t) · µ(A) Il teorema di Birkhoff ci dice che la media temporale di questa misura (esiste) ed è una costante del moto, cioè è la misura omogenea, è lo stato macro di equilibrio. (Intuitivamente che la media su un internallo [n, n + 1] di Kolmogorov, il tempo macro di misura, è la misura omogenea, per n abbastanza grande) Il teorema H di Boltzmann è ancora più stringente, ma già qui si intuisce che se identifichiamo l‘entropia con il logaritmo del volume accessibile agli stati microscopici in un internallo [n, n + 1] partiamo da uno stato con entropia log(µ(A) e evolviamo verso lo stato con emtropia log(µ(M ): l‘entropia non può che crescere. 20 2.8 Nota: Misura indotta Questa sezione per precisare il concetto di misura indotta dalla misura di Loiville sulle ipersuperfici a energia costante e definire alcune relazioni particolarmente utili negli sviluppi successivi Il nostro problema è quello di definire una misura su (iper)superfici di energia costante, misure che siano invarianti per la dinamica. La misura di Liouville è invariante per la dinamica, ma assegna misura nulla alle superfici. Occorre usare una misura indotta. L‘ idea è antica: (Cavalieri) una misura in RN assegna valore nullo ad insiemi in RN −1 , ma la derivata del volume della sfera rispetto al raggio è l’area della sfera . . . Il Teorema di Gauss e il Teorema di Stokes forniscono un esempio di misura indotta. Z Z α dα = ∂Λ Λ ∂Λ ≡ bordo di Λ α ≡ (k − 1) forma ↔ misura su ∂Λ dα ≡ k forma ↔ misura su Λ x ∈ RN Vogliamo analizzare brevemente i seguenti punti: • ⇒ data una (iper)superficie SP = {x|P (x1 , . . . , xN ) = 0 ; ∇x P 6= 0} i h dimostrare che la misura Πi dxi (N forma) definisce un’unica misura ω [(N − 1) forma] su SP tale che i h dP ∧ ω = Πi dxi P=h ω P=0 ω 21 h=Volume • ⇒ Utilizzare questa misura per definire la δ(P (x) − E) – analogo della δ(x − x0 ) per R e Lebesque – e le proprietà di Chain rules. • ⇒ definire la misura microcanonica δ(E − H(p, q)) [dp dq] 4.1 a pagina 35 • dimostrare il teorema di equipartizione 4.4 a pagina 48 • dimostrare l‘ equivalenza microcanonico ⇔ canonico 5.4 a pagina 55 Lettura: Gelfand Shilov, “Gen. Funct.”, vol.I, cap.3 ATT! Non necessario, solo per amatori distribuzioni. Faccio riferimento al Gelfand perchè, a mio parere, è particolarmente leggibile/discorsivo. Guardare però gli esempi e le conclusioni. 22 A2. Esempi Misura indotta su SP : ω SP ≡ superficie regolare ≡ {x|P (x) = 0 ; ∇P (x) 6= 0} P ≡x 1 ⇒ Esempio 1. ∇P = (1, 0, . . . ) Z Z Z i h N φ(0|x2 , . . . , xN )dx2 . . . dxN =: ωφ(x) δ(x1 ) φ Πi=1 dxi =: RN−1 RN ⇒ i h ω ≡ ΠN dx i 1=2 n P ∇P 6= 0 Esempio 2. scelgo un sistema di coordinate {u1 , . . . , uN } con ( uj = P (x) altre arbitrarie ma D xu 6= 0 (← ∇P 6= 0) φ(x) → φ1 (u) Z Z x φ(x)ω =: δ(uj )φ1 (u)D [du] u Z x = φ1 (u1 , . . . , uj , . . . , un )D [du1 , . . . , (duj ), . . . , duN ] |{z} u | {z } no j−1 =0 propriamente du1 ∧ duj ∧ · · · ∧ duN = (−) duj ∧ du1 ∧ · · · ∧ duN Z x j−1 = φ1 (u1 , . . . , (0), . . . uN )(−) D [du1 ∧ . . . (duj ) · · · ∧ duN ] u uj =0 | {z } no quindi scrivo: x (−)j−1 [du1 ∧ . . . (duj ) · · · ∧ duN ] ω≡D u uj =P | {z } no In particolare, se scelgo allora ω≡ 1 ∂P | | ∂x j u1 = x1 .. . uj = P .. . uN = xN (−)j−1 [dx1 ∧ . . . (duj ) · · · ∧ dxN ] | {z } no 23 ⇒ Esempio 3. SE = {x| ||x||2 − R2 = 0} ⇒ Esempio 4. SR = {x| ||x|| = R} 2.8.1 una definizione e due relazioni La misura indotta ci permette di definire δ(P (x)), l’analogo di δ(x − x0 ). ATT! la δ(P (x)−E) non è l‘analogo della δ(N ) (x−x0 ) definita in RN ovvero funzionale lineare su funzioni test di N variabili, che in questo linguaggio sarebbe la misura indotta su un punto. Ricordarsi che: R R Θ(x) ∂x (φ) ∂x Θ (x)φ(x) = R • δ(x)φ(x) • • • x δ(x) = 0 [R x è un moltiplicatore, quindi ha senso x δ(x): R φ x δ(x) = (xφ) δ(x) = 0 ] x δ′ (x) = −δ(x) ecc. ⇒ Definiamo δ(P (x) − E) usando la misura indotta dalla misura di lebesque sulla superficie regolare SP ≡ {x|P (x) = E ; ∇P (x) 6= 0} cioè definiamo Z Z [dx]δ(P (x) − E), φ(x) =: ω φ ; ∀ φ ∈ S(RN ), K(RN ), . . . scriviamo anche sinteticamente e per ricordarci che stiamo parlando di un R funzionale lineare [dx]δ(P (x) − E), φ(x) = δ(P − E), φ - proprietà; Se Θ(E − P (x)) è la funzione indicatrice : 0 x : P (x) > E Θ(E − P (x)) = 1 x : P (x) ≤ E ⇒ ∂ δ(P − E), φ = ∂E Z ∂ Θ(E − P (x))φ(x)[dx] = ∂E 24 Z φ(x)[dx] P (x)<E ⇒ δ(P (x) − E) dipende solo da P (x) e non dalla scelta delle coordinate, . . . [nel senso P1 = αP −→ ω1 = 1 α(x) ω ecc.] α(x) 6= 0 ⇒ La δ(P (x) − E) è la derivata della funzione indicatrice Θ(E − P (x)) nel senso: Z Z ∂Θ(E − P (x)) ∂P (x) φ(x) = δ(P − E) φ(x) ∀φ ∂xj ∂xj ovvero ∂P ∂Θ(E − P (x)) = δ(P ) ∂xj ∂xj (1) Se Θ fosse una funzione derivabile allora potremmo scrivere con tutta tranquillità (x)) (x)) ∂xj Θ(E − P (x)) = − ∂Θ(E−P ∂xj P (x) = ∂Θ(E−P ∂xj P (x) ∂P ∂E e quindi avremmo verificato la relazione. (2) Ma Θ non è derivabile e quindi la sua derivata va definita nell‘ambito delle distribuzioni Z Z Z ∂φ ∂φ ∂Θ(E − P (x)) [dx] φ(x) = − d[x]Θ(E − P (x)) =− [dx] ∂xj ∂xj ∂xj P ≤E −E) e coinvolge onesti integrali in RN ] [questa è la definizione di ∂Θ(P ∂x N −1 Ora vogliamo mostrare R che∂Pquesto integrale è eguale all‘integrale in R ∂P δ(P − E), ∂xj φ = P =E ∂xj ω φ (3) Per Gauss, assumendo P ≤ E limitato, Z Z ∂P ∂P d φ ω=− ωφ ∂xj P ≤E P =0 ∂xj ∂P dove d ∂x ω φ è il differenziale estreno j in coordinate locali Q ω = (−)j−1 k6=j dxk ∂P ∂xj cosicchè ∂P Y ∂φ d φ ω = (−)j−1 d(φ dxk ) = dx1 , . . . , dxN ∂xj ∂xj k6=j 25 quindi Z P =0 ∂P φω =− ∂xj Z P ≤E come si voleva dimostrare. N ∂φ Y dx] [ ∂xj k=1 In conclusione δ(P − E)φ =: Z φ(x)ω (2.2) ∂Θ(E − P ) ∂P = δ(P − E) ∂xj ∂xj (2.3) P =E inoltre Chain Rules ( P δ(P ) = 0 P δ′ (P ) + δ(P ) = 0 ... ... 26 (2.4) Capitolo 3 idee per un ‘programma minimalista’ Motivazione del paragrafo: mostrare come sia possibile a partire dai “conteggi” degli stati microscopici e delle loro energie ricostruire la termodinamica • Sia Ω l’insieme degli stati microscopici Possiamo pensare a degli oscillatori interagenti Possiamo pensare a spin discreti • Sia H : Ω → R H(ω) è l’energia dello stato microscopico ω. Fra tutte le misure definibili su Ω ne esiste una, ed una sola, che soddisfa alle caratteristiche degli stati termodinamici (sist.canonico) di equilibrio. 3.1 • Misure di Gibbs Sia β un numero reale positivo. ⇒ fissati H e β si consideri, per ogni misura p su Ω, la funzione: 1 p → A(p; β) = H p − S(p) β 27 (3.1) Teorema Se Ω è finito, esiste una unica misura, nell’insieme delle misure p su Ω, che minimizza la funzione A(p, β) per fissati β e H Questa misura si chiama misura di Gibbs ed ha la forma: gβ,H (ω) = e−βH(ω) Z(β, H) ; Z(β, H) = X e−βH(ω) (3.2) ω (fissata H ≡ fissata forma e parametri) —————————————————————⇒ Dim.: La finitezza di Ω riduce la dimostrazione del teorema a dimostrare che la funzione A : [0, 1]Ω → R: P 1 P A(p) P = ω hω pω + β ω pω ln pω ammette minimo assoluto ω pω = 1 ovvero che ∂A 1 = h(ω) + (ln pω − 1) = 0 ∂pω β ∀ω ∈ Ω ma allora ln p(ω) = βh(ω) + cost e quindi p(ω) = Z −1 e−βh(ω) (si veda conto per la umbiased distribution) —————————————————— 3.1.1 • Commenti La proprietà di minimo che caratterizza la misura di Gibbs e’ del tutto simile alla proprieta’ che definisce lo stato di equilibrio termodinamico se si identifica A(g, β) con l’energia libera Si dimostra che tutte le proprieta‘ formali del‘energia libera (in particolare convessità e additività) sono soddisfatte da A(g, β) • Z(β, H) si dice funzione di partizione. Calcolare la misura di Gibbs coincide col calcolare la funzione di partizione. È banale calcolare e−βh(ω) ma non banale calcolare la somma Z(β, H) • ⇒ Z soddisfa all’identità: − 1 1 ln Z = H gibbs − S(gibbs) ≡ A(g, β) β β 28 (3.3) (verificare) Nota: la Meccanica quantistica impone un fattore 1/N ! ∼ N −N quando il sistema considerato è un sistema di N particelle. Vedi paradosso di Gibbs in termodinamica. Vedi gas perfetti, vedi fluido. • Se Ω è uno spazio tipo R|Λ| (vedi il caso di un gas o di un cristallo) cioè se gli stati microscopici sono vettori a |Λ| componenti la misura di Gibbs è definita come nel caso discreto ma Z X −βH(ω) [dω]e−βH(ω) Z(β, H) = e ⇒ Z(β, H) = R|Λ| ω cioè la funzione di partizione è un integrale |Λ| dimensionale. • Quando Ω diventa infinito molte cose interessanti possono accadere. P - Per esempio se Ω è infinito ma discreto la somma Z(β, H) = ω e−βH(ω) diventa una serie : – nascono problemi di raggio di convergenza in funzione dei parametri contenuti in H e di β; – cade la dimostrazione del punto (3) e cade, in generale, se non l’esistenza della misura limite, l’unicità. Si apre cosi’ la possibilita’ di coesistenza fra macrostati. – Diventa critico il passaggio dalle proprietà di H a quelle di g. Per esempio non e’ piu’ vero, in generale, che le proprieta’ di simmetria dell’ hamiltoniano passano alla misura. Si parla di rottura spontanea di simmetria. “Questi problemi non segnalano fastidiose patologie matematiche ma sono gli aspetti salienti del comportamento dei sistemi fisici.” [Glimm e Jaffe : Modern Physics] • Un‘ultima osservazione. Spesso non è possibile calcolare esattamente la misura di Gibbs (la Z). In questo caso cerchiamo una qualche approssimazione calcolando il P P minimo di A(p) = ω hω pω + β1 ω pω ln pω non su tutto lo spazio delle misure possibili ma su un sottospazio di misure semplici (come per esempio le misure fattorizzate). Questo metodo si dice campo medio. Partendo dall’identit`[3.3], è possibile costruire un modello di termodinamica; cioè è possibile mostrare come le relazioni fra valori di aspettazione e parametri della misura siano le tipiche relazioni della termodinamica di equilibrio. 29 3.2 • Ricostruzione della Termodinamica H dipende da parametri quali le costanti di interazione, i campi esterni, il volume etc. Possiamo scrivere r X Ji Xi (ω) H(ω) =: − i=1 ————————————————————– nel caso Ising: P X1 (ω) = Pi∈Λ σi (ω)) e J1 è il campo magnetico esterno X2 (ω) = <i,i′ > σi (ω)σi′ (ω)) e J2 è la costante di interazione spin–spin nel caso del gasperfetto in campo gravitazionale P X1 (ω) = i∈N zi (ω) e J1 è il campo gravitazionale P X‘1 (ω) = i∈N |vi (ω)|2 e J‘1 è la massa delle particelle ATT! H = HV la parte configurazionale dell’hamiltoniana dipende sempre dal volume, perche’ e’ somma o integrale le cui variabili configurazionali hanno per range il volume. Quindi nelle considerazioni che seguono e’ sempre presente, esplicitamente o implicitamente questa variabile estensiva. ————————————————————– Se identifico • i parametri Ji con le variabili intensive, V con il volume e β1 con la temparatura • A(g) con l‘energia libera del sistema ho un modello di sistema che verifica gli assiomi della termodinamica. Infatti con le assunzioni precedenti • Ogni stato macroscopico (≡ misura di Gibbs) è univocamente determinato dal set finito di variabili V, β; J1 , . . . Jr . • Se A(g) è l‘energia libera del sistema allora E =< H(g) > è l‘energia interna e S(g) è l’entropia del sistema (vedi cap 3) • le variabili estensive duali delle con Jr sono calcolabili per derivazione della A 30 • posso definire per il passaggio (reversibile) dallo stato (β, J ) allo stato (β + dβ, J + dJ ), quantita’ di calore e lavoro δQrev =: β1 dS δW =: dE − δQrev = −d H + βdS Notare che δQrev non è un diff. esatto Ma (per definizione): dE = δQrev − δL è diff. esatto. e β è il fattore integrante: dS = βδQrev 31 I principio II principio Parte II Ensemble 32 3.3 sistema isolato, sistema icon riserva di calore, sistema icon riserva di materia Microcanonico sistema isolato ⇓ Canonico sistema con riserva di calore ⇓ Grancanonico sistema con riserva di calore e di particelle Nel sistema isolato ⇒ l’ energia è una variabile deterministica; V,N,H Se il sistema può scambiare calore con un termostato, ⇒ l’energia interna diventa una variabile aleatoria; V,N,[H] Se il sistema può scambiare calore con un termostato e particelle con una riserva, ⇒ anche il numero di particelle (la densità) diventa una variabile aleatoria V,[N],[H] ricordo che nel descrivere gli stati di equilibrio termodinamici sono libero di usare come coordinate libere grandezze intensive od estensive ma almeno una coordinate deve essere estensiva. 33 Capitolo 4 Sistemi classici isolati H = E fissato misura indotta dalla misura di Liouville µL MICROCANONICO normalizzata ↓ TERMODINAMICA con ( S ≡ kB ln Σ(E) T −1 =: NOTE • varie definizioni di S ; • additività di S ; ∂H • xi ∂x = δij T j −→ equipartizione . ———————————————————————- 34 ∂S ∂E 4.1 Misura Microcanonica e Termodinamica Per stato microscopico si intende un punto (una traiettoria) nello spazio delle fasi; è descritto dalle variabili (p, q) ∈ R2f . L’Hamiltoniano H(p, q) dipende dai parametri Jα , α = 1, 2, . . . , r. TipicaP mente pensiamo H(p, q) = α Jα Xα (p, q) Le Jα sono costanti di interazione e le Xα (p, q) sono grandezze microscopiche ( coniugata a Jα ) ⇒ il sistema è pensato isolato e lo spazio degli stati microscopici che prendiamo in considerazione è l‘insieme degli stati a energia fissata E cioè la superficie {(p, q)| H(p, q) = E} Per stato macroscopico si intende la misura di probabilità indotta dalla misura di Liouville sulla superficie H(p, q) = E : 1 µm (dp dq) = Γ(E) δ E − H(p, q) [dp dq] Γ(E) = R δ(E − H)[dp dq] La misura è descritta dalle variabili (E; . . . Jα , . . . ). ⇒ come nel caso monociclico, si identifica l’energia meccanica totale con l’energia interna. ⇒ Si definisce l’entropia S S(E, . . . , Jα , . . . ) =: kB ln Γ(E) e si dimostra che S soddisfa positività, monotonicità, convessità, additività, cioè ha le proprietà dell‘entropia termodinamica. In particolare queste proprietà ci permettono di identificare ∂S ⇒ la quantità ∂E con l‘inverso della temperatura del sistema in esame ∂S ⇒ le grandezze ∂Jα con le variabili coniugate ai parametri Jα , pensati come variabili intensive o estensive (La definizione equivale a fissare le equazioni di stato del sistema macroscopico) ∂S = − T1 Xα Più precisamente ∂J α P ( δL = α Jα dXα Ci è quindi possibile definire il lavoro e calore via δQ = dE − δL 35 ⇒ È importante notare che con questa costruzione non solo l‘entropia assume il significato di grandezza probabilistica aasociata al microscopico, ma anche tutte le altri grandezze termodinamiche sono ricondotte a valori di aspettazione di grandezze microscopiche. Per esempio le variabili coniugate ai parametri Jα , sono i valori attesi delle grandezze microscopiche ∂H(p,q) = Xα (p, q) sulla misura microcanonica. ∂Jα Z ∂H 1 Xα ∂H =− =− [dp dq] δ(E − H) T ∂Jα Γ(E) ∂Jα (vedi 4.3.1 a pagina 40) La misura microcanonica è una “misura singolare” rispetto a Liouville, cioè non è esprimibile tramite una densità come ρ(p, q) [dp dq], e quindi non R si può definire l’entropia come S = ln ρ [dp dq]. Tuttavia la misura è una misura uniforme sulla ipersuperficie, quindi ... 36 4.2 Limite termodinamico ed Entropia Siamo interessati a sistemi con 2f = L gradi di libertà. 2f → ∞ : limite termodinamico. • diciamo che ∃ il limite termodinamico se ⇒ ln Γ(E) 2f tende a un limite finito per f → ∞. (⇒ tutte le grandezze derivate esistono . . . ) • Le situazioni significative sono quelle in cui l’energia totale E del sistema si comporta in modo analogo, cioè: ⇒ E 2f → e per f → ∞; e finito. Ciò equivale ad affermare che energia interna ed entropia sono grandezze estensive, e che gli stati macroscopici di interesse hanno un’energia media per grado di libertà finita. P1 2 Questa richiesta è chiara per l’energia cinetica K = 2 pi . Per l’energia potenziale essa si traduce in vincoli sul tipo di interazione fra i gradi di libertà, che escludono casi patologici tipo “collasso”. più dettagliatamente: Gallavotti cap. IV L‘ esistenza del limite termodinamico permette di dare definizioni alternative di entropia, definizioni diverse ma fra loro equivalenti. ∂S risulta la stessa. Le Equivalenti nel senso che la temperatura 1/T = ∂E definizioni sono: Z Γ(E, f ) = δ(E − Hf )[dp dq]f Σ(E, f ) = Z θ(E − Hf )[dp dq]f soddisfano a relazioni tipo: ln Γ(E, f ) − ln Σ(E, f ) = O(1) ovvero possiamo usare come definizione di entropia sia ln Γ(E) che ln Σ(E). Ciò torna utile in varie dimostrazioni. Un esempio (gli Hamiltoniani quadratici ) per chiarire l’asserto. 37 4.3 il caso dei Sistemi ideali Sistemi idealii, sistemi senza interazione fra gradi di libertà diversi, sono descritti da Hamiltoniani Quadratici f f 1 X 2 X 2 H =: qi p + 2 1 i 1 • cristallo classico • corpo nero Confrontiamo Γ(E) con Σ(E). Γ(E) = Z f f 1X 2 X 2 qi )[dp dq] δ(E − p + 2 1 i 1 Si passa a coordinate polari sferiche e si ha: (Ω2f = angolo solido in 2f dimensioni) Γ(E) = = Ω2f di raggio √ Z Z δ(E − R2 2f −1 )R dRdΩ2f 2 f −1 1 √ δ( 2E − R)R2f −1 =Ω2f 2E R Notare che non si ha la superficie della sfera 2E in 2f dimensioni, ma quella superficie × √12E . Σ(E) = Z f f 1 1 1X 2 X 2 qi ) [dp dq] pi − θ(E − 2 = Ω2f √2E Ω2f = (2E)f 2f 0 2f R2f questo è il volume ! Nota————— ricordo che Ω2f = e che Γ(f ) = πf Γ(f ) f −1 [ f −1 e ] (stirling), quindi una espressione più esplicita, che h if −1 useremo nel seguito per la Γ(E) è Γ(E) ∼ (4πe)f Ef 38 Verifichiamo che per H quadratici valgono le Γ(E) f = Σ(E) E (4.1) ∂ ln Γ(E) ∂ ln Σ(E) 1 = − ∂E ∂E E (4.2) • dalla (1) segue che ln Γ(E)−ln Σ(E) = O(1) nell’ipotesi che Ef → O(1), ma allora la differenza è trascurabile per f → ∞ in quanto ln Γ(E) ∼ f · O(1) • dalla (2), sempre nell’ipotesi E f → O(1), segue 1 ∂ ln Γ(E) ∂lnΣ(E) − = O( ) ∂E ∂E f Cioè: la temperatura definita dalle due entropie è la stessa per f → ∞. 1. Notare che, più precisamente possiamo scrivere ∂ ln Σ(E) Γ(E) f = = ∂E Σ(E) E da cui 1 E T = 2 2f →e cioè la temperatura è il doppio dell’energia media per grado di libertà. 2. Poichè il calore specifico è ⇓ ∂T −1 =f ∂E in questi sistemi il calore specifico è costante, indipendente dalla temperatura. cs = in contraddizione con i dati sperimentali per basse temperature. Per Corpo nero e Cristallo classico ⇒ vedi Gallavotti cap.3 39 4.3.1 limite termodinamico Ritorniamo al caso generale e assumiamo che esista il limite termodinamico • E = O(2f ) e, più incisivamente, • ln Γ(E) 2f poichè = O(1) ∂Σ(E) ∂E ovvero E f ∼ 12 e Γ(E) ∼ s2f , ⇒ (E = e2f ) ⇒ Z Z Σ(E) = Γ(E)dE = 2e s2f df = 2es2f +1 = Γ(E), Le relazioni che abbiamo verificato nel caso di Hamiltoniani quadratici sono estese quindi al caso di Hamiltoniani generici. Possiamo usare queste relazioni per dimostrare con maggior semplicità le proprietà termodinamiche della funzione S Come prima applicazione delle relazioni precedenti, mostriamo che le derivate parziali di S rispetto ai parametri che definiscono H, cioè le variabili termodinamiche coniugate sono i valori attesi delle grandezze microscopiche coniugate ai parametri stessi premesso che estendiamo la relazione R R f H ∂J dxf (H(J)) = dx H J a funzioni generalizzate senza farci problemi, scriviamo: Z Z ∂H ∂J dxΘ(E − H(x)) = − dxδ(E − H(x)) ∂J R 1 quindi ∂J log(Σ(E) = − Σ(E) dxδ(E − H(x)) ∂H ∂J =− ∂H Γ(E) < > Σ(E) ∂J P Γ(E) = T1 e se pensiamo H(x) = α Jα Xα (x) , dove ma per quanto detto Σ(E) Xα (x) è una quantità microscopica allora concludiamo che ∂Jα log(Σ(E) = − 1 < Xα (x) > T e quindi che le grandezze macroscopiche coniugate a Jα sono i valori attesi via misura microcanonica delle quantità microscopiche associate a Jα 40 4.3.2 Monotonia, Positività e Convessità dell‘ entropia Argomenti qualitativi. • Monotonia Se E > E ′ ⇒ Σ(E) > Σ(E ′ ) Σ(E) >0 Dalla monotonia segue che ∂ ln∂E e quindi la derivata ha le proprietà di una temperatura . . . H deve essere inferiormente limitata • Positività ⇒ ∃ uno stato di minima energia; per esso R Γ(E) = δ(E − H) = 1 ⇒ ln Γ(E) = 0 + monotonia ⇒ positivita′ • Convessità Γ λJ1 + (1 − λ)J2 ≤ λΓ(J1 ) · (1 − λ)Γ(J2 ) (per la dimostrazione vedi sistema canonico) La convessità di S è necessaria perchè ∂2S ∂E 2 ∂2S ∂jσ Jρ ... (calore specifico, suscettività, . . . ) ⇒ devono avere proprietà di positività. La convessità di S permette di descrivere il sistema termodinamico in varie rappresentazioni equivalenti usando differenti variabili libere. 1. Quando uso (E, . . . , Jα , . . . ) come parametri per definire gli stati macroscopici di equilibrio e quindi S = S(E, . . . , Jα , . . . ) sono nella rappresentazione dell’energia 2. La convessità di S mi permette di passare ad altre rappresentazioni: quella dell‘entropia, dell‘energia libera etc. S(E, . . . , Jα , . . . ) + Γ(T, . . . , Jα , . . . ) − T S = 0 + estremalita′ . . . e cioè lo stato è parametrizzato da . . . 41 4.3.3 Additività dell’Entropia microcanonica Spazio delle fasi A ΦA= { x 1 x 2 x3 } ΦB= { y1 y 2 y3 y4} ΦAUB B (x,y) x ΦA y ΦAU B = { x 1 x 2 x 3 y1 ΦB y 2 y HA S B = HA + HB + HAB y 3 4 } Hmin = 0 ⇒ HAB trascurabile perchè: penso ad una situazione tipo reticolo per la quale: HAB ≡ interazione 1. HAB ÷ superficie HA , HB ÷ volume 2. interazione e range finito: le particelle di A non lasciano A e idem per B e quindi l‘interazione è proporzionale alla superficie mentre l‘energia totale al volume. ......... ΓA S B = Z A S B µA (dx)µB (dy)δ E − HA (x) − HB (y) = x ≡ (p, q) perA y ≡ (p, q) perB Z dE ′ µA (dx)δ(E ′ − HA (x)) δ(E − E ′ − HB (y))µB (y) {z }| {z } | Z Z 1 dθΓA (θE)ΓB (1 − θ)E) = dE ′ ΓA (E ′ )ΓB (E − E ′ ) = = 0 (perchè θ fra 0 e 1 ? ) 42 Nel limite termodinamico l’integrale coincide con il valore assunto dalla funzione integranda calcolata nel punto di massimo. Limite termodinamico significa: numero di gradi di libertà |L| → ∞ con |A| = α|L| ; |A| = n. gradi di libertà di A |B| = (1 − α)|L| ; |B| = n. gradi di libertà di B S |L| = |A B|. E |X| E Se assumiamo che ΓX (E) ∼ |X| → e , come abbiamo visto per con |X| H quadratici, si ha: ΓA S B (E) = Z 1 dθ 0 = Z 0 Il punto sella è θ : 1 θE αL (1 − θ)E (1−α)L αL dθeL ln θ α α (1 − α)L 1−α 1−θ 1−α e ∂ ln(· · · ) = 0 −→ θ = α ∂θ morale cioè ΓA S B (E) ≃ eL = ΓA (E) · ΓB (E) 1. additività dell‘energia interna EA S B = EA + EB 2. additività dell‘entropia SA S B (E) = SA (EA ) + SB (EB ) 3. e i due sottoinsiemi hanno la stessa temperatura 1 ∂SB (E) ∂SA (E) 1 = = = TA ∂E |EA ∂E|EB TB l’ultimo punto e’ la condizione termodinamica di equilibrio termodinamico fra A e B. 43 NOTE Additività dell’entropia e limite termodinamico vedi Parisi ATT! il gas ideale: paradosso di Gibbs vedi 4.3.4 pagina 45 4.3.4 Gas ideale classico e paradosso di Gibbs Spazio h delle fasi i : (p, q) L L qi ∈ − 2 , 2 pi ∈ R i ∈ [1, 3N ] se sono in tre dimensioni ed ho N molecole di gas V (q) = 0 ATT! energia configurazionale è: quindi tutta l‘energia è cinetica. 3N 1 X 2 H= pi 2m i=1 Γ(E) = Z 3N 1 X 2 [dp][dq]δ(E − pi ) 2m i=1 L’integrale in q è immediato : L3N . L’integrale in p: passo a coordinate sferiche [dp] = dΩ3N dk k 3N −1 ; k= 3N X i=1 p2i 1 2 ; k ∈ [0, ∞) ⇒ Γ(E) =L 3N · Ω3N Z ∞ 0 dk k3N −1 δ(E − =L3N · Ω3N · (2mE) con Ω3N = 2π 3N/2 Γ(3N/2) 3N−1 2 1 ·q 2E m angolo solido in 3N dimensioni. 44 1 2 k )= 2m 4 h E 3/2 i S(E) = kB ln T (E) = kB N ln L3 + O(ln 2mE) πm 3 N ATT! ( 3 N T −1 = ∂S(E) ∂E = 2 kB E −1 2 1 ∂T cV = ∂E = 3 kB N O(· · · ) = ln N indipendente da T ! Ora divido il volume V in due parti: xV setto separatore V1 = x V (1−x)V V2 = (1 − x) V ; x ∈ [0, 1] Energia E1 = xE E2 = (1 − x)E Entropia S1 = xN ln(xV )e3/2 S2 = (1 − x)N ln[(1 − x)V ]e3/2 Energia totale E Entropia totale S = N ln V e3/2 e è la stessa quantità nelle tre espressioni perchè la T è costante. ma allora i h ∆ = S − (S1 + S2 ) = −N ln xx (1 − x)1−x > 0 qualunque sia la partizione fatta. ⇒ Miscelando due (lo stesso !) gas ideali l’entropia aumenta. Miscelare = eliminare il setto 45 Paradosso nel senso: S1+ S2+ S misc S1 + S 2 ? Se il gas nelle due partizioni è diverso i sistemi con setto e senza setto sono macroscopicamente diversi e ha senso parlare di entropia di miscelazione ma se il gas è lo stesso nelle due partizioni, macroscopicamente il sistema con setto e senza setto è lo stesso (il setto può essere puramente ideale io penso il gas formato da due sottoinsiemi... ) Ripetendo l’esperimento con diverse partizioni, l’entropia del sistema finale, se fosse semplicemente la somma delle entropie delle parti (additività dipenderebbe dalla storia del dell‘entropia) avrebbe valori diversi ⇒ gas ! Non sarebbe una funzione di stato. Microscopicamente non è cosı̀ perchè il setto impedisce alle molecole di A di occupare posizioni in B e viceversa 1. Si confronti con il calcolo sull’additività: perche’ in quel caso funziona? 2. Se definisco l’entropia di un sistema con N1 particelle di tipo 1, N2 particelle di tipo 2, S = ln Γ(E) − [N1 ln N1 + N2 ln N2 ] il paradosso sparisce. Come dire: µGibbs = m 1 δ(E − HN )µL (dp dq) N1 !N2 ! 46 3. Verificare che con questa definizione si ha nel caso esaminato: S1 = 1=2 6= S 16=2 e che S + S = S 1=2 mentre S + S + · · · , S2 = · · · , Stot 1 2 1 2 tot tot 16=2 ∆Smisc = Stot Ancora una osservazione Se mi limito ai gradi di libertà configurazionali e dico (gas ideale classico): Γ=VN cosicchè Sconf = N ln V ed inoltre considero una densità ρ (prendo ρ = 1 per semplicità) t. c. V ρ = N , allora Sconf = N ln N − N ln ρ ⇒ Sconf cresce più velocemente di N ! non è grandezza estensiva, non esiste il limite termodinamico 47 4.4 Equipartizione Uno dei risultati più interessanti della MS classica è legato al fatto che l‘energia totale del sistema è egualmente divisa fra tutti i gradi del sistema. ( e che questa energia per grado di libertà è la temperatura macroscopica) ∂H Si consideri il valore atteso della grandezza xi ∂x , ove xi è genericammente j o una cordinata configurazionale o un impulso Z ∂H 1 ∂H xi = δ(E − H) µ(dq dµ)xi ∂xj Γ(E) ∂xj Z ∂θ(E − H) 1 = µ(dq dµ)xi − Γ(E) ∂xj 1 δij Σ(E) = Γ(E) d’altra parte Σ(E) h ∂ ln Σ(E) i−1 = kB T = Γ(E) ∂E in conclusione 1. H = 2. H = ⇒ 4.4.1 2 1 pi i 2 m1 +V 2 1 pi i 2 m1 + PL PL 1 2T = ∂H = δij kB T ∂xj xi = pi −→ p2i m1 = kB T ∀i xi = qi −→ Ji qi2 = kB T + E = H = 12 kB T · 2L PJ i E kB 2L xi i ≡ qi2 e kB ∀i ! equipartizione statistica, equipartizione dinamica ATT! L’equipartizione statistica non è l’equipartizione dinamica. Ovvero, 1) µ = δ(E − H)[dp dq] → equipartizione. 2) Quali sono le traiettorie del sistema descritto da H ? n ṗ = ∇p H q̇ = ∇p H 48 3) Per queste traiettorie, è vero che la media temporale dell’energia che E compete ad un singolo grado di libertà è 2f ? In generale NO. Per esempio, i normal modi non si scambiano energia. - Cosa accade per il limite termodinamico se modifico la hamiltoniana aggiungendo una piccola perturbazione ? • Dal punto di vista dinamico H → H + γH1 con γ → 0, può cambiare qualitativamente Teorema di Poincare’ Sia H hamiltoniano con n costanti del moto in involuzione 1 Sia H + γH1 tale che γ → 0, · · · Allora non esiste integrale primo analitico indipendente da H . Come dire: una piccola perturbazione tende a rendere ergodico il sistema. ATT! Le cose sono più complicate: Teorema KAM • Dal punto di vista stocastico posso affermare che R ( Γ0 (E) = δ(E − H)[dp dq] ln Γ0 (E) ∼ ln Γγ (E) R Γγ (E) = δ(E − H − γH1 )[dp dq] come dire che per la M.S. H si comporta come fosse ergodica. Notare che δ(E − H) “impone” scambi di energia per tutti i gradi di libertà del sistema, anche se tali scambi non sono nella dinamica. Questo è anche il senso di HA S B = HA + HB + HAB . | {z } ≃0 (con HAB trascurato) ATT! L’interazione è nel vincolo HA S B = E, R ovvero in dE ′ δ(E − HA − E ′ )δ(E ′ − HB ), e viene tenuta in conto anche se HAB = 0 . 1 vedi Arnold , non elenco le ipotesi “tecniche” 49 Capitolo 5 Sistema Canonico 5.1 MICROCANONICO −→ CANONICO B A A S B ≡ sistema totale, descritto dalla misura microcanonica. B ≡ termostato (riserva di calore). |B| → ∞ |B| >> |A| E(B) HB quadratico |B| → eB : H S = HA + HB + HAB A B | {z } =0 Voglio costruire la misura di probabilità per A condizionata da B ( dal poter scambiare calore con B). 50 Chiamo questa misura misura Canonica R L L AB )µB µA B δ(E − HA − HB − H } | {z =0 µCAN =: R S δ(E − HA − HB − HAB )µL µL A B | {z } B A =0 osservo che 1 ΓB (E ′ ) = (HB quadratica) ∼ (4πe) 2 |B| E ′ 1 |B|−1 2 (∗) |B| e che se integro suoi gradi di libertà del termostato ottengo µCAN HA )µL A ΓB (E − = ΓB S A (E) = ΓB (E−HA ) ΓB (E) ΓB S A (E) ΓB (E) = 1− HA E 1 |B|−1 2 ZA (·) Per il numeratore ho usato (*) e osservo che per |B| → ∞ 1− H HA 21 |B|−1 HA 12 |B|−1 − A = 1− ∼ e 2 eB E e|B| per il denominatore solito gioco: Z Z ′ ′ ′ L L dE ′ ΓB (E − E ′ )ΓA (E ′ ) S dE δ(E − E − HB ) · δ(E − HA )µB µB = B A poichè |B| >> |A| , usando sempre (*), posso scrivere: Z ′ −E ΓB (E) · dE ′ e eB ΓA (E ′ ) = ΓB (E) · ZA (eB ) quindi − 2 e1 HA L B µA µCAN = Z(eB )−1 e A “vede” il termostato attraverso l’unico parametro temperatura del termostato. 1 2 eB che è l‘inverso della µCAN [dp dq] = Z −1 (β)e−βHA (p,q) µL A [dp dq] 51 Osservazione 0 Abbiamo ricavato questa stessa misura con un argomento completamente diverso in 3.1 a pagina 28 Ricordo che Z(β) ( funzione di partizione) soddisfa all’ equazione fondamentale ed è funzione di β e di tutti i parametri che determinano la hamiltoniana Osservazione 1 Per H = K(p) +V (q) si ha fattorizzazione della misura | {z } cinetica −1 (β)e−βK(p) [dp] · ZV−1 (β)e−βV (q) [dq] µCAN [dp dq] = ZK A I gradi di libertà cinetici sono variabili aleatorie indipendenti da quelli configurazionali. Ha senso limitarsi a variabili cinetiche: esempio teoria cinetica dei gas Ha senso limitarsi a variabili configurazionali: esempio M.S. su reticolo per stati configurazionali. Osservazione 2 Si può riprendere tutto il discorso sulle variabili macroscopiche viste come valori attesi di grandezze micriscopiche via Funzione di Partizione Z(β). Es. H non è variabile fissata a priori (diversamente da microcanonico). Per il sistema canonico è variabile aleatoria. ∂ H = − ∂β ln Z energia interna ∂2 ∂ 2 H = ∂β (H − H )2 = − ∂β 2 ln Z = T cs (cs ≡ calore specifico). In generale per ogni A(C) osservabile microscopica estensiva di cui si vuol studiare il corrispettivo macroscopico si segue una tecnica del tipo che segue. Si considera JA variabile coniugata, e si modifica l‘hamiltoniana del sistema H0 (C) aggiungendo il termine JA A(C) . La nuova funzione di partizione P Z(β, JA , · · · ) = C eH0 (C)+JA A(C) permette di calcolare i valori medi e tutti gli altri momenti per derivazione: < A >O = ∂JA log Z(β, JA , · · · ) JA =0 < A2 > − < A2 >= ∂J2A log Z(β, JA , · · · ) JA =0 dove con < · >0 si intende rispetto alla misura indotta da H0 Con la stessa tecnica posso calcolare le correlazioni (e la funzioni di correlazione connesse): < AB > − < A >< B >= ∂J2A ,JB log Z(β, JA , JB , · · · ) JA ,JB =0 52 5.2 Teorema fluttuazione-dissipazione La variazione di una grandezza termodinamica al variare di un parametro intensivo (o esensivo) del sistema prende il nome di suscettività o di funzione di risposta. Per esempio la derivata della concentrazione al variare della pressione, della polarizzazione al variare del campo elettrico esterno, della maghetizzazione al variare del campo magnetico esterno, sono tutte suscettività. Il calore specifico è grandezza di questo tipo. In modo più raffinato la derivata della magnetizzazione nel punto x al variare del campo magnetico esterno nel punto y si chiama funzione di risposta. La meccanica statistica permette di scrivere una semplice equazione che lega le funzioni di risposta alle funzioni di correlazione connesse. Questa relazione va sotto il nome di teorema di fluttuazione-dissipazione. Precisamente: sia H(C) l‘hamiltoniana del sistema e immaginiamo che Hλ dipenda dal parametro λ Allora possiamo scrivere hP i ∂<A> −βHλ (C) 1 = ∂ + λ A(C)e C ∂λ Z(λ) la derivata ha due contributi, quello del denominatore è dato da −β < ∂H(λ) ∂λ > Z(λ) per cui possiamo scrivere ∂Z(λ) ∂λ = h ∂<A> ∂H(λ) ∂H(λ) i = −β < A > − < A >< > ∂λ ∂λ ∂λ Se immaginiamo che il parametro l controlli una piccola variazione dell‘hamiltoniana, una ’perturbazione’ per esempio data da un campo esterno, H0 → H0 + λH1 e indichiamo con < · · · >0 i valori attesi del sistema imperturbato ( per λ = 0), allora possiamo scrivere i h ∂<A> = −β < A H1 >0 − < A >0 < H1 >0 ∂λ La funzione di risposta è data in termini delle funzioni di correlazione connesse imperturbate. Il teorema identifica la risposta di un sistema (in equilibrio termodinamico) ad una piccola perturbazione esterna con il comportamento dovuto a fluttuazioni spontanee. È un primo passo per lo studio dei processi di rilassamento di un sistema da uno stato di non-equilibrio attraverso le sue propriet di fluttuazione all‘equilibrio. Questi processi implicano trasformazioni irreversibili di energia in calore (dissipazione) a partire dalle fluttuazioni (reversibili) tipiche dello stato di equilibrio Lo sviluppo dell‘analisi di queste trasformazioni costituisce la ’teoria della 53 risposta lineare’ ( Green-Kubo relations, Onsager reciprocal relations) 5.2.1 Teoria di Einstein delle fluttuazioni è qui che devo metterlo?? -Peliti cap 5La distribuzione di probabilita’ per una osservabile B(ω) e’ data da: X H(ω) −1 e δ(B(ω) − B) p(B = B) = Z {ω} La distribuzione di probabilita’ per una coppia di osservabili B(ω) e C(ω) e’ data da: X eH(ω) δ(B(ω) − B) · δ(C(ω) − C) p(B = B, C = C) = Z −1 {ω} Etc... E’ inutile sottolineare che la distribuzione di probabilita’ e’ molto di piu’ di quanto finora abbiamo preso in considerazione, anche se dati valori medi e correlazioni possiamo incominciare ad approssimare le misure con la gaussiana. Concentriamoci sulla distribuzione di probalilita’ congiunta delle osservabili Xi Allora abbiamo che : P Y X δ(Xi (ω) − Xi ) e−β i Ji Xi (ω) p(X1 , X2 , . . . ) = Z −1 = e−β P i i {ω} J i Xi Z −1 X Y i {ω} δ(Xi (ω) − Xi ) Ma la somma da’ il numero degli stati che rispettano i vincoli fissati dalle “delta” e quindi e’ l’esponenziale dell’ entropia calcolata per i valori delle variabili estensive fissati in X1 , . . . , Xr e con l’energia fissata in E = P i Ji Xi . (Att! l’energia e’ determinata dai valori delle Ji ) Ne concludiamo che X Ji Xi − T S(X1 , ..., Xr ; E) ln(p(X1 , X2 , . . . )) = −β A − ( i E’ una differenza fra “energie libere” Piu’ esplicitamente scriviamo : P −β Ji (Xi − Xi ) i · eS(β,J1,·,Jr )−S(X1 ,...,Xr ;E) e 54 Ora se e’ possibile sviluppare questa espressione intorno ai valori di equilibrio Xi - cioe’ se non siamo a valori critici- possiamo osservare che - il termine di ordine zero e’ nullo (l’entropia e’ la stessa) - il termine lineare si annulla (le derivate prime sono le variabili duali; Legendre) ∂2S - il termine quadratico risulta associato alla matrice jacobiana ∂Xi ∂Xj .... eq Se e’ possibile trascurare gli ulteriori termini dello sviluppo la distribuzione risulta gaussiana e potete verificare che le correlazioni sono date dalla matrice delle suscettivita’ che abbiamo ottenuto nei paragrafi precedenti. Riprenderemo queste considerazioni nei capitoli sucessivi per specializzarle nel caso di osservabili locali. 5.3 Equipartizione xi ∂H =Z −1 ∂xj Z ∂H −βH(x) e ∂xj Z 1 ∂ −1 e−βH(x) =Z [dp dq]xi − β ∂xj Z 1 1 =Z −1 δij [dp dq]e−βH(x) = δij β β [dp dq]xi Solite osservazioni: Equipartizione e contraddizione con i dati sperimentali a bassa temperatura. 5.4 Equivalenza microcanonico - canonico Indico con C = (p, q) ; H(C) = H(p, q) ; dC = [dp dq] ; ecc. È interressante notare che Z Z Z −βH(C) µ(dC)e = dE µ(dC)δ(E − H(C))e−βH(C) Z Z −βE = dEe µ(dC)δ(E − H(C)) l‘ultimo integrale è evidentemente il volume dello spazio delle fasi corrispondente agli stati di energia E, cioè è Γ(E) ovvero Z Z −βH(C) Z(β) = µ(dC)e = dEe−βE eS(E) (5.1) 55 Daltra parte sappiamo che Z(β) soddisfa alla equazione fondamentale log Z(β) = −β H + S(β) le due espresioni devono coincidere. Nel limite termodinamico E diverge e quindi l‘integrale [5.1] si può calcolare col metodo del punto sella: ovvero calcolando l‘ estremo della funzione φ(β, E) = −βE + S(E) l‘equazione è β = ∂E S(E) (!) , che dà S in funzione di β, mentre il valore per E che minimizza è, per confronto con [5.1] evidentemente E = H (Nota: abbiamo fatto la trasformata di legandre come farebbe un qualsiasi termodinamico) Ma possiamo dire di più Nel limite termodinamico µC = µm : le misure canonica e microcanoni ca coincidono: quando l’energia E microcanonica ⇔ H canonica. Precisamente possiamo dimostrare che R R µ(dC)e−βH(C) A(C) µ(dC)δ(E − H(C))A(C) R R ∀A(C) : = −βH(C) H =E µ(dC)δ(E − H(C) µ(dC)e R Riscrivo il termine di destra introducendo 1 = dEδ(E − H(C)) Z Z µ(dC) −βH(C) e δ(E − H(C)) A(C) dE Z(β) e sostituendo a Z(β) → e−β<H>β +S(β) Z Z dE µ(dC) e−β(E−<H>β ) e−S(β) δ(E − H(C)) A(C) Nel limite termodinamico il numero di gradi di libertà L tende ad infinito. Se tutto va bene H(C) L è una buona variabile aleatoria : media finita (cV ∼ L). Questo è come dire che e varianza dell’ordine √1L −β(E− H e → δ(E − H ) Riscalando E = E ′ L , l’integrale diventa Z H(C) ′ <H> )A(C) dE ′ e|−βL(E{z− L }) µ(dC)e−S(β) δ(E ′ − L ↓ (questo sempre nullo tranne per E ′ − H La misura si concentra in E ′ = L 56 H L = 0) H L =u ma allora δ(E ′ − H(C) L ) H =δ L −S(β) µ(dC)e δ − e quindi la − H(C) A(C) L H(C) L H L è la misura microcanonica sulla superficie a energia uguale a H . −S(β) è la giusta normalizzazione perchè per A(C) ≡ 1 si ha Infatti R e 1 = µ(dC)e−S(β) δ( H − H(C)). In conclusione nel limite termodinamico ( −β(E− H e → δ(E − H ) e−S(β) → Γ( H ) A micro = A CAN ——————————————— In modo sintetico (e formale) diciamo che per L → ∞ la misura diventa δ-forme e che µ(dC) −βH(C) µ(dC) e → δ( H L − HL (C)) ZL ΓL − cioè ∃ finito 1 ln ZL ∼ La(β . . . ) + σ(L) β − 1 ∂ ln ZL = a(β . . . ) β ∂L energia libera per grado di libertà. 57 5.5 hamiltoniani quadratici H= 1X xi Hij xj 2 ; ij ⇒ xi Hij xj > 0 ∀x integrali gaussiani funzione di partizione 1 1 Z(β) = (2π)f ( )f [det(H)] 2 β ⇔ da cui < H >= f kB T cs = kB f equipartizione ⇔ xi xj = 1 β (H −1 )ij Tutti gli hamiltoniano quadratici danno la stessa termodinamica: energia interna proporzionale alla temperatura, calore specifico costante. 5.6 Cristallo Classico ATT! Il cristallo ha il baricentro fissato in un punto dello spazio.(per esempio origine coordinate) qj j a L particelle oscillanti elasticamente intorno ad una configurazione di equilibrio dimensione (lineare) del cristallo L, passo del reticolo = a, numero di particelle N = [ La ]D coordinate locali q̄i , impulsi p̄I X 1 X 1 H= p̄2i + γ (q̄i − q̄j2 ) 2 2 i,j i=1,N 58 la funzione di partizione è il prodotto della parte cinetica = (2πβ)3/2 N e della parte configurazionale : Z Y P X 1 2 2 Zconf (β) = [ dqi ]e−βω i,j 2 (q̄i −q̄j ) δ( q̄i ) i i Per esempio P in una dimensione con il cambiamento di variabili y0 = N1 j=1,N xJ (baricentro) e yj = (xj+1 − xj ) j = 1, 2, · · · , (N − 1) l‘integrale diventa: baricentro fissato y0 = 0 R Q 1 P 2 N−1 N−1 Zconf (β) = dy0 j=1,N −1 δ(y0 )e−βγ 2 j6=0 yj = [2π] 2 [γβ]− 2 A questa espresione applico le considerazioni del paragrafo precedente per calcolare < H >β calore specifico etc. Nota che se non fisso il baricentro ho divergenza, se fisso il baricentro in un volume V ho un ulteriore fattore moltiplicativo V . —————————————– Vi riporto, per la sua importanza e per vostra comodità, il calcolo di trasformazione in normal modi dell ‘ energia. È attraverso questa trattazione che si deve passare per quantizzare il cristallo e per trattare una serie di altri problemi interssanti per la MS Se conosco gli autovalori (Ω2k nel seguito) della matrice che definisce la parte configurazionale allora − 21 Zconf (β) = det = h Y βΩ2 i 1 2 ( k) 2π k Una dimensione Posizioni a riposo n = n a,Pn ∈ [1, N ], spostamento xn . Energia potenziale U = 12 n (xn − xn−1 )2 L‘energia potenziale è una forma quadratica di matrice Hi,j = 2δi,j − δi,j−1 − δi,j+1 la matrice è invariante per traslazione e si diagonalizza via Fourier ATT! (Fourier) : fissato a, fissato L ⇒ numero finito di k: N = P 1 Metto condizioni periodiche e definisco Ak = √1N n xn e−i2π N k n , k ∈ [− N2 , N2 ] 59 L a e xn = √1 N P a k Ak ei2π L kn P P a 1 1 Allora j Hn,j xj = 2xn −xn−1 −xn+1 = k Ak ei 2π L kn [2−e−i 2π N −ei 2π N P 1 i 2π N kn = 2[1 − cos(2π N1 k) k Ak e questo significa che gli autovalori di Hi,j sono a a Ω(k)2 = 2[1 − cos(2π k)] = 4 sin2 (π k) L L k e i normal modi sono gli Ak ( A∗k = A−k ) QN −1 1 La Zconf (β) = det 2 12 βΩ(k)2 = k=1 [2 sin(π N1 k) 1 P L‘energia configurazionale è H = N k Ak A∗k 4sin2 (π La k) Lagrangiana P d L‘ energia cinetica è K = m n ( dt xn ) 2 quindi la lagrangiana risulta: P dAk dA∗k 2 A A∗ − Ω(k) L=K −U = m k k k 2 dt dt γ dove Ω(k)2 = 4 m sin2 ( 21 k a) q γ m = c = velocita’ suono Si passa alla hamiltoniana definendo l’impulso coniugato ad Ak come P dAk ∂ ik n √1 Pk = dA p e L = m = n n dt N ∂ dtk P 1 L’hamiltoniana risulta H = K + U = 12 k m Pk Pk∗ + mΩ(k)2 Ak A∗k da qui partiamo a quantizzare ( = oscillatori armonici) ——————————————Normal modi [caso tridimensionale, reticolo cubico] Gli autovalori sono la somma di tre autovalori monodimensionali... ki = 0, 1, . . . , ( La − 1) i = 1, 2, 3 3 X a ω(k) = 2c 2π ki 1 − cos L 2 2 i=1 c = velocità del suono H= X 1 |Pk |2 + ω(k)2 |A|k2 L k Gradi di libertà: 2 · 3N ; ; N = ( La )3 − 1 − 1 2 2 Z(β) = det cinetico det βω(k)2 =β −3N Πk ω(k)−1 60 (5.2) Φ Φ (x) x 0 L d dΦ dx Figura 5.1: il segmento lungo a riposo dx, dopo deformazione è lungo q √ dΦ 2 allora l‘energia elastica può dx2 + dΦ2 = dx 1 + [ dx ]2 ∼ dx 1 + 21 [ dΦ dx ] scriversi ....(Landau, elasticità) ⇔ H = 3N TkB cs = 3N kB cs 5.7 [Dulong Petit] sperimentale: T → 0 cs → 0 campo scalare, corda, membrana ... Se descrivo le deformazioni di una corda con x → Φ(x), x ∈ [0, L], vedi figura per risparmiarmi lo scritto posso assumere che l‘energia configurazioneale sia Z Z 2 1 1 d2 Φ((x) H= dx ∇Φ(x) = − dx Φ((x) 2 2 dx2 similmente per una membrana con x → Φ(x), x ∈ [0, L] × [0, L]. Posso fare la MS del sistema pensandolo come limite del ’cristallo’ che abbiamo studiato nel paragrafo precedente. La matrice −Hi,k agisce su un vettore φi secondo lo schema : P k Hi,k φk = φi+1 − 2φi + φi−1 È questa l‘espressione del laplaciano discretizzato. Precisamente quando discretizzo lo spazio con i punti di un reticolo x = i[a], [a] ’passo del reticolo’, allora: 61 • una funzione della variabile x diventa un vettore con N = nenti f (x) → φi = f (i [a]) L a compom- • la derivata prima (operatore lineare) diventa una matrice f ‘(x) = i h f (x+:[a])−f (x) [a] ∼ 1 [a] La matrice è Pi,j = df dx φi+1 − φi 1 [a] ∼ δi,j−1 − δi,j (non simmetrica) 2 (‘x) • la derivata seconda ddxf2 ∼ f ‘(x+:[a])−f [a] φi −φi−1 1 φi+1 −φi 1 cioè, come detto, φ − 2φ + φ = [a] − = i+1 i i−1 2 [a] [a] [a ] la matrice − [a12 ] Hi,k è la derivata seconda discretizzata • Similmente l‘integrale discretizzato diventa R [dx]f (x) → • In più dimensioni la matrice H definita via (Hf )(i) = R P f (j) diventa il laplaciano e [dx]f (x) → i φi [a]D 1 [a2 ] P P i φi [a] <i,j> f (i)− Posso pensare al processo inverso: dal retico al continuo. Le palline divetano punti di una corda, di una menbrana, di un pezzo elastico, e gli spostamenti R 2 Φ(x) = diventano deformazioni qi → Φ(x) , l‘energia diventa − dx Φ(x) d dx 2 R dΦ(x) 2 (per parti) = dx[ dx ] Se faccio la MS del sistema, pensandola come limite di quella del ’cristallo’ (limite a → 0, N → ∞, L = aN = fisso: un pò di dettagli in appendice) posso ripete il calcolo fatto in precedenza: però la trasformata di fourier è data da una serie, gli indici sono infiniti gli autovalori della matrice H Ω(k)2 = 2[1 − cos(2π a a k)] = 4 sin2 (π k) L L diventano gli autovalori del laplaciano Ω(k)2 → 1 H a2 1 1 a 2 [2 [2π k)]2 = [π k)]2 a2 2 L L e la funzione di partizione (parte configurazionale) è data dal prodotto degli (infiniti) autovalori formalmente i 1 h 2 − 2 Zconf (β) = detβk ↑ 62 log Zconf (β) = − 1X 2 log βk 2 k (ogni autovalore è degenere ordine 2) quindi energia media, calore specifico 1 X 2 H = 2β k cs = 1X 2 2 k entrambi ∞ Notare che questa è un’energia per volume V finito ! Evidentemente non è accettabile che per volume V finito ci sia un‘energia infinita Si parla di catastrofe ultravioletta. La MS ci impone una scelta: a) Possiamo pensare che modellare la corda come un sistema continuo non sia corretto: esiste un cutoff (spaziale) sotto il quale non possiamo spingerci. Esistono molecole ed atomi. ( ricordo che Bolztmann ebbe non poche difficoltà per far accettare questa idea ai coleghi fisici della sua epoca ) b) Possiamo pensare che l‘hamiltoniana quadratica è una buona descrizione per piccole deformazioni ... che l‘hamiltoniana vera ha altri termini che diventano essenziali a piccole lunghezze d‘onda ... e che riconducano il risultato al finito Ma quello che abbiamo intravisto in questo calcolo si ripresenta per il corpo nero, per il campo elettromagnetico libero confinato in una scatola. In questo caso non ci sono altri termini che possano magicamente eliminare il problema della catastrofe ultravioletta, perchè le equazioni di Maxwell non possono essere corrette con termini aggiuntivi. E qui non ci sono neppure gli atomi a salvarci. Non si scappa: bisogna passare al quantistico: cambiare il micro, per lasciare fisso il macro. 5.8 Campo elettromagnetico ATT! (Fourier) fissato L ⇒ numero infinito di k 63 [ non c’è il cutoff a] 2 1 X X (α) A(x, t) = √ A (k, t)eα (k) eik·x L3 α=1 k k= H= 1 8π Z 2π ·n L ; n ∈ Z3 2 (E 2 + H 2 ) dx = · · · = i 1 X X h (α) 2 2 (p (k) + k c2 (q (α) (k)2 2 k α=1 Il campo elettromagnetico in una cavità V è equivalente a infiniti oscillatori armonici 2 (k, α) → ω 2 (k, α) = k c2 ⇓ Meccanica Statistica: Z(β) = Z − 12 β Πk,α dpα (k)dq α (k) e P k,α h i 2 p(α) (k)2 +k c2 q (α) (k) i 1 h 2 i− 21 h 2 2 − 2 detβk c2 = det βI ↑ perche‘ α = 1, 2 = Πk (β|k|c)−2 1. (equipartizione) H = 1 2β P k (2 · 2) entrambi ∞ Notare che questa è un’energia per volume V finito ! 5.8.1 densita’ di energia in frequenza quanti sono gli stati, i gradi di libertà, corrispondenti all’intervallo di frequenze [ν, ν + dν] ? |k| c 2π |n| c L |n| = Lc ν 2 quindi ∆|n| = 4π Lc ν Lc dν ν= 64 = ; H(ν) dν = 1 4· 2β X ν<|n|<ν+dν 1 = 8π L3 2 ν dν β c3 [ Rayleigh - Jeans] (L/c) d ν (L/c) ν 5.9 confronto cristallo corpo nero normal modi finiti perchè (a, L) 1 P H = 2β |k| 2 · 1 normalmodi infiniti perchè L (a = 0) 1 P H = 2β |k| 2 · 2 energia finita energia infinita calore specifico costante sperimentali Legge Rayleigh - Jeans sperimentali sperimentali 65 5.10 Gradi di libertà L, volume V, numero di particelle N Cosa significa limite termodinamico: • in termini di L : L→∞ ( V →∞ • in termini di V, N : N →∞ FL (. . . ) = − N V →ρ 1 ln ZL (. . . ) ∼ L · f (. . . ) + σ(L) β f (. . . ) = limL↑∞ F (N, V ) = − ma ∂FL ∂L energia libera 1 ln ZN,V ∼ N µ(. . . ) − V p(. . . ) + o(N, L) β µ(. . . ) = lim{N,V ↑∞ ; N/V =ρ} p(. . . ) = limV ↑∞ ∂FN,V ∂V ∂FN,V ∂N potenziale chimico pressione Notare che H = HN è funzione di N mentre V determina il dominio delle q 66 Capitolo 6 sistema Grancanonico 6.1 Canonico ⇒ Grancanonico B A Sia S un sistema canonico N, V, β fissati. Se ci limitiamo a considerare osservabili che dipendono dai gradi di libertà del sottosistema A dobbiamo definire la distribuzione condizionata su A ottenuta mediando tutte le possibili configurazioni di S −A = B (distribuzione grancanonica µGC ). ⇒ B diventa la riserva di calore e materia per A. ATT ! Gli stati microscopici di A sono caratterizzati sia da NA = n. di particelle in A sia da VA = volume di A. R R −β(H +H ) −βHB µ e−βHA µa e B A µ µ B e B B A R µGC (NA , VA ) = B = S ZA S B A B Quando (NA , VA , qA , pA ) ⇒ µA è Liouville per NA particelle e R −βH fisso B µB è la funzione di partizione per il sistema B con N −N e A particelle, B con volume V − VA , ecc. Se non ci fossero problemi di entropia di miscelazione e se B >> A cosicchè ZA S B ≃ ZB (N, V ), il rapporto da valutare sarebbe e−βFB (N −NA ,... ) ZB (N − NA , V − VA = ZB (N, V ) e−βFB (N,... ) 67 Nel limite termodinamico si avrebbe F (N − NA , V − VA ) = F (N, V ) − con 1 ∂F → µB β ∂N In conclusione: ; ∂F ∂F NA − VA ∂N ∂V 1 ∂F → − µB β ∂V µGC ÷ eβµB NA e−βpB VA e−βHA µA Sommando su tutti i gradi microscopici di A (NA , VA , dpA , dqA , . . . ) si ha il fattore di normalizzazione Z X 1 = dVA ZA (VA , NA ) NA Abbiamo già sottolineato che quando misceliamo – uniamo – due sistemi nascono problemi tipo il “paradosso di Gibbs”. Nel caso del sistema grancanonico osservo che quando fisso A è vero che fisso il numero NA di particelle, ma non “quali” particelle delle N totali. Lo stato microscopico (A, B) è in realtà costituito da NAN!N! B ! stati microscopici. P P In altri termini la NA ZA deve essere sostituita con la NA N1A ! ZA perchè ZA si riferisce a NA “generiche” particelle e non ad una fissata enumerazione. (Come accadrebbe se ragionassi per gradi di libertà: in tal caso NA sarebbe ⇒ vedi per es. reticoli) il numero dei primi NA gradi di libertà. Tutto ciò implica µGC (NA , . . . ) = 6.2 • 1 h βµB NA − βpB VA − βHA i µA e e e NA ! commenti Nota 1 Se si fissa il volume VA , si integra su [qA , pA ] e si somma su NA , si ottiene come fattore di normalizzazione: 1 = ΞA (VA ; βµB )e−βpB VA |{z} riserva 68 • Nota 2 Notare che nella M.Q. il discorso sull’entropia di miscelazione è “automatico” in quanto per la M.Q. il principio di indistinguibilità impone il conteggio di N1 ! per i gas, cosı̀ come impone la sua assenza per particelle intrappolate nei siti di un reticolo. • Nota 3 Quando fisso VA , uno dei tre parametri (β, µB , pB ) che definiscono la riserva risulta funzione degli altri due a causa del vincolo di normalizzazione pB = • 1 ln Ξ(VA , β, µB ) βVA Nota 4 Se esiste il limite termodinamico canonico per il sistema A, possiamo definire µA e pA ΞA (VA ; βµB ) = X 1 eβµB NA ZA (VA , NA ) | {z } N! e−β(µA NA +PA VA ) e quindi verificare che n pA = pB µA = µB ⇒ posso sopprimere gli indici. • Nota 5 Fluttuazioni di densità Nel sistema GC. il numero di particelle è una variabile aleatoria con −1 P 1 ∂ N 1 media N = Ξ N N Z N ! Z(N ) = β ∂µ ln Ξ; 2 2 ∂ varianza N 2 − N = β1 ∂µ ln Ξ ≡ γ > 0. −1 , quindi Si dimostra che γ ÷ − ∂ρ ∂v ∂ρ ∂v <0 ∂ρ ∂v =0 ⇒ ⇔ grandi fluttuazioni presenza di più fasi con diversa densità. 69 Capitolo 7 oltre gli oscillatori armonici fluido ideale fluido reale Gas perfetto e oscillatori armonici sono detti ‘sistemi liberi‘ perchè sono entramdi sistemi in cui l‘interazione fra i componenti del sistema non c‘ è o è eliminabile con una opportuna scelta della descrizione. Si parla di sistemi ‘phantom‘ (fantasma). I due paragrafi successivi sono un flash su due diversi metodi che permetto di studiare le proprietà di un sistema con interazione ‘reali‘ quando non è possibile calcolare esattamente l‘integrale configurazionale. Si possono saltare Notare che un contributo rilevante della meccanica statistica alle nostre 70 capacità di descrivere e comprendere la natura sta anche nell‘aver prodotto una vasta gamma di tali metodi e dell‘ atteggiamento mentale che essi comportano. Nei paragrafi che seguono presento brevemente due di questi metodi. 7.1 sviluppi a cluster e modelli di fluido Presento il primo passo di un metodo iterativo usato per studiare la meccanica statistica di un fluido. premessa Per un gas non ideale, contenente N atomi o molecole, l‘equazione di stato è scrivibile come una serie di potenze nella densità: p = ρ + B2 (T )ρ2 + B3 (T )ρ3 + · · · kB T (7.1) dove p la pressione, kB la costante di Boltzmann, T la temperatura assoluta, e ρ ≡ N/V è la densittà del gas. L‘espressione [7.1] si chiama ’espansione del viriale classico’ ed è stata introdotta nel 1901 da Heike Onnes Kamerlingh come una generalizzazione della legge dei gas ideali. Si noti infatti che per un gas contenente una frazione di nNA (NA numero di Avogadro) molecole, il troncamento dell’espansione viriale dopo il primo termine porta a pV = nNA kB T = nRT , che è la legge dei gas ideali. Il secondo termine si ha nel gas di van der Waals. Scrivendo β = (kB T )−1 , l’espansione del viriale può essere scritta in forma chiusa come ∞ X βp Bi+1 (T )ρi . =1+ ρ i=1 I coefficienti del viriale Bi (T ) sono caratteristici delle interazioni tra le particelle del sistema e in generale dipendono dalla temperatura T . • Dal punto di vista della meccanica classica le molecole di un fluido interagiscono a due a due con un potenziale u2 (r) che dipende solo dalla distanza relativa r Tipicamente il potenziale è caratterizzato da una parte repulsiva a piccola distanza ed una parte attrattiva per distanze superiori Un esempio: in figura il potenziale u2 (r) = −A/r 6 + B/r 12 Il termine r −6 puo‘ essere giustificato con considerazioni quantistiche il termine r −12 con considerazioni fondamentalmente empiriche.(sostanzialmente le molecole sono neutre ma hanno distribuzione di carica non banale) 71 70 g(x) 0 60 50 potenziale 40 30 20 10 0 -10 0.08 0.1 0.12 0.14 0.16 0.18 0.2 distanza • Dal punto di vista della meccanica classica la funzione di partizione è fattorizzata nella parte cinetica e in quella configurazionale: Z = ZK · Q - La parte cinetica ZK è esattamente eguale a quella del gas perfetto ( vedi [4.3.4] a pagina 44) - N molecole posizionate nei punti ri , i ∈ [1, N ], ( indicando con rij = |ri − rj | la distanza relativa) danno un contributo configurazionale 1 e− 2 P i,j βu2 (rij ) ed integrando su tutte le posizioni possibili si ottiene la parte configurazionale 1 Q= N! Z Y Z Y P − 21 i,j βu2 (rij ) = [ dri ] [ dri ] e i i N Y i=1,i<j exp {−βu2 (rij )} (7.2) 1 N! è dato dalla indistinguibilita‘ delle particelle) (Il termine In generale l‘integrale non può essere calcolato analiticamente Ma puo‘ essere valutato ricorrendo alla ’espansione in cluster’ . Questa espansione si basa sull’osservazione che è possibile trasformare la produttoria in una sommatoria. Precisamente se si scrive exp {−βu2 (rij )} = 1 + fij defininendo la cosı̀ detta ’funzione di Mayer‘ fij , la produttoria si può riscrivere come una serie di termini; Y X X (1 + fij ) = 1 + fij + fij fkl + · · · i=1,i<j≤N i=1,i<j≤N i=1,i<j,k=1,k<l Notare che per i potenziali di interesse fij è piccolo ——————————————– esempio: Q i=1,i<j≤3 (1 + fij ) = (1 + f12 )(1 + f13 )(1 + f23 ) = 72 (1) + (f12 + f13 + f23 ) +(f12 f13 + f12 f23 + f13 f23 ) +(f12 f13 f23 ) Notare che con questo sviluppo ordinato i vari termini contengono un numero crescente di particelle coinvolte. Il primo termine il termine singola particella, il secondo termine corrisponde a interazioni di coppie, il terzo alle interazioni delle triplette e cos via. Ogni termine rappresenta il contributo delle interazioni all’interno di gruppi di un certo numero di particelle. Questa interpretazione il motivo per cui l‘espansione si chiama ’espansione a cluster‘. ——————————————– L’integrale diventa: 1 Q= N! 1 N! Z Y [ d~ri ]+ i Z Y [ d~ri ] i Z Y 1 [ d~ri ] N! i X fij + (7.3) i=1,i<j≤N X fij fkl + i=1,i<j,k=1,k<l≤N ··· V N ] (come abbiamo già visto • Il primo termine è uguale a N1 ! V N = [ N N per il gas perfetto) (ricordarsi N ! → N ) • il secondo termine è calcolabile : - integrando ogni termine sulle variabili non contenute in fij (il contributo risulta V NR−2 ) R R - resta l‘integrale [d~ri ][d~ri ] f (rij ) = [d~x][d~y ] f (y) = V [d~y ] f (y) = V M2 (β), indipendente dai labelli, per cui il risultato finale è M2 (β)V N −2 volte il numero degli addendi ovvero V N −1 1 (N − 1)N M2 (β) ∼ V N −1 N 2 M2 (β) 2 2 • Calcoli simili per i termini di ordine superiore dove la difficoltà sta sia nell‘integrazione che nel calcolo del numero di addendi della somme. 73 Alla fine si ottiene una espressione del tipo Q= i h V iN h 1 N2 1 N3 · 1+ M2 (β) + [ 2 ]M3 (β) + · · · N 2 V 3! V (7.4) L’ energia libera A = − β1 [logZK + log Q] assume la forma (usando log(1 + x) = x + · · · nel secondo fattore) 1 h V N 3/2 log β + log( ) β N h1 N2 i 3 1 N + M2 (β) + [ 2 ]M3 (β) + · · · 2 V 3! V A=− (7.5) È possibile ricavare l’equazione di stato derivando ripsetto al volume p = −∂V A = kB T N V − 1 N2 M (β) + · · · 2 2V2 (7.6) N V è la densità del fluido e se tale densita‘ è piccola ha senso trascurare i termini di ordine suoeriore al secondo Esempio ——————– sfere rigide e hard-core u2 Mayer function 1 2 r0 0 0 u2 Mayer function 1 1) sfere rigide: le sfere non possono compenetrarsi, il raggio è r0 u2 (r) = ∞ r < 2r0 = 0 r > 2r0 R R 2r R∞ In tal caso si ha: M2 = [dr] (1 + e−βu2 (r) ) = 0 0 [dr] (1) + 2r0 [dr] (1 − 1) = 4π 4π 3 3 3 (2r0 ) quindi, fermandosi al primo ordine e chiamando v0 = 3 r0 (volume escluso) p = kB T ρ − 4ρ2 v0 74 2) hard-core con coda attrattiva u2 (r) = ∞ r < r0 = − φ(r) r > r0 con Z ∞ φ(r) = B r0 ha: RIn tal caso si Rr R∞ [dr] (1 + e−βu2 (r) ) = 0 0 [dr] (1) + r0 [dr] (1 − eβφ(r) ) R∞ 2 3 = 4π 3 r0 − r0 [dr]βφ(r) + O(β ) 2 3 = 4π 3 r0 − β4πB + O(β ) 3 Al primo ordine p = kB T ρ − 12 ρ2 [ 4π 3 r0 − β4πB] Se chiamo a = 2πB e b = 2π 3 3 r0 = 12 v0 allora posso scrivere p + aρ2 = kB T ρ(1 + bρ) che è sostanzialmente Van der Waals. (1 + bρ ∼ (7.7) 1 1−bρ ) Come si vede l‘introduzione dell‘interazione porta a una termodinamica diversa da quella del gas perfetto: in particolare non è più vero che fissati p, T esiste un unico valore di ρ che soddisfa l‘equazione di stato. Il sistema mostra transizioni di fase. 7.2 campo medio Partiamo dalla constatazione che, anche per i modelli piu’ semplici, non è possibile in generale, calcolare esattamente la funzione di partizione. Il metodo di campo medio è forse il più fecondo metodo per (incominciare) ad analizzare sistemi non banali . È usato in contesti estremamente diversi e in generale porta sempre a risultati o almeno indicazioni significativi. Il metodo di campo medio nasce come possibilità di approssimare un minimo assoluto da ricercarsi in un dominio molto vasto con un minimo calcolato in un domio più semplice ma significativo Vi ricordo che la misura di Gibbs è definita come la misura, fra tutte le possibili definibili sullo spazio degli stati microscopici, che minimizza Ap [β] =< H >p −T S(p) Gibbs = argminp [< H >p −T S(p)] L’approssimazione di campo medio consiste nel valutare A[β] limitandosi ad una famiglia P di misure semplici, misure test, e scegliendo fra queste la misura ottimale, quella che minimizza A. prova∗ = argminp∈P [< H >p −T S(p)] 75 Evidentemente A Gibbs ≤ A prova∗ . Sottolineo che: – misure ↔ momenti : i parametri che descrivono le misure test sono identificabili con i valori medi dei momenti. – le misure semplici sono misure fattorizzate e quindi sono pensabili come misure marginali associate alla misura “vera” ; per molti modelli le misure marginali sono facilmente descrivibili. Per esempio: consideriamo un sistema descritto da variabili microscopiche σi con i ∈ Λ. Λ è un reticolo, come quello che abbiamo usato per descrivere le posizioni di equilibrio delle molecole di un cristallo. σi piò essere lo spostamento della molecola o il momento di dipolo della molecola o lo spin dell‘atomo labellato da i Possiamo considerare misure totalmente fattorizzate e parametrizzate dai valori medi e qualche altro momento delle variabili σi , per esempio se considerassimo gaussiane le parametrizziamo con il loro valor medio e la varianza. Genericamente scriviamo: p{m} = Πi∈Λ pmi (σi ) Calcolo A[m] – come H m − T S(m) m∗i : – e quindi cerco ∂A =0 ∂mi m∗ ∀i calcolo il valore di A su questo minimo ( A = A m∗ (β) ; β)) e pongo AGibbs (β) ≃ A m∗ (β) ; β) calcolo tutte le grandezze statistiche derivandole da A. P P Se l‘hamiltoniana del sistema è del tipo H = i,j h(σi , σj ) − i σi hi allora so che ∂AGibbs σI Gibbs = − ∂hI ora approssimo AGibbs → Am∗ e calcolo σI Gibbs ∼− =0 ma ATT! in generale σI σJ ∂A ∂A ∂mk ∂A =− − = σI prova ∂hI ∂m ∂hI ∂hI | {z k} Gibbs ∼ ∂2A ∂ 2 Aprova ≃ 6= σI σJ prova ∂hI ∂hJ ∂hI ∂hJ 76 cioè le correlazioni fra spin non sono le correlazioni associate alle misure di prova ma sono le derivate dell’ energia libera calcolata con le misure di prova ( nota altrimenti avrei σI σJ prova = σI prova σj prova per via della fattorizzazione) Con questo voglio sottolineare che una volta fatta l‘approssimazione AGibbs (β) → A(β) uso le espressioni corrette della MS per calcolare tutte le grandezze di interesse. Non è necessario conoscere esattamente l’entropia in funzione dei parametri. È sufficiente uno sviluppo intorno a valori particolari. [ ⇒ vedi esempi C.L., Transizione NI.] Significato fisico I parametri liberi della misura test ( ←→ aspettazione di funzioni delle variabili microscopiche), sono detti parametri d’ordine. I parametri possono essere grandezze scalari o a piu’ componenti. Approssimare la misura di Gibbs con misura test equivale ad assumere che A dipende “fortemente” da tali parametri e in modo “debole” dalle correlazioni corrispondenti alle altre possibili funzioni microscopiche. Un ruolo fondamentale nella scelta dei parametri d‘ordine è svolto dal gruppo di trasformazioni di simmetria dell’ hamiltoniana microscopica. Se il sistema è disordinato tutto è OK. Se il sistema è ordinato ci possono essere problemi. In particolare la descrizione di campo medio sopravvaluta l’ordine. La descrizione di campo medio riduce lo spazio ambiente a un parametro puramente quantitativo. • Vedremo che questo, per basse dimensioni, porta a risultati scorretti. Per esempio Ising in D=1, range finito. Puo’ apparire sorprendente come, usando un semplice sviluppo di Taylor troncato a ordini bassi e condizionato dalle proprieta’ di simmetria di una grandezza estensiva, si possano ottenere risultati quantitativamente (e qualitativamente) significativi sul comportamento di un sistema termodinamico. Ma questo e’ il cuore della Teoria di Landau. Rimando a P.M.CHAIKIN, T.C.LUBENSKY per una carrellata, che mi pare estremamente interessante, di sistemi reali a cui si applica la metodologia di Landau. 77 7.2.1 termodinamica elementare di una galassia Applico il campo medio per descrivere la termodinamica di una galassia. forma di galasise Una galassia è un insieme di N stelle con varia massa (diciamo M = N < m >) che interagiscono via gravitazione. P i mi = ricordo che una distribuzione di massa ρ(x) genera un potenziale R ρ(y) V (x) = d[y] |x−y| e viceversa che ρ(x) = −∇2x V (x) Il laplaciano in tre dimensioni per una funzione della sola distanza r è ∂2 2 ∂ ∇2 = ∂r 2 + r ∂r Se V (r) = 1r Φ(r) è funzione della sola distanza allora la densità risulta 2 Φ(r) ρ(r) = 1r ∂ ∂r 2 R L‘ energia gravitazionale in questo caso si puo‘ scrivere E = −4π [dr]r 2 V (r)ρ(r) Una configurazione micro è al solito data fissando posizioni e velocità delle singole stelle L‘energia del sistema è quindi E=− 1X 1 X Gmi mj mi |v i |2 + 2 |ri − rJ | 2 i,j (7.8) i Il contributo della parte cinetica è il solito e si traduce per l‘energia libera nel termine da gas perfetto. Il contributo della parte configurazionale è incalcolabile analiticamente. 78 ⇒ Allora proviamo a stimarlo minimizzando A(p, β) =< Hconf >p −T S( p) su una famiglia di misure semplici e che ci sembrino significative per il problema. Il valor medio di E su una misura p diventa Z MG 1 < E >= − [dr 1 ][dr 2 ]g(r 1 − r2 ) 2 |r 1 − r2 | dove g(r 1 − r 2 ) è la probabilità che due unità di massa siano l‘una in r1 e l‘altra r 2 (è la funzione di correlazione cui accennavo) Q ⇒ Se ci llimitiamo a misure farrorizzate p = p(r1 , r2 , · · · ) = i p(ri ) questa correlazione è semplicemente il prodotto R del valor medio delle densita‘ di sito: g(r 1 − r 2 ) = ρ(r1 )ρ(r 2 ) con ρ(r) = d[r]δ(r − r i ) Sostanzialmente abbiamo scritto l‘energia in termini della densità di massa. ⇒ Facciamo una ulteriore restrizione sulle misure. Diciamo che la misura è gaussiana di parametro RG : 2 1 − r2 p(r)[dr)] = 3 e 2RG R2 dR Rg Questo è come dire che la galassia ha una forma sferica e un raggio dell’ ordine RG Possiamo verificare che in questo caso il potenziale risulta: 1 1 √R V (R) = 4π R Erf ( 2RG ) dove Erf è la primitiva della gaussiana ( error function) definita come Rx 2 Erf (x) = √2π 0 dt e−t (applicate il laplaciano e verificate) Ma allora se scriviamo Z MG < Econf >= − [dr]V (r)ρ(x) 2 valutare l‘energia interna configurazionale è semplice perchè coincide con valutare un integrale gaussiano. Il risultato è Econf = −g N2 RG Allo stesso modo è semplice calcolare l‘entropia per la misura scelta. Risulta S = N log 79 3 RG N (compreso 1 N! ) Il minimo di A =< H > −T S rispetto alle misure di prova è dato annullando la derivata di A rispetto ad RG . Questo porta all‘ equazione G N2 1 =0 − T 3N 2 RG RG cioè a RG = GN 3T (é l‘ equazione di stato della galassia) L‘energia configurazionale è quindi < H >conf = −3N T , sappiamo già che la parte cinetica è 23 N T In conclusione Atot = E − T S 3 Etot = − N T 2 S = N log 3 RG N (7.9) Il calore specifico della galassia vale cs = ∂E ∂T quindi 3 Il calore specifico risulta − 2 N negativo !! Questo significa che f inale iniziale quindi la se la galassia emette un po‘ di energia la sua Etot < Etot temperatura aumenta, il raggio si restringe e le velocità aumentano. f inale iniziale la temperatura Viceversa se fornisco calore alla galassia Etot > Etot diminuisce, il raggio si espande e le velocità diminuiscono. 7.2.2 gas su reticolo vedi appunti capitolo ’Meccanica statistica su reticolo- modello di Ising Un modello configurazionale) microscopico di gas é costruito pensando di dividere il volume contenente il gas in cellette sufficentemente piccole da poter contenere al piú una sola ’molecola’ del gas. Le cellette formano un reticolo Λ (regolare) i cui siti sono labellati con un indice (a piú componenti) i Gli stati microscopici sono gli elementi dello spazio 0, 1Λ : cioé le successioni ωii∈Λ con ωi = 1 se la celletta i−sima é occupata da una ‘’molecola ’ e ωi = 0 se la celletta é vuota. 80 L’hamiltoniana H del sistema descrive la attrazzione fra molecole di gas. Il fatto che in una celletta ci possa stare al piú una sola molecola (ωi é solo a due valori 0, 1), implementa l’esistenza dell’ hardcore e possiamo limitare la J P attrazzione a cellette primo vicine. Cioé scriviamo H(ωi ) = − 2 <i,j> ωi ωJ Teniamo conto del potenziale chimico aggiungendo ad H un termine che descrive il guadagno o il costo energetico di aggiungere una molecole al P sistema −h i ωi ( come dire µ = 2h) Ora usiamo il metodo di campo medio per valutare la funzione di partizione. Q Le misure test le scegliamo fattorizzate e omogenee : p(ωi ) = i p(ωi ) Essendo ωi una variabile a due valori la misura piú generica é una bernulli di parametro c ∈ [0.1] cioé p(ωi ) = c oi + (1 − c)(1 − ωi ), (c ha il significato di < ωi > e quindi di densitá) L‘entropia di queste misure |Λ|S(c) l’abbiamo vista infinite volte e l‘energia attesa é J 2 < H >= |Λ| − 2 zc − hc dove z é il numero di primi vicini di una cella Il potenziale termodinamico da minimizzare é quindi F (c) = − Jz 2 c − hc + T [c log(c) + (1 − c) log(1 − c)] 2 e l‘equazione di minimo (equazione di stato) risulta −Jzc − h + T log c1 − c = 0 ( per esempio soluzione grafica ...) P Il sistema che stiamo descrivendo é un sistema gran canonico ( i ωi é il numero totale di molecole ed é una RV) . Quindi il potenziale che stiamo valutando é quello gran canonico (cioé la pressione del gas). Ma allora, se eliminiamo il potenziale chimico dalla equazione di stato e riscriviamo F in funzione di c, β abbiamo Jβz 2 (1 − βJz) 2 c − log(1 − c) = c + c + ··· 2 2 da confrontarsi con lo sviluppo di Heike 7.1 a pagina 71 e con l‘equazione 7.7 a pagina 75 βp = − 81 7.2.3 cristalli liquidi Vedi il paragrafo 8.4 a pagina 89 per un esempio di transizione di fase primo ordine 82 Capitolo 8 Introduzione alle transizioni di fase cosa è una fase ? From Wikipedia, the free encyclopedia In physics, a state of matter is one of the distinct forms that different phases of matter take on. Four states of matter are observable in everyday life: solid, liquid, gas, and plasma. Many other states are known such as BoseEinstein condensates and neutron-degenerate matter but these only occur in extreme situations such as ultra cold or ultra dense matter. Other states, such as quark-gluon plasmas, are believed to be possible but remain theoretical for now. Historically, the distinction is made based on qualitative differences in properties. Matter in the solid state maintains a fixed volume and shape, with component particles (atoms, molecules or ions) close together and fixed into place. Matter in the liquid state maintains a fixed volume, but has a variable shape that adapts to fit its container. Its particles are still close together but move freely. Matter in the gaseous state has both variable volume and shape, adapting both to fit its container. Its particles are neither close together nor fixed in place. Matter in the plasma state has variable volume and shape, but as well as neutral atoms, it contains a significant number of ions and electrons, both of which can move around freely. Plasma is the most common form of visible matter in the universe. The four fundamental states 1.1 Solid 1.2 Liquid 1.3 Gas 1.4 Plasma Non-classical states 3.1 Glass 3.2 Crystals with some degree of disorder 3.3 Liquid crystal states 83 3.4 Magnetically ordered 3.5 Microphase-separated 3.6 Quantum spin liquid Low-temperature states 4.1 Superfluid 4.2 BoseEinstein condensate 4.3 Fermionic condensate 4.4 Rydberg molecule 4.5 Quantum Hall state 4.6 Strange matter 4.7 Photonic matter High-energy states 5.1 Degenerate matter 5.2 Quarkgluon plasma 5.3 Color-glass condensate Very high energy states A state of matter is also characterized by phase transitions. A phase transition indicates a change in structure and can be recognized by an abrupt change in properties. A distinct state of matter can be defined as any set of states distinguished from any other set of states by a phase transition. Water can be said to have several distinct solid states. The appearance of superconductivity is associated with a phase transition, so there are superconductive states. Likewise, ferromagnetic states are demarcated by phase transitions and have distinctive properties. When the change of state occurs in stages the intermediate steps are called mesophases. Such phases have been exploited by the introduction of liquid crystal technology. Forms of matter that are not composed of molecules and are organized by different forces can also be considered different states of matter. Superfluids (like Fermionic condensate) and the quark-gluon plasma are examples. 84 8.1 funzione di partizione e fasi Formalmente per definire uno stato di equilibrio e la sua misura di Gibbs, bisogna fissare un certo insieme di parametri del sistema. Temperatura, volume, campo magnetico esterno etc. Esistono domini, nello spazio di questi parametri, in cui le proprietà macroscopiche del sistema sono del tutto simili, dipendono in modo analitico dai parametri. Questi domini sono separati da bordi in cui l‘analiticità si rompe, attraversando queste frontiere bisogna cambiare le funzioni che descrivono le grandezze macro. Si ha una transizione di fase m T la magnetizzazione in funzione della temperatura: non puó essere una funzione analitica perché .... Notare che finchè gli stati microscopici sono in numero finito la misura di Gibbs, come sappiamo, è unica e la funzione è una funzione Pdi partizione −bH (C) J analitica, somma finita di funzioni analitiche C e dei parametri che descrivono il sistema. Le variabili macroscopiche, valori medi, suscettiviotà etc, sono le sue derivate e quindi risultano analitiche nei parametri stessi: tutti gli stati macro hanno proprietà simili. Non possono esistere fasi diverse. Ma quando si va al limite termodinamico (rozzamente) la somma diventa serie, nascono raggi di convergenza, donimi diversi di analiticità. Cade l‘unicità nella dimostrazione dell‘ esistenza della misura di Gibbs. Nei sistemi reali queste proprietà matematiche si traducono nell‘ esistenza di fasi diversi, e al variare dei paramentri si assiste a transizioni di fase. In generale è impossibile conoscere esplicitamente la dipendenza della funzione di partizione dai parametri ( diciamo J ∈ J ) che descrivono il sistema e quindi avere una esplicita determinazione della frontiera. In compenso è piuttosto semplice avere indicazioni sull‘esistenza di possibili transizioni di fase con metodi approssimati. Tipicamente si può ragionare considerando stati macroscopici descritti da misure che dipendono da un set di paramentri m ∈ M che descrivono i valori attesi di grandezze termodinamiche significative per il sistema in esame, e calcolare, in funzione di tali parametri ( m ∈ M ) e dei precedenti (J ∈ J ), l‘energia libera dello stato macro. La termodinamica ci dice che lo stato macro di equilibrio è caratterizzato dal 85 minimizzare l‘energia libera sottoposta ai vincoli a cui il sistema deve sottostare. L‘ annullarsi della derivata dell‘energia libera rispetto ai parametri m ∈ M è dato da equazioni (le equazione di stato) che possono avere più di una soluzione. Se ciò accade significa che a parità di condizioni fissate da J ∈ J il sistema ha più stati caratterizzati da valori diversi per le grandezze m ∈ M: ha più fasi. Nel capitolo successivo vi mostro due esempi di questa tipo di analisi. 8.2 definizioni In generale l‘energia libera resta una funzione continua ma le sue derivate possono mostare singolarità. Si veda a tal proposito il teorema di Yang Lee del prossimo capitolo. Se sono le derivate prime ad essere singolari per valori particolari dei parametri., si hanno discontinuità in valori medi come densità, magnetizzazioni, etc. Si parla di transizione primo ordine. Se le derivate prime sono continue ma le seconde diventano singolari sono calori specifici, suscettività etc che mostrano singolarità: si parla di transizioni del secondo ordine. Etc. Dal punto di vista fenomenologico vale la classificazione risalente ad Ehrenfest In the modern classification scheme, phase transitions are divided into two broad categories, named similarly to the Ehrenfest classes: First-order phase transitions are those that involve a latent heat. During such a transition, a system either absorbs or releases a fixed (and typically large) amount of energy. During this process, the temperature of the system will stay constant as heat is added: the system is in a mixed-phase regime in which some parts of the system have completed the transition and others have not. Familiar examples are the melting of ice or the boiling of water (the water does not instantly turn into vapor, but forms a turbulent mixture of liquid water and vapor bubbles). Imry and Wortis showed that quenched disorder can broaden a first-order transition in that the transformation is completed over a finite range of temperatures, but phenomena like supercooling and superheating survive and hysteresis is observed on thermal cycling. Second-order phase transitions are also called continuous phase transitions. They are characterized by a divergent susceptibility, an infinite correlation length, and a power-law decay of correlations near criticality. Examples of second-order phase transitions are the ferromagnetic transition, superconducting transition (for a Type-I superconductor the phase transition is second-order at zero external field and for a Type-II superconductor the phase transition is second-order for both normal state-mixed state and mixed state-superconducting state transitions) and the superfluid transition. In contrast to viscosity, thermal expansion and heat capacity of amorphous materials show a relatively sudden change at the glass transition temperature 86 which enable quite exactly to detect it using differential scanning calorimetry measurements. Lev Landau gave a phenomenological theory of second order phase transitions. Apart from isolated, simple phase transitions, there exist transition lines as well as multicritical points, when varying external parameters like the magnetic field, composition,... Several transitions are known as the infinite-order phase transitions. They are continuous but break no symmetries. The most famous example is the KosterlitzThouless transition in the two-dimensional XY model. Many quantum phase transitions, e.g., in two-dimensional electron gases, belong to this class. The liquid-glass transition is observed in many polymers and other liquids that can be supercooled far below the melting point of the crystalline phase. This is atypical in several respects. It is not a transition between thermodynamic ground states: it is widely believed that the true ground state is always crystalline. Glass is a quenched disorder state, and its entropy, density, and so on, depend on the thermal history. Therefore, the glass transition is primarily a dynamic phenomenon: on cooling a liquid, internal degrees of freedom successively fall out of equilibrium. Some theoretical methods predict an underlying phase transition in the hypothetical limit of infinitely long relaxation times. No direct experimental evidence supports the existence of these transitions. 8.3 regola delle fasi Quante fasi ? per quali set (varietà) di stati? Consideriamo un sistema formato da I componenti (chimicamente) distinte: 1, 2, .., i, ...I. Ammettiamo che il sistema sia in uno stato di equilibrio corrispondente alla copresenza delle fasi α1 , α2 , · · · , αΦ (tot Φ fasi). Quante sono le variabili che descrivono il sistema? • Siano niα le moli del componete i-simo nella fase α (in totale I · Φ variabili) Le variabili estensive indipendenti sono le concentrazioni relative delle varie componenti per fase . (le frazioni molari per fase) i α xiα = nntot α Notare che X ∀α : dxiα = 0 (8.1) i In totale quindi queste variabili risultano Φ · (I − 1) • le varibili intensive, non potenziali chimici, T, p, ... del sistema: supponamo siano in totale f . (sono dette le variabili “fisiche”) 87 ⇒ ATT! i potenziali chimici non sono variabili indipendenti. Essendo variabili intensive sono indipendenti dalla estensione del sistema e quindi posssono dipendere solo dalle varibili intensive (Gibbs-Duhen) e dalle concentrazioni relative: µiα = µiα (p, T, · · · , xjβ , · · · ) Conclusione: in totale abbiamo Φ(I − 1) + f variabili libere. Quanti vincoli? ovvero quante equazioni ? Abbiamo già detto per le estensive. Dall’altra parte il potenziale di Gibbs, all‘equilibrio, deve essere minimo e quindi: X 0 ≡ dGtot = µiα dniα (8.2) i,α Con ragionamento analogo a quello che si sviluppa per l’entropia di miscelazione , le equazioni [8.1] e [8.2] implicano che 1 1 µ1Φ µ12 = µ22 = ... µ1 = µ2 = ... µ2Φ ........ ........ ....... ........ µA = µA µA 2 = ... 1 Φ cioe’ I · (Φ − 1) equazioni che devono essere soddisfatte dalle Φ(I − 1) + f variabili che descrivono il sistema. E’ evidente che le Φ fasi possono sussistere se le variabili intensive indipendenti e le variabili fisiche sono sufficenti per garanire la soddisfacibilita’ delle equazioni 8.3; ciò implica che Φ · (I − 1) + f ≥ I · (Φ − 1) ovvero che f +I −Φ≥0 (8.3) Quindi il numero massimo di fasi che puo’ coesistere e’ Φ=f +I “regola delle fasi” (8.4) Il numero λ = f + I − Φ− e’ il numero di variabili intensive che possono essere scelte liberamente. Per esempio per una sostanza omogenea: I = 1, f = 2 (la temperatura e la pressione) il numero massimo di fasi e’ tre . ⇒ Una sola fase ha due gradi di liberta‘ indipendenti. λ = 2 + 1 − 1 = 2, occupa regioni del piano p, T , ⇒ Due fasi :λ = 2 + 1 − 2 ≡ 1 possono coesistere solo lungo una curva nel piano p, T . (appunto la curva di coesistenza p = p(T )) 88 ⇒ Tre fasi (λ = 2 + 1 − 3 = 0) per un solo valore della temperatura e delle pressione (punto tricritico). La “regola delle fasi” da un punto di vista astratto è importante perche‘ garantisce l‘esistenza di un numero finito (fasi) di minimi contemporanei del potenziale di Gibbs. Come dire che fissati il numero I di componenti chimiche e le f di variabili “fisiche” non posso avere piu‘ di Φ = f + I “campioni” del sistema differenti. Posso preparare quanti voglio (N → ∞) baker di CO2 ma avrò al più tre tipi diversi del mio sistema (“realizzazioni”). ATT! ci sono sistemi, che si classificano come “complessi”, per i quali questa regola non è più vera. Sistemi per i quali se preparo N campioni nessuno di questi è eguale, a parita‘ di parametri esterni, a nessun altro. Provate a pensare al cervello umano. Piu‘ semplicemente prendete un blocchetto di oro e fondetelo, scioglieteci un po‘ (poco,poco) di ferro e raffreddate rapidamente. Ripete la stessa operazione N volte. Avrete N campioni “diversi”. Il sistema costituisce un “vetro di spin”. Vetro perche‘ come il vetro comune avete realizzato un sistema metastabile che cambia proprietà al cambiare della scala temporale con cui lo studiate. Come per i cervelli tutti questi campioni hanno alcune proprieta‘ medie in comune ... si apre un mondo molto interessante. 8.4 una transizione di primo ordine: cristalli liquidi Come esempio di transizione di prima specie e come esempio di applicazione del metodo di campo medio n θ~0 θ n φ θ ~ π/2 89 (vedi Lubensky Chaiking pagina 168) di Principles of condensed matter physics ). I cristalli liquidi sono composti da molecole che hanno una dimensione longitudinale molto maggiore delle dimensioni trasversali e non hanno polarità. Descriviamo queste molecole barrette rigide → come segmenti. Le barrette, in opportuni intervalli di temperatura, tendono a disporsi disordinatamente per quanto riguarda i baricentri (come in un gas) ma ordinatamente (per quanto rigaurda la direzione si allieano) . Nel materiale non c‘è più isotropia ma emerge una direzione preferenziale (oppure due: materiali biassiali ) Descrivere questo sistema dal punto di vista della MS è semplice e divertente. Se per rappresentare un insiemie di dipolo o di magneti di intensità costante possiamo usare versori ~n = (n1 , n2 , n3 ) = cos(θ), sin(θ) cos(φ) sin(θ) sin(φ) (due parametri liberi , vedi figura) per rappresentare segmenti di lunghezza fissata non possiamo fare altrettanto perchè il segmento non distingue fra i due estremi : e‘ invariante per inversione. Per questo motivo il segmento deve essere descritto dal tensore prodotto diretto dei due versori ±~n cioè dalla matrice Ai,j = ni nj , in modo tale che se si invertono gli assi del sistema di coordinate A resta invariante. Notare che continua ad essere descritto da due parametri. Il prodotto interno di due vettori < n1 , n2 > è sostituito nel caso delle matrici dal prodotto della loro traccia T r(A1 A2 ) e quindi la lunghezza dalla T rA2 . Nel caso del nostro A evidentemente T rA2 = 1, ora non cambia nulla se anzichè usare A usiamo Q = A − 1/3I (i parametri descrittivi restano due) ma guadagnamo la proprietà che Q è a traccia nulla e questo ci semplifica i calcoli successivi. L‘interazione fra due barrette è H(Q1 , Q2 ) e dato che H è uno scalare e Q sono matrici in generale ci aspettiamo che H(Q1 , Q2 ) = −JT rQ1 Q2 − KT r(Q21 Q2 + Q22 Q1 ) + · · · con J, K > 0 in modo che sia faforito lo stato allineato Q1 ∼ Q2 La variabile microscopica di sito (lo spin classico) è in questo modello un versore tridimensionale: ni = (cos φi sin θi , sin φi sin θi , cos θi , ) che abita su un reticolo 3-dimensionale di punti i. Piu’ propriamente, la grandezza microscopica locale e’ il tensore: j k Qjk i = ni ni − 1 ij δ D questo perche’ i cristalli liquidi sono “astine” e non hanno un verso fisicamente rilevabile. Il versore n e il tensore Q sono descritti sempre dai due angoli sferici ma il tensore non muta per una riflessione totale delle coordinate mentre il versore si. 90 L’hamiltoniano che descrive interazioni a primi vicini e’ scrivibile in termini di traccia dei prodotti dei tensori corrispondenti; in coordinate sferiche risulta: J X1 H=− 3 (ni · nk )2 − 1 2 2 i,k P2 (x) = 12 3 cos2 (x) − 1 e’ il secondo polinomio di Legendre. Le misure di prova vanno prese come (prodotto delle) misure sulla sfera. Dall’ hamiltoniano ci aspettiamo che gli spin si possano allineare ma anche che l’allineamento sia insensibile ad una precessione. Consideriamo allora misure di prova con densita’, rispetto alla misura fon1 senθ dθ dφ, del tipo : damentale della sfera dΩ(θ, φ) = 4π pα (n) = pα (θ, φ) = N −1 (α)pα (cosθ) = N −1 (α)eαP2 (cosθ) Il fattore di normalizzazione e’ Z Z 1 1 senθ dθ dφ = pα (cosθ) senθ dθ pα (cosθ) N (α) = 4π 2 0,π Ω Il fatto che consideriamo misure mute in φ realizza la nostra aspettativa di allineamento con possibilita’ di precessione. Che significato ha il parametro α? per α → 0 la misura tende alla misura uniforme, p0 (cosθ) = 1 per α → ∞ la misura tende alla misura deltiforme, concentrata sui max di P2 (x), cioe’ su x = ±1 • energia interna La scelta del polinomio P2 nella misura e’ legata alla proprieta’ di fattorizzazione dell’energia interna X H α = −J P2 α P2 α i k o,k (verificare) Proprio questo fa dire che il parametro d’ordine del modello P2 e’ Osservare che per α → 0 ⇒ P2 = 0 e per α → ∞ ⇒ P2 = 1 • entropia: il contributo di sito e’ Z −1 dt αi P2 (t)−ln(N (αi ) eαi P2 (t) = −αi P2 +ln N (αi ) Si (αi ) = −N (αi ) [−1,1] 91 • energia libera ... • Le equazioni per determinare i parametri si riscrivono subito osservando che la derivata rispetto al parametro αI dell’ energia interna risulta ∂ H α X ∂ P2 α i = −J P2 α k ∂αi ∂αi k mentre la derivata dell’entropia e’ ∂ P2 α ∂Si i = −αi ∂αi ∂αi per cui si ha ∀i : 0=J X k P2 ∂ P2 α i αk ∂αi − T αi ∂ P2 α i ∂αi dove la somma e’ sui k primi vicini di i. Ora si ha: ∂lnN (αi ) P2 α = i ∂αi ∂ P2 α i ∂αi = ∂ 2 lnN (αi ) ∂α2i La derivata seconda e’ sempre diversa da zero (perche’...) equazioni di minimo si possono scrivere semplicemente X P2 α − T αi 0=J cosicche’ le k k Si puo’ passare al caso omogeneo e studiare l ’equazione graficamente. Lo studio dell’ equazione è molto semplice per piccoli ai , anche in termini analitici. E’ infatti facile valutare il comportamento di N (α) per piccolo αR . Come al n solito sviluppo l’ esponenziale e mi trovo a calcolare integrali tipo dt P2 (t) Z Z Z 2 1 3 3 1 4 4 1 2 N (α) ∼ 1 + α dt P2 (t) + α dt P2 (t) + α dt P2 (t) + . . . 2! 3! 4! (gli intergrali sono prodotti interni o norme in L2 [−1, 1] di polinomi di legendre) Il fatto importante e’ che il terzo termine ha segno negativo mentre gli altri sono positivi (ciò perchè...). Il lnZ e’ immediato; l’equazione per i minimi si scrive: r = JD − T W = ..., U = .. 0 = α r − 3wα + 4uα2 92 A ( e quindi l’energia libera per sito e’ |Λ| = 21 rα2 − wα3 + uα4 ) ATT! L’unico termine che contiene parametri fisici e’ r. La transizione che emerge da queste equazioni e’ una transizione di prima specie. Le soluzioniq di minimo sono: α0 = 0 e α± = 1 2 ± 1− 16 ur 9 w2 Bisogna controllare anche la derivata seconda per vedere quando sono minimi o massimi. Accade che simultanaemente possono essere minimi sia α0 = 0 che a+ 6= 0. Quello dei due corrispondente al minimo assoluto è lo stato macro stabile, l’altro rappresenta un stato instabile E’ anche facile determinare quando entrambi i minimi sono stabili: per 2 w A A rc = w 2u infatti αc = 2u e |Λ| (0) = |Λ| (αc ) rc determina una temperatura critica a cui sono copresenti lo stato disordiw nato (α = 0) e uno stato ordinato nettamente diverso (α = 2u ). La transizione e’ di prima specie in quanto la discontinuita’ attraversando questa temperatura e’ nel parametro d’ordine cioe’ nella derivata prima dell’energia libera. ——————————————– Ho sviluppato tutti i conti in termini dei parametri della misura per obbligarvi ad un esercizio sulle misure fattorizzate, ma e’ fisicamente piu’ efficace ripetere il discorso in termini del parametro d’ordine P2 esprimemdo α in sua funzione anziche’ il viceversa. Questo e’ quello che fanno, mi pare con grande chiarezza, Chaikin-Lubensky cap 4. in termini del parametro d‘ordine s = P2 α posso scrivere w u 1 A = − rs2 − s3 + s4 + · · · 2 3 4 Il parametro ottimale soddisfa l‘equazione 0= ∂A = (r − ws + us2 )s ∂s (8.5) che ammette sempre la soluzione s = 0 ma anche le due altre √ w± w 2 −4ru s± = che, se reali, indicano l‘esistenza di fasi diverse dalla fase 2u s = 0. 2 Per s = 0 l‘energia libera vale A = 0 e la derivata seconda ∂∂sA2 = in s = 0 vale r. Quindi per r > 0 lo stato s è un minimo: un buon stato macro. 93 energia libera f(x,1.5) 0 f(x,1.12) f(x,0.5) f(x,-1.5) 0.4 A(s) 0.2 0 -0.2 -0.4 -0.6 -1 -0.5 0 0.5 parametro d‘ordine 1 1.5 2 Figura 8.1: azzurro r negativo, viola r piccolo, blu r = rc , rosso r grande Per r < 0 la soluzione nulla è un massimo e quindi il sistema è necessariamente descritta da s+ . Notare che in tal caso s± sono reali, una positiva e l‘ altra negativa Puo‘ uno dei due stati s± essere, per r > 0, un minimo confrontabile o piu‘ piccolo di s = 0 ? Rispondiamo positivamente se troviamo che la soluzione dell‘equazione [8.5 ] è tale per cui A(s± ) ≤ A(0) = 0. Cominciamo con il confrontabile. In tal caso dobbiamo risolvere il sistema 1 w u 0 =A = − r − s + s2 2 3 4 ∂A = (r − ws + us2 ) 0= ∂s (8.6) (energie libere eguali e entrambi minimi) Il sistema ha come soluzioni s = sc = 2w 3u r = rc = w2 3u Quindi per r = rc due diversi stati, s = 0 e sc > 0, possono coesistere ! Se ci muoviamo nell‘intorno di rc il minimo in sc si alza o si abbassa un pò e quindi uno solo dei due minimi sarà il minimo assoluto e rappresentarà la fase stabile. Siamo in presenza di una transizione di fase di prima specie perchè attraversando il punto rc il parametro d‘ordine ha una discontinuita‘ passando da 94 un valore nullo ad un valore finito sc > 0 . Il calore latente della trasformazione si calcola immediatamente Q = Tc ∆S se fissiamo la dipendenza dei parametri da T L‘entropia infatti sappiamo che si calcola come S = − ∂A ∂T Abbiamo detto r = a(T − T ∗ ) quindi S = − 12 as2 ovvero nulla per s = 0 mentre per sc vale S = − 12 a(2w/3u)2 Il calore latente nel passaggio da s = sc → s = 0 vale 1 Q = Tc a(2w/3u)2 2 Il limite della metastabilità si ha studiando il segno della suscettività ................................................................. Anche questo sistema si puo’ sottoporre P ad un campo esterno e la parte aggiuntiva di hamiltoniano risulta h2 I P2 (cos φI ). Si puo’ scrivere la funzione di partizione, etc ; si possono calcolare i vari momenti come derivate parziali rispetto a questo campo esterno. In particolare si puo’ ripetere il calcolo sviluppato nel caso di Ising per le funzioni di correlazione. E’ un buon esercizio. L’approssimazione di campo medio e’ significativa per questo modello in quanto i cristalli liquidi sono pensati in uno spazio di tre dimensioni. Ma di nuovo segnalo la criticita’ delle dimensioni ambiente. Come caso estremo provate ad applicare il metodo di campo medio al modello XY. I calcoli sono a questo punto estremamente rapidi, ma i risultati sono ingannevoli al pari di quelli per Ising in una dimensione. 8.5 una transizione di secondo ordine Il modello di Ising 95 Capitolo 9 Esistenza del limite termodinamico Concludo queste pagine con l’ introduzione del cap 4 del Gallavotti Ho accennato al fatto che la Mecc. Stat. porta a un risultato inaccettabile per sistemi come il corpo nero e in generale i campi classici liberi. Similmente è interessante notare come la Mecc. Stat .imponga, (per l’esistenza del limite termodinamico) condizioni sui potenziali di interazione. Queste condizioni sono correzioni alle interazioni classiche, che al pari della ’correzione’ del paradosso di Gibbs, della discretizzazione del campo classico scalare, dell’ energia nel corpo nero, vanno nella direzione delle teorie quantistiche. Sia Φ(q) il potenziale di interazione fra due particelle poste a distanza q Condizioni necessarie per l’esistenza del limite termodinamico f = limN →∞ sono: X 1− Φ(qi − q j ) ≥ −BN 1 N F (β, V i<j 2− Φ(|q|) ∼ |q|−3−ǫ |q| ≥ r0 La prima condizione e’ condizione di energia media, per grado di liberta’, inferiormente limitata. La seconda e’ una condizione sull’andamento per grandi distanze dell’interazione. Essenzialmente con queste richieste sul potenziale si esclude che l’energia sia l’unica grandezza rilevante del sistema. Infatti se l’interazione e’: 96 ) “troppo attrattiva”a corte distanze → catastrofe ultravioletta “ troppo repulsiva/attrattiva” a grandi distanze → catastrofe infrarossa Esaminiamo brevemente 9.1 interazione “troppo attrattiva” a corte distanze Potenziale interazione attrattivo illimitato a corte distanze Confrontiamo la probabilita’ di una configurazione omogenea, tipica della termodinamica d’ equilibrio, con una configurazione colassata in cui tutte le particelle sono concentrate in una goccia (e intorno il vuoto). Configurazione di collasso C: tutte P le particelle sono localizzate in una sfera di raggio δ. Energia : i<j Φ(q i − q j ) , ogni addendo da’ un contributo piu’ negativo di Φ(δ) = −b, P 1 i<j Φ(q i − q j ) ≤ − 2 bN (N − 1) Probabilità della configurazione di collasso: Z 1 1 dp dq e−β[k(p)+Φ(q)] PC = N ! Zk ZΦ C Z 1 1 dqe−βΦ(q) = N ! ZΦ C 1 1 4π N 3N β 1 bN (N −1) = δ e 2 N ! ZΦ 3 Probabilità configurazione “regolare” R le coordinate spazzolano tutto il volume disponibile, dqi ∼ V , ogni particella e’ in un potenziale efficace u prodotto da una distribuzione uniforme con densita’ ρ : V = ρN N N 1 N −βuN 1 V N −βuN e = e ZΦ N ! N! ρ Il confronto fra le due probabilita’ prota a : Preg ∼ ln Preg N 4π 3 δ ] = β(uN − bN 2 ) −N ln[ − {z } | PC ρ 3 {z } | energia entropia 97 ⇓ Preg PC → 0: catastrofe ultravioletta le configurazioni regolari non contano Se non c’è un “ hard core” φ(r) = ∞ , r < r0 fa tutto l’energia l’entropia non conta niente. Viceversa se impongo Φ ≥ −BN (hard core) allora si confrontano solo stati che sicuramente riempiono tutto il volume a disposizione (≡ con entropie comparabili a quella dello stato regolare ) perche’ l’ energia non e’ la grandezza dominante a meno che il potenziale sia • “troppo attrattivo” a grandi distanze Ovvero: il costo energetico di riempimento del volume eccede il guadagno entropico. di nuovo, è l’energia che fa tutto. un sistema troppo attrattivo non occupa tutto il volume a disposizione ma resta confinato ⇒ termodinamica stelle ≡ stati impaccati + fluttuazioni intorno ad uno stato impaccato. • “troppo repulsivo” a grandi distanze di nuovo, è l’energia che fa tutto. dominano stati tipo bolla, layer, tutto evapora verso l’infinito ⇒ termodinamica di cariche libere in conduttore • 9.2 ‘ troppo attrattiva” a grandi distanze Se c’e’ hard core si puo’ raggiungere, ma non superare, una densita’ massima, detta densita’ di close package ρcp < ∞. 98 In presenza di una interazione attrattiva a grandi distanze Long range attraction −g|q|−3+ǫ , ǫ > 0 (D = 3) si devonono confrontare stati tipo impaccato, con stati “regolari” che riempiono tutto il volume a disposizione. La probabilita’ di una configurazione impaccata che occupa un volume circa eguale, λ volte, quello minimale ρ−1 cp N · λ e’ stimabile in: 1 (ρcp N · λ)N g 1 N ρcp (λ)−1 PC ≥ e 2 Z N! 1 Z l HC |g|−3+ǫ dq ǫ l’integrale e’ ∼ lǫ = Vcp3 La probabilita’ di una configurazione impaccata che occupa un volume circa eguale, λ volte, quello minimale ρ−1 cp N · λ e’ stimabile in: 1 (ρcp N · λ)N g 1 N ρcp (λ)−1 PC ≥ e 2 Z N! 1 Z l HC |g|−3+ǫ dq ǫ l’integrale e’ ∼ lǫ = Vcp3 la probabilita’ di una configurazione“regolare”, con le solitite considerazioni di potenziale medio sentito da una particella, e distribuzione omegenea, e’ stimato in : 1 1 N g 1 N ρ R L |q|−3+ǫ d3 q HC Preg ∼ V e 2 Z N! l’integrale e’ ∼ Lǫ = V 1ǫ big(f racN ρ 3 1 ǫ 3 = il rapporto fra le probabilita’ ln( Preg PC e’ allora : h i h 1 ǫ ρcp 1− 1 ǫ i Preg ) ≤ N ln(ρ − (λ − 1)ρcp ) + N 1+ 3 ρ1− 3 ǫ − ( ) 3 PC | {z } {z λ } | entropico energetico 99 nell’entropia ho considerato il fattore N1 ! e V = ρN e il fatto che per λ = 1 lo stato e’ unico il contributo energetico e’ quello dominante .... e poiche’ ρ << ρcp di nuovo lo stato “regolare” e’ sfavorito, il sistema non occupa tutto il volume a disposizione, sta confinato..... l’entropia e’ di gran lunga maggiore nello stato regolare ma non compensa il costo energetico.... 9.3 ‘ troppo repulsiva” a grandi distanze si devonono confrontare stati tipo bolla, a supporto sulla superficie del dominio a disposizione, con i soliti stati “regolari” che riempiono tutto il dominio. Di nuovo l’entropia dello stato regolare e’ superiore all’entropia dello stato a layer ( volume contro superficie) ma a causa della interazione repulsiva il costo energetico di riempimento e’ dominante sulle altre grandezze. La probabilita’ di una configurazione regolare e’ Preg ∼ 1 1 N −g 1 N ρV 13 V e 2 Z N! con il termine energetico che a differenza del caso precedente e’ negativo, quindi abbassa (esponenzialmente) la probabilita’. La probabilita’ di una configurazione a layer 1 1 −g 1 N ρl el (∂V )N e 2 Z N! dove con (∂V ) indico la superficie della regione considerata e con ρl el l’enN mentre el e’ ergia media della particella interagente con lo strato : ρl = ∂V il solito integrale ma vincolato alla superficie e valutabile in ... Il confronto fra le due probabilita’ porta al risultato annunciato: catastrofe infrarossa anche in questo caso. Pl ≥ cariche libere in un metallo 100 9.4 Teoremi di esistenza ................. ................. ................. ................. Gallavotti - cap 4 Piu’ semplice : Huang - cap 9- par 9.4 (ed it) potenziale di interazione : hard core a + breve range ro numero coordinazione : ( rao ) Yang-Lee th. ZN (β; V ) = 1 N! Z [dx1 . . . dxN ]e−β P i,j Φ(xi −xj ) V Ξ(β, V, z) = ∞ X z N ZN (β; V ) N =0 1 Per ∀z esiste il limite F (z) = limV →∞ V1 Ξ(β, V, z) e definisce una funzione continua, non decrescente di z 2 Sia S una regine nel piano complesso contenente un segmento dell’asse reale privo di radici dell’equazione Ξ(β, V, z) = 0 allora per ∀z FV (z) = V1 Ξ(β, V, z) converge uniformemente ad una funzione analitica di z in S 101 9.5 argomenti non trattati Cosa manca ? • (A) metodi perturbativi Wick ⇓ Sviluppi per definire funzioni di partizione con H = H0 + λH1 (x) • (B) termodinamica di campi classici troppo poco , troppo in fretta • (C)almeno un esempio di transizione di fase 102 Capitolo 10 appendix 10.1 the second derivative Eigenvalues and eigenvectors of the second derivative From Wikipedia, the free encyclopedia d2 • x ∈ [0, L] (dx) + BC The index j represents the jth 2 fλ (x) = λfλ (x) eigenvalue or eigenvector and runs from 1 to ∞ . Assuming the equation is defined on the domain x ∈ [0, L], the following are the eigenvalues and normalized eigenvectors. The eigenvalues are ordered in descending order. Pure Dirichlet boundary conditions j 2 π2 λj = − 2 L r vj (x) = jπx 2 sin( ) L L Pure Neumann boundary conditions (j − 1)2 π 2 λj = − L2 vj (x) = Periodic boundary conditions ( λj = ( 1 − L q2 2 2 − jLπ2 2 π2 − (j+1) L2 2 L j=1 cos( (j−1)πx ) L otherwise j is even. j is odd. (Note that eigenvalues are repeated except for 0 eigenvalue.) 2 π2 ?? ?? j is odd λj = − (j−1) L2 103 vj (x) = 1 L− 2 q if j = 1. sin( jπx L ) (j+1)πx 2 ) L cos( L 2 qL if j is even. otherwise if j is odd. Mixed Dirichlet-Neumann boundary conditions .... • The discrete case Notation: The index j represents the jth eigenvalue or eigenvector. The index i represents the ith component of an eigenvector. Both i and j go from 1 to n, where the matrix is size n x n. Eigenvectors are normalized. The eigenvalues are ordered in descending order. vk+1 − 2vk + vk−1 = λvk , k = 1, ..., n, v0 = vn+1 = 0 h2 Pure Dirichlet boundary conditions r πj ijπ 2 4 2 ) vi,j = sin( ) λj = − 2 sin ( h 2(n + 1) n+1 n+1 Pure Neumann boundary conditions 4 π(j − 1) λj = − 2 sin2 ( ) h 2n vi,j ( −1 n 2 = q 2 n Periodic boundary conditions ( − h42 sin2 ( π(j−1)) 2n ) λj = πj − h42 sin2 ( 2n ) j=1 π(j−1)(i− 12 ) cos( ) n otherwise if j is odd. if j is even. (Note that eigenvalues are repeated except for 0 and the largest one if n is even.) 1 −2 if j = 1. n 1 − i n 2 (−1) if j = n and n is even. q vi,j = π(i−0.5)j 2 sin( ) otherwise if j is even. n qn π(i−0.5)(j−1) 2 cos( ) otherwise if j is odd. n n Mixed Dirichlet-Neumann boundary conditions ............ 104