?
!!
Meccanica Statistica Classica
marzo 2014
Sommario
L’idea centrale della meccanica statistica e’ che gli stati macroscopici sono
misure di probabilita’ definite sullo spazio degli stati microscopici e
descritte da pochi parametri, e che le grandezze macroscopiche sono le aspettazioni, secondo queste misure, di osservabili miscroscopiche
Ma la questione della descrizioni di stati macroscopici prescinde dal problema termodinamico: e’ il problema generale di come emergano e si impongano
semplici proprieta’ collettive, fissate da poche variabili, in un sistema costituito da molti componenti.
Abbiamo gia’ visto una situazione simile nel caso di misure di probabilita’:
i vari bacini di attrazione.
Ma torniamo alla meccanica statistica. Come nasce l‘idea di una descrizione
probabilistica?
La motivazione intuitiva è legata all’idea che, nei tempi propri del sistema
macroscopico, moltissimi stati microscopici sono “visitati” nella evoluzione
dinamica del sistema cosicchè, quello che conta alla scala macro, è la frequenza con cui i vari stati microscopici si presentano. Il peso relativo degli
stati micro determina le proprieta‘ macro che appaiono come valori medi di
grandezze microscopiche.
Un programma “massimalista” consiste nel dimostrare come dalla dinamica
microscopica sia possibile ottenere le leggi macroscopiche. definendo misure
compatibili con la dinamica ed equivalenti alle frequenze di visita.
Un programma “minimalista” consiste nel mostrare come sia possibile costruire la termodinamica a partire dai “conteggi” degli stati microscopici e delle
loro energie.
Ci concentreremo sul programma minimalista
Gli appunti che seguono sono solo una traccia, è opportuno che scegliate
(almeno) uno dei testi che seguono per avere un pò più che una traccia
• Peliti
“Appunti di meccanica statistica”
– Cap. 3,4 (+): c’e’ tutto quello che uno deve sapere, conciso
• K.Huang “ Meccanica Statistica” – Parte B
– Cap. 6,7,8: Didattica su Micro . . . Grancanonico
– Cap. 9: Può essere interessante una lettura del par.1
perchè racconta la cosa da un punto di vista diverso da quello
seguito a lezione.
Per gli altri paragrafi, più sintetici Glimm e Jaffe.
• Glimm – Jaffe
“Moder Physics”
– Cap. 2 (+): Il più breve (e matematicamente attento) schema
per Micro . . . Grancanonico
+ Analiticità Ξ
(almeno 2.1 – 2.2)
• G.Parisi
“Statistical Field Therory”
– Cap. 1 (++): A me pare molto bello.
• G.Gallavotti “Statistical Mechanics - Short treatise”, 1999
[Dip. Fisica, Università di Roma, La Sapienza]
– Cap. 1 (++): molto interessante analisi dei fondamenti della
M.S.
Dinamica microscopica −→ discretizzazioni −→
tempi di ricorrenza −→ . . .
– Cap. 2 : Microcaconico, Canonico, Grancanonico
– Cap. 3 (+): Equipartizione e critiche
– Cap. 4 (+): Stabilità
– ...
– Cap. 9 (++): Non equilibrio: interessante
leggere le appendici
2
Indice
I
Introduzione
4
1 micro e macro stati
1.1 Meccanica statistica di una pallina confinata . . . . . . . . .
2 idee per il ’programma massimalista’
2.1 Sistema dinamico . . . . . . . . . . .
2.2 punti ricorrenti, transienti, etc. . . . .
2.3 Teorema Poincare’ . . . . . . . . . . .
2.4 Sistemi Ergodici . . . . . . . . . . . .
2.5 Teorema Birkhoff: medie temporali. .
2.6 Teorema di Kac: probabilita’ e tempi
2.7 ricostruzione della termodinamica . .
2.8 Nota: Misura indotta . . . . . . . . .
2.8.1 una definizione e due relazioni
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
5
8
10
11
12
13
15
16
18
19
21
24
3 idee per un ‘programma minimalista’
27
3.1 • Misure di Gibbs . . . . . . . . . . . . . . . . . . . . . . . . 27
3.1.1 Commenti . . . . . . . . . . . . . . . . . . . . . . . . 28
3.2 • Ricostruzione della Termodinamica . . . . . . . . . . . . . . 30
II
Ensemble
3.3
32
sistema isolato,
sistema icon riserva di calore,
sistema icon riserva di materia . . . . . . . . . . . . . . . . .
1
33
4
5
6
Sistemi classici isolati
4.1 Misura Microcanonica e Termodinamica . . . . . . . . .
4.2 Limite termodinamico ed Entropia . . . . . . . . . . . .
4.3 il caso dei Sistemi ideali . . . . . . . . . . . . . . . . . .
4.3.1 limite termodinamico . . . . . . . . . . . . . . .
4.3.2 Monotonia, Positività e Convessità dell‘ entropia
4.3.3 Additività dell’Entropia microcanonica . . . . .
4.3.4 Gas ideale classico e paradosso di Gibbs . . . . .
4.4 Equipartizione . . . . . . . . . . . . . . . . . . . . . . .
4.4.1 equipartizione statistica, equipartizione dinamica
Sistema Canonico
5.1 MICROCANONICO −→ CANONICO . . . . .
5.2 Teorema fluttuazione-dissipazione . . . . . . . . . .
5.2.1 Teoria di Einstein delle fluttuazioni . . . . .
5.3 Equipartizione . . . . . . . . . . . . . . . . . . . . .
5.4 Equivalenza microcanonico - canonico . . . . . . . .
5.5 hamiltoniani quadratici . . . . . . . . . . . . . . . .
5.6 Cristallo Classico . . . . . . . . . . . . . . . . . . . .
5.7 campo scalare, corda, membrana ... . . . . . . . . .
5.8 Campo elettromagnetico . . . . . . . . . . . . . . .
5.8.1 densita’ di energia in frequenza . . . . . . . .
5.9 confronto . . . . . . . . . . . . . . . . . . . . . . . .
5.10 Gradi di libertà L, volume V, numero di particelle N
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
34
35
37
38
40
41
42
44
48
48
.
.
.
.
.
.
.
.
.
.
.
.
50
50
53
54
55
55
58
58
61
63
64
65
66
sistema Grancanonico
67
6.1 Canonico ⇒ Grancanonico . . . . . . . . . . . . . . . . . . . . 67
6.2 commenti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
7 oltre gli oscillatori armonici
7.1 sviluppi a cluster e modelli di fluido . .
7.2 campo medio . . . . . . . . . . . . . . .
7.2.1 termodinamica elementare di una
7.2.2 gas su reticolo . . . . . . . . . .
7.2.3 cristalli liquidi . . . . . . . . . .
2
. . . . .
. . . . .
galassia
. . . . .
. . . . .
. . .
. . .
. .
. . .
. . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
70
71
75
78
80
82
8 Introduzione alle transizioni di fase
8.1 funzione di partizione e fasi . . . . . . .
8.2 definizioni . . . . . . . . . . . . . . . . .
8.3 regola delle fasi . . . . . . . . . . . . . .
8.4 una transizione di primo ordine: cristalli
8.5 una transizione di secondo ordine . . . .
. . . .
. . . .
. . . .
liquidi
. . . .
.
.
.
.
.
9 Esistenza del limite termodinamico
9.1 interazione “troppo attrattiva” a corte distanze
9.2 ‘ troppo attrattiva” a grandi distanze . . . . . .
9.3 ‘ troppo repulsiva” a grandi distanze . . . . . . .
9.4 Teoremi di esistenza . . . . . . . . . . . . . . . .
9.5 argomenti non trattati . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
83
85
86
87
89
95
.
.
.
.
.
96
97
98
100
101
102
10 appendix
103
10.1 the second derivative . . . . . . . . . . . . . . . . . . . . . . . 103
3
Parte I
Introduzione
4
Capitolo 1
micro e macro stati
Un sistema macroscopico
(un bicchier d’acqua, una calamita, una membrana, un pezzo di vetro,...)
é costituito da “oggetti elementari”,“particelle”.
Prendiamo il sistema macroscopico e ’dividiamolo’ in sottosistemi di dimensione sempre piu’ piccola. Per un pó le proprieta’ dei sottosistemi sono identiche a quelle del sistema di partenza, poi arrivati ad una certa dimensione,
queste proprieta’ cambiano ... abbiamo individuato una scala microscopica
e i corrispondenti oggetti elementari
Ci sono varie scale microscopiche: Se studiamo le proprieta’ dell’ acqua possiamo considerare “particella” la molecola d’acqua e non interessarci al fatto
che dividendo la molecola troviamo atomi, gli atomi da .... fino ai quarks.
Una soluzione di polimeri é descritta come un insieme di “particella” caratterizzate da un raggio tipico, a scala inferiore le particelle appaiono come
matasse, collane di monomeri etc...
(In che modo si ’divide’ è un capitolo diverso ...)
Le nostre “particelle” sono descritte da attributi che “riassumono” tutto cio’
che accade alla scala microscopica. Assumiamo che queste propieta’ siano
ben definite.
Per esempio le “particelle” acqua hanno una massa ben definita, sono dotate
di un dipolo elettrico ... le “particelle” che costituiscono un cristallo liquido
sono “segmenti”, le “particelle” di un materiale ferromagnetico sono dotate
di uno spin, ...
Il problema che ci poniamo e’ descrivere le proprieta’ del sistema macroscopico a partire dalle proprieta’ di queste “particelle” e delle loro interazioni.
Ogni scala microspopica ha dimensioni, tempi, energie, “particelle” e interazioni caratterisctiche. È possibile seguire passo passo i cambiamenti delle
proprietà al variare della scala scelta, e dare consistenza alla spiegazione del
5
comportamento macroscopico.
stati microscopici
Classici o quantistici che siano, gli stati microscopici corrispondonono alla
descrizione dettagliata e completa dell‘ insieme di particelle che costituiscono il sistema
Per esempio gli stati microscopici di un fluido semplice sono lo spazio delle
fasi del sistema: posizioni e velocitá delle molecole che lo costituiscono. N
molecole hanno uno spazio delle fasi eguale a R6 N (vedi paragrafo 4.3.4,
pagina 44)
stati macroscopici
Quello che l’esperienza insegna e’ che gli stati del sistema macroscopico sono
tutt’altra cosa.
Sappiamo che la termodinamica individua una classe di stati (detti stati di
equilibrio) descritti da poche coordinate (indipendentemente dal numero di
“particelle” che costituiscono il sistema), fissando le quali il sistema e’ completamente determinato.
L’idea centrale e’ che gli stati macroscopici sono le misure di probabilita’ definibili sullo spazio degli stati microscopici, misure che soddisfano ad alcuni vincoli semplici. Inoltre le grandezze macroscopiche
sono le aspettazioni, secondo queste misure, di osservabili miscroscopiche
Perche’ ?
Nel caso termodinamico la motivazione intuitiva e’ legata all’idea che nei
tempi propri del sistema macroscopico moltissimi stati microscopici sono
“visitati” nella evoluzione dinamica del sistema cosicche’ quello che conta
alla scala macro, è la frequenza con cui si presentano i vari stati microscopici. Il peso relativo degli stati micro determimina le proprieta‘ macro che
appaiono come valori medi di grandezze microscopiche
E’ tuttaltro che semplice sviluppare tecnicamente questa intuizione ma questa e’ l’idea che sta alla base della possibilita’ di passare dal microscopico al
macroscopico.
Helmholtz fu il primo a capire che i valori medi temporali di grandezze
dinamiche sono legati da relazioni che hanno l’aspetto di equazioni termodinamiche e a proporre uno schema per passare dalle leggi della meccanica newtoniana alle leggi della termodinamica. Precisamente Helmholtz
mostrò che ai sistemi dinamici monociclici è associata una termodinamica
identificando
energia interna ≡
energia meccanica totale
temperatura
≡
media temporale dell′ energia cinetica
entropia
≡
logaritmo Azione meccanica
6
(Nel paragrafo 1.1 riporto l‘argomentazione di Helmholtz.)
Con i lavori di Boltzmann, Maxwell, Gibbs concetti e grandezze probabilistiche entrano nella fisica e l‘intuizione di Helmholtz ne diventa capitolo
essenziale.
Il ’ teorema H’ , enunciato nel 1872 da Ludwig Boltzmann piò essere considerato il terema fondante la Meccanica statistica.
(cito da Wikipedia)
The H-theorem describes the tendency to increase in the dynamical quantity
H (defined below) in a nearly-ideal gas of molecules. As this quantity H was
meant to represent the entropy of thermodynamics, the H-theorem was an
early demonstration of the power of statistical mechanics as it claimed to
derive the second law of thermodynamicsa statement about fundamentally
irreversible processes from reversible microscopic mechanics.
The ”H” value is determined from the function f (E, t)dE , which is the
energy distribution function of molecules at time t. The value f (E, t)dE is
the number of molecules that have kinetic energy between [E, E + dE]. ”H”
itself is defined as:
Z ∞
f (E, t)
√
f (E, t) log
H(t) =
− 1 dE
E
0
For an isolated ideal gas (with fixed total energy and fixed total number
of particles), the function ”H” is at a minimum when the particles have a
MaxwellBoltzmann distribution; if the molecules of the ideal gas are distributed in some other way (say, all having the same kinetic energy), then
the value of ”H” will be higher. Boltzmann’s ”H”-theorem shows that when
collisions between molecules are allowed, such distributions are unstable and
tend to irreversibly seek towards the minimum value of ”H” (towards the
MaxwellBoltzmann distribution).
Although Boltzmann’s H-theorem turned out not to be the absolute proof
of the second law of thermodynamics as originally claimed, the H-theorem
led Boltzmann in the last years of the 19th century to more and more probabilistic arguments about the nature of thermodynamics. The probabilistic
view of thermodynamics culminated in 1902 with Josiah Willard Gibbs’s
statistical mechanics for fully general systems (not just gases), and the introduction of generalized statistical ensembles.
Nel paragrafo 2 a pagina 10 cerco di darvi una traccia delle idee base che
sono necessarie per realizzare il programma massimalista, ma nel fare questo
non riassumo le argomentazioni di Boltzmann ( e di Gibb) ma vi enuncio
tre teoremi riguardanti proprietà generiche di sistemi dinamici, i teoremi di
Poincare’ (ricorrenza), Birkoff ( dp dq ≡ dtt ), e Kac (tempi di ricorrenza).
Questi teoremi sono tecnicamente molto più semplici e meno problematici nelle assunzioni. A mio parere ‘psicologicamente‘ tranquillizzanti sulla
possibilità di realizzare il programma proposto.
7
1.1
Meccanica statistica di una pallina confinata
Motivazioni del paragrafo:
La MS non ha senso solo per sistemi con molti gradi di libertà.
Le medie temporali di grandezze dinamiche sono legate da relazioni termodinamiche
( ⇒ vedi
Gallavotti M.S.)
q
q
δU
.
q
δV
(U,V)
.
q
.
q
000
111
111
000
000
111
000
111
000
111
000
111
000
111
000
111
000
111
000
111
(U’,V’)
trasformazione termodinamica
Sistema microscopico: 1 + 1 gradi di libertà,
stato microscopico è descritto da una coordinata q e dalla relativa velocità
Il sistema è caratterizzato da un potenziale φV (q)
a crescita rapida,
dipendente dal parametro V.
Per esempio: φV (q) =
⇒
V 2
2q .
I moti sono tutti ciclici.
K = energia cinetica
U = energia totale = K + φ
T = media temporale di K
∂φ
p = media temporale di ∂V
——————————(*) La media su un ciclo è
Rt
limt→∞ 1t 0 dt′ K(t′ )
——————————-
stato macroscopico
un’orbita . . .
↔
(U, V )
↔ guardo le proprietà generiche di
8
variazione dU, dV
; definisco :
n
δL = −pdV
δQ = dU − δL
Intuitivamente: per φV (q) =
to V
V 2
2q ,
se aumen-
localizzo maggiormente il punto, “comprimo”. . .
Teorema (Helmholtz)
Il differenziale
δQ
dU + pdV
=
T
T
è esatto.
⇒ Dim.:
oscillazione.
Considero
q± (U, V ) = estremi di oscillazione; t± = semiperiodi di
S(U, V ) =: 2 ln
Z
q+
q−
p
U − φ dq = 2 ln
Z
q+
√
K dq
q−
Il differenziale di S si calcola facilmente ( in q± si ha q̇ = 0
n Z q+
Z q+
1 1 ∂φ o
∂S
∂S
1
dU −
dq √
dq √
dS =
dV =
dU +
dV = R q+ √
∂U
∂V
K dq
K
K ∂V
q−
q−
q−
=
dU − pdV
(t± )dU − (t± )pdV
=
(t± )T
T
A un sistema monodimensionale monociclico è associata una termodinamica
identificando
energia interna ≡
energia meccanica totale
temperatura
≡
media temporale dell′ energia cinetica
entropia
≡
logaritmo Azione meccanica
Altre variabili coniugate sono i parametri V di φ e le medie temporali di
9
∂φ
∂V .
Capitolo 2
idee per il ’programma
massimalista’
Motivazione della sezione: tracciare lo schema del ‘programma massimalista‘ (lo dico scherzosamente),
ovvero passaggio : Dinamica ⇒ Termodinamica
Reversibilità ⇒ irreversibilità
(per sistemi a ’pochi’ gradi di libertà)
La definizione di alcune grandezze e tre teoremi fanno da sfondo nel passaggio dalla dinamica alla statistica.
reversibile
irrebersibile
pulce
In un sistema hamiltoniano classico tutti i moti sono reversibili.
Sulle superfici a energia costante M e’ definita una misura µ invariante per
la dinamica. Questa misura e’ finita ed e’ quindi una misura di probabilita’.
Se il sistema e’ ergodico le aspettazioni calcolate con tale misura coincidono
con le medie temporali
dµ
dt
≡
t
µ(M)
10
e hanno caratteristiche tipiche delle grandezze termodinamiche, irreversibilita’ compresa.
( Nei paragrafi successivi - E3, . . . - ci focalizziamo sulle grandezze, parleremo
dei processi nel secondo modulo.)
2.1
Sistema dinamico
• Superficie ad energia costante M,
m ∈ M e’ un punto dello spazio delle fasi
• dinamica et·L : M → M
et·L è la trasformazione che dà l’evoluzione cioé se al tempo t = 0 fisso
il dato iniziale m, al tempo t ho m(t) = et·L (m)
e’ iniettiva: m 6= m′
→
eL m 6= eL m′
• misura su {M, B(M) µ}, invariante per la dinamica:
µ(A) = µ(etL A) ∀t
compatibile con la dinamica,
finita : µ(M) < ∞ , perche’ l’energia e’ fissata e finita
misura finita ≡ misura di probabilita’
————————————————————————• Si puo’ anche ragionare in termini di traiettorie
Spazio delle orbite:
Ω ≡ {ω : ω(t) ∈ M, t = 0, 1, 2, . . . }
– si considerano i proiettori Πt : Π(ω) = ωt che ad ogni orbita
associano il punto occupato al tempo t
– si definiscono gli insiemi cilindrici:
−1
Ct1 ,..tn = {Π−1
t1 (A1 ) ∩ · · · ∩ Πtn (An }
con Ai insiemi misurabili di M
– si costruisce a partire da questi la σ–algebra dei misurabili
• si definisce una misura sulle traiettorie a partire da : µΩ (Ct ) = :
µ(Πt (C))
11
t
.t
..
2
. .A
t1
A2
1
. ..
Π t (A 1 )
1
Πt (A 2 )
2
con questa misura calcolo
X(ω)
cioe’ grandezze tipo X(ωt ) X(ω0 ) , X(ωt ) X(ωs ) . . . X(ω0 )
2.2
punti ricorrenti, transienti, etc.
Breve richiamo (Feller vol1 cap XIII pag 303)
evento E: per esempio nel seguito essere in A, A ⊂ M, µ(A) > 0
Penso il tempo discretizzato
Sia p(k) è la probabilità che al tempo k si verifichi l‘evento E
Sia f (n), n > 0 è la probabilità di primo ritono, di prima ripetizione dell‘evento.
f (n) è la probabilità che l‘evento E si (ri)presenti per la prima volta dopo
un intervallo di tempo n
Gli eventi
P primo ritorno a tempi distinti sono autoescludentosi
quindi
f (n) ≤ 1
P
P
Le funzioni generatirici sono P (s) = k p(k)sk , F (s) = n f (n)sn
La probabilità che l‘evento ‘non si presenti in una serie di prove infinitamente
prolungata ‘ è 1 − F (1)
(2)
la probabilità che l‘evento E si presenti la seconda volta al tempo n è fN =
f (1)f (n − 1) + f (2)f (n − 2) + · · · etc da cui F (r) (1) = F (1)r etc.
Assumendo
P p(0) = 1 ho
p(n) = nk=0 f (k)p(n − k) + δn,0 .
e quindi P (s) = P (s)F (s) + 1 ovvero
P (s) =
1
1 − F (s)
12
P
Dico: l‘evento E transiente P
se P (1) = ∞
0 p(k) < ∞
certo (ricorrente) se P (1) = ∞
p(k)
=
∞
0
certo ergodico se (limN →∞ ) P (1)/N > 0
Vale P (1) = ∞ ↔ F (1)1 = 1
Il numero medio di volte con cui si presenta un evento certo è infinito Il
numero medio di volte con cui si presenta un evento non certo è finito
P (1) = 1/(1 − F (1)
Per eventi certi vale il teorema
X
< tR >=
nf (n)
n
lim p(n) =
n→∞
(1/N lim
N →∞
(< tR > è il tempo medio di ritorno)
N
X
Notare:
< tR > finito ⇒ p(n) → finito
(esempio Markov con π eq < tR >= 1/π eq (x),
1
p(n)) =
< tR >
(2.1)
p(n) → π eq (x))
P
< tR >= ∞ ⇒ p(n) → 0 ( ma
p(n) = ∞)
(esempio RW in D < 2 p(t) ∼ t−D/2 ⇒< tR >∼ tD/2
RW in D > 2 F (1) < 1 e non vale il teorema
Nel caso in cui F (1) < 1 il tempo medio di ritorno è
amente infinito.
2.3
P
nf (n)
F (1)
ed è necessari-
Teorema Poincare’
Quando lo spazio delle fasi e’ discretizzato si dice che m ∈ M e’ punto ricorrente se: una traiettoria che parte da m ripassa, in un tempo finito, per
m
cioe’ se
esiste t(m) tale che
et(m)·L m = m.
Notare che se esiste un t(m) ne esistono infiniti. Quindi i punti ricorrenti
sono visitati infinite volte. Per contro i punti detti transienti sono visitati
un numero finito di volte. (Bisogna poi distinguere ulteriormente, ma qui
basta). (Trovate tutto in Marinari Parisi cap 8: per dinamiche aleatorie).
13
Se lo spazio delle fasi e’ continuo e la misura e’ tipo (indotta da) Liouville
non e’ possibile ragionar per punti ma bisogna ragionare per misurabili:
m ∈ A si dice ricorrente in A se esiste t(m) tale che et(m)·L m ∈ A.
• Teorema di Poincarè [ 1899]
(Teorema Eterno Ritorno)
Le traiettorie che partono da un qualunque insieme misurabile
(quasi certamente)
vi ritornano
∀A, µ(A) > 0 ⇒ quasi certamente m ∈ A e’ un punto ricorrente
per A
———————————–
traccia dimostrazione
Consideriamo una dinamica con tempi discretizzati
Sia N l’insieme dei punti non ricorrenti di A:
N = {m ∈ A, ∀t : et0 L (m) ∈ Ac } = A ∩ ∩t (e−(t0 L) Ac )
Ac complementare di A
N e’ intersezione di misurabili e quindi misurabile
N ha misura nulla, infatti:
poiche’ ∀t : e(t·L) N ⊂ N c , (altrimenti ci sarebbe ricorrenza)
allora e(t·L) N ∩ e(s·L) = 0 (altrimenti ci sarebbe ricorrenza)
⇓
P
P
(t0 L) N =
µ ∩t e(t0 L N =
t µ e
t µ N
la serie e’ a termini costanti, ma la misura e’ finita e quindi la serie
non puo’ permettersi
di divergere
⇒ µ N e’ zero.
commento
- non ci possono essere punti fissi, bacini di attrazione
- come valutare t(m) ? quanto e’ grande?
- c’e’ anche un enunciato piu’ forte, per le traiettorie:
definito ΩA l’insieme delle traiettorie ω tali che ω(0) ∈ A ed esiste
tω(0) t.c. etω(0) L ω(0) ∈ A
allora:
µΩ (ΩcA ) = 0.
14
2.4
Sistemi Ergodici
Un sistema dinamico {M, B(M), µ} e’ detto ergodico se soddisfa una delle
tre equivalenti proprieta’
• -(1): Qualsiasi costante f (m) del moto e’ q.c. (quasi certamente)
costante in M, cioe’ indipendente da m
M = H −1 (E) non ci sono
costanti del moto indipendenti dall’energia.
• -(2): gli unici insiemi stabili per la dinamica sono M e il vuoto
cioe’ A = (etL )A ⇒ µ(A) · µ(Ac ) = 0
• -(3): la misura µ non e’ scomponibile in αµ1 + (1 − α)µ2
con µi invarianti per evoluzione, α ∈ [0, 1]
la misura µ e’ pura, estremale
———————————–
Osserviamo che detta χA funzione caratteristica di A:
χA (m) = 1 per m ∈ A e χA (m) = 0 per m ∈
/A
A = (etL )A ⇒ χA costante del moto
e viceversa
————————————
——————————————–
Le tre definizioni sono equivalenti
schematicamente:
(1) → (2) : una funzione caratteristica puo’ valere solo 0
o 1, quindi χA (m) costante q.c. significa o sempre (q.c.) nulla o sempre 1
Quindi...
(non 1) → (non 3) : se esiste una costante del moto g(m)
non q.c. costante allora µ1 = g(m)µ puo’ essere usata per decomporre µ ...
da (non 3)→(non 2) se la misura e’ decomponibile si
costruisce una costante del moto con valori diversi in M
2 → 1 (tecnica)
————————————
Att! l’ ergodicita’ e’ una proprieta’ molto forte per un sistema dinamico
15
2.5
Teorema Birkhoff: medie temporali.
Kolmogorov scrive:
“Il teorema fu dimostrato da Birkoff come un teorema di
meccanica o, come uno puo’ vedere, come un teorema legato alla evoluzione
di un arbitrario sistema i cui stati sono completamente determinati da un
numero finito di parametri e il cui comportamento e’ governato da equazioni
differenziali che ammettono un integrale invariante.
Per integrale invariante si intende una set-function µ(A) = µ(et·L A)
Il teorema suona :
Per qualsiasi funzione a valori reali f (m) definita su M il limite
Z
1 C
lim
f (et·L m)dt = ψ(m)
C→∞ C
esiste per tutti gli m eccetto al piu’ per insieme di punti a misura nulla
Questo teorema puo’ essere guardato come caso speciale del seguente piu’
generale teorema:
Dato un processo stocastico stazionario nel senso di Khinchin , e cioe’ un set
di random variabili xt dipendenti dal parametro t e tale che le distribuzion
dei sistemi {xt1 , xt2 , . . . , xtn } {xt1 +τ , xt2 +τ , . . . , xtn +τ }
coincida per ogni n e per ogni {t1 , t2 , . . . , tn } e per ogni τ ; si supponga
che le variabili xt abbiano media finita ( che e’ indipendente da t poiche’ il
processo e’ stazionario) e che siano continue in t con probabilita’ 1.
Allora con probabilita’ 1 l’ integrale
Z
1 C
lim
xt dt
C→∞ C
esiste
Questo e’ il teorema generale di Birkoff-Khinchin. Il precedente teorema di
Birkoff e’ infatti un caso particolare poiche’
se la probabilita’ che un punto m stia in A e’ assunta essere eguale
a µ(A) allora le random variabili xt = f (et·L m) soddisfano tutte le
condizioni del teorema generale
Kolmogorov Opere complete, pg 271
Kolmogorov prosegue mostrando che e’ sufficiente dimostrare il teorema per
Z
1 n
xt dt
lim
n→∞ n
16
R n+1
con n intero considerando le RV x̄n = n xt dt.
In tal caso il teorema di Birkoff-Khinchin si riduce a provare che :
Sia {x̄t } una sequenza stazionaria di RV con aspettazione finita allora il
limite
x̄0 + x̄1 + x̄2 + · · · + x̄n−1
lim
n→∞
n
esiste con probabilita’ 1.
(osservazione: Vi ricorda nulla?)
Concludendo:
Sia {M, B(M), µ} un sistema dinamico
Sia f (m) una funzione misurabile
• quasi certamente in M esiste il limite
t
1 X
f (e(s·L m) ≡ f¯(m)
t→∞ t
s=0
lim
• f¯(m) e’ costante del moto, f¯(m) ∈ L1 (µ)
R
R
• f¯(m)dµ = f (m)dµ
R
f dµ
• Se µ e’ ergodica allora f¯(m) = f¯ = µ(M)
( ! indipendente da m ≡ q.c. costante)
nota:
dimostrata l’esistenza e’ banale constatare che f¯(m) risulta essere una costante
del moto (e’ una media temporale...)
altrettanto immediato e’ dimostrare gli altri punti
17
2.6
Teorema di Kac: probabilita’ e tempi
frequenza di visita
frequenza di visita di m ∈ M ad un insieme A:
t
1X
χA (eτ ·L m)
t→∞ t
fA (m) = lim
τ =0
e’ il rapporto far il tempo di permanenza in A e l’intervallo di tempo considerato quando quest’ ultimo diventa infinito
• esiste per ∀m ∈ M a meno di un set di misura nulla
• e’ una costante del moto
• se µ e’ ergodica allora fA (m) e’ indipendente da m
µ(A)
µ(M)
• in tal caso fA =
i primi tre punti sono conseguenza
immediata del teorema di Birkoff
R
per l’ultimo si confronta dµfA (m) = fA · µ(M) con
Z
dµfA (m) =
Z
Z
t
i
1X
τ ·L
dµ lim(
χA (e m) =
dµχA (m)
t
t τ =0
h
Quindi per un sistema ergodico la probabilita’ m ∈ A ≡ al rapporto far il
tempo di permanenza in A e il tempo considerato. Vale il viceversa : se una
misura e’ tale che: ∀A : ν(A) = fA allora la misura e’ ergodica.
tempi ricorrenza
primo tempo ricorrenza di m ∈ A in A:
tA (m) = inf {t > 0 | et·L m ∈ A}
t
• esiste per Poincare’ (ed e’ una funzione A → R+ )
• il tempo medio minimo che devo aspettare affinche’ partendo da A mi
ritrovi in A e’ l’aspettazione della funzione tA (m):
Z
1
dµ tA (m)
tA =
µ(M) A
18
Teorema di Kac
In un sistema ergodico :
1
tA =
fA
—————————————
commento
il tempo di attesa e’ proporzionale a
tA µ(A) = µ(M)
2.7
1
µ(A)
ricostruzione della termodinamica
La misura indotta da Liouville sulla ipersuperficie H(p, q) = E è la grandezza matematica che descrive lo stato di equilibrio di un sistema isolato con
energia interna E.
Analizzeremo con dettaglio questa affermazione nei prossimi capitoli. Per
ora basti sapere che E e i vari parametri che descrivono la hamiltoniana sono
le grandezze estensive o intensive che labellano lo stato termodinamico di
equilibrio, che il (logartimo) del volume dell‘ipersuperficie è l‘entropia dello
stato etc.
Intuitivamente il fatto che la misura dia stessa probabilità ad ogni stato si
traduce, per esempio nel caso di un gas perfetto contenuto in un volume V ,
nel fatto che ci aspettiamo di vedere macroscopicamente (= statisticamente)
una densità costante , e il fatto che la misura sia invariante per la dinamica
micro ci dice che lo stato macroscopico non cambia con il tempo, è stato di
equilibrio termodinamico.
Ma i teroremi precedenti hanno una ambizione molto più grande che descrivere ’semplicemente’ gli stati di equilibrio e le equazioni di stato termodinamiche del sistema in esame.
Vogliono spiegare come dalla reversibilità dinamica nasca la irreversibilità
macroscopica, come preparando il sistema in una configurazione particolare
questo evolva fino a divenire lo stato di equilibrio.
Per esempio se costringiamo, in un certo istante, il gas ad occupare una
parte ∆V ⊂ V del volume a disposizione e poi lasciamo evolvere con le leggi
microscopiche il sistema vogliono dimostrare che lo stato macro del gas sarà
descritto, dopo un transiente, dalla misura omogenea.
Poincarè, e la nostra idea intuitiva di reversibilità, ci dice che esiste un tempo dopo il quale il gas ritorna ad essere disomogeneo, ovvero tutto contenuto
in ∆V . Questo macroscopicamente non torna.
Il teorema di Kac ci spiega il motivo. Se (sempre limitandomi alla parte
configurazionale) le condizioni al tempo t = 0 sono ∆V < V e ci chiediamo
19
quanto si deve aspettare per rivedere il sistema “circa cosi”’ la risposta è
VN
∆V N
Questo è un tempo ordini di grandezza più grande dell‘etè dell‘ universo.
La riversibilità microscopica non contrasta con la irreversibilità ‘macroscopica‘
Ancora: se la condizione iniziale in cui prepariamo il gas è descritta dalla
1
misura di probabilità µ(0) = χA · µ(A)
la dinamica con cui evolve lo stato è
1
µ(t) = χA (t) · µ(A) Il teorema di Birkhoff ci dice che la media temporale di
questa misura (esiste) ed è una costante del moto, cioè è la misura omogenea, è lo stato macro di equilibrio.
(Intuitivamente che la media su un internallo [n, n + 1] di Kolmogorov, il
tempo macro di misura, è la misura omogenea, per n abbastanza grande)
Il teorema H di Boltzmann è ancora più stringente, ma già qui si intuisce che
se identifichiamo l‘entropia con il logaritmo del volume accessibile agli stati
microscopici in un internallo [n, n + 1] partiamo da uno stato con entropia
log(µ(A) e evolviamo verso lo stato con emtropia log(µ(M ): l‘entropia non
può che crescere.
20
2.8
Nota: Misura indotta
Questa sezione per precisare il concetto di misura indotta dalla misura di
Loiville sulle ipersuperfici a energia costante e definire alcune relazioni particolarmente utili negli sviluppi successivi
Il nostro problema è quello di definire una misura su (iper)superfici di energia costante, misure che siano invarianti per la dinamica.
La misura di Liouville è invariante per la dinamica, ma assegna misura nulla
alle superfici.
Occorre usare una misura indotta.
L‘ idea è antica: (Cavalieri) una misura in RN assegna valore nullo ad insiemi in RN −1 , ma la derivata del volume della sfera rispetto al raggio è l’area
della sfera . . .
Il Teorema di Gauss e il Teorema di Stokes forniscono un esempio di misura
indotta.
Z
Z
α
dα =
∂Λ
Λ
∂Λ ≡ bordo di Λ
α ≡ (k − 1) forma ↔ misura su ∂Λ
dα ≡ k forma ↔ misura su Λ
x ∈ RN
Vogliamo analizzare brevemente i seguenti punti:
• ⇒
data una (iper)superficie
SP = {x|P (x1 , . . . , xN ) = 0 ; ∇x P 6= 0}
i
h
dimostrare che la misura Πi dxi (N forma) definisce un’unica misura
ω [(N − 1) forma] su SP tale che
i
h
dP ∧ ω = Πi dxi
P=h
ω
P=0
ω
21
h=Volume
• ⇒
Utilizzare questa misura per definire la δ(P (x) − E)
– analogo della δ(x − x0 ) per R e Lebesque –
e le proprietà di Chain rules.
• ⇒ definire la misura microcanonica δ(E − H(p, q)) [dp dq]
4.1 a pagina 35
• dimostrare il teorema di equipartizione
4.4 a pagina 48
• dimostrare l‘ equivalenza microcanonico ⇔ canonico
5.4 a pagina 55
Lettura: Gelfand Shilov, “Gen. Funct.”, vol.I, cap.3
ATT!
Non necessario, solo per amatori distribuzioni.
Faccio riferimento al Gelfand perchè, a mio parere, è particolarmente
leggibile/discorsivo.
Guardare però gli esempi e le conclusioni.
22
A2.
Esempi
Misura indotta su SP : ω
SP ≡ superficie regolare ≡ {x|P (x) = 0 ; ∇P (x) 6= 0}
P ≡x
1
⇒
Esempio 1.
∇P = (1, 0, . . . )
Z
Z
Z
i
h
N
φ(0|x2 , . . . , xN )dx2 . . . dxN =: ωφ(x)
δ(x1 ) φ Πi=1 dxi =:
RN−1
RN
⇒
i
h
ω ≡ ΠN
dx
i
1=2
n P
∇P 6= 0
Esempio 2.
scelgo un sistema di coordinate {u1 , . . . , uN } con
(
uj = P (x)
altre arbitrarie ma D xu 6= 0 (← ∇P 6= 0)
φ(x) → φ1 (u)
Z
Z
x
φ(x)ω =: δ(uj )φ1 (u)D
[du]
u
Z
x
= φ1 (u1 , . . . , uj , . . . , un )D
[du1 , . . . , (duj ), . . . , duN ]
|{z}
u
| {z }
no
j−1
=0
propriamente du1 ∧ duj ∧ · · · ∧ duN = (−) duj ∧ du1 ∧ · · · ∧ duN
Z
x j−1
= φ1 (u1 , . . . , (0), . . . uN )(−) D
[du1 ∧ . . . (duj ) · · · ∧ duN ]
u uj =0
| {z }
no
quindi scrivo:
x (−)j−1 [du1 ∧ . . . (duj ) · · · ∧ duN ]
ω≡D
u uj =P
| {z }
no
In particolare, se scelgo
allora
ω≡
1
∂P
|
| ∂x
j











u1 = x1
..
.
uj = P
..
.
uN = xN
(−)j−1 [dx1 ∧ . . . (duj ) · · · ∧ dxN ]
| {z }
no
23
⇒
Esempio 3.
SE = {x| ||x||2 − R2 = 0}
⇒ Esempio 4. SR = {x| ||x|| = R}
2.8.1
una definizione e due relazioni
La misura indotta ci permette di definire δ(P (x)),
l’analogo di δ(x − x0 ).
ATT! la δ(P (x)−E) non è l‘analogo della δ(N ) (x−x0 ) definita in RN ovvero
funzionale lineare su funzioni test di N variabili, che in questo linguaggio
sarebbe la misura indotta su un punto.
Ricordarsi che:
R
R
Θ(x) ∂x (φ)
∂x Θ (x)φ(x) = R
•
δ(x)φ(x)
•
•
•
x δ(x) = 0
[R x è un moltiplicatore,
quindi ha senso x δ(x):
R
φ x δ(x) = (xφ) δ(x) = 0 ]
x δ′ (x) = −δ(x)
ecc.
⇒
Definiamo δ(P (x) − E) usando la misura indotta dalla misura di
lebesque sulla superficie regolare SP ≡ {x|P (x) = E ; ∇P (x) 6= 0}
cioè definiamo
Z
Z
[dx]δ(P (x) − E), φ(x) =: ω φ
;
∀ φ ∈ S(RN ), K(RN ), . . .
scriviamo anche sinteticamente
e per ricordarci
che stiamo
parlando di un
R
funzionale lineare [dx]δ(P (x) − E), φ(x) = δ(P − E), φ - proprietà;
Se Θ(E − P (x)) è la funzione indicatrice :
0 x : P (x) > E
Θ(E − P (x)) =
1 x : P (x) ≤ E
⇒
∂
δ(P − E), φ =
∂E
Z
∂
Θ(E − P (x))φ(x)[dx] =
∂E
24
Z
φ(x)[dx]
P (x)<E
⇒
δ(P (x) − E) dipende solo da P (x)
e non dalla scelta delle coordinate, . . .
[nel senso P1 = αP
−→ ω1 =
1
α(x) ω
ecc.]
α(x) 6= 0
⇒
La δ(P (x) − E) è la derivata della funzione indicatrice Θ(E − P (x))
nel senso:
Z
Z
∂Θ(E − P (x))
∂P (x)
φ(x) = δ(P − E)
φ(x)
∀φ
∂xj
∂xj
ovvero
∂P
∂Θ(E − P (x))
= δ(P )
∂xj
∂xj
(1) Se Θ fosse una funzione derivabile allora potremmo scrivere con tutta
tranquillità
(x))
(x))
∂xj Θ(E − P (x)) = − ∂Θ(E−P
∂xj P (x) = ∂Θ(E−P
∂xj P (x)
∂P
∂E
e quindi avremmo verificato la relazione.
(2) Ma Θ non è derivabile e quindi la sua derivata va definita nell‘ambito
delle distribuzioni
Z
Z
Z
∂φ
∂φ
∂Θ(E − P (x))
[dx]
φ(x) = − d[x]Θ(E − P (x))
=−
[dx]
∂xj
∂xj
∂xj
P ≤E
−E)
e coinvolge onesti integrali in RN ]
[questa è la definizione di ∂Θ(P
∂x
N −1
Ora
vogliamo mostrare
R che∂Pquesto integrale è eguale all‘integrale in R
∂P
δ(P − E), ∂xj φ = P =E ∂xj ω φ
(3) Per Gauss, assumendo P ≤ E limitato,
Z
Z
∂P
∂P d
φ ω=−
ωφ
∂xj
P ≤E
P =0 ∂xj
∂P
dove d ∂x
ω
φ
è il differenziale estreno
j
in coordinate locali
Q
ω = (−)j−1
k6=j dxk
∂P
∂xj
cosicchè
∂P Y
∂φ
d φ
ω = (−)j−1 d(φ
dxk ) =
dx1 , . . . , dxN
∂xj
∂xj
k6=j
25
quindi
Z
P =0
∂P
φω =−
∂xj
Z
P ≤E
come si voleva dimostrare.
N
∂φ Y
dx]
[
∂xj
k=1
In conclusione
δ(P − E)φ =:
Z
φ(x)ω
(2.2)
∂Θ(E − P )
∂P
= δ(P − E)
∂xj
∂xj
(2.3)
P =E
inoltre Chain Rules
(
P δ(P ) = 0
P δ′ (P ) + δ(P ) = 0
... ...
26
(2.4)
Capitolo 3
idee per un ‘programma
minimalista’
Motivazione del paragrafo: mostrare come sia possibile a partire dai “conteggi” degli stati microscopici e delle loro energie ricostruire la termodinamica
• Sia Ω l’insieme degli stati microscopici
Possiamo pensare a degli oscillatori interagenti
Possiamo pensare a spin discreti
• Sia H : Ω → R
H(ω) è l’energia dello stato microscopico ω.
Fra tutte le misure definibili su Ω ne esiste una, ed una sola, che soddisfa
alle caratteristiche degli stati termodinamici (sist.canonico) di equilibrio.
3.1
• Misure di Gibbs
Sia β un numero reale positivo.
⇒
fissati H e β si consideri,
per ogni misura p su Ω, la funzione:
1
p → A(p; β) = H p − S(p)
β
27
(3.1)
Teorema
Se Ω è finito, esiste una unica misura,
nell’insieme delle misure p su Ω,
che minimizza la funzione A(p, β)
per fissati β e H
Questa misura si chiama misura di Gibbs ed ha la forma:
gβ,H (ω) =
e−βH(ω)
Z(β, H)
;
Z(β, H) =
X
e−βH(ω)
(3.2)
ω
(fissata H ≡ fissata forma e parametri)
—————————————————————⇒ Dim.:
La finitezza di Ω riduce la dimostrazione del teorema a dimostrare che la
funzione A : [0, 1]Ω → R:
P
1 P
A(p)
P = ω hω pω + β ω pω ln pω
ammette minimo assoluto
ω pω = 1
ovvero che
∂A
1
= h(ω) + (ln pω − 1) = 0
∂pω
β
∀ω ∈ Ω
ma allora ln p(ω) = βh(ω) + cost e quindi p(ω) = Z −1 e−βh(ω)
(si veda conto per la umbiased distribution)
——————————————————
3.1.1
•
Commenti
La proprietà di minimo che caratterizza la misura di Gibbs e’ del
tutto simile alla proprieta’ che definisce lo stato di equilibrio termodinamico se si identifica A(g, β) con l’energia libera
Si dimostra che tutte le proprieta‘ formali del‘energia libera (in particolare convessità e additività) sono soddisfatte da A(g, β)
• Z(β, H) si dice funzione di partizione. Calcolare la misura di Gibbs
coincide col calcolare la funzione di partizione. È banale calcolare
e−βh(ω) ma non banale calcolare la somma Z(β, H)
•
⇒
Z soddisfa all’identità:
−
1
1
ln Z = H gibbs − S(gibbs) ≡ A(g, β)
β
β
28
(3.3)
(verificare)
Nota: la Meccanica quantistica impone un fattore 1/N ! ∼ N −N quando il sistema considerato è un sistema di N particelle. Vedi paradosso
di Gibbs in termodinamica. Vedi gas perfetti, vedi fluido.
• Se Ω è uno spazio tipo R|Λ|
(vedi il caso di un gas o di un cristallo)
cioè se gli stati microscopici sono vettori a |Λ| componenti la misura
di Gibbs è definita come nel caso discreto ma
Z
X
−βH(ω)
[dω]e−βH(ω)
Z(β, H) =
e
⇒ Z(β, H) =
R|Λ|
ω
cioè la funzione di partizione è un integrale |Λ| dimensionale.
• Quando Ω diventa infinito molte cose interessanti possono accadere.
P
- Per esempio se Ω è infinito ma discreto la somma Z(β, H) = ω e−βH(ω)
diventa una serie :
– nascono problemi di raggio di convergenza in funzione dei parametri
contenuti in H e di β;
– cade la dimostrazione del punto (3) e cade, in generale, se non l’esistenza della misura limite, l’unicità. Si apre cosi’ la possibilita’ di
coesistenza fra macrostati.
– Diventa critico il passaggio dalle proprietà di H a quelle di g.
Per esempio non e’ piu’ vero, in generale, che le proprieta’ di simmetria
dell’ hamiltoniano passano alla misura. Si parla di rottura spontanea
di simmetria.
“Questi problemi non segnalano fastidiose patologie matematiche ma
sono gli aspetti salienti del comportamento dei sistemi fisici.”
[Glimm e Jaffe : Modern Physics]
• Un‘ultima osservazione.
Spesso non è possibile calcolare esattamente la misura di Gibbs (la Z).
In questo caso cerchiamo
una qualche
approssimazione calcolando il
P
P
minimo di A(p) = ω hω pω + β1 ω pω ln pω non su tutto lo spazio delle
misure possibili ma su un sottospazio di misure semplici (come per esempio le misure fattorizzate). Questo metodo si dice campo medio.
Partendo dall’identit`[3.3], è possibile costruire un modello di termodinamica; cioè è possibile mostrare come le relazioni fra valori di aspettazione
e parametri della misura siano le tipiche relazioni della termodinamica di
equilibrio.
29
3.2
• Ricostruzione della Termodinamica
H dipende da parametri quali le costanti di interazione, i campi esterni, il
volume etc.
Possiamo scrivere
r
X
Ji Xi (ω)
H(ω) =: −
i=1
————————————————————–
nel caso Ising:
P
X1 (ω) = Pi∈Λ σi (ω)) e J1 è il campo magnetico esterno
X2 (ω) = <i,i′ > σi (ω)σi′ (ω)) e J2 è la costante di interazione spin–spin
nel caso del gasperfetto in campo gravitazionale
P
X1 (ω) = i∈N zi (ω) e J1 è il campo gravitazionale
P
X‘1 (ω) = i∈N |vi (ω)|2 e J‘1 è la massa delle particelle
ATT! H = HV la parte configurazionale dell’hamiltoniana dipende sempre
dal volume, perche’ e’ somma o integrale le cui variabili configurazionali
hanno per range il volume.
Quindi nelle considerazioni che seguono e’ sempre presente, esplicitamente
o implicitamente questa variabile estensiva.
————————————————————–
Se identifico
• i parametri Ji con le variabili intensive, V con il volume e β1 con la
temparatura
• A(g) con l‘energia libera del sistema
ho un modello di sistema che verifica gli assiomi della termodinamica.
Infatti con le assunzioni precedenti
• Ogni stato macroscopico (≡ misura di Gibbs) è univocamente determinato dal set finito di variabili V, β; J1 , . . . Jr .
• Se A(g) è l‘energia libera del sistema allora E =< H(g) > è l‘energia
interna e S(g) è l’entropia del sistema (vedi cap 3)
• le variabili estensive duali delle con Jr sono calcolabili per derivazione
della A
30
• posso definire per il passaggio (reversibile) dallo stato (β, J ) allo stato
(β + dβ, J + dJ ), quantita’ di calore e lavoro
δQrev =: β1 dS
δW =: dE − δQrev = −d H + βdS
Notare che δQrev non è un diff. esatto
Ma (per definizione):
dE = δQrev − δL è diff. esatto.
e β è il fattore integrante: dS = βδQrev
31
I principio
II principio
Parte II
Ensemble
32
3.3
sistema isolato,
sistema icon riserva di calore,
sistema icon riserva di materia
Microcanonico
sistema isolato
⇓
Canonico
sistema con riserva di calore
⇓
Grancanonico
sistema con riserva di calore e di particelle
Nel sistema isolato
⇒
l’ energia è una variabile deterministica;
V,N,H
Se il sistema può scambiare calore con un termostato,
⇒
l’energia interna diventa una variabile aleatoria;
V,N,[H]
Se il sistema può scambiare calore con un termostato e
particelle con una riserva,
⇒ anche il numero di particelle (la densità) diventa una variabile aleatoria
V,[N],[H]
ricordo che nel descrivere gli stati di equilibrio termodinamici sono libero
di usare come coordinate libere grandezze intensive od estensive ma almeno
una coordinate deve essere estensiva.
33
Capitolo 4
Sistemi classici isolati

H = E fissato





 misura indotta dalla misura di Liouville µL
MICROCANONICO 
normalizzata





↓
TERMODINAMICA con
(
S ≡ kB ln Σ(E)
T −1 =:
NOTE
• varie definizioni di S ;
• additività di S ;
∂H • xi ∂x
= δij T
j
−→
equipartizione .
———————————————————————-
34
∂S
∂E
4.1
Misura Microcanonica e Termodinamica
Per stato microscopico si intende un punto (una traiettoria) nello spazio
delle fasi;
è descritto dalle variabili (p, q) ∈ R2f .
L’Hamiltoniano H(p, q) dipende
dai parametri Jα , α = 1, 2, . . . , r. TipicaP
mente pensiamo H(p, q) = α Jα Xα (p, q)
Le Jα sono costanti di interazione e le Xα (p, q) sono grandezze microscopiche
( coniugata a Jα )
⇒ il sistema è pensato isolato e lo spazio degli stati microscopici che prendiamo in considerazione è l‘insieme degli stati a energia fissata E cioè la
superficie {(p, q)| H(p, q) = E}
Per stato macroscopico si intende la misura di probabilità indotta dalla
misura di Liouville sulla superficie H(p, q) = E :

1
 µm (dp dq) = Γ(E)
δ E − H(p, q) [dp dq]

Γ(E) =
R
δ(E − H)[dp dq]
La misura è descritta dalle variabili (E; . . . Jα , . . . ).
⇒ come nel caso monociclico, si identifica l’energia meccanica totale con
l’energia interna.
⇒ Si definisce l’entropia S
S(E, . . . , Jα , . . . ) =: kB ln Γ(E)
e si dimostra che S soddisfa positività, monotonicità, convessità, additività,
cioè ha le proprietà dell‘entropia termodinamica.
In particolare queste proprietà ci permettono di identificare
∂S
⇒ la quantità ∂E
con l‘inverso della temperatura del sistema in esame
∂S
⇒ le grandezze ∂Jα con le variabili coniugate ai parametri Jα , pensati come
variabili intensive o estensive
(La definizione equivale a fissare le equazioni di stato del sistema macroscopico)
∂S
= − T1 Xα
Più precisamente ∂J
α
P
(
δL = α Jα dXα
Ci è quindi possibile definire il lavoro e calore via
δQ = dE − δL
35
⇒ È importante notare che con questa costruzione non solo l‘entropia
assume il significato di grandezza probabilistica aasociata al microscopico,
ma anche tutte le altri grandezze termodinamiche sono ricondotte a valori
di aspettazione di grandezze microscopiche. Per esempio le variabili coniugate ai parametri Jα , sono i valori attesi delle grandezze microscopiche
∂H(p,q)
= Xα (p, q) sulla misura microcanonica.
∂Jα
Z
∂H 1
Xα
∂H
=−
=−
[dp dq]
δ(E − H)
T
∂Jα
Γ(E)
∂Jα
(vedi 4.3.1 a pagina 40)
La misura microcanonica è una “misura singolare” rispetto a Liouville,
cioè non è esprimibile tramite una densità
come ρ(p, q) [dp dq], e quindi non
R
si può definire l’entropia come S = ln ρ [dp dq]. Tuttavia la misura è una
misura uniforme sulla ipersuperficie, quindi ...
36
4.2
Limite termodinamico ed Entropia
Siamo interessati a sistemi con 2f = L gradi di libertà.
2f → ∞ : limite termodinamico.
• diciamo che ∃ il limite termodinamico se
⇒
ln Γ(E)
2f
tende a un limite finito per f → ∞.
(⇒ tutte le grandezze derivate esistono . . . )
• Le situazioni significative sono quelle in cui l’energia totale E del
sistema si comporta in modo analogo, cioè:
⇒
E
2f
→ e per f → ∞; e finito.
Ciò equivale ad affermare che energia interna ed entropia sono grandezze
estensive, e che gli stati macroscopici di interesse hanno un’energia
media per grado di libertà finita.
P1 2
Questa richiesta è chiara per l’energia cinetica K =
2 pi .
Per l’energia potenziale essa si traduce in vincoli sul tipo di interazione
fra i gradi di libertà, che escludono casi patologici tipo “collasso”.
più dettagliatamente: Gallavotti cap. IV
L‘ esistenza del limite termodinamico permette di dare definizioni alternative
di entropia, definizioni diverse ma fra loro equivalenti.
∂S
risulta la stessa. Le
Equivalenti nel senso che la temperatura 1/T = ∂E
definizioni sono:
Z
Γ(E, f ) = δ(E − Hf )[dp dq]f
Σ(E, f ) =
Z
θ(E − Hf )[dp dq]f
soddisfano a relazioni tipo:
ln Γ(E, f ) − ln Σ(E, f ) = O(1)
ovvero possiamo usare come definizione di entropia sia ln Γ(E) che ln Σ(E).
Ciò torna utile in varie dimostrazioni.
Un esempio (gli Hamiltoniani quadratici ) per chiarire l’asserto.
37
4.3
il caso dei Sistemi ideali
Sistemi idealii, sistemi senza interazione fra gradi di libertà diversi, sono
descritti da Hamiltoniani Quadratici
f
f
1 X 2 X 2
H =:
qi
p +
2 1 i
1
• cristallo classico
• corpo nero
Confrontiamo Γ(E) con Σ(E).
Γ(E) =
Z
f
f
1X 2 X 2
qi )[dp dq]
δ(E −
p +
2 1 i
1
Si passa a coordinate polari sferiche e si ha:
(Ω2f = angolo solido in 2f dimensioni)
Γ(E) =
= Ω2f
di raggio
√
Z
Z
δ(E −
R2 2f −1
)R
dRdΩ2f
2
f −1
1 √
δ( 2E − R)R2f −1 =Ω2f 2E
R
Notare che non si ha la superficie della sfera
2E in 2f dimensioni, ma quella superficie × √12E .
Σ(E) =
Z
f
f
1
1
1X 2 X 2
qi ) [dp dq]
pi −
θ(E −
2
= Ω2f
√2E
Ω2f
=
(2E)f
2f 0
2f
R2f
questo è il volume !
Nota—————
ricordo che Ω2f =
e che Γ(f ) =
πf
Γ(f )
f −1
[ f −1
e ]
(stirling), quindi una espressione più esplicita, che
h if −1
useremo nel seguito per la Γ(E) è Γ(E) ∼ (4πe)f Ef
38
Verifichiamo che per H quadratici valgono le
Γ(E)
f
=
Σ(E)
E
(4.1)
∂ ln Γ(E)
∂ ln Σ(E)
1
=
−
∂E
∂E
E
(4.2)
• dalla (1) segue che ln Γ(E)−ln Σ(E) = O(1) nell’ipotesi che Ef → O(1),
ma allora la differenza è trascurabile per f → ∞ in quanto
ln Γ(E) ∼ f · O(1)
• dalla (2), sempre nell’ipotesi
E
f
→ O(1), segue
1
∂ ln Γ(E) ∂lnΣ(E)
−
= O( )
∂E
∂E
f
Cioè:
la temperatura definita dalle due entropie è la stessa per f → ∞.
1. Notare che, più precisamente possiamo scrivere
∂ ln Σ(E)
Γ(E)
f
=
=
∂E
Σ(E)
E
da cui
1
E
T =
2
2f
→e
cioè
la temperatura è il doppio dell’energia media per grado di libertà.
2. Poichè il calore specifico è
⇓
∂T −1
=f
∂E
in questi sistemi il calore specifico è costante,
indipendente dalla temperatura.
cs =
in contraddizione con i dati sperimentali per
basse temperature.
Per Corpo nero e Cristallo classico ⇒ vedi Gallavotti cap.3
39
4.3.1
limite termodinamico
Ritorniamo al caso generale e assumiamo che esista il limite termodinamico
• E = O(2f ) e, più incisivamente,
•
ln Γ(E)
2f
poichè
= O(1)
∂Σ(E)
∂E
ovvero
E
f
∼ 12 e
Γ(E) ∼ s2f ,
⇒ (E = e2f )
⇒
Z
Z
Σ(E) = Γ(E)dE = 2e s2f df = 2es2f +1
= Γ(E),
Le relazioni che abbiamo verificato nel caso di Hamiltoniani quadratici sono
estese quindi al caso di Hamiltoniani generici.
Possiamo usare queste relazioni per dimostrare con maggior semplicità le
proprietà termodinamiche della funzione S
Come prima applicazione delle relazioni precedenti, mostriamo che le derivate
parziali di S rispetto ai parametri che definiscono H, cioè le variabili termodinamiche coniugate sono i valori attesi delle grandezze microscopiche coniugate ai parametri stessi
premesso
che estendiamo
la relazione
R
R
f H
∂J dxf (H(J)) = dx H
J
a funzioni generalizzate senza farci problemi, scriviamo:
Z
Z
∂H
∂J dxΘ(E − H(x)) = − dxδ(E − H(x))
∂J
R
1
quindi ∂J log(Σ(E) = − Σ(E)
dxδ(E − H(x)) ∂H
∂J
=−
∂H
Γ(E)
<
>
Σ(E)
∂J
P
Γ(E)
= T1 e se pensiamo H(x) = α Jα Xα (x) , dove
ma per quanto detto Σ(E)
Xα (x) è una quantità microscopica allora concludiamo che
∂Jα log(Σ(E) = −
1
< Xα (x) >
T
e quindi che le grandezze macroscopiche coniugate a Jα sono i valori attesi
via misura microcanonica delle quantità microscopiche associate a Jα
40
4.3.2
Monotonia, Positività e Convessità dell‘ entropia
Argomenti qualitativi.
• Monotonia Se E > E ′ ⇒ Σ(E) > Σ(E ′ )
Σ(E)
>0
Dalla monotonia segue che ∂ ln∂E
e quindi la derivata ha le proprietà di una temperatura . . .
H deve essere inferiormente limitata
• Positività ⇒
∃ uno stato di minima energia; per esso
R
Γ(E) = δ(E − H) = 1 ⇒ ln Γ(E) = 0
+
monotonia
⇒
positivita′
• Convessità Γ λJ1 + (1 − λ)J2 ≤ λΓ(J1 ) · (1 − λ)Γ(J2 )
(per la dimostrazione vedi sistema canonico)
La convessità di S è necessaria perchè
∂2S
∂E 2
∂2S
∂jσ Jρ
...
(calore specifico, suscettività, . . . )
⇒
devono avere proprietà di positività.
La convessità di S permette di descrivere il sistema termodinamico in varie
rappresentazioni equivalenti usando differenti variabili libere.
1. Quando uso (E, . . . , Jα , . . . ) come parametri per definire gli stati macroscopici di equilibrio e quindi S = S(E, . . . , Jα , . . . ) sono nella
rappresentazione dell’energia
2. La convessità di S mi permette di passare ad altre rappresentazioni:
quella dell‘entropia, dell‘energia libera etc.
S(E, . . . , Jα , . . . ) + Γ(T, . . . , Jα , . . . ) − T S = 0
+ estremalita′ . . .
e cioè lo stato è parametrizzato da . . .
41
4.3.3
Additività dell’Entropia microcanonica
Spazio delle fasi
A
ΦA= { x 1 x 2 x3 }
ΦB= { y1 y 2 y3 y4}
ΦAUB
B
(x,y)
x
ΦA
y
ΦAU B = { x 1 x 2 x 3 y1
ΦB
y
2
y
HA S B = HA + HB + HAB
y
3 4
}
Hmin = 0
⇒
HAB trascurabile perchè:
penso ad una situazione tipo reticolo per la quale:
HAB ≡ interazione
1. HAB ÷ superficie
HA , HB ÷ volume
2. interazione e range finito: le particelle di A non lasciano A
e idem per B e quindi l‘interazione è proporzionale alla superficie
mentre l‘energia totale al volume.
.........
ΓA
S
B
=
Z
A
S
B
µA (dx)µB (dy)δ E − HA (x) − HB (y) =
x ≡ (p, q) perA
y ≡ (p, q) perB
Z
dE ′ µA (dx)δ(E ′ − HA (x)) δ(E − E ′ − HB (y))µB (y)
{z
}|
{z
}
|
Z
Z 1
dθΓA (θE)ΓB (1 − θ)E)
= dE ′ ΓA (E ′ )ΓB (E − E ′ ) =
=
0
(perchè θ fra 0 e 1 ? )
42
Nel limite termodinamico l’integrale coincide con il valore assunto dalla
funzione integranda calcolata nel punto di massimo.
Limite termodinamico significa:
numero di gradi di libertà |L| → ∞
con
|A| = α|L| ; |A| = n. gradi di libertà di A
|B| = (1 − α)|L| ; |B| = n. gradi di libertà di B
S
|L| = |A B|.
E |X|
E
Se assumiamo che ΓX (E) ∼ |X|
→ e , come abbiamo visto per
con |X|
H quadratici, si ha:
ΓA
S
B (E)
=
Z
1
dθ
0
=
Z
0
Il punto sella è
θ :
1
θE αL (1 − θ)E (1−α)L
αL
dθeL ln
θ
α
α
(1 − α)L
1−α 1−θ
1−α
e
∂
ln(· · · ) = 0 −→ θ = α
∂θ
morale
cioè
ΓA S B (E) ≃ eL = ΓA (E) · ΓB (E)
1. additività dell‘energia interna
EA S B = EA + EB
2. additività dell‘entropia
SA S B (E) = SA (EA ) + SB (EB )
3. e i due sottoinsiemi hanno la stessa temperatura
1
∂SB (E)
∂SA (E)
1
=
=
=
TA
∂E |EA
∂E|EB
TB
l’ultimo punto e’ la condizione termodinamica di equilibrio
termodinamico fra A e B.
43
NOTE
Additività dell’entropia e limite termodinamico
vedi Parisi
ATT! il gas ideale: paradosso di Gibbs
vedi 4.3.4 pagina 45
4.3.4
Gas ideale classico e paradosso di Gibbs
Spazio
h delle fasi
i : (p, q)
L L
qi ∈ − 2 , 2
pi ∈ R
i ∈ [1, 3N ] se sono in tre dimensioni ed ho N molecole di gas
V (q) = 0
ATT! energia configurazionale è:
quindi tutta l‘energia è cinetica.
3N
1 X 2
H=
pi
2m
i=1
Γ(E) =
Z
3N
1 X 2
[dp][dq]δ(E −
pi )
2m
i=1
L’integrale in q è immediato : L3N .
L’integrale in p: passo a coordinate sferiche
[dp] = dΩ3N dk k 3N −1
;
k=
3N
X
i=1
p2i
1
2
;
k ∈ [0, ∞)
⇒
Γ(E) =L
3N
· Ω3N
Z
∞
0
dk k3N −1 δ(E −
=L3N · Ω3N · (2mE)
con Ω3N =
2π 3N/2
Γ(3N/2)
3N−1
2
1
·q
2E
m
angolo solido in 3N dimensioni.
44
1 2
k )=
2m
4
h
E 3/2 i
S(E) = kB ln T (E) = kB N ln L3
+ O(ln 2mE)
πm
3
N
ATT!
(
3
N
T −1 = ∂S(E)
∂E = 2 kB E
−1
2 1
∂T
cV = ∂E = 3 kB N
O(· · · ) = ln N
indipendente da T !
Ora divido il volume V in due parti:
xV
setto
separatore
V1 = x V
(1−x)V
V2 = (1 − x) V
;
x ∈ [0, 1]
Energia
E1 = xE
E2 = (1 − x)E
Entropia
S1 = xN ln(xV )e3/2 S2 = (1 − x)N ln[(1 − x)V ]e3/2
Energia totale
E
Entropia totale S = N ln V e3/2
e è la stessa quantità
nelle tre espressioni perchè
la T è costante.
ma allora
i
h
∆ = S − (S1 + S2 ) = −N ln xx (1 − x)1−x > 0
qualunque sia la partizione fatta.
⇒ Miscelando due (lo stesso !) gas ideali l’entropia aumenta.
Miscelare = eliminare il setto
45
Paradosso nel senso:
S1+ S2+ S misc
S1 + S 2
?
Se il gas nelle due partizioni è diverso i sistemi con setto e senza setto sono
macroscopicamente diversi e ha senso parlare di entropia di miscelazione
ma se il gas è lo stesso nelle due partizioni, macroscopicamente il sistema
con setto e senza setto è lo stesso (il setto può essere puramente ideale io
penso il gas formato da due sottoinsiemi... )
Ripetendo l’esperimento con diverse partizioni, l’entropia del sistema finale, se fosse semplicemente la somma delle entropie delle parti (additività
dipenderebbe dalla storia del
dell‘entropia) avrebbe valori diversi ⇒
gas !
Non sarebbe una funzione di stato.
Microscopicamente non è cosı̀ perchè il setto impedisce alle molecole di A di
occupare posizioni in B e viceversa
1. Si confronti con il calcolo sull’additività: perche’ in quel caso funziona?
2. Se definisco l’entropia di un sistema con N1 particelle di tipo 1, N2
particelle di tipo 2,
S = ln Γ(E) − [N1 ln N1 + N2 ln N2 ]
il paradosso sparisce.
Come dire:
µGibbs
=
m
1
δ(E − HN )µL (dp dq)
N1 !N2 !
46
3. Verificare che con questa definizione si ha nel caso esaminato: S1 =
1=2 6= S 16=2 e che S + S = S 1=2 mentre S + S +
· · · , S2 = · · · , Stot
1
2
1
2
tot
tot
16=2
∆Smisc = Stot
Ancora una osservazione
Se mi limito ai gradi di libertà configurazionali e dico
(gas ideale classico):
Γ=VN
cosicchè
Sconf = N ln V
ed inoltre considero una densità ρ
(prendo ρ = 1 per semplicità)
t. c.
V ρ = N , allora
Sconf = N ln N − N ln ρ
⇒ Sconf cresce più velocemente di N ! non è grandezza estensiva, non
esiste il limite termodinamico
47
4.4
Equipartizione
Uno dei risultati più interessanti della MS classica è legato al fatto che
l‘energia totale del sistema è egualmente divisa fra tutti i gradi del sistema.
( e che questa energia per grado di libertà è la temperatura macroscopica)
∂H
Si consideri il valore atteso della grandezza xi ∂x
, ove xi è genericammente
j
o una cordinata configurazionale o un impulso
Z
∂H 1
∂H
xi
=
δ(E − H)
µ(dq dµ)xi
∂xj
Γ(E)
∂xj
Z
∂θ(E − H) 1
=
µ(dq dµ)xi −
Γ(E)
∂xj
1
δij Σ(E)
=
Γ(E)
d’altra parte
Σ(E) h ∂ ln Σ(E) i−1
= kB T
=
Γ(E)
∂E
in conclusione
1. H =
2. H =
⇒
4.4.1
2
1 pi
i 2 m1
+V
2
1 pi
i 2 m1
+
PL
PL
1
2T
=
∂H = δij kB T
∂xj
xi = pi −→
p2i m1
= kB T
∀i
xi = qi −→ Ji qi2 = kB T
+ E = H = 12 kB T · 2L
PJ i
E
kB 2L
xi
i
≡
qi2
e
kB
∀i
!
equipartizione statistica, equipartizione dinamica
ATT!
L’equipartizione statistica non è l’equipartizione dinamica. Ovvero,
1) µ = δ(E − H)[dp dq] → equipartizione.
2) Quali sono le traiettorie del sistema descritto da H ?
n
ṗ = ∇p H
q̇ = ∇p H
48
3) Per queste traiettorie, è vero che la media temporale dell’energia che
E
compete ad un singolo grado di libertà è 2f
? In generale NO.
Per esempio, i normal modi non si scambiano energia.
- Cosa accade per il limite termodinamico se modifico la hamiltoniana aggiungendo una piccola perturbazione ?
• Dal punto di vista dinamico H → H + γH1 con γ → 0, può cambiare
qualitativamente
Teorema di Poincare’
Sia H hamiltoniano con n costanti del moto in involuzione
1
Sia H + γH1 tale che γ → 0, · · ·
Allora non esiste integrale primo analitico indipendente da H .
Come dire: una piccola perturbazione tende a rendere ergodico il sistema.
ATT! Le cose sono più complicate:
Teorema KAM
• Dal punto di vista stocastico posso affermare che
R
(
Γ0 (E) = δ(E − H)[dp dq]
ln Γ0 (E) ∼ ln Γγ (E)
R
Γγ (E) = δ(E − H − γH1 )[dp dq]
come dire che per la M.S. H si comporta come fosse ergodica.
Notare che δ(E − H) “impone” scambi di energia per tutti i gradi di libertà
del sistema, anche se tali scambi non sono nella dinamica.
Questo è anche il senso di HA S B = HA + HB + HAB .
| {z }
≃0
(con HAB trascurato)
ATT!
L’interazione è nel vincolo HA S B = E,
R
ovvero in dE ′ δ(E − HA − E ′ )δ(E ′ − HB ),
e viene tenuta in conto anche se HAB = 0 .
1
vedi Arnold , non elenco le ipotesi “tecniche”
49
Capitolo 5
Sistema Canonico
5.1
MICROCANONICO
−→
CANONICO
B
A
A
S
B ≡ sistema totale, descritto dalla misura microcanonica.
B ≡ termostato (riserva di calore).

|B| → ∞
|B| >> |A|





 E(B)
HB quadratico
|B| → eB :




H S = HA + HB + HAB

 A B
| {z }
=0
Voglio costruire la misura di probabilità per A condizionata da B
( dal poter scambiare calore con B).
50
Chiamo questa misura misura Canonica
R
L L
AB )µB µA
B δ(E − HA − HB − H
}
| {z
=0
µCAN =: R
S δ(E − HA − HB − HAB )µL µL
A B
| {z } B A
=0
osservo che
1
ΓB (E ′ ) = (HB quadratica) ∼ (4πe) 2 |B|
E ′ 1 |B|−1
2
(∗)
|B|
e che se integro suoi gradi di libertà del termostato ottengo
µCAN
HA )µL
A
ΓB (E −
=
ΓB S A (E)
=
ΓB (E−HA )
ΓB (E)
ΓB S A (E)
ΓB (E)
=
1−
HA
E
1 |B|−1
2
ZA (·)
Per il numeratore ho usato (*) e osservo che per |B| → ∞
1−
H
HA 21 |B|−1 HA 12 |B|−1
− A
= 1−
∼ e 2 eB
E
e|B|
per il denominatore solito gioco:
Z
Z
′
′
′
L L
dE ′ ΓB (E − E ′ )ΓA (E ′ )
S dE δ(E − E − HB ) · δ(E − HA )µB µB =
B
A
poichè |B| >> |A| , usando sempre (*), posso scrivere:
Z
′
−E
ΓB (E) · dE ′ e eB ΓA (E ′ ) = ΓB (E) · ZA (eB )
quindi
− 2 e1 HA L
B
µA
µCAN = Z(eB )−1 e
A “vede” il termostato attraverso l’unico parametro
temperatura del termostato.
1
2 eB
che è l‘inverso della
µCAN [dp dq] = Z −1 (β)e−βHA (p,q) µL
A [dp dq]
51
Osservazione 0
Abbiamo ricavato questa stessa misura con un argomento completamente
diverso in 3.1 a pagina 28
Ricordo che Z(β) ( funzione di partizione) soddisfa all’ equazione fondamentale ed è funzione di β e di tutti i parametri che determinano la hamiltoniana
Osservazione 1
Per H = K(p) +V (q) si ha fattorizzazione della misura
| {z }
cinetica
−1
(β)e−βK(p) [dp] · ZV−1 (β)e−βV (q) [dq]
µCAN
[dp dq] = ZK
A
I gradi di libertà cinetici sono variabili aleatorie indipendenti da quelli configurazionali.
Ha senso limitarsi a variabili cinetiche: esempio teoria cinetica dei gas
Ha senso limitarsi a variabili configurazionali: esempio M.S. su reticolo per
stati configurazionali.
Osservazione 2
Si può riprendere tutto il discorso sulle variabili macroscopiche viste come
valori attesi di grandezze micriscopiche via Funzione di Partizione Z(β).
Es. H non è variabile fissata a priori (diversamente da microcanonico). Per
il sistema canonico è variabile aleatoria.
∂
H = − ∂β
ln Z energia interna
∂2
∂
2
H = ∂β
(H − H )2 = − ∂β
2 ln Z = T cs
(cs ≡ calore specifico).
In generale per ogni A(C) osservabile microscopica estensiva di cui si vuol
studiare il corrispettivo macroscopico si segue una tecnica del tipo che segue.
Si considera JA variabile coniugata, e si modifica l‘hamiltoniana del sistema
H0 (C) aggiungendo il termine JA A(C) . La nuova funzione di partizione
P
Z(β, JA , · · · ) = C eH0 (C)+JA A(C) permette di calcolare i valori medi e tutti
gli altri momenti per derivazione: < A >O = ∂JA log Z(β, JA , · · · )
JA =0
< A2 > − < A2 >= ∂J2A log Z(β, JA , · · · )
JA =0
dove con < · >0 si intende rispetto alla misura indotta da H0
Con la stessa tecnica posso calcolare le correlazioni (e la funzioni di correlazione connesse):
< AB > − < A >< B >= ∂J2A ,JB log Z(β, JA , JB , · · · )
JA ,JB =0
52
5.2
Teorema fluttuazione-dissipazione
La variazione di una grandezza termodinamica al variare di un parametro
intensivo (o esensivo) del sistema prende il nome di suscettività o di funzione di risposta. Per esempio la derivata della concentrazione al variare
della pressione, della polarizzazione al variare del campo elettrico esterno,
della maghetizzazione al variare del campo magnetico esterno, sono tutte
suscettività. Il calore specifico è grandezza di questo tipo.
In modo più raffinato la derivata della magnetizzazione nel punto x al variare del campo magnetico esterno nel punto y si chiama funzione di risposta.
La meccanica statistica permette di scrivere una semplice equazione che
lega le funzioni di risposta alle funzioni di correlazione connesse. Questa
relazione va sotto il nome di teorema di fluttuazione-dissipazione. Precisamente: sia H(C) l‘hamiltoniana del sistema e immaginiamo che Hλ dipenda
dal parametro λ
Allora possiamo
scrivere
hP
i
∂<A>
−βHλ (C) 1
=
∂
+
λ
A(C)e
C
∂λ
Z(λ)
la derivata ha due contributi, quello del denominatore è dato da
−β < ∂H(λ)
∂λ > Z(λ) per cui possiamo scrivere
∂Z(λ)
∂λ
=
h
∂<A>
∂H(λ)
∂H(λ) i
= −β < A
> − < A ><
>
∂λ
∂λ
∂λ
Se immaginiamo che il parametro l controlli una piccola variazione dell‘hamiltoniana,
una ’perturbazione’ per esempio data da un campo esterno, H0 → H0 + λH1
e indichiamo con < · · · >0 i valori attesi del sistema imperturbato ( per
λ = 0), allora possiamo scrivere
i
h
∂<A>
= −β < A H1 >0 − < A >0 < H1 >0
∂λ
La funzione di risposta è data in termini delle funzioni di correlazione connesse imperturbate.
Il teorema identifica la risposta di un sistema (in equilibrio termodinamico)
ad una piccola perturbazione esterna con il comportamento dovuto a fluttuazioni spontanee.
È un primo passo per lo studio dei processi di rilassamento di un sistema
da uno stato di non-equilibrio attraverso le sue propriet di fluttuazione
all‘equilibrio.
Questi processi implicano trasformazioni irreversibili di energia in calore
(dissipazione) a partire dalle fluttuazioni (reversibili) tipiche dello stato di
equilibrio
Lo sviluppo dell‘analisi di queste trasformazioni costituisce la ’teoria della
53
risposta lineare’
( Green-Kubo relations, Onsager reciprocal relations)
5.2.1
Teoria di Einstein delle fluttuazioni
è qui che devo metterlo??
-Peliti cap 5La distribuzione di probabilita’ per una osservabile B(ω) e’ data da:
X
H(ω)
−1
e
δ(B(ω) − B)
p(B = B) = Z
{ω}
La distribuzione di probabilita’ per una coppia di osservabili B(ω) e C(ω) e’
data da:
X
eH(ω) δ(B(ω) − B) · δ(C(ω) − C)
p(B = B, C = C) = Z −1
{ω}
Etc...
E’ inutile sottolineare che la distribuzione di probabilita’ e’ molto di piu’ di
quanto finora abbiamo preso in considerazione, anche se dati valori medi e
correlazioni possiamo incominciare ad approssimare le misure con la gaussiana.
Concentriamoci sulla distribuzione di probalilita’ congiunta delle osservabili
Xi Allora abbiamo che :
P
Y
X
δ(Xi (ω) − Xi )
e−β i Ji Xi (ω)
p(X1 , X2 , . . . ) = Z −1
= e−β
P
i
i
{ω}
J i Xi
Z −1
X Y
i
{ω}
δ(Xi (ω) − Xi )
Ma la somma da’ il numero degli stati che rispettano i vincoli fissati dalle
“delta” e quindi e’ l’esponenziale dell’ entropia calcolata per i valori delle
variabili
estensive fissati in X1 , . . . , Xr e con l’energia fissata in E =
P
i Ji Xi .
(Att! l’energia e’ determinata dai valori delle Ji )
Ne concludiamo che
X
Ji Xi − T S(X1 , ..., Xr ; E)
ln(p(X1 , X2 , . . . )) = −β A − (
i
E’ una differenza fra “energie libere”
Piu’ esplicitamente scriviamo :
P
−β
Ji (Xi − Xi )
i
· eS(β,J1,·,Jr )−S(X1 ,...,Xr ;E)
e
54
Ora
se e’ possibile sviluppare questa espressione intorno ai valori di equilibrio Xi
- cioe’ se non siamo a valori critici- possiamo osservare che
- il termine di ordine zero e’ nullo (l’entropia e’ la stessa)
- il termine lineare si annulla (le derivate prime sono le variabili duali; Legendre)
∂2S - il termine quadratico risulta associato alla matrice jacobiana ∂Xi ∂Xj ....
eq
Se e’ possibile trascurare gli ulteriori termini dello sviluppo la distribuzione
risulta gaussiana e potete verificare che le correlazioni sono date dalla matrice delle suscettivita’ che abbiamo ottenuto nei paragrafi precedenti.
Riprenderemo queste considerazioni nei capitoli sucessivi per specializzarle
nel caso di osservabili locali.
5.3
Equipartizione
xi
∂H =Z −1
∂xj
Z
∂H −βH(x)
e
∂xj
Z
1 ∂
−1
e−βH(x)
=Z
[dp dq]xi −
β ∂xj
Z
1
1
=Z −1 δij [dp dq]e−βH(x) = δij
β
β
[dp dq]xi
Solite osservazioni:
Equipartizione e contraddizione con
i dati sperimentali a bassa temperatura.
5.4
Equivalenza microcanonico - canonico
Indico con C = (p, q) ; H(C) = H(p, q) ; dC = [dp dq] ; ecc.
È interressante notare che
Z
Z
Z
−βH(C)
µ(dC)e
= dE µ(dC)δ(E − H(C))e−βH(C)
Z
Z
−βE
= dEe
µ(dC)δ(E − H(C))
l‘ultimo integrale è evidentemente il volume dello spazio delle fasi corrispondente agli stati di energia E, cioè è Γ(E)
ovvero
Z
Z
−βH(C)
Z(β) = µ(dC)e
= dEe−βE eS(E)
(5.1)
55
Daltra parte sappiamo che Z(β) soddisfa alla equazione fondamentale
log Z(β) = −β H + S(β)
le due espresioni devono coincidere. Nel limite termodinamico E diverge e
quindi l‘integrale [5.1] si può calcolare col metodo del punto sella: ovvero
calcolando l‘ estremo della funzione φ(β, E) = −βE + S(E)
l‘equazione è β = ∂E S(E) (!) , che dà S in funzione di β, mentre il valore
per E che minimizza è, per confronto con [5.1] evidentemente E = H
(Nota: abbiamo fatto la trasformata di legandre come farebbe un qualsiasi
termodinamico)
Ma possiamo dire di più
Nel limite termodinamico µC = µm : le misure canonica e microcanoni
ca coincidono: quando l’energia E microcanonica
⇔
H canonica. Precisamente possiamo dimostrare che
R
R
µ(dC)e−βH(C) A(C) µ(dC)δ(E − H(C))A(C)
R
R
∀A(C) :
=
−βH(C)
H
=E
µ(dC)δ(E − H(C)
µ(dC)e
R
Riscrivo il termine di destra introducendo 1 = dEδ(E − H(C))
Z
Z
µ(dC) −βH(C)
e
δ(E − H(C)) A(C)
dE
Z(β)
e sostituendo a Z(β) → e−β<H>β +S(β)
Z
Z
dE µ(dC) e−β(E−<H>β ) e−S(β) δ(E − H(C)) A(C)
Nel limite termodinamico il numero di gradi di libertà L tende ad infinito.
Se tutto va bene H(C)
L è una buona variabile aleatoria : media finita
(cV ∼ L). Questo è come dire che
e varianza dell’ordine √1L
−β(E− H
e
→
δ(E − H )
Riscalando E = E ′ L , l’integrale diventa
Z
H(C)
′ <H>
)A(C)
dE ′ e|−βL(E{z− L }) µ(dC)e−S(β) δ(E ′ −
L
↓
(questo sempre
nullo
tranne per E ′ −
H
La misura si concentra in E ′ = L
56
H
L
= 0)
H
L
=u
ma allora
δ(E ′
−
H(C)
L )
H =δ
L
−S(β)
µ(dC)e
δ
−
e quindi la
−
H(C) A(C)
L
H(C)
L
H L
è la misura microcanonica sulla superficie a energia uguale a H .
−S(β) è la giusta normalizzazione perchè per A(C) ≡ 1 si ha
Infatti
R e
1 = µ(dC)e−S(β) δ( H − H(C)).
In conclusione nel limite termodinamico
(
−β(E− H
e
→ δ(E
−
H )
e−S(β)
→ Γ( H )
A micro = A CAN
———————————————
In modo sintetico (e formale) diciamo che per L → ∞ la misura diventa
δ-forme
e che
µ(dC) −βH(C)
µ(dC) e
→
δ( H L − HL (C))
ZL
ΓL
−
cioè ∃ finito
1
ln ZL ∼ La(β . . . ) + σ(L)
β
−
1 ∂
ln ZL = a(β . . . )
β ∂L
energia libera per grado di libertà.
57
5.5
hamiltoniani quadratici
H=
1X
xi Hij xj
2
;
ij
⇒
xi Hij xj > 0
∀x
integrali gaussiani
funzione di partizione
1
1
Z(β) = (2π)f ( )f [det(H)] 2
β
⇔
da cui < H >= f kB T
cs = kB f
equipartizione
⇔
xi xj =
1
β
(H −1 )ij
Tutti gli hamiltoniano quadratici danno la stessa termodinamica: energia
interna proporzionale alla temperatura, calore specifico costante.
5.6
Cristallo Classico
ATT! Il cristallo ha il baricentro fissato in un punto dello spazio.(per esempio origine coordinate)
qj
j
a
L
particelle oscillanti elasticamente intorno ad una configurazione di equilibrio
dimensione (lineare) del cristallo L, passo del reticolo = a, numero di particelle N = [ La ]D
coordinate locali q̄i , impulsi p̄I
X 1
X 1
H=
p̄2i + γ
(q̄i − q̄j2 )
2
2
i,j
i=1,N
58
la funzione di partizione è il prodotto della parte cinetica = (2πβ)3/2 N e
della parte configurazionale :
Z Y
P
X
1
2
2
Zconf (β) = [ dqi ]e−βω i,j 2 (q̄i −q̄j ) δ(
q̄i )
i
i
Per esempio
P in una dimensione con il cambiamento di variabili
y0 = N1 j=1,N xJ (baricentro) e yj = (xj+1 − xj ) j = 1, 2, · · · , (N − 1)
l‘integrale diventa:
baricentro fissato y0 = 0
R
Q
1 P
2
N−1
N−1
Zconf (β) = dy0 j=1,N −1 δ(y0 )e−βγ 2 j6=0 yj = [2π] 2 [γβ]− 2
A questa espresione applico le considerazioni del paragrafo precedente per
calcolare < H >β calore specifico etc.
Nota che se non fisso il baricentro ho divergenza, se fisso il baricentro in un
volume V ho un ulteriore fattore moltiplicativo V .
—————————————–
Vi riporto, per la sua importanza e per vostra comodità, il calcolo di trasformazione in normal modi dell ‘ energia.
È attraverso questa trattazione che si deve passare per quantizzare il cristallo e per trattare una serie di altri problemi interssanti per la MS
Se conosco gli autovalori (Ω2k nel seguito) della matrice che definisce la parte
configurazionale allora
− 21
Zconf (β) = det =
h Y βΩ2 i 1
2
( k)
2π
k
Una dimensione
Posizioni a riposo n = n a,Pn ∈ [1, N ], spostamento xn .
Energia potenziale U = 12 n (xn − xn−1 )2
L‘energia potenziale è una forma quadratica di matrice
Hi,j = 2δi,j − δi,j−1 − δi,j+1
la matrice è invariante per traslazione e si diagonalizza via Fourier
ATT! (Fourier) : fissato a, fissato L ⇒ numero finito di k: N =
P
1
Metto condizioni periodiche e definisco Ak = √1N n xn e−i2π N k n ,
k ∈ [− N2 , N2 ]
59
L
a
e xn =
√1
N
P
a
k
Ak ei2π L kn
P
P
a
1
1
Allora j Hn,j xj = 2xn −xn−1 −xn+1 = k Ak ei 2π L kn [2−e−i 2π N −ei 2π N
P
1
i 2π N
kn
=
2[1 − cos(2π N1 k)
k Ak e
questo significa che gli autovalori di Hi,j sono
a
a
Ω(k)2 = 2[1 − cos(2π k)] = 4 sin2 (π k)
L
L
k
e i normal modi sono gli Ak ( A∗k = A−k )
QN −1
1
La Zconf (β) = det 2 12 βΩ(k)2 = k=1
[2 sin(π N1 k)
1 P
L‘energia configurazionale è H = N k Ak A∗k 4sin2 (π La k)
Lagrangiana
P d
L‘ energia cinetica è K = m
n ( dt xn )
2
quindi la lagrangiana risulta:
P dAk dA∗k
2 A A∗
−
Ω(k)
L=K −U = m
k
k
k
2
dt dt
γ
dove Ω(k)2 = 4 m
sin2 ( 21 k a)
q
γ
m = c = velocita’ suono
Si passa alla hamiltoniana definendo
l’impulso coniugato ad Ak come
P
dAk
∂
ik n
√1
Pk = dA
p
e
L
=
m
=
n
n
dt
N
∂ dtk
P 1
L’hamiltoniana risulta H = K + U = 12 k m
Pk Pk∗ + mΩ(k)2 Ak A∗k
da qui partiamo a quantizzare ( = oscillatori armonici)
——————————————Normal modi [caso tridimensionale, reticolo cubico]
Gli autovalori sono la somma di tre autovalori monodimensionali...
ki = 0, 1, . . . , ( La − 1) i = 1, 2, 3
3 X
a
ω(k) = 2c
2π ki
1 − cos
L
2
2
i=1
c = velocità del suono
H=
X 1
|Pk |2 + ω(k)2 |A|k2
L
k
Gradi di libertà: 2 · 3N ;
;
N = ( La )3
− 1 − 1
2
2
Z(β) = det cinetico
det βω(k)2
=β −3N Πk ω(k)−1
60
(5.2)
Φ
Φ (x)
x
0
L
d
dΦ
dx
Figura 5.1: il segmento
lungo a riposo dx, dopo deformazione è lungo
q
√
dΦ
2 allora l‘energia elastica può
dx2 + dΦ2 = dx 1 + [ dx ]2 ∼ dx 1 + 21 [ dΦ
dx ]
scriversi ....(Landau, elasticità)
⇔
H = 3N TkB
cs = 3N kB
cs
5.7
[Dulong Petit]
sperimentale: T → 0
cs → 0
campo scalare, corda, membrana ...
Se descrivo le deformazioni di una corda con x → Φ(x), x ∈ [0, L],
vedi figura per risparmiarmi lo scritto posso assumere che l‘energia configurazioneale sia
Z
Z
2
1
1
d2 Φ((x)
H=
dx ∇Φ(x) = −
dx Φ((x)
2
2
dx2
similmente per una membrana con x → Φ(x), x ∈ [0, L] × [0, L].
Posso fare la MS del sistema pensandolo come limite del ’cristallo’ che abbiamo studiato nel paragrafo precedente.
La matrice −Hi,k agisce su un vettore φi secondo lo schema :
P
k Hi,k φk = φi+1 − 2φi + φi−1
È questa l‘espressione del laplaciano discretizzato.
Precisamente quando discretizzo lo spazio con i punti di un reticolo x = i[a],
[a] ’passo del reticolo’, allora:
61
• una funzione della variabile x diventa un vettore con N =
nenti f (x) → φi = f (i [a])
L
a
compom-
• la derivata prima (operatore
lineare)
diventa una matrice f ‘(x) =
i
h
f (x+:[a])−f (x)
[a]
∼
1
[a]
La matrice è Pi,j =
df
dx
φi+1 − φi
1
[a]
∼
δi,j−1 − δi,j (non simmetrica)
2
(‘x)
• la derivata seconda ddxf2 ∼ f ‘(x+:[a])−f
[a]
φi −φi−1
1 φi+1 −φi
1
cioè, come detto,
φ
−
2φ
+
φ
= [a]
−
=
i+1
i
i−1
2
[a]
[a]
[a ]
la matrice − [a12 ] Hi,k è la derivata seconda discretizzata
• Similmente l‘integrale discretizzato diventa
R
[dx]f (x) →
• In più dimensioni la matrice H definita via (Hf )(i) =
R
P
f (j) diventa il laplaciano e [dx]f (x) → i φi [a]D
1
[a2 ]
P
P
i
φi [a]
<i,j> f (i)−
Posso pensare al processo inverso: dal retico al continuo. Le palline divetano
punti di una corda, di una menbrana, di un pezzo elastico, e gli spostamenti
R
2 Φ(x)
=
diventano deformazioni qi → Φ(x) , l‘energia diventa − dx Φ(x) d dx
2
R
dΦ(x) 2
(per parti) = dx[ dx ]
Se faccio la MS del sistema, pensandola come limite di quella del ’cristallo’
(limite a → 0, N → ∞, L = aN = fisso: un pò di dettagli in appendice)
posso ripete il calcolo fatto in precedenza: però la trasformata di fourier è
data da una serie, gli indici sono infiniti gli autovalori della matrice H
Ω(k)2 = 2[1 − cos(2π
a
a
k)] = 4 sin2 (π k)
L
L
diventano gli autovalori del laplaciano
Ω(k)2 →
1
H
a2
1 1
a
2
[2 [2π k)]2 = [π k)]2
a2 2
L
L
e la funzione di partizione (parte configurazionale) è data dal prodotto degli
(infiniti) autovalori
formalmente
i 1
h
2 − 2
Zconf (β) = detβk
↑
62
log Zconf (β) = −
1X
2
log βk
2
k
(ogni autovalore è degenere ordine 2) quindi
energia media, calore specifico
1 X
2
H =
2β
k
cs =
1X
2
2
k
entrambi ∞
Notare che questa è un’energia per volume V finito !
Evidentemente non è accettabile che per volume V finito ci sia un‘energia
infinita
Si parla di catastrofe ultravioletta.
La MS ci impone una scelta:
a) Possiamo pensare che modellare la corda come un sistema continuo non
sia corretto: esiste un cutoff (spaziale) sotto il quale non possiamo spingerci.
Esistono molecole ed atomi.
( ricordo che Bolztmann ebbe non poche difficoltà per far accettare questa
idea ai coleghi fisici della sua epoca )
b) Possiamo pensare che l‘hamiltoniana quadratica è una buona descrizione
per piccole deformazioni ... che l‘hamiltoniana vera ha altri termini che
diventano essenziali a piccole lunghezze d‘onda ... e che riconducano il risultato al finito
Ma quello che abbiamo intravisto in questo calcolo si ripresenta per il corpo nero, per il campo elettromagnetico libero confinato in una scatola. In
questo caso non ci sono altri termini che possano magicamente eliminare il
problema della catastrofe ultravioletta, perchè le equazioni di Maxwell non
possono essere corrette con termini aggiuntivi.
E qui non ci sono neppure gli atomi a salvarci.
Non si scappa: bisogna passare al quantistico: cambiare il micro, per lasciare fisso il macro.
5.8
Campo elettromagnetico
ATT! (Fourier) fissato L ⇒ numero infinito di k
63
[ non c’è il cutoff a]
2
1 X X (α)
A(x, t) = √
A (k, t)eα (k) eik·x
L3
α=1
k
k=
H=
1
8π
Z
2π
·n
L
;
n ∈ Z3
2
(E 2 + H 2 ) dx = · · · =
i
1 X X h (α) 2
2
(p (k) + k c2 (q (α) (k)2
2
k α=1
Il campo elettromagnetico in una cavità V
è equivalente a infiniti oscillatori armonici
2
(k, α) → ω 2 (k, α) = k c2
⇓
Meccanica Statistica:
Z(β) =
Z
− 12 β
Πk,α dpα (k)dq α (k) e
P
k,α
h
i
2
p(α) (k)2 +k c2 q (α) (k)
i 1
h
2 i− 21 h
2 2 − 2
detβk c2
= det βI
↑ perche‘ α = 1, 2
= Πk (β|k|c)−2
1.
(equipartizione)
H =
1
2β
P
k (2
· 2)



entrambi ∞


Notare che questa è un’energia per volume V finito !
5.8.1
densita’ di energia in frequenza
quanti sono gli stati, i gradi di libertà, corrispondenti all’intervallo di frequenze [ν, ν + dν] ?
|k| c
2π
|n| c
L
|n| = Lc ν
2
quindi ∆|n| = 4π Lc ν Lc dν
ν=
64
=
;
H(ν) dν =
1
4·
2β
X
ν<|n|<ν+dν
1 =
8π L3 2
ν dν
β c3
[ Rayleigh - Jeans]
(L/c) d ν
(L/c) ν
5.9
confronto
cristallo
corpo nero
normal modi
finiti perchè
(a, L)
1 P
H = 2β
|k| 2 · 1
normalmodi
infiniti perchè
L (a = 0)
1 P
H = 2β
|k| 2 · 2
energia finita
energia infinita
calore specifico costante
sperimentali
Legge Rayleigh - Jeans
sperimentali
sperimentali
65
5.10
Gradi di libertà L, volume V, numero di particelle N
Cosa significa limite termodinamico:
• in termini di L
: L→∞
(
V →∞
• in termini di V, N :
N →∞
FL (. . . ) = −
N
V
→ρ
1
ln ZL (. . . ) ∼ L · f (. . . ) + σ(L)
β
f (. . . ) = limL↑∞
F (N, V ) = −
ma
∂FL
∂L
energia libera
1
ln ZN,V ∼ N µ(. . . ) − V p(. . . ) + o(N, L)
β
µ(. . . ) = lim{N,V ↑∞ ; N/V =ρ}
p(. . . ) = limV ↑∞
∂FN,V
∂V
∂FN,V
∂N
potenziale chimico
pressione
Notare che H = HN è funzione di N mentre V determina il dominio delle q
66
Capitolo 6
sistema Grancanonico
6.1
Canonico ⇒ Grancanonico
B
A
Sia S un sistema canonico N, V, β fissati.
Se ci limitiamo a considerare osservabili che dipendono dai gradi di libertà
del sottosistema A dobbiamo definire la distribuzione condizionata su A ottenuta mediando tutte le possibili configurazioni di S −A = B (distribuzione
grancanonica µGC ).
⇒ B diventa la riserva di calore e materia per A.
ATT !
Gli stati microscopici di A sono caratterizzati sia da NA = n. di particelle
in A sia da VA = volume di A.
R
R −β(H +H )
−βHB µ
e−βHA µa
e
B
A µ µ
B
e
B
B A
R
µGC (NA , VA ) = B
=
S
ZA S B
A B
Quando
(NA , VA , qA , pA )
⇒
µA è Liouville per NA particelle e
R −βH fisso
B µB è la funzione di partizione per il sistema B con N −N
e
A particelle,
B
con volume V − VA , ecc.
Se non ci fossero problemi di entropia di miscelazione e se B >> A cosicchè
ZA S B ≃ ZB (N, V ), il rapporto da valutare sarebbe
e−βFB (N −NA ,... )
ZB (N − NA , V − VA
=
ZB (N, V )
e−βFB (N,... )
67
Nel limite termodinamico si avrebbe
F (N − NA , V − VA ) = F (N, V ) −
con
1 ∂F
→ µB
β ∂N
In conclusione:
;
∂F
∂F
NA −
VA
∂N
∂V
1 ∂F
→ − µB
β ∂V
µGC ÷ eβµB NA e−βpB VA e−βHA µA
Sommando su tutti i gradi microscopici di A (NA , VA , dpA , dqA , . . . ) si ha il
fattore di normalizzazione
Z
X
1 = dVA
ZA (VA , NA )
NA
Abbiamo già sottolineato che quando misceliamo – uniamo – due sistemi
nascono problemi tipo il “paradosso di Gibbs”.
Nel caso del sistema grancanonico osservo che quando fisso A è vero che fisso
il numero NA di particelle, ma non “quali” particelle delle N totali.
Lo stato microscopico (A, B) è in realtà costituito da NAN!N! B ! stati microscopici.
P
P
In altri termini la NA ZA deve essere sostituita con la NA N1A ! ZA perchè
ZA si riferisce a NA “generiche” particelle e non ad una fissata enumerazione.
(Come accadrebbe se ragionassi per gradi di libertà: in tal caso NA sarebbe
⇒ vedi per es. reticoli)
il numero dei primi NA gradi di libertà.
Tutto ciò implica
µGC (NA , . . . ) =
6.2
•
1 h βµB NA − βpB VA − βHA i
µA
e
e
e
NA !
commenti
Nota 1
Se si fissa il volume VA , si integra su [qA , pA ] e si somma su NA , si
ottiene come fattore di normalizzazione:
1 = ΞA (VA ; βµB )e−βpB VA
|{z}
riserva
68
•
Nota 2
Notare che nella M.Q. il discorso sull’entropia di miscelazione è “automatico” in quanto per la M.Q. il principio di indistinguibilità impone il
conteggio di N1 ! per i gas, cosı̀ come impone la sua assenza per particelle
intrappolate nei siti di un reticolo.
•
Nota 3
Quando fisso VA , uno dei tre parametri (β, µB , pB ) che definiscono la
riserva risulta funzione degli altri due a causa del vincolo di normalizzazione
pB =
•
1
ln Ξ(VA , β, µB )
βVA
Nota 4
Se esiste il limite termodinamico canonico per il sistema A, possiamo
definire µA e pA
ΞA (VA ; βµB ) =
X 1
eβµB NA ZA (VA , NA )
|
{z
}
N!
e−β(µA NA +PA VA )
e quindi verificare che
n
pA = pB
µA = µB
⇒ posso sopprimere gli indici.
•
Nota 5
Fluttuazioni di densità Nel sistema GC. il numero di particelle è una variabile aleatoria con
−1 P
1 ∂
N 1
media N = Ξ
N N Z N ! Z(N ) = β ∂µ ln Ξ;
2
2
∂
varianza N 2 − N
= β1 ∂µ
ln Ξ ≡ γ > 0.
−1
, quindi
Si dimostra che γ ÷ − ∂ρ
∂v

∂ρ
 ∂v
<0

∂ρ
∂v
=0
⇒
⇔
grandi fluttuazioni
presenza di più fasi con diversa densità.
69
Capitolo 7
oltre gli oscillatori armonici
fluido ideale
fluido reale
Gas perfetto e oscillatori armonici sono detti ‘sistemi liberi‘ perchè sono entramdi sistemi in cui l‘interazione fra i componenti del sistema non c‘ è o è
eliminabile con una opportuna scelta della descrizione.
Si parla di sistemi ‘phantom‘ (fantasma). I due paragrafi successivi sono
un flash su due diversi metodi che permetto di studiare le proprietà di un
sistema con interazione ‘reali‘ quando non è possibile calcolare esattamente
l‘integrale configurazionale.
Si possono saltare
Notare che un contributo rilevante della meccanica statistica alle nostre
70
capacità di descrivere e comprendere la natura sta anche nell‘aver prodotto una vasta gamma di tali metodi e dell‘ atteggiamento mentale che essi
comportano. Nei paragrafi che seguono presento brevemente due di questi
metodi.
7.1
sviluppi a cluster e modelli di fluido
Presento il primo passo di un metodo iterativo usato per studiare la meccanica statistica di un fluido.
premessa
Per un gas non ideale, contenente N atomi o molecole, l‘equazione di stato
è scrivibile come una serie di potenze nella densità:
p
= ρ + B2 (T )ρ2 + B3 (T )ρ3 + · · ·
kB T
(7.1)
dove p la pressione, kB la costante di Boltzmann, T la temperatura assoluta, e ρ ≡ N/V è la densittà del gas.
L‘espressione [7.1] si chiama ’espansione del viriale classico’ ed è stata introdotta nel 1901 da Heike Onnes Kamerlingh come una generalizzazione
della legge dei gas ideali.
Si noti infatti che per un gas contenente una frazione di nNA (NA numero
di Avogadro) molecole, il troncamento dell’espansione viriale dopo il primo
termine porta a pV = nNA kB T = nRT , che è la legge dei gas ideali.
Il secondo termine si ha nel gas di van der Waals.
Scrivendo β = (kB T )−1 , l’espansione del viriale può essere scritta in forma
chiusa come
∞
X
βp
Bi+1 (T )ρi .
=1+
ρ
i=1
I coefficienti del viriale Bi (T ) sono caratteristici delle interazioni tra le particelle del sistema e in generale dipendono dalla temperatura T .
• Dal punto di vista della meccanica classica le molecole di un fluido interagiscono a due a due con un potenziale u2 (r) che dipende solo dalla distanza
relativa r
Tipicamente il potenziale è caratterizzato da una parte repulsiva a piccola
distanza ed una parte attrattiva per distanze superiori
Un esempio: in figura il potenziale u2 (r) = −A/r 6 + B/r 12
Il termine r −6 puo‘ essere giustificato con considerazioni quantistiche il termine r −12 con considerazioni fondamentalmente empiriche.(sostanzialmente
le molecole sono neutre ma hanno distribuzione di carica non banale)
71
70
g(x)
0
60
50
potenziale
40
30
20
10
0
-10
0.08
0.1
0.12
0.14
0.16
0.18
0.2
distanza
• Dal punto di vista della meccanica classica la funzione di partizione è
fattorizzata nella parte cinetica e in quella configurazionale: Z = ZK · Q
- La parte cinetica ZK è esattamente eguale a quella del gas perfetto ( vedi
[4.3.4] a pagina 44)
- N molecole posizionate nei punti ri , i ∈ [1, N ],
( indicando con rij = |ri − rj | la distanza relativa)
danno un contributo configurazionale
1
e− 2
P
i,j
βu2 (rij )
ed integrando su tutte le posizioni possibili si ottiene la parte configurazionale
1
Q=
N!
Z Y
Z Y
P
− 21 i,j βu2 (rij )
= [
dri ]
[
dri ] e
i
i
N
Y
i=1,i<j
exp {−βu2 (rij )}
(7.2)
1
N!
è dato dalla indistinguibilita‘ delle particelle)
(Il termine
In generale l‘integrale non può essere calcolato analiticamente
Ma puo‘ essere valutato ricorrendo alla ’espansione in cluster’ . Questa
espansione si basa sull’osservazione che è possibile trasformare la produttoria
in una sommatoria.
Precisamente se si scrive
exp {−βu2 (rij )} = 1 + fij
defininendo la cosı̀ detta ’funzione di Mayer‘ fij , la produttoria si può
riscrivere come una serie di termini;
Y
X
X
(1 + fij ) = 1 +
fij +
fij fkl + · · ·
i=1,i<j≤N
i=1,i<j≤N
i=1,i<j,k=1,k<l
Notare che per i potenziali di interesse fij è piccolo
——————————————–
esempio:
Q
i=1,i<j≤3 (1 + fij ) = (1 + f12 )(1 + f13 )(1 + f23 ) =
72
(1) + (f12 + f13 + f23 )
+(f12 f13 + f12 f23 + f13 f23 )
+(f12 f13 f23 )
Notare che con questo sviluppo ordinato i vari termini contengono un numero crescente di particelle coinvolte. Il primo termine il termine singola
particella, il secondo termine corrisponde a interazioni di coppie, il terzo alle
interazioni delle triplette e cos via.
Ogni termine rappresenta il contributo delle interazioni all’interno di gruppi
di un certo numero di particelle.
Questa interpretazione il motivo per cui l‘espansione si chiama ’espansione
a cluster‘.
——————————————–
L’integrale diventa:
1
Q=
N!
1
N!
Z Y
[ d~ri ]+
i
Z Y
[ d~ri ]
i
Z Y
1
[ d~ri ]
N!
i
X
fij +
(7.3)
i=1,i<j≤N
X
fij fkl +
i=1,i<j,k=1,k<l≤N
···
V N
] (come abbiamo già visto
• Il primo termine è uguale a N1 ! V N = [ N
N
per il gas perfetto) (ricordarsi N ! → N )
• il secondo termine è calcolabile :
- integrando ogni termine sulle variabili non contenute in fij (il contributo risulta V NR−2 )
R
R
- resta l‘integrale [d~ri ][d~ri ] f (rij ) = [d~x][d~y ] f (y) = V [d~y ] f (y) =
V M2 (β),
indipendente dai labelli, per cui il risultato finale è M2 (β)V N −2 volte
il numero degli addendi ovvero
V N −1
1
(N − 1)N
M2 (β) ∼ V N −1 N 2 M2 (β)
2
2
• Calcoli simili per i termini di ordine superiore dove la difficoltà sta sia
nell‘integrazione che nel calcolo del numero di addendi della somme.
73
Alla fine si ottiene una espressione del tipo
Q=
i
h V iN h
1 N2
1 N3
· 1+
M2 (β) + [ 2 ]M3 (β) + · · ·
N
2 V
3! V
(7.4)
L’ energia libera A = − β1 [logZK + log Q] assume la forma
(usando log(1 + x) = x + · · · nel secondo fattore)
1 h
V
N 3/2 log β + log( )
β
N
h1 N2
i
3
1 N
+
M2 (β) + [ 2 ]M3 (β) + · · ·
2 V
3! V
A=−
(7.5)
È possibile ricavare l’equazione di stato derivando ripsetto al volume
p = −∂V A = kB T
N
V
−
1 N2
M
(β)
+
·
·
·
2
2V2
(7.6)
N
V
è la densità del fluido e se tale densita‘ è piccola ha senso trascurare i
termini di ordine suoeriore al secondo
Esempio ——————–
sfere rigide e hard-core
u2
Mayer function
1
2 r0
0
0
u2
Mayer function
1
1) sfere rigide: le sfere non possono compenetrarsi, il raggio è r0
u2 (r) = ∞ r < 2r0
= 0 r > 2r0
R
R 2r
R∞
In tal caso si ha: M2 = [dr] (1 + e−βu2 (r) ) = 0 0 [dr] (1) + 2r0 [dr] (1 − 1) =
4π
4π 3
3
3 (2r0 ) quindi, fermandosi al primo ordine e chiamando v0 = 3 r0 (volume
escluso) p = kB T ρ − 4ρ2 v0
74
2) hard-core con coda attrattiva
u2 (r) = ∞
r < r0
= − φ(r) r > r0
con
Z
∞
φ(r) = B
r0
ha:
RIn tal caso si
Rr
R∞
[dr] (1 + e−βu2 (r) ) = 0 0 [dr] (1) + r0 [dr] (1 − eβφ(r) )
R∞
2
3
= 4π
3 r0 − r0 [dr]βφ(r) + O(β )
2
3
= 4π
3 r0 − β4πB + O(β )
3
Al primo ordine p = kB T ρ − 12 ρ2 [ 4π
3 r0 − β4πB]
Se chiamo a = 2πB e b =
2π 3
3 r0
= 12 v0 allora posso scrivere
p + aρ2 = kB T ρ(1 + bρ)
che è sostanzialmente Van der Waals. (1 + bρ ∼
(7.7)
1
1−bρ )
Come si vede l‘introduzione dell‘interazione porta a una termodinamica diversa da quella del gas perfetto: in particolare non è più vero che fissati
p, T esiste un unico valore di ρ che soddisfa l‘equazione di stato. Il sistema
mostra transizioni di fase.
7.2
campo medio
Partiamo dalla constatazione che, anche per i modelli piu’ semplici, non è
possibile in generale, calcolare esattamente la funzione di partizione.
Il metodo di campo medio è forse il più fecondo metodo per (incominciare)
ad analizzare sistemi non banali .
È usato in contesti estremamente diversi e in generale porta sempre a risultati o almeno indicazioni significativi.
Il metodo di campo medio nasce come possibilità di approssimare un minimo
assoluto da ricercarsi in un dominio molto vasto con un minimo calcolato in
un domio più semplice ma significativo
Vi ricordo che la misura di Gibbs è definita come la misura, fra tutte
le possibili definibili sullo spazio degli stati microscopici, che minimizza
Ap [β] =< H >p −T S(p)
Gibbs = argminp [< H >p −T S(p)]
L’approssimazione di campo medio consiste nel valutare A[β] limitandosi ad
una famiglia P di misure semplici, misure test, e scegliendo fra queste la
misura ottimale, quella che minimizza A.
prova∗ = argminp∈P [< H >p −T S(p)]
75
Evidentemente A Gibbs ≤ A prova∗ .
Sottolineo che:
– misure ↔ momenti : i parametri che descrivono le misure test sono identificabili con i valori medi dei momenti.
– le misure semplici sono misure fattorizzate e quindi sono pensabili come
misure marginali associate alla misura “vera” ; per molti modelli le misure
marginali sono facilmente descrivibili.
Per esempio: consideriamo un sistema descritto da variabili microscopiche
σi con i ∈ Λ. Λ è un reticolo, come quello che abbiamo usato per descrivere le posizioni di equilibrio delle molecole di un cristallo. σi piò essere lo
spostamento della molecola o il momento di dipolo della molecola o lo spin
dell‘atomo labellato da i
Possiamo considerare misure totalmente fattorizzate e parametrizzate dai
valori medi e qualche altro momento delle variabili σi , per esempio se considerassimo gaussiane le parametrizziamo con il loro valor medio e la varianza.
Genericamente scriviamo:
p{m} = Πi∈Λ pmi (σi )
Calcolo A[m] –
come H m − T S(m)
m∗i :
– e quindi cerco
∂A =0
∂mi m∗
∀i
calcolo il valore di A su questo minimo ( A = A m∗ (β) ; β)) e pongo
AGibbs (β) ≃ A m∗ (β) ; β)
calcolo tutte le grandezze statistiche derivandole da A.
P
P
Se l‘hamiltoniana del sistema è del tipo H = i,j h(σi , σj ) − i σi hi allora
so che
∂AGibbs
σI Gibbs = −
∂hI
ora approssimo AGibbs → Am∗ e calcolo
σI
Gibbs
∼−
=0
ma ATT! in generale
σI σJ
∂A
∂A ∂mk
∂A
=−
−
= σI prova
∂hI
∂m ∂hI
∂hI
| {z k}
Gibbs
∼
∂2A
∂ 2 Aprova ≃
6= σI σJ prova
∂hI ∂hJ
∂hI ∂hJ
76
cioè le correlazioni fra spin non sono le correlazioni associate alle misure
di prova ma sono le derivate dell’ energia libera calcolata con le misure di
prova
( nota altrimenti avrei σI σJ prova = σI prova σj prova per via della fattorizzazione)
Con questo voglio sottolineare che una volta fatta l‘approssimazione AGibbs (β) →
A(β) uso le espressioni corrette della MS per calcolare tutte le grandezze di
interesse.
Non è necessario conoscere esattamente l’entropia in funzione dei parametri.
È sufficiente uno sviluppo intorno a valori particolari.
[ ⇒ vedi
esempi C.L., Transizione NI.]
Significato fisico
I parametri liberi della misura test ( ←→ aspettazione di funzioni delle
variabili microscopiche), sono detti parametri d’ordine.
I parametri possono essere grandezze scalari o a piu’ componenti.
Approssimare la misura di Gibbs con misura test equivale ad assumere che
A dipende “fortemente” da tali parametri e in modo “debole” dalle correlazioni corrispondenti alle altre possibili funzioni microscopiche.
Un ruolo fondamentale nella scelta dei parametri d‘ordine è svolto dal gruppo di trasformazioni di simmetria dell’ hamiltoniana microscopica.
Se il sistema è disordinato tutto è OK.
Se il sistema è ordinato ci possono essere problemi.
In particolare la descrizione di campo medio sopravvaluta l’ordine.
La descrizione di campo medio riduce lo spazio ambiente a un parametro
puramente quantitativo.
•
Vedremo che questo, per basse dimensioni, porta a risultati scorretti.
Per esempio Ising in D=1, range finito.
Puo’ apparire sorprendente come, usando un semplice sviluppo di Taylor
troncato a ordini bassi e condizionato dalle proprieta’ di simmetria di una
grandezza estensiva, si possano ottenere risultati quantitativamente (e qualitativamente) significativi sul comportamento di un sistema termodinamico.
Ma questo e’ il cuore della Teoria di Landau.
Rimando a P.M.CHAIKIN, T.C.LUBENSKY per una carrellata, che mi pare
estremamente interessante, di sistemi reali a cui si applica la metodologia di
Landau.
77
7.2.1
termodinamica elementare di una galassia
Applico il campo medio per descrivere la termodinamica di una galassia.
forma di galasise
Una galassia è un insieme di N stelle con varia massa (diciamo M =
N < m >) che interagiscono via gravitazione.
P
i mi
=
ricordo che una distribuzione di massa ρ(x) genera un potenziale
R
ρ(y)
V (x) = d[y] |x−y|
e viceversa che ρ(x) = −∇2x V (x)
Il laplaciano in tre dimensioni per una funzione della sola distanza r è
∂2
2 ∂
∇2 = ∂r
2 + r ∂r
Se V (r) = 1r Φ(r) è funzione della sola distanza allora la densità risulta
2
Φ(r)
ρ(r) = 1r ∂ ∂r
2
R
L‘ energia gravitazionale in questo caso si puo‘ scrivere E = −4π [dr]r 2 V (r)ρ(r)
Una configurazione micro è al solito data fissando posizioni e velocità delle
singole stelle L‘energia del sistema è quindi
E=−
1X
1 X Gmi mj
mi |v i |2
+
2
|ri − rJ |
2
i,j
(7.8)
i
Il contributo della parte cinetica è il solito e si traduce per l‘energia libera
nel termine da gas perfetto.
Il contributo della parte configurazionale è incalcolabile analiticamente.
78
⇒ Allora proviamo a stimarlo minimizzando A(p, β) =< Hconf >p −T S( p)
su una famiglia di misure semplici e che ci sembrino significative per il problema.
Il valor medio di E su una misura p diventa
Z
MG
1
< E >= −
[dr 1 ][dr 2 ]g(r 1 − r2 )
2
|r 1 − r2 |
dove g(r 1 − r 2 ) è la probabilità che due unità di massa siano l‘una in r1 e
l‘altra r 2
(è la funzione di correlazione cui accennavo)
Q
⇒ Se ci llimitiamo a misure farrorizzate p = p(r1 , r2 , · · · ) = i p(ri )
questa correlazione è semplicemente il prodotto
R del valor medio delle densita‘
di sito: g(r 1 − r 2 ) = ρ(r1 )ρ(r 2 ) con ρ(r) = d[r]δ(r − r i )
Sostanzialmente abbiamo scritto l‘energia in termini della densità di massa.
⇒ Facciamo una ulteriore restrizione sulle misure. Diciamo che la misura è
gaussiana di parametro RG :
2
1 − r2
p(r)[dr)] = 3 e 2RG R2 dR
Rg
Questo è come dire che la galassia ha una forma sferica e un raggio dell’
ordine RG
Possiamo verificare che in questo caso il potenziale risulta:
1 1
√R
V (R) = 4π
R Erf ( 2RG )
dove Erf è la primitiva della gaussiana ( error function) definita come
Rx
2
Erf (x) = √2π 0 dt e−t
(applicate il laplaciano e verificate)
Ma allora se scriviamo
Z
MG
< Econf >= −
[dr]V (r)ρ(x)
2
valutare l‘energia interna configurazionale è semplice perchè coincide con
valutare un integrale gaussiano. Il risultato è
Econf = −g
N2
RG
Allo stesso modo è semplice calcolare l‘entropia per la misura scelta. Risulta
S = N log
79
3
RG
N
(compreso
1
N! )
Il minimo di A =< H > −T S rispetto alle misure di prova è dato annullando
la derivata di A rispetto ad RG . Questo porta all‘ equazione
G
N2
1
=0
− T 3N
2
RG
RG
cioè a RG =
GN
3T
(é l‘ equazione di stato della galassia)
L‘energia configurazionale è quindi < H >conf = −3N T , sappiamo già che
la parte cinetica è 23 N T
In conclusione
Atot = E − T S
3
Etot = − N T
2
S = N log
3
RG
N
(7.9)
Il calore specifico della galassia vale cs = ∂E
∂T quindi
3
Il calore specifico risulta − 2 N negativo !!
Questo significa che
f inale
iniziale quindi la
se la galassia emette un po‘ di energia la sua Etot
< Etot
temperatura aumenta, il raggio si restringe e le velocità aumentano.
f inale
iniziale la temperatura
Viceversa se fornisco calore alla galassia Etot
> Etot
diminuisce, il raggio si espande e le velocità diminuiscono.
7.2.2
gas su reticolo
vedi appunti capitolo ’Meccanica statistica su reticolo- modello di Ising
Un modello configurazionale) microscopico di gas é costruito pensando di
dividere il volume contenente il gas in cellette sufficentemente piccole da
poter contenere al piú una sola ’molecola’ del gas.
Le cellette formano un reticolo Λ (regolare) i cui siti sono labellati con un
indice (a piú componenti) i
Gli stati microscopici sono gli elementi dello spazio 0, 1Λ : cioé le successioni
ωii∈Λ con ωi = 1 se la celletta i−sima é occupata da una ‘’molecola ’ e ωi = 0
se la celletta é vuota.
80
L’hamiltoniana H del sistema descrive la attrazzione fra molecole di gas. Il
fatto che in una celletta ci possa stare al piú una sola molecola (ωi é solo a
due valori 0, 1), implementa l’esistenza dell’ hardcore e possiamo
limitare la
J P
attrazzione a cellette primo vicine. Cioé scriviamo H(ωi ) = − 2 <i,j> ωi ωJ
Teniamo conto del potenziale chimico aggiungendo ad H un termine che
descrive il guadagno
o il costo energetico di aggiungere una molecole al
P
sistema −h i ωi
( come dire µ = 2h)
Ora usiamo il metodo di campo medio per valutare la funzione di partizione.
Q
Le misure test le scegliamo fattorizzate e omogenee : p(ωi ) =
i p(ωi )
Essendo ωi una variabile a due valori la misura piú generica é una bernulli
di parametro c ∈ [0.1] cioé p(ωi ) = c
oi + (1 − c)(1 − ωi ),
(c ha il significato di < ωi > e quindi di densitá) L‘entropia di queste misure
|Λ|S(c) l’abbiamo vista infinite
volte e l‘energia attesa é
J
2
< H >= |Λ| − 2 zc − hc
dove z é il numero di primi vicini di una cella
Il potenziale termodinamico da minimizzare é quindi
F (c) = −
Jz 2
c − hc + T [c log(c) + (1 − c) log(1 − c)]
2
e l‘equazione di minimo (equazione di stato) risulta
−Jzc − h + T log c1 − c = 0
( per esempio soluzione grafica ...)
P
Il sistema che stiamo descrivendo é un sistema gran canonico ( i ωi é il
numero totale di molecole ed é una RV) . Quindi il potenziale che stiamo
valutando é quello gran canonico (cioé la pressione del gas). Ma allora, se
eliminiamo il potenziale chimico dalla equazione di stato e riscriviamo F in
funzione di c, β abbiamo
Jβz 2
(1 − βJz) 2
c − log(1 − c) = c +
c + ···
2
2
da confrontarsi con lo sviluppo di Heike 7.1 a pagina 71 e con l‘equazione
7.7 a pagina 75
βp = −
81
7.2.3
cristalli liquidi
Vedi il paragrafo 8.4 a pagina 89
per un esempio di transizione di fase primo ordine
82
Capitolo 8
Introduzione alle transizioni
di fase
cosa è una fase ?
From Wikipedia, the free encyclopedia
In physics, a state of matter is one of the distinct forms that different phases of matter take on. Four states of matter are observable in everyday life:
solid, liquid, gas, and plasma. Many other states are known such as BoseEinstein condensates and neutron-degenerate matter but these only occur in
extreme situations such as ultra cold or ultra dense matter. Other states,
such as quark-gluon plasmas, are believed to be possible but remain theoretical for now.
Historically, the distinction is made based on qualitative differences in properties. Matter in the solid state maintains a fixed volume and shape, with
component particles (atoms, molecules or ions) close together and fixed into
place. Matter in the liquid state maintains a fixed volume, but has a variable
shape that adapts to fit its container. Its particles are still close together
but move freely. Matter in the gaseous state has both variable volume and
shape, adapting both to fit its container. Its particles are neither close together nor fixed in place. Matter in the plasma state has variable volume
and shape, but as well as neutral atoms, it contains a significant number
of ions and electrons, both of which can move around freely. Plasma is the
most common form of visible matter in the universe.
The four fundamental states
1.1 Solid
1.2 Liquid
1.3 Gas
1.4 Plasma
Non-classical states
3.1 Glass
3.2 Crystals with some degree of disorder
3.3 Liquid crystal states
83
3.4 Magnetically ordered
3.5 Microphase-separated
3.6 Quantum spin liquid
Low-temperature states
4.1 Superfluid
4.2 BoseEinstein condensate
4.3 Fermionic condensate
4.4 Rydberg molecule
4.5 Quantum Hall state
4.6 Strange matter
4.7 Photonic matter
High-energy states
5.1 Degenerate matter
5.2 Quarkgluon plasma
5.3 Color-glass condensate
Very high energy states
A state of matter is also characterized by phase transitions. A phase transition indicates a change in structure and can be recognized by an abrupt
change in properties. A distinct state of matter can be defined as any set
of states distinguished from any other set of states by a phase transition.
Water can be said to have several distinct solid states. The appearance of
superconductivity is associated with a phase transition, so there are superconductive states. Likewise, ferromagnetic states are demarcated by phase
transitions and have distinctive properties. When the change of state occurs
in stages the intermediate steps are called mesophases. Such phases have
been exploited by the introduction of liquid crystal technology.
Forms of matter that are not composed of molecules and are organized by
different forces can also be considered different states of matter. Superfluids
(like Fermionic condensate) and the quark-gluon plasma are examples.
84
8.1
funzione di partizione e fasi
Formalmente per definire uno stato di equilibrio e la sua misura di Gibbs,
bisogna fissare un certo insieme di parametri del sistema. Temperatura, volume, campo magnetico esterno etc.
Esistono domini, nello spazio di questi parametri, in cui le proprietà macroscopiche del sistema sono del tutto simili, dipendono in modo analitico dai
parametri. Questi domini sono separati da bordi in cui l‘analiticità si rompe,
attraversando queste frontiere bisogna cambiare le funzioni che descrivono
le grandezze macro. Si ha una transizione di fase
m
T
la magnetizzazione in funzione della temperatura: non puó essere una
funzione analitica perché ....
Notare che finchè gli stati microscopici sono in numero finito la misura di
Gibbs, come sappiamo, è unica e la funzione
è una funzione
Pdi partizione
−bH
(C)
J
analitica, somma finita di funzioni analitiche C e
dei parametri che
descrivono il sistema.
Le variabili macroscopiche, valori medi, suscettiviotà etc, sono le sue derivate
e quindi risultano analitiche nei parametri stessi: tutti gli stati macro hanno
proprietà simili. Non possono esistere fasi diverse.
Ma quando si va al limite termodinamico (rozzamente) la somma diventa serie, nascono raggi di convergenza, donimi diversi di analiticità. Cade
l‘unicità nella dimostrazione dell‘ esistenza della misura di Gibbs. Nei sistemi reali queste proprietà matematiche si traducono nell‘ esistenza di fasi
diversi, e al variare dei paramentri si assiste a transizioni di fase.
In generale è impossibile conoscere esplicitamente la dipendenza della funzione di partizione dai parametri ( diciamo J ∈ J ) che descrivono il sistema
e quindi avere una esplicita determinazione della frontiera.
In compenso è piuttosto semplice avere indicazioni sull‘esistenza di possibili
transizioni di fase con metodi approssimati.
Tipicamente si può ragionare considerando stati macroscopici descritti da
misure che dipendono da un set di paramentri m ∈ M che descrivono i valori
attesi di grandezze termodinamiche significative per il sistema in esame, e
calcolare, in funzione di tali parametri ( m ∈ M ) e dei precedenti (J ∈ J ),
l‘energia libera dello stato macro.
La termodinamica ci dice che lo stato macro di equilibrio è caratterizzato dal
85
minimizzare l‘energia libera sottoposta ai vincoli a cui il sistema deve sottostare. L‘ annullarsi della derivata dell‘energia libera rispetto ai parametri
m ∈ M è dato da equazioni (le equazione di stato) che possono avere più di
una soluzione.
Se ciò accade significa che a parità di condizioni fissate da J ∈ J il sistema
ha più stati caratterizzati da valori diversi per le grandezze m ∈ M: ha più
fasi.
Nel capitolo successivo vi mostro due esempi di questa tipo di analisi.
8.2
definizioni
In generale l‘energia libera resta una funzione continua ma le sue derivate
possono mostare singolarità.
Si veda a tal proposito il teorema di Yang Lee del prossimo capitolo.
Se sono le derivate prime ad essere singolari per valori particolari dei parametri.,
si hanno discontinuità in valori medi come densità, magnetizzazioni, etc. Si
parla di transizione primo ordine.
Se le derivate prime sono continue ma le seconde diventano singolari sono
calori specifici, suscettività etc che mostrano singolarità: si parla di transizioni del secondo ordine. Etc.
Dal punto di vista fenomenologico vale la classificazione risalente ad Ehrenfest
In the modern classification scheme, phase transitions are divided into two
broad categories, named similarly to the Ehrenfest classes:
First-order phase transitions are those that involve a latent heat. During
such a transition, a system either absorbs or releases a fixed (and typically
large) amount of energy. During this process, the temperature of the system will stay constant as heat is added: the system is in a mixed-phase
regime in which some parts of the system have completed the transition and
others have not. Familiar examples are the melting of ice or the boiling of
water (the water does not instantly turn into vapor, but forms a turbulent
mixture of liquid water and vapor bubbles). Imry and Wortis showed that
quenched disorder can broaden a first-order transition in that the transformation is completed over a finite range of temperatures, but phenomena like
supercooling and superheating survive and hysteresis is observed on thermal
cycling.
Second-order phase transitions are also called continuous phase transitions.
They are characterized by a divergent susceptibility, an infinite correlation
length, and a power-law decay of correlations near criticality. Examples
of second-order phase transitions are the ferromagnetic transition, superconducting transition (for a Type-I superconductor the phase transition is
second-order at zero external field and for a Type-II superconductor the
phase transition is second-order for both normal state-mixed state and mixed
state-superconducting state transitions) and the superfluid transition. In
contrast to viscosity, thermal expansion and heat capacity of amorphous materials show a relatively sudden change at the glass transition temperature
86
which enable quite exactly to detect it using differential scanning calorimetry measurements. Lev Landau gave a phenomenological theory of second
order phase transitions.
Apart from isolated, simple phase transitions, there exist transition lines
as well as multicritical points, when varying external parameters like the
magnetic field, composition,...
Several transitions are known as the infinite-order phase transitions. They
are continuous but break no symmetries. The most famous example is
the KosterlitzThouless transition in the two-dimensional XY model. Many
quantum phase transitions, e.g., in two-dimensional electron gases, belong
to this class.
The liquid-glass transition is observed in many polymers and other liquids
that can be supercooled far below the melting point of the crystalline phase.
This is atypical in several respects. It is not a transition between thermodynamic ground states: it is widely believed that the true ground state
is always crystalline. Glass is a quenched disorder state, and its entropy,
density, and so on, depend on the thermal history. Therefore, the glass
transition is primarily a dynamic phenomenon: on cooling a liquid, internal degrees of freedom successively fall out of equilibrium. Some theoretical
methods predict an underlying phase transition in the hypothetical limit of
infinitely long relaxation times. No direct experimental evidence supports
the existence of these transitions.
8.3
regola delle fasi
Quante fasi ? per quali set (varietà) di stati?
Consideriamo un sistema formato da I componenti (chimicamente) distinte:
1, 2, .., i, ...I.
Ammettiamo che il sistema sia in uno stato di equilibrio corrispondente alla
copresenza delle fasi α1 , α2 , · · · , αΦ (tot Φ fasi).
Quante sono le variabili che descrivono il sistema?
• Siano niα le moli del componete i-simo nella fase α
(in totale I · Φ
variabili)
Le variabili estensive indipendenti sono le concentrazioni relative delle varie
componenti per fase . (le frazioni molari per fase)
i
α
xiα = nntot
α
Notare che
X
∀α :
dxiα = 0
(8.1)
i
In totale quindi queste variabili risultano Φ · (I − 1)
• le varibili intensive, non potenziali chimici, T, p, ... del sistema: supponamo siano in totale f . (sono dette le variabili “fisiche”)
87
⇒ ATT! i potenziali chimici non sono variabili indipendenti.
Essendo variabili intensive sono indipendenti dalla estensione del sistema e
quindi posssono dipendere solo dalle varibili intensive (Gibbs-Duhen) e dalle
concentrazioni relative: µiα = µiα (p, T, · · · , xjβ , · · · )
Conclusione: in totale abbiamo Φ(I − 1) + f variabili libere.
Quanti vincoli? ovvero quante equazioni ? Abbiamo già detto per le estensive. Dall’altra parte il potenziale di Gibbs, all‘equilibrio, deve essere
minimo e quindi:
X
0 ≡ dGtot =
µiα dniα
(8.2)
i,α
Con ragionamento analogo a quello che si sviluppa per l’entropia di miscelazione , le equazioni [8.1] e [8.2] implicano che
 1
1
µ1Φ

 µ12 = µ22 = ...
µ1 = µ2 = ...
µ2Φ
........ ........ .......

 ........
µA
=
µA
µA
2 = ...
1
Φ
cioe’ I · (Φ − 1) equazioni che devono essere soddisfatte dalle Φ(I − 1) + f
variabili che descrivono il sistema.
E’ evidente che le Φ fasi possono sussistere se le variabili intensive indipendenti e le variabili fisiche sono sufficenti per garanire la soddisfacibilita’ delle
equazioni 8.3; ciò implica che
Φ · (I − 1) + f ≥ I · (Φ − 1)
ovvero che
f +I −Φ≥0
(8.3)
Quindi il numero massimo di fasi che puo’ coesistere e’
Φ=f +I
“regola delle fasi”
(8.4)
Il numero λ = f + I − Φ− e’ il numero di variabili intensive che possono
essere scelte liberamente.
Per esempio per una sostanza omogenea:
I = 1, f = 2 (la temperatura e la pressione)
il numero massimo di fasi e’ tre .
⇒ Una sola fase ha due gradi di liberta‘ indipendenti. λ = 2 + 1 − 1 = 2,
occupa regioni del piano p, T ,
⇒ Due fasi :λ = 2 + 1 − 2 ≡ 1
possono coesistere solo lungo una curva nel piano p, T .
(appunto la curva di coesistenza p = p(T ))
88
⇒ Tre fasi (λ = 2 + 1 − 3 = 0) per un solo valore della temperatura e delle
pressione (punto tricritico).
La “regola delle fasi” da un punto di vista astratto è importante perche‘
garantisce l‘esistenza di un numero finito (fasi) di minimi contemporanei
del potenziale di Gibbs. Come dire che fissati il numero I di componenti
chimiche e le f di variabili “fisiche” non posso avere piu‘ di Φ = f + I
“campioni” del sistema differenti.
Posso preparare quanti voglio (N → ∞) baker di CO2 ma avrò al più tre
tipi diversi del mio sistema (“realizzazioni”).
ATT! ci sono sistemi, che si classificano come “complessi”, per i quali questa
regola non è più vera. Sistemi per i quali se preparo N campioni nessuno di
questi è eguale, a parita‘ di parametri esterni, a nessun altro.
Provate a pensare al cervello umano.
Piu‘ semplicemente prendete un blocchetto di oro e fondetelo, scioglieteci
un po‘ (poco,poco) di ferro e raffreddate rapidamente. Ripete la stessa
operazione N volte. Avrete N campioni “diversi”. Il sistema costituisce
un “vetro di spin”. Vetro perche‘ come il vetro comune avete realizzato un
sistema metastabile che cambia proprietà al cambiare della scala temporale
con cui lo studiate. Come per i cervelli tutti questi campioni hanno alcune
proprieta‘ medie in comune ... si apre un mondo molto interessante.
8.4
una transizione di primo ordine: cristalli liquidi
Come esempio di transizione di prima specie e come esempio di applicazione
del metodo di campo medio
n
θ~0
θ
n
φ
θ ~ π/2
89
(vedi Lubensky Chaiking pagina 168) di Principles of condensed matter
physics ).
I cristalli liquidi sono composti da molecole che hanno una dimensione longitudinale molto maggiore delle dimensioni trasversali e non hanno polarità.
Descriviamo queste molecole barrette rigide → come segmenti. Le barrette,
in opportuni intervalli di temperatura, tendono a disporsi disordinatamente
per quanto riguarda i baricentri (come in un gas) ma ordinatamente (per
quanto rigaurda la direzione si allieano) . Nel materiale non c‘è più isotropia
ma emerge una direzione preferenziale (oppure due: materiali biassiali ) Descrivere questo sistema dal punto di vista della MS è semplice e divertente.
Se per rappresentare un insiemie di dipolo o di magneti di intensità costante
possiamo usare versori ~n = (n1 , n2 , n3 ) = cos(θ), sin(θ) cos(φ) sin(θ) sin(φ)
(due parametri liberi , vedi figura) per rappresentare segmenti di lunghezza
fissata non possiamo fare altrettanto perchè il segmento non distingue fra i
due estremi : e‘ invariante per inversione.
Per questo motivo il segmento deve essere descritto dal tensore prodotto
diretto dei due versori ±~n cioè dalla matrice Ai,j = ni nj , in modo tale che
se si invertono gli assi del sistema di coordinate A resta invariante.
Notare che continua ad essere descritto da due parametri. Il prodotto interno di due vettori < n1 , n2 > è sostituito nel caso delle matrici dal prodotto
della loro traccia T r(A1 A2 ) e quindi la lunghezza dalla T rA2 . Nel caso del
nostro A evidentemente T rA2 = 1, ora non cambia nulla se anzichè usare A
usiamo Q = A − 1/3I (i parametri descrittivi restano due) ma guadagnamo
la proprietà che Q è a traccia nulla e questo ci semplifica i calcoli successivi.
L‘interazione fra due barrette è H(Q1 , Q2 ) e dato che H è uno scalare e
Q sono matrici in generale ci aspettiamo che H(Q1 , Q2 ) = −JT rQ1 Q2 −
KT r(Q21 Q2 + Q22 Q1 ) + · · · con J, K > 0 in modo che sia faforito lo stato
allineato Q1 ∼ Q2
La variabile microscopica di sito (lo spin classico) è in questo modello un
versore tridimensionale:
ni = (cos φi sin θi ,
sin φi sin θi ,
cos θi , )
che abita su un reticolo 3-dimensionale di punti i.
Piu’ propriamente, la grandezza microscopica locale e’ il tensore:
j k
Qjk
i = ni ni −
1 ij
δ
D
questo perche’ i cristalli liquidi sono “astine” e non hanno un verso fisicamente rilevabile. Il versore n e il tensore Q sono descritti sempre dai due
angoli sferici ma il tensore non muta per una riflessione totale delle coordinate mentre il versore si.
90
L’hamiltoniano che descrive interazioni a primi vicini e’ scrivibile in termini di traccia dei prodotti dei tensori corrispondenti; in coordinate sferiche
risulta:
J X1
H=−
3 (ni · nk )2 − 1
2
2
i,k
P2 (x) = 12 3 cos2 (x) − 1 e’ il secondo polinomio di Legendre.
Le misure di prova vanno prese come (prodotto delle) misure sulla sfera.
Dall’ hamiltoniano ci aspettiamo che gli spin si possano allineare ma anche
che l’allineamento sia insensibile ad una precessione.
Consideriamo allora misure di prova con densita’, rispetto alla misura fon1
senθ dθ dφ, del tipo :
damentale della sfera dΩ(θ, φ) = 4π
pα (n) = pα (θ, φ) = N −1 (α)pα (cosθ) = N −1 (α)eαP2 (cosθ)
Il fattore di normalizzazione e’
Z
Z
1
1
senθ dθ dφ =
pα (cosθ) senθ dθ
pα (cosθ)
N (α) =
4π
2 0,π
Ω
Il fatto che consideriamo misure mute in φ realizza la nostra aspettativa di
allineamento con possibilita’ di precessione.
Che significato ha il parametro α?
per α → 0 la misura tende alla misura uniforme, p0 (cosθ) = 1
per α → ∞ la misura tende alla misura deltiforme, concentrata sui max di
P2 (x), cioe’ su x = ±1
• energia interna
La scelta del polinomio P2 nella misura e’ legata alla proprieta’ di
fattorizzazione dell’energia interna
X
H α = −J
P2 α P2 α
i
k
o,k
(verificare)
Proprio questo fa dire che il parametro
d’ordine del modello
P2
e’
Osservare che per α → 0 ⇒ P2 = 0 e per α → ∞ ⇒ P2 = 1
• entropia: il contributo di sito e’
Z
−1
dt αi P2 (t)−ln(N (αi ) eαi P2 (t) = −αi P2 +ln N (αi )
Si (αi ) = −N (αi )
[−1,1]
91
• energia libera ...
• Le equazioni per determinare i parametri si riscrivono subito osservando che la derivata rispetto al parametro αI dell’ energia interna
risulta
∂ H α
X ∂ P2 α
i
= −J
P2 α
k
∂αi
∂αi
k
mentre la derivata dell’entropia e’
∂ P2 α
∂Si
i
= −αi
∂αi
∂αi
per cui si ha
∀i
:
0=J
X
k
P2
∂ P2 α
i
αk
∂αi
− T αi
∂ P2 α
i
∂αi
dove la somma e’ sui k primi vicini di i.
Ora si ha:
∂lnN (αi )
P2 α =
i
∂αi
∂ P2 α
i
∂αi
=
∂ 2 lnN (αi )
∂α2i
La derivata seconda e’ sempre diversa da zero (perche’...)
equazioni di minimo si possono scrivere semplicemente
X
P2 α − T αi
0=J
cosicche’ le
k
k
Si puo’ passare al caso omogeneo e studiare l ’equazione graficamente.
Lo studio dell’ equazione è molto semplice per piccoli ai , anche in termini
analitici.
E’ infatti facile valutare il comportamento di N (α) per piccolo αR . Come
al
n
solito sviluppo l’ esponenziale e mi trovo a calcolare integrali tipo dt P2 (t)
Z
Z
Z
2 1 3
3 1 4
4
1 2
N (α) ∼ 1 + α
dt P2 (t) + α
dt P2 (t) + α
dt P2 (t) + . . .
2!
3!
4!
(gli intergrali sono prodotti interni o norme in L2 [−1, 1] di polinomi di legendre)
Il fatto importante e’ che il terzo termine ha segno negativo mentre gli altri
sono positivi (ciò perchè...).
Il lnZ e’ immediato; l’equazione per i minimi si scrive:
r = JD − T W = ..., U = ..
0 = α r − 3wα + 4uα2
92
A
( e quindi l’energia libera per sito e’ |Λ|
= 21 rα2 − wα3 + uα4 )
ATT! L’unico termine che contiene parametri fisici e’ r.
La transizione che emerge da queste equazioni e’ una transizione di prima
specie. Le soluzioniq
di minimo sono:
α0 = 0 e α± =
1
2
±
1−
16 ur
9 w2
Bisogna controllare anche la derivata seconda per vedere quando sono minimi o massimi.
Accade che simultanaemente possono essere minimi sia α0 = 0 che a+ 6= 0.
Quello dei due corrispondente al minimo assoluto è lo stato macro stabile,
l’altro rappresenta un stato instabile
E’ anche facile determinare quando entrambi i minimi sono stabili: per
2
w
A
A
rc = w
2u infatti αc = 2u e |Λ| (0) = |Λ| (αc )
rc determina una temperatura critica a cui sono copresenti lo stato disordiw
nato (α = 0) e uno stato ordinato nettamente diverso (α = 2u
).
La transizione e’ di prima specie in quanto la discontinuita’ attraversando questa temperatura e’ nel parametro d’ordine cioe’ nella derivata prima
dell’energia libera.
——————————————–
Ho sviluppato tutti i conti in termini dei parametri della misura per obbligarvi ad un esercizio sulle misure fattorizzate, ma e’ fisicamente
piu’ efficace
ripetere il discorso in termini del parametro d’ordine P2 esprimemdo α in
sua funzione anziche’ il viceversa. Questo e’ quello che fanno, mi pare con
grande chiarezza, Chaikin-Lubensky cap 4.
in termini del parametro d‘ordine s = P2 α posso scrivere
w
u
1
A = − rs2 − s3 + s4 + · · ·
2
3
4
Il parametro ottimale soddisfa l‘equazione
0=
∂A
= (r − ws + us2 )s
∂s
(8.5)
che ammette
sempre la soluzione s = 0 ma anche le due altre
√
w± w 2 −4ru
s± =
che, se reali, indicano l‘esistenza di fasi diverse dalla fase
2u
s = 0.
2
Per s = 0 l‘energia libera vale A = 0 e la derivata seconda ∂∂sA2 = in s = 0
vale r.
Quindi per r > 0 lo stato s è un minimo: un buon stato macro.
93
energia libera
f(x,1.5)
0
f(x,1.12)
f(x,0.5)
f(x,-1.5)
0.4
A(s)
0.2
0
-0.2
-0.4
-0.6
-1
-0.5
0
0.5
parametro d‘ordine
1
1.5
2
Figura 8.1: azzurro r negativo, viola r piccolo, blu r = rc , rosso r grande
Per r < 0 la soluzione nulla è un massimo e quindi il sistema è necessariamente descritta da s+ .
Notare che in tal caso s± sono reali, una positiva e l‘ altra negativa
Puo‘ uno dei due stati s± essere, per r > 0, un minimo confrontabile o piu‘
piccolo di s = 0 ?
Rispondiamo positivamente se troviamo che la soluzione dell‘equazione [8.5
] è tale per cui A(s± ) ≤ A(0) = 0.
Cominciamo con il confrontabile.
In tal caso dobbiamo risolvere il sistema
1
w
u
0 =A = − r − s + s2
2
3
4
∂A
= (r − ws + us2 )
0=
∂s
(8.6)
(energie libere eguali e entrambi minimi)
Il sistema ha come soluzioni
s = sc =
2w
3u
r = rc =
w2
3u
Quindi per r = rc due diversi stati, s = 0 e sc > 0, possono coesistere !
Se ci muoviamo nell‘intorno di rc il minimo in sc si alza o si abbassa un pò
e quindi uno solo dei due minimi sarà il minimo assoluto e rappresentarà la
fase stabile.
Siamo in presenza di una transizione di fase di prima specie perchè attraversando il punto rc il parametro d‘ordine ha una discontinuita‘ passando da
94
un valore nullo ad un valore finito sc > 0 .
Il calore latente della trasformazione si calcola immediatamente
Q = Tc ∆S
se fissiamo la dipendenza dei parametri da T
L‘entropia infatti sappiamo che si calcola come S = − ∂A
∂T
Abbiamo detto r = a(T − T ∗ ) quindi S = − 12 as2
ovvero nulla per s = 0 mentre per sc vale S = − 12 a(2w/3u)2
Il calore latente nel passaggio da s = sc → s = 0 vale
1
Q = Tc a(2w/3u)2
2
Il limite della metastabilità si ha studiando il segno della suscettività
.................................................................
Anche questo sistema si puo’ sottoporre
P ad un campo esterno e la parte
aggiuntiva di hamiltoniano risulta h2 I P2 (cos φI ). Si puo’ scrivere la funzione di partizione, etc ; si possono calcolare i vari momenti come derivate
parziali rispetto a questo campo esterno. In particolare si puo’ ripetere il calcolo sviluppato nel caso di Ising per le funzioni di correlazione. E’ un buon esercizio.
L’approssimazione di campo medio e’ significativa per questo modello in
quanto i cristalli liquidi sono pensati in uno spazio di tre dimensioni. Ma
di nuovo segnalo la criticita’ delle dimensioni ambiente.
Come caso estremo provate ad applicare il metodo di campo medio al modello XY.
I calcoli sono a questo punto estremamente rapidi, ma i risultati sono ingannevoli al pari di quelli per Ising in una dimensione.
8.5
una transizione di secondo ordine
Il modello di Ising
95
Capitolo 9
Esistenza del limite
termodinamico
Concludo queste pagine con l’ introduzione del cap 4 del Gallavotti
Ho accennato al fatto che la Mecc. Stat. porta a un risultato inaccettabile per sistemi come il corpo nero e in generale i campi classici
liberi. Similmente è interessante notare come la Mecc. Stat .imponga,
(per l’esistenza del limite termodinamico)
condizioni sui potenziali di interazione.
Queste condizioni sono correzioni alle interazioni classiche, che al pari della
’correzione’ del paradosso di Gibbs, della discretizzazione del campo classico scalare, dell’ energia nel corpo nero, vanno nella direzione delle teorie
quantistiche.
Sia Φ(q) il potenziale di interazione fra due particelle poste a distanza q
Condizioni necessarie per l’esistenza del limite termodinamico f = limN →∞
sono:
X
1−
Φ(qi − q j ) ≥ −BN
1
N F (β, V
i<j
2−
Φ(|q|) ∼ |q|−3−ǫ
|q| ≥ r0
La prima condizione e’ condizione di energia media, per grado di liberta’,
inferiormente limitata. La seconda e’ una condizione sull’andamento per
grandi distanze dell’interazione.
Essenzialmente con queste richieste sul potenziale si esclude che l’energia sia
l’unica grandezza rilevante del sistema.
Infatti se l’interazione e’:
96
)
“troppo attrattiva”a corte distanze → catastrofe ultravioletta
“ troppo repulsiva/attrattiva” a grandi distanze → catastrofe infrarossa
Esaminiamo brevemente
9.1
interazione “troppo attrattiva” a corte distanze
Potenziale interazione attrattivo illimitato a corte distanze
Confrontiamo la probabilita’ di una configurazione omogenea, tipica della
termodinamica d’ equilibrio, con una configurazione colassata in cui tutte le
particelle sono concentrate in una goccia (e intorno il vuoto).
Configurazione di collasso C: tutte P
le particelle sono localizzate in una sfera di raggio δ.
Energia : i<j Φ(q i − q j ) ,
ogni addendo da’ un contributo piu’ negativo di Φ(δ) = −b,
P
1
i<j Φ(q i − q j ) ≤ − 2 bN (N − 1)
Probabilità della configurazione di collasso:
Z
1
1
dp dq e−β[k(p)+Φ(q)]
PC =
N ! Zk ZΦ C
Z
1 1
dqe−βΦ(q)
=
N ! ZΦ C
1 1 4π N 3N β 1 bN (N −1)
=
δ e 2
N ! ZΦ 3
Probabilità configurazione “regolare”
R
le coordinate spazzolano tutto il volume disponibile, dqi ∼ V ,
ogni particella e’ in un potenziale efficace u prodotto da una distribuzione
uniforme con densita’ ρ : V = ρN
N N 1 N −βuN
1 V N −βuN
e
=
e
ZΦ N !
N! ρ
Il confronto fra le due probabilita’ prota a :
Preg ∼
ln
Preg
N
4π 3
δ ]
= β(uN − bN 2 ) −N ln[ −
{z
}
|
PC
ρ
3
{z
}
|
energia
entropia
97
⇓
Preg
PC
→ 0: catastrofe ultravioletta
le configurazioni regolari non contano
Se non c’è un “ hard core” φ(r) = ∞ , r < r0
fa tutto l’energia
l’entropia non conta niente.
Viceversa se impongo Φ ≥ −BN (hard core)
allora si confrontano solo stati che sicuramente riempiono tutto il volume
a disposizione (≡ con entropie comparabili a quella dello stato regolare )
perche’ l’ energia non e’ la grandezza dominante
a meno che il potenziale sia
• “troppo attrattivo” a grandi distanze
Ovvero: il costo energetico di riempimento del volume eccede il guadagno entropico.
di nuovo, è l’energia che fa tutto.
un sistema troppo attrattivo
non occupa tutto il volume
a disposizione ma resta confinato
⇒ termodinamica stelle ≡ stati impaccati +
fluttuazioni intorno ad uno stato impaccato.
• “troppo repulsivo” a grandi distanze
di nuovo, è l’energia che fa tutto.
dominano stati tipo bolla, layer,
tutto evapora verso l’infinito
⇒ termodinamica di cariche libere in conduttore
•
9.2
‘ troppo attrattiva” a grandi distanze
Se c’e’ hard core si puo’ raggiungere, ma non superare, una densita’ massima, detta densita’ di close package ρcp < ∞.
98
In presenza di una interazione attrattiva a grandi distanze
Long range attraction −g|q|−3+ǫ , ǫ > 0 (D = 3)
si devonono confrontare stati tipo impaccato, con stati “regolari” che riempiono tutto il volume a disposizione.
La probabilita’ di una configurazione impaccata che occupa un volume circa
eguale, λ volte, quello minimale ρ−1
cp N · λ e’ stimabile in:
1 (ρcp N · λ)N g 1 N ρcp (λ)−1
PC ≥
e 2
Z
N!
1
Z
l
HC
|g|−3+ǫ dq
ǫ
l’integrale e’ ∼ lǫ = Vcp3
La probabilita’ di una configurazione impaccata che occupa un volume circa
eguale, λ volte, quello minimale ρ−1
cp N · λ e’ stimabile in:
1 (ρcp N · λ)N g 1 N ρcp (λ)−1
PC ≥
e 2
Z
N!
1
Z
l
HC
|g|−3+ǫ dq
ǫ
l’integrale e’ ∼ lǫ = Vcp3
la probabilita’ di una configurazione“regolare”, con le solitite considerazioni
di potenziale medio sentito da una particella, e distribuzione omegenea, e’
stimato in :
1 1 N g 1 N ρ R L |q|−3+ǫ d3 q
HC
Preg ∼
V e 2
Z N!
l’integrale e’ ∼ Lǫ = V
1ǫ
big(f racN ρ 3
1
ǫ
3
=
il rapporto fra le probabilita’
ln(
Preg
PC
e’ allora :
h
i
h
1
ǫ
ρcp 1− 1 ǫ i
Preg
) ≤ N ln(ρ − (λ − 1)ρcp ) + N 1+ 3 ρ1− 3 ǫ − (
) 3
PC
|
{z
}
{z λ
}
|
entropico
energetico
99
nell’entropia ho considerato il fattore N1 ! e V = ρN e il fatto che per λ = 1
lo stato e’ unico
il contributo energetico e’ quello dominante ....
e poiche’ ρ << ρcp di nuovo lo stato “regolare” e’ sfavorito, il sistema non
occupa tutto il volume a disposizione, sta confinato.....
l’entropia e’ di gran lunga maggiore nello stato regolare ma non compensa
il costo energetico....
9.3
‘ troppo repulsiva” a grandi distanze
si devonono confrontare stati tipo bolla, a supporto sulla superficie del dominio a disposizione, con i soliti stati “regolari” che riempiono tutto il dominio.
Di nuovo l’entropia dello stato regolare e’ superiore all’entropia dello stato
a layer ( volume contro superficie) ma a causa della interazione repulsiva
il costo energetico di riempimento e’ dominante sulle altre grandezze. La
probabilita’ di una configurazione regolare e’
Preg ∼
1 1 N −g 1 N ρV 13
V e 2
Z N!
con il termine energetico che a differenza del caso precedente e’ negativo,
quindi abbassa (esponenzialmente) la probabilita’.
La probabilita’ di una configurazione a layer
1
1 −g 1 N ρl el
(∂V )N
e 2
Z
N!
dove con (∂V ) indico la superficie della regione considerata e con ρl el l’enN
mentre el e’
ergia media della particella interagente con lo strato : ρl = ∂V
il solito integrale ma vincolato alla superficie e valutabile in ...
Il confronto fra le due probabilita’ porta al risultato annunciato: catastrofe
infrarossa anche in questo caso.
Pl ≥
cariche libere in un metallo
100
9.4
Teoremi di esistenza
.................
.................
.................
.................
Gallavotti - cap 4
Piu’ semplice : Huang - cap 9- par 9.4 (ed it)
potenziale di interazione : hard core a + breve range ro
numero coordinazione : ( rao )
Yang-Lee th.
ZN (β; V ) =
1
N!
Z
[dx1 . . . dxN ]e−β
P
i,j Φ(xi −xj )
V
Ξ(β, V, z) =
∞
X
z N ZN (β; V )
N =0
1 Per ∀z esiste il limite
F (z) = limV →∞ V1 Ξ(β, V, z)
e definisce una funzione continua, non decrescente di z
2 Sia S una regine nel piano complesso contenente un segmento dell’asse
reale privo di radici dell’equazione Ξ(β, V, z) = 0
allora per ∀z FV (z) = V1 Ξ(β, V, z) converge uniformemente ad una funzione
analitica di z in S
101
9.5
argomenti non trattati
Cosa manca ?
• (A) metodi perturbativi
Wick
⇓
Sviluppi per definire funzioni di partizione con
H = H0 + λH1 (x)
• (B) termodinamica di campi classici
troppo poco , troppo in fretta
• (C)almeno un esempio di transizione di fase
102
Capitolo 10
appendix
10.1
the second derivative
Eigenvalues and eigenvectors of the second derivative
From Wikipedia, the free encyclopedia
d2
• x ∈ [0, L] (dx)
+ BC The index j represents the jth
2 fλ (x) = λfλ (x)
eigenvalue or eigenvector and runs from 1 to ∞ . Assuming the equation
is defined on the domain x ∈ [0, L], the following are the eigenvalues and
normalized eigenvectors. The eigenvalues are ordered in descending order.
Pure Dirichlet boundary conditions
j 2 π2
λj = − 2
L
r
vj (x) =
jπx
2
sin(
)
L
L
Pure Neumann boundary conditions
(j − 1)2 π 2
λj = −
L2
vj (x) =
Periodic boundary conditions
(
λj =
(
1
−
L
q2
2 2
− jLπ2
2 π2
− (j+1)
L2
2
L
j=1
cos( (j−1)πx
)
L
otherwise
j is even.
j is odd.
(Note that eigenvalues are repeated except for 0 eigenvalue.)
2 π2
??
?? j is odd λj = − (j−1)
L2
103
vj (x) =
 1

L− 2

q



if j = 1.
sin( jπx
L )
(j+1)πx
2
)
L cos(
L
2
qL
if j is even.
otherwise if j is odd.
Mixed Dirichlet-Neumann boundary conditions ....
• The discrete case
Notation: The index j represents the jth eigenvalue or eigenvector. The index i represents the ith component of an eigenvector. Both i and j go from
1 to n, where the matrix is size n x n. Eigenvectors are normalized. The
eigenvalues are ordered in descending order.
vk+1 − 2vk + vk−1
= λvk , k = 1, ..., n, v0 = vn+1 = 0
h2
Pure Dirichlet boundary conditions
r
πj
ijπ
2
4
2
) vi,j =
sin(
)
λj = − 2 sin (
h
2(n + 1)
n+1
n+1
Pure Neumann boundary conditions
4
π(j − 1)
λj = − 2 sin2 (
)
h
2n
vi,j
( −1
n 2
= q
2
n
Periodic boundary conditions
(
− h42 sin2 ( π(j−1))
2n )
λj =
πj
− h42 sin2 ( 2n
)
j=1
π(j−1)(i− 12 )
cos(
)
n
otherwise
if j is odd.
if j is even.
(Note that eigenvalues are repeated except for 0 and the largest one if n is
even.)
 1
−2

if j = 1.

n 1


−
i
n 2 (−1)
if j = n and n is even.
q
vi,j =
π(i−0.5)j
2
sin(
)
otherwise if j is even.

n

qn



π(i−0.5)(j−1)
 2 cos(
) otherwise if j is odd.
n
n
Mixed Dirichlet-Neumann boundary conditions ............
104
Scarica

Meccanica Statistica Classica