Fisica matematica
Gianfausto Dell’Antonio
Settore di Fisica matematica, SISSA, Trieste
1. Considerazioni preliminari
La fisica matematica può essere definita come quella disciplina scientifica che si propone di descrivere
in termini matematici rigorosi i fenomeni fisici.
La ricerca in fisica matematica si articola in tre fasi, che possono avere di volta in volta peso diverso ma
la cui presenza caratterizza la fisica matematica e la distingue da altre branche della fisica e della matematica.
La prima fase consiste nella costruzione di un modello la cui funzione è di cogliere nel fenomeno fisico
in esame alcuni aspetti che si considerano importanti. Un modello è una struttura data in termini matematici il
cui scopo è di fare corrispondere enti del linguaggio matematico alle varie componenti di un fenomeno fisico e
alle loro relazioni. Ad esempio, un modello del sistema Terra-Luna può essere costituito da due punti
(geometrici) nello spazio tridimensionale, ai quali vengono associati due parametri (le masse dei relativi corpi
celesti) e delle forze con cui si attraggono. Il modello non è una rappresentazione fedele della realtà (nel caso in
esame poiché vengono trascurate le dimensioni dei corpi celesti e la loro composizione) ma ne rappresenta una
prima approssimazione.
Successivamente possono essere considerati modelli più raffinati (ad esempio considerando Terra e Luna
solidi geometrici con densità variabile). Nella costruzione di modelli si parte in generale da strutture semplici,
modificandole successivamente cercando di trovare un equilibrio tra la difficoltà nell'affrontare i problemi
matematici che il modello pone e l'accuratezza con cui il modello rappresenta il sistema fisico in esame. Per
definizione, nessun modello coglie tutti gli aspetti della realtà, e il fisico matematico deve avere la capacità di
cogliere le componenti significative nel fenomeno di cui vuole dare un modello.
La seconda fase della ricerca in fisica matematica consiste nel risolvere il modello che si è costruito.
Poiché il modello (e non la realtà) viene scritto in caratteri matematici, utilizzando strutture che possono essere
anche molto diverse tra loro, la soluzione del modello può di volta in volta significare cose abbastanza diverse.
Nei modelli meccanici (il Sistema solare, ma anche la meccanica dei fluidi o la deformazione dei corpi elastici o
il comportamento di corpi dotati di carica elettrica in un campo elettromagnetico) il modello comprende due
componenti principali: i possibili stati del sistema e l'equazione di evoluzione. In questo caso, la soluzione del
modello consiste nel dimostrare che, in corrispondenza a ciascun dato iniziale, esiste una e una sola soluzione
dell'equazione di evoluzione, ed eventualmente nel descrivere almeneno in modo qualitativo le sue proprietà. In
1
altri modelli come quelli che sono adottati in meccanica statistica o nella descrizione dell'equilibrio dei corpi
elastici, la soluzione del modello consiste nell'individuazione di una configurazione (non necessariamente
unica) che minimizza una quantità opportuna (energia, entropia, energia di superfice) che empiricamente viene
considerata rilevante.
In questa seconda fase, il fisico matematico deve utilizzare strumenti matematici di varia natura, che
appartengo a diversi campi della matematica (analisi, algebra, geometria, analisi numerica, calcolo delle
probabilità, ...), deve in molte occasioni modificare o raffinare strumenti disponibili nella letteratura scientifica
e talvolta costruire strumenti nuovi adatti allo studio dello specifico problema che sta analizzando (per strumenti
si intendono lemmi e teoremi, ma anche procedimenti deduttivi). Per questo il fisico matematico deve aver una
cultura matematica che copre vari campi, per poter sfruttare al meglio analogie e affinità di procedimenti.
Questa seconda fase si conclude con l'enunciazione e la dimostrazione di risulati certi (teoremi).
Va peraltro notato che nell'attività di un fisico matematico le previsioni certe (teoremi) vengono in
generale precedute da una fase preliminare in cui gioca un ruolo determinante l'intuizione, l'analisi di modelli
elementari, le analogie e i calcoli preliminari. In tempi recenti i calcolatori elettronici hanno svolto in questa
fase una funzione importante. Solamente in un secondo momento, alla luce delle considerazioni qualitative
fatte, vengono enunciati e dimostrati teoremi.
La fase finale della ricerca in fisica matematica consiste nell'utilizzare i risultati matematici ottenuti per
dedurre stime e previsioni sul comportamento del sistema fisico in esame.
È superfluo sottolineare che le ricerche in fisica matematica (come quelle in tutte le discipline teoriche)
riguardano le proprietà di un modello, e solo le ricerche in una disciplina sperimentale provvedono una
conoscenza diretta dei fenomeni fisici.
Resta tuttavia anche per le discipline sperimentali la mediazione di un'aspettazione a priori sulla
rilevanza della struttura e relazione reciproca delle diverse parti del sistema in esame, che porta a privilegiare
alcuni esperimenti rispetto ad altri e a favorire una particolare interpretazione dei risultati ottenuti. Questa
visione a priori può cambiare in modo radicale, come è avvenuto con la meccanica quantistica, per la difficoltà
a inquadrare in modo organico nuovi importanti dati sperimentali nella visione precedente.
Questo può portare a un'accettazione di nuovi modelli che meglio si adeguano alla nuova percezione
della realtà fisica. In questo senso, la misura dell'adeguatezza dei modelli che vengono utilizzati in fisica
matematica viene giudicata in funzione del loro adeguarsi alla descrizione di quelle caratteristiche che vengono
considerate importanti all'interno di una particolare visione del mondo fisico.
Prima di concludere questa breve descrizione del carattere delle ricerche in fisica matematica va
sottolineato che il confine tra la fisica matematica e altre discipline scientifiche, quali ad esempio la fisica
teorica e la matematica applicata, è spesso mal definibile e in una certa misura arbitrario (e dipende anche
dall'ambiente culturale in cui si sviluppa l'attività di ricerca). Inoltre bisogna ricordare che una catalogazione
formale risulta in ogni caso restrittiva e superficiale per quei ricercatori che hanno dato contributi essenziali alle
discipline fisico-matematiche.
2. Breve storia della fisica matematica
2
Iniziamo con una descrizione delle ricerche in fisica matematica attrerso le figure più rappresentative. Va
sottolineato che il progresso della ricerca scientifica in ogni disciplina è in larga misura frutto di molteplici
apporti, e quelli a cui faremo riferimento sono solamente i momenti più significativi.
Archimede (287?-212 B.C.) può essere considerato il primo fisico matematico della cui produzione
scientifica si abbiano tracce rilevanti. Nei suoi trattati sulla quadratura della parabola e sulla misura della
lunghezza di un circonferenza, per dedurre risultati certi (in entrambi i casi nella forma di disuguaglianze)
Archimede utilizza il metodo logico-deduttivo già introdotto da Euclide ed Eudosso per cui del risultato cercato
(ad esempio il rapporto tra le lunghezze del raggio e della circonferenza) vengono date stime per eccesso e per
difetto arbitrariamente accurate. Archimede applica questo rigore matematico alla soluzione di alcuni dei
maggiori problemi posti dalla fisica del suo tempo, dalla meccanica (teoria della leva) all'idrostatica (con un
chiaro uso del concetto di pressione) alla relazione tra volume e area della superficie in un corpo solido. Ma a
queste deduzioni rigorose Archimede arriva, come appare evidente del suo trattato sul Metodo (che si trova in
appendice all'Opera Omnia, ed è stato rovato più tardi del Corpus; è pubblicato nel libro di Thomas L. Heath,
Collected works pubblicato dalla Cambridge Academic Press nel 1912), dopo aver seguito una via più euristica
e non rigorosa attraverso l'utilizzazione di infinitesimi (parametri che possono assumere valori arbitrariamente
piccoli). Questo procedimento permette ad Archimede di intuire il risultato, che poi viene dimostrato
rigorosamente mediante un procedimento totalmente diverso.
Nel Rinascimento una parte di assoluto rilievo in fisica matematica va attribuita a Galileo Galilei (15641642). L'opera di Galileo è in molti modi fortemente innovativa e originale, e ha lasciato un'impronta sulla
ricerca scientifica nei secoli successivi. La sua affermazione che il compito della scienza è descrivere le leggi
che governano i fenomeni fisici e non di darne una spiegazione (in questo seguendo affermazioni simili da parte
della scuola alessandrina) fu ripresa da Isaac Newton e da allora è stata alla base delle ricerche in fisica
matematica.
Galileo fu un convinto sostenitore della necessità di fondare una teoria su dati sperimentali, ma anche del
fatto che siano necessari solo un numero limitato di dati e che da essi sia possibile costruire un modello
completo mediante deduzioni matematiche. Questo perché "il gran libro della natura è scritto in caratteri
matematici", e pochi esperimenti cruciali, unitamente alla capacità di saperli interpretare correttamente, sono
sufficienti per impadronirsi del linguaggio.
Galileo mise anche in luce la rilevanza degli esperimenti concettuali e l'importanza di considerare
esperimenti limite (un esempio è lo studio del moto su di un piano inclinato provvedendo a eliminare sempre di
più le scabrosità e facendo tendere a zero l'inclinazione, in modo che la velocità raggiunta non sia molto elevata
e quindi misurabile con precisione). Partendo da pochi dati sperimentali, da semplici considerazioni e
dall'esame accurato di casi particolari Galileo giunge, con procedimento matematico rigoroso, a dedurre le leggi
del moto uniformemente accelerato. Con un procedimento di limite scopre anche la legge di isocronia del
pendolo, determinando così una misura quantitativa e accurata del tempo. Da pochi dati sperimentali, analizzati
in modo profondo, giunge a enunciare il principio di relatività dei moti e a dare una prima definizione di sistema
inerziale. Anche le ricerche di Galileo sul moto dei corpi pesanti e sul moto dei fluidi costituiscono un chiaro
esempio di procedimento fisico-matematico. I suoi libri, in particolare Discorsi e dimostrazioni matematiche
attorno a due nuove scienze attinenti alla meccanica e ai movimenti locali, sono esemplari per la chiarezza
3
dell'esposizione e la forza delle argomentazioni, e hanno influenzato tutta la ricerca successiva in fisica
matematica I secoli XVI e XVII vedono il fiorire della meccanica, anche sotto la spinta del rinnovato interesse
per la struttura del Sistema solare. Isaac Newton (1642-1727) dette il maggior contributo al successo di questa
disciplina. I suoi tre libri di Philosophiæ Naturalis Principia Mathematica rappresentano il punto più alto
raggiunto nel Seicento dalla ricerca scientifica sulla natura, e possono essere tuttora considerati un modello
insuperato di esposizione. Nel primo libro gli esperimenti sui quali si basa la teoria sono esposti chiaramente,
viene indicata la struttura del modello, compresa l'approssimazione consistente nel considerare i corpi celesti
come punti materiali (punti geometrici dotati di massa).
Questo modello viene eleborato attraverso le definizioni matematiche di forza e materia e l'introduzione
assiomatica di uno spazio e tempo assoluti. Il modello viene così posto in forma adeguata alla sua analisi in
termini matematici. Per compiere quest'analisi Newton fa uso di un formalismo matematico da lui elaborato per
trattare problemi in cui il moto di un punto materiale venga determinato dando la sua posizione e velocità
iniziali e la distribuzione della forze a cui è soggetto.
Questo metodo, chiamato da Newton metodo delle flussioni e dei fluenti è una forma embrionale del
calcolo differenziale: grosso modo le flussioni possono essere viste dal punto di vista attuale come le derivate,
che regolano la velocità di variazione delle posizioni (i fluenti). Con questa versione primitiva del calcolo
differenziale Newton giunse a determinare in modo completo il moto di due punti materiali che si attraggono
con forza proporzionale al prodotto delle loro masse e inversamente proporzionale al quadrato della loro
distanze, nell'ipotesi che la forza sia in ciascun istante diretta secondo la retta congiungente i due punti. Questa
legge di gravitazione universale faceva parte del modello, ed era stata suggerita da risultati sperimentali e da
considerazioni teoriche fatte tra gli altri da Robert Hooke. Newton ne dette un deduzione rigorosa a partire dalla
terza legge di Keplero. Il clamoroso successo predittivo della teoria di Newton ne decretarono la quasi unanime
e immediata accettazione come modello della meccanica celeste, e servirono, tra l'altro, a stabilire che le stesse
leggi di moto governano i corpi celesti e i corpi che si trovano sulla Terra.
Per quasi due secoli le ricerche in meccanica si concentreranno sulla soluzione di problemi più
complessi, quali il moto di N corpi, e con strumenti matematici più raffinati, ma sempre seguendo la linea di
ricerca tracciata da Newton. Nel secondo libro viene discusso il moto dei corpi nei fluidi; il modello non viene
qui precisato così rigorosamente, tuttavia molte delle deduzioni sono rigorose; anche il contenuto di questo
secondo libro ha posto le basi della ricerca nei due secoli successivi. Il terzo libro (De sistema mundi) è meno
sistematico, e tuttavia presenta caratteristiche fisico-matematiche simili a quelle dei due primi libri.
Va anche ricordato, per collocare l'opera di Newton nell'ambito della fisica matematica che Newton fu
tra i primi a sviluppare e utilizzare il metodo delle perturbazioni e il metodo di approssimazioni successive che
prende il suo nome ed è ancora uno dei metodi più utilizzati in analisi numerica. Notevole è anche il contributo
dato da Newton all'ottica. Nel suo primo trattato, Lectiones Opticae, Newton procede da un'analisi sperimentale,
isola proprietà fisiche rilevanti della luce dagli esperimenti compiuti e ne trae spunto per costruire gli assiomi di
un modello matematico. Verifica poi la consistenza e ne deduce previsioni per altri esperimenti di ottica.
Newton ritiene che la luce sia composta da particelle, le cui proprietà sono caratterizzate dal colore
(Newton fu tra i primi ad analizzare sperimentalmente la decomposizione della luce mediante un prisma
4
rifrangente). Questa teoria fu successivamente soppiantata dalla teoria della propagazione luminosa di Heinrich
Rudolf Hertz, che descrive la luce come un fenomeno ondulatorio (sebbene di natura diversa dalla propagazione
delle onde in un liquido); solamente tre secoli più tardi la teoria della luce di Newton ha avuto una nuova
interpretazione con la teoria dei quanti di luce di Albert Einstein.
Il successo della dinamica di Newton ebbe l'effetto di orientare verso la dinamica del punto materiale e
dei corpi rigidi la maggior parte delle ricerche in fisica matematica nei due secoli successivi. A questo contribuì
anche il fatto che l'utilizzazione delle coordinate cartesiane rendevano il calcolo differenziale un strumento
efficace per la determinazione del moto.
Queste ricerche volte ad applicare il calcolo differenziale allo studio del moto dei corpi celesti ebbero in
Eulero (Leonhard Euler, 1707-1783) un esponente di spicco; egli fu il primo a eleborare in modo sistematico la
teoria delle perturbazioni e ad applicarla con sucesso allo studio del moto della Luna. Si tratta di studiare un
problema a tre corpi (il Sole, la Terra e la Luna) che vengono considerati punti materiali, di cui uno (il Sole) ha
massa molto più grande degli altri due e il secondo (la Terra) ha massa più grande del terzo (la Luna).
Utilizzando il calcolo differenziale Eulero determinò alcune soluzioni esatte del problema dei tre corpi,
corrispondenti a opportune scelte della posizione e velocità iniziali, e con il metodo delle perturbazioni
determinò in modo approssimato le traiettorie che seguono i tre corpi quando i dati inziali vengono di poco
variati. Con lo stesso metodo studiò le modificazioni alle traiettorie newtoniane nel problema del moto di due
corpi se si tien conto in modo approssimato della struttura dei due corpi anziché considerarli puntiformi.
I contributi scientifici di Eulero coprono una vastissima area della fisica matematica (e della matematica
in generale). Alcuni di questi, relativi al calcolo delle variazioni, furono cruciali per il successivo sviluppo della
meccanica. Con i lavori di Eulero cominciano ad assumere un ruolo rilevante le equazioni alle derivate parziali
che nel secolo successivo giocheranno un ruolo di primo piano. Esse furono fatte intervenire da Eulero (e prima
di lui da Jean-le-Rond D'Alembert) nel problema delle piccole oscillazioni di una corda elastica fissata agli
estremi. L'equazione che descrive in termini matematici il problema venne a essere conosciuta con il nome di
equazione delle onde ed è tuttora il prototipo delle equazioni che descrivono fenomeni oscillatori (dalla corda
vibrante al campo eletromagnetico). Eulero introdusse equazioni alle derivate parziali anche nello studio della
dinamica dei fluidi. Con un procedimento innovativo (ma simile agli infinitesimi di Archimede) Eulero stabilì
equazioni differenziali che descrivono la variazione nel tempo (o l'equilibrio) del fluido in una regione
assegnata dello spazio considerando le forze che agiscono su una porzione infintesima di fluido a opera della
porzione di fluido immediatamente adicente e di eventuali agenti esterni. Notiamo che queste leggi non
vengono fatte discendere direttamente dalle equazioni della meccanica dei punti materiali, bensì da loro
conseguenze, le leggi di conservazione della materia, della quantità di moto e dell'energia. Il moto stesso viene
descritto non come moto delle singole particelle di fluido, ma come variazione nel tempo di quantità associate a
ciascun punto della regione occupata dal fluido (lo stesso procedimento era stato adottato da Eulero per
descrivere il moto della trottola). Eulero introduce la densità, la velocità e la pressione come variabili
significative; il ruolo della pressione viene descritto avendo come base la trattazione che lo stesso Eulero aveva
fatto dell'idrostatica, seguendo la traccia segnata da Archimede. Le equazioni della dinamica dei fluidi scritte da
Eulero sono tuttora alla base delle ricerche in questo campo.
5
Eulero dette anche un importante contributo all'ottica. A differenza di Newton, Eulero riteneva che la
luce fosse dovuta a oscillazioni dell'etere, e che la direzione dei raggi luminosi coincidesse con la direzione di
oscillazione. Nella sua opera in tre volumi Dioptrica considerò l'aberrazione cromatica e sferica (raggi originati
da punti a diverse distanze dall'asse ottico oppure corrispondenti a diversi colori si focalizzano in punti diversi)
utilizzando equazioni differenziali e teoremi di trigonometria (un metodo precursore della g eometri
differenziale). Un problema che richiedeva particolare attenzione era quello della rifrazione da parte
dell'atmosfera, e quindi della variazione; il problema venne affrontato da Eulero considerando la propagazione
in un mezzo di densità costante a tratti, un'approssimazione reminiscente del procedimento di esaustione di
Archimede.
Un esempio eminente di fisico matematico può essere considerato Joseph Louis Lagrange (1736-1813).
Anche Lagrange ha dato contributi essenziali a diversi campi della matematica (ad esempio alla teoria delle
funzioni), ma questo è un tratto comune ai grandi matematici dei secoli scorsi. La collocazione più o meno
stretta dei ricercatori in matematica in settori specifici (algebra, geometria, analisi, fisica matematica,…) è cosa
recente (più o meno della prima metà del Novecento), dovuta almeno in parte alla crescente complessità delle
ricerche che ha portato a elaborazioni di linguaggi specifici per ciascun settore.
Nella sua opera più significativa (Mécanique Analytique) Lagrange, partendo dal modello newtoniano
che descrive le leggi del moto dei punti materiali soggetti a forze, ha elaborato un modello generale basato
solamente sulle grandezze fisiche energia cinetica e lavoro delle forze. Nel caso particolare in cui le forze siano
derivate da un potenziale, le leggi del moto vengono associate a un principio variazionale secondo il quale le
traiettorie seguite dai punti materiali sono quelle, tra le traiettorie a priori possibili, che rendono minimo il
valore di un opportuno funzionale che dipende solo dal valore, in ogni punto della traiettoria, della differenza
tra l'energia cinetica e l'energia potenziale.
Da questo principio variazionale, unito a un altro principio introdotto da Lagrange, il principio dei lavori
virtuali (un'estensione alla dinamica di un principio che Lagrange stesso aveva posto a fondamento della
statica), le equazioni che descrivono il moto dei punti materiali vengono dedotte in modo semplice ed elegante.
Questa presentazione fatta da Lagrange delle leggi del moto è quella adottata fino ai giorni nostri, e ha una
validità così generale da essere alla base di uno dei modelli per la formulazione della leggi della meccanica
quantistica.
Uno tra i più grandi fisici matematici della seconda metà del Settecento è Pierre Simon Laplace (17491827). Nel suo libro, Traité de Mécanique Celeste, pone in forma sistematica i risultati allora noti in meccanica
celeste, raffina la teoria delle perturbazioni, sia secolari che periodiche, elabora una teoria delle maree, studia le
forme di equilibrio dei corpi rigidi pesanti, discute in dettaglio il moto di un pendolo semplice e utilizza questi
risultati per deteminare la forma della Terra. Studia inoltre il moto di un proiettile, tenendo conto del fatto che la
Terra non è un riferimento inerziale e introducendo pertanto quella che in seguito è rimasta nota come forza di
Coriolis.
Queste ricerche, di interesse scientifico ma anche militare, furono stimolate dall'interesse del governo
francese per la ricerca scientifica e per le sua applicazioni, culminate nella fondazione delle grandi scuole
(Ecole Polytecnique, Ecole des Mines, Ecole des Ponts et Chaussées, e più tardi Ecole Normale). Alla luce di
6
questo tentativo di collegare più strettamente la ricerca in matematica pura con le applicazione va anche visto il
trattato di Lagrange Exposition du Système du Monde, di carattere essenzialmente espositivo. In esso Lagrange
formula l'ipotesi cosmogonica, secondo cui il Sistema solare origina da un ammasso ruotante che si contrae per
la forza di gravitazione incrementando quindi la sua velocità angolare. Quando questa raggiunge un valore
sufficientemente elevato, si staccano via via anelli di materia ciascuno dei quali poi si concentra a formare un
pianeta.
Laplace contribuì anche n otevolmente al n ascente interesse p er la teoria d el calore, la cui
formalizzazione era stata iniziata da Lazare Carnot nel suo studio dei cicli delle macchine che utilizzano
sorgenti termiche (e che andavano assumendo sempre maggior rilievo dal punto di vista tecnologico). A
differenza di Lagrange, Laplace ritenne che le sole equazioni della meccanica non fossero sufficienti a
descrivere fenomeni in cui veniva prodotto calore, e nei quali quindi il principio di conservazione dell'energia
meccanica veniva violato. In questo contesto Laplace contribuì in misura molto significativa allo studio dei
calori specifici dei gas, sottolineando la differenza tra il calore specifico a volume costante e quello a pressione
costante.
Laplace fu un sostenitore convinto della teoria molecolare e cercò di determinare le forze che una
molecola esercita sull'altra; tra i risultati di questi studi fu tra l'altro un'accurata teoria dei capillari. Laplace
cercò anche di applicare questa teoria molecolare alla luce, assumendo che le particelle di luce potessero
oscillare e ruotare in vari modi; in particolare la polarizzazione della luce veniva spiegata assumendo che le
particelle di luce si comportassero come aghi magnetici (da cui il termine polarizzazione che è sopravissuto a
questa descrizione fatta la Laplace).
Tra i fisici matematici di questo periodo un ruolo particolare va attibuito a Jean-Baptiste Fourier (17681830). A lui si deve la prima formalizzazione di un problema che era al di fuori della meccanica, la diffusione
del calore. Seguendo il metodo stabilito da Eulero secondo il quale si deve cercare un'equazione di bilancio
energetico tra una componente infinitesima e il mezzo circostante, e applicando la legge affermata da Newton
secondo cui la perdita di calore è proporzionale alla differenza di temperatura, Fourier dedusse che la
propagazione del calore è descritta da un'equazione alle derivate parziali del primo ordine nel tempo (equazione
di evoluzione) e del secondo ordine nelle coordinate spaziali, con coefficienti che sono proporzionali
rispettivamente al calore specifico e alla conducibiltà termica. Fourier descrisse anche una soluzione (formale)
della sua equazione di evoluzione in termini di una serie numerica. Questa soluzione fu criticata da Lagrange
perché non era ottenuta specificando i dati inziali, e inoltre non veniva discussa la convergenza della serie. E fu
anche criticata da Laplace, perché non veniva specificato il ruolo delle forze molecolari. In generale la
formulazione di Fourier della diffusione del calore fu osteggiata in un primo momento perché al di fuori della
meccanica. Successivamente Fourier dette una derivazione diversa, basata questa volta sulla teoria molecolare.
Il coefficiente di diffusione veniva adesso calcolato in termini delle forze intermolecolari. Questo portò Laplace
ad apprezzare di più il ruolo del calore nella formalizzazione della fisica, e sia Fourier che Laplace analizzarono
il raffredamento della Terra risolvendo (con tecniche diverse) l'equazione di Fourier per una sfera di grande
raggio, e usarono la soluzione ottenuta per stimare l'età della Terra. Nella seconda metà dell'Ottocento
l'equazione di Fourier ha costituito una delle equazioni di maggior interesse per le ricerche in fisica matematica
e nel secolo successivo si è imposta per il suo interesse interdisciplinare.
7
3. Linee di ricerca emergenti tra Settecento e Ottocento
Tre altre linee di ricerca sviluppatesi nella prima metà del secolo XIX meritano di essere sottolineate;
esse furono proseguite nella seconda metà del secolo, ebbero notevolissimi sviluppi e sono attualmente
importanti campi di ricerca in fisica matematica.
3.1 La propagazione della luce
Secondo Augustin Fresnel (1788-1827) la luce è dovuta a vibrazioni di piccole particelle che
costituiscono l'etere, e oscillano intorno a posizioni di equlibrio generando fronti d'onda. In questo Augustin
Jean Fresnel segue la strada indicata da Laplace. Queste vibrazioni sono perpendicolari alla direzione di
propagazione (Fresnel ha mutuato questa condizione di trasversalità dagli studi di André Marie Ampère
sull'elettromagnetismo). La propagazione segue le leggi che aveva suggerito mezzo secolo prima Christiaan
Huygens, cioè che il moto di una particella di etere genera un fronte d'onda che agisce a sua volta come
sorgente di oscillazioni e quindi di fronti d'onda secondari. Il temine "raggi luminosi" è solamente un modo di
dire, suggerito dal comportamento del fronte d'onda a grande distanza. La teoria di Fresnel ha molti pregi
rispetto a quella di Laplace, in particolare rende conto delle frange d'interferenza. Essa tuttavia non fu ben
recepita nell'ambiente accademico, in parte perché non veniva espressa nel linguaggio, allora dominante, delle
equazioni differenziali, bensì si basava su considerazioni geometriche e su analogie meccaniche. La teoria di
Fresnel fu ripresa mezzo secolo più tardi e portata a pieno successo da Augustin Louis Cauchy, che pose su basi
matematiche la teoria della dispersione della luce.
3.2 Le prime ricerche in elettromagnetismo
Il magnetismo naturale era conosciuto già dai Greci, ed erano conosciute anche le proprietà di corpi,
come l'ambra, che strofinati attraevano oggetti leggeri. Fino dal Seicento era conosciuta l'esistenza di cariche
elettriche di segno opposto; queste erano attribuite da alcuni all'esistenza di due fluidi, da altri all'esistenza di un
solo fluido, di cui alcuni corpi avevano un'eccedenza e altri una carenza. Charles Augustin Coulomb (17361806) favoriva l'ipotesi di una coppia di fluidi, e su quest'ipotesi Siméon Denis Poisson (1781-1840) aveva
eleborato una teoria matematicamente molto soddisfacente.
L'azione a distanza tra due corpi carichi era stata dimostrata da Benjamin Franklin (1706-1790). Le
osservazioni sperimentali di Henry Cavendish (1731-1810) erano consistenti con una legge di variazione
inversamente proporzionale al quadrato della distanza, e la stessa legge valeva per magneti. Il moto delle
cariche elettriche attraverso i materiali conduttori avveniva con velocità troppo grande per un'analisi accurata;
l'accidentale scoperta di Luigi Galvani (1737-1798) del principio di accumulazione di cariche elettriche, e
sopratutto gli studi di Alessandro Volta (1745-1827) sulle pile permisero di costruire e utilizzare sorgenti di
elettricità e quindi di studiare quantitativamente le relazioni tra correnti elettriche e magnetismo.
Si pensava che queste forze tra elementi carichi potessero agire avendo come intermediario l'etere, un
mezzo dalla struttura incerta che veniva supposto permeare l'intero spazio. Gli aderenti alla teoria corpuscolare
8
di Laplace, sopratutto Fresnel, consideravano l'etere composto da minuscole particelle a forma di piccoli
magneti; Fresnel fu tra i primi a ritenere che la luce e i fenomeni elettromagnetici avessero un'origine comune.
La nascita dell'elettromagnetismo può essere fatta risalire all'osservazione fatta verso il 1820 da Hans
Christian Ørsted (1771-1851) che un filo percorso da corrente elettrica faceva oscillare un ago magnetico.
Ørsted stesso chiamò questo fenomeno elettromagnetismo. Poco dopo Ampère (1775-1836), che era allora
professore di matematica all'Ecole Politechnique, riuscì a dimostrare sperimentalmente che due fili percorsi da
corrente elettrica esercitavano una forza uno sull'altro. Ampère chiamò quest'esperimento di elettrodinamica. In
seguito Ampère, dimostrò che un simile effetto si aveva tra due spirali percorse da corrente elettrica, facendo
anche un'analisi quantitativa della forza risultante.
Per spiegare matematicamente quest'azione di un filo sull'altro, Ampère postulò che ciascun elemento
infinitesimo di filo agisse su ciascun altro con una forza che segue le leggi di Coulomb. Il procedimento
matematico seguito da Ampère non è rigoroso, ma quello che va rilevato è l'utilizzazione di una relazione tra
l'integrale della forza lungo una linea chiusa e l'integrale del campo magnetico su una superficie che ha la linea
chiusa come bordo.
Una simile identificazione dell'integrale del potenziale magnetico su una regione connessa avente come
bordo un superficie chiusa con l'integrale sulla superficie di un'opportuna funzione del potenziale (che va adesso
sotto il nome di teorema della divergenza) era stata scoperta poco prima da Poisson, con considerezioni
matematicamente molto più precise, ma la sua importanza era sfuggita a Poisson. Attraverso una serie di
riduzioni, Ampère fu in grado di dimostrare, utilizzando la formula di Poisson, che la legge da lui postulata per
interazione tra elementi infinitesimi di due circuiti elettrici era in realtà una conseguenza delle leggi che
reggono l'interazione tra due particelle cariche.
3.3 La teoria dei corpi elastici
La terza linea di ricerca che inizia in maniera sistematica nella prima metà del secolo XIX e si affermerà
nella seconda metà del secolo, anche per il numero sempre crescente di applicazioni, è la teoria dei corpi
elastici. I primi studi matematici riguardarono le vibrazioni di una membrana elastica fissata al bordo, e si
riferivano soprattutto all'acustica. Verso gli anni venti del secolo XIX, Claude Navier (1788-1827), professore
all'Ecole des Ponts et Chaussées, al quale era stato dato dal governo l'incarico di studiare la possibilità di
costruire ponti sospesi di notevoli dimensioni, iniziò una serie di ricerche su fili, superfici e materiali elastici.
Queste ricerche furono riprese poco dopo da Augustin Louis Cauchy (1789-1857), tra i più grandi matematici
dell'epoca. A lui risalgono le equazioni fondamentali della meccanica dei sistemi continui, e in particolare
quelle della teoria matematica dell'elasticità. Cauchy studiò in particolare la distribuzione degli sforzi in ogni
intorno dei punti del sistema. Nel caso di fili o superfici elastiche, Cauchy (a differenza di Navier) non fecce
l'ipotesi che le forze che mantenevano il corpo in equilibrio fossero in ogni punto perpendicolari alla superficie
(o al filo). Egli mantenne il modello che era stato proposto da un ingegnere scozzese (William John Macquorn
Rankine, 1820-1872) secondo cui vi è una relazione lineare costante tra sforzo e deformazione ma sostenne che
le due direzioni non dovessero essere necessariamente le stesse, né isotropa la torsione risultante. Utilizzando
9
queste ipotesi, Cauchy propose una vasta gamma di modelli di materiali elastici, con i quali riuscì a rendere
conto della maggior parte dei dati sperimentali disponibili.
Dato l'interesse per le applicazioni, anche Laplace e la sua scuola affrontarono il problema dell'elasticità,
sempre nell'ambito della teoria molecolare, ma con minor successo. L'elasticità fu uno dei primi esempi
dell'utilizzazione, nello stabilire una nuova teoria, di modelli semplici costruiti postulando relazioni lineari tra
quantità fisiche di interesse (relazioni costitutive). Questi modelli, di facile applicazione pratica, hanno una
funzione descrittiva anziché esplicativa e soppiantarono rapidamente modelli molto più complicati che si
proponevano di dedurre tali relazioni sulla base di una teoria già affermata (per esempio la teoria molecolare),
ma la cui validità era confermata in un contesto differente.
In questa fase iniziale degli studi di corpi elastici risultarono più utili analogie e riduzioni a equazioni
note in altri campi, come quella stabilita da Gustav Robert Kirchhoff tra le condizioni di equilibrio di una sbarra
elastica e le equazioni di Eulero per le rotazioni di un corpo rigido intorno a un punto fisso.
4. La ricerca in fisica matematica nella seconda metà dell'Ottocento
Tra i campi di ricerca in fisica matematica nella seconda metà dell'Ottocento un ruolo dominante hanno
avuto la meccanica analitica e ancora di più l'elettromagnetismo e la termodinamica, quest'ultima sopratutto nei
suoi aspetti di meccanica statistica.
4.1 meccanica analitica
La meccanica analitica ha trovato nella seconda metà dell'Ottocento la sua sistemazione definitiva a
opera di sir William Hamilton (1805-1865). Gli studi di ottica geometrica avevano portato Hamilton a
concludere che le equazioni dell'ottica geometrica e i principi variazionali a esse associati potessero venire
espressi in forma più semplice utilizzando opportune coordinate cartesiane (l'angolo che il raggio luminoso
forma con l'asse ottico, il rapporto tra la velocità della luce e l'indice di rifrazione del mezzo attraversato).
Basandosi sull'analogia del principio di Fermat in ottica geometrica con il principio variazionale di Maupertius
in dinamica lagrangiana, Hamilton applicò queste considerazioni alla meccanica, arrivando a individuare nuove
coordinate cartesiane nelle quali le equazioni lagrangiane del moto assumevano una forma particolarmente
semplice.
Hamilton chiamò spazio della fasi lo spazio cartesiano parametrizzato da queste nuove coordinate. Le
equazioni risultanti (equazioni di Hamilton) sono tuttora alla base delle ricerche in fisica matematica ed ebbero
un ruolo essenziale nell'elaborazione della dinamica quantistica.
Come le equazioni di Lagrange, anche le equazioni di Hamilton possono essere dedotte da un principio
variazionale. Quest'ultimo non è un principio di minimo bensì di stazionarietà, e questo lo rende meno adatto a
determinare esistenza e unicità delle soluzioni. Esso dà luogo tuttavia ad una proprietà molto interessante delle
equazioni di Hamilton, l'essere invarianti per trasformazioni canoniche, che sono opportuni cambiamenti di
coordinate nello spazio della fasi non riconducibili in generale a cambiamenti delle sole coordinate di posizione.
Quest'invarianza delle equazioni di Hamilton per trasformazioni canoniche gioca un ruolo molto importante
nella dinamica hamiltoniana.
10
Le equazioni dinamiche di Hamilton hanno anche una formulazione algebrica: ogni funzione F
abbastanza regolare induce un flusso di tutte le altre funzioni mediante la prescrizione che la derivata rispetto al
tempo di una funzione G sia data dalla parentesi di Poisson tra F e G (la parentesi di Poisson è un'applicazione
che a ogni coppia di funzioni F e G assegna in modo bilineare una terza funzione {F, G} che dipende da F e G e
dalle loro derivate prime nello spazio della fasi). Questa struttura algebrica giocherà un ruolo importante nelle
formulazione della meccanica quantistica.
Lo stesso Hamilton notò il perfetto isomorfismo tra questa struttura algebrica, invariante per
trasformazioni canoniche, e una struttura algebrico-differenziale, sviluppata da Sophus Lie in relazione ai sui
studi sulla teoria dei gruppi. La risultante struttura geometrica, la geometria simplettica, un campo a cavallo tra
meccanica analisi e geometria, avrà nel XX secolo un ruolo fondamentale nello studio dei sistemi dinamici
hamiltoniani.
L'invarianza delle equazioni di Hamilton per trasformazioni canoniche rende possibile scegliere per ogni
problema meccanico coordinate adatte a semplificare la forma delle equazioni. Si riconobbe così che esistevano
problemi completamente integrabili, nel senso che, utilizzando particolari coordinate simplettiche, le
corrispondenti equazioni del moto potevano essere scritte come le equazioni di un oscillatore armonico (una
molla perfetta), e quindi essere risolubili in forma chiusa in termini di funzioni elementari. Nel corso delle
ricerche in fisica matematica nell'Ottocento ebbe notevole rilevanza lo studio delle condizioni affinché un
sistema hamiltoniano sia completamente integrabile.
Attraverso la teoria delle trasformazioni canoniche Hamilton stesso elaborò anche un metodo generale
per la soluzione delle equazioni hamiltoniane, metodo successivamente perfezionato da Karl Gustav Jacob
(metodo attualmente detto di Hamilton-Jacobi) basato sulla soluzione di un'equazione non lineare alle derivate
parziali. Questo metodo si è rivelato in seguito di grande generalità, e ha avuto recentemente un notevole
sviluppo, a cavallo tra fisica matematica e analisi. Verso il finire del secolo, le ricerche sul moto dei sistemi
hanno avuto una svolta molto importante con l'introduzione dei metodi qualitativi, sopratutto per opera di Jules
Henri Poincaré e di Aleksandr Mikailovich Lyapunov. Per sistemi dinamici anche semplici (ad esempio il
pendolo forzato) risulta impossibile descrivere con assoluta precisione le traiettorie corrispondenti a ogni
possibile dato iniziale. È tuttavia possibile descrivere alcuni aspetti qualitativi, ad esempio la presenza di
attrattori o la stabilità, che possono essere sufficienti per determinare le caratteristiche principali del moto. La
stabilità dei sistemi dinamici è un problema di notevole interesse pratico, ad esempio nella costruzione di
macchine, e di grande interesse concettuale in fisica matematica (ad esempio nello studio della meccanica
celeste). È anche un problema di notevole complessità e per il quale sono noti solamente alcuni risultati parziali.
La stabilità delle posizioni di equilibrio fu studiata in particolare da Lyapunov (1857-1918) al quale si devono
una formalizzazione matematica della definizione intuitiva di equilibrio, una classificazione delle varie forme di
equilibrio (stabile, asintotico, strutturale,…) e criteri per determinare la stabiltà o l'instabilità di una posizione di
equilibrio. In particolare l'utilizzazione di una funzione sulla spazio delle fasi che non cresce lungo le traiettorie
del moto (funzione di Lyapunov) ha giocato un ruolo importante non solo per sistemi meccanici, ma anche, con
le opportune modifiche, nello studio della stabilità dei sistemi continui. Tra le ricerche precedenti notevole è la
dimostrazione fatta da Lagrange e Johann Peter Gustav Lejeune Dirichlet che in un sistema meccanico
11
newtoniano, i massimi del potenziale sono punti di equilibrio stabile, mentre i minimi sono punti di equilibrio
instabile.
La figura dominante in questo periodo è Poincaré (1854-1912) che ha dato contributi eccezionali a molti
settori della matematica e può essere considerato, insieme a David Hilbert, il più grande matematico del periodo
a cavallo tra i due secoli. I suoi contributi alla fisica matematica, in particolare alla teoria dei sistemi dinamici,
comprendono il teorema del punto unito, ipotizzato da Poincaré nel 1912 e dimostrato da George David Birkoff
nel 1913, che afferma che ogni applicazione continua di un corona circolare in sé che preservi l'area ha almeno
due punti fissi, l'analisi del moto del pendolo forzato da una forza periodica nel tempo, e l'analisi dettagliata del
problema dei tre corpi. In queste analisi, molto innovative e che hanno provocato un notevole cambiamento di
prospettiva nelle ricerche sulla teoria dei sistemi dinamici, Poincaré introduce nuovi metodi di indagine, quali
l'esistenza di varietà stabili e instabili, i corrispondenti esponenti caratteristici, il flusso tangente, l'esistenza di
integrali primi analitici.
Fondamentale il suo lavoro Sur le problème a trois corps et les équations de la dynamique in cui
dimostra tra l'altro che non esistono altri integrali primi analitici oltre a quelli che sono dovuti (teorema di
Noether) all'invarianza del sistema per traslazione e rotazioni rigide, e quindi il sistema non è integrabile.
Poincaré dimostra per questo problema che le traiettorie hanno un comportamento erratico e mostrano una
dipendenza notevole dal dato iniziale, per cui traiettorie con dati iniziali vicini si allontano indefinitamente nei
tempi successivi. Queste ricerche di Poincaré sul problema dei tre corpi sono alla base di quasi tutte le ricerche
successive sulla complessità dei sistemi dinamici.
Fondamentale è anche l'analisi fatta da Poincaré del pendolo forzato (pendolo sottoposto a una forza che
dipende in modo periodico dal tempo); Poincaré dimostrò che, per quanto piccola sia la forza, il moto per dati
inziali nello spazio della fasi vicini al punto di equlibrio instabile del pendolo (pendolo fermo a testa in su) il
moto appare come una successione, apparentemente casuale, di moti di rotazione e di oscillazione (il moto del
pendolo non forzato consiste in oscillazioni per energie minori dell'energia della posizione di equilibrio
instabile, e rotazioni per energia maggiore). Inoltre Poincaré notò che la varietà stabile (che viene attratta dalla
posizione di equlibrio instabile) e la varietà instabile (che viene attratta per tempi negativi e crescenti in valore
assoluto) non coincidevano (come nel caso del pendolo) ma formavano un angolo tra loro non nullo e che in
linea di pricipio poteva essere calcolato. Poincaré scrisse le equazioni che determinano la varietà stabile e
instabile e l'angolo compreso, e si accorse che se se si cercava di costruire le soluzioni come sviluppo in serie
perturbativo nel piccolo parametro dato dall'intensità del termine forzante, si otteneva il risultato che a ciascun
ordine le varietà stabile e instabile coincidono, e l'angolo è quindi zero. Queste serie di potenza pertanto non
potevano convergere, e correttamente Poincaré attribuì questo risultato al fatto che per trovare la soluzione
bisogna invertire una matrice che per un insieme denso di dati iniziali ha uno spettro che si accumula a zero e
quindi non è invertibile. A questa difficoltà venne dato in seguito il nome di problema dei piccoli denominatori
e la sua analisi accurata ha dato origine al teorema KAM. Analizzando un problema un po' più complesso, un
sistema completamente integrabile in uno spazio delle fasi di dimensione quattro, perturbato da un piccolo
termine periodico nel tempo (nel quale in assenza di perturbazione le varietà stabile e instabile di una posizione
di equilibrio hanno dimensione due), Poincaré mise in luce (ma non analizzò completamente) un nuovo
fenomeno: la varietà stabile e instabile si intersecano adesso in una curva (prima era un punto) che costituisce
12
una traiettoria del sistema che è asintotica al punto instabile sia nel passato che nel futuro. Poincaré la chiamò
omoclina e dimostrò che esistevano in un intorno arbitariamente piccolo infinite altre omocline. E ipotizzò che
in questo intorno esistessero un numero infinito di orbite periodiche (qualche anno più tardi Birkhoff dimostrò
questa congettura). Questi risultati di Poincaré mettono in luce la complessità delle traiettorie dei sistemi
dinamici, anche nei casi più semplici, e sono stati alla base di tutta la teoria dei sistemi dinamici fino ai giorni
nostri.
Poincaré fu anche un chiarissimo espositore; i tre volumi del suo trattato Méthodes Nouvelles de la
Méchanique Céleste sono a tutt'oggi un modello insuperato di esposizione della meccanica, e una fonte
inesauribile di problemi di meccanica celeste.
4.2 Elettromagnetismo
L'elettromagnetismo ebbe un notevolissimo sviluppo nella seconda metà dell'Ottocento, in parte anche
come conseguenza dell'interesse industriale e del conseguente progresso tecnologico. Lo scienziato che ebbe un
ruolo deteminante nello studio dell'elettromagnetismo in questo periodo fu James Clerk Maxwell (1831-1879).
Per il suo ruolo sia in questo campo sia nello studio della teoria cinetica dei gas e della meccanica statistica,
Maxwell va considerato tra i più grandi fisici matematici dell'Ottocento. Le equazioni di Maxwell, che
descrivono l'interazione del campo elettromagnetico con i corpi materiali carichi, sono da centocinquanta anni a
fondamento dell'elettromagnetismo, e si estendono (con le opportune modifiche) al caso quantistico.
L'elettrodinamica così ottenuta descrive, a un livello impressionante di precisione, anche le interazioni del
campo elettromagnetico con le particelle del mondo subatomico. Inoltre, per la loro concisione ed eleganza
formale, le equazioni di Maxwell sono considerate tra le equazioni più notevoli della fisica. Maxwell fu, come
Galileo, un convinto assertore del fatto che il compito della scienza è quello di "descrivere" e non di "spiegare"
e che la ricerca scientifica procede per esperimenti e analogie. Al tempo di Maxwell i fenomeni elettromagnetici
erano descritti facendo appello a vari tipi di strutture, fluidi elettrici e magnetici, particelle leggere che
costituivano l'etere, luce prodotta da vibrazioni dell'etere. Un primo passo per un'unificazione fu fatto da
William Thompson, successivamente conosciuto come lord Kelvin (1824-1907), che poco più che quindicenne
notò che la propagazione del calore in un corpo solido omogeneo fatta da Fourier e la distribuzione di forze
elettrostatiche erano descritte dallo stesso formalismo matematico.
Nel suo primo lavoro, pubblicato nel 1842, mise le basi per un'interpretazione dei fenomeni elettrici e
magnetici in termini di flusso in un mezzo continuo. Seguendo quest'analogia Maxwell in un primo articolo del
1856 (Sulle linee di forza di Faraday) descrisse l'elettromagnetismo mediante le proprietà di un fluido
incompressibile. Nel secondo articolo del 1861 (Sulle proprietà fisiche delle linee di forza) le proprietà del
campo elettromagnetico vengono dedotte dalle proprietà meccaniche di un fluido in moto vorticoso. Solo nel
terzo articolo, del 1865 (Una teoria dinamica del campo elettromagnetico) le equazioni vengono presentate in
forma astratta, senza più riferimento ad analogie con la teoria dei fluidi.
Le equazioni di Maxwell nei mezzi materiali, che vengono adesso descritte come relazioni a priori tra
entità di un modello matematico associate a determinate quantità fisiche misurabili (forze dovute all'azione di
fili e correnti, magnetizzazione indotta da correnti elettriche,…) sono un esempio di come i simboli che
13
vengono utilizzati in uno stesso modello matematico possano essere fatti corrispondere, in diversi contesti
interpretativi, a quantità fisiche differenti. Quando, nella seconda metà dell'Ottocento, Maxwell formulò le
equazioni che portano il suo nome, questi fenomeni fisici venivano descritti in un contesto scientifico che
risentiva pesantemente della predominanza della meccanica come modello esplicativo. I simboli matematici che
intervengono nelle equazioni di Maxwell venivano quindi fatti corrispondere a quantità fisiche relative ad
aspetti idrodinamici dell'etere, un ipotetico mezzo materiale che pervade tutto lo spazio, ma di natura
sostanzialmente ignota.
Senza che fosse cambiata la loro struttura, a partire dai primi anni del Novecento le equazioni di
Maxwell furono interpretate come relazioni a priori tra le variazioni nel tempo e nello spazio di cariche e
correnti elettriche, da una parte, e, dall'altra, le variazioni del campo elettomagnetico. Che non viene più
interpretato come vibrazione dell'etere bensì come ammontare di energia e di quantità di moto localizzata nello
spazio. Si passa così da una teoria esplicativa a una teoria descrittiva.
Le equazioni di Maxwell non sono invarianti per trasfomazioni di Galileo (passaggio tra due riferimenti
inerziali definiti dalla dinamica newtoniana) e dovrebbero quindi essere soddisfatte in un solo riferimento
inerziale privilegato, ad esempio quello in cui l'etere è fermo. Ma l'evidenza sperimentale confermava le
previsioni di Maxwell anche nell'interazione del campo elettromagnetico con corpi materiali ad alta velocità
(come erano le turbine, macchine importantissime nella produzione di energia a livello industriale), rendendo
così possibile utilizzare il modello nelle circostanze pratiche di interesse industriale.
Questo stato di cose, mentre risultava molto soddisfcente dal punto di vista delle applicazioni, portava a
notevoli difficoltà concettuali sia in relazione alla teoria dell'etere sia in relazione alla meccania newtoniana;
queste difficoltà vennero risolte qualche anno più tardi, all'inizio del Novecento, con la formulazioni della
relatività speciale di Einstein e il definitivo accantonamento dell'etere. La meccanica newtoniana restò come
approssimazione valida in campo non relativistico, cioè nella descrizione dell'interazione tra particelle la cui
velocità relativa è di gran lunga più piccola della velocità della luce.
Le equazioni di Maxwell sono equazioni di evoluzione per onde elettromagnetiche che si propagano nel
vuoto con velocità finita e indipendente dalla velocità dalla sorgente; queste onde sono caratterizzate dalla loro
frequenza (oltre che dalla loro polarizzazione). In un certo intervallo di frequenza sono percepibili dall'occhio
umano, e corrispondentemente vengono descritte come luce, e la variazione di frequenza viene percepita come
variazione di colore. In ciascun riferimento inerziale l'onda generata da una sorgente puntiforme ha in ogni
istante supporto sferico (questo supporto si propaga alla velocità della luce). Come si vede facilmente, questo
fatto è incompatibile con un riferimento di tempo e spazio assoluti, e in particolare con una definizione di
simultaneità che sia indipendente dal sistema inerziale che viene utilizzato. Inoltre, le misurazioni di lunghezza
fatte con mezzi meccanici (metro) non danno lo stesso risultato in sistemi di riferimento diversi. Esperimenti
concettuali a riprova di questo sono stati descritti da Einstein e da Wolfgang Pauli. La teoria della relatività
speciale di Einstein può essere considerata una conseguenza della proprietà di invarianza della velocità della
luce in tutti i sistemi inerziali, e anche una conseguenza dell'invarianza delle equazioni di Maxwell nel vuoto
per un opportuno gruppo di trasformazioni lineari delle coordinate dello spazio e del tempo (trasformazioni di
Lorentz). A questo proposito, è interessante notare che queste trasformazioni furono descritte per primo da
Hendrik Antoon Lorentz, che però considerò un artefatto matematico la parte che riguarda il trasformarsi degli
14
intervalli di tempo quali vengono misurati dai singoli osservatori inerziali, nella convinzione che esitesse un
tempo assoluto, e quindi una simultaneità assoluta riferita all'etere. Mentre per quanto riguarda il cambiamento
delle distanze spaziali, misurate con mezzi meccanici (ad esempio con il metro), Lorentz ritenne che si trattasse
di un fenomeno fisico (contrazione delle lunghezze) che cercò di giustificare con il variare delle forze di legame
intermolecolare in un mezzo materiale che si muove rispetto all'etere.
La semplicità formale della teoria della relatività ristretta di Einstein (che è una teoria descrittiva)
rispetto alla teoria esplicativa di Lorentz può rendere ragione del fatto che la prima è universalmente conosciuta
e utilizzata, mentre la teoria di Lorentz è praticamente sconosciuta (nonostante il fatto che la prima evidenza
sperimentale sulla dilatazione dei tempi sia venuta solo negli anni sessanta con la misurazione del tempo di
decadimento dei mesoni µ).
I campi elettromagnetici nel vuoto soddisfano un'equazione delle onde, identica a quella trovata da
D'Alembert e da Eulero nella loro descrizione delle vibrazioni di un corda, ma queste onde elettromagnetiche
non rappresentano movimenti di materia, ma corrispondono a propagazione nel vuoto di energia e quantità di
moto (solamente con la meccanica quantistica, come vedremo, e con il conseguente superamento della dualità
onda-corpuscolo, alcuni aspetti delle onde elettromagnetiche sono interpretati come propagazione di particelle, i
fotoni).
Questa introduzione dei campi, oscillazioni senza un substrato materiale, fu una delle conquiste maggiori
dell'elettromagnetismo, e domina attualmente la scena nella descrizione degli aspetti relativistici della
meccanica quantistica. Dall'elettromagnetismo di Maxwell unitamente al calcolo differenzale astratto ha avuto
origine la treoria della relatività generale di Einstein e le successive teorie cosmologiche. Anche le più recenti
teorie delle particelle elementari e le varie equazioni con cui si cerca attuamente di descrivere in mondo
subatomico (equazioni di Yang-Mills, equazione delle stringhe,…) hanno la loro origine nella teoria dei campi
di Maxwell.
4.3 Teoria cinetica e meccanica statistica
Questo campo di ricerca ha avuto un ruolo dominante in fisica matematica nella seconda metà
dell'Ottocento, e si è espanso ulteriormente nel Novecento, fino a essere attualmente una dei principali indirizzi
di ricerca.
Pur avendo una comune origine e uno scopo comune, si sono andati sempre più differenziando due
filoni, teoria cinetica e meccanica statistica.
La comune origine è il tentativo di dimostrare che le regole della termodinamica (che riguarda sistemi
macroscopici, ed era stata formalizzata come teoria del calore nella prima metà dell'Ottocento da Carnot e
Thomson) si possono derivare studiando il comportamento collettivo di costituenti elementari, le molecole. In
questo modo si riporterebbe anche la teoria del calore e delle macchine termiche alla meccanica, e inoltre si
potrebbero calcolare i parametri che appaiono nelle leggi della termodinamica (ad esempio il calore specifico di
un gas).
Va precisato innanzitutto che sia la teoria cinetica che la meccanica statistica sono teorie statistiche, il
cui scopo è descrivere il comportamento medio, o quello più probabile, di un insieme composto da un numero
15
molto grande di componenti elementari (che chiameremo molecole), tra loro identiche, le quali nel moto
seguono le leggi della meccanica classica (o, nel caso della meccanica statistica quantistica, le leggi della
meccanica quantistica).
La teoria cinetica si propone di analizzare gli aspetti dinamici di questi insiemi, e in particolare le loro
configurazioni di equilibrio. Lo scopo principale della meccanica statistica è invece determinare quale sia la
distribuzione più probabile di velocità e posizione, e quali siano le più probabili deviazioni.
Appare evidente da queste considerazioni che la teoria cinetica considererà i valori medi locali delle
varie grandezze (densità, energia, quantitità di moto). In questo contesto locale significa che sono relativi a un
insieme di molecole che siano localizzate in una regione dello spazio molto piccola rispetto alle dimensioni
totali del sistema, così da essere assimilabile dal punto di vista macroscopico a un punto. Questo insieme di
molecole devono essere in numero molto piccolo rispetto al numero totale di molecole del sistema in esame, ma
sufficientemente grande così da poter applicare considerazioni statistiche.
Quindi la teoria cinetica tenderà a utilizzare gli stumenti tipici della meccanica del continuo, e quindi in
generale la teoria della equazioni di evoluzioni alle derivate parziali. La meccanica statistica, che ha lo scopo
principale di dedurre il comportamento termodinamico di un sistema dall'analisi di quali siano le sue
configurazioni più probabili da un punto di vista microscopico, e la probabilità che si presentino grandi
deviazioni rispetto a queste configurazioni più probabili, utilizzerà sopratutto strumenti del calcolo delle
probabilità, quali la legge dei grandi numeri, il teorema del limite centrale e la teoria delle grandi deviazioni.
4.3.1 Teoria cinetica
Le origini della teoria cinetica possono essere fatte risalire a Daniel Bernoulli (1700-1782) che nel suo
trattato Idrodinamica propone un modello di gas costituito da un gran numero di particelle microscopiche in
movimento rapido e confinate in un recipiente a pareti riflettenti. Assumendo che tutte le particelle abbiano la
stessa velocità, Bernoulli dimostra che, a temperatura costante, la pressione esercitata sulle pareti è
inversamente proporzionale al volume occupato, e a volume costante la temperatura è proporzionale al quadrato
delle velocità delle particelle.
La comunità scientifica non recepì queste idee; un secolo più tardi esse furono riprese da Rudolf
Clausius, (1822-1888) il quale, in due importanti pubblicazioni del 1857 e del 1858 le generalizzò,
considerando anche l'energia connessa alle rotazioni e alle vibrazioni delle molecole. Clausius introdusse anche
l'importante concetto di libero cammino medio come la distanza che in media una molecola percorre prima di
interagire con un'altra molecola di gas ed esserne deviata.
Il contributo più importante alla teoria cinetica nella seconda metà dell'ottocento è stato dato da Maxwell
e da Ludwig Boltzmann, che hanno non solo posto le basi della teoria, ma l'hanno portata anche ad avere la
formulazione che è utilizzata tuttora. La successive ricerche in fisica matematica hanno precisato, sviluppato e
posto in forma matematica più rigorosa il loro programma. Maxwell fu uno dei primi a utilizzare strumenti del
calcolo delle probabilità per concludere che, se le molecole sono molto numerose, sono all'istante iniziale
contenute in una scatole cubica e hanno densità uniforme e tutte la stessa velocità in valore assoluto, e se le
16
direzioni di impatto di una molecola sull'altra sono ugualmente probabili, dopo un gran numero di collisioni la
densità di molecole aventi velocità v è proporzionale a |v|2 exp –c|v|2 e dove c è un'opportuna costante (che
dipende dalla temperatura) e che questo risultato non dipende dai dettagli dell'interazione. Questa distribuzione
di velocità, che da allora è nota come maxwelliana, fu dedotta da Maxwell in modo in parte euristico, in parte
forse sotto l'influenza dall'opera contemporanea di Johann Carl Friedrich Gauss sulla teoria degli errori.
La distribuzione di Maxwell costituisce un primo esempio di deduzione a partire dalla meccanica
classica del comportamento medio (macroscopico) di un sistema composto da un grandissimo numero di
particelle. Nello stesso lavoro del 1860 Maxwell considera, sempre mediante metodi statistici, il problema del
trasporto nei gas: trasporto di massa se il numero di molecole varia da punto a punto, trasporto di energia per
collisioni successive (conduzione del calore) o ancora trasporto di quantità di moto (viscosità). Va notato ancora
una volta che per punto si intende una regione dello spazio in cui è contenuto un numero di molecole
abbastanza grande da giustificare descrizioni statistiche ma piccolissimo rispetto alle dimensioni macroscopiche
del sistema.
La nuova teoria permette, almeno in linea di principio, a partire da leggi che riguardano il moto di una
singola molecola, il calcolo dei coefficienti di trasporto, costanti numeriche che venivano introdotte
empiricamente nella descrizione di fenomeni macroscopici quali la conduzione del calore o il moto viscoso dei
fluidi.
Il più grande passo avanti nella teoria cinetica è dovuto pochi anni più tardi a Ludwig Boltzmann (18441906). Il suo primo lavoro importante esce nel 1868, seguito nel volgere di pochi anni da altri lavori
fondamentali. Queste pubblicazioni provvedono un'analisi molto approfondita della teoria cinetica e hanno
costitutito un momento di fondamentale importanza per la fisica matematica; a tutt'oggi gli studi relativi
all'equazione di Boltzmann sono un capitolo d'avanguardia nella teoria cinetica.
L'analisi fatta da Boltzmann parte dalla definizione di funzione di distribuzione f(x, p, t) che descrive al
tempo t la densità di particelle nel punto x aventi quantità di moto uguale a p. Lo scopo della ricerca è di
dedurre dalla conoscenza delle forze che agiscono su ciascuna particella a opera delle altre la legge secondo cui
varia la funzione di distribuzione. Per semplicità, consideriamo solo il caso in cui le particelle siano identiche.
L'ipotesi principale che viene fatta riguarda la distribuzione delle collisioni (Stosszahlansatz): che le collisioni
nel punto x siano completamente casuali. In altre parole, nel punto x il numero N(x, v, u) di molecole di velocità
v che interagiscono con quelle di velocità u è proporzionale al prodotto n(x, v) n(x, u) |u–v| dove n(x, u) è la
densità di molecole nel punto x che hanno velocità u (si noti che |v–u| è proporzionale al numero di molecole di
velocità rispettivamente u e v che possono collidere in un tempo unitario, nell'ipotesi che in questo tempo
avvenga una sola collisione). Sotto queste ipotesi, Boltzmann arriva a scrivere un'equazione di evoluzione per la
funzione di distribuzione che ha le seguenti importanti caratteristiche
1) di ammettere, come soluzione stazionaria, precisamente la distribuzione di Maxwell
2) di prevedere che, partendo da qualunque altra distribuzione, si raggiunga, asintoticamente nel tempo, la
distribuzione di Maxwell.
Per quanto riguarda la dimostrazione del secondo di questi punti, Boltzmann fa uso di una funzione
definita sullo spazio delle funzioni di distribuzione, a cui dà il nome di entropia (indicata con il simbolo H).
17
Essa nel corso dell'evoluzione temporale del sistema presenta caratteristiche che ricordano quelle della funzione
termodinamica entropia introdotta da Clausius. Boltzmann dimostra che, sotto le ipotesi fatte, il valore
numerico di questa funzione non può diminuire nel tempo, e cresce se la distribuzione da cui si parte non è la
distribuzione di Maxwell (teorema H di Boltzmann).
Quest'affermazione dà luogo a un apparente paradosso, poiché le leggi del moto microscopiche da cui è
dedotta sono reversibili (invarianti per cambiamento del segno del parametro tempo). Inoltre, si può dimostrare,
a partire dalle stesse leggi microscopiche, che nell'evoluzione di un sistema isolato il valore numerico della
funzione H non varia nel tempo.
La soluzione di questo paradosso, la cui discussione ha avuto anche in tempi recenti una certa rilevanza
nella letteratura scientifica e non scientifica (in relazione al concetto di tempo e all'asimmetria passato-futuro)
sta nel fatto che la distribuzione della velocità delle molecole che si trovano nel punto x non soddisfa quasi mai
le condizioni per la validità dello Stosszahlansatz, e in qualche punto e determinati istanti queste condizioni
vengono violate in modo considerevole, per cui le affermazioni che ne conseguono hanno solamente un valore
statistico. Partendo da configurazioni che soddisfano in quasi tutti i punti le ipotesi fatte da Boltzmann l'entropia
cresce, ma nel corso del tempo molti dei punti non soddisfano più quelle ipotesi (tenere presente che in realtà
ciascun punto rappresenta una regione dello spazio dalla quale particelle possono entrare o uscire) e quindi a un
tempo successivo nel punto in esame l'entropia può diminuire. Un'analisi molto accurata di questi apparenti
paradossi è stata fatta nella prima metà del Novecento da Paul e Tatiana Eherenfest. Con queste precisazioni, va
riconosciuto che l'equazione di Boltzmann e il conseguente teorema H hanno tuttora un ruolo fondamentale
nella trattazione in fisica matematica dell'evoluzione dei gas, sopratutto a bassa densità.
4.3.2 Meccanica statistica
La nascita della meccanica statistica, in termini che hanno mantenuto la loro sostanziale identità fino alla
ricerche più recenti, va fatta risalire a Josiah Willard Gibbs (1839-1903). Questo autore, in un libro di
straordinaria concisione ed eleganza pubblicato nel 1901, descrive un nuovo approcio al problema
dell'equilibrio termico di un gas. Prendendo spunto dai risultati di Maxwell e Boltzmann, Gibbs li presenta in
una forma assai diversa, generalizzandoli. Gibbs considera uno spazio delle fasi esteso, i cui punti (microstati)
hanno come coordinate cartesiane i valori numerici delle coordiate spaziali e delle quantità di moto di tutte le
molecole contenute nel sistema termodinamico considerato. Gibbs nota che, poiché questo numero N di gradi di
libertà (dimensione dello spazio esteso) è molto grande per i sistemi che si vogliono descrivere con la
meccanica statistica, conviene utilizzare il suo inverso, che è conseguentemente un numero molto piccolo e che
indichiamo con _. Il preciso valore numerico di _ deve essere irrilevante per la descrizione dell'insieme
considerato (raddoppiando le dimensioni lineari del sistema la descrizione non dovrebbe cambiare in modo
apprezzabile), e quindi sembra ragionevole considerare innanzitutto il caso _=0 (e quindi N = infinito) e trattare
successivamente il caso fisico mediante la teoria delle pertubazioni.
18
Naturalmente questo procedimento presenta delle difficoltà matematiche, per la necessità di utilizzare fin
dall'inizio uno spazio di dimensione infinita, e al tempo di Gibbs non erano ancora stati sviluppati gli strumenti
tecnici per affrontare il problema in modo perfettamente rigoroso; questo avvenne nella seconda metà del
novecento, a opera sopratutto di fisici matematici.
Questa intuizione di Gibbs si rivelò tuttavia la chiave che aprì le porte dell'interpretazione attuale della
meccanica statistica. Gibbs si pose innanzitutto il seguente problema: che caratteristiche deve avere una densità
di probabilità P(q, p) per risultare invariante rispetto al flusso nello spazio della fasi dato dalla soluzione di un
sistema hamiltoniano? La risposta è che è sufficiente che il suo valore numerico in ogni punto dipenda solo dal
valore dell'hamiltoniana in quel punto. Se non vi sono altre costanti del moto oltre all'energia, la condizione è
anche necessaria.
Gibbs considerò di interesse una particolare distribuzione invariante, quella data dalla formula P
(q, p) = exp (___E(q, p)) dove _ e _ sono costanti numeriche e abbiamo indicato collettivamente con q e p le
coordinate nello spazio delle fasi esteso (exp è la funzione esponenziale). Che questa distribuzione sia
interessante per la meccanica statistica viene per il momento assunto come postulato; Gibbs chiamò canonico
un insieme distribuito nello spazio della fasi con questa legge. Egli introdusse anche un'altra distribuzione di
interesse, che chiamò microcanonica. Grosso modo, è una distribuzione che assegna un peso in modo uniforme
ai punti nello spazio della fasi aventi una stessa fissata energia E. Anche questa distribuzione è invariante per il
flusso hamiltoniano. Gibbs introdusse anche una terza distribuzione, che qui non discuteremo, adatta a trattare
sistemi nei quali il numero di particelle di una stessa specie non rimane costante nel tempo, la distribuzione
macrocanica. Gibbs poi passò ad associare quantità termodinamiche (estensive, come il volume, o intensive,
come la pressione) a espressioni calcolabili a partire dalla distribuzione di equilibrio. A parte l'identificazione
dell'energia con la hamiltoniana del sistema le altre identificazioni vengono poste per analogie in modo che le
relazioni tra le quantità così definite riproducano le relazioni tra le grandezze termodinamiche. Vediamo anche
in quest'opera di Gibbs la tendenza a sostituire lo "spiegare" con il "descrivere". Le analogie vengono introdotte
mediante esperienze concettuali. Si suppone di variare di poco i parametri che intervengono nella hamiltoniana,
così da cambiare di poco la distribuzione di equilibrio, e si registrano gli effetti sui valori medi di funzioni sullo
spazio delle fasi. Si ottengono così delle variabili coniugate, una intensiva e l'altra estensiva (ad esempio il
volume è la variabile coniugata alla pressione). Si verifica in questo modo che la compatibilità con le leggi della
termodinamica indica che il parametro deve essere interpretato come l'inverso della temperatura, mentre il
parametro deve essere interpretato come entalpia e S = (__E(q, p) - _) come entropia (S coincide con il valor
medio sulla distribuzione considerata dell'espressione a cui Boltzmann aveva dato in nome di entropia).
Gibbs si pose successivamente il problema di quale fosse la distribuzione di energia in un sistema
canonico e dimostrò che per N abbastanza grande la distribuzione canonica è molto concentrata sui punti che
hanno energia eguale al valor medio, suggerendo così che quando il numero N viene fatto tendere all'infinito
l'insieme canonico e quello microcanonico vengono a coincidere. L'utilizzazione dell'insieme canonico è quindi
ridotto al ruolo di pura convenienza di calcolo, poiché i calcoli dei valori medi e la determinazione della
grandezze coniugate risulta di molto facilitata dalla particolare forma analitica della distribuzione canonica.
19
Gibbs analizzò anche la relazione tra la sua teoria degli insiemi e le leggi della termodinamica dei
sistemi non in equilibrio termico.
Il procedimento che Gibbs utilizza a questo scopo richiama un po' quello utilizzato da Boltzmann per
affrontare i paradossi connessi al teorema H e all'approcio all'equlibrio. Sostituendo ai punti dello spazio delle
fasi esteso delle regioni di dimensione molto piccola ma non nulla, e studiando il comportamento del sistema su
intervalli di tempi lunghi rispetto a quelli che caratterizzano lo scambio di energia all'interno di una regione.
Gibbs produsse argomenti di plausibilità che potevano rendere conto del fatto che mescolando due gas a
temperatura diversa, il sistema risultante tendesse nel corso del tempo a raggiungere una distribuzione di
equilibrio caratterizzata da una temperatura intermedia. Solo nella seconda metà del Novecento, utilizzando
strutture matematiche costruite in gran parte per risolvere questo problema, si sono fatti dei passi avanti nella
descrizione, a partire da leggi microscopiche, della meccanica statistica dei sistemi non in equlibrio termico, ma
il programma di Gibbs non può dirsi a tutt'oggi completato.
5. Meccanica quantistica
Prima di chiudere questo capitolo dedicato a un breve excursus storico sulle problematiche della fisica
matematica alla fine dell'Ottocento, essenziale per meglio capire le radici delle attuali linee di ricerca e utile in
una prima descrizione informale delle ricerche in fisica matematica, diamo i primi rudimenti di un filone di
ricerca, quello della meccanica quantistica, che avuto inizio nel primo quarto del Novecento e si è sviluppato da
allora notevolmente, anche per la sua contiguità con la fisica teorica.
Poiché qui interessa mettere sopratutto in luce gli aspetti fisico-matematici della meccanica quantistica,
ci soffermeremo solo brevemente sui problemi fenomenologici e sperimentali che hanno portato alla sua
nascita.
Notiamo solamente che questa è dovuta alle difficoltà incontrate, all'inizio del secolo, da parte della
fisica classica a rendere conto in modo coerente di risultati sperimentali riguardanti il mondo subatomico. Una
successione di dati importanti, dall'analisi dello spettro del corpo nero all'effetto fotoelettrico, alle figure di
diffrazione nella diffusione di elettroni, alla stabilità degli atomi e alla struttura discreta del loro spettro di
emissione di luce non sembravano essere compatibli con la meccanica e l'elettromagnetismo classici. In
particolare, gli elettroni, e tutte le particelle subatomiche, sembravano possedere talora caratteristiche di
particella, talora caratteristiche proprie delle onde, ma mai entrambe queste caratteristiche in uno stesso tipo di
esperimento. Inoltre l'effetto fotoelettrico sembrava indicare che la stessa dualità valesse anche per la luce.
Un tale stato di cose richiedeva un radicale ripensamento di concetti e categorie dati per scontati in fisica
classica, quali la definizione operativa di stato, di osservabile, di operazione di misurazione. Per costruire un
nuovo modello si poteva partire da uno dei due punti di vista (opposti per una teoria classica) di particella e di
onda e sviluppare un modello che li rendesse complementari, in modo tale che fosse l'operazione di misurazione
a mettere in luce talora l'uno e talora l'altro dei due aspetti di ogni sistema fisico.
Questa teoria fu costruita negli anni venti da una parte da Erwin Schrödinger (1887-1961) (seguendo
precedenti suggerimenti di Luis de Broglie) e dall'altra da Werner Heisenberg (1901-1976), Max Born e Pascual
Jordan. Che le due teorie così costrutite siano isomorfe (esiste una corrispondenza naturale tra i due modelli,
20
ottenuta mediante la dualità che connette osservabili e stati) fu dimostrato poco più tardi dallo stesso
Schrödinger. Negli anni immediatamente successivi una sintesi fu compiuta da Paul Dirac, Wolfgang Pauli e
soprattutto, dal punto di vista della fisica matematica, da John von Neumann.
Partendo dal punto di vista della teoria ondulatoria Schrödinger costruì un modello in cui ogni elettrone
(così come ogni altra particella elementare) è rappresentato da una funzione (che chiamò funzione d'onda per
motivi essenzialmente storici) definita nello spazio fisico, a valori complessi. L'evoluzione di questa funzione è
descritta da un'equazione alle derivate parziali (l'equazione di Schrödinger) che venne sostanzialmente
postulata, in base ad analogie con l'equazione delle onde. Per un sistema che fosse descritto classicamente
mediante una hamiltoniana H(x, p) l'equazione quantistica veniva costruita (principio di corrispondenza)
mediante la sostituzione di x con l'operazione di moltiplicazione per la coordinata x e di p con l'operatore di
differenziazione rispetto alla coordinata x, moltiplicato per l'unità immaginaria i (per renderlo hermitiano) e per
l'inverso della costante di Planck (per dagli le dimensioni di un inverso di una lunghezza; la costante di Planck
h ha le dimensioni di un'azione). Detto H(x, i d/dx) questo operatore, l'equazione di Schrödinger per una
generica funzione d'onda assume la forma i d/dt H. La soluzione (t) corrispondente a un dato inziale ha
l'espressione (t) = exp (-i t H) e definisce un gruppo a un parametro di trasformazioni unitarie.
Per assioma, il valore assoluto del quadrato delle funzione d'onda nel punto di coordinata x rappresenta
la (densità di) probabilità che effettuando una misura di posizione la particella venga trovata in x. Per quanto
riguarda la misura di quantità di moto, vale una regola analoga ottenuta sostituendo la funzione d'onda con la
sua trasformata di Fourier. In questo modello l'esistenza di un numero discreto di stati atomici di energia
negativa (stati legati) viene dedotta come conseguenza dell'esistenza di un numero discreto di autovalori
dell'operatore di Schrödinger.
Per quanto riguarda gli stati a energia positiva, il comportamento simile a quello di una particella è
conseguenza della forma che assume per tempi diversi da zero la funzione d'onda che abbia all'istante iniziale
supporto concentrato nell'intorno del punto X0 con dispersione __X e la cui trasformata di Fourier abbia
supporto concentrato in un punto P0 con dispersione _P. Se il prodotto _X _P è di ordine di grandezza h (non
può essere minore di h per una proprietà della trasformata di Fourier) la dispersione non cresce molto per tempi
finiti, e la coppia baricentro nello spazio delle x e baricentro nello spazio della p varia nel tempo secondo le
leggi della dinamica hamiltoniana con hamiltoniana H(x, p) avendo come dati iniziali X0 e P0. Pertanto funzioni
d'onda con queste caratteristiche si comportano come i punti nello spazio delle fasi. Si noti che la costante h ha
un valore estremamente piccolo quando viene espressa in unità naturali.
Come si può facilmente capire, questa rappresentazione di Schrödinger porta a sviluppare un formalismo
matematico basato sulla teoria delle equazioni alla derivate parziali e sulle teoria della funzioni, che aveva avuto
all'inizio del secolo un notevole sviluppo. Il modello di Schrödinger si presta all'analisi di casi concreti, anche di
notevole complicazione. Ogni volta che è stata applicata in ambito non relativistico ha dato previsioni che sono
state verificate sperimentalmente con risultati straordinari. D'altra parte esistono difficoltà nell'estendere il
modello al caso di particelle relativistiche, se non nel caso libero (equazione di Dirac) e con opportune
precisazioni nel caso di campi lentamente variabili nello spazio.
21
L'altro modello, equivalente al primo ma basato sull'analisi delle grandezze osservabili, fu proposto da
Heisenberg (sotto il nome di meccanica delle matrici) e sviluppato subito da Heisenberg stesso in
collaborazione con Born e Jordan. In questo modello, gli elementi principali sono le grandezze osservabili,
rappresentate da matrici (a questa associazione Heisenberg giunse considerando che i dati sperimentali
direttamente accessibili si riferiscono a transizioni tra due livelli atomici, e quindi sono rappresentabili da
matrici). Poiché in questo modello viene stipulato che gli autovalori della matrice corrispondente a
un'osservabile siano i possibili risultati di una misurazione fatta, le matrici associate alle osservabili devono
avere autovalori reali, cioè essere hermitiane. Poiché i livelli di un atomo sono in generale in numero infinito, le
matrici che intervengono nel modello sono in realtà matrici infinite ovvero operatori lineari su uno spazio
complesso di dimensione infinita.
La dinamica di questa algebra di matrici (le matrici formano un'algebra per moltiplicazione) viene
postulata seguendo in parte il principio di corrispondenza che richiede che, in opportuni limiti d'energia, la
dinamica sia isomorfa alla dinamica hamiltoniana classica (nella sua versione algebrica). Anche in questo
modello l'evoluzione così definita è unitaria.
Un modo alternativo, ma equivalente, di introdurre la dinamica venne seguito da Dirac e von Neumann;
esso sfrutta l'isomorfimo algebrico tra l'operazione bilineare parentesi di Poisson in dinamica hamiltoniana e
l'operazione bilineare consistente nell'associare a due operatori lineari su uno spazio lineare complesso il loro
commutatore moltiplicato per l'unità immaginaria, cioè associare ad A e B l'operatore i(AB-BA)). La
moltiplicazione per l'unità immaginaria è necessaria se si vuole che l'operatore associato alla coppia A, B sia
hermitiano se A e B lo sono.
In questo modo alternativo, un ruolo predominante è svolto dagli operatori che corrispondono
rispettivamente alle osservabili posizione e quantità di moto. I corrispondenti operatori soddisfano, in virtù di
questo isomorfismo, delle regole di commutazione canoniche, della stessa natura delle parentesi di Poisson per
le variabili posizione e momento nel formalismo hamiltoniano. Questo porta all'elegante dimostrazione
dell'equivalenza dei due modelli, di Schrödinger e di Heisenberg, data da von Neumann attraverso la
dimostrazione vi è un unico modo, a meno di isomorfismi, di soddisfare tali relazioni mediante operatori lineari
su uno spazio di Hilbert complesso. La sola differenza consiste nel fatto che il modello di Schrödinger utiliza
come coppia canonica l'operatore di moltiplicazione per le coordiante spaziali e l'operatore di differenziazione
rispetto a queste coordinate (moltiplicato per l'unità immaginaria) mentre il modello di Heisenberg lascia a prori
indeterminata la scelta della coppia canonica.
Da queste brevi considerazioni si può dedurre che il modello di Schrödinger (la rappresentazione di
Schrödinger), che utilizza uno spazio concreto di funzioni e operatori differenziali lineari, è più adatto a trattare
problemi specifici, anche molto complessi, avendo la possibilità di sfruttare appieno risultati della teoria delle
funzioni e proprietà della trasformata di Fourier.
Al contrario, il formalismo di Heisenberg è più adatto a studiare relazioni di natura generale, sfruttando
risultati generali della teoria delle algebre di operatori su spazi di Hilbert astratti. Inoltre, il formalismo di
Heisenberg in linea di massima sarà più adatto allo studio del caso infinito-dimensionale (sistemi quantistici di
infinite particelle) che appare quando si voglia fare una teoria quantistica del campo elettromagnetico (teoria
22
quantistica dei campi, un argomento di ricerca che ha avuto notevoli sviluppi nella seconda metà del
Novecento).
Nella rimanente parte di questo articolo vogliamo inquadrare, nel contesto delle problematiche che
venivano affrontate dalla fisica matematica ai primi del Novecento, alcuni sviluppi recenti, privilegiando quelli
che riguardano la meccanica classica e la meccanica statistica classica, la cui comprensione non richiede
strumenti matematici e sopratutto terminologie che possono essere non familiari. Gli argomenti che tratteremo
sono recenti sviluppi in dinamica hamitoniana e sistemi dinamici della meccanica statistica. La scelta fatta ha lo
scopo di indicare quale sviluppo abbiano avuto alcune delle ricerche in fisica matematica.
5.1 Recenti sviluppi in dinamica hamiltoniana
Un sistema hamiltoniano con n g radi di libertà e di hamiltoniana indipendente dal tempo è detto
completamente integrabile se ha n integrali primi (costanti del moto) I(k), k=1...n indipendenti e in involuzione
tra loro (cioè tali ciascuno di essi sia invariante per il flusso hamiltoniano generato dagli altri). Se la superficie
di dimensione n ottenuta fissando i valori numerici di tutti gli I(k) è compatta, essa è necessariamente un toro.
Si possono introdurre come coordinate n variabili angolari coniugate alle I(k) e la proiezione del moto su
ciascuno di questi angoli è un moto rotatorio uniforme; le frequenza di questi moti variano con continuità sulla
superficie, quindi il moto sarà genericamente multiperiodico.
Molti esempi di sistemi completamente integrabili erano noti già all'inizio del secolo, e molti altri sono
stati costruti recentemente con nuovi metodi.
Se si perturba anche di pochissimo un sistema completamente integrabile il sistema che si ottiene non è
più in generale completamente integrabile, anzi ha adesso in generale solo una costante del moto, l'energia, e
questo comunque piccola sia la perturbazione. Su ciascuna superficie di energia costante esiste un insieme, il
cui complemento ha misura piccola se la perturbazione è piccola, composto di tori di dimensioni n che
differiscono di poco da quelli che esistevano prima della perturbazione, e sui quali il moto è multiperiodico con
frequenze che differiscono poco da quelle precendenti e sono tra loro sufficientemente incommensurabili. La
rimanente porzione della suparficie è occupata da traiettorie che risultano molto più complicate, e hanno in
generale un carattere iperbolico (ogni loro intorno si contrae nel tempo in alcune direzioni, si espande in altre, in
modo tale che il volume totale sia conservato). In questa regione il moto appare dunque caotico. Quello che
risulta più interessante è che queste due regioni si compenetrano molto finemente, tanto che ciascuna di esse è
densa nell'altra (la chiusura di ciascuna di esse è l'intera superficie di energia costante).
Questo fenomeno, descritto dal teorema KAM (dai nomi d egli studiosi Andrei Nikolayevich
Kolmogorov, Vladimir I. Arnol'd e Jürg Moser che l'hanno dimostrato in modi diversi e sotto condizioni
lievemente diverse sul temine perturbante), è uno dei momenti salienti della ricerca relativa ai sistemi dinamici
nel secolo ventesimo. Non daremo qui una formulazione precisa di questo teorema (si può vedere ad esempio
V. I. Arnol'd, Metodo matematici della meccanica, Editori Riuniti). Questa caoticità del moto, che qui appare
nei sistemi che differiscono di poco da sistemi integrabili, era già nota a Poincaré, che l'aveva analizzata nel suo
studio di sistemi dinamici conservativi perturbati da una piccola forza periodica.
23
Poincaré introdusse nella sua analisi lo strumento delle varietà stabili e instabili e delle loro intersezioni
(che danno luogo a orbite omocline, orbite corrispondenti a soluzioni che sono asintotiche sia nel passato che
nel futuro a posizioni di equlibrio del sistema) e cercò di analizzare questo problema con metodi perturbativi.
Poincaré si accorse che le serie perturbative così ottenute non convergono e che l'angolo tra le varietà è più
piccolo di ogni potenza del parametro g che indvidua la grandezza della perturbazione.
Poincaré stesso dimostrò che la presenza di un'orbita omoclina implica l'esitenza di infinite altre
omocline distinte fra loro e intuì che questo era all'origine del fatto che la dinamica vicino alle omocline fosse
caotica. Le argomentazioni di Poincaré erano solamente formali, e una buona parte del progresso nella
comprensione dei sistemi dinamici nel Novecento è consistito nel provvedere dimostrazioni per sistemi generali
di queste intuizioni di Poincaré.
In questo progresso hanno avuto una parte esenziale prima George David Birkhoff e poi Stephen Smale.
Birkhoff nel 1936 studiò un sistema dinamico ottenuto iterando una trasformazione nel piano che preserva l'area
e ha un punto fisso iperbolico tale che le varietà instabile e stabile si intersecano formando un angolo non nullo.
Birkhoff dimostrò che questo sistema aveva un'infinità (numerabile) di orbite periodiche, che si accumulavano
sulle separatrici.
Birkhoff propose anche l'uso della dinamica simbolica (per cui ogni taiettoria viene rappresenata da una
serie numerica). La descrizione completa della dinamica in un intorno di un punto fisso omoclino venne data nel
1965 da Smale, con un modello detto del ferro di cavallo per la struttura geometrica degli insiemi considerati.
Stime quantative per l'angolo di separazione (che, ricordiamo, è più piccolo di ogni potenza di g) sono state date
da Alexey Melnikov nel 1963 seguendo un metodo proposto da Poincaré per il calcolo dell'angolo di
separazione tra la varietaà stabile e quella instabile. Altre stime sono state date da Nicolai Nekhoroshev nel
1977 e da Anatoly Neishtadt nel 1984 perfezionando il classico teorema della media nel tempo. Lo studio delle
proprietà delle delle orbite omocline e dell'angolo di separazione rimane a tutt'oggi lo strumento pricipale nella
definizione e nella descrizione di sistemi caotici.
I risultati di Birkhoff sono stati generalizzati da Arnol'd, che ha dimostrato che l'esistenza di infinite
orbite periodiche implica anche che esistano traiettorie che connettono punti della spazio delle fasi in cui le
variabili d'azione (che sono costanti del moto per g=0) differiscono per una quantità finita (diffusione di
Arnol'd).
Tornando al risultato principale, il teorema KAM, la sua dimostrazione, sebbene complessa e laboriosa
nei dettagli, si basa su di un'idea relativamente semplice, quella di cercare una trasformazione canonica di
coordinate nello spazio delle fasi in modo tale che nelle nuove variabili l'hamiltoniana H dipenda solo dalle
nuove variabili d'azione.
L'esistenza di tale trasformazione dimostrerebbe che anche il nuovo sistema è completamente
integrabile; quindi la trasformazione non può essere definita su tutto lo spazio della fasi. Ma essa può essere
definita tranne che in un insieme che ha misura proporzionale a g; le difficoltà che si incontrano nella sua
costruzione sono dovute al fatto che l'insieme sul quale esse non può essere costruita è denso nello spazio della
fasi; questo preclude ogni metodo basato sulla continuità. L'ostacolo all'esistenza della traformazione cercata
viene dal fatto che la funzione generatrice di tale trasformazione sarebbe una soluzione di una successione di
24
equazioni differenziali del prim'ordine; per trovare questa soluzione è necessario invertire un operatore lineare.
Lo spettro di quest'operatore ha lo zero come punto di accumulazione e questo permette l'inversione solo per
dati iniziali contenuti in un sottoinsieme dello spazio della fasi che ha complemento denso.
Questo procedimento di inversione, unito a un'accurata utilizzazione del metodo d'approssimazione di
Newton, permette di dedurre un risultato più debole, dovuto a Nekhoroshev, che afferma le traiettorie soluzioni
del sistema perturbato restano, per un insieme di dati inziali di misura piena, vicine a quelle del sistema
imperturbato per un tempo esponenzialmente lungo (rispetto all'inverso di g). Il teorema KAM rivela tra l'altro
la difficoltà che si incontra nel tentativo di dimostrare la stabilità di un sistema hamiltoniano generico.
In generale si può ottenere solamente una stabilità in misura, che assicura che la maggior parte delle
traiettorie è stabile per un sistema che differisca poco da un sistema completamente integrabile. È importante
sottolineare che il teorema KAM, nella sua dimostrazione attuale, è insoddisfacente dal punto di vista della
fisica matematica. Infatti, i valori del parametro g per i quali il teorema è stato dimostrato sono molti ordini di
grandezza più piccoli delle perturbazioni che si incontrano in sistemi fisici naturali, come può essere il sistema
Terra-Luna-satellite artificiale, in cui il piccolo parametro può essere il rapporto tra la massa del satellite
artificiale e la massa della Luna. Solamente con stime più accurate e mediante l'uso di calcolatori elettronici
sono state raggiunti valori di g più vicini al caso di sistemi fisici.
5.2 Recenti sviluppi in meccanica statistica
La seconda metà del Novecento ha visto un rinnovato interesse per la meccanica statistica, metodi
matematici rigorosi sono stati introdotti per trattare sistemi di infinite particelle e la connessione con i progressi
in teoria della probabilità sono diventati più stretti. Cerchiamo qui di descrivere in modo elementare alcuni dei
risultati più importanti. Innanzitutto è necessario descivere la dinamica di sistemi composti da un numero
infinito di particelle, che per semplicità supporremo identiche. Se le particelle fossero in numero finito N la
descrizione naturale sarebbe mediante l'introduzione di uno spazio posizione-velocità con coordinate q1… qN,
v1,… ,vN, che indichiamo collettivamente con il simbolo s (per sistema). La dinamica sarebbe descritta da una
funzione di s, la hamiltoniana, somma di un termine di energia cinetica e di un termine di energia potenziale
dovuto alle forza che ciascuna particella esercita sulle altre. Assumeremo sempre che il potenziale sia una
funzione abbastanza regolare. Le equazioni del moto sono l'equazioni di Hamilton con hamiltoniana H(s). Se lo
spazio delle configurazioni è tutto ℜ3, in generale il moto è tale che le particelle si allontanano indefinitamente.
Per ottenere sistemi con densità finita, richiediamo che tutte le particelle si muovano in una regione O il cui
volume cresce linearmente con N.
Occorre porre delle condizioni al bordo di O. Una scelta naturale, che noi faremo, è di scegliere O essere
un cubo di lato L e volume proporzionale a N (il coefficiente di proporzionalità è la densità del sistema), e
condizioni periodiche al bordo per garantire la conservazione di energia e di quantità di moto. Prima di passare
alla descrizione della dinamica di un sistema infinito di particelle, è conveniente notare che, essendo le
particelle tra loro identiche, possiamo identificare le configurazione di N di esse con gli insiemi finiti di ℜ3 che
contengono precisamente N punti. Allora, tenendo in considerazione anche la velocità della particelle, lo spazio
25
S di un sistema infinito di particelle può essere identificato con lo spazio di tutti gli insiemi numerabili di
ℜ3 X ℜ3 che sono finiti localmente.
Definiamo la dinamica di un sistema di particelle nell'intero spazio euclideo come limite della dinamiche
per N particelle nella regione O. Questo richiede la definizione di una topologia (una regola che dice quando
una successione converge); una definizione abbastanza naturale si ottiene considerando la convergenza in
qualunque fissato sottoinsieme della spazio della fasi (i dettagli di questa definizione richiedono attenzione, ma
la costruzione è standard). Il limite indicato non esiste per tutte le configurazioni s (per qualche configurazione
del sistema infinito tutte le particelle potrebbero ad esempio concentrarsi in uno stesso punto dello spazio a un
tempo finito). Lo studio delle condizioni sul potenziale affinché le configurazioni per le quali il limite esiste per
ogni tempo siano sufficientemente numerose (in modo tale che esse costituiscano un insieme di misura piena
per le distribuzione di interesse) è tuttora una parte importante della ricerca in fisica matematica in questo
campo.
Una volta introdotta la dinamica di un sistema di infinite particelle, si può incominciare a parlare di
evoluzione di insiemi statistici e della loro eventuale invarianza. Denotiamo con S* il sottoinsieme di S per il
quale la dinamica esiste per ogni tempo. Consideriamo una misura di probabilità P(0) in S che sia portata tutta
da S*; l'evoluzione di P(0) sarà data per ogni sottoinsieme Q di S* misurabile da P(t) (Q) = P(0) ({s: s(t) in Q)}).
Possiamo adesso formulare il postulato di Gibbs nel modo seguente: per una vasta classe di stati inziali P(0) lo
stato P(t) tende quando t tende all'infinito a uno stato di Gibbs corrispondente al potenziale U che descrive la
dinamica del sistema. Diamo qui la definzione di stato di Gibbs nel contesto di un sistema che contiene un
numero infinito di particelle.
Una misura nello spazio S viene detta misura di Gibbs (associata a un potenziale U) se è il limite di
misure di Gibbs con potenziale U in una successione di regioni di volume crescente che invadono ℜ3 con
condizioni al bordo opportune, oppure fa parte della chiusura convessa di tali limiti. Poiché la misura di Gibbs è
una misura prodotto (di una misura gaussiana nello spazio della velocità e di una misura di Gibbs nello spazio
delle configurazioni), e poiché le misure gaussiane ammettono un limite naturale quando N tende all'infinito,
considereremo d'ora in poi solamente il limite della parte configurazionale della misura. Per valori della
temperatura suficientemente grandi la misura di Gibbs, se esiste è unica e può essere costruita con un metodo
iterativo (sviluppo in grappoli). Ci si aspetta che in dimensioni spaziali maggiori di uno e per temperature
abbastanza piccole) la misura di Gibbs così definita non sia unica, e le misure ottenute con il processo di limite
dipendano dalle condizione al bordo scelte, ma nessuna di queste affermazioni è stata finora dimostrata in modo
rigoroso.
È stato dimostrato che per un vasta classe di potenziali U la misura di Gibbs associato è invariante per la
dinamica data dal potenziale U stesso (questa cosa è banale per insiemi finiti di particelle ma richiede una
dimostrazione nel caso di insiemi infiniti).
È stato d'altra parte dimostrato che le misure di Gibbs con potenziale U non esauriscono in generale la
classe delle misure per sistemi a infinite particelle invarianti per la dinamica generata dal potenziale U
(ricordiamo, a titolo di confronto, che nel caso di un numero finito di particelle potevano esistere altri integrali
26
primi del moto oltre all'energia, ed inoltre era possibile definire altre misure invarianti come ad esempio quella
che definisce l'insieme microcanonico).
D'altra parte è possibile porre altre condizioni naturali sulle misure invarianti sotto la dinamica associata
a un potenziale U. Ad esempio di essere invarianti per traslazioni spaziali, o di ammettere densità (rispetto alla
misura di Lebesgue) se ristrette a volume finito, o ancora di avere la proprietà di indipendenza spaziale
asintotica forte (l'aspettazione del prodotto di due funzioni ciascuna delle quali dipende solo dalla
configurazione in regioni finite O e Q dello spazio tende al prodotto delle corrispondenti aspettazioni quando la
distanza tra O e Q tende all'infinito). Si può formulare la congettura che queste ulteriori condizioni identifichino
lo stato di Gibbs relativo al potenziale U, ma di questo non è ancora stata data una dimostrazione generale. Un
importante contributo in questa direzione è stato dato recentemente da Yakov Sinai et al. che hanno dimostrato
questa congettura facendo uso di un metodo, introdotto da Nicolai Nicolaievich Bogoljiubov alla fine degli anni
cinquanta, che consiste nello studiare la misura in esame mediante lo studio dei suoi momenti. Parte di questa
dimostrazione consiste nel dimostrare che le sole leggi di conservazione (in media) sono quelle dell'energia e
della quantità di moto, come nel caso di un numero finito di particelle in una scatola a pareti riflettenti.
Un'altra affermazione che non ha avuto finora dimostrazione completa è l'equivalente, per i sistemi di
infinite particelle, dell'affermazione di Gibbs secondo cui le misure di Gibbs sono il limite, per t tendente
all'infinito, di qualunque misura (regolare) che evolva secondo una dinamica hamiltoniana con potenziale U
regolare. Questo è stato dimostrato da Volkovissky e Sinai nel 1971 per un gas di sfere rigide (con naturali
condizioni di rimbalzo agli incontri) e per il caso unidimensionale di interazioni per urto elestico di bastoncini
rigidi; si noti che in entrambi i casi non si tratta di dinamiche originate da un potenziale regolare U. Questa
proprietà è un analogo del mescolamento per sistemi dinamici con un numero finito di gradi di libertà.
È anche possibile formulare una congettura sulla convergenza in media di una misura (regolare) a una
misura di Gibbs in media nel tempo, l'equivalente dell'ipotesi ergodica nel caso finito-dimensionale.
D'altra parte l'ipotesi ergodica non è né necessaria né sufficiente per la dimostrazione dell'esistenza di
una misura limite ergodica per sistemi composti da un numero infinito di particelle, e quindi per la meccanica
statistica.
Se si considerano i sistemi a cui si interessa la meccanica statistica come limiti di sistemi con un numero
di particelle finito N di particelle, è sufficiente che i sistemi approssimanti siano approssimativamente ergodici,
ad esempio che per N molto grande questi sistemi abbiano moltissime piccole componenti ergodiche, che sono
distrubuite in modo così complicato che non possiamo (quasi) distinguerle facendo osservazioni macroscopiche
in una frazione del volume totale.
Naturalmente questa congettura è di difficile formulazione precisa (e di ancora più d ifficile
dimostrazione). Teoremi (e non congetture) possono essere formulati se si lascia cadere l'ipotesi che ciascuna
delle regioni spaziali O considerate contengano un numero fissato di particelle, N(O).
Introduciamo un parametro z (che chiamiamo fugacità) supponiamo che N(O) sia una variabile casuale
distribuita secondo la misura di Poisson di parametro z, cioè le variabili N(O) al variare di O sono tra loro
indipendenti e inoltre ciascuna di esse è distribuita secondo la legge di poisson con intensità z.
27
La misura gran-canonica associata al potenziale U e con parametro z è la legge di probabilità di Poisson
per quanto riguarda la variabile N(O) e tale che la legge di probabilità condizionale dato N(O) è data dalla
misura di Gibbs (configurazionale) definita precedentemente.
Per la distribuzione gran-canonica si possono dimostrare i seguenti teoremi.
Assumiamo che il potenziale U soddisfi le seguenti condizioni
1) sia limitato inferiormente
2) sia regolare all'origine
3) decresca in valore assoluto all'infinto secondo una potenza sufficientemente grande dell'inverso della
distanza.
Sotto queste ipotesi, si può dimostrare i teoremi elencati di seguito.
Teorema 1 (Dobrushin, 1969)
Per fissato z maggiore di zero e ogni temperatura T, esiste almeno una misura di Gibbs (gran-canonica)
invariante per traslazioni, con parametri z e T e con potenziale U. Se ne esise più di una, esse formano un
insieme convesso e compatto.
Teorema 2 (Dobrushin 1969, Minlos 1969)
Per ogni T > 0 esiste un valore z(T) tale che per ogni O<z<z(T) esiste una sola misura gran-canica di
Gibbs con potenziale U e parametri T e z. La distribuzione di questa misura è invariante per traslazioni spaziali
e soddisfa la proprietà di mescolamento asintotico spaziale forte.
Inoltre è possibile dimostrare che i momenti di questa misura (funzioni di correlazione) soddisfano un
sistema di equazioni (equazioni DLR, dai nomi Roland Lvovich Dobrushin, Lanford, e David Ruelle) che per
valori sufficientemente piccoli del parametro z e sufficientemente grandi della temperatura T possono essere
risolte, hanno un'unica soluzione e questa può essere ottenuta in modo iterativo.
È interessante notare che gli insiemi in cui per ogni regione dello spazio è fissato il numero di particelle,
hanno misura zero per la misura gran-canonica, quindi dai teoremi precedenti non si può trarre alcuna
indicazione sull'esistenza di una misura canonica di Gibbs nel caso di un numero infinito di particelle.
Risultati più soddisfacenti riguardanti la dinamica e la misura canonica di Gibbs si sono ottenuti in
modelli di sistemi di infinite particelle nei quali la dinamica è retta da leggi casuali (ad esempio da processi di
tipo Markov).
Risultati ancora migliori sono stati ottenuti in modelli in cui lo spazio euclideo viene sostituito da un
reticolo infinito sui punti del quale possono trovarsi le variabili che possono assumere valore in un insieme
compatto (eventualmente finito; in questo caso si parla di modelli di spin). In questi modelli la dinamica è
costituita da iterate di un'applicazione di Markov che a ogni configuzione ne sostituisce un'altra secondo regole
stocastiche prefissate.
Nel caso in cui l'insieme compatto sia composto da due punti (ad esempio nel modello di Ising) o da un
numero finto di punti (modelli di Potts) sono stati ottenuti risultati abbastanza completi riguardo all'esistenza di
transizione di fase (perdita di unicità della misura di Gibbs) per valori del parametro T inferiori a una data
soglia, e sono state ottenute interessanti informazioni sulla struttura della misura di Gibbs alla soglia (struttura
di percolazione, esponenti critici,…).
28
Scarica

Fisica matematica - Ulisse