Fisica matematica Gianfausto Dell’Antonio Settore di Fisica matematica, SISSA, Trieste 1. Considerazioni preliminari La fisica matematica può essere definita come quella disciplina scientifica che si propone di descrivere in termini matematici rigorosi i fenomeni fisici. La ricerca in fisica matematica si articola in tre fasi, che possono avere di volta in volta peso diverso ma la cui presenza caratterizza la fisica matematica e la distingue da altre branche della fisica e della matematica. La prima fase consiste nella costruzione di un modello la cui funzione è di cogliere nel fenomeno fisico in esame alcuni aspetti che si considerano importanti. Un modello è una struttura data in termini matematici il cui scopo è di fare corrispondere enti del linguaggio matematico alle varie componenti di un fenomeno fisico e alle loro relazioni. Ad esempio, un modello del sistema Terra-Luna può essere costituito da due punti (geometrici) nello spazio tridimensionale, ai quali vengono associati due parametri (le masse dei relativi corpi celesti) e delle forze con cui si attraggono. Il modello non è una rappresentazione fedele della realtà (nel caso in esame poiché vengono trascurate le dimensioni dei corpi celesti e la loro composizione) ma ne rappresenta una prima approssimazione. Successivamente possono essere considerati modelli più raffinati (ad esempio considerando Terra e Luna solidi geometrici con densità variabile). Nella costruzione di modelli si parte in generale da strutture semplici, modificandole successivamente cercando di trovare un equilibrio tra la difficoltà nell'affrontare i problemi matematici che il modello pone e l'accuratezza con cui il modello rappresenta il sistema fisico in esame. Per definizione, nessun modello coglie tutti gli aspetti della realtà, e il fisico matematico deve avere la capacità di cogliere le componenti significative nel fenomeno di cui vuole dare un modello. La seconda fase della ricerca in fisica matematica consiste nel risolvere il modello che si è costruito. Poiché il modello (e non la realtà) viene scritto in caratteri matematici, utilizzando strutture che possono essere anche molto diverse tra loro, la soluzione del modello può di volta in volta significare cose abbastanza diverse. Nei modelli meccanici (il Sistema solare, ma anche la meccanica dei fluidi o la deformazione dei corpi elastici o il comportamento di corpi dotati di carica elettrica in un campo elettromagnetico) il modello comprende due componenti principali: i possibili stati del sistema e l'equazione di evoluzione. In questo caso, la soluzione del modello consiste nel dimostrare che, in corrispondenza a ciascun dato iniziale, esiste una e una sola soluzione dell'equazione di evoluzione, ed eventualmente nel descrivere almeneno in modo qualitativo le sue proprietà. In 1 altri modelli come quelli che sono adottati in meccanica statistica o nella descrizione dell'equilibrio dei corpi elastici, la soluzione del modello consiste nell'individuazione di una configurazione (non necessariamente unica) che minimizza una quantità opportuna (energia, entropia, energia di superfice) che empiricamente viene considerata rilevante. In questa seconda fase, il fisico matematico deve utilizzare strumenti matematici di varia natura, che appartengo a diversi campi della matematica (analisi, algebra, geometria, analisi numerica, calcolo delle probabilità, ...), deve in molte occasioni modificare o raffinare strumenti disponibili nella letteratura scientifica e talvolta costruire strumenti nuovi adatti allo studio dello specifico problema che sta analizzando (per strumenti si intendono lemmi e teoremi, ma anche procedimenti deduttivi). Per questo il fisico matematico deve aver una cultura matematica che copre vari campi, per poter sfruttare al meglio analogie e affinità di procedimenti. Questa seconda fase si conclude con l'enunciazione e la dimostrazione di risulati certi (teoremi). Va peraltro notato che nell'attività di un fisico matematico le previsioni certe (teoremi) vengono in generale precedute da una fase preliminare in cui gioca un ruolo determinante l'intuizione, l'analisi di modelli elementari, le analogie e i calcoli preliminari. In tempi recenti i calcolatori elettronici hanno svolto in questa fase una funzione importante. Solamente in un secondo momento, alla luce delle considerazioni qualitative fatte, vengono enunciati e dimostrati teoremi. La fase finale della ricerca in fisica matematica consiste nell'utilizzare i risultati matematici ottenuti per dedurre stime e previsioni sul comportamento del sistema fisico in esame. È superfluo sottolineare che le ricerche in fisica matematica (come quelle in tutte le discipline teoriche) riguardano le proprietà di un modello, e solo le ricerche in una disciplina sperimentale provvedono una conoscenza diretta dei fenomeni fisici. Resta tuttavia anche per le discipline sperimentali la mediazione di un'aspettazione a priori sulla rilevanza della struttura e relazione reciproca delle diverse parti del sistema in esame, che porta a privilegiare alcuni esperimenti rispetto ad altri e a favorire una particolare interpretazione dei risultati ottenuti. Questa visione a priori può cambiare in modo radicale, come è avvenuto con la meccanica quantistica, per la difficoltà a inquadrare in modo organico nuovi importanti dati sperimentali nella visione precedente. Questo può portare a un'accettazione di nuovi modelli che meglio si adeguano alla nuova percezione della realtà fisica. In questo senso, la misura dell'adeguatezza dei modelli che vengono utilizzati in fisica matematica viene giudicata in funzione del loro adeguarsi alla descrizione di quelle caratteristiche che vengono considerate importanti all'interno di una particolare visione del mondo fisico. Prima di concludere questa breve descrizione del carattere delle ricerche in fisica matematica va sottolineato che il confine tra la fisica matematica e altre discipline scientifiche, quali ad esempio la fisica teorica e la matematica applicata, è spesso mal definibile e in una certa misura arbitrario (e dipende anche dall'ambiente culturale in cui si sviluppa l'attività di ricerca). Inoltre bisogna ricordare che una catalogazione formale risulta in ogni caso restrittiva e superficiale per quei ricercatori che hanno dato contributi essenziali alle discipline fisico-matematiche. 2. Breve storia della fisica matematica 2 Iniziamo con una descrizione delle ricerche in fisica matematica attrerso le figure più rappresentative. Va sottolineato che il progresso della ricerca scientifica in ogni disciplina è in larga misura frutto di molteplici apporti, e quelli a cui faremo riferimento sono solamente i momenti più significativi. Archimede (287?-212 B.C.) può essere considerato il primo fisico matematico della cui produzione scientifica si abbiano tracce rilevanti. Nei suoi trattati sulla quadratura della parabola e sulla misura della lunghezza di un circonferenza, per dedurre risultati certi (in entrambi i casi nella forma di disuguaglianze) Archimede utilizza il metodo logico-deduttivo già introdotto da Euclide ed Eudosso per cui del risultato cercato (ad esempio il rapporto tra le lunghezze del raggio e della circonferenza) vengono date stime per eccesso e per difetto arbitrariamente accurate. Archimede applica questo rigore matematico alla soluzione di alcuni dei maggiori problemi posti dalla fisica del suo tempo, dalla meccanica (teoria della leva) all'idrostatica (con un chiaro uso del concetto di pressione) alla relazione tra volume e area della superficie in un corpo solido. Ma a queste deduzioni rigorose Archimede arriva, come appare evidente del suo trattato sul Metodo (che si trova in appendice all'Opera Omnia, ed è stato rovato più tardi del Corpus; è pubblicato nel libro di Thomas L. Heath, Collected works pubblicato dalla Cambridge Academic Press nel 1912), dopo aver seguito una via più euristica e non rigorosa attraverso l'utilizzazione di infinitesimi (parametri che possono assumere valori arbitrariamente piccoli). Questo procedimento permette ad Archimede di intuire il risultato, che poi viene dimostrato rigorosamente mediante un procedimento totalmente diverso. Nel Rinascimento una parte di assoluto rilievo in fisica matematica va attribuita a Galileo Galilei (15641642). L'opera di Galileo è in molti modi fortemente innovativa e originale, e ha lasciato un'impronta sulla ricerca scientifica nei secoli successivi. La sua affermazione che il compito della scienza è descrivere le leggi che governano i fenomeni fisici e non di darne una spiegazione (in questo seguendo affermazioni simili da parte della scuola alessandrina) fu ripresa da Isaac Newton e da allora è stata alla base delle ricerche in fisica matematica. Galileo fu un convinto sostenitore della necessità di fondare una teoria su dati sperimentali, ma anche del fatto che siano necessari solo un numero limitato di dati e che da essi sia possibile costruire un modello completo mediante deduzioni matematiche. Questo perché "il gran libro della natura è scritto in caratteri matematici", e pochi esperimenti cruciali, unitamente alla capacità di saperli interpretare correttamente, sono sufficienti per impadronirsi del linguaggio. Galileo mise anche in luce la rilevanza degli esperimenti concettuali e l'importanza di considerare esperimenti limite (un esempio è lo studio del moto su di un piano inclinato provvedendo a eliminare sempre di più le scabrosità e facendo tendere a zero l'inclinazione, in modo che la velocità raggiunta non sia molto elevata e quindi misurabile con precisione). Partendo da pochi dati sperimentali, da semplici considerazioni e dall'esame accurato di casi particolari Galileo giunge, con procedimento matematico rigoroso, a dedurre le leggi del moto uniformemente accelerato. Con un procedimento di limite scopre anche la legge di isocronia del pendolo, determinando così una misura quantitativa e accurata del tempo. Da pochi dati sperimentali, analizzati in modo profondo, giunge a enunciare il principio di relatività dei moti e a dare una prima definizione di sistema inerziale. Anche le ricerche di Galileo sul moto dei corpi pesanti e sul moto dei fluidi costituiscono un chiaro esempio di procedimento fisico-matematico. I suoi libri, in particolare Discorsi e dimostrazioni matematiche attorno a due nuove scienze attinenti alla meccanica e ai movimenti locali, sono esemplari per la chiarezza 3 dell'esposizione e la forza delle argomentazioni, e hanno influenzato tutta la ricerca successiva in fisica matematica I secoli XVI e XVII vedono il fiorire della meccanica, anche sotto la spinta del rinnovato interesse per la struttura del Sistema solare. Isaac Newton (1642-1727) dette il maggior contributo al successo di questa disciplina. I suoi tre libri di Philosophiæ Naturalis Principia Mathematica rappresentano il punto più alto raggiunto nel Seicento dalla ricerca scientifica sulla natura, e possono essere tuttora considerati un modello insuperato di esposizione. Nel primo libro gli esperimenti sui quali si basa la teoria sono esposti chiaramente, viene indicata la struttura del modello, compresa l'approssimazione consistente nel considerare i corpi celesti come punti materiali (punti geometrici dotati di massa). Questo modello viene eleborato attraverso le definizioni matematiche di forza e materia e l'introduzione assiomatica di uno spazio e tempo assoluti. Il modello viene così posto in forma adeguata alla sua analisi in termini matematici. Per compiere quest'analisi Newton fa uso di un formalismo matematico da lui elaborato per trattare problemi in cui il moto di un punto materiale venga determinato dando la sua posizione e velocità iniziali e la distribuzione della forze a cui è soggetto. Questo metodo, chiamato da Newton metodo delle flussioni e dei fluenti è una forma embrionale del calcolo differenziale: grosso modo le flussioni possono essere viste dal punto di vista attuale come le derivate, che regolano la velocità di variazione delle posizioni (i fluenti). Con questa versione primitiva del calcolo differenziale Newton giunse a determinare in modo completo il moto di due punti materiali che si attraggono con forza proporzionale al prodotto delle loro masse e inversamente proporzionale al quadrato della loro distanze, nell'ipotesi che la forza sia in ciascun istante diretta secondo la retta congiungente i due punti. Questa legge di gravitazione universale faceva parte del modello, ed era stata suggerita da risultati sperimentali e da considerazioni teoriche fatte tra gli altri da Robert Hooke. Newton ne dette un deduzione rigorosa a partire dalla terza legge di Keplero. Il clamoroso successo predittivo della teoria di Newton ne decretarono la quasi unanime e immediata accettazione come modello della meccanica celeste, e servirono, tra l'altro, a stabilire che le stesse leggi di moto governano i corpi celesti e i corpi che si trovano sulla Terra. Per quasi due secoli le ricerche in meccanica si concentreranno sulla soluzione di problemi più complessi, quali il moto di N corpi, e con strumenti matematici più raffinati, ma sempre seguendo la linea di ricerca tracciata da Newton. Nel secondo libro viene discusso il moto dei corpi nei fluidi; il modello non viene qui precisato così rigorosamente, tuttavia molte delle deduzioni sono rigorose; anche il contenuto di questo secondo libro ha posto le basi della ricerca nei due secoli successivi. Il terzo libro (De sistema mundi) è meno sistematico, e tuttavia presenta caratteristiche fisico-matematiche simili a quelle dei due primi libri. Va anche ricordato, per collocare l'opera di Newton nell'ambito della fisica matematica che Newton fu tra i primi a sviluppare e utilizzare il metodo delle perturbazioni e il metodo di approssimazioni successive che prende il suo nome ed è ancora uno dei metodi più utilizzati in analisi numerica. Notevole è anche il contributo dato da Newton all'ottica. Nel suo primo trattato, Lectiones Opticae, Newton procede da un'analisi sperimentale, isola proprietà fisiche rilevanti della luce dagli esperimenti compiuti e ne trae spunto per costruire gli assiomi di un modello matematico. Verifica poi la consistenza e ne deduce previsioni per altri esperimenti di ottica. Newton ritiene che la luce sia composta da particelle, le cui proprietà sono caratterizzate dal colore (Newton fu tra i primi ad analizzare sperimentalmente la decomposizione della luce mediante un prisma 4 rifrangente). Questa teoria fu successivamente soppiantata dalla teoria della propagazione luminosa di Heinrich Rudolf Hertz, che descrive la luce come un fenomeno ondulatorio (sebbene di natura diversa dalla propagazione delle onde in un liquido); solamente tre secoli più tardi la teoria della luce di Newton ha avuto una nuova interpretazione con la teoria dei quanti di luce di Albert Einstein. Il successo della dinamica di Newton ebbe l'effetto di orientare verso la dinamica del punto materiale e dei corpi rigidi la maggior parte delle ricerche in fisica matematica nei due secoli successivi. A questo contribuì anche il fatto che l'utilizzazione delle coordinate cartesiane rendevano il calcolo differenziale un strumento efficace per la determinazione del moto. Queste ricerche volte ad applicare il calcolo differenziale allo studio del moto dei corpi celesti ebbero in Eulero (Leonhard Euler, 1707-1783) un esponente di spicco; egli fu il primo a eleborare in modo sistematico la teoria delle perturbazioni e ad applicarla con sucesso allo studio del moto della Luna. Si tratta di studiare un problema a tre corpi (il Sole, la Terra e la Luna) che vengono considerati punti materiali, di cui uno (il Sole) ha massa molto più grande degli altri due e il secondo (la Terra) ha massa più grande del terzo (la Luna). Utilizzando il calcolo differenziale Eulero determinò alcune soluzioni esatte del problema dei tre corpi, corrispondenti a opportune scelte della posizione e velocità iniziali, e con il metodo delle perturbazioni determinò in modo approssimato le traiettorie che seguono i tre corpi quando i dati inziali vengono di poco variati. Con lo stesso metodo studiò le modificazioni alle traiettorie newtoniane nel problema del moto di due corpi se si tien conto in modo approssimato della struttura dei due corpi anziché considerarli puntiformi. I contributi scientifici di Eulero coprono una vastissima area della fisica matematica (e della matematica in generale). Alcuni di questi, relativi al calcolo delle variazioni, furono cruciali per il successivo sviluppo della meccanica. Con i lavori di Eulero cominciano ad assumere un ruolo rilevante le equazioni alle derivate parziali che nel secolo successivo giocheranno un ruolo di primo piano. Esse furono fatte intervenire da Eulero (e prima di lui da Jean-le-Rond D'Alembert) nel problema delle piccole oscillazioni di una corda elastica fissata agli estremi. L'equazione che descrive in termini matematici il problema venne a essere conosciuta con il nome di equazione delle onde ed è tuttora il prototipo delle equazioni che descrivono fenomeni oscillatori (dalla corda vibrante al campo eletromagnetico). Eulero introdusse equazioni alle derivate parziali anche nello studio della dinamica dei fluidi. Con un procedimento innovativo (ma simile agli infinitesimi di Archimede) Eulero stabilì equazioni differenziali che descrivono la variazione nel tempo (o l'equilibrio) del fluido in una regione assegnata dello spazio considerando le forze che agiscono su una porzione infintesima di fluido a opera della porzione di fluido immediatamente adicente e di eventuali agenti esterni. Notiamo che queste leggi non vengono fatte discendere direttamente dalle equazioni della meccanica dei punti materiali, bensì da loro conseguenze, le leggi di conservazione della materia, della quantità di moto e dell'energia. Il moto stesso viene descritto non come moto delle singole particelle di fluido, ma come variazione nel tempo di quantità associate a ciascun punto della regione occupata dal fluido (lo stesso procedimento era stato adottato da Eulero per descrivere il moto della trottola). Eulero introduce la densità, la velocità e la pressione come variabili significative; il ruolo della pressione viene descritto avendo come base la trattazione che lo stesso Eulero aveva fatto dell'idrostatica, seguendo la traccia segnata da Archimede. Le equazioni della dinamica dei fluidi scritte da Eulero sono tuttora alla base delle ricerche in questo campo. 5 Eulero dette anche un importante contributo all'ottica. A differenza di Newton, Eulero riteneva che la luce fosse dovuta a oscillazioni dell'etere, e che la direzione dei raggi luminosi coincidesse con la direzione di oscillazione. Nella sua opera in tre volumi Dioptrica considerò l'aberrazione cromatica e sferica (raggi originati da punti a diverse distanze dall'asse ottico oppure corrispondenti a diversi colori si focalizzano in punti diversi) utilizzando equazioni differenziali e teoremi di trigonometria (un metodo precursore della g eometri differenziale). Un problema che richiedeva particolare attenzione era quello della rifrazione da parte dell'atmosfera, e quindi della variazione; il problema venne affrontato da Eulero considerando la propagazione in un mezzo di densità costante a tratti, un'approssimazione reminiscente del procedimento di esaustione di Archimede. Un esempio eminente di fisico matematico può essere considerato Joseph Louis Lagrange (1736-1813). Anche Lagrange ha dato contributi essenziali a diversi campi della matematica (ad esempio alla teoria delle funzioni), ma questo è un tratto comune ai grandi matematici dei secoli scorsi. La collocazione più o meno stretta dei ricercatori in matematica in settori specifici (algebra, geometria, analisi, fisica matematica,…) è cosa recente (più o meno della prima metà del Novecento), dovuta almeno in parte alla crescente complessità delle ricerche che ha portato a elaborazioni di linguaggi specifici per ciascun settore. Nella sua opera più significativa (Mécanique Analytique) Lagrange, partendo dal modello newtoniano che descrive le leggi del moto dei punti materiali soggetti a forze, ha elaborato un modello generale basato solamente sulle grandezze fisiche energia cinetica e lavoro delle forze. Nel caso particolare in cui le forze siano derivate da un potenziale, le leggi del moto vengono associate a un principio variazionale secondo il quale le traiettorie seguite dai punti materiali sono quelle, tra le traiettorie a priori possibili, che rendono minimo il valore di un opportuno funzionale che dipende solo dal valore, in ogni punto della traiettoria, della differenza tra l'energia cinetica e l'energia potenziale. Da questo principio variazionale, unito a un altro principio introdotto da Lagrange, il principio dei lavori virtuali (un'estensione alla dinamica di un principio che Lagrange stesso aveva posto a fondamento della statica), le equazioni che descrivono il moto dei punti materiali vengono dedotte in modo semplice ed elegante. Questa presentazione fatta da Lagrange delle leggi del moto è quella adottata fino ai giorni nostri, e ha una validità così generale da essere alla base di uno dei modelli per la formulazione della leggi della meccanica quantistica. Uno tra i più grandi fisici matematici della seconda metà del Settecento è Pierre Simon Laplace (17491827). Nel suo libro, Traité de Mécanique Celeste, pone in forma sistematica i risultati allora noti in meccanica celeste, raffina la teoria delle perturbazioni, sia secolari che periodiche, elabora una teoria delle maree, studia le forme di equilibrio dei corpi rigidi pesanti, discute in dettaglio il moto di un pendolo semplice e utilizza questi risultati per deteminare la forma della Terra. Studia inoltre il moto di un proiettile, tenendo conto del fatto che la Terra non è un riferimento inerziale e introducendo pertanto quella che in seguito è rimasta nota come forza di Coriolis. Queste ricerche, di interesse scientifico ma anche militare, furono stimolate dall'interesse del governo francese per la ricerca scientifica e per le sua applicazioni, culminate nella fondazione delle grandi scuole (Ecole Polytecnique, Ecole des Mines, Ecole des Ponts et Chaussées, e più tardi Ecole Normale). Alla luce di 6 questo tentativo di collegare più strettamente la ricerca in matematica pura con le applicazione va anche visto il trattato di Lagrange Exposition du Système du Monde, di carattere essenzialmente espositivo. In esso Lagrange formula l'ipotesi cosmogonica, secondo cui il Sistema solare origina da un ammasso ruotante che si contrae per la forza di gravitazione incrementando quindi la sua velocità angolare. Quando questa raggiunge un valore sufficientemente elevato, si staccano via via anelli di materia ciascuno dei quali poi si concentra a formare un pianeta. Laplace contribuì anche n otevolmente al n ascente interesse p er la teoria d el calore, la cui formalizzazione era stata iniziata da Lazare Carnot nel suo studio dei cicli delle macchine che utilizzano sorgenti termiche (e che andavano assumendo sempre maggior rilievo dal punto di vista tecnologico). A differenza di Lagrange, Laplace ritenne che le sole equazioni della meccanica non fossero sufficienti a descrivere fenomeni in cui veniva prodotto calore, e nei quali quindi il principio di conservazione dell'energia meccanica veniva violato. In questo contesto Laplace contribuì in misura molto significativa allo studio dei calori specifici dei gas, sottolineando la differenza tra il calore specifico a volume costante e quello a pressione costante. Laplace fu un sostenitore convinto della teoria molecolare e cercò di determinare le forze che una molecola esercita sull'altra; tra i risultati di questi studi fu tra l'altro un'accurata teoria dei capillari. Laplace cercò anche di applicare questa teoria molecolare alla luce, assumendo che le particelle di luce potessero oscillare e ruotare in vari modi; in particolare la polarizzazione della luce veniva spiegata assumendo che le particelle di luce si comportassero come aghi magnetici (da cui il termine polarizzazione che è sopravissuto a questa descrizione fatta la Laplace). Tra i fisici matematici di questo periodo un ruolo particolare va attibuito a Jean-Baptiste Fourier (17681830). A lui si deve la prima formalizzazione di un problema che era al di fuori della meccanica, la diffusione del calore. Seguendo il metodo stabilito da Eulero secondo il quale si deve cercare un'equazione di bilancio energetico tra una componente infinitesima e il mezzo circostante, e applicando la legge affermata da Newton secondo cui la perdita di calore è proporzionale alla differenza di temperatura, Fourier dedusse che la propagazione del calore è descritta da un'equazione alle derivate parziali del primo ordine nel tempo (equazione di evoluzione) e del secondo ordine nelle coordinate spaziali, con coefficienti che sono proporzionali rispettivamente al calore specifico e alla conducibiltà termica. Fourier descrisse anche una soluzione (formale) della sua equazione di evoluzione in termini di una serie numerica. Questa soluzione fu criticata da Lagrange perché non era ottenuta specificando i dati inziali, e inoltre non veniva discussa la convergenza della serie. E fu anche criticata da Laplace, perché non veniva specificato il ruolo delle forze molecolari. In generale la formulazione di Fourier della diffusione del calore fu osteggiata in un primo momento perché al di fuori della meccanica. Successivamente Fourier dette una derivazione diversa, basata questa volta sulla teoria molecolare. Il coefficiente di diffusione veniva adesso calcolato in termini delle forze intermolecolari. Questo portò Laplace ad apprezzare di più il ruolo del calore nella formalizzazione della fisica, e sia Fourier che Laplace analizzarono il raffredamento della Terra risolvendo (con tecniche diverse) l'equazione di Fourier per una sfera di grande raggio, e usarono la soluzione ottenuta per stimare l'età della Terra. Nella seconda metà dell'Ottocento l'equazione di Fourier ha costituito una delle equazioni di maggior interesse per le ricerche in fisica matematica e nel secolo successivo si è imposta per il suo interesse interdisciplinare. 7 3. Linee di ricerca emergenti tra Settecento e Ottocento Tre altre linee di ricerca sviluppatesi nella prima metà del secolo XIX meritano di essere sottolineate; esse furono proseguite nella seconda metà del secolo, ebbero notevolissimi sviluppi e sono attualmente importanti campi di ricerca in fisica matematica. 3.1 La propagazione della luce Secondo Augustin Fresnel (1788-1827) la luce è dovuta a vibrazioni di piccole particelle che costituiscono l'etere, e oscillano intorno a posizioni di equlibrio generando fronti d'onda. In questo Augustin Jean Fresnel segue la strada indicata da Laplace. Queste vibrazioni sono perpendicolari alla direzione di propagazione (Fresnel ha mutuato questa condizione di trasversalità dagli studi di André Marie Ampère sull'elettromagnetismo). La propagazione segue le leggi che aveva suggerito mezzo secolo prima Christiaan Huygens, cioè che il moto di una particella di etere genera un fronte d'onda che agisce a sua volta come sorgente di oscillazioni e quindi di fronti d'onda secondari. Il temine "raggi luminosi" è solamente un modo di dire, suggerito dal comportamento del fronte d'onda a grande distanza. La teoria di Fresnel ha molti pregi rispetto a quella di Laplace, in particolare rende conto delle frange d'interferenza. Essa tuttavia non fu ben recepita nell'ambiente accademico, in parte perché non veniva espressa nel linguaggio, allora dominante, delle equazioni differenziali, bensì si basava su considerazioni geometriche e su analogie meccaniche. La teoria di Fresnel fu ripresa mezzo secolo più tardi e portata a pieno successo da Augustin Louis Cauchy, che pose su basi matematiche la teoria della dispersione della luce. 3.2 Le prime ricerche in elettromagnetismo Il magnetismo naturale era conosciuto già dai Greci, ed erano conosciute anche le proprietà di corpi, come l'ambra, che strofinati attraevano oggetti leggeri. Fino dal Seicento era conosciuta l'esistenza di cariche elettriche di segno opposto; queste erano attribuite da alcuni all'esistenza di due fluidi, da altri all'esistenza di un solo fluido, di cui alcuni corpi avevano un'eccedenza e altri una carenza. Charles Augustin Coulomb (17361806) favoriva l'ipotesi di una coppia di fluidi, e su quest'ipotesi Siméon Denis Poisson (1781-1840) aveva eleborato una teoria matematicamente molto soddisfacente. L'azione a distanza tra due corpi carichi era stata dimostrata da Benjamin Franklin (1706-1790). Le osservazioni sperimentali di Henry Cavendish (1731-1810) erano consistenti con una legge di variazione inversamente proporzionale al quadrato della distanza, e la stessa legge valeva per magneti. Il moto delle cariche elettriche attraverso i materiali conduttori avveniva con velocità troppo grande per un'analisi accurata; l'accidentale scoperta di Luigi Galvani (1737-1798) del principio di accumulazione di cariche elettriche, e sopratutto gli studi di Alessandro Volta (1745-1827) sulle pile permisero di costruire e utilizzare sorgenti di elettricità e quindi di studiare quantitativamente le relazioni tra correnti elettriche e magnetismo. Si pensava che queste forze tra elementi carichi potessero agire avendo come intermediario l'etere, un mezzo dalla struttura incerta che veniva supposto permeare l'intero spazio. Gli aderenti alla teoria corpuscolare 8 di Laplace, sopratutto Fresnel, consideravano l'etere composto da minuscole particelle a forma di piccoli magneti; Fresnel fu tra i primi a ritenere che la luce e i fenomeni elettromagnetici avessero un'origine comune. La nascita dell'elettromagnetismo può essere fatta risalire all'osservazione fatta verso il 1820 da Hans Christian Ørsted (1771-1851) che un filo percorso da corrente elettrica faceva oscillare un ago magnetico. Ørsted stesso chiamò questo fenomeno elettromagnetismo. Poco dopo Ampère (1775-1836), che era allora professore di matematica all'Ecole Politechnique, riuscì a dimostrare sperimentalmente che due fili percorsi da corrente elettrica esercitavano una forza uno sull'altro. Ampère chiamò quest'esperimento di elettrodinamica. In seguito Ampère, dimostrò che un simile effetto si aveva tra due spirali percorse da corrente elettrica, facendo anche un'analisi quantitativa della forza risultante. Per spiegare matematicamente quest'azione di un filo sull'altro, Ampère postulò che ciascun elemento infinitesimo di filo agisse su ciascun altro con una forza che segue le leggi di Coulomb. Il procedimento matematico seguito da Ampère non è rigoroso, ma quello che va rilevato è l'utilizzazione di una relazione tra l'integrale della forza lungo una linea chiusa e l'integrale del campo magnetico su una superficie che ha la linea chiusa come bordo. Una simile identificazione dell'integrale del potenziale magnetico su una regione connessa avente come bordo un superficie chiusa con l'integrale sulla superficie di un'opportuna funzione del potenziale (che va adesso sotto il nome di teorema della divergenza) era stata scoperta poco prima da Poisson, con considerezioni matematicamente molto più precise, ma la sua importanza era sfuggita a Poisson. Attraverso una serie di riduzioni, Ampère fu in grado di dimostrare, utilizzando la formula di Poisson, che la legge da lui postulata per interazione tra elementi infinitesimi di due circuiti elettrici era in realtà una conseguenza delle leggi che reggono l'interazione tra due particelle cariche. 3.3 La teoria dei corpi elastici La terza linea di ricerca che inizia in maniera sistematica nella prima metà del secolo XIX e si affermerà nella seconda metà del secolo, anche per il numero sempre crescente di applicazioni, è la teoria dei corpi elastici. I primi studi matematici riguardarono le vibrazioni di una membrana elastica fissata al bordo, e si riferivano soprattutto all'acustica. Verso gli anni venti del secolo XIX, Claude Navier (1788-1827), professore all'Ecole des Ponts et Chaussées, al quale era stato dato dal governo l'incarico di studiare la possibilità di costruire ponti sospesi di notevoli dimensioni, iniziò una serie di ricerche su fili, superfici e materiali elastici. Queste ricerche furono riprese poco dopo da Augustin Louis Cauchy (1789-1857), tra i più grandi matematici dell'epoca. A lui risalgono le equazioni fondamentali della meccanica dei sistemi continui, e in particolare quelle della teoria matematica dell'elasticità. Cauchy studiò in particolare la distribuzione degli sforzi in ogni intorno dei punti del sistema. Nel caso di fili o superfici elastiche, Cauchy (a differenza di Navier) non fecce l'ipotesi che le forze che mantenevano il corpo in equilibrio fossero in ogni punto perpendicolari alla superficie (o al filo). Egli mantenne il modello che era stato proposto da un ingegnere scozzese (William John Macquorn Rankine, 1820-1872) secondo cui vi è una relazione lineare costante tra sforzo e deformazione ma sostenne che le due direzioni non dovessero essere necessariamente le stesse, né isotropa la torsione risultante. Utilizzando 9 queste ipotesi, Cauchy propose una vasta gamma di modelli di materiali elastici, con i quali riuscì a rendere conto della maggior parte dei dati sperimentali disponibili. Dato l'interesse per le applicazioni, anche Laplace e la sua scuola affrontarono il problema dell'elasticità, sempre nell'ambito della teoria molecolare, ma con minor successo. L'elasticità fu uno dei primi esempi dell'utilizzazione, nello stabilire una nuova teoria, di modelli semplici costruiti postulando relazioni lineari tra quantità fisiche di interesse (relazioni costitutive). Questi modelli, di facile applicazione pratica, hanno una funzione descrittiva anziché esplicativa e soppiantarono rapidamente modelli molto più complicati che si proponevano di dedurre tali relazioni sulla base di una teoria già affermata (per esempio la teoria molecolare), ma la cui validità era confermata in un contesto differente. In questa fase iniziale degli studi di corpi elastici risultarono più utili analogie e riduzioni a equazioni note in altri campi, come quella stabilita da Gustav Robert Kirchhoff tra le condizioni di equilibrio di una sbarra elastica e le equazioni di Eulero per le rotazioni di un corpo rigido intorno a un punto fisso. 4. La ricerca in fisica matematica nella seconda metà dell'Ottocento Tra i campi di ricerca in fisica matematica nella seconda metà dell'Ottocento un ruolo dominante hanno avuto la meccanica analitica e ancora di più l'elettromagnetismo e la termodinamica, quest'ultima sopratutto nei suoi aspetti di meccanica statistica. 4.1 meccanica analitica La meccanica analitica ha trovato nella seconda metà dell'Ottocento la sua sistemazione definitiva a opera di sir William Hamilton (1805-1865). Gli studi di ottica geometrica avevano portato Hamilton a concludere che le equazioni dell'ottica geometrica e i principi variazionali a esse associati potessero venire espressi in forma più semplice utilizzando opportune coordinate cartesiane (l'angolo che il raggio luminoso forma con l'asse ottico, il rapporto tra la velocità della luce e l'indice di rifrazione del mezzo attraversato). Basandosi sull'analogia del principio di Fermat in ottica geometrica con il principio variazionale di Maupertius in dinamica lagrangiana, Hamilton applicò queste considerazioni alla meccanica, arrivando a individuare nuove coordinate cartesiane nelle quali le equazioni lagrangiane del moto assumevano una forma particolarmente semplice. Hamilton chiamò spazio della fasi lo spazio cartesiano parametrizzato da queste nuove coordinate. Le equazioni risultanti (equazioni di Hamilton) sono tuttora alla base delle ricerche in fisica matematica ed ebbero un ruolo essenziale nell'elaborazione della dinamica quantistica. Come le equazioni di Lagrange, anche le equazioni di Hamilton possono essere dedotte da un principio variazionale. Quest'ultimo non è un principio di minimo bensì di stazionarietà, e questo lo rende meno adatto a determinare esistenza e unicità delle soluzioni. Esso dà luogo tuttavia ad una proprietà molto interessante delle equazioni di Hamilton, l'essere invarianti per trasformazioni canoniche, che sono opportuni cambiamenti di coordinate nello spazio della fasi non riconducibili in generale a cambiamenti delle sole coordinate di posizione. Quest'invarianza delle equazioni di Hamilton per trasformazioni canoniche gioca un ruolo molto importante nella dinamica hamiltoniana. 10 Le equazioni dinamiche di Hamilton hanno anche una formulazione algebrica: ogni funzione F abbastanza regolare induce un flusso di tutte le altre funzioni mediante la prescrizione che la derivata rispetto al tempo di una funzione G sia data dalla parentesi di Poisson tra F e G (la parentesi di Poisson è un'applicazione che a ogni coppia di funzioni F e G assegna in modo bilineare una terza funzione {F, G} che dipende da F e G e dalle loro derivate prime nello spazio della fasi). Questa struttura algebrica giocherà un ruolo importante nelle formulazione della meccanica quantistica. Lo stesso Hamilton notò il perfetto isomorfismo tra questa struttura algebrica, invariante per trasformazioni canoniche, e una struttura algebrico-differenziale, sviluppata da Sophus Lie in relazione ai sui studi sulla teoria dei gruppi. La risultante struttura geometrica, la geometria simplettica, un campo a cavallo tra meccanica analisi e geometria, avrà nel XX secolo un ruolo fondamentale nello studio dei sistemi dinamici hamiltoniani. L'invarianza delle equazioni di Hamilton per trasformazioni canoniche rende possibile scegliere per ogni problema meccanico coordinate adatte a semplificare la forma delle equazioni. Si riconobbe così che esistevano problemi completamente integrabili, nel senso che, utilizzando particolari coordinate simplettiche, le corrispondenti equazioni del moto potevano essere scritte come le equazioni di un oscillatore armonico (una molla perfetta), e quindi essere risolubili in forma chiusa in termini di funzioni elementari. Nel corso delle ricerche in fisica matematica nell'Ottocento ebbe notevole rilevanza lo studio delle condizioni affinché un sistema hamiltoniano sia completamente integrabile. Attraverso la teoria delle trasformazioni canoniche Hamilton stesso elaborò anche un metodo generale per la soluzione delle equazioni hamiltoniane, metodo successivamente perfezionato da Karl Gustav Jacob (metodo attualmente detto di Hamilton-Jacobi) basato sulla soluzione di un'equazione non lineare alle derivate parziali. Questo metodo si è rivelato in seguito di grande generalità, e ha avuto recentemente un notevole sviluppo, a cavallo tra fisica matematica e analisi. Verso il finire del secolo, le ricerche sul moto dei sistemi hanno avuto una svolta molto importante con l'introduzione dei metodi qualitativi, sopratutto per opera di Jules Henri Poincaré e di Aleksandr Mikailovich Lyapunov. Per sistemi dinamici anche semplici (ad esempio il pendolo forzato) risulta impossibile descrivere con assoluta precisione le traiettorie corrispondenti a ogni possibile dato iniziale. È tuttavia possibile descrivere alcuni aspetti qualitativi, ad esempio la presenza di attrattori o la stabilità, che possono essere sufficienti per determinare le caratteristiche principali del moto. La stabilità dei sistemi dinamici è un problema di notevole interesse pratico, ad esempio nella costruzione di macchine, e di grande interesse concettuale in fisica matematica (ad esempio nello studio della meccanica celeste). È anche un problema di notevole complessità e per il quale sono noti solamente alcuni risultati parziali. La stabilità delle posizioni di equilibrio fu studiata in particolare da Lyapunov (1857-1918) al quale si devono una formalizzazione matematica della definizione intuitiva di equilibrio, una classificazione delle varie forme di equilibrio (stabile, asintotico, strutturale,…) e criteri per determinare la stabiltà o l'instabilità di una posizione di equilibrio. In particolare l'utilizzazione di una funzione sulla spazio delle fasi che non cresce lungo le traiettorie del moto (funzione di Lyapunov) ha giocato un ruolo importante non solo per sistemi meccanici, ma anche, con le opportune modifiche, nello studio della stabilità dei sistemi continui. Tra le ricerche precedenti notevole è la dimostrazione fatta da Lagrange e Johann Peter Gustav Lejeune Dirichlet che in un sistema meccanico 11 newtoniano, i massimi del potenziale sono punti di equilibrio stabile, mentre i minimi sono punti di equilibrio instabile. La figura dominante in questo periodo è Poincaré (1854-1912) che ha dato contributi eccezionali a molti settori della matematica e può essere considerato, insieme a David Hilbert, il più grande matematico del periodo a cavallo tra i due secoli. I suoi contributi alla fisica matematica, in particolare alla teoria dei sistemi dinamici, comprendono il teorema del punto unito, ipotizzato da Poincaré nel 1912 e dimostrato da George David Birkoff nel 1913, che afferma che ogni applicazione continua di un corona circolare in sé che preservi l'area ha almeno due punti fissi, l'analisi del moto del pendolo forzato da una forza periodica nel tempo, e l'analisi dettagliata del problema dei tre corpi. In queste analisi, molto innovative e che hanno provocato un notevole cambiamento di prospettiva nelle ricerche sulla teoria dei sistemi dinamici, Poincaré introduce nuovi metodi di indagine, quali l'esistenza di varietà stabili e instabili, i corrispondenti esponenti caratteristici, il flusso tangente, l'esistenza di integrali primi analitici. Fondamentale il suo lavoro Sur le problème a trois corps et les équations de la dynamique in cui dimostra tra l'altro che non esistono altri integrali primi analitici oltre a quelli che sono dovuti (teorema di Noether) all'invarianza del sistema per traslazione e rotazioni rigide, e quindi il sistema non è integrabile. Poincaré dimostra per questo problema che le traiettorie hanno un comportamento erratico e mostrano una dipendenza notevole dal dato iniziale, per cui traiettorie con dati iniziali vicini si allontano indefinitamente nei tempi successivi. Queste ricerche di Poincaré sul problema dei tre corpi sono alla base di quasi tutte le ricerche successive sulla complessità dei sistemi dinamici. Fondamentale è anche l'analisi fatta da Poincaré del pendolo forzato (pendolo sottoposto a una forza che dipende in modo periodico dal tempo); Poincaré dimostrò che, per quanto piccola sia la forza, il moto per dati inziali nello spazio della fasi vicini al punto di equlibrio instabile del pendolo (pendolo fermo a testa in su) il moto appare come una successione, apparentemente casuale, di moti di rotazione e di oscillazione (il moto del pendolo non forzato consiste in oscillazioni per energie minori dell'energia della posizione di equilibrio instabile, e rotazioni per energia maggiore). Inoltre Poincaré notò che la varietà stabile (che viene attratta dalla posizione di equlibrio instabile) e la varietà instabile (che viene attratta per tempi negativi e crescenti in valore assoluto) non coincidevano (come nel caso del pendolo) ma formavano un angolo tra loro non nullo e che in linea di pricipio poteva essere calcolato. Poincaré scrisse le equazioni che determinano la varietà stabile e instabile e l'angolo compreso, e si accorse che se se si cercava di costruire le soluzioni come sviluppo in serie perturbativo nel piccolo parametro dato dall'intensità del termine forzante, si otteneva il risultato che a ciascun ordine le varietà stabile e instabile coincidono, e l'angolo è quindi zero. Queste serie di potenza pertanto non potevano convergere, e correttamente Poincaré attribuì questo risultato al fatto che per trovare la soluzione bisogna invertire una matrice che per un insieme denso di dati iniziali ha uno spettro che si accumula a zero e quindi non è invertibile. A questa difficoltà venne dato in seguito il nome di problema dei piccoli denominatori e la sua analisi accurata ha dato origine al teorema KAM. Analizzando un problema un po' più complesso, un sistema completamente integrabile in uno spazio delle fasi di dimensione quattro, perturbato da un piccolo termine periodico nel tempo (nel quale in assenza di perturbazione le varietà stabile e instabile di una posizione di equilibrio hanno dimensione due), Poincaré mise in luce (ma non analizzò completamente) un nuovo fenomeno: la varietà stabile e instabile si intersecano adesso in una curva (prima era un punto) che costituisce 12 una traiettoria del sistema che è asintotica al punto instabile sia nel passato che nel futuro. Poincaré la chiamò omoclina e dimostrò che esistevano in un intorno arbitariamente piccolo infinite altre omocline. E ipotizzò che in questo intorno esistessero un numero infinito di orbite periodiche (qualche anno più tardi Birkhoff dimostrò questa congettura). Questi risultati di Poincaré mettono in luce la complessità delle traiettorie dei sistemi dinamici, anche nei casi più semplici, e sono stati alla base di tutta la teoria dei sistemi dinamici fino ai giorni nostri. Poincaré fu anche un chiarissimo espositore; i tre volumi del suo trattato Méthodes Nouvelles de la Méchanique Céleste sono a tutt'oggi un modello insuperato di esposizione della meccanica, e una fonte inesauribile di problemi di meccanica celeste. 4.2 Elettromagnetismo L'elettromagnetismo ebbe un notevolissimo sviluppo nella seconda metà dell'Ottocento, in parte anche come conseguenza dell'interesse industriale e del conseguente progresso tecnologico. Lo scienziato che ebbe un ruolo deteminante nello studio dell'elettromagnetismo in questo periodo fu James Clerk Maxwell (1831-1879). Per il suo ruolo sia in questo campo sia nello studio della teoria cinetica dei gas e della meccanica statistica, Maxwell va considerato tra i più grandi fisici matematici dell'Ottocento. Le equazioni di Maxwell, che descrivono l'interazione del campo elettromagnetico con i corpi materiali carichi, sono da centocinquanta anni a fondamento dell'elettromagnetismo, e si estendono (con le opportune modifiche) al caso quantistico. L'elettrodinamica così ottenuta descrive, a un livello impressionante di precisione, anche le interazioni del campo elettromagnetico con le particelle del mondo subatomico. Inoltre, per la loro concisione ed eleganza formale, le equazioni di Maxwell sono considerate tra le equazioni più notevoli della fisica. Maxwell fu, come Galileo, un convinto assertore del fatto che il compito della scienza è quello di "descrivere" e non di "spiegare" e che la ricerca scientifica procede per esperimenti e analogie. Al tempo di Maxwell i fenomeni elettromagnetici erano descritti facendo appello a vari tipi di strutture, fluidi elettrici e magnetici, particelle leggere che costituivano l'etere, luce prodotta da vibrazioni dell'etere. Un primo passo per un'unificazione fu fatto da William Thompson, successivamente conosciuto come lord Kelvin (1824-1907), che poco più che quindicenne notò che la propagazione del calore in un corpo solido omogeneo fatta da Fourier e la distribuzione di forze elettrostatiche erano descritte dallo stesso formalismo matematico. Nel suo primo lavoro, pubblicato nel 1842, mise le basi per un'interpretazione dei fenomeni elettrici e magnetici in termini di flusso in un mezzo continuo. Seguendo quest'analogia Maxwell in un primo articolo del 1856 (Sulle linee di forza di Faraday) descrisse l'elettromagnetismo mediante le proprietà di un fluido incompressibile. Nel secondo articolo del 1861 (Sulle proprietà fisiche delle linee di forza) le proprietà del campo elettromagnetico vengono dedotte dalle proprietà meccaniche di un fluido in moto vorticoso. Solo nel terzo articolo, del 1865 (Una teoria dinamica del campo elettromagnetico) le equazioni vengono presentate in forma astratta, senza più riferimento ad analogie con la teoria dei fluidi. Le equazioni di Maxwell nei mezzi materiali, che vengono adesso descritte come relazioni a priori tra entità di un modello matematico associate a determinate quantità fisiche misurabili (forze dovute all'azione di fili e correnti, magnetizzazione indotta da correnti elettriche,…) sono un esempio di come i simboli che 13 vengono utilizzati in uno stesso modello matematico possano essere fatti corrispondere, in diversi contesti interpretativi, a quantità fisiche differenti. Quando, nella seconda metà dell'Ottocento, Maxwell formulò le equazioni che portano il suo nome, questi fenomeni fisici venivano descritti in un contesto scientifico che risentiva pesantemente della predominanza della meccanica come modello esplicativo. I simboli matematici che intervengono nelle equazioni di Maxwell venivano quindi fatti corrispondere a quantità fisiche relative ad aspetti idrodinamici dell'etere, un ipotetico mezzo materiale che pervade tutto lo spazio, ma di natura sostanzialmente ignota. Senza che fosse cambiata la loro struttura, a partire dai primi anni del Novecento le equazioni di Maxwell furono interpretate come relazioni a priori tra le variazioni nel tempo e nello spazio di cariche e correnti elettriche, da una parte, e, dall'altra, le variazioni del campo elettomagnetico. Che non viene più interpretato come vibrazione dell'etere bensì come ammontare di energia e di quantità di moto localizzata nello spazio. Si passa così da una teoria esplicativa a una teoria descrittiva. Le equazioni di Maxwell non sono invarianti per trasfomazioni di Galileo (passaggio tra due riferimenti inerziali definiti dalla dinamica newtoniana) e dovrebbero quindi essere soddisfatte in un solo riferimento inerziale privilegato, ad esempio quello in cui l'etere è fermo. Ma l'evidenza sperimentale confermava le previsioni di Maxwell anche nell'interazione del campo elettromagnetico con corpi materiali ad alta velocità (come erano le turbine, macchine importantissime nella produzione di energia a livello industriale), rendendo così possibile utilizzare il modello nelle circostanze pratiche di interesse industriale. Questo stato di cose, mentre risultava molto soddisfcente dal punto di vista delle applicazioni, portava a notevoli difficoltà concettuali sia in relazione alla teoria dell'etere sia in relazione alla meccania newtoniana; queste difficoltà vennero risolte qualche anno più tardi, all'inizio del Novecento, con la formulazioni della relatività speciale di Einstein e il definitivo accantonamento dell'etere. La meccanica newtoniana restò come approssimazione valida in campo non relativistico, cioè nella descrizione dell'interazione tra particelle la cui velocità relativa è di gran lunga più piccola della velocità della luce. Le equazioni di Maxwell sono equazioni di evoluzione per onde elettromagnetiche che si propagano nel vuoto con velocità finita e indipendente dalla velocità dalla sorgente; queste onde sono caratterizzate dalla loro frequenza (oltre che dalla loro polarizzazione). In un certo intervallo di frequenza sono percepibili dall'occhio umano, e corrispondentemente vengono descritte come luce, e la variazione di frequenza viene percepita come variazione di colore. In ciascun riferimento inerziale l'onda generata da una sorgente puntiforme ha in ogni istante supporto sferico (questo supporto si propaga alla velocità della luce). Come si vede facilmente, questo fatto è incompatibile con un riferimento di tempo e spazio assoluti, e in particolare con una definizione di simultaneità che sia indipendente dal sistema inerziale che viene utilizzato. Inoltre, le misurazioni di lunghezza fatte con mezzi meccanici (metro) non danno lo stesso risultato in sistemi di riferimento diversi. Esperimenti concettuali a riprova di questo sono stati descritti da Einstein e da Wolfgang Pauli. La teoria della relatività speciale di Einstein può essere considerata una conseguenza della proprietà di invarianza della velocità della luce in tutti i sistemi inerziali, e anche una conseguenza dell'invarianza delle equazioni di Maxwell nel vuoto per un opportuno gruppo di trasformazioni lineari delle coordinate dello spazio e del tempo (trasformazioni di Lorentz). A questo proposito, è interessante notare che queste trasformazioni furono descritte per primo da Hendrik Antoon Lorentz, che però considerò un artefatto matematico la parte che riguarda il trasformarsi degli 14 intervalli di tempo quali vengono misurati dai singoli osservatori inerziali, nella convinzione che esitesse un tempo assoluto, e quindi una simultaneità assoluta riferita all'etere. Mentre per quanto riguarda il cambiamento delle distanze spaziali, misurate con mezzi meccanici (ad esempio con il metro), Lorentz ritenne che si trattasse di un fenomeno fisico (contrazione delle lunghezze) che cercò di giustificare con il variare delle forze di legame intermolecolare in un mezzo materiale che si muove rispetto all'etere. La semplicità formale della teoria della relatività ristretta di Einstein (che è una teoria descrittiva) rispetto alla teoria esplicativa di Lorentz può rendere ragione del fatto che la prima è universalmente conosciuta e utilizzata, mentre la teoria di Lorentz è praticamente sconosciuta (nonostante il fatto che la prima evidenza sperimentale sulla dilatazione dei tempi sia venuta solo negli anni sessanta con la misurazione del tempo di decadimento dei mesoni µ). I campi elettromagnetici nel vuoto soddisfano un'equazione delle onde, identica a quella trovata da D'Alembert e da Eulero nella loro descrizione delle vibrazioni di un corda, ma queste onde elettromagnetiche non rappresentano movimenti di materia, ma corrispondono a propagazione nel vuoto di energia e quantità di moto (solamente con la meccanica quantistica, come vedremo, e con il conseguente superamento della dualità onda-corpuscolo, alcuni aspetti delle onde elettromagnetiche sono interpretati come propagazione di particelle, i fotoni). Questa introduzione dei campi, oscillazioni senza un substrato materiale, fu una delle conquiste maggiori dell'elettromagnetismo, e domina attualmente la scena nella descrizione degli aspetti relativistici della meccanica quantistica. Dall'elettromagnetismo di Maxwell unitamente al calcolo differenzale astratto ha avuto origine la treoria della relatività generale di Einstein e le successive teorie cosmologiche. Anche le più recenti teorie delle particelle elementari e le varie equazioni con cui si cerca attuamente di descrivere in mondo subatomico (equazioni di Yang-Mills, equazione delle stringhe,…) hanno la loro origine nella teoria dei campi di Maxwell. 4.3 Teoria cinetica e meccanica statistica Questo campo di ricerca ha avuto un ruolo dominante in fisica matematica nella seconda metà dell'Ottocento, e si è espanso ulteriormente nel Novecento, fino a essere attualmente una dei principali indirizzi di ricerca. Pur avendo una comune origine e uno scopo comune, si sono andati sempre più differenziando due filoni, teoria cinetica e meccanica statistica. La comune origine è il tentativo di dimostrare che le regole della termodinamica (che riguarda sistemi macroscopici, ed era stata formalizzata come teoria del calore nella prima metà dell'Ottocento da Carnot e Thomson) si possono derivare studiando il comportamento collettivo di costituenti elementari, le molecole. In questo modo si riporterebbe anche la teoria del calore e delle macchine termiche alla meccanica, e inoltre si potrebbero calcolare i parametri che appaiono nelle leggi della termodinamica (ad esempio il calore specifico di un gas). Va precisato innanzitutto che sia la teoria cinetica che la meccanica statistica sono teorie statistiche, il cui scopo è descrivere il comportamento medio, o quello più probabile, di un insieme composto da un numero 15 molto grande di componenti elementari (che chiameremo molecole), tra loro identiche, le quali nel moto seguono le leggi della meccanica classica (o, nel caso della meccanica statistica quantistica, le leggi della meccanica quantistica). La teoria cinetica si propone di analizzare gli aspetti dinamici di questi insiemi, e in particolare le loro configurazioni di equilibrio. Lo scopo principale della meccanica statistica è invece determinare quale sia la distribuzione più probabile di velocità e posizione, e quali siano le più probabili deviazioni. Appare evidente da queste considerazioni che la teoria cinetica considererà i valori medi locali delle varie grandezze (densità, energia, quantitità di moto). In questo contesto locale significa che sono relativi a un insieme di molecole che siano localizzate in una regione dello spazio molto piccola rispetto alle dimensioni totali del sistema, così da essere assimilabile dal punto di vista macroscopico a un punto. Questo insieme di molecole devono essere in numero molto piccolo rispetto al numero totale di molecole del sistema in esame, ma sufficientemente grande così da poter applicare considerazioni statistiche. Quindi la teoria cinetica tenderà a utilizzare gli stumenti tipici della meccanica del continuo, e quindi in generale la teoria della equazioni di evoluzioni alle derivate parziali. La meccanica statistica, che ha lo scopo principale di dedurre il comportamento termodinamico di un sistema dall'analisi di quali siano le sue configurazioni più probabili da un punto di vista microscopico, e la probabilità che si presentino grandi deviazioni rispetto a queste configurazioni più probabili, utilizzerà sopratutto strumenti del calcolo delle probabilità, quali la legge dei grandi numeri, il teorema del limite centrale e la teoria delle grandi deviazioni. 4.3.1 Teoria cinetica Le origini della teoria cinetica possono essere fatte risalire a Daniel Bernoulli (1700-1782) che nel suo trattato Idrodinamica propone un modello di gas costituito da un gran numero di particelle microscopiche in movimento rapido e confinate in un recipiente a pareti riflettenti. Assumendo che tutte le particelle abbiano la stessa velocità, Bernoulli dimostra che, a temperatura costante, la pressione esercitata sulle pareti è inversamente proporzionale al volume occupato, e a volume costante la temperatura è proporzionale al quadrato delle velocità delle particelle. La comunità scientifica non recepì queste idee; un secolo più tardi esse furono riprese da Rudolf Clausius, (1822-1888) il quale, in due importanti pubblicazioni del 1857 e del 1858 le generalizzò, considerando anche l'energia connessa alle rotazioni e alle vibrazioni delle molecole. Clausius introdusse anche l'importante concetto di libero cammino medio come la distanza che in media una molecola percorre prima di interagire con un'altra molecola di gas ed esserne deviata. Il contributo più importante alla teoria cinetica nella seconda metà dell'ottocento è stato dato da Maxwell e da Ludwig Boltzmann, che hanno non solo posto le basi della teoria, ma l'hanno portata anche ad avere la formulazione che è utilizzata tuttora. La successive ricerche in fisica matematica hanno precisato, sviluppato e posto in forma matematica più rigorosa il loro programma. Maxwell fu uno dei primi a utilizzare strumenti del calcolo delle probabilità per concludere che, se le molecole sono molto numerose, sono all'istante iniziale contenute in una scatole cubica e hanno densità uniforme e tutte la stessa velocità in valore assoluto, e se le 16 direzioni di impatto di una molecola sull'altra sono ugualmente probabili, dopo un gran numero di collisioni la densità di molecole aventi velocità v è proporzionale a |v|2 exp –c|v|2 e dove c è un'opportuna costante (che dipende dalla temperatura) e che questo risultato non dipende dai dettagli dell'interazione. Questa distribuzione di velocità, che da allora è nota come maxwelliana, fu dedotta da Maxwell in modo in parte euristico, in parte forse sotto l'influenza dall'opera contemporanea di Johann Carl Friedrich Gauss sulla teoria degli errori. La distribuzione di Maxwell costituisce un primo esempio di deduzione a partire dalla meccanica classica del comportamento medio (macroscopico) di un sistema composto da un grandissimo numero di particelle. Nello stesso lavoro del 1860 Maxwell considera, sempre mediante metodi statistici, il problema del trasporto nei gas: trasporto di massa se il numero di molecole varia da punto a punto, trasporto di energia per collisioni successive (conduzione del calore) o ancora trasporto di quantità di moto (viscosità). Va notato ancora una volta che per punto si intende una regione dello spazio in cui è contenuto un numero di molecole abbastanza grande da giustificare descrizioni statistiche ma piccolissimo rispetto alle dimensioni macroscopiche del sistema. La nuova teoria permette, almeno in linea di principio, a partire da leggi che riguardano il moto di una singola molecola, il calcolo dei coefficienti di trasporto, costanti numeriche che venivano introdotte empiricamente nella descrizione di fenomeni macroscopici quali la conduzione del calore o il moto viscoso dei fluidi. Il più grande passo avanti nella teoria cinetica è dovuto pochi anni più tardi a Ludwig Boltzmann (18441906). Il suo primo lavoro importante esce nel 1868, seguito nel volgere di pochi anni da altri lavori fondamentali. Queste pubblicazioni provvedono un'analisi molto approfondita della teoria cinetica e hanno costitutito un momento di fondamentale importanza per la fisica matematica; a tutt'oggi gli studi relativi all'equazione di Boltzmann sono un capitolo d'avanguardia nella teoria cinetica. L'analisi fatta da Boltzmann parte dalla definizione di funzione di distribuzione f(x, p, t) che descrive al tempo t la densità di particelle nel punto x aventi quantità di moto uguale a p. Lo scopo della ricerca è di dedurre dalla conoscenza delle forze che agiscono su ciascuna particella a opera delle altre la legge secondo cui varia la funzione di distribuzione. Per semplicità, consideriamo solo il caso in cui le particelle siano identiche. L'ipotesi principale che viene fatta riguarda la distribuzione delle collisioni (Stosszahlansatz): che le collisioni nel punto x siano completamente casuali. In altre parole, nel punto x il numero N(x, v, u) di molecole di velocità v che interagiscono con quelle di velocità u è proporzionale al prodotto n(x, v) n(x, u) |u–v| dove n(x, u) è la densità di molecole nel punto x che hanno velocità u (si noti che |v–u| è proporzionale al numero di molecole di velocità rispettivamente u e v che possono collidere in un tempo unitario, nell'ipotesi che in questo tempo avvenga una sola collisione). Sotto queste ipotesi, Boltzmann arriva a scrivere un'equazione di evoluzione per la funzione di distribuzione che ha le seguenti importanti caratteristiche 1) di ammettere, come soluzione stazionaria, precisamente la distribuzione di Maxwell 2) di prevedere che, partendo da qualunque altra distribuzione, si raggiunga, asintoticamente nel tempo, la distribuzione di Maxwell. Per quanto riguarda la dimostrazione del secondo di questi punti, Boltzmann fa uso di una funzione definita sullo spazio delle funzioni di distribuzione, a cui dà il nome di entropia (indicata con il simbolo H). 17 Essa nel corso dell'evoluzione temporale del sistema presenta caratteristiche che ricordano quelle della funzione termodinamica entropia introdotta da Clausius. Boltzmann dimostra che, sotto le ipotesi fatte, il valore numerico di questa funzione non può diminuire nel tempo, e cresce se la distribuzione da cui si parte non è la distribuzione di Maxwell (teorema H di Boltzmann). Quest'affermazione dà luogo a un apparente paradosso, poiché le leggi del moto microscopiche da cui è dedotta sono reversibili (invarianti per cambiamento del segno del parametro tempo). Inoltre, si può dimostrare, a partire dalle stesse leggi microscopiche, che nell'evoluzione di un sistema isolato il valore numerico della funzione H non varia nel tempo. La soluzione di questo paradosso, la cui discussione ha avuto anche in tempi recenti una certa rilevanza nella letteratura scientifica e non scientifica (in relazione al concetto di tempo e all'asimmetria passato-futuro) sta nel fatto che la distribuzione della velocità delle molecole che si trovano nel punto x non soddisfa quasi mai le condizioni per la validità dello Stosszahlansatz, e in qualche punto e determinati istanti queste condizioni vengono violate in modo considerevole, per cui le affermazioni che ne conseguono hanno solamente un valore statistico. Partendo da configurazioni che soddisfano in quasi tutti i punti le ipotesi fatte da Boltzmann l'entropia cresce, ma nel corso del tempo molti dei punti non soddisfano più quelle ipotesi (tenere presente che in realtà ciascun punto rappresenta una regione dello spazio dalla quale particelle possono entrare o uscire) e quindi a un tempo successivo nel punto in esame l'entropia può diminuire. Un'analisi molto accurata di questi apparenti paradossi è stata fatta nella prima metà del Novecento da Paul e Tatiana Eherenfest. Con queste precisazioni, va riconosciuto che l'equazione di Boltzmann e il conseguente teorema H hanno tuttora un ruolo fondamentale nella trattazione in fisica matematica dell'evoluzione dei gas, sopratutto a bassa densità. 4.3.2 Meccanica statistica La nascita della meccanica statistica, in termini che hanno mantenuto la loro sostanziale identità fino alla ricerche più recenti, va fatta risalire a Josiah Willard Gibbs (1839-1903). Questo autore, in un libro di straordinaria concisione ed eleganza pubblicato nel 1901, descrive un nuovo approcio al problema dell'equilibrio termico di un gas. Prendendo spunto dai risultati di Maxwell e Boltzmann, Gibbs li presenta in una forma assai diversa, generalizzandoli. Gibbs considera uno spazio delle fasi esteso, i cui punti (microstati) hanno come coordinate cartesiane i valori numerici delle coordiate spaziali e delle quantità di moto di tutte le molecole contenute nel sistema termodinamico considerato. Gibbs nota che, poiché questo numero N di gradi di libertà (dimensione dello spazio esteso) è molto grande per i sistemi che si vogliono descrivere con la meccanica statistica, conviene utilizzare il suo inverso, che è conseguentemente un numero molto piccolo e che indichiamo con _. Il preciso valore numerico di _ deve essere irrilevante per la descrizione dell'insieme considerato (raddoppiando le dimensioni lineari del sistema la descrizione non dovrebbe cambiare in modo apprezzabile), e quindi sembra ragionevole considerare innanzitutto il caso _=0 (e quindi N = infinito) e trattare successivamente il caso fisico mediante la teoria delle pertubazioni. 18 Naturalmente questo procedimento presenta delle difficoltà matematiche, per la necessità di utilizzare fin dall'inizio uno spazio di dimensione infinita, e al tempo di Gibbs non erano ancora stati sviluppati gli strumenti tecnici per affrontare il problema in modo perfettamente rigoroso; questo avvenne nella seconda metà del novecento, a opera sopratutto di fisici matematici. Questa intuizione di Gibbs si rivelò tuttavia la chiave che aprì le porte dell'interpretazione attuale della meccanica statistica. Gibbs si pose innanzitutto il seguente problema: che caratteristiche deve avere una densità di probabilità P(q, p) per risultare invariante rispetto al flusso nello spazio della fasi dato dalla soluzione di un sistema hamiltoniano? La risposta è che è sufficiente che il suo valore numerico in ogni punto dipenda solo dal valore dell'hamiltoniana in quel punto. Se non vi sono altre costanti del moto oltre all'energia, la condizione è anche necessaria. Gibbs considerò di interesse una particolare distribuzione invariante, quella data dalla formula P (q, p) = exp (___E(q, p)) dove _ e _ sono costanti numeriche e abbiamo indicato collettivamente con q e p le coordinate nello spazio delle fasi esteso (exp è la funzione esponenziale). Che questa distribuzione sia interessante per la meccanica statistica viene per il momento assunto come postulato; Gibbs chiamò canonico un insieme distribuito nello spazio della fasi con questa legge. Egli introdusse anche un'altra distribuzione di interesse, che chiamò microcanonica. Grosso modo, è una distribuzione che assegna un peso in modo uniforme ai punti nello spazio della fasi aventi una stessa fissata energia E. Anche questa distribuzione è invariante per il flusso hamiltoniano. Gibbs introdusse anche una terza distribuzione, che qui non discuteremo, adatta a trattare sistemi nei quali il numero di particelle di una stessa specie non rimane costante nel tempo, la distribuzione macrocanica. Gibbs poi passò ad associare quantità termodinamiche (estensive, come il volume, o intensive, come la pressione) a espressioni calcolabili a partire dalla distribuzione di equilibrio. A parte l'identificazione dell'energia con la hamiltoniana del sistema le altre identificazioni vengono poste per analogie in modo che le relazioni tra le quantità così definite riproducano le relazioni tra le grandezze termodinamiche. Vediamo anche in quest'opera di Gibbs la tendenza a sostituire lo "spiegare" con il "descrivere". Le analogie vengono introdotte mediante esperienze concettuali. Si suppone di variare di poco i parametri che intervengono nella hamiltoniana, così da cambiare di poco la distribuzione di equilibrio, e si registrano gli effetti sui valori medi di funzioni sullo spazio delle fasi. Si ottengono così delle variabili coniugate, una intensiva e l'altra estensiva (ad esempio il volume è la variabile coniugata alla pressione). Si verifica in questo modo che la compatibilità con le leggi della termodinamica indica che il parametro deve essere interpretato come l'inverso della temperatura, mentre il parametro deve essere interpretato come entalpia e S = (__E(q, p) - _) come entropia (S coincide con il valor medio sulla distribuzione considerata dell'espressione a cui Boltzmann aveva dato in nome di entropia). Gibbs si pose successivamente il problema di quale fosse la distribuzione di energia in un sistema canonico e dimostrò che per N abbastanza grande la distribuzione canonica è molto concentrata sui punti che hanno energia eguale al valor medio, suggerendo così che quando il numero N viene fatto tendere all'infinito l'insieme canonico e quello microcanonico vengono a coincidere. L'utilizzazione dell'insieme canonico è quindi ridotto al ruolo di pura convenienza di calcolo, poiché i calcoli dei valori medi e la determinazione della grandezze coniugate risulta di molto facilitata dalla particolare forma analitica della distribuzione canonica. 19 Gibbs analizzò anche la relazione tra la sua teoria degli insiemi e le leggi della termodinamica dei sistemi non in equilibrio termico. Il procedimento che Gibbs utilizza a questo scopo richiama un po' quello utilizzato da Boltzmann per affrontare i paradossi connessi al teorema H e all'approcio all'equlibrio. Sostituendo ai punti dello spazio delle fasi esteso delle regioni di dimensione molto piccola ma non nulla, e studiando il comportamento del sistema su intervalli di tempi lunghi rispetto a quelli che caratterizzano lo scambio di energia all'interno di una regione. Gibbs produsse argomenti di plausibilità che potevano rendere conto del fatto che mescolando due gas a temperatura diversa, il sistema risultante tendesse nel corso del tempo a raggiungere una distribuzione di equilibrio caratterizzata da una temperatura intermedia. Solo nella seconda metà del Novecento, utilizzando strutture matematiche costruite in gran parte per risolvere questo problema, si sono fatti dei passi avanti nella descrizione, a partire da leggi microscopiche, della meccanica statistica dei sistemi non in equlibrio termico, ma il programma di Gibbs non può dirsi a tutt'oggi completato. 5. Meccanica quantistica Prima di chiudere questo capitolo dedicato a un breve excursus storico sulle problematiche della fisica matematica alla fine dell'Ottocento, essenziale per meglio capire le radici delle attuali linee di ricerca e utile in una prima descrizione informale delle ricerche in fisica matematica, diamo i primi rudimenti di un filone di ricerca, quello della meccanica quantistica, che avuto inizio nel primo quarto del Novecento e si è sviluppato da allora notevolmente, anche per la sua contiguità con la fisica teorica. Poiché qui interessa mettere sopratutto in luce gli aspetti fisico-matematici della meccanica quantistica, ci soffermeremo solo brevemente sui problemi fenomenologici e sperimentali che hanno portato alla sua nascita. Notiamo solamente che questa è dovuta alle difficoltà incontrate, all'inizio del secolo, da parte della fisica classica a rendere conto in modo coerente di risultati sperimentali riguardanti il mondo subatomico. Una successione di dati importanti, dall'analisi dello spettro del corpo nero all'effetto fotoelettrico, alle figure di diffrazione nella diffusione di elettroni, alla stabilità degli atomi e alla struttura discreta del loro spettro di emissione di luce non sembravano essere compatibli con la meccanica e l'elettromagnetismo classici. In particolare, gli elettroni, e tutte le particelle subatomiche, sembravano possedere talora caratteristiche di particella, talora caratteristiche proprie delle onde, ma mai entrambe queste caratteristiche in uno stesso tipo di esperimento. Inoltre l'effetto fotoelettrico sembrava indicare che la stessa dualità valesse anche per la luce. Un tale stato di cose richiedeva un radicale ripensamento di concetti e categorie dati per scontati in fisica classica, quali la definizione operativa di stato, di osservabile, di operazione di misurazione. Per costruire un nuovo modello si poteva partire da uno dei due punti di vista (opposti per una teoria classica) di particella e di onda e sviluppare un modello che li rendesse complementari, in modo tale che fosse l'operazione di misurazione a mettere in luce talora l'uno e talora l'altro dei due aspetti di ogni sistema fisico. Questa teoria fu costruita negli anni venti da una parte da Erwin Schrödinger (1887-1961) (seguendo precedenti suggerimenti di Luis de Broglie) e dall'altra da Werner Heisenberg (1901-1976), Max Born e Pascual Jordan. Che le due teorie così costrutite siano isomorfe (esiste una corrispondenza naturale tra i due modelli, 20 ottenuta mediante la dualità che connette osservabili e stati) fu dimostrato poco più tardi dallo stesso Schrödinger. Negli anni immediatamente successivi una sintesi fu compiuta da Paul Dirac, Wolfgang Pauli e soprattutto, dal punto di vista della fisica matematica, da John von Neumann. Partendo dal punto di vista della teoria ondulatoria Schrödinger costruì un modello in cui ogni elettrone (così come ogni altra particella elementare) è rappresentato da una funzione (che chiamò funzione d'onda per motivi essenzialmente storici) definita nello spazio fisico, a valori complessi. L'evoluzione di questa funzione è descritta da un'equazione alle derivate parziali (l'equazione di Schrödinger) che venne sostanzialmente postulata, in base ad analogie con l'equazione delle onde. Per un sistema che fosse descritto classicamente mediante una hamiltoniana H(x, p) l'equazione quantistica veniva costruita (principio di corrispondenza) mediante la sostituzione di x con l'operazione di moltiplicazione per la coordinata x e di p con l'operatore di differenziazione rispetto alla coordinata x, moltiplicato per l'unità immaginaria i (per renderlo hermitiano) e per l'inverso della costante di Planck (per dagli le dimensioni di un inverso di una lunghezza; la costante di Planck h ha le dimensioni di un'azione). Detto H(x, i d/dx) questo operatore, l'equazione di Schrödinger per una generica funzione d'onda assume la forma i d/dt H. La soluzione (t) corrispondente a un dato inziale ha l'espressione (t) = exp (-i t H) e definisce un gruppo a un parametro di trasformazioni unitarie. Per assioma, il valore assoluto del quadrato delle funzione d'onda nel punto di coordinata x rappresenta la (densità di) probabilità che effettuando una misura di posizione la particella venga trovata in x. Per quanto riguarda la misura di quantità di moto, vale una regola analoga ottenuta sostituendo la funzione d'onda con la sua trasformata di Fourier. In questo modello l'esistenza di un numero discreto di stati atomici di energia negativa (stati legati) viene dedotta come conseguenza dell'esistenza di un numero discreto di autovalori dell'operatore di Schrödinger. Per quanto riguarda gli stati a energia positiva, il comportamento simile a quello di una particella è conseguenza della forma che assume per tempi diversi da zero la funzione d'onda che abbia all'istante iniziale supporto concentrato nell'intorno del punto X0 con dispersione __X e la cui trasformata di Fourier abbia supporto concentrato in un punto P0 con dispersione _P. Se il prodotto _X _P è di ordine di grandezza h (non può essere minore di h per una proprietà della trasformata di Fourier) la dispersione non cresce molto per tempi finiti, e la coppia baricentro nello spazio delle x e baricentro nello spazio della p varia nel tempo secondo le leggi della dinamica hamiltoniana con hamiltoniana H(x, p) avendo come dati iniziali X0 e P0. Pertanto funzioni d'onda con queste caratteristiche si comportano come i punti nello spazio delle fasi. Si noti che la costante h ha un valore estremamente piccolo quando viene espressa in unità naturali. Come si può facilmente capire, questa rappresentazione di Schrödinger porta a sviluppare un formalismo matematico basato sulla teoria delle equazioni alla derivate parziali e sulle teoria della funzioni, che aveva avuto all'inizio del secolo un notevole sviluppo. Il modello di Schrödinger si presta all'analisi di casi concreti, anche di notevole complicazione. Ogni volta che è stata applicata in ambito non relativistico ha dato previsioni che sono state verificate sperimentalmente con risultati straordinari. D'altra parte esistono difficoltà nell'estendere il modello al caso di particelle relativistiche, se non nel caso libero (equazione di Dirac) e con opportune precisazioni nel caso di campi lentamente variabili nello spazio. 21 L'altro modello, equivalente al primo ma basato sull'analisi delle grandezze osservabili, fu proposto da Heisenberg (sotto il nome di meccanica delle matrici) e sviluppato subito da Heisenberg stesso in collaborazione con Born e Jordan. In questo modello, gli elementi principali sono le grandezze osservabili, rappresentate da matrici (a questa associazione Heisenberg giunse considerando che i dati sperimentali direttamente accessibili si riferiscono a transizioni tra due livelli atomici, e quindi sono rappresentabili da matrici). Poiché in questo modello viene stipulato che gli autovalori della matrice corrispondente a un'osservabile siano i possibili risultati di una misurazione fatta, le matrici associate alle osservabili devono avere autovalori reali, cioè essere hermitiane. Poiché i livelli di un atomo sono in generale in numero infinito, le matrici che intervengono nel modello sono in realtà matrici infinite ovvero operatori lineari su uno spazio complesso di dimensione infinita. La dinamica di questa algebra di matrici (le matrici formano un'algebra per moltiplicazione) viene postulata seguendo in parte il principio di corrispondenza che richiede che, in opportuni limiti d'energia, la dinamica sia isomorfa alla dinamica hamiltoniana classica (nella sua versione algebrica). Anche in questo modello l'evoluzione così definita è unitaria. Un modo alternativo, ma equivalente, di introdurre la dinamica venne seguito da Dirac e von Neumann; esso sfrutta l'isomorfimo algebrico tra l'operazione bilineare parentesi di Poisson in dinamica hamiltoniana e l'operazione bilineare consistente nell'associare a due operatori lineari su uno spazio lineare complesso il loro commutatore moltiplicato per l'unità immaginaria, cioè associare ad A e B l'operatore i(AB-BA)). La moltiplicazione per l'unità immaginaria è necessaria se si vuole che l'operatore associato alla coppia A, B sia hermitiano se A e B lo sono. In questo modo alternativo, un ruolo predominante è svolto dagli operatori che corrispondono rispettivamente alle osservabili posizione e quantità di moto. I corrispondenti operatori soddisfano, in virtù di questo isomorfismo, delle regole di commutazione canoniche, della stessa natura delle parentesi di Poisson per le variabili posizione e momento nel formalismo hamiltoniano. Questo porta all'elegante dimostrazione dell'equivalenza dei due modelli, di Schrödinger e di Heisenberg, data da von Neumann attraverso la dimostrazione vi è un unico modo, a meno di isomorfismi, di soddisfare tali relazioni mediante operatori lineari su uno spazio di Hilbert complesso. La sola differenza consiste nel fatto che il modello di Schrödinger utiliza come coppia canonica l'operatore di moltiplicazione per le coordiante spaziali e l'operatore di differenziazione rispetto a queste coordinate (moltiplicato per l'unità immaginaria) mentre il modello di Heisenberg lascia a prori indeterminata la scelta della coppia canonica. Da queste brevi considerazioni si può dedurre che il modello di Schrödinger (la rappresentazione di Schrödinger), che utilizza uno spazio concreto di funzioni e operatori differenziali lineari, è più adatto a trattare problemi specifici, anche molto complessi, avendo la possibilità di sfruttare appieno risultati della teoria delle funzioni e proprietà della trasformata di Fourier. Al contrario, il formalismo di Heisenberg è più adatto a studiare relazioni di natura generale, sfruttando risultati generali della teoria delle algebre di operatori su spazi di Hilbert astratti. Inoltre, il formalismo di Heisenberg in linea di massima sarà più adatto allo studio del caso infinito-dimensionale (sistemi quantistici di infinite particelle) che appare quando si voglia fare una teoria quantistica del campo elettromagnetico (teoria 22 quantistica dei campi, un argomento di ricerca che ha avuto notevoli sviluppi nella seconda metà del Novecento). Nella rimanente parte di questo articolo vogliamo inquadrare, nel contesto delle problematiche che venivano affrontate dalla fisica matematica ai primi del Novecento, alcuni sviluppi recenti, privilegiando quelli che riguardano la meccanica classica e la meccanica statistica classica, la cui comprensione non richiede strumenti matematici e sopratutto terminologie che possono essere non familiari. Gli argomenti che tratteremo sono recenti sviluppi in dinamica hamitoniana e sistemi dinamici della meccanica statistica. La scelta fatta ha lo scopo di indicare quale sviluppo abbiano avuto alcune delle ricerche in fisica matematica. 5.1 Recenti sviluppi in dinamica hamiltoniana Un sistema hamiltoniano con n g radi di libertà e di hamiltoniana indipendente dal tempo è detto completamente integrabile se ha n integrali primi (costanti del moto) I(k), k=1...n indipendenti e in involuzione tra loro (cioè tali ciascuno di essi sia invariante per il flusso hamiltoniano generato dagli altri). Se la superficie di dimensione n ottenuta fissando i valori numerici di tutti gli I(k) è compatta, essa è necessariamente un toro. Si possono introdurre come coordinate n variabili angolari coniugate alle I(k) e la proiezione del moto su ciascuno di questi angoli è un moto rotatorio uniforme; le frequenza di questi moti variano con continuità sulla superficie, quindi il moto sarà genericamente multiperiodico. Molti esempi di sistemi completamente integrabili erano noti già all'inizio del secolo, e molti altri sono stati costruti recentemente con nuovi metodi. Se si perturba anche di pochissimo un sistema completamente integrabile il sistema che si ottiene non è più in generale completamente integrabile, anzi ha adesso in generale solo una costante del moto, l'energia, e questo comunque piccola sia la perturbazione. Su ciascuna superficie di energia costante esiste un insieme, il cui complemento ha misura piccola se la perturbazione è piccola, composto di tori di dimensioni n che differiscono di poco da quelli che esistevano prima della perturbazione, e sui quali il moto è multiperiodico con frequenze che differiscono poco da quelle precendenti e sono tra loro sufficientemente incommensurabili. La rimanente porzione della suparficie è occupata da traiettorie che risultano molto più complicate, e hanno in generale un carattere iperbolico (ogni loro intorno si contrae nel tempo in alcune direzioni, si espande in altre, in modo tale che il volume totale sia conservato). In questa regione il moto appare dunque caotico. Quello che risulta più interessante è che queste due regioni si compenetrano molto finemente, tanto che ciascuna di esse è densa nell'altra (la chiusura di ciascuna di esse è l'intera superficie di energia costante). Questo fenomeno, descritto dal teorema KAM (dai nomi d egli studiosi Andrei Nikolayevich Kolmogorov, Vladimir I. Arnol'd e Jürg Moser che l'hanno dimostrato in modi diversi e sotto condizioni lievemente diverse sul temine perturbante), è uno dei momenti salienti della ricerca relativa ai sistemi dinamici nel secolo ventesimo. Non daremo qui una formulazione precisa di questo teorema (si può vedere ad esempio V. I. Arnol'd, Metodo matematici della meccanica, Editori Riuniti). Questa caoticità del moto, che qui appare nei sistemi che differiscono di poco da sistemi integrabili, era già nota a Poincaré, che l'aveva analizzata nel suo studio di sistemi dinamici conservativi perturbati da una piccola forza periodica. 23 Poincaré introdusse nella sua analisi lo strumento delle varietà stabili e instabili e delle loro intersezioni (che danno luogo a orbite omocline, orbite corrispondenti a soluzioni che sono asintotiche sia nel passato che nel futuro a posizioni di equlibrio del sistema) e cercò di analizzare questo problema con metodi perturbativi. Poincaré si accorse che le serie perturbative così ottenute non convergono e che l'angolo tra le varietà è più piccolo di ogni potenza del parametro g che indvidua la grandezza della perturbazione. Poincaré stesso dimostrò che la presenza di un'orbita omoclina implica l'esitenza di infinite altre omocline distinte fra loro e intuì che questo era all'origine del fatto che la dinamica vicino alle omocline fosse caotica. Le argomentazioni di Poincaré erano solamente formali, e una buona parte del progresso nella comprensione dei sistemi dinamici nel Novecento è consistito nel provvedere dimostrazioni per sistemi generali di queste intuizioni di Poincaré. In questo progresso hanno avuto una parte esenziale prima George David Birkhoff e poi Stephen Smale. Birkhoff nel 1936 studiò un sistema dinamico ottenuto iterando una trasformazione nel piano che preserva l'area e ha un punto fisso iperbolico tale che le varietà instabile e stabile si intersecano formando un angolo non nullo. Birkhoff dimostrò che questo sistema aveva un'infinità (numerabile) di orbite periodiche, che si accumulavano sulle separatrici. Birkhoff propose anche l'uso della dinamica simbolica (per cui ogni taiettoria viene rappresenata da una serie numerica). La descrizione completa della dinamica in un intorno di un punto fisso omoclino venne data nel 1965 da Smale, con un modello detto del ferro di cavallo per la struttura geometrica degli insiemi considerati. Stime quantative per l'angolo di separazione (che, ricordiamo, è più piccolo di ogni potenza di g) sono state date da Alexey Melnikov nel 1963 seguendo un metodo proposto da Poincaré per il calcolo dell'angolo di separazione tra la varietaà stabile e quella instabile. Altre stime sono state date da Nicolai Nekhoroshev nel 1977 e da Anatoly Neishtadt nel 1984 perfezionando il classico teorema della media nel tempo. Lo studio delle proprietà delle delle orbite omocline e dell'angolo di separazione rimane a tutt'oggi lo strumento pricipale nella definizione e nella descrizione di sistemi caotici. I risultati di Birkhoff sono stati generalizzati da Arnol'd, che ha dimostrato che l'esistenza di infinite orbite periodiche implica anche che esistano traiettorie che connettono punti della spazio delle fasi in cui le variabili d'azione (che sono costanti del moto per g=0) differiscono per una quantità finita (diffusione di Arnol'd). Tornando al risultato principale, il teorema KAM, la sua dimostrazione, sebbene complessa e laboriosa nei dettagli, si basa su di un'idea relativamente semplice, quella di cercare una trasformazione canonica di coordinate nello spazio delle fasi in modo tale che nelle nuove variabili l'hamiltoniana H dipenda solo dalle nuove variabili d'azione. L'esistenza di tale trasformazione dimostrerebbe che anche il nuovo sistema è completamente integrabile; quindi la trasformazione non può essere definita su tutto lo spazio della fasi. Ma essa può essere definita tranne che in un insieme che ha misura proporzionale a g; le difficoltà che si incontrano nella sua costruzione sono dovute al fatto che l'insieme sul quale esse non può essere costruita è denso nello spazio della fasi; questo preclude ogni metodo basato sulla continuità. L'ostacolo all'esistenza della traformazione cercata viene dal fatto che la funzione generatrice di tale trasformazione sarebbe una soluzione di una successione di 24 equazioni differenziali del prim'ordine; per trovare questa soluzione è necessario invertire un operatore lineare. Lo spettro di quest'operatore ha lo zero come punto di accumulazione e questo permette l'inversione solo per dati iniziali contenuti in un sottoinsieme dello spazio della fasi che ha complemento denso. Questo procedimento di inversione, unito a un'accurata utilizzazione del metodo d'approssimazione di Newton, permette di dedurre un risultato più debole, dovuto a Nekhoroshev, che afferma le traiettorie soluzioni del sistema perturbato restano, per un insieme di dati inziali di misura piena, vicine a quelle del sistema imperturbato per un tempo esponenzialmente lungo (rispetto all'inverso di g). Il teorema KAM rivela tra l'altro la difficoltà che si incontra nel tentativo di dimostrare la stabilità di un sistema hamiltoniano generico. In generale si può ottenere solamente una stabilità in misura, che assicura che la maggior parte delle traiettorie è stabile per un sistema che differisca poco da un sistema completamente integrabile. È importante sottolineare che il teorema KAM, nella sua dimostrazione attuale, è insoddisfacente dal punto di vista della fisica matematica. Infatti, i valori del parametro g per i quali il teorema è stato dimostrato sono molti ordini di grandezza più piccoli delle perturbazioni che si incontrano in sistemi fisici naturali, come può essere il sistema Terra-Luna-satellite artificiale, in cui il piccolo parametro può essere il rapporto tra la massa del satellite artificiale e la massa della Luna. Solamente con stime più accurate e mediante l'uso di calcolatori elettronici sono state raggiunti valori di g più vicini al caso di sistemi fisici. 5.2 Recenti sviluppi in meccanica statistica La seconda metà del Novecento ha visto un rinnovato interesse per la meccanica statistica, metodi matematici rigorosi sono stati introdotti per trattare sistemi di infinite particelle e la connessione con i progressi in teoria della probabilità sono diventati più stretti. Cerchiamo qui di descrivere in modo elementare alcuni dei risultati più importanti. Innanzitutto è necessario descivere la dinamica di sistemi composti da un numero infinito di particelle, che per semplicità supporremo identiche. Se le particelle fossero in numero finito N la descrizione naturale sarebbe mediante l'introduzione di uno spazio posizione-velocità con coordinate q1… qN, v1,… ,vN, che indichiamo collettivamente con il simbolo s (per sistema). La dinamica sarebbe descritta da una funzione di s, la hamiltoniana, somma di un termine di energia cinetica e di un termine di energia potenziale dovuto alle forza che ciascuna particella esercita sulle altre. Assumeremo sempre che il potenziale sia una funzione abbastanza regolare. Le equazioni del moto sono l'equazioni di Hamilton con hamiltoniana H(s). Se lo spazio delle configurazioni è tutto ℜ3, in generale il moto è tale che le particelle si allontanano indefinitamente. Per ottenere sistemi con densità finita, richiediamo che tutte le particelle si muovano in una regione O il cui volume cresce linearmente con N. Occorre porre delle condizioni al bordo di O. Una scelta naturale, che noi faremo, è di scegliere O essere un cubo di lato L e volume proporzionale a N (il coefficiente di proporzionalità è la densità del sistema), e condizioni periodiche al bordo per garantire la conservazione di energia e di quantità di moto. Prima di passare alla descrizione della dinamica di un sistema infinito di particelle, è conveniente notare che, essendo le particelle tra loro identiche, possiamo identificare le configurazione di N di esse con gli insiemi finiti di ℜ3 che contengono precisamente N punti. Allora, tenendo in considerazione anche la velocità della particelle, lo spazio 25 S di un sistema infinito di particelle può essere identificato con lo spazio di tutti gli insiemi numerabili di ℜ3 X ℜ3 che sono finiti localmente. Definiamo la dinamica di un sistema di particelle nell'intero spazio euclideo come limite della dinamiche per N particelle nella regione O. Questo richiede la definizione di una topologia (una regola che dice quando una successione converge); una definizione abbastanza naturale si ottiene considerando la convergenza in qualunque fissato sottoinsieme della spazio della fasi (i dettagli di questa definizione richiedono attenzione, ma la costruzione è standard). Il limite indicato non esiste per tutte le configurazioni s (per qualche configurazione del sistema infinito tutte le particelle potrebbero ad esempio concentrarsi in uno stesso punto dello spazio a un tempo finito). Lo studio delle condizioni sul potenziale affinché le configurazioni per le quali il limite esiste per ogni tempo siano sufficientemente numerose (in modo tale che esse costituiscano un insieme di misura piena per le distribuzione di interesse) è tuttora una parte importante della ricerca in fisica matematica in questo campo. Una volta introdotta la dinamica di un sistema di infinite particelle, si può incominciare a parlare di evoluzione di insiemi statistici e della loro eventuale invarianza. Denotiamo con S* il sottoinsieme di S per il quale la dinamica esiste per ogni tempo. Consideriamo una misura di probabilità P(0) in S che sia portata tutta da S*; l'evoluzione di P(0) sarà data per ogni sottoinsieme Q di S* misurabile da P(t) (Q) = P(0) ({s: s(t) in Q)}). Possiamo adesso formulare il postulato di Gibbs nel modo seguente: per una vasta classe di stati inziali P(0) lo stato P(t) tende quando t tende all'infinito a uno stato di Gibbs corrispondente al potenziale U che descrive la dinamica del sistema. Diamo qui la definzione di stato di Gibbs nel contesto di un sistema che contiene un numero infinito di particelle. Una misura nello spazio S viene detta misura di Gibbs (associata a un potenziale U) se è il limite di misure di Gibbs con potenziale U in una successione di regioni di volume crescente che invadono ℜ3 con condizioni al bordo opportune, oppure fa parte della chiusura convessa di tali limiti. Poiché la misura di Gibbs è una misura prodotto (di una misura gaussiana nello spazio della velocità e di una misura di Gibbs nello spazio delle configurazioni), e poiché le misure gaussiane ammettono un limite naturale quando N tende all'infinito, considereremo d'ora in poi solamente il limite della parte configurazionale della misura. Per valori della temperatura suficientemente grandi la misura di Gibbs, se esiste è unica e può essere costruita con un metodo iterativo (sviluppo in grappoli). Ci si aspetta che in dimensioni spaziali maggiori di uno e per temperature abbastanza piccole) la misura di Gibbs così definita non sia unica, e le misure ottenute con il processo di limite dipendano dalle condizione al bordo scelte, ma nessuna di queste affermazioni è stata finora dimostrata in modo rigoroso. È stato dimostrato che per un vasta classe di potenziali U la misura di Gibbs associato è invariante per la dinamica data dal potenziale U stesso (questa cosa è banale per insiemi finiti di particelle ma richiede una dimostrazione nel caso di insiemi infiniti). È stato d'altra parte dimostrato che le misure di Gibbs con potenziale U non esauriscono in generale la classe delle misure per sistemi a infinite particelle invarianti per la dinamica generata dal potenziale U (ricordiamo, a titolo di confronto, che nel caso di un numero finito di particelle potevano esistere altri integrali 26 primi del moto oltre all'energia, ed inoltre era possibile definire altre misure invarianti come ad esempio quella che definisce l'insieme microcanonico). D'altra parte è possibile porre altre condizioni naturali sulle misure invarianti sotto la dinamica associata a un potenziale U. Ad esempio di essere invarianti per traslazioni spaziali, o di ammettere densità (rispetto alla misura di Lebesgue) se ristrette a volume finito, o ancora di avere la proprietà di indipendenza spaziale asintotica forte (l'aspettazione del prodotto di due funzioni ciascuna delle quali dipende solo dalla configurazione in regioni finite O e Q dello spazio tende al prodotto delle corrispondenti aspettazioni quando la distanza tra O e Q tende all'infinito). Si può formulare la congettura che queste ulteriori condizioni identifichino lo stato di Gibbs relativo al potenziale U, ma di questo non è ancora stata data una dimostrazione generale. Un importante contributo in questa direzione è stato dato recentemente da Yakov Sinai et al. che hanno dimostrato questa congettura facendo uso di un metodo, introdotto da Nicolai Nicolaievich Bogoljiubov alla fine degli anni cinquanta, che consiste nello studiare la misura in esame mediante lo studio dei suoi momenti. Parte di questa dimostrazione consiste nel dimostrare che le sole leggi di conservazione (in media) sono quelle dell'energia e della quantità di moto, come nel caso di un numero finito di particelle in una scatola a pareti riflettenti. Un'altra affermazione che non ha avuto finora dimostrazione completa è l'equivalente, per i sistemi di infinite particelle, dell'affermazione di Gibbs secondo cui le misure di Gibbs sono il limite, per t tendente all'infinito, di qualunque misura (regolare) che evolva secondo una dinamica hamiltoniana con potenziale U regolare. Questo è stato dimostrato da Volkovissky e Sinai nel 1971 per un gas di sfere rigide (con naturali condizioni di rimbalzo agli incontri) e per il caso unidimensionale di interazioni per urto elestico di bastoncini rigidi; si noti che in entrambi i casi non si tratta di dinamiche originate da un potenziale regolare U. Questa proprietà è un analogo del mescolamento per sistemi dinamici con un numero finito di gradi di libertà. È anche possibile formulare una congettura sulla convergenza in media di una misura (regolare) a una misura di Gibbs in media nel tempo, l'equivalente dell'ipotesi ergodica nel caso finito-dimensionale. D'altra parte l'ipotesi ergodica non è né necessaria né sufficiente per la dimostrazione dell'esistenza di una misura limite ergodica per sistemi composti da un numero infinito di particelle, e quindi per la meccanica statistica. Se si considerano i sistemi a cui si interessa la meccanica statistica come limiti di sistemi con un numero di particelle finito N di particelle, è sufficiente che i sistemi approssimanti siano approssimativamente ergodici, ad esempio che per N molto grande questi sistemi abbiano moltissime piccole componenti ergodiche, che sono distrubuite in modo così complicato che non possiamo (quasi) distinguerle facendo osservazioni macroscopiche in una frazione del volume totale. Naturalmente questa congettura è di difficile formulazione precisa (e di ancora più d ifficile dimostrazione). Teoremi (e non congetture) possono essere formulati se si lascia cadere l'ipotesi che ciascuna delle regioni spaziali O considerate contengano un numero fissato di particelle, N(O). Introduciamo un parametro z (che chiamiamo fugacità) supponiamo che N(O) sia una variabile casuale distribuita secondo la misura di Poisson di parametro z, cioè le variabili N(O) al variare di O sono tra loro indipendenti e inoltre ciascuna di esse è distribuita secondo la legge di poisson con intensità z. 27 La misura gran-canonica associata al potenziale U e con parametro z è la legge di probabilità di Poisson per quanto riguarda la variabile N(O) e tale che la legge di probabilità condizionale dato N(O) è data dalla misura di Gibbs (configurazionale) definita precedentemente. Per la distribuzione gran-canonica si possono dimostrare i seguenti teoremi. Assumiamo che il potenziale U soddisfi le seguenti condizioni 1) sia limitato inferiormente 2) sia regolare all'origine 3) decresca in valore assoluto all'infinto secondo una potenza sufficientemente grande dell'inverso della distanza. Sotto queste ipotesi, si può dimostrare i teoremi elencati di seguito. Teorema 1 (Dobrushin, 1969) Per fissato z maggiore di zero e ogni temperatura T, esiste almeno una misura di Gibbs (gran-canonica) invariante per traslazioni, con parametri z e T e con potenziale U. Se ne esise più di una, esse formano un insieme convesso e compatto. Teorema 2 (Dobrushin 1969, Minlos 1969) Per ogni T > 0 esiste un valore z(T) tale che per ogni O<z<z(T) esiste una sola misura gran-canica di Gibbs con potenziale U e parametri T e z. La distribuzione di questa misura è invariante per traslazioni spaziali e soddisfa la proprietà di mescolamento asintotico spaziale forte. Inoltre è possibile dimostrare che i momenti di questa misura (funzioni di correlazione) soddisfano un sistema di equazioni (equazioni DLR, dai nomi Roland Lvovich Dobrushin, Lanford, e David Ruelle) che per valori sufficientemente piccoli del parametro z e sufficientemente grandi della temperatura T possono essere risolte, hanno un'unica soluzione e questa può essere ottenuta in modo iterativo. È interessante notare che gli insiemi in cui per ogni regione dello spazio è fissato il numero di particelle, hanno misura zero per la misura gran-canonica, quindi dai teoremi precedenti non si può trarre alcuna indicazione sull'esistenza di una misura canonica di Gibbs nel caso di un numero infinito di particelle. Risultati più soddisfacenti riguardanti la dinamica e la misura canonica di Gibbs si sono ottenuti in modelli di sistemi di infinite particelle nei quali la dinamica è retta da leggi casuali (ad esempio da processi di tipo Markov). Risultati ancora migliori sono stati ottenuti in modelli in cui lo spazio euclideo viene sostituito da un reticolo infinito sui punti del quale possono trovarsi le variabili che possono assumere valore in un insieme compatto (eventualmente finito; in questo caso si parla di modelli di spin). In questi modelli la dinamica è costituita da iterate di un'applicazione di Markov che a ogni configuzione ne sostituisce un'altra secondo regole stocastiche prefissate. Nel caso in cui l'insieme compatto sia composto da due punti (ad esempio nel modello di Ising) o da un numero finto di punti (modelli di Potts) sono stati ottenuti risultati abbastanza completi riguardo all'esistenza di transizione di fase (perdita di unicità della misura di Gibbs) per valori del parametro T inferiori a una data soglia, e sono state ottenute interessanti informazioni sulla struttura della misura di Gibbs alla soglia (struttura di percolazione, esponenti critici,…). 28