Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita. DISPENSE DEL CORSO DI LABORATORIO DI STORIA, EPISTEMOLOGIA E DIDATTICA DELLA FISICA (LABSED) AA. 2007/08 di M. G. Ianniello Indice Premessa Modalità del corso Parte I. Fisica classica CAP. 1. Dalla fisica dei sensi alla termometria §1.1. I “gradi di calore” §1.2. I primi termometri e il problema della scala di temperatura §1.3. Punti fissi e scale §1.4. Alla ricerca di una temperatura assoluta CAP. 2. Alle radici del concetto di pressione §2.1. Il dibattito sull’esistenza del vuoto §2.2. La nuova filosofia sperimentale §2.3.Torricelli e l’esperienza dell’argento vivo §2.4. Il contributo di Pascal all’affermazione della teoria della colonna d’aria CAP. 3. La nascita della meccanica. Galileo e la caduta dei gravi § 3.1. La fisica pregalileana §3.2. Cronologia minima su Galileo §3.3. Ancora sui “gravi descendenti” §3.4. La commedia degli equivoci §3.5. Misurazione del tempo §3.6. Qualche riflessione CAP. 4. Dal calorico all’entropia §4.1. La natura del calore §4.2. La nascita della calorimetria §4.3. Dal calore come sostanza al calore come moto §4.4. Carnot e il rendimento delle “macchine a fuoco” §4.5. Gli esperimenti di Mayer e di Joule sulla determinazione dell’equivalente del calore §4.6. La nascita della termodinamica CAP. 5. I fenomeni luminosi, tra esperimento e matematizzazione § 5.1. Il dibattito sulla natura della luce nel Seicento: moto o materia? Presenze scomode: diffrazione, doppia rifrazione, interferenza. § 5.2. Il modello newtoniano della luce. § 5.3. Lo stato della ricerca in ottica nel Settecento §5.4. Un punto di vista assai poco ortodosso sull’origine dei colori: Goethe vs Newton § 5.5. Il modello ondulatorio. Il principio di interferenza e gli esperimenti di ottica fisica di Young § 5.6. Il contesto francese § 5.7. La teoria della diffrazione di Fresnel CAP. 6. Elettromagnetismo classico, dagli albori alle equazioni di Maxwell §6.1. Cronologia sintetica sugli albori dell’elettricità §6.2. Elettricità e magnetismo: nuove scoperte, nuove teorie § 6.3. La connessione tra luce e forze elettromagnetiche 1 Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita. §6.4. La sintesi di Maxwell dell’elettromagnetismo ottocentesco §6.5. La teoria elettromagnetica della luce di Maxwell e il contributo di Hertz CAP. 7. La scoperta dell’ elettrone §7.1. Il contesto teorico e sperimentale §7.2. J. J. Thomson e la misura di m/e §7.3. Il contributo di Millikan alla determinazione della carica assoluta dell’elettrone Parte II. Fisica atomica CAP. 8. La questione dell’atomismo e l’affermazione della teoria cinetica §8.1. La nascita della teoria cinetica §8.2. La stima delle dimensioni delle molecole §8.3. Altre strade per la stima delle dimensioni molecolari. L’esperimento di RayleighRöntgen § 8.4. L’atomismo e le molte vie sperimentali per la determinazione della costante di Avogadro. CAP. 9 Il moto browniano §9.1. Perché trattare la storia del moto browniano §9.2. Cronologia del processo di scoperta del moto browniano § 9.3. Contesto teorico-sperimentale. Evidenza empirica a favore dell’atomismo § 9.4. Le prime ricerche sul moto browniano § 9.5. Analisi della trattazione di Einstein sul moto browniano §9.6. Fluttuazioni e opalescenza vicino al punto critico. CAP. 10. La nascita della spettroscopia §10.1. Cronologia sintetica §10.2. Verifica sperimentale della formula di Balmer e determinazione della costante di Rydberg R CAP. 11. Alle radici della legge del corpo nero di Planck §11.1. Le leggi della radiazione termica §11.2. Tra dati sperimentali e assunzioni teoriche. Verifica della legge di StefanBoltzmann e delle leggi di Kirchhoff §11.3. Agli esperimenti: verifica della legge di Stefan-Boltzmann §11.4. Corpi grigi e cubo di Leslie CAP. 12. Effetto fotoelettrico §12.1. Cronologia essenziale §12.2. Effetto Fotoelettrico: fenomenologia e interpretazioni teoriche §12.3. Agli esperimenti CAP. 13 L’atomo quantizzato di Bohr e l’esperimento di Franck ed Hertz §13.1. L’atomo di Bohr §13.2. Il percorso di Franck ed Hertz §13.3. Che faceva intanto Bohr? §13.4. All’esperimento CAP. 14 Lo spin dell’elettrone CAP. 15. Verso le basse temperature: la scoperta della superconduttività §15.1. In che consiste la superconduttività §15.2. Studio della resistenza elettrica in funzione di T §15.3. Un’altra scoperta importante: l’effetto Meissner §15.4. Le spiegazioni della SC 2 Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita. Il corso di Laboratorio di Storia, Epistemologia e Didattica della Fisica (LabSED) Premessa Queste dispense presentano i principali contenuti del corso di LabSED. Si tratta, come verrà specificato nella sezione “Modalità del corso”, in cui si espongono le finalità, gli esiti dell’apprendimento, la metodologia didattica e le forme di valutazione del corso, di un laboratorio di approfondimento di tematiche già affrontate in altri corsi o di tematiche del tutto nuove che combinano attività sperimentali con riflessioni di taglio storico ed epistemologico. L’esigenza di raccogliere i temi trattati in una dispensa è motivata dalla mancanza di un unico testo di riferimento. Molti esperimenti sono infatti inconsueti e non sono facilmente reperibili in letteratura se non per brevi cenni. Le informazioni sono disseminate in vari testi e se si trovano indicazioni specifiche su una certa procedura sperimentale, in particolare nelle guide che accompagnano le apparecchiature didattiche, mancano indicazioni che aiutino a ricostruire il quadro generale entro cui quella procedura è stata messa a punto. Ma può anche accadere che un esperimento dato per scontato, presenti all’atto pratico difficoltà sperimentali non banali ed esiti imprevisti ai quali dovremo far fronte servendoci della fisica che conosciamo, in modo collaborativo e attraverso discussioni fino ad arrivare a una soluzione ragionevole e condivisa. Va premesso che lo stile espositivo è discontinuo, dal momento che queste dispense raccolgono materiali sedimentati negli anni, scritti in momenti diversi e per esigenze diverse. Si tratta spesso di materiali di inquadramento su vari settori della fisica che vanno ulteriormente sviluppati dagli studenti che frequentano il corso e che in generale richiedono di connettere diversi argomenti tra loro. Agli studenti viene inoltre assegnato il compito di presentare, a un target di propria scelta, l’esposizione dei temi trattati mettendosi nei panni di un buon divulgatore o più semplicemente di un insegnante. Nelle dispense i riferimenti bibliografici, spesso alle memorie o alle Nobel lectures degli scienziati protagonisti, orientano gli studenti verso una lettura di prima mano delle vicende affrontate. Tutto il laboratorio ruota intorno ai cosiddetti esperimenti storici. La scelta è rivolta verso un esperimento particolarmente significativo nella storia della scienza. L’esperimento viene ‘ricostruito’ rispettando senza esagerare la disposizione sperimentale originaria e affrontato ammettendo come regola del gioco di conoscere in una prima fase solo il contesto di idee che motivarono la sua progettazione, senza necessariamente sapere “come è andata a finire”. Un’altra regola da rispettare è quella di avere consapevolezza della tecnologia disponibile all’epoca in cui l’esperimento venne realizzato, suggerendo modifiche attuabili con la tecnologia attuale. Si passa quindi all’esecuzione dell’esperimento secondo prassi usuali e se ne valuta l’esito alla luce delle conoscenze del tempo con un confronto serrato con gli sviluppi attuali. Gli esempi, come vedremo, possono essere molteplici, affrontabili a diversi livelli e con una diversa sofisticazione degli apparati sperimentali: 3 Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita. dal piano inclinato di Galileo agli esperimenti sulla pressione atmosferica, dalla scoperta dei raggi catodici alla classica e bella esperienza di Millikan della goccia d’olio; dall’esperimento di Röntgen-Rayleigh con il film d’olio per una prima stima grossolana delle dimensioni delle molecole, all’esperimento di Perrin sul moto browniano e la determinazione del numero di Avogadro, e ancora alla riproduzione in laboratorio dell’esperienza di Smoluchowski sul blu del cielo; dai primi esperimenti di Kirchhoff e Bunsen sullo spettro alla fiamma di alcuni composti, alla determinazione della costante di Rydberg con la lampada di Balmer, all’effetto fotoelettrico, all’esperimento sui potenziali critici di Franck ed Hertz, e così via. Questa particolare strategia consente: 1. di mettere insieme l’attività sperimentale e la componente storica ed epistemologica, con la possibilità di creare sinergie tra i due approcci del tutto naturali e consequenziali; per altro, molti degli obiettivi e delle abilità collegati all’attività sperimentale restano inalterati indipendentemente dalla contestualizzazione storica di un dato esperimento: la storia fornisce tuttavia, come attività di problem posing, un valore aggiunto all’esperimento, spesso visto nella pratica didattica nella sua veste riduttiva di sola attività di problem solving; 2. di costringere gli studenti ad approfondire in modo concreto le condizioni al contorno che hanno motivato la realizzazione di un dato esperimento; 3. di sollecitare gli studenti a proporre un layout sperimentale quanto più possibile fedele all’originale, a suggerire modifiche servendosi della tecnologia attuale (per esempio, anche con misure on line) senza snaturare la procedura dell’esperimento, a criticare l’apparecchiatura proposta dal docente ed eventualmente già fornita dalle ditte costruttrici, a rilevare e a elaborare i dati sperimentali in modo sensato con il grado di precisione richiesto dalla particolare misurazione in oggetto; 4. di analizzare il ruolo dell’esperimento rispetto alla rete di assunzioni teoriche ammissibili all’epoca della sua esecuzione; 5. di dare al futuro docente l’opportunità di “fare ricerca”, alla luce delle memorie originali. A condizione che “I materiali storici possono essere utili, se non indispensabili, supposto che -e questa è la loro maggior qualificazione- siano usati per insegnare la scienza e non la storia.” (J. Heilbron) Modalità del corso Finalità. Il corso è finalizzato all’approfondimento di conoscenze specifiche connesse alla pratica sperimentale, al contesto tecnologico, alle tecniche di misurazione dell’evento in studio, al rapporto teoria-esperimento ma anche all’accettazione dei risultati di un esperimento e al ruolo che esso ha rivestito, storicamente e nella didattica. Il corso affronta inoltre, in merito ai temi trattati, i problemi della comunicazione multimediale della cultura fisica. Esiti dell’apprendimento: saper inserire un “esperimento storico” nel giusto contesto, saper valutare i processi di crescita della fisica, sia rispetto alle problematiche teoriche e sperimentali che motivarono la realizzazione dell’esperimento in esame, sia rispetto agli sviluppi moderni. Conoscenza dei principali strumenti multimediali impiegati nella divulgazione della fisica; padronanza delle principali tecniche multimediali; capacità di valutare in senso 4 Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita. critico un prodotto multimediale (rigore scientifico, correttezza storiografica, usabilità, ecc.). Programma del corso. Il corso è rivolto all’analisi di quegli esperimenti che nella storia della fisica hanno avuto rilievo nel proporre nuove idee o nuove procedure sperimentali e che hanno rappresentato un punto di confronto tra concezioni antagoniste. In particolare vengono analizzati gli esperimenti legati alle grandi svolte concettuali della fisica sia classica sia quantistica (per es., attraverso i contributi di Galileo, Torricelli, Oersted, Faraday o nel passaggio dall’ “atomistica” alla nuova fisica quantistica, dal modello di Bohr-Sommerfeld all’ introduzione dell’idea di spin). I contenuti del corso riguardano inoltre le nuove forme di comunicazione multimediale applicate alla divulgazione della fisica a diversi livelli, dalla scuola di base all’università all’educazione permanente, e in diversi contesti (musei, science center, ecc.). Da un’analisi critica di ciò che attualmente viene offerto, nell’ambito della fisica come scienza sperimentale, in internet, nell’editoria, nei media (per es., CD-rom, Web e ipertesti, applet, laboratori virtuali, animazioni ma anche documentari scientifici, filmati, enciclopedie) si discutono le principali tecniche multimediali. Metodologia didattica e valutazione. Il corso si articola in lezioni di approfondimento (cosiddette frontali) e in attività di laboratorio (conduzione di esperimenti particolarmente significativi e ricchi di problematiche, anche con misure on line, o simulati al computer). Il corso prevede attività seminariali e alterna a discussioni mirate, applicazioni sul campo (per es., ricerche in internet, valutazioni critiche di documentari, filmati, articoli di taglio giornalistico, visite virtuali a musei e science center ma anche prove in itinere dove lo studente mette alla prova le sue abilità di divulgatore). Procedure di valutazione: viene richiesta l’elaborazione di un “case history” relativo a un esperimento e/o un progetto o una semplice realizzazione multimediale sul tema affrontato (per es. un breve modulo ipertestuale, una animazione, un articolo di divulgazione). Materiale Didattico: dispense, memorie originali, articoli di taglio storiografico e/o didattico. Apparecchiature di laboratorio relative a “esperimenti storici”. Siti internet dedicati. Prodotti multimediali reperibili in commercio, letteratura specialistica. Programma di massima (il programma include anche argomenti che verranno trattati nel corso di Preparazione di Esperienze Didattiche, rispetto ai quali si prevedono lezioni e attività a classi riunite con i matematici) 1. L’esperimento di Galileo del piano inclinato. La genesi del concetto di pressione atmosferica; gli esperimenti di Torricelli, di Pascal-Auzout, di Guericke, di Boyle. Evoluzione della tecnica del vuoto. La nuova teoria dei colori di Newton. La scoperta della diffrazione. La scoperta della birifrangenza. Gli esperimenti di Young e Fresnel e il superamento della teoria corpuscolare newtoniana. Esperimento di Oersted. Gli esperimenti di Faraday sull’induzione elettromagnetica. La mutua convertibilità delle “power naturali”, determinazione 5 Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita. dell’equivalente meccanico della caloria e apertura verso il primo principio della termodinamica. Scarica elettrica in un gas a bassa pressione: la scoperta dei raggi catodici. Tubo di Perrin e polarità negativa di un fascetto di elettroni. Esperienza di J.J. Thomson sulla determinazione di e/m. Esperienza della goccia d’olio di Millikan e determinazione della carica specifica dell’elettrone. Determinazione della velocità della luce, da Galileo all’elettronica moderna. 2. Stima delle dimensioni degli atomi: bolle di sapone e tensione superficiale; esperimento di Röntgen-Rayleigh; determinazione del numero di Loschmidt. Moto browniano: verifica della legge di Einstein e determinazione del numero di Avogadro. Principio di fluttuazione e simulazione in laboratorio del blu del cielo. Alle radici della legge del corpo nero: verifica delle leggi di Stefan-Boltzmann e di Kirchhoff. Bunsen e Kirchhoff e la nascita della spettroscopia: prova alla fiamma e osservazione di spettri; spettri di emissione e di assorbimento. Determinazione della costante di Rydberg con la lampada a idrogeno di Balmer e confronto con il modello di atomo quantizzato di Bohr. Effetto Hallwachs. Effetto fotoelettrico e determinazione sperimentale di h. Effetto Compton. Esperimento di Franck ed Hertz sui potenziali critici dell’elio. Effetto Zeeman, esperimento di Stern e Gerlach, esperimenti ESR. Esperimento sull’effetto Meissner-Ochsenfeld. Parte I. Fisica classica CAP. 1 DALLA FISICA DEI SENSI ALLA TERMOMETRIA §1.1. I “gradi di calore” Ci occupiamo nel seguito dei fenomeni legati alle sensazioni di ‘caldo’ e di ‘freddo’ e dell’evoluzione storica che porta dall’unico concetto indistinto di calore o fuoco, alla sua diversificazione, da un lato, nel concetto di temperatura come grandezza intensiva che caratterizza le proprietà locali di un corpo; dall’altro, nel concetto di calore come grandezza estensiva e come quantità di energia scambiata tra due sistemi in interazione termica. Questo processo di diversificazione prenderà avvio nel Seicento, quando si inizierà a parlare di “intensità di calore” distinta dalla “quantità di calore” e si completerà solo a metà Settecento quando si stabiliranno le prime definizioni operative dei due concetti, rispettivamente in termometria e in calorimetria. Si tratta dunque di una evoluzione in cui la nascita dei concetti fondamentali in fisica macroscopica sarà strettamente legata alla base empirica e alla possibilità di costruire strumenti, sia pure in una prima fase qualitativi, in grado di rivelare i cambiamenti delle grandezze in studio, di operare confronti, di definire eventuali stati di riferimento. Dal punto di vista storico, il concetto-madre di calore è legato in primo luogo alle percezioni sensoriali, ed in secondo a interi sistemi conoscitivi, o stili di pensiero, prevalenti in un dato periodo. L’inizio della nostra storia riguarderà perciò la trattazione qualitativa dei fenomeni nell’ambito di una ‘fisica dei sensi’, fortemente condizionata dalle dottrine dominanti. E come sempre partiremo dall’antichità classica, perché è qui che affondano le radici della scienza occidentale. 6 Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita. Con Empedocle (490-430 circa), si ammette l’esistenza di quattro elementi immutabili della materia: il fuoco, l’aria, l’acqua e la terra. Ai quattro elementi fondamentali, con Aristotele (384-322) si aggiungono le quattro qualità primariecaldo, freddo, umido e secco- che mescolate per dicotomie, in base alla dottrina aristotelica degli opposti, danno luogo ai quattro elementi. Dalle combinazioni delle qualità primarie discendono le varie spiegazioni non solo in fisica (vari stati di aggregazione della materia e passaggi di stato, esistenza delle diverse sostanze, dilatazione e compressione, combustione, interpretazione delle “meteore”, ovvero dei mutamenti del tempo, e così via), ma anche in campo medico. Le prime scale sensoriali qualitative, per le sensazioni di caldo e di freddo, si avranno proprio in ambito medico dove la temperatura corporea normale di un uomo in buona salute verrà implicitamente assunta come ‘grado di calore di riferimento’. Oggi sappiamo che per misurare la temperatura, e quindi poter descrivere lo stato termico di un corpo, occorre una scala metrica basata: sul principio zero della termodinamica (due corpi con stati termici diversi se posti a contatto raggiungono uno stato termico di equilibrio); sulla dilatazione termica di opportune sostanze che consenta una misura indiretta di T (o, come è noto, su altre proprietà quali il comportamento di gas mantenuti a volume costante, sulla resistività di materiali conduttori, sulla differenza di potenziale tra le giunzioni di una termocoppia, ecc.); su una scala, per esempio decimale; sui punti fissi, per esempio, a pressione ordinaria, 0°C per una miscela acqua-ghiaccio e 100°C per acqua-vapore poiché nei passaggi di fase la temperatura si mantiene costante. Queste prescrizioni sperimentali, che oggi sembrano scontate, avranno tuttavia bisogno di un lunghissimo arco di tempo per essere riconosciute e applicate in modo corretto. Galeno di Pergamo (129-200), sembra essere il primo ad assegnare quattro gradi di freddo e quattro gradi di caldo, così come ad introdurre la prima nozione di punto fisso nella pratica medica. I punti fissi corrispondono alle due sostanze ritenute la più fredda (ghiaccio) e la più calda (acqua bollente). Galeno introduce anche un “punto neutro”, corrispondente a una miscela in parti uguali di ghiaccio e acqua bollente. E’ interessante notare come in medicina si introducano scale sensoriali di caldofreddo (cioè le prime scale di temperatura), prima ancora di avere strumenti di misura. Vengono inoltre proposte delle regole empiriche, assai bizzarre per noi oggi, per definire il “grado naturale” di temperatura di una persona sana. Per esempio, in De logistica medica, una specie di prontuario medico compilato da Johannes Hasler di Berna, del 1578, una di queste regole fa corrispondere al “grado normale di calore” la somma dell’ età del soggetto, di un numero associato alla stagione e alla latitudine, e di altre numerologie che tengano conto di possibili influenze contingenti. I parametri presi in considerazione sembrano sensati, inclusa la latitudine dal momento che era noto che la temperatura corporea ai tropici è maggiore della temperatura corporea a latitudini più alte. Con criteri analoghi si definiva una “scala medica universale”, valida per qualsiasi abitante della Terra con otto gradi di calore e otto di freddo. Questa consuetudine influenzerà le prime scale termometriche che avranno otto gradi. Un altro settore che condizionerà la suddivisione in gradi delle scale sarà quello meteorologico, legato alle condizioni del tempo e alle varie attività stagionali, 7 Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita. soprattutto agricole. Una scala in uso nel Seicento, con scansione di quattro gradi, porterà per esempio, accanto alla numerazione, le diciture1: 0°, frigus vehementissimus; 4°, frigus ingens; 8°, aer frigidus;12°, temperatus; 16°, calidus; 20°, calor ingens ; 24°, Aestus intolerabilis. §1.2. I primi termometri e il problema della scala di temperatura I primi strumenti qualitativi usati per indicare i “gradi di calore”, venivano comunemente detti termoscopi. Più correttamente bisognerebbe chiamare questi strumenti ‘termobaroscopi’ dal momento che essi rispondono non solo a variazioni di temperatura ma anche di pressione. Sono da considerarsi comunque gli strumenti prototipo da cui deriveranno sia i termometri che i barometri. Il termoscopio ad aria, insieme alle bilance, è tra gli strumenti più antichi che la storia ricordi: è costituito da una piccola ampolla di vetro dal collo lungo e sottile; il dispositivo viene riscaldato e poi capovolto con il collo che pesca in un recipiente pieno d’acqua. R. Fludd, Meteorologica cosmica, Frankfurt, 1626. A destra, taratura di un termoscopio ad aria, da Middleton, cit. p. 53. In queste condizioni, man mano che il termoscopio si raffredda l’acqua sale nel collo dell’ampolla (il volume dell’aria nell’ampolla si riduce; se il termoscopio viene di nuovo riscaldato, per es. al Sole, l’aria si dilata e l’acqua scende di livello). Lo strumento è sensibile anche alle variazioni di pressione atmosferica ma gli antichi sperimentatori, benché usassero lo strumento per avere indicazioni sulle variazioni del tempo (e perciò come un baroscopio) non potevano esserne consapevoli perché, semplicemente, non possedevano il concetto di pressione atmosferica. Già Filone di Bisanzio (II sec. A.C.) utilizzava il principio del termoscopio nei suoi “esperimenti pneumatici” così come Erone d’Alessandria (I sec. d. C.), il più illustre rappresentante della scienza meccanica ellenistica. Nel periodo alessandrino era diffuso l’uso di ideare dispositivi meccanici, costituiti da sifoni, valvole, ruote dentate, che sfruttavano l’energia dell’aria compressa o riscaldata, o quella del vapore d’acqua bollente o, più in generale, i fenomeni nei quali si producono variazioni di pressione. 1 Cfr. W. E. K. Middleton, A history of the thermometer, The John Hopkins press, Baltimore, 1966, p. 74. 8 Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita. Quest’uso venne ripreso nel Rinascimento e in età barocca nella progettazione di fontane, orologi, automi o più in generale di macchine motrici da impiegarsi nelle attività più varie, in coincidenza della pubblicazione della Pneumatica di Erone in latino, nel 1575, e, nel 1589, in italiano con il titolo Gli artificiosi et curiosi moti spiritali. G. Della Porta, lo stesso Galileo, Salomon De Caus2 e molti altri ‘ingegneri’ rinascimentali e barocchi conoscevano gli esperimenti di Erone. Così il termoscopio venne di nuovo studiato con varianti sperimentali più o meno importanti: l’acqua fu sostituita con liquidi colorati per evidenziarne il livello3 e soprattutto venne introdotta, già intorno al 1610, la scala. Il termoscopio divenne così un termometro ad aria. Non è chiaro chi per primo abbia inventato il termometro (questioni di priorità sono eventi frequenti nella storia della scienza). I candidati più probabili sono quattro: gli italiani Galileo (1564-1642) e Sanctorius (1561-1636), l’olandese Cornelius Drebbel (1572-??) e il gallese Robert Fludd (1574-1637). 2 3 9 S. De Caus, Les raisons des forces mouvantes, 1615. G. Biancani, Sphaera mundi, 1617. Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita. A favore di Galileo è schierato il suo biografo, Vincenzo Viviani4 (1622-1703). Secondo Viviani, Galileo avrebbe inventato il termometro durante il periodo padovano, tra il 1592 e il 1597, e lo avrebbe usato per valutare “le mutazioni di freddo e di caldo” in un luogo. Un’altra testimonianza a favore di Galileo si ritrova in una lettera di B. Castelli a F. Cesarini, dove così viene descritto “un istrumento da esaminare i gradi del caldo e del freddo”, basato sul principio del termoscopio: Mi sovvenne un’esperienza fattami vedere già più di trentacinque anni sono dal nostro Sig. Galileo, la quale fu, che presa una caraffella di vetro di grandezza di un piccol uovo di gallina, col collo lungo due palmi in circa, e sottile quanto un gambo di pianta di grano, e riscaldata bene colle palme delle mani la detta carafella, e poi rivoltando la bocca di essa in vaso sottoposto, nel quale era un poco di acqua, lasciando libera dal calor delle mani la caraffella, subito l’acqua cominciò a salire nel collo, e sormontò sopra il livello dell’acqua del vaso già più di un palmo; del quale effetto poi il medesimo Sig. Galileo si era servito per fabbricare un istrumento da esaminare i gradi del caldo e del freddo5. Santorio come medico si occupava di termometri per misurare la temperatura corporea. Termometro ad aria per uso medico di Santorio, Sanctorii...Commentaria, Venezia, 1625. Fludd, anch’egli medico oltre che filosofo, descrisse in una sua opera (Meteorologica Cosmica) vari tipi di termometro ad aria per scopi meteorologici (vitrum calendarium). Drebbel adottò un termometro ad aria modificato, detto “instrumento drebiliano”, a forma di J e che pertanto, non avendo bisogno di vaschetta, poteva essere portatile. 4 La biografia di Viviani è del 1654. Lettera di B. Castelli a F. Cesarini del 20 settembre 1638, Ed. Naz. Opere Galileo, A. Favaro (a cura di), Barbera 1890-1909, XVII, p. 377. 5 10 Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita. Termometro italiano e olandese, J. Leurechon, Récreation mathematique, 1626. In ogni modo, intorno al 1610, termometri ad aria comparvero un po’ ovunque in Europa e sembra difficile stabilire chi per primo abbia deciso di adottare, insieme all’antico termoscopio, una prima scala semiqualitativa applicata al cannello con punti fissi empirici (fiamma di candela, ecc.). Si trattò cioè di una ‘scoperta simultanea’ o, meglio, di una riscoperta visto che tutti gli autori citati dichiararono in modo esplicito di aver ripreso da Erone la forma e l’uso dei termoscopi. Ma nel 1644 si avrà un colpo di scena: con la scoperta della pressione atmosferica si stabilirà che il termometro ad aria risponde, oltre che alle variazioni di “calore”, anche a variazioni di pressione. Il termoscopio ad aria venne perciò modificato: chiuso verrà usato come termometro, aperto, come barometro. Si iniziò poi a sperimentare con sostanze diverse dall’aria: già Athanasius Kircher, il fondatore del Museo Kircheriano a Roma, aveva provato ad usare nel 1620 il mercurio. Intorno al 1630 il medico francese Jean Rey impiegò un termometro con un bulbo contenente aria e il cannello contenente acqua. Il calore faceva dilatare l’aria (che veniva perciò usata come amplificatore a causa del suo coefficiente di espansione più elevato di quello dei liquidi ordinari), costringendo l’acqua a salire (che funzionava perciò come una sorta di indice). Prevalse poi, per un certo periodo, l’alcool etilico (o spirito di vino o “acqua arzente”) come liquido termometrico. Esperimenti con termometri a liquido vennero condotti in particolare presso l’Accademia del Cimento, fondata nel 1657 a Firenze dal Granduca di Toscana Ferdinando II, e operante fino al 1667. Parte di questi esperimenti sono stati descritti e magistralmente illustrati nei Saggi di naturali esperienze fatti dall’Accademia del Cimento, del 1666, curati da Lorenzo Magalotti (1637-1712). Tra gli strumenti usati nell’ Accademia di un certo interesse sono i termometri infingardi (cioè, pigri a rispondere), i quali, riempiti in parte di spirito, presentano una scala a indici mobili costituiti da una serie di palline di diversa densità (termometro V in fig.). 11 Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita. Se la temperatura esterna si abbassa, e in conseguenza aumenta la densità dell’alcool, le palline galleggiano (la spinta di Archimede prevale sulla forza peso) mentre all’aumentare di T, le palline affondano una dopo l’altra e la temperatura dell’alcool può essere stimata dal numero di palline affondate. Una variante di questi indici mobili è costituita da sferette piene per metà di acqua e per metà d’aria (una specie di diavoletti di Cartesio): se, in funzione della temperatura, l’aria si comprime, nella pallina entra acqua e quindi si abbassa; viceversa se l’aria si espande, esce acqua e la pallina sale. Accanto a questi strumenti figurano i termometri fiorentini a 100°, ad alcool e a gradazione con dentini di vetro saldati sul cannello. Risalgono al 1641 e venivano usati per “trovare i cambiamenti di caldo e freddo dell’aria”. Un altro luogo deputato a sperimentare con termometri a liquido fu la Royal Society di Londra, fondata nel 1660. Qui operarono, tra gli altri, Boyle e Hooke. In particolare R. Hooke (1635-1702), nella sua Micrographia (Londra 1665), avanzò l’esigenza di trovare un termometro standard e fornì istruzioni per costruire un termometro ad alcool. La scelta dell’alcool etilico fu fatta perché questo liquido è facilmente colorabile, risponde rapidamente al ‘calore’, non è soggetto a gelare per alcun ‘freddo’ noto. Verso il 1701 anche Newton condurrà i suoi esperimenti con termometri ad olio di lino e nello stesso periodo Fahrenheit studierà il mercurio come liquido termometrico. §1.3. Punti fissi e scale Misure eseguite con termometri contenenti liquidi diversi, se confrontate, portarono presto a riconoscere che: a) l’assunzione tacita, in base alla quale la relazione tra volume e temperatura sia lineare non sempre è rispettata, e che quindi liquidi diversi mostrano dilatazioni diverse; b) a parità di liquido usato la dilatazione non sempre è uniforme. Questo si verifica in particolare con l’alcool che, se non è puro, presenta un diverso contenuto d’acqua e quindi coefficienti di dilatazione differenti. Per l’acqua già gli accademici del Cimento osservarono che al di sotto di un certo “grado di calore” (sotto i 4°C) diminuisce anziché aumentare di volume; 12 Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita. c) occorre usare una sostanza termometrica molto dilatabile. Questa circostanza farà preferire per un certo tempo l’alcool al mercurio che, in confronto, si espande meno e farà tornare qualche sperimentatore all’aria (il coefficiente di dilatazione termica è più grande per i gas che per i liquidi e i solidi); d) necessità di operare in un intervallo di temperature sufficientemente esteso in rapporto all’uso dello strumento: qui, per esempio, l’alcool presenta inconvenienti perché intorno a 80°C inizia a bollire; e) necessità di stabilire punti fissi stabili: le proposte sono svariate. C. Huygens (1629-1695) propose nel 1665 come punti fissi la temperatura di fusione del ferro e di ebollizione dell’acqua; altri proposero la temperatura di fusione del burro, di una miscela di sale e ghiaccio e così via. Il primo suggerimento di usare due termini fixi per la scala si deve a Sebastiano Bartolo (1679) che impiegò per il vecchio termoscopio ad aria la neve e l’acqua bollente, corrispondenti, rispettivamente, al grado di “freddo massimo” e di “calore massimo” e ritenuti “punti fixa et ubique immutabilia”, mentre il grado relativo alla temperatura ambiente (“communis ambiens”) e alla temperatura corporea venivano considerati variabili. La tradizione attribuisce a Carlo Renaldini (1694) l’idea dei punti fissi ma anche in questo caso la necessità di avere punti di riferimento stabili e riproducibili ovunque è “nell’aria” e in maniera più o meno concorde, per gli usi più comuni del termometro, venivano scelte le temperature dell’acqua bollente e la temperatura di fusione del ghiaccio (cioè di una miscela di acqua e ghiaccio, ritenuta migliore della temperatura di congelamento dell’acqua); si riconobbe poi già nel Settecento che tali temperature sono legate alla pressione amosferica. Rispetto alle scale, delle molte proposte se ne imposero tre: la scala Reaumur con 80°, la Celsius con 100° e la Fahrenheit con 180°. La scala di G. Fahrenheit (1686-1736) fa corrispondere alla temperatura di fusione del ghiaccio 32° e a quella di ebollizione dell’acqua 212°. La scala di R. A. F. Réaumur (1683-1757) ha un solo punto fisso; quella dell’astronomo svedese A. Celsius (1701-1744), infine, è una scala centigrada e inizialmente associava lo 0 alla temperatura dell’acqua bollente e 100° al punto di congelamento dell’acqua. C. von Linné (1707-1778) invertirà successivamente (1742) i punti della scala che risulterà così come la conosciamo oggi. §1.4. Alla ricerca di una temperatura assoluta Ma anche l’introduzione di scale a due punti fissi portava a misure, condotte con termometri diversi, discordanti tra loro. La causa di queste divergenze verrà attribuita a vari fattori tra i quali la qualità del vetro e la forma del bulbo. In realtà sia l’alcool che il mercurio non danno scale lineari perché il volume non varia linearmente con la temperatura. A partire dal 1800, con gli esperimenti di L. J. Gay- Lussac (1778-1850)6 si osservò che i termometri a gas mostrano una identica espansione, cioè i coefficienti di dilatazione dei gas a pressione costante sono approssimativamente uguali ( per i gas ideali è costante anche rispetto alla temperatura e non dipende dalla specie chimica). Lo stesso Gay-Lussac constatò che per i gas valeva una analoga legge per le variazioni di pressione a volume 6 13 L. J. Gay-Lussac, Ann. d. Chim., 43 (1802) 137. Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita. costante (e in effetti V. Regnault (1810-1878), nel 1847, stabilirà che termometri a volume costante o a pressione costante sono equivalenti). Inoltre, anche se la natura del gas variava, sotto condizioni opportune il valore di continuava a rimanere costante. Si riconoscerà così gradualmente che rappresenta una importante costante universale e che i gas sono fluidi termometrici privilegiati, in grado di indicare una ‘scala naturale’ o assoluta delle temperature. A questa idea si associava l’altra sull’esistenza di uno zero assoluto della temperatura come limite ultimo raggiungibile in natura. L’esistenza di una scala vera o naturale delle temperature con uno “zero assoluto del calore” era stata in realtà già da tempo postulata sulla base di assunzioni metafisiche, associate soprattutto alle ipotesi sulla natura del calore, considerato una sostanza contenuta nei corpi. In particolare G. Amontons (1663-1705) riteneva che l’elasticità dell’aria (cioè la sua pressione) fosse direttamente proporzionale alla quantità di calore in essa contenuta sicché, a pressione zero doveva corrispondere uno zero assoluto per il calore. La constatazione che tutti i gas si dilatano allo stesso modo e che presentano un coefficiente di dilatazione alto rispetto ai liquidi e ai solidi comporterà un ritorno dai termometri a liquido ai termometri a gas non solo perché i gas mostrano un comportamento ‘universale’ ma anche perché la dilatazione del vetro del termometro, essendo trascurabile rispetto a quella dei gas, implica errori di misura minori. I termometri a mercurio continueranno tuttavia a essere preferiti perché più maneggevoli e di semplice uso. Inoltre, si tenterà di utilizzare il valore di per costruire scale universali di temperatura e per definire lo zero assoluto. Vediamo come venne determinato il suo valore nelle prime indagini sperimentali condotte da Gay-Lussac. Il metodo di Gay-Lussac per la determinazione di consisteva nel misurare la variazione di volume V subita da aria secca racchiusa in un pallone di vetro B immerso in una sorta di grosso calorimetro ad acqua, quando l’aria stessa veniva portata da 100 a 0°C (fig. tratta da Ramsauer, cit. p. 33). Inizialmente l’acqua veniva portata a ebollizione; aprendo il rubinetto R si portava il gas alla pressione esterna (il processo avveniva facendo pescare il tubicino rr nell’acqua, di massa nota, contenuta in G): in questa situazione, dunque, il gas occupa un volume V100, si trova a una temperatura di 100°C e alla pressione 14 Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita. esterna. Successivamente (a rubinetto R chiuso) si fa raffreddare il sistema e si avvolge il pallone in un bagno costituito da una miscela di acqua e ghiaccio. Riaprendo il rubinetto R il gas si trova ora a T=0°C, alla pressione esterna e occupa un volume V0 che può essere valutato dalla quantità d’acqua V che fluisce dalla bacinella nel tubo rr e che rappresenta proprio la variazione di volume del gas tra 100 e 0°C: V= V100- V0. Pesando le due masse d’acqua nelle due fasi del processo e riportandole in cm3, dalla misura di V si ottiene V0= V100V. Di qui si calcola infine l’aumento di volume (V0+V)/V0 =1+(V/V0) che corrisponde a un valore oggi noto di 1,3667. In base alle conoscenze attuali, per un gas ideale la legge di dilatazione dei volumi è, in prima approssimazione, V= V0(1+t). Assumendo per le due temperature 0 e 100°C si ha = (1/100) (V100-V0)/V0. Sostituendo a V/V0, 0,3667 si ottiene per il valore limite di 1/273. In effetti, eseguendo misure della pressione di un gas ideale a volume costante in funzione della temperatura ed estrapolando linearmente, per p che va a 0, T tende a -273°C (cioè, limgas= 1/273,16(°C-1)). p (atm) t (°C) -273 Per mezzo di 1/ si fissa poi lo zero della scala assoluta con l’altro punto fisso corrispondente alla temperatura dell’acqua al punto triplo, corrispondente a 273,16 K. W. Thomson (Lord Kelvin) proporrà successivamente una scala di temperature che non dipende dalla proprietà di alcuna sostanza basandosi sul funzionamento di una macchina termica reversibile sulla base della teoria di Sadi Carnot e dimostrerà che tale scala termodinamica coincide con la scala assoluta dei termometri a gas ideale. Le prime misure di pressione in funzione della temperatura si rifanno alla legge pt= p0(1+t) che per un intervallo di temperature tra 0 e 100°C porta alla relazione p100/p0= cost. p. I primi sperimentatori, tra i quali Regnault e W. J. Rankine (1820-1872), misuravano le pressioni richieste per mantenere a volume costante il gas in funzione delle due temperature. I risultati sperimentali ottenuti da Gay-Lussac e successivamente da Dalton, H. G. Magnus (1802-1870) e Regnault saranno in realtà affetti per lungo tempo da errori sperimentali piuttosto elevati, dovuti, in particolare, al contenuto d’acqua presente nei gas (la quale vaporizzando comporta un aumento di volume) e alla depressione capillare nei tubi di piccolo diametro. Nel 1807 Gay-Lussac iniziò anche a studiare l’espansione libera di un gas: la disposizione sperimentale è quella consueta, presente oggi in tutti i manuali e nota come “esperienza di Joule” (alla quale torneremo tra breve) ed è costituita da due recipienti di uguale volume, collegati da un rubinetto e immersi in un calorimetro. In un recipiente veniva posto il gas mentre nell’altro veniva fatto il vuoto. Facendo diffondere il gas si notava un raffreddamento in un recipiente, compensato esattamente da un riscaldamento nell’altro, senza che nel complesso 15 Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita. la temperatura del sistema cambiasse. Dal momento che Gay-Lussac associava a una espansione un raffreddamento del gas, l’esito dell’esperimento fu visto come una anomalia inesplicabile che verrà risolta solo a metà Ottocento. Intorno al 1820, tra gli altri Poisson, osservò sperimentalmente che un gas compresso si riscaldava, ma se il processo avveniva rapidamente questo si raffreddava (processo adiabatico) e trovò sperimentalmente la relazione pV= cost., con = Cp/CV. Inoltre con Dulong (1829) si constatò che volumi uguali di gas diversi, compressi o dilatati della stessa quantità, a temperatura costante (oppure a pressione costante), liberano o assorbono la stessa quantità di calore. CAP. 2. ALLE RADICI DEL CONCETTO DI PRESSIONE §2.1. Il dibattito sull’esistenza del vuoto Facciamo un passo indietro per ricostruire le vicende che portarono alla ‘scoperta’ del concetto di pressione atmosferica. Questo argomento è trattato per esteso da varie parti7 e qui ci limitiamo a riassumere per sommi capi la vicenda: - Il dibattito sull’esistenza del vuoto: dura secoli, fino ad esaurirsi, nel giro di pochi anni, a metà Seicento. Aristotele e i suoi seguaci ritengono che il vuoto non possa esistere. La concezione cosmologica aristotelica si basa su un tutto pieno (l’universo aristotelico è chiuso, limitato e costituito da una serie di gusci sferici concentrici con al centro la Terra attorno alla quale sono distribuite le tre sfere immobili che competono agli altri tre elementi, acqua, aria, fuoco; seguono le otto sfere concentriche che compongono il mondo translunare, o sfere della Luna, di Mercurio, Venere, Sole, Marte, Giove, Saturno e delle stelle fisse alle quali Aristotele attribuisce il solo movimento di rotazione diurna intorno a un asse fisso comune); lo stesso vale per l’interpretazione del moto (i corpi si muovono con velocità finita v; la velocità di un grave aumenta durante la caduta e inoltre v è proporzionale a p/ con p, peso del corpo, e resistenza del mezzo. Di parere contrario sono gli atomisti (la struttura della materia è granulare, esiste il vuoto locale disseminato in parti sottili nella materia) e gli studiosi di taluni fenomeni di conoscenza comune (‘fenomeni pneumatici’), dovuti a compressione e rarefazione in particolare dell’aria, al comportamento anomalo dell’acqua nei sifoni, al funzionamento dei termoscopi. Erone è il sostenitore più illustre e influente di questa concezione, a metà tra la posizione aristotelica (non può esistere vuoto esteso) e la posizione atomista. Il vuoto locale non solo può essere modificato (per compressione si riducono gli spazi interatomici) ma anche prodotto artificialmente (è possibile permettere l’ingresso di vuoti diffusi, ad esempio facendo dilatare un corpo). - Per secoli, si continuerà a sostenere che il vuoto non può esistere né fisicamente, dal momento che l’universo si pensa costituito da un plenum di materia senza discontinuità (natura non facit saltus), né logicamente. La natura infatti non fa niente invano e il vuoto è, per definizione, ciò che non è, e non può quindi essere né causa efficiente né formale. Accanto a queste posizioni di natura filosofica si affiancarono argomentazioni derivanti dai dogmi di fede e da un atteggiamento di immanentismo religioso. Dio ha creato l’universo dandogli impronta di sé. Non può allora esistere il vuoto perché ciò indicherebbe l’assenza di impronta divina. E 7 V. per es., M. G. Ianniello, La genesi storica del concetto di pressione atmosferica, in M. Vicentini e M. Mayer, a cura di, Didattica della Fisica, La Nuova Italia, Firenze, 1996, pp. 301-334. 16 Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita. qualora esso esistesse, al di là del cielo delle stelle fisse potrebbe esistere una realtà esterna in cui potrebbe darsi una molteplicità di mondi e ciò sarebbe contrario alle indicazioni della Sacra Scrittura. In natura quindi deve esistere la fuga vacui, una sorta di terrore connaturato alla materia, che costringe i fenomeni naturali a procedere senza dar luogo a formazione di vuoto. Tutta la fenomenologia connessa ai fenomeni pneumatici viene così spiegata invocando la teoria dell’horror vacui. §2.2. La nuova filosofia sperimentale Il Seicento si apre alla nuova filosofia sperimentale: Galileo, Torricelli, Pascal, von Guericke e Boyle contribuiranno a risolvere il dibattito sul vuoto. L’avvio a questo processo viene dato da un problema pratico: bisogna collegare con un sifone i rami di un acquedotto tra due località separate da un dislivello di circa 84 palmi (circa 20 m). Perché il sifone non funziona? - Carteggio Baliani-Galileo. Il quesito viene posto in una lettera di G. B. Baliani (1582-1666), fisico-matematico, a Galileo (27 luglio 1630). Risposta di Galileo a Baliani (6 agosto 1630): Galileo spiega in base alla sua teoria (sbagliata), il mancato funzionamento del sifone con una analogia tra la colonna d’acqua sollevata e una corda a cui si sospende un peso; se il peso aumenta troppo la corda, superato il limite di rottura, si spezza così come la colonna d’acqua, il cui peso supera la “forza interna di vacuo” (G. pensa che l’acqua sia tenuta insieme dalla “resistenza di vacuo” che le particelle di liquido dovrebbero superare per separarsi perché la natura evita la formazione di vuoti). Baliani a Galileo (24 ottobre 1630): Baliani dubita della risposta di Galileo e in particolare non crede che il vuoto non possa esistere (proprio Galileo aveva dimostrato intorno al 1614 che “l’aria ha peso sensibile” e aveva stimato che la densità dell’aria dovesse essere circa 1/400 di quella dell’acqua. In realtà è di circa 1/700). Questo fatto suggerisce a Baliani una possibile interpretazione del comportamento dell’aria che egli assimila a un fluido pesante, esattamente come l’acqua. Analogia del “pelago d’aria” che verrà poi usata da Torricelli e dagli altri filosofi sperimentali, a testimonianza del rovesciamento del quadro concettuale che vede nella pressione dell’aria una causa esterna, e non interna, ai dispositivi sperimentali (“Io mi figuro di esser nel fondo del mare, ove sia l’acqua profonda dieci mila piedi, e se non fusse il bisogno di rifiatare, io credo che vi starei, ancorché io mi sentirei più compresso e premuto da ogni parte di quel che io mi sia di presente. [..] Lo stesso mi è d’avviso che ci avvenga a noi nell’aria, che siamo nel fondo della sua immensità, né sentiamo né il suo peso che la compressione che ci fa da ogni parte; perché il nostro corpo è stato fatto da Dio di tal qualità, che possa resistere benissimo a questa compressione senza sentirne offesa, anzi che ci è per avventura necessaria, né senza di lei si potrebbe stare”). - Galileo persiste nell’errore. Nonostante i suggerimenti di Baliani, Galileo continuerà a rimanere legato alla sua interpretazione della “forza di vacuo” nel tentativo di conciliare la vecchia teoria dell’horror vacui con la sua spiegazione della forza di coesione esistente tra le particelle di un corpo e della loro resistenza ad essere separate. Nella prima giornata dei Discorsi e dimostrazioni intorno a due nuove scienze, del 1638, propone un esperimento concettuale per misurare la forza di vacuo. I personaggi dei Discorsi: Sagredo (“pur per violenza o contro a natura, il vacuo talor si conceda”); Simplicio, aristotelico di stretta osservanza (“la natura non intraprende a voler fare quello che repugna ad esser fatto” e “a far quello in conseguenza di che necessariamente succederebbe il vacuo); Salviati17 Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita. Galileo. Salviati è in grado di dimostrare sperimentalmente la presenza e gli effetti del vuoto e di misurarne l’entità mediante un dispositivo costituito dal cilindro ABCD entro cui scorre il pistone EFGH (Fig.). Con il cilindro rivolto con la parte CD verso l’alto si riempie l’intercapedine ABEF d’acqua, quindi, fatta uscire l’aria residua mediante il tirante IK, si capovolge il sistema e si appendono all’uncino pesi via via crescenti fino a che non si riesce a strappare il pistone dalla superficie inferiore dell’acqua alla quale, secondo Galileo, lo teneva congiunto la ripugnanza del vuoto (in realtà dovrebbe essere la superficie superiore dell’acqua a staccarsi dal cilindro). La massa del pistone e dei contrappesi fornisce così la “forza di vacuo”. L’aspirazione dell’acqua nelle pompe o in un ramo di un sifone è dovuta in definitiva per Galileo, alla forza interna di vacuo e non ad una forza esterna. E se lo scienziato pisano è disposto ad ammettere che la natura non ha orrore del vuoto, continua a dire che il vuoto si manifesta con la forza di vacuo che per Galileo diventa un parametro fisico che può essere misurato in condizioni limite. §2.3.Torricelli e l’esperienza dell’argento vivo Giunto ad Arcetri nel 1641, ospite di Galileo, durante la revisione del Dialogo sopra i due massimi sistemi Torricelli (1608-1647) avrà modo di discutere con Galileo la questione del vuoto e risolverà in maniera elegante e sintetica il problema che esporrà a M. Ricci (1619-1682) nel 1644, in una lettera in cui descriverà l’esperienza dell’argento vivo (Fig.), arrivando a concludere che il cosiddetto spazio torricelliano è vuoto, che non esiste in natura né l’orrore né la forza di vacuo e che la causa del sostentamento della colonna di mercurio è esterna ed è dovuta alla “gravità dell’aria”. 18 Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita. - Carteggio Torricelli-Ricci. La teoria “della colonna d’aria” di Torricelli solleva alcune perplessità che Ricci comunica a Torricelli sottoponendole al suo giudizio (Ricci a Torricelli, lettera del 18 giugno 1644). Prima obiezione: se si pone un coperchio a tenuta sulla superficie libera del mercurio contenuto nel recipiente in modo da escludere l’ “azione dell’aria”, che succede? La risposta di Torricelli (lettera a Ricci, 28 giugno 1644): la questione posta da Ricci è mal formulata. Occorre distinguere due casi: il coperchio sia posto a contatto dell’argento vivo oppure lasci tra sé e la superficie libera del mercurio una intercapedine d’aria. In tal caso occorre sapere se l’“aria serrata” sia “del medesimo grado di condensazione che l’esterna”, e allora il livello del mercurio resterà invariato, oppure “più rarefatta dell’esterna”, nel qual caso il livello si abbasserà. Torricelli aggiunge poi per estrapolazione che se quell’aria “fusse infinitamente rarefatta, cioè vacuo”, la colonna di mercurio scenderebbe del tutto. Seconda obiezione di Ricci: riguarda il modo di operare della “gravità dell’aria”, che dovrebbe esercitarsi dall’alto verso il basso, come per i corpi pesanti. Se si prende una pompa aspirante e si impedisce all’aria di entrarvi, tirando il pistone si sente una forte resistenza non solo quando la pompa è messa verticale ma anche in tutte le altre direzioni. Orbene, in questi casi non si comprende “come il peso dell’aria c’abbia a che fare”. Torricelli risponde enunciando il principio oggi noto come principio di Pascal. §2.4. Il contributo di Pascal all’affermazione della teoria della colonna d’aria Ricci nel 1644 aveva comunicato a M. Mersenne (1588-1648), filosofo e fisico francese, il contenuto del suo carteggio con Torricelli e lo stesso Mersenne era partito dalla Francia con destinazione l’Italia, alla fine dello stesso anno, per assistere personalmente all’esecuzione dell’esperimento. Di ritorno in Francia tenterà di ripetere egli stesso l’esperimento ma senza successo. Si rivolgerà quindi a Pierre Petit, Etienne Pascal e a suo figlio Blaise (1623-1662) il quale eseguirà in diverse versioni l’esperienza torricelliana (Pascal vive a Rouen, una cittadina in cui prospera l’industria vetraria, condizione che gli consentirà a eseguire con successo numerosi esperimenti). L’esperienza susciterà in Francia aspri dibattiti. A seconda della particolare ipotesi scelta per interpretare il fenomeno possiamo individuare due orientamenti legati, il primo, alla questione se lo spazio torricelliano sia vuoto, l’altro alla questione se la teoria della colonna d’aria sia valida (e quindi se l’aria abbia un peso nel suo luogo naturale). Poiché i due orientamenti, che implicano, il primo, una spiegazione in termini di ‘forza’ interna 19 Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita. al tubo torricelliano e, il secondo, in termini di causa esterna, possono essere tra loro compatibili, si formuleranno numerose sottoteorie derivanti dalla combinazione dei diversi punti di vista. I seguaci della scuola peripatetica partiranno dalla assunzione che lo spazio torricelliano non può essere vuoto (teoria dell’horror vacui in senso assoluto) e che l’aria nel suo luogo naturale non ha peso; e sosterranno, di conseguenza, che nello spazio lasciato libero dal mercurio deve essere rimasto almeno un “atomo d’aria”, il quale si espande per evitare la formazione di vuoti, fino a raggiungere il massimo grado di rarefazione e che, in questo stato, si comporta nei confronti del mercurio come una molla che sostiene un grave. Oppure, pur di non ammettere la creazione del vuoto nello spazio torricelliano (come Cartesio e i suoi sostenitori), si ipotizza che quando il mercurio si abbassa, l’aria residua fuoriesca e venga sostituita da una materia sottile che penetra nell’interno del tubo attraverso il vetro. In breve, lo spazio torricelliano si riempirà di una moltitudine di “esprits” provenienti dal mercurio (ma anche dal vetro) ai quali si attribuiranno, di volta in volta, proprietà ad hoc in grado di salvare il fenomeno. Del secondo schieramento faranno invece parte i sostenitori della nuova scuola sperimentale, i quali, pur con diverse sfumature, tenteranno di conciliare una realtà sperimentale che sembrava ammettere la possibilità del vuoto, con le spiegazioni tradizionali legate alla teoria dell’horror vacui (teoria dell’horror vacui in senso ristretto). Questa era stata, come abbiamo visto, la posizione di Galileo. Per smantellare la teoria dell’atomo d’aria, Pascal esegue, come già aveva proposto Torricelli, l’esperienza dell’argento vivo con vasi di diverso volume. Se l’ipotesi della scuola peripatetica fosse vera, il volume dello spazio torricelliano dovrebbe rimanere costante mentre, come si sa, a rimanere costante è solo l’altezza del mercurio. Rispetto ai sostenitori dei vapori esalati dal fluido barometrico e ritenuti responsabili dell’abbassamento del mercurio, Pascal progetterà una esperienza in cui userà due tubi di vetro (lunghi oltre 40 piedi) contenenti acqua e una sostanza altamente volatile, vino. In quest’ultimo caso, sviluppandosi una quantità maggiore di vapori, l’altezza raggiunta dalla colonna di vino avrebbe dovuto essere inferiore a quella dell’acqua ma il risultato sperimentale dimostrerà esattamente il contrario. Tra gli esperimenti proposti figura l’esperienza “del vuoto nel vuoto”, progettata dallo scienziato francese A. Auzout (1622-1691) e rielaborata da Pascal, in una versione semplificata, nel 1648. Il dispositivo (v. Fig. a sinistra; in Fig. è mostrata una variante dell’esperimento progettata presso l’Accademia del Cimento; questo e altri esperimenti trattati sono stati ricostruiti nella trasmissione televisiva “Un oceano d’aria”, per la quale si veda di seguito in bibliografia) consiste in due canne barometriche inserite una nell’altra; in una prima fase si fa agire la pressione atmosferica solo sul tubo inferiore, dove si osserverà il mercurio sollevarsi ad una quota di circa 26 pollici. 20 Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita. a) b) c) a) L’esperimento di Pascal-Azout del vuoto nel vuoto, B. Pascal, Trattato dell’equilibrio dei liquidi, cit. p. 105. b) Versione modificata dell’esperimento, da Magalotti, Saggi di Naturali Esperienze. c) Ricostruzione di E. Ball, Deutches Museum, Monaco. Il mercurio contenuto nel ramo superiore, trovandosi tutto immerso nel vuoto, rimarrà invece in quiete non potendosi bilanciare con la pressione atmosferica. In una seconda fase si lascerà entrare l’aria anche nel secondo tubo, col che si osserverà il mercurio sollevarsi e oscillare fino a formare una colonna alta circa 26 pollici, mentre il mercurio nel ramo inferiore scenderà nella bacinella. Un esperimento spettacolare è l’esperimento di Pascal del Puy de Dome, fatto eseguire nel settembre 1648 al cognato Perier. - Pascal sistematizza la statica dei fluidi. Nel novembre del 1648, Pascal fa stampare in tutta fretta un opuscolo dal titolo Récit de la Grande Experience de l’Equilibre des Liqueurs projecteé par le sieur Blaise Pascal, in cui l’autore esprimeva la sua totale adesione alla teoria della colonna d’aria, spiegando come fosse stato costretto ad abbandonare il vecchio principio dell’horror vacui sulla base di prove inconfutabili. L’esperienza della montagna segnava dunque, a suo giudizio, l’ultimo e definitivo attacco alla teoria dell’horror vacui. In tutta la ricostruzione egli tuttavia non farà il minimo accenno a Torricelli, di cui egli ben conosceva le idee, idee che una volta accettate avrebbero reso l’esperimento del Puy de Dome un semplice esperimento di verifica e non un esperimento cruciale. Ma se di esperimento cruciale si deve parlare esso va individuato nell’esperimento del vuoto nel vuoto. L’esperimento si presentava, per la nascente scienza induttiva, come l’esperimento modello poiché, a parità di condizioni sperimentali, esso consentiva di osservare al variare della causa, la variazione degli effetti concomitanti. La soluzione dei tubi uno dentro l’altro era inoltre, rispetto alla tecnica del tempo, una trovata geniale poiché permetteva di eseguire l’esperimento in presenza e in assenza d’aria pur non disponendo di una pompa da vuoto (la pompa pneumatica sarà inventata qualche anno dopo). Pur tuttavia l’esperienza del vuoto nel vuoto non avrebbe, probabilmente, convertito con 21 Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita. facilità alla teoria della colonna d’aria chi non avesse avuto già dimestichezza con essa. Al contrario, l’esperimento della montagna, facendo leva su una conoscenza divenuta ai tempi di Pascal di senso comune – l’aria, i “vapori grossi” pesano di più ai piedi che alla cima di un monte (e questo non lo negavano neppure gli aristotelici più convinti!) - si presentava agli occhi del grande pubblico assai più convincente. Torricelli individua per primo nella gravità dell’aria l’unica causa responsabile dei cosiddetti fenomeni pneumatici, definisce in modo operativo il concetto di pressione atmosferica con l’esperimento della canna barometrica. A Pascal va il merito di sistematizzare l’intera scienza dei fluidi unificando idrostatica e aerostatica e di costituire, rispetto alle nuove idee, la cassa di risonanza ideale. Gli studi sulla pneumatica portarono a importanti conseguenze: a. all’invenzione della pompa da vuoto da parte di Otto von Guericke (1602-1686) e alla conseguente nascita della tecnica del vuoto, con fondamentali ripercussioni in diversi settori della fisica; b. allo studio delle proprietà dei gas, in particolare con Boyle. Pompa pneumatica di Guericke, Experimenta Nova, 1672. Rispetto al primo punto, gli esperimenti con la pompa condussero Guericke in primo luogo a mostrare, in una esecuzione pubblica a Regensburg del 1654, che l’aria pesa. Prese due sfere identiche da 5 l, una piena d’aria e l’altra evacuata con una pompa, si procedeva a pesarle con una bilancia e si valutava immediatamente la massa dell’aria (in condizioni normali 1 l d’aria ha una massa di circa 1,3 g). Tra i molti esperimenti eseguiti da Guericke ricordiamo ancora: - la costruzione di un ‘barometro ad acqua’ lungo 19 braccia (1 braccio= 60 cm circa), che veniva evacuato da sopra con la pompa pneumatica, impiegato per osservazioni meteorologiche. - L’esperimento della doppia sfera: l’apparato è costituito da due sfere di vetro A e B collegate da un tubo provvisto di un rubinetto C. Nella sfera A, riempita d’acqua per circa 1/3, accedono due tubi a gomito D ed E, ciascuno con un rubinetto, il primo dei quali può essere collegato alla pompa da vuoto, mentre l’altro mette in contatto con l’aria esterna. Quando i due recipienti sono in comunicazione (C aperto ed E chiuso) si produce il vuoto al loro interno; poi si 22 Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita. chiude C e si lascia entrare l’aria da E. Riaperto C si vede salire l’acqua nel recipiente superiore, prova certa che è la pressione dell’aria e non l’horror vacui a spingere il liquido verso l’alto. Esperimento della doppia sfera, da F. Fuchs, Guericke Ausstellung, Deutsches Museum - I celebri e spettacolari esperimenti degli emisferi di Magdeburgo: la prima versione di questo esperimento dimostrativo fu eseguita nel 1656 con emisferi di 27,5 cm di diametro. Una volta fatto il vuoto nel sistema costituito dai due emisferi accoppiati (con una pompa o facendo condensare vapore d’acqua a 100°C), neppure 6 uomini riuscirono per trazione a separarli. La seconda versione venne eseguita un anno dopo, con emisferi di 51 cm di diametro e un tiro di 16 cavalli. - Gli esperimenti eseguiti intorno al 1661 per mostrare che la pressione atmosferica compie lavoro: fatto il vuoto in un recipiente provvisto di cilindro a tenuta, la pressione atmosferica sospinge il pistone verso il basso. Questo sarà il principio base per le prime macchine atmosferiche dalla cui evoluzione deriveranno poi le macchine a vapore. Il terzo modello di pompa costruito da Guericke intorno al 1662 è oggi conservato al Deutsches Museum di Monaco e consentiva di produrre un vuoto di circa 30 mm di mercurio. Rispetto al secondo punto, nel 1660 comparve il libro di Robert Boyle (16271691) New Experiments Physico-Mechanicall touching the Spring of the Air. 23 Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita. Prima pompa ad aria di Boyle, modello del 1660 ca. e, a destra, pompa pneumatica di Boyle con ‘campana’ da vuoto. Un problema di natura metafisica lo spingerà agli esperimenti che portano a individuare la proporzionalità inversa tra pressione e volume di un gas a temperatura costante. Gli esperimenti in questione sono sostanzialmente due: 1. Tubo a J e mercurio (gas soggetto a pressioni maggiori della pressione atmosferica). L’ esperimento non fu realizzato dal fisico inglese per indagare la relazione tra pressione e volume di un gas, quanto piuttosto per costruire una prova sperimentale che confutasse una particolare ipotesi formulata da un suo avversario, l’aristotelico Francesco Lino (1595-1675). La relazione pressionevolume (valida, come è noto, a temperatura costante e per i gas ideali) fu un effetto collaterale di una indagine intrapresa con intenti ben diversi (confutazione della teoria del funiculus di Lino: al di sopra del mercurio c’è una sorta di cordicella capace di esplicare una ‘tensione massima’ fino a sostenere una colonna di mercurio di una atmosfera, circa 29”). Visto che l’ipotesi di Lino si basa su proprietà massime del funiculus a sostenere il mercurio, Boyle progetta un esperimento (fig., tratta da Ramsauer, cit., p. 30) in cui, producendo pressioni maggiori della pressione atmosferica, il mercurio continua ad essere sostenuto per altezze ben maggiori di 29”. 2. Canna barometrica e vaschetta grande di mercurio (gas soggetto a pressioni inferiori alla pressione atmosferica). Lo schema dell’apparato sperimentale è mostrato in figura (tratta da Ramsauer, cit., p. 28). 24 Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita. Cap. 3. LA NASCITA DELLA MECCANICA. GALILEO E LA CADUTA DEI GRAVI § 3.1. La fisica pregalileana La fisica pregalileiana è caratterizzata grosso modo da tre tappe relative ad altrettanti stili di pensiero: la fisica aristotelica, la fisica dell’impetus, la ‘nuova’ fisica del metodo sperimentale. Il contesto culturale prima di Galileo Occorre tenere presente l’influenza esercitata sulla meccanica medievale, fino a Galileo, dal pensiero e dalle opere (di derivazione greca e araba) di figure imponenti come Aristotele (la Fisica), Pseudoaristotele (Mechanica), Euclide, Pseudoeuclide (Libro sulla bilancia), Archimede (Sull’equilibrio dei piani, Sulla gravità e la leggerezza), Erone Alessandrino (La Meccanica). Queste opere penetrano in Occidente a partire dal XII secolo (traduzioni dal greco e dall’arabo in latino; opere a stampa dal Cinquecento). La struttura delle dimostrazioni (soprattutto in Euclide) è basata su assiomi, postulati, teoremi; le dimostrazioni sono condotte more geometrico. Prevale l’uso delle proporzioni (tra grandezze omogenee). I pitagorici furono i primi ad applicare la matematica, in particolare all’ astronomia (problema delle velocità dei corpi celesti, geometria dei moti sferici, ecc.). Platone, pitagorico illustre, sostiene che lo studio della natura consiste nella ricerca di leggi matematiche. Ma attenzione che ancora non ci sono né formule, né relazioni algebriche (cfr. M. Clagett, La scienza della meccanica nel Medioevo, Feltrinelli, Milano, 1981). La tradizione platonica riemerge nel Quattrocento, con connotazioni antiaristoteliche. E’ fondamentale nel Rinascimento in tutti i settori teorici e applicati (astronomia, navigazione, ingegneria sia nel ramo civile sia militare, cosmografia, cartografia, perfino nell’arte; problema della determinazione della longitudine, misurazione del tempo, strumentazione di precisione). Forte interesse per la costruzione di ‘macchine’ come “arte matematica” (J. Besson, 1569, Ramelli, Veranzio, Zonca, Branca, 1629). Ruolo preminente del matematico. 25 Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita. Fine Cinquecento e Seicento, ruolo preminente del filosofo naturale. Precursori di Galileo (1564-1642): Tartaglia (1506-1557), Giovan Battista Benedetti (15301590), Guidubaldo dal Monte (1545-1607). La dottrina aristotelica del moto Per Aristotele la legge del moto nel mondo sublunare è: causa motrice p = , causa resistente la velocità di un corpo (“mobile” o “projectum”) aumenta con il peso del corpo e diminuisce con la densità del mezzo resistente. Per mantenere il corpo in moto è necessaria una causa efficiente continua (motore intrinseco al mobile e in contatto continuo con esso; non sono ammesse forze a distanza, né il vuoto; per Aristotele esistono solo moti resistenti. Il problema della persistenza del moto verrà risolto con l’introduzione del concetto di inerzia solo nel Seicento). Questa assunzione si salda nel tempo con la “teoria dell’impetus”. v La fisica dell’impetus La teoria dell’impetus ha il suo massimo sviluppo nel XIV sec., al Merton College di Oxford, in Inghilterra (tra il 1328 e il 1350; figure di rilievo, Tommaso Bradwardine, Guglielmo Heytesbury, Riccardo Swinshead). L’impetus (o motor conjunctus o vis impressa) è una sorta di forza motrice impressa intrinseca al corpo, in grado di mantenerlo in movimento (per altri viene invece ipotizzato nel mezzo). Quando si imprime a un corpo un moto “violento” (verso l’alto, verso il basso, obliquamente, circolarmente e, in tal caso, si parla di “impeto circolare”), la persistenza del moto si spiega con l’impeto. L’impeto è una grandezza vaga e sfuggente; per taluni verrà definita come un ente che cresce con il peso e la velocità del corpo (quindi, se per peso si intende la massa, come un “momento”, per Galileo; o una “quantità di moto”per Cartesio e per Newton). Per un grave lanciato verso l’alto, l’impetus si combina con la gravità (ramo in salita: prevale l’impetus; sommità e poi ramo in discesa: prevale la gravità; si sommano gravità e impetus e il grave aumenta la sua velocità). Al Merton College, si distingue tra dinamica (quo ad causam, cause del moto) e cinematica (quo ad effecta, effetti del moto); abbozzo del concetto di velocità istantanea, del concetto di funzione, della legge sul m. u. a. (incrementi uguali di velocità sono acquisiti in intervalli di tempo uguali). Inizia il “calcolo delle qualità” (de intensione et remissione formarum = aumento e diminuzione di qualità o altre forme). Le idee elaborate al Merton College si diffondono, dal 1350, nell’Europa continentale, in particolare nelle università parigine. Nella cosiddetta scuola dei Terministi parigini (tra le figure di rilievo, Occam, Giovanni Buridano, Nicola Oresme), Oresme chiarisce la rappresentazione geometrica bidimensionale della cinematica. Rappresentazioni grafiche del moto (“Calcolo delle qualità”) Oresme introduce una rappresentazione grafica per descrivere le variazioni dell’intensità di una qualità (cioè i gradi di calore, di velocità, di bianchezza, ecc.). Si tratta di ‘curve’ che anticipano la moderna geometria analitica. In questa rappresentazione, semplificando molto la trattazione, la “estensio” (o base) è 26 Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita. rappresentata da un segmento orizzontale e indica la qualità in esame; la “intensio” (o altezza) è rappresentata da un segmento verticale, che ‘geometrizza’ l’intensità della qualità in esame. Una qualità uniforme, per es., viene rappresentata da un rettangolo la cui altezza MN indica l’intensità di una qualità costante mentre la base rappresenta la qualità; la sua mensura, cioè la quantità della qualità, è data dall’area del rettangolo ABED. Nel caso di una qualità che varia in modo “uniformemente difforme” si ha un triangolo; l’altezza MN indica l’intensità di una qualità che cresce uniformemente al variare di N da A a B mentre la base AB indica la qualità in esame; la misura corrisponde all’area del triangolo ABC. Nel caso del moto, se la qualità in esame è la velocità, la fig. a sinistra indica un moto uniforme (l’intensità ha lo stesso valore), la fig. a destra un moto uniformememte difforme. . C D N E A M B N M A B Regola mertoniana (o di Oresme) L’area del triangolo ABC è uguale all’area del rettangolo ABED con E punto medio di BC. La mensura, o quantità, di una qualità uniformemente varia è la stessa di una qualità costante uguale al valor medio della qualità uniformemente varia. Nel caso del moto, la regola mertoniana dice che la quantità di una velocità uniformemente varia (variabile da v0 a V), è uguale a quella che si avrebbe in un moto ‘equabile’ (cioè uniforme) di velocità pari alla velocità media (v0+V)/2: C D A E B La regola offre un metodo per trattare un moto uniformemente accelerato ma non viene applicata alla caduta dei gravi prima del Cinquecento (nessuno pensa che i gravi in caduta libera si muovano di m. u. a.) né viene ricollegata all’impetus (non si sa formalizzare l’impetus che resta legato alla ‘causa’ del moto). Se avessero fatto un grafico come in figura, per un moto u. a., applicando la regola mertoniana, avrebbero dovuto dedurre per lo spazio percorso dal mobile: v +V 1 s= 0 t = v0 t + at 2 . 2 2 27 Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita. Ma l’ estrapolazione è indebita: la variabile tempo non viene ‘vista’ fino a Galileo, la media, inoltre, va fatta nel tempo (a t=t/2) e non nello spazio (come continua a fare Galileo nei Discorsi). v v=at vm t t t/2 In sintesi, leggi sul moto dei gravi prima di Galileo: ne girano varie, anche incompatibili tra loro: st, vs, st2 (sostenuta in partic. da Orsme), vt. La più popolare è st (concezione di senso comune). Ostacoli epistemologici: legge di caduta dei gravi di Aristotele v p ; e varie altre leggi sul moto; nel lancio di un grave in aria, la traiettoria ha il ramo ascendente diverso da quello discendente; quando si ha un moto violento (per es., lancio di una pietra o di un proiettile con una colubrina) la velocità iniziale è molto grande e poi diminuisce (influenza della teoria dell’impetus); ma anche, secondo Aristotele, la velocità è più grande verso terra perché il grave si avvicina al suo luogo naturale (dove, per altro, Aristotele suppone che la resistenza dell’aria sia minore); sottovalutazione del concetto di accelerazione (accidente momentaneo); per mantenere un grave in moto ci deve essere sempre una forza (influenza della teoria dell’impetus; assenza del concetto di inerzia); moti naturali e violenti non si combinano tra loro (vedi le traiettorie di lancio rappresentate nelle stampe antiche, costituite da due segmenti rettilinei: ramo ascendente, moto violento, ramo discendente in verticale, moto naturale; fino a che si aderisce al postulato di Aristotele non si possono trovare parabole; Tartaglia è il primo ad affermare che la traiettoria di un proiettile è curva in ogni sua parte, Nova Scientia, 1537). 28 Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita. A ciò si aggiunga che: nel formalismo si usano solo proporzioni e proporzioni tra grandezze omogenee (s/t è di là da venire); influenza delle rappresentazioni grafiche del moto (non c’è la variabile tempo); non esiste calcolo infinitesimale (in partic., il concetto di derivata, che esprime una velocità istantanea); non esiste una nozione chiara delle grandezze cinematiche, medie e istantanee. §3.2. Cronologia minima su Galileo 1564 1581 1589 1592 1604 1608 1609 1610 1612 1613 1616 1623 1632 1633 1638 1642 1973 Nasce a Pisa Si iscrive allo Studio di Pisa per studiare medicina ma preferisce occuparsi di geometria e di filosofia naturale. Lettore di matematica allo Studio Pisano. Si occupa del problema della caduta dei gravi. Insegna matematica a Padova. Scrive il De Motu. Prima formulazione della legge di caduta dei gravi nella lettera a Paolo Sarpi, 16 ott. Scopre la forma parabolica del moto dei proiettili. A quest’anno viene datato il manoscritto ‘ritrovato’ da S. Drake nel 1973. Costruisce e impiega il telescopio. Si occupa ancora del problema del moto (Frammenti) ma d’ora in poi il tema principale dei suoi studi sarà l’astronomia. Pubblica il Sidereus Nuncius. Viene nominato Matematico e Filosofo del Granduca di Toscana Cosimo II. Pubblica il Discorso intorno alle cose che stanno in su l’acqua. Istoria e dimostrazioni intorno alle macchie solari. Condanna del sistema copernicano. Il Saggiatore. Dialogo sopra i due massimi sistemi del mondo. Abiura. Ad Arcetri, Discorsi e dimostrazioni matematiche intorno a due nuove scienze attenenti alla meccanica et i movimenti locali. Muore ad Arcetri. Ritrovamento dei manoscritti da parte di S. Drake. Evoluzione dei concetti di moto tra il 1592 e il 1638 (per trovare le leggi ‘giuste’ di caduta dei gravi Galileo impiega 34 anni: dal 1604 al 1638). Galileo: platonico, archimedeo, antiaristotelico. Galileo si dichiara discepolo del “sovrumano Archimede che non nomino mai senza ammirazione”. 29 Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita. Figura di transizione fondamentale ed emblematica tra la fisica medievale e la nuova filosofia naturale. v. Autoritratto postumo di Galileo, A. Frova, M. Marenzana, Parola di Galileo, Rizzoli, Milano, 1998. §3.3. Ancora sui “gravi descendenti” Aristotele: i corpi cadono con v p/ ; se ho due corpi di stessa sostanza e forma ma di peso diverso, cade prima il corpo di peso maggiore. Galileo: tutti i corpi (rimuovendo la resistenza dell’aria) cadono con la stessa velocità! In aria, l’eventuale diversità nei tempi di caduta dipende dal fattore di forma. Esperimento (pensato) della torre di Pisa (mai eseguito da Galileo: rientra nel “mito Galileo” al quale ha concorso il suo primo biografo, Vincenzo Viviani in Racconto istorico della vita di Galileo Galilei): due corpi di peso diverso cadono a terra insieme. Galileo costruisce, con un esperimento pensato, un ragionamento per assurdo ritenendo, come fa Aristotele, che v p (Discorsi, Giornata prima, Ed. Naz., VIII, p. 106 e segg.; v. Frova, Marenzana, cit., p. 58 e seg.): supponiamo per assurdo che anche nel vuoto arrivi prima il corpo più pesante; se è così si avrebbe la situazione di fig. 1 (per il corpo grande A, il corpo piccolo B e l’unione dei due A+B). Ma vale anche il ragionamento seguente: se B è più leggero di A, nella combinazione di A+B, B dovrebbe frenare A (l’ordine di arrivo è perciò quello di fig. 2). B B B A A B A A (fig. 1) (fig. 2) Se dal ragionamento 1 e dal ragionamento 2 segue un assurdo, anche l’assunto di partenza (vp) è sbagliato. Salviati: “Se si levasse totalmente la resistenza del mezzo, tutte le materie descenderebbero con eguali velocità” (Discorsi, Giornata prima, ibid., p. 116). Nota (‘moderna’) sulla legge di caduta dei gravi di Aristotele vp/: la legge non è così assurda (parlando alla Galileo, “sembra di sì,…tuttavia, sembra anche di no”): non lo è perché nei moti resistenti, FA=-bv (con b che dipende dalla viscosità del mezzo e dalla forma del corpo), dalla equazione del moto si ha P+FA=ma, con P costante e FA e a funzioni del tempo, da cui bt bt mg m a = ge ; v = 1 e m ; a decresce esponenzialmente (a t=0, a=g, per b t ,a 0tanto più rapidamente quanto più b è grande e m piccola); mentre v 30 Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita. cresce esponenzialmente (per t=0, v=0, per t , v vlimite = mg ;v. “effetto b paracadute”). La legge è assurda perché quando osserviamo un grave cadere in aria questo accelera. v limite g in un mezz resistente v nel vuoto a t §3.4. La commedia degli equivoci “E’ più facile, e più naturale, vedere, ovverosia immaginare, nello spazio, che pensare nel tempo”. A. Koyré, Studi Galileiani, Einaudi, Torino, 1976 (ed. originale, 1966), p. 94. 1604: lettera a Paolo Sarpi, Opere, Ed. Naz., X, p. 115. 2 Galileo si basa sulla proposizione s t (che prende da Oresme; giusta); e per conseguenza sulla legge in base alla quale le velocità vanno “come i numeri impari ab unitate” (giusta); ma poi conclude che v s (sbagliata); questa legge non è compatibile con la legge del m. u. a. ma con una legge esponenziale. Galileo sbaglia ma è in buona compagnia; sbagliano anche Benedetti, Leonardo, Cartesio, Beeckman, ecc. Perché tutti sbagliano? L’errore proviene dalle rappresentazioni geometriche basate su relazioni spaziali. Ma anche da osservazioni di senso comune: esperienza del palo conficcato nel terreno con una mazza; più la mazza cala dall’alto più il palo si conficca (ma qui Galileo confonde una energia cinetica con una velocità). Esperienza della sferetta fatta cadere sulla cera: più la pallina cade dall’alto più è profonda l’impronta nella cera (idem come sopra). 2 Comunque, Galileo sa che s t : ci deve arrivare; di qui, percorsi tortuosi attraverso errori. “Concepire nuove idee in una cornice concettuale non designata per esprimerla richiede intuizioni fisiche senza precedenti”. N. R. Hanson, I modelli della scoperta scientifica, Feltrinelli, Milano, 1978, p. 61. 1609 ca.: Frammenti attenenti ai Discorsi, Opere, Ed. Naz., VIII, p. 373. Qui Galileo si accorge dell’errore ( v s ) ma arriva a dire che v 1/ t (sbagliata; se la velocità in un moto u. a. aumenta, il tempo necessario a coprire s diminuisce: 31 Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita. “la velocità alla velocità ha contraria proportione che ha il tempo al tempo”), da cui 2 perviene a s t (giusta); Galileo arriva così a una legge giusta dedotta in modo erroneo (v. Koyré, p. 103 e segg.) perché ancora confonde spazi e tempi. Introduce la rappresentazione “triangolare” delle velocità ‘totali’ come aree di triangoli (v. fig.). Lungo un piano inclinato le velocità vanno come i numeri dispari (conclusione giusta da assunti sbagliati): a b s c d e f a g b c d h k e f i v l Segmento verticale: s percorso nella caduta libera; segmento obliquo (di inclinazione qualunque, non ha significato fisico); segmenti orizzontali: valori delle v quando il grave transita per i vari punti della verticale. 1638: Discorsi e dimostrazioni matematiche intorno a due nuove scienze, Ed. Naz., VIII, pp. 203 e segg. Giornata terza. Galileo vuole trovare la forma corretta della legge del moto. La legge che cerca non è causale (Galileo non ricerca cause ma vuole solo descrivere la cinematica dei gravi in caduta). Prima di tutto dimostra che v s è sbagliata. Le 2 ipotesi da cui partire sono: se il moto è u. a., a=cost., quindi v t s t ; il caso della caduta libera è simile al caso della caduta di un grave che rotola su un piano inclinato. Simplicio chiede: E’ certamente così? Sarebbe “opportuno…arrecar qualche esperienza di quelle che s’è detto esservene molte, che in diversi casi s’accordano con le conclusioni dimostrate”. Salviati: la richiesta è ragionevole. “E così si costuma e si conviene nelle scienze le quali alle conclusioni naturali applicano le dimostrazioni matematiche e…con sensate esperienze confermano li principi loro che sono i fondamenti di tutta la struttura”. (Da previsioni da “mondo di carta” a corroborazione mediante esperimento, cioè “sensata esperienza”). Descrizione dell’esperimento con il piano inclinato (v. memoria). 2 Galileo dimostra che s t , per qualunque inclinazione del piano inclinato, anche in base al “principio di semplicità” (metafisica di fondo dello scienziato). “Osservo che una pietra che discende dall’alto…tali aumenti avvengono secondo la più semplice e ovvia proporzione”. Galileo dà una interpretazione geometrica del moto (stavolta corretta): il segmento verticale indica il tempo; i segmenti orizzontali gli incrementi di velocità; il segmento obliquo, gli spazi (v. fig. 3). La velocità della sfera è la stessa a parità di altezza per qualunque inclinazione del piano inclinato; di qui afferma che la caduta verticale e obliqua seguono la stessa legge. Galileo applica la regola mertoniana: 32 Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita. v0 + v t (aree nel grafico); in una unità di tempo viene percorsa una unità 2 di spazio, in due unità di tempo vengono percorse 4 unità di spazio, in 3 unità di tempo vengono percorse 9 unità di spazio, ecc. s = vmt = s 1 4 1 t 2 9 3 v (fig. 3) Alla fine del percorso di Galileo: legge del moto OK; il parametro tempo è esplicitato; non c’è bisogno di una forza per mantenere un corpo in movimento (abbozzo del principio di inerzia); la traiettoria dei proiettili è parabolica (Discorsi, si può affermare che “Il moto dei proiettili farsi per linee paraboliche”. Galileo ci arriva intercettando la parabola di tiro di un grave a varie altezze e ricostruendo per punti la curva; ma anche con esperimento: palla tinta di inchiostro lanciata su una superficie metallica quasi verticale; si vede tracciata la parabola, i cui rami sono simmetrici. L’esperimento era stato già proposto da Guidubaldo Dal Monte). 1973: ritrovamento dei manoscritti di Galileo, databili intorno al 1608 (S. Drake, Galileo’s Experimental Confirmation of Horizontal Inertia. Unpublished Manuscripts, Isis, 64 (1973), 291-305). Disputa Drake-Koyré (Koyré: con la 33 Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita. strumentazione disponibile all’epoca di Galileo, l’esperimento non poteva essere reale). “L’esperienza, è necessario ricordare che si tratta, come quasi sempre in Galileo, di un’esperienza del suo pensiero?” A. Koyré, cit., p. 139. I manoscritti ritrovati servono a sfatare un luogo comune su Galileo: che egli non avrebbe (quasi) mai fatto esperimenti, preferendo a questi gli esperimenti pensati (o Gedankenexperiment). Il dispositivo sperimentale di Galileo (foglio 116v.): H = altezza del trampolino; h = 828 punti= 77,8 cm; altezza tavolo-pavimento; D = gittata con v iniziale orizzontale (1 punto=0,94 mm). Osservare la trascrizione del manoscritto da parte di Drake, i dati sperimentali confrontati con i dati teorici. Non ci sono commenti di Galileo su questo esperimento. Una possibile interpretazione è che Galileo deduca dall’esperimento 2 che D H e calcoli poi gli altri dati (“valori teorici”), e che verifichi inoltre che nei moti orizzontali la velocità si conserva (gli sarebbe così chiaro il principio di composizione dei moti; a favore di questa ipotesi c’è un manoscritto galileano con un disegno della decomposizione dei moti; lungo x si conserva la velocità: il moto è 1/2 uniforme. Lungo y: il moto è u. a. e v (H) , risultato già acquisito intorno al 1609 da esperimenti con i pendoli, teorema delle corde, analogia tra pendoli e moto lungo piani inclinati ). 5 2 Dimostrare che D H ( D = 2 Hh ). 7 1 2 1 2 Dalla conservazione dell’energia mgH=K, con K = mv + I , dove 2 2 2 2 I = mr , momento d’inerzia della sferetta rispetto a un asse baricentrale e w=v/r; 5 7 10 2 da cui K = mv e v = gH . Per la traiettoria parabolica, trascurando la 7 10 2h 1 2 resistenza dell’aria, per il moto lungo la verticale: h = gt * , da cui t* = ; per g 2 10 5 2h gH = 2 Hh . il moto orizzontale D=vt* da cui D = 7 7 g 34 Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita. §3.5. Misurazione del tempo Galileo impone gli intervalli di tempo uguali (mutua i metodi dalla musica): per Dt uguali segna la posizione della palla. Come strumenti per misurare il tempo usa i battiti del polso; gli orologi ad acqua (secchio pieno d’acqua con tubicino sul fondo di portata costante, l’acqua viene raccolta in un recipiente e poi pesata; in queste condizioni mt). Gli orologi meccanici ancora non ci sono e Galileo non pensa di usare pendoli. Gli esperimenti di Galileo sono stati ricostruiti ed eseguiti con modalità quanto più vicine a quelle originali, da T. Settle, An experiment in the history of science, Science, 133 (1961), 19-23; v. sito Istituto e Museo di Storia della Scienza di Firenze: //galileo.imss.firenze.it; //brunelleschi.imss.fi.it. §3.6. Qualche riflessione “Le teorie fisiche forniscono modelli all’interno dei quali i dati appaiono intellegibili. Esse costituiscono una “Gestalt concettuale”. Una teoria non si forma accozzando assieme i dati frammentari di fenomeni osservati; essa è piuttosto ciò che rende possibile osservare i fenomeni come appartenenti a una certa categoria e come connessi ad altri fenomeni. Le teorie organizzano i fenomeni in sistemi. Esse sono costruite “alla rovescia”, retroduttivamente. Una teoria è un insieme di conclusioni in cerca di una premessa. Dalle proprietà osservate di fenomeni, il fisico delinea col ragionamento la sua via verso un’ idea centrale a partire dalla quale le proprietà risultano spiegabili come ovvie. Il fisico non ricerca un insieme di oggetti possibili, ma un insieme di possibili spiegazioni”. N. R. Hanson, I modelli della scoperta scientifica, Feltrinelli, Milano, 1978, p. 109. “Uno scienziato creativo non percorre mai linee di ricerca diritte e ben tracciate, ma si muove quasi sempre a zig-zag, tra incertezze, ipotesi mal poste, misure difficili da interpretare, errori. Ci insegna anche che questo modo di operare nel contesto della scoperta dipende in modo forte dal pezzo di mondo che si sta esplorando: ciò che accade lungo un piano inclinato o nelle oscillazioni di un pendolo non è una conseguenza dei nostri desideri. E, soprattutto, dovrebbe farci capire come sia difficile, anche per un cervello come quello di Galileo, cogliere il significato di parole come “velocità” o “accelerazione”, che pure usiamo con tanta disinvoltura nel linguaggio quotidiano”. E. Bellone, Galileo. Le opere e i giorni di una mente inquieta, Quaderni di Le Scienze, n. 1, 1998. Suggerimenti di attività: Esperimento di Galileo con il piano inclinato, realizzato con mezzi di fortuna: cronometro, metro, superficie inclinata lunga almeno 1 m, pallina (scegliere gli 35 Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita. spazi come s, s/2, s/3, ecc. e misurare ogni volta il tempo impiegato dalla pallina a percorrerli); riportare i dati su grafico e verificare che st2. Esperimento “fettuccia e bottoni”: realizzata la fettuccia con i bottoni aventi distanze tra loro nel rapporto 1:3:5:7 ecc.; che caratteristica ha il suono dei bottoni quando questi toccano terra? Dimostrare che se i tempi tra un suono e l’altro sono uguali, le velocità stanno tra loro “come i numeri impari ab unitate” e che questa legge è compatibile solo con st2. Esperimento foglio-quaderno: v. punto 5; l’esperimento dimostra che tutti i corpi cadono con la stessa accelerazione senza dover usare il tubo di Newton e la pompa da vuoto. CAP. 4. DAL CALORICO ALL’ENTROPIA §4.1. La natura del calore Le concezioni sulla natura del ‘calore’ che si contrapporranno e si alterneranno nell’arco di secoli sono essenzialmente due: il calore come sostanza e il calore come moto. La prima concezione si riallacciava alle dicotomie classiche, riprese anche dalla filosofia scolastico-aristotelica, del freddo-caldo legato alle qualità primarie e, in particolare, al fuoco come elemento primo della materia. In tal caso la dilatazione termica veniva per esempio interpretata come dovuta all’immissione di particelle di fuoco o calore (“ignicoli” e simili) nel corpo in esame, la conduzione termica al passaggio di calore da un corpo all’altro, e così via. La seconda concezione, che si ispirava al corpuscolarismo democriteo, riteneva invece che il calore fosse il risultato di moti incessanti e caotici di “atomi calorifici” (tondi e veloci) e di “atomi frigorifici” (spigolosi e lenti) costituenti la materia. Con l’avvento della nuova filosofia sperimentale queste due concezioni verranno riprese con alterne vicende e trasformate in vere e proprie teorie fisiche. La distinzione tra la grandezza intensiva temperatura e la grandezza estensiva calore, come vedremo, avverrà solo con le prime esperienze calorimetriche, sulle mescolanze. Un notevole passo avanti nel processo di concettualizzazione del calore venne fatto da Galileo. Nel Saggiatore (1623), Galileo definì in tutta generalità i criteri di scientificità nella trattazione di un fenomeno: le qualità secondarie soggettive legate ai sensi -per esempio, odori, sapori, suoni- vanno superate a favore di qualità primarie oggettive, descrivibili mediante dimensioni, forma, numero, velocità delle particelle dei corpi. Lo scienziato, se vuole indagare il mondo fisico, deve occuparsi di queste qualità. Si inaugura così un modo nuovo di descrivere la natura che segna il passaggio “dal mondo del pressappoco all’universo della precisione”. Galileo inoltre superò la dicotomia freddo-caldo affermando che il freddo altro non è se non “privazione di caldo”. Al corpuscolarismo cinematico (o teoria cinetica o meccanicismo, nelle varie accezioni che questo filone di pensiero assumerà negli anni) aderiranno oltre a Galileo, P. Gassendi (15921655), Cartesio (1592-1650), Boyle, Hooke, Mariotte, C. Huygens (1629-1695) e Newton. Nel Settecento prevarrà invece l’ipotesi sostanzialistica del calore sia nella sua variante che considerava il calore come moto di particelle di una sostanza sui generis (teoria cinetico-sostanzialistica), sia in quella che più 36 Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita. semplicemente considerava la sensazione del calore legata alla sola presenza di una sostanza particolare non necessariamente dotate di proprietà cinetiche (teoria sostanzialistica). L’idea di calore come sostanza si sviluppò con il prevalere delle varie ipotesi dei “fluidi imponderabili” invocati per spiegare diverse classi di fenomeni non solo termici ma anche gravitazionali, luminosi, chimici, elettrici e magnetici. Qui è presente un altro tratto comune all’evoluzione della fisica: la tendenza verso l’unitarietà delle teorie, nel tentativo di individuare un numero ristretto di principi primi in grado di spiegare diverse fenomenologie. Nel contesto delle spiegazioni basate sui fluidi imponderabili si affermeranno: la “materia sottile” cartesiana (plenum di materia), successivamente l’etere newtoniano (“mezzo molto più sottile dell’aria” che rimane anche dopo che questa è stata rimossa, responsabile, per esempio, della propagazione del calore nel vuoto), il flogisto dei chimici (o materia solforosa di Stahl, simile ad una terra sottile che con la sua presenza facilita la combustione), il fuoco della scuola olandese di H. Boerhaave (Elementa Chemiae, 1732: la materia è costituita da atomi di materia ordinaria e di fuoco elementare in moto), il fuoco-flogisto (inteso come costituente chimico dei corpi), il fluido elettrico di Franklin (1749, con particelle autorepulsive e attrattive rispetto alla materia ordinaria) e infine il calorico (1787). Nella spiegazione dei fenomeni termici, l’ipotesi dell’esistenza del calorico avrà una enorme diffusione. Inteso come una sostanza speciale verrà incluso nel 1787 nella nuova nomenclatura chimica (Méthode de nomenclature chimique di De Morveau, Berthollet, Lavoisier, Fourcroy). Negli ambienti francesi si distingueva in particolare tra calorique, o materia del calore, con atomi autorepulsivi, e chaleur, o sensazione destata dal calore. A.-L. Lavoisier (1743-1794) si schierò a favore del calorico in tre memorie del 1777 all’Académie des Sciences, nelle quali spiegava i tre stati della materia come dovuti alla combinazione di calorico con la materia ordinaria, la combustione e la calcinazione (ossidazione). Ma non fu disposto ad attribuire a questa ipotesi verità assoluta8. Altri sostenitori dell’idea di calorico furono Franklin, Aepinus, Black, Volta, Laplace, Dalton, Avogadro, Ampère con riserve, Poisson, Sadi Carnot. §4.2. La nascita della calorimetria Nell’ambito della teoria del calorico, uno dei problemi più dibattuti riguardava il ‘grado di calore’ assunto da una mescolanza di due volumi diversi V della stessa sostanza, per esempio acqua, aventi diversi ‘calori iniziali’. Dopo vari tentativi G. W. Richman9 e J. Black (1728-1799)10, indipendentemente, arrivarono intorno al 1750 alla formula V t + V2 t 2 t= 11 (1) . V1 + V2 Black in particolare pervenne a questa relazione in analogia con la formula per le diluizioni nella mescolanza di soluzioni 8 Cfr. F. Sebastiani, I fluidi imponderabili, Dedalo 1990, p. 34 e dello stesso autore “Alle origini della termodinamica”, in CEE cit., 169-215. 9 G.W. Richman, Acad. Petrop., 1 (1750) 152. 10 J. Black, Lectures on the elements of Chemistry, Edinburgh, 1803 post., a cura di J. Robison. 37 Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita. V1S1 + V2 S2 (2), V1 + V2 con S1 e S2 quantità di sale disciolto per unità di volume e, ancora, in analogia con la formula S h + S2 h2 h= 1 1 (3) S1 + S2 per il livello all’equilibrio dell’acqua raggiunto in due vasi comunicanti di sezione S1 e S2. Le grandezze che si corrispondono nelle analogie considerate sono i volumi di liquido contenente una certa quantità di sale S, i volumi d’acqua Sh, le quantità di calorico Vt. Sia la (2) che la (3) sono una conseguenza della conservazione dei volumi di liquido. Black, infatti, come i caloricisti, riteneva che il calorico si conservasse. Presto si riconobbe che la (1), sulla quale condussero esperimenti anche Fahrenheit e Boerhaave, non era valida per sostanze diverse (in particolare, nelle mescolanze con mercurio e acqua o acqua e ghiaccio gli sperimentatori osserveranno che la (1) porta a paradossi). Finalmente Black trovò, intorno al 1760, la relazione C V t + C2V2 t 2 t= 1 11 (4) C1V1 + C2V2 dove C rappresenta il calore specifico, o “affinità per il calore” come veniva chiamata da Black (la denominazione di “calore specifico” si deve al fisico svedese J. C. Wilcke ed è del 1781), e CV è la capacità di un corpo a “immagazzinare calore” (cioè la capacità termica). La denominazione “capacità” risponde a pieno all’idea di calore come fluido assorbito da un corpo. Black (1762) osservò pure che le cose si complicavano se nella mescolanza avveniva un passaggio di stato: per esempio, se una certa massa d’acqua veniva riscaldata e poi portata all’ebollizione fino all’evaporazione completa, si osservava che la quantità di calore necessaria per far evaporare l’acqua era circa 500 volte maggiore di quella richiesta per scaldarla di 1°C, nonostante che durante l’ebollizione la temperatura di acqua e vapore rimanesse praticamente costante. Un fenomeno simile si riscontrava nella fusione del ghiaccio: da 0°C fino alla liquefazione totale di una certa massa di ghiaccio veniva assorbita una quantità di calore pari a quella necessaria a scaldare la stessa massa d’acqua da 0 a 80°C. Lo stesso avveniva nei processi inversi per la cessione di calore, per esempio nella condensazione o nel congelamento dell’acqua. L’ipotesi avanzata da Black fu allora che il calore scomparso o apparso durante i passaggi di stato- senza che a esso fosse associata alcuna variazione sensibile di temperatura- dovesse esistere ancora nel corpo sotto forma latente (da qui la denominazione di “calore latente”). Sempre a Black si deve ancora la definizione corretta di “equilibrio termico”: S= Un passo avanti nella nostra conoscenza del calore, ottenuta grazie all’uso dei termometri, consiste nella nozione più chiara rispetto al passato della distribuzione del calore fra corpi differenti. Anche senza l’aiuto dei termometri possiamo percepire una tendenza del calore a diffondere da un corpo più caldo a uno più freddo posto in prossimità fino a che il calore stesso, non si sarà distribuito fra di essi in modo che nessuno dei due sia più in grado di riceverne ancora dall’altro. Il calore è così portato in uno stato di equilibrio. 38 Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita. Questo equilibrio è veramente particolare. Ci accorgiamo che quando ogni azione mutua è finita, un termometro applicato a uno qualunque dei due corpi è soggetto allo stesso grado di dilatazione. Perciò la loro temperatura è la stessa. Dobbiamo interamente questa scoperta al termometro poiché nessuna nozione anteriore sulla particolare relazione tra ciascun corpo e il calore avrebbe potuto darci la garanzia di un fatto del genere. Dobbiamo perciò adottare come una delle leggi più generali del calore il principio che tutti i corpi che comunicano liberamente tra loro e non esposti ad alcuna disomogeneità dovuta a cause esterne, assumono la stessa temperatura, come è indicato dal termometro. E tutti assumono la temperatura del mezzo circostante. Con l’uso del termometro abbiamo imparato che se abbiamo migliaia diversi tipi di materia come metalli, pietre, sali, legno, sughero, piume, lana, acqua e una varietà di altri fluidi, sebbene all’inizio possano avere tutti temperature diverse, se noi li poniamo tutti insieme in una stanza senza che vi siano fiamme e al riparo del sole, il calore si propagherà dal più caldo di questi corpi al più freddo, magari nel corso di ore o di giorni ma, alla fine, se applichiamo loro un termometro in successione, esso darà esattamente la stessa risposta. [...] Questo è ciò che comunemente è stato definito “calore uguale”, o “uguaglianza di calore tra corpi diversi”; io lo definisco “equilibrio del calore”.11 La temperatura misurata da un termometro è dunque grandezza diversa dal calore, come ente che ‘passa’ da un corpo ad alta temperatura a uno a bassa temperatura e che si misura con un calorimetro (il termine “calorimetro” viene introdotto da Lavoisier nel 1789). Il calorimetro a ghiaccio di Lavoisier Le ipotesi che il calorico sia un fluido (hp 0), che le particelle di calorico siano tra loro repulsive (hp1), che possa esistere allo stato libero e latente (hp2) (o, in alternativa, l’ipotesi che il calorico possa modificare la capacità termica dei corpi, hp3), oltre all’idea che il calorico si conservi (hp 4), sono sufficienti a interpretare correttamente una quantità di fenomeni tra i quali: la dilatazione termica (hp0+hp1); i cambiamenti di stato (hp0+ hp1+ hp2 ); la pressione (o elasticità o espandibilità) di un gas ((hp0+hp1); il riscaldamento per attrito (hp 0+ hp2 o 3); il raffreddamento (o il riscaldamento) nell’espansione (o compressione) adiabatica di un gas (hp2 o 3); l’espansione (o la compressione) isoterma di un gas (hp0: calorico scambiato in modo da mantenere costante la temperatura); i processi 11 39 J. Black, cit., in W.G. Magie, A source book in physics, New York 1939, p. 135. Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita. chimici eso- (o endo-) termici (hp0+ hp1, oppure hp0+ hp 2); la relazione per la temperatura all’equilibrio in una mescolanza (hp0+ hp4, purché non ci siano perdite di calore con l’esterno). Ma se pure queste ipotesi servono a interpretare correttamente e a salvare localmente un dato fenomeno, nel complesso non sono in grado di costituire una teoria unitaria, predittiva, comprovabile sperimentalmente e in grado di spiegare intere classi di fenomeni. §4.3. Dal calore come sostanza al calore come moto L’ idea del calore come movimento è una ipotesi continuamente presa in considerazione nel corso della storia della scienza ma, fino ai primi decenni dell’Ottocento, sembrò destinata a rimanere in secondo piano perché meno intuitiva e di più difficile formalizzazione dell’idea rivale di calore come sostanza. La stessa dicotomia moto-sostanza si presentava del resto anche in altri settori della scienza, primo fra tutti l’ ottica dove per secoli si dibatterà se la luce sia moto o materia portando, con alterne vicende, al prevalere di teorie ondulatorie o corpuscolari a seconda dei fenomeni da spiegare. E il dibattito sulla natura del calore verrà associato proprio a quello della luce: nei primi decenni dell’Ottocento si osserverà sperimentalmente che i cosiddetti raggi calorici- o calore raggiante- si comportano come la luce, in particolare si propagano nel vuoto, vengono riflessi, rifratti, sembrano avere la stessa velocità della luce (per esempio durante le eclissi di Sole, luce e calore spariscono contemporaneamente), subiscono interferenza e polarizzazione. Al riguardo sono esemplari le esperienze di M. Melloni (17981854) del 1827, che dimostrarono in modo non equivoco che “calorico raggiante” e luce presentano la stessa fenomenologia e dunque, anche i raggi calorici possono essere pensati come un’ondulazione dell’etere piuttosto che come una sostanza sui generis. Tutto ciò contribuirà ad avvalorare l’ipotesi che il calore sia moto e che il calorico non esiste. A favore della teoria cinetica del calore e contro il modello di calorico si schiereranno tra la fine del Settecento e l’inizio dell’Ottocento Benjamin Thompson (conte Rumford), H. Davy, Th. Young, A. M. Ampère soprattutto perché l’ipotesi di calorico porterà a problemi irrisolvibili. C’era infatti una classe di fenomeni che la teoria del calorico non riusciva facilmente a spiegare a meno di non ricorrere a una molteplicità di ipotesi ad hoc: martellando o facendo attrito su una superficie metallica con un altro corpo metallico si osservava una produzione di calore apparentemente illimitata. I caloricisti interpretavano il fenomeno attribuendolo a calorico latente che per attrito o percosse veniva liberato dalla massa del metallo. Ma anche così l’idea di un fluido, che si presentava i questi processi in quantità che aumentavano sempre più nel tempo e che contemporaneamente doveva conservarsi, era difficile da salvare. Al riguardo sono celebri gli esperimenti condotti da Rumford (17531814) sulla natura del calore12. Il primo problema da risolvere riguardava la massa da attribuire al calore, se era vero che questo fosse una sostanza. Sebbene convinto già a priori che un corpo non acquista (o perde) massa se riscaldato (o raffreddato), dopo una lunga campagna di misure condotte intorno al 178013, Rumford concluse di “poter affermare con sicurezza che tutti i tentativi di scoprire un effetto del calore sul peso apparente dei corpi devono considerarsi infruttuosi”. 12 Su questo caso cfr. Harvard cases, cit., p. 155 e seg. B. Thompson, An inquiry concerning the weight ascribed to heat, Phil. Trans., 89 (1799) 179; anche in The complete works of count Rumford, Amer. Acad. of Arts and Sciences, Boston, II, 1-16. 13 40 Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita. Rispetto al problema della produzione di calore per attrito, Rumford se ne occuperà in una accurata indagine sperimentale pubblicata nel 179814: Mentre ero intento a sovrintendere alla foratura dei cannoni nelle officine dell’arsenale militare di Monaco fui colpito dal grado assai considerevole di calore che un pezzo di artiglieria d’ottone acquista in poco tempo quando è forato; anche i trucioli metallici asportati dal trapano presentavano una temperatura ancora più alta (molto più alta di quella dell’acqua bollente come constatai con l’esperimento). Più riflettevo su questi fenomeni più questi mi apparivano curiosi e interessanti. Una loro indagine più accurata mi sembrò adatta a comprendere meglio la natura nascosta del calore, e a consentirci di formarci delle idee ragionevoli sull'esistenza o non esistenza di un fluido igneo, un argomento su cui le opinioni dei filosofi si sono molto divise in tutti i tempi15. I caloricisti tentarono di spiegare il fenomeno arrampicandosi sugli specchi: dopo averlo attribuito a calorico latente, dal momento che esso sembrava non dipendere dalla massa di metallo asportato tirarono fuori dal cappello un’altra ipotesi ad hoc, giustificando la sua produzione come dovuta ad una diminuzione della capacità termica dei frammenti asportati rispetto alla capacità termica del blocco di metallo. Rumford allora eseguì un esperimento nel quale misurò sia il calore specifico cp della polvere di ottone prodotta durante la foratura del tubo del cannone, che quello cm dei frammenti della massa del tubo, asportati con una sega. Con il calorimetro delle mescolanze, misurando separatamente cp e cm e ripetendo più volte le misure, constatò che i due valori coincidevano e che quindi, a parità di massa, la capacità termica della polvere di metallo era identica a quella dei frammenti e a quella del blocco di metallo. Racchiudendo poi una parte del tubo del cannone da alesare con la punta di ferro del trapano che operava al suo interno, in una cassa di legno a tenuta piena di 8 l d’acqua, controllando la temperatura dell’acqua e della massa del metallo da forare con dei termometri a mercurio, Rumford poté osservare e valutare l'enorme quantità di calore prodotto per attrito. Dopo due ore e mezzo durante le quali il trapano continuava a lavorare con una velocità di rotazione nota (impressa da una serie di rotismi mossi da uno o più cavalli), l’acqua entrò addirittura in ebollizione. Rumford concluse così che: La fonte di calore generata per attrito in questi esperimenti appariva inesauribile. E’ assai difficile affermare che ciò che è in grado di fornire qualcosa senza limitazione ad un corpo o ad un sistema di corpi isolati possa essere una sostanza materiale; e mi sembra estremamente difficile se non impossibile farsi una idea di qualcosa capace di essere eccitata e trasferita nel modo in cui calore è eccitato e trasferito in questi esperimenti, a meno che questa non sia moto16. 14 B. Thompson, Experimental inquiry concerning the source of heat which is excited by friction, Phil. Trans., 88(1798) 80; Complete Works, cit., I, pp. 471-493. 15 Cit. in Conant, p. 171. 16 Ivi, p. 188. I dati forniti da Rumford vennero più tardi utilizzati da Joule per calcolare l’ “equivalente meccanico del calore”. Tra lavoro meccanico speso L e calore prodotto Q deve sussistere, secondo Joule, una proporzionalità diretta. Così, dai dati di Rumford si ottiene: durata dell’esperimento: 2,5 ore=150 min =9000 s; massa d’acqua nel calorimetro: 26,6 libbre corrispondenti a una capacità termica di 12,1 kcal/°C; variazione di temperatura dal valore iniziale fino all’ebollizione: DT=100°C. Questo valore deve essere corretto per tener conto delle perdite di calore per unità di tempo che comportano una diminuzione della temperatura stimata da Rumford di 0,6°F/min; per l’intera durata dell’esperimento si ha perciò 0,6 150 min =90°F= 50°C con DT’= 150°C; la quantità di calore prodotto per attrito, con riferimento alla sola acqua, è Q= 12,1 kcal/°C 150°C= 1815 kcal; se si suppone che la potenza fornita da un cavallo sia 1HP = 75 mkg-p/s, si ha L= 41 Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita. H. Davy (1788-1829) fu in grado di produrre una elegante controprova sperimentale ancora più convincente di quella di Rumford17. Presi due pezzi di ghiaccio a -2°C, per attrito questi si liquefanno più rapidamente; l’acqua di fusione non solo non ha una capacità termica inferiore a quella del corpo da cui si separa ma ha un calore specifico sensibilmente maggiore di quello del ghiaccio, a parità di massa, e quindi a fortiori contraddice l’ipotesi dei caloricisti: Da questo esperimento è evidente che per attrito ghiaccio è convertito in acqua e in accordo all’assunzione dei caloricisti il suo calore specifico dovrebbe essere diminuito. Ma è ben noto che il calore specifico del ghiaccio è molto più piccolo di quello dell’acqua; e per di più che una certa quantità di calore [calore latente di fusione] deve essere aggiunta al ghiaccio per trasformarlo in acqua. L’attrito per conseguenza non diminuisce i calori specifici dei corpi18. L’esperimento di Davy, nonostante presenti complicazioni sperimentali non banali (dovute per esempio alla presenza di uno strato d’acqua tra i due blocchi che riduce il calore prodotto, o alla possibilità che le due superfici si attacchino ostacolando il lavoro fatto dalla forza d’attrito a causa del fenomeno del rigelo) è tuttavia di estrema linearità: può essere presentato agli studenti come esperimento mentale per sollecitare previsioni sull’andamento del processo e argomentazioni contro la teoria del calorico. §4.4. Carnot e il rendimento delle “macchine a fuoco” La scienza del calore non crebbe lungo linee evolutive isolate ma mantenne sempre saldi legami con la pratica, soprattutto con la meccanica applicata alle macchine, dal momento che la “potenza del fuoco” venne subito riconosciuta come una possibile fonte di energia. Dal punto di vista della meccanica teorica, l’imponente eredità lasciata da I. Newton (1642-1727) e da G. Leibniz (16461716) aveva portato alla fine del Settecento a due orientamenti diversi ma in una certa misura complementari: il primo si rifaceva alla tradizione vettoriale direttamente riconducibile ai Principia di Newton (1687), dove lo spazio, il tempo, la massa e la forza definita come causa esterna alla materia, responsabile della variazione di moto di un corpo, venivano considerati i parametri fondamentali nella descrizione dei processi dinamici; si sosteneva inoltre che la materia fosse costituita da atomi duri e indeformabili e pertanto, verificandosi solo urti anelastici, i principi di conservazione erano assenti. L’altro orientamento in meccanica si rifaceva invece alla tradizione scalare, o ‘energetica’, di Leibniz e di G. L. Lagrange (1736-1813; Mécanique analitique, 1788), dove, oltre ai parametri già menzionati, alla nozione di forza si sostituiva quella di una grandezza scalare riconducibile alla vis viva (o energia cinetica) posseduta dalla materia; si ammetteva inoltre l’esistenza di una “funzione lavoro” esprimibile come somma di energia cinetica e potenziale per la configurazione di un corpo o di un sistema di corpi. In questo orientamento, che presupponeva una 75 9000 s= 675.000 mkg-p che porta a un equivalente pari a J= L/Q= 675.000/1815= 372 mkg-p/kcal (circa 3,4 J/cal contro i 4,8 corretti). 17 H. Davy, An essay on heat, light and combinations of light, in Contributions to physical and medical knowledge, 1799. 18 Da Conant, cit. p.193. 42 Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita. materia continua e pervasa di energia, prevalevano principi di conservazione validi però nel solo contesto della meccanica analitica, ovvero in tutti quei processi ideali nei quali i vincoli sono lisci, le forze sono centrali e così via (cioè nei processi conservativi). A fianco di questi orientamenti teorici si sviluppò di pari passo, spesso precedendo la teoria, la meccanica applicata alle macchine, legata alla pratica dei tecnici e poi dei cosiddetti scienziati-ingegneri. In questo ambito, soprattutto in ambiente inglese e francese, si iniziò nella seconda metà del Settecento una intensa sperimentazione tesa in particolare a studiare la perdita di vis viva che avveniva inevitabilmente nel funzionamento reale delle macchine, ben lontane dal comportamento ideale a cui si riferiva la meccanica analitica. La sperimentazione con macchine reali, prima basate sull’uso di ruote idrauliche e a vento e poi sempre più sull'impiego di altre ‘potenze naturali’ dovute alla pressione atmosferica e alla espansione o alla condensazione del vapore, si andò intensificando, in Inghilterra, in conseguenza del passaggio dal sistema manifatturiero a quello delle fabbriche (rivoluzione industriale, 1770-1790) e in Francia, nel periodo napoleonico, nel clima della Ecole Polytechnique (1794). Tra le prime proposte di macchine in grado di fornire lavoro utile figurano i progetti di Della Porta (1601), Guericke (1651), Papin (1690), che sfruttano la pressione atmosferica e il vuoto. Fatto il vuoto in un recipiente chiuso da un pistone a tenuta (con una pompa da vuoto o per condensazione del vapore prodotto nel recipiente per riscaldamento d’acqua), la pressione atmosferica sospinge il pistone verso il basso, generando un movimento che può essere sfruttato per esempio per sollevare pesi (in fig. è mostrata una stampa da O. von Guericke, Experimenta nova, Amsterdam, 1672). La prima realizzazione pratica di una “macchina atmosferica” in grado di funzionare regolarmente si deve a T. Savery (1698) e a T. Newcomen (1722). Queste macchine fornirono a J. Watt (1736-1819) i prototipi che porteranno, a partire dal 1769, attraverso una serie di brillanti innovazioni tecniche, alla macchina a vapore. In fig., l’esperimento pionieristico di J. Smeaton, del 1759, per misurare il rendimento delle ruote undershot, Phil. Trans., 51 (1759), 100174. 43 Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita. Tra la fine del Settecento e l’inizio dell’Ottocento si verificherà un processo di fusione tra sapere pratico e sapere teorico, fondato sul filone della meccanica pratica inglese e sulla tradizione razionalizzante francese. In questo processo emergerà una nuova grandezza fisica, quella di lavoro meccanico, e con essa le prime definizioni di rendimento di una macchina, prima con gli studi di L. Carnot (1753-1823) e poi, tra gli altri, di C. L. Navier (1785-1836), G. G. Coriolis (17921843), J. V. Poncelet (1788-1867) sulle macchine motrici; e solo quando il processo di compenetrazione tra la tradizione della meccanica teorica da un lato, e degli scienziati-ingegneri e dei costruttori di macchine, dall’altro, arriverà a compimento, il concetto di lavoro assumerà una identità concettuale e operativa. Tra i tentativi di definire l’ ‘utilità’ di una macchina, l’industria mineraria indicava come criterio di misura nel sollevamento di un carico, il prodotto del suo peso per una certa quota h. J. T. Desaguliers (1683-1744), quantificò la potenza di un cavallo in termini di sollevamento di 44.000 libbre per la distanza di un piede al minuto. Watt impose poi lo standard di 33.000 libbre per piede al minuto. Per quanto riguarda l’unità di lavoro meccanico, Hachette in Francia, introdusse nel 1811 un metro cubo d’acqua sollevato per un metro; la stessa unità venne chiamata da Coriolis “dynamode”, o unità di “travail” (denominazione che a suo parere esprimeva meglio ciò che prima di lui veniva chiamata “potenza motrice”, o “effetto dinamico” o “quantità d’azione”), corrispondente alla metà della vis viva. Infine Poncelet, nel 1841, usò per la prima volta in senso moderno il concetto di lavoro nel suo trattato Méchanique Industrielle e definì nel caso generale il lavoro necessario a superare una resistenza variabile come l’area sottesa dal grafico della resistenza in funzione della distanza percorsa. In questo clima si inserisce il contributo fondamentale di un giovane ingegnere francese, Sadi Carnot (1796-1832) che nel 1824 pubblicò le Réflexions sur la puissance motrice du feu et sur le machines propres à developer cette puissance, un breve trattato che segnò una svolta radicale nella scienza del calore. In esso veniva formulato, per una macchina termica ideale che funzioni ciclicamente, e nell’ambito della teoria del calorico, il teorema di Carnot che conteneva in sé i presupposti al secondo principio della termodinamica. I problemi che Carnot tentò 44 Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita. di risolvere riguardavano a. il principio generale di funzionamento delle macchine termiche; b. l’esistenza di un limite massimo per il rendimento ottenibile da una macchina termica; c. la dipendenza tra la potenza motrice massima ottenibile da una macchina, e la particolare sostanza agente impiegata. Macchina a vapore a doppio effetto di Watt, 1784, da R. Singer, E. J. Holmyard, A. R. Hall, Storia della Tecnologia, vol. 4, Boringhieri, Torino, 1964. Rispetto al primo punto, nelle macchine a vapore la produzione di potenza motrice è dovuta, per Carnot, a un trasferimento di calorico almeno tra due sorgenti a temperature diverse. Per rendere intuitivo il processo Carnot si servì di una analogia tra macchine idrauliche e macchine “a fuoco”: così come una ruota idraulica sfrutta la caduta di una massa d’acqua tra due serbatoi posti a un dislivello h, una macchina termica impiega il ‘dislivello’ di temperatura T tra due sorgenti e produce lavoro attraverso un processo di riequilibrio termico, cioè tramite una “caduta di calorico da un grado di intensità all’altro”. Rispetto ai punti b e c, Carnot enunciò un teorema che ammetteva l’esistenza di un limite massimo per la potenza motrice prodotta da una macchina termica in un ciclo del suo funzionamento, durante il quale una certa quantità di calore veniva trasferita da una sorgente calda a una fredda. Questa potenza motrice massima non dipendeva dall’agente impiegato (vapor acqueo, aria, vapore d’alcool) né dalle caratteristiche costruttive della macchina ma solo da T e dalla quantità di calore trasferito (L= cost. QT). Il teorema esprime, nella terminologia moderna, la definizione del rendimento per il ciclo di Carnot: data una macchina ideale, costituita da un cilindro contenente aria, chiuso da un pistone, e due sorgenti a temperatura diversa, Carnot supponeva che il cilindro venisse posto a contatto con la sorgente calda e assorbisse isotermicamente calorico; quindi venisse isolato termicamente fino a che la caduta di calorico non arrivava alla temperatura della sorgente fredda: poiché l’espansione avveniva senza assorbimento di calorico, il gas si raffreddava; successivamente il gas, compresso isotermicamente, cedeva calorico alla sorgente fredda e infine veniva riportato alla temperatura della sorgente calda senza cessione di calorico. Si ha così, nel piano pressione-volume, la nota rappresentazione del ciclo di Carnot (la quale, in realtà, è posteriore e si deve a Clapeyron, 1834)19, in cui si 19 45 E. Clapeyron, Memoir on the motive power of heat, Journ. de l’Ecole Polyt., 14, 1834. Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita. realizza, nella fase di espansione adiabatica, la caduta di calorico dalla sorgente calda alla fredda: contemporaneamente viene prodotta potenza motrice causata dalle variazioni di volume subite dal gas (cioè, nelle “macchine a fuoco”, dagli spostamenti del pistone nel cilindro). Carnot affermò così che il rendimento di una macchina termica era massimo quando la caduta di calorico era associata unicamente a variazioni di volume, senza che intervenissero durante il suo funzionamento variazioni di temperatura dovute a conduzione termica. Il teorema di Carnot si basava dunque sull’assunto che il calore fosse un fluido indistruttibile che non poteva essere consumato o trasformato in lavoro (cioè il calorico per Carnot era una “funzione di stato”: in un ciclo Q=0 e Qass= Qced) e che la macchina ammetteva un rendimento massimo quando funzionava reversibilmente. Una macchina funzionava reversibilmente per Carnot quando, lavorando all’inverso, trasportava la stessa quantità di calore consumando la stessa potenza motrice. Un processo reversibile corrispondeva quindi ad un processo senza sprechi, nel quale cioè si aveva produzione di potenza motrice solo attraverso una variazione di volume, mentre un processo era irreversibile se la tendenza del calorico ad assumere una condizione di equilibrio non veniva sfruttata completamente a causa di sprechi dovuti a conduzione. Nella trattazione di Carnot veniva così enunciato il secondo principio della termodinamica ma, dal momento che veniva esclusa la possibilità di conversione di lavoro in calore (e viceversa), veniva di fatto negato il principio generale di conservazione dell’energia, cioè il primo principio. Vedremo tra breve come Joule affronterà il problema. Storicamente, l’enunciato del secondo principio precede così di circa vent’anni la formulazione del primo principio alla quale concorreranno a metà Ottocento numerosi scopritori simultanei20 tra i quali Mayer, Joule ed Helmholtz. Un fattore importante che influenzò la scoperta fu dovuto alle molte classi di fenomeni che rivelavano una connessione stretta tra “forze naturali” di diversa origine, in particolare tra chimismo e galvanismo (Galvani, Volta, Davy, Berzelius), tra elettricità e magnetismo (Oersted, 1820), calore ed elettricità (Seebeck, 1822), magnetismo e luce (Faraday, 1831), luce e calore radiante (Melloni, 1827). Queste connessioni, inserite per di più in un clima filosofico assai favorevole (Naturphilosophie in Germania e Natural Philosophy in Inghilterra) rafforzarono sempre più la concezione che tutte le ‘forze naturali’ sono correlate e che esista nell’universo una unità indistruttibile delle forze. E’ in questo clima che matureranno i contributi sperimentali di Mayer e di Joule, diretti alla ricerca di un “equivalente meccanico del calore”, e contemporaneamente il concetto di “energia”. §4.5. Gli esperimenti di Mayer e di Joule sulla determinazione dell’equivalente del calore 20 Cfr. sull’argomento, Y. Elkanà, La scoperta della conservazione dell’energia, Feltrinelli 1977; T. Kuhn, “Energy conservation as an example of simultaneous discovery”, in Critical problems as an example of simultaneous discovery, a cura di M. Clagett, Madison 1959, 321-356; M.G. Ianniello, “La scoperta dell’energia”, in CEE, cit, 216-273. 46 Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita. R. J. Mayer (1814-1878) era un outsider che si occupava piuttosto di medicina che di fisica: partendo dalle teorie della produzione del calore animale arrivò intorno al 184221 a una sorta di equazione di bilancio tra ossigenazione e calore corporeo perduto, più lavoro manuale fatto. La convertibilità e la conservazione delle ‘forze’ naturali venne poi generalizzata al mondo inorganico, dal momento che per Mayer non esistevano differenze sostanziali tra mondo animato e inanimato. Tutti i processi naturali con produzione di calore dovevano perciò essere accompagnati da una distruzione di ‘forze’ di altra natura, secondo un preciso rapporto di conversione. Per Mayer la determinazione di un equivalente meccanico del calore poteva essere così condotta, indifferentemente, misurando la differenza tra i calori specifici a pressione e a volume costante nella espansione di un gas, così come analizzando il bilancio energetico tra azione chimica nella respirazione e calore prodotto dagli organismi viventi. E questo perché le forze non sono altro che manifestazioni diverse di una unica Urkraft (o ‘forza’ primigenia) aventi tutte pari significato. L’esperimento ideato da Mayer si basa sul riscaldamento di un gas a pressione costante e poi a volume costante. E’ una sorta di compromesso tra un esperimento mentale e una deduzione logica che deriva da convinzioni ben radicate nel fisiologo tedesco: in altre parole si tratta di un esperimento che serve a dedurre risultati che già a priori sono scontati per Mayer. Le conoscenze di cui si servirà l’autore nel suo ragionamento riguardano il coefficiente di dilatazione dei gas, l’esperienza di espansione libera di un gas, i valori del calore specifico a pressione e a volume costante per l’aria, già dedotti da Gay-Lussac nei suoi esperimenti sulla fisica dei gas. Ricostruiamo il ragionamento di Mayer (non proprio chiaro e un po’ sintetico) con un po’ di libertà e abbandonando le unità di misura tecniche usate dallo scienziato tedesco22. Preso un cilindro di sezione S=1 m2, chiuso da un pistone di massa trascurabile libero di scorrere senza attrito, in esso viene posto 1 kg d’aria in condizioni normali. Nota la densità dell’aria (aria =1,293 kg/m3) si risale alla altezza h a cui si trova il pistone: h= maria/ S aria= 1 kg/1 1,293 kg m-1= 0,773 m. La forza esercitata sul pistone dalla pressione atmosferica è: F= pS= (105N/m2)1 m2=10.330 kg-p. Ora, se l’aria viene scaldata di 1°C essa si espanderà facendo sollevare il pistone di h = (1/273) 0,7773 = 0,00283 m sicché il gas avrà fatto sull’esterno un lavoro L= pV= 105 0,00283= 283 J=29,3 mkg-p. Per aumentare di 1°C la temperatura del gas, è stata perciò necessaria una quantità di calore Q1= mariacp 1°= 0,24 kcal con cp noto. Immaginiamo ora di far subire al gas una espansione libera in modo tale che, alla fine del processo, il gas si trovi alla stessa temperatura. Se ora il riscaldamento dell’aria viene eseguito a volume costante, sarebbe necessario un calore Q2= 0,17 kcal e, di nuovo, se si fa espandere nel vuoto si porterebbe nelle identiche condizioni finali del primo caso. La differenza sostanziale tra i due casi, osserva Mayer, è che Q1= Q2+x poiché nel riscaldamento a p costante è associato un effetto meccanico assente nel riscaldamento a V costante. E dunque Mayer ipotizza che la quantità di calore x= Q3=Q1-Q2= 0,07 kcal (corrispondente a cp - cV) sia esattamente equivalente al 21 R.J. Mayer, Bemerkungen über die Kräfte der unbelebten Natur, Ann. der chem. Pharm., 42 (1842), 233-240. 22 Cfr. Ramsauer, cit., p.40. 47 Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita. lavoro meccanico fatto dal gas nell’espansione a p costante. Si ha pertanto L/Q3= 29,3/0,07= 420 mkg-p/kcal come valore dell’ “equivalente del calore”. J. P. Joule (1818-1889) iniziò molto giovane la sua carriera scientifica come tecnologo delle prime macchine elettriche, convinto che il loro rendimento si sarebbe dimostrato prima o poi maggiore di quello delle macchina a vapore. Il cammino di Joule verso l’equivalente calore-lavoro si svolse tra il 1840 e il 1847. Al 1840 risale la scoperta della legge sul calore sviluppato dall’elettricità voltaica in un conduttore metallico, il cosiddetto “effetto Joule”, che rappresentò il primo passo verso lo studio dell’equivalente meccanico del calore. Dal 1840 al 1843 lo scienziato inglese si dedicò poi allo studio del calore sviluppato nelle reazioni chimiche e nei processi elettrolitici. In questi anni, sulla scia della teoria elettrochimica di Faraday e di Davy, Joule era convinto che qualsiasi fenomeno potesse essere riconducibile, a livello microscopico, alla presenza di “atmosfere” elettriche che si riteneva circondassero l’atomo, le quali, modificandosi e trasferendosi nelle combinazioni chimiche da un atomo all’altro generavano le diverse azioni nei corpi. L’osservazione che nei processi d’attrito la power meccanica può essere trasformata direttamente in calore senza l’intervento dell’elettricità porterà poi Joule a sostenere che tutti i fenomeni nei quali si sviluppa calore hanno natura meccanica: “Quando si spende una ‘forza’ meccanica si ottiene sempre un equivalente esatto di calore23”. Così il calore può essere considerato esso stesso una power meccanica. Nello stesso articolo Joule riferiva di aver “dimostrato sperimentalmente che si sviluppa calore al passaggio dell’acqua in fori di piccolo diametro”. Questo esperimento, che presenteremo nel seguito, segnò così l’abbandono dei fenomeni elettrici come mediatori nella conversione di power meccanica in calore. Con questo nuovo punto di vista Joule utilizzò una macchina magnetoelettrica (una sorta di dinamo) per la determinazione dell’equivalente meccanico del calore mentre, un anno dopo, rivolse la sua attenzione ai processi di compressione e di espansione isoterma di un gas, un tema, come abbiamo visto con Carnot, di grande interesse tecnologico per lo studio delle macchine a vapore. Agli esperimenti descritti, infine, faranno seguito nel 1845, le note esperienze con il mulinello, che Joule ripeterà con molte varianti nel corso degli anni come prova della conversione tra vis viva meccanica e calore. Il programma di ricerca sull’equivalente meccanico del calore si concluse nel 1847, anno in cui Joule pubblicò il saggio “On matter, living force and heat”, in cui il principio di equivalenza assumeva una dimensione cosmologica: Benché in quasi tutti i fenomeni naturali osserviamo l’arresto del movimento e l’apparente distruzione di forza viva, [...] l’esperimento ci ha dimostrato che quando una forza viva [energia cinetica] viene apparentemente distrutta per percussione, attrito o in qualche altro modo, compare un esatto equivalente di calore. E’ vera anche la proposizione inversa e cioè che il calore non può essere ceduto o assorbito senza produzione di forza viva o della sua equivalente attrazione nello spazio [energia potenziale]. Vedete perciò che la forza viva può essere convertita in calore e il calore in forza viva o nel suo equivalente nello spazio e in queste conversioni non si perde mai alcunché24. 23 24 48 The scientific papers of J.P. Joule, Londra, 1963, p. 157 e seg. Ivi, pp. 270-271. Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita. Nella mutua convertibilità di calore, energia cinetica e potenziale sta dunque il principio di equivalenza di Joule che però ancora non si configura come il principio di conservazione dell’energia poiché la “regola generale” di Joule è ancora parziale e non formalizzata. Riportiamo di seguito cinque tra i metodi ideati da Joule per la determinazione dell’equivalente meccanico del calore: 1. Passaggio di acqua in fori di piccolo diametro. Si tratta in pratica della produzione di Q quando una massa nota d’acqua M (7 libbre) racchiusa in un cilindro di vetro attraversa (meglio se n volte) un pistone, di massa m, nel quale sono stati praticati, da base a base, una serie di forellini, e in grado di scorrere nel cilindro. L veniva valutato per via meccanica (per multipli n di mgh, con h altezza del cilindro diminuita della metà dell’altezza del pistone). Q veniva calcolato misurando la variazione di temperatura dell’acqua tra la fine e l’inizio dell’esperimento. Joule trovò un valore per J di 423 mkg-p/kcal (pari a circa 4,14 J/cal nel SI), inferiore dunque al valore corretto (di 425 mkg-p/kcal= 4,18 J/cal) probabilmente per aver trascurato il lavoro prodotto per attrito dal pistone contro le pareti del cilindro. La sua conclusione sarà che “i grandi agenti della natura sono, dal fiat del creatore, indistruttibili e ogni volta che viene spesa power meccanica, si ottiene sempre un esatto equivalente di calore25”. 2. Metodo magnetoelettrico: produzione di Q sviluppato da correnti indotte. Il dispositivo sperimentale26 si compone della bobina c, costituita da filo di rame avvolto intorno a un nucleo di ferro e racchiusa in un cilindro di vetro a pareti adiabatiche, e di un disco orizzontale, fissato all’asse b, che può essere messo in rotazione, per esempio azionando la manovella, trascinando mediante una cinghia di trasmissione l’asse a. La bobina è fissata con l’asse principale normale all’asse a, e inoltre può ruotare tra i poli di un potente elettromagnete: la corrente alternata prodotta per induzione viene raddrizzata da un commutatore ed è poi misurata da un galvanometro. Dalle misure della corrente di induzione e della temperatura 25 26 49 The scientific papers, cit., p. 157. Cfr. Ramsauer, cit., p.41 e seg. Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita. relativa al calore sviluppato per effetto Joule si risaliva al calcolo di Q. Per quanto riguarda la misura di L, Joule la determinò con mezzi meccanici: per esempio con il metodo della discesa di masse note per una altezza nota in modo da far ruotare b e imprimere alla bobina una velocità angolare costante. Individuate e valutate le varie cause di errore (per attrito, per correnti parassite nel nucleo di ferro della bobina, per calore prodotto dalle scintille che si formano ai capi del commutatore, ecc..) Joule trovò che 1 kcal equivale a circa 490 mkg-p (cioè J 4,72 J/cal). 3. Q prodotto per compressione dell’aria. Questa serie di esperimenti venne pubblicata da Joule nel 184527 e riguarda la compressione (o l’espansione) isoterma di un gas: il fisico inglese misurerà il calore scambiato dal gas e il lavoro meccanico speso, trovando un valore dell’equivalente meccanico del calore prossimo a quello ottenuto con gli esperimenti precedenti. L’esecuzione dell’esperimento è assai laboriosa ma è tuttavia interessante ripercorrere con Joule le tappe sperimentali fondamentali che portano a eliminare non solo le cause di errore, ma soprattutto a superare difficoltà dovute a un contesto teorico ancora incerto e incompleto sulle proprietà dei gas. In particolare non si conoscevano ancora valori attendibili per i calori specifici dei gas, né metodi generali per il calcolo del lavoro compiuto da un gas in una trasformazione termodinamica (L= pdV). E naturalmente il concetto di “energia interna” così come lo intendiamo oggi, insieme alla formulazione del primo principio della termodinamica, era di là da venire. Vedremo inoltre come uno degli esperimenti qui realizzati da Joule, il celebre esperimento della “espansione nel vuoto di un gas ideale”, venne utilizzato dall’autore per motivi completamente diversi da quelli addotti nei manuali moderni, ed esattamente nel tentativo di confutare la teoria del calorico a favore della teoria dinamica del calore. Ma analizziamo il dispositivo sperimentale usato da Joule nel caso della compressione di aria: in figura, C è una pompa a compressione, di ghisa, costituita da un cilindro con pistone e tappo di cuoio oliato. Le caratteristiche del cilindro, convertite dal sistema inglese al SI, sono: corsa: 20,3 cm; lunghezza: 26,3 cm; diametro interno: 2,7 cm; spessore: 0,82 cm. R è il recipiente dove verrà compresso il gas; in pratica 27 J.P. Joule, On the changes of temperature produced by the rarefaction and condensation of air, Phil. Mag. (1845) 173. 50 Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita. è una bombola di rame in grado di sopportare pressioni fino a 25 atm. Le sue caratteristiche sono: altezza: 31 cm; diametro esterno: 11,4 cm; spessore: 0,82 cm; volume: 2,2 litri. Alla bombola è possibile raccordare nella parte superiore la pompa e nella parte inferiore un tubo B in ottone con foro interno 0,41 cm e spessore 0,82 cm. B serve da tubo di uscita dell'aria mentre A è il tubo per l’immissione dell’aria e S un rubinetto. K è un calorimetro ad acqua, di capacità di 20 kg, in ferro stagnato a doppia parte con intercapedine d’aria di un pollice (2,54 cm). G è un recipiente contenente sali per seccare l’aria; W è un bagno entro cui passa la serpentina che adduce l’aria, la cui temperatura è controllata dal termometro T2. Nel calorimetro è immerso un altro termometro T1. I termometri sono a mercurio con range da 10 a 40 °C e sensibilità elevata. Poiché il calcolo del calore scambiato dai “fluidi elastici” compressi o espansi era incerta, Joule aggirò l’ostacolo preferendo risalire al calcolo di Q dalla variazione di temperaturaa rilevata nell’acqua del calorimetro. Il calorimetro doveva servire a due scopi: garantire una temperatura approssimativamente costante durante il processo e consentire la misura del calore scambiato tra il gas e l’acqua. Questa scelta sperimentale tuttavia complicava le misure dal momento che l’elevata quantità d’acqua contenuta nel calorimetro comportava variazioni minime di temperatura, circostanza che costringerà Joule a usare termometri di grande sensibilità e precisione. Qui la lettura della memoria di Joule presenta in verità non poche difficoltà: il fisico inglese dichiara di usare un termometro con divisioni di scala di 1/4000 pollici (circa 10-3 cm!) per leggere le quali usa uno strato di cera d’api spalmato sul cannello dello strumento; la lettura viene poi confrontata con la scala di un altro termometro meno sensibile e convertita in queste unità di scala. Joule era in grado così di apprezzare fino a 1/200°F (con1°F corrispondente a circa 13 mm di unità di scala). L’aria, dunque, veniva compressa in R fino a 22 atmosfere e si riscaldava. Nel processo, Joule misurava la quantità d’aria compressa (pari a 48,5 l) in funzione del numero di pompate e della capacità di R, la temperatura dell’aria immessa (con il termometro T2), la temperatura dell’acqua nel calorimetro prima e dopo l’esperimento. Una volta apportate le dovute correzioni per separare l’effetto di riscaldamento del solo gas dal riscaldamento dovuto all’attrito delle parti meccaniche della pompa e al moto dell’acqua nel calorimetro, con una variazione di temperatura misurata di T= 0,285 °F, facendo il calcolo del calore ceduto dal gas all’acqua, trovò per Q prodotto un valore di circa 13°628 per libbra d’acqua. Poiché non esistevano ancora metodi generali per il calcolo del lavoro in una trasformazione termodinamica, Joule si servì di un cilindro di riferimento di dimensioni note (una sorta di cilindro+pistone campione) e della legge di Boyle: in questo modo determinava la forza necessaria a comprimere il pistone per una distanza nota (di un piede) rispetto al fondo del cilindro (cioè il lavoro di compressione), incluso il lavoro eseguito dalla pressione atmosferica. Quindi usava delle formule empiriche per la determinazione dell’area dell’iperbole pV= cost. Successivamente il valore di L veniva ricalcolato per tenere conto delle dimensioni reali di R (L=11.220,2 libbre per piede) e infine confrontato con il lavoro equivalente necessario per sollevare 11.220,2 libbre all’altezza di un piede, cioè: Lmec/Q prod = Lmec equiv/ Qunitario=11.220,2 /13°628= 823/1°. Joule concluderà che “occorre applicare una forza in grado di sollevare 823 libbre all’altezza di un piede, per comprimere il gas al fine di ottenere un aumento di 51 Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita. temperatura di 1°F per libbra d’acqua”. L’equivalente meccanico del calore in unità inglesi corrisponde quindi a 823, che moltiplicato per il fattore di conversione dalle unità inglesi al sistema metrico mks (1mkg-p/1kcal= 0,55 piede libbra/1lb d’acqua 1°F) porta a circa 453mkg-p/kcal (4,43 J/cal). L’esperimento veniva poi ripetuto facendo però questa volta espandere isotermicamente l’aria che nel processo assorbiva calore dall’acqua contenuta nel calorimetro. 4. Espansione libera di un gas. Joule realizzò infine un esperimento che utilizzava la disposizione di figura: le bombole R ed E, che possono essere collegate mediante il rubinetto D, sono immerse in un calorimetro controllato da un termometro. In R c’è aria compressa a 22 atmosfere mentre in E è stato fatto il vuoto. Facendo espandere il gas nel vuoto, Joule intendeva verificare se nel processo avvenisse un guadagno o una perdita di calore da parte dell’acqua del calorimetro. Ma durante l’espansione il fisico inglese (come del resto era già noto dagli esperimenti di Gay-Lussac) non osserverà alcuna variazione di temperatura, circostanza che gli farà concudere che “quando si fa espandere l’aria in modo che essa non sviluppi power meccanica [cioè non produca lavoro meccanico perché diffonde nel vuoto] non si verifica alcuna variazione di temperatura”. A riprova ulteriore del fenomeno, Joule isolò le bombole ponendole in due calorimetri separati e per R otterrà una diminuzione di 2,36 °F mentre per E un aumento di 2,38 °F, valori che riterrà, in valore assoluto ed entro il limite degli errori sperimentali, uguali. L’ esperimento dell’espansione nel vuoto viene usualmente presentato nei manuali, dopo aver enunciato il primo principio della termodinamica, per dimostrare che in una gas ideale l’energia interna dipende solo dalla temperatura termodinamica. Joule invece, nel quadro della sua campagna di misure per la determinazione dell’equivalente meccanico del calore, ne fece un uso completamente diverso: in primo luogo se ne servì per attaccare la teoria del calorico e, in secondo, per confutare la teoria di Carnot del funzionamento delle macchine a vapore. Gli esperimenti avevano portato Joule a concludere che: a. nella compressione isoterma il gas ‘perde calore’ (riscaldando l’acqua del calorimetro) perché power meccanica (L) si converte in power termica (Q); b. nella espansione isoterma il gas ‘assume calore’ (e quindi l’acqua del calorimetro si raffredda) perché power termica si converte in power meccanica; c. nella espansione libera in condizioni adiabatiche la temperatura dell’acqua deve invece mantenersi costante perché il gas non compie lavoro e dunque non c’è conversione tra L e Q. Questi risultati sono difficilmente interpretabili se si fa l’ipotesi che il calore sia una sostanza mentre, concludeva Joule, “potrebbero 52 Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita. essere dedotti a priori da qualsiasi teoria che consideri il calore uno stato di moto delle particelle costituenti il corpo”. Infatti, mentre con opportune ipotesi ad hoc si poteva interpretare a e b immaginando che venisse liberato o immagazzinato calorico latente dal gas all’acqua, la teoria sostanzialistica non era in grado di spiegare c (in una espansione adiabatica dovrebbe constatarsi una diminuzione di calorico sensibile, ma qui T=0). Per quanto riguarda il funzionamento delle macchine termiche, la teoria di Carnot, ripresa successivamente da E. Clapeyron, attribuiva alla caduta di calorico da un corpo caldo a uno freddo la produzione di potenza motrice associata alle sole variazioni di volume; nel caso in cui si verificava conduzione termica si aveva invece un passaggio diretto di calore senza alcuna produzione di potenza motrice. Ma Joule rifiutava decisamente una ipotesi di perdita netta di power: Ritengo che una tale teoria, per quanto ingegnosa, si opponga ai principi riconosciuti dalla scienza perché porta alla conclusione che possa essere distrutta vis viva [...]. Poiché credo che il potere di distruggere appartenga solo al Creatore [...] penso che una qualsiasi teoria che richieda l’annichilarsi di una forza sia necessariamente erronea. Comunque i principi che ho presentato in questo articolo non mostrano queste difficoltà. Da essi possiamo dedurre che durante la fase di espansione del cilindro il vapore perde calore in quantità esattamente proporzionale alla power meccanica che esso comunica mediante il pistone e che nella condensazione del vapore il calore così convertito in power meccanica non è restituito. Supponendo che non vi siano [altre] perdite di calore [...], la teoria qui presentata richiede che il calore liberato nel condensatore sia minore di quello ceduto alla caldaia dalla fornace, in esatta proporzione all'equivalente meccanico sviluppato28. Pertanto, con le notazioni e le convenzioni sui segni attuali, in un ciclo L= J(QassQced). 5. Esperimenti con il mulinello. Si tratta del più noto esperimento di Joule29 presentato nei manuali nel quale si misura il rapporto tra il lavoro meccanico L corrispondente alla caduta di una massa nota per un’altezza nota, e il calore sviluppato nell’acqua quando, durante la discesa, il sistema di palette solidali all’asse cc ruota e la temperatura dell’acqua aumenta a causa dell’attrito tra il fluido e la parte meccanica rotante. La disposizione sperimentale è mostrata in figura. §4.6. La nascita della termodinamica 28 29 53 The scientific papers of J. P. Joule, cit., p. 188. J.P. Joule, On the mechanical aequivalent of heat, Phil. Mag. 31 (1847) 173. Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita. Sia pure da presupposti diversi Mayer e Joule avevano affermato la validità di una legge di conservazione delle ‘forze’ naturali e avevano tentato, per via sperimentale, di determinare il fattore di conversione quando una ‘forza’ si trasforma in un’altra, senza tuttavia pervenire a un enunciato generale ed esprimibile in termini matematici. La prima formulazione moderna rigorosa, operativa e determinabile in ogni processo del principio si avrà intorno al 1847 con H. von Helmholtz (18211894)30. Helmholtz parte dalla convinzione che in natura tutti i fenomeni, organici e inorganici, siano descrivibili come processi meccanici nei quali entrano in gioco forze di tipo newtoniano, attrattive e repulsive, funzioni solo delle distanze mutue dei costituenti ultimi della materia. Un dato processo può essere pensato, in ultima analisi, come un moto continuo delle sue parti che si avvicinano e si allontanano: nel corso di questi moti, la somma delle forze vive (energia cinetica) e delle “forze di tensione” (energia potenziale) deve rimanere costante e tale costante deve essere omogenea a una energia di tipo meccanico, denominata Kraft. Anche nei processi nei quali si verifica una perdita netta di Kraft (per esempio nei processi di attrito e di urto anelastico), la Kraft totale del sistema deve essere costante e alla perdita di ‘forza’ deve corrispondere un guadagno in termini di “forze di tensione” tra le particelle di un corpo. In questo modo il concetto di calore, inteso come moto, diviene molto simile al concetto moderno di energia interna: Quel che è stato finora chiamato quantità di calore potrebbe servire d’ora in poi come espressione in primo luogo della quantità di forza viva del movimento termico e, in secondo luogo, della quantità di quelle forze elastiche degli atomi che, cambiando la loro disposizione, possono provocare un tale movimento.31 Il contributo di Helmholtz rappresenta così non solo una sintesi originale tra la tradizione scalare analitica lagrangiana e la tradizione vettoriale newtoniana in meccanica ma, riconoscendo al calore natura dinamica, estende il principio di conservazione dai sistemi puramente meccanici a sistemi qualunque. La possibilità di correlare la Kraft alla vis viva consente, inoltre, di formalizzare sul piano matematico il principio di conservazione dell’energia. Era inevitabile che la formulazione di Helmholtz rafforzasse l’idea di calore come movimento ai danni dell’ipotesi sostanzialistica del calore. Tuttavia l’abbandono dell’ipotesi di calorico non avvenne in modo istantaneo né vi furono esperimenti cruciali in grado di abbattere definitivamente il vecchio modello: come spesso è avvenuto nelle svolte fondamentali della storia della fisica, la transizione da un modello all’altro fu lenta, complessa e seguì strade tortuose che dopo molti percorsi interrotti portò alla fondazione della nuova scienza del calore. Innanzitutto occorreva sciogliere la contraddizione esistente tra l’assioma di Carnot (nel funzionamento ottimale delle macchine termiche il calorico si conserva, cioè è una funzione di stato) e il principio di equivalenza di Joule (calore può essere consumato per produrre lavoro e viceversa). Questo compito fu risolto brillantemente da W. Thomson (Lord Kelvin, 1824-1907) e da R. Clausius (1822-1888) e portò alla attuale enunciazione del secondo principio della 30 H. v. Helmholtz, Ueber die Erhaltung der Kraft, 1847, in Opere di Helmholtz, a cura di V. Cappelletti, Utet 1967, p. 59 e seg. 31 Helmholtz, Opere cit., p.61. 54 Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita. termodinamica32. La teoria di Carnot, che si era dimostrata in sorprendente accordo con l’esperienza, non doveva essere abbandonata ma solo modificata là dove affermava che la produzione di potenza motrice era dovuta al solo passaggio di calore e sostenere che una certa quantità di calore veniva consumata. Contestualmente alla rielaborazione degli enunciati del secondo principio, Clausius formulerà anche il primo principio della termodinamica, praticamente nella sua forma attuale, dove al calore e al lavoro verrà riconosciuta la natura di variabili di trasformazione mentre alla loro differenza, o energia interna, la natura di funzione di stato. CAP. 5. I FENOMENI LUMINOSI, TRA ESPERIMENTO E MATEMATIZZAZIONE § 5.1. Il dibattito sulla natura della luce nel Seicento: moto o materia? Presenze scomode: diffrazione, doppia rifrazione, interferenza Esponiamo di seguito i principali contributi all’ottica nel Seicento, che contribuiranno ad alimentare il grande dibattito sulla natura della luce: la luce è moto o materia? Se la luce consiste di onde come si spiegano le ombre? Se viceversa è materia come si spiega la non interazione raggio-raggio? E il passaggio nei corpi trasparenti? Questi interrogativi si faranno ancora più imbarazzanti a seguito di nuove scoperte (diffrazione, doppia rifrazione, interferenza). Ricordiamo che fino a metà Seicento si ritiene che la luce abbia solo tre modi di propagazione, in linea retta, per riflessione e per rifrazione. Questi assunti base si tramandano praticamente immutati per secoli. Uno dei principali manuali di Ottica, l’Opticae Thesaurus dello scienziato arabo Alhazen (ca. 965-1039), tradotto in latino e assai diffuso nel mondo occidentale dal tardo Medioevo in poi fino a tutto il Seicento riporta infatti sul frontespizio: Triplicis visus, directi, reflexi et refracti, de quo optica disputat argumenta. 1637: Dioptrique di Cartesio, luce come tendenza al moto, come una pressione che si propaga istantaneamente dalla sorgente agli occhi dell’osservatore (v= !); le leggi della riflessione e della rifrazione vengono trovate da Cartesio con un’ analogia meccanica con il comportamento dei proiettili; la legge della rifrazione sini v r = è formalmente (già formulata da Snell come rapporto di cosecanti) sin r v i corretta ma Cartesio ipotizza che la velocità di propagazione della luce v sia maggiore nei mezzi più densi. 32 Su questo argomenti si veda di C. Tarsitani, “La storia della seconda legge della termodinamica”, in CEE, cit., 274-347. 55 Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita. 1662: P. Fermat, formula correttamente la legge della rifrazione con il principio di minimo; il tempo che la luce impiega per propagarsi in due o più mezzi ottici deve sini v i = . essere minimo; Fermat ritrova così la legge sin r v r 1665: F. M. Grimaldi, Physico Mathesis de Lumine, Coloribus et Iride; scopre un quarto modo di propagazione della luce, la diffrazione, “la luce almeno qualche volta deve propagarsi anche ondulatamente”. R. Hooke, Micrographia: osserva e descrive la colorazione di lamine sottili. 1669, Erasmo birifrangenza. Bartholinus, Experimenta cristalli Islandici…, scopre la 1678, C. Huygens (1629-1695), seguace della scuola cartesiana, nel suo Traité de la Lumière, sostiene una ipotesi ondulatoria della luce. Modello ondulatorio di Huygens - la luce è moto ondulatorio reale (analogia luce-suono); - le onde luminose sono molto veloci, si propagano in un mezzo, l’etere, molto sottile, penetrante, elastico; - il moto della luce ha origine dagli urti tra le particelle d’etere e quelle del corpo luminoso e avviene senza trasporto di materia; un ‘impulso luminoso’ si propaga come un impulso meccanico in una fila di sferette identiche, contigue, perfettamente elastiche; due o più impulsi possono attraversarsi senza disturbo; - ogni punto della sorgente luminosa va considerato come centro di onde sferiche non periodiche; - la produzione delle onde è regolata dal principio di Huygens: “Ciascuna particella della materia in cui un’onda viaggia, comunica il suo moto non solo alla particella vicina che è allineata con la sorgente luminosa, ma necessariamente anche alle altre con cui è in contatto e che si oppongono al suo movimento. Così che intorno a ciascuna particella si origina un’onda di cui essa è il centro”. L’effetto delle onde elementari è efficace solo quando concorrono a formare simultaneamente il fronte d’onda che è costituito dall’inviluppo di tutti i contributi elementari. Il modello spiega la propagazione rettilinea, la riflessione, la rifrazione e la riflessione totale, la doppia rifrazione (con dimostrazioni geometriche condotte con gli “sferoidi di Huygens”). §5.2. Il modello newtoniano della luce Newton inizia a occuparsi di ottica nel 1660; nel 1668 realizza il telescopio a riflessione; nel 1672 pubblica A new Theory about Light and Colours (scoppia la polemica con Hooke e Huygens che accusano Newton di avere formulato una teoria non univoca rispetto ai risultati sperimentali e di avere esplicitato un’ipotesi corpuscolare della luce in base alla quale la luce è costituita da corpuscoli molto veloci emessi dal Sole e dagli altri corpi luminosi (si parla anche di ipotesi balistica o emissionista). Tra i corpuscoli agiscono forze centrali a breve range. Newton riformula la teoria dei colori non parlando più di corpuscoli ma di “raggi che si distinguono tra loro per fatti contingenti, come grandezza, forma o forza”). Nel 56 Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita. 1704 pubblica l’Opticks, or a Treatise of the Reflexions, Inflexions and Colours of Light (Queries 1-16); 1706, Opticae (Queries 25-31); 1717, Opticks, seconda edizione (Queries 17-24). Newton e i colori Vedi dispense PED. Modello corpuscolare di Newton - la luce è composta da uno sciame di corpuscoli dotati di velocità molto grande detti raggi, che si propagano linearmente in un mezzo omogeneo e trasparente. Con questa assunzione insieme all’ipotesi che esistono forze di tipo gravitazionale che agiscono a breve range sulla superficie dei corpi, si spiegano i fenomeni di riflessione, rifrazione (Newton ipotizza che la velocità della luce abbia valore minimo nel vuoto e aumenti all’aumentare della densità del mezzo: sbaglia in buona compagnia con l’eccezione di Fermat e di Huygens), di dispersione. - I raggi vengono assorbiti, riflessi, trasmessi a seconda della natura della superficie di incidenza (dove agisce una forza attrattiva), dell’angolo di incidenza, dello ‘stato’ del raggio. - Durante il moto i raggi possono essere dotati di una proprietà oscillante dovuta a un’onda d’etere che li precede (ipotesi ad hoc per giustificare la disposizione, o fits, dei raggi a riflettersi o a propagarsi in un mezzo). - La luce bianca è un aggregato di raggi colorati; - il colore è funzione della ‘massa’ dei corpuscoli della luce; a ogni colore corrisponde un grado di rifrangibilità; - rifrangibilità e dispersione sono proporzionali (‘errore’ di Newton). - I fenomeni di colorazione delle lamine sottili, la formazione degli anelli, la doppia rifrazione vengono interpretati mediante l’aggiunta di ipotesi ad hoc che attribuiscono ai raggi proprietà particolari (disposizione di facile riflessione e di facile trasmissione, o fits, nel caso dei colori da lamine sottili e degli anelli, “polarità” dei raggi paragonabile a quella di piccoli magneti nel caso di doppia rifrazione). - La diffrazione viene spiegata in termini di “inflessione” dei raggi ai bordi di un ostacolo: quando i raggi passano vicino a un ostacolo di piccole dimensioni si inflettono perché attratti da forze a corto range. Nell’ambito dei fenomeni luminosi, l’ottica di Newton rappresenterà per tutto il Settecento, la cosiddetta scienza normale. § 5. 3. Lo stato della ricerca in ottica nel Settecento In tutto il Settecento la teoria corpuscolare di Newton viene accettata in modo quasi unanime negli ambienti scientifici non solo inglesi ma anche del continente. Con l’affermazione della meccanica newtoniana anche nell’ottica si rafforza e si delinea come vincente la concezione che la luce sia costituita da particelle che obbediscono alle leggi della dinamica. Questa concezione sembrava permettere la costruzione di un mondo fisico in cui, assunta la natura corpuscolare di un universo governato dalle leggi della dinamica e della gravitazione universale, la meccanica, il moto degli astri e l’ottica potessero venire inclusi in una concezione unitaria. Oltre a ciò, l’apparente semplicità del modello interpretativo e la possibilità di comprendere al 57 Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita. suo interno nuove classi di fenomeni, i colori, contribuiscono notevolmente all’affermazione della teoria di Newton. A questi fattori si aggiunga ancora la grande diffusione di cui godette l’Opticks in ambienti culturali non necessariamente specialistici, dovuta sia alla edizione in lingua inglese invece che in latino, sia a un linguaggio chiaro e semplice. Che la teoria di Newton dovesse egemonizzare gli ambienti scientifici inglesi fortemente influenzati, alla fine del Seicento, dai modelli baconiani di ricerca sperimentale era scontato; all’inizio del Settecento la teoria inizia tuttavia a diffondersi anche nel continente. Tra gli infaticabili divulgatori delle idee newtoniane troviamo Voltaire33 che contribuisce così a contrapporre alla scienza cartesiana, divenuta ormai eccessivamente dogmatica e conservatrice, il nuovo filone di ricerca dell’empirismo inglese che fa capo a Newton. Sebbene l’insieme di esperimenti, di proposizioni e di ipotesi che constituiscono l’Opticks mostri, a un esame attento, lacune palesi la teoria newtoniana viene accettata in una forma che rimarrà pressoché immutata per tutto il secolo. All’inizio del Settecento, l’ottica di Newton assume, in definitiva, tutti i caratteri di scienza matura con regole e modelli suoi propri. E’ sufficientemente ricca di innovazioni concettuali per occupare stabilmente la comunità scientifica e sufficientemente aperta da lasciare alla ricerca la possibilità di risolvere una grande varietà di problemi. Nel suo ambito vengono svolti solo lavori di assestamento e di arricchimento dei risultati sperimentali al fine di articolare meglio le indicazioni fornite dalla teoria. Ricordiamo in proposito la misura della velocità della luce eseguita da Bradley (1726) in base al fenomeno della aberrazione astronomica e lo sviluppo delle tecniche fotometriche al quale contribuiranno P. Bouguer e J. H. Lambert. Minacce di crisi Verso la metà del secolo un avvenimento sembra mettere in crisi l’assetto della teoria corpuscolare: Newton aveva stabilito che la dispersione doveva essere proporzionale alla rifrazione; da questa conclusione seguiva l’impossibilità di eliminare l’aberrazione cromatica nelle lenti. Uno studio teorico di Euler sull’argomento, confermato nel 1759 dalla realizzazione da parte di J. Dollond di un obiettivo quasi acromatico, aveva dimostrato, al contrario, l’eliminabilità del difetto34. Tuttavia, né questo evento né le critiche serrate che lo stesso Euler, sostenitore della teoria ondulatoria, rivolgerà alla teoria corpuscolare, riusciranno a modificarne la struttura. Il programma di ricerca laplaciano Nell’Europa di fine secolo le concezioni newtoniane sono più che mai dominanti. In particolare in Francia la teoria corpuscolare viene ripresa da Laplace con l’intento di ridurre i fenomeni fisici di scala qualunque a un sistema di particelle 33 F. M. Voltaire, Les éléments de la philosophie de Newton, 1738. In questo periodo vengono pubblicate altre opere di divulgazione scientifica, in piena sintonia con il clima culturale illuministico dominante in Europa: in Italia è il caso di F. Algarotti, Newtonianesimo per le dame, Napoli, 1752, e in Germania di L. Euler, Lettere a una principessa tedesca, 1768-72, G. Castelli (a cura di), Boringhieri, Torino, 1958; la principessa in questione è Sophie Charlotte von Brandenburg-Schwedt; l’opera viene scritta in francese e poi tradotta in tedesco. 34 Il difetto viene eliminato accostando due lenti, una concava e una convessa, a formare i cosiddetti doppietti flint-crown: le due lenti, di diverso indice di rifrazione, compensano le aberrazioni. 58 Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita. distribuite densamente nello spazio, tra le quali agiscano forze centrali a corto range, attrattive o repulsive. La fisica dei fluidi imponderabili di Laplace, in cui calore, luce, elettricità e magnetismo vengono pensati appunto come sistemi di particelle mutuamente repulsive, attratte dalla materia ponderabile, influenzerà per decenni l’ambiente accademico francese costringendo la ricerca all’interno dei suoi schemi. Eppure, a partire dai primi anni dell’Ottocento, nel giro di tre decenni la teoria corpuscolare di Newton verrà abbandonata in modo definitivo: cercheremo nel seguito di individuare quali fattori hanno determinato un capovolgimento del quadro interpretativo in Inghilterra e in Francia, attraverso i contributi di Young e di Fresnel. In Inghilterra, come vedremo, la fine della teoria corpuscolare di Newton sarà segnata da un cambiamento di metodologia che scalzerà il metodo induttivo35. In Francia la teoria ondulatoria della luce, nella formulazione ancora oggi accettata, riuscirà a emergere solo con la rottura del programma laplaciano36, iniziata da Fresnel nel 1815. Analizzeremo infine la ricomposizione del quadro interpretativo legato alla teoria ondulatoria e la sua trasformazione a nuovo paradigma scientifico. 35 36 59 Cfr. G. Cantor, The reception of the Wave Theory of Light in Britain, Hist. St. Phys. Sc., 6, 108. Vedi R. Fox, The Rise and Fall of laplacian Physics, Hist. St. Phys. Sc., 4 (1972), 89-137. Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita. §5.4. Un punto di vista assai poco ortodosso sull’origine dei colori: Goethe vs Newton J. W. von Goethe (1749-1832), il più grande poeta tedesco dell’età classica, si occupò a più riprese della teoria dei colori (Beyträge zur Optik, 1791-92; Farbenlehre, 1808-1822), partendo da presupposti nettamente diversi da Newton. Tutto iniziò da un evento quasi casuale: nel 1790 Goethe, avendo a disposizione un prisma, pensò di ripetere l’esperimento di Newton (stanza buia, fascetto di luce che filtra dal foro di un’imposta, prisma, schermo sulla parete opposta). Sulla parete tuttavia non riuscì a ritrovare lo spettro con i colori dell’iride e da ciò, invece di concludere che la sua procedura sperimentale non era corretta, decise che a essere sbagliata era la teoria di Newton: “Intuitivamente esclamai che la teoria di Newton era sbagliata”37. Questa ‘scoperta’ lo indusse a scrivere i Beyträge zur Optik, che trovarono un’accoglienza gelida da parte dei fisici. Irrigiditosi nelle sue posizioni e convinto di essere l’unico ad avere smascherato Newton, Goethe tentò di rifondare la teoria dei colori. Si mise così a studiare l’Opticks e tutte le teorie sui colori precedenti e contemporanee a Newton, sempre più convinto che la teoria newtoniana fosse “una vuota illusione”, una congerie di parole, l’esempio peggiore nella storia della scienza di sfrontatezza, alimentata dai fisici, definiti “il gregge di Newton”. Animato da questi pregiudizi pubblicò i Farbenlehre, che non ebbero migliore accoglienza dei Beyträge. Per valutare la posizione di Goethe è necessario capire la sua formazione filosofica. In primo luogo Goethe ha un atteggiamento olistico nei confronti della natura; di un fenomeno coglie la sua interezza, il suo aspetto ‘morfologico’ (la forma o Gestalt) legato in modo inscindibile all’osservatore: “Il fenomeno non è staccato dall’osservatore e piuttosto nella soggettività dell’osservatore il fenomeno si intreccia e si confonde” (Goethe, Maximen und Reflexionen, Weimar, 1807). Del fenomeno va inoltre ricercata la natura ultima e il principio originario, che accomuna varie classi di fenomeni (Ur-phenomena o fenomeni primitivi). Questo approccio si ritrova anche negli studi sulla metamorfosi delle piante (1790, dove Goethe va alla ricerca delle forme originarie delle diverse specie botaniche piuttosto che analizzare una pianta nelle sue parti costituenti, così come nell’arte: in una statua i canoni estetici di Goethe si applicano alla forma artistica nella sua interezza, per altro intrecciata con le emozioni e i giudizi estetici dell’osservatore). Diverso è l’atteggiamento di Newton che procede individuando e separando i parametri da controllare; il fenomeno, inoltre, è un dato disgiunto dall’osservatore e si presenta in natura per sé, in modo indipendente dall’osservatore. La contrapposizione tra Goethe e Newton non poteva essere più netta e i presupposti da cui parte Goethe non possono portare a produrre scienza. In secondo luogo, Goethe è fortemente influenzato, soprattutto negli anni giovanili, dal movimento dello Sturm und Drang (1770 ca., dura circa un ventennio) e dai principi della Naturphilosophie (inizio Ottocento). Lo Sturm und Drang nasce in Germania per reazione al razionalismo dell’Illuminismo, enfatizza l’individualità, il rifiuto delle regole, l’emozione e la passione dei singoli individui; la Naturphilosophie postula l’esistenza in natura di polarità intrinseche che secondo il principio degli opposti sono alla base delle spiegazioni sia dei fenomeni naturali 37 Cfr. S.L. Jaki, Goethe and the Physicists, Amer. J. of Physics, 37, 2 (1969) 195-203, la citazione è tratta da una lettera di Goethe a F. A. Wolf, 1811, Goethes sämtliche Werke; qui p. 196. 60 Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita. (attrazioni e repulsioni, elettricità positiva e negativa, polo sud magnetico e polo nord, chimismo e galvanismo, ecc.) sia dei comportamenti sociali (affinità elettive). In questo quadro, la luce bianca per Goethe è un Urphenomenon, che non può essere analizzato nelle sue parti; i colori non sono parte della luce ma sono il risultato di due polarità opposte, la luce e l’ombra. Come già aveva affermato Aristotele, anche per Goethe i colori derivano da una mescolanza di bianco e di nero: “Buio e luce sono fin dall’origine contrapposti l’un l’altro, uno all’altro eternamente nemici, solo la materia che li separa ha, quando è opaca, una parte luminosa e una oscura; in debole controluce però si produce l’ombra. Se la materia è trasparente in essa si sviluppa, nel chiaroscuro, un intorbidimento che appare all’occhio come ciò che chiamiamo colore” (Goethe, Farbenlehre, VIII, Polarität). In terzo luogo, Goethe detesta le scienze esatte, è orgoglioso di dimostrare che si può fare fisica anche senza matematica. Per il poeta tedesco la matematica distrugge la bellezza e l’immediatezza del fenomeno, l’aperçu o intuizione del fenomeno. Il contrasto con i fisici è insanabile: “La teoria dei colori è stata trattata finora dai fisici in un modo che il pittore non potesse trarne alcun vantaggio; l’ipotesi dominante aveva impedito ogni tipo di ricerca stimolante e bandito i fenomeni gioiosi che si dispiegavano nell’universo dentro il cerchio magico di una stanza buia. Ciononostante il suo senso naturale, un esercizio continuo, una necessità pratica avevano portato il pittore sulla giusta via; egli intuiva l’esistenza degli opposti dalla cui unione nasce l’armonia dei colori, descriveva certe proprietà dei colori attraverso sensazioni indistinte, con colori caldi e freddi, con colori che esprimono vicinanza e lontananza più di quanto abbiano fatto gli scienziati [...]. Forse si conferma l’ipotesi che i fenomeni dei colori così come i fenomeni magnetici ed elettrici si basano su una dualità, una polarità o come si voglia indicare questo tipo di fenomeni” (Goethe, Einleitung zu den Propyläen, 1798) Goethe presenta i suoi esperimenti38, condotti su una serie di figure in bianco e nero osservate con un prisma, per sostenere la sua teoria dei colori (da Beyträge zur Optik). Il prisma impiegato ha un asse di circa 12 cm e ha per sezione un triangolo equilatero di circa 4 cm di lato. Ciò che osserva sono i cosiddetti “spettri da spigolo” e il tutto è spiegabile con la teoria di Newton. - Perché Goethe non ritrova lo spettro alla Newton? Newton fa filtrare attraverso un foro dell’imposta della finestra un sottile fascio di luce solare o la luce di una candela; una fenditura collima il fascio che incide sul prisma e uno schermo raccoglie lo spettro. La fenditura è essenziale. Goethe non mette fenditura oppure usa una fenditura F troppo larga. Se F è larga, gli spettri al centro si ricombinano e danno bianco; ai lati si osservano spettri parziali attigui alla zona buia. 38 Cfr. J. Teichmann, E. Ball, J. Wagmüller, Prismatische Versuche zur Optik nach Johann Wolfgang von Goethe um 1790, Einfache physikalische Versuche aus Geschichte und Gegenwart, p. 24 e seg., Deutsches Museum, 1999. 61 Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita. rosso-giallo bianco verde-blu-violetto F - Come sono interpretabili le osservazioni di Goethe alla luce della teoria di Newton? - Riflessioni sul rapporto scienziato-artista, sulla contrapposizione tra mondo della percezione sensoriale e mondo dell’astrattezza matematica, tra soggettività e il regno oggettivo dei fatti, tra generalismo e specialismo (si noti che Heisenberg, Born, von Weizsäcker difendono Goethe39). Ci sono echi di questa contrapposizione all’epoca di Heisenberg? E al presente? § 5.5. Il modello ondulatorio. Il principio di interferenza e gli esperimenti di ottica fisica di Young T. Young (1733-1829) inizia a occuparsi dei fenomeni luminosi nel 1799 e a quel periodo risale la sua prima memoria in cui espone una serie di argomenti contro la teoria corpuscolare mettendo in evidenza come la teoria, in alcuni casi quali la riflessione parziale e la colorazione delle lamine sottili, non sia in grado di fornire una spiegazione consistente con l’esperimento. Nell’ambito della teoria corpuscolare “il motivo per cui, raggi dello stesso tipo, in condizioni identiche, debbano essere in parte riflessi e in parte trasmessi appare del tutto inspiegabile”. Newton aveva giustificato il fenomeno mediante il meccanismo degli “accessi” (fits) di miglior riflessione e di miglior trasmissione ma questa interpretazione veniva giudicata da Young insoddisfacente e artificiosa. Anche la colorazione delle lamine “nel sistema newtoniano richiede una ipotesi molto complicata di un etere che anticipa con il suo moto la velocità dei corpuscoli di luce, producendo così gli accessi di trasmissione e di riflessione”40. Se però si tenta di interpretare gli stessi fenomeni in termini ondulatori, da poche e semplici ipotesi discende la spiegazione dei fatti. E proprio nel tentativo di inquadrare il fenomeno della colorazione delle lamine sottili e l’originarsi degli anelli di Newton nella interpretazione ondulatoria che Young, nel 1801, arriva a formulare il principio di interferenza. Il comportamento della luce viene assimilato da Young al moto delle onde nell’acqua: se si considerano due serie di onde uguali, che procedono a velocità costante sulla superficie di un lago e che confluiscono in uno stretto canale può avvenire che, se l’elongazione di una serie coincide con l’elongazione dell’altra, abbia origine una serie di onde di ampiezza maggiore; se, al contrario, le elongazioni di una serie corrispondono a depressioni nell’altra, la superficie 39 40 62 V. Jaki, cit. Le due citazioni sono tratte da T. Young, Phil. Trans., XC (1800), 106. Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita. dell’acqua deve rimanere piana41. Effetti simili possono avvenire quando due parti di luce si incontrano: a seconda di come si sovrappongono possono dar luogo, sotto certe condizioni, a un minimo o a un massimo di intensità. Questa è, in sostanza, la legge generale dell’interferenza della luce che Young pone alla base della sua teoria ottica. La comparsa di frange dietro un ostacolo diffrangente, o di anelli colorati di Newton, viene ricondotta alla unica spiegazione che Young fornisce per giustificare l’alternarsi di zone chiare e scure ottenute con delle lastre a facce piane e parallele. In questo caso le frange si originano per riflessione parziale sulla prima prima e sulla seconda faccia di una lastra: la luce riflessa dalla seconda superficie deve sommarsi con quella riflessa dalla prima e per interferenza dar luogo a zone chiare e scure. Tuttavia, volendo interpretare con questo meccanismo gli anelli di Newton la macchia centrale doveva risultare bianca e non nera come appariva all’osservazione. Young è costretto allora a ricorrere a un’altra ipotesi fondamentale per la teoria ondulatoria: la velocità della luce deve diminuire nei mezzi più densi e quando la luce si riflette su una superficie al di là della quale c’è un mezzo più denso (come si usa dire, riflessione “da mezzo più denso a meno denso”) deve perdere mezza lunghezza d’onda (si sfasa di ) così che le onde che interferiscono al centro dell’anello si distruggono. Allo scopo di mettere alla prova questa ipotesi Young realizzò un sistema formato da una lente di vetro crown (n=1,5) accostata a una lastra di vetro flint (n=1,7) tra le quali interpone una sostanza di indice di rifrazione intermedio (n=1,6). In questo modo le due riflessioni devono avvenire da un mezzo meno rifrangente a uno più rifrangente e quindi perdere entrambe mezza lunghezza d’onda per poi interferire in concordanza di fase dando luogo a una macchia chiara. vetro crown n=1,5 olio vetro flint n=1,6 n=1,7 Nella memoria del 1803 la legge generale d’interferenza viene estesa alla diffrazione: le frange luminose prodotte nell’ombra di un ostacolo vengono interpretate correttamente da Young come dovute a interferenza di due onde che provengono dai due bordi dell’ostacolo. Per le frange scure, esterne all’ombra, la spiegazione data risulterà invece non corretta poiché la formazione di queste frange non è spiegabile con il solo principio di interferenza ma occorre tener conto anche del principio di Huygens42. Tra i contributi di Young nello stesso periodo vale la pena ancora fare riferimento alla celebre esperienza dei due fori: la luce diffrange passando per S e diffrange ancora attraverso i due fori S1 e S2 posti a pochi millimetri di distanza e che possono considerarsi due sorgenti puntiformi coerenti. Sullo schermo compaiono le frange di interferenza. 41 T. Young, Phil. Trans., XCII (1802), 12. Young, Phil. Trans., XCIII (1803),1. 42 T. 63 Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita. L’isolamento di Young Le idee di Young, che pure avevano dimostrato tutta la loro efficacia interpretativa rispetto alla teoria corpuscolare, sulla base soprattutto di uno strumento concettualmente potente quale il principio di interferenza, riescono a diffondersi assai poco in Inghilterra. Young si trova a essere isolato e i suoi articoli vanno incontro a una opposizione feroce. Dopo la pubblicazione della memoria del 1802, in cui veniva enunciato il principio di interferenza, compare sulla Edinburg Review a firma di un esponente illustre della comunità scientifica, Lord Brougham, un articolo in cui si rileva come le idee di Young “non possono avere altro effetto che quello di frenare il progresso della scienza e di rimuovere tutti quei pazzi fantasmi che Bacone e Newton avevano cacciato dal suo tempio” e che dunque non meritano di essere giudicate col “nome di esperimento o scoperta”. Questo punto di vista riflette assai bene il clima culturale delle università scozzesi di quegli anni. L’opposizione alla teoria ondulatoria di Young derivava, è vero, da alcune incongruenze che la sua teoria presentava e dalle molte ipotesi ad hoc che, nonostante la pretesa di semplicità più volte rivendicata dall’autore, venivano chiamate in causa, in special modo per spiegare la diffrazione e la doppia rifrazione. Ma le sorti del dibattito sulla natura della luce erano altresì legate, nell’Inghilterra di inizio secolo, all’antagonismo tra due scuole, quella scozzese e quella inglese43. La prima, fortemente legata alla filosofia del senso comune (common sense), allora dominante in Scozia, sosteneva un metodo di ricerca induttivo44 di stretta osservanza baconiana e newtoniana, rigettando perciò ogni enunciato che non venisse fatto derivare direttamente dai risultati sperimentali. La regola d’oro della filosofia del senso comune coincide in sostanza con la prima regola filosofica di Newton: “Delle cose naturali non si devono ammettere cause più numerose di quelle che sono insieme vere e sufficienti a spiegare i loro fenomeni; la natura infatti è semplice e non è mai prodiga di cause superflue”. L’altra scuola, sviluppatasi prevalentemente a Cambridge, sosteneva al contrario la validità e il valore euristico di una teoria o di una ipotesi nell’ambito della ricerca scientifica. Le ipotesi sono acquisizioni fondamentali per la conoscenza e servono a 43 Cfr. G. Cantor, cit. 44 La metodologia induttiva parte dalla convinzione che esista un mondo materiale esterno e che sia possibile, attraverso l’abilità personale dello scienziato, dedurre dall’osservazione di certi fatti, le cause vere e manifeste in natura senza fare mai uso di teorie, ipotesi e congetture. 64 Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita. raggruppare in un punto di vista compreensivo dati eterogenei, a confrontare un dato con l’altro e a stabilire relazioni fra essi. Un altro aspetto qualificante che differenziava le due scuole riguardava il ruolo assegnato alla matematica: nella scuola scozzese aveva un ruolo subordinato nell’indagine scientifica e veniva raramente applicata in fisica mentre nella scuola inglese era ritenuta una tappa obbligata nel processo di conoscenza della natura (negli anni che stiamo considerando la matematica analitica continentale è ormai entrata a far parte del formalismo con cui vengono trattati i problemi fisici; in particolare nel 1812 viene fondata a Cambridge l’Analytical Society). Il conflitto tra le due posizioni porterà al formarsi di schieramenti opposti, a sostegno o a rifiuto della teoria ondulatoria. Solo con il prevalere della scuola metodologica di Cambridge l’ipotesi ondulatoria riuscirà ad affermarsi e a scalfire definitivamente la teoria corpuscolare. § 5.6. Il contesto francese Nel frattempo il dibattito sulla natura della luce si era spostato in Francia. Nel 1808 Laplace aveva fornito per il fenomeno della doppia rifrazione una spiegazione dinamica, postulando nel mezzo cristallino l’esistenza di forze che agiscono sui corpuscoli di luce, in modo da modificarne la velocità a seconda della inclinazione dei raggi rispetto all’asse del cristallo45. L’accordo dei risultati con quelli dedotti mediante la costruzione degli sferoidi di Huygens sembrava comprovare la validità dell’interpretazione data. Nello stesso anno, sotto la spinta di Laplace che sollecita una spiegazione analitica del fenomeno in linea con la sua teoria dinamica, viene bandito dall’Accademia di Francia un concorso sul tema: “Dare della doppia rifrazione che la luce subisce nell’attraversare diverse sostanze cristallizzate una teoria matematica verificata dall’esperienza”. Il premio verrà vinto due anni dopo da Malus (1775-1812), corpuscolarista e discepolo di Laplace, con una memoria sulla “Théorie de la double réfraction de la lumière dans les substances cristallisées”, in cui l’autore fornisce una spiegazione della polarizzazione per riflessione, da lui scoperta nel 1808, e per doppia rifrazione. Malus interpreta il fenomeno in termini corpuscolari, supponendo, come già aveva fatto Newton, che le particelle hanno “lati”. Sotto certe condizioni esse si orientano, o meglio si polarizzano come si esprime lo stesso autore, dando luogo a un diverso comportamento dei raggi: “Ho trovato che la singolare disposizione, che è stata vista finora come uno degli effetti peculiari della doppia rifrazione può essere completamente impressa alle molecole luminose da tutte le sostanze solide trasparenti e dai liquidi. Per esempio la luce, riflessa dalla superficie dell’acqua a un angolo di 52° 45’ ha tutte le caratteristiche di uno dei raggi prodotti per doppia rifrazione dallo spato d’Islanda, la cui sezione principale sia parallela al piano che passa per il raggio incidente e riflesso. Se facciamo passare questo raggio riflesso su un cristallo birifrangente che abbia la sezione principale parallela al piano di riflessione, non sarà diviso in due raggi come avverrebbe per un raggio di luce normale, ma sarà rifratto in accordo con le leggi ordinarie”46. Con l’assegnazione del premo a Malus la teoria corpuscolare trova ulteriore conferma mentre la teoria antagonista entra in una fase assai critica: la teoria infatti non spiegava in modo soddisfacente la diffrazione; nei corpi in cui avveniva la doppia rifrazione la costruzione sembrava richiedere due mezzi luminiferi diversi e 45 Laplace, Journal de Physique, LXVIII (gen. 1808), 107. 46 Malus, Nouveau Bulletin des Sciences par la Soc. Philomatique, I (1809), 265. Brewster mostrerà nel 1815 che si ha polarizzazione per riflessione quando i raggi riflessi e rifratti sono ad angolo retto. 65 Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita. non esisteva alcuna spiegazione per la polarizzazione, dal momento che la teoria si basava su una ipotesi di onde longitudinali. L’applicabilità della costruzione di Huygens era inoltre messa in discussione dalla scoperta di Brewster dei cristalli biassici nei quali avveniva ancora doppia rifrazione. Si pensava infatti che questo fenomeno dovesse avvenire solo in cristalli con struttura simile allo spato di Islanda per il quale il principio di Huygens aveva fornito una interpretazione efficace. Nel marzo del 1817, i sostenitori della teoria della emissione propongono all’Accademia di Francia il tema sulla diffrazione: “1. Determinare con esperienze precise tutti gli effetti della diffrazione dei raggi luminosi diretti e riflessi, quando passano separatamente o simultaneamente vicino alle estremità di uno o più corpi di estensione sia limitata che estesa, tenendo conto dell’interdipendenza di questi corpi, così come della distanza dal fuoco luminoso donde emanano i raggi; 2. Concludere da queste esperienze, per mezzo di induzioni matematiche, i movimenti dei raggi nel loro passaggio vicino ai corpi”. Il tema del concorso, espresso in termini corpuscolari, richiede implicitamente una spiegazione compatibile con il sistema newtoniano. Alla commissione giudicatrice prende parte lo stesso Laplace insieme a Biot, Poisson, Berthollet, Gay-Lussac e Arago. Nonostante tutte le previsioni che davano vincente una interpretazione del fenomeno in termini corpuscolari, il premio verrà vinto da Fresnel. § 5.7. La teoria della diffrazione di Fresnel La posizione di J. A. Fresnel (1788-1827) nei confronti dell’ottica corpuscolare era decisamente critica: fermamente convinto della semplicità della natura, che deve produrre il massimo numero di effetti con un numero minimo di cause, Fresnel ritiene il sistema corpuscolare troppo disarticolato e pieno di ipotesi ad hoc per potersi accordare con le sue concezioni. Il fatto poi di presupporre una molteplicità di fluidi imponderabili, ognuno dei quali richiedeva uno schema interpretativo complesso, per Fresnel è inaccettabile. Lo scienziato francese propende piuttosto per una teoria semplice, consistente, che dipenda da un ristretto numero di ipotesi e che inoltre sia fortemente unitaria. Il modello interpretativo in base al quale fenomeni diversi, quali per esempio quelli luminosi, termici ed elettrici potessero essere visti come differenti modi di vibrazione in un fluido universale, sembra rispondere a tutti questi requisiti47. Gli studi di Fresnel iniziano con l’analisi della diffrazione osservata in una disposizione sperimentale simile a quella adottata da Grimaldi e da Young, alla quale lo scienziato francese apporta tuttavia modifiche sostanziali per migliorare il sistema di osservazione48. Gli effetti di diffrazione vengono attribuiti all’interferenza mutua delle onde elementari originatesi da quelle parti del fronte d’onda diretto che non sono state ostruite dall’ostacolo diffrangente. Mediante il principio di Huygens e il principio di interferenza, Fresnel riesce a spiegare completamente tutti i fenomeni osservati e a descriverli in forma matematica in cui vengono messe in relazione la posizione delle frange, la differenza di cammino dei raggi e la lunghezza d’onda della luce. Queste idee vengono formulate nel 1816 in due memorie e sviluppate ulteriormente nei due anni seguenti. Nell’aprile del 1818 Fresnel invia una nota riassuntiva sull’argomento del concorso dell’Accademia che lo nominerà vincitore l’anno seguente. Poisson legge il manoscritto e osserva che 47 Cfr. di R. H. Silliman, “A. J. Fresnel”, in Dictionary of scientific Biography, New York, 1972, 5, p. 165, e dello stesso autore, Fresnel and the emergence of Physics as a Discipline, Hist. St. Phys. Sci., 4 (1972) 137-162. 48 Vedi l’articolo di Silliman, cit. 66 Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita. l’analisi di Fresnel può essere estesa ad altri casi, con ostacoli diffrangenti di forma diversa. In particolare, nel caso di un ostacolo circolare doveva comparire, secondo le analisi teoriche, una macchia chiara nel centro dell’ombra. A questa previsione seguirà subito dopo la conferma sperimentale fornita dallo stesso Fresnel. Allo studio sulla diffrazione segue quello sulla polarizzazione. In un esperimento eseguito nel 1816 Fresnel e Arago avevano notato che due pennelli di luce, polarizzati in piano perpendicolari, non interferivano. Dopo una lunga serie di tentativi di spiegazione del fenomeno, alle cui fasi parteciperà sia pure indirettamente Young49, inizia a emergere una ipotesi sulla propagazione della luce che si discostava decisamente dalle concezioni correnti. Se si suppone la vibrazione di ogni fascio suddivisa in tre componenti, una lungo il raggio e le altre due ad angolo retto, dall’esperimento di Arago e Fresnel deve seguire che la componente nella direzione dei raggi deve scomparire (le vibrazioni che costituiscono la luce sono eseguite nel fronte d’onda). Le vibrazioni che costituiscono la luce non sono dunque longitudinali come comunemente si credeva ma devono essere trasversali. Sebbene questa affermazione abbia come conseguenza la necessità di apportare modifiche sostanziali alla struttuta dell’etere, conducendo a posizioni di paradosso che vedranno Fresnel per un certo tempo isolato dal resto della comunità scientifica, l’ipotesi sembrava spiegare assai bene l’andamento dei fenomeni. In questa concezione la luce ordinaria, non polarizzata, “può considerarsi come l’unione, o più esattamente la rapida successione di sistemi di onde polarizzate in tutte le direzioni. In accordo con questo punto di vista, la polarizzazione consiste non nel produrre questi moti trasversali ma nel decomporli in due direzioni invarianti e nel separare le componenti una dall’altra poiché allora, in ognuna di esse, i moti oscillatori hanno luogo sempre nello stesso piano”50. Il successivo programma di ricerca di Fresnel si volge ora a ricercare le proprietà dinamiche del mezzo luminifero che abbia contemporaneamente le caratteristiche di un fluido e l’elasticità di un solido per potere, in base a esse, rifondare la teoria della luce. Faranno seguito, connessi a questo indirizzo di ricerca, gli studi sulla propagazione della luce nei cristalli in cui Fresnel costruisce una teoria per i cristalli biassici che include come caso particolare i cristalli monoassici. La teoria sviluppata da Fresnel riesce in conclusione a spiegare con successo i fenomeni di diffrazione, di polarizzazione e di doppia rifrazione. Resta aperto il problema di costruire un modello meccanico di etere elastico in grado di trasmettere le onde luminose, problema questo che darà l’avvio negli anni seguenti a importanti sviluppi nella meccanica dei fluidi e dei solidi elastici. Intanto le conferme sperimentali alla bella teoria di Fresnel e alle conseguenze che lasciava prevedere non tardano ad arrivare: ricordiamo gli studi di W. R. Hamilton (1833) sulla rifrazione conica confermati sperimentalmente da H. Lloyd, gli esperimenti di Airy sui colori delle lamine sottili (1833), le osservazioni di F. M. Schwerd (1835) con i reticoli di diffrazione, pure in ottimo accordo con le formule di Fresnel. Tra i molti eventi citati comunemente a sostegno della teoria ondulatoria ricordiamo ancora la misura della velocità della luce in acqua e in aria condotte da Foucault (1850) che conferma la diminuzione di velocità nei mezzi più densi; osserviamo tuttavia che il carattere di “crucialità” attribuito a questo esperimento nei confronti 49 Cfr. Young’s Work, I, p. 380, le lettere ad Arago del gen. 1817 e dell’apr. 1818; su questo punto si veda E. Whittaker, A History of the Theories of Aether and Electricity, p. 114. 50 Fresnel, Annales de Chimie, VII (1821) 180. 67 Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita. della teoria ondulatoria è assai discutibile poiché trova gli ambienti di ricerca già profondamente mutati a favore della teoria. In Inghilterra il dibattito sulla natura della luce continuerà per molti anni ancora anche se, verso gli anni Quaranta, la teoria è già istituzionalizzata negli ambienti scientifici e assunta a nuova ortodossia51. In Francia, con il rinnovamento dei quadri accademici, il distacco dal programma di ricerca di Laplace è divenuto ormai quasi totale e lo sviluppo della teoria ottica di Fresnel lascia intravedere implicazioni di grande interesse in altri campi di indagine quali la termodinamica e l’elettromagnetismo, realizzando così le idee che Rumford, Davy e Young avevano formulato all’inizio del secolo. Modello ondulatorio della luce (intorno al 1820) - la luce si propaga nell’etere, con vibrazioni trasversali di natura elastica; - la luce ‘naturale’ è composta di onde polarizzate in tutte le direzioni; se le vibrazioni si producono tutte in un piano si dicono polarizzate rispetto a quel piano; - quando un fronte d’onda incide su una superficie di separazione viene riflesso o trasmesso a seconda della natura della superficie, dell’angolo di incidenza, della lunghezza d’onda della luce, del suo stato di polarizzazione; - la velocità di propagazione della luce è funzione della lunghezza d’onda; - la propagazione libera della luce in un mezzo omogeneo è regolata dal principio di Huygens-Fresnel; - se il mezzo è isotropo le onde sono sferiche con centro nel fronte luminoso, se è anisotropo la superficie d’onda è di quarto grado; - se il fronte d’onda incontra una discontinuità (ostacolo di dimensioni opportune, fenditura, ecc.) si ha diffrazione; - due fasci di luce non polarizzata ad angolo retto in condizioni opportune (coerenti, omogenei) interferiscono. CAP. 6. ELETTROMAGNETISMO CLASSICO, DAGLI ALBORI ALLE EQUAZIONI DI MAXWELL §6.1. Cronologia sintetica sugli albori dell’elettricità Antichità classica: è nota la proprietà dell’ambra di attrarre, se strofinata, corpi leggeri. L’ambra gialla, o succino, affermava Talete di Mileto (624-546 ca.), “è dotata di un’anima e attrae, come un respiro, i corpi leggeri”. Vengono studiate le proprietà della torpedine. 1550, G. Cardano opera una prima distinzione tra virtù elettrica e magnetica. Seicento: W. Gilbert (1544-1603), De magnete, 1600, prima distinzione tra corpi elettrici e non elettrici sulla base della loro capacità di attrarre altri corpi se sottoposti a strofinio. 1663, primo dispositivo in grado di produrre la “virtù elettrica”, la macchina di O. von Guericke (1602-1686), costituita da un globo di zolfo messo in rotazione da una manovella mentre la mano dello sperimentatore (asciutta o avvolta in un panno), si manteneva a contatto del globo. Si moltiplicano le teorie degli effluvi (unici o doppi) insieme alla progettazione di numerose varianti di macchine elettrostatiche. 51 Vedi l’articolo di G. Cantor, cit. 68 Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita. Prime tappe importanti nella storia dell’elettricità tra Seicento e Settecento: Ricerche di F. Hauksbee (1666-1713) sulla elettrizzazione per strofinio; di S. Gray (1666-1713), sulla distinzione tra conduttori e isolanti e scoperta della induzione elettrostatica, di C. F. Du Fay (1698-1739) sulla elettricità “vetrosa” e “resinosa”. Teorie fluidiche di J. Nollet (1700-1770), di B. Franklin (1706-1790) e di G. B. Beccaria (1716-1781). In ambito sperimentale si affermarono i primi rivelatori dello “stato elettrico”, gli elettroscopi; le prime macchine a strofinio e a induzione (l’elettroforo di Volta, del 1775, rappresenta il prototipo della macchina elettrostatica “a influenza”); la bottiglia di Leida (scoperta simultanea del principio del condensatore, da parte di E. J. v. Kleist e P. v. Muschenbroek, 1745). 1747-49, B. Franklin in America formula la teoria a un fluido; studi sulla natura elettrica dei fulmini, osservazioni sulla conduzione della terra e invenzione del parafulmine. 1759, F. U. Th. Aepinus pubblica il Tentamen theoriae electricitatis et magnetismi. Esplode il dibattito su quanti siano i fluidi elettrici e se agiscano a distanza o a contatto. 1767, J. Priestley pubblica The History and present State of Electricity. 1769: Nel De vi actractiva ignis electrici A. Volta (1745-1827) avanza il concetto di “atmosfera elettrica” (tensione elettrica). 1772, G. B. Beccaria, in L’elettricismo artificiale, definisce il concetto di capacità di un conduttore. Franklin studia il “potere delle punte”. 1782: Volta definisce la relazione tra quantità di carica, tensione e capacità. 1800: Volta comunica la sua invenzione alla Royal Society di Londra. 1801: Teoria elettrostatica di Biot. 1811: Teoria elettrostatica di Poisson e teoria del potenziale elettrico. Nel corso del Settecento, in pieno clima illuminista, la scienza dell’elettricità viene considerata la “più dilettevole e la più sorprendente fra tutte le parti della filosofia naturale” (T. Cavallo, Trattato completo di elettricità, 1775). Gli “esperimenti elettrici” (scariche elettriche attraverso una lunga catena di sperimentatori improvvisati, scintille luminose, giochi elettrici, esperimenti con i parafulmini, ecc.), godono di enorme popolarità. Ma l’elettricità non è solo intrattenimento curioso e divertente: nella seconda metà del secolo la ricerca ancora qualitativa sull’elettricità inizierà ad acquisire i metodi quantitativi e rigorosi della fisica matematica, strutturandosi gradualmente in scienza dell’elettrostatica. I concetti di carica elettrica localizzata su un conduttore, di capacità, di “atmosfera elettrica” (tensione), vennero definiti e quantificati, tra gli altri, da Volta; si affermò inoltre l’idea di una forza elettrica agente a distanza con la formulazione, da parte di C. A. Coulomb (1736-1806), della legge fondamentale di attrazione e repulsione tra cariche puntiformi (1785). L’invenzione da parte di Volta della pila, del 1799, stimolata dalle osservazioni di L. Galvani (1737-1798), darà infine inizio allo studio della corrente elettrica. §6.2. Elettricità e magnetismo: nuove scoperte, nuove teorie La proprietà della magnetite di attrarre metalli era stata osservata fin dall’antichità classica ma, al contrario dell’elettricità, la scienza del magnetismo subì una 69 Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita. evoluzione molto più lenta. Anche se l’uso della bussola era noto da tempo e già W. Gilbert, nel 1600, aveva attribuito alla Terra le proprietà di una enorme calamita, ancora nel corso del Settecento le forze magnetiche venivano considerate alla stregua di “poteri occulti” di cui era complicato dare una descrizione quantitativa. Nei primi decenni dell’Ottocento una serie di osservazioni sperimentali contribuirono a evidenziare la stretta connessione esistente tra fenomeni elettrici e magnetici. 1819, il fisico danese H. C. Oersted (1777-1851) osservò che un filo percorso da corrente defletteva l’ago di una bussola posto in prossimità. Se la corrente veniva invertita, l’ago ruotava in verso opposto. La forza magnetica prodotta dalla corrente non agiva in linea retta ma lungo circonferenze perpendicolari alla direzione della corrente, con il centro coincidente con il filo. Ampère osserva le azioni elettrodinamiche tra fili percorsi da corrente. 1820, Ampère distingue tra elettricità in quiete (elettrostatica) e in moto (elettrodinamica). 1821, M. Faraday (1791-1867) pensa di utilizzare l’esperienza di Oersted per produrre moto: un magnete, libero di ruotare intorno a un estremo, poteva essere messo in movimento intorno a un conduttore fisso percorso da corrente e, viceversa, un conduttore mobile percorso da corrente poteva ruotare intorno a un magnete fisso (prototipo del motore elettrico, da energia elettrica si produce moto). 1826, G. S. Ohm formula la relazione tra tensione, intensità di corrente e resistenza in un circuito. 1831, Faraday, esperienze fondamentali che portarono alla scoperta della induzione elettromagnetica. J. Henry, in America, scopre indipendentemente il fenomeno dell’autoinduzione e realizza i primi elettromagneti. L’ipotesi base di Faraday è che se l’elettricità produce magnetismo allora il magnetismo deve essere in grado di produrre correnti elettriche. Intorno a un anello di ferro dolce Faraday avvolge due bobine di filo isolato; mentre una bobina era alimentata da una batteria (circuito primario), l’altra (secondario) si chiudeva su un indicatore di corrente (prototipo del trasformatore). Nel secondo esperimento un 70 Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita. magnete viene inserito in una bobina: non appena il magnete viene spinto o tirato dalla bobina una corrente passa nel circuito. Per giustificare l’insorgere della corrente indotta nel circuito non alimentato dalla batteria, Faraday ipotizza che qualcosa doveva modificarsi nello spazio compreso tra i corpi elettrici o magnetici (ipotesi delle “linee di forza”; questa intuizione verrà ripresa e formalizzata in particolare da Lord Kelvin e poi da J. C. Maxwell, e da essa deriva il concetto di campo elettromagnetico). Nella terza esperienza, in un disco posto in rotazione tra le espansioni polari di una potente calamita, si genera corrente continua tra il centro e il bordo del disco (prototipo di una dinamo, da un moto meccanico si genera elettricità). 1834, Faraday, teoria dell’elettrolisi e teoria chimica del galvanismo. 1845, Faraday scopre l’effetto magnetoottico (v. oltre) e introduce il concetto di campo. Teoria matematica di F. E. Neumann delle correnti indotte. 1846, Legge fondamentale di Weber tra cariche elettriche in moto. 1850, Faraday interpreta con le linee di forza i fenomeni para- e diamagnetici 1856, J. C. Maxwell (1831-1879) traduce in linguaggio matematico il concetto di linea di forza di Faraday. Sistema di misura assoluto di Weber dell’elettromagnetismo. 1858, B. Riemann formula la legge fondamentale dell’elettrodinamica sulla base del concetto di potenziale ritardato. Per una trattazione estesa sulla storia dell’elettromagnetismo classico si veda, di M. De Maria, La nascita dell’elettromagnetismo classico: un’analisi storicoepistemologica, in M. De Maria, M. G. Ianniello (a cura di), Storia e didattica della fisica. Strumenti per insegnare, Aracne, Roma, 2002, pp. 57-183. Nel saggio sono trattati l’approccio meccanicista e dinamista con riferimento particolare all’elettromagnetismo, i contributi di Oersted, Ampère e Faraday. In coda al saggio è riportata una ampia bibliografia di approfondimento e una serie di “letture” tratte dalle memorie di Oersted, Ampère e Faraday. § 6.3. La connessione tra luce e forze elettromagnetiche 71 Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita. La prima evidenza sperimentale di un collegamento esistente tra luce ed elettromagnetismo si ha nel 1845, con l’effetto Faraday: se si pone un blocchetto di vetro flint tra i poli di un elettromagnete quando passa corrente, si osserva la rotazione del piano di polarizzazione di un fascetto di luce linearmente polarizzato che si propaghi nel mezzo, parallelamente alle linee di forza magnetica (le concezioni di faraday sul nesso luce-elettromagnetismo vengono meglio chiarite nella memoria Thoughts on Ray-vibrations). Alcuni anni dopo, nel 1856, Weber e Kohlrausch determinano sperimentalmente, con metodi statici e dinamici, la quantità di elettricità immagazzinata in una bottiglia di Leyda e successivamente scaricata a terra (scarica del condensatore). Il rapporto tra i due valori porta a una costante che rappresenta il fattore di conversione tra unità elettromagnetiche ed elettrostatiche e il cui valore è molto prossimo alla velocità della luce: “Il valor medio [...] dà per la costante C un valore di 436090·106 [mm/s]52. Il significato della costante è quello di una velocità [...] con cui due masse elettriche si avvicinano o si allontanano l’una dall’altra quando tra loro non avviene né attrazione né repulsione. Tramite il valore di C si può convertire qualunque misura di intensità di corrente eseguita nel sistema assoluto in misure meccaniche [...], sia che tale misura sia basata su effetti magnetici, elettrodinamici o elettrolitici. Tutte le velocità reali che conosciamo, comprese quelle dei corpi celesti, sono trascurabili rispetto a C poiché l’unica velocità a noi nota che si avvicina a C, quella cioè della propagazione della luce, non è una velocità reale53 con cui i corpi si muovono l’uno rispetto all’altro”.54 Il collegamento tra fenomeni luminosi ed elettromagnetici che pure poteva essere avanzato sulla base della straordinaria coincidenza di valori osservata non viene neppure proposto poiché le misure di Weber e Kohlrausch sono unicamente funzionali alla determinazione di un fattore di conversione che riduca in unità meccaniche, grandezze magnetice ed elettriche. L’elettrodinamica tedesca di metà Ottocento si muove infatti ancora nell’ambito meccanicistico in cui si tende a ricondurre i fenomeni a forze di tipo meccanico e in questo ambito non c’è spazio per altri contesti interpretativi55. §6.4. La sintesi di Maxwell dell’elettromagnetismo ottocentesco Dai contributi sperimentali di Faraday, Maxwell riprese in particolare il concetto di campo elettromagnetico che considerò sia come plenum di forze, rappresentate da linee nello spazio, sia come plenum di etere, sostanza ipotetica che pervade lo spazio, o “mezzo dielettrico”, e in grado di mediare le “azioni elettriche” tra particelle materiali contigue. Maxwell immaginò la struttura geometrica del campo elettromagnetico come costituita da un insieme di vortici rotanti, circondati da catene di particelle in rotazione, quasi a formare una struttura cellulare a nido d’ape: la rotazione dei vortici dava luogo al magnetismo, le traslazioni delle catene di sferette 52 Questo valore, ottenuto dagli autori nel sistema di unità elettrodinamiche, va diviso per radice di 2 per ottenere unità elettromagnetiche: si ottiene così 3,11·1010 cm/s, un valore molto vicino a quello della velocità della luce. Il valore misurato nel 1849 da Fizeau era di 3,15·1010 cm/s. 53 La velocità della luce per Weber è la velocità di un’onda e, in quanto tale, non corrisponde ai moti reali descritti dai corpi a velocità molto più basse. 54 R. Kohlrausch, W. Weber, Elektrodinamischen Maasbestimmungen insbesonders Zurückführung der Stromintensität Messungen auf mechanisches Maas, 1857, Werke, vol. III, p. 591. 55 Per una discussione approfondita sul programma di ricerca di Weber nell’ambito della determinazione di un sistema di unità meccaniche in elettrodinamica, v. S. D’Agostino, La scoperta di una velocità quasi uguale alla velocità della luce nell’elettrodinamica di W. Weber, Physis, 18 (1976) 297-318. 72 Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita. all’elettricità. Ma lo scienziato scozzese aveva chiaro il valore ipotetico del suo modello meccanico: “La natura di questo meccanismo sta al vero meccanismo come un planetario al sistema solare”. Nel Treatise on Electricity and Magnetism, del 1873, Maxwell abbandonò infatti i dettagli microscopici e formalizzò le sue equazioni dell’elettromagnetismo deducendole direttamente dalle equazioni fondamentali della meccanica in forma lagrangiana. Nella “teoria dinamico-elastica del campo elettromagnetico” di Maxwell è contenuta una ipotesi fondamentale: le “vibrazioni della luce e le correnti elettriche” sono fenomeni identici. Le onde elettromagnetiche si possono propagare nello spazio e la velocità di propagazione “è così prossima a quella della luce che abbiamo buoni motivi per concludere che la luce stessa (e così il calore radiante e altre radiazioni) sia una perturbazione elettromagnetica che obbedisce alle leggi dell’elettromagnetismo”. Questa previsione di Maxwell, di portata rivoluzionaria per la fisica, verrà confermata sperimentalmente quasi venti anni dopo da Hertz. Le equazioni del campo elettromagnetico di Maxwell, del 1865, rappresentano la sintesi teorica di tutti indizi sperimentali emersi nei primi decenni dell’Ottocento e consentono di trattare, con lo stesso formalismo matematico, l’elettrostatica, la magnetostatica e l’elettrodinamica e hanno validità del tutto generale. §6.5. La teoria elettromagnetica della luce di Maxwell e il contributo di Hertz Con Faraday e Maxwell avviene un rovesciamento del quadro interpretativo dei fenomeni elettrici e magnetici ivi compresi quelli luminosi. L’obiettivo della ricerca non è più quello di ricondurre tali fenomeni alla meccanica né il punto di partenza è costituito da un modello specifico di etere avente certe proprietà elastiche. Sono piuttosto i dati sperimentalmente provati, quali per es. l’osservazione dello stato fisico dello spazio in prossimità di un magnete, la trasversalità del moto delle onde, l’effetto Faraday, a costituire il nucleo della ricerca. Per Maxwell tutti i fenomeni sono prodotti da materia in moto così che eventi meccanici, idrodinamici, elettrici e magnetici possono essere descritti dalle stesse equazioni. Servendosi di analogie idrodinamiche Maxwell rappresenta le linee di forza magnetiche mediante vortici molecolari in un fluido incompressibile. Vortici contigui ruotano grazie all’esistenza di particelle ‘frenanti’ che costituiscono l’elettricità. Se su di esse agisce una forza elettrica di tipo elastico, le particelle si spostano modificando il mezzo e danno così origine a un campo magnetico. Attraverso il formalismo matematico derivato dall’idrodinamica e dalle teorie elastiche, Maxwell traduce il comportamento del suo modello “a particelle e a vortici” in un serie di equazioni differenziali che danno ragione dei principali fenomeni elettromagnetici. Tali equazioni nei mezzi non conduttori portano a un’equazione differenziale del secondo ordine che dà come velocità di C , dove C è la costante di propagazione di un disturbo elettromagnetico v = μ Weber e Kohlrausch; nell’etere (oggi si direbbe nel vuoto), poiché =μ=1 si ottiene l’uguaglianza tra C e v. Maxwell osserva in proposito: “Questa velocità è così prossima a quella della luce che abbiamo buone ragioni di concludere che la luce stessa (includendo il calore raggiante e altre radiazioni) è una perturbazione elettromagnetica che obbedisce alle leggi dell’elettromagnetismo. [...]. L’idea della propagazione di perturbazioni magnetiche trasversali con la esclusione di quelle normali è chiaramente trattata da Faraday nei suoi “Thoughts on Ray-Vibrations”. La teoria elettromagnetica della luce da lui proposta è in sostanza la 73 Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita. stessa di quella che io ho iniziato a sviluppare in questo articolo, tranne che nel 1846 non esistevano dati per calcolare la velocità di propagazione”56. In definitiva per Maxwell la luce non va più considerata come un’onda meccanica trasversale in un corpo quasi elastico ma come un’onda elettromagnetica che trasporta energia. L’etere in questa concezione rimane ancora come supporto all’energia di campo. Nonostante le numerose conferme sperimentali, la teoria di Maxwell, per il suo carattere di netta rottura con l’elettrodinamica del tempo, avrà bisogno di oltre trent’anni per affermarsi. Lo stesso Maxwell darà una prova della connessione tra luce ed elettromagnetismo nella banda ottica, confrontando il valore della costante dielettrica della paraffina solida misurata staticamente, con il valore dell’indice di rifrazione n della stessa sostanza estrapolato da misure di dispersione su lunghezze d’onda di grande periodo, in base alla relazione n = . La conferma nella banda di frequenze elettromagnetiche verrà data da Hertz (18571894) in una serie di esperimenti eseguiti tra il 1886 e il 1888. La teoria di Maxwell viene ripresa da Hertz e messa a confronto con la teoria di Weber allora dominante in Germania. La teoria di Weber, basata sull’azione a distanza, postulava l’esistenza di forze elettriche e magnetiche che si dovevano propagare istantaneamente nello spazio. La teoria di Weber, insieme ad altre teorie in competizione, quali quelle di F. E. Neumann, di C. Neumann e di Riemann, nel caso di correnti chiuse portavano a risultati in buon accordo con le leggi di Ampère sulle azioni elettrodinamiche e con la legge di induzione. Nel caso di circuiti aperti al contrario, i risultati divergevano da teoria a teoria. L’insieme di queste teorie erano comunque arrivate a un tale grado di artificiosità e di complessità di calcolo “da rendere l’elettrodinamica di quel periodo un deserto impraticabile”57. L’elettrodinamica di Faraday-Maxwell, al contrario, con poche ipotesi portava a risultati corretti in ambedue le classi di fenomeni. L’analisi delle equazioni inoltre faceva prevedere risultati in netto contrasto con le idee correnti: tali equazioni prevedevano, in particolare, l’esistenza di onde elettromagnetiche che si propagano nello spazio con velocità finita. Ma se in qualche modo si fosse riusciti a produrre in laboratorio tali onde e a misurarne la velocità sarebbe stato possibile fornire la prova più convincente della teoria. Come sorgente si potevano utilizzare oscillazioni elettriche ad alta frequenza in modo da ottenere lunghezze d’onda facilmente misurabili in aria. Occorreva inoltre uno strumento in grado di captare a distanza perturbazioni elettriche. Hertz riuscì a risolvere entrambi i problemi e a realizzare due circuiti elettrici oscillanti in grado di produrre e di rivelare le onde elettromagnetiche58. 56 J. C. Maxwell, Una teoria dinamica del campo elettromagnetico, 1864; v. The Scientific Papers, ristampa, New York, Dover Publ. 1955. 57 H. v. Helmholtz, “H. R. Hertz”, Z. f. phys. u. chem. Unterricht, 1894, Berlin, p. 22. 58 H. Hertz, Ann. d. Phys., XXXI (1887), 421. 74 Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita. Nel 1888 Hertz dimostra sperimentalmente che un disturbo elettromagnetico si propaga in aria con velocità finita59 con un valore dello stesso ordine di grandezza della velocità della luce. La seconda fase della ricerca riguarda la dimostrazione sperimentale del comportamento ottico delle onde elettromagnetiche: le onde si propagano in linea retta, riflettono, diffrangono, rifrangono e mostrano effetti di polarizzazione e di interferenza60. La descrizione degli esperimenti è presentata con estrema chiarezza dallo stesso autore in una memoria61 del 1889. Cap. 7. La scoperta dell’ elettrone §7.1. Il contesto teorico e sperimentale Dal 1830 circa: Faraday studia l’elettrolisi (quando passa corrente in una soluzione (solvente + soluto, per es. un sale), c’è sempre un passaggio di materia agli elettrodi secondo precise proporzioni con la quantità di carica che passa nella cella; le molecole del sale si scindono e gli ioni positivi e negativi migrano verso gli elettrodi). Il processo di conduzione elettrica negli elettroliti serve come modello per studiare la conduzione dell’elettricità nei gas. Lo stesso Faraday inizia le prime indagini sul passaggio dell’elettricità nei gas ma non riesce a fare osservazioni significative (la pressione del gas era troppo alta). Si limita a descrivere la “zona oscura di Faraday” che si forma tra la regione negativa e positiva del tubo di scarica. 1855: pompa a mercurio di H. Geissler (a Bonn); si ha una svolta nelle ricerche perché si riesce a ridurre la pressione del gas di riempimento dei tubi (“tubi di Geissler”). 1860 circa. La disposizione sperimentale per studiare la scarica nei gas a bassa pressione si stabilizza; studi di J. Plücker (di Bonn), J. W. Hittorf (di Bonn, allievo di P.), F. Goldstein (di Berlino); Plücker scopre i raggi catodici (1858, osserva nella regione opposta al catodo una luce fluorescente verde; se si avvicina un magnete la ‘macchia’ sul vetro si sposta. Ipotizza per la radiazione proveniente dal catodo una natura corpuscolare). 59 H. Hertz, Ann. d. Phys., XXXIV (1888), 551. 60 H. Hertz, Ann. d. Phys., XXXVI (1889), 769. 61 H. Hertz, Über die Beziehung zwischen Licht und Elektrizität, conferenza divulgativa tenuta da Hertz in occasione del 62° Congresso dei ricercatori tedeschi il 20 sett. 1889 in Heidelberg. 75 Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita. al rocchetto 1865, pompa di H. Sprengel; Plücker osserva che a pressioni più basse lo spazio oscuro di Faraday aumenta mentre sulla parete opposta del tubo si forma un globo luminescente che si sposta in presenza di un magnete. 1869: Hittorf osserva la deviazione dei rc in campo magnetico e che il fascio dà ombra se si interpone un ostacolo. Il fascio è costituito di raggi che si propagano in linea retta. 1870, Goldstein individua nel catodo il punto in cui il fascio parte; i raggi vengono emessi perpendicolarmente alla superficie del catodo e conia il termine “raggi catodici” (Kathodenstrahlen); sostiene, come farà la scuola tedesca, a eccezione di Plücker, Helmholtz e pochi altri, che i raggi catodici (r. c.) sono radiazione elettromagnetica (teoria ondulatoria o “radiativa” o “eterea”). 1876, Goldstein scopre i raggi canale. 1879, W. Crookes (Inghilterra): i r. c. sono corpuscoli, sono costituiti da un “torrente molecolare”, cioè da molecole che trasportano carica negativa. A basse pressioni osserva uno spazio oscuro che si forma tra il catodo e la parte luminescente dei rc; al diminuire della pressione lo spazio oscuro si estende per tutto il tubo (lo spazio scuro dovrebbe dare per C. una indicazione del clm delle molecole; in tale regione non avvengono urti tra le molecole). I rc sarebbero i componenti di un quarto stato della materia (o stato ultragassoso o “protyle” o materia primordiale). Analogia tra la conduzione elettrica nei gas e negli elettroliti (W. Giese, A. Schuster, ecc...; teoria delle “particelle elettrizzate”). 1883: H. Hertz (e il suo allievo P. Lenard) sostiene che i r. c. sono onde e non corpuscoli carichi (ma non si spiega allora perché le ‘onde’ sono deflesse da un magnete). Se fossero particelle cariche dovrebbero generare un campo magnetico, come avviene in un filo percorso da corrente; ma Hertz non riesce a rivelare alcun effetto (per limiti strumentali del suo apparato). Tenta anche di vedere che succede quando i r. c. passano tra due placche deflettrici cariche; poiché non osserva alcuna deflessione conclude che i r. c. sono onde (Hertz lavora a pressioni troppo alte: per ionizzazione del gas gli ioni positivi e negativi migrano ai piatti e mascherano la deflessione del fascio catodico; J. J. Thomson scoprirà che se si diminuisce la pressione la conducibilità del gas diminuisce e la deflessione elettrostatica diviene evidente). 1886, Goldstein osserva oltre al fascio dei rc, un fascio che procede in verso opposto, dall’anodo al catodo (cosiddetti “raggi canale”, perché penetrano nei canali praticati nel catodo; si tratta, come si capirà qualche anno dopo, di ioni carichi più, cioè atomi a cui sono stati strappati elettroni). 1890, Schuster (di Manchester) determina sperimentalmente il rapporto carica-massa delle particelle dei rc/ 1891, Stoney conia il termine “elettrone” (come quantità di elettricità di riferimento ma non ancora come particella dotata di carica e e massa m). 76 Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita. 1892, Hertz osserva che i r. c. penetrano sottili fogli di alluminio, dunque sono una “perturbazione ondulatoria dell’etere” (onde). Lenard realizza un tubo con una finestra di alluminio sottile per studiare i rc in aria. La base sperimentale tra gli anni Ottanta e Novanta dell’Ottocento: i r. c. producono fluorescenza sul vetro; si propagano in linea retta; sono schermati da un ostacolo; se l’ostacolo è sottile lo attraversano; non sembrano risentire degli effetti di un campo elettrico; sono deflessi da un campo magnetico; hanno q.d.m. e trasmettono energia (se focalizzati, producono un aumento di temperatura). 1894: Hertz, le onde radio hanno velocità confrontabile con la velocità della luce, rifrangono e si polarizzano. 1895: J. Perrin: i r.c. trasportano carica negativa (sono particelle). 1896, P. Zeeman scopre che le righe spettrali di gas in campo magnetico si modificano. H. A. Lorentz attribuisce l’effetto al moto di cariche nell’atomo e stima il rapporto m/e per l’elettrone. 1897, J.J. Thomson misura m/e: gli elettroni entrano nella fisica. 1898, Wien dimostra che i raggi canale sono costituiti da particelle positive e trova per esse un valore di molto più grande di quello ottenuto da Thomson per i rc. 1899, Thomson fa una prima misura della carica assoluta dell’elettrone. 1909-1913, Millikan, determinazione della carica assoluta dell’elettrone. R. A. Millikan, On the elementary electrical charge and the Avogadro constant, Phys. Rev., 2(1913) 109-143. §7.2. J. J. Thomson e la misura di m/e Abbiamo vista come lo studio dei rc porti la comunità dei fisici a spaccarsi attorno alla loro natura. I raggi catodici sono onde (teoria eterea) o particelle (teoria delle particelle elettrizzate)? Alla prima ipotesi aderiscono, con qualche illustre eccezione, i fisici tedeschi (Goldstein, Hertz, Lenard); la seconda ipotesi prevale invece negli ambienti inglesi (Crookes, J. J. Thomson). Sarà Thomson a dimostrare, presso il Cavendish laboratory all’Università di Cambridge, la natura particellare dei rc, in un accurato studio sperimentale62 del 1897, che analizziamo di seguito. Esperimento à la Perrin modificato: Perrin ha dimostrato che i rc depositano carica negativa nel cilindro di Faraday e da ciò ha concluso che “i rc sono carichi di elettricità negativa, […], che qualcosa carico di elettricità negativa è espulso dal catodo e viaggia ad angolo retto rispetto a esso […] ma non dimostra che la causa dell’elettrificazione abbia a che fare con i rc”63. L’apparato che Thomson impiega è il seguente: 62 J.J. Thomson, Phil. Mag., 44 (1897) 293; 48 (1899) 547. Cfr. di G. P. Guidetti, La scoperta dell’elettrone, in F. Bevilacqua (a cura di), Storia della fisica. Un contributo per l’insegnamento della fisica, F. Angeli ed., Milano,1983, 148-164. 63 Guidetti, cit., p. 154. 77 Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita. i rc vengono espulsi dal catodo e attraversano il tappo metallico forato connesso all’anodo (e a terra); alla base dell’ampolla più grande ci sono due cilindri coassiali connessi uno a terra e l’altro a un elettrometro. L’elettrometro segnala una carica solo quando i rc, opportunamente deflessi da un campo magnetico, entrano nell’imboccatura del cilindro collegato allo strumento. Ciò dimostra che “l’elettrificazione negativa segue lo stesso percorso dei raggi ed è indissolubilmente legata ai rc”. Esperimento à la Hertz: Hertz non è riuscito a osservare la deflessione dei rc in campo elettrico. Thomson ripete gli esperimenti di Hertz e trova che “la mancanza di deflessione è dovuta alla conducibilità provocata nel gas rarefatto da parte dei rc”. I rc sono emessi dal catodo C, attraversano l’anodo A e quindi lo spazio tra le due piastre deflettrici DE; colpiscono lo schermo su cui è stata fissata una scala per valutare la deflessione del fascio. Thomson osserva la deflessione “solo quando il vuoto era buono” e spiega la mancata osservazione della deflessione da parte di Hertz come dovuta agli ioni prodotti dai rc nel gas rarefatto, i quali migrano verso le piastre e annullano la forza elettrica. Deflessione in campo magnetico: il catodo è fissato lateralmente nella campana di vetro; il tappo forato (messo a terra) funge da anodo. La campana veniva posta tra due bobine di Helmholtz che generano un campo magnetico uniforme. La deviazione era stimabile su una scala fissata esternamente di fronte al catodo. Conclusioni: “Poiché i rc sono portatori di una carica di elettricità negativa, sono deflessi da parte di una forza elettrostatica come se fossero elettrizzati negativamente, e sono influenzati da una forza magnetica nello stesso modo in cui questa forza agirebbe su un corpo elettrizzato negativamente che si muovesse lungo il percorso di questi raggi, io non posso sottrarmi dal concludere che tali raggi sono cariche di elettricità negativa trasportate da particelle materiali. 78 Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita. Ora sorge il problema: che cosa sono queste particelle? Sono atomi, o molecole, o materia in uno stato di suddivisione ancora più fine? Per gettare un po’ di luce su questo punto ho eseguito una serie di misure sul rapporto tra la massa di queste particelle e la carica da esse trasportata”64. Determinazione di m/e: l’apparato è mostrato in figura, con il tubo munito di catodo e di anodo forato; viene mostrata una traiettoria dei rc deviata da un campo magnetico uniforme di intensità H. C A N sia il numero di corpuscoli di massa m e carica e che attraversano una sezione del fascio in un certo tempo; la quantità di carica Q trasportata dalle particelle dei rc è: Ne=Q (1); l’energia cinetica W delle particelle (da misurare, per es., dal calore 1 prodotto su una coppia termoelettrica collegata a un galvanometro) è: W = Nmv 2 (2) 2 mv e, inoltre, se c’è un campo magnetico uniforme: H = (3), dove è il raggio di e W Nmv 2 mv 2 = curvatura della traiettoria dei rc. Dividendo (2) per (1): = . Dividendo 2Ne 2e Q W 1 2W 2W m I 2Q = Nve v = = la (2) per la (3): (4) (T. pone H =I); infine, = I 2 INe IQ e 2W (5). Misurando Q, W e I Thomson calcola per la massa di un corpuscolo g carico me 107 e per v ~109 cm/s. u.e.m. Thomson impiega anche un secondo metodo per risalire al rapporto m/e con un tubo a raggi catodici munito di placche deflettrici; varia il gas di riempimento e trova che il valore di m/e non cambia. Il valore trovato, più piccolo di 3 ordini di grandezza del valore allora noto da esperimenti di elettrolisi per lo ione idrogeno (10-4 g/u.e.m.), suggerisce che o la carica e trasportata sia molto grande o che la massa m sia molto piccola o una combinazione dei due. Thomson ipotizza che sia la massa m dei portatori di carica a essere molto minore della massa dello ione idrogeno sulla base delle osservazioni di Lenard che i rc hanno grande potere penetrante (sicché, se sono particelle, devono essere più piccole delle molecole dello strato che attraversano). Parte dei dubbi verranno sciolti solo con la determinazione della carica assoluta e, che lo stesso Thomson effettuerà nel 1899 sulle cariche espulse per effetto fotoelettrico, dopo aver dimostrato che il rapporto m/e per i fotoelettroni è identico a quello delle particelle dei rc65. Thomson trova che la carica delle particelle catodiche è uguale a quella della carica positiva dello ione idrogeno (e=6·10-10 u.e.s.) mentre la massa m=1,4 10-3 della massa dello ione idrogeno: “Gli esperimenti ora descritti insieme ai precedenti per i raggi catodici […] mostrano che nei gas a bassa pressione l’elettrizzazione negativa, benché possa essere prodotta in modi diversi, è costituita di unità aventi ciascuna una carica di entità definita; la grandezza di questa carica negativa è circa 6·10-10 u.e.s. ed è uguale alla carica positiva portata dall’atomo di idrogeno nell’elettrolisi di soluzioni”. 64 65 79 Ibid., p. 157. J.J. Thomson, Phil. Mag., 48 (1899) 547. Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita. §7.3. Il contributo di Millikan alla determinazione della carica assoluta dell’elettrone Tra il 1909 e il 1917 Millikan conduce una serie di misure per determinare la carica dell’elettrone. Il metodo usato da Millikan è quello della goccia d’olio. Il nucleo centrale della sua disposizione sperimentale è rappresentato da un condensatore a facce piane e parallele, racchiuso in un recipiente metallico D (vedi fig. B, la fig. A rappresenta una disposizione sperimentale più rudimentale, del 1910). A. Apparato sperimentale intorno al 1910 B. Apparato sperimentale perfezionato (1913). Il recipiente è collegato a un manometro per il controllo della pressione e a sua volta è immerso in un altro recipiente pieno di un liquido (D, in altre parole, è in un bagno termico) per mantenere la temperatura costante durante l’esperimento. A è 80 Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita. l’atomizzatore utilizzato per immettere gocce d’olio tra le armature del condensatore. Il tubo a raggi X, che comunica con D tramite una finestra, serve a ionizzare l’aria tra le armature. Xpa è la linea di osservazione. Olio non volatile di densità viene atomizzato in piccole gocce (dell’ordine del mm) immesse in aria di densità tra le armature del condensatore. Le gocce, osservate attraverso un opportuno sistema ottico, cadono con velocità costante v1 sotto l’effetto della gravità (v è costante perché l’aria, di coefficiente di viscosità = 0,00018240 a 23°C, è un mezzo viscoso; il valore di viene preso da una serie di misure condotte con metodi diversi, riportato alla temperatura del sistema e mediato). La formula della velocità di caduta viene dedotta dalla legge di Stokes con l’aggiunta di un termine correttivo al primo ordine in l/a, con l, cammino libero medio di una molecola d’aria, A costante da determinarsi nel corso dell’esperimento in funzione del raggio a delle gocce e della pressione dell’aria: 2 ga 2 ( ) l 1+ A v1 = 9 a (1) Quando si accende il campo elettrico E tra le armature del condensatore la goccia, sotto l’effetto della forza F=qE, sale con velocità costante v2. L’aria tra le armature viene ionizzata in modo che la goccia acquisti, nel corso dell’esperimento, cariche via via crescenti. I valori di queste cariche vengono date, sempre considerando la legge di Stokes, dalla equazione 1 1 2 (v1 + v2 )v12 4 9 1 en = 3 2 g( ) E 3 2 (2). Questi valori en delle cariche risultavano tra loro secondo relazioni multiple, “un fatto che dimostrava in modo diretto la struttura atomica della carica eletrica”. Per ogni valore della carica addizionale, il valore di (v1+v2) nella (2) varia; prendendo il massimo comun divisore (MCD) della serie dei valori assunti dalle velocità con MCD=(v1+v2)0 si trova, tra i diversi valori di en, quel valore e1 (a sua volta MCD tra gli en valori), che è uguale, a meno di un fattore correttivo, all’unità elementare di carica e= e1 3 (3). l2 1 + A a Per risalire ai valori di v1 e v2 Millikan misura i tempi di caduta e di salita lungo una distanza costante, compresa tra due traguardi. Tra v1 e v2 sussiste la relazione v1 mg = (4) v 2 Ee mg che per una serie n di misure (condotte in funzione della carica via via catturata dalla goccia in esame) porta a 81 Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita. en = mg(v1 + v 2 ) Ev1 (5). Questa equazione viene scritta sostituendo alle velocità i relativi tempi di caduta tg (per effetto della sola forza peso) e tE (per effetto del campo elettrico) impiegati dalla goccia per percorrere la distanza tra i due traguardi: mgt g en = 1 1 E + tg t E (6). Se la goccia cattura n’ unità di carica addizionale si ha en +n' = mgt g 1 1 E + t g t E' (7). Si noti che la presenza del campo elettrico influenza solo il tempo di salita tE, in funzione della carica n’, mentre tg resta invariato. Sottraendo la (7) dalla (6) en' = mgt g 1 1 E t E' t E (8). Si noti che: poiché mgtg/E è costante per una stessa goccia, quando la carica sulla goccia varia, i valori di en ~ 1/tg + 1/tE; quando si aggiunge carica addizionale 1 1 en' ~ cost. con l’unità di carica e1 = cost. (1/tE'-1/tE)0 t E' t E che è pure uguale a e1 = cost.(1/tg+1/tE)0. Ne segue che: (1/tE'-1/tE)0 = (1/tg+1/tE)0. Inoltre, poiché 1/tg > 1/tE, si hanno due modi indipendenti per eseguire le misure, in presenza e praticamente in assenza di campo elettrico E. Le ipotesi assunte nel corso delle prove sono che: l’effetto del mezzo (l’aria) su una data goccia non è influenzato dalla sua carica; le gocce d’olio si muovono nel mezzo come se fossero sfere solide (non ci sono né distorsioni dovute al campo elettrico né convezioni interne tali da modificare la legge di moto di una goccia); la densità delle gocce è indipendente dal raggio fino ad a = 0,0005 cm (al di sotto di questo valore anche la legge di Stokes sembra non valere più). Tutte queste ipotesi vengono vagliate e confermate nel corso dell’esperimento. In tabella IV vengono riportati i dati sperimentali per la goccia n°6. 82 Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita. Le misure dei tempi di caduta tg e di salita tE vengono eseguite sia con il cronoscopio di Hipp che con un cronometro a stop (rispettiv. prima+quarta colonna e seconda + terza colonna); n’ è il numero di unità elementari di carica catturate dalla goccia mentre n rappresenta il numero totale di unità di carica sulla goccia. Vengono ripetute 58 serie di misure per 58 gocce diverse. Il valor medio per e è: e = 4,774 10-10 unità elettrostatiche. Poiché il valore della costante di Faraday F= 9.650 unità e.m. assolute e corrisponde al numero di molecole in una grammomolecola per la carica elettrica elementare F = N e, si ha N = 6,062 1023. Valutate le sorgenti di errore e l’incertezza per ciascuna grandezza i valori per e ed N sono rispettivamente: e = 4,774 ±0,009 10-10 N = 6,062 ± 0,012 1023. Millikan confronta infine il valore di e, e quindi di N, dedotti dalle sue misure con analoghi valori ottenuti da Regener con il metodo radioattivo mediante conteggio di particelle (1909), da Perrin con il moto browniano, da Planck con il metodo della radiazione concludendo che “I risultati medi per ciascuno di questi tre metodi sono in buon accordo, entro il limite degli errori sperimentali, con il valore trovato con il metodo della goccia d’olio”. Nota sulla legge di Stokes: Si tratta di una forza ‘frenante’ (o forza di resistenza del mezzo) del tipo 83 Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita. F= 6av, con coefficiente di viscosità del mezzo e a raggio del corpo in moto, supposto di forma sferica. Quando una goccia sferica si muove nel mezzo è soggetta a forza peso, spinta di Archimede e forza frenante. La goccia si muove a regime con velocità costante; per la seconda legge della dinamica la risultante delle forze deve essere zero, condizione che si verifica quando forza peso - spinta di Archimede = forza di resistenza del mezzo 4 mg a 3 g 4 3 3 mg a g = 6av * con v* = 6a 3 (v* è la velocità “asintotica” acquistata dal corpo quando la sua accelerazione si annulla e si muove perciò di moto uniforme). Sostituendo alla massa del corpo m (di 4 densità ) l’espressione m = a 3 si ottiene la (1) a meno del fattore di correzione. 3 All’esperimento: 84