Programma del modulo di “LABORATORIO DI FISICA”
Il modulo ha lo scopo di avviare lo studente alla conoscenza
e all’utilizzo della strumentazione di laboratorio tramite
l’esecuzione di alcuni semplici esperimenti, che prevedono
la misura di varie grandezze fisiche e la successiva
elaborazione dei dati raccolti.
In particolare si vuole dimostrare la validità di semplici
leggi fisiche, scelte tra quelle studiate in meccanica,
calorimetria ed elettromagnetismo, avvalendosi della
corretta procedura sperimentale.
Il modulo è diviso in una parte di lezioni in aula sulla teoria
degli errori di misura ed una seconda parte di esperienze
svolte in laboratorio dagli studenti.
Programma del corso di “LABORATORIO DI FISICA”

Misurazione di una grandezza fisica. Le unità di misura. Gli
strumenti di misura.

Errori di misura. Errori sistematici e casuali. Errori assoluti e
relativi. Propagazione degli errori. Cifre significative ed
arrotondamenti.

Analisi statistica degli errori casuali. La media e la deviazione
standard. La deviazione standard della media.

Istogrammi e distribuzioni. La distribuzione normale e le sue
proprietà.

Interpolazione dei dati con una curva. Il metodo dei minimi
quadrati. Interpolazione lineare e polinomiale.

Covarianza e correlazione.

Lezioni introduttive sugli esperimenti da eseguire.
Programma del corso di “LABORATORIO DI FISICA”
Esercitazioni in laboratorio:
1.
Il calorimetro delle mescolanze: misura del calore specifico dei solidi.
2.
Misura della costante elastica di una molla con metodo statico e dinamico.
3.
Verifica delle leggi di Ohm.
4.
Misure su banco ottico. Verifica sperimentale della legge dei punti
coniugati. Verifica delle leggi di Snell.
Gli esperimenti verranno condotti a gruppi di 4 o 5 studenti ciascuno ed
ogni studente/gruppo dovrà preparare una relazione scritta su ciascun
esperimento.
Testo consigliato: J.R. Taylor, Introduzione all’analisi degli errori,
Zanichelli.
L’unità di lunghezza
La lunghezza unitaria, come è noto, è il metro. La storia che ha portato alla
definizione di questa unità di misura è molto istruttiva e mette bene in luce quali
siano le esigenze a cui debba rispondere la scelta di un campione e i criteri
pratici da seguire in tale scelta.
Nel 1790 la Commissione di scienziati nominata a Parigi dall’Assemblea
Costituente, decise di assumere come unità di lunghezza la quaranta
milionesima parte del meridiano terrestre. Qualche anno più tardi venne
depositato negli archivi francesi un campione di metro costituito da una sbarra di
platino, detto “metro legale” o “metro degli archivi”, che rappresentava
esattamente quello che, in base alle misure eseguite, si riteneva fosse il valore
della quaranta milionesima parte del meridiano terrestre. In seguito, però,
rifacendo più volte la misura, si scoprirono molti “difetti” del campione adottato.
Si notò ad esempio che non tutti i meridiani terrestri avevano la stessa lunghezza
e quindi fu necessario definire uno particolare di essi a cui fare riferimento e la
scelta cadde su quello che passa alle porte di Parigi. In un secondo momento si
notò che anche i cambiamenti di forma della superficie terrestre rendevano
incostante l’unità di misura prescelta smentendo le garanzie di precisione, di
invariabilità e di facile riproducibilità che dovevano rappresentare i requisiti
fondamentali di un buon campione.
L’unità di lunghezza
Nel 1875 una Convenzione internazionale ratificò l’adozione del
metro legale come unità di lunghezza e istituì a Sèvres, un
sobborgo di Parigi, il Bureau International des Poids et Mesures,
che è ancora oggi la massima autorità nel campo della misura delle
grandezze fisiche. La definizione di metro era riferita alla distanza fra le
due tacche incise sulla sbarra campione di platino(90%)-iridio(10%),
conservata a temperatura costante (0°C) nell'Ufficio Internazionale di Pesi
e Misure di Sèvres.
Con la creazione del metro legale in lega platino-iridio la definizione di
metro veniva di fatto svincolata dal riferimento originario alle dimensioni
della Terra, una scelta che si era rivelata fonte di innumerevoli difficoltà e
complicazioni. Una serie di duplicati per quanto possibile identici al metro
campione di Sèvres fu nel frattempo realizzata e distribuita ai principali
Paesi industrializzati del mondo. All’Italia, nel 1889, venne assegnato il
prototipo n. 1, che è attualmente custodito nell’Ufficio Metrico Centrale di
Roma.
L’unità di lunghezza
Ma la storia del campione di lunghezza non termina qui. Negli anni
successivi alla seconda guerra mondiale, si decise di ritornare
all’orientamento già espresso dalla commissione nominata ai
tempi della rivoluzione francese e cioè di definire l’unità di
lunghezza in base ad un fenomeno naturale. A quel tempo fra
l’altro la scoperta e la comprensione del mondo microscopico, rendeva
disponibili, per il miglioramento delle tecniche di misurazione, anche
molti fenomeni legati alla struttura atomica della materia.
Nel 1960 una Commissione internazionale, utilizzando la
radiazione elettromagnetica, cambiava ancora una volta la definizione
di metro. Si era venuti infatti a conoscenza che la luce emessa dai
corpi incandescenti si propagava nello spazio in forma di onde
elettromagnetiche delle quali era possibile misurare la lunghezza
d’onda.
L’unità di lunghezza
Il metro campione conservato a Sèvres fu quindi messo a confronto con la
lunghezza d’onda della radiazione luminosa monocromatica emessa dall’isotopo
86 del kripto, un elemento piuttosto raro (gas nobile con Z=36). Pertanto, il
campione di lunghezza venne definito come la distanza pari
esattamente a 1.650.763,73 lunghezze d’onda della radiazione
elettromagnetica corrispondente alla transizione fra i livelli 2p10 e 5d5
dell’isotopo 86 del Kripto.
I vantaggi di questa nuova definizione di metro furono tanti, ad iniziare dalla
precisione che prevedeva un errore di solo una parte su 107 e dalla facilità con cui
era possibile realizzare in laboratorio quella misura. E’ bene chiarire che la
precisione assoluta in fisica non esiste: ogni misurazione infatti non può essere
considerata completa se non comprende l’indicazione della sua incertezza o del
suo grado di affidabilità. Con la nuova definizione di metro l’incertezza diventava
veramente minima, tuttavia i fisici non erano ancora soddisfatti dei risultati
raggiunti.
Nel 1984 la definizione di metro è stata cambiata per la quarta volta: a quella
data l’unità di misura di lunghezza è stata messa in relazione con la
velocità della luce nel vuoto, di cui era possibile misurare il valore con
grande precisione. Il metro diventava quindi lo spazio che la luce
percorre nel vuoto nell’intervallo di tempo di 1/299.792.458 secondi.
Le unità di tempo e massa
Nel 1967 la tredicesima Conferenza generale sui pesi e sulle misure adottò questa
definizione di secondo:
«la durata di 9 192 631 770 periodi della radiazione corrispondente alla
transizione tra due livelli iperfini, da (F=4, MF=0) a (F=3, MF=0), dello
stato fondamentale dell'atomo di cesio-133»
Il secondo è l'unità di misura definita con maggiore accuratezza, che è attualmente
nell'ordine di 10− 14 - 10− 15.
Il chilogrammo è l'unica tra le unità di misura SI che è definita in relazione ad un
manufatto e non ad una proprietà fisica.
“Il chilogrammo è la massa di un particolare cilindro di altezza e diametro pari
a 0,039 m di una lega di platino-iridio depositato presso l'Ufficio
internazionale dei pesi e delle misure a Sèvres, in Francia”.
Copie ufficiali del prototipo sono rese disponibili come prototipi nazionali, che vengono
confrontati con il prototipo di Parigi all'incirca ogni 10 anni.
Struttura iperfine: in fisica atomica, l'interazione iperfine è la debole interazione
magnetica tra gli elettroni e il nucleo dell'atomo. Infatti, da un punto di vista
classico, l'elettrone in moto intorno al nucleo ha un momento di dipolo magnetico
che interagisce con il momento magnetico del nucleo, dovuto al suo spin. Questa
interazione è causa della separazione dei livelli energetici atomici o molecolari in
sotto-livelli, che formano la cosiddetta struttura iperfine dello spettro atomico o
molecolare.
Grandezze fondamentali e derivate
La scelta delle grandezze fisiche fondamentali ha seguito lo sviluppo stesso
della scienza. Dalla geometria, la scienza più antica, emerse il concetto di
lunghezza, al quale l’astronomia associò quello di tempo (più
esattamente “intervallo di tempo” o “durata”). Con la definizione di
lunghezza e di tempo è stato possibile costruire quella branca della fisica
che si chiama cinematica (dal greco kínema = movimento). Quando in
seguito si decise di indagare sulle cause legate al movimento dei corpi si
presentò l’esigenza dell’impiego di una terza grandezza fisica, la massa.
All’inizio del 1800, lo studio dei fenomeni termodinamici impose
l’introduzione di una quarta grandezza fondamentale, la temperatura.
Successivamente lo studio dei fenomeni elettrici rese necessaria l’adozione
di una quinta grandezza fondamentale, che venne individuata nella
intensità di corrente elettrica, alla quale si aggiunse l’intensità
luminosa, quando prese avvio lo studio dei fenomeni di ottica. Il quadro si
andò infine completando nel 1971 con l’adozione di una settima grandezza
fondamentale che fu riconosciuta nella quantità di materia.
Da queste sette grandezze fondamentali è possibile ricavare tutte le altre,
necessarie per la descrizione dei diversi fenomeni naturali.
Metodi di misura ed errori di misura
Ogni misura quindi è data da un numero accompagnato dall’unità di
misura adeguata: esso esprime il rapporto fra il valore della
grandezza in esame e quello di una grandezza ad essa
omogenea scelta come unità di misura. In generale si assume
come misura m della grandezza M, espressa in unità U, il numero:
m = M/U
Misure dirette ed indirette
Misura di una grandezza fisica
Lo strumento di misura
• Lo strumento di misura è un apparato che mette a confronto la grandezza da
misurare con l'unità di misura; esso è composto da:
– un rivelatore, ovvero un oggetto sensibile alla grandezza da misurare;
– un trasduttore, ovvero un dispositivo che traduce le variazioni della
grandezza caratteristica del rivelatore in quelle di un’altra grandezza più
facilmente accessibile allo sperimentatore;
– un dispositivo di visualizzazione per presentare il risultato.
Esempio:
il termometro a mercurio
Trasduttore:
Tubo capillare a sezione
costante che traduce le
variazioni di volume in
variazioni della
lunghezza della colonna
di liquido
visualizzatore:
la scala graduata
Rivelatore (elemento
sensibile alla
temperatura) :
mercurio
La misura non è mai esatta
Il valore “vero” di una grandezza è una entità che non
è possibile conoscere.
Parametri che definiscono le caratteristiche degli strumenti
Parametri che definiscono le caratteristiche degli strumenti
• Sensibilità o risoluzione: La sensibilità o risoluzione di uno strumento
rappresenta la minima variazione della grandezza da misurare che provoca
uno spostamento “avvertibile” nell’indice dello strumento. La risoluzione
rappresenta quindi il valore dell'ultima cifra significativa ottenibile. Un
medesimo strumento (ad esempio multimetro) ha spesso la possibilità di
scegliere tra diverse scale di sensibilità.
• Precisione: è legata alla riproducibilità del risultato.
• Accuratezza: L'accuratezza esprime invece l'assenza di errori sistematici nella
misura: una misura è tanto più accurata quanto più la media delle misure si
approssima al valore vero della grandezza.
Accuratezza e precisione
In passato, specie nel mondo anglosassone o nell'ambiente elettricoelettronico, il termine accuratezza era sinonimo di precisione. Nella moderna
metrologia i termini indicano concetti differenti, e l'accostamento deve
pertanto essere evitato.
L'accuratezza della misura è il grado di concordanza tra un valore
desunto attraverso una o più misure e il relativo valore vero.
L'errore che deriva dallo scostamento tra il valore misurato e il valore vero è
chiamato errore d'accuratezza (o semplicemente accuratezza).
La precisione è invece legata alla riproducibilità del risultato della
misura di una stessa grandezza.
Precisione di uno strumento di misura è il grado di concordanza fra i
risultati di successive misurazioni della stessa grandezza condotte in
modo da rispettare tutte le condizioni seguenti:
- stesso metodo di misurazione
- stesso strumento di misurazione
- stesso osservatore
- stesso luogo
- stesse condizioni di utilizzazione
- ripetizione entro un breve periodo di tempo.
Per chiarire il concetto, si può fare riferimento all’analogia del
tiro al bersaglio con una serie di frecce: più la serie di frecce
tende a colpire il centro del bersaglio, più questa si definisce
accurata. Nell'immagine a destra, gli esempi A e C
rappresentano due rosate accurate, in quanto tutte e due
tendono "mediamente" verso il centro del bersaglio.
Tuttavia, mentre la rosata "A" si presenta circoscritta intorno
al centro, la rosata "C" è dispersa su una larga superficie. La
dispersione della serie di frecce non incide sull'accuratezza
(cioè sulla "tendenza" delle frecce di andare verso il centro),
ma è definibile in termini di scarsa precisione nel tiro.
La rosata B, pur essendo ripetibile, non si presenta accurata,
in quanto non tende a colpire il centro del bersaglio. Lo
scostamento del tiro, costante e ripetibile, evidenzia un errore
sistematico nel lancio delle frecce.
L'esempio D mostra il caso peggiore, in cui i risultati sono, sia
non accurati, che imprecisi.
L'accuratezza può essere migliorata
calibrazione o taratura dello strumento.
con
una
La precisione non può essere migliorata con una
calibratura, perchè è una qualità intrinseca dello
strumento e di come questo è stato costruito.
Errori di misura: errori casuali e sistematici
Principali cause di errori sistematici
Principali cause di errori sistematici
Esempio di errore
sistematico
dovuto all'utilizzo
di uno strumento
a
temperatura
diversa da quella
nominale.
Principali cause di errori sistematici
Errore di parallasse
NB: l’errore di parallasse può anche
essere annoverato fra quelli casuali se
lo sperimentatore non tiene sempre
l’occhio dalla stessa parte.
La figura mostra la diversa lettura che si ottiene osservando la
scala dello strumento da angolazioni diverse. Gli strumenti di
precisione hanno una porzione della scala riflettente allo scopo
di minimizzare tale effetto.
Principali cause di errori sistematici
Errori assoluti e relativi
Errori assoluti e relativi
Cifre significative ed arrotondamenti
Rispetto alla regola enunciata secondo la quale gli errori vanno arrotondati ad una
cifra significativa, esiste una sola eccezione: se la prima cifra dell'errore x è un
1, allora l'errore x può essere espresso con due cifre significative.
Consideriamo un ipotetico x = 1.4 : approssimare questo ad 1 significherebbe
trascurare un 40% (0.4 su 1) cioè una parte non proprio trascurabile.
In questo caso è quindi meglio tenere due cifre e assegnare all'incertezza il valore 1.4 .
Scarica

8aab.file