µ LEGGI DI DISTRIBUZIONE, ERRORI DI MISURA
PROBABILITA,
1. De¯nizione di probabilitµa
La teoria delle probabilitµ
a µe una parte della Matematica applicata che stabilisce
le leggi con cui vengono descritti una grande varietµ
a di fenomeni determinati da
eventi casuali. In questo capitolo ci limiteremo a stabilire le regole necessarie ad
introdurre i concetti fondamentali della termodinamica statistica.
Il termine probabilitµa viene usato correntemente in maniera piuttosto vaga;
tuttavia il suo signi¯cato puµ
o essere precisato meglio se si a®erma che la probabilitµ
a
che accada un evento µe uguale, minore o maggiore di quella che si presenti un
altro evento. Per esempio, nel lancio di una moneta la probabilitµ
a che si presenti
\testa" o \croce" µe la stessa; nel lancio di un dado, la probabilitµ
a che si presenti una
determinata faccia µe ovviamente inferiore alla precedente; la probabilitµ
a di vincere
un numero al lotto µe maggiore di vincere un ambo e cosµ³ via. Queste esempli¯cazioni
mostrano come la probabilitµ
a che accada un evento, restando ¯sso il numero di casi
possibili, cresce all'aumentare dei casi favorevoli mentre, restando ¯sso il numero
dei casi favorevoli, diminuisce all'aumentare dei casi possibili.
La probabilitµ
a va necessariamente espressa con un numero, pertanto appare
naturale valutarla mediante il rapporto tra il numero di casi favorevoli all'evento ed
il numero di casi possibili. Ne discende la de¯nizione.
La probabilitµ
a che accada un evento µe data dal rapporto tra il numero di casi favorevoli all'evento e il numero di casi possibili, purch¶e tutti i casi si riconoscano
ugualmente possibili (o probabili).
In questa de¯nizione non sfugga al lettore il fatto che per valutare una probabilitµa occorre conoscere a priori quali casi vanno considerati ugualmente probabili.
Molte volte questa valutazione puµo essere fatta, ma con criteri diversi secondo la
natura del problema.
Per esempio, nel lancio di una moneta la valutazione a priori della probabilitµ
a
che si presenti testa o croce µe pari a 1/2, perch¶e uno µe il caso favorevole e due
sono i casi possibili. Analoga valutazione puµ
o essere fatta nel lancio di un dado: la
probabilitµ
a che si presenti una determinata faccia µe 1/6, poich¶e la faccia che ci si
aspetta µe una, mentre i casi possibili sono sei.
Naturalmente nel valutare i casi possibili si presupone che la moneta sia perfetta
e che il dado sia costruito di materiale omogeneo e risponda alle note condizioni di
simmetria di cui esso gode. In tal caso si puµ
o a®ermare che i casi possibili sono
ugualmente probabili. Se tuttavia, lanciando il dado numerose volte, si riscontrasse
che una faccia si presenta con maggiore frequenza delle altre, vanno ricercate quali
altre condizioni ¯siche occorre rispettare per riconoscere il dado adatto, per esempio,
ad un equo gioco d'azzardo. Sull'operazione puµ
o in°uire il modo con cui viene
lanciato o altri fattori perturbativi.
In altri problemi, come in teoria degli errori di misura, in ¯sica e in altre discipline, l'equiprobabilitµ
a viene postulata; i risultati che se ne traggono, sottoposti al
controllo sperimentale, suggeriscono se l'ipotesi di equiprobabilitµ
a sia piµ
u o meno
plausibile.
1.1 Legge empirica del caso
Consideriamo un sistema sul quale vengano fatte osservazioni sperimentali, i cui
risultati non possono essere previsti con certezza o perch¶e impossibile, come nel caso
di un sistema atomico che obbedisce alle leggi della meccanica quantistica, oppure
perch¶e i dati relativi alla descrizione del sistema non sono su±cienti per ottenere una
µ possibile ottenere risposte signi¯cative analizzando
predizione unica del risultato. E
i risultati di un gran numero di osservazioni eseguite sempre nelle stesse condizioni.
Oppure si puµ
o immaginare di disporre di un numero molto grande, insieme statistico,
di N sistemi simili e indipendenti. Tali sistemi sono simili nel senso che ciascuno di
essi si comporta od µe preparato allo stesso modo ed µe sottoposto alle stesse modalitµ
a
per l'osservazione; sono indipendenti nel senso che il risultato fornito da un sistema
non dipende dagli altri.
1
L'insieme si dice indipendente dal tempo se i sistemi che lo costituiscono hanno
proprietµ
a che non variano nel tempo. In tal caso µe equivalente ripetere N volte
l'esperimento su un unico sistema, facendo attenzione a rispettare sempre le stesse
modalitµ
a. Per esempio, i lanci di una moneta o di un dado andranno e®ettuati
sempre nello stesso modo.
Una volta compiute le osservazioni, si otterrµ
a un certo numero di casi in cui si
a che vi sono, fra gli N sistemi dell'insieme, N (e)
veri¯ca l'evento e, oppure si osserverµ
sistemi che manifestano quel determinato evento. De¯niamo frequenza il rapporto
N(e)
:
N
Per un certo evento la frequenza varia in generale col numero di osservazioni. Tuttavia l'esperienza mostra che, per una classe molto estesa di fenomeni, al crescere del
numero delle prove, la frequenza va oscillando e convergendo intorno ad un limite
che chiamiamo probabilitµ
a. De¯niamo dunque probabilitµ
a che si veri¯chi l'evento e
la quantitµ
a:
P (e) =
N (e)
;
N
(N ! 1)
la condizione N ! 1 non implica alcuna operazione matematica di limite; signi¯ca
soltanto che le osservazioni sono state e®ettuate un gran numero di volte o su un
numero molto grande di sistemi; in altri termini la frequenza di un determinato
evento, tende alla probabilitµ
a quando N diventa molto grande. Vale dunque la
seguente legge empirica del caso.
In un insieme di prove ripetute un gran numero di volte, ciascuno degli eventi possibili si manifesta con una frequenza che µe all'incirca uguale alla sua probabilitµ
a.
L'approssimazione cresce ordinariamente col crescere del numero delle prove
Si osservi che l'enuciato contiene locuzioni imprecise, come \all'incirca" e \cresce ordinariamente". L'imprecisione µe inevitabile quando si cerca di stabilire un
ra®ronto tra una de¯nizione astratta, in questo caso la probabilitµ
a, e un risultato
empirico, vale a dire la frequenza.
La legge empirica del caso puµ
o essere illustrata meglio col seguente esempio. Nel
lancio di N monete µe possibile valutare a priori i risultati che si possono realizzare.
Il lancio di una moneta dµ
a luogo a due possibili risultati, il lancio di N monete
a di ottenere una data
conduce a 2 ¢ 2 ¢ ¢ ¢ 2 = 2N risultati; pertanto la probabilitµ
sequenza o con¯gurazione in cui si presenti n volte \testa"ed n0 volte \croce", con
n + n0 = N µ
e P = 1=2N . In tabella sono riportate le possibili sequenze, 16 in tutto,
nel lancio di solo 4 monete; T indica testa, C croce e W il numero di sequenze
ottenute. Si osservi come il numero di sequenze o con¯gurazioni che danno una
percentuale di circa il 50% per ciascuno dei due eventi sia piµ
u numeroso rispetto
agli altri. Si capisce inoltre che all'aumentare del numero di monete in un lancio,
oppure all'aumentare del numero di lanci di una moneta, la frequenza ottenuta
tende al valore della probabilitµ
a, cioµe 1/2. In altri termini i risultati estremi, in
cui si ottiene sempre testa o sempre croce sono molto poco frequenti. Inoltre, la
probabilitµ
a di ottenere una determinata sequenza, come si µe detto prima, µe 1=24 ; la
probabilitµ
a di ottenere, ad esempio, una qualunque sequenza in cui si ha tre volte
testa ed una croce, realizzata in quattro modi diversi, µe 4=24 . Analogamente la
probabilitµ
a di ottenere una qualunque sequenza in cui si ha due volte testa e due
croce, realizzata in sei modi diversi, µe 6=24 . La stessa situazione si presenta se si
prendono in esame N molecole di un gas contenute in una scatola che immaginiamo
divisa idealmente in due metµa, A e B ; in condizioni di equilibrio le molecole sono
distribuite uniformemente in tutta la scatola e possiamo ragionevolmente pensare
che, a meno di piccole °uttuazioni, la stessa cosa si veri¯chi nelle due metµ
a. Ci
si puµ
o comunque chiedere qual'µe la probabilitµ
a di trovare un certo numero delle N
molecole in A ed il rimanente in B . Nel caso di sole quattro molecole le situazioni
possibili sono identiche a quelle indicate nella tabella relativa al lancio di quattro
monete; basta scrivere A al posto di T ed B al posto di C . Si osserva che la
2
probabilitµ
a di realizzare le con¯gurazioni estreme, tutte le molecole in A oppure
tutte in B , in questo caso non µe molto piccola, 1=24 , mentre le con¯gurazioni in cui
a piµ
u alta ed uguale a
due molecole si trovano in A e due in B hanno una probabilitµ
6=24 . Pertanto possiamo ritenere fondato che in un tempo abbastanza lungo si possa
assistere al realizzarsi di tutte le con¯gurazioni; µe perµ
o ovvio che quando il numero N
di molecole µe molto elevato µe estremamente improbabile che tutte le molecole siano
a che si veri¯chi tale evento µe 1=2N .
con¯nate in A oppure in B perch¶e la probabilitµ
Posto il problema in questi termini, possiamo concludere che la situazione in cui le
molecole sono distribuite uniformemente µe la piµ
u probabile, pertanto osserveremo
prevalentemente questa con¯gurazione, mentre non µe da escludere a priori, anche
se con probabilitµ
a estremamente piccola, la con¯gurazione in cui le molecole sono
con¯nate tutte da una parte.
1
T
T
T
T
C
T
T
T
C
C
C
T
C
C
C
C
2
T
T
T
C
T
T
C
C
T
T
C
C
T
C
C
C
3
T
T
C
T
T
C
T
C
T
C
T
C
C
T
C
C
4
T
C
T
T
T
C
C
T
C
T
T
C
C
C
T
C
n
4
3
3
3
3
2
2
2
2
2
2
1
1
1
1
0
n0
0
1
1
1
1
2
2
2
2
2
2
3
3
3
3
4
W
1
4
6
4
1
Quando lo stato del sistema dipende dal tempo, la probabilitµ
a che si presenti un
certo evento e deve essere valutata all'istante t; in altri termini, per determinare tale
probabilitµ
a, che chiamiamo P (e; t), occorre esaminare un numero N molto grande
di sistemi, tutti simili, nell'intervallo di tempo in cui mostrano il loro evolversi. Si
potrebbe pensare di ¯lmare contemporaneamente gli N sistemi oppure di disporre
N rivelatori opportuni, uno per ogni sistema, in modo da registrare sia l'evento che
l'istante in cui si µe veri¯cato. Alla ¯ne, per ogni istante, disporremmo di N fotogrammi o di N risposte dei rivelatori da cui trarre i dati statistici che ci interessano.
Consideriamo, per esempio, una scatola divisa in due parti uguali, in una delle
quali µe posto un gas costituito da N molecole, mentre l'altra µe vuota; le due parti
sono messe in comunicazione mediante una valvola che puµ
o dosare opportunamente
l'e²usso del gas. Una volta aperta la valvola il gas, in un intervallo di tempo
che dipende dalla regolazione della valvola, tenderµ
a a distribuirsi uniformemente
nelle due parti della scatola, cioµe raggiungerµ
a l'equilibrio. Possiamo chiederci, ad
esempio, ponendo l'attenzione su una certa molecola, qual'µe la probabilitµ
a p(t) che
questa si trovi, ad un certo istante, in una parte della scatola oppure la probabilitµ
a
q(t) che si trovi nell'altra parte; similmente possiamo chiederci la probabilitµ
a P (n; t)
che, in un qualsiasi istante, n delle N molecole si trovino in una delle due parti della
scatola; tali probabilitµ
a cambiano nel tempo e le risposte possono essere fornite
con esperienze del tipo descritto. All'equilibrio ovviamente p = q = 1=2; in queste
condizioni le probabilitµ
a non dipendono piµ
u dal tempo ed il problema va a®rontato
semplicemente, come nel lancio delle monete; allora lo studio statistico ci puµ
o fornire
informazioni sulle °uttuazioni dall'equilibrio, sulla probabilitµ
a che una molecola
abbia una certa velocitµ
a o una energia cinetica comprese in un certo intervallo e
cosµ³ via. Come conseguenza si deduce una semplice de¯nizione di equilibrio:
3
Un sistema macroscopico isolato µe in equilibrio quando l'insieme statistico di
tali sistemi µe indipendente dal tempo.
2. Relazioni elementari tra probabilitµa
Supponiamo che le esperienze e®ettuate su un certo insieme statistico conducano a n eventi mutuamente escludentesi. Poich¶e gli eventi si escludono fra loro ed
esauriscono tutte le possibilitµ
a possiamo scrivere
N (e1 ) + N (e2 ) + ¢ ¢ ¢ + N (en ) = N:
Dividendo per N e supponendo che N sia molto grande, in base alla de¯nizione di
probabilitµ
a, si ha
P (e1 ) + P (e2 ) + ¢ ¢ ¢ + P (en ) = 1;
)
n
X
P (ei ) = 1;
(1)
i=1
che stabilisce la condizione di normalizzazione per le probabilitµ
a.
La somma di tutte le probabilitµ
a µe uguale ad uno.
Supponiamo ora che il sistema presenti r possibili eventi di un certo tipo ed s
possibili eventi di un altro tipo tra loro indipendenti. Vogliamo valutare la probabilitµa P (ei ; ej ) che, tra i possibili eventi, si veri¯chi l'evento ei oppure l'evento ej ,
i = 1; 2 : : : r; j = 1; 2 : : : s. Vi sono nell'insieme N(ei ) + N (ej ) sistemi in cui si veri¯ca
l'evento i oppure l'evento j , allora la frequenza con cui si presenta indi®erentemente
uno dei due eventi µe
N (ei ) + N (ej )
;
N
che per N molto grande tende alla probabilitµ
a cercata,
P (ei ; ej ) = P (ei ) + P (ej ):
(2)
Questa relazione costituisce la legge della probabilitµ
a totale.
La probabilitµ
a che due o piµ
u eventi indipendenti si veri¯chino indi®erentemente µe
uguale alla somma delle probabilitµ
a dei singoli eventi.
Per esempio, nel lancio di due dadi o in due lanci successivi di un dado la
probabilitµ
a che si presenti indi®erentemente la faccia marcata con 1 oppure la faccia marcata con 3, o qualsiasi altra coppia di facce assegnata, µe semplicemente
1/6+1/6=1/3. La probabilitµ
a di estrarre da un'urna, contenente un certo numero
di gettoni uguali ma di vari colori, due gettoni di due colori determinati µe semplicemente la somma delle probabilitµ
a che vengano estratti i gettoni dei colori assegnati.
Valutiamo ora, in un sistema che presenta r possibili eventi di un certo tipo
a P (ei;j ) che
ed s possibili eventi di un altro tipo tra loro indipendenti, la probabilitµ
si veri¯chi l'evento ei congiuntamente all'evento ej , (i = 1; 2 : : : r; j = 1; 2 : : : s). Tale
probabilitµ
a, per N molto grande, µe data da
P (ei;j ) =
N (ei;j )
:
N
Indichiamo con P (ei ) la probabilitµ
a che si veri¯chi l'evento ei indipendentemente dal
a P (ei ) = N(ei )=N . Analogamente la probabilitµ
a che si veri¯chi
veri¯carsi di ej ; sarµ
ej indipendentemente da ei µ
e P (ej ) = N (ej )=N .
Consideriamo nell'insieme N , quei sistemi N(ei ) che presentano l'evento ei . Ina una certa probabilitµ
a P (ej ) che
dipendentemente dal particolare valore di ei , esisterµ
tali sistemi presentino anche l'evento ej . Cosµ³ il numero di sistemi che presentano
congiuntamente i due eventi, N(ei;j ), µe dato da
N (ei;j ) = N (ei )P (ej ):
4
Ne segue che, per N molto grande, la probabilitµ
a che si veri¯chino congiuntamente
i due eventi µe data da
P (ei;j ) =
N (ei;j )
N (ei )
=
P (ej ) = P (ei )P (ej ):
N
N
(3)
Questa relazione esprime il teorema della probabilitµ
a composta.
La probabilitµ
a che si veri¯chino congiuntamente eventi statisticamente indipendenti
µe uguale al prodotto delle probabilitµ
a dei singoli eventi.
Il ragionamento fatto per due eventi si puµ
o estendere al caso di piµ
u eventi.
Esempi
1) Determinare la probabilitµ
a che nel lancio di due dadi oppure in due lanci successivi di un
dado si ottengano due facce predeterminate.
Per il teorema della probabilitµ
a composta µe P (ei;j ) = 1=6 ¢ 1=6 = 1=36.
2) Determinare la probabilitµ
a, nel lancio di due dadi, di ottenere una somma di punti inferiore
a 4.
Applicando i teoremi precedenti, tale probabilitµ
a µe la somma delle probabilitµ
a di ottenere
2 o 3; ciascuna di queste probabilitµ
a vale rispettivamente 1/36 (perch¶e il 2 si ottiene con 1
su un dado ed 1 sull'altro dado) e 2/36 (perch¶e il 3 si ottiene con 1 o 2 su un dado oppure
con 2 e 1 sull'altro dado). La probabilitµ
a cercata µe dunque: (1+2)/36=1/12.
3) Calcolare la probabilitµ
a che lanciando due monete o e®ettuando due lanci di una moneta
si ottenga almeno una volta testa.
La probabilitµ
a di ottenere due volte croce µe 1=2 ¢ 1=2 = 1=4, la probabilitµ
a che ciµ
o non
si veri¯chi µe semplicemente 1 ¡ 1=4 = 3=4.
3. Problema del percorso casuale (random-walk), distribuzione binomiale
Il problema del percorso casuale usualmente va studiato considerando gli spostamenti casuali di una particella, in una dimensione. Si supponga che la particella
compia spostamenti di uguale lunghezza `, il cui verso sia completamente indipena che
dente dal verso dello spostamento precedente. Si indichi con p la probabilitµ
a che sia
lospostamento sia diretto in un verso (destra) e con q = 1 ¡ p la probabilitµ
diretto in verso opposto (sinistra). Tali probabilitµ
a dipendono da condizioni esterne;
nel caso piµ
u semplice si puµ
o avere p = q . Fissando un asse x nella direzione degli
spostamenti, dopo un numero N di spostamenti (a destra e a sinistra), la particella
assume una certa posizione x = m`, con m intero e tale che ¡N · m · N . Il problema consiste nel determinare la probabilitµ
a PN (m) di trovare la particella nella
posizione x = m`. La formulazione statistica del problema implica lo studio di un
numero molto grande di particelle che partono dallo stesso punto; tuttavia µe lecito,
come si µe visto prima, ripetere un gran numero di volte l'esperimento con la stessa
particella.
Indichiamo con n1 il numero di spostamenti a destra e con n2 il numero di
spostamenti a sinistra; ovviamente N = n1 + n2 . Lo spostamento netto a destra
a m = n1 ¡ n2 . Da cui si ha
dell'origine, misurato in unitµ
a di lunghezza `, sarµ
m = n1 ¡ n2 = n1 ¡ (N ¡ n1 ) = 2n1 ¡ N:
Si osserva che se N µe pari i possibili valori di m sono pari, se N µe dispari anche m µe
dispari.
La probabilitµ
a di ottenere una determinata sequenza di n1 spostamenti verso
destra ed n2 spostamenti verso sinistra, µe data da
P = pp¢¢¢p
| {z }
q q ¢ ¢ ¢ q = p n1 q n2 :
| {z }
(4)
n1 termini n2 termini
Poich¶e non interessa il particolare ordine con cui i due eventi si presentano, la
precedente va moltiplicata per il numero W di sequenze o con¯gurazioni possibili
equivalenti.
5
Per determinare W , osserviamo che il problema µe simile a quello del lancio di
a
quattro monete, descritto al paragrafo 1.1. In quel caso (p = q = 1=2) la probabilitµ
che si veri¯chi una determinata sequenza µe data da
P = p n1 q n2 =
µ ¶N µ ¶4
1
1
1
:
=
=
2
2
16
Nel nostro caso il problema µe diverso; ci chiediamo infatti qual'µe la probabilitµ
a che
in N spostamenti n1 avvengano a destra ed n2 a sinistra, senza un predeterminato
ordine. Nella tabella di paragrafo 1.1, si osserva che si ottiene una sola sequenza
in cui si ottiene testa (T ), quattro sequenze in cui si ottiene tre volte testa ed una
volta croce (C ), sei sequenze in cui si ha due volte testa e due volte croce, quattro
sequenze con una volta testa e tre volte croce ed, in¯ne, una sequenza in cui si ottiene
quattro volte croce. La tabella che si puµ
o costruire per gli spostamenti µe la stessa
sostituendo, per esempio, T con D (spostamenti a destra) e C con S (spostamenti
µ chiaro dunque che se si ricerca la probabilitµ
a sinistra). E
a con cui tre spostamenti
avvengono a destra ed uno a destra, oppure due a destra e due a sinistra, senza un
particolare ordine, occorre moltiplicare la probabilitµa che si veri¯chi la particolare
sequenza rispettivamente per 4 e per 6. Tale probabilitµ
a nei due casi prospettati
risulta 0,25 e 0,37.
Pertanto, detti n gli spostamenti a destra ed N ¡ n quelli a sinistra, la (4) va
moltiplicata per il fattore:
W (n) =
N!
N!
=
;
n1 !n2 !
n!(N ¡ n)!
(5)
che rappresenta il numero di combinazioni di N oggetti (spostamenti) presi n alla
volta o il numero di sequenze o con¯gurazioni possibili equivalenti.
La probabilitµ
a di ottenere in un totale di N spostamenti, n spostamenti a destra
ed N ¡ n spostamenti a sinistra in qualsiasi ordine, µe data da
PN (n) =
N!
pn q N ¡n = W (n)pn q N ¡n :
n!(N ¡ n)!
(6)
Il fattore W (n) µe simmetrico qualora n venga scambiato con N ¡ n, in particolare
W (0) = W (N ) = 1; inoltre, se N µ
e su±cientemente elevato, presenta un massimo per
n = N=2, come si puµ
o veri¯care usando l'approssimazione di Stirling che descriveremo al paragrafo 5.
La distribuzione di probabilitµ
a espressa dalla (6) µe chiamata distribuzione binomiale perch¶e rappresenta il termine generico dello sviluppo binomiale, che come
µe noto, µe dato dalla formula:
(p + q)N =
N
X
N!
pn q N¡n :
n!(N
¡
N)!
n=0
6
In ¯gura 1 µe mostrato l'andamento della distribuzione binomiale per N = 20
e p = q = 1=2. Si noti che la distribuzione µe simmetrica rispetto al massimo della
probabilitµ
a, che si veri¯ca per n = 10. Se p µe diverso da q la distribuzione risulta
asimmetrica come mostrato in ¯gura 2, dove p = 0; 6 e q = 0; 4. In tal caso il massimo
di probabilitµ
a si veri¯ca per n = 12.
P (n )
0,20
h n i = 10
0,16
¾ = 2,23
0,12
Fig. 1
0,08
0,04
2
4
6
8
10
12
14
16
18
n
20
P (n )
0,20
h n i = 12
0,16
¾ = 2,19
0,12
Fig. 2
0,08
0,04
2
4
6
8
10
12
14
16
18
n
20
Esempi
4) Consideriamo N = 4 spostamenti che possono avvenire verso destra (D) oppure verso
sinistra (S); vogliamo determinare il numero di possibili sequenze equivalenti nei seguenti
casi: quattro spostamenti a destra; tre a destra, uno a sinistra; due a destra, due a sinistra;
uno a destra e tre a sinistra; quattro a sinistra. La situazione µe analoga a quella illustrata
in tabella 1 a proposito del lancio di 4 monete. Si deve solo sostituire la lettera T con D e
la lettera C con S. Si osserva che c'µe una sola sequenza in cui i 4 spostamenti sono verso
destra; a questa corrisponde la probabilitµ
a P (4) = p ¢ p ¢ p ¢ p = p4 . Le sequenze equivalenti
in cui 3 spostamenti avvengono verso destra ed 1 verso sinistra, e viceversa, sono 4. La
o
probabilitµ
a di una tale sequenza µe p3 q, ma esistono 4 possibili sequenze, 4!=(3!1!) = 4, perciµ
la probabilitµ
a di realizzare tutte le sequenze equivalenti µe P (3; 1) = 4p3 q, e cosµ³ via.
5) Ricaviamo, nel problema del percorso casuale, la probabilitµ
a PN (m) che la particella,
dopo un numero N di spostamenti, si trovi nella posizione x = m`. Si ha:
m = n1 ¡ n2 = n ¡ (N ¡ n) = 2n ¡ N
1
1
n = (N + m);
N ¡ n = (N ¡ m);
2
2
pertanto si ottiene:
PN (m) =
N!
p(N +m)=2 (1 ¡ p)(N ¡m)=2 :
[(N + m)=2]![(N ¡ m)=2]!
7
Nel caso particolare p = q = 1=2 la precedente diventa
PN (m) =
N!
[(N + m)=2]![(N ¡ m)=2]!
µ ¶N
1
:
2
6) Consideriamo tre lanci di un dado; si vuole determinare la probabilitµ
a che una faccia
assegnata si presenti nei tre lanci una volta, due volte, tre volte o nessuna volta. La probabilitµ
a che esca una faccia µe 1/6, mentre la probabilitµ
a che non esca µe q = 1 ¡ p = 5=6. La
probabilitµ
a che in 3 lanci la faccia assegnata si presenti una volta µe
µ ¶2
1 5
25
3!
75
=
P (3; 1) =
pq 3¡1 = 3
=
;
1!(3 ¡ 1)!
6 6
72
216
la probabilitµ
a che si presenti 2 volte
3!
p2 q 3¡2 = 3
2!(3 ¡ 2)!
P (3; 2) =
µ ¶2
1
5
5
15
=
=
;
6
6
72
216
la probabilitµ
a che si presenti 3 volte
3!
p3 q 0 =
3!(3 ¡ 3)!
P (3; 3) =
µ ¶3
1
1
=
;
6
256
la probabilitµ
a che non si presenti mai
3!
p0 q 3 =
P (3; 0) =
0!(3 ¡ 0)!
µ ¶3
5
125
=
:
6
216
La somma di tutte le probabilitµ
a µe
3
X
P (3; n) =
n=0
75 + 15 + 1 + 125
=1:
216
4. Variabili aleatorie, valore medio, scarto, dispersione
o assumere certi valori:
Si de¯nisce variabile aleatoria una quantitµ
a x che puµ
x1 ; x2 ; ¢ ¢ ¢ xM ; in corrispondenza al veri¯carsi di certi eventi e1 ; e2 ; ¢ ¢ ¢ eM , nell'insieme
statistico di N sistemi simili.
4.1 Valore medio o di aspettazione
Quando gli eventi si presentano rispettivamente in N1 ; N2 ; ¢ ¢ ¢ NM sistemi dell'insieme, possiamo raggruppare i corrispondenti valori della variabile x nel modo
seguente:
N (x1 )x1 ;
N (x2 )x2 ; ¢ ¢ ¢ N(xM )xM ;
allora si de¯nisce valore medio di x o valore di aspettazione la quantitµ
a
hxi =
N (x1 )x1 + N(x2 )x2 + ¢ ¢ ¢ + N (xM )xM
:
N (x1 ) + N (x2 ) + ¢ ¢ ¢ + N (xM )
Dividendo numeratore e denominatore per N , con N molto grande, si ottiene
hxi =
P (x1 )x1 + P (x2 )x2 + ¢ ¢ ¢ + P (xM )xM
P (x1 ) + P (x2 ) + ¢ ¢ ¢ + P (xM )
M
X
=
P (xi )xi
i=1
M
X
=
P (xi )
M
X
i=1
i=1
8
(7)
P (xi )xi ;
poich¶e per la condizione di normalizzazione della probabilitµ
a si deve avere
M
X
P (xi ) = 1:
i=1
In generale de¯niamo valore medio di una funzione f (x) della variabile aleatoria x
la quantitµ
a:
hf (x)i =
M
X
P (xi )f (xi ):
(8)
i=1
Valore medio della somma
Consideriamo due funzioni f (x) e g(x) della variabile aleatoria x; il valore medio
della loro somma µe
hf (x) + g(x)i =
=
M
X
P (xi )[f (xi ) + g(xi )]
M
X
P (xi )f (xi ) +
i=1
i=1
M
X
(9)
P (xi )g(xi )
i=1
= hf (xi ) + g(xi )i :
Il valore medio della somma µe uguale alla somma dei valori medi, indipendentemente
dall'ordine con cui vengono eseguite le operazioni.
Valore medio del prodotto
Siano f (x) e g(y) due funzioni delle variabili aleatorie x ed y , tra loro indipendenti, che possono assumere rispettivamente i valori
x1 ; x2 ¢ ¢ ¢ xr ;
y1 ; y2 ¢ ¢ ¢ ys :
La probabilitµ
a che le variabili assumano congiuntamente il valore i, (i = 1; 2 : : : r),
ed il valore j , (j = 1; 2 : : : s), µe data dalla probabilitµa composta
Pi;j = Pi Pj :
De¯niamo valore medio del prodotto delle due funzioni la quantitµ
a
hf (x)g(y)i =
r X
s
X
Pi;j f (xi )g(yj ) ;
i=1 j=1
che si puµ
o scrivere
hf (x)g(y)i =
" r
X
i=1
#2
Pi f (xi ) 4
s
X
j=1
3
Pj g(yj )5 :
Poich¶e i termini in parentesi quadre sono rispettivamente i valori medi di f (x) e
g(y), concludiamo che
hf (x)g(y)i = hf (x)ihg(y)i :
(10)
Il valore medio del prodotto di due funzioni µe uguale al prodotto dei valori medi delle
singole funzioni.
9
4.2 Scarto
a:
Si de¯nisce scarto di una variabile aleatoria x dal suo valore medio, la quantitµ
¢x = x ¡ hxi ;
(11)
si deduce inoltre che il valore medio di ¢x µe
h¢xi = h(x ¡ hxi)i = hxi ¡ hxi = 0:
4.3 Dispersione
a
Si de¯nisce dispersione o varianza della variabile aleatoria x la quantitµ
h(¢x)2 i =
M
X
i=1
P (xi )(xi ¡ hxi)2 ¸ 0 ;
(12)
la sua radice positiva viene chiamata deviazione standard ¾.
Esempi
1) Valore medio e dispersione della distribuzione binomiale
Anzitutto osserviamo che µe veri¯cata la condizione di normalizzazione delle probabilitµ
a;
infatti si ha:
N
X
N!
pn q N¡n = (p + q)N = 1N :
n!(N
¡
n)!
n=0
Il valore medio di n µe
hni =
N
X
P (n) n ;
n=0
per calcolare questa somma osserviamo che p e q si possono considerare come parametri
arbitrari, tali perµ
o che p + q = 1, e che si puµ
o scrivere
npn = p
@ n
(p ) :
@p
Si ha:
hni =
N
X
N!
pn q N ¡n n
n!(N
¡
n)!
n=0
·
¸
@
N!
p (pn ) q N ¡n
n!(N ¡ n)! @p
n=0
#
"N
@ X
N!
n N ¡n
=p
p q
@p n=0 n!(N ¡ n)!
=
N
X
=p
(13)
@
(p + q)N = Np(p + q)N ¡1 = Np:
@p
Riferendoci al problema degli spostamenti casuali, il valore medio degli spostamenti verso
destra µe Np ed il valore medio degli spostamenti verso sinistra N q. Poich¶e lo spostamento
m dall'origine µe m = n ¡ (N ¡ n), si trova che lo spostamento medio, hmi µe
hmi = hn ¡ (N ¡ n)i = hni ¡ hN ¡ ni
= N p ¡ N q = N (p ¡ q) ;
se p = q, hmi = 0; c'µe completa simmetria nei due versi.
10
Per valutare la dispersione di n stabiliamo prima una relazione utile per una generica
variabile aleatoria x:
h(¢x)2 i = h(x ¡ hxi)2 i = h(x2 ¡ 2xhxi + hxi2 )i
= hx2 i ¡ 2hxihxi + hxi2 = hx2 i ¡ hxi2 ;
(14)
cioµe la dispersione di una variabile aleatoria µe uguale alla di®erenza tra il valore medio del
quadrato della variabile e il quadrato del suo valore medio.
Nel caso della distribuzione binomiale,
h(¢n)2 i = hn2 i ¡ hni2 :
Avendo giµ
a calcolato hni, occorre calcolare hn2 i; si ha
hn2 i =
Si puµ
o scrivere:
N
X
N!
pn q N¡n n2 :
n!(N
¡
n)!
n=0
·
¸
@ n
@
p (p ) ;
n p =p
@p @p
2 n
quindi
hn2 i =
·
¸
@
N!
@
p (pn ) q N ¡n :
p
n!(N ¡ n)! @p @p
n=0
N
X
Scambiando le operazioni di derivazione e di somma e tenendo presente che (p + q) = 1, il
secondo membro della precedente diventa
Ã
!
N
@ X
N!
n N ¡n
p
p q
@p n=0 n!(N ¡ n)!
·
¸
¤
@
@ £
@
N
p (p + q)
pN(p + q)N ¡1
=p
=p
@p @p
@p
¤
£
= p N (p + q)N ¡1 + pN (N ¡ 1)(p + q)N ¡2 :
@
p
@p
In de¯nitiva
hn2 i = p[N + pN (N ¡ 1)] = N p(1 + N p ¡ p)
= (N p)2 + N pq = hni2 + Npq:
Per la (14), la dispersione risulta
h(¢n)2 i = N pq:
(15)
Come s'µe detto al paragrafo 4.3, la dispersione viene indicata con ¾ 2 ; la sua radice positiva,
che abbiamo chiamato deviazione standard oppure deviazione quadratica media, dµ
a una
indicazione dell'intervallo entro cui i valori di n sono distribuiti. Una buona indicazione µe
l'intervallo relativo di tale distribuzione, de¯nito da
¾
=
hni
p
r
N pq
q
1
= p
:
Np
p
N
In particolare se p = q:
¾
1
=p :
hni
N
C'µe da notare che quando N aumenta, hni aumenta anch'esso come N , mentre ¾ aumenta
come N 1=2 . Nelle ¯gure 1 e 2, dove sono mostrate le distribuzioni per N = 20 spostamenti,
sono indicati il valore medio e la deviazione standard.
11
2) Si calcoli, nel caso degli spostamenti casuali di una particella, la dispersione di m, ossia
la dispersione dello spostamento netto verso destra. Poich¶e, per la (4),
m = 2n ¡ N;
per la (11) si ottiene:
¢m = m ¡ hmi = (2n ¡ N) ¡ (2hni ¡ N ) = 2(n ¡ hni) = 2¢n;
ossia:
(¢m)2 = 4(¢n)2 :
Ricordando la (15), si ha
h(¢m)2 i = 4h(¢n)2 i = 4N pq:
5. Distribuzione di probabilitµa per N molto grande; distribuzione di Gauss
Si µe visto che la distribuzione binomiale, equazione (6), presenta un massimo
per un certo valore di n prossimo ad N=2, che indichiamo con n~ , e decresce a sinistra
e a destra di questo valore. Per valori intorno al massimo si veri¯ca che:
jP (n + 1) ¡ P (n)j ¿ P (n);
perciµ
o, per N molto grande, n puµ
o essere considerata con buona approssimazione
una variabile continua.
Il valore di n~ corrispondente al massimo µe determinato dalla condizione
dP
= 0;
dn
oppure dalla equivalente
d ln P
= 0:
dn
Infatti P (n) contiene fattoriali di numeri molto grandi, mentre ln P (n) µe una funzione
che varia piµ
u lentamente. Per studiare il comportamento di P (n) vicino al massimo,
poniamo
n=n
~ + ²;
dove ² rappresenta l'intorno, su±cientemente piccolo, al quale piµ
u sopra si accennava. Sviluppando ln P (n) in serie di Taylor in tale intorno, si ottiene:
1
1
ln P (n) = ln P (~
n ) + B1 ² + B2 ² 2 + B3 ² 3 + ¢ ¢ ¢ ;
2
6
dove
Bk =
µ
dk ln P
dnk
¶
:
n
~
Poich¶e lo sviluppo µe fatto intorno al massimo, dev'essere B1 = 0 e B2 < 0, perciµ
o
B2 = ¡jB2 j. Eliminando i logaritmi si ha
·
¸
1
1
P (n) = P (~
n) exp ¡ jB2 j²2 + B3 ²3 + ¢ ¢ ¢
2
6
e se ² µe su±cientemente piccolo i termini di ordine superiore al secondo possono
essere trascurati; pertanto la probabilitµ
a cercata assume la forma
P (n) = P (~
n)e¡jB2 j²
12
2
=2
:
(16)
Ci proponiamo ora di determinare i valori di n~ , B2 e P (~n).
Prendendo il logaritmo della (6) si ottiene:
ln P (n) = ln N ! ¡ ln n! ¡ ln(N ¡ n)! + n ln p + (N ¡ n) ln q;
la quale contiene fattoriali di numeri molto elevati, quindi conviene usare l'approssimazione di Stirling riportata di seguito.
Il ln x! si puµ
o scrivere
ln x! = ln 2 + ln 3 + ¢ ¢ ¢ + ln x:
ln
Questa espressione rappresenta l'area della
curva a gradini mostrata in ¯gura 3 poich¶e ogni
rettangolo (ombreggiato) ha base unitaria ed altezza ln x. Quando x µe grande i gradini approssimano abbastanza bene la curva continua:
Z x
ln x! ¼
ln x dx:
x
1
Integrando per parti, si ha
0
ln x! ¼ x ln x ¡ x + 1 ;
1
2
3
4
5
6
7
8
9
10
x
Fig. 3
e, trascurando 1 rispetto a x,
ln x! ¼ x ln x ¡ x :
Tenuto conto di questa approssimazione il ln P (n) diventa
ln P (n) ¼ N ln N ¡ N ¡ (n ln n ¡ n)¡
¡ [(N ¡ n) ln(N ¡ n) ¡ (N ¡ n)] + n ln p + (N ¡ n) ln q
= N ln N ¡ n ln n ¡ (N ¡ n) ln(N ¡ n) + n ln p + (N ¡ n) ln q:
Derivando rispetto ad n:
d[ln P (n)]
= ¡ ln n + ln(N ¡ n) + ln p ¡ ln q:
dn
Uguagliando a zero questa derivata si trova il valore di n = n~ dove ln P (n) µe massimo:
¸
(N ¡ n) p
= 0;
ln
n
q
·
)
n
~ = N p;
che coincide col valore medio di n. La derivata seconda
d2 [ln P (n)]
1
1
;
=¡ ¡
dn2
n N ¡n
calcolata per n = n~ = Np, dµ
a il valore di B2 :
1
B2 = ¡
N
µ
1 1
+
p q
¶
=¡
1
1
=¡ 2:
N pq
¾
(17)
Il valore di P (~n) puµ
o essere determinato per mezzo della condizione di normalizzazione delle probabilitµ
a. Infatti, nell'ipotesi di N molto grande, possiamo scrivere:
N
X
n=0
P (n) ¼
Z
+1
P (n)dn = 1;
¡1
13
e, per la (16),
P (~
n)
Z
+1
2
e¡jB2 j²
=2
d² = 1:
(18)
¡1
L'integrale che compare nella precedente appartiene alla classe di integrali notevoli
del tipo
Z 1
2
xn e¡®x dx;
In =
0
(n ¸ 0)
i cui valori per n = 0; 1; 2; 3; 4; 5 risultano:
r
I0 =
1
2
I3 =
1
;
2®2
¼
;
®
1
;
2®
r
¼
3
I4 =
;
8®2 ®
I1 =
Pertanto la (18) diventa:
s
P (~
n)
r
1
¼
;
4® ®
1
I5 = 3 :
®
I2 =
2¼
= 1;
jB2 j
da cui
P (~
n) =
r
jB2 j
:
2¼
Pertanto la (16) diventa:
P (n) =
r
jB2 j jB2 j(n¡~n)2 =2
;
e
2¼
che, per la (17), si scrive:
P (n) =
2
2
1
p e¡(n¡~n) =2¾ :
¾ 2¼
(19)
Questa equazione rappresenta la distribuzione di Gauss.
La distribuzione di Gauss µe molto importante perch¶e in natura moltissimi fenomeni
casuali, per N molto grande cioµe nel limite
P (x )
dei grandi numeri, statisticamente sono rappresentati da questa distribuzione. In queste
Fig. 4
condizioni non ha signi¯cato chiedersi qual'µe
la probabilitµ
a che la variabile aleatoria, che
indichiamo genericamente con x, assuma un
certo valore, ma piuttosto qual'µe la probabilitµ
a che essa assuma valori compresi nell'intervallo dx, ossia tra x ed x + dx. Introducendo la grandezza densitµ
a di probabilitµ
a che
x
¡
¡ + ¾ dx
0
x {¾ ¡
x x
indichiamo con P(x), si ha:
P(x)dx =
2
2
1
p e¡(x¡~x) =2¾ dx ;
¾ 2¼
(20)
dove con x~ si µe indicato il valore massimo della variabile aleatoria. In ¯gura 4 µe
mostrato l'andamento della densitµ
a di probabilitµa. Si osserva che la curva µe sempre
positiva, µe simmetrica rispetto a x~ e decresce tendendo a zero per x a destra e a
sinistra di tale valore. La probabilitµ
a che x assuma valori compresi nell'intervallo
14
dx µ
e data dal valore numerico dell'areola racchiusa dal tratto di curva compreso tra
a che x sia compresa tra x1 e x2 µe
le ascisse x e x + dx. Naturalmente la probabilitµ
Z
x2
P(x)dx:
x1
La probabilitµ
a che x sia compresa in tutto l'intervallo di de¯nizione, cioµe la certezza,
µe
Z
Z
+1
¡1
P(x)dx =
+1
1
p
¾ 2¼
e¡(x¡~x)
2
=2¾ 2
dx = 1;
(21)
¡1
ovvero la condizione di normalizzazione delle probabilitµ
a.
Da questa relazione si ricava
Z
+1
e¡(x¡~x)
2
=2¾2
p
dx = ¾ 2¼:
¡1
Siamo in grado di calcolare il valore medio di x, ossia:
hxi =
Ponendo y = x ¡ x~, si ha
hxi =
1
p
¾ 2¼
·Z
1
p
¾ 2¼
Z
+1
x e¡(x¡~x)
2
=2¾ 2
dx:
¡1
+1
y e¡y
2
=2¾ 2
dy + x
~
¡1
Z
+1
e¡y
2
=2¾ 2
¸
dy :
¡1
Il primo integrale µe una funzione dispari di
p y , quindi si annulla per simmetria; il
secondo integrale, per la (21), µe uguale a ¾ 2¼, pertanto si ha
hxi = x
~:
(22)
Il valore medio di x coincide col suo massimo.
La dispersione µe data da
1
h(x ¡ x
~) i = p
¾ 2¼
2
1
= p
¾ 2¼
Z
+1
¡1
Z +1
(x ¡ x
~)2 e¡(x¡~x)
2 ¡y2 =2¾ 2
y e
2
=2¾2
dx
(23)
2
dy = ¾ :
¡1
6. Misure
L'operazione piµ
u importante dell'esperienza µe la misura poich¶e da questa si trae
il valore della grandezza ¯sica in esame, espresso con un numero, seguito sempre dalle
sue unitµ
a. Nella misura, oltre a un buon progetto, si richiede anche competenza e
abilitµ
a dello sperimentatore, il quale non deve introdurre perturbazioni apprezzabili
sul sistema che sta osservando. Le misure possono essere dirette o relative oppure
indirette o assolute. Nel primo caso la grandezza viene confrontata con campioni
multipli o sottomultipli dell'unitµ
a fondamentale, come avviene nella misura di masse
eseguite con bilance analitiche, oppure nella misura di lunghezze mediante calibri di
precisione. Questo procedimento viene usato in casi particolari ed µe sempre molto
lungo e complesso.
Nella pratica di laboratorio, di solito, vengono usati strumenti tarati con i quali
il valore della grandezza viene letto direttamente, osservando la posizione che assume un indice mobile su una scala graduata in corrispondenza alla variazione della
grandezza; lettura analogica. Esempi di tali strumenti sono: comparatori per la
misura di lunghezze, cronometri, manometri, amperometri e moltissimi altri. Gli
15
indici possono essere realizzati nei piµ
u svariati modi, dipendenti dalla sensibilitµ
a
dello strumento; indici ad ago, indici muniti di nonio, indici a leva ottica e cosµ³ via.
Recentemente, in molte apparecchiature, l'indice µe stato sostituito da un indicatore
digitale che elimina alcuni inconvenienti della lettura analogica.
Se la misura di una certa grandezza ¯sica viene ripetuta diverse volte nelle stesse
condizioni, in genere, si ottengono valori diversi, anche se la di®erenza tra i valori
ottenuti µe sempre molto piccola; si dice che nelle misure sono stati commessi errori.
Gli errori hanno origini molto diverse e vengono classi¯cati in sistematici e casuali.
Gli errori sistematici possono dipendere da imperfetta calibrazione dello strumento, da condizioni sperimentali non adatte e dallo sperimentatore stesso; essi
sono sempre eliminabili.
Per quanto riguarda gli errori casuali, in genere, µe impossibile stabilirne la
causa poich¶e sono presenti in ogni esperimento, purch¶e eseguito con apparecchiature
adeguate. Tentativamente si puµ
o dire che sono dovuti ad errori di apprezzamento
ed a °uttuazioni incontrollabili nelle condizioni di misura. Si capisce dunque che la
u probabile.
misura non puµ
o dare il valore vero della grandezza, bensµ³ il valore piµ
La teoria della misura esula dai nostri limiti, tuttavia per avere una idea del
metodo sperimentale, µe indispensabile darne alcuni cenni.
6.1 Sensibilitµa di lettura
Se la misura µe eseguita con apparecchi tarati che, come s'µe detto, µe il metodo piµ
u frequente, de¯niamo sensibilitµ
a di lettura ±x di un apparecchio il minimo
spostamento dell'indice, causato dalla variazione della grandezza x, che µe possibile
apprezzare sulla scala graduata. Cooperano alla sensibilitµ
a di lettura la ¯nezza dei
tratti incisi sulla scala e il tipo di indice. Quando un buon apparecchio possiede
questi requisiti ed µe ben usato, ±x µe senz'altro la minima frazione dell'intervallo di
graduazione apprezzabile sulla scala. Se, per esempio, nella misura di una lunghezza
viene usato un calibro che puµ
o apprezzare 1/20 di mm, si dice che la sensibilitµ
a di
lettura µe di 1/20 di mm; una variazione di lunghezza viene apprezzata solo se µe
uguale o maggiore di tale valore.
A volte la sensibilitµ
a di lettura viene espressa come l'inverso di ±x, in modo
che il numero che ne risulta sia tanto piµ
u grande quanto piµ
u piccolo µe ±x. Negli
apparecchi con indicatore digitale, si assume come sensibilitµ
a di lettura il valore
corrispondente all'ultimo \digit" stabile durante la lettura.
L'a±dabilitµ
a di una misura µe determinata dal numero di cifre signi¯cative che,
a loro volta, dipendono dalla stima dell'errore. Supponiamo di eseguire, nelle stesse
condizioni, N misure di una grandezza; se l'apparecchio µe ben tarato e usato in
modo appropriato, per e®etto degli errori casuali, le letture di®eriranno tra loro di
a allora come valore della misura, la media aritmetica
alcune unitµ
a di ±x. Si assumerµ
delle letture:
x=
x1 + x2 + ¢ ¢ ¢ + xN
;
N
e ¯nch¶e N non µe grande, la stima dell'errore della misura µe data dalla semidi®erenza
tra i valori assoluti del massimo e del minimo dei valori ottenuti, che viene chiamata
semidispersione massima.
6.2 Giusti¯cazione della media
Consideriamo ora il caso di un numero di misure N molto grande, eseguite con
un apparecchio di elevata sensibilitµ
a. Le misure saranno comprese in una regione,
limitata dai valori minimo e massimo xmin e xmax , che suddividiamo in tanti intervalli
¢x, di ampiezza piccola, ma tale che ognuno di essi comprenda un numero elevato di
misure. Si riportano quindi in un gra¯co tanti rettangoli aventi ciascuno come base
¢x e come altezza il rapporto tra il numero di misure n(x) comprese in ¢x e il numero
a n(x)=N prende il nome di f requenza ed il gra¯co ottenuto
totale N . La quantitµ
diagramma o istogramma delle frequenze. Tale istogramma ha l'aspetto qualitativo
mostrato in ¯gura 5. Si osserva che il valore massimo dell'istogramma corrisponde
alla media che, pertanto, puµ
o essere assunta come valore piµ
u rappresentativo o piµ
u
16
probabile della misura. I valori che si discostano dalla media decrescono rapidamente
a destra e a sinistra di essa.
All'aumentare di N , il numero dei rettangoli si puµ
o in¯ttire poich¶e ognuno di essi
contiene un elevato numero di misure, e all'in(x)/N
stogramma si puµ
o adattare una curva continua, simmetrica rispetto alla media. Questa
curva curva µe la distribuzione di Gauss, equaFig. 5
zione (20), rappresentata dall'espressione
P(x) =
2
2
1
p e¡(x¡x) =2¾
¾ 2¼
dove P(x) indica la densitµ
a di probabilitµ
ae¾
x{
x
¢x
µ
µe la deviazione standard. E evidente che la
curva presenta un massimo per x = x, ¯gura
4. L'introduzione del termine densitµ
a di probabilitµ
a µe presto chiarito. Osserviamo
a che il numero di misure
che la frequenza, per N molto grande, tende alla probabilitµ
n(x) sia compreso nell'intervallo ¢x. Conviene quindi riportare sull'asse delle ordia di probabinate dell'istogramma la grandezza n(x)=(N ¢x) che µe appunto la densitµ
litµ
a. Allora il valore numerico del prodotto tra l'ordinata e ¢x, area del rettangolo,
dµ
a la probabilitµ
a suddetta. Poich¶e per N molto grande l'istogramma µe rappresentato
a che la misura sia
dalla curva di Gauss, la quantitµ
a P(x)dx rappresenta la probabilitµ
compresa nell'intervallo elementare dx; areola ombreggiata della ¯gura 4. Pertanto
la probabilitµ
a che la misura sia compresa in un certo intervallo che ha come estremi
x1 e x2 , µ
e
Z
x2
x1
P(x)dx;
ed µe rappresentata dal valore numerico dell'area sottesa dalla curva e l'asse x, tra
le ascisse x1 e x2 . Si capisce subito che
Z
+1
¡1
P(x)dx = 1:
Ciµo signi¯ca che la misura µe certamente compresa in tutto il campo di misurazione; l'area sottesa dalla curva di Gauss e l'asse delle ascisse risulta cosµ³ unitaria o
normalizzata.
7. Distribuzione degli errori
Si de¯nisce errore della misura di indice i la quantitµa
²i = xi ¡ x;
chiamata anche scarto dalla media. Si veri¯ca immediatamente che la somma degli
N errori µ
e sempre nulla, pertanto anche la loro media µe nulla.
Ricordando l'equazione (12), la deviazione standard o scarto quadratico medio
µe dato dall'espessione:
v
u
N
u1 X
¾=t
²2 :
N 1 i
17
La deviazione standard, ricavata dalle misure sperimentali, indica il grado di
precisione delle misure e®ettuate. La distribuzione degli errori µe gaussiana con il
massimo corrispondente a ² = 0. In ¯gura 6 µe mostrato l'andamento della densitµ
a di probabilitµa P(²). Valgono le considerazioni fatte prima a proposito della
distribuzione delle misure.
P (²)
Parametro caratteristico della distribuzione di Gauss µe la deviazione standard ¾ ;
in ¯gura 7 sono mostrate le distribuzioni (a),
(b) e (c) corrispondenti a valori di ¾ decrescenti, ossia con accuratezza crescente. Siccome per tutte le curve l'area sottesa deve essere uguale a 1, si evidenzia chiaramente che
la curva (c) µe quella corrispondente a misure
piµ
u precise. Il signi¯cato di ¾, in termini di
probabilitµ
a, µe spiegato nei testi di teoria della
²
O
misura.
Si
dimostra che
d²
Fig. 6
Z
+¾
¡¾
P(²)d² = 0; 683;
dunque l'area corrispondente µe il 68,3% dell'area totale. Ciµ
o signi¯ca che una misura
della grandezza, tra le N e®ettuate, ha il 68,3% di probabilitµa di assumere un valore
compreso tra x ¡ ¾ e x + ¾ . Allora l'errore che va attribuito alla singola misura µe §¾
e si evidenzia scrivendo xi § ¾ .
Si µe riconosciuto che il valore piµ
u proP (²)
babile della grandezza µe dato dalla media aritmetica delle misure. Per esprimere il risultato, pertanto, bisogna valutare l'errore da attribuire alla media, cioµe la sua deviazione standard.
(c)
In teoria della misura si dimostra che
Fig. 7
la deviazione standard della media µe
semplicemente
(b)
¾
¾m = p :
N
a
( )
²
O
le medie
x=
(25)
Questo signi¯ca che e®ettuate un certo numero M di medie, ciascuna di N
misure, possiamo de¯nire la media del-
x1 + x2 + ¢ ¢ ¢ xM
M
e analogamente a quanto detto prima per la singola misura, le medie hanno a loro
volta distribuzione gaussiana col massimo in x. Pertanto la singola media ha una
a di essere compresa tra x ¡ ¾m
deviazione standard ¾m , ovvero il 68,3% di probabilitµ
e x + ¾m . Si deduce che l'errore di misura della grandezza µe §¾m e scriveremo x § ¾m .
8. Stima dell'errore massimo nelle misure indirette
Nelle misure indirette la grandezza, che indichiamo con y, µe legata ad altre
grandezze, che vanno misurate direttamente, mediante una equazione del tipo:
y = f (x1 ; x2 ; ¢ ¢ ¢ xn ):
(26)
µ per esempio, il caso di una lunghezza misurata come di®erenza tra due misure,
E,
l = x2 ¡ x1 , della velocitµ
a media, misurata come rapporto tra spazio percorso e il
corrispondente intervallo di tempo, ecc...
18
Il problema consiste nel ricavare la distribuzione degli errori ²y per e®etto degli
errori ²i che si commettono nelle misure delle grandezze indipendenti; la distribuzione µe ancora gaussiana. Non ci occuperemo in dettaglio di questo caso, ma ci
limiteremo a una valutazione dell'errore massimo che presumibilmente si commette
usando, per la misura delle grandezze indipendenti, apparecchi di assegnata sensibilitµa di lettura.
Assumendo la media come valore piµ
u probabile della misura, sviluppiamo la
(26) in serie di Taylor nell'intorno di (x1 ; x2 ; ¢ ¢ ¢ xn ), arrestandoci al primo ordine; si
ha
µ
¶
y = y(x1 ; x2 ; ¢ ¢ ¢ xn ) +
n
X
1
@y
@xi
xi =xi
(xi ¡ xi ) :
Pertanto l'errore di cui µe a®etta la grandezza y, risulta
¶
n µ
X
@y
²y = y ¡ y(x1 ; x2 ; ¢ ¢ ¢ xn ) =
(xi ¡ xi ) :
@xi xi =xi
1
Sostituendo agli errori la sensibilitµ
a di lettura delle singole grandezze, si puµ
o scrivere
approssimativamente:
¯ ¯
¯
¯
¯
¯
¯ ¯ @y
¯
¯ @y
¯
¯ @y
¯
¯
¯
¯
¯
²y = ¯
¢x1 ¯ + ¯
¢x2 ¯ + ¢ ¢ ¢ + ¯
¢xn ¯¯ :
@x1
@x2
@xn
(27)
I vari termini vengono considerati in valore assoluto non essendo noto a priori il
loro segno, perciµ
o la precedente viene chiamata errore assoluto massimo a priori o
sensibilitµ
a della misura.
Appare evidente inoltre che in una misura ben fatta tutti i termini della (27)
devono essere dello stesso ordine di grandezza. Se, per esempio, la grandezza da
misurare µe una lunghezza espressa dalla di®erenza tra due letture l = x2 ¡ x1 , si ha
immediatamente
¢l = ¢x2 + ¢x1 :
In questo modo si puµ
o anche giudicare quali precauzioni devono essere prese nella
misura di una certa grandezza e quale possibile errore puµ
o essere commesso se si
dispone di certe apparecchiature. Supponiamo di voler preparare una soluzione
all'1% di una certa sostanza in acqua. La concentrazione c µe de¯nita dal rapporto
c=
p
;
p0
In cui p µe il peso del soluto e p0 il peso del solvente; l'errore massimo a priori µe dato
da:
¯
¯ ¯
¯ ¯
¯
¯
¯
¯ ¢p ¯ ¯ p ¢p0 ¯ ¯ ¢p ¯
¯
¯
¯+¯
¯=¯
¯ + p ¯ ¢p0 ¯ :
²c = ¯¯
¯
¯
¯
¯
¯
¯
p0
p0 p0
p0
p0 p0 ¯
Nel nostro caso p=p0 = 1=100, quindi se si pesassero con ugual cura soluto e solvente si
avrebbe j¢pj = j¢p0 j e l'errore sarebbe costituito da due termini: uno ¢p=p0 e l'altro
µ inutile pesare il solvente con la stessa cura
p=p0 (¢p0 =p0 ), cento volte piµ
u piccolo. E
con cui deve essere pesato il soluto; se quest'ultimo µe pesato ¯no al milligrammo,
basta pesare il solvente ¯no al decimo di grammo.
8.1 Errore relativo
L'errore relativo µe de¯nito dal rapporto tra l'errore, sia esso lo scarto o la
deviazione standard oppure la sensibilitµ
a di lettura, e la misura della grandezza:
²r =
²
;
x
¾r =
19
¾
;¢¢¢
x
Esso µe una quantitµ
a adimensionata e, di solito si esprime in percentuale, ha inoltre
il vantaggio di essere piµ
u signi¯cativo dell'errore assoluto. Valga questa semplice
considerazione: le lunghezze di 10 mm e di 1 m vengano misurate con l'errore assoluto
di 1mm; nel primo caso viene commesso un errore del dieci per cento, nel secondo
dell'un per mille. La seconda misura µe ben piµ
u precisa della prima.
Ricordando la (27), l'errore relativo massimo a priori µe de¯nito da
¯
¯
¯
¯
¯ 1 @y
¯
¯ 1 @y
¯
²y
¯
¯
¯
=¯
¢x1 ¯ + ¢ ¢ ¢ + ¯
¢xn ¯¯ ;
y
y @x1
y @xn
(28)
che si puµ
o considerare come il di®erenziale del logaritmo di y, ossia
²y
¢y
=
= ¢(ln y):
y
y
Questa formulazione µe molto comoda se la grandezza µe del tipo
®n
1 ®2
y = x®
1 x2 ¢ ¢ ¢ xn ;
con ®i numeri reali qualsiasi. Si ha immediatamente
¯ ¯
¯
¯
¯
¯
¯ ¢xn ¯
¯ ¢x1 ¯ ¯ ¢x2 ¯
²y
¯
¯
¯
¯
¯:
¯
+ ®2
+ ¢ ¢ ¢ + ¯®n
= ¯®1
y
x1 ¯ ¯
x2 ¯
xn ¯
Nel caso dell'esempio precedente si ha
¯
¯
¯ ¯
¢c ¯¯ ¢p ¯¯ ¯¯ ¢p0 ¯¯
:
=¯
+
c
p ¯ ¯ p0 ¯
8.2 Cifre signi¯cative
Si µe detto che una misura va espressa da un numero seguito dall'errore e dall'unitµ
a di misura. L'errore stabilisce il numero di cifre signi¯cative della misura
che si possono garantire come esatte. Per esempio, un risultato espresso dal valore
35; 387 § 0; 001 in cui sono presenti cinque cifre signi¯cative con un errore §0; 001
indica che l'ultima µe incerta per §0; 001.
A volte si puµ
o ottenere un risultato del tipo 3; 207 § 0; 01; in tal caso si arrotonda
come 3; 21 § 0; 01, usando il criterio di arrotondare alla decina successiva, se l'ultima
cifra µe maggiore di 5 o altrimenti alla precedente.
Ancora un esempio: supponiamo che siano stati ottenuti i valori 4,041; 1,135;
8,704 con un errore relativo dell'1% ed errore assoluto rispettivamente di 0,04; 0,01;
0,1; allora detti valori si scrivono
4; 04 § 0; 04;
1; 13 § 0; 01;
8; 7 § 0; 1:
µ dunque inutile riportare nei risultati tutte le cifre decimali che si ottengono;
E
queste vengono ¯ssate dall'errore che si commette. Nella pratica di laboratorio
molte volte µe su±ciente una approssimazione dell'1%; per ottenere sicuramente tale
approssimazione basta tener conto, con i criteri su esposti, delle prime due cifre
signi¯cative dopo la virgola.
20
Scarica

Clicca per scaricare il file: errori