µ LEGGI DI DISTRIBUZIONE, ERRORI DI MISURA PROBABILITA, 1. De¯nizione di probabilitµa La teoria delle probabilitµ a µe una parte della Matematica applicata che stabilisce le leggi con cui vengono descritti una grande varietµ a di fenomeni determinati da eventi casuali. In questo capitolo ci limiteremo a stabilire le regole necessarie ad introdurre i concetti fondamentali della termodinamica statistica. Il termine probabilitµa viene usato correntemente in maniera piuttosto vaga; tuttavia il suo signi¯cato puµ o essere precisato meglio se si a®erma che la probabilitµ a che accada un evento µe uguale, minore o maggiore di quella che si presenti un altro evento. Per esempio, nel lancio di una moneta la probabilitµ a che si presenti \testa" o \croce" µe la stessa; nel lancio di un dado, la probabilitµ a che si presenti una determinata faccia µe ovviamente inferiore alla precedente; la probabilitµ a di vincere un numero al lotto µe maggiore di vincere un ambo e cosµ³ via. Queste esempli¯cazioni mostrano come la probabilitµ a che accada un evento, restando ¯sso il numero di casi possibili, cresce all'aumentare dei casi favorevoli mentre, restando ¯sso il numero dei casi favorevoli, diminuisce all'aumentare dei casi possibili. La probabilitµ a va necessariamente espressa con un numero, pertanto appare naturale valutarla mediante il rapporto tra il numero di casi favorevoli all'evento ed il numero di casi possibili. Ne discende la de¯nizione. La probabilitµ a che accada un evento µe data dal rapporto tra il numero di casi favorevoli all'evento e il numero di casi possibili, purch¶e tutti i casi si riconoscano ugualmente possibili (o probabili). In questa de¯nizione non sfugga al lettore il fatto che per valutare una probabilitµa occorre conoscere a priori quali casi vanno considerati ugualmente probabili. Molte volte questa valutazione puµo essere fatta, ma con criteri diversi secondo la natura del problema. Per esempio, nel lancio di una moneta la valutazione a priori della probabilitµ a che si presenti testa o croce µe pari a 1/2, perch¶e uno µe il caso favorevole e due sono i casi possibili. Analoga valutazione puµ o essere fatta nel lancio di un dado: la probabilitµ a che si presenti una determinata faccia µe 1/6, poich¶e la faccia che ci si aspetta µe una, mentre i casi possibili sono sei. Naturalmente nel valutare i casi possibili si presupone che la moneta sia perfetta e che il dado sia costruito di materiale omogeneo e risponda alle note condizioni di simmetria di cui esso gode. In tal caso si puµ o a®ermare che i casi possibili sono ugualmente probabili. Se tuttavia, lanciando il dado numerose volte, si riscontrasse che una faccia si presenta con maggiore frequenza delle altre, vanno ricercate quali altre condizioni ¯siche occorre rispettare per riconoscere il dado adatto, per esempio, ad un equo gioco d'azzardo. Sull'operazione puµ o in°uire il modo con cui viene lanciato o altri fattori perturbativi. In altri problemi, come in teoria degli errori di misura, in ¯sica e in altre discipline, l'equiprobabilitµ a viene postulata; i risultati che se ne traggono, sottoposti al controllo sperimentale, suggeriscono se l'ipotesi di equiprobabilitµ a sia piµ u o meno plausibile. 1.1 Legge empirica del caso Consideriamo un sistema sul quale vengano fatte osservazioni sperimentali, i cui risultati non possono essere previsti con certezza o perch¶e impossibile, come nel caso di un sistema atomico che obbedisce alle leggi della meccanica quantistica, oppure perch¶e i dati relativi alla descrizione del sistema non sono su±cienti per ottenere una µ possibile ottenere risposte signi¯cative analizzando predizione unica del risultato. E i risultati di un gran numero di osservazioni eseguite sempre nelle stesse condizioni. Oppure si puµ o immaginare di disporre di un numero molto grande, insieme statistico, di N sistemi simili e indipendenti. Tali sistemi sono simili nel senso che ciascuno di essi si comporta od µe preparato allo stesso modo ed µe sottoposto alle stesse modalitµ a per l'osservazione; sono indipendenti nel senso che il risultato fornito da un sistema non dipende dagli altri. 1 L'insieme si dice indipendente dal tempo se i sistemi che lo costituiscono hanno proprietµ a che non variano nel tempo. In tal caso µe equivalente ripetere N volte l'esperimento su un unico sistema, facendo attenzione a rispettare sempre le stesse modalitµ a. Per esempio, i lanci di una moneta o di un dado andranno e®ettuati sempre nello stesso modo. Una volta compiute le osservazioni, si otterrµ a un certo numero di casi in cui si a che vi sono, fra gli N sistemi dell'insieme, N (e) veri¯ca l'evento e, oppure si osserverµ sistemi che manifestano quel determinato evento. De¯niamo frequenza il rapporto N(e) : N Per un certo evento la frequenza varia in generale col numero di osservazioni. Tuttavia l'esperienza mostra che, per una classe molto estesa di fenomeni, al crescere del numero delle prove, la frequenza va oscillando e convergendo intorno ad un limite che chiamiamo probabilitµ a. De¯niamo dunque probabilitµ a che si veri¯chi l'evento e la quantitµ a: P (e) = N (e) ; N (N ! 1) la condizione N ! 1 non implica alcuna operazione matematica di limite; signi¯ca soltanto che le osservazioni sono state e®ettuate un gran numero di volte o su un numero molto grande di sistemi; in altri termini la frequenza di un determinato evento, tende alla probabilitµ a quando N diventa molto grande. Vale dunque la seguente legge empirica del caso. In un insieme di prove ripetute un gran numero di volte, ciascuno degli eventi possibili si manifesta con una frequenza che µe all'incirca uguale alla sua probabilitµ a. L'approssimazione cresce ordinariamente col crescere del numero delle prove Si osservi che l'enuciato contiene locuzioni imprecise, come \all'incirca" e \cresce ordinariamente". L'imprecisione µe inevitabile quando si cerca di stabilire un ra®ronto tra una de¯nizione astratta, in questo caso la probabilitµ a, e un risultato empirico, vale a dire la frequenza. La legge empirica del caso puµ o essere illustrata meglio col seguente esempio. Nel lancio di N monete µe possibile valutare a priori i risultati che si possono realizzare. Il lancio di una moneta dµ a luogo a due possibili risultati, il lancio di N monete a di ottenere una data conduce a 2 ¢ 2 ¢ ¢ ¢ 2 = 2N risultati; pertanto la probabilitµ sequenza o con¯gurazione in cui si presenti n volte \testa"ed n0 volte \croce", con n + n0 = N µ e P = 1=2N . In tabella sono riportate le possibili sequenze, 16 in tutto, nel lancio di solo 4 monete; T indica testa, C croce e W il numero di sequenze ottenute. Si osservi come il numero di sequenze o con¯gurazioni che danno una percentuale di circa il 50% per ciascuno dei due eventi sia piµ u numeroso rispetto agli altri. Si capisce inoltre che all'aumentare del numero di monete in un lancio, oppure all'aumentare del numero di lanci di una moneta, la frequenza ottenuta tende al valore della probabilitµ a, cioµe 1/2. In altri termini i risultati estremi, in cui si ottiene sempre testa o sempre croce sono molto poco frequenti. Inoltre, la probabilitµ a di ottenere una determinata sequenza, come si µe detto prima, µe 1=24 ; la probabilitµ a di ottenere, ad esempio, una qualunque sequenza in cui si ha tre volte testa ed una croce, realizzata in quattro modi diversi, µe 4=24 . Analogamente la probabilitµ a di ottenere una qualunque sequenza in cui si ha due volte testa e due croce, realizzata in sei modi diversi, µe 6=24 . La stessa situazione si presenta se si prendono in esame N molecole di un gas contenute in una scatola che immaginiamo divisa idealmente in due metµa, A e B ; in condizioni di equilibrio le molecole sono distribuite uniformemente in tutta la scatola e possiamo ragionevolmente pensare che, a meno di piccole °uttuazioni, la stessa cosa si veri¯chi nelle due metµ a. Ci si puµ o comunque chiedere qual'µe la probabilitµ a di trovare un certo numero delle N molecole in A ed il rimanente in B . Nel caso di sole quattro molecole le situazioni possibili sono identiche a quelle indicate nella tabella relativa al lancio di quattro monete; basta scrivere A al posto di T ed B al posto di C . Si osserva che la 2 probabilitµ a di realizzare le con¯gurazioni estreme, tutte le molecole in A oppure tutte in B , in questo caso non µe molto piccola, 1=24 , mentre le con¯gurazioni in cui a piµ u alta ed uguale a due molecole si trovano in A e due in B hanno una probabilitµ 6=24 . Pertanto possiamo ritenere fondato che in un tempo abbastanza lungo si possa assistere al realizzarsi di tutte le con¯gurazioni; µe perµ o ovvio che quando il numero N di molecole µe molto elevato µe estremamente improbabile che tutte le molecole siano a che si veri¯chi tale evento µe 1=2N . con¯nate in A oppure in B perch¶e la probabilitµ Posto il problema in questi termini, possiamo concludere che la situazione in cui le molecole sono distribuite uniformemente µe la piµ u probabile, pertanto osserveremo prevalentemente questa con¯gurazione, mentre non µe da escludere a priori, anche se con probabilitµ a estremamente piccola, la con¯gurazione in cui le molecole sono con¯nate tutte da una parte. 1 T T T T C T T T C C C T C C C C 2 T T T C T T C C T T C C T C C C 3 T T C T T C T C T C T C C T C C 4 T C T T T C C T C T T C C C T C n 4 3 3 3 3 2 2 2 2 2 2 1 1 1 1 0 n0 0 1 1 1 1 2 2 2 2 2 2 3 3 3 3 4 W 1 4 6 4 1 Quando lo stato del sistema dipende dal tempo, la probabilitµ a che si presenti un certo evento e deve essere valutata all'istante t; in altri termini, per determinare tale probabilitµ a, che chiamiamo P (e; t), occorre esaminare un numero N molto grande di sistemi, tutti simili, nell'intervallo di tempo in cui mostrano il loro evolversi. Si potrebbe pensare di ¯lmare contemporaneamente gli N sistemi oppure di disporre N rivelatori opportuni, uno per ogni sistema, in modo da registrare sia l'evento che l'istante in cui si µe veri¯cato. Alla ¯ne, per ogni istante, disporremmo di N fotogrammi o di N risposte dei rivelatori da cui trarre i dati statistici che ci interessano. Consideriamo, per esempio, una scatola divisa in due parti uguali, in una delle quali µe posto un gas costituito da N molecole, mentre l'altra µe vuota; le due parti sono messe in comunicazione mediante una valvola che puµ o dosare opportunamente l'e²usso del gas. Una volta aperta la valvola il gas, in un intervallo di tempo che dipende dalla regolazione della valvola, tenderµ a a distribuirsi uniformemente nelle due parti della scatola, cioµe raggiungerµ a l'equilibrio. Possiamo chiederci, ad esempio, ponendo l'attenzione su una certa molecola, qual'µe la probabilitµ a p(t) che questa si trovi, ad un certo istante, in una parte della scatola oppure la probabilitµ a q(t) che si trovi nell'altra parte; similmente possiamo chiederci la probabilitµ a P (n; t) che, in un qualsiasi istante, n delle N molecole si trovino in una delle due parti della scatola; tali probabilitµ a cambiano nel tempo e le risposte possono essere fornite con esperienze del tipo descritto. All'equilibrio ovviamente p = q = 1=2; in queste condizioni le probabilitµ a non dipendono piµ u dal tempo ed il problema va a®rontato semplicemente, come nel lancio delle monete; allora lo studio statistico ci puµ o fornire informazioni sulle °uttuazioni dall'equilibrio, sulla probabilitµ a che una molecola abbia una certa velocitµ a o una energia cinetica comprese in un certo intervallo e cosµ³ via. Come conseguenza si deduce una semplice de¯nizione di equilibrio: 3 Un sistema macroscopico isolato µe in equilibrio quando l'insieme statistico di tali sistemi µe indipendente dal tempo. 2. Relazioni elementari tra probabilitµa Supponiamo che le esperienze e®ettuate su un certo insieme statistico conducano a n eventi mutuamente escludentesi. Poich¶e gli eventi si escludono fra loro ed esauriscono tutte le possibilitµ a possiamo scrivere N (e1 ) + N (e2 ) + ¢ ¢ ¢ + N (en ) = N: Dividendo per N e supponendo che N sia molto grande, in base alla de¯nizione di probabilitµ a, si ha P (e1 ) + P (e2 ) + ¢ ¢ ¢ + P (en ) = 1; ) n X P (ei ) = 1; (1) i=1 che stabilisce la condizione di normalizzazione per le probabilitµ a. La somma di tutte le probabilitµ a µe uguale ad uno. Supponiamo ora che il sistema presenti r possibili eventi di un certo tipo ed s possibili eventi di un altro tipo tra loro indipendenti. Vogliamo valutare la probabilitµa P (ei ; ej ) che, tra i possibili eventi, si veri¯chi l'evento ei oppure l'evento ej , i = 1; 2 : : : r; j = 1; 2 : : : s. Vi sono nell'insieme N(ei ) + N (ej ) sistemi in cui si veri¯ca l'evento i oppure l'evento j , allora la frequenza con cui si presenta indi®erentemente uno dei due eventi µe N (ei ) + N (ej ) ; N che per N molto grande tende alla probabilitµ a cercata, P (ei ; ej ) = P (ei ) + P (ej ): (2) Questa relazione costituisce la legge della probabilitµ a totale. La probabilitµ a che due o piµ u eventi indipendenti si veri¯chino indi®erentemente µe uguale alla somma delle probabilitµ a dei singoli eventi. Per esempio, nel lancio di due dadi o in due lanci successivi di un dado la probabilitµ a che si presenti indi®erentemente la faccia marcata con 1 oppure la faccia marcata con 3, o qualsiasi altra coppia di facce assegnata, µe semplicemente 1/6+1/6=1/3. La probabilitµ a di estrarre da un'urna, contenente un certo numero di gettoni uguali ma di vari colori, due gettoni di due colori determinati µe semplicemente la somma delle probabilitµ a che vengano estratti i gettoni dei colori assegnati. Valutiamo ora, in un sistema che presenta r possibili eventi di un certo tipo a P (ei;j ) che ed s possibili eventi di un altro tipo tra loro indipendenti, la probabilitµ si veri¯chi l'evento ei congiuntamente all'evento ej , (i = 1; 2 : : : r; j = 1; 2 : : : s). Tale probabilitµ a, per N molto grande, µe data da P (ei;j ) = N (ei;j ) : N Indichiamo con P (ei ) la probabilitµ a che si veri¯chi l'evento ei indipendentemente dal a P (ei ) = N(ei )=N . Analogamente la probabilitµ a che si veri¯chi veri¯carsi di ej ; sarµ ej indipendentemente da ei µ e P (ej ) = N (ej )=N . Consideriamo nell'insieme N , quei sistemi N(ei ) che presentano l'evento ei . Ina una certa probabilitµ a P (ej ) che dipendentemente dal particolare valore di ei , esisterµ tali sistemi presentino anche l'evento ej . Cosµ³ il numero di sistemi che presentano congiuntamente i due eventi, N(ei;j ), µe dato da N (ei;j ) = N (ei )P (ej ): 4 Ne segue che, per N molto grande, la probabilitµ a che si veri¯chino congiuntamente i due eventi µe data da P (ei;j ) = N (ei;j ) N (ei ) = P (ej ) = P (ei )P (ej ): N N (3) Questa relazione esprime il teorema della probabilitµ a composta. La probabilitµ a che si veri¯chino congiuntamente eventi statisticamente indipendenti µe uguale al prodotto delle probabilitµ a dei singoli eventi. Il ragionamento fatto per due eventi si puµ o estendere al caso di piµ u eventi. Esempi 1) Determinare la probabilitµ a che nel lancio di due dadi oppure in due lanci successivi di un dado si ottengano due facce predeterminate. Per il teorema della probabilitµ a composta µe P (ei;j ) = 1=6 ¢ 1=6 = 1=36. 2) Determinare la probabilitµ a, nel lancio di due dadi, di ottenere una somma di punti inferiore a 4. Applicando i teoremi precedenti, tale probabilitµ a µe la somma delle probabilitµ a di ottenere 2 o 3; ciascuna di queste probabilitµ a vale rispettivamente 1/36 (perch¶e il 2 si ottiene con 1 su un dado ed 1 sull'altro dado) e 2/36 (perch¶e il 3 si ottiene con 1 o 2 su un dado oppure con 2 e 1 sull'altro dado). La probabilitµ a cercata µe dunque: (1+2)/36=1/12. 3) Calcolare la probabilitµ a che lanciando due monete o e®ettuando due lanci di una moneta si ottenga almeno una volta testa. La probabilitµ a di ottenere due volte croce µe 1=2 ¢ 1=2 = 1=4, la probabilitµ a che ciµ o non si veri¯chi µe semplicemente 1 ¡ 1=4 = 3=4. 3. Problema del percorso casuale (random-walk), distribuzione binomiale Il problema del percorso casuale usualmente va studiato considerando gli spostamenti casuali di una particella, in una dimensione. Si supponga che la particella compia spostamenti di uguale lunghezza `, il cui verso sia completamente indipena che dente dal verso dello spostamento precedente. Si indichi con p la probabilitµ a che sia lospostamento sia diretto in un verso (destra) e con q = 1 ¡ p la probabilitµ diretto in verso opposto (sinistra). Tali probabilitµ a dipendono da condizioni esterne; nel caso piµ u semplice si puµ o avere p = q . Fissando un asse x nella direzione degli spostamenti, dopo un numero N di spostamenti (a destra e a sinistra), la particella assume una certa posizione x = m`, con m intero e tale che ¡N · m · N . Il problema consiste nel determinare la probabilitµ a PN (m) di trovare la particella nella posizione x = m`. La formulazione statistica del problema implica lo studio di un numero molto grande di particelle che partono dallo stesso punto; tuttavia µe lecito, come si µe visto prima, ripetere un gran numero di volte l'esperimento con la stessa particella. Indichiamo con n1 il numero di spostamenti a destra e con n2 il numero di spostamenti a sinistra; ovviamente N = n1 + n2 . Lo spostamento netto a destra a m = n1 ¡ n2 . Da cui si ha dell'origine, misurato in unitµ a di lunghezza `, sarµ m = n1 ¡ n2 = n1 ¡ (N ¡ n1 ) = 2n1 ¡ N: Si osserva che se N µe pari i possibili valori di m sono pari, se N µe dispari anche m µe dispari. La probabilitµ a di ottenere una determinata sequenza di n1 spostamenti verso destra ed n2 spostamenti verso sinistra, µe data da P = pp¢¢¢p | {z } q q ¢ ¢ ¢ q = p n1 q n2 : | {z } (4) n1 termini n2 termini Poich¶e non interessa il particolare ordine con cui i due eventi si presentano, la precedente va moltiplicata per il numero W di sequenze o con¯gurazioni possibili equivalenti. 5 Per determinare W , osserviamo che il problema µe simile a quello del lancio di a quattro monete, descritto al paragrafo 1.1. In quel caso (p = q = 1=2) la probabilitµ che si veri¯chi una determinata sequenza µe data da P = p n1 q n2 = µ ¶N µ ¶4 1 1 1 : = = 2 2 16 Nel nostro caso il problema µe diverso; ci chiediamo infatti qual'µe la probabilitµ a che in N spostamenti n1 avvengano a destra ed n2 a sinistra, senza un predeterminato ordine. Nella tabella di paragrafo 1.1, si osserva che si ottiene una sola sequenza in cui si ottiene testa (T ), quattro sequenze in cui si ottiene tre volte testa ed una volta croce (C ), sei sequenze in cui si ha due volte testa e due volte croce, quattro sequenze con una volta testa e tre volte croce ed, in¯ne, una sequenza in cui si ottiene quattro volte croce. La tabella che si puµ o costruire per gli spostamenti µe la stessa sostituendo, per esempio, T con D (spostamenti a destra) e C con S (spostamenti µ chiaro dunque che se si ricerca la probabilitµ a sinistra). E a con cui tre spostamenti avvengono a destra ed uno a destra, oppure due a destra e due a sinistra, senza un particolare ordine, occorre moltiplicare la probabilitµa che si veri¯chi la particolare sequenza rispettivamente per 4 e per 6. Tale probabilitµ a nei due casi prospettati risulta 0,25 e 0,37. Pertanto, detti n gli spostamenti a destra ed N ¡ n quelli a sinistra, la (4) va moltiplicata per il fattore: W (n) = N! N! = ; n1 !n2 ! n!(N ¡ n)! (5) che rappresenta il numero di combinazioni di N oggetti (spostamenti) presi n alla volta o il numero di sequenze o con¯gurazioni possibili equivalenti. La probabilitµ a di ottenere in un totale di N spostamenti, n spostamenti a destra ed N ¡ n spostamenti a sinistra in qualsiasi ordine, µe data da PN (n) = N! pn q N ¡n = W (n)pn q N ¡n : n!(N ¡ n)! (6) Il fattore W (n) µe simmetrico qualora n venga scambiato con N ¡ n, in particolare W (0) = W (N ) = 1; inoltre, se N µ e su±cientemente elevato, presenta un massimo per n = N=2, come si puµ o veri¯care usando l'approssimazione di Stirling che descriveremo al paragrafo 5. La distribuzione di probabilitµ a espressa dalla (6) µe chiamata distribuzione binomiale perch¶e rappresenta il termine generico dello sviluppo binomiale, che come µe noto, µe dato dalla formula: (p + q)N = N X N! pn q N¡n : n!(N ¡ N)! n=0 6 In ¯gura 1 µe mostrato l'andamento della distribuzione binomiale per N = 20 e p = q = 1=2. Si noti che la distribuzione µe simmetrica rispetto al massimo della probabilitµ a, che si veri¯ca per n = 10. Se p µe diverso da q la distribuzione risulta asimmetrica come mostrato in ¯gura 2, dove p = 0; 6 e q = 0; 4. In tal caso il massimo di probabilitµ a si veri¯ca per n = 12. P (n ) 0,20 h n i = 10 0,16 ¾ = 2,23 0,12 Fig. 1 0,08 0,04 2 4 6 8 10 12 14 16 18 n 20 P (n ) 0,20 h n i = 12 0,16 ¾ = 2,19 0,12 Fig. 2 0,08 0,04 2 4 6 8 10 12 14 16 18 n 20 Esempi 4) Consideriamo N = 4 spostamenti che possono avvenire verso destra (D) oppure verso sinistra (S); vogliamo determinare il numero di possibili sequenze equivalenti nei seguenti casi: quattro spostamenti a destra; tre a destra, uno a sinistra; due a destra, due a sinistra; uno a destra e tre a sinistra; quattro a sinistra. La situazione µe analoga a quella illustrata in tabella 1 a proposito del lancio di 4 monete. Si deve solo sostituire la lettera T con D e la lettera C con S. Si osserva che c'µe una sola sequenza in cui i 4 spostamenti sono verso destra; a questa corrisponde la probabilitµ a P (4) = p ¢ p ¢ p ¢ p = p4 . Le sequenze equivalenti in cui 3 spostamenti avvengono verso destra ed 1 verso sinistra, e viceversa, sono 4. La o probabilitµ a di una tale sequenza µe p3 q, ma esistono 4 possibili sequenze, 4!=(3!1!) = 4, perciµ la probabilitµ a di realizzare tutte le sequenze equivalenti µe P (3; 1) = 4p3 q, e cosµ³ via. 5) Ricaviamo, nel problema del percorso casuale, la probabilitµ a PN (m) che la particella, dopo un numero N di spostamenti, si trovi nella posizione x = m`. Si ha: m = n1 ¡ n2 = n ¡ (N ¡ n) = 2n ¡ N 1 1 n = (N + m); N ¡ n = (N ¡ m); 2 2 pertanto si ottiene: PN (m) = N! p(N +m)=2 (1 ¡ p)(N ¡m)=2 : [(N + m)=2]![(N ¡ m)=2]! 7 Nel caso particolare p = q = 1=2 la precedente diventa PN (m) = N! [(N + m)=2]![(N ¡ m)=2]! µ ¶N 1 : 2 6) Consideriamo tre lanci di un dado; si vuole determinare la probabilitµ a che una faccia assegnata si presenti nei tre lanci una volta, due volte, tre volte o nessuna volta. La probabilitµ a che esca una faccia µe 1/6, mentre la probabilitµ a che non esca µe q = 1 ¡ p = 5=6. La probabilitµ a che in 3 lanci la faccia assegnata si presenti una volta µe µ ¶2 1 5 25 3! 75 = P (3; 1) = pq 3¡1 = 3 = ; 1!(3 ¡ 1)! 6 6 72 216 la probabilitµ a che si presenti 2 volte 3! p2 q 3¡2 = 3 2!(3 ¡ 2)! P (3; 2) = µ ¶2 1 5 5 15 = = ; 6 6 72 216 la probabilitµ a che si presenti 3 volte 3! p3 q 0 = 3!(3 ¡ 3)! P (3; 3) = µ ¶3 1 1 = ; 6 256 la probabilitµ a che non si presenti mai 3! p0 q 3 = P (3; 0) = 0!(3 ¡ 0)! µ ¶3 5 125 = : 6 216 La somma di tutte le probabilitµ a µe 3 X P (3; n) = n=0 75 + 15 + 1 + 125 =1: 216 4. Variabili aleatorie, valore medio, scarto, dispersione o assumere certi valori: Si de¯nisce variabile aleatoria una quantitµ a x che puµ x1 ; x2 ; ¢ ¢ ¢ xM ; in corrispondenza al veri¯carsi di certi eventi e1 ; e2 ; ¢ ¢ ¢ eM , nell'insieme statistico di N sistemi simili. 4.1 Valore medio o di aspettazione Quando gli eventi si presentano rispettivamente in N1 ; N2 ; ¢ ¢ ¢ NM sistemi dell'insieme, possiamo raggruppare i corrispondenti valori della variabile x nel modo seguente: N (x1 )x1 ; N (x2 )x2 ; ¢ ¢ ¢ N(xM )xM ; allora si de¯nisce valore medio di x o valore di aspettazione la quantitµ a hxi = N (x1 )x1 + N(x2 )x2 + ¢ ¢ ¢ + N (xM )xM : N (x1 ) + N (x2 ) + ¢ ¢ ¢ + N (xM ) Dividendo numeratore e denominatore per N , con N molto grande, si ottiene hxi = P (x1 )x1 + P (x2 )x2 + ¢ ¢ ¢ + P (xM )xM P (x1 ) + P (x2 ) + ¢ ¢ ¢ + P (xM ) M X = P (xi )xi i=1 M X = P (xi ) M X i=1 i=1 8 (7) P (xi )xi ; poich¶e per la condizione di normalizzazione della probabilitµ a si deve avere M X P (xi ) = 1: i=1 In generale de¯niamo valore medio di una funzione f (x) della variabile aleatoria x la quantitµ a: hf (x)i = M X P (xi )f (xi ): (8) i=1 Valore medio della somma Consideriamo due funzioni f (x) e g(x) della variabile aleatoria x; il valore medio della loro somma µe hf (x) + g(x)i = = M X P (xi )[f (xi ) + g(xi )] M X P (xi )f (xi ) + i=1 i=1 M X (9) P (xi )g(xi ) i=1 = hf (xi ) + g(xi )i : Il valore medio della somma µe uguale alla somma dei valori medi, indipendentemente dall'ordine con cui vengono eseguite le operazioni. Valore medio del prodotto Siano f (x) e g(y) due funzioni delle variabili aleatorie x ed y , tra loro indipendenti, che possono assumere rispettivamente i valori x1 ; x2 ¢ ¢ ¢ xr ; y1 ; y2 ¢ ¢ ¢ ys : La probabilitµ a che le variabili assumano congiuntamente il valore i, (i = 1; 2 : : : r), ed il valore j , (j = 1; 2 : : : s), µe data dalla probabilitµa composta Pi;j = Pi Pj : De¯niamo valore medio del prodotto delle due funzioni la quantitµ a hf (x)g(y)i = r X s X Pi;j f (xi )g(yj ) ; i=1 j=1 che si puµ o scrivere hf (x)g(y)i = " r X i=1 #2 Pi f (xi ) 4 s X j=1 3 Pj g(yj )5 : Poich¶e i termini in parentesi quadre sono rispettivamente i valori medi di f (x) e g(y), concludiamo che hf (x)g(y)i = hf (x)ihg(y)i : (10) Il valore medio del prodotto di due funzioni µe uguale al prodotto dei valori medi delle singole funzioni. 9 4.2 Scarto a: Si de¯nisce scarto di una variabile aleatoria x dal suo valore medio, la quantitµ ¢x = x ¡ hxi ; (11) si deduce inoltre che il valore medio di ¢x µe h¢xi = h(x ¡ hxi)i = hxi ¡ hxi = 0: 4.3 Dispersione a Si de¯nisce dispersione o varianza della variabile aleatoria x la quantitµ h(¢x)2 i = M X i=1 P (xi )(xi ¡ hxi)2 ¸ 0 ; (12) la sua radice positiva viene chiamata deviazione standard ¾. Esempi 1) Valore medio e dispersione della distribuzione binomiale Anzitutto osserviamo che µe veri¯cata la condizione di normalizzazione delle probabilitµ a; infatti si ha: N X N! pn q N¡n = (p + q)N = 1N : n!(N ¡ n)! n=0 Il valore medio di n µe hni = N X P (n) n ; n=0 per calcolare questa somma osserviamo che p e q si possono considerare come parametri arbitrari, tali perµ o che p + q = 1, e che si puµ o scrivere npn = p @ n (p ) : @p Si ha: hni = N X N! pn q N ¡n n n!(N ¡ n)! n=0 · ¸ @ N! p (pn ) q N ¡n n!(N ¡ n)! @p n=0 # "N @ X N! n N ¡n =p p q @p n=0 n!(N ¡ n)! = N X =p (13) @ (p + q)N = Np(p + q)N ¡1 = Np: @p Riferendoci al problema degli spostamenti casuali, il valore medio degli spostamenti verso destra µe Np ed il valore medio degli spostamenti verso sinistra N q. Poich¶e lo spostamento m dall'origine µe m = n ¡ (N ¡ n), si trova che lo spostamento medio, hmi µe hmi = hn ¡ (N ¡ n)i = hni ¡ hN ¡ ni = N p ¡ N q = N (p ¡ q) ; se p = q, hmi = 0; c'µe completa simmetria nei due versi. 10 Per valutare la dispersione di n stabiliamo prima una relazione utile per una generica variabile aleatoria x: h(¢x)2 i = h(x ¡ hxi)2 i = h(x2 ¡ 2xhxi + hxi2 )i = hx2 i ¡ 2hxihxi + hxi2 = hx2 i ¡ hxi2 ; (14) cioµe la dispersione di una variabile aleatoria µe uguale alla di®erenza tra il valore medio del quadrato della variabile e il quadrato del suo valore medio. Nel caso della distribuzione binomiale, h(¢n)2 i = hn2 i ¡ hni2 : Avendo giµ a calcolato hni, occorre calcolare hn2 i; si ha hn2 i = Si puµ o scrivere: N X N! pn q N¡n n2 : n!(N ¡ n)! n=0 · ¸ @ n @ p (p ) ; n p =p @p @p 2 n quindi hn2 i = · ¸ @ N! @ p (pn ) q N ¡n : p n!(N ¡ n)! @p @p n=0 N X Scambiando le operazioni di derivazione e di somma e tenendo presente che (p + q) = 1, il secondo membro della precedente diventa à ! N @ X N! n N ¡n p p q @p n=0 n!(N ¡ n)! · ¸ ¤ @ @ £ @ N p (p + q) pN(p + q)N ¡1 =p =p @p @p @p ¤ £ = p N (p + q)N ¡1 + pN (N ¡ 1)(p + q)N ¡2 : @ p @p In de¯nitiva hn2 i = p[N + pN (N ¡ 1)] = N p(1 + N p ¡ p) = (N p)2 + N pq = hni2 + Npq: Per la (14), la dispersione risulta h(¢n)2 i = N pq: (15) Come s'µe detto al paragrafo 4.3, la dispersione viene indicata con ¾ 2 ; la sua radice positiva, che abbiamo chiamato deviazione standard oppure deviazione quadratica media, dµ a una indicazione dell'intervallo entro cui i valori di n sono distribuiti. Una buona indicazione µe l'intervallo relativo di tale distribuzione, de¯nito da ¾ = hni p r N pq q 1 = p : Np p N In particolare se p = q: ¾ 1 =p : hni N C'µe da notare che quando N aumenta, hni aumenta anch'esso come N , mentre ¾ aumenta come N 1=2 . Nelle ¯gure 1 e 2, dove sono mostrate le distribuzioni per N = 20 spostamenti, sono indicati il valore medio e la deviazione standard. 11 2) Si calcoli, nel caso degli spostamenti casuali di una particella, la dispersione di m, ossia la dispersione dello spostamento netto verso destra. Poich¶e, per la (4), m = 2n ¡ N; per la (11) si ottiene: ¢m = m ¡ hmi = (2n ¡ N) ¡ (2hni ¡ N ) = 2(n ¡ hni) = 2¢n; ossia: (¢m)2 = 4(¢n)2 : Ricordando la (15), si ha h(¢m)2 i = 4h(¢n)2 i = 4N pq: 5. Distribuzione di probabilitµa per N molto grande; distribuzione di Gauss Si µe visto che la distribuzione binomiale, equazione (6), presenta un massimo per un certo valore di n prossimo ad N=2, che indichiamo con n~ , e decresce a sinistra e a destra di questo valore. Per valori intorno al massimo si veri¯ca che: jP (n + 1) ¡ P (n)j ¿ P (n); perciµ o, per N molto grande, n puµ o essere considerata con buona approssimazione una variabile continua. Il valore di n~ corrispondente al massimo µe determinato dalla condizione dP = 0; dn oppure dalla equivalente d ln P = 0: dn Infatti P (n) contiene fattoriali di numeri molto grandi, mentre ln P (n) µe una funzione che varia piµ u lentamente. Per studiare il comportamento di P (n) vicino al massimo, poniamo n=n ~ + ²; dove ² rappresenta l'intorno, su±cientemente piccolo, al quale piµ u sopra si accennava. Sviluppando ln P (n) in serie di Taylor in tale intorno, si ottiene: 1 1 ln P (n) = ln P (~ n ) + B1 ² + B2 ² 2 + B3 ² 3 + ¢ ¢ ¢ ; 2 6 dove Bk = µ dk ln P dnk ¶ : n ~ Poich¶e lo sviluppo µe fatto intorno al massimo, dev'essere B1 = 0 e B2 < 0, perciµ o B2 = ¡jB2 j. Eliminando i logaritmi si ha · ¸ 1 1 P (n) = P (~ n) exp ¡ jB2 j²2 + B3 ²3 + ¢ ¢ ¢ 2 6 e se ² µe su±cientemente piccolo i termini di ordine superiore al secondo possono essere trascurati; pertanto la probabilitµ a cercata assume la forma P (n) = P (~ n)e¡jB2 j² 12 2 =2 : (16) Ci proponiamo ora di determinare i valori di n~ , B2 e P (~n). Prendendo il logaritmo della (6) si ottiene: ln P (n) = ln N ! ¡ ln n! ¡ ln(N ¡ n)! + n ln p + (N ¡ n) ln q; la quale contiene fattoriali di numeri molto elevati, quindi conviene usare l'approssimazione di Stirling riportata di seguito. Il ln x! si puµ o scrivere ln x! = ln 2 + ln 3 + ¢ ¢ ¢ + ln x: ln Questa espressione rappresenta l'area della curva a gradini mostrata in ¯gura 3 poich¶e ogni rettangolo (ombreggiato) ha base unitaria ed altezza ln x. Quando x µe grande i gradini approssimano abbastanza bene la curva continua: Z x ln x! ¼ ln x dx: x 1 Integrando per parti, si ha 0 ln x! ¼ x ln x ¡ x + 1 ; 1 2 3 4 5 6 7 8 9 10 x Fig. 3 e, trascurando 1 rispetto a x, ln x! ¼ x ln x ¡ x : Tenuto conto di questa approssimazione il ln P (n) diventa ln P (n) ¼ N ln N ¡ N ¡ (n ln n ¡ n)¡ ¡ [(N ¡ n) ln(N ¡ n) ¡ (N ¡ n)] + n ln p + (N ¡ n) ln q = N ln N ¡ n ln n ¡ (N ¡ n) ln(N ¡ n) + n ln p + (N ¡ n) ln q: Derivando rispetto ad n: d[ln P (n)] = ¡ ln n + ln(N ¡ n) + ln p ¡ ln q: dn Uguagliando a zero questa derivata si trova il valore di n = n~ dove ln P (n) µe massimo: ¸ (N ¡ n) p = 0; ln n q · ) n ~ = N p; che coincide col valore medio di n. La derivata seconda d2 [ln P (n)] 1 1 ; =¡ ¡ dn2 n N ¡n calcolata per n = n~ = Np, dµ a il valore di B2 : 1 B2 = ¡ N µ 1 1 + p q ¶ =¡ 1 1 =¡ 2: N pq ¾ (17) Il valore di P (~n) puµ o essere determinato per mezzo della condizione di normalizzazione delle probabilitµ a. Infatti, nell'ipotesi di N molto grande, possiamo scrivere: N X n=0 P (n) ¼ Z +1 P (n)dn = 1; ¡1 13 e, per la (16), P (~ n) Z +1 2 e¡jB2 j² =2 d² = 1: (18) ¡1 L'integrale che compare nella precedente appartiene alla classe di integrali notevoli del tipo Z 1 2 xn e¡®x dx; In = 0 (n ¸ 0) i cui valori per n = 0; 1; 2; 3; 4; 5 risultano: r I0 = 1 2 I3 = 1 ; 2®2 ¼ ; ® 1 ; 2® r ¼ 3 I4 = ; 8®2 ® I1 = Pertanto la (18) diventa: s P (~ n) r 1 ¼ ; 4® ® 1 I5 = 3 : ® I2 = 2¼ = 1; jB2 j da cui P (~ n) = r jB2 j : 2¼ Pertanto la (16) diventa: P (n) = r jB2 j jB2 j(n¡~n)2 =2 ; e 2¼ che, per la (17), si scrive: P (n) = 2 2 1 p e¡(n¡~n) =2¾ : ¾ 2¼ (19) Questa equazione rappresenta la distribuzione di Gauss. La distribuzione di Gauss µe molto importante perch¶e in natura moltissimi fenomeni casuali, per N molto grande cioµe nel limite P (x ) dei grandi numeri, statisticamente sono rappresentati da questa distribuzione. In queste Fig. 4 condizioni non ha signi¯cato chiedersi qual'µe la probabilitµ a che la variabile aleatoria, che indichiamo genericamente con x, assuma un certo valore, ma piuttosto qual'µe la probabilitµ a che essa assuma valori compresi nell'intervallo dx, ossia tra x ed x + dx. Introducendo la grandezza densitµ a di probabilitµ a che x ¡ ¡ + ¾ dx 0 x {¾ ¡ x x indichiamo con P(x), si ha: P(x)dx = 2 2 1 p e¡(x¡~x) =2¾ dx ; ¾ 2¼ (20) dove con x~ si µe indicato il valore massimo della variabile aleatoria. In ¯gura 4 µe mostrato l'andamento della densitµ a di probabilitµa. Si osserva che la curva µe sempre positiva, µe simmetrica rispetto a x~ e decresce tendendo a zero per x a destra e a sinistra di tale valore. La probabilitµ a che x assuma valori compresi nell'intervallo 14 dx µ e data dal valore numerico dell'areola racchiusa dal tratto di curva compreso tra a che x sia compresa tra x1 e x2 µe le ascisse x e x + dx. Naturalmente la probabilitµ Z x2 P(x)dx: x1 La probabilitµ a che x sia compresa in tutto l'intervallo di de¯nizione, cioµe la certezza, µe Z Z +1 ¡1 P(x)dx = +1 1 p ¾ 2¼ e¡(x¡~x) 2 =2¾ 2 dx = 1; (21) ¡1 ovvero la condizione di normalizzazione delle probabilitµ a. Da questa relazione si ricava Z +1 e¡(x¡~x) 2 =2¾2 p dx = ¾ 2¼: ¡1 Siamo in grado di calcolare il valore medio di x, ossia: hxi = Ponendo y = x ¡ x~, si ha hxi = 1 p ¾ 2¼ ·Z 1 p ¾ 2¼ Z +1 x e¡(x¡~x) 2 =2¾ 2 dx: ¡1 +1 y e¡y 2 =2¾ 2 dy + x ~ ¡1 Z +1 e¡y 2 =2¾ 2 ¸ dy : ¡1 Il primo integrale µe una funzione dispari di p y , quindi si annulla per simmetria; il secondo integrale, per la (21), µe uguale a ¾ 2¼, pertanto si ha hxi = x ~: (22) Il valore medio di x coincide col suo massimo. La dispersione µe data da 1 h(x ¡ x ~) i = p ¾ 2¼ 2 1 = p ¾ 2¼ Z +1 ¡1 Z +1 (x ¡ x ~)2 e¡(x¡~x) 2 ¡y2 =2¾ 2 y e 2 =2¾2 dx (23) 2 dy = ¾ : ¡1 6. Misure L'operazione piµ u importante dell'esperienza µe la misura poich¶e da questa si trae il valore della grandezza ¯sica in esame, espresso con un numero, seguito sempre dalle sue unitµ a. Nella misura, oltre a un buon progetto, si richiede anche competenza e abilitµ a dello sperimentatore, il quale non deve introdurre perturbazioni apprezzabili sul sistema che sta osservando. Le misure possono essere dirette o relative oppure indirette o assolute. Nel primo caso la grandezza viene confrontata con campioni multipli o sottomultipli dell'unitµ a fondamentale, come avviene nella misura di masse eseguite con bilance analitiche, oppure nella misura di lunghezze mediante calibri di precisione. Questo procedimento viene usato in casi particolari ed µe sempre molto lungo e complesso. Nella pratica di laboratorio, di solito, vengono usati strumenti tarati con i quali il valore della grandezza viene letto direttamente, osservando la posizione che assume un indice mobile su una scala graduata in corrispondenza alla variazione della grandezza; lettura analogica. Esempi di tali strumenti sono: comparatori per la misura di lunghezze, cronometri, manometri, amperometri e moltissimi altri. Gli 15 indici possono essere realizzati nei piµ u svariati modi, dipendenti dalla sensibilitµ a dello strumento; indici ad ago, indici muniti di nonio, indici a leva ottica e cosµ³ via. Recentemente, in molte apparecchiature, l'indice µe stato sostituito da un indicatore digitale che elimina alcuni inconvenienti della lettura analogica. Se la misura di una certa grandezza ¯sica viene ripetuta diverse volte nelle stesse condizioni, in genere, si ottengono valori diversi, anche se la di®erenza tra i valori ottenuti µe sempre molto piccola; si dice che nelle misure sono stati commessi errori. Gli errori hanno origini molto diverse e vengono classi¯cati in sistematici e casuali. Gli errori sistematici possono dipendere da imperfetta calibrazione dello strumento, da condizioni sperimentali non adatte e dallo sperimentatore stesso; essi sono sempre eliminabili. Per quanto riguarda gli errori casuali, in genere, µe impossibile stabilirne la causa poich¶e sono presenti in ogni esperimento, purch¶e eseguito con apparecchiature adeguate. Tentativamente si puµ o dire che sono dovuti ad errori di apprezzamento ed a °uttuazioni incontrollabili nelle condizioni di misura. Si capisce dunque che la u probabile. misura non puµ o dare il valore vero della grandezza, bensµ³ il valore piµ La teoria della misura esula dai nostri limiti, tuttavia per avere una idea del metodo sperimentale, µe indispensabile darne alcuni cenni. 6.1 Sensibilitµa di lettura Se la misura µe eseguita con apparecchi tarati che, come s'µe detto, µe il metodo piµ u frequente, de¯niamo sensibilitµ a di lettura ±x di un apparecchio il minimo spostamento dell'indice, causato dalla variazione della grandezza x, che µe possibile apprezzare sulla scala graduata. Cooperano alla sensibilitµ a di lettura la ¯nezza dei tratti incisi sulla scala e il tipo di indice. Quando un buon apparecchio possiede questi requisiti ed µe ben usato, ±x µe senz'altro la minima frazione dell'intervallo di graduazione apprezzabile sulla scala. Se, per esempio, nella misura di una lunghezza viene usato un calibro che puµ o apprezzare 1/20 di mm, si dice che la sensibilitµ a di lettura µe di 1/20 di mm; una variazione di lunghezza viene apprezzata solo se µe uguale o maggiore di tale valore. A volte la sensibilitµ a di lettura viene espressa come l'inverso di ±x, in modo che il numero che ne risulta sia tanto piµ u grande quanto piµ u piccolo µe ±x. Negli apparecchi con indicatore digitale, si assume come sensibilitµ a di lettura il valore corrispondente all'ultimo \digit" stabile durante la lettura. L'a±dabilitµ a di una misura µe determinata dal numero di cifre signi¯cative che, a loro volta, dipendono dalla stima dell'errore. Supponiamo di eseguire, nelle stesse condizioni, N misure di una grandezza; se l'apparecchio µe ben tarato e usato in modo appropriato, per e®etto degli errori casuali, le letture di®eriranno tra loro di a allora come valore della misura, la media aritmetica alcune unitµ a di ±x. Si assumerµ delle letture: x= x1 + x2 + ¢ ¢ ¢ + xN ; N e ¯nch¶e N non µe grande, la stima dell'errore della misura µe data dalla semidi®erenza tra i valori assoluti del massimo e del minimo dei valori ottenuti, che viene chiamata semidispersione massima. 6.2 Giusti¯cazione della media Consideriamo ora il caso di un numero di misure N molto grande, eseguite con un apparecchio di elevata sensibilitµ a. Le misure saranno comprese in una regione, limitata dai valori minimo e massimo xmin e xmax , che suddividiamo in tanti intervalli ¢x, di ampiezza piccola, ma tale che ognuno di essi comprenda un numero elevato di misure. Si riportano quindi in un gra¯co tanti rettangoli aventi ciascuno come base ¢x e come altezza il rapporto tra il numero di misure n(x) comprese in ¢x e il numero a n(x)=N prende il nome di f requenza ed il gra¯co ottenuto totale N . La quantitµ diagramma o istogramma delle frequenze. Tale istogramma ha l'aspetto qualitativo mostrato in ¯gura 5. Si osserva che il valore massimo dell'istogramma corrisponde alla media che, pertanto, puµ o essere assunta come valore piµ u rappresentativo o piµ u 16 probabile della misura. I valori che si discostano dalla media decrescono rapidamente a destra e a sinistra di essa. All'aumentare di N , il numero dei rettangoli si puµ o in¯ttire poich¶e ognuno di essi contiene un elevato numero di misure, e all'in(x)/N stogramma si puµ o adattare una curva continua, simmetrica rispetto alla media. Questa curva curva µe la distribuzione di Gauss, equaFig. 5 zione (20), rappresentata dall'espressione P(x) = 2 2 1 p e¡(x¡x) =2¾ ¾ 2¼ dove P(x) indica la densitµ a di probabilitµ ae¾ x{ x ¢x µ µe la deviazione standard. E evidente che la curva presenta un massimo per x = x, ¯gura 4. L'introduzione del termine densitµ a di probabilitµ a µe presto chiarito. Osserviamo a che il numero di misure che la frequenza, per N molto grande, tende alla probabilitµ n(x) sia compreso nell'intervallo ¢x. Conviene quindi riportare sull'asse delle ordia di probabinate dell'istogramma la grandezza n(x)=(N ¢x) che µe appunto la densitµ litµ a. Allora il valore numerico del prodotto tra l'ordinata e ¢x, area del rettangolo, dµ a la probabilitµ a suddetta. Poich¶e per N molto grande l'istogramma µe rappresentato a che la misura sia dalla curva di Gauss, la quantitµ a P(x)dx rappresenta la probabilitµ compresa nell'intervallo elementare dx; areola ombreggiata della ¯gura 4. Pertanto la probabilitµ a che la misura sia compresa in un certo intervallo che ha come estremi x1 e x2 , µ e Z x2 x1 P(x)dx; ed µe rappresentata dal valore numerico dell'area sottesa dalla curva e l'asse x, tra le ascisse x1 e x2 . Si capisce subito che Z +1 ¡1 P(x)dx = 1: Ciµo signi¯ca che la misura µe certamente compresa in tutto il campo di misurazione; l'area sottesa dalla curva di Gauss e l'asse delle ascisse risulta cosµ³ unitaria o normalizzata. 7. Distribuzione degli errori Si de¯nisce errore della misura di indice i la quantitµa ²i = xi ¡ x; chiamata anche scarto dalla media. Si veri¯ca immediatamente che la somma degli N errori µ e sempre nulla, pertanto anche la loro media µe nulla. Ricordando l'equazione (12), la deviazione standard o scarto quadratico medio µe dato dall'espessione: v u N u1 X ¾=t ²2 : N 1 i 17 La deviazione standard, ricavata dalle misure sperimentali, indica il grado di precisione delle misure e®ettuate. La distribuzione degli errori µe gaussiana con il massimo corrispondente a ² = 0. In ¯gura 6 µe mostrato l'andamento della densitµ a di probabilitµa P(²). Valgono le considerazioni fatte prima a proposito della distribuzione delle misure. P (²) Parametro caratteristico della distribuzione di Gauss µe la deviazione standard ¾ ; in ¯gura 7 sono mostrate le distribuzioni (a), (b) e (c) corrispondenti a valori di ¾ decrescenti, ossia con accuratezza crescente. Siccome per tutte le curve l'area sottesa deve essere uguale a 1, si evidenzia chiaramente che la curva (c) µe quella corrispondente a misure piµ u precise. Il signi¯cato di ¾, in termini di probabilitµ a, µe spiegato nei testi di teoria della ² O misura. Si dimostra che d² Fig. 6 Z +¾ ¡¾ P(²)d² = 0; 683; dunque l'area corrispondente µe il 68,3% dell'area totale. Ciµ o signi¯ca che una misura della grandezza, tra le N e®ettuate, ha il 68,3% di probabilitµa di assumere un valore compreso tra x ¡ ¾ e x + ¾ . Allora l'errore che va attribuito alla singola misura µe §¾ e si evidenzia scrivendo xi § ¾ . Si µe riconosciuto che il valore piµ u proP (²) babile della grandezza µe dato dalla media aritmetica delle misure. Per esprimere il risultato, pertanto, bisogna valutare l'errore da attribuire alla media, cioµe la sua deviazione standard. (c) In teoria della misura si dimostra che Fig. 7 la deviazione standard della media µe semplicemente (b) ¾ ¾m = p : N a ( ) ² O le medie x= (25) Questo signi¯ca che e®ettuate un certo numero M di medie, ciascuna di N misure, possiamo de¯nire la media del- x1 + x2 + ¢ ¢ ¢ xM M e analogamente a quanto detto prima per la singola misura, le medie hanno a loro volta distribuzione gaussiana col massimo in x. Pertanto la singola media ha una a di essere compresa tra x ¡ ¾m deviazione standard ¾m , ovvero il 68,3% di probabilitµ e x + ¾m . Si deduce che l'errore di misura della grandezza µe §¾m e scriveremo x § ¾m . 8. Stima dell'errore massimo nelle misure indirette Nelle misure indirette la grandezza, che indichiamo con y, µe legata ad altre grandezze, che vanno misurate direttamente, mediante una equazione del tipo: y = f (x1 ; x2 ; ¢ ¢ ¢ xn ): (26) µ per esempio, il caso di una lunghezza misurata come di®erenza tra due misure, E, l = x2 ¡ x1 , della velocitµ a media, misurata come rapporto tra spazio percorso e il corrispondente intervallo di tempo, ecc... 18 Il problema consiste nel ricavare la distribuzione degli errori ²y per e®etto degli errori ²i che si commettono nelle misure delle grandezze indipendenti; la distribuzione µe ancora gaussiana. Non ci occuperemo in dettaglio di questo caso, ma ci limiteremo a una valutazione dell'errore massimo che presumibilmente si commette usando, per la misura delle grandezze indipendenti, apparecchi di assegnata sensibilitµa di lettura. Assumendo la media come valore piµ u probabile della misura, sviluppiamo la (26) in serie di Taylor nell'intorno di (x1 ; x2 ; ¢ ¢ ¢ xn ), arrestandoci al primo ordine; si ha µ ¶ y = y(x1 ; x2 ; ¢ ¢ ¢ xn ) + n X 1 @y @xi xi =xi (xi ¡ xi ) : Pertanto l'errore di cui µe a®etta la grandezza y, risulta ¶ n µ X @y ²y = y ¡ y(x1 ; x2 ; ¢ ¢ ¢ xn ) = (xi ¡ xi ) : @xi xi =xi 1 Sostituendo agli errori la sensibilitµ a di lettura delle singole grandezze, si puµ o scrivere approssimativamente: ¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯ @y ¯ ¯ @y ¯ ¯ @y ¯ ¯ ¯ ¯ ¯ ²y = ¯ ¢x1 ¯ + ¯ ¢x2 ¯ + ¢ ¢ ¢ + ¯ ¢xn ¯¯ : @x1 @x2 @xn (27) I vari termini vengono considerati in valore assoluto non essendo noto a priori il loro segno, perciµ o la precedente viene chiamata errore assoluto massimo a priori o sensibilitµ a della misura. Appare evidente inoltre che in una misura ben fatta tutti i termini della (27) devono essere dello stesso ordine di grandezza. Se, per esempio, la grandezza da misurare µe una lunghezza espressa dalla di®erenza tra due letture l = x2 ¡ x1 , si ha immediatamente ¢l = ¢x2 + ¢x1 : In questo modo si puµ o anche giudicare quali precauzioni devono essere prese nella misura di una certa grandezza e quale possibile errore puµ o essere commesso se si dispone di certe apparecchiature. Supponiamo di voler preparare una soluzione all'1% di una certa sostanza in acqua. La concentrazione c µe de¯nita dal rapporto c= p ; p0 In cui p µe il peso del soluto e p0 il peso del solvente; l'errore massimo a priori µe dato da: ¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯ ¢p ¯ ¯ p ¢p0 ¯ ¯ ¢p ¯ ¯ ¯ ¯+¯ ¯=¯ ¯ + p ¯ ¢p0 ¯ : ²c = ¯¯ ¯ ¯ ¯ ¯ ¯ ¯ p0 p0 p0 p0 p0 p0 ¯ Nel nostro caso p=p0 = 1=100, quindi se si pesassero con ugual cura soluto e solvente si avrebbe j¢pj = j¢p0 j e l'errore sarebbe costituito da due termini: uno ¢p=p0 e l'altro µ inutile pesare il solvente con la stessa cura p=p0 (¢p0 =p0 ), cento volte piµ u piccolo. E con cui deve essere pesato il soluto; se quest'ultimo µe pesato ¯no al milligrammo, basta pesare il solvente ¯no al decimo di grammo. 8.1 Errore relativo L'errore relativo µe de¯nito dal rapporto tra l'errore, sia esso lo scarto o la deviazione standard oppure la sensibilitµ a di lettura, e la misura della grandezza: ²r = ² ; x ¾r = 19 ¾ ;¢¢¢ x Esso µe una quantitµ a adimensionata e, di solito si esprime in percentuale, ha inoltre il vantaggio di essere piµ u signi¯cativo dell'errore assoluto. Valga questa semplice considerazione: le lunghezze di 10 mm e di 1 m vengano misurate con l'errore assoluto di 1mm; nel primo caso viene commesso un errore del dieci per cento, nel secondo dell'un per mille. La seconda misura µe ben piµ u precisa della prima. Ricordando la (27), l'errore relativo massimo a priori µe de¯nito da ¯ ¯ ¯ ¯ ¯ 1 @y ¯ ¯ 1 @y ¯ ²y ¯ ¯ ¯ =¯ ¢x1 ¯ + ¢ ¢ ¢ + ¯ ¢xn ¯¯ ; y y @x1 y @xn (28) che si puµ o considerare come il di®erenziale del logaritmo di y, ossia ²y ¢y = = ¢(ln y): y y Questa formulazione µe molto comoda se la grandezza µe del tipo ®n 1 ®2 y = x® 1 x2 ¢ ¢ ¢ xn ; con ®i numeri reali qualsiasi. Si ha immediatamente ¯ ¯ ¯ ¯ ¯ ¯ ¯ ¢xn ¯ ¯ ¢x1 ¯ ¯ ¢x2 ¯ ²y ¯ ¯ ¯ ¯ ¯: ¯ + ®2 + ¢ ¢ ¢ + ¯®n = ¯®1 y x1 ¯ ¯ x2 ¯ xn ¯ Nel caso dell'esempio precedente si ha ¯ ¯ ¯ ¯ ¢c ¯¯ ¢p ¯¯ ¯¯ ¢p0 ¯¯ : =¯ + c p ¯ ¯ p0 ¯ 8.2 Cifre signi¯cative Si µe detto che una misura va espressa da un numero seguito dall'errore e dall'unitµ a di misura. L'errore stabilisce il numero di cifre signi¯cative della misura che si possono garantire come esatte. Per esempio, un risultato espresso dal valore 35; 387 § 0; 001 in cui sono presenti cinque cifre signi¯cative con un errore §0; 001 indica che l'ultima µe incerta per §0; 001. A volte si puµ o ottenere un risultato del tipo 3; 207 § 0; 01; in tal caso si arrotonda come 3; 21 § 0; 01, usando il criterio di arrotondare alla decina successiva, se l'ultima cifra µe maggiore di 5 o altrimenti alla precedente. Ancora un esempio: supponiamo che siano stati ottenuti i valori 4,041; 1,135; 8,704 con un errore relativo dell'1% ed errore assoluto rispettivamente di 0,04; 0,01; 0,1; allora detti valori si scrivono 4; 04 § 0; 04; 1; 13 § 0; 01; 8; 7 § 0; 1: µ dunque inutile riportare nei risultati tutte le cifre decimali che si ottengono; E queste vengono ¯ssate dall'errore che si commette. Nella pratica di laboratorio molte volte µe su±ciente una approssimazione dell'1%; per ottenere sicuramente tale approssimazione basta tener conto, con i criteri su esposti, delle prime due cifre signi¯cative dopo la virgola. 20