AA 2010-11 http://people.na.infn.it/palladin/Lezioni2010-11/110301Lezione09.pdf Nona lezione, prima del secondo modulo Anche il caso ha regole Applicandolo agli errori casuali, soprattutto quelli statistici ne Una gita scolastica …. a Monte Carlo spesso di “successi” finito frequenza F di testa, per es. Sara’ essenziale un attento studio della probabilita’ binomiale su queste modalita’ si distribuisce la distribuzione di probabilita’ P(A), dove ciascuna P(A) e’ un NB senza dimensioni Il secondo assioma regola la probabilita’ totale Conseguenze degli assiomi se Ai Ai= i,j 1) P(Ai)=Σi P(Ai) principio delle probabilita’ totali Dim P(ABC)= P(AB)+P(C)= P(A)+P(B)+P(C) etc 2) P()= 0.00 Dim 3) P(A)= 1-P(A) Dim 4) P(A)= P(B) ≤ 1-P(A) P(A) Dim 4) P(AB)= P(A)+ P(B)- P(AB) Dim Cosi’ in generale: P(AB)=P(A)+P(B)-P(AB) se AB = conteggio doppio, altrimenti ! Scriviamo . P(A,B) = P(A)* P(B)* F(A,B) = dove F(A,B) = P(A,B)/(P(A)*P(B)) e poi = P(A)*F(A,B) = P(B)*F(A,B) F(A,B) = 1 F(A,B) > 1, se si favoriscono, probabilisticamente F(A,B) < 1, se si sfavoriscono, probabilisticamente P(A e B)= =P(A,B) =P(A) F(A,B) P(B) P(A/B) P(B/A) F(A,B)>1⇒ P(A,B) > P(A) P(B) si favoriscono F(A,B)=1⇒ P(A,B) = P(A) P(B) sono indipendenti F(A,B)<1⇒ P(A,B) < P(A) P(B) si sfavoriscono Primi esempi di distribuzioni di probabilita’ cioe’ insiemi {Pj} di numeri reali Pj ciascuno probabilita’dell’ esito j j-esimo degli n esiti ( j=1, … n) su cui la probabilita’ si distribuisce NB Pj soddisfano Σ Pj = 1 e gli altri assiomi L’ esempio primordiale: due esiti maschio materia femmina antimateria Due esiti di probabilita’ qualunque (moneta “truccata”) p+q=1 Ptesta=q= (1-p) >1/2 Pcroce= p <1/2 - insuccesso + successo Altri esempi di distribuzioni uniformi totocalcio: le probabilita’ di una partita “da tripla” NB 1/3 1/3 1/3 2 Sconfitta -1 X Pareggio 0 1 Vittoria +1 Pj 1/n se si “spalma” su piu’ esiti Pj deve ridursi per mantenere Σ Pj = 1 !!!!!! Distribuzioni non uniformi 2 monete 1/2 Aaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaa Pj 1/4 1/4 1 testa 1 croce 0 2 testa 0 croce -2 3 monete Pj 1/8 3 testa 0 croce -3 3/8 0 testa 2 croce +2 3/8 1/8 2 testa 1 croce -1 1 testa 2 croce +1 0 testa 3 croce +3 NB primi esempi di distribuzioni binomiali aaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaa Distribuzione uniforme continua NB Pj 1/n P deve ridursi se si “spalma” su piu’ esiti per mantenere Σ Pj = 1 Se gli esiti diventano continui l’ indice j diventa una variabile continua x x x 0 <j< 36 0 <x< L x x 0 <j< 36 0 <x< L P( x<x<x+dx)=dP= = p(x)dx deve esserci un area Σj dx Distribuzioni continue non uniformi La gaussiana e’ certo la piu’ importante aaaaaaaaa g(x)dx = dG = dP = p(x)dx anche qui, deve esserci un area Definizione dei momenti di una distribuzione di probabilita’ • Media di x m • Media degli scarti x-m … (=0 !) • Media degli scarti quadratici (x-m)2 varianza = σ2 σ = dev standard • Media degli scarti cubici • etc etc Definizione di valore medio di una variabile casuale Il baricentro della distribuzione p(x) Pxi <x> <x> detto anche momento primo intorno all’ origine Nota Bene m = <x> non e’ la media aritmetica di n misure x E’ una proprieta’ della distribuzione Non ci sono (ancora) misure, qui !!!!!! Nota Bene m non e’ la media aritmetica di n misure x E’ una proprieta’ della distribuzione Non ci sono (ancora) misure, qui !!!!!! Sono due cose diverse !!!! m= <x> x n →∞ Primi Esempi m = <x> = Σ Pjxj = (½) (-1)+ (½) (+1)= 0 Il valore medio per il lancio d’una moneta e’ zero !! Come spesso, il valore medio non e’ un’ esito possibile Due esiti non equiprobabili Ptesta=q >1/2 Pcroce= p <1/2 - insuccesso Anche qui, m = <x> = Σ Pjxj = q (-1)+ p (+1) = p-q + successo il valore medio non e’ un’ esito possibile Altri esempi di medie….. non e’ un esito e’ un esito <(x-m))k> Lo scarto medio (il momento d’ ordine uno) intorno al valore atteso e’ identicamente 0 <x-m> = Σj Pj (xj-m) = Σj Pj xj - Σj Pj m = m - m =0 come lo scarto medio di n misure intorno alla loro media aritmetica x <x-m> non e’ un concetto utile Dobbiamo ricorrere allo scarto quadratico medio (il momento d’ ordine due) Nota Bene σ non e’ la S “del laboratorio” e’ la sua astrazione concettuale σ = deviazione standard della distribuzione = √ Σj Pj (xj-m)2 σ e’ una proprieta’ della distribuzione S = stima della deviazione standard di n misure= √ Σi (xi-x)2/(N-1) e’ una stima ottenuta da un campione Non ci sono (ancora) misure, qui !!!!!! S Sono due cose diverse !!!! n →∞ σ Primi Esempi <x> = p-q +1 Come spesso, il valore medio non e’ un’ esito possibile Due esiti non equiprobabili = [-1- (p-q)]2 q + Ptesta=q >1/2 [+1- (p-q)]2 p = Pcroce= p <1/2 - insuccesso 4pq + successo p+q =1 Altri esempi di dev. standard Lo scarto cubico medio μ3(m) 3 3 aaaaa μ3(m) 3 3 E’ il primo momento dispari dello scarto x-m non identicamente nullo Lo incontreremo in a alcuni casi Spesso nella forma adimenionale β = μ3(m)/σ3 Misura la simmetria intorno a m E cosi’ via Piu’ momenti μ4(m), μ5(m) etc fornisco meglio descrivo le proprieta’ GLOBALI della Pj Un primo esempio nel continuo: la distribuzione uniforme Un secondo esempio nel continuo: la distribuzione di Gauss Vedremo, facendo i due integrali, che <x> = m <(x-m)2> = σ2 β = μ3(m)/σ3 =0 σ2 = <(x-m)2> = = <x2 -2mx + m 2> = <x2> -2m<x> + m2 = <x2>- 2m2+m2= = <x2>- m2= = <x2>- <x>2 = <(x-m) (x-m)> La varianza e’ la media dei quadrati meno il quadrato della media x y y x PijP=ij = P P(x (xi ,i,y yjj)) dP= dxdy p(x,y) in generale in generale Scriviamo > . P(A,B) = P(A)* P(B)*>F(A,B) = dove F(A,B) = P(A,B)/(P(A)*P(B)) e poi Pij = < Pi= Σj Pij Pi Pj p(x,y) = p(x) (p(y) < p(x)=∫dyp(x,y) =PP(A)*F(A,B) = P(B)*F(A,B) p(y)=∫ dxp(x,y) j= Σi Pij <x> = ΣiΣj xiPij == <y> = ΣiΣj yjPij = Σ=i Σi xiPi =Σi yjPj σx 2 = <y> <x> = <y> = = ∫dx∫dy xp(x,y) ∫dx∫dyxp(x,y) ∫dy∫dxyp(x,y) ∫dx x p(x) = ∫dx x p(x) = ∫dy y p(y) σx 2 = σy 2 = σx 2 = σy 2 = 2 <(x-<x>)2> = <(y-<y>)2>= <(x-<x>)2> = <(y-<y>) > = Σi (xi-<x>)2Pi Σj(yj-<y>)2Pj ∫dx(x-<x>)2p(x)∫dy(y-<y>)2p(y) σxy = covarianza di x e y = F(A,B) = 1 (y-<y>)> = <(x-<x>) < x y > - <x> <y> = ΣiΣj (xi-<x>) (yj-<y>) Pij ∫∫dxdy (x-<x>) (y-<y>)p(x,y) Varianze e Covarianza σx2 = = <(x-<x>) (x-<x>)> = <x2>- <x>2 = <(x-<x>)2> = σy2 = = <(y-<y>) (y-<y>)> = <y2>- <y>2 = <(y-<y>)2> = sempre positive σxy = <(x-<x>) (y-<y>)> = <x y> - <x><y> La covarianza non deve essere positiva !!! e’ positiva, se x e y si favoriscono una fluttuazione di y-<y> con stesso segno accompagna una di x-<x> piu’ spesso che una con segno opposto e’ nulla, se x e y sono indipendenti una fluttuazione di y-<y> con stesso segno accompagna una di x-<x> altrettanto spesso che una con segno opposto e’ negativa, se x e y si sfavoriscono una fluttuazione di y-<y> con segno opposto accompagna una di x-<x> piu’ spesso che una con stesso segno Massima correlazione in caso di dipendenza funzionale se y= x 2 σxy = σx σx = σx positiva se y= f(x) 2 σxy = σx σf(x) ~ df/dx σx Positiva o negativa ε MA!!!