AA 2010-11
http://people.na.infn.it/palladin/Lezioni2010-11/110301Lezione09.pdf
Nona lezione, prima del secondo modulo
Anche il caso ha regole
Applicandolo agli errori casuali,
soprattutto quelli statistici
ne
Una
gita scolastica ….
a Monte Carlo
spesso
di “successi”
finito
frequenza F
di testa, per es.
Sara’ essenziale un attento studio della probabilita’ binomiale
su queste modalita’ si distribuisce la distribuzione
di probabilita’ P(A), dove ciascuna P(A) e’ un
NB senza dimensioni
Il secondo assioma regola la probabilita’ totale
Conseguenze degli assiomi
se Ai Ai=
i,j
1) P(Ai)=Σi P(Ai)
principio delle probabilita’ totali
Dim P(ABC)= P(AB)+P(C)= P(A)+P(B)+P(C) etc
2) P()= 0.00
Dim
3) P(A)= 1-P(A)
Dim
4) P(A)=
P(B) ≤ 1-P(A)
P(A)
Dim
4) P(AB)= P(A)+ P(B)- P(AB)
Dim
Cosi’ in generale:
P(AB)=P(A)+P(B)-P(AB)
se AB =
conteggio doppio, altrimenti
!
Scriviamo
. P(A,B) = P(A)* P(B)* F(A,B) =
dove F(A,B) = P(A,B)/(P(A)*P(B)) e poi
= P(A)*F(A,B)
= P(B)*F(A,B)
F(A,B) = 1
F(A,B) > 1, se si favoriscono, probabilisticamente
F(A,B) < 1, se si sfavoriscono, probabilisticamente
P(A e B)=
=P(A,B)
=P(A) F(A,B) P(B)
P(A/B)
P(B/A)
F(A,B)>1⇒ P(A,B) > P(A) P(B)
si favoriscono
F(A,B)=1⇒ P(A,B) = P(A) P(B)
sono indipendenti
F(A,B)<1⇒ P(A,B) < P(A) P(B)
si sfavoriscono
Primi esempi di
distribuzioni di probabilita’
cioe’
insiemi {Pj}
di numeri reali Pj
ciascuno
probabilita’dell’ esito j
j-esimo degli n esiti ( j=1, … n)
su cui la probabilita’ si distribuisce
NB Pj soddisfano Σ Pj = 1
e gli altri assiomi
L’ esempio primordiale: due esiti
maschio
materia
femmina
antimateria
Due esiti di probabilita’ qualunque
(moneta “truccata”)
p+q=1
Ptesta=q= (1-p) >1/2
Pcroce= p <1/2
-
insuccesso
+
successo
Altri esempi di distribuzioni uniformi
totocalcio: le probabilita’ di una partita “da tripla”
NB
1/3
1/3
1/3
2
Sconfitta
-1
X
Pareggio
0
1
Vittoria
+1
Pj  1/n
se si “spalma” su piu’ esiti
Pj deve ridursi
per mantenere Σ Pj = 1 !!!!!!
Distribuzioni non uniformi
2 monete
1/2
Aaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaa
Pj
1/4
1/4
1 testa
1 croce
0
2 testa
0 croce
-2
3 monete
Pj
1/8
3 testa
0 croce
-3
3/8
0 testa
2 croce
+2
3/8
1/8
2 testa
1 croce
-1
1 testa
2 croce
+1
0 testa
3 croce
+3
NB primi esempi di distribuzioni binomiali
aaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaa
Distribuzione uniforme continua
NB
Pj  1/n
P deve ridursi
se si “spalma” su piu’ esiti
per mantenere Σ Pj = 1
Se gli esiti diventano continui
l’ indice j diventa una variabile continua x
x
x
0 <j< 36
0 <x< L
x
x
0 <j< 36
0 <x< L
P( x<x<x+dx)=dP=
= p(x)dx
deve esserci un area
Σj
 dx
Distribuzioni continue
non uniformi
La gaussiana e’ certo la piu’ importante
aaaaaaaaa
g(x)dx = dG = dP = p(x)dx
anche qui, deve esserci un area
Definizione dei
momenti di una
distribuzione di probabilita’
• Media di x
m
• Media degli scarti x-m … (=0 !)
• Media degli scarti quadratici (x-m)2
varianza = σ2
σ = dev standard
• Media degli scarti cubici
• etc etc
Definizione di valore medio
di una variabile casuale
Il baricentro della distribuzione
p(x)
Pxi
<x>
<x>
detto anche momento primo
intorno all’ origine
Nota Bene
m = <x> non e’ la media aritmetica di n misure x
E’ una proprieta’ della distribuzione
Non ci sono (ancora) misure, qui !!!!!!
Nota Bene
m non e’ la media aritmetica di n misure x
E’ una proprieta’ della distribuzione
Non ci sono (ancora) misure, qui !!!!!!
Sono due cose diverse !!!!
m= <x>
x
n →∞
Primi Esempi
m = <x> =
Σ Pjxj =
(½) (-1)+ (½) (+1)=
0
Il valore medio per il lancio
d’una moneta e’ zero !!
Come spesso,
il valore medio non e’ un’ esito possibile
Due esiti non equiprobabili
Ptesta=q >1/2
Pcroce=
p <1/2
-
insuccesso
Anche qui,
m = <x> =
Σ Pjxj =
q (-1)+ p (+1) =
p-q
+
successo
il valore medio non e’ un’ esito possibile
Altri esempi di medie…..
non e’ un esito
e’ un esito
<(x-m))k>
Lo scarto medio
(il momento d’ ordine uno)
intorno al valore atteso
e’ identicamente 0
<x-m> = Σj Pj (xj-m)
= Σj Pj xj - Σj Pj m
= m
- m
=0
come
lo scarto medio
di n misure
intorno alla loro media aritmetica x
<x-m> non e’ un concetto utile
Dobbiamo ricorrere allo scarto quadratico medio
(il momento d’ ordine due)
Nota Bene
σ non e’ la S “del laboratorio”
e’ la sua astrazione concettuale
σ = deviazione standard della distribuzione =
√ Σj Pj (xj-m)2
σ e’ una proprieta’ della distribuzione
S = stima della deviazione standard di n misure=
√ Σi (xi-x)2/(N-1)
e’ una stima ottenuta da un campione
Non ci sono (ancora) misure, qui !!!!!!
S
Sono due cose diverse !!!!
n →∞
σ
Primi Esempi
<x> = p-q
+1
Come spesso,
il valore medio non e’ un’ esito possibile
Due esiti non equiprobabili
= [-1- (p-q)]2 q +
Ptesta=q >1/2
[+1- (p-q)]2 p =
Pcroce=
p <1/2
-
insuccesso
4pq
+
successo
p+q =1
Altri esempi di dev. standard
Lo scarto cubico medio
μ3(m)
3
3
aaaaa
μ3(m)
3
3
E’ il primo momento dispari dello scarto
x-m
non identicamente nullo
Lo incontreremo in
a alcuni casi
Spesso nella forma adimenionale
β = μ3(m)/σ3
Misura la simmetria intorno a m
E cosi’ via
Piu’ momenti μ4(m), μ5(m) etc fornisco
meglio descrivo le proprieta’ GLOBALI della Pj
Un primo esempio nel continuo:
la distribuzione uniforme
Un secondo esempio nel continuo:
la distribuzione di Gauss
Vedremo, facendo i due integrali, che
<x>
= m
<(x-m)2> = σ2
β = μ3(m)/σ3 =0
σ2 = <(x-m)2> =
= <x2 -2mx
+ m 2>
= <x2> -2m<x> + m2
= <x2>- 2m2+m2=
= <x2>- m2=
= <x2>- <x>2
= <(x-m) (x-m)>
La varianza e’ la media dei quadrati
meno il quadrato della media
x
y
y
x
PijP=ij =
P P(x
(xi ,i,y
yjj))
dP= dxdy p(x,y)
in generale
in generale
Scriviamo > . P(A,B) = P(A)* P(B)*>F(A,B) =
dove F(A,B) = P(A,B)/(P(A)*P(B)) e poi
Pij
=
<
Pi= Σj Pij
Pi Pj
p(x,y)
= p(x) (p(y)
<
p(x)=∫dyp(x,y)
=PP(A)*F(A,B)
= P(B)*F(A,B)
p(y)=∫
dxp(x,y)
j= Σi Pij
<x> =
ΣiΣj xiPij ==
<y> =
ΣiΣj yjPij =
Σ=i Σi xiPi
=Σi yjPj
σx 2 =
<y>
<x> =
<y>
= =
∫dx∫dy xp(x,y)
∫dx∫dyxp(x,y) ∫dy∫dxyp(x,y)
∫dx x p(x)
= ∫dx x p(x) = ∫dy y p(y)
σx 2 =
σy 2 =
σx 2 =
σy 2 =
2
<(x-<x>)2> = <(y-<y>)2>= <(x-<x>)2> = <(y-<y>) > =
Σi (xi-<x>)2Pi Σj(yj-<y>)2Pj ∫dx(x-<x>)2p(x)∫dy(y-<y>)2p(y)
σxy = covarianza di x e y =
F(A,B) = 1
(y-<y>)>
=
<(x-<x>)
< x y > - <x> <y> =
ΣiΣj (xi-<x>) (yj-<y>) Pij
∫∫dxdy (x-<x>) (y-<y>)p(x,y)
Varianze e Covarianza
σx2 = = <(x-<x>) (x-<x>)>
= <x2>- <x>2
= <(x-<x>)2> =
σy2 = = <(y-<y>) (y-<y>)>
= <y2>- <y>2
= <(y-<y>)2> =
sempre positive
σxy = <(x-<x>) (y-<y>)>
= <x y> - <x><y>
La covarianza non deve essere positiva !!!
e’ positiva, se x e y si favoriscono
una fluttuazione di y-<y> con stesso segno
accompagna una di x-<x>
piu’ spesso che una con segno opposto
e’ nulla, se x e y sono indipendenti
una fluttuazione di y-<y> con stesso segno
accompagna una di x-<x>
altrettanto spesso che una con segno opposto
e’ negativa, se x e y si sfavoriscono
una fluttuazione di y-<y> con segno opposto
accompagna una di x-<x>
piu’ spesso che una con stesso segno
Massima correlazione
in caso di dipendenza funzionale
se y= x
2
σxy = σx σx = σx
positiva
se y= f(x)
2
σxy = σx σf(x) ~ df/dx σx
Positiva o negativa
ε
MA!!!
Scarica

110301Lezione09Rivista