TQuArs – a.a. 2010/11
Tecniche quantitative per l’analisi nella ricerca sociale
Giuseppe A. Micheli
Lezione B.2
Introduzione alla probabilità e
alle probabilità condizionate
Una teoria molto utile per la
pratica..
Una branca della matematica, detta
Calcolo delle probabilità
ricostruisce per via deduttiva (non induttiva!) la ‘struttura’ di tutti i
possibili campioni, quando:
Sia nota la composizione dell’intera popolazione
Il campione sia estratto rigorosamente ‘a caso’
L’inferenza funziona dunque:
assumendo che siano soddisfatte le regole del calcolo
delle probabilità
risalendo dal risultato empirico ottenuto nel campione
a una valutazione generale del collettivo
Breve storia del concetto di
probabilità
Fino al tardo Rinascimento la parola ‘probabile’ indicava una opinione
‘approvata’ da una auctoritas degna di rispetto (Aristotele, le
Scritture).
Lungo il XVI secolo come fornitore di probabilità tende ad essere
accettato un nuovo tipo di testimonianza autorevole: l’evidenza dei
‘segni’ che la Natura offre, ma che richiedono di essere interpretati (G.
Fracastoro, De contagione, 1546).
Così il concetto
moderno di
probabilità
matura con
gradualità ma
insieme le sue
due anime:
L’anima ‘frequentista’ (l’evidenza sta nei
segni naturali a favore, donde il calcolo degli
‘azzardi’ di combinazioni possibili)
L’anima ‘soggettivista’ (l’evidenza sta nella
coerenza interna del ragionamento che interpreta i segni a favore)
L’emergenza della probabilità
Il concetto di probabilità ‘calcolabile’ emerge in modo maturo
tutto insieme in più studiosi nell’arco di soli 10 anni, mantenendo la sua dualità di fondo tra:
Una probabilità ‘aleatoria’
Una probabilità ‘epistemica’
C.Huysgens 1657, De ratiociniis
in aleae ludo (scommesse e vitalizi)
B.Pascal 1662, Logique ou l’art de
penser (scommessa sulla esistenza di Dio)
J.Graunt 1662,Natural & political
observations (funzione di mortality hazard)
G.Leibniz 1665, De conditionibus
(diritti condizionali, grado di probabilità di un verdetto)
La legge empirica del caso
L’approccio frequentista interpreta la probabilità come qualità primaria
di un fenomeno, approssimata dalla frequenza relativa al ripetersi di
molti esperimenti sempre uguali.
Questa concezione discende da un risultato ‘di senso comune’:
Sia {Xn} una successione di rilevazioni sulle misure di un esperimento (per es. la successione di lanci di una moneta).
Sia mn la media di tutti gli esperimenti dal primo all’ultimo
condotto (per es. la frequenza di
‘teste’ nei lanci).
Empiricamente si trova che la
media tende a stabilizzarsi al
crescere delle misure.
Legge empirica del caso
frequenza di ‘teste’
1.0
0.5
1
10
100
Numero dei lanci
Definiamo probabilità il valore a cui ‘converge’ la media
mn degli esperimenti.
Definizioni frequentista e
classica di probabilità
La legge empirica del caso giustifica una definizione frequentista del
concetto di probabilità:
“Per un evento che si ritiene si ripeta sempre nelle stesse
condizioni, la probabilità è il rapporto tra il numero di volte
che l’evento capita e il numero totale delle osservazioni”.
questa definizione presuppone la ripetibilità di un esperimento. Il concetto di probabilità si estende invece anche ad
ma…
eventi non ripetibili, o unici (se non ci fosse stato Serajevo, è
probabile che la guerra mondiale sarebbe scoppiata più tardi)
Definizione più formale è quella PROBABILITA’ di un evento A è il
‘classica’ (Laplace 1795):
rapporto tra il numero di casi favorevoli al verificarsi di A e il toEssa è viziata da una clamorosa
tale dei casi possibili, a condizione
tautologia, ‘riparata’ dal princiche siano tutti EQUIPOSSIBILI.
pio di ragione insufficiente:
I casi sono equipossibili se non vi sono valide ragioni per sostenere il contrario
Calcolare la probabilità di un
evento semplice
F
M
M
F
F
M
M
Uno spazio degli eventi è come un
barattolo in cui siano stati inseriti
tutti gli eventi semplici.
In questo ‘barattolo’ siano rinchiusi, per esempio, i sette studenti di una
classe: quattro maschi, tre femmine. Supponiamo che si sappia che uno
solo di loro verrà promosso, e non per merito ma ‘a caso’!
Se l’esperimento consiste nell’estrarre a caso l’unico studente che verrà
promosso, la definizione di Laplace ci consente già di calcolare la probabilità che sia promossa una ragazza piuttosto che un ragazzo:
P(F/esperimento unico) = (casi favorevoli)/(casi possibili) = 3/7 = 0,429
P(M/esperimento unico) = (casi favorevoli)/(casi possibili) = 4/7 = 0,571
Calcolare probabilità ‘composte’
F
M
M
M
F
F
M
Ma supponiamo che ora il professore voglia fare
un paio di interrogazioni (non una sola), e che
anche in questo caso selezioni gli studenti da
interrogare rigorosamente a caso.
Ora l’esperimento si complica: esso non si risolve più in una sola estrazione, ma nella combinazione di due esperimenti.
Come calcolare, per esempio, la probabilità che entrambi gli studenti interrogati siano ragazze? Per rispondere va sciolto un dubbio preliminare:
Sono due interrogazioni
nello stesso giorno?
Gli studenti devono
essere due distinti
Sono due interrogazioni
in giorni differenti? Può
anche essere ‘estratto’ lo
stesso studente due volte
Prima via di calcolo:
esperimenti composti
Per calcolare una probabilità condizionata seguiremo due vie equivalenti:
Un approccio assiomatico
Un approccio combinatorio
Il ‘calcolo’ delle probabilità vincolata avviene a
partire dall’algebra degli eventi e dalla teoria
delle probabilità che diamo già per acquisita.
Perviene alla probabilità vincolata tramite il
calcolo di tutte le combinazioni di risultati favorevoli all’accadere di un dato evento.
Seguiamo la prima strada, e consideriamo una
classe di 7 studenti, 4 ragazzi (M) e 3 ragazze (F),
che racchiudiamo in un barattolo (lo possiamo
definire ‘spazio degli eventi’). Sappiamo che due di
loro saranno interrogati oggi, e saranno scelti
(orrore!) a caso. Saranno ragazzi o ragazze?
Due interrogati:M o F?
M
M
M
F
M
F
M
Non si tratta di un esperimento semplice (una singola estrazione), ma di un
esperimento composto. Composto cioè a sua volta da due esperimenti sem-plici
che però sono forse legati tra loro dal disegno di campionamento pre-scelto: dal
modo cioè in cui avviene la selezione delle unità estratte a sorte.
Campionamento con/senza
reimmissione
Supponiamo che la prima estratta sia stata una ragazza (F). E’ sensato che essa non
possa essere conteggiata (e interrogata) due volte (una persecuzione!); cioè che
non venga reinserita nell’urna per la seconda estrazione.
F
M
M
F
Così facendo, alla seconda estrazione il barattolo (l’urna) avrà una composizione differente (4 M,
2 F) e la probabilità di estrarre ancora F cambia:
M
F
P(F/I esp=F) = 2/6
M
Ma supponiamo che l’estrazione non riguardi una interrogazione (non reiterabile)
ma la sottoposizione di una domanda (due domande a uno stesso studente ‘se po
ffà’!). Ora la ragazza già interpellata è reinserita nell’urna e la probabilità cercata è
P(F/I esp=F) = 3/7
F
ed è ora immutata rispetto al primo esperimento!
Siamo dunque di fronte a due differenti disegni di
campionamento: senza reimmissione, con reimmissione. La probabilità che cerchiamo è ‘condizionata’ dal tipo di campionamento prescelto.
M
M
F
M
F
M
Principio delle probabilità
composte
Abbiamo usato una scrittura nuova: P(II=F/I=F) per indicare la probabilità di osservare (alla II estrazione) una F, vincolata al (condizionata
dal) fatto che nella I estrazione sia stata osservata una F.
Chiamiamo questa espressione probabilità condizionata. Essa
compare in un fondamentale postulato del calcolo delle probabilità, il
Principio
delle
probabilità
composte
La probabilità dell’intersezione di due eventi A e B è pari
al prodotto tra la probabilità del primo evento e la probabilità del secondo condizionata al verificarsi del primo
P(A  B)= P(A).P(B/A) = P(B).P(A/B)
Nel caso di estrazione dalla popolazione di sette
studenti senza reimmissione nella urna (al massimo una interrogazione a testa) la probabilità
che siano interrogate due ragazze è quindi:
Nota bene: spesso scriveremo
una probabilità congiunta P(AB)
per brevità in questo modo: pAB
P(I=FII=F)=P(I=F).P(II=F/I=F)=(3/7).(2/6)=6/42= 0,14
Eventi indipendenti
F
F
M
M
M
F
M
Supponiamo ora che le due
estrazioni avvengano da urne
distinte,
con
la
stessa
composizione.
Estrarre una F dalla I urna non
condiziona
l’esito
della
II
estrazione!
F
F
M
F
M
M
M
Definiamo indipendenti due eventi A e B se la probabilità di accadimento dell’uno non è influenzata dall’esito dell’altro
P(B/A) = P(B)
o anche
P(A/B) = P(A)
e quindi…
Se due eventi sono indipendenti la Esempio dei sette studenti ‘con reimmisprobabilità dell’intersezione è pari sione’ (regola di ‘estrazione’: possibili più
domande allo stesso studente):
al prodotto delle probabilità
P(A  B)= P(A).P(B)
P(I=FII=F)=P(I=F).P(II=F)=
=(3/7).(3/7) = 9/49 = 0,18
Fin qui gli eventi A e B sono risultati di uno stesso esperimento, ripetuto sulla stessa popolazione. L’intersezione (AB) può anche abbinare: a) risultati riferiti a due
caratteri diversi rilevati sulla stessa popolazione o b) risultati riferiti a uno
stesso carattere rilevato in due popolazioni distinte
Un esempio: dai quattro salti
in compagnia
MA
Facciamo un secondo esempio. La
FB
prima volta che vanno fuori insieme la sera 10 ragazzi (5 maschi, 5
MB
FB
femmine) decidono di andare a
MA
FB
ballare. Dei maschi 3 sono biondi
FA
MB
MA
(MA) e 2 castani (MB), tra le raFA
gazze 2 sono bionde (FA) e 3
castane (FB).
E’ la prima volta che escono, s’è detto, e gli abbinamenti per ballare avvengono
quindi ‘a caso’. E’ come se la formazione delle coppie avvenisse per estrazione da
urne distinte per popolazioni distinte (una per i maschi, una per le femmine). I
risultati della prima urna non condizionano quelli della seconda (nessuna simpatia o
nessun veto preconcetto). La probabilità di ogni possibile combinazione è quindi
calcolabile a partire dalle probabilità dei singoli eventi, tra loro indipendenti:
P(FB  MA)= P(FB).P(MA/FB) = P(FB).P(MA) = (3/5)x(3/5)= 9/25
P(FB  MB)= P(FB).P(MB/FB) = P(FB).P(MB) = (3/5)x(2/5)= 6/25
P(FA  MA)= P(FA).P(MA/FA) = P(FA).P(MA) = (2/5)x(3/5)= 6/25
P(FA  MB)= P(FA).P(MB/FA) = P(FA).P(MB) = (2/5)x(2/5)= 4/25
.. alla formazione di coppie fisse
MB
FA
Passa qualche tempo, e le coppie tra gli 8
ragazzi sono ormai fisse. Non c’è più indipendenza tra i
due eventi ‘estrazione di un lui’ e ‘estrazione di una lei’.
MA
MA
MA
MB
Ora anche se conosco sia la probabilità di un ragazzo castano (P(MB)=2/5) sia la probabilità di una ragazza castana
(P(FB)=3/5) non sono in grado di calcolare la probabilità di
trovarmi di fronte a una coppia di ragazzi entrambi castani.
Essa infatti dipende da come si sono ‘combinate’ le coppie:
Per esempio così:
Ma anche così:
Oppure così:
2(MAFA),1(MAFB),
2(MBFB)
3(MAFB),
2(MBFA)
1(MAFA),2(MAFB),1(
MBFA),1(MBFB)
In questo caso
In questo caso
In questo caso
P(FA/MB)=0
P(FA/MB)=1
P(FA/MB)=0,5
(chi si somiglia si piglia)
(attrazione degli opposti)
(una via di mezzo)
Le probabilità condizionate dipendono dall’effettiva distribuzione
delle probabilità congiunte.
Tabella di distribuzione
congiunta
Possiamo ricondurre le numerosità (#) congiunte che abbiamo elencato a
una forma compatta, quella di una tabella a doppia entrata.
Come nel gioco della battaglia navale (F7: affondato!), ogni casella interna
alla tabella riporta il numero di casi in cui si osservano congiuntamente
l’evento indicato in testa a quella riga e l’evento indicato in testa a quella
colonna. Dividendo la numerosità di casi favorevoli a una certa combinazione di caratteri (per es. ragazzi biondi e ragazze castane) per il numero
totale delle coppie si trova la corrispondente probabilità congiunta. Per es.
FA
FB
MA
#(MA,FA)=2
#(MA,FB)=1
#(MA)=3
MB
#(MB,FA)=0
#(MB,FB)=2
#(MB)=2
#(FA)=2
#(FB)=3
S=5
FA
FB
MA
#(MA,FA)=0
#(MA,FB)=3
#(MA)=3
MB
#(MB,FA)=2
#(MB,FB)=0
#(MB)=2
#(FA)=2
#(FB)=3
S=5
P(MBFA) = P(MB,FA) = 0/5
P(MBFA) = P(MB,FA) = 2/5
P(FA/MB)=#(MB,FA)/#(MB)=0/2=0
P(FA/MB)=#(MB,FA)/#(MB)=2/2=1
Biondi con bionde: chi si somiglia si piglia
Biondi con castane:gli opposti si attirano
Un altro esempio:
disoccupazione e natalità
Facciamo un altro esempio, ragionando più in grande.
Delle 90 province di un paese 60 abbiano un tasso di disoccupazione alto (D+), le
altre 30 un tasso basso (D-). Quindi P(D+)=0,67.
Sappiamo anche che 40 province su 90 hanno un tasso di natalità alto (N+), le
altre 50 basso (N-). Quindi P(N+)=0,44.
Ci domandiamo: qual è la probabilità di una provincia ad alta nata-lità e ad
alta disoccupazione P(N+/D+) e qual è la probabilità di una provincia ad
alta natalità e bassa disoccupazione P(N+/D-)?
La risposta è: “chi lo sa?”. Infatti per definizione P(B/A)=P(AB)/P(A),
quindi si possono determinare le probabilità condizionate solo se si
conosce la forma della distribuzione delle probabilità congiunte.
Ancora una volta si possono dare tante distinte distribuzioni congiunte di probabilità, a cui si associano probabilità condizionate differenti. Noi facciamo tre
ipotesi di combinazioni possibili (voi fatene altre!): in tutte tre sono rispettate le
probabilità ‘semplici’ indicate.
Flip-flop theory..
Anche in questo caso invece di elencare le combinazioni (DN) in diverse
possibili distribuzioni adottiamo la forma più compatta della tabella a
doppia entrata.
Notate bene: nel primo caso
N+
NP(N+/D+)=40/60 è maggiore di
Morale:
P(N+/D-)=0/30.
In
questo
caso
D+ 40
20
60
spesso ad
ci butteremmo sull’ipotesi che
ogni
D0
30
30
disoccupazione vuol dire poverpossibile
40
50
90
tà e i poveri si sa fan molti figli.
forma della
associazion
Nel secondo caso invece
N+
Ne tra due
P(N+/D+)=20/60 è minore di
D+ 20
40
60
caratteri
P(N+/D-)=20/30. In questo
sappiamo
D20
10
30
caso ci butteremmo sull’ipotesi
abbinare
che una coppia razionale farà
40
50
90
una diversa
figli solo ha un lavoro.
teoria (gli
N+
NSe poi P(+/D+) e P(N+/D-)
studiosi
sono grosso modo uguali, come
D+ 27
33
60
parlano di
nel
terzo
caso,
non
sapremmo
D13
17
30
flip-flop
(per fortuna!) che interpretatheories..)
40
50
90
zione dare..
Probabilità composte di più di
due eventi
Con l’introduzione del concetto di probabilità condizionata siamo in grado di calcolare probabilità composte (o congiunte) in cui gli esperimenti non siano solo due.
Torniamo quindi a modelli probabilistici con un esperimento ripetuto più volte sulla
stessa popolazione. Ci troveremo di nuovo davanti al bivio tra esperimenti
indipendenti (con reimmissione) o dipendenti.
Partiamo da un esempio classico, sulla composizione di una delegazione estratta a
caso. Una Commissione della Camera composta da 11 deputati, 7 del Polo (P) e 4
dell’Ulivo (U), deve affidare a una delegazione ristretta di 3 un compito delicato,ma
non riesce a mettersi d’accordo sui nomi. Deve allora estrarla a sorte. Ci si chiede:
Qual è la probabilità che:
a) sia composta tutta da P?
Ovviamente nessun deputato può
essere nominato due volte in una
stessa commissione!
b) sia composta tutta da U?
c)
abbia maggioranza P?
Il problema dunque è di campionamento senza
reimmissione nell’urna
U
U
U
U
P
P
P
P
P
P
P
Maggioranza e unanimità
(senza reimmissione)
Probabilità che la commissione sia composta tutta da P:
P(P,P,P) = P(I=P)*P(II=P/I=P)*P(III=P/(I=P)(II=P)) =
= (7/11)*(6/10)*(5/9) = (7*6*5)/(11*10*9) = 0,212
Probabilità che la commissione sia composta tutta da U:
P(U,U,U) = P(I=U)*P(II=U/I=U)*P(III=U/(I=U)(II=U)) =
= (4/11)*(3/10)*(2/9) = (4*3*2)/(11*10*9) = 0,024
Probabilità che la commissione abbia maggioranza P:
P(P,P,P  P,P,U  P,U,P  U,P,P) = P(P,P,P)+3 P(P,P,U)
P(P,P,U) = P(I=P)*P(II=P/I=P)*P(III=U/(I=P)(II=P)) =
=(7/11)*(6/10)*(4/9)=(7*6*4)/(11*10*9)=0,170
Dunque P(maggioranza P) = 0,212 + (3*0,170) = 0,722
Verificate o
dimostrate
voi che
P(P,P,U) =
P(P,U,P) =
P(U,P,P) !
Maggioranza e unanimità
(con reimmissione)
Torniamo alla nostra Commissione. Ora deve nominare un Presidente a rotazione
per ogni settimana, per tre settimane. Ma anche in questo caso litigano a sangue e
decidono di rimettere alla sorte le tre nomine. Solo, è legittimo in questo caso che
una stessa persona svolga più volte lo stesso ruolo. Si tratta quindi di
campionamento con reimmissione.
Prob (commissione tutta di P) =
= P(P,P,P) = P(P)*P(P)*P(P) =
= [(7/11)3] = [(0,6363] = 0,258
Prob (commissione tutta di U) =
Prob (maggioranza di P) =
= P(P,P,P) + 3 P(P,P,U) =
= 0,258 + 3 [P(P)*P(P)*P(U)]=
= P(U,U,U) = P(U)*P(U)*P(U) =
= 0,258 + 3[(7/11)2 * (4/11)]=
= [(4/11)3] = [(0,3643] = 0,048
= 0,258 + 3[0,147]= 0,699
Di quale combinazione non abbiamo calcolato la
probabilità? Calcolatela, e verificate che la somma di probabilità disgiunte è = 1!!
Scarica

TQA.B02.Probabilities - Dipartimento di Sociologia