Calcolo delle probabilità



Il calcolo delle probabilità studia in modo matematico i
fenomeni in cui è presente l’incertezza.
Sono dati degli eventi che possono verificarsi o non
verificarsi, e ci si chiede: qual è la probabilità che
l’evento E si verifichi?
Importante: anche se gli eventi sono incerti, i metodi di
indagine sono suffragati dalle certezze fornite dallo
strumento matematico: la matematica non è
un’opinione, o almeno così credono i matematici.
Gli eventi




Vengono fatti degli esperimenti dall’esito incerto, e se
ne considerano gli esiti. Un esito racchiude tutte le
informazioni rilevanti sull’andamento dell’esperimento.
Si assume che in ogni esperimento si verifichi un esito
ed uno solo.
Gli eventi sono affermazioni riguardanti gli esiti. Un
evento può essere identificato con l’insieme degli esiti
che lo soddisfano. Quindi gli eventi possono essere
pensati come insiemi di esiti.
Nel nostro corso assumeremo che l’insieme degli esiti
sia finito
Esempi




Viene lanciato un dado. Gli esiti sono allora: esce 1,
esce 2, esce 3, esce 4, esce 5, esce 6.
L’evento esce un numero pari può essere identificato
con l’insieme costituito da 2,4,6.
L’evento che corrisponde all’insieme vuoto di esiti, (nel
nostro caso, l’evento non esce nulla) viene detto
evento impossibile.
L’evento che corrisponde a tutti i possibili esiti (nel
nostro caso, l’evento esce qualcosa) viene detto
evento certo.
Esempi




Nel gioco del totocalcio, gli esiti sono le possibili colonne
vincenti. Il numero di tali esiti è, come noto, 313 (numero di
sequenze lunghe 13 dei tre oggetti 1, X, 2).
L’evento nella prima partita vince la squadra di casa, può
essere identificato con l’insieme di tutte le colonne che
iniziano con un 1 (312 colonne).
L’evento non ci sono vittorie in trasferta può essere
identificato con l’insieme di tutte le colonne prive di 2 (213
colonne)
L’evento certo è vi è almeno una colonna vincente
(soddisfatto da tutte le colonne) e l’evento impossibile è non
esiste alcuna colonna vincente (nessuna colonna lo
soddisfa).
Probabilità


Ci sono vari tentativi di definire la probabilità di
un evento:
Impostazione frequentista. Ammettendo di
poter ripetere l’esperimento ad libitum, la
probabilità è la frequenza dell’evento (numero
di casi in cui l’evento si verifica diviso per il
numero degli esperimenti) su un numero molto
grande (potenzialmente infinito) di esperimenti.
Altra impostazione


Supponiamo che non ci siano ragioni per
ritenere che un esito possa verificarsi più
facilmente di un altro. Allora la probabilità di un
evento è il rapporto fra il numero degli esiti che
lo soddisfano (casi favorevoli) e il numero
totale degli esisti (casi possibili).
Nota. Se gli esiti hanno tutti la stessa
probabilità, diciamo che ci troviamo in uno
spazio equiprobabile.
Impostazione soggettiva


La probabilità di un evento è la quota che un
individuo razionale ritiene equo scommettere
contro la posta unitaria (fissata in modo
convenzionale, e.g., 1 Euro) sul verificarsi
dell’evento.
Nota. Il fatto che l’individuo razionale consideri
la quota equa lo impegna ad accettare la
scommessa sia come scommettitore che come
banco.
Principi generali



Con ciascuna delle tre impostazioni, i seguenti principi
generali sembrano ragionevoli:
La probabilità di un evento è la somma delle probabilità
degli esiti che lo soddisfano, e quindi l’evento
impossibile ha probabilità 0.
La probabilità di un esito è un numero compreso fra 0
e 1.
La somma delle probabilità di tutti gli esiti (probabilità
dell’evento certo) è 1.
Principi generali


1.
2.
3.
Questi principi consentono di definire la probabilità di
un evento in base alle probabilità dei singoli esiti.
Siano e1,…,en gli esiti. Si ha allora:
Per i=1,…,n, Pr(ei) è compreso fra 0 e 1 (di solito nel
caso finito si assume 0< Pr(ei) <1).
Pr(e1)+Pr(e2)+…+Pr(en)=1.
Inoltre, detti a1,…,ah gli esiti che soddisfano l’evento
E, le probabilità di E è data da
Pr(E)=Pr(a1)+…+Pr(ah).
Spazi equiprobabili




In uno spazio equiprobabile tutti gli esiti hanno la
stessa probabilità.
Se gli esiti sono n, la probabilità di un esito è 1/n.
Quindi se gli esiti che soddisfano un evento E sono k,
la probabilità di E è k/n.
In altre parole in uno spazio equiprobabile la
probabilità di un evento è il rapporto fra il numero degli
esiti che lo soddisfano (casi favorevoli) e il numero
totale degli esiti (casi possibili).
Esempi




Qual è la probabilità che lanciando un dado bilanciato
esca un numero dispari?
Risposta: vi sono 6 esiti possibili e 3 favorevoli (1, 3 e
5). La probabilità è quindi 3/6=1/2.
Un’urna contiene 22 palline bianche, 18 palline rosse e
14 palline nere. Qual è la probabilità di estrarre una
pallina rossa?
Risposta: vi sono 18 casi favorevoli e 22+18+14=54
casi possibili. La probabilità è quindi 18/54=1/3.
Esempi




Qual è la probabilità di fare 13 al totocalcio
giocando una schedina a caso?
Risposta: i casi possibili sono tanti quante le
colonne, ossia 313.
Vi è un solo caso favorevole, la colonna
vincente.
La probabilità cercata è 1/(313)=6,2723 . 10-7.
Esempi





Qual è la probabilità di fare 13 giocando 13 doppie a
caso?
Risposta: Casi possibili: 313.
Casi favorevoli: tanti quante le sequenze di 13
elementi (colonne) in cui ciascun risultato può variare
indipendentemente in 2 modi (i 2 risultati
corrispondenti alla doppia giocata).
Per il principio moltiplicativo i casi favorevoli sono 213.
La probabilità cercata è 213/313=5,1382 . 10-3.
Esempi





Qual è la probabilità di fare cinquina al gioco del lotto
giocando 5 numeri a caso su una data ruota?
Risposta: tutte le cinquine sono equiprobabili.
Vi è solo un caso favorevole, la cinquina che ho
giocato io.
I casi possibili sono tanti quante le cinquine prese fra i
90 numeri del lotto, quindi C(90,5).
La probabilità richiesta è quindi 1/C(90,5)=2,2754. 10-8
Operazioni su eventi
Siano A e B due eventi di uno stesso spazio campione. L’unione
di A e B è l’evento che si verifica se si verifica almeno uno dei
due. Tale evento è denotato con A  B
L’intersezione di A e B è l’evento che si verifica se A e B si
verificano entrambi. Tale evento si denota con
A B
Il complemento di A è l’evento che si verifica se e solo se A non
si verifica. Tale evento si denota con Ac.
Due eventi si dicono incompatibili se la loro intersezione è
l’evento impossibile.
Proprietà della probabilità



Sembra ragionevole assumere che se A e B sono
incompatibili, la probabilità della loro unione sia la
somma delle probabilità dei due eventi.
Infatti gli esiti che soddisfano l’unione sono quelli che
soddisfano A più quelli che soddisfano B, e nessuno di
essi è contato due volte. Vale pertanto la seguente:
Legge additiva della probabilità: se A e B sono
incompatibili, allora:
Pr( A  B)  Pr( A)  Pr( B)
Altre proprietà della probabilità
Attenzione: se A e B non sono incompatibili, la legge additiva non
si può più esprimere nella forma:
Pr( A  B)  Pr( A)  Pr( B)
Infatti, nell’espressione Pr(A)+Pr(B) gli esiti che soddisfano sia
A che B sono contati due volte.
Per avere un esatto computo della probabilità dell’unione di A e B,
devo sottrarre a Pr(A)+Pr(B) la probabilità dell’intersezione, che è
stata sommata due volte invece di una.
In altri termini la legge additiva si modifica nella seguente:
Pr( A  B)  Pr( A)  Pr( B)  Pr( A  B)
Esempio




Qual è la probabilità di fare 12 al totocalcio giocando una
colonna a caso?
Risposta: si può fare 12 sbagliando il primo risultato, il
secondo,…, il tredicesimo. Per i=1,…,13, gli eventi faccio 12
sbagliando l’i-esimo risultato sono a due a due incompatibili.
Per ciascuno i casi favorevoli sono 2 (le possibilità sono 1, X,
2 quindi si può sbagliare in 2 modi), e i casi possibili sono 313.
Quindi la probabilità di ciascuno di tali eventi è 2/ 313 .
Per la legge additiva la probabilità di fare 12 è
13.(2/ 313 )=26/ 313=1,6308.10-5
Proprietà della probabilità



Poiché l’unione di un evento A e del suo
complemento Ac è l’evento certo di probabilità
1, per la legge additiva si ha:
1=Pr(A)+Pr(Ac), da cui segue Pr(Ac)=1-Pr(A).
Questa legge è utile in alcuni casi in cui il
calcolo di Pr(Ac) è più rapido del calcolo diretto
di Pr(A).
Esempio: il paradosso del
compleanno



Qual è la probabilità che su 30 persone scelte
a caso almeno 2 di essi festeggino il
compleanno lo stesso giorno?
Risposta: è meglio calcolare prima la
probabilità del complemento, cioè la probabilità
che tutti siano nati in giorni diversi.
Casi possibili: il giorno di nascita di ciascuno
può variare indipendentemente in 365 modi
diversi. Quindi i casi possibili sono 36530.
Esempio: il paradosso del
compleanno




Casi favorevoli: la data di nascita del primo può variare
in 365 modi, quella del secondo, dovendo essere
diversa, può variare in 364 modi, quella del terzo in
363 modi,, etc.
Totale: D(365,30)=365.364. … .336 casi favorevoli.
La probabilità di 30 compleanni in giorni diversi è
quindi D(365,30)/36530=0,29368.
La probabilità di due persone con lo stesso
compleanno è quindi 1-0,29368=0,70632, più del 70%.
Un altro esempio




Il paradosso del compleanno ci insegna che su un
grande numero di esperimenti le stranezze diventano
probabili, e ciò che deve davvero sorprendere è
l’assenza completa di sorprese.
Questo è messo in luce anche dal seguente esempio.
Viene scelta a caso una stringa binaria di 100 bit (zeri
e uni).
Qual è la probabilità che vi siano almeno 2 bit
consecutivi uguali?
Risposta





Calcoliamo la probabilità del complemento, cioè che
due bit consecutivi siano sempre diversi.
Vi sono 2100 stringhe binarie, quindi 2100 casi possibili.
I casi favorevoli sono due: 01010101…. e 10101010….
Quindi la probabilità del complemento è 2/ 2100
=1,5777. 10-30.
La probabilità dell’evento è 1-(1,5777. 10-30), che è
vicinissima a 1.
Altri esercizi




Un’urna contiene 10 palline bianche e 15 palline nere.
Ne vengono estratte due con reimbussolamento. Qual
è la probabilità che almeno una pallina sia bianca?
Risposta: Valutiamo prima la probabilità dell’evento
complementare, cioè la probabilità di 2 palline
entrambe nere.
Casi possibili: tanti quante le sequenze di 2 palline
prese dalle 25 dell’urna, ossia 252=625.
Casi favorevoli: tanti quante le sequenze di 2 palline
prese fra le 15 nere, ossia 152=225.
Altri esercizi


La probabilità dell’evento complementare è
quindi 225/625=9/25.
La probabilità di estrarre almeno una pallina
bianca è 1-9/25=16/25.
Altri esercizi




Qual è la probabilità di estrarre almeno una pallina
bianca se le estrazioni sono senza reimbussolamento?
Per l’evento complementare, i casi possibili sono
C(25,2)=300, e i casi favorevoli sono C(15,2)=105.
La probabilità del complemento è dunque
105/300=7/20.
Quindi la probabilità di estrarre almeno una pallina
bianca è 1-7/20=13/20.
Problemi di riepilogo





Qual è la probabilità di fare 6 al superenalotto
giocando una sestina di numeri?
Risposta: 1/C(90,6)=1,6061 . 10-9.
Qual è la probabilità di avere una scala reale all’asso
servita giocando a Poker con 32 carte?
Risposta. I casi possibili sono tanti quante le cinquine
di carte prese fra le 32 del mazzo.
I casi favorevoli sono 4, poiché vi è una scala reale
all’asso per ogni seme.
La probabilità è quindi 4/C(32,5)=1,9863 . 10-5.
Problemi di riepilogo





Da un mazzo di 40 carte ne estraiamo 5 a caso. Qual è
la probabilità che siano tutte dello stesso seme?
Risposta: I casi possibili sono C(40,5).
Possiamo suddividere i casi favorevoli in: 5 cuori, 5
picche, 5 quadri e 5 fiori. Vi sono 10 carte per ogni
seme, quindi i casi favorevoli per ogni seme sono
C(10,5).
In totale vi sono 4.C(10,5) casi favorevoli.
La probabilità cercata è 4.C(10,5)/C(40,5)=1,5319.10-3.
Problemi di riepilogo





Due stringhe binarie (di zeri e uni) di lunghezza 1000
differiscono per 30 bit. Scegliamo 50 posizioni a caso fra le
1000 e confrontiamo i corrispondenti bit. Qual è la probabilità
che in almeno una delle posizioni controllate le due
sequenze differiscano?
Risposta: Calcoliamo la probabilità del complemento, cioè
che tutti i bit controllati coincidano.
I casi possibili sono C(1000,50).
I casi favorevoli sono C(930,50).
La probabilità del complemento è
C(970,50)/C(1000,50)=0,20968. La probabilità cercata è quindi
1- 0,20968=0,79032, quasi l’80%.
Problemi di riepilogo




Qual è la probabilità di fare terno giocando 3 numeri al
lotto su una data ruota?
Risposta. Presentiamo due soluzioni.
Nella prima consideriamo come casi possibili tutte le
cinquine prese fra i 90 numeri e come casi favorevoli
quelle che contengono i 3 numeri da me giocati.
Nella seconda consideriamo come casi possibili tutte le
terne giocabili e come casi favorevoli quelle contenute
nei 5 numeri estratti.
Prima soluzione




Casi possibili: C(90,5).
Casi favorevoli: 3 numeri su 5 devono coincidere con i
numeri da me giocati, mentre gli altri 2 possono variare
fra i rimanenti 87 numeri.
I casi possibili sono tanti quante sono le coppie non
ordinate di numeri presi fra i rimanenti 87, vale a dire
C(87,2).
La probabilità di fare terno è quindi
C(87,2)/C(90,5)=8,5121. 10-5.
Seconda soluzione




Casi possibili: C(90,3).
Casi favorevoli: Devo indovinare un insieme di
3 numeri presi fra i 5 estratti.
Le possibilità sono tante quanti i sottoinsiemi di
3 elementi dell’insieme dei 5 numeri estratti,
cioè C(5,3).
La probabilità di fare terno è quindi
C(5,3)/C(90,3)=8,5121. 10-5.
Probabilità condizionata



Sapendo che la probabilità di avere due bombe su un
aereo è pressoché nulla, mentre la probabilità di
averne una, pur essendo bassa, non è del tutto
trascurabile, un matematico che deve fare un viaggio
in aereo decide di portare con se una bomba che
ovviamente non farà esplodere.
Egli in questo modo si sente tranquillo rispetto alla
possibilità di un’altra bomba, dato che la presenza di
due bombe è pressoché impossibile.
Dove sbaglia il nostro matematico?
Probabilità condizionata



L’errore consiste nel fatto che ora possediamo una
nuova informazione, la presenza sull’aereo della
bomba portata dal matematico. Pertanto il modello
probabilistico è cambiato.
La probabilità che interessa non è più quella di avere 2
bombe a bordo, ma quella di avere 2 bombe a bordo
dato che ce n’è già una.
Quello illustrato sopra è un esempio di probabilità di un
evento (una seconda bomba a bordo)
condizionatamente al verificarsi di un altro evento (la
prima bomba a bordo).
Probabilità condizionata


La probabilità condizionata di un evento A dato
un evento B (in simboli: Pr(A | B)) è la
probabilità che si verifichi A nell’ipotesi che si
verifichi B.
La probabilità di A dato B è strettamente
collegata alla probabilità dell’intersezione di A e
B. Si ha infatti:
Probabilità condizionata
Teorema della Probabilità Condizionata:
Pr( A  B)  Pr( B)  Pr( A | B)
Quindi assumendo Pr( B )  0 :
Pr( A  B)
si deduce: Pr( A | B) 
Pr( B)
Teorema della probabilità
condizionata




Verifichiamo il teorema nell’ipotesi di uno spazio
equiprobabile (il teorema vale però in generale!).
Se si verifica B, gli esiti che non soddisfano B sono
esclusi, e i casi possibili sono quelli che soddisfano B.
I casi favorevoli ad A (considerando solo quelli
possibili, cioè quelli che soddisfano B) sono quelli che
soddisfano sia A che B.
Quindi il rapporto fra numero di casi favorevoli e
numero di casi possibili è Pr( A  B )
Pr( B )
Esempi



Un’urna contiene 10 biglie rosse e 15 biglie blu. Ne
estraiamo 2 senza reimbussolamento. Vogliamo
calcolare la probabilità che escano una biglia rossa ed
una blu, in qualunque ordine.
Indichiamo con 1R l’evento la prima estratta è rossa,
con 1B l’evento la prima estratta è blu. Similmente 2R
e 2B denotano gli eventi la seconda estratta è rossa e
la seconda estratta è blu.
L’evento escono una biglia rossa ed una blu può
essere scritto come (1R  2 B )  (1B  2 R )
Esempi
Per la legge additiva, la probabilità di estrarre una biglia rossa ed
una blu è data da
Pr((1R  2 B)  (1B  2 R))  Pr(1R  2 B)  Pr(1B  2 R)
Per il Teorema della probabilità composta, si ha:
Pr(1R  2 B )  Pr(1R )  Pr( 2 B | 1R )
Pr(1B  2 R )  Pr(1B )  Pr( 2 R | 1B ).
Si ha subito: Pr(1R)=10/25=2/5 Pr(1B)=15/25=3/5.
Esempi
Valutiamo ora Pr(2B|1R). Se la prima biglia estratta è rossa
restano nell’urna 24 biglie di cui 15 blu. Pertanto
Pr(2B|1R)=15/24=5/8
Valutiamo Pr(2R|1B). Se la prima biglia estratta è blu, restano
nell’urna 24 biglie di cui 10 rosse. Quindi Pr(2R|1B)=10/24=5/12.
In conclusione, la probabilità di estrarre una biglia rossa e una blu
è data dalla formula:
Pr(1R  2 B )  Pr(1B  2 R ) 
Pr(1R )  Pr( 2 B | 1R )  Pr(1B )  Pr( 2 R | 1B ) 
2 5
3 5



5 8
5 5
La probabilità richiesta è quindi 1/2
Altri esempi


Sono date due urne. La prima contiene 3 palline rosse
e 5 blu, la seconda contiene 7 palline rosse e 4 blu. Si
sceglie un’urna a caso (lanciando una moneta), e poi si
sceglie una pallina a caso nell’urna estratta. Qual è la
probabilità di estrarre una pallina rossa?
Risposta: Siano U1 e U2 gli eventi l’urna estratta è la
prima e l’urna estratta è la seconda. Sia R l’evento la
pallina estratta è rossa. Si ha
Pr( R )  Pr( R  U 1)  Pr( R  U 2) 
 Pr(U 1) Pr( R | U 1)  Pr(U 2) Pr( R | U 2).
Altri esempi




Ora, Pr(U1)=Pr(U2)=1/2 (se la moneta è bilanciata).
Inoltre se l’urna estratta è la prima la probabilità di
estrarre una pallina rossa è 3/8, e se l’urna estratta è la
seconda, la probabilità di estrarre una pallina rossa è
7/11.
Quindi Pr(R|U1)=3/8, e Pr(R|U2)=7/11.
Pertanto, Pr(R)=(1/2).(3/8)+(1/2).(7/11)=89/176 (poco
più di ½).
Legge di Bayes
Dal Teorema della Probabilità composta segue subito che
Pr( A  B)  Pr( A)  Pr( B | A)  Pr( B  A)  Pr( B)  Pr( A | B).
Se ne deduce Pr(A) . Pr(B|A)= Pr(B) . Pr(A|B).
Questa legge, detta Legge di Bayes, consente di ricavare uno
qualsiasi dei valori Pr(A), Pr(B), Pr(A|B) e Pr(B|A) una volta noti
gli altri tre.
Esempi





In un certo periodo dell’anno, in Italia, la percentuale
dei malati di influenza è del 7%.
La percentuale degli Italiani che frequenta
abitualmente locali pubblici è del 75%.
Il 90% degli Italiani con l’influenza frequenta locali
pubblici.
Il Signor Rossi frequenta abitualmente locali pubblici.
Qual è la probabilità che si prenda l’influenza?
Esempi




Risposta: siano I e P gli eventi avere l’influenza e
frequentare locali pubblici. Per ipotesi, Pr(I)=7%,
Pr(P)=75%. Inoltre Pr(P | I)=90%.
Quella che vogliamo calcolare è la probabilità per un
generico individuo di prendersi l’influenza dato che
frequenta locali pubblici, cioè Pr(I | P).
Per la legge di Bayes, si ha
Pr(I | P)=(Pr(P | I) . Pr(I)):Pr(P)=(7% 90%):(75%) =
63/750=21/250 che corrisponde all’8,4%.
Esempi


Nell’esempio precedente la legge di Bayes ha
consentito di calcolare la probabilità di avere
una malattia date le possibili cause (diagnosi
probabilistica)
Nel prossimo esempio mostreremo come
viceversa in presenza della malattia si possa
calcolare la probabilità che sia intervenuta una
certa causa (anamnesi probabilistica)
Esempi





Il 18% di una certa popolazione soffre di disturbi
gastrici.
Il 28% di tale popolazione mangia troppe sostanze
grasse.
Il 30% delle persone che mangiano troppi grassi soffre
di disturbi gastrici.
Un medico viene interpellato da un paziente che
lamenta disturbi gastrici.
Qual è la probabilità che il paziente abusi di sostanze
grasse?
Esempi



Risposta. Sia Gr l’evento: il paziente abusa di
sostanze grasse, e sia Ga l’evento: il paziente
soffre di disturbi gastrici. Si ha:
Pr(Ga)=18%, Pr(Gr)=28%, Pr(Ga | Gr)=30%.
Pertanto, Pr(Gr | Ga)=(30% . 28%):18%=7/15,
poco meno di ½.
Altri esempi


In una certa nazione il 40% delle persone coinvolte in
incidenti stradali guidavano in stato di ubriachezza,
mentre il rimanente 60% (quindi una percentuale
maggiore) erano complessivamente sobri. Possiamo
quindi dedurre che è meno rischioso guidare ubriachi?
La risposta sarebbe SI se la percentuale dei guidatori
ubriachi fosse uguale a quella dei guidatori sobri.
Altri esempi


Supponiamo che la percentuale dei guidatori ubriachi
in quella nazione sia del 10% e che il 20% dei guidatori
sia coinvolto in qualche incidente. Qual è la probabilità
di essere coinvolto in un incidente per un guidatore
ubriaco e per un guidatore sobrio?
Risposta: indichiamo con U, con S e con I
rispettivamente gli eventi guidare in stato di
ubriachezza, guidare da sobri, e avere un incidente. I
dati del problema si riassumono come segue:
Altri esempi
Pr(I)=20%, Pr(U | I)=40%, Pr(S | I)=60%,
Pr(U)=10%, Pr(S)=90%.
 Quindi Pr(I | U)=(Pr(U | I) . Pr(I)) : Pr(U)=4/5
(pari all’80%)
 Invece Pr(I | S)=Pr(S | I) . Pr(I)) : Pr(S)=2/15
(pari a circa il 13%).
Quindi (bella scoperta!) è meglio non guidare
ubriachi.

Un esempio significativo




In una scuola viene fatto un test per stabilire la
presenza di una malattia che colpisce mediamente
l’1% degli studenti.
Sia in presenza che in assenza della malattia, il test
risulta corretto nel 95% dei casi.
Mario, uno studente di matematica, risulta positivo.
Tuttavia, pur essendo un po’ preoccupato, è
abbastanza fiducioso.
Perché? Qual è la probabilità che Mario abbia la
malattia sapendo che è risultato positivo?
Un esempio significativo






Risposta: poniamo
P= il test è positivo,
C=il test è corretto,
M=lo studente analizzato ha la malattia.
Per ipotesi è Pr(M)=1%, Pr (C) = Pr(C | M)=Pr(C |
Mc)=95%, Pr(Mc)=99%, Pr(Cc)=5%.
Dobbiamo calcolare è Pr(M | P), la probabilità della
presenza della malattia dato che il test è positivo.
Un esempio significativo





Si ha: Pr(M | P)=(Pr(P | M).Pr(M)) : Pr(P)
Pr(M)=1%, Pr(P | M)=Pr(C | M)=95%.
Quindi Pr(M | P)=0.0095
Riassumo: Pr(M)=1%, Pr (C) = Pr(C | M)=Pr(C | Mc)=95%,
Pr(Mc)=99%, Pr(Cc)=5%, Pr(M | P)=0.0095.
Calcolo Pr(P). L’evento P si verifica se c’è la malattia e il test è
corretto o se non c’è la malattia e il test è errato. Quindi
Pr( P )  Pr( M  C )  Pr( M c  C c ) 
Pr( M )  Pr(C | M )  Pr( M c )  Pr(C | M c ) 
10%  95%  90%  5%.
Un esempio significativo






Quindi, Pr(P)=0,14.
Ricordo che Pr(M) . Pr(P | M)=0,0095. Inoltre
Pr(M | P)=(Pr(M) . Pr(P | M)) : Pr(P). Quindi:
Pr(P | M)=0,0095:0,14=6,7857 . 10-2.
In altre parole, la probabilità che Mario abbia la
malattia dato che il test è positivo è solo del 6,7857%.
Morale: un test per una malattia abbastanza rara deve
essere estremamente preciso, altrimenti non è
attendibile.
Eventi indipendenti



Due eventi A e B si dicono indipendenti se Pr(A
| B)=Pr(A), cioè se la probabilità di A non
dipende dal verificarsi o meno di B.
Si noti che la relazione di indipendenza è
simmetrica.
Infatti, Pr(A | B)=Pr(A) se e solo se
Pr( A  B)  Pr( A | B)  Pr( B)  Pr( A)  Pr( B)
Esempi




Da un’urna contenente i numeri da 1 a 100, estraiamo due numeri
in successione con reimbussolamento. Consideriamo gli eventi
1P: il primo estratto è pari e 2D: il secondo estratto è dispari.
Gli eventi 1P e 2D sono indipendenti. Infatti ciascuno dei due ha
probabilità ½ indipendentemente dal verificarsi o meno dell’altro.
Estraiamo ora due numeri dalla stessa urna senza
reimbussolamento.
Gli eventi 1P e 2D non sono più indipendenti. Infatti Pr(2D)= ½,
mentre Pr(2D | 1P)= 50/99.
Infatti se il primo estratto è pari, restano nell’urna 99 numeri di cui
50 dispari.
Esercizi




Un’urna contiene 20 palline rosse e 10 palline blu.
Estraiamo dall’urna in successione 10 palline con
reimbussolamento. Qual è la probabilità che almeno
una sia blu?
Risposta: calcoliamo prima la probabilità del
complemento, cioè che siano tutte rosse.
Gli eventi: la prima è rossa, la seconda è rossa, …, la
decima è rossa sono indipendenti, ed hanno ciascuno
probabilità 2/3.
Quindi la probabilità che siano tutte rosse è (2/3)10, e la
probabilità che almeno una sia blu è 1-(2/3)10=0,98266
Esercizi




Due stringhe della stessa lunghezza differiscono per
l’1% dei loro bit.
Un test seleziona una posizione a caso e confronta i bit
delle due stringhe che si trovano in essa.
Qual è la probabilità di rilevare una differenza
ripetendo il test 30 volte?
Risposta. Calcoliamo la probabilità del complemento,
cioè la probabilità di scegliere sempre bit uguali.
Esercizi




Sia per i=1,…,30, Ei l’evento: all’i-esimo
tentativo trovo 2 bit uguali.
Gli eventi Ei sono indipendenti ed hanno
probabilità 99/100.
Quindi la probabilità di selezionare per 30 volte
bit uguali è (99/100)30.
Pertanto la probabilità di trovare almeno un bit
diverso è 1-(99/100)30=0,2603.
Il teorema delle prove ripetute



Supponiamo di ripetere n volte un esperimento
in cui siamo interessati al verificarsi di un
evento E.
Supponiamo che gli esperimenti si svolgano
nelle stesse condizioni, in modo che la
probabilità p=Pr(E) di E resti costante in ogni
esperimento.
Ci chiediamo, per k=1,2,…,n, qual è la
probabilità che E si verifichi k volte su n.
Teorema delle prove ripetute




Consideriamo come esito globale degli n esperimenti la
sequenza degli esiti dei singoli esperimenti relativi al
verificarsi o meno di E.
Una tale sequenza sarà una sequenza di SI (E si è verificato)
e NO (E non si è verificato).
Ad esempio SI-SI-SI-NO-NO-SI-NO significa che E si è
verificato nei primi 3 esperimenti e nel sesto, e non si è
verificato negli altri 3 esperimenti.
Ogni singolo SI ha probabilità p e ogni singolo NO ha
probabilità 1-p. Una sequenza con k SI e n-k NO ha
probabilità pk . (1-p)n-k.
Teorema delle prove ripetute




Quante sono le sequenze lunghe n con k SI e n-k
NO?
Una tale sequenza è determinata dalla scelta dei k
posti su n in cui vi è un SI.
Vi sono tante scelte quanti i sottoinsiemi di k elementi
di un insieme di n elementi, ossia C(n,k).
Ciascuna di tali sequenze ha probabilità
pk . (1-p)n-k. Pertanto:
Teorema delle prove ripetute
Se si ripete n volte un esperimento in cui l’evento
 proilit costnte p, per ogni k1,2,... ,n l
proilit ce E si verifici n volte su k 
 n
k
nk
k
nk



p

(
1

p
)

C
(
n
,
k
)

p

(
1

p
)
k
 
Il risultato di cui sopra si chiama Teorema delle Prove
Ripetute.
Teorema delle prove ripetute


La probabilità che su n prove ripetute l’evento
E di probabilità p si verifichi k volte è il k-esimo
addendo nello sviluppo del binomio di Newton
di (p+(1-p))n.
Pertanto la distribuzione di probabilità
corrispondente viene detta distribuzione
binomiale.
Esempi


Un dado viene lanciato per 20 volte consecutive. Qual
è la probabilità che per 4 volte esca 1? E qual è la
probabilità che 1 esca al massimo 4 volte?
Risposta. La probabilità che esca 1 in un singolo lancio
è 1/6. Quindi la probabilità che 1 esca 4 volte su 20 è
C(20,4) . (1/6)4 . (5/6)16=0,2022.

La probabilità che 1 esca al massimo 4 volte è
 20   1   5 


 i 
 6   6 
i 0 
    
4
i
20i
 0,76875.
Esempi



Un’urna contiene 40 palline, di cui 10 rosse, 12
bianche e 18 nere. Per 20 volte viene estratta una
pallina con reinbussolamento.
Qual è la probabilità che su 20 estrazioni per 6 volte
sia estratta una pallina rossa, per 6 volte una pallina
bianca e 8 volte una pallina nera?
Soluzione. Una singola sequenza di 20 estrazioni in cui
per 6 volte esce una pallina rossa, per 6 volte una
pallina bianca e per 8 volte una pallina nera ha
probabilità (1/4)6 . (3/10)6 . (9/20)8.
Esempi
Le sequenze di 20 palline di cui 6 rosse, 6 bianche e 8
nere sono tante quante le permutazioni con ripetizione
di una sequenza di 20 palline di cui 6 rosse, 6 bianche
e 8 nere , ossia
20! : (6! . 6! . 8!).
 Pertanto la probabilità richiesta è
(1/4)6 . (3/10)6 . (9/20)8 . (20!/ (6! . 6! . 8!)) = 0,04834.

Esempi


Un’urna contiene 40 palline di cui 20 rosse, 10
blu e 10 nere. Per 10 volte estraiamo una
pallina con reimbussolamento. Qual è la
probabilità che per 5 volte esca una pallina
nera?
Risposta. L’uscita di una pallina nera ha
probabilità ¼, per cui la probabilità che per 5
volte esca una pallina nera è C(10,5) . (1/4)5 .
(3/4)5=0,058399.
Esempi




E qual è la probabilità che su 10 estrazioni per 4 volte
esca una pallina nera o una pallina azzurra?
L’uscita di una pallina nera ha probabilità ¼, come
pure quella di una pallina azzurra.
Quindi la probabilità dell’uscita di una pallina nera o
azzurra è ¼ + ¼ = ½.
La probabilità che esca una pallina nera o azzurra per
4 volte su 10 è C(10,4) . (1/2)4 . (1/2)6 =0,20508.
La legge dei grandi numeri



Supponiamo di ripetere un numero potenzialmente
infinito di volte un esperimento, in cui l’evento E ha
probabilità costante p.
Allora con probabilità 1 la frequenza di E (numero di
volte in cui E si verifica fratto numero degli
esperimenti) tende alla probabilità p.
Restando al finito, ciò significa che con probabilità
molto alta su un numero molto grande di esperimenti
la frequenza dell’evento E è molto vicina alla
probabilità p.
Variabili aleatorie


Supponiamo che un esperimento possa avere
esiti e1, …, en.
Una variabile aleatoria relativa all’esperimento
è una funzione che ad ogni esito ei associa un
numero reale (positivo o negativo) ai.
Esempio





Ho fatto una scommessa sull’esito del lancio di un
dado.
Se esce un numero <3, perdo 15 euro.
Se esce 3 o 4 guadagno 5 euro.
Se esce 5 o 6 guadagno 10 euro.
La funzione mio guadagno è una variabile aleatoria
che assume valore –15 se escono l’1 o il 2, che
assume valore 5 se escono il 3 o il 4, e che assume
valore 10 se escono il 5 o il 6.
Variabili aleatorie




Altro esempio. Ho venduto 1000 televisori che mi sono
costati 200 Euro ciascuno, al prezzo di 300 Euro l’uno.
Il contratto prevede che il televisore venga sostituito
gratuitamente in caso di guasto entro il primo anno.
Il mio guadagno è una variabile aleatoria che dipende
dagli eventi ei: entro il primo anno si guastano i
televisori, per i=0,1,…,200.
Se si verifica l’evento ei, la variabile aleatoria vale
10000-200. i.
La variabile assume valore positivo se i<500.
Valore atteso di una variabile
aleatoria




Supponiamo che per i=1, … , n la probabilità dell’esito
ei sia pi, ove p1+…+pn=1.
Consideriamo la variabile aleatoria X che per i=1,…,n,
assume il valore ai se si verifica l’evento ei.
Per la legge dei grandi numeri, su un numero N grande
di prove, ciascun evento ei si verifica circa N.pi volte.
Quindi la media dei valori assunti da X è
n
p
i 1
i
 ai  N
N

n
p
i 1
i
 ai .
Valore atteso


Il valore atteso o valor medio della variabile
aleatoria X definita sopra è per definizione il
numero
E(X)=a1p1+…+anpn.
Tale valore atteso rappresenta la media dei
valori della variabile aleatoria X su un numero
grandissimo (potenzialmente infinito) di
esperimenti.
Esempi



Qual è il valore atteso della variabile esito numerico del
lancio di un dado bilanciato?
Risposta. La variabile assume i valori 1,2,3,4,5,6 tutti
con probabilità 1/6. Quindi
E(X)=1/6+2.(1/6)+3.(1/6)+…+6.(1/6)=3,5.
Come si vede, il valore atteso non è il valore più
probabile. Infatti nessun lancio di dado avrà mai come
esito un numero decimale come 3,5. Il valore atteso
rappresenta una sorta di media ponderata dei valori
della variabile.
Esempi




Qual è il valore atteso della variabile aleatoria somma
degli esiti dei lanci di due dadi?
Risposta. Calcoliamo la probabilità di ottenere
rispettivamente 2,3,4,…,12 come somma degli esiti dei
due lanci.
I casi possibili sono tanti quante le sequenze di 2
numeri da 1 a 6, quindi 36.
Inoltre vi sono 1 modo di fare 2 o 12 (1+1 e 6+6), 2
modi di fare 3 o 11, 3 modi di fare 4 o 10, 4 modi di fare
5 o 9, 5 modi di fare 6 o 8, e 6 modi di fare 7.
Esempi




Le probabilità di fare 2 o 12, 3 o 11, 4 o 10, 5 o 9, 6 o 8
e 7 sono rispettivamente: 1/36, 2/36, 3/36, 4/36, 5/36 e
6/36.
Quindi E(X)=(1/36).(2+12)+(2/36).(3+11)+
(3/36).(4+10)+(4/36).(5+9)+(5/36).(6+8)+(6/36).7=7.
Si noti che il valor medio 7 della variabile somma degli
esiti di due lanci di dado è il doppio del valor medio 3,5
della variabile esito di un singolo lancio.
In generale, il valor medio della somma di due variabili
aleatorie indipendenti è la somma dei loro valori medi.
Esercizi


Da un’urna contenente i primi 100 numeri vengono
estratti senza reimbussolamento dei numeri finché non
esce il numero 7. Qual è il valore atteso della variabile
aleatoria numero di estrazioni necessarie per estrarre il
numero 7?
Risposta. Valutiamo per i=1,…,100, la probabilità pi che
7 sia estratto alla i-esima estrazione. Il valor medio
E(X) sarà allora dato dalla formula
E(X)=1 . p1+2 . p2+…+100 . p100.
Esercizi



Calcolo pi. I casi possibili sono le sequenze senza
ripetizioni (disposizioni semplici) di i numeri fra i 100
numeri dati, ossia D(100,i)=100.99.98. ….(100-i+1).
Casi favorevoli. Il primo estratto deve essere diverso
da 7, quindi varia in 99 modi, il secondo dovendo
essere diverso da 7 e dal primo, varia in 98 modi, il
terzo in 97, … , l’i-1-esimo in 100-i+1 modi, l’ì-esimo
varia in un modo solo, dovendo essere 7. I casi
favorevoli sono quindi 99 . 98 . … . (100-i+1)=D(99,i-1).
Pertanto pi=D(100,i):D(99,i-1)=1/100.
Esercizi




Si noti che tutte le probabilità pi sono uguali fra
loro al variare di i.
Ne segue che
E(X) = 1/100 . (1+2+3+…+100) =50,5.
Ovviamente il risultato non dipende dalla scelta
del numero 7. Se a 7 sostituiamo un numero
qualsiasi da 1 a 100, il valore atteso resta
sempre lo stesso.
Esercizi





Cosa succede se le estrazioni avvengono con
reimbussolamento?
In questo caso il numero di passi necessario ad
estrarre 7 può essere arbitrariamente grande, per cui il
calcolo del valore atteso richiede una somma infinita.
La probabilità di estrarre 7 dopo k passi è pk=(1/100) .
(99/100)k-1. Il valor medio del numero dei tentativi
necessari per estrarre 7 è
E(X)=1 . p1+2 . p2+…+k . pk+…=100.
Tale valore è il reciproco della probabilità dell’evento.
Esercizi


Vengono fatti dei test in successione sui 1000 abitanti
di una paese per determinare se qualcuno è affetto da
una malattia infettiva. Se la percentuale dei contagiati
è del 5%, qual è il valore atteso del numero dei test
necessari per trovare il primo test positivo?
Risposta. Valutiamo, per n=1,2,…,951, la probabilità pn
di trovare un contagiato dopo l’ennesimo test. (Dopo
951 test ne troviamo sicuramente uno). Si avrà allora:
E(X)=1 . p1+2 . p2+…+p950 . 950+p951 . 951.
Esercizi
Valutiamo pn. Intanto, p1=5%=1/20. Sia n>1.
 Casi possibili: tanti quante le disposizioni semplici di n
oggetti presi fra 1000, ossia
D(1000,n)=1000 . 999 . 998 .…. (1000-n+1).
 Casi favorevoli: il primo varia in 950 modi, il secondo in
949 modi, … , l’n-1 esimo in 950-n+2 modi, l’n-esimo in
50 modi. Totale: 950 . 949 . 948 .…. (950-n+2) . 50.
 Pertanto:
pn =(950.…. (950-n+2).50)/(1000.999.….(1000-n+1)).

Esercizi




Ne segue che il valor medio della variabile aleatoria
numero di tentativi necessari per trovare un individuo
affetto dalla malattia vale
E(X)=p1+2.p2+3.p3+…+950.p950 +951.p951=19,627.
Si noti che tale valor medio è leggermente inferiore a
20, il reciproco della probabilità 1/20.
La differenza è dovuta al fatto che il modello è quello di
estrazione senza reimbussolamento (non si testa mai
la stessa persona due volte).
Esercizi







Un tale vi propone la seguente scommessa.
Viene lanciato un dado per 3 volte.
Voi vincete 2 Euro se almeno 2 dei 3 lanci hanno lo
stesso esito, e pagate 1,5 Euro se i 3 esiti sono diversi
fra loro.
Accettate?
Risposta. Sia X la variabile aleatoria vostro guadagno.
Vi conviene accettare se E(X)>0.
Detta p la probabilità di almeno 2 lanci con lo stesso
esito, si ha E(X) = 2 . p – 1,5 . (1-p).
Esercizi





Valutiamo prima la probabilità 1-p del complemento,
cioè di avere 3 lanci con esiti diversi.
Casi possibili: tanti quante le terne di esiti da 1 a 6,
cioè 63=216
Casi favorevoli: le terne di numeri da 1 a 6 prive di
ripetizioni, che sono D(6,3)=120.
Quindi 1-p=120/216, e p=96/216. Pertanto:
E(X)=2(96/216)-3/2(120/216) = 0.055556>0, che è un
valore molto basso, ma positivo. Conviene accettare.
Esercizi




Il Signor Rossi vi propone la seguente scommessa:
Vengono lanciati due dadi. Gli esiti possibili della
somma dei 2 lanci sono 2,3,4,5,6,7,8,9,10,11,12 (11
esiti in totale).
Rossi punta su un numero e vince 8 volte la posta se il
numero da lui puntato è la somma dei lanci dei due
dadi. Accettate?
Soluzione. Il gioco sembra conveniente perché le
possibilità sono 11 e Rossi vince solo 8 volte la posta
se indovina.
Esercizi





Tuttavia Rossi può puntare sul 7, che ha probabilità
6/36=1/6.
Il valore atteso del guadagno del Signor Rossi (e
quindi della vostra perdita) se punta sul 7 è
(1/6).8P-(5/6).P=(8/6-5/6).P=(3/6).P=P/2>0.
Quindi il gioco è vantaggioso per Rossi e svantaggioso
per voi, e non vi conviene accettare.
Naturalmente il gioco potrebbe diventare vantaggioso
per voi se Rossi fosse del tutto irrazionale e puntasse
ogni volta su un numero a caso.
Scarto quadratico medio e varianza



Sia data una variabile aleatoria X. Supponiamo di
volerne indovinare (magari con una certa
approssimazione) il valore. Sia a il valore da noi
previsto.
Consideriamo la variabile aleatoria (X-a)2. Tale
variabile rappresenta il quadrato dell’errore che
commettiamo attribuendo ad X il valore a.
Se in corrispondenza agli esiti e1,…,en (le cui
probabilità supponiamo essere p1,…,pn) la variabile X
assume i valori a1,…,an, il valore atteso della variabile
(X-a)2 risulta (a1 -a)2 . p1 + … +(an -a)2 . pn.
Scarto quadratico medio e varianza


Si può dimostrare che il valore a che rende minimo il
valore atteso della variabile (X-a)2 è il suo valore atteso
E(X). Quindi E(X) rappresenta l’approssimazione
numerica migliore della variabile X.
Il valore atteso della variabile (X-E(X))2 si chiama
varianza di X e si indica con V(X). La radice quadrata
della varianza V(X) si chiama invece scarto quadratico
medio o deviazione standard della variabile X.
Scarto quadratico medio e varianza

Mentre E(X) può essere pensato come media
dei valori assunti da X su un numero grande di
esperimenti, V(X) (o anche lo scarto quadratico
medio) dà un’idea di quanto i valori della
variabile nei singoli esperimenti possono
discostarsi da E(X).
Varianza


Se ad esempio V(X) è molto bassa, con alta probabilità
possiamo aspettarci dei valori di X molto vicini al valore
atteso E(X). In altre parole, non solo la media dei valori
di X su un grande numero di esperimenti tende a E(X),
ma non vi sono grosse oscillazioni intorno ad E(X).
Invece se V(X) è grande, anche se la media dei valori
di X su un numero grandissimo di esperimenti tende a
E(X), è prevedibile che vi siano forti oscillazioni, e che
quindi la media dei valori di X sia avvicini al valore
atteso solo dopo un numero molto grande di
esperimenti.
Disuguaglianza di Chebyshev



Il fatto che la varianza dia un’idea di quanto la variabile
aleatoria possa discostarsi dal suo valore atteso è
riassunto dalla seguente disuguaglianza di Chebyshev:
Sia X una variabile aleatoria, e sia a un numero reale
positivo. Allora:
Pr(|X-E(X)|>a) Var(X)/(a2).
In altre parole: la probabilità che lo scarto della
variabile X dal suo valor medio sia maggiore di a ha un
limite superiore inversamente proporzionale ad a2 e
direttamente proporzionale alla varianza V(X).
Esempi



Ho fatto una scommessa: pesco una carta da un
mazzo di 40 carte. Vinco 30 Euro se pesco l’Asso di
Cuori e perdo 1 Euro altrimenti. Calcolare media e
varianza della variabile aleatoria X=mio guadagno.
Soluzione.
E(X)=30/40-39/40=-9/40.
V(X)=39/40.(-1-(-9/40))2+(1/40).(30-(-9/40))2=23,424.
Esempi



Calcolare la varianza della variabile aleatoria
X=somma degli esiti del lancio di due dadi.
Come è noto, E(X)=7. Inoltre X assume i valori 2 e 12
con probabilità 1/36, 3 e 11 con probabilità 2/36, 4 e 10
con probabilità 3/36, 5 e 9 con probabilità 4/36, 6 e 8
con probabilità 5/36 e il valore 7 con probabilità 6/36.
Quindi V(X)=1/36.((2-7)2+(12-7)2)+2/36.((3-7)2+(11-7)2)
+3/36.((4-7)2+(10-7)2)+4/36.((5-7)2+(9-7)2)+
+5/36.((6-7)2 +(8-72)+6/36(7-7)2 =6.
Scarica

Esempi - Dipartimento di Scienze Matematiche e Informatiche R