 Introduzione al calcolo della probabilità: eventi, frequenza,
definizione classica, definizione frequentista, teoria
soggettiva, teoria assiomatica;
 Esperienza del lancio di dadi : analisi dei risultati e
costruzione di fogli Excel come applicazione della legge dei
grandi numeri;
 Ricerca storica sulle origini della teoria del calcolo delle
probabilità e sulla sua evoluzione nel corso dei secoli;
 Il Metodo Monte Carlo e sue applicazioni;
 Verifica del Teorema di Archimede per la determinazione
dell’area del segmento parabolico mediante il Metodo Monte
Carlo e costruzione di fogli Excel;
 Ago di Buffon per il calcolo di π e realizzazione del foglio
Excel per l’applicazione del metodo Monte Carlo.
Origini e sviluppi del calcolo delle probabilità;
Definizioni di probabilità: analisi storica ed esempi;
Il metodo Monte Carlo e sue applicazioni: Ago di
Buffon.
“Quando le regole della matematica si riferiscono
alla realtà non sono certe e quando sono certe non si
riferiscono alla realtà”
Albert Einstein
La logica del vero e del falso è in un certo senso la logica
del bianco e del nero. Com’ è facile intuire però, non
sempre essa è applicabile alla vasta gamma delle attività
umane..
Prima di intraprendere una qualunque azione, noi
cerchiamo sempre di valutare il rischio contro il vantaggio,
facendo, sia pure in modo inconsapevole, un calcolo delle
probabilità. Storicamente, il calcolo delle probabilità è
nato per.. gioco..
Nel Medioevo, il grande passatempo di tutti, dal monarca
al popolano, era il gioco d’azzardo. Giocare a carte, ai dadi,
alla morra, alla “zara” era il grande svago dei tempi
antichi: giocare e scommettere…….
Quando si parte il gioco della zara colui
che perde se ne va dolente ripetendo le
volle, e tristo impara.
(Divina Commedia, Purgatorio, Canto VI)
La probabilità, pur essendo considerata dal punto di
vista filosofico, non era conosciuta al mondo antico
nei suoi aspetti quantitativi.
I primi documenti che si conservano risalgono al XVI
secolo e riguardano i giochi d’azzardo.
Se ne occuparono , tra gli altri, Galilei e Cardano.
perdendo sistematicamente nel gioco dei
dadi, intraprese per primo lo studio
matematico della probabilità, scrivendo nel
1526 “Liber de Ludo aleae” (pubblicato
postumo nel 1663) dove afferma che
bisogna fare scommesse per compensarsi
del tempo perduto e dà dei consigli su come
barare.
nella sua opera “Sopra le scoperte dei dadi
(1630)”, si occupò di probabilità, stimolato da
quesiti postigli da nobili fiorentini appassionati
del gioco della “zara” (un gioco con tre dadi) e
fece osservazioni probabilistiche legate alla
propagazione degli errori nelle misurazioni.
Nel 1654 una disputa tra giocatori d'azzardo portò due famosi
matematici francesi, Blaise Pascal e Pierre de Fermat, ad una prima
e parziale formulazione di una teoria matematica della probabilità.
Chevalier de Mèrè, un nobile francese con l'hobby di problemi
inerenti il gioco d'azzardo, richiamò all'attenzione di Pascal
un'apparente contraddizione che concerneva un famoso gioco di dadi.
Il gioco consisteva nel lanciare un paio di dadi 24 volte; il problema
consisteva nel decidere se scommettere o no la stessa quantità di
denaro sulla possibilità che si verificasse almeno un "doppio 6"
nell'arco di 24 lanci. Una apparentemente ben dimostrata regola del
gioco d'azzardo spinse Mèrè a credere che scommettere un "doppio
6" su 24 lanci sarebbe stato vantaggioso. Tuttavia giocando, secondo
tale convinzione, invece di vincere perdeva e scrisse a Pascal
lamentando che la matematica falliva di fronte all’evidenza empirica.
Da ciò scaturì una corrispondenza tra Pascal e Fermat in cui iniziò a
delinearsi il concetto di probabilità nell’accezione frequentista.
Pascal annunciò nel 1654 all’accademia di Parigi che stava lavorando sul
problema della messa in gioco . In una lettera del 29 luglio dello stesso anno
a Fermat propose la soluzione del problema affrontato con il metodo per
ricorrenza. Questo ed altri problemi posti da de Mèrè portarono Pascal e
Fermat ad uno scambio epistolare, nel quale i principi fondamentali della
teoria della probabilità venivano formulati per la prima volta. Anche se
alcuni problemi speciali sui giochi aleatori erano stati risolti da matematici
italiani nel XV e nel XVI secolo, non venne sviluppata alcuna teoria generale
prima di questa famosa corrispondenza.
Lo scienziato olandese Christian Huygens, un insegnante di
Leibnitz, venne a conoscenza di questa corrispondenza e dopo
pochi anni (1657) pubblicò il primo libro sulla probabilità,
intitolato “De ratiociniis in ludo aleae”. Era un trattato su
problemi associati al gioco d'azzardo. A causa dell'inerente
attrattiva dei giochi aleatori, la teoria della probabilità divenne
presto famosa e si sviluppò rapidamente durante il XVIII
secolo. Coloro che diedero maggiormente un contributo alla
teoria della probabilità in questo periodo furono Jakob
Bernoulli (1654-1705), Daniele Bernoulli (1700-1782) e
Abraham De Moivre (1667-1754).
Nonostante le numerose teorie enunciate nel
XVII secolo è solo nel corso del secolo
successivo che cominciarono ad essere
enunciate le prime leggi e definizioni
riguardanti il calcolo delle probabilità.
Importante fu in questo senso il ruolo della
famiglia Bernoulli, le cui scoperte anticipavano
la formulazione della definizione classica di
Jacob Bernoulli
Laplace.
A Jacob Bernoulli (1654-1705) si devono in
particolare:
la risoluzione del problema delle navi
mediante la Distribuzione Binomiale;
l’enunciazione della Legge dei Grandi
Numeri ( esposta in “Ars Conjectandi “1713)
Daniele Bernoulli (1700-1782),
nipote di Jacob, nel suo
Specimen Theoriae novae de
mensura sortis affrontò, invece,
il problema del paradosso di
Pietroburgo:
Supponiamo che Pietro e Paolo
si mettono a giocare a testa e
croce con una moneta. Se il
primo lancio dà testa, Paolo darà
a Pietro una corona; se il primo
lancio dà croce, ma si ottiene
testa per la prima volta al
secondo lancio, Paolo darà a
Pietro due corone; […] Qual è la
somma che Pietro dovrebbe
pagare a Paolo perché questi
accetti di giocare?
Fu lui ad introdurre e a dimostrare, nel caso più
semplice, una legge particolare osservata spesso nei
fenomeni aleatori: la cosiddetta legge normale ( o
legge di Gauss).
Il gruppo dei teoremi che danno un fondamento a
questa legge per differenti condizioni porta il nome
generale di “ teorema limite centrale”.
Nel 1812 Pierre de Laplace (1749-1827) introdusse una grande
quantità di nuove idee e tecniche matematiche nel suo libro
Thèorie Analytique des Probabilitès. Prima di Laplace, la
teoria della probabilità concerneva solamente nello sviluppo di
un'analisi matematica dei giochi aleatori. Laplace applicò idee
probabilistiche a molti problemi scientifici e pratici. La teoria
degli errori, la matematica attuariale e la meccanica statistica
sono esempi di alcune delle importanti applicazioni della teoria
della probabilità sviluppate nel XIX secolo.
In quelli stessi anni, Gauss, con il contributo
dello stesso Laplace, dava una formulazione
della distribuzione normale, conosciuta anche
come "distribuzione di Gauss-Laplace", che
costituisce uno dei cardini su cui si fonda la
statistica moderna.
Come tante altre branche della matematica, lo
sviluppo della teoria della probabilità è stato
stimolato dalla varietà delle sue applicazioni.
La statistica matematica è un'importante branca della
probabilità applicata; altre applicazioni si trovano in
svariati campi, come ad esempio genetica, psicologia,
economia ed ingegneria. Dai tempi di Laplace, molti
lavoratori hanno contribuito alla teoria della
probabilità: tra i più importanti troviamo
La teoria delle probabilità è attualmente in pieno
sviluppo. In questi ultimi anni sono apparsi nuovi
metodi della teoria delle probabilità applicata. Si
tratta, in particolare, di nuove discipline, quali la
teoria dell’informazione e la teoria dei sistemi di
attesa. Nati dai bisogni pratici, questi nuovi settori
acquistano un’importanza teorica generale, il loro
dominio di applicazione non cessa di estendersi.
Secondo la prima definizione di
probabilità, per questo detta classica,
la probabilità di un evento è il rapporto
tra il numero dei casi favorevoli
all'evento e il numero dei casi possibili,
purché questi ultimi siano tutti
equiprobabili. Questa definizione è
spesso attribuita a Pierre Simon
Laplace
(“Théorie analytique des
probabilités” 1812) e quindi anche
identificata come definizione classica
di Laplace.
Estraiamo una carta da un mazzo
da quaranta.
Calcoliamo la probabilità dei
seguenti eventi:
A=“esce un tre”
B=“esce una figura”
C=“ esce una carta di spada”
D=“esce una figura di bastone”
Si ha:
4
1
12 3
=
= 0,1 P(B) =
=
= 0,3
40 10
40 10
10 1
3
P(C) =
= = 0,25 P(D) =
= 0,075
40 4
40
(A) =
Due ragazzi fanno alla conta, gettando la mano con
alcune dita distese e facendo la loro somma. Il primo
ha scelto "Pari". Qual è la probabilità che si verifichi
tal evento?
Si è portati a credere che pari e dispari siano eventi
ugualmente probabili ciascuno con probabilità 1/2.
Se si analizza invece la situazione con una tabella a
doppia entrata, si vede che l'evento "esce un numero
pari" (caselle gialle) è leggermente avvantaggiato,
poiché i casi favorevoli sono 13 su 25 contro i 12 su 25
dell'evento opposto (caselle verdi).
Diversa è la situazione se si considera la
possibilità di gettare anche lo zero (mano
chiusa). In tal caso i dispari hanno 18 possibilità
su 36, mentre i pari ne hanno 17 su 36. L’uscita
“0” ha la restante unica possibilità su 36.
Si lanciano due dadi. Qual è la probabilità
che almeno uno di essi sia un 6?
Costruiamo lo spazio campione, utilizzando
una tabella a doppia entrata, con i 36 casi
possibili. Abbiamo utilizzato dadi di due
colori diversi per far vedere che l'uscita
della coppia {1,2} è un evento distinto da
quello della coppia {2,1} e così per le altre
coppie. Si vede che ci sono 11 casi
(evidenziati in blu) in cui esce il 6 su
almeno uno dei dadi.
La probabilità dell'evento è quindi
p=11/36.
Circa 30 anni dopo la comparsa del lavoro di
Laplace, Antoine Cournot e Robert Leslie Ellis
separatamente
proposero
una
nuova
definizione della probabilità di impostazione
statistica
La definizione frequentista si applica ad
esperimenti casuali i cui eventi elementari non
siano ritenuti ugualmente possibili, ma assume
che l'esperimento sia ripetibile più volte,
idealmente infinite, sotto le stesse condizioni.
Anche tale definizione consente di calcolare
la probabilità di molti eventi e da essa si
ricavano le stesse tre regole che seguono
dalla definizione classica. È sufficiente,
infatti, sostituire il rapporto tra numero dei
casi favorevoli nA e numero dei casi possibili n
con il limite del rapporto per n tendente
all'infinito.
Si definisce frequenza relativa il rapporto tra il numero di prove in cui si è verificato un
evento ed il numero di prove effettuate:
f(E) =
numero di prove riuscite
numero di prove effettuate
Effettuando numerose prove, eseguite nelle stesse condizioni, la frequenza relativa di un
evento è assai prossima alla sua probabilità; l’approssimazione è tanto maggiore quanto più
numerose sono le prove effettuate.
Questo enunciato non è un teorema matematico, ma una legge sperimentale, detta
legge empirica del caso ( Teorema di Bernoulli), che si può sottoporre a verifica al pari di
tutte le altre leggi fisiche. Sono divenute celebri le verifiche sperimentali eseguite dal
matematico francese del settecento George Louis Leclerc, conte di Buffon e dal matematico
inglese Karl Pearson (1857-1936) per confrontare la frequenza relativa dell’evento “esce
testa” con la probabilità teorica 1/2 =0,5. I risultati sono riportati nella seguente tabella
Buffon
Pearson
Pearson
Numero di lanci
Numero uscite “Testa”
Frequenze relative
4.040
12.000
24.000
2.048
6.019
12.012
0,5069
0,5016
0,5005
Come è evidente, la frequenza relativa è assai prossima alla
l’approssimazione diviene migliore al crescere del numero delle prove.
probabilità,
e
Pertanto, la probabilità frequentista di un evento è uguale al rapporto tra il numero di prove
riuscite ed il numero di prove effettuate ( tutte nelle stesse condizioni).
Se lanciamo una puntina da disegno, essa può cadere con la
punta rivolta verso l’alto o verso il basso.
Quali sono le probabilità dei due eventi?
È chiaro che sarebbe errato usare la definizione classica
di probabilità: a differenza della moneta, la puntina non è
simmetrica, e uno dei due eventi può essere più probabile
dell’altro. La soluzione è semplice: lanciamo la puntina
tante volte, e assumiamo la frequenza relativa come stima
della probabilità. Tale stima sarà tanto più attendibile
quanto maggiore sarà stato il numero delle prove
effettuate.
Eseguendo un’altra serie di lanci troveremo, quasi
sicuramente, un valore diverso della frequenza relativa, e
quindi una stima diversa della probabilità. Però, se ciascuna
delle due serie è composta da un numero abbastanza
elevato di prove, le due stime differiranno di poco.
L’impostazione soggettiva, i cui
maggiori sostenitori sono
stati all’epoca F.P.Ramsey,
B. De Finetti e poi L.J.Savage,
rifacendosi sostanzialmente
alla tradizione dei primi studi
probabilistici, sostiene
invece che :
“La probabilità di un evento è
fornita secondo l’esperienza
personale e le informazioni
disponibili.”
“La probabilità soggettiva è il
prezzo che un individuo stima
equo pagare per avere un
guadagno unitario.”
Qual è la probabilità che questo pomeriggio piova?
Che domani io sia interrogato in italiano?
Che la Ferrari vinca la prossima gara di Formula uno?
Che il prezzo delle azioni Fiat salga nei prossimi due mesi
il 10%?
di almeno
Il padre di Luigi dice:”…voi giovani non capite ancora l’importanza
dello studio, pensate solo al divertimento! Beh ti voglio fare questa
proposta: domenica andrai allo stadio a vedere la partita del Napoli,
a condizioni però che prima superi con voto sufficiente il compito di
matematica”. Luigi aveva programmato anche di andare al cinema, ma
sa bene che per superare il compito di matematica in modo
sufficiente, dovrà studiare tutto il pomeriggio, e quasi certamente
dovrà rinunciare al cinema. Capisce cioè che se vuole aumentare la
probabilità di avere una buon voto nel compito di matematica
diminuirà, altrettanto inevitabilmente, la sua probabilità di andare
al cinema. Che decisione dovrà (o potrà) prendere ?
Una delle difficoltà nello sviluppo di una teoria matematica della
probabilità è stata il raggiungere una definizione di probabilità che
fosse abbastanza rigorosa e precisa per l'utilizzo in matematica, ma
che, al tempo stesso, fosse sufficientemente flessibile per
l'applicazione in un ampio raggio di fenomeni. La ricerca di una
definizione accettabile richiese quasi tre secoli e fu segnata da
molte controversie.
Il problema fu finalmente risolto nel XX secolo dalla trattazione di
una teoria della probabilità su base assiomatica.
Nel 1933, con una monografia intitolata Grundbegriffe der
Wahrscheinlichkeitsrechnung (Fondamenti della teoria della
probabilità), un matematico russo di nome A. N. Kolmogorov tracciò
un approccio assiomatico per la teoria moderna. Da allora, queste
idee sono state alquanto rifinite e la teoria della probabilità ora è
parte di una più generale disciplina, conosciuta col nome di teoria
della misura.
Va notato che la definizione assiomatica non è una
definizione operativa e non fornisce indicazioni su
come calcolare la probabilità.
È quindi una definizione utilizzabile sia nell'ambito di
un approccio oggettivista che nell'ambito di un
approccio soggettivista.
Il
nome
deriva
dal
procedimento
per
"assiomatizzazione" quindi nell'individuare i concetti
primitivi, da questi nell'individuare i postulati da cui
poi si passava a definire i teoremi
P(E) =
0  P( E )  1
P ( E )  0 E evento impossibile
P(E) = 1 E evento certo
numeri di casi favorevoli
numeri di casi possibili
numero di prove riuscite
numero di prove effettuate
E evento contrario 0  f ( E )  1
f ( E )  0 E non si è mai verificato
f (E) 
E1 E2 eventi compatibili
P(E1  E2 )  P(E1 )  P( E2 )  P( E1  E2 )
P(E )  1  P( E )
E1 E2 eventi incompatibili
E1 E2 eventi dipendenti
P(E1  E2 )  P(E1 )  P(E2 / E1 )
P(E1  E2 )  P(E1 )  P(E2 )
E1 E2 eventi indipendenti
P(E1  E2 )  P(E1 )  P(E2 )
f(E) = 1 E si è sempre verificato
Nei primi decenni del ‘900 l’utilizzo di metodi probabilistici
iniziò a diffondersi negli ambiti scientifici soprattutto per
effettuare stime attraverso simulazioni.
Quando von Neumann chiamò "di Monte Carlo" un procedimento
matematico basato sull'utilizzazione di numeri casuali
intendeva, con quel nome, alludere alla capitale del Principato
di Monaco. Più precisamente si riferiva al casinò, alle sale da
gioco, alle roulette; congegni questi escogitati appositamente
affinchè la fortuna o la rovina di coloro che per vizio, noia o
altro si cimentano nel gioco, sia decretata dalla assoluta
casualità che si manifesta nell'uscita di questo o quel numero.
Una delle applicazioni più famose di tale metodo è sicuramente
quella di Enrico Fermi che nel 1930 lo usò per calcolare le
proprietà del neutrone.
Il primo Monte Carlo risale alla fine del XVIII secolo e
serviva per la determinazione statistica del numero π,
attraverso il quale si può calcolare l'area del cerchio.
Questo valore approssimato si può determinare con
procedimenti geometrici utilizzando poligoni inscritti al
cerchio (un'idea del tempo di Archimede) oppure con
metodi analitici (che portarono intorno al 1650 alla
formula di Wallis).
Il nostro interesse è invece quello di far vedere come il
metodo Monte Carlo permette di trovare π con tecniche
probabilistiche.
Pertanto si consideri il quadrato di lato unitario.
Scegliamo a caso un punto P nel quadrato:
Con qual probabilità cadrà nel settore circolare
tratteggiato?
Poiché l'area del settore è π/4 e quella del quadrato vale
uno, potremmo dire che la probabilità è il loro rapporto
cioè π/4.
Per trovare una approssimazione di π si estraggono a caso un
gran numero n di punti dal quadrato.
Di questi siano s quelli usciti dal settore circolare.
Per un classico teorema della probabilità, che va sotto il nome
di legge dei grandi numeri ( Teorema di Bernoulli) si può
affermare che il rapporto s/n, ottenuto statisticamente,
differirà di poco dalla probabilità teorica π/4, quando n è
molto grande (per esempio maggiore di 50.000).
Ma come si può scegliere un punto a caso P nel quadrato?
Un metodo efficiente è quello di ricorrere al computer, il quale
è in grado, in pochi minuti, di estrarre a caso migliaia di punti e
di fornire la stima di quale percentuale di questi è caduta
dentro la regione considerata. Questa percentuale sarà
uguale, più o meno, all'area della regione con un errore che
tende a zero all'aumentare del numero n di punti estratti.
Il problema dell’ago di Buffon è
una questione posta nel XVIII
secolo da Georges-Louis Leclerc
conte di Buffon.
Esso può essere risolto e
ricondotto ad un procedimento
del Metodo Monte Carlo per
ottenere un valore
approssimato di π.
L’esperimento è il seguente:
dato un fascio di rette parallele (le righe del parquet)
distanti l'una dall'altra di un'unità di lunghezza d e
dato un ago di lunghezza L<d, si lasci cadere l'ago sul
fascio di rette.
La probabilità che l’ago intersechi una retta (vada a
cadere su un’intercapedine tra un’asse e l’altro del
parquet) è: 2L
d
Effettuando un numero elevato di lanci, il rapporto
tra le volte che l'ago interseca una retta ed il numero
totale delle prove tende a questo rapporto: è dunque
possibile calcolare un valore approssimato di π.
Ovvero:
L’ago interseca una delle rette solo se risulta soddisfatta la condizione
L
y  AC
, cioè se
y  sin x
MH  y, AMC  x
2


L
y  sin x
2
I limiti geometrici per y e x, sono i seguenti 0≤x≤π e
0≤y≤d/2
e facendone
una interpretazione
geometrica, la probabilità dell’evento risulta il
rapporto fra l’area sottesa alla curva di equazione
e l’area del rettangolo di dimensioni π, d/2.
Ovvero: y  L sin x

L
sin x  dx

L
2L

 casi favorevoli area sottesa dalla curva 2 0
P  y  sin x  



d
2
area del rettangolo
d

 casi possibili

2
2
L’area del segmento parabolico è uguale ai 2/3 dell’area del rettangolo
ABEC (dove A e B sono i punti di intersezione tra la secante e la parabola, C
e E le loro proiezioni sulla retta tangente e parallela alla secante)
2
Area segmento parabolico   Area ABEC 
3
Scarica

Presentazione studenti