Introduzione al calcolo della probabilità: eventi, frequenza, definizione classica, definizione frequentista, teoria soggettiva, teoria assiomatica; Esperienza del lancio di dadi : analisi dei risultati e costruzione di fogli Excel come applicazione della legge dei grandi numeri; Ricerca storica sulle origini della teoria del calcolo delle probabilità e sulla sua evoluzione nel corso dei secoli; Il Metodo Monte Carlo e sue applicazioni; Verifica del Teorema di Archimede per la determinazione dell’area del segmento parabolico mediante il Metodo Monte Carlo e costruzione di fogli Excel; Ago di Buffon per il calcolo di π e realizzazione del foglio Excel per l’applicazione del metodo Monte Carlo. Origini e sviluppi del calcolo delle probabilità; Definizioni di probabilità: analisi storica ed esempi; Il metodo Monte Carlo e sue applicazioni: Ago di Buffon. “Quando le regole della matematica si riferiscono alla realtà non sono certe e quando sono certe non si riferiscono alla realtà” Albert Einstein La logica del vero e del falso è in un certo senso la logica del bianco e del nero. Com’ è facile intuire però, non sempre essa è applicabile alla vasta gamma delle attività umane.. Prima di intraprendere una qualunque azione, noi cerchiamo sempre di valutare il rischio contro il vantaggio, facendo, sia pure in modo inconsapevole, un calcolo delle probabilità. Storicamente, il calcolo delle probabilità è nato per.. gioco.. Nel Medioevo, il grande passatempo di tutti, dal monarca al popolano, era il gioco d’azzardo. Giocare a carte, ai dadi, alla morra, alla “zara” era il grande svago dei tempi antichi: giocare e scommettere……. Quando si parte il gioco della zara colui che perde se ne va dolente ripetendo le volle, e tristo impara. (Divina Commedia, Purgatorio, Canto VI) La probabilità, pur essendo considerata dal punto di vista filosofico, non era conosciuta al mondo antico nei suoi aspetti quantitativi. I primi documenti che si conservano risalgono al XVI secolo e riguardano i giochi d’azzardo. Se ne occuparono , tra gli altri, Galilei e Cardano. perdendo sistematicamente nel gioco dei dadi, intraprese per primo lo studio matematico della probabilità, scrivendo nel 1526 “Liber de Ludo aleae” (pubblicato postumo nel 1663) dove afferma che bisogna fare scommesse per compensarsi del tempo perduto e dà dei consigli su come barare. nella sua opera “Sopra le scoperte dei dadi (1630)”, si occupò di probabilità, stimolato da quesiti postigli da nobili fiorentini appassionati del gioco della “zara” (un gioco con tre dadi) e fece osservazioni probabilistiche legate alla propagazione degli errori nelle misurazioni. Nel 1654 una disputa tra giocatori d'azzardo portò due famosi matematici francesi, Blaise Pascal e Pierre de Fermat, ad una prima e parziale formulazione di una teoria matematica della probabilità. Chevalier de Mèrè, un nobile francese con l'hobby di problemi inerenti il gioco d'azzardo, richiamò all'attenzione di Pascal un'apparente contraddizione che concerneva un famoso gioco di dadi. Il gioco consisteva nel lanciare un paio di dadi 24 volte; il problema consisteva nel decidere se scommettere o no la stessa quantità di denaro sulla possibilità che si verificasse almeno un "doppio 6" nell'arco di 24 lanci. Una apparentemente ben dimostrata regola del gioco d'azzardo spinse Mèrè a credere che scommettere un "doppio 6" su 24 lanci sarebbe stato vantaggioso. Tuttavia giocando, secondo tale convinzione, invece di vincere perdeva e scrisse a Pascal lamentando che la matematica falliva di fronte all’evidenza empirica. Da ciò scaturì una corrispondenza tra Pascal e Fermat in cui iniziò a delinearsi il concetto di probabilità nell’accezione frequentista. Pascal annunciò nel 1654 all’accademia di Parigi che stava lavorando sul problema della messa in gioco . In una lettera del 29 luglio dello stesso anno a Fermat propose la soluzione del problema affrontato con il metodo per ricorrenza. Questo ed altri problemi posti da de Mèrè portarono Pascal e Fermat ad uno scambio epistolare, nel quale i principi fondamentali della teoria della probabilità venivano formulati per la prima volta. Anche se alcuni problemi speciali sui giochi aleatori erano stati risolti da matematici italiani nel XV e nel XVI secolo, non venne sviluppata alcuna teoria generale prima di questa famosa corrispondenza. Lo scienziato olandese Christian Huygens, un insegnante di Leibnitz, venne a conoscenza di questa corrispondenza e dopo pochi anni (1657) pubblicò il primo libro sulla probabilità, intitolato “De ratiociniis in ludo aleae”. Era un trattato su problemi associati al gioco d'azzardo. A causa dell'inerente attrattiva dei giochi aleatori, la teoria della probabilità divenne presto famosa e si sviluppò rapidamente durante il XVIII secolo. Coloro che diedero maggiormente un contributo alla teoria della probabilità in questo periodo furono Jakob Bernoulli (1654-1705), Daniele Bernoulli (1700-1782) e Abraham De Moivre (1667-1754). Nonostante le numerose teorie enunciate nel XVII secolo è solo nel corso del secolo successivo che cominciarono ad essere enunciate le prime leggi e definizioni riguardanti il calcolo delle probabilità. Importante fu in questo senso il ruolo della famiglia Bernoulli, le cui scoperte anticipavano la formulazione della definizione classica di Jacob Bernoulli Laplace. A Jacob Bernoulli (1654-1705) si devono in particolare: la risoluzione del problema delle navi mediante la Distribuzione Binomiale; l’enunciazione della Legge dei Grandi Numeri ( esposta in “Ars Conjectandi “1713) Daniele Bernoulli (1700-1782), nipote di Jacob, nel suo Specimen Theoriae novae de mensura sortis affrontò, invece, il problema del paradosso di Pietroburgo: Supponiamo che Pietro e Paolo si mettono a giocare a testa e croce con una moneta. Se il primo lancio dà testa, Paolo darà a Pietro una corona; se il primo lancio dà croce, ma si ottiene testa per la prima volta al secondo lancio, Paolo darà a Pietro due corone; […] Qual è la somma che Pietro dovrebbe pagare a Paolo perché questi accetti di giocare? Fu lui ad introdurre e a dimostrare, nel caso più semplice, una legge particolare osservata spesso nei fenomeni aleatori: la cosiddetta legge normale ( o legge di Gauss). Il gruppo dei teoremi che danno un fondamento a questa legge per differenti condizioni porta il nome generale di “ teorema limite centrale”. Nel 1812 Pierre de Laplace (1749-1827) introdusse una grande quantità di nuove idee e tecniche matematiche nel suo libro Thèorie Analytique des Probabilitès. Prima di Laplace, la teoria della probabilità concerneva solamente nello sviluppo di un'analisi matematica dei giochi aleatori. Laplace applicò idee probabilistiche a molti problemi scientifici e pratici. La teoria degli errori, la matematica attuariale e la meccanica statistica sono esempi di alcune delle importanti applicazioni della teoria della probabilità sviluppate nel XIX secolo. In quelli stessi anni, Gauss, con il contributo dello stesso Laplace, dava una formulazione della distribuzione normale, conosciuta anche come "distribuzione di Gauss-Laplace", che costituisce uno dei cardini su cui si fonda la statistica moderna. Come tante altre branche della matematica, lo sviluppo della teoria della probabilità è stato stimolato dalla varietà delle sue applicazioni. La statistica matematica è un'importante branca della probabilità applicata; altre applicazioni si trovano in svariati campi, come ad esempio genetica, psicologia, economia ed ingegneria. Dai tempi di Laplace, molti lavoratori hanno contribuito alla teoria della probabilità: tra i più importanti troviamo La teoria delle probabilità è attualmente in pieno sviluppo. In questi ultimi anni sono apparsi nuovi metodi della teoria delle probabilità applicata. Si tratta, in particolare, di nuove discipline, quali la teoria dell’informazione e la teoria dei sistemi di attesa. Nati dai bisogni pratici, questi nuovi settori acquistano un’importanza teorica generale, il loro dominio di applicazione non cessa di estendersi. Secondo la prima definizione di probabilità, per questo detta classica, la probabilità di un evento è il rapporto tra il numero dei casi favorevoli all'evento e il numero dei casi possibili, purché questi ultimi siano tutti equiprobabili. Questa definizione è spesso attribuita a Pierre Simon Laplace (“Théorie analytique des probabilités” 1812) e quindi anche identificata come definizione classica di Laplace. Estraiamo una carta da un mazzo da quaranta. Calcoliamo la probabilità dei seguenti eventi: A=“esce un tre” B=“esce una figura” C=“ esce una carta di spada” D=“esce una figura di bastone” Si ha: 4 1 12 3 = = 0,1 P(B) = = = 0,3 40 10 40 10 10 1 3 P(C) = = = 0,25 P(D) = = 0,075 40 4 40 (A) = Due ragazzi fanno alla conta, gettando la mano con alcune dita distese e facendo la loro somma. Il primo ha scelto "Pari". Qual è la probabilità che si verifichi tal evento? Si è portati a credere che pari e dispari siano eventi ugualmente probabili ciascuno con probabilità 1/2. Se si analizza invece la situazione con una tabella a doppia entrata, si vede che l'evento "esce un numero pari" (caselle gialle) è leggermente avvantaggiato, poiché i casi favorevoli sono 13 su 25 contro i 12 su 25 dell'evento opposto (caselle verdi). Diversa è la situazione se si considera la possibilità di gettare anche lo zero (mano chiusa). In tal caso i dispari hanno 18 possibilità su 36, mentre i pari ne hanno 17 su 36. L’uscita “0” ha la restante unica possibilità su 36. Si lanciano due dadi. Qual è la probabilità che almeno uno di essi sia un 6? Costruiamo lo spazio campione, utilizzando una tabella a doppia entrata, con i 36 casi possibili. Abbiamo utilizzato dadi di due colori diversi per far vedere che l'uscita della coppia {1,2} è un evento distinto da quello della coppia {2,1} e così per le altre coppie. Si vede che ci sono 11 casi (evidenziati in blu) in cui esce il 6 su almeno uno dei dadi. La probabilità dell'evento è quindi p=11/36. Circa 30 anni dopo la comparsa del lavoro di Laplace, Antoine Cournot e Robert Leslie Ellis separatamente proposero una nuova definizione della probabilità di impostazione statistica La definizione frequentista si applica ad esperimenti casuali i cui eventi elementari non siano ritenuti ugualmente possibili, ma assume che l'esperimento sia ripetibile più volte, idealmente infinite, sotto le stesse condizioni. Anche tale definizione consente di calcolare la probabilità di molti eventi e da essa si ricavano le stesse tre regole che seguono dalla definizione classica. È sufficiente, infatti, sostituire il rapporto tra numero dei casi favorevoli nA e numero dei casi possibili n con il limite del rapporto per n tendente all'infinito. Si definisce frequenza relativa il rapporto tra il numero di prove in cui si è verificato un evento ed il numero di prove effettuate: f(E) = numero di prove riuscite numero di prove effettuate Effettuando numerose prove, eseguite nelle stesse condizioni, la frequenza relativa di un evento è assai prossima alla sua probabilità; l’approssimazione è tanto maggiore quanto più numerose sono le prove effettuate. Questo enunciato non è un teorema matematico, ma una legge sperimentale, detta legge empirica del caso ( Teorema di Bernoulli), che si può sottoporre a verifica al pari di tutte le altre leggi fisiche. Sono divenute celebri le verifiche sperimentali eseguite dal matematico francese del settecento George Louis Leclerc, conte di Buffon e dal matematico inglese Karl Pearson (1857-1936) per confrontare la frequenza relativa dell’evento “esce testa” con la probabilità teorica 1/2 =0,5. I risultati sono riportati nella seguente tabella Buffon Pearson Pearson Numero di lanci Numero uscite “Testa” Frequenze relative 4.040 12.000 24.000 2.048 6.019 12.012 0,5069 0,5016 0,5005 Come è evidente, la frequenza relativa è assai prossima alla l’approssimazione diviene migliore al crescere del numero delle prove. probabilità, e Pertanto, la probabilità frequentista di un evento è uguale al rapporto tra il numero di prove riuscite ed il numero di prove effettuate ( tutte nelle stesse condizioni). Se lanciamo una puntina da disegno, essa può cadere con la punta rivolta verso l’alto o verso il basso. Quali sono le probabilità dei due eventi? È chiaro che sarebbe errato usare la definizione classica di probabilità: a differenza della moneta, la puntina non è simmetrica, e uno dei due eventi può essere più probabile dell’altro. La soluzione è semplice: lanciamo la puntina tante volte, e assumiamo la frequenza relativa come stima della probabilità. Tale stima sarà tanto più attendibile quanto maggiore sarà stato il numero delle prove effettuate. Eseguendo un’altra serie di lanci troveremo, quasi sicuramente, un valore diverso della frequenza relativa, e quindi una stima diversa della probabilità. Però, se ciascuna delle due serie è composta da un numero abbastanza elevato di prove, le due stime differiranno di poco. L’impostazione soggettiva, i cui maggiori sostenitori sono stati all’epoca F.P.Ramsey, B. De Finetti e poi L.J.Savage, rifacendosi sostanzialmente alla tradizione dei primi studi probabilistici, sostiene invece che : “La probabilità di un evento è fornita secondo l’esperienza personale e le informazioni disponibili.” “La probabilità soggettiva è il prezzo che un individuo stima equo pagare per avere un guadagno unitario.” Qual è la probabilità che questo pomeriggio piova? Che domani io sia interrogato in italiano? Che la Ferrari vinca la prossima gara di Formula uno? Che il prezzo delle azioni Fiat salga nei prossimi due mesi il 10%? di almeno Il padre di Luigi dice:”…voi giovani non capite ancora l’importanza dello studio, pensate solo al divertimento! Beh ti voglio fare questa proposta: domenica andrai allo stadio a vedere la partita del Napoli, a condizioni però che prima superi con voto sufficiente il compito di matematica”. Luigi aveva programmato anche di andare al cinema, ma sa bene che per superare il compito di matematica in modo sufficiente, dovrà studiare tutto il pomeriggio, e quasi certamente dovrà rinunciare al cinema. Capisce cioè che se vuole aumentare la probabilità di avere una buon voto nel compito di matematica diminuirà, altrettanto inevitabilmente, la sua probabilità di andare al cinema. Che decisione dovrà (o potrà) prendere ? Una delle difficoltà nello sviluppo di una teoria matematica della probabilità è stata il raggiungere una definizione di probabilità che fosse abbastanza rigorosa e precisa per l'utilizzo in matematica, ma che, al tempo stesso, fosse sufficientemente flessibile per l'applicazione in un ampio raggio di fenomeni. La ricerca di una definizione accettabile richiese quasi tre secoli e fu segnata da molte controversie. Il problema fu finalmente risolto nel XX secolo dalla trattazione di una teoria della probabilità su base assiomatica. Nel 1933, con una monografia intitolata Grundbegriffe der Wahrscheinlichkeitsrechnung (Fondamenti della teoria della probabilità), un matematico russo di nome A. N. Kolmogorov tracciò un approccio assiomatico per la teoria moderna. Da allora, queste idee sono state alquanto rifinite e la teoria della probabilità ora è parte di una più generale disciplina, conosciuta col nome di teoria della misura. Va notato che la definizione assiomatica non è una definizione operativa e non fornisce indicazioni su come calcolare la probabilità. È quindi una definizione utilizzabile sia nell'ambito di un approccio oggettivista che nell'ambito di un approccio soggettivista. Il nome deriva dal procedimento per "assiomatizzazione" quindi nell'individuare i concetti primitivi, da questi nell'individuare i postulati da cui poi si passava a definire i teoremi P(E) = 0 P( E ) 1 P ( E ) 0 E evento impossibile P(E) = 1 E evento certo numeri di casi favorevoli numeri di casi possibili numero di prove riuscite numero di prove effettuate E evento contrario 0 f ( E ) 1 f ( E ) 0 E non si è mai verificato f (E) E1 E2 eventi compatibili P(E1 E2 ) P(E1 ) P( E2 ) P( E1 E2 ) P(E ) 1 P( E ) E1 E2 eventi incompatibili E1 E2 eventi dipendenti P(E1 E2 ) P(E1 ) P(E2 / E1 ) P(E1 E2 ) P(E1 ) P(E2 ) E1 E2 eventi indipendenti P(E1 E2 ) P(E1 ) P(E2 ) f(E) = 1 E si è sempre verificato Nei primi decenni del ‘900 l’utilizzo di metodi probabilistici iniziò a diffondersi negli ambiti scientifici soprattutto per effettuare stime attraverso simulazioni. Quando von Neumann chiamò "di Monte Carlo" un procedimento matematico basato sull'utilizzazione di numeri casuali intendeva, con quel nome, alludere alla capitale del Principato di Monaco. Più precisamente si riferiva al casinò, alle sale da gioco, alle roulette; congegni questi escogitati appositamente affinchè la fortuna o la rovina di coloro che per vizio, noia o altro si cimentano nel gioco, sia decretata dalla assoluta casualità che si manifesta nell'uscita di questo o quel numero. Una delle applicazioni più famose di tale metodo è sicuramente quella di Enrico Fermi che nel 1930 lo usò per calcolare le proprietà del neutrone. Il primo Monte Carlo risale alla fine del XVIII secolo e serviva per la determinazione statistica del numero π, attraverso il quale si può calcolare l'area del cerchio. Questo valore approssimato si può determinare con procedimenti geometrici utilizzando poligoni inscritti al cerchio (un'idea del tempo di Archimede) oppure con metodi analitici (che portarono intorno al 1650 alla formula di Wallis). Il nostro interesse è invece quello di far vedere come il metodo Monte Carlo permette di trovare π con tecniche probabilistiche. Pertanto si consideri il quadrato di lato unitario. Scegliamo a caso un punto P nel quadrato: Con qual probabilità cadrà nel settore circolare tratteggiato? Poiché l'area del settore è π/4 e quella del quadrato vale uno, potremmo dire che la probabilità è il loro rapporto cioè π/4. Per trovare una approssimazione di π si estraggono a caso un gran numero n di punti dal quadrato. Di questi siano s quelli usciti dal settore circolare. Per un classico teorema della probabilità, che va sotto il nome di legge dei grandi numeri ( Teorema di Bernoulli) si può affermare che il rapporto s/n, ottenuto statisticamente, differirà di poco dalla probabilità teorica π/4, quando n è molto grande (per esempio maggiore di 50.000). Ma come si può scegliere un punto a caso P nel quadrato? Un metodo efficiente è quello di ricorrere al computer, il quale è in grado, in pochi minuti, di estrarre a caso migliaia di punti e di fornire la stima di quale percentuale di questi è caduta dentro la regione considerata. Questa percentuale sarà uguale, più o meno, all'area della regione con un errore che tende a zero all'aumentare del numero n di punti estratti. Il problema dell’ago di Buffon è una questione posta nel XVIII secolo da Georges-Louis Leclerc conte di Buffon. Esso può essere risolto e ricondotto ad un procedimento del Metodo Monte Carlo per ottenere un valore approssimato di π. L’esperimento è il seguente: dato un fascio di rette parallele (le righe del parquet) distanti l'una dall'altra di un'unità di lunghezza d e dato un ago di lunghezza L<d, si lasci cadere l'ago sul fascio di rette. La probabilità che l’ago intersechi una retta (vada a cadere su un’intercapedine tra un’asse e l’altro del parquet) è: 2L d Effettuando un numero elevato di lanci, il rapporto tra le volte che l'ago interseca una retta ed il numero totale delle prove tende a questo rapporto: è dunque possibile calcolare un valore approssimato di π. Ovvero: L’ago interseca una delle rette solo se risulta soddisfatta la condizione L y AC , cioè se y sin x MH y, AMC x 2 L y sin x 2 I limiti geometrici per y e x, sono i seguenti 0≤x≤π e 0≤y≤d/2 e facendone una interpretazione geometrica, la probabilità dell’evento risulta il rapporto fra l’area sottesa alla curva di equazione e l’area del rettangolo di dimensioni π, d/2. Ovvero: y L sin x L sin x dx L 2L casi favorevoli area sottesa dalla curva 2 0 P y sin x d 2 area del rettangolo d casi possibili 2 2 L’area del segmento parabolico è uguale ai 2/3 dell’area del rettangolo ABEC (dove A e B sono i punti di intersezione tra la secante e la parabola, C e E le loro proiezioni sulla retta tangente e parallela alla secante) 2 Area segmento parabolico Area ABEC 3