Analisi Statistica dei Dati G.Marsella Elementi di teoria della probabilità Eventi aleatori • Un evento è aleatorio (casuale) quando non si può prevedere con certezza se avverrà o meno • I fenomeni (eventi) aleatori sono studiati attraverso la teoria della probabilità Probabilità di un evento semplice Un evento può risultare: • Certo (si verifica sempre) -estrazione di una pallina nera da un’urna contenente solo palline nere • Impossibile(non si verifica mai) -estrazione di una pallina bianca da un’urna contenente solo palline nere • Probabile(può verificarsi o no) -estrazione di una pallina bianca da un’una contenente sia palline nere che bianche Eventi e probabilità impossibile certo probabile P=0 0<P<1 P=1 Se E indica un evento l’evento corrispondente al non verificarsi di E rappresenta l’evento complementare E con la relazione P(E) = 1 – P(E) La prova genera l’evento con una certa probabilità Eventi aleatori • Evento semplice = singola manifestazione di un fenomeno (misura,osservazione, risultato) che esclude altri eventi (eventi incompatibili: testa o croce nel lancio di una moneta) • Evento composto = è costituito da una combinazione di più eventi semplici. Possono verificarsi simultaneamente ovvero sono compatibili(l’evento testa di una moneta è compatibile con l’evento croce nel lancio di due monete) Eventi aleatori • L’insieme di tutti gli eventi di un fenomeno costituiscono l’universo o spazio campione (Ω) delle possibilità. • Si usa il termine successo per segnalare che si è verificato l’evento considerato e insuccesso in caso contrario. Essi sono eventi incompatibili o mutuamente esclusivi Spazio campionario • Lo spazio campionario associato al lancio di due monete comprende 4 punti che rappresentano i possibili risultati •TT •TC •CT •CC • Si chiama evento ogni sottoinsieme dello spazio campionario Teoria e calcolo della probabilità • L’entità di successi in una serie di osservazioni (prove) può essere definita come frequenza relativa o (percentuale) calcolata come rapporto tra il numero di eventi favorevoli rispetto al numero di casi esaminati • Il grado di aspettativa circa il verificarsi di un evento E, ovvero la probabilità dell’evento P(E) è P( E ) numero di successi numero di casi possibili Concezione classica della probabilità La probabilità di un evento E è il rapporto tra il numero di casi favorevoli al verificarsi di E(n) e il numero di casi possibili (N), purché siano tutti equi - probabili n P(E) N Es: probabilità di estrarre un asso da un mazzo di 52 carte = 4/52 = 0.08 probabilità di ottenere testa nel lancio di una moneta =1/2 = 0.5 Applicazioni della concezione classica • Probabilità uscita testa p= • Probabilità faccia 6 dado p= • Qual è la probabilità che lanciando due volte una moneta si presenti prima la faccia testa poi la faccia croce 1°- TT 2°- TC 3°- CT 4°- CC p= 1 2 1 6 1 4 Concezione frequentista della probabilità • La probabilità di un evento è la frequenza relativa di successo in una serie di prove tendenti all’infinito, ripetute sotto identiche condizioni • Nella concezione frequentista la probabilità è ricavata a posteriori dall’esame dei dati n P(E) lim N N Frequenza relativa su un gran numero di prove Es: qual è la probabilità post-operatoria dopo l’intervento xyz ? I dati su un decennio in un territorio presentano 30 morti su 933 interventi Frequenza relativa = 30/933= 3.22% = Probabilità di mortalità post-operatoria Legge dei grandi numeri • P(E): ripetendo la prova un gran numero di volte si osserva che il rapporto f= m/n (frequenza relativa) dove m= numero di successi ed n= numero di prove tende ad avvicinarsi sempre più alla probabilità P(E) La frequenza relativa f al crescere del numero delle prove, tende, pur oscillando, verso un valore costante (stabilità della frequenza) Elementi di statistica Elementi di statistica • La statistica è un’estensione del calcolo delle probabilità – Si parte dai concetti fondamentali – Si estende la definizione di probabilità – Si introducono delle nuove variabili Estensione del concetto di probabilità Estensione del concetto di probabilità • La probabilità viene fatta passare – da un numero razionale ... – ... ad un numero reale • La probabilità può essere infinitesima – Anche se poi si darà significato sempre alla probabilità finita – Tramite integrazioni Estensione del concetto di probabilità • Si suppongono valide tutte le leggi delle probabilità già stabilite • Non si può più definire la probabilità come rapporto fra casi favorevoli e casi possibili Le variabili aleatorie (variate) Le variabili aleatorie • Una variabile aleatoria è una variabile... – ... reale – ... discreta o continua – ... associata ad una probabilità Le variabili aleatorie • Una variabile aleatoria discreta – Assume i valori ... x1, x2 , , xN – ... con probabilità p1 , p2 , , pN p k k 1 Le variabili aleatorie • Esempio classico: il dado – Variata: un numero da 1 a 6 – Probabilità associata: 1/6 • Si definisce – Valore atteso – Speranza matematica – Valore medio E x x x xk pk k • La variabile aleatoria discreta può essere definita da una tabella • Esempio: – I numeri riportati sulle facce di un dado • Attenzione: i numeri potrebbero essere diversi – Anche le probabilità se il dado fosse truccato... Il dado xk Pk 1 0.167 2 0.167 3 0.167 4 0.167 5 0.167 6 0.167 • Ed ecco una rappresentazione grafica – Distribuzione – Spettro 0.3 0.25 0.2 0.15 0.1 0.05 2 3 4 5 6 • Se si conoscono solo valori proporzionali alle probabilità occorrerà normalizzarli Ak pk Ak k • Una variata continua – Assume valori reali in un dominio D con probabilità infinitesima dp f x dx – La f x è la funzione di distribuzione (spettro) • Funzione densità • Il dominio D sarà per noi, praticamente sempre, uno dei seguenti insiemi – Tutto l’asse reale – Il semiasse reale positivo – Un intervallo (e di solito chiuso) • Indicheremo in ogni caso l’estremo inferiore con low e quello superiore con high • Ecco degli esempi 0.8 0.6 0.4 0.2 0 0 0.5 Binomiale 1 1.5 2 2.5 3 1 0.8 0.6 0.4 0.2 0 1 2 Uniforme 0 1 2 0.14 0.12 0.1 0.08 0.06 0.04 0.02 0 2.5 Poissoniana 0 2.5 5 7.5 10 • In ogni caso vale la condizione di normalizzazione D f x dx pk 1 k • ...ed in generale un valore atteso (“speranza matematica”) vale... D G x f x dx k G xk pk E G x G x • Il momento di ordine 0 corrispnde alla condizione di Normalizzazione Funzioni di distribuzione • In sintesi, le principali caratteristiche di una funzione di distribuzione sono: Le distribuzioni in generale Le distribuzioni in generale • Di solito hanno quindi dei picchi – Il picco più alto si chiama moda della distribuzione – Un picco: unimodale • Poi bimodale, multimodale... Le distribuzioni in generale • Si definisce la mediana M high low M f x dx f x dx • È definita con un’equazione integrale • Non gode di proprietà di linearità • Molto utile e potente soprattutto nell’analisi delle serie temporali Le distribuzioni in generale • Poi ci sono i quartili • Mediane della mediana • Poi i percentili ... Le distribuzioni in generale • Quasi sempre di una distribuzione si fornisce x – La media 2 x – La standard deviation – La moda – A volte anche il momento secondo (o la sua radice) » Valore quadratico medio » È il caso delle velocità in un gas Le distribuzioni in generale • Attenzione a non confondere 2 x x 2 x f x dx D 2 x f x dx 2 D • Facili a confondere se si usa il simbolo x x Distribuzioni discrete e continue Le principali distribuzioni discrete Le principali distribuzioni discrete • Veramente importanti solamente due – Distribuzione di Bernoulli e binomiale – Distribuzione di Poisson, o degli eventi rari La distribuzione di Poisson La distribuzione di Poisson • È la distribuzione di eventi rari • È ciò che diviene la binomiale quando n np cost p 0 • Legge della distribuzione e P k k! k La distribuzione di Poisson f k n, p n n 1 n n 1 n k 1 p k n! n k 1 m n! n 1 2 1 1 n n n k m 1 n n 1 p nk nk m k k 1 1 1 m 1 n n! n nk La distribuzione di Poisson 1 2 lim 1 1 n n n 1 k m m lim 1 k ! n n m k k 1 1 1 m 1 n k! n nk 1 k m me k! nk La distribuzione di Poisson k • Media • Varianza 2 La distribuzione di Poisson • Ed infine un grafico per 2 e 5 0.25 0.2 0.15 0.1 0.05 5 10 15 20 Le principali distribuzioni continue Le principali distribuzioni continue • Molte hanno interesse limitato • Qui studiamo solo quelle di maggiore interesse per la misura • Definite – In un intervallo (solo la uniforme) – Semiasse reale positivo – Tutto l’asse reale La distribuzione uniforme La distribuzione uniforme • Definita fra –1/2 e 1/2 • Di solito però fra 0 e 1 – Il calcolatore estrae “numeri a caso” in questo intervallo – In realtà i numeri sono pseudocasuali – Estratti con un formalismo causale si verifica a posteriori che rispettino la casualità • Il caso di p – Sono la base per simulazioni statistiche 1 0.8 0.6 0.4 0.2 0 2 1 0 1 2 La distribuzione uniforme • Definizione della distribuzione • In generale x 0 x 1 x 0 x 0 x 1 x 0 x0 0 x 1 x 1 xm m xM xM 1 0.8 0.6 0.4 0.2 2 4 6 8 10 La distribuzione uniforme • Media mM 2 • Varianza M m 2 12 2 1 M m 12 UN PROBLEMA INTERESSANTE Un problema interessante • Visto che il calcolatore mi dà solo numeri (pseudo)casuali fra 0 ed 1, posso (e se sì come) ottenere dei numeri distribuiti fra A e B con una distribuzione f(x) ? • La risposta è affermativa Metodo di reiezione Un problema interessante • Uno schizzo grafico... Un problema interessante Ricetta 1. Calcoliamo anzitutto il massimo della funzione nel M 1.05 max f x a b nostro intervallo * 1. Poi calcoliamo X 2. Estraiamo un numero fra 0 ed 1 3. Calcoliamo X a b a X * Un problema interessante • Ora estraiamo un secondo Y numero fra 0 ed 1, e moltiplichiamolo per M: – Quindi una distribuzione uniforme fra 0 ed M • Siamo ora in possesso di due numeri (pseudo)casuali – X fra a e b – Y fra 0 ed M Un problema interessante • Calcoliamo la f X • Terremo per buono il valore X se è f X Y • Rigetteremo il valore X se è f X Y Un problema interessante • Il metodo è usatissimo e garantito • Funziona a spese di estrazioni a vuoto – In pratica • Si riempie uniformemente il rettangolo verde di punti • Si tengono per buoni solo quelli sotto la curva – Funziona anche per più dimensioni • ...e si allungano i tempi... La distribuzione gaussiana La distribuzione gaussiana • Noi ci limiteremo alle variate normali • Sono le più utili • Coprono l’assoluta maggioranza dei casi pratici – Quando occorre qualcosa di più si è nei guai • In questo caso bastano due momenti – Media e SD La distribuzione gaussiana Caso importante “fuori dal coro” i conteggi Seguono la statistica di Poisson Però Regola a spanne Quando μ > 10 usate pure Gauss con La distribuzione gaussiana • La funzione di distribuzione 1 G x , e 2p 1 x 2 2 2 La distribuzione gaussiana • Media • Varianza 2 La distribuzione gaussiana • Definiremo a partire da una variata normale x – La variata centrata (detta anche scarto) xc x x – La variata ridotta (detta anche scarto ridotto) x x • Vediamo degli esempi grafici 0.4 0.3 0.2 0.1 -2 2 4 La distribuzione gaussiana • Una proprietà importante: – Le probabilità di stare dentro un certo numero N di SD sono sempre le stesse N P x N 1 erf 2 • Attenzione: la funzione d’errore è (storicamente) definita per una gaussiana non normalizzata... La distribuzione gaussiana • Definizione erf x 2 p x e dt t 2 2 p 0 2 p e t 2 dt 2 e 0 t 2 dt 1 La distribuzione gaussiana • In realtà a noi serve 1 2p t2 2 x x e dt erf 2 x La distribuzione gaussiana 1 P x N 0.317 2 0.0455 N 3 4 5 0.0027 2.7 10 5 6.33 10 7 3 5.73 10 0.573 10 6 Curva di Gauss Caratteristiche • E’ simmetrica rispetto alla media:la probabilità di un valore superiore alla media di una quantità prefissata è uguale alla probabilità di un valore inferiore per la stessa quantità • L’area compresa tra la funzione e l’area delle ascisse ( da + a - ) sia = 1 così da esaurire lo spazio campionario • Esiste la probabilità al 100% che la misura sia inclusa nella distribuzione • La frazione di area compresa tra due valori della variabile è assimilabile alla probabilità di riscontrare casualmente una misura entro tale intervallo Le aree sottese alla curva normale • Spesso è necessario determinare la probabilità di riscontrare casualmente una misura entro tale intervallo • Proprietà della curva normale: l’area sottesa alla porzione di curva che vi è tra le media e una ordinata posta a una distanza data, determinata in termini di una o più deviazione standard, è costante Applicazione curva di Gauss • Se una popolazione di unità classificate secondo un certo carattere X si distribuisce normalmente, la conoscenza di media e varianza (o loro stime) consente di calcolare (o di stimare) la frequenza relativa delle unità che presentano un valore di X compreso in un certo intervallo • Calcolare la probabilità che, estraendo da tale popolazione un’unità questa abbia un valore di X compreso in un certo intervallo Distribuzione gaussiana standardizzata • Per agevolare il ricercatore la variabile x viene trasformata in una nuova variabile z x • La distribuzione standardizzata presenta il vantaggio di consentire la predisposizione di tabelle che permettono di calcolare porzioni di area della distribuzione e di stabilire la probabilità statistica di riscontrate valori in relazione a determinati valori z Valori notevoli della distribuzione z z area compresa nell’intervallo (-z + z) area esterna all’intervallo (- z + z) (code della distribuzione) (-1<z<+1) 0.683 (≈ 68%) 0.317 (≈ 32%) 1.96 (-1.96<z<+1.96) 0.95 (≈ 95%) 0.05 (≈ 5%) 2.58 (-2.58<z<+2.58) 0.99 (≈ 99%) 0.01 (≈ 1%) 1 Esempio di utilizzazione della distribuzione z • • Qual è la probabilità che un individuo estratto a caso da una popolazione con peso medio 72 Kg e deviazione standard 25 Kg pesi tra i 60 e 80 Kg:? Occorre calcolare la porzione di area compresa tra 60 e 80 Kg. ai cui valori corrispondono rispettivamente i valori z 60 (60 72) Kg 0.48 25 Kg (80 72)kg z 80 0.32 25kg Esempio di utilizzazione della distribuzione Z • Facendo riferimento alla tabella z per z=0.48 nelle due code è 0.631 • L’area di interesse tra -0.48 e 0 è 0.5 - 0.631 2 • Con analogo procedimento si calcola la porzione di area tra 0 e 0.32 P(60kg<peso<80kg=P(z60<z<z80) = =P(-0.48<z<0) + (P(0<z<+0.32) = 0.5 0.631 0.749 0.5 2 2 =1-0.3155 - 0.3745=0.310 31,0% 0,5 v 2 0,5 v 2 0 z Ripartizione delle aree di probabilità della distribuzione z Esempio di utilizzazione della distribuzione z • 1. 2. 1R Una popolazione di bambini presenta valori di statura distribuiti in modo gaussiano con media = 120 cm. e deviazione standard = 16 cm. Quale è la probabilità che un bambino scelto a caso presenti una statura inferiore a 132 cm.? Quale è la probabilità che l’altezza sia maggiore di 116 cm., ma inferiore a 132 cm.? z132 (132 120)cm 0.75 16cm 0.453 0,5 (0,5 ) 1 0.2265 0.7735 77.4% 2 Esempio di utilizzazione della distribuzione z • 2R z116 (116 120)cm 0.25 16cm 0.803 0.4015 2 • P(Z116<Z<Z132)0.7735-0.4015=0.3720 37.20%