DISTRIBUZIONI TEORICHE DI PROBABILITA’ DISTRIBUZIONI TEORICHE DI PROBABILITA’ DEFINIZIONI: Qualsiasi caratteristica misurabile è denominata variabile. Se una variabile può assumere numerosi valori tali che qualsiasi risultato è determinato dal caso, essa è nota come variabile casuale Una V.C. è un numero X che assume un valore in R, determinato sulla base di un evento E che si è presentato in seguito all’esperimento al quale si riferisce. Tale numero è assunto da X con probabilità P Una distribuzione di probabilità è una funzione che sintetizza la relazione tra i valori di una variabile casuale e la probabilità che questi si presentino Una distribuzione di probabilità applica la teoria della probabilità per descrivere il comportamento di una variabile. … La conoscenza della distribuzione di probabilità di una variabile casuale fornisce ai clinici e ai ricercatori uno strumento potente per riassumere e descrivere il set di dati e per trarre conclusioni a partire dal campione della popolazione studiata Una distribuzione di probabilità può essere rappresentata con una tabella, un grafico o una formula OSSERVAZIONI Una distribuzione è analoga ad una distribuzione di frequenze relative , ma mentre questa si ricava da un campione di osservazioni estratte da un popolazione, una distribuzione di probabilità è in relazione alla popolazione di tutti i possibili risultati Una distribuzione continua non permette la stima della probabilità di estrarre un particolare valore, ma solo quelli compresi in un dato intervallo. Per esempio, nella distribuzione delle altezze di una popolazione di studenti, non è possibile stimare la probabilità di avere un individuo alto esattamente 176,000 cm ma quella di avere un individuo tra 180 e 190 centimetri – La forma di una distribuzione di probabilità continua è usualmente definita da una curva senza sbalzi, mentre per una variabile discreta la probabilità è definita per i valori puntuali della variabile , e il grafico della distribuzione rassomiglia ad una serie di impulsi – La forma di una distribuzione può essere simmetrica rispetto al valore centrale o ci può essere una coda più lunga da un lato piuttosto che da un altro. Se la coda è a sinistra (destra) la distribuzione viene detta asimmetrica a sinistra (destra) - Alcune distribuzioni teoriche di probabilità comunemente usate per descrivere dati sanitari sono: Distribuzione Gaussiana, la distribuzione log-normale, la distribuzione Binomiale e la distribuzione di Poisson DISTRIBUZIONI DI PROBABILITA’ PER VARIABILI CONTINUE Nel caso si osservino Variabili continue le distribuzioni permettono di determinare le probabilità associate a determinati “range” di valori della variabile (Distribuzione Normale) V.C. continua: Livello di colesterolo nel sangue La Distribuzione Gaussiana •Le distribuzioni normali sono una famiglia di curve simmetriche a forma di campana e unimodali (moda media e mediana coincidono). 23 L’area totale sotto la curva è 1 19 15 19 12 5 10 12 3 3 1 1 0 Frequency 20 Densità di Probabilità 25 •Hanno tutte la stessa forma ma sono caratterizzate (e completamente individualizzate) dai due valori: media e varianza N(μ,σ2). 0 2 4 6 peso alla nascita 8 10 1. Caratteristiche di una distribuzione Normale La curva Normale è Unimodale e simmetrica rispetto alla sua media (μ) Frequenza relativamente più elevata dei valori centrali e frequenze progressivamente minori verso gli estremi. La media, la mediana e la moda della distribuzione coincidono La Deviazione Standard, rappresentata da , indica la quantità di dispersione delle osservazioni intorno alla media I parametri μ e σ definiscono in modo completo la curva 2. Caratteristiche di una distribuzione Normale • La funzione di densità è simmetrica rispetto alla media: cresce da zero fino alla media e poi decresce fino a +∞. Ha due flessi: il primo, ascendente, nel punto μ-σ; il secondo, discendente, nel punto μ+σ. • Se μ varia e σ rimane costante, si hanno infinite curve normali con la stessa forma e la stessa dimensione, ma con l'asse di simmetria in un punto diverso. Quando due distribuzioni hanno media differente, è possibile ottenere l'una dall'altra mediante traslazione o trasformazione lineare dei dati. • Se invece μ rimane costante e σ varia, tutte le infinite curve hanno lo stesso asse di simmetria; ma hanno forma più o meno appiattita, secondo il valore di σ. Le due curve della figura 11 hanno media μ identica e deviazione standard σ differente. Le due curve della figura 12 hanno deviazione standard σ identica e media μ differente. In Figura 13 sono riportate 2 distribuzioni normali che differiscono sia per la media sia per la dispersione dei dati 3. Caratteristiche di una distribuzione Normale La probabilità che un valore estratto a caso da una N(μ,σ2) sia compreso nell’intervallo (μ -σ , μ+σ) è pari a 0.683 e che sia compreso tra (μ -2σ , μ+2σ) è pari a 0,954 Il 95% dei valori centrali di una distribuzione Normale cadono nell’intervallo (μ - 1.96σ , μ+1.96σ) ed il 99% nell’intervallo (μ – 2.58σ , μ+2.58σ) AREE SOTTO LA CURVA NORMALE COMUNEMENTE USATE Poiché i valori di μ e σ dipendono dal particolare problema in considerazione le probabilità di trovare dei valori in un determinato intervallo, anche diverso da quelli comunemente usati, e descritti nel grafico precedente, diventa complicato. Non ci sono tavole di probabilità per tutti i possibili valori di μ e σ , esiste una tavola unica che può essere usata per tutte le variabili Normali. Tale tavola si riferisce ad una particolare distribuzione: la ditribuzione Normale Standardizzata. La distribuzione normale standardizzata o normale ridotta, si ottiene mediante il cambiamento di variabile dato da La standardizzazione è una trasformazione che consiste nel: - rendere la media nulla (μ = 0), poiché ad ogni valore viene sottratta la media; - prendere la deviazione standard σ come unità di misura (σ = 1) della nuova variabile. La distribuzione normale ridotta viene indicata con N(0,1), che indica appunto una distribuzione normale con media 0 e varianza uguale a 1. In ogni distribuzione Normale con media μ e d.s. σ, la probabilità tra x1 e x2 è la stessa che tra z1 e z2 nella distribuzione Normale Standardizzata, dove z1=(x1- μ)/ σ z2=(x2- μ)/ σ Caratteristiche di una Distribuzione Normale Standard In una Distribuzione Normale Standardizzata: •La probabilità che un valore estratto a caso sia compreso tra 1 e 1 è pari a 0,683 e che sia compreso tra -2 e 2 è pari a 0,954 •Il 95% dei valori centrali di una distribuzione Normale standard cadono nell’intervallo (-1.96 ,+1.96) ed il 99% nell’intervallo (– 2.58 , +2.58) •Tutti i valori di probabilità per z sono riportati in una tavola, detta tavola di probabilità •I valori nel corpo della tabella mostrano l’area sotto la curva N.S. alla destra di z. Queste sono le probabilità di trovare un valore uguale o superiore a z Area a dx di Z Uso della tavola di Probabilità Gaussiana Due sono gli usi della tavola di probabilità: 1) 2) Definito un intervallo di valori di X, serve per calcolare la probabilità che un valore x cada al suo interno Definita una probabilità, serve per calcolare l’intervallo dei valori X che corrisponde a tale probabilità. Esercizio Si consideri una popolazione con altezza distribuita in maniera Gaussiana con media (µ) =172,5 cm e deviazione standard (σ) = 6,25 cm. Qual è la probabilità di incontrare un individuo estratto da tale popolazione e di altezza superiore a cm 190? Z = (190 – 172,5) / 6,25 = 2,8 Dalle tavole trovo p= 0,00256, quindi la probabilità di trovare un soggetto più alto di 190cm è dello 0,2% Qual è la probabilità di incontrare un individuo estratto da tale popolazione con un’altezza compresa tra cm 165 e175? Z1= (165 – 172,5) / 6,25 = -1.2 Z2= (175 – 172,5) / 6,25 = 0.4 P(Z1)=0.115 P(Z2)=0.345 P(165≤ X ≤ 175) = P(-1.2≤ Z ≤ 0.4) = 1- [0.115+0.345]=0.54 Qual è quel valore di altezza che delimita il 5% superiore della distribuzione? p=0.05 z =1.645 z =(x-172.5)/6.25 1.645=(x-172.5)/6.25 x = 172.5+(6.25*1.645) x = 182.78 Circa il 5% della popolazione in studio ha un’altezza superiore di 182.78 cm LA DISTRIBUZIONE LOG NORMALE Quando i dati hanno una distribuzione differente dalla normale, spesso una semplice trasformazione riconduce ad una distribuzione normale. E' il caso delle trasformazioni con la radice quadrata o cubica, oppure con il reciproco, l’elevamento a potenza o con i logaritmi. Nel caso in cui una distribuzione abbia una lunga coda a destra (asimmetrica a destra), si ottiene una distribuzione più simmetrica, se invece della distribuzione originale sui dati (x) si considera la distribuzione dei dati trasformati in logaritmi (y = log(x)) Nel caso in cui la distribuzione della variabile trasformata (y) risulti Normale, la distribuzione dei dati originali (x) è detta log-Normale VANTAGGI DELLA TRASFORMAZIONE LOG 1. Molte tecniche statistiche inferenziali si basano sull’assunzione di “normalità dei dati”. Anche se tali tecniche sono “robuste” verso le deviazioni dalla normalità, forti asimmetrie porterebbero a stime distorte 2. Se una variabile ha una d.s. che è proporzionale alla sua media, la sua trasformazione log, y = log(x) dà luogo a una variabile y con d.s. costante al variare della media 3. La trasforamzione logaritmica linearizza le curve che hanno una forma esponenziale , i dati trasformati saranno più semplici da analizzare ed interpretare SVANTAGGI DELLA TRASFORMAZIONE LOG 1. Il logaritmo di 0 è -∞, il che causa problemi quando sono presenti dei dati con un numero limitato di zeri. Un’approssimazione può essere realizzata assegnando ai valori zero la metà del valore della più piccola osservazione. 2. Non esiste il logaritmo di un numero negativo 3. L’interpretazione dei risultati su scala logaritmica è difficile e quasi sempre richiede l’uso dell’anti logaritmo DATI LOG-TRASFORMATI 200 Frequency 2000 0 0 100 1000 300 400 anadmf_def_new 500 -2 600 0 2 anadmf_def_new_log square 0 0 .1 .2 .02 .04 .06 .08 .3 cubic 0 50 100 150 200 4 6 0 .3 identity .2 200 .1 100 0 0 Density Frequency 300 3000 400 DATI GREZZI -2 0 2 anadmf_def_new_log Histograms by transformation 10 20 30 40 4 6 DISTRIBUZIONI DI PROBABILITA’ PER VARIABILI DISCRETE Nel caso si osservino Variabili discrete le distribuzioni specificano tutti i possibili risultati della variabile casuale insieme alla probabilità che ciascuno di essi si verifichi V.C. discreta: Numero di figli maschi in famiglie con 4 figli residenti in Toscana nel 1991 # MASC HI FR 0 0.05 1 0.23 2 0.37 3 0.28 4 0.07 DISTRIBUZIONE BINOMIALE (1) Consideriamo un esperimento con solo due tipi di risultati possibili (es: Successo (1) - Non Successo (0)) rispettivamente con probabilità p e q=1-p. Ripetendo n volte l'esperimento in modo che le ripetizioni diano luogo a risultati indipendenti la somma delle realizzazioni 0,1 coinciderà con il numero di successi k. Tale numero è una nuova variabile casuale (o meglio aleatoria), somma di n variabili casuali bernoulliane indipendenti La v.c. Binomiale è definita dalla seguente funzione di probabilità : tale funzione esprime la probabilità della concomitanza di k successi (indipendentemente dall'ordine) che si alternano agli n - k insuccessi. Il coefficiente binomiale: (coefficienti binomiali) esprime le distinguibili maniere in cui possono essere ripartiti i k successi negli n tentativi, ed, ovviamente, DISTRIBUZIONE BINOMIALE (2) per il binomio di Newton vale: k è un numero intero non negativo (k=0,1,2,3,...,n) p è un valore compreso tra 0 e 1 esclusi (0<p<1) Esempio 1. Determinare la probabilità che su 12 lanci di una moneta buona si ottengano esattamente 8 teste. Si tratta di un esperimento di Bernoulli in cui il “successo” coincide con “esce T”; quindi p =1/2 e q = 1/2 e si ha: LE DISTRIBUZIONI t di STUDENT e Χ2 (chi-quadrato) Le distribuzioni t, Χ2 e F non sono distribuzioni per dati osservati ma sono distribuzioni che si usano per calcolare intervalli di confidenza ed eseguire test di significatività Queste distribuzioni sono utili quando si considerano distribuzioni di probabilità di certe STATISTICHE calcolati su campioni casuali estratti da popolazioni Gaussiane La distribuzione t si usa per fare inferenza sulle medie quando non si conosce la deviazione standard della popolazione La distribuzione Χ2 si utilizza per fare inferenza su frequenze osservate e su conteggi