Modelli probabilistici 1. Variabili casuali Il legame tra il calcolo della probabilità e gli strumenti di statistica sin qui visti, si realizza attraverso le variabili casuali (o aleatorie1). Per avere un’idea intuitiva di come questo accada si può pensare alla ripetizione di un esperimento casuale in cui viene rilevata la distribuzione di un certo fenomeno statistico. A lungo andare, con il ripetersi dell’esperimento, si può giungere alla conclusione che le frequenze relative osservate con cui si realizzano i differenti valori delle distribuzioni di frequenza siano assimilabili alle probabilità con le quali questi valori possono realizzarsi. L’insieme dei valori assumibili dal fenomeno statistico e le probabilità che gli attribuiamo costituiscono un modello matematico: cioè una descrizione di quello che può verificarsi e delle probabilità con cui ci aspettiamo che questi eventi si verifichino. Le variabili casuali sono proprio tali modelli. 1.1. Variabili casuali discrete. Una definizione sommaria, ma sufficiente ai nostri scopi, di variabile casuale consiste in quanto segue: dato un esperimento casuale, una variabile casuale è un risultato numerico attribuito a tale esperimento. Pensiamo all’esperimento di due lanci di una moneta regolare, cioè P (T ) = P (C) = 12 . L’insieme dei risultati possibili, cioè lo spazio campionario dell’esperimento, è Ω = {T T, T C, CT, CC}. Se ad ogni lancio contiamo il numero di teste, otteniamo rispettivamente (2,1,1,0), ovvero associamo ad ogni elemento ω ∈ Ω un numero X(ω) = x. Possiamo cioè costruire la seguente tabella: ω∈Ω T T T C CT CC P (ω) 1/4 1/4 1/4 1/4 X(ω) = x 2 1 1 0 Come si vede X rappresenta il risultato numerico di un esperimento. Possiamo sintentizzare la tabella di sopra raccogliendo i valori distinti assunti da X e le rispettive probabilità. I valori distinti sono: 0, 1 e 2. X assume valore 0 solo in corrispondenza dell’evento CC il quale ha probabilità 1/4, quindi possiamo dire che P (X = 0) = P (CC) = 1/4. Lo stesso avviene per il valore 2, infatti X = 2 solo quando si verifica l’evento T T , quindi P (X = 2) = P (T T ) = 1/4. Il valore X = 1 si realizza in due casi: quando si realizza CT o quando si realizza T C, dunque P (X = 1) = P (CT ∪ T C) = P (CT ) + P (T C) = 1/4 + 1/4 = 1/2. Riassumendo abbiamo la seguente tabella X=x 0 1 2 P (X = x) 1/4 1/2 1/4 1 Non abbiamo fatto altro se non definire un modello matematico che descrive i possibili risultati (numerici) di un esperimento casuale con l’attribuzione delle probabilità del verificarsi dei singoli eventi. X è dunque una variabile casuale discreta (in analogia alla definizione di fenomeno quantitativo discreto) e P (X = x) è la sua distribuzione di probabilità. Una volta noti i valori x1 , x2 , . . . , xk assumibili dalla variabile casuale e le 1 Notiamo incidentalmente che l’etimologia del termine “aleatorio” deriva dai giochi degli aliossi o dei dadi. I termini casuale e aleatorio sono usualmente intercambiati nella letteratura. 1 0.0 0.1 0.2 P(X=x) 0.3 0.4 0.5 2 0 1 2 x Figura 1. Distribuzione di probabilità della variabile casuale X = “numero di teste nel lancio doppio di una moneta”. probabilità P (X = xi ) con cui essa li assume possiamo anche dimenticarci di quale sia l’esperimento casuale con cui essa è stata costruita. In sostanza, la corretta definizione di variabile casuale discreta richiede che siano specificati i valori che essa assume e la sua distribuzione di probabilità. Variabile casuale discreta Una variabile casuale discreta è un modello matematico {xi , P (X = xi ), i = 1, . . . , k} che associa ai valori x1 , x2 , . . . , xk le rispettive probabilità P (X = xi ), i = 1, . . . , k. P (X = xi ), i = 1, . . . , k si chiama distribuzione di probabilità ed è tale per cui k X P (X = xi ) = 1 i=1 Per rappresentare graficamente la distribuzione di probabilità di una variabile casuale si procede come nel caso di un fenomeno quantitivo discreto. Si mettono in ascissa i valori xi e in ordinata le probabilità P (X = xi ). Si tracciano i corrispondenza dei singoli valori xi delle asticelle con un’altezza pari a P (X = xi ). Si veda la Figura 1. Vediamo ancora un esempio di costruzione di variabile casuale. 3 0.10 0.00 0.05 P(X=x) 0.15 1. VARIABILI CASUALI 2 3 4 5 6 7 8 9 10 11 12 x Figura 2. Distribuzione di probabilità della variabile casuale X = “somma dei punteggi nel lancio di due dadi”. Esercizio 1. Consideriamo l’esperimento che consiste nel lancio di una coppia di dadi. L’insieme dei risultati possibili è composto da 6×6 = 36 valori Ω = {11, 12, 13, 14, 15, 16, 21, 22, 23, 24, 25, 26, 31, 32, 33, 34, 35, 36, 41, 42, 43, 44, 45, 46, 51, 52, 53, 54, 55, 56, 61, 62, 63, 64, 65, 66} Supponiamo di essere interessati alla somma (X) dei punteggi realizzati con i due dadi. I possibili risultati in questo caso sono tutti i numeri compresi tra 2 (1+1) e 12 (6+6). Quindi X = 2 solo se è uscito un doppio 1, e questo avviene con probabilità 1/36. Mentre, ad esempio, X = 7 può essere ottenuto in corrispondenza delle coppie di risultati dei dadi che danno origine alle somme: 1 + 6, 6 + 1, 2 + 5, 5 + 2, 3 + 4, 4 + 3 cioè in 6 modi differenti, quindi P (X = 7) = 6 · 1/36. Cosı̀ facendo costruiamo l’intera distribuzione di probabilità della variabile casuale X X=x 2 3 4 5 6 7 8 9 10 11 12 1 2 3 4 5 6 5 4 3 2 1 P (X = x) 36 1 36 36 36 36 36 36 36 36 36 36 Anche per questa variabile casuale disegnamo il grafico della sua distribuzione di probabilità come in Figura 2. Per capire meglio le relazioni tra variabili casuali e fenomeni statistici consideriamo il seguente esempio: si supponga di avere una popolazione di 5 individui di cui ha interesse studiare una certa caratteristica. Ad esempio, il numero mediano di dipendenti di 5 aziende. Supponiamo inoltre che non sia possibile intervistare tutte e 5 le aziende e quindi ci poniamo nella condizione di dover effettuare un campionamento. Poniamo di poter rilevare solamente i dati di n = 3 aziende. 4 Le aziende, in realtà, hanno nell’ordine {1, 3, 5, 7, 9} dipendenti ma dobbiamo fingere di non saperlo. Se estraiamo casualmente un campione di 3 aziende potremmo ottenere come risultato il campione (1, 3, 9) oppure quello (1, 5, 9). Nel primo caso la mediana vale 3, nel secondo 5. Sappiamo però che la mediana vera della popolazione delle 5 aziende è pari a 5. Ciò implica che il campione estratto può anche portare a conclusioni errate. Elenchiamo tutti i possibili campioni che si possono estrarre. Lo spazio campionario Ω è costituito da tutte le terne di numeri estraibili dall’insieme dei primi 5 numeri dispari. In totale queste terne sono 5 5 · 4 · 3! = = 10 3 3! · 2! Quindi Ω = {(1, 3, 5), (1, 3, 7), (1, 3, 9), (1, 5, 7), (1, 5, 9), (1, 7, 9), (3, 5, 7), (3, 5, 9), (3, 7, 9), (5, 7, 9)} ciascuno di quegli eventi ha probabilità 1/10 di comparire. Costruiamo la variabile casuale X = mediana campionaria ω X(ω) (1,3,5) 3 (1,3,7) 3 (1,3,9) 3 5 (1,5,7) (1,5,9) 5 (1,7,9) 7 (3,5,7) 5 5 (3,5,9) (3,7,9) 7 (5,7,9) 7 Per cui la variabile casuale X risulta essere definita come segue x P (X = x) 3 3/10 5 4/10 3/10 7 Mentre la mediana vera della popolazione è 5, la variabile casuale X mediana campionaria è il modello che descrive tutti i possibili risultati che si possono ottenere calcolando la mediana in uno dei 10 campioni estratti casualmente. Cioè a priori, prima di effettuare un qualsiasi esperimento, la mediana può assumere i valori 3, 5 e 7. Quando andiamo ad estrarre un campione e ne calcoliamo la mediana otterremo uno solo di quei 3 valori. La frequenza con cui ci aspettiamo che un certo valore xi della mediana si realizzi è pari alla probabilità dell’evento P (X = xi ). Come si può notare, esiste un parallelismo tra le variabili casuali e i fenomeni statistici o, meglio, tra le loro distribuzioni. In questa seconda parte del corso le variabili casuali e i fenomeni statistici saranno spesso identificati tra loro. La distinzione fondamentale è 1. VARIABILI CASUALI 5 ....................................................... ............. .......... .......... ........ ........ ....... ....... ...... . . . . . ...... .... . . . ...... . . .... ..... . . . . ..... ... . . . ..... . .... ..... . . . ..... ... . . . ... .. . ... . .. ... . . ... ... . ... .. ... . .. ... . ... .. . ... .. . ... .............. .. . ... ...... ..... ... .... ... ... ... ... ... ... ... ... . . . . . . ... . . . ... ... ..... ....... . . ... . ... ... . . ..... .... . .. . ... ... . ... .................. ... .... ... . . ... ... ... ... ... ... ... .. . ... ... ... ... ... ... .. ... .. . . ... .. ... ... ... ... ... ... .... .. . . ..... . . ..... .... ..... ..... ..... ..... ...... ..... ..... ...... . . . . . . ...... ....... ...... ...... ........ ........ ......... ............ ......... ............................................................. qq qqqqqqqqqqq qqqqqqqqqqqqqqqqqqqq q qqqq qq qqqq q q q q qqqq qqqq q q q q qqqq x qqqq 1 q q q qq qqqq q q q q qqqq qqqq q q q qqq Figura 3. La Ruota della Fortuna: La variabile casuale X segna i gradi xi in corrispondenza dei quali l’ago della ruota di ferma. Nel disegno l’ago si ferma in posizione X = x1 . Poiché si tratta di uno degli infiniti valori tra 0 e 360◦ , avremo P (X = x1 ) = 1/∞ = 0. che la distribuzione di probabilità ci dice con quali probabilità osserveremo certi valori del fenomeno, mentre la distribuzione di frequenza fotografa quanto è accaduto all’interno di un particolare campione di dati di ampiezza n. Nota la distribuzione di probabilità di una variabile casuale è sempre possibile calcolare probabilità del tipo P (X ≤ x). Ad esempio, per la variabile casuale appena vista, ci si può chiedere con quale probabilità la mediana campionaria risulta essere minore o uguale al valore 5, cioè P (X ≤ 5). È effettivamente molto semplice, basta sommare le probabilità, meglio cumularle, come abbiamo fatto nel calcolo delle frequenze cumulate. Dunque 3 4 7 P (X ≤ 5) = P (X = 3) + P (X = 5) = + = = 0.7 10 10 10 In termini più generali si può usare la formula X (1) P (X ≤ x) = P (X = xi ) xi ≤x 1.2. Variabili casuali continue. Ci sono esperimenti casuali che non sempre generano valori discreti o comunque in quantità numerabile. Si consideri l’esempio che potremmo chiamare della Ruota della Fortuna. Possiamo pensare ad una sorta di roulette/bussola con un ago centrale. Se facciamo ruotare l’ago, questo terminerà la sua corsa ponendosi in una certa posizione che possiamo registrare come il numero di gradi x1 da una linea prefissata (confronta Figura 3). Se facciamo ruotare ancora l’ago otterremo un nuovo valore x2 e cosı̀ via. Nella sostanza possiamo ottenere un numero infinito di valori diversi xi quindi l’esperimento ci porta ad un insieme Ω che corrisponde a tutte le possibili posizioni assumibili dall’ago della roulette. Se indichiamo con X la variabile 6 casuale che registra i gradi xi , allora la variabile casuale X assumerà tutti valori dei gradi nell’intervallo (0,360). Proviamo a calcolare la probabilità con cui la variabile casuale X assume un particolare valore xi . Poiché supponiamo di non barare nel far ruotare la freccia, possiamo utilizzare l’usuale formula del caso di eventi elementari (i gradi di inclinazione) equiprobabili P (X = xi ) = # casi favorevoli 1 = =0 # casi possibili ∞ cioè ciascuno dei risultati X = xi ha probabilità nulla di verificarsi! Questo è quindi un problema se pensiamo alla definizione di variabile casuale come nel caso discreto. Però non è impossibile calcolare le probabilità relative ad eventi che coinvolgono variabili casuali continue. Ad esempio, con quale probabilità la variabile casuale X, cioè l’ago, misurerà un’inclinazione compresa tra 0 e 90◦ ? Poiché si tratta della quarta parte di un cerchio (confronta la Figura 4), viene naturale rispondere che P (X ≤ 90) = 1/4 = 0.25. In generale, le variabili casuali continue vengono sempre definite a partire dall’insieme dei valori assumibili e dalle probabilità del tipo P (X ≤ x). Queste probabilità possono in genere essere espresse attraverso un’altra funzione f (·), detta densità di probabilità, in questa terribile forma Zx P (X ≤ x) = f (u)du. −∞ La formula qui sopra non deve spaventare poiché non la useremo mai direttamente, ma R deve essere interpretata come un’estensione della formula (1) dove l’integrale sostituisce la sommatoria e la funzione di densità f (·) sostituisce i termini P (X = xi ). Della densità è utile dare un’interpretazione grafica. Calcolare l’integrale della funzione f (·) corrisponde a calcolare l’area sotto la curva f (·) stessa. Si consideri il grafico (a) della Figura 5. Abbiamo disegnato l’area sotto la curva f (·) di forma campanulare, fino al punto 1. Formalmente abbiamo calcolato Z1 P (X ≤ 1) = f (u)du = (a). −∞ In (b) abbiamo rappresentato il valore dell’area sotto f (·) compresa tra -2 ed 1, cioè P (−2 < X ≤ 1) e infine in (c) l’area a destra del punto 1, cioè P (X > 1). È lecito aspettarsi che, come nel caso discreto, la somma delle probabilità in corrispondenza di tutti i valori assumibili dalla variabile aleatoria sia pari ad 1. Questa proprietà per le variabili casuali continue corrisponde a chiedere che l’area totale sotto la curva f (·) sia pari ad 1. 1. VARIABILI CASUALI 7 90◦ ................................... .................... ........... ......... ........... ........ ......... ....... ....... . . . . . ...... .... . . . ...... . . .... ..... . . . . ..... ... . . . ..... . ... . ..... . . . ..... ... . . . . .... ... . ... . .. ... . . ... ... . ... .. ... . ... .. . ... .. . ... .. . ... ... .... ... ... ... ... ... ... ... .......... . . . . . . ... . ... ... ..... ... ... ... ... .. ... . . .... ... . .. . .............. ... ... ... .. . ... .. . ... ... ... ... ... ... ... .. ... . ... ... ... ... ... .. ... .. . ... . . ... ... ... ... ... ... ..... ..... . ..... . . . ..... .... ..... ..... ..... ..... ...... ...... ...... ...... . . ....... . . . ... ....... ....... ........ ........ .......... .......... ............... ................................................. qqqq qqqqqqqqq qqqqqqqqqqqqq qq q qqq qqq qq qq qqq qqq qq qq qqq qqq qq qq qqq qqq qq q qqq qqq 0◦ Figura 4. Ancora la Ruota della Fortuna: Con quale probabilità l’ago della −2 −1 0 1 2 3 0.3 f(x) 0.2 0.0 0.0 −3 P(X > 1) 0.1 0.2 f(x) 0.3 P(− 2 < X ≤ 1) 0.1 0.2 0.0 0.1 f(x) 0.3 P(X ≤ 1) 0.4 0.4 0.4 Ruota si ferma in punto compreso tra 0 e 90◦ ? Questo accade una volta su 4, cioè nel 25% dei casi, dunque P (X ≤ 90) = 0.25. −3 x −2 −1 0 1 2 3 x (a) −3 −2 −1 0 1 2 3 x (b) (c) Figura 5. Esempi di rappresentazione grafica di calcolo di probabilità per variabili casuali continue: (a) P (X ≤ 1), (b) P (−2 < X ≤ 1), (c) P (X > 1). Variabile casuale continua Una variabile casuale continua è un modello matematico {x, f (x)}. La densità f (·) ≥ 0 è tale per cui Zx Z∞ P (X ≤ x) = f (u)du e f (u)du = 1 −∞ −∞ dove P (X ≤ x) rappresenta l’area sotto la curva f (·) fino al punto x. Attenzione: per le variabili casuali continue si ha sempre P (X = x) = 0. 8 1.3. Valore atteso e varianza delle variabili casuali. Indipendenza. Come per i fenomeni statistici quantitativi anche per le variabili casuali è possibile calcolare media e varianza. La media di una variabile casuale viene anche chiamata valore atteso. In analogia a quanto visto nella statistica descrittiva, per le variabili casuali abbiamo che ∞ Z k X µ = E(X) = xi · P (X = xi ) xf (x)dx per le continue i=1 −∞ ricordiamo che per la media aritmetica si ha x̄ = k X xi · fi i=1 Invece per la varianza σ 2 = Var(X) = k X (xi − µ)2 · P (X = xi ) Z∞ o i=1 (x − µ)2 f (x)dx −∞ analogamente al caso della statistica descrittiva 2 σ = k X (xi − x̄)2 · fi i=1 Anche se usiamo lo stesso simbolo per due oggetti diversi, difficilmente ci confonderemo. Calcoliamo il valore atteso e la varianza della variabile casuale Mediana campionaria del primo esempio. Ricordiamo che x P (X = x) 3 3/10 5 4/10 7 3/10 Quindi 3 X 3 4 3 µ = E(X) = xi P (X = xi ) = 3 · +5· +7· 10 10 10 i=1 9 + 20 + 21 =5 10 mentre per la varianza si ha = Var(X) = 3 X (xi − µ)2 P (X = xi ) i=1 = (3 − 5)2 · = 3 4 3 + (5 − 5)2 · + (7 − 5)2 · 10 10 10 12 + 12 = 2.4 10 1. VARIABILI CASUALI 9 Per la media e la varianza delle variabili casuali valgono le stesse proprietà del caso della statistica descrittiva che qui riportiamo. Proprietà di media e varianza di variabili casuali 2 Se X è una variabile casuale di media µ = E(X) e varianza σX = Var(X) e Y è una nuova variabile casuale costruita come segue Y = a + b X, si ha che E(Y ) = E(a + b X) = a + b E(X) e 2 σY2 = Var(Y ) = Var(a + b X) = b2 Var(X) = b2 σX Attenzione: se c è un numero, non aleatorio, allora E(c) = c. Si supponga di avere due variabili casuali X ed Y . Il valore atteso della variabile casuale Z = X + Y è pari alla somma dei loro valori attesi, cioè E(Z) = E(X + Y ) = E(X) + E(Y ) Se abbiamo due variabili casuali discrete X = {xi , P (X = xi ), i = 1, . . . , h} ed Y = {yj , P (Y = yj ), j = 1, . . . , h} queste si dicono indipendenti se e solo se si verifica P (X = xi , Y = yj ) = P (X = xi ∩ Y = yj ) = P (X = xi ) · P (Y = yj ), per ogni combinazione dei valori i = 1, . . . , h e j = 1, . . . , k. Con la notazione P (X = xi , Y = yj ) si intende la probabilità dell’evento corrispondente al verificarsi contemporaneo del valore xi di X e yj di Y . Se scriviamo A = (X = xi ) e B = (Y = yj ) allora la definizione di indipendenza corrisponde a quanto già visto nel calcolo delle probabilità, cioè A e B sono indipendenti se e solo se P (A ∩ B) = P (A) · P (B). Un’analoga definizione si può scrivere per il caso di variabili casuali continue ma non è essenziale riportare qui la formula. In ogni caso, le proprietà che riportiamo valgono per ogni tipo di variabile casuale. In particolare vale la seguente proprietà: se X ed Y sono due variabili casuali indipendenti si ha che Var(X + Y ) = Var(X) + Var(Y ). Riassumendo Proprietà di media e varianza di somma di variabili casuali Se X ed Y sono due variabili casuali allora E(X + Y ) = E(X) + E(Y ) Se X ed Y sono anche indipendenti si ha che Var(X + Y ) = Var(X) + Var(Y ) 1.4. Esercizi riepilogativi. Esercizio 2. Si consideri l’esperimento che consiste nel lancio di un dado regolare e di una moneta truccata in modo tale che testa esca in proporzione 1:3 rispetto a croce. Il risultato del lancio del dado non influenza e non è influenzato da quello della moneta. 10 Costruiamo la variabile aleatoria che ad ogni risultato del lancio del dado e della moneta assume come valore il punteggio ottenuto con il dado sommandovi il numero di croci. Cominciamo a costruire l’esperimento casuale e quindi Ω. Ad ogni lancio del dado i sei risultati 1,2,. . . , 6 sono egualmente possibili. Poiché il dado è regolare, ognuno ha probabilità di verificarsi 1/6. Indichiamo con D l’insieme dei punteggi ottenuti con il dado D = {1, 2, 3, 4, 5, 6}. Nel lancio della moneta solo due eventi si verificano: testa T o croce C. Poiché la moneta è stata truccata in modo che si abbia 1 testa ogni 3 croci sarà P (T ) = 1/4 e P (C) = 3/4 infatti, su quattro lanci si avranno 1 (testa) + 3 (croci) = 4 (risultati), cioè testa esce 1 volta su 4. Indichiamo con M = {T, C} l’insieme dei risultati del lancio della moneta. Gli eventi ω sono tutte le 12 coppie (6×2) di risultati del lancio del dado (6) e della moneta (2), quindi Ω è l’insieme delle coppie Ω = {1T, 2T, 3T, 4T, 5T, 6T, 1C, 2C, 3C, 4C, 5C, 6C} Gli eventi del tipo “iT ”, i = 1, . . . , 6 hanno probabilità 1/24, infatti 1 1 1 · = 6 4 24 per l’indipendenza tra i risultati del lancio del dado e della moneta, cioè P (1T ) = P (2T ) = · · · = P (6T ) = P (iT ) = P (i ∩ T ) = P (i) · P (T ) Quelli del tipo “iC”, i = 1, . . . , 6 hanno probabilità 1/8 per la stessa ragione, infatti 1 3 3 1 · = = . 6 4 24 8 Dopo aver assegnato le probabilità agli eventi elementari di Ω, passiamo alla costruzione della variabile aleatoria X. In corrispondenza del risultato (evento) iT , la variabile casuale X vale i + 0, poiché il punteggio ottenuto con il dado è i e il numero di croci C è pari a 0 (abbiamo una testa: T ). In corrispondenza degli eventi iC, la variabile casuale X vale i + 1, poiché la faccia del dado assegna un punteggio pari ad i e il numero di croci C è pari ad 1. Quindi, in totale, la variabile casuale assume uno qualsiasi dei valori interi compresi tra 1 e 7 come riporta la tabella seguente ω 1T 2T 3T 4T 5T 6T 1C 2C 3C 4C 5C 6C X(ω) 1 2 3 4 5 6 2 3 4 5 6 7 Per terminare la costruzione della variabile casuale X dobbiamo fornire la sua distribuzione di probabilità o legge, cioè le probabilità con cui assume i singoli valori. Il valore 1 viene assunto da X in corrispondenza del solo evento 1T , quindi P (X = 1) = P (1T ) = 1/24. Il valore 2 viene assunto da X in corrispondenza degli eventi 2T e 1C, quindi P (X = 2) = P (2T ∪ 1C) = P (2T ) + P (1C) 1 1+3 1 1 + = = = 24 8 24 6 Si verifichi come esercizio che lo stesso avviene per i valori 3, 4, 5 e 6. Il valore 7 invece, viene assunto da X in corrispondenza del solo evento 6C e quindi P (X = 7) = P (6C) = P (1C) = P (2C) = · · · = P (6C) = 1. VARIABILI CASUALI 11 1/8. La Tabella 1 sintetizza tutti i passaggi eseguiti e definisce correttamente la variabile casuale X. xi 1 2 3 4 5 6 7 P (X = xi ) 1 24 1 6 1 6 1 6 1 6 1 6 1 8 1= 7 P P (X = xi ) i=1 Tabella 1. Distribuzione di probabilità della variabile casuale X = “punteggio del dado + numero di croci”. Esercizio 3. Un esperimento casuale consiste nell’estrarre una carta da una mazzo di 8 carte composto da 4 Assi e 4 Nove (uno per ogni seme ♠, ♥, ♦, ♣) e nel lanciare una moneta regolare. Costruire lo spazio campionario Ω e la variabile casuale X = “valore carta + numero croci”. Si disegni la funzione di probabilità di X. Lo spazio campionario Ω è costituito da tutti gli accoppiamenti “asso” e T o C e “nove” con T o C quindi 4*2 +4*2 = 16 coppie di valori: Ω = (1♠, T ), (1♥, T ), (1♦, T ), (1♣T ), (1♠, C), (1♥, C), (1♦, C), (1♣, C), (9♠, T ), (9♥, T ), (9♦, T ), (9♣, T ), (9♠, C), (9♥, C), (9♦, C), (9♣, C) Ciascuno degli eventi ω ∈ Ω ha probabilità 1/16 poiché gli eventi risultanti dall’estrazione della carta sono equiprobabili cosı̀ come quelli risultanti dal lancio della moneta. Inoltre siamo in condizioni di indipendenza. La variabile casuale X considera il “valore della carta” e vi somma l’eventuale “numero di croci”, quindi ad esempio, in corrispondenza dell’evento (1♠, T ), X((1♠, T )) = 1+0 = 1 mentre nel caso di (9♦, C), X((9♦, C)) = 9 + 1 = 10. La seguente tabella riassume i risultati possibili in questo esperimento: 12 ω X(ω) P (ω) (1♠, T ) 1+0=1 1/16 (1♥, T ) 1 1/16 (1♦, T ) 1 1/16 (1♣T ) 1 1/16 (1♠, C) 1+1=2 1/16 (1♥, C) 1 1/16 1 1/16 (1♦, C) (1♣C) 1 1/16 (1♠, T ) 9+0=9 1/16 (1♥, T ) 1 1/16 1 1/16 (1♦, T ) (1♣T ) 1 1/16 (9♠, C) 9+1=10 1/16 (9♥, C) 10 1/16 (9♦, C) 10 1/16 (9♣C) 10 1/16 Quindi X assume i seguenti valori (con le rispettive probabilità) xi 1 2 9 10 P (X = xi ) 4 · 1/16 = 14 4 · 1/16 = 14 4 · 1/16 = 14 4 · 1/16 = 14 1 Il grafico della densità di probabilità è analogo al grafico di un fenomeno quantitativo discreto che assume i valori 1,2, 9 e 10 con frequenze relative 1/4, 1/4, 1/4 e 1/4. Esercizio 4. Un esperimento casuale consiste nell’estrazione con reinserimento di due palline da un’urna contenente tre palline numerate da 1 a 3. Individuare lo spazio dei possibili risultati (coppie) e costruire la variabile casuale X = “minimo dei due numeri estratti”. Lo spazio campionario Ω è costituito da tutte le coppie del tipo (i, j) con i, j = 1, 2, 3, cioè Ω = {(1, 1), (1, 2), (1, 3), (2, 1), (2, 2), (2, 3), (3, 1), (3, 2), (3, 3)} Gli eventi elementari ω ∈ Ω sono tutti equiprobabili e P (ω) = 31 · 31 = 19 . Vediamo che valori assume la variabile casuale X che ad ogni ω = (a, b) ∈ Ω associa il valore X(ω) = X((a, b)) = min(a, b). Costruiamo una tabella riassuntiva 1. VARIABILI CASUALI 13 ω X(ω) P (ω) 1 (1,1) 1 9 1 (1,2) 1 9 1 (1,3) 1 9 1 (2,1) 1 9 1 (2,2) 2 9 1 (2,3) 2 9 1 (3,1) 1 9 1 (3,2) 2 9 1 (3,3) 3 9 Quindi X assume i seguenti valori (con le rispettive probabilità) xi P (X = xi ) 1 5 · 19 = 59 2 3 · 19 = 39 3 1 · 19 = 19 1 14 Nei prossimi due paragrafi ci occuperemo dello studio di due importanti variabili casuali che ricoprono un ruolo fondamentale in ambito statistico. Si tratta di una variabile casuale discreta, la Binomiale, ed una continua, la Gaussiana o Normale. La seconda è anche l’oggetto centrale della statistica inferenziale tanto che un importante teorema del calcolo delle probabilità, che porta il nome di Teorema del Limite Centrale, vede proprio la variabile casuale Gaussiana come protagonista. 2. La variabile casuale Binomiale La variabile aleatoria Binomiale si costruisce a partire dalla nozione di esperimento Bernoulliano. Esperimento Bernoulliano Un esperimento casuale che consiste in un insieme di prove ripetute con le seguenti caratteristiche: i) ad ogni singola prova si hanno solo 2 esiti possibili, chiamati “successo” ed “insuccesso”, ii) la probabilità dell’evento che da origine al “successo” è costante, iii) i risultati delle prove sono indipendenti, è detto un esperimento Bernoulliano. È importante sapere riconoscere quando si è in presenza di questo tipo di esperimento. Facciamo alcuni esempi. Se lanciamo ripetutamente una moneta e registriamo come “successo” il risultato T , siamo esattamente in presenza di un esperimento Bernoulliano. Se pensiamo alle chiamate che giungono ad un centrale telefonica in una certa fascia oraria e indichiamo con “successo” l’evento “chiamata da telefonia mobile” e con “insuccesso” l’evento “chiamata da telefonia fissa”, siamo ancora in presenza di esperimento di Bernoulli in quanto possiamo supporre che i vari utenti agiscano indipendentemente l’uno dall’altro e che, nell’ambito di una data fascia oraria, rimanga costante la frequenza con cui gli utenti chiamano da un cellulare o da un telefono di rete fissa. Pensiamo all’esito di un sondaggio referendario. Supponiamo che siano possibili solo 2 esiti: successo = “SI” e insuccesso = “NO”. Ogni elettore vota in modo indipendente l’uno dall’altro (se pensiamo a due elettori consecutivi). Supponiamo di prendere un campione di schede votate. Se ne prendiamo una a caso possiamo immaginare che su quella scheda troveremo un “SI” con una probabilità pari alla frequenza con cui (tutti) gli elettori si sono espressi per il “SI”. L’esperimento Bernoulliano deve il suo nome alla variabile casuale che descrive ogni singola prova, la variabile di Bernoulli, che a sua volta porta il nome del matematico che l’ha introdotta nel calcolo delle probabilità. 2. LA VARIABILE CASUALE BINOMIALE 15 Variabile casuale di Bernoulli Una variabile casuale discreta che assume solo 2 valori 0 ed 1 con probabilità rispettivamente p ed 1 − p è detta variabile casuale di Bernoulli. Si scrive anche X ∼ Ber(p). Tale variabile ha le seguenti proprietà X : P (X = 1) = p; P (X = 0) = 1 − p 0 < p < 1 E(X) = p e Var(X) = p(1 − p) Attenzione: p non può essere uguale ad 1 o a 0, quindi 0 < p < 1. Infatti si ha che E(X) = 1 · P (X = 1) + 0 · P (X = 0) = 1 · p + 0 · (1 − p) = p e per la varianza Var(X) = (1 − E(X))2 P (X = 1) + (0 − E(X))2 P (X = 0) = (1 − p)2 p + (0 − p)2 (1 − p) = (1 − p)(1 − p)p + pp(1 − p) = p(1 − p)(1 − p + p) = p(1 − p) Il valore atteso della Bernoulliana ha una lettura intuitiva. Supponiamo di effettuare un numero elevato di esperimenti, ad esempio il lancio di una moneta regolare (p = 0.5). Dopo un numero elevato di lanci ci si può aspettare di aver ottenuto circa il 50% di successi. Il valore atteso della Bernoulliana può quindi leggersi come la frequenza attesa del numero di successi che otteniamo in un numero di prove elevato. Spesso nell’ambito di un esperimento Bernoulliano si è interessati a sapere quante volte si ottiene un successo su n prove, cioè ad esempio, si è interessati a conoscere il numero di chiamate di telefonia mobile o il numero di “SI” nell’esempio del referendum. In particolare, essendo l’esperimento di tipo casuale, siamo interessati a conoscere la probabilità con cui si ottengono un certo numero k di successi su n. Chiaramente k può essere pari a 0, se non vi sono successi, e poi 1, 2, etc. fino ad n. Prendiamo il seguente esempio del lancio di una moneta 6 volte. Chiediamoci con quale probabilità possiamo ottenere 2 successi (T ) in 6 prove. Abbiamo diversi risultati possibili. Indichiamo con 1 il successo, cioè X = 1 quando esce T , e con 0 l’insuccesso. La sequenza di lanci 110000 è una sequenza in cui abbiamo 2 successi e 4 insuccessi, ma anche 100100 è una sequenza analoga. Ciascuna di quelle due sequenze ha la stessa probabilità di verificarsi. Infatti, indichiamo con Xi la variabile di Bernoulli che vale 1, con probabilità 16 p, se alla prova numero i otteniamo un successo: P (“1 1 0 0 0 000 ) = P (X1 = 1, X2 = 1, X3 = 0, X4 = 0, X5 = 0, X6 = 0) = P (X1 = 1) · P (X2 = 1) · P (X3 = 0) · P (X4 = 0) · P (X5 = 0) · P (X6 = 0) = pp(1 − p)(1 − p)(1 − p)(1 − p) = p2 (1 − p)4 Mentre per la seconda sequenza si ha P (“1 0 0 1 0 000 ) = P (X1 = 1, X2 = 0, X3 = 0, X4 = 1, X5 = 0, X6 = 0) = P (X1 = 1) · P (X2 = 0) · P (X3 = 0) · P (X4 = 1) · P (X5 = 0) · P (X6 = 0) = p(1 − p)(1 − p)p(1 − p)(1 − p) = p2 (1 − p)4 cioè esattamente lo stesso risultato. Ma in totale abbiamo un numero molto elevato di sestine composte da due soli “1” e quattro “0”. Le elenchiamo di seguito: 110000 101000 100100 100010 100001 011000 010100 010010 010001 001100 001010 001001 000110 000101 000011 Come si vede sono in tutto 15, risultato che si poteva ottenere con l’utilizzo del coefficiente binomiale. Infatti, spostare i due “1” all’interno di una sestina, coincide con l’estrarre 2 elementi da un gruppo di 6, cioè scegliere casualmente 2 tra i 6 posti all’interno della sestina. Quindi in totale sono 6 6 · 5 · 4! = = 3 · 5 = 15 4! · 2! 2 In definitiva, la probabilità di ottenere 2 successi su 6 prove corrisponde alla probabilità del realizzarsi di una delle 15 sestine che abbiamo elencato, ciascuna con la stessa probabilità di realizzarsi e quindi P (2 successi su 6 lanci) = P (“1 1 0 0 0 000 ) + · · · + P (“0 0 0 0 1 100 ) = p2 (1 − p)4 +p2 (1 − p)4 +· · · + p2 (1 − p)4 6 2 = p (1 − p)4 2 6 2 = p (1 − p)6−2 2 La variabile che in generale descrive il numero di successi che si possono ottenere in n prove di Bernoulli, è la variabile casuale Binomiale. Questa variabile può essere vista 2. LA VARIABILE CASUALE BINOMIALE 17 come la somma di n variabili casuali Xi di tipo Bernoulli, indipendenti e di parametro p, cioè n X X1 ∼ Ber(p), X2 ∼ Ber(p), . . . Xn ∼ Ber(p) Y = Xi . i=1 Allora Y si dice variabile casuale Binomiale e si indica con Y ∼ Bin(n, p). Le variabili Xi si dicono essere un campione i.i.d., cioè un insieme di variabili casuali Indipendenti e Identicamente Distribuite (i.i.d.). Variabile casuale Binomiale Se abbiamo un esperimento Bernoulliano costituito da n prove in cui la probabilità del successo è pari a p, 0 < p < 1, la variabile casuale X che conta il numero di successi in n prove si chiama Binomiale e si scrive X ∼ Bin(n, p). Tale variabile assume tutti i valori interi da 0 ad n con la seguente distribuzione di probabilità n k P (X = k) = p (1 − p)n−k , k = 0, 1, . . . , n k Tale variabile ha le seguenti proprietà E(X) = np e Var(X) = np(1 − p) Se guardiamo al valore atteso della variabile casuale Binomiale possiamo interpretarlo come numero di medio di successi che ci aspettiamo si realizzi se ripetiamo varie volte l’esperimento di Bernoulli. Infatti, supponiamo che la probabilità di successo sia 0.3 e di avere un esperimento composto da n = 100 prove di Bernoulli. Se ripetiamo diverse volte l’esperimento, è lecito aspettarsi che in media il numero di successi sia circa 30. Ovvero, in ogni singola sequenza di Bernoulli avremo un numero di successi pari, ad esempio, a 30, 29, 27, 31, 33, etc. La media aritmetica di questi valori dovrebbe essere 30 se l’esperimento ha funzionato a dovere. Vediamo un paio di esempi insoliti che coinvolgono l’utilizzo del processo di Bernoulli. Verso la fine degli anni 80 dello scorso secolo, alcuni giuristi nord-americani sollevarono la seguente questione: come mai le giurie popolari sono per la maggior parte composte da persone non di colore? Si tratta del caso oppure no? Cioè siamo in presenza di discriminazione razziale? La risposta può essere data in questi termini. I dati considerati riguardavano le giurie popolari istituite in alcuni stati del sud degli Stati Uniti tra gli anni ’60 e ’80. Negli USA, i giurati vengono estratti a gruppi di 80 persone dalla popolazione USA elegibile. Chi sostenne la causa mostrò che in media le giurie popolari contenevano non più di 4 afroamericani. La popolazione in quegli stati e in quel periodo era per circa il 50% composta da afro-americani. L’idea è quella di confutare l’ipotesi, prevista dalla legge, che i giurati siano eletti in modo casuale. Quindi se X indica la variabile casuale che conta il numero di afro-americani in una giuria di 80 persone, X è una variabile casuale Binomiale di parametri n = 80 e p = 0.5. Dobbiamo calcolare la probabilità P (X ≤ 4), ma si tratta di 18 un numero impressionantemente piccolo, infatti, tralasciando i passaggi intermedi, si ha P (X ≤ 4) ' 0.0000000000000000014 Cioè pensare che la composizione delle giurie sia avvenuta “cosı̀ per caso”, cioè per selezione casuale, è un evento quasi impossibile. Per convincere i legislatori che tale numero è effettivamente un numero piccolissimo, gli studiosi sottolinearono che quella probabilità è più piccola della probabilità di fare 3 scale reali consecutive nel gioco del poker! I legislatori a quel punto non ebbero dubbi. Un altro esempio irrituale dell’uso del processo di Bernoulli riguarda le frontiere degli stati. In particolare, la storia che raccontiamo è basata su un’esperienza realmente condotta dalla polizia di frontiera al confine tra Stati Uniti e Messico. L’idea è la seguente. Nei punti di frontiera ad alto flusso di passaggi come quella USA-Messico, spesso è improponibile pensare di passare al setaccio tutte le persone che chiedono di passare, in particolare se le perquisizioni richiedono attenzioni particolari come quelle per l’identificazione degli stupefacenti. Non è neanche un metodo fruttuoso far scegliere al doganiere chi perquisire e chi no, perché molto spesso l’aspetto fisico non permette da solo di identificare i soggetti, cioè l’abito non fa il monaco! È stato allora proposto di perquisire i passanti con un meccanismo di tipo casuale. Ad ogni persona che chiede di passare la frontiera si osserva una lampada. Se la lampada si accende si perquisisce la persona altrimenti la si lascia andare. La lampada viene accesa in modo casuale attraverso la simulazione di un processo di Bernoulli che ha come parametro p la percentuale, nota da studi precedenti, di persone che passano la frontiera in modo illegale (ovvero trasportando stupefacenti, armi, etc). I risultati dell’esperimento hanno mostrato che il numero di persone fermate è risultato più elevato utilizzando la selezione casuale che non il fiuto del doganiere. Questa tecnica, adeguatamente raffinata, viene utilizzata oggi in diversi punti di frontiera. 2.1. Esercizi riepilogativi. Vediamo ora una serie di esercizi basati sul processo di Bernoulli. Come si vedrà, la risoluzione degli esercizi è piuttosto meccanica se si riesce ad identificare correttamente il processo di Bernoulli sottostante. Esercizio 5. Si considerino le estrazioni del gioco del lotto della ruota di Genova. Sia p la probabilità che il numero 39 appaia ad ogni singola estrazione settimanale. Quanto vale p? Qual è la probabilità che alla 30-esima estrazione il 39 non sia ancora uscito? Se non è uscito nelle prime 100 estrazioni qual è la probabilità che esca alla 101-esima? Quale quella che esca esattamente alla 130-esima settimana se non è uscito nelle prime 100 estrazioni? Qual è la probabilità che esca almeno 2 volte in 10 settimane? Nel gioco del lotto vi sono 90 numeri e se ne estraggono 5 senza reimmissione (o in blocco). a) I casi possibili, cioè tutte le possibili cinquine estraibili dall’urna, sono quindi 90 = casi possibili 5 2. LA VARIABILE CASUALE BINOMIALE 19 I casi favorevoli all’evento sono tutte le cinquine che hanno un numero fisso, nel nostro caso il 39, e i restanti 4 scelti tra i restanti 89 numeri disponibili, e dunque 1 89 = casi favorevoli 1 4 Concludendo si ha casi favorevoli p= = casi possibili 89 4 90 5 = 89! 4!85! 90·89! 85!5·4! = 5 = 0.05̄ 90 b) La probabilità che alla 30-esima estrazione il 39 non sia ancora uscito è pari alla probabilità che vi siano in sequenza di 30 “insuccessi”, cioè numeri diversi dal 39. Le estrazioni sono indipendenti e ripetute, siamo allora in uno schema di Bernoulli con probabilità di successo pari a p, dunque la probabilità di 30 insuccessi è pari a 30 85 30 (1 − p) = = 0.18 90 c) Sapere che non è uscito nelle prime 100 estrazioni non ha alcuna influenza su quello che accade nella successiva per l’indipendenza delle prove, quindi la probabilità rimane invariata, cioè p. d) Sappiamo che non è uscito nelle prime 100 estrazioni ed ora chiediamo che il 39 esca solo alla 130-esima settimana vuol dire che per 29 settimane dopo la 100esima si devono avere degli insuccessi e solo alla 30-esima (dopo la 100-esima) il successo, quindi la probabilità richiesta è 29 85 5 29 (1 − p) · p = = 0.01 · 90 90 e) Qui cerchiamo il numero di successi in n = 10 prove, usiamo quindi la variabile casuale Binomiale. L’evento di cui dobbiamo calcolare la probabilità è P (X ≥ 2) se X ∼ Bin(n = 10, p = 5/90). Dunque P (X ≥ 2) = 1 − P (X < 2) = 1 − ( P (X = 0) + P (X = 1) ) 10 10 0 85 10 p · (1 − p) = P (X = 0) = = 0.56 0 90 9 10 1 5 85 9 = 0.33 P (X = 1) = p · (1 − p) = 10 · 90 90 1 Quindi P (X ≥ 2) = 1 − 0.56 − 0.33 = 0.11 20 Esercizio 6. Mario Dindini sta organizzandosi per fare una serie di uscite giornaliere in barca a vela. Le statistiche metereologiche giornaliere del periodo riportano che nel 32% dei giorni si registra cielo sereno ed assenza di vento, nel 53% dei giorni si registra mare calmo e vento debole e nel restante 15% si registra mare mosso e vento teso. Mario decide di salpare solo se c’è vento. Supponendo che le condizioni meteo di un giorno siano indipendenti da quelle dei giorni precedenti e successivi: a) Qual è la probabilità che vi siano esattamente 3 giornate di vento teso su 5 giorni consecutivi? b) Con quale probabilità Mario uscirà più di due volte in 10 giorni consecutivi? Ciò che accade ogni giorno è indipendente da ciò che accade nei giorni successivi e ogni giorno gli stessi eventi hanno la stessa probabilità di verificarsi. Si tratta quindi di un modello di prove ripetute. a) Sia A l’evento “c’è vento teso”, allora P (A) = 0.15 e P (Ā) = 1 − 0.15 = 0.85. Si tratta di un modello binomiale X di parametri n = 5 e p = 0.15, quindi si deve calcolare: 5 P (X = 3) = · 0.153 · 0.852 = 10 · 0.003375 · 0.7225 = 0.024 3 b) Ora l’evento su cui concentrarsi è A = “c’è vento” = “c’è vento teso o vento debole” dunque P (A) = 0.15 + 0.53 = 0.68 e P (Ā) = 1 − 0.68 = 0.32. Si tratta di un modello binomiale X di parametri n = 10 e p = 0.68, quindi si deve calcolare: P (X > 2) = 1 − (P (X = 0) + P (X = 1) + P (X = 2)) 10 P (X = 0) = 0.680 · 0.3210 = 1 · 1 · 0.0000126 = 0.0000126 0 10 P (X = 1) = 0.681 · 0.329 = 10 · 0.68 · 0.0000352 = 0.000239 1 10 P (X = 2) = 0.682 · 0.328 = 45 · 0.4624 · 0.0001099 = 0.002288 2 Quindi P (X > 2) = 1 − 0.002538 = 0.997, cioè Mario uscirà quasi certamente in barca più di 2 volte in 10 giorni. Esercizio 7. Un esame consiste in due test a risposta multipla. Il primo test ha 3 possibili risposte di cui una sola corretta e il secondo test consiste in 5 possibili risposte di cui ancora una sola corretta. L’esame si ritiene superato se si risponde correttamente ad entrambe le domande. Uno studente sceglie a caso una risposta per il primo test e una risposta per il secondo test. Indicando con Y il numero totale di risposte esatte a) Calcolare la probabilità che lo studente superi l’esame. b) Calcolare media e varianza di Y . 2. LA VARIABILE CASUALE BINOMIALE 21 Lo studente passa l’esame se Y = 2, quindi calcoliamo P (Y = 2). Se indichiamo con X1 il risultato del primo test e con X2 quello del secondo, quindi dire Y = 2 vuol dire che X1 = 1 e, contemporaneamente, X2 = 1. Dunque in termini di probabilità si deve calcolare P (Y = 2) = P (X1 = 1 ∩ X2 = 1) = P (X1 = 1) · P (X2 = 1) 1 1 1 = · = 3 5 15 in quanto le risposte al test sono indipendenti. Per rispondere ai quesiti successivi si tiene conto del fatto che in realtà Y = X1 + X2 , ma X non è una Binomiale in quanto la probabilità di successo varia ad ogni prova. Però E(Y ) = E(X1 + X2 ) = E(X1 ) + E(X2 ) = 1 1 8 + = 3 5 15 e, sempre per l’indipendenza, Var(X) = Var(X1 + X2 ) = Var(X1 ) + Var(X2 ) 86 12 14 + = = 0.382 = 33 55 225 Esercizio 8. In un remoto angolo della nostra Galassia esiste un pianetino dotato di un bizzarro sistema elettorale. Poiché vi sono due soli partiti (SX e DX) e, da sempre, la popolazione accorda il 70% di preferenze al partito SX e il restante 30% al partito DX, per dare al partito DX la possibilità di governare, vengono estratti a caso dalla popolazione totale 10 grandi elettori. Le elezioni sono vinte dal partito che riceve almeno 6 voti tra i 10 espressi da questi grandi elettori. a) Con quale probabilità il partito DX vince le elezioni? b) Quanti voti ricevono mediamente i due partiti? Si tratta di uno schema binomiale con n = 10 prove, in cui la probabilità di successo la poniamo pari alla probabilità di votare DX. Indichiamo quindi con X ∼ Bin(10, 0.3) la somma dei voti ricevuti dal partito DX. Dobbiamo calcolare P (X > 5) = 1 − P (X ≤ 5) = 1 − P (X = 0) + P (X = 1)+ + P (X = 2) + P (X = 3) + P (X = 4) + P (X = 5) 22 10 P (X = 0) = 0.30 · 0.710 = 0.710 = 0.028 0 10 P (X = 1) = 0.31 · 0.79 = 10 · 0.3 · 0.79 = 0.121 1 10 10 · 9 · 8! 2 8 0.3 0.7 = 0.233 P (X = 2) = 0.32 · 0.78 = 2 · 8! 2 10 · 9 · 8 · 7! 3 7 10 P (X = 3) = 0.33 · 0.77 = 0.3 0.7 = 0.267 3 3! · 7! 10 10 · 9 · 8 · 7 · 6! 4 6 P (X = 4) = 0.34 · 0.76 = 0.3 0.7 = 0.200 4 4! · 6! 10 10 · 9 · 8 · 7 · 6 · 5! 5 5 0.3 0.7 = 0.103 P (X = 5) = 0.35 · 0.75 = 5! · 8! 5 Quindi P (X > 5) = 1 − (0.028 + 0.121 + 0.233 + 0.267 + 0.2 + 0.103) = 0.048. Ovviamente in questo caso conveniva calcolare direttamente la probabilità richiesta scrivendo P (X = 6) + P (X = 7) + P (X = 8) + P (X = 9) + P (X = 10) calcolando 5 termini anziché 6. Il numero medio di voti ricevuti dai due partiti sono rispettivamente 3 e 7 per il partito DX e SX ottenuti con valor medio di una variabile casuale binomiale (E(X) = n · p = 10 · 31 nel caso DX.) 3. VARIABILE CASUALE GAUSSIANA 23 3. Variabile casuale Gaussiana Uno degli aspetti più inquietanti del caso è che esso sembra pervadere il mondo fisico più di quanto non si immagini. Abbiamo già detto che le variabili aleatorie non sono altro che modelli matematici per descrivere le manifestazioni del caso e la probabilità è lo strumento di misura necessario per poter parlare correttamente di caso senza ambiguità. Il fisico Henri Poincaré (1854-1912), in un suo celebre brano di inizio secolo2, riporta la seguente frase di J.Bertrand (1899) “Con che ardire si può parlare delle leggi del caso? Il caso non è forse l’antitesi di ogni legge?”. Questa provocazione serve a ricordarci che il termine caso non deve essere frainteso con il termine ignoranza. Nelle discipline economiche è d’uso distinguere tra il termine rischio ed incertezza per distinguere le due situazioni in cui l’esito di un’azione è riconducibile ad un modello casuale (il caso vero e proprio) e quella in cui non sono disponibili modelli descrittivi (ignoranza degli esiti). Tornando al mondo fisico cui si accennava sembra proprio che la variabile casuale Gaussiana (chiamata anche Normale, degli errori accidentali, etc.) regni sovrana tanto che biologi, fisici e sociologi ne rivendicano la paternità. Tra le ricorrenze importanti della Normale c’è quella che riguarda la distribuzione delle misure di quantità fisiche del mondo animale, ed in particolare umane, come la distribuzione delle altezze, della lunghezza di parti anatomiche (avambracci, femori, orecchie, mignoli della mano sinistra e quant’altro). Ricordiamo che una variabile casuale continua è ben definita quando: i) si specifica l’intervallo di valori che può assumere e ii) viene indicata la sua funzione di densità. Per la variabile casuale Normale standard si ha che la densità assume la seguente forma x2 1 (2) f (x) = √ e− 2 , x∈R 2π dove x ∈ R vuol dire che la funzione f (x) è definita per ogni numero reale x. La formula contiene due delle più importanti costanti matematiche: il numero e che è la base dei logaritmi naturali e il numero π noto dalle scuole medie inferiori attraverso la formula del calcolo dell’area di un cerchio di raggio r: A = πr2 . La variabile casuale Normale standard si indica generalmente con la lettera Z dell’alfabeto. Abbiamo visto che può dunque assumere qualunque valore dell’asse reale z anche se gli eventi di cui ha senso calcolare le probabilità sono gli intervalli del tipo P (a < Z < b) poiché, come per tutte le variabili aleatorie continue, si ha sempre P (Z = z) = 0 per ogni valore di z (si ricordi l’esempio della Ruota della Fortuna). Gauss è sicuramente uno dei padri di tale distribuzione e ne fornı̀ una derivazione partendo dall’osservazione di misure fisiche. Si accorse che misurando più volte una certa quantità può accadere che la misura dell’oggetto vari di poco. Se m è la vera misura dell’oggetto e xi è la misurazione i-esima eseguita, gli errori di misura sono definiti, come i residui nell’analisi di regressione, dalla differenza ei = xi − m. A volte risulteranno errori per eccesso a volte per difetto. Se consideriamo la media di tutte le misure xi ci aspettiamo che sia pari ad m. Se gli errori di misurazione che commettiamo sono di 2Le hasard, Revue du mois, III 1907 che è possibile trovare tradotto con Il caso in: H. Poincaré, Geometria e caso, Universale Bollate Boringhieri, 1995. 24 −5 −3 −1 0 1 3 5 x Figura 6. Grafico della densità di probabilità della variabile casuale Gaussiana (o Normale) standard tipo casuale (cioè non indotti sistematicamente dalla nostra sbadataggine ad esempio) e tracciamo la distribuzione di frequenza dei valori ei ci accorgiamo che la maggior parte dei valori si concentra attorno allo 0 e poi pochi valori saranno positivi e molto grandi e altrettanti molto grandi ma con segno negativo. Cioè l’aspetto della distribuzione di frequenza “allisciata” dovrebbe apparire come nel grafico in Figura 6 che è esattamente il grafico della densità di una variabile casuale Gaussiana standard. Per la variabile casuale Normale standard si hanno due proprietà fondamentali: i) il valore atteso è pari a 0 (E(Z)=0) e la sua varianza è pari ad 1 (Var(X) = 1). La notazione utilizzata per indicare che una variabile è di tipo gaussiano è la seguente: Z ∼ N (µ = 0, σ = 1) dove µ indica il valore atteso e σ lo scarto quadratico medio della variabile in questione. Questa notazione lascia intuire che esistono diversi tipi di variabili gaussiane al variare di µ e σ. Infatti, la variabile casuale Gaussiana può essere definita in modo più generale da una densità del tipo che segue (x−µ)2 1 e− 2σ2 (3) f (x) = √ 2πσ (si noti che ponendo µ = 0 e σ = 1 la (3) coincide con la (2).) La densità (3) appena scritta è la densità di una variabile Gaussiana X di media µ e varianza σ 2 e si scriverà X ∼ N (µ, σ 2 ). Attenzione: si usa indifferentemente la notazione N (µ, σ) e N (µ, σ 2 ) per indicare una Gaussiana di valore atteso µ e varianza σ 2 . Di volta in volta il testo chiarirà quale delle due notazioni stiamo impiegando. 3. VARIABILE CASUALE GAUSSIANA 25 σ=1 σ=2 µ = −4 µ=7 0 0 x x (a) (b) Figura 7. Grafico delle densità di gaussiane al variare dei parametri µ e σ. In (a) due variabili normali di varianza pari ad 1 e medie µ = −4 e µ = 7. In (b) due gaussiane di media nulla ma varianza σ 2 pari ad 1 e 4. I parametri µ e σ della Gaussiana hanno un’interpretazione molto diretta. Abbiamo visto che la N (0, 1) ha una densità campanulare simmetrica attorno allo 0 che è anche la sua media, mediana (per la simmetria) e la moda. Una normale di media µ avrà le stesse proprietà solo che questa volta il punto di simmetria è proprio µ, ovvero µ è contemporaneamente la media, la moda e la mediana della variabile casuale. Il grafico in Figura 7 mostra la densità di due variabili gaussiane di media rispettivamente µ = −4 e µ = 7 con varianza pari ad 1 (Grafico (a)) e di altre due gaussiane di media nulla ma varianze rispettivamente 1 e 4 (Grafico (b)). Come si vede la media µ è il centro della distribuzione mentre il fattore σ, cioè la dispersione, agisce come un fattore di scala ovvero, più è piccola la varianza più la distribuzione è concentrata attorno alla media e dunque la distribuzione risulta anche essere più “appuntita”, viceversa più aumenta la varianza, più i valori tendono a disperdersi attorno alla media cosı̀ che il grafico della densità della Normale risulta essere più “appiattito”. Il termine “standard” viene riservato alla Gaussiana di parametri µ = 0 e σ = 1. Il motivo fondamentale risiede nel calcolo delle probabilità. Sappiamo che per una variabile casuale continua, calcolare probabilità del tipo P (X < x) vuol dire eseguire il calcolo di un integrale, brrr! Cioè Zx P (X < x) = f (u)du −∞ Se X è la variabile casuale Normale standard, cioè X = Z ∼ N (0, 1) quelle probabilità ci vengono fornite dalle tavole come quelle che troviamo nelle Tabelle ?? e ??. In particolare, se Z è la variabile Gaussiana standard si usa per convenzione la notazione P (Z < z) = Φ(z) e il valore Φ(z) viene letto sulla tavola. Ad esempio, se vogliamo calcolare la probabilità P (Z < 1.31) dobbiamo prendere la tavola della Tabella 26 ??. All’incrocio della riga 1.3 e della colonna 0.01 troviamo il valore 0.90490. Quindi P (Z < 1.31) = Φ(1.31) = 0.90490. Supponiamo ora che X sia una Gaussiana di media 1 e varianza 4, dunque X ∼ N (1, 2). Poniamo l’obiettivo di calcolare P (X < 3). Non ci sono tavole che ci permettono di calcolare questo tipo di probabilità. Le alternative sono 2: i) calcoliamo l’integrale, ii) usiamo la testa. Optiamo per la seconda strada e osserviamo quanto segue. Se X ha media µ, allora X − µ avrà media nulla, infatti E(X − µ) = E(X) − µ = µ − µ = 0 Se X ha varianza pari a σ 2 allora X/σ ha varianza 1, infatti 1 σ2 Var(X) = =1 σ2 σ2 Se mettiamo assieme le due operazioni abbiamo che X −µ è tale che E(Z) = 0 e Var(Z) = 1 . Z= σ Quello che abbiamo ottenuto assomiglia molto ad una Normale standard, l’unica cosa di cui non siamo certi è se realmente la variabile casuale Z cosı̀ costruita sia ancora una variabile Gaussiana. In realtà lo è perché le operazioni che abbiamo fatto sono state semplicemente di centrare la variabile X sullo 0 anziché su µ e di riscalarla del fattore σ in modo tale da ottenere una varianza unitaria. Siamo quindi in grado di calcolare P (X < 3) “usando la testa”, infatti X −µ 3−µ 3−1 P (X < 3) = P < =P Z< σ σ 2 = P (Z < 1) = Φ(1) = 0.84134 Var(X/σ) = Variabile casuale Gaussiana Una variabile casuale continua X con densità pari alla (3) è detta Gaussiana di parametri E(X) = µ e Var(X) = σ 2 . Si usa la notazione X ∼ N (µ, σ 2 ). La variabile casuale X ∼ N (0, 1) si dice Normale standard. Ogni variabile casuale X ∼ N (µ, σ 2 ) può essere ricondotta ad una Normale standard tramite l’operazione di standardizzazione seguente X −µ ∼ N (0, 1) Z= σ Se vogliamo calcolare le probabilità del tipo P (a < Z < b), cioè Z assume valori nell’intervallo di estremi a e b, possiamo aiutarci con i grafici. Infatti, rappresentando graficamente P (a < Z < b) notiamo che, P (a < Z < b) = P (Z < b) − P (Z < a) = Φ(b) − Φ(a) come è evidente dalla Figura 8. 3. VARIABILE CASUALE GAUSSIANA P(a < Z < b) Φ(b) = P(Z < b) Φ(a) = P(Z < a) = a 0 27 b – 0 b a 0 Figura 8. Calcolo di P (a < Z < b) = Φ(b) − Φ(a). Proviamo ora a calcolare le seguenti probabilità P (µ − σ < X < µ + σ), P (µ − 2σ < X < µ + 2σ), P (µ − 3σ < X < µ + 3σ) dove X ∼ N (µ, σ 2 ). Otteniamo i seguenti risultati µ−µ−σ X −µ µ+σ−µ P (µ − σ < X < µ + σ) = P < < σ σ σ = P (−1 < Z < 1) = Φ(1) − Φ(−1) = 0.84134 − 0.15866 ' 0.68 ovvero il 68% di tutti i valori possibili di una Gaussiana si realizzano all’interno dell’intervallo µ ± σ. Per gli altri intervalli otteniamo µ − µ − 2σ X − µ µ + 2σ − µ P (µ − 2σ < X < µ + 2σ) = P < < σ σ σ = P (−2 < Z < 2) = Φ(2) − Φ(−2) = 0.97725 − 0.02275 ' 0.95 µ − µ − 3σ X − µ µ + 3σ − µ P (µ − 3σ < X < µ + 3σ) = P < < σ σ σ = P (−3 < Z < 3) = Φ(3) − Φ(−3) = 0.99865 − 0.00135 ' 0.997 In sostanza oltre (±) 3 volte lo scarto quadratico medio la probabilità che si realizzi un evento della variabile casuale Gaussiana è praticamente nulla. Dal punto di vista p statistico ciò vuol dire che se in un campione troviamo valori esterni all’intervallo (x̄n ±3 s̄2n ), questi valori verrano considerati degli outlier (si ricordi in proposito la legge dei 3-sigma). Esercizio 9. Soffermiamoci sulle altezze della popolazione, ed in particolare sulla distribuzione delle altezze della popolazione dei coscritti alla leva di mare e di terra del 1960. Cosı̀ come riportato dall’ISTAT, si può assumere che la distribuzione delle altezze X segua una legge normale di media µ = 172.7 cm e scarto quadratico medio σ = 6.7 28 cm. Estraendo a caso un individuo da questa popolazione, ci si può chiedere con quale probabilità: a) b) c) d) questo individuo ha un’altezza pari all’altezza media della popolazione; la sua altezza è inferiore all’altezza media della popolazione; la sua altezza è superiore a 152 cm; supponendo che tutti gli individui della popolazione portino scarpe con un tacco di 10 cm, con che probabilità l’altezza (con scarpe ai piedi) dell’individuo estratto è superiore a 162 cm. La risposta alla domanda a) è, per quanto detto poco sopra, pari a zero: infatti X è una variabile casuale continua e quindi P (X = µ) = 0. Per quanto riguarda i punti successivi, ricordiamo che ciascuna frase corrisponde ad un evento. In particolare, per il punto b) la frase non è altri se non l’evento “X < µ”. Dobbiamo quindi calcolare P (X < µ). Eseguiamo l’operazione di standardizzazione su X, cioè si trasforma la variabile X nella variabile casuale normale standard Z attraverso la seguente operazione Z = (X − µ)/σ . Quindi se effettuiamo la stessa trasformazione all’interno di P (X < x) otteniamo X −µ x−µ x−µ x−µ < =P Z< =Φ . P (X < x) = P σ σ σ σ Dunque per rispondere al quesito b) si deve calcolare µ−µ 1 P (X < µ) = Φ = Φ(0) = , σ 2 che è sempre vera qualsiasi sia la media µ della variabile Gaussiana X essendo µ anche la mediana di X. Il punto c) chiede con quale probabilità l’altezza dell’individuo estratto è superiore a 152 cm, il che vuol dire calcolare la probabilità dell’evento “X > 152”. Quindi per calcolare P (X > 152) ricorriamo all’evento complementare P (X > 152) = 1 − P (X > 152) = 1 − P (X ≤ 152) = 1 − P (X < 152) poiché la Gaussiana è continua 152 − 172.7 152 − µ =1−Φ =1−Φ σ 6.7 = 1 − Φ(−3.1) = 1 − 0.00097 = 0.99903 ' 1 , cioè quasi certamente (con probabilità 1) l’altezza dell’individuo è superiore a 152 cm. Il punto d) descrive una situazione in cui la variabile casuale X viene trasformata in una nuova variabile casuale Y attraverso una traslazione Y = X + 10. La variabile 3. VARIABILE CASUALE GAUSSIANA 29 casuale Y è ancora una variabile casuale di varianza σ 2 ma media pari a µ + 10. L’evento di cui ci interessa calcolare la probabilità è “Y > 162”. Procediamo come segue P (Y > 162) = P (X + 10 > 162) = P (X > 152) = 0.99903 ' 1 , come nel punto c). Terminiamo con qualche proprietà utile che riguarda la variabile aleatoria Normale. Questa volta però utilizziamo un’altra proprietà della curva normale: la simmetria rispetto alla propria media µ. Se prendiamo un numero z > 0 qualsiasi, possiamo calcolare la P (|Z| < z) = P (−z < Z < z) come segue P (|Z| < z) = P (−z < Z < z) = Φ(z) − Φ(−z) = 2Φ(z) − 1 poiché Φ(−z) = 1 − Φ(z) essendo la densità f (·) una funzione simmetrica rispetto allo 0 (la Figura 9 illustra questa proprietà). Dal fatto che P (|Z| < z) = 2Φ(z) − 1 deriva anche che P (|Z| > z) = P (Z > z, Z < −z) = 1 − (2Φ(z) − 1) = 2(1 − Φ(z)) . Φ(− z) = 1 − Φ(z) −z 0 z Figura 9. Proprietà di simmetria della densità della variabile casuale Gaussiana: f (z) = f (−z) e quindi Φ(−z) = 1 − Φ(z). Infine, se X ∼ N (µ1 , σ12 ) e Y ∼ N (µ2 , σ22 ) sono indipendenti allora la variabile casuale W = X + Y è ancora una variabile Gaussiana del tipo W ∼ N (µ1 + µ2 , σ12 + σ22 ). 30 Proprietà utili per la variabile casuale Gaussiana Se X ∼ N (µ, σ 2 ) allora: i) Se a e b sono due numeri non aleatori si ha che a + bX ∼ N (a + b µ, b2 σ 2 ) ii) per il calcolo delle probabilità si deve ricordare che x−µ P (X < x) = Φ σ iii) per le proprietà di simmetria si ha che Φ(−z) = 1 − Φ(z) e quindi P (|Z| < z) = P (−z < Z < z) = 2Φ(z) − 1 e P (|Z| > z) = P (Z > z, Z < −z) = 2(1 − Φ(z)) iv) se X ∼ N (µ1 , σ12 ) e Y ∼ N (µ2 , σ22 ) sono indipendenti allora W = X + Y ∼ N (µ1 + µ2 , σ12 + σ22 ) 3.1. Approssimazione della Binomiale con la Gaussiana. Un altro modo di derivare la variabile casuale Gaussiana è come limite della variabile casuale Binomiale. Il problema con cui ci si scontra di frequente è che spesso il numero di prove n è piuttosto elevato. Quando si effettuano i calcoli con la variabile casuale Binomiale, si incappa necessariamente nel calcolo dei coefficienti binomiali che, abbiamo già visto, quando i valori sono molto elevati diventano numeri intrattabili. De Moivre, si accorse che quando p = 0.5, la distribuzione della variabile Binomiale X è simmetrica rispetto alla sua media, cioè np. Effettuando l’operazione di standardizzazione sulla X in analogia a quanto già visto, si ottiene che X − E(X) X − np Z= p =p ∼ N (0, 1) Var(X) np(1 − p) cioè siamo ancora in presenza di una Gaussiana. L’approssimazione si può ritenere valida se n supera 30. Più tardi ci si accorse che l’approssimazione vale anche quando p 6= 0.5, infatti benché in tal caso la distribuzione sia asimmetrica, quando il numero delle prove n cresce molto viene ad affievolirsi l’effetto dell’asimmetria e vale ancora l’approssimazione alla Gaussiana della Binomiale standardizzata. La regola empirica dice che quando np ≥ 5 e n(1 − p) ≥ 5 allora può ritenersi valida l’approssimazione. Esercizio 10. Un venditore contatta dei clienti e mediamente conclude una vendita 1 volta su 8. Calcolare in modo approssimato la probabilità che su 100 clienti si concludano tra 6 e 10 vendite. 3. VARIABILE CASUALE GAUSSIANA 31 Siamo di fronte ad un processo di Bernoulli con n = 100 prove, i clienti, e il “successo” è rappresentato dalla vendita che avviene con probabilità p = 81 . Quindi il numero totale di vendite è una variabile casuale X ∼ Bin(n = 100, p = 18 ). Dobbiamo calcolare P (6 ≤ X ≤ 10). Usiamo l’approssimazione alla variabile casuale normale che si ottiene attraverso la trasformazione X − np Z∼p n p (1 − p) L’approssimazione è lecita poiché np = 100 · 18 = 12.5 ≥ 5 e n(1 − p) = 100 · 78 = 87.5 ≥ 5. Quindi ! 6 − 12.5 X − np 10 − 12.5 P (6 ≤ X ≤ 10) = P ≤p ≤ 3.307 3.307 n p (1 − p) ' P (−1.97 < Z < −0.76) = Φ(−0.76) − Φ(−1.97) dove Φ(−0.76) = 1 − Φ(0.76) = 1 − 0.77637 e Φ(−1.97) = 1 − Φ(1.97) = 1 − 0.97558 da cui segue che P (6 ≤ X ≤ 10) ' 0.19921 Esercizio 11. Si supponga di fare n = 25 lanci di una moneta non truccata. Calcolare la probabilità di fare al massimo 14 teste. Indichiamo con X ∼ Bin(n = 25, p = 0.5) la variabile casuale che conta il numero di teste in 25 lanci. Ci è richiesto di calcolare P (X ≤ 14). Il valore esatto della probabilità è pari a 0.7878. Proviamo ad utilizzare l’approssimazione Normale, sapendo che n < 30 e vediamo cosa accade. Ci servono i valori np = 25 · 21 = 12.5 e np(1 − p) = 25 · 14 = 6.25 √ e quindi 6.25 = 2.5. Dunque 14 − 12.5 P (X ≤ 14) ' P Z ≤ = Φ(0.6) = 0.7257 2.5 come si vede la differenza dei valori delle probabilità cosı̀ calcolate è notevole. Se n è piccolo come in questo caso, si può apportare una piccola modifica detta correzione di continuità che consiste nell’aggiungere 0.5 al valore di cui si deve calcolare la probabilità, cioè anziché calcolare P (X ≤ 14) si calcola P (X ≤ 14 + 0.5). Vediamo cosa accade 14.5 − 12.5 P (X ≤ 14.5) ' P Z ≤ = Φ(0.8) = 0.7881 2.5 che come si nota è un valore approssimato molto più vicino a quello vero del valore calcolato con l’approssimazione alla Normale semplice. 32 Il risultato è in realtà molto più generale e prende il nome di Teorema del Limite Centrale3. Questo teorema afferma che se abbiamo delle Xi i.i.d. (indipendenti ed iden2 ticamente distribuite), Pncon stessa media µ e varianza σ finite, allora la distribuzione di probabilità di Y = i=1 Xi , opportunamente standardizzata, può essere approssimata con quella di una Gaussiana, cioè Y − E(Y ) Z= p ∼ N (0, 1) Var(Y ) Torneremo presto su questo risultato. 3.2. Esercizi riepilogativi. Esercizio 12. La temperatura superficiale di un satellite geostazionario si distribuisce come una variabile aleatoria Normale di media 7o C e scarto quadratico medio 14o C. Con quale probabilità la temperatura del satellite è a) superiore a 32o C, b) uguale a 29o C, c) in modulo più grande di 30o C, d) compreso tra 0o C e 10o C? Sappiamo che X ∼ N (µ = 7, σ 2 = 142 ). a) Si deve calcolare P (X > 32) ricorriamo alla standardizzazione X −µ 32 − µ P (X > 32) = P > σ σ 32 − 7 = 1 − P (Z < 1.79) =P Z> 14 = 1 − 0.96 = 0.04 b) P (X = k) = 0 qualsiasi sia k se X è una variabile casuale continua come il caso della Normale. c) Si deve calcolare P (|X| > 30). Dunque P (|X| > 30) = P (X > 30 ∪ X < −30) = P (X > 30) + P (X < −30) dove 30 − µ P (X > 30) = 1 − P (X < 30) = 1 − P Z < σ = 1 − P (Z < 1, 64) = 1 − 0.95 = 0.05 −30 − µ P (X < −30) = P Z < σ = P (Z < −2.64) = 0.004 3Qualsiasi modello probabilistico si scelga, sotto ipotesi molto generali, al crescere del numero delle replicazioni, la somma standardizzata di variabili casuali tende a distribuirsi come una Normale. L’aggettivo “centrale” è quindi riferito al ruolo cruciale che la distribuzione Gaussiana riveste nella teoria della probabilità. In alcuni testi si parla di teorema centrale del limite, si sposta quindi l’aggettivo sul sostantivo teorema per indicare che questo risultato è uno tra i fondamentali, forse il più importante, in tutta la teoria asintotica della probabilità. Entrambe le interpretazioni-collocazioni del termine “centrale” appaiono giustificate. 3. VARIABILE CASUALE GAUSSIANA 33 Cioè P (|X| > 30) = 0.05 + 0.004 = 0.054. Il risultato si poteva ottenere anche passando all’evento complementare, cioè P (|X| > 30) = 1 − P (−30 < X < 30) = 1 − (P (X < 30) − P (x < −30)) si sarebbe ottenuto lo stesso risultato. d) Si deve calcolare P (0 < X < 10) cioè P (0 < X < 10) = P (X < 10) − P (X < 0) 3 7 =P Z< −P Z <− 14 14 = P (Z < 0.21) − P (Z < −0.5) = 0.58 − 0.31 = 0.27 Esercizio 13. Il tempo di rotazione (X, in minuti) attorno alla Terra di un satellite artificiale si distribuisce secondo la distribuzione Normale di media 30 minuti. Sapendo che P (X ≤ 29.4) = 0.4522: a) Determinare la varianza di X. b) Con quale probabilità il tempo impiegato sarà minore di 28 minuti? c) Con quale probabilità il tempo impiegato sarà compreso tra 25 e 32 minuti? Si utilizzi la seguente tabella della variabile Z Normale standardizzata: Φ(z) 0.3446 0.3594 0.3707 0.5478 0.6406 0.7642 0.8413 z -0.4 -0.36 -0.33 0.12 0.36 0.72 1.00 L’informazione che abbiamo è che X ∼ N (µ = 30, σ 2 =?) e P (X ≤ 29.4) = 0.4522. Ma a) 29.4 − µ X −µ < 0.4522 = P (X ≤ 29.4) = P σ σ 29.4 − 30 0.6 =P Z< =P Z<− σ σ per trovare σ dobbiamo risolvere l’equazione 0.4522 = Se indichiamo con z = − 0.6 σ P (Z < z) cioè dobbiamo cercare quel valore di z che ci fornisce P (Z < z) = 0.4522. Sulla tavola troviamo che P (Z < 0.12) = 0.5478 = 1 − 0.4522 cioè 1 − P (Z < 0.12) = 0.4522. Ma allora P (Z > 0.12) = 0.4522 e quest’ultima probabilità, per la simmetria della variabile casuale normale, è pari a P (Z < −0.12). In conclusione 0.4522 = P (Z < −0.12) cioè lo z che stiamo cercando è proprio z = −0.12, allora 0.6 −0.12 = − σ per cui σ = 5. 34 b) Ora sappiamo quindi che X ∼ N (µ = 30, σ 2 = 25). Dobbiamo calcolare 28 − 30 P (X < 28) = P Z < = P (Z < −0.4) = 0.3446 5 c) Mentre P (25 < X < 32) si ottiene nel seguente modo P (25 < X < 32) = P (X < 32) − P (X < 25) = Φ(0.4) − Φ(−1) dove Φ(0.4) = 1 − P (Z > 0.4) = 1 − Φ(−0.4) e Φ(−1) = 1 − P (Z > −1) = 1 − Φ(1) e quindi P (25 < X < 32) = 1 − P (Z < −0.4) − (1 − P (Z < 1)) = P (Z < 1) − P (Z < −0.4) = 0.8413 − 0.3446 = 0.4967 Esercizio 14. Uno studente prende il treno e poi la metropolitana per recarsi all’università. Supponiamo che i tempi di viaggio dei due mezzi siano variabili casuali normali indipendenti con medie 20 e 10 minuti e deviazione standard rispettivamente 5 e 2 minuti. Calcolare la probabilità che il tempo totale di viaggio sia compreso tra 25 e 35 minuti. Indichiamo con X ∼ N (20, 52 ) il tempo di percorrenza in treno e con Y ∼ N (10, 22 ) il tempo di percorrenza in metropolitana. Il tempo totale T è allora ancora una variabile casuale Gaussiana di parametri la somma delle medi di X ed Y e la somma delle varianze delle stesse variabili casuali per l’indipendenza. Quindi T ∼ N (20 + 10, 52 + 22 ) = N (30, 29). Si deve calcolare 25 − 30 X − 30 35 − 30 √ P (25 < T < 35) = P < √ < √ 29 29 29 = P (−0.93 < Z < 0.93) = P (Z < 0.93) − P (Z < −0.93) = P (Z < 0.93) − (1 − P (Z < 0.93)) = 2 · P (Z < 0.93) − 1 = 2 · 0.82381 − 1 = 0.64762