TQuArs – a.a. 2010/11 Tecniche quantitative per l’analisi nella ricerca sociale Giuseppe A. Micheli Lezione B.3 Dall’esperimento bernoulliano ai teoremi di convergenza In questa lezione.. In questa lezione studiamo un modello probabilistico costituito da una molteplicità di esperimenti dello stesso tipo ripetuti. Definiremo il concetto di esperimento ‘bernoulliano’, che ha come esito due sole modalità alternative e ne trarremo quattro spunti: Svilupperemo la forma che assume la distribuzione di una variabile ottenuta come somma di tanti esperimenti bernoulliani. Seguiremo due processi di formazione della variabile ‘somma’, secondo il disegno campionario scelto (con/senza reimmissione). Verificheremo a quali condizioni si può determinare la media e la varianza di questa variabile ‘somma’ a partire da medie e varianze delle variabili costituenti. Infine rileveremo a quali condizioni processi di combinazione di variabili di questo tipo convergono alla distribuzione Normale. Il tassello elementare delle variabili casuali Torniamo a un esempio delle prime lezioni. Una Commissione composta da 11 deputati, 7 del Polo (P) e 4 dell’Ulivo (U), deve nominare un Presidente. I deputati rimettono alla sorte la nomina. Se si tratta di estrarre a sorte un solo presidente la probabilità di eleggere uno del Polo è P(P)=7/11=0,64, quella di uno dell’Ulivo è P(U)=4/11=0,36. Non ci sono altre Una Variabile Casuamodalità alternative. Infatti P(P)+P(U)=1. le è una successione Possiamo sintetizzare queste informazioni in una variaordinata di coppie di bile casuale X=“Coalizione del coordinatore”. Trattandovalori {xi, pi} univosi di due sole modalità alternative l’attenzione si può camente associati, concentrare sull’accadimento di una di esse, definendo relativi a un esperi‘Successo’ l’estrazione di quella modalità e ‘Insuccesso’ mento probabilistico, quella dell’altra. Si può associare alla prima modalità dove le xi indicano i valore numerico 1 (si tratta davvero di ‘un accadimenvalori associati agli to’, né di meno né di più), alla seconda il valore 0. esiti Questa ‘legge’ di distribuzione di probadell’esperimento e le 0 1 bilità è la più elementare che esiste: la pi le corrispon-denti X= definiamo ‘variabile di Bernoulli’. probabilità di P(0) P(1) estrarre casualmente la La distribuzione di Bernoulli Chiamiamo ellitticamente la probabilità di successo P(1)=p e quella di insuccesso P(0)=q. Di questa distribuzione (discreta, X= in quanto assume solo valori quantitativi discreti, e ‘notevole’ cioè definita da una ‘regola’ matematica) possiamo tracciare il grafico (un diagramma ad aste) e determinare i parametri di base, media e varianza. Si può dimostrare che: 0,7 La media della distribuzione di Bernoulli è E(X)=p La varianza è V(X)=pq, la deviazione standard X=pq A fianco il diagramma ad aste della variabile “Presidente del Polo”, con p=0,64, q=0,36=1-p, mX=0,64, 2X=0,23. Esempio. Si estragga a caso una delle 20 regioni italiane: 11 hanno presidenza di centrodestra, 9 di centrosinistra. La variabile “presidente di centrodestra” ha distribuzione X= 0 0,45 1 0,55 0 1 q p 0,6 0,5 0,4 0,3 0,2 0,1 0 0 1 2 E ( X ) xi pi (0 q) (1 p ) p i 1 2 E ( X ) xi pi (02 q) (12 p ) p 2 2 i 1 Var( X ) p ( p ) 2 p (1 p ) pq Dicotomie ed eventi rari DUE OSSERVAZIONI. La prima è che qualunque variabile può essere ricondotta a forma dicotomica. Per esempio: le regioni italiane hanno tassi di occupazione maschile a 25 e 34 anni compresi tra il 55% (Calabria) e il 91% (Trentino): posso aggregarli in forma di variabile discreta o per classi. Ma se fisso una soglia minima (l’80%) di occupazione di fatto trasformo la mia variabile quantitativa discreta (X=tasso di occupazione) in una variabile dicotomica “Regioni sotto la soglia fissata di occupazione”, con probabilità di estrarre una regione sotto la soglia p=10/20. La seconda osservazione è che una distribuzione di Bernoulli con p pari (o vicina) a 0,5 è una distribuzione simmetrica. Invece quanto più lontano è p da 0,5 (o molto più basso o molto più alto) la distribuzione sarà asimmetrica. Per questa particolare variabile maggiore è la asimmetria maggiore è la varianza. In particolare parliamo di eventi rari quando la probabilità di successo è molto bassa (per es. la probabilità che un anziano debba ricorrere a una struttura residenziale assistita è generalmente stimata dall’OMS intorno al 3%). =0,5x0,5=0,50 1 0,8 0,6 0,4 0,2 0 0 1 =0,97x0,03=0,17 1 0,8 0,6 0,4 0,2 0 0 1 Reiterare esperimenti bernoulliani Un’estrazione casuale da una popolazione dicotomica con probabilità di successo P(X) costante e indipendente da altre estrazioni si dice esperimento bernoulliano. Ma è raro che possa interessarci un singolo esperimento. Avremo in genere campionamenti costituiti da una sequenza di s estrazioni “con reimmissione nell’urna” (detti campionamenti ‘bernoulliani’), e cercheremo di capire quanti ‘successi’ (accadimenti del carattere sotto osservazione) si sono realizzati in s estrazioni. Torniamo alla commissione parlamentare e al caso in cui essa debba sorteggiare ogni settimana un presidente. A ognuno degli 11 assessori può capitare di essere estratto più volte: ogni estrazione è indipendente dalle precedenti. A ogni estrazione la probabilità che esca un deputato del Polo è pari al rapporto tra componenti del Polo in Commissione (7) e totale dei componenti (11) [P(P)=0,636, costante]. La distribuzione di Bernoulli X=“un presidente proveniente dal Polo” è: X= 0 1 q=0,364 p=0,636 Combinare i risultati di due esperimenti Ripetiamo il sorteggio tra i deputati. Su due sorteggi quelli andati al Polo possono essere due, uno o nessuno. Riportando le modalità dell’esperimento in forma di tabella a doppia entrata, possiamo capire in quali casi troviamo 0 delegati del Polo, in quali uno e così via. Per esempio, nella combinazione inscritta in un circolo esce uno del Polo al primo sorteggio (probabilità p) e uno dell’ Ulivo (probabilità q) al secondo: il numero di delegati del Polo sorteggiati è quindi 1. Qual’è la probabilità di questa combinazione? Sappiamo che in generale P(PU)=P(P)xP(U/P) (sesto postulato del calcolo delle probabilità), e quindi cambia molto se i due esperimenti sono influenzati l’uno dall’altro. Donde l’utilità di fare l’ipotesi di indipendenza tra le due variabili XI e XII. In tal caso infatti P(PU)=P(P)xP(U). Per esempio P(10)=p*q. Ma il risultato “1” (un eletto del Polo su 2) si può ottenere anche con la sequenza “primo sorteggiato dell’Ulivo, secondo del Polo”, con probabilità q*p di accadere. Le due sequenze {P,U} e {U,P} sono tra loro disgiunte, quindi la probabilità complessiva è la somma delle probabilità… XI XII 0 1 0 0 q*q 1 q*p q 1 1 p*q 2 p*p p q p 1 Così la somma di due variabili bernoulliane indipendenti dà luogo a una nuova variabile: X(2)= 0 1 2 q2 2pq p2 Da due a tre a ‘n’ esperimenti ripetuti La distribuzione di probabilità di una se0 1 2 quenza di due esperimenti bernoulliani ha una sua forma particolare. Ai valori X(2)= XI+XII= q2 2pq p2 X=0,1,2 associa come probabilità i prodotti delle probabilità ponderati per i Verificate voi che media e varianza sono: coefficienti binomiali (vedi il triangolo di E[X(2)]=2p Var[X(2)]=2pq Tartaglia) corrispondenti. Ma ora si può andare avanti, sorteggiando un terzo delegato, e sommando quindi la variabile XIII con la variabile appena calcolata X(2). Calcolando nella distribuzione congiunta le probabilità composte e poi sommando quelle che corrispondono a somme identiche (caselle cerchiate) perveniamo a una nuova variabile analoga alla precedente: X(3)= XI +XII+XIII= 0 q3 1 2 3pq2 3p2q 3 p3 X(2) XIII 0 1 2 0 1 0 1 q2*q q2*p 1 2pq*q 2 2pq*p 2 3 p2*q p2*p q p q2 2pq p2 1 dove E[X(3)]=3p; V[X(3)]=3pq Il triangolo di Tartaglia Ricapitoliamo. Se combino due esperimenti bernoulliani con probabilità costante p la distribuzione della somma è X={0,1,2} con corrispondenti numerosità {q2,2qp,p2}. Se combino tre di questi esperimenti bernoulliani la distribuzione della somma è X={0,1,2,3} con corrispondenti numerosità {q3,3q2p,3qp2,p3}. E così via.. Cavolo. Sono i termini dello sviluppo delle successive potenze di un binomio; e i coefficienti numerici sono i “coefficienti binomiali”; e tutto questo, termini e coefficienti, sappiamo condensarlo nel magico “triangolo” di Tartaglia. N q q2 q3 q4 q5 q6 p 2qp 3q2p 4q3p 3qp2 6q2p2 5q4p 10q3p2 h p2 p3 4qp3 10q2p3 1p4 5qp4 1p5 6q5p 15q4p2 20q3p3 15q2b4 6qp5 1p6 N ( N 1)( N 2)..( N h 1) h(h 1)( h 2)..3 2 1 Allora possiamo lanciarci a calcolare le probabilità, per esempio, di cinque presidenze del Polo su 6 settimane, o anche tutte e sei! O di altre combinazioni intermedie... La distribuzione binomiale .364 .133 .048 .017 .006 .002 … .025 … … .463 .253 .123 .056 .636 .404 .442 .322 .374 .195 .107 .341 .248 … .257 … .164 .298 .325 … .104 .227 .066 … … Ecco le risposte (nella sesta riga in blu). Data la composizione dell’urna (7 del Polo e 4 dell’Ulivo) c’è un 6,6% di probabilità per il Polo di fare l’en plein (6 presidenti in 6 settimane). E la composizione più frequente o ‘modale’ è 2U+4P in ordine vario (prob=32,5%). Ogni riga esprime dunque le probabilità di 0,1,2,..x ‘successi’ su n esperimenti bernoulliani identici. La somma di ogni riga (controllate!) è uno. Sintetizziamo questi risultati in forma di regola. Ecco la distribuzione di probabilità binomiale: x = 0, 1, 2, .. N La distribuzione binomiale corrisponde dunque all’esito di un processo di somma di tanti esperimenti bernoulliani ripetuti identici tra loro. X= N p(x) = x px qn-x Evoluzione della distribuzione binomiale Una distribuzione binomiale è totalmente definita da due parametri: il numero n degli esperimenti semplici combinati e la probabilità p costante di ‘successo’, cioè di accadimento dell’evento a cui siamo interessati. Per brevità la indicheremo con Bin(n,p). Costruiamo i diagrammi ad aste delle due distribuzioni binomiali con p=0,636 e rispettivamente n=3 e n=6. Ciò che si vede – a buon senso intuibile – è che al crescere di n il campo di variazione di X si allarga verso destra, e di conseguenza le probabilità si abbassano (la somma deve essere 1). In generale al crescere di n la distribuzione binomiale si espande indefinitamente. Possiamo quindi aspettarci che crescano sia media che varianza. In effetti avevamo già trovato che: se X Bin(2,p) allora m(X)=2p e V(X)=2pq; se X Bin(3,p) allora m(X)=3p e V(X)=3pq … Bin(3;0,636) pi 0,5 0,4 0,3 0,2 0,1 0 0 1 2 xi 3 Bin(6;0,636) 0,4 0,3 0,2 0,1 0 0 1 2 3 4 5 6 Esiste forse una regola per calcolare media e varianza di una variabile somma? Sì! xi Media e varianza di una somma di variabili Vale infatti una regola generale, qualunque siano le distribuzioni coinvolte: «La media della somma (o della differenza) di due variabili è pari alla somma (o alla differenza) tra le medie delle variabili componenti» E(XY) = E(X) E(Y) E(XY) = ij(xiyj)*pij = Per la varianza non vale una regola così semplice: = E(X) E(Y) c.v.d. = ij xi*pij ijyj*pij = = ixi*j pij jyj*i pij = = i x i pi j y j pj = «La varianza della somma (o differenza) di due variabili è pari alla somma (sempre) delle varianze delle variabili componenti, più (meno) una quantità detta Covarianza» V(XY)= Var(X) + Var(Y) 2Cov(XY) V(XY)=ij(xiyj)–E(XY)2pij=ijxiyj–mX–(mY)2pij=ij(xi–mX)(yj–mY)2pij= =ij(xi–mX)2pij+ij(yj–mY)2pij 2*ij(xi–mX)*(yj-mY)pij= =i(xi–mX)2pi + j(yj–mY)2pj 2cov(XY) = = Var(X) + Var(Y) 2cov(XY) q.e.d. chiamiamo covarianza o Cov(XY) l’espressione cerchiata (cos’è davvero la covarianza?) La varianza di una variabile somma è dunque qualcosa di più (o di meno) della pura somma delle varianze. Essa dipende anche dalla covarianza Cov(X,Y) = ij[(xi – mX)*(yj–mY)]*pij Dove, come sappiamo pij esprime la Prob [(X=xi)(Y=yj)]. La covarianza è una misura importantissima in analisi bivariata (e quindi la ritroveremo tra qualche lezione). Si può mostrare che se X e Y sono v.c. indipendenti (nel qual caso pij=pi*pj) la Cov(X,Y) si annulla e vale la regola particolare: «La varianza della somma (o della differenza) di due variabili tra loro indipendenti è pari alla somma (sempre) delle varianze» V(XY)= Var(X) + Var(Y) Per capire il ruolo di Cov(X,Y) nella somma di variabili basta ricordare il sesto postulato del calcolo delle probabilità: “Se A e B sono insiemi di eventi indipendenti allora P(AB)=P(A)*P(B)”. Analogamente se X e Y sono v.c. indipendenti, allora pij=P[(X=xi)(Y=yj)]=pi*pj e in questo caso la covarianza Cov(X,Y) si annulla: ij(xi – mX)*(yj–mY)pij =ixi –mXpij*jyj–mYpij =ixi –mXpi * jyj–mYpj =0*0=0 Asimmetria e distribuzione binomiale La Binomiale è la distribuzione di probabilità della somma di n esperimenti bernoulliani identici tra loro (p costante) ma anche tra loro indipendenti. Quindi Se X Bin(n,p) mX=np 2X=npq e X=npq. L’evoluzione della Binomiale dipende dal parametro p. Se p=0,5 esa conserverà la simmetria anche al crescere delle prove che si vengono sommando. Se l’evento è invece più raro la Binomiale ne risentirà. Bin(5;0,50) pi 0,4 m=2,5;=1,12 0,3 0,2 0,1 0 0 1 2 3 4 5 xi Supponiamo che vogliate partecipare a una prova di Bin(5;0,25) selezione, consistente in 5 test a risposta chiusa (sì0,5 m=1,25;=0,88 no) non avendo studiato un accidente. Rispondendo a 0,4 0,3 caso a ogni test avrete probabilità p=0,5 di azzeccar0,2 lo. Dopo 5 test (vedi figura) le probabilità di ottenere 0,1 4 e 5 successi saranno P(4)=0,156; P(5)=0,031. Se 0 per la sufficienza bastano quattro risposte giuste, 0 1 2 3 4 5 avrete il 18,7% di probabilità di farcela. Mica male! Ma se la prova prevede per ogni test quattro risposte alternative, di cui una sola è giusta (carognata!) la probabilità di azzeccare a caso la risposta giusta scende a p=0,25 le probabilità di ottenere 4 e 5 successi diventano P(4)=0,015;P(5)=0,001 e le vostre chances complessive di farcela scendono a meno del 2%. Forma della binomiale al crescere di enne Bin(20;0,50) 0,5 0,4 0,3 0,2 0,1 0 0,25 0,2 0,15 0,1 0,05 0 m=5,00;=1,94 10 8 6 m=1,00;=0,95 4 0 10 8 6 Bin(10;0,10) Bin(20;0,25) Bin(20;0,10) 0,3 m=2,00;=1,34 0,2 0,1 18 15 12 9 6 3 0 18 15 12 9 6 0 3 0 18 15 12 9 6 m=10,0;=2,24 3 0 0,2 0,15 0,1 0,05 0 4 m=2,50;=1,37 2 xi 0,3 0,25 0,2 0,15 0,1 0,05 0 0 10 8 6 4 m=5,00;=1,58 2 0 0,3p 0,25 i 0,2 0,15 0,1 0,05 0 Bin(10;0,25) 2 Bin(10;0,50) S’è già visto che se XBin(n,p) la media è np e X=npq. Quindi al crescere di n (cioè al moltiplicarsi degli esperimenti bernoulliani, o della dimensione del campione estratto) la distribuzione sposta il suo baricentro verso destra e si disperde indefinitamente. Ma la cosa più sorprendente riguarda la forma… Convergenza della binomiale alla simmetria Bin(30;0,25) Se p=1/2 è già simmetrica la v. di Bernoulli e tale resta la Bin(n,p) per ogni n 28 24 20 16 12 8 4 0 In blu Bin(10;1/4) 0,3 In rosso Bin(20;1/4) Se p=1/4 la binomiale già per n=10 ha forma simmetrica, figurarsi per n=30. Ma anche se p=1/10 (eventi rari) man mano che la curva al crescere di n si sposta assume una forma simmetrica.. m=3,00;=1,64 0,25 0,2 0,15 0,1 0,05 0 28 24 20 12 8 4 16 m=7,50;=2,37 0,25 0,2 0,15 0,1 0,05 0 0 Bin(30;0,10) In grigio Bin(30;1/4) 0 0 0 0 Una regola generale sembrerebbe essere che per n>30 qualunque binomiale tende a convergere a una forma simmetrica… Per evidenziare la tendenza alla simmetria disegniamo la binomiale in forma continua (scorretto ma efficace!) Campioni non bernoulliani e convergenza alla binomiale Dato un ‘esperimento bernoulliano’ ripetuto s volte su una popolazione di N elementi, di cui k di un tipo e (N-k) di un altro: Se il campionamento avviene ‘con reimmissione’, le s estrazioni sono tra loro indipendenti con probabilità costante e la probabilità di estrarre h ‘successi’ su s è definita dalla legge di distribuzione BINOMIALE. Se il campionamento avviene ‘senza reimmissione’ la probabilità ‘di successo’ è condizionata dall’esito delle prove precedenti e la probabilità di estrarre h ‘successi’ su s è definita dalla legge di distribuzione IPERGEOMETRICA. Le due distribuzioni differiscono, ma solo per piccole dimensioni della popolazione. Detta k/n=p e ricordando che la numerosità complessiva è quella del campione, è possibile confrontare media e varianza delle due variabili: Media Varianza Binomiale s*p s*p*q Ipergeometrica s*p s*p*q*(N-s)/(N-1) L’ipergeometrica ha media uguale alla corrispondente binomiale e varianza moltiplicata per il rapporto (N-s)/(N-1)<1. Rapporto che tende a 1 al crescere di N e dello scarto N-s. Dunque l’ipergeometrica ha dispersione minore, ma tende a convergere alla Binomiale al crescere dell’ammontare complessivo N della popolazione e dello scarto tra dimensione N della popolazione e dimensione s del campione. La variabile ‘media’ Chiusa la parentesi, torniamo al tema della convergenza e riepiloghiamo. Siano X1, X2, .. Xn, n variabili tra loro indipendenti e con uguale media e varianza 2. La v.c. somma ha V(iXi)=iV(Xi)=n2 e E(iXi)=iE(Xi)=n*. Nel caso particolare in cui Xi sia una Bernoulli con =p e 2=pq, la Bin(n,p) somma di n esperimenti bernoulliani avrà media np e varianza npq. Abbiamo seguito graficamente l’evoluzione della Binomiale. Per n crescente la distribuzione tende a una forma simmetrica e campanulare accattivante, ma (che guaio) che si espande e si disperde indefinitamente. Ma cosa succede se teniamo fermo il campo di variazione della variabile che si ottiene per combinazione delle variabili elementari considerando non la somma bensì la media di n v.c. indipendenti e identicamente distribuite? Si può provare che essa ha media E(xi)/n=, V(xi)/n=2/n e deviazione standard E(xi)=/n. Dimostrarlo richiede pochi passi. Date le proprietà di media e varianza E(k*X)=k*E(X) e V(k*X)=k2*V(X) si ottiene: E(xi)/n=(1/n)*E(xi)= =(1/n)*E(xi)=(1/n)*n= V(xi)/n=(1/n2)*V(xi)= =(1/n2)*V(xi)=(1/n2)n2=2/n La variabile ‘media’ e la convergenza stocastica Facciamo il punto della situazione, usando sempre come base la binomiale. La variabile Somma di n esperimenti bernoulliani identici tra loro e indipendenti si distribuisce secondo una Binomiale con media np e deviazione standard npq. Al crescere del numero n di estrazioni la curva assume forma simmetrica campanulare, ma con crescente dispersione e traslazione verso destra. Se considero invece la variabile Media degli stessi n esperimenti bernoulliani, essa si distribuisce secondo una Binomiale con media p e deviazione standard /n= [pq/n]. Al crescere del numero n di estrazioni la curva assumerà allora ancora forma simmetrica campanulare e per giunta centrata sul parametro p della popolazione, ma con crescente concentrazione intorno a tale parametro. Poiché /n0 per n se prendiamo un intorno di p piccolo quanto si vuole la probabilità di osservare modalità in tale intorno crescerà indefinitamente. Si dice che la v.c. media di n v.c. con media converge stocasticamente a per n Dunque, con la variabile Somma la forma simmetrica si disperde senza limiti, con la variabile Media essa tende al limite a concentrarsi intorno a un solo punto. Nessuna di queste due combinazioni di variabili (somma e media) produce una successione che converga a una forma standard. Come possiamo ‘tenere fermo’ il campo di variazione della combinazione lineare delle Xi? La variabile ‘somma di v.c. standardizzate’ Ma noi conosciamo il modo di ‘tenere ferme’ sia la posizione centrale che la dispersione di una v.c.: standardizzandola. Consideriamo allora n v.c. qualunque, indipendenti e identicamente distribuite (anche skew, non importa!), e costruiamo la successione delle v.v. somma standardizzate: S1=X1 Z1 =(S1-) / Per esempio, se X Z2 =(S2-2) / [2] Bin(n,p) la varia- S2=X1+X2 bile Somma stan- S =X +X +X Z =(S -3) / [3] 3 1 2 3 1 1 dardizzata è pari a Zn=(Sn-np)/(npq) … per ogni n. S =X Z =(S -n) / [n] n i n v.c. Media 0 5 6 7 8 9 10 1 2 3 11 n La nuova distribuzione converge non a un valore ma a una forma riconoscibile ed esprimibile matematicamente. Si parla di convergenza in legge. v.c. Somma 0 0 0 10 20 30 40 50 60 70 80 90 100 -4 -3 -2 -1 0 4 Il teorema del limite centrale La definizione di convergenza ‘in legge’ obbliga Enunciato formale:«Data una suca entrare nel mondo ‘alto’ della matematica. Facciamolo in punta di piedi. C’è convergen- cessione di v.c. X1..Xn, di cui siano za in legge quando la funzione di densità note le funzioni di ripartizione (cudi una variabile che si modifica in funzio- mulate) F1(X),F2(X)..Fn(X) si dice ne di un ‘contatore’ n (per esempio il nume- che Xn, converge in legge alla v.c. X per n quando limn Fn(X)= ro di esperimenti bernoulliani, o di estrazioni in un campione) tende per n, a combacia- F(X), salvo punti di discontinuità». re con una forma limite indipendente da n. Per primo fu De Moivre (1733) a dimostrare che la binomiale con p=0,5, standardizzata, converge in leg-ge al crescere delle prove n, alla normale N(np,npq). Ma il risultato più importante va sotto il nome di… Teorema del limite centrale: «Siano X1,X2..Xn n variabili qualunque, indipendenti e identicamente distribuite, con media e varianza 2. Sia Sn = X1+X2+..+Xn la successione delle variabili Somma con media n e varianza n2. E sia Zn=(Sn-n)/[n] la v.c. standardizzata ricavata da Sn. Si dimostra che la successione {Zn} converge in legge alla Normale ridotta N(0,1)» (Lindeberg-Levy). La distribuzione Normale ridotta E’ evidente l’importanza del Teorema del Limite. Esso dice che la distribuzione limite di una somma standardizzata di variabili (indipendenti tra loro), qualunque esse siano purché identiche, è sempre di tipo N(0,1): una distribuzione universale, che non dipende da nessun parametro! L’area sottesa alla curva in un intervallo dato è dunque fissa e tabulabile. 1 e 2 N ( 0,1) f ( z ) z2 2 f(-1<x<1)=68,2% 34,1% 34,1% 13,6% 13,6% 2,3% 2,3% 0 -4 -3 -2 -1 m-2 m- 0m 1 2 3 m+ m+2 4 La tavola della Normale ridotta Per usare la tavola della N(0,1) si cerca nella prima colonna (z=intero+primo decimale) e prima riga (secondo decimale) l’estremo superiore z di un intervallo 0<Z<z (z=0 corrisponde alla media): all’incrocio tra riga e colonna di entrata si individua la probabilità di quella regione: f(0<Z<z)=(z). Per es. f(0<Z<1,96)=0,475 e quindi: f(-1,96<Z<1,96)= =2(z)=0,95=95% Richiamo: come usare la tavola La tavola si limita a ‘tabulare’ le probabilità del campo di esistenza positivo della Normale ridotta. Il motivo è chiaro: poiché la curva è simmetrica, il campo di esistenza negativo è perfettamente speculare. Per esempio (come abbiamo appena visto) f(-z<Z<0)=(-z)=(z). Ricapitoliamo qui sotto alcuni esercizi di buon senso di calcolo di regioni via via più complesse: (z) Se z=1,96 Prob.di una regione superiore alla media e inferiore a z (z)=0,475 (z) Prob.di una regione superiore a z, superiore alla media 0,5-(z) 0 -4 -3 -2 -1 0 1 2 3 0,5+(z) (z) 0,5 4 Prob.di una regione dal valore minimo fino a z (cumulata) 0 -4 -3 -2 -1 -3 -2 -1 1 2 3 (w)+(z) Prob.di una regione irregolare intorno alla media (w)= (-w) 0 -4 0 (z) 0 0 1 2 3 4 -4 -3 -2 -1 0 1 2 3 4 4