VARIABILI ALEATORIE Sono presentate di seguito le nozioni di: Variabile casuale (o aleatoria) (o numero aleatorio) Funzione di probabilità Funzione di ripartizione Variabili aleatorie discrete Variabili aleatorie discrete doppie: – – – Variabili aleatorie continue: – funzione di probabilità congiunta funzioni di probabilità marginale funzioni di probabilità condizionale funzione di densità di probabilità Valori di sintesi di una variabile aleatoria (o valori caratteristici) Esempi ed esercizi LANCIO DI DUE DISTINTI DADI DA GIOCO: ESITI POSSIBILI (1,1) (1,2) (1,3) (1,4) (1,5) (1,6) (2,1) (2,2) (2,3) (2,4) (2,5) (2,6) (3,1) (3,2) (3,3) (3,4) (3,5) (3,6) (4,1) (4,2) (4,3) (4,4) (4,5) (4,6) (5,1) (5,2) (5,3) (5,4) (5,5) (5,6) (6,1) (6,2) (6,3) (6,4) (6,5) (6,6) VARIABILI ALEATORIE (O CASUALI) (O NUMERI ALEATORI) Con riferimento agli esiti del lancio di due dadi da gioco, si considerino le seguenti funzioni: x = punteggio realizzabile con il primo dado: x= 1, 2, …, 6; z = punteggio realizzabile con il secondo dado: z = 1, 2, …, 6; s = punteggio somma: s := x + z; s = 2, 3, …, 12; d = differenza tra i punteggi dei due dadi in valore assoluto: d :=|x - z|; d = 0, 1, 2, ..., 5. Nella tabella seguente sono riportate all’interno delle celle i valori di probabilità per ciascuna coppia di valori (s,d) possibili riguardanti le due variabili (o numeri) aleatorie s e d riportati rispettivamente nella prima riga e prima colonna Di seguito: X (maiuscolo) per indicare la funzione (numero) aleatoria; x (minuscolo) una generica determinazione delle possibili: x = 1, 2, …, 6; …... D (maiuscolo) per indicare la funzione (numero) aleatoria; d (minuscolo) una generica determinazione delle possibili: d = 0.1, …, 5. ESITI PROBABILITA’ CONGIUNTA PROBABILITA’ MARGINALI s d 0 1 2 3 4 5 Tot 2 3 1/36 4 5 1/36 2/36 6 7 1/36 2/36 2/36 8 1/36 2/36 2/36 2/36 9 2/36 2/36 11 1/36 2/36 2/36 10 12 Tot. 1/36 6/36 2/36 2/36 2/36 2/36 10/36 8/36 6/36 4/36 2/36 2/36 1/36 2/36 3/36 4/36 5/36 6/36 5/36 4/36 3/36 2/36 1/36 1 RAPPRESENTAZIONE GEOMETRICA DELLE FUNZIONI DI PROBABILITÀ MARGINALI Funzioni di probabilità. 0.4 0.3 Somma Differenza 0.2 0.1 0 0 1 2 3 4 5 6 7 8 9 10 11 12 13 RAPPRESENTAZIONE GEOMETRICA DELLA FUNZIONE DI PROBABILITA’ D := |X - Z |. p(di) = P(D = di), i=1,2,…,N. p(1)=10/36 p(0) = 6/36 p(5) = 2/36 (5, p(5)) 0 (1) 1 2 (2) 4 5 p(di) 0, i = 1,2,…,N; N 3 p(di) = 1. i 1 di FUNZIONE DI RIPARTIZIONE Siano: X = funzione reale di , con ; X: ; B = intervallo: B ; X-1(B) = contro immagine di B; X-1(B) := {: X() B}; Probabilità dell’intervallo B (B ) P(B) := P[X-1(B)] = P[{: X() B}]. Intervalli di interesse: B = (-, x], x ; Funzione di ripartizione: F(x) := P(X x) = P{X-1((-, x])}, x ; RAPPRESENTAZIONE DELLA FUNZIONE DI RIPARTIZIONE F(d) = P(D d), d. 1 34/36 ° 30/36 ° 24/36 ° 16/36 ° 6/36 ° 0 1 2 3 4 5 d FUNZIONE DI RIPARTIZIONE: PROPRIETA’ La funzione di ripartizione F(x) di una variabile aleatoria X soddisfa le seguenti proprietà: (i) F(x+) F(x), 0; (F(x) è monotona non decrescente) (ii) (iii) (iv) lim F(x+) = F(x), lim F(x) = 0; lim F(x) = 1. 0 x x 0; (F(x) è continua da destra) ; VARIABILI ALEATORIE DISCRETE Chiameremo variabili aleatorie (v.a.) discrete le v.a. che possono assumere con probabilità non nulla un numero finito o una infinita numerabile di determinazioni. Esempi. X = numero dei successi in n prove (n 1); x = 1,2,…,n; Y = numero d’ordine dell’uscita per la prima volta della faccia “sei” nel lancio successivo di un dado da gioco; y = 1,2,…, Z = voto conseguibile nell’esame di “statistica” nel caso di superamento dell’esame; z = 18, 19,…,30; W = punti percentuali arrotondati al decimale della variazione giornaliera del prezzo (quotazione) di un titolo azionario; w = …, -0.3, -0.2, -0.1, 0, 0.1, 0.2, 0.3, …; X1 = altezza del primo studente cafoscarino incontrato al mattino di oggi nella fondamenta di S. Giobbe, arrotondata al centimetro. Nel caso di variabili discrete risulta: F(x) = p(xi); xi x x . SUL RITARDO DI UN NUMERO NEL GIOCO DEL LOTTO. Si supponga che il 13 sia in ritardo di ben x = 52 “giornate” (giornate nelle quali avvengono le estrazioni; di seguito semplicemente “estrazioni”) sulla ruota di Venezia. Ci si chiede di valutare la probabilità che venga estratto entro le prossime z = 10 successive estrazioni, sempre della ruota di Venezia. Sia X il numero aleatorio “estrazione” nella quale appare per la prima volta il 13, x =1,2,… . Sia la probabilità che venga estratto il 13 in una estrazione, si ha: 1 89 90 = 1 4 5 = 5/90. Si ottiene: (1) P(X = x) = (1-)x-1, x = 1,2,… . Si dimostra che la valutazione di probabilità (1) è coerente con un processo di successive estrazioni con assenza di memoria, risultando: P(X > x+z | X x) = P(X > z), x =1,2..., z=1,2,… . Segue anche: P(X x+z | X x) = P(X z), x =1,2..., z=1,2,… . Infatti, risulta: P(X > x+z | X x) = P(X > x+z)/P(X x) = (1-)y-1 / (1-)y-1 = y x y 1 = (1-)x+z / (1-)x = (1-)z = (1-) y z 1 y-1 = P(X > z). y x 1 SOMMA DI UNA SUCCESSIONE FINITA DI n (n>1) ADDENDI IN PROGRESSIONE GEOMETRICA Si osservi che si ha: S = 1 + q + q2 + q3 + … + qn-1 = (1-qn)/(1-q). Infatti seguono: qS = q + q2 + q3 + … + qn-1 +qn = S -1 + qn . Dalla: qS = S -1 + qn , segue: S = (1-qn)/(1-q). (c.v.d.) Dati: b1, b2, b3,…, bn , se risulta: bi/bi-1 = q, i = 2,3,…,n, si avrà quindi: S = b1 + b2 + b3 +…+ bn = b1(1 + q + q2 + q3 + … + qn-1) = b1 (1-qn)/(1-q). VARIABILI ALEATORIE CONTINUE: FUNZIONE DI DENSITA’ DI PROBABILITA’ Funzione di densità di probabilità. Considerato l’intervallo B = {x: x1 x x2}, se esiste una funzione non negativa f(y), y B, integrabile (secondo Riemann) in B, per la quale risulta: x () F(x) = F(x1) + f(y)dy ; x: x1 x x2. x1 f(y) è chiamata funzione di densità di probabilità della variabile aleatoria nell’intervallo B = {x: x1 x x2}. La funzione di ripartizione (f.r.) F(x) è, per la (), assolutamente continua nell’intervallo B = {x: x1 x x2}. La variabile aleatoria X, in questo caso, viene detta continua nell’intervallo B = {x: x1 x x2}. Naturalmente B può essere un qualsiasi intervallo di o coincidere con . VARIABILI ALEATORIE CONTINUE: FUNZIONE DI DENSITA’ DI PROBABILITA’ Se la v.a. X è continua in , allora si avranno: x (1) (2) F(x) = f(y)dy ; P{(x1 < X x2]} = F(x2) - F(x1) = (3) f(y)dy x2 f(y)dy ; x1 x ; = 1. x1 x2; VARIABILE ALEATORIA UNIFORME CON SUPPORTO L’INTERVALLO [0, 2] Sia dato il cerchio di raggio unitario. Si considerino i settori circolari definibili a partire dall’origine OA, quale ad esempio il settore circolare AOB con arco di lunghezza x (0 x 2). Una lancetta imperniata nel centro della circonferenza, fatta girare, si potrà fermare in un punto aleatorio lungo la circonferenza definente un arco di lunghezza X dall’origine OA che può risultare interno oppure esterno all’arco del settore AOP. La probabilità che si abbia (0 X x) è valutata pari al rapporto tra la lunghezza x dell’arco AB e la circonferenza 2 del cerchio di raggio unitario. Pertanto, avendo posto: P (0 X x) = x/2, 0 x 2 ; Si avrà: 0, per x 0; F(x) = x/(2), per 0 x 2 ; 1, per 2 x. In questo caso posto: f(x) = 1/(2), per x: 0 x 2 e zero altrove, si ha: x F(x) = x f(y)dy = f(y)dy = x/(2), 0 x: 0 x 2. V.A. ESPONENZIALE La v.a non negativa con la seguente funzione di ripartizione: F(x) = 1 - exp(-x); per x 0; è denominata v.a con funzione di distribuzione Esponenziale. Si osservi che ponendo: f(x) = exp(-x); per x 0 e zero altrove, si ha: x F(x) = f(y)dy , x 0. 0 Si osservi che vale la seguente proprietà di assenza di memoria: P(X > x+z | X x) = P(X > z), x 0, z 0. Segue anche: P(X x+z | X x) = P(X z), x 0, z 0. Infatti risulta: P(X > x+z | X x) = P(X > x+z )/P(X x) = exp[-(x+z)]/exp(-x) = = exp(-z) = P(X > z) , x 0, z 0. Segue anche: P(X x+z | X x) = 1- P(X > x+z | X x) = 1- P(X > z) = P(X z), x 0, z 0. MEDIA DI UNA V.A. (O PREVISIONE, O VALORE ATTESO) Data la v.a. X con f.r. F(x), chiameremo media (o valore medio, o previsione) della v.a. X, che indicheremo con EF(X), o più brevemente E(X), il seguente valore: (1) Nelle specificazioni: se la variabile è discreta: xdF(x). E(X) = xip(xi) ; EF(X) := i se la v.a. è continua: E(x) = xf(x)dx . La (1) è definita sotto la condizione di assoluta sommabilità (nel senso dell’integrale di Riemann-Stieltjes): |x|dF(x) + . MEDIA DI UNA FUNZIONE DI UNA V.A. (O PREVISIONE, O VALORE ATTESO) Data la v.a. X con f.r. F(x), si consideri la funzione reale h(x). la v.a. Y = h(X), ha valore medio: EF{h(X)} := h(x)dF(x); sotto la condizione di assoluta sommabilità (nel senso dell’integrale di RiemannStieltjes): |h(x)|dF(x) + . PROPRIETA’ DEL VALORE MEDIO Data la v.a. X con f.r. F(x), valgono le seguenti proprietà esplicative della media = EF(X): (1) se P(x_min X x_max) = 1, allora: x_min x_max ; (2) E{(X-)} = 0; (3) E{(X-)2} E{(X-b)2}, b ; (4) (5) EF(X) = 0 0 [1-F(x)]dx - F(x)dx ; se H(x) = F(x) + (1 - )G(x), x , 0< <1, allora: EH(X) = EF(x) + (1 - )EG(x); (6) E{(a+bX)} = a + bE(X); (7) E(X+Y) = E(X) + E(Y). PROPRIETA’ DI ORDINAMENTO STOCASTICO Date le v.a. X ed Y con f.r. rispettivamente F(x) e G(y), se si ha: X() Y(), ; P(X z) P(Y z), z ; F(z) G(z) , z ; EF(X) EG(Y). Se si ha: F(z) G(z) , z ; scriveremo: XF YG; diremo che la v.a. X è dominata dalla v.a. Y (o che Y domina X). VARIANZA DI UNA VARIABILE ALEATORIA La varianza di una v.a. X, denotata con Var(X) è definita come segue: Var(X) := E{[X-E(X)]2}. La varianza di una variabile aleatoria sarà denotata anche con il simbolo 2. Posti: = E(X); = + E{( X ) 2 } ; è denominata “scarto quadratico medio” (o standard error). Le seguenti proprietà sintetizzano il significato conoscitivo della varianza. (1) 2 E{(X-b)2}, b ; (2) E{[(X-)/]2} = 1; (3) E{(X-)2} = E(X2) - 2; (4) Var{(a+bX)} = b2Var(X). Dalla (3), risultando E{(X-)2} 0, segue con immediatezza: (5) [E(X2)]1/2 E(X). Date le v.a. (X,Y) con f.r. congiunta F(x,y), si ha XY e quindi: F(x,y) = F1(x)F2(y), con F1(x) e F2(y) f.r. marginali rispettivamente di X e Y, allora segue: (6) Var(X+Y) = Var(X) + Var(Y). V.A. DI BERNOULLI La v.a con funzione di probabilità seguente: ______________________ x = 0 1 ______________________ p(x|) = (1 - ) ______________________ con compreso tra zero ed uno (0 1) è chiamata v.a. con f. p. di Bernoulli. Risultano con immediatezza: E(X) = ; Var (X) = (1 - ). LA V.A. BINOMIALE La v.a. discreta X, con supporto costituito dai primi n (n 1) numeri interi: x=0,1,2,…,n; con funzione di probabilità p(x|,n) dipendente dai parametri ed n: n x(1 x )(n-x) , x = 0, 1, 2, …, n; 0 < <1; n 1; p(x|,n) = è chiamata v.a. (con funzione di probabilità) Binomiale. Genesi: La v.a. Binomiale è leggibile come v.a. numero dei successi in n prove e dunque come somma di n v.a. Zi, i=1,2,…,n, a due a due stocasticamente indipendenti con medesima funzione di probabilità di Bernoulli (medesimo valore di ). Date n v.a. Zi, i=1,2,…,n, si nha: n (10) E( Zi) = E(Zi) i 1 Date n v.a. Zi, i=1,2,…,n, a due a due stocasticamente indipendenti, vale la seguente proprietà: n n (11) Var( Zi) = Var(Zi). i 1 i 1 i 1 Pertanto, la media (o previsione o valore atteso) e la varianza della v.a. Binomiale risultano: E(X|,n) = n; Var(X|,n) = n(1 - ). V.A. DI POISSON Si consideri la v.a. X con f.p. Binomiale e cioè con funzione di probabilità p(x|,n) dipendente dai parametri ed n: n p(x|,n) = x x(1- )(n-x) , x = 0, 1, 2, …, n; 0 < <1; n 1. Risultano: E(X|,n) = n; Var(X|,n) = n(1-). Sotto il vincolo che si abbia n = , ( > 0) e quindi = /n, si dimostra che segue: (1) lim La v.a. con funzione di probabilità data dalla (1) è chiamata v.a. di Poisson. La f.p. (1) è nota come funzione di probabilità degli eventi rari di Poisson. Il valore medio e la varianza risultano rispettivamente pari a: E(X) = Var(X) = n x(1n x )(n-x) = e- x / x!, x = 0, 1, 2, … . lim E(X|,n) = lim n(/n) = ; n n lim Var(X|,n) = lim n(/n)(1-/n) = . n n FUNZIONE DI PROBABILITA’ DI POISSON Ponendo = /n, risulta: n x Valendo il seguente limite notevole: lim (1 - /n)n = e- ; x(1- )(n-x) = (n/n)(1-1/n)(1-2/n) • • • [1-(x-1)/n]nx(/n)x[1-(/n)]n[1-(/n)]-x /x! e risultando: lim (1 - /n)-x = 0, per ogni x fissato n segue: n lim x n n x(1- )(n-x) = e- x/x!, x = 0, 1, 2, … . Valendo il seguente sviluppo in serie: e = x/x!, x 0 segue: E(X) = xe- x/x! = e- x 0 x-1/(x-1)! = . x 1 V.A. IPERGEOMETRICA La v.a. X con funzione di probabilità seguente: M N M p(x|n,M,N) = x n x N n con x intero : max{0, [n-(N-M)]} x min{n, M}, e chiamata v.a. ipergeometrica (o con f.p. ipergeometrica). Il valore medio e la varianza risultano rispettivamente pari a: E(X) = n(M/N); Var(x) = n(M/N)(1-M/N)[(N-n)/(N-1)]. Genesi: Può essere determinata quale variabile aleatoria numero dei successi su n estrazioni senza reinserimento (o in blocco) da un’urna contenete M palline Bianche ed (N-M) palline Nere, chiamando successo l’uscita di una pallina Bianca. LA V.A. GEOMETRICA La v.a. X con funzione di probabilità seguente: p(x| ) = (1-)x-1 , x= 1, 2, …; 0 1; è denominata v.a.con f.p. geometrica. Genesi: Numero d’ordine nel quale, in successivi esperimenti condotti nelle “medesime condizioni”, si verifica per la prima volta un evento avente probabilità di manifestarsi costante in ogni prova sperimentale e pari a . La media e la varianza risultano rispettivamente: E(X) =1/; Var(X) = (1- )/2. La media si ottiene come segue: E(X) = x 1 x(1-)x-1 = x(1-)x-1 = x 1 x 1 = -d[ (1-)x]/d = -d{ lim (1-)[1-(1-)n]/[1-(1-)]}/d = x 1 -d[(1-)x]/d = n = -d{(1-)/}/d = -(-1/2) = 1/; CONDIZIONE DI ASSOLUTA SOMMABILITA’ Si consideri il seguente gioco di sorte. Si lancia successivamente una moneta fino a quando si realizza per la prima volta l’evento “Testa”. Il numero x, lancio nel quale si realizza per la prima volta l’evento “Testa” è aleatorio con f.p. p(x|) geometrica, con = 1/2. Se un gioco di sorte prevede la vincita di 2x euro se si realizza Testa per la prima volta all’x-esimo lancio, si osservi che in questo caso la vincita media non è definita poiché: 2x(1/2)x 1 , diverge. E(2X) = Se un gioco di sorte prevede la vincita di 2x euro se si realizza Testa per la prima volta all’x-esimo lancio se pari e la perdita -2x euro se si realizza Testa per la prima volta all’x-esimo lancio se dispari, si osservi che in questo caso la vincita media non è definita poiché: x 1 = x 1 E{(-1)x2X} = (-1)x 2x(1/2)x = (-1+1-1+1-1+…), oscilla. x 1 In questi due casi non è soddisfatta la condizione di assoluta sommabilità della vincita aleatoria. V.A. CON FUNZIONE DI PROBABILITA’ UNIFORME La v.a. discreta X con determinazioni possibili (con probabilità diversa da zero) x = 1,2,…,N, ciascuna con probabilità pari a 1/N: ______________________________ x = 1 2 … … N ______________________________ p(x) = 1/N 1/N … … 1/N ______________________________ è denominata v.a. discreta con f.p. uniforme. Media, momento di ordine due e varianza risultano rispettivamente: E(X) = (1 + 2 +…+ N)/N = [(1+N)(N/2)]/N = (1+N)/2; E(X2) = (12 + 22 + … + N2)/N = [N(N+1)(2N+1)/6]/N Var(X) = E(X2) - [E(X)]2 = (N2 - 1)/12. Per la v.a. Dado, denotata di seguito con Z, ottenibile dalla v.a. con f.p. uniforme ponendo N = 6, si ottengono: E(Z) = (1+6)/2 = 3.5 ; Var(Z) = (62 - 1)/12 = 35/12 . SOMMA DI n ADDENDI IN PROGRESSIONE ARITMENTICA Dati: b1, b2, b3,…, bn , se risulta: bi-bi-1 = q, i = 2,3,…,n, si avrà: S = b1 + b2 + b3 +…+ bn-1 + bn = = b1 + (b1+q) + (b1+2q) + (b1+3q) + … + (b1+(n-2)q) + (b1+(n-1)q) = = (b1 +bn)(n/2) . Segue anche: S = [b1 + (b1+(n-1)q)](n/2) = nb1 +q(n-1)n/2. Vale la specificazione: (1 + 2 + 3 + … + N) = (1 + N)(N/2). SOMMA DEI QUADRATI DEI PRIMI n NUMERI INTERI Risultano: N (1+22+32+42+…+N2) = i2 = i 1 =1+ +2+2+ +3+3+3+ + .. + .. + .. + .. + .. + + N + N+ N + ..+ .. + N = N = i 1 N N i = = (-i2 + i + N2 + N)/2 . i 1 Segue quindi: i 1 (i+N)[(N-i+1)/2] i 1 j i N N N i2 = i 1 N -i2/2 + i 1 i/2 + N2(N+1)/2 ; e quindi: N i 1 i2 = (1/3)[(1+N)(N/2) + N2(N+1)] = N(N+1)(2N+1)/6. V.A. CON FUNZIONE DI DENSITA’ UNIFORME [0, 1] La v.a. X continua nell’intervallo (a, b), (a b), con supporto costituito dall’intervallo [a, b] {x: a x b}, con funzione di densità di probabilità f(x): f(x) = 1/(b - a), per x: a x b e nulla altrove; è chiamata v.a. (con funzione di densità di probabilità) Uniforme nell’intervallo [a, b]. Risultano: E(X) = (a+b)/2; Var(X) = (b - a)2/12. Per la v.a. Z con f.d. Uniforme nell’intervallo [0, 1], si ottengono: E(Z) = 1/2; Var(Z) = 1/12. V.A. ESPONENZIALE La v.a Esponenziale: F(x) = 1 - exp(-x); per x 0; ha media e varianza pari a: E(X) =1/ ; Var(X) = (1/)2. Si osservi che risulta: E(X) = 0 [1 - F(x)]dx = 0 exp(-x)dx = (1 / ) exp( x)0= 1/ ; V.A. CON FUNZIONE DI DENSITA’ DI PROBABILITA’ DI GAUSS (O NORMALE) La v.a. X Normale o di Gauss ha funzione di densità di probabilità: f(x|,2) = [22]-1/2exp[(-1/2)(x-)2/2], - x +; : - +; 2 0. Si hanno: E(X) = ; Var(X) = 2. Denotando con F(x|,2) la f.r. di una v.a. Normale con media e varianza 2 e con G(z|0,1) la f.r. di una v.a. Normale con media zero e varianza uno, si ha: F(x|,2) = G((x-)/|0,1). Risultano: ______________________________________ Intervalli Probabilità ______________________________________ - 0.675 x + 0.675 0.50 - x+ 0.6826 - 1.282 x + 1.282 0.80 - 1.645 x + 1.645 0.90 - 1.960 x + 1.960 0.95 - 2 x + 2 0.9544 - 2.576 x + 2.576 0.99 - 3 x + 3 0.9973 __________________________________ QUANTILI Data la v.a. X con f.r. F(x), si definisce quantile di ordine p (0 p 1), il valore xp F-1(p) definito come segue: xp F-1(p) := inf(x: F(x) p). Il quantile x0.5 è chiamato mediana della v.a. X. Per la v.a. con f.d. Normale risultano: x0.025 = - 1.960; x0.050 = - 1.645; x0.100 = - 1.282; x0.250 = - 0.675; x0.500 = ; x0.750 = + 0.675; x0.900 = + 1.282; x0.950 = + 1.645; x0.975 = + 1.960. DISUGUAGLIANZA DI CHEBYSHEV Per la v.a. X con media e varianza 2, fissato , vale la seguente disuguaglianza: P(| X - | ) 1 - 2/2. Si consideri la v.a. Y = (X - )2 e Z = h(X), definita come segue: x: | x - | , h(x) = 0 ; x: | x - | , h(x) = 2; Si avranno: E(Z) E[h(X)] = 2[1 - P(| X - | )]; E(Y) E[(X - )2] = 2; Y Z; E(Y) E(Z); e quindi: 2 2[1 - P(| X - | )]; da cui segue: P(| X - | ) 1 - 2/2. DISUGUAGLIANZA DI CHEBYSHEV (CONTINUAZIONE) Per la v.a. X con f.d.p. Normale risultano: ___________________________________________________________ Intervalli Probabilità Limite inferiore di Chebyshev ___________________________________________________________ - 1.645 x + 1.645 0.90 1 - 1/(1.645)2 = 0.630 - 1.960 x + 1.960 0.95 1 - 1/(1.960)2 = 0.739 - 2.576 x + 2.576 0.99 1 - 1/(2.576)2 = 0.849 ___________________________________________________________ DISUGUAGLIANZA DI JENSEN Data la v.a. X con f.r. F(x), e valore medio E(X), considerata la funzione h(X) con media E[h(X)], si avrà in generale: E{h(X)} h(E{X}). Se h(.) è una funzione monotona e quindi con funzione inversa h-1(.), seguirà: h-1(E{h(X)}) E{X}. (i) Se h(.) è una funzione convessa: h(x1 + (1-)x2) h(x1) + (1-)h(x2), :01; o equivalentemente: x0, (x0): h(x) h(x0) + (x-x0), x; si ha: E{h(X)} h(E{X}). Esempio. x2 è una funzione convessa di x; per la v.a. X segue pertanto: E(X2) [E(X)]2. (ii) Se h(.) e una funzione concava: -h(.) è convessa, si ha: E{h(X)} h(E{X}). Esempio. log(x), x0, è una funzione concava di x e può essere interpretata quale funzione di utilità del valore monetario x; per la v.a. positiva X segue pertanto: E{log(X)} log(E{X}). L’utilità attesa è minore-uguale all’utilità del valore monetario atteso. Il certo equivalente all’utilità attesa: x0: log(x0) = E{log(X)}, e cioè x0 = exp(E{log(X)}), è minore del valore monetario atteso E(X). IL PARADOSSO DI S. PIETROBURGO Si consideri il seguente gioco di sorte. Si lancia successivamente una moneta fino a quando si realizza per la prima volta l’evento “Testa”. Quanto si è disposti a versare per partecipare al gioco e vincere 2x euro se si realizza Testa per la prima volta all’x-esimo lancio? Si osservi che la v.a. numero d’ordine del lancio nel quale si realizza per la prima volta l’evento “Testa” ha f.p. Geometrica: p(x) = (1-)x-1, x=1,2,…, con E(X) = 1/ , con in questo caso =1/2. Risultano: E(2X) = 2x(1/2)x = E{log(2X)} x 1 1, x 1 n con lim ( 1 ) = + ; n = x 1 x 1 xlog(2)(1/2)x = log(2) x(1/2)x = log(2)E(x)=2log(2). x 1 Se si considera la funzione log(.) come funzione di utilità della vincita monetaria, si conclude come segue: la vincita monetaria attesa diverge e quindi dovremmo essere disposti a versare una cifra elevatissima per partecipare al gioco (ma così “paradossalmente” non accadrebbe), l’utilità attesa è finita e il certo equivalente risulta pari a: exp{2•log(2)} = 4. ASIMMETRIA Si consideri la v.a. X con funzione di probabilità p(x|n,) Binomiale. Se = 1/2, la funzione di probabilità è simmetrica con asse di simmetria passante per il punto x = x0.5 = . In questo caso risulta: E{(x - )2k+1} = 0, k =1,2,… . Se 1/2, la funzione di probabilità è asimmetrica a sinistra (o negativamente) risultando x0.5 . Se 1/2, la funzione di probabilità è asimmetrica a destra (o positivamente) risultando x0.5 . Quale indice di asimmetria della f.p. o f.d.p. di una v.a. X si considera il seguente rapporto: E{(x - )3}/[E{(x - )2}]3/2. CURTOSI Si può confrontare la legge di densità di probabilità di una qualsiasi v.a. con quella di una v.a. con f.d.p. Normale con uguale valore medio. In una v.a. con f.d.p. Normale risulta: E{(X-)4}/[E{(x-)2}]2 = 3. Pertanto per una v.a. continua X il seguente indice: = E{(X-)4}/[E{(x-)2}]2 - 3; potrà risultare: positivo, si dirà che la v.a. X ha f.d.p. ipernormale (o leptocurtica); negativo, si dirà che la v.a. X ha f.d.p. iponormale (o platicurtica); nullo, in tal caso si dirà che la v.a X non è né ipernormale, né iponormale. TEOREMA DEL LIMITE CENTRALE Nella sua versione più semplice, il teorema del limite centrale afferma che date n v.a. stocasticamente indipendenti: X1, X2, …, Xn, con: i = E(Xi); i2 = Var(Xi); i=1,2,…,n; la v.a. somma: S = X1 + X2 + …+ Xn; al divergere di n tende a distribuirsi con f.r. Normale: n S N(s| i , i 1 Posti: (n) = n i2). i 1 n i; i 1 2(n) n = i2; i 1 denotando con Fn(s|(n), 2(n)) la f.r. della v.a. S e con G(z|0,1) la f.r. della v.a. Normale standardizzata, si avrà pertanto: lim Fn(s|(n), 2(n)) = G([s-(n)]/(n)|0,1). n APPROSSIMAZIONE DELLA f.r. BINOMIALE Si possono approssimare i valori della funzione di ripartizione F(x|n,) di una v.a. con f.p. Binomiale con quelli di della f.r. G(x|n, n(1-)) di una v.a. Normale con medesima media e medesima varianza. Risulta in particolare: F(x|n,) G(x+0.5| n, n(1-)), x=0, 1, 2, …, n. Per n=10, =0.5, si ottengono i seguenti valori: ____________________________________________ x F(x|n,) G(x+0.5| n, n(1-)) ____________________________________________ 0 0.0010 0.0022 1 0.0108 0.0136 2 0.0547 0.0571 3 0.1719 0.1711 4 0.3770 0.3745 5 0.6230 0.6255 6 0.8281 0.8289 7 0.9453 0.9429 8 0.9892 0.9864 9 0.9990 0.9978 10 1.0000 0.9997 ____________________________________________ L’approssimazione è tanto più buona quanto più n è elevato e è prossimo a 0.5.