Capitolo 3
Stima di parametri e intervalli
di confidenza
3.1
Stima di parametri
La statistica parametrica consiste nell’ipotizzare che i dati osservati provengano da un modello probabilistico ben definito eccetto per il valore di alcuni
parametri. Le osservazioni ci forniscono allora delle informazioni per inferire
il valore di tali parametri. Contrariamente all’approccio Bayesiano in cui vogliamo arrivare ad assegnare una probabilità ai possibili valori dei parametri,
nell’approccio frequentista (tuttora il più diffuso nella statistica inferenziale)
si ritiene che esista un valore vero dei parametri (non ha quindi senso assegnarvi una probabilità) e si tratta di stimarlo meglio possibile sulla base
delle osservazioni.
A questo scopo useremo delle statistiche, cioè dei valori numerici calcolati
a partire dai dati osservati: se x1 , . . . xn sono i dati osservati, una statistica
è una funzione g(x1 , . . . , xn ); ad esempio, la media campionaria x̄ = (x1 +
· · · + xn )/n è una statistica.
Generalizzando quanto detto prima sul campionamento, assumiamo che
le n osservazioni siano il risultato di n variabili casuali X1 , . . . Xn con una
data distribuzione che però contiene parametri ignoti. Ogni statistica può
essere considerata quindi il risultato della variabile casuale g(X1 , . . . Xn ) che
avrà anch’essa una sua distribuzione; potremo quindi parlare del valore atteso
o della varianza di una statistica, come visto nel capitolo dedicato a media e
varianza campionarie.
I parametri ignoti li rappresentiamo in genere con la lettera ϑ dove ϑ
può essere uni-dimensionale (ed essere quindi un unico parametro) oppure
multi-dimensionale (ad esempio potremmo non conoscere né la media µ né
23
la varianza σ 2 di una distribuzione normale e quindi ϑ rappresenterebbe la
coppia: ϑ = (µ, σ 2 ). Se conoscessimo ϑ, il modello probabilistico sarebbe
definito; indichiamo quindi con Pϑ0 (A) la probabilità di un evento A (che
coinvolge le variabili X1 , . . . Xn ) usando il valore ϑ0 per il parametro ignoto,
e con Eϑ0 (Y ) il valore atteso di una variabile casuale Y (costruita a partire
da X1 , . . . Xn ) usando il valore ϑ0 per il parametro ignoto.
In genere vogliamo stimare ϑ ovvero una delle componenti nel caso ϑ sia
multidimensionale; ad esempio, potrebbe essere ϑ = (µ, σ 2 ) e a noi interessa
stimare solo µ o solo σ 2 (o comunque è utile considerare separatamente le due
quantità). Volendo usare una notazione unica, scrivo che vogliamo stimare
la quantità τ (ϑ) dove τ è una qualche funzione del parametro ϑ. In genere
τ (ϑ) = ϑ se ϑ è uni-dimensionale, oppure se ϑ = (µ, σ 2 ) sarà τ (ϑ) = µ
oppure τ (ϑ) = σ 2 . La notazione τ (ϑ) è solo un modo per scrivere il problema
in generale, senza dover considerare troppi casi particolari.
Uno stimatore di τ (ϑ) è semplicemente una statistica che usiamo per
stimare τ (ϑ). Ovviamente vorremmo trovare una statistica g(x1 , . . . , xn )
che effettivamente approssimi il valore vero τ (ϑ). Siccome i dati x1 , . . . , xn
sono il prodotto delle variabili casuali X1 , . . . , Xn anche lo stimatore τ̂ =
g(X1 , . . . , Xn ) è una variabile casuale. Non possiamo quindi pretendere che
fornisca sempre il valore giusto.
Una delle proprietà che spesso si richiede ad uno stimatore è che sia
corretto (o non distorto), ossia che valga
Eϑ τ̂ = Eϑ g(X1 , . . . , Xn ) = τ (ϑ)
(3.1)
ovvero che se ripetessimo tante volte il processo di stima usando osservazioni
diverse, in media troveremmo il valore giusto.
Ci sono delle altre proprietà che si possono richiedere ad uno stimatore,
come quello di avere una varianza piccola (o minima possibile) in modo che
le deviazioni dal valore giusto non siano troppo grandi. Possiamo anche
domandarci se ci siano dei metodi standard per costruire stimatori. Esiste
tutta una teoria statistica che discute questi problemi, che però non affronto
in questo corso.
Mi limito a ricordare gli stimatori standard per media e varianza di una
distribuzione, ossia la media e varianza campionaria, visti prima come (1.6)
e (1.9).
Preferisco invece affrontare la stima intervallare, ossia il metodo per
assegnare un intervallo in cui si ritiene debba essere il valore vero τ (ϑ).
24
3.2
Intervalli di confidenza
Un intervallo di confidenza per τ (ϑ) al livello γ (tradizionalmente per γ si
usa il 95% o il 90% o il 99%) è un intervallo casuale (T1 , T2 ) dove T1 =
t1 (X1 , . . . , Xn ) e T2 = t1 (X1 , . . . , Xn ) sono funzioni dei dati e quindi sono
variabili casuali tali che
Pϑ (T1 ≤ τ (ϑ) ≤ T2 ) ≥ γ
∀ ϑ.
(3.2)
La relazione (3.2) va letto come la probabilità che l’intervallo casuale (T1 , T2 )
contenga il valore vero e non come la probabilità che τ (ϑ) appartenga ad
un dato intervallo, perché nel modello usato τ (ϑ) è un numero (non una
variabile casuale) e quindi non ha senso parlarne di probabilità (non avrebbe
senso parlare della probabilità che 3 sia minore di 5).
In altri termini, se ad esempio γ = 95%, chiedamo che se ripetessimo 100
volte le osservazioni con lo stesso ϑ, costruendo ogni volta l’intervallo casuale
(T1 , T2 ) (che sarà diverso tutte le volte), ci aspetteremmo che 95 di queste
volte il valore vero τ (ϑ) sarebbe nell’intervallo costruito e 5 volte sarebbe
fuori.
Come facciamo a costruire un intervallo di confidenza? Senza voler fare
una teoria generale, facciamo alcuni esempi. Si noterà nel seguito una certa
similarità al problema del test di ipotesi.
3.2.1
Intervallo di confidenza per µ con σ 2 noto.
Supponiamo che X1 , . . . , Xn siano normali indipendenti di media µ e varianza
σ 2 . Vogliamo trovare un intervallo di confidenza per µ supponendo che σ 2
sia noto (anche se la situazione mi sembra improbabile).
2
Abbiamo già visto che in questo caso X̄ ∼ N (µ, σn ). Questo fatto si può
anche scrivere come
√
X̄ − µ
n(X̄ − µ)
√ =
Z=
∼ N (0, 1).
σ
σ/ n
Dalle tabelle della distribuzione normale troviamo zγ tale che
P(|Z| ≤ zγ ) = γ.
Ad esempio, se γ = 95%, zγ = 1.96.
Usando la definizione di Z, abbiamo allora
√
n(X̄ − µ)
≤ zg ) = γ
P(−zg ≤
σ
25
(3.3)
Poiché
√
σzg
n(X̄ − µ)
⇐⇒ µ ≤ X̄ + √
−zg ≤
e
σ
n
√
n(X̄ − µ)
σzg
≤ zg ⇐⇒ X̄ − √ ≤ µ
σ
n
possiamo riscrivere (3.3) come
σzg
σzg
P(X̄ − √ ≤ µ ≤ X̄ + √ ) = γ.
n
n
(3.4)
σz
√ g , X̄ + √ g ) è un
Confrontando (3.4) con (3.2) possiamo dire che (X̄ − σz
n
n
intervallo di confidenza per µ al livello γ.
Dalla definizione sarebbe possibile anche scegliere intervalli di confidenza
non simmetrici. Ad esempio si ha anche
P(−1.75 ≤ N (0, 1) ≤ 2.33) = 95% = P(−1.96 ≤ N (0, 1) ≤ 1.96),
√ , X̄ + σ2.33
√ ) è un intervallo
Usando questo fatto possiamo dire che (X̄ − σ1.75
n
n
σ1.96
√ ). E’ pero
di confidenza per µ al 95% tanto quanto lo è (X̄ − √n , X̄ + σ1.96
n
consuetudine (giustificabile in vari modi) scegliere intervalli di confidenza
σz
√ g , X̄ + √ g ) è l’intervallo
simmetrici (in probabilità) e quindi diremo che (X̄ − σz
n
n
di confidenza per µ al livello γ
3.2.2
Intervallo di confidenza per la probabilità di successo nel modello binomiale
Approssimazione normale.1
Come si è visto, il modello binomiale è molto utilizzato ed è naturale volere
stimare la probabilità di successo p. Ad esempio, possiamo aver fatto un
sondaggio elettorale su un campione di n elettori e vogliamo dare un intervallo
di confidenza per la vera percentuale di votanti per il candidato Y.
Possiamo formalizzare il tutto dicendo che Xi = 1 in caso di successo alla
prova i, i = 1 . . . n (con probabilità p che vogliamo stimare) e Xi = 0 incaso
di insuccesso (con probabilità 1 − p)
Chiamando S = X1 +· · ·+Xn il numero di successi, abbiamo che la media
campionaria X̄ = S/n è lo stimatore naturale della media µ di Xi , ossia di
p; chiameremo p̂ = S/n.
Per trovare un intervallo di confidenza, possiamo usare il fatto che X̄ è
approssimativamente normale se n è grande, ossia X̄ ∼ N (p, p(1 − p)/n).
Applicando brutalmente il calcolo compiuto per l’intervallo di confidenza per
26
µ nel caso di σ 2 noto (possiamo
usare√
la formula (3.4) con σ 2 = p(1 − p)/n e
√
p̂(1−p̂)zg
p̂(1−p̂)zg
n = 1), troveremmo (p̂− √n , p̂+ √n ) come intervallo di confidenza
per p al livello γ.
Se ad esempio fosse n = 6, S = 4 eqquindi p̂ = 2/3,
q e scegliessimo γ =
1 2
1
, 3 + 1.96 27
) ≈ (0.290, 1.044).
95%, otterremmo l’intervallo ( 32 − 1.96 27
Queto calcolo è poco ragionevole per due motivi: prima di tutto perché abbiamo utilizzato p̂(1−p̂) per la varianza, come se essa fosse nota; in secondo luogo
perché n = 6 certamente non è abbastanza grande perché l’approssimazione
normale sia giustificata.
Approssimazione normale.2
Per correggere il primo problema, notiamo che il teorema centrale afferma
che
√
n(p̂ − p)
p
=⇒ N (0, 1).
p(1 − p)
Quindi trovato zγ possiamo scrivere
√
n|p̂ − p|
≤ zγ ) = γ.
P( p
p(1 − p)
(3.5)
Dobbiamo quindi trasformare le disuguaglianze
√
n|p̂ − p|
p
≤ zγ in p1 ≤ p ≤ p2 .
p(1 − p)
Facendo il quadrato di entrambi i membri, abbiamo
n(p̂ − p)2
≤ zγ2 ⇐⇒ p2 (n + zγ2 ) − p(2np̂ + zγ2 ) + np̂2 ≤ 0,
p(1 − p)
(3.6)
che si risolve facilmente in p1 ≤ p ≤ p2 dove 0 < p1 < p2 < 1 sono le radici
dell’equazione quadratica ottenuta da (3.6).
Nell’esempio n = 6, S = 4, l’equazione è
9.84p2 − 11.84p + 2.66 = 0 =⇒ p1 = 0.30, p2 = 0.90
e quindi l’intervallo di confidenza al 95% sarebbe (0.30, 0.90).
Per tenere conto del fatto che si approssima una distribuzione discreta (la
binomiale) con una continua, si usa la correzione di continuità di Yates che va
al di là del livello di queste note. In R la procedura prop.test calcola (anche)
l’intervallo di confidenza per p, applicando (a meno che uno esplicitamente
27
indichi il contrario) la correzione di Yates. Calcolando questo esempio in R, si
trova che, grazie alla correzione di Yates, In questo modo l’intervallo trovato
è (0.24, 0.94), un po’ diverso da quanto trovato senza correzione. Se n è più
grande, la differenza fra gli intervalli di confidenza con e senza correzione di
Yates è invece molto piccola.
Intervallo di confidenza per la probabilità di successo nel modello
binomiale: calcolo esatto
E’ possibile calcolare l’intervallo di confidenza usando in modo esatto la distribuzione binomiale. Il calcolo è molto più lungo, ma se n è piccolo, vale decisamente la pena fare il calcolo esatto, se uno ha a disposizione un
computer.
Il metodo per il calcolo dell’intervallo di confidenza è generale, anche se
specificato solo per l;’esempio della binomiale. Consideriamo una funzione
dei dati che ci serve per stimare il parametro che ci interessa; in questo caso il
parametro è p, e come funzione scegliamo S, il numero di successi1 . Per ogni
p troviamo quali sono i valori possibili di S al livello di confidenza richiesto.
Per la precisione troviamo g1 (p) e g2 (p) tali che
• Pp (g1 (p) ≤ S ≤ g2 (p)) ≥ γ,
• Pp (S < g1 (p)) ≤
1−γ
,
2
Pp (S > g2 (p)) ≤
1−γ
.
2
Richiediamo ≤ 1−γ
, e non = 1−γ
perché S ha una distribuzione discreta
2
2
e non si può in genere trovare un valore g2 (p) tale che Pp (S > g2 (p)) = 1−γ
.
2
Ad esempio, se γ = 95%, n = 6 e p = 1/2, vediamo che Pp (S > 5) =
Pp (S = 6) = p6 = 0.01625 < 2.5%, quindi g2 (p) ≥ 5, ma Pp (S > 4) =
Pp (S = 5) + Pp (S = 6) = 0.109375 > 2.5%, quindi g2 (p) = 5. Analogamente
g1 (p) = 1.
1
potremmo usare anche p̂ = S/n, ma la notazione è più semplice usando S
28
Supponendo che g1 e g2 siano funzioni crescenti di p, possiamo considerarne le inverse g1−1 (S) e g2−1 (S) e poniamo t1 (S) = g2−1 (S), t2 (S) = g1−1 (S).
Abbiamo (vedi figura)
g1 (p) ≤ S ≤ g2 (p) ⇐⇒ t1 (S) ≤ p ≤ t2 (S).
(3.7)
Di conseguenza
Pp (t1 (S) ≤ p ≤ t2 (S)) = Pp (g1 (p) ≤ S ≤ g2 (p)) ≥ γ
∀p
cioè (t1 (S), t2 (S)) è un intervallo di confidenza per p al livello γ.
In realtà non abbiamo bisogno di costruire esplicitamente le funzioni g1
e g2 e di invertirle, e neanche che tali funzioni siano invertibili. Per esempio,
nel caso della distribuzione binomiale, g1 e g2 sono delle funzioni a scalino che
possono prendere solo i valori 0, 1, . . . , n e quindi non sono invertibili. Dal
disegno ci accorgiamo che, fissato un valore S0 se p < t1 (S0 ) si ha S0 > g2 (p)
e quindi Pp (S ≥ S0 ) ≤ (1 − γ)/2. Possiamo allora definire .
t1 (S0 ) = max{p : Pp (S ≥ S0 ) ≤ (1 − γ)/2}
t2 (S0 ) = min{p : Pp (S ≤ S0 ) ≤ (1 − γ)/2}.
(3.8)
La definizione (3.8) si può usare senza problemi anche al caso di distribuzioni
discrete.
Riprendiamo l’esempio precedente di un campionamento dalla binomiale
con n = 6, S = 4 e scegliamo γ = 95%. Per prima cosa dobbiamo trovare
{p : Pp (S ≥ 4) ≤ 0.025}, ossia l’insieme dei p tali che la probabilità di avere
almeno 4 successi su 6 tentativi sia più piccola del 2,5%. t1 (4) sarà il massimo
di tale insieme. Si ha
Pp (S ≥ 4) = Pp (S = 6)+Pp (S = 5)+Pp (S = 4) = p6 +6p5 (1−p)+15p4 (1−p)2 .
Ponendo f (p) = p6 +6p5 (1−p)+15p4 (1−p)2 , dobbiamo trovare il massimo valore di p tale che f (p) ≤ 0.025. Poiché f (p) è crescente2 in [0, 1] (l’insieme dei
valori posssibili per p), dobbiamo trovare p ∈ [0, 1] tale che f (p) = 0.025. Risolvendo questa equazione con l’aiuto di un apposito programma al computer
troviamo p ≈ 0.223, ossia t1 (4) ≈ 0.223.
Passiamo ora al limite superiore. Dobbiamo trovare min{p : Pp (S ≤ 4) ≤
0.025}.
Pp (S ≤ 4) = 1 − Pp (S = 5) − Pp (S = 6) = 1 − p6 − 6p5 (1 − p).
2
controllare
29
Questa volta dobbiamo risolvere 1 − p6 − 6p5 (1 − p) = 0.025, ossia
p6 + 6p5 (1 − p) = 0.975.
La soluzione è p ≈ 0.957, ossia t2 (4) ≈ 0.957.
In conclusione, l’intervallo di confidenza trovato è (0.223, 0.957).
Come si è visto, si tratta di calcoli non fattibili a mano, neanche nel caso
di numeri estremamente piccoli. Esistono delle tabelle per n piccolo, ma
soprattutto è possibile calcolare l’intervallo di confidenza tramite software
statistici; in R si usa l’istruzione binom.test.
3.2.3
Intervallo di confidenza per µ con σ 2 ignoto.
Supponiamo come prima che X1 , . . . , Xn siano normali indipendenti di media
µ e varianza σ 2 , ma che σ 2 non sia noto. I conti precedenti valgono ancora,
σz
√ g , X̄ + √ g ) non può essere considerato un intervallo di confidenza,
ma (X̄ − σz
n
n
perché non conosciamo σ e quindi non possiamo calcolare tale intervallo.
Si potrebbe sostituire σ con la varianza campionaria S 2 , ma allora i calcoli precedenti non sarebbero corretti, anche se, per n grande, l’intervallo
calcolato sarebbe quasi giusto, come discusso sotto. Consideriamo invece la
variabile ottenuta da Z sostituendo S 2 a σ 2 . Otteniamo
√
n(X̄ − µ)
X̄ − µ
√ =
.
T =
S
S/ n
Abbiamo già visto in (1.16) che T segue la distribuzione t(n − 1). Leggendo
le tabelle della distribuzione t con n − 1 gradi di libertà, possiamo allora
trovare tγ tale che
P(|T | ≤ tγ ) = γ.
Con passaggi analoghi ai precedenti, arriviamo a
Stγ
Stγ
P(X̄ − √ ≤ µ ≤ X̄ + √ ) = γ
n
n
(3.9)
St
√ γ , X̄ + √ γ ) è un intervallo di confidenza al livello γ per µ.
ossia (X̄ − St
n
n
La quantità tγ è sempre un po’ maggiore di zγ , quindi l’intervallo trovato
è un pochino più ampio di quanto avremmo avuto sostituendo S a σ nel caso
precedente. Però la distribuzione t(n) tende alla normale standard al crescere
di n → ∞; quindi la differenza fra i due casi diventa sempre più piccola fino
ad essere trascurabile per n > 100 e poco significativa già per n > 20.
In R la procedura t.test calcola (anche) l’intervallo di confidenza (di
default al 95%) per la media di un campione di dati.
30
I calcoli precedenti valgono solo se X1 , . . . , Xn seguono la distribuzione
normale. Però il teorema centrale afferma che X̄ si può approssimare con
una normale per n abbastanza grande. E’ quindi comune usare gli intervalli
di confidenza per la media calcolati sopra, anche nel caso in cui X1 , . . . , Xn
non seguano la distribuzione normale, purché n non sia troppo piccolo e le
distribuzioni di Xi troppo asimmetriche.
3.2.4
Intervallo di confidenza per la varianza
Si è detto in (1.15) che (n − 1)S 2 /σ 2 segue una distribuzione chi-quadro con
n − 1 gradi di libertà, se X1 , . . . , Xn sono distribuiti secondo una normale (e
vi si avvicina per n grande, qualunque sia la distribuzione di X1 , . . . , Xn ).
Possiamo usare questo fatto per calcolare gli intervalli di confidenza per
σ 2 . Fissato il livello di confidenza γ, troviamo c1 e c2 tali che
P(c1 ≤ χ2 (n − 1) ≤ c2 ) = γ,
1−γ
P(χ2 (n − 1) ≤ c1 ) =
= P (χ2 (n − 1) ≥ c2 ).
2
(3.10)
[Notare che in (3.10) abbiamo scelto c1 e c2 in modo che le probabilità dei
segmenti esclusi sia uguale sui due lati].
Ad esempio, se γ = 95% e n = 20, ossia n − 1 = 19, troviamo c1 ≈ 8.9,
c2 ≈ 32.9.
L’equazione (3.10) indica che
P(c1 ≤
(n − 1)S 2
≤ c2 ) = γ.
σ2
E’ molto semplice riscrivere questa espressione in termini di un intervallo di
confidenza per σ 2 . Infatti
c1 ≤
(n − 1)S 2
(n − 1)S 2 (n − 1)S 2
(n − 1)S 2
2
2
⇐⇒
σ
≤
e
≤
c
⇐⇒
σ
≥
.
2
σ2
c1
σ2
c2
2
2
( (n−1)S
, (n−1)S
) è quindi un intervallo di confidenza al livello γ per σ 2 .
c2
c1
Supponiamo per esempio che con n = 20 abbiamo trovato S 2 = 1.9.
L’intervallo di confidenza al 95% per σ 2 satà circa (1.10, 4.05).
Se n = 100, l’intervallo di confidenza sarebbe (1.46, 2.56).
Non mi sembra che esista in R un’istruzione per calcolare direttamente
tale intervallo.
31
3.2.5
Intervallo di confidenza per la differenza fra le
medie di due gruppi
Spesso più che stimare quanto vale la media di una certa quantità in una
popolazione, ci interessa confrontare i valori di una quantità in due gruppi
diversi; per dare qualche esempio della cui verosimiglianza biologica non sono certo, confrontare la concentrazione di clorofilla nelle piante di una certa
specie che crescono nel sottobosco con quelle che crescono nelle radure, ovvero fra le foglie appena spuntate e quelle più “vecchie” della stessa pianta;
confrontare i livelli di colesterolo fra le persone che svolgono attività sportiva
e quelle con vita sedentaria, oppure in un certo gruppo di individui prima e
dopo una cura farmacologica.
Gli esempi dovrebbero mostrare che ci possono essere due classi di osservazioni: quelle in cui i due gruppi studiati sono indipendenti, e quelle in
cui ci sono campioni naturalmente appaiati (le foglie della stessa pianta; la
stessa persona prima e dopo il trattamento). Il tipo di analisi e di ipotesi
sono diversi nei due casi.
Campioni indipendenti
Abbiamo due gruppi di campioni x1 , . . . , xn e y1 , . . . , ym , di cui supponiamo
2
X1 , . . . , Xn ∼ N (µX , σX
), Y1 , . . . , Ym ∼ N (µY , σY2 ), e indipendenti.
Vogliamo ottenere una stima di µX − µY , il cui stimatore più ovvio è x̄ − ȳ.
Si trova facilmente che
X̄ − Ȳ ∼ N (µX − µY ,
2
σ2
σX
+ Y ).
n
m
2
Supponendo di non conoscere σX
e σY2 , vogliamo ricondurci al caso della
distribuzione t usato nel caso di un solo campione.
Per potere procedere con passaggi matematici relativamente semplici, è
2
necessario fare l’ipotesi di uguaglianza delle varianze: σX
= σY2 = σ 2 . Quando si procede in questo modo, è bene assicurarsi (almeno tramite un’ispezione
veloce dei valori della varianza campionaria nei due gruppi) che tale ipotesi
sia verosimile. Senza questa ipotesi, le procedure diventano più complesse e
approssimate; in ogni caso, i programmi statistici analizzano senza problemi
anche il caso in cui le varianze sono diverse. Per esempio in R, il comando
t.test, quando viene usato per il confronto di due campioni, svolge i calcoli sotto l’ipotesi che le varianze siano diverse, a meno che l’utente chieda
altrimenti tramite l’opzione var.equal=TRUE.
32
Supponendo la varianza uguale nei due gruppi, prima di tutto ci serve
uno stimatore della varianza comune. Quello standard è
2
SX,Y
=
n−1
m−1
2
SX
+
S2
n+m−2
n+m−2 Y
2
2
dove SX
e SY2 sono la varianza campionaria nei due gruppi; si vede che SX,Y
è una media pesata (dalla dimensione del gruppo) delle varianze campionarie
dei due gruppi.
Poi, con dei conti analoghi a quelli usati per un gruppo solo, si vede che
X̄ − Ȳ − (µX − µY )
q
∼ t(n + m − 2).
S n1 + m1
(3.11)
Il modo di ottenere un intervallo di confidenza per µX −µY da (3.11) è uguale
ai casi precedenti. Fissato il livello di confidenza γ (es. 95%), troviamo tγ
tale che P(|t(n + m − 2)| ≤ tγ ) = γ. Allora
P(
|X̄ − Ȳ − (µX − µY )|
q
≤ tγ ) = γ
S n1 + m1
e con un po’ di manipolazioni algebriche troviamo
r
r
1
1
1
1
P(X̄ − Ȳ − tγ S
+
≤ µX − µY ≤ X̄ − Ȳ + tγ S
+ )=γ
n m
n m
ossia
r
1
1
(X̄ − Ȳ − tγ S
+ , X̄ − Ȳ + tγ S
n m
è un intervallo di confidenza per µX − µY .
r
1
1
+ )
n m
Campioni appaiati
Nel caso di campioni appaiati, necessariamente m = n e l’ipotesi generale
che facciamo è che
Xi − Yi ∼ N (µ, σ 2 ),
i = 1 . . . n.
Notiamo che non facciamo alcuna ipotesi su come le variabili Xi e Yi siano distribuite nella popolazione, ma soltanto che la loro differenza abbia una certa
distribuzione, normale, con dato valore atteso (µ su cui vogliamo ottenere un
intervallo di confidenza) e varianza.
33
Di conseguenza, posto Zi = Xi − Yi , cerchiamo di trovare un intervallo di
confidenza per la media della variabile Z; possiamo quindi usare le tecniche
viste nel caso di un singolo campione alla differenza dei due. Per fare i calcoli
avremo bisogno di conoscere
n
2
SX−Y
n
1 X
1 X
=
(zi − z̄)2 =
(xi − yi − (x̄ − ȳ))2
n − 1 i=1
n − 1 i=1
2
la varianza delle differenze. Informazioni su SX
e SY2 non sono quindi sufficienti, in questo caso.
3.3
La stima di massima verosimiglianza
Gli esempi di stima di parametri visti finora appaiono tutti metodi “ad hoc”
seppure ragionevoli. Esistono invece metodi generali per costruire stimatori
ed intervalli di confidenza.
Qui presento brevemente un metodo generale per costruire stimatori, il
metodo della massima verosimiglianza, giustificandolo soltanto perché convincente a livello intuitivo. Non discuto invece proprietà generali di tale
metodo.
La verosimiglianza è un termine che comprende i casi di probabilità sia
discreta sia continua. Siano x1 , . . . , xn i dati osservati. Se le variabili casuali
X1 , . . . , Xn previste nel modello (comprendente i parametri ϑ da stimare)
che si ritiene abbia generato i dati sono discrete, definiamo la funzione di
verosimiglianza L(·) come
L(ϑ) = Pϑ (X1 = x1 , . . . , Xn = xn ).
Se, come in tutti i casi considerati, X1 , . . . , Xn sono indipendenti, L si scrive
come prodotto
L(ϑ) = Pϑ (X1 = x1 ) · · · Pϑ (Xn = xn ).
Se invece le variabili casuali X1 , . . . , Xn sono continue, esse avranno una
densità f e porremo
L(ϑ) = fϑ (x1 , . . . , xn ) = (se X1 , . . . , Xn sono indipendenti) = fϑ (x1 ) · · · fϑ (xn ).
Esempi. Se X1 , . . . , Xn sono variabili casuali indipendenti distribuite secondo Poisson, il parametro da stimare è λ e x1 , . . . , xn sono i dati osservati
(necessariamente interi) avremo
L(λ) =
λxn −λ
λx1 +···+xn −λn
λx1 −λ
e ···
e =
e .
x1 !
xn !
x1 ! · · · xn !
34
Se X1 , . . . , Xn sono variabili casuali indipendenti normali, i parametri da
stimare sono µ e σ 2 e x1 , . . . , xn sono i dati osservati
L(µ, σ 2 ) = √
1
2πσ 2
e−
(x1 −µ)2
2σ 2
(x1 −µ)2 +···+(xn −µ)2
(xn −µ)2
1
2σ 2
··· √
.
e− 2σ2 = (2πσ 2 )−n/2 e−
2
2πσ
Se X1 , . . . , Xn sono variabili casuali di Bernoulli (ossia che può avere
valore 1 con probabilità p e 0 con probabilità 1 − p), ossia X1 + · · · + Xn è
una variabile casuale binomiale di parametri n e p dove n è noto mentre p è
da stimare, e i dati consistono in k successi e n − k insuccessi, allora
n k
L(p) =
p (1 − p)n−k .
k
Il criterio della massima verosimiglianza consiste nello stimare ϑ tramite
il valore ϑ̂ che rende L massima. In altre parole lo stimatore di massima
verosimiglianza ϑ̂ ha la proprietà che L(ϑ̂) = max L(ϑ) dove il massimo si
cerca su tutti i valori ϑ ammissibili.
Esempio. Consideriamo il caso della stima di p, la probabilità di successo in
un modello binomiale. Abbiamo visto L(p) = nk pk (1 − p)n−k . Per trovarne
il massimo, conviene passare ai logaritmi, ossia considerare
n
LL(p) = log(L(p)) = log
+ k log(p) + (n − k) log(1 − p)
k
la cui derivata
LL0 (p) =
k(1 − p) − (n − k)p
k − np
k n−k
−
=
=
p
1−p
p(1 − p)
p(1 − p)
E’ evidente che LL0 (p) = 0 se p = k/n, LL0 (p) > 0 se 0 < p < k/n,
LL0 (p) < 0 se k/n < p < 1 (trascuriamo il caso banale in cui sia k = 0
ovvero k = n). Di conseguenza il massimo di LL (e quindi anche di L) si
ha in p = k/n, ovvero lo stimatore di massima verosimiglianza p̂ = k/n, la
scelta più ovvia (numero di successi/numero di tentativi).
35
Scarica

Capitolo 3 Stima di parametri e intervalli di confidenza