Capitolo 4
Il modello di regressione lineare
multivariato

Richiami al modello di regressione lineare semplice

Il modello di regressione lineare multipla

Violazione delle ipotesi e analisi dei residui

Modelli con variabile dipendente dicotomica
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
1/85
Copyright © 2009 – The McGraw-Hill Companies srl
L’analisi di regressione
Obiettivo: investigare sulle relazioni empiriche tra variabili per
analizzare le cause che possono spiegare un dato fenomeno

I modelli utilizzati sono basati su funzioni lineari nei parametri
del tipo Y = α + β X
Alcune funzioni non lineari sono riconducibili a lineari attraverso
opportune trasformazioni delle variabili:
Y = α Xβ  log Y = log α + β log X
Anche in caso di relazioni non lineari e non linearizzabili una prima
analisi fondata su forme funzionali lineari è un utile punto di
partenza per passare poi a eventuali modelli più complessi
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
2/85
Copyright © 2009 – The McGraw-Hill Companies srl
L’analisi di regressione
 Regressione semplice: una sola variabile indipendente o esplicativa;
Regressione multipla: più di una variabile indipendente
Esempio: effetti sulle vendite di un supermercato derivanti da
una azione di promozione
Da un campione di supermercati si rilevano le vendite settimanali
e la spesa settimanale per promozione  regressione semplice
Se si ritiene che anche altre cause influiscano sulle vendite si
rilevano anche altre variabili  regressione multipla
Obiettivi conoscitivi: c’è una relazione significativa tra il volume delle
vendite e la spesa per promozione (e le altre variabili) ?
Sulla base di tale relazione come prevedere il volume delle vendite a
seguito di una spesa settimanale per promozione di 1500 euro ?
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
3/85
Copyright © 2009 – The McGraw-Hill Companies srl
Le fasi di un’analisi di regressione lineare
- Si ipotizza una relazione funzionale lineare tra una variabile
oggetto di studio (variabile dipendente o risposta) e una o più
altre variabili (indipendenti o esplicative)
- Si stimano i parametri di tale relazione funzionale sulla base dei
dati campionari a disposizione
- Si effettuano i test statistici sulla significatività dei parametri e si
valuta la bontà dell’adattamento del modello ai dati
- Si effettuano altre analisi di conferma sulla validità delle
assunzioni su cui si basa la stima del modello (linearità e altro)
- Eventualmente, sulla base del modello stimato e di valori
ipotizzati per le variabili indipendenti si stimano i valori previsti
per la variabile dipendente
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
4/85
Copyright © 2009 – The McGraw-Hill Companies srl
Il modello di regressione lineare semplice
- Richiami
Su un campione di n unità sono osservati i valori relativi a due variabili:
Y variabile dipendente o variabile risposta
X variabile indipendente o variabile esplicativa
Esempio: Y volume delle vendite; X spesa per promozione
Campione di supermercati:
Diagramma di dispersione:
Vendite
(x100 euro)
Spesa prom
(x10 euro)
300
43.2
48
250
132
134
155
122
13
100.9
80
187.4
99
185
77
Vendite
76
200
150
100
50
0
0
60.7
50
82.9
44
61.3
25
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
20
40
60
80
100
120
140
-50
Spesa_prom
5/85
Copyright © 2009 – The McGraw-Hill Companies srl
Il modello di regressione lineare semplice
Relazione lineare ipotizzata:
Yi     X i  ui
i = 1, 2,…, n
α e β: parametri del modello di regressione
α: intercetta; β: coefficiente di regressione
u: termine di errore (discrepanze tra valori osservati di Y e quelli
derivanti da una relazione esatta con X). Comprende:
- errori di specificazione (alla spiegazione esatta di Y in genere
concorrono moltissime variabili esplicative, ma solo la principale
di esse – o le principali nel caso della regressione multipla – sono
inseribili nel modello);
- errori di misura o di risposta presenti nella variabile Y
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
6/85
Copyright © 2009 – The McGraw-Hill Companies srl
Le ipotesi del modello
Yi     X i  ui
i = 1, 2,…, n
ui: variabili casuali che si
ipotizzano:
- distribuite normalmente
- a media E(ui) = 0
- varianza costante E(ui2) = σ2u
- covarianza nulla E(ui , uj) = 0
X è assunta non affetta da errore di misura
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
7/85
Copyright © 2009 – The McGraw-Hill Companies srl
La retta di regressione stimata
In base alle n osservazioni campionarie: stime dei parametri
α e β del modello di regressione, indicate con a e b
Stimati i parametri, la relazione che lega le due variabili
corrisponde a una particolare retta nel piano:
Ŷ  a  bX
retta di regressione stimata
dove:
 Yˆ indica l’ordinata teorica corrispondente ad un dato
valore di X
 il coefficiente a - o intercetta - rappresenta l’ordinata
all’origine della retta
 il coefficiente di regressione b è il coefficiente angolare
della retta
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
8/85
Copyright © 2009 – The McGraw-Hill Companies srl
La stima dei parametri
La retta stimata è tanto più adatta a descrivere la relazione
tra le due variabili quanto più i punti osservati sono vicini a
tale retta, ovvero quanto minori sono i “residui campionari”
Esempio:
Regressione di Vendite da Spesa_prom (R²=0,507)
300
250
Yi
Vendite
200
ei : residui
| ei
150
Yˆi  a  bX i
100
campionari
50
0
0
20
40
60
80
-50
100
Xi
120
140
Spesa_prom
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
9/85
Copyright © 2009 – The McGraw-Hill Companies srl
La stima dei parametri
Criterio dei minimi quadrati (OLS):
a e b sono scelti in modo da minimizzare la somma dei quadrati
dei residui campionari ei  Yi  Yˆi  Yi  a  bX i
n
n
i 1
i 1
f (a, b)   ei2   Yi  a  bX i 
2
Le derivate parziali di f(a,b) rispetto ai parametri a e b :
n
f (a, b)
 2  (Yi  a  bX i )  0
a
i 1
n
f (a, b)
 2  X i (Yi  a  bX i )  0
b
i 1
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
n

Y  na  b X
i 1
n

n
i
i 1
i
n
n
i 1
i 1
2
X
Y

a
X

b
X
 ii  i  i
i 1
10/85
Copyright © 2009 – The McGraw-Hill Companies srl
La stima dei parametri
Dalla risoluzione del sistema di equazioni si ottengono le
seguenti stime dei parametri:
a  Y  bX
n
b   xi yi
i 1
n
2
x
i
i 1
( xi  X i  X ; yi  Yi  Y )
Codev( X , Y ) Cov( X , Y )
b

Dev( X )
Var ( X )
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
11/85
Copyright © 2009 – The McGraw-Hill Companies srl
Esempio – Stima dei parametri
Dati dell’esempio precedente:
stime dei parametri
Regressione di Vendite da Spesa_prom (R²=0,507)
300
250
Parametri
a
b
Stima
43.6
0.94
Vendite
200
150
100
50
0
0
20
40
60
80
100
120
140
-50
Spesa_prom
Yˆ  43.6  0.94 X
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
il coefficiente di regressione ci
dice che a seguito di un incremento
unitario della variabile X (una decina
di euro settim. di spesa di
promozione) la variabile Y subisce
un incremento di 0.94 (centinaia di
euro di vendite: 94 euro)
12/85
Copyright © 2009 – The McGraw-Hill Companies srl
Distribuzioni dei parametri
Punto di partenza: gli stimatori a e b sono esprimibili come
funzioni lineari di Yi
n
1
a  (  X
i 1 n
n
xi
Y
2 i
i 1  xi
b
xi
)Yi
2
 xi
i
i
Dove: Yi     X i  ui
e
ui
N  0; u2 
Ne consegue:
che gli stimatori a e b hanno distribuzione di probabilità normale
e che E(a) = α ; E(b) = β  stimatori corretti
Ne derivano le espressioni di Var(a) e Var(b):
2
1
X
Var (a)   u2 ( 
)
2
n  xi
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
i
Var (b) 
 u2
2
x
i
i
13/85
Copyright © 2009 – The McGraw-Hill Companies srl
Distribuzioni dei parametri
Distribuzione di probabilità degli stimatori a e b:
a

2 
N   ; u  1 n  X 2


2
xi  


i 1

N   ; u2

n
b
2
x

i 

i 1
n
Da cui le seguenti variabili standardizzate:
a 
u  1 n  X 2
n
2
x
i
i 1
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
b
N (0,1)
u
n
N (0,1)
2
x
i
i 1
14/85
Copyright © 2009 – The McGraw-Hill Companies srl
Distribuzioni dei parametri
Varianza dell’errore σ2u ignota; suo stimatore corretto s2:
n
s 2  ( ei2 ) / (n  2)
i 1
Dalle distribuzioni normali standardizzate alle distribuzioni t di
Student:
a 
s 1 n X 2
n
2
x
i
i 1
b
t( n2)
n
s
2
x
i
t( n2)
i 1
Denominatori: errori standard dei parametri
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
15/85
Copyright © 2009 – The McGraw-Hill Companies srl
Inferenza sui singoli parametri
Test di significatività per b :
H0:
β=0
H1:
β≠0
(H0: la variabile esplicativa X
non ha nessuna influenza
sulla variabile risposta Y)
La statistica test: rapporto tra stima e suo errore standard
b
n
s/
2
x
i
 t
2
sì
si respinge H0
β =0
no
si accetta H0
β =0
,  n2 
i 1
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
16/85
Copyright © 2009 – The McGraw-Hill Companies srl
Esempio – Stime e inferenza
Dati dell’esempio precedente: test sulle stime dei parametri
Stima
(1)
Errore
standard
(2)
t
(3)=(1)/(2)
p-value
(Pr > |t|)
Intercetta
43.566
25.839
1.686
0.130
Spesa_prom
0.937
0.327
2.868
0.021
Yˆ  43.6  0.94 X
P-value: livello di significatività
osservato (probabilità che, vera
H0 , t assuma un valore assoluto
≥ a quello osservato)
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
il p-value ci dice che il
test è significativo: il
suo valore ha staccato
un’area di probabilità pari a
0,021 sulla coda della
distribuzione; ci troviamo
quindi nella regione di
17/85
rifiuto del test
Copyright © 2009 – The McGraw-Hill Companies srl
Il modello di regressione multipla
Più variabili indipendenti o esplicative considerate congiuntamente
Nell’esempio: oltre alla spesa per promozione, anche superficie
espositiva e densità della popolazione
Obiettivo: stimare la relazione tra vendite e spesa per
promozione al netto degli effetti della superficie espositiva e
della densità
Caso generale: modello a k variabili, di cui k-1 indipendenti
Yi  1   2 X i 2  ...   k X ik  ui
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
(i  1,..., n)
18/85
Copyright © 2009 – The McGraw-Hill Companies srl
Il modello di regressione multipla
Yi  1   2 X i 2  ...   k X ik  ui
(i  1,..., n)
Per esteso:
Y1  1   2 X 12  ...   k X 1k  u1
Y2  1   2 X 22  ...   k X 2 k  u2
.
Yi  1   2 X i 2  ...   k X ik  ui
.
Yn  1   2 X n 2  ...   k X nk  un
In notazione vettoriale:
y  1x1   2 x 2  ...   k xk  u
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
y : vettore n osservazioni relative
alla variabile dipendente
x1: vettore n elementi unitari
xj (j = 2, 3,…, k): vettori
n osservazioni relative
alle k-1 variabili esplicative
u : vettore n termini di errore
β1 : intercetta
β2 , β3 , …, βk : coefficienti
di regressione del modello
19/85
Copyright © 2009 – The McGraw-Hill Companies srl
La notazione matriciale
Caso generale in forma matriciale:
y  Xβ  u
Dove:
Y1 
Y 
 2
. 
y   ;
Yi 
. 
 
Yn 
1
1

.
X= 
1
.

1
X 12 X 13 ... X 1k 
X 22 X 23 ... X 2 k 

.
. ... . 
;
X i 2 X i 3 ... X ik 
.
. ... . 

X n 2 X n 3 ... X nk 
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
 1 
 
 2
. 
β   ;
 j 
. 
 
k 
u1 
u 
 2
. 
u   .
ui 
. 
 
un 
20/85
Copyright © 2009 – The McGraw-Hill Companies srl
Le ipotesi del modello
1.
2.
la linearità del modello
le caratteristiche della matrice X:
- non stocastica (senza componenti di errore)
- a rango pieno  ρ(X) = k
(variabili linearmente indipendenti: nessuna variabile è
combinazione lineare delle altre)
3.
Le caratteristiche dell’errore u: u N (0, 2I) I .D.
- distribuzione normale
- media nulla: E(u) = 0
- varianza costante
} E(uu’) = σ2I
- covarianza nulla
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
21/85
Copyright © 2009 – The McGraw-Hill Companies srl
La stima dei parametri
Matrice di varianza-covarianza del termine di errore:
 E (u12 ) E (u1u2 ) ...   u2 0

 
2
E (uu ')   E (u2u1 ) E(u2 ) ...   0  u2
 ...
 ... ...
...
...

 
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
... 

... 
... 
22/85
Copyright © 2009 – The McGraw-Hill Companies srl
La stima dei parametri
Obiettivo dell’analisi: la stima del vettore dei coefficienti di
regressione b in modo da ottenere il modello:
yˆ  Xb
Dove ŷ è il vettore delle ordinate teoriche corrispondenti ai
valori stimati b
Per la generica unità i:
Yˆi  b1  b2 X i 2  b3 X i 3  ...  bk X ik
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
23/85
Copyright © 2009 – The McGraw-Hill Companies srl
La stima dei parametri
Metodo dei minimi quadrati: scegliere il vettore b in modo
da minimizzare la somma dei quadrati dei residui
Definizione vettore dei residui:
Y1  (b1  b2 X 12  ...  bk X 1k ) 
Y  (b  b X  ...  b X ) 
1
2 22
k
2k 
 2

e  y  yˆ  y  Xb  ...


...


Yn  (b1  b2 X n 2  ...  bk X nk ) 
Somma dei quadrati dei residui da minimizzare:
2
  y  Xb 

e

e
e

y

Xb


i
n
i 1
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
24/85
Copyright © 2009 – The McGraw-Hill Companies srl
La stima dei parametri
1. Somma quadrato dei residui:
ee   y  Xb   y  Xb   yy  yXb  bXy  bXXb 
 yy  2 bXy  bXXb
2. Derivata rispetto a b uguagliata a 0:
(ee)
min  ee  
 2 Xy  2XXb  0
b
b
3. Risoluzione rispetto a b:
b   XX  Xy
1
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
25/85
Copyright © 2009 – The McGraw-Hill Companies srl
La distribuzione dei parametri
b   XX  Xy
1
y  Xβ  u
b   XX  X  Xβ  u 
1
u
N (0, 2I)
b combinazione lineare di y e quindi di u: distribuzione normale
Dalla precedente espressione di b, poiché  XX  XX  I si ha:
1
b  β   XX  Xu
1
da cui, poiché E(u) = 0

E (b)  β
Proprietà 1: lo stimatore OLS di b
è non distorto
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
26/85
Copyright © 2009 – The McGraw-Hill Companies srl
La distribuzione dei parametri
Matrice di varianza-covarianza di b:
 E (b1  1 ) 2
E (b1  1 )(b2   2 ) ... 


E (b  β)(b  β)'   E (b2   2 )(b1  1 )
E(b2   2 ) 2 ...
....

....
....


(b  β)   XX  Xu
1
(b  β)(b  β)'  [ XX  Xuu ' X  XX  ]
1
1
E (b  β)(b  β)'  E[ XX  Xuu ' X  XX  ]   XX  XE (uu ') X  XX 
1
Poiché E(uu’) = σ2I

1
E (b  β)(b  β)'   2  XX  XX  XX 
E (b  β)(b  β)'   2  XX 
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
1
1
1
1
Proprietà 2: non esistono altri
stimatori lineari non distorti con
varianza inferiore (più efficienti)
27/85
Copyright © 2009 – The McGraw-Hill Companies srl
1
La distribuzione dei parametri
b

N β, 2  XX 
1

Distribuzione di bj ( j-imo elemento del vettore b):
bj
N   j , 2 a jj  ajj : j-esimo elemento sulla diagonale
principale della matrice ( XX) 1
Dalla distribuzione di bj segue che (per ogni j = 1, …k):
bj   j
 a jj
N  0,1
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
28/85
Copyright © 2009 – The McGraw-Hill Companies srl
Test sui singoli parametri
Sostituito σ con la sua stima corretta
n
s  [ ei2 / (n  k )]1 2
i 1
si ha:
t
bj   j
s a jj
t n  k 
Dove:
s a jj è l’errore standard della stima
t(n-k) è una distribuzione t di Student con (n-k) g.d.l.
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
29/85
Copyright © 2009 – The McGraw-Hill Companies srl
Test sui singoli parametri
Test di significatività per bj :
H0:
βj = 0
H1:
βj ≠ 0
(la variabile esplicativa Xj non
ha nessuna influenza sulla
variabile risposta)
La statistica test: rapporto tra stima e suo errore standard
bj
s a jj
sì
si respinge H0
βj =0
no
si accetta H0
βj =0
 t 2,  nk 
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
30/85
Copyright © 2009 – The McGraw-Hill Companies srl
Esempio - i dati
Variabile risposta:
volume delle vendite
Variabili esplicative:
- spesa settimanale per promozione
- superficie dello spazio espositivo
- densità di popolazione nella zona di ubicazione
Vendite
Spesa
prom
Spazio
espos.
Densità
43.2
48
95
55
132
134
144
77
155
122
210
88
76
13
156
66
100.9
80
188
68
187.4
99
321
156
185
77
250
90
60.7
50
115
25
82.9
44
178
99
61.3
25
105
44
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
31/85
Copyright © 2009 – The McGraw-Hill Companies srl
Esempio – l’analisi dell’output
Sintesi dell’output dell’analisi di regressione
Stima
Errore
standard
t
Pr > |t|
-22.901
16.773
-1.365
0.221
Spesa prom
0.516
0.171
3.020
0.023
Spazio espos.
0.700
0.195
3.590
0.012
Densità
-0.361
0.382
-0.944
0.382
Intercetta
I parametri evidenziati risultano significativamente diversi da 0
perché il test t ha dato luogo a p-value piuttosto piccoli, se si
considera un livello di significatività dello 0,05
I test hanno prodotto risultati che si trovano sulle code della
distribuzione, ossia nella regione di rifiuto dell’ipotesi nulla
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
32/85
Copyright © 2009 – The McGraw-Hill Companies srl
Esempio - interpretazione
Parametro b2 (0.52): all’aumentare della spesa per promozione di 10
Euro - a parità di altre condizioni - si ha un incremento delle vendite pari
a 0,52*100 Euro (52 Euro)
Parametro b3 (0.70): all’aumentare della superficie espositiva di un
metro quadrato si ha - a parità di altre condizioni - un incremento del
volume settimanale delle vendite pari a 0,70*100 Euro (70 Euro)
Parametro b4 – variabile non significativa: il test t ha prodotto un p-value
molto grande che fa cadere il risultato della verifica nella regione di
accettazione dell’ipotesi nulla  il parametro considerato è assimilabile a
zero  la variabile esplicativa corrispondente (densità della popolazione)
non influisce sulla variabile risposta (vendite settimanali)
Intercetta – non significativamente diversa da 0:
ai valori nulli di tutte le variabili esplicative corrisponderebbe un volume
di vendite pari a zero
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
33/85
Copyright © 2009 – The McGraw-Hill Companies srl
Esempio - interpretazione
L’effetto sulle vendite della spesa settimanale per la promozione :
- Regressione semplice: b = 0.94
- Regressione multipla: b2 = 0.52
Una volta controllato per altre variabili esplicative, l’effetto risulta molto
ridimensionato
Il modello a una sola variabile esplicativa non era correttamente
specificato
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
34/85
Copyright © 2009 – The McGraw-Hill Companies srl
L’adattamento del modello ai dati
La scomposizione della devianza della variabile Y in due
componenti additive:
- devianza spiegata dal modello di regressione
- devianza residua
Caso della regressione semplice:
V 250
o
l
200
u
m
e 150
v 100
e
n
50
d
i
0
t
0
e
Yˆi  a  bX i
Yˆi  Y
50
100
150
200
250
300
350
Spazio espositivo
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
35/85
Copyright © 2009 – The McGraw-Hill Companies srl
La scomposizione della devianza
2
ˆ
ˆ
ˆ
Y

Y

Y

Y

Y

Y

[(
Y

Y
)

e
]


 i
 i i i   i
i
n
2
i 1
n
2
i 1
n
i 1
Devianza totale - Total Sum of Squares (TSS)
2
ˆ
Y

Y

Y

Y

e


 i
 i   i
n
i 1
2
n
i 1
2
n
i 1
Devianza spiegata detta anche
somma dei quadrati spiegata
(ESS, Explained Sum of Squares):
parte di variabilità di Y spiegata
dal modello di regressione
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
Devianza residua detta
anche somma dei quadrati
residua (RSS, Residual Sum of
Squares): parte di variabilità
totale di Y che il modello non è
in grado di spiegare
36/85
Copyright © 2009 – The McGraw-Hill Companies srl
Il coefficiente di determinazione
Scomposizione della devianza :
TSS  ESS  RSS
Misura della bontà di adattamento del modello ai dati denominata
coefficiente di determinazione multiplo:
ESS
RSS
R 
 1
TSS
TSS
2
• R2 può assumere valori compresi nell’intervallo [0,1]
• Può essere interpretato come una misura della vicinanza
della nuvola dei punti campionari all’iperpiano stimato
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
37/85
Copyright © 2009 – The McGraw-Hill Companies srl
Il coefficiente di determinazione
Casi limite:
Il modello si adatta perfettamente ai dati
la variabilità di Y è completamente spiegata dal modello  tutti i
residui campionari sono nulli e nulla è la somma
dei loro quadrati (RSS)  TSS = ESS  R2 = 1
Il modello non si adatta per niente ai dati
il modello non riesce a spiegare nessuna parte della variabilità
di Y : Yˆi  Y (Y non dipende da X)  la devianza spiegata ESS
è pari a zero; tutta la variabilità di Y è nei residui  R2 = 0
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
38/85
Copyright © 2009 – The McGraw-Hill Companies srl
Il coefficiente di determinazione
multiplo corretto
Limite di R2: aumenta (migliora) quando nel modello si
inseriscono variabili aggiuntive (anche non significative)
Rimedio: correzione di R2 per tenere conto del numero di
variabili presenti nel modello
Tavola analisi varianza:
Origine
variabilità
Somma dei
quadrati
Gradi libertà
Media dei
quadrati
Modello
ESS
k–1
ESS / (k – 1)
Errore
RSS
n–k
RSS / (n – k)
In complesso
TSS
n–1
TSS / (n – 1)
R2  1
RSS (n  k )
n 1
 1
1  R2 

TSS (n  1)
nk
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
39/85
Copyright © 2009 – The McGraw-Hill Companies srl
Il coefficiente di determinazione
multiplo corretto
Esempio:
k
Somma quadrati
TSS
100
4
RSS1
40
5
RSS2
39
RSS
R  1
TSS
2
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
R2
Media
quadrati
gdl
R2 corr
n-1 = 29
3.448
0.60
n-k = 26
1.538
0.554
0.61
n-k = 25
1.560
0.548
R2  1
RSS (n  k )
TSS (n  1)
40/85
Copyright © 2009 – The McGraw-Hill Companies srl
Significatività del modello nel suo
complesso
R2 e R2 corretto sono misure descrittive della bontà di
adattamento, delle quali non è nota la distribuzione
 non vi si può fare un test per verificare l’ipotesi di
significatività del modello nel suo complesso
Test per la significatività del modello nel suo complesso:
statistica F di Fisher calcolata sulla tavola della analisi della
varianza (ANOVA  ANalysis Of VAriance)
ESS / (k  1)
RSS / (n  k )
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
F k 1,  nk 
41/85
Copyright © 2009 – The McGraw-Hill Companies srl
Inferenza sui parametri considerati
congiuntamente – test F
Tavola dell’analisi della varianza:
Verifica dell’ipotesi nulla:
•H0: β2 = β3 = … = βk = 0
•H1: almeno un βj ≠ 0 j=2, …, k
ESS /(k  1)
F
 F ,  k 1,  nk 
RSS /(n  k )
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
sì
si respinge H0
β2 =…= βk= 0
no
si accetta H0
42/85
Copyright © 2009 – The McGraw-Hill Companies srl
Inferenza sui parametri considerati
congiuntamente - Esempio
Dati dell’esempio precedente: output della tavola ANOVA
GDL
Somma dei
quadrati
Media dei
quadrati
(1)
(2)
(3) = (2)/(1)
Modello
3
23348.940
7782.980
Errore
6
1989.124
331.521
Totale corretto
9
25338.064
Fonte
F
Pr > F
23.477
0.001
Il risultato del test F produce un valore piuttosto elevato al
quale corrisponde un p-value molto piccolo che porta a
respingere l’ipotesi nulla: parametri tutti pari a zero (tranne
l’intercetta)
Conclusione: il modello è significativo nel suo complesso
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
43/85
Copyright © 2009 – The McGraw-Hill Companies srl
Variabili indipendenti qualitative
Inserite come variabili dummy:
Di = 1 se il fenomeno è presente;
Di = 0 altrimenti
Variabili qualitative dicotomiche
Esempio: invece della densità della
popolazione nell’area di ubicazione,
si può inserire una variabile dummy
che distingua gli esercizi ubicati nel
centro urbano dagli altri:
Di = 1 se l’esercizio è in centro
Di = 0 altrimenti
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
Vendite
Spesa
prom
Spazio
esp
D
centro
43.2
48
95
0
132
134
144
0
155
122
210
1
76
13
156
0
100.9
80
188
1
187.4
99
321
1
185
77
250
1
60.7
50
115
0
82.9
44
178
1
61.3
25
105
0
44/85
Copyright © 2009 – The McGraw-Hill Companies srl
Variabili indipendenti qualitative
Modello con variabili indipendenti quantitative e dummy:
Yi  1   2 X i  3 Di  ui
Di = 1 carattere presente
Di = 0 altrimenti
Per Di = 0  Yi  1   2 X i  ui
Per Di = 1  Yi  1   2 X i  3  ui  ( 1  3 )   2 X i  ui
Due rette di regressione parallele
- stessa pendenza: la variabile X ha lo stesso effetto sui due
sottocampioni (con carattere presente o assente), misurato da β2
- diversa intercetta: β3 è la differenza tra l’intercetta nel
sottocampione con carattere presente e quella del sottocampione
con carattere assente  differenza nel valore di Y per X = 0
 differenza nel valore di Y a parità di X
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
45/85
Copyright © 2009 – The McGraw-Hill Companies srl
Variabili indipendenti qualitative
Regressione di y da x (R²=0,983)
25
25
20
20
15
y
y
15
10
10
5
5
0
0
5
10
15
20
25
0
0
x
5
10
15
20
25
x
Modello(0)
Modello(1)
Regressione di y da x (R²=0,691)
Yi* = 2.24 + 0.71Xi + 7.06 Di
(R2=0.98)
35
30
25
y
20
15
10
5
0
0
5
10
15
20
-5
x
Attivo
Modello
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
25
Yi* = 4.8 + 0.78Xi
(R2=0.69)
46/85
Copyright © 2009 – The McGraw-Hill Companies srl
Variabili indipendenti qualitative
Esempio:
Vendit
e
Spesa
prom
Spazio
esp
D
centro
43.2
48
95
0
132
134
144
0
155
122
210
1
76
13
156
0
100.9
80
188
1
187.4
99
321
1
185
77
250
1
60.7
50
115
0
82.9
44
178
1
61.3
25
105
0
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
par.
Intercetta
St. err.
t
p-value
-43.2
35.2
-1.23
0.266
Spesa prom
0.51
0.17
2.89
0.028
Spazio espos.
0.62
0.15
4.08
0.007
-14.0
19.6
-0.71
0.504
D centro
R²
0.917
R² corretto
0.875
A parità di spesa per promozione e
spazio espositivo, le vendite negli
esercizi ubicati in centro sono
minori di 14.0 (centinaia di euro)
rispetto agli esercizi ubicati altrove
(ma differenza non signif. ≠ 0)
47/85
Copyright © 2009 – The McGraw-Hill Companies srl
Variabili indipendenti qualitative
Variabili qualitative politomiche
Esempio: invece di distinguere soltanto tra ubicazione in
centro e altrove, si possono considerare tre modalità: centro
storico, resto dell’area urbana, area non urbana
Si definiscono tante variabili
dummy quante sono le modalità
In caso di tre modalità a, b, c:
D1i = 1 se modalità = a
NB: nel modello se ne deve inserire
D1i = 0 altrimenti
una in meno (2 nel caso di 3
D2i = 1 se modalità = b
modalità): altrimenti nella matrice
D2i = 0 altrimenti
X si ha perfetta collinearità:
D1 = 1 – (D2 + D3)
D3i = 1 se modalità = c
D2 = 1 – (D1 + D3)
D3i = 0 altrimenti
D3 = 1 – (D1 + D2)
48/85
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
Copyright © 2009 – The McGraw-Hill Companies srl
Variabili indipendenti qualitative
Esempio: delle tre modalità si esclude la terza e si
inseriscono nel modello le due dummy seguenti:
D1i = 1 se l’esercizio è in centro storico
D1i = 0 altrimenti
D2i = 1 se l’esercizio è nel resto dell’area urbana
D2i = 0 altrimenti
La modalità relativa alla dummy esclusa è la modalità di
riferimento, in relazione alla quale si interpretano i parametri
relativi alle dummy incluse
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
49/85
Copyright © 2009 – The McGraw-Hill Companies srl
Variabili indipendenti qualitative
Variabili indipendenti quantitative
e qualitative politomiche
(caso di tre modalità)
Yi  1   2 X i  3 D1i   4 D2i  ui
D1i = 1
D1i = 0
D2i = 1
D2i = 0
D1i = 0 e D2i = 0 (D3i = 1)  Yi  1   2 X 1i  ui
modalità a
altrimenti
modalità b
altrimenti
( modello base)
D1i = 1 (D2i = 0; D3i = 0) 
Yi  ( 1  3 )   2 X i  ui
D2i = 1 (D1i = 0; D3i = 0) 
Yi  ( 1   4 )   2 X i  ui
Tre rette di regressione parallele relative a tre sottocampioni:
β3: differenze, a parità di X, tra la Y nel sottocampione con
modalità a e la Y nel sottocampione con modalità c esclusa
[Es: differenza, a parità di spesa per promozione, tra vendite
esercizi centro storico e vendite esercizi area non urbana]
β4: idem per modalità b
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
50/85
Copyright © 2009 – The McGraw-Hill Companies srl
La previsione attraverso il modello
di regressione semplice
Previsione puntuale di Y in corrispondenza di un determinato
valore di X (pari a X0)
Il valore vero:
Il valore atteso:
Y0     X 0  u0
E (Y0 X 0 )     X 0
La previsione corretta
del valore atteso:
Ŷ0  a  bX 0
E’ anche la migliore previsione corretta (a varianza minima)
Esempio: previsione (puntuale) delle vendite settimanali in
corrispondenza a una spesa per promozione di 1500 euro:
Yˆ0  43.57  0.937 X 0
Yˆ  43.57  0.937 150  184.2
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
(184200 euro)
51/85
Copyright © 2009 – The McGraw-Hill Companies srl
La previsione attraverso il modello
di regressione semplice
Intervallo di confidenza intorno al valore previsto Ŷ0  a  bX 0
Occorre determinare la distribuzione dell’errore di previsione
Errore di previsione: e0  Y0  Yˆ0  (  a )  (   b) X 0  u0
a, b, u0 : variabili casuali normali a media nulla
errore di previsione: distribuzione normale e media nulla
E (e0 )  E (Yˆ0  Y0 )  E[(a   )  (b   ) X 0  u0 ]  0
Varianza dell’errore di previsione
E (e0 ) 2  E (Yˆ0  Y0 ) 2  E[(a   )  (b   ) X 0  u0 ]2
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
52/85
Copyright © 2009 – The McGraw-Hill Companies srl
La previsione attraverso il modello
di regressione semplice
Due componenti della varianza dell’errore di previsione
E (e0 ) 2  E (Yˆ0  Y0 ) 2  E[(a   )  (b   ) X 0  u0 ]2
- dipendente dall’errore associato a ogni osservazione: E (u0 )
2
2
- dipendente dalla variabilità dei parametri: E[(a   )  (b   ) X 0 ]
Var (e0 )  E (e0 ) 2  E[(a   )  (b   ) X 0 ]2  E (u0 ) 2
Var (e0 )  Var (a)  X 02Var (b)  2 X 0Cov(a, b)  Var (u0 )
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
53/85
Copyright © 2009 – The McGraw-Hill Companies srl
La previsione attraverso il modello
di regressione semplice
Var (e0 )  Var (a)  X 02Var (b)  2 X 0Cov(a, b)  Var (u0 )
2
1
X
Var (a)   u2 ( 
)
2
n  xi
i
Cov(a, b) 
X
n
2
x
i
 u2
Var (b) 
 u2
x
2
i
i
Var (u0 )   u2
i 1


2

(
X

X
)
1
Varianza errore di previsione: Var (e0 )   u2 1   0n

2
 n

x

i


i 1
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
54/85
Copyright © 2009 – The McGraw-Hill Companies srl
La previsione attraverso il modello
di regressione semplice


 1 ( X  X )2 
2
Var (e0 )   u 1   0n

2
 n

x

i


i 1
L’errore di previsione:
- diminuisce all’aumentare della numerosità campionaria
- aumenta all’aumentare della varianza del termine di errore
e quindi all’aumentare dei residui campionari  elevato R2
per una buona previsione
- aumenta con la distanza dalla media di X
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
55/85
Copyright © 2009 – The McGraw-Hill Companies srl
La previsione attraverso il modello
di regressione semplice
La distribuzione dell’errore di previsione
1/2


 1 ( X  X )2 
(Y0  Yˆ0 ) /  u 1   0n

2
 n

x

i


i 1
Stima di σu: s  [
N (0,1)
n
2
12
e
/
(
n

2)]
i
t(n-2)
i 1
Intervallo di confidenza intorno al valore previsto Ŷ0  a  bX 0
1/2


 1 ( X  X )2 
Yˆ0  t /2( n2) s 1   0n

2
 n

x

i


i 1
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
56/85
Copyright © 2009 – The McGraw-Hill Companies srl
La previsione attraverso il modello
di regressione multipla
Esempio:
Regressione di Vendite da Spesa_prom (R²=0,507)
X  69.2
300
250
s  39.51
Vendite
200
2
x
 i  14617.6
150
100
50
t(0.025;8)  2.306
0
0
20
40
60
80
100
120
140
-50
Spesa_prom
X 0  150
Attivo
Modello
Int. di conf. (Oss. 95%)
[184.2 – 113.3; 184.2 + 113.3]
70.9 – 297.5
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
57/85
Copyright © 2009 – The McGraw-Hill Companies srl
La previsione attraverso il modello
di regressione multipla
Tramite il vettore dei parametri stimati b si possono
determinare i valori teorici ŷ in corrispondenza:
ˆ
- a ogni vettore riga x '0 di X (dal modello: y
 Xb
)
'
x
- a ogni altro vettore ipotizzato di variabili esplicative 0
Vettore delle variabili esplicative: x 0  1, X 02 ,..., X 0 k 
Previsione puntuale:
'
ŷ0  x0b
yˆ o  b1  b2 X o 2  ...  bk X ok
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
58/85
Copyright © 2009 – The McGraw-Hill Companies srl
La previsione attraverso il modello
di regressione multipla
Esempio: sulla base del modello stimato, quante vendite sono
prevedibili in un supermercato con uno spazio espositivo di 200
m2 e con una spesa settimanale di promozione di 1500 euro?
(modello con le sole variabili con parametri significativi)
ŷ0  21,34  0, 499 X 02  0,540 X 03
Previsione puntuale:
ŷ0  21,341  0, 499 150  0,540  200  161,5
(161.500 Euro)
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
59/85
Copyright © 2009 – The McGraw-Hill Companies srl
La previsione attraverso il modello
di regressione multipla
Intervallo di confidenza intorno al valore previsto
Errore di previsione
ŷ0  x0b
e0  y0  yˆ0
'
y0: valore vero di Y associato a x0  1, X 02 ,..., X 0 k 
Dal modello teorico: y  Xβ  u

y0  x0β  u0
Errore di previsione:
e0  y0  yˆ 0  x0β  x0' b  u0  x0 (β  b)  u0
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
60/85
Copyright © 2009 – The McGraw-Hill Companies srl
La previsione attraverso il modello
di regressione multipla
e0  y0  yˆ 0
Distribuzione dell’errore di previsione
Media nulla: E (e0 )  E[x0 (β  b)  u0 ]  0
normale
E (b)  β; E (u0 )  0
Varianza errore di previsione
Due componenti:
- dipendente dal termine di errore associato a ogni osservazione
E (u0 ) 2   u2
- dipendente dai parametri:
E[x'0 (b  β)(x0' (b  β))' ]  x'0 E[(b  β)(b  β)']x0
  u2 [x'0  XX  x 0 ]
1
E (b  β)(b  β)'   u2  XX 
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
1
61/85
Copyright © 2009 – The McGraw-Hill Companies srl
La previsione attraverso il modello
di regressione multipla
Varianza errore previsione:
Var(e0 )   u2 [1  x'0  XX  x 0 ]
1
Distribuzione errore previsione:
( y0  yˆ 0 ) /  u [1  x'0  XX  x 0 ]1 2
1
Stima di  u : s  [
N (0,1)
n
2
12
e
/
(
n

k
)]
i
i 1
( y0  yˆ 0 ) / s[1  x'0  XX  x 0 ]1 2 t (n  k )
1
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
62/85
Copyright © 2009 – The McGraw-Hill Companies srl
La previsione attraverso il modello
di regressione multipla
Previsione intervallare per un prefissato livello di significatività α :
yˆ0  t 2,( nk )  s 1  x0  XX  x0
1
dove s 1  x0  XX  x 0 è l’errore standard della previsione
1
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
63/85
Copyright © 2009 – The McGraw-Hill Companies srl
La previsione attraverso il modello
di regressione multipla - Esempio
Previsione (vendite)
161.653
Errore std previsione
22.826
Limite inferiore 95%
107.642
Limite superiore 95%
215.664
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
64/85
Copyright © 2009 – The McGraw-Hill Companies srl
La previsione attraverso il modello
di regressione multipla - Esempio
Intervallo di confidenza: ŷ0  t 2  s 1  x0  XX  x0
1
t0.025,(103)  2.36
n
s  [ ei2 / (n  k )]1 2
 18,1
i 1
Errore Standard:
1


s 1  x0  X X  x 0  22,8
Intervallo di confidenza: 161.5  2.36  22.8  161.5  53.8
[107.6; 215.7]
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
65/85
Copyright © 2009 – The McGraw-Hill Companies srl
La violazione delle ipotesi
Principali ipotesi di cui verificare la eventuale violazione:
caratteristiche del modello
- linearità della relazione tra le variabili
caratteristiche dell’errore u
- varianza costante (omoschedasticità)
caratteristiche della matrice X :
- non collinearità tra le variabili esplicative
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
66/85
Copyright © 2009 – The McGraw-Hill Companies srl
Analisi dei residui
Metodo per diagnosticare la maggior parte delle violazioni di
ipotesi
Residui: ei  Yi  Yˆi
sono a media nulla, ma a varianza non costante
Residui standardizzati (o “studentizzati”):
ei
eis 
stima dell'errore standard di ei
a varianza costante (ma media non nulla)
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
67/85
Copyright © 2009 – The McGraw-Hill Companies srl
Analisi dei residui
Diagramma di dispersione dei residui:
in ordinata: ei (o ei s)
2,5
in ascissa: Ŷi (o Xji )
2
1,5
1
0,5
es i0
-0,5 0
50
100
150
200
250
-1
-1,5
-2
Ŷi
Se le assunzioni sono verificate: nuvola di punti che non
presenta particolari strutture (i punti tendono a disporsi tra i
valori –2 e 2 e risultano distribuiti casualmente intorno allo 0)
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
68/85
Copyright © 2009 – The McGraw-Hill Companies srl
Analisi dei residui
Residui che si dispongono secondo qualche struttura
riconoscibile: violazione di ipotesi
Esempi:
2,5
2
2
1,5
Residui stud.
1
0,5
0
-50
-0,5 0
50
100
-1
150
200
Residui studentizzati
1,5
1
0,5
0
-0,5
-1
-1,5
-2
-1,5
-2,5
-2
-3
Vendite (valori stimati)
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
Variabile X
69/85
Copyright © 2009 – The McGraw-Hill Companies srl
Violazione dell’ipotesi di linearità
Si diagnostica principalmente in due modi:
1. dalla struttura del diagramma
dei punti campionari (nel caso bivariato)
Esempio: Volume vendite in funzione
della durata pubblicità (Tab. 4.9)
250
Vendite * 1000€
200
150
100
50
0
0
2
4
6
8
10
Giorni di campagna pubblicitaria
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
12
14
16
Durata
pubblicità
(giorni)
Vendite
(migliaia
euro)
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
20
23
34
37
40
56
60
106
107
143
166
198
211
70/85
Copyright © 2009 – The McGraw-Hill Companies srl
Violazione dell’ipotesi di linearità
Diagramma di dispersione dei punti campionari:
Si può stimare un modello
lineare
250
Vendite * 1000€
200
150
100
50
0
0
2
4
6
8
10
12
14
16
Ma il diagramma fa supporre
una relazione non lineare
(esponenziale)
Giorni di campagna pubblicitaria
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
71/85
Copyright © 2009 – The McGraw-Hill Companies srl
Violazione dell’ipotesi di linearità
2. dalla struttura del diagramma di dispersione dei residui
Diagramma di dispersione dei residui:
2
1,5
Residui stud.
1
0,5
0
-50
-0,5 0
50
100
-1
-1,5
-2
Vendite (valori stimati)
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
150
200
mostra non una
disposizione casuale
intorno allo zero ma una
struttura curvilinea che
indica una relazione non
lineare
72/85
Copyright © 2009 – The McGraw-Hill Companies srl
Violazione dell’ipotesi di linearità
Si può risolvere con opportune trasformazioni di variabili
In particolare:
- trasformazione logaritmica della variabile esplicativa
(o di una o più delle variabili esplicative)
- trasformazione logaritmica della variabile dipendente
- trasformazione logaritmica di entrambe (dipendente ed esplicative)
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
73/85
Copyright © 2009 – The McGraw-Hill Companies srl
Violazione dell’ipotesi di linearità
– Esempio di linearizzazione
Si ipotizza una relazione esponenziale del tipo
vendite    e  *gg_pubblicità  u
Applicando il logaritmo naturale ad ambo i membri della
equazione di regressione si ottiene il modello linearizzato:
log(vendite)  log   *gg_pubblicità  log u
vendite      *gg_pubblicità  u
Stima del modello linearizzato: regressione del logaritmo naturale
delle vendite sulla variabile esplicativa
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
74/85
Copyright © 2009 – The McGraw-Hill Companies srl
Violazione dell’ipotesi di linearità
– Esempio di linearizzazione
Durata
pubblicità
(giorni)
Vendite
(miliaia
euro)
Ln Vendite
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
20
23
34
37
40
56
60
106
107
143
166
198
211
2.708
2.996
3.135
3.526
3.611
3.689
4.025
4.094
4.663
4.673
4.963
5.112
5.288
5.353
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
75/85
Copyright © 2009 – The McGraw-Hill Companies srl
Violazione dell’ipotesi di linearità
– Esempio di linearizzazione
- Stima del modello linearizzato:
venditeSTIMA  2,553  0, 21 gg_pubblicità
(log(vendite)  log   * gg_pubblicità)
- Stima del modello esponenziale nella forma originaria:
venditeSTIMA  12,84  e0,21gg_pubblicità
(vendite    e *gg_pubblicità )
(ln a  2.553  a  e2.553  12.84)
Interpretazione di β: variazione relativa di Y in corrispondenza
a variazione unitaria di X (semielasticità di Y a X)
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
76/85
Copyright © 2009 – The McGraw-Hill Companies srl
Violazione dell’ipotesi di linearità
– Altre trasformazioni
- Trasformazione logaritmica variabile indipendente:
Y     log X
Interpretazione di β: variazione di Y in relazione ad una
variazione relativa unitaria di X
- Trasformazione logaritmica di entrambe le variabili:
Y X 
logY     log X
Modello a elasticità costante – interpretazione di β: misura la
variazione relativa di Y in relazione a una variazione relativa
unitaria di X (elasticità)
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
77/85
Copyright © 2009 – The McGraw-Hill Companies srl
Violazione dell’ipotesi di linearità
Per avvalorare l’ipotesi che la relazione stimata sia lineare
nella trasformata di una o più variabili originarie si
esaminano i residui della nuova regressione e si verifica
che non presentino nessuna particolare struttura
Esempio- Diagrammi di dispersione (dopo trasformazione)
dei punti campionari:
dei residui:
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
78/85
Copyright © 2009 – The McGraw-Hill Companies srl
Violazione dell’ipotesi di
omoschedasticità
Omoschedasticità: varianza costante dei termini di errore
Var (uj) = σ2
Eteroschedasticità:
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
79/85
Copyright © 2009 – The McGraw-Hill Companies srl
Violazione dell’ipotesi di
omoschedasticità
Problemi derivanti dalla eteroschedasticità:
- le stime dei minimi quadrati sono ancora corrette
ma non sono più efficienti (a varianza minima)
- la stima della varianza, e quindi dell’errore standard,
è distorta  può invalidare i test di significatività
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
80/85
Copyright © 2009 – The McGraw-Hill Companies srl
Violazione dell’ipotesi di
omoschedasticità
Diagnosticata attraverso l’analisi del diagramma di dispersione dei
residui:
- se la banda in cui giacciono i punti tende ad allargarsi
o a restringersi la varianza degli errori tende a crescere
o a decrescere al crescere della variabile esplicativa
2,5
2
2
1,5
1
0,5
0
-0,5
-1
presenza di eteroschedasticità
 relazione crescente
-1,5
Residui studentizzati
Residui studentizzati
1,5
1
0,5
0
-0,5
presenza di eteroschedasticità
 relazione decrescente
-1
-2
-1,5
-2,5
-2
-3
Variabile X
Variabile X
- se invece i punti giacciono tra due parallele non si
riscontra alcuna evidenza di violazione dell’assunzione
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
81/85
Copyright © 2009 – The McGraw-Hill Companies srl
Violazione dell’ipotesi di
omoschedasticità
Caso di varianza dell’errore legata a una var. esplicativa Xj
Diagnostica: Test di Goldfeld e Quandt
Fasi:
- si riordinano le osservazioni secondo i valori decrescenti di Xj
e si omettono c osservazioni centrali
- si effettuano due regressioni OLS separate sulle prime
e sulle ultime (n - c)/2 osservazioni
- si calcola il rapporto tra le due somme dei quadrati dei
residui R= RSS1/RSS2 (= rapporto tra le due varianze)
- si fa il test, considerando che sotto l’ipotesi di
omoschedasticità R si distribuisce come una F di Fisher
con (n – c – 2k)/2 e (n – c – 2k)/2 g.d.l.
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
82/85
Copyright © 2009 – The McGraw-Hill Companies srl
Violazione dell’ipotesi di
omoschedasticità
Rimedio: Metodo dei minimi quadrati ponderati (WLS)
n
f (b1 ,..., bk )   wi (Yi  b1  b2 X i 2  ...  bk X ik ) 2
i 1
Pesi decrescenti al crescere di σi
Se si può assumere σi proporzionale a una variabile esplicativa:
 i    X ij (i  1,..., n)
Trasformazione: divisione di tutti gli elementi della equazione di
regressione per Xij :
X ij
Yi
X i2
X ik ui
1
 1
 2
...   j
 ...+ k

X ij
X ij
X ij
X ij
X ij X ij
Nella equazione trasformata la varianza del termine di errore
ui
'
ui 
è costante: Var(u ' )  1  2  1  2 X 2   2
i
i
ij
X ij
X2
X2
ij
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
ij
83/85
Copyright © 2009 – The McGraw-Hill Companies srl
Violazione dell’ipotesi di
omoschedasticità
Modello teorico originario:
Yi  1   2 X i 2  ...   k X ik  ui
Modello teorico trasformato:
Yi
X
X
1
 1
  2 i 2 ...   j  ...+ k ik  ui'
X ij
X ij
X ij
X ij
Stima OLS dei parametri:
Yi
X
X
1
 b1
 b2 i 2 ...  b j  ...+bk ik
X ij
X ij
X ij
X ij
Modello stimato nella forma originaria:
Yi  b1  b2 X i 2  ...  b j X ij  ...  bk X ik
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
84/85
Copyright © 2009 – The McGraw-Hill Companies srl
Violazione dell’ipotesi di
rango pieno della matrice X
Multicollinearità: dipendenza lineare o quasi dipendenza
lineare di due o più variabili esplicative
a.
Esatta multicollinearità: dipendenza perfetta tra due
o più variabili esplicative  rango della matrice X minore
di k  determinante nullo della matrice XX
 impossibilità di calcolare il vettore delle stime b
1
(b   XX  Xy )
Soluzione:
eliminare dal modello la variabile esplicativa che risulta
esatta combinazione lineare delle altre
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
85/85
Copyright © 2009 – The McGraw-Hill Companies srl
Quasi multicollinearità
b. Quasi multicollinearità: “quasi combinazione lineare” di una
variabile indipendente rispetto alle rimanenti o a un
sottoinsieme di esse  determinante della matrice XX
prossimo allo zero  notevole aumento della variabilità
delle stime
1
(b N β, 2  XX  )


Spiegazione intuitiva:
- il coefficiente di regressione βj misura l’effetto di Xj su Y
a parità delle altre X
- se c’è stretta correlazione tra Xj e le altre X, quando vengono
tenute costanti queste ultime Xj varia poco
- è quindi difficile scindere l’effetto della sua variazione su Y
da quello delle altre variabili
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
86/85
Copyright © 2009 – The McGraw-Hill Companies srl
Quasi multicollinearità
Conseguenze:
- viene meno la precisione delle stime;
- stime sensibili a piccoli cambiamenti nei dati campionari;
- si può essere indotti a scartare delle variabili non significative
che in realtà sono buone determinanti della variabile esplicativa
Diagnostica:
- Analisi matrice di correlazione tra le variabili esplicative:
valori molto elevati di rhj  QM
- Regressioni ausiliarie tra ogni variabile esplicativa
e le altre k-2:
X ij  b1  b2 X i 2  ...  bk X ik (j = 2 ,..., k )
R2 molto elevati (es. > 0,7)  QM
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
87/85
Copyright © 2009 – The McGraw-Hill Companies srl
Quasi multicollinearità
VIF (Variance Inflation Factor)
VIF 
1
1  R 2j
(R2j coefficiente di determinazione multiplo relativo alla
regressione della j-sima variabile esplicativa sulle altre k-2)
Dalla seguente espressione di Var(bj):
s2
1
Var (b j ) 

(n  1) Var ( X j ) 1  R 2j
Interpretazione di VIF1/2: fattore moltiplicativo dell’errore
standard di bj dovuto alla collinearità tra la variabile Xj e le
altre variabili esplicative
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
88/85
Copyright © 2009 – The McGraw-Hill Companies srl
Quasi multicollinearità
VIF  1/ (1  R 2j )
Si sospetta Q.M. per valori del VIF > 3,5
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
89/85
Copyright © 2009 – The McGraw-Hill Companies srl
Quasi multicollinearità
Soluzione quasi multicollinearità:
- individuare la variabile esplicativa quasi
combinazione lineare delle altre ed eliminarla dal modello
Se più di una: eliminarle progressivamente a partire
da quelle con VIF più elevato
NB: non eliminare contemporaneamente tutte le variabili
esplicative con VIF elevato (maggiore di 3.5)
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
90/85
Copyright © 2009 – The McGraw-Hill Companies srl
Quasi multicollinearità - Esempio
Campione di 22 aziende (Tab. 4.15):
 Variabile risposta: volume delle vendite (Vend)
 Variabili esplicative:
 spese di pubblicità (Pubbli)
 spese di promozione (Prom)
 spese di promozionale anno passato (Prom_0)
 spese di gestione (Spese)
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
91/85
Copyright © 2009 – The McGraw-Hill Companies srl
Quasi multicollinearità - Esempio
Buono l’adattamento generale del modello ai dati
Problemi di significatività per alcuni parametri
Problemi di multicollinearità per alcune variabili
Soluzione: eliminare progressivamente
dal modello le variabili “quasi
combinazione lineare” delle altre,
partendo da quella con indice VIF più
alto (Prom_0)
Nel nuovo modello:
 non si riscontrano indici VIF >3,5
 la variabile Pubbli è significativa
e senza problemi di collinearità
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
92/85
Copyright © 2009 – The McGraw-Hill Companies srl
La regressione su variabili dipendenti
dicotomiche
Variabile dipendente dicotomica:
Y = 1 se il carattere è presente (successo)
Y = 0 se il carattere è assente (insuccesso)
Obiettivo del modello di regressione:
spiegare il successo o insuccesso in funzione di una o più variabili
esplicative
Le variabili esplicative possono essere quantitative o anche
qualitative (dicotomiche o politomiche, ordinali)
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
93/85
Copyright © 2009 – The McGraw-Hill Companies srl
La regressione su variabili dipendenti
dicotomiche
Esempi
- analisi della influenza di una leva di marketing
sull’acquisto o non acquisto del prodotto
- analisi delle determinanti della permanenza in attività
o del fallimento di aziende durante la recessione:
(fattori di rischio e fattori di protezione: es. indici di bilancio,
altre caratteristiche)
- analisi delle determinanti della presenza o meno
delle imprese nei mercati esteri
(produttività, dimensione, investimenti in innovazione …)
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
94/85
Copyright © 2009 – The McGraw-Hill Companies srl
La regressione su variabili dipendenti
dicotomiche
Altro possibile utilizzo:
stimare la probabilità del possesso o non possesso dell'attributo
per una nuova unità statistica su cui è stato osservato il vettore di
variabili esplicative
Esempio: probabilità di fallire di una azienda (esterna al
campione) che presenta un determinato vettore
degli indici di bilancio e delle altre caratteristiche
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
95/85
Copyright © 2009 – The McGraw-Hill Companies srl
Modello di probabilità lineare
Modello di regressione lineare semplice
Y    X u
In modo equivalente:
E (Y X  x)     x
In caso di variabile dicotomica, il valore atteso è:
E (Y X  x)  1 P(Y  1 X  x)  0  P(Y  0 X )  P(Y  1 X  x)
Indicata con π (x) tale probabilità di evento favorevole, si ha il
modello di probabilità lineare:
E (Y X  x)   ( x)     x
Modello per la probabilità di successo, che non è costante,
ma dipende dalla variabile esplicativa X
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
96/85
Copyright © 2009 – The McGraw-Hill Companies srl
Modello di probabilità lineare
Modello di regressione multipla
k
Yi    j X ij  ui  E (Y X 2  x2 ,..., X k  xk )    j x j  β ' x
j 1
j
E (Y x)  P(Y  1 X 2  x2 ,... X k  xk )   (x)
Modello di probabilità lineare: E (Y x)   (x)  β ' x
I valori teorici Yˆi della regressione di Y sulle variabili esplicative
possono essere interpretati come la probabilità che la variabile
risposta assuma valore 1 quando le variabili esplicative assumono
i valori relativi all’unità i.
Modello per la probabilità di successo di una variabile dicotomica
in funzione lineare di un insieme di variabili esplicative
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
97/85
Copyright © 2009 – The McGraw-Hill Companies srl
Modello di probabilità lineare
Problemi del modello di probabilità lineare
Poiché π(x) (o π(x) nel caso di più variabili esplicative) è una
probabilità, deve necessariamente assumere valori
nell’intervallo [0,1], mentre la funzione lineare al membro di
destra può assumere valori nell’intervallo (-∞, +∞)
Inoltre non valgono alcune assunzioni sul termine di errore:
u  Y   ( x)
{
1   ( x) con prob.  ( x)
 ( x) con prob. 1- ( x)
E (u )  [1   ( x)] ( x)  [0   ( x)][1   ( x)]  0
(distribuzione
binomiale)
media nulla
Var (u)  [(1   ( x)]2  ( x)  [(0   ( x)]2 [1   ( x)]   ( x)[1   ( x)]
varianza non costante, ma
dipendente da x (max per π(x) = 0.5)
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
98/85
Copyright © 2009 – The McGraw-Hill Companies srl
Modello di probabilità lineare
-Esempio
X
Y*
0
0
0
0
1
1
0
1
1
1
1
1
2
4
6
8
10
12
14
16
18
20
22
24
-0.013
0.096
0.204
0.312
0.421
0.529
0.638
0.746
0.854
0.963
1.071
1.179
Yˆ  0.1212  0.0542 X
Regressione di Y da X (R²=0,576)
2.5
2
1.5
1
Y
Y
0.5
0
0
5
10
15
20
25
-0.5
-1
X
Attivo
Modello
NB: 3 valori teorici di Y esterni al suo campo di definizione
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
99/85
Copyright © 2009 – The McGraw-Hill Companies srl
Modello di probabilità lineare
Aspetti positivi del modello di probabilità lineare:
- Facile da stimare con il metodo dei minimi quadrati
- Parametri direttamente interpretabili come effetti di variazioni
unitarie delle variabili esplicative sulla probabilità di successo
- In prossimità dei valori medi delle variabili esplicative fornisce:
- stime della probabilità comprese nell’intervallo 0-1
(che costituiscono una buona approssimazione ai valori
stimati con altri modelli)
- Per grandi campioni la distribuzione dei parametri è comunque
approssimabile con la normale
- Il problema della eteroschedasticità può essere affrontato
(stima dei parametri con i minimi quadrati ponderati)
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
100/85
Copyright © 2009 – The McGraw-Hill Companies srl
Modello di probabilità lineare –
Esempio di applicazione
Indagine EFIGE Italia – Settore Mezzi di trasporto
Variabile dipendente: direct_export
Analisi varianza
GDL
Somma
quadrati
Media
quadrati
F
Pr > F
Modello
3
5.905
1.968
15.855
< 0,0001
Errore
70
8.690
0.124
Totale corretto
73
14.595
Fonte
R2 = 0.40
Stima parametri
Param.
Errore
stand.
t
Pr > |t|
Intercetta
0.152
0.112
1.362
0.178
turnover
0.056
0.030
1.859
0.067
prod_inn
0.451
0.087
5.204
< 0,0001
qual_cert
0.200
0.092
2.174
0.033
NB: in 12 casi (su 74) stima π(x) > 1
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
101/85
Copyright © 2009 – The McGraw-Hill Companies srl
Modelli per variabili dipendenti
dicotomiche
Obiettivo:
definire una funzione per spiegare la probabilità di successo
attraverso una o più variabili esplicative fornendo valori
ammissibili per π(x), ovvero compresi tra 0 e 1
2.5
2
1.5
1
0.9
1
0.8
0.5
0.6
Y
Y

0.7
0.5
0.4
0.3
0.2
0.1
0
0
0
5
1
0
1
5
20
25
X
0
5
10
15
20
25
-0.5
-1
X
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
102/85
Copyright © 2009 – The McGraw-Hill Companies srl
Modelli per variabili dipendenti
dicotomiche
Modello necessariamente non lineare
I principali:
Modello Probit
probabilità π(x) pari al valore della funzione di ripartizione di una
variabile casuale normale standardizzata in corrispondenza di x
Modello Logit (regressione logistica)
probabilità π(x) pari al valore della funzione di ripartizione di
una variabile casuale logistica in corrispondenza di x
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
103/85
Copyright © 2009 – The McGraw-Hill Companies srl
Modelli per variabili dipendenti
dicotomiche
Confronto Probit - Logit
Logit rispetto a Probit:
- per valori intermedi di x,
π(x) simili
- per valori piccoli di x,
π(x) maggiori
- per valori grandi di x,
π(x) minori
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
104/85
Copyright © 2009 – The McGraw-Hill Companies srl
Il modello di regressione logistica
Modello logit:
e   x
 ( x)  P Y  1| X  x  
1  e   x
La funzione di ripartizione logistica:
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
105/85
Copyright © 2009 – The McGraw-Hill Companies srl
Il modello di regressione logistica
Estensione del modello logit al caso di più variabili esplicative:
e 1 2 x2 ... k xk
 (x)  P Y  1| X 2  x2 ,..., X k  xk  
1  e 1  2 x2 ... k xk
Problema:
la funzione che lega la probabilità di successo alle sue variabili
esplicative è non lineare nei parametri
Soluzione:
linearizzata attraverso una trasformazione
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
106/85
Copyright © 2009 – The McGraw-Hill Companies srl
Il modello di regressione logistica
Probabilità di insuccesso:
1   (x)  P Y  0 | X 2  x2 ,..., X k  xk  
1
1  e 1  2 x2 ... k xk
Primo passo: rapporto tra probabilità di successo e probabilità di
insuccesso (odds):
 ( x)
 e    x ...  x
1   ( x)
1
2 2
k k
Secondo passo: logaritmo naturale di ambo i membri
 trasformazione logit
  ( x) 
logit  (x)   log 
 1   2 x2  ...   k xk

 1   ( x) 
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
107/85
Copyright © 2009 – The McGraw-Hill Companies srl
Odds e odds ratio
Odds: rapporto tra la probabilità di un evento (“successo”)
e quella dell’evento complementare (“insuccesso”)
 rapporto fra il numero di volte in cui l'evento si verifica
e il numero di volte in cui l'evento non si verifica
Esempio:
In un campione di 100 aziende 75 esportano e 25 no
La percentuale di aziende esportatrici è 3 volte quella delle non
esportatrici (la probabilità di esportare è 3 volte quella di non
esportare)
Trasformazione degli odds in probabilità: la probabilità di
esportare è 75 su 100 (P = 0,75) e quella di non esportare
è 25 su 100 (1-P = 0,25)
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
108/85
Copyright © 2009 – The McGraw-Hill Companies srl
Odds e odds ratio
Esempio:
una squadra di calcio data dai bookmakers a 4:1
(la vittoria è da pagare 4 volte la cifra scommessa)
 su una scala da 1 a 5 la probabilità di sconfitta considerata
4 volte più alta della probabilità di vittoria
Trasformazione degli odds in probabilità: la squadra aveva
1 probabilità su 5 (P = 0,2) di vincere e 4 probabilità su 5
di perdere (1-P = 0,8)
Relazione per trasformare gli odds (O) in probabilità (P):
O
P
O
P
1 P
1 O
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
109/85
Copyright © 2009 – The McGraw-Hill Companies srl
Odds e odds ratio
Interpretazione dei parametri
 ( x)
 e    x ...  x
1   ( x)
1
2 2
  ( x) 
log 
 1   2 x2  ...   k xk

 1   ( x) 
k k
La variabile esplicativa Xj passa da XjA a XjB (con XjB - XjA =1)
XjA 
XjB 
odds[ (x) X jA ]  e
1 ...  j x jA ...  k xk
odds[ (x) X jB ]  e
1 ...  j x jB ...  k xk
Rapporto di odds o odds ratio (OR):
OR( j ) 
odds  (x) | X jB 
odds  (x) | X jA 
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas

1 ...  j x jB ...  k xk
 j x jB
e
e
 j ( x jB  x jA )
j


e

e
 ...  j x jA ...  k xk
 x
e1
e j jA
110/85
Copyright © 2009 – The McGraw-Hill Companies srl
Odds e odds ratio
OR( j )  e
j
a una variazione unitaria della variabile Xj corrisponde un OR
pari all’esponenziale del relativo parametro
OR misura l’incremento di propensione al successo:
quanto varia la proporzione tra successi e insuccessi
Xj variabile dicotomica: OR(j) misura la variazione di propensione
al successo derivante dal possesso dell’attributo
Xj variabile continua: OR(j) misura la variazione di propensione al
successo derivante da un incremento unitario della variabile Xj
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
111/85
Copyright © 2009 – The McGraw-Hill Companies srl
Odds e odds ratio
Interpretazione dei risultati
OR( j )  e
j
  j  ln(OR( j ) )
1. OR(j) = 1 e quindi βj = 0  nessuna relazione tra la
variabile esplicativa Xj e la probabilità che la variabile
risposta Y assuma valore 1: non cambia la proporzione tra
successi e insuccessi
2. OR(j) > 1 e quindi βj > 0  effetto positivo della variabile
esplicativa Xj sulla probabilità che la variabile risposta Y
assuma il valore 1: aumenta la proporzione tra successi e
insuccessi
3. 0 < OR(j) < 1 e quindi βj < 0  effetto negativo della
variabile esplicativa Xj sulla probabilità che la variabile
risposta Y assuma il valore 1: diminuisce la proporzione tra
successi e insuccessi
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
112/85
Copyright © 2009 – The McGraw-Hill Companies srl
Odds e odds ratio - Esempio
Verificare se e di quanto aumenta la propensione ad acquistare un
prodotto a seguito di uno sconto sul prezzo del 10%
Da una indagine su un campione di consumatori (in parte esposti
allo sconto in parte no) si osserva:
Y = 1 acquisto; Y = 0 non acquisto
X = 1 sconto; X = 0 no sconto
Stima del relativo parametro β pari a 0.4  effetto positivo
dell’applicazione dello sconto (maggiore probabilità di acquisto del
prodotto)
Stima dell’odds ratio (corrispondente al passaggio dallo stato 0
allo stato 1 della variabile X ):
exp(β) = exp(0.4) = 1.5  la propensione all’acquisto è 1.5 volte
maggiore (+50%) nel gruppo dei consumatori esposti allo sconto
rispetto ai non esposti
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
113/85
Copyright © 2009 – The McGraw-Hill Companies srl
Effetto marginale
Interpretazione dei parametri in termini di probabilità
Effetto marginale: quale effetto produce la variazione unitaria di
una variabile esplicativa non su O (odds) ma su P (probabilità di
successo)
Poiché la relazione tra la probabilità di successo e le X non è
lineare, l’effetto di queste ultime non è costante, ma dipende dal
livello di P, che dipende dal livello delle X
Caso di una sola
variabile esplicativa:
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
114/85
Copyright © 2009 – The McGraw-Hill Companies srl
Effetto marginale
Effetto marginale:
 ( x)
e   x
1


  x
x
1 e
1  e   x
e   x
P Y  1| X  x    ( x) 
1  e   x
  x 
     x   [1    x ]
x
Effetto marginale massimo (massima pendenza della
funzione) per P = 0.5  0.25β
Per dare un valore di sintesi all’effetto marginale in genere
esso viene calcolato in corrispondenza del valore medio di x
(pendenza alla media):
e   x
m( x )  
(1  e   x ) 2
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
115/85
Copyright © 2009 – The McGraw-Hill Companies srl
Effetto marginale - Esempio
X
π(x)
0
0
0
0
1
1
0
1
1
1
1
1
2
4
6
8
10
12
14
16
18
20
22
24
0.018
0.042
0.097
0.208
0.392
0.612
0.795
0.904
0.959
0.983
0.993
0.997
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
Param
Intercetta
 ( x) 
-4.9161
X
0.4478
1
1  e 4.91610.4478 x
e   x
1
 ( x) 

1  e   x 1  e   x
Regressione logistica di Y da X
1
0.9
0.8
0.7
0.6
Y
Y
0.5
0.4
0.3
0.2
0.1
0
0
5
10
15
20
x  13  m( x )  0.092
X
Attivo
25
Effetto marginale
alla media:
Modello
Effetto marginale modello prob. lineare:
b = 0.054
116/85
Copyright © 2009 – The McGraw-Hill Companies srl
Effetto marginale
Caso di più variabili esplicative
e 1  2 x2 ... k xk
 ( x) 
1  e 1  2 x2 ... k xk
Effetto marginale della variabile Xj:
 (x)
  j   (x)[1   (x)]
x j
Valore di sintesi in corrispondenza dei valori medi delle variabili
esplicative:
e 1  2 x2 ... k xk
1
m( x ) j   j
1   2 x2 ...  k xk 
1 e
1  e 1 2 x2 ... k xk
e 12 x2 ...k xk
m( x ) j   j
1   2 x2 ...  k xk 2
(1  e
)
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
117/85
Copyright © 2009 – The McGraw-Hill Companies srl
Effetto marginale – Esempio
Indagine EFIGE Italia – Settore Mezzi di trasporto
Variabile dipendente: dir_export
Confronto regressione logistica – modello probabilità lineare:
Regressione logistica
parametri
m( x )
Mod. pr. lin.
parametri
Intercetta
-2.942
turnover
0.540
0.065
0.056
prod_inn
3.326
0.400
0.451
qual_cert
1.576
0.189
0.200
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
0.152
118/85
Copyright © 2009 – The McGraw-Hill Companies srl
La stima dei parametri
Stima del vettore dei parametri β
Metodo della massima verosimiglianza
Richiami di metodo - popolazione bernoulliana
P(Yi  1)  P
1Yi
 P(Yi )  P (1  P)
Yi
{
P se Yi = 1
1-P se Yi = 0
P(Yi  0)  1  P
Stima del parametro P:
valore di P che massimizza la probabilità di osservare il
campione effettivamente osservato Y1, Y2…, Yn
Probabilità congiunta del campione osservato:
n
L( P)  P(Y1 , Y2 ,..., Yn )   P(Yi )
(indipendenza tra le unità)
i 1
n
Y
1Y
Funzione di verosimiglianza: L( P )   P i (1  P ) i
i 1
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
119/85
Copyright © 2009 – The McGraw-Hill Companies srl
La stima dei parametri
n
L( P )   P (1  P )
Yi
1Yi
i 1
P
Yi
i
(1  P)
n
Yi
i
Massimizzare L(P) equivale a massimizzare log L(P)
Funzione di log-verosimiglianza:
log L( P)   Yi log P  (n   Yi ) log(1  P)
i
i
 log L( P) 1
1
  Yi 
(n   Yi )  0
P
P i
1 P
i
1 P

Yi  n   Yi  0  Pˆ 

P i
i
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
Y
i
i
n
120/85
Copyright © 2009 – The McGraw-Hill Companies srl
La stima dei parametri
Stima del vettore dei parametri β
- La probabilità di osservare le Y del campione è posta in
relazione con le variabili esplicative X2, …, Xk tramite una
funzione non lineare nei parametri β1, β2, …, βk
- Ricercare i valori incogniti dei parametri βj che massimizzano
la probabilità di osservare il campione effettivamente osservato
Probabilità in funzione di xi - Funzione di verosimiglianza:
n
n
 (xi ) Yi
L(β)   (xi )Yi [1   (xi )](1Yi )  [
] [1   (xi )]
i 1
i 1 1   ( xi )
Funzione di log-verosimiglianza:
n
 ( xi )
log L(β)  Yi log[
]   log[1   (xi )]
1   (xi ) i 1
i 1
n
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
121/85
Copyright © 2009 – The McGraw-Hill Companies srl
La stima dei parametri
  ( x) 
log 
 1   2 x2  ...   k xk

 1   ( x) 
1   ( x) 
1
1  e 1  2 x2 ... k xk
n
n
i 1
i 1
log L(β)   Yi (1   2 x2  ...   k xk )   log(1  e 1  2 x2 ... k xk )
Le derivate parziali rispetto ai parametri β1, …, βk uguagliate a 0
danno luogo a un sistema di equazioni non lineari nei k parametri,
la cui soluzione (b1, …, bk) richiede metodi numerici iterativi.
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
122/85
Copyright © 2009 – The McGraw-Hill Companies srl
Test sui singoli parametri
Verifica significatività della stima bj di un generico parametro
bj si distribuisce normalmente con media zero ed errore standard
s(bj) (elemento jj sulla diagonale della matrice di varianzacovarianza del vettore b delle stime dei parametri β)
Test di Wald:
bj
W
s (b j )
Sotto l’ipotesi nulla βj = 0 W si distribuisce come una normale
standardizzata  se W  z si respinge l’ipotesi nulla e si
conclude che il parametro è significativamente diverso da 0
In alternativa: W2 che si distribuisce come un Chi-quadro con 1
grado di libertà  se W2 > χ21,α si respinge l’ipotesi nulla
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
123/85
Copyright © 2009 – The McGraw-Hill Companies srl
Test sui singoli parametri – Esempi
Esempio modello con una variabile esplicativa:
Stima
Errore
standard
Chi-quadro
di Wald
Pr > Chi²
-4.916
2.945
2.786
0.095
0.448
0.251
3.172
0.075
Stima
Errore
standard
Chi-quadro
di wald
Pr > Chi²
-2.942
1.153
6.502
0.011
turnover
0.540
0.337
2.561
0.110
prod_inn
3.326
0.947
12.334
<0.001
qual_cert
1.576
0.886
3.160
0.075
Intercetta
X
Esempio EFIGE – Mezzi trasporto:
Intercetta
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
124/85
Copyright © 2009 – The McGraw-Hill Companies srl
Test significatività del modello
La significatività del modello nel suo complesso
Test analogo al test F del modello lineare, fondato sul rapporto
tra la verosimiglianza del modello con la sola intercetta L(0) e
quella del modello con le variabili esplicative L(β) chiamata
Extradevianza:
L(0)
G  2log
 2[log L(β)  log L(0)]
L(β)
L(0) rapporto
: di verosimiglianza
L(β)
n
L(0)   PiYi (1  Pi )1Yi  P nY 1 (1  P) nY 0
i 1
n
L(β)   (xi ) [1   (xi )]
Yi
i 1
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
(1Yi )
 (xi ) Yi
 [
] [1   (xi )]
i 1 1   ( xi )
n
125/85
Copyright © 2009 – The McGraw-Hill Companies srl
Test significatività del modello
G  2log
L(0)
 2[log L(β)  log L(0)]
L(β)
0  L(0)  L(β)  1 
log L(0)  log L(β)  0
Assenza dipendenza
di Y dalle X:
L(β)=L(0); log L(β)=log L(0)  G = 0
Massima dipendenza
di Y dalle X:
L(β)=1; log L(β)=0  G >> 0
Valori elevati di G (valori bassi del rapporto di verosimiglianza)
indicano che le variabili esplicative sono rilevanti nello spiegare
i valori delle Y
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
126/85
Copyright © 2009 – The McGraw-Hill Companies srl
Test significatività del modello
Verifica del sistema di ipotesi:
H0: β2 = … = βk = 0
H1: almeno un βj ≠ 0
(j=2,…,k)
Sotto ipotesi nulla G si distribuisce come una χ2 con k-1 gradi di
libertà  si respinge l’ipotesi nulla se G   2
k 1,
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
127/85
Copyright © 2009 – The McGraw-Hill Companies srl
Misura bontà adattamento
Diverse misure analoghe al coefficiente di determinazione
multiplo
Pseudo R2 (McFadden)
Pseudo-Rg2  1 
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
logL(β)
log L(0)
0 se log L(β) = log L(0)
{ 1 se log L(β) = 0
128/85
Copyright © 2009 – The McGraw-Hill Companies srl
Misura bontà adattamento
Coefficiente di determinazione generalizzato per modelli non
lineari (Cox – Snell):
 L ( 0) 
R  1 

L
(
β
)


2
g
2
n
R2 del modello di regressione lineare è un caso particolare di R2g
Valore massimo per L(β) = 1:
Rg2,MAX  1   L(0) 
2n
(< 1)
Coefficiente riscalato (Nagelkerke):
Rg2 
Rg2
2
g , MAX
R

Rg2
1 P 2
1  [ P (1  P)
P
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
]
L(0)  P nY 1 (1  P) nY 0
129/85
Copyright © 2009 – The McGraw-Hill Companies srl
Modello di regressione logistica
- Esempio (una variabile esplicativa)
Test significatività del modello:
Statistica
-2 log(rapp. verosim.)
GDL
Chi-quadro
Pr > Chi²
1
9.148
0.002
Coefficienti di bontà di adattamento:
R²(McFadden)
0.561
R²(Cox and Snell)
0.533
R²(Nagelkerke)
0.718
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
130/85
Copyright © 2009 – The McGraw-Hill Companies srl
Modello di regressione logistica
- Esempio (EFIGE – Mezzi trasporto)
Test significatività del modello:
Statistica
-2 log(rapp. verosim.)
GDL
Chi-quadro
Pr > Chi²
3
35.517
<0.001
Coefficienti di bontà di adattamento:
R²(McFadden)
0.411
R²(Cox and Snell)
0.381
R²(Nagelkerke)
0.553
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
131/85
Copyright © 2009 – The McGraw-Hill Companies srl
Scarica

Lucidi Capitolo 4