Analisi di scenario
File Nr. 12
Giorgio Calcagnini
Università di Urbino
Dip. Economia, Società, Politica
[email protected]
http://www.econ.uniurb.it/calcagnini/
http://www.econ.uniurb.it/calcagnini/forecasting.html
Anno accademico, 2011/2012
1
Lezione 21/5/2012
Nelle lezioni precedenti abbiamo volutamente trascurato la
componente ciclica di una serie.
Quando pensiamo ad un ciclo abbiamo in mente una sequenza
di fluttuazioni che caratterizzano una serie economica.
In termini più generali possiamo dire che che il ciclo è la
dinamica di una serie non catturata dal trend e dalla
componente stagionale.
La forma della componente ciclica non è ben definita, quello
che vogliamo è che la serie mostri una certa persistenza, cioè
un collegamento tra presente e passato, e il futuro al presente.
2
Lezione 21/5/2012
I cicli sono presenti nella maggior parte delle serie storiche di
natura economica, per questo è importante sapere come sono
generati perché questa informazione (la loro storia) è utile per
effettuare previsioni.
La componente di trend e quella stagionale sono relativamente
semplici da misurare, mentre quella ciclica è più complessa da
descrivere per la presenza di diversi modelli/tipi di ciclicità.
Allo scopo di meglio comprendere la complessità della
componente ciclica introduciamo la funzione di
autocorrelazione (AF) e la funzione di autocorrelazione
parziale (PAF).
3
Lezione 21/5/2012
Il coefficiente di correlazione (ρ) è un indicatore della relazione
lineare tra due variabili. Nel nostro caso ρ(yt , yt−1 ) misura la
relazione che esiste tra i due valori della serie yt e yt−1 .
In modo equivalente possiamo pensare ad una sequenza di ρ.
Ad esempio, ρ(yt , yt−2 ), ρ(yt , yt−3 ), ..., ρ(yt , yt−n ). La
sequenza di questi ρ è la AF della serie yt .
Il valore di ρ(yt , yt−2 ) risente anche dell’effetto di ρ(yt , yt−1 ).
Cioè, se ρ(yt , yt−2 ) assume un valore elevato, questo potrebbe
dipendere dal fatto che, ad esempio, ρ(yt , yt−1 ) è elevato.
Diversamente, la PAF è la sequenza di ρ da cui è stato
eliminato l’effetto intermedio. Quindi ρ(yt , yt−4 ) misura solo
la correlazione tra yt e yt−4 senza che questo valore sia
influenzato da ρ(yt , yt−1 ), ρ(yt , yt−2 ), ρ(yt , yt−3 ).
4
Lezione 21/5/2012
Tabella: Funzione di autocorrelazione per IPI
LAG
1
2
3
4
5
6
7
8
9
10
11
ACF
0.9493 ***
0.8972 ***
0.8458 ***
0.7906 ***
0.7353 ***
0.6787 ***
0.6196 ***
0.5604 ***
0.5035 ***
0.4474 ***
0.3921 ***
PACF
0.9493 ***
-0.0397
-0.0206
-0.0661
-0.0307
-0.0457
-0.0584
-0.0368
-0.0141
-0.0283
-0.0295
5
Q-stat.
52.3151
99.9289
143.0545
181.4746
215.3750
244.8483
269.9196
290.8648
308.1391
322.0811
333.0357
[p-value]
[0.000]
[0.000]
[0.000]
[0.000]
[0.000]
[0.000]
[0.000]
[0.000]
[0.000]
[0.000]
[0.000]
Lezione 21/5/2012
Figura: Funzione di autocorrelazione e autocorrelazione parziale per IPI.
6
Lezione 21/5/2012
I risultati riportati sono ottenuti con Gretl, Variabile ⇒
Correlogramma.
I coefficienti di correlazione parziale ρ(yt , yt−n ) corrispondono
ai coefficienti stimati β̂i di un modello lineare del tipo:
yt = α̂0 + β̂1 yt−1 + β̂2 yt−2 + ... + β̂n yt−n
Nonostante abbiamo sempre detto che siamo alla ricerca del
vero modello, dobbiamo anche essere consapevoli che stiamo
cercando un’approssimazione di una realtà complessa.
Nel prosieguo considereremo tre approssimazioni: i modelli
moving-average (MA), i modelli autoregressivi (AR), e i
modelli che sono una combinazione dei due precedenti, cioè gli
ARMA.
7
Lezione 21/5/2012
Iniziamo con i modelli MA, assumendo che E (yt ) = 0.
Un modello MA(1) ha la seguente forma yt = t + θt−1 , dove
ha le consuete proprietà (media 0, varianza σ 2 , e
covarianza(t , t−1 )=0).
Se E (yt ) 6= 0 allora la funzione precedente includerebbe anche
una costante.
L’espressione precedente ci dice che la serie yt è la media
ponderata dello shock corrente e di quello del periodo
precedente.
Ora assumiamo di non conoscere il modello precedente, ma di
poter analizzare la AF e al PAF di yt . Siamo in grado di
risalire al modello?
8
Lezione 21/5/2012
I prossimi due grafici mostrano due diversi MA(1). Il primo
con θ = 0.4, il secondo con θ = 0.95.
Cosa cambia tra i due modelli in termini economici?
9
Lezione 21/5/2012
Figura: Funzione di autocorrelazione e autocorrelazione parziale MA(1),
10
Lezione 21/5/2012
Figura: Funzione di autocorrelazione e autocorrelazione parziale MA(1),
11
Lezione 21/5/2012
La prima cosa da notare sono le due bande blu che individuano
gli intervalli di confidenza dei coefficienti di correlazione
(normali e parziali).
I coefficienti di correlazione sono rappresentati dalle barre in
rosso. Quando le barre debordano dall’intervallo di confidenza
significa che il corrispondente coefficiente di correlazione è
statisticamente significativo (cioè diverso da 0).
In entrambi i casi (cioè i due diversi modelli) vediamo che dei
coefficienti di correlazione solo quello a ritardo 1 è
statisticamente significativo.
Se guardiamo invece i grafici dei coefficienti di correlazione
parziale vediamo che nel caso di θ = 0.95 un numero superiore
a 1 di barre sta oltre l’intervallo di confidenza.
In altri termini, nel secondo caso c’è più persistenza: gli shock
rimangono nell’economia più a lungo.
12
Lezione 21/5/2012
Nel caso di modelli MA la AF è più informativa della PAF
riguardo all’ordine del processo (cioè sul numero di ritardi).
In entrambi i casi solo il primo coefficiente di correlazione è
significativo e questo dovrebbe indurci a ipotizzare la presenza
di un MA(1).
Per una verifica proviamo a stimare l’MA(1). Modello ⇒ Serie
storiche ⇒ ARIMA.
Nella finestra che si apre selezioniamo la variabile di interesse,
e modifichiamo l’Ordine AR a 0. Per il momento lasciamo
l’Ordine MA a 1, e Differenza a 0. Clicchiamo su OK e
analizziamo le stime.
Ci sono almeno 3 risultati da analizzare.
13
Lezione 21/5/2012
Il primo risultato da controllare è la significatività dei
coefficienti. Ovviamente ci aspettiamo che il coefficiente θ̂ sia
statisticamente diverso da 0.
Il passo successivo è quello di controllare che i residui del
modello stimato non siano autocorrelati. Per far ciò, nella
finestra con i risultati della stima clicco su Grafici ⇒
Correlogramma dei residui.
Facendo ciò compare sia il grafico della AF dei residui che una
tabella con i valori e il test Q di Box-Pierce la cui H0 è ρi = 0.
Infine, come terzo passo, nello scegliere tra due modelli
alternativi devo preferire quello con la statistica di Akaike più
piccola.
Analizziamo i seguenti due grafici. Sapete dire quale tipo di
processo li ha generati?
14
Lezione 21/5/2012
Figura: Funzione di autocorrelazione e autocorrelazione parziale MA(?).
15
Lezione 21/5/2012
Figura: Funzione di autocorrelazione e autocorrelazione parziale MA(?).
16
Lezione 21/5/2012
yt = t + 0.5 ∗ t−1 + 0.3 ∗ t−2 .
yt = t − 0.5 ∗ t−1 + 0.3 ∗ t−2 .
Quindi ci troviamo di fronte a due processi MA(2). L’unica
differenza è che il coefficiente di t−1 in un caso è positivo,
mentre nell’altro è negativo.
Come si vede, l’informazione principale sulla struttura del
processo nel caso di MA è contenuta nella AF.
E’ importante aggiungere che è sempre cosa utile prima della
stima verificare, mediante il test DF, che la serie sia
stazionaria. Nel caso non lo fosse, in fase di stima nella
finestra delle opzioni è necessario cambiare il parametro
Differenza da 0, molto probabilmente, a 1.
17
Lezione 21/5/2012
Passiamo ora a considerare i modelli AR.
Un modello AR(1) ha la seguente forma
yt = β0 + β1 ∗ yt−1 + t , dove ha le consuete proprietà
(media 0, varianza σ 2 , e covarianza(t , t−1 )=0).
E’ importante che |β1 | < 1 affinché yt sia stazionaria.
L’espressione precedente ci dice che il valore corrente di yt
dipende dal suo valore nel periodo precedente. Ci sono molti
esempi in economia di variabili che si comportano secondo
questo modello.
Uno riguarda le decisioni di investimento: un’impresa
difficilmente riesce a completare la costruzione di un nuovo
impianto in un solo periodo (anno). Di conseguenza, gli
investimenti nel periodo corrente dipendono anche dagli
investimenti effettuati nel periodo precedente.
18
Lezione 21/5/2012
I prossimi due grafici mostrano due diversi AR(1). Il primo con
β1 = 0.6, il secondo con β1 = −0.6.
19
Lezione 21/5/2012
Figura: Funzione di autocorrelazione e autocorrelazione parziale AR(1),
20
Lezione 21/5/2012
Figura: Funzione di autocorrelazione e autocorrelazione parziale AR(1),
21
Lezione 21/5/2012
L’unica differenza tra i due grafici è che, come dovevano
attenderci, il coefficiente di correlazione a ritardo 1 è positivo
nel primo caso e negativo nel secondo.
Come si vede, nel caso dei modelli AR l’informazione principale
sulla struttura del processo è contenuta nella PAF. Nei modelli
MA l’informazione era invece contenuta nella AF.
Vediamo invece come si caratterizzano sia la AF e la PAF nel
caso di una serie non stazionaria, cioè quando β1 = 1.
22
Lezione 21/5/2012
Figura: Funzione di autocorrelazione e autocorrelazione parziale AR(1),
23
Lezione 21/5/2012
Vediamo adesso come è fatto un processo AR(2):
yt = β0 + β1 ∗ yt−1 + β2 ∗ yt−2 + t , dove ha le consuete
proprietà (media 0, varianza σ 2 , e di nuovo gli errori non
devono essere serialmente correlati.
Affinché un processo AR(2) sia stazionario si deve avere che a)
β1 + β2 < 1; b) β2 − β1 < 1; c) |β2 | < 1. In generale
possiamo riassumere le condizioni a) e b) come |β1 + β2 | < 1.
I prossimi due grafici presentano le funzioni AF e PAF per due
distinti processi AR(2).
24
Lezione 21/5/2012
Figura: Funzione di autocorrelazione e autocorrelazione parziale AR(2),
25
Lezione 21/5/2012
Figura: Funzione di autocorrelazione e autocorrelazione parziale AR(2),
26
Lezione 21/5/2012
Cerchiamo di riassumere brevemente i risultati a cui siamo
pervenuti solo per serie stazionarie.
27
Lezione 21/5/2012
1
Processo MA(1): la AF mostra una sola barra al di fuori
dell’intervallo di confidenza, mentre la PAF decresce con
l’aumento dei ritardi.
2
Processo MA(2): la AF mostra due sole barre al di fuori
dell’intervallo di confidenza, mentre la PAF decresce con
l’aumento dei ritardi.
3
Processo AR(1): la AF decresce con l’aumento dei ritardi,
mentre la PAF mostra una sola barra al di fuori dell’intervallo
di confidenza.
4
Processo AR(2): la AF decresce con l’aumento dei ritardi,
mentre la PAF mostra due sole barre al di fuori dell’intervallo
di confidenza.
28
Lezione 21/5/2012
Se invece ci si trovasse di fronte ad una serie non stazionaria
allora sarebbe necessario differenziare la serie (un numero di
volte sufficiente a rendere la serie stessa stazionaria)
e poi analizzarne la AF e la PAF per determinare il tipo di
processo che l’ha generata.
29
Lezione 21/5/2012
Può accadere che una serie contenga contemporaneamente le
caratteristiche di un processo AR e MA.
La lettera I tra AR e MA individua l’ordine di integrazione,
cioè il numero di volte che devo differenziare la serie per
renderla stazionaria.
Ad esempio, un modello ARIMA(1,0,2) presenta una
componente autoregressiva di ordine 1 e una moving-average
di ordine 2. La serie è stazionaria.
Diversamente, un modello ARIMA(1,1,1) è una serie non
stazionaria che deve essere differenziata 1 volta, e che contiene
una componente autoregressiva di ordine 1 e una
moving-average di ordine 1.
Vediamo esempi di AF e PAF di modelli ARIMA.
30
Lezione 21/5/2012
Il primo grafico si riferisce ad un modello ARIMA(1,0,1)
yt = 0.5 ∗ yt−1 + 0.5 ∗ t−1 + t , mentre il secondo grafico ad
un modello ARIMA(2,0,1)
yt = 1.2 ∗ yt−1 − 0.8 ∗ yt−2 + 0.4 ∗ t−1 + t .
E’ chiaro che sia la AF che la PAF contengono elementi sia dei
processi AR che MA.
Notiamo che nel primo grafico la AF ha almeno 4 barre che
escono dall’intervallo di confidenza, mentre nella PAF le barre
che escono dall’intervallo di confidenza sono 3.
Tuttavia, le barre più significative sono sempre la prima sia
della AF che della PAF.
Di conseguenza, il modello più indicato sembra essere un
ARMA(1,0,1).
31
Lezione 21/5/2012
Figura: Funzione di autocorrelazione e autocorrelazione parziale
32
Lezione 21/5/2012
Nel caso del secondo grafico, nella AF una sola
barra/coefficiente (il primo!) di correlazione sembra essere
particolarmente significato (vi ricordate? questo è importante
per identificare il MA).
Nel caso della PAF, sono i primi due coefficienti a risultare
particolarmente significativi. Di nuovo, la PAF è utile per
identificare il processo AR.
Quindi, il grafico che segue, sembra (!) essere stato generato
da un processo ARIMA(2,0,1).
33
Lezione 21/5/2012
Figura: Funzione di autocorrelazione e autocorrelazione parziale
34
Lezione 21/5/2012
Cosa accade se abbiamo una serie a frequenza trimestrale o
mensile che presenta caratteristiche stagionali? (es. la
produzione industriale ad Agosto!)
Supponiamo che yt sia trimestrale e presenti stagionalità.
Se il modello fosse un ARIMA(1,0,1) dovremmo modificare le
opzioni in Gretl.
Solo in presenza di frequenza diversa da quella annuale,
all’interno della finestra di selezione del modello è presente una
sezione Stagionale all’interno della quale selezionare le
componenti AR e MA.
35
Lezione 21/5/2012
Nell’esempio che stiamo discutendo si seleziona di nuovo
AR(1) e MA(1).
Questa selezione implica che nel modello vengano inserite
nuove variabili, specificamente yt−4 , yt−5 , t−4 e t−5 .
Nell’ipotesi che E (yt ) = 0,
yt = αyt−1 + βyt−4 + αβyt−5 + t + θt−1 + γt−4 + θγt−5
36
Lezione 21/5/2012
Cerchiamo a questo punto di riassumere i vari punti della
strategia empirica fin qui analizzata che nota anche il nome di
Box-Jenkins che l’hanno inizialmente proposta.
Questa strategia si compone di 4 fasi:
1
2
3
4
identificazione
stima
controllo delle stime
previsione
Di seguito vediamo queste diverse fasi.
37
Lezione 21/5/2012
1. Identificazione.
1
Verificare che la serie sia stazionaria ⇒ test Dickey-Fuller
2
Analizzare i grafici della AF e della PAF.
3
Ipotizzare il tipo di processo da stimare: AR, MA, ARMA,
ARIMA.
38
Lezione 21/5/2012
2. Stima e 3. Controllo delle stime.
1
Modello ⇒ Serie storiche ⇒ ARIMA
2
Verificare l’assenza di correlazione seriale nei residui ⇒
Correlogramma dei residui (tutti i coefficienti di correlazione
devono essere compresi all’interno dell’intervallo di confidenza).
3
Verificare la significatività dei coefficienti stimati.
4
Tra modelli alternativi utilizzare il modello che minimizza la
statistica di Akaike (Schwarz) e verificare nuovamente
l’assenza di correlazione seriale nei residui.
Lezione 21/5/2012
2. Previsione.
1
Dalla finestra delle stime selezionare Analisi ⇒ Previsione ⇒
Selezionare il numero di periodi per i quali si desidera la
previsione
2
Cliccare sul pulsante + per salvare i valori previsti nel
database.
40
Grazie!!
Grazie della vostra attenzione.
Questa presentazione sarà disponibile all’indirizzo:
http://www.econ.uniurb.it/calcagnini
41
Scarica

- Università di Urbino