Analisi di scenario File Nr. 12 Giorgio Calcagnini Università di Urbino Dip. Economia, Società, Politica [email protected] http://www.econ.uniurb.it/calcagnini/ http://www.econ.uniurb.it/calcagnini/forecasting.html Anno accademico, 2011/2012 1 Lezione 21/5/2012 Nelle lezioni precedenti abbiamo volutamente trascurato la componente ciclica di una serie. Quando pensiamo ad un ciclo abbiamo in mente una sequenza di fluttuazioni che caratterizzano una serie economica. In termini più generali possiamo dire che che il ciclo è la dinamica di una serie non catturata dal trend e dalla componente stagionale. La forma della componente ciclica non è ben definita, quello che vogliamo è che la serie mostri una certa persistenza, cioè un collegamento tra presente e passato, e il futuro al presente. 2 Lezione 21/5/2012 I cicli sono presenti nella maggior parte delle serie storiche di natura economica, per questo è importante sapere come sono generati perché questa informazione (la loro storia) è utile per effettuare previsioni. La componente di trend e quella stagionale sono relativamente semplici da misurare, mentre quella ciclica è più complessa da descrivere per la presenza di diversi modelli/tipi di ciclicità. Allo scopo di meglio comprendere la complessità della componente ciclica introduciamo la funzione di autocorrelazione (AF) e la funzione di autocorrelazione parziale (PAF). 3 Lezione 21/5/2012 Il coefficiente di correlazione (ρ) è un indicatore della relazione lineare tra due variabili. Nel nostro caso ρ(yt , yt−1 ) misura la relazione che esiste tra i due valori della serie yt e yt−1 . In modo equivalente possiamo pensare ad una sequenza di ρ. Ad esempio, ρ(yt , yt−2 ), ρ(yt , yt−3 ), ..., ρ(yt , yt−n ). La sequenza di questi ρ è la AF della serie yt . Il valore di ρ(yt , yt−2 ) risente anche dell’effetto di ρ(yt , yt−1 ). Cioè, se ρ(yt , yt−2 ) assume un valore elevato, questo potrebbe dipendere dal fatto che, ad esempio, ρ(yt , yt−1 ) è elevato. Diversamente, la PAF è la sequenza di ρ da cui è stato eliminato l’effetto intermedio. Quindi ρ(yt , yt−4 ) misura solo la correlazione tra yt e yt−4 senza che questo valore sia influenzato da ρ(yt , yt−1 ), ρ(yt , yt−2 ), ρ(yt , yt−3 ). 4 Lezione 21/5/2012 Tabella: Funzione di autocorrelazione per IPI LAG 1 2 3 4 5 6 7 8 9 10 11 ACF 0.9493 *** 0.8972 *** 0.8458 *** 0.7906 *** 0.7353 *** 0.6787 *** 0.6196 *** 0.5604 *** 0.5035 *** 0.4474 *** 0.3921 *** PACF 0.9493 *** -0.0397 -0.0206 -0.0661 -0.0307 -0.0457 -0.0584 -0.0368 -0.0141 -0.0283 -0.0295 5 Q-stat. 52.3151 99.9289 143.0545 181.4746 215.3750 244.8483 269.9196 290.8648 308.1391 322.0811 333.0357 [p-value] [0.000] [0.000] [0.000] [0.000] [0.000] [0.000] [0.000] [0.000] [0.000] [0.000] [0.000] Lezione 21/5/2012 Figura: Funzione di autocorrelazione e autocorrelazione parziale per IPI. 6 Lezione 21/5/2012 I risultati riportati sono ottenuti con Gretl, Variabile ⇒ Correlogramma. I coefficienti di correlazione parziale ρ(yt , yt−n ) corrispondono ai coefficienti stimati β̂i di un modello lineare del tipo: yt = α̂0 + β̂1 yt−1 + β̂2 yt−2 + ... + β̂n yt−n Nonostante abbiamo sempre detto che siamo alla ricerca del vero modello, dobbiamo anche essere consapevoli che stiamo cercando un’approssimazione di una realtà complessa. Nel prosieguo considereremo tre approssimazioni: i modelli moving-average (MA), i modelli autoregressivi (AR), e i modelli che sono una combinazione dei due precedenti, cioè gli ARMA. 7 Lezione 21/5/2012 Iniziamo con i modelli MA, assumendo che E (yt ) = 0. Un modello MA(1) ha la seguente forma yt = t + θt−1 , dove ha le consuete proprietà (media 0, varianza σ 2 , e covarianza(t , t−1 )=0). Se E (yt ) 6= 0 allora la funzione precedente includerebbe anche una costante. L’espressione precedente ci dice che la serie yt è la media ponderata dello shock corrente e di quello del periodo precedente. Ora assumiamo di non conoscere il modello precedente, ma di poter analizzare la AF e al PAF di yt . Siamo in grado di risalire al modello? 8 Lezione 21/5/2012 I prossimi due grafici mostrano due diversi MA(1). Il primo con θ = 0.4, il secondo con θ = 0.95. Cosa cambia tra i due modelli in termini economici? 9 Lezione 21/5/2012 Figura: Funzione di autocorrelazione e autocorrelazione parziale MA(1), 10 Lezione 21/5/2012 Figura: Funzione di autocorrelazione e autocorrelazione parziale MA(1), 11 Lezione 21/5/2012 La prima cosa da notare sono le due bande blu che individuano gli intervalli di confidenza dei coefficienti di correlazione (normali e parziali). I coefficienti di correlazione sono rappresentati dalle barre in rosso. Quando le barre debordano dall’intervallo di confidenza significa che il corrispondente coefficiente di correlazione è statisticamente significativo (cioè diverso da 0). In entrambi i casi (cioè i due diversi modelli) vediamo che dei coefficienti di correlazione solo quello a ritardo 1 è statisticamente significativo. Se guardiamo invece i grafici dei coefficienti di correlazione parziale vediamo che nel caso di θ = 0.95 un numero superiore a 1 di barre sta oltre l’intervallo di confidenza. In altri termini, nel secondo caso c’è più persistenza: gli shock rimangono nell’economia più a lungo. 12 Lezione 21/5/2012 Nel caso di modelli MA la AF è più informativa della PAF riguardo all’ordine del processo (cioè sul numero di ritardi). In entrambi i casi solo il primo coefficiente di correlazione è significativo e questo dovrebbe indurci a ipotizzare la presenza di un MA(1). Per una verifica proviamo a stimare l’MA(1). Modello ⇒ Serie storiche ⇒ ARIMA. Nella finestra che si apre selezioniamo la variabile di interesse, e modifichiamo l’Ordine AR a 0. Per il momento lasciamo l’Ordine MA a 1, e Differenza a 0. Clicchiamo su OK e analizziamo le stime. Ci sono almeno 3 risultati da analizzare. 13 Lezione 21/5/2012 Il primo risultato da controllare è la significatività dei coefficienti. Ovviamente ci aspettiamo che il coefficiente θ̂ sia statisticamente diverso da 0. Il passo successivo è quello di controllare che i residui del modello stimato non siano autocorrelati. Per far ciò, nella finestra con i risultati della stima clicco su Grafici ⇒ Correlogramma dei residui. Facendo ciò compare sia il grafico della AF dei residui che una tabella con i valori e il test Q di Box-Pierce la cui H0 è ρi = 0. Infine, come terzo passo, nello scegliere tra due modelli alternativi devo preferire quello con la statistica di Akaike più piccola. Analizziamo i seguenti due grafici. Sapete dire quale tipo di processo li ha generati? 14 Lezione 21/5/2012 Figura: Funzione di autocorrelazione e autocorrelazione parziale MA(?). 15 Lezione 21/5/2012 Figura: Funzione di autocorrelazione e autocorrelazione parziale MA(?). 16 Lezione 21/5/2012 yt = t + 0.5 ∗ t−1 + 0.3 ∗ t−2 . yt = t − 0.5 ∗ t−1 + 0.3 ∗ t−2 . Quindi ci troviamo di fronte a due processi MA(2). L’unica differenza è che il coefficiente di t−1 in un caso è positivo, mentre nell’altro è negativo. Come si vede, l’informazione principale sulla struttura del processo nel caso di MA è contenuta nella AF. E’ importante aggiungere che è sempre cosa utile prima della stima verificare, mediante il test DF, che la serie sia stazionaria. Nel caso non lo fosse, in fase di stima nella finestra delle opzioni è necessario cambiare il parametro Differenza da 0, molto probabilmente, a 1. 17 Lezione 21/5/2012 Passiamo ora a considerare i modelli AR. Un modello AR(1) ha la seguente forma yt = β0 + β1 ∗ yt−1 + t , dove ha le consuete proprietà (media 0, varianza σ 2 , e covarianza(t , t−1 )=0). E’ importante che |β1 | < 1 affinché yt sia stazionaria. L’espressione precedente ci dice che il valore corrente di yt dipende dal suo valore nel periodo precedente. Ci sono molti esempi in economia di variabili che si comportano secondo questo modello. Uno riguarda le decisioni di investimento: un’impresa difficilmente riesce a completare la costruzione di un nuovo impianto in un solo periodo (anno). Di conseguenza, gli investimenti nel periodo corrente dipendono anche dagli investimenti effettuati nel periodo precedente. 18 Lezione 21/5/2012 I prossimi due grafici mostrano due diversi AR(1). Il primo con β1 = 0.6, il secondo con β1 = −0.6. 19 Lezione 21/5/2012 Figura: Funzione di autocorrelazione e autocorrelazione parziale AR(1), 20 Lezione 21/5/2012 Figura: Funzione di autocorrelazione e autocorrelazione parziale AR(1), 21 Lezione 21/5/2012 L’unica differenza tra i due grafici è che, come dovevano attenderci, il coefficiente di correlazione a ritardo 1 è positivo nel primo caso e negativo nel secondo. Come si vede, nel caso dei modelli AR l’informazione principale sulla struttura del processo è contenuta nella PAF. Nei modelli MA l’informazione era invece contenuta nella AF. Vediamo invece come si caratterizzano sia la AF e la PAF nel caso di una serie non stazionaria, cioè quando β1 = 1. 22 Lezione 21/5/2012 Figura: Funzione di autocorrelazione e autocorrelazione parziale AR(1), 23 Lezione 21/5/2012 Vediamo adesso come è fatto un processo AR(2): yt = β0 + β1 ∗ yt−1 + β2 ∗ yt−2 + t , dove ha le consuete proprietà (media 0, varianza σ 2 , e di nuovo gli errori non devono essere serialmente correlati. Affinché un processo AR(2) sia stazionario si deve avere che a) β1 + β2 < 1; b) β2 − β1 < 1; c) |β2 | < 1. In generale possiamo riassumere le condizioni a) e b) come |β1 + β2 | < 1. I prossimi due grafici presentano le funzioni AF e PAF per due distinti processi AR(2). 24 Lezione 21/5/2012 Figura: Funzione di autocorrelazione e autocorrelazione parziale AR(2), 25 Lezione 21/5/2012 Figura: Funzione di autocorrelazione e autocorrelazione parziale AR(2), 26 Lezione 21/5/2012 Cerchiamo di riassumere brevemente i risultati a cui siamo pervenuti solo per serie stazionarie. 27 Lezione 21/5/2012 1 Processo MA(1): la AF mostra una sola barra al di fuori dell’intervallo di confidenza, mentre la PAF decresce con l’aumento dei ritardi. 2 Processo MA(2): la AF mostra due sole barre al di fuori dell’intervallo di confidenza, mentre la PAF decresce con l’aumento dei ritardi. 3 Processo AR(1): la AF decresce con l’aumento dei ritardi, mentre la PAF mostra una sola barra al di fuori dell’intervallo di confidenza. 4 Processo AR(2): la AF decresce con l’aumento dei ritardi, mentre la PAF mostra due sole barre al di fuori dell’intervallo di confidenza. 28 Lezione 21/5/2012 Se invece ci si trovasse di fronte ad una serie non stazionaria allora sarebbe necessario differenziare la serie (un numero di volte sufficiente a rendere la serie stessa stazionaria) e poi analizzarne la AF e la PAF per determinare il tipo di processo che l’ha generata. 29 Lezione 21/5/2012 Può accadere che una serie contenga contemporaneamente le caratteristiche di un processo AR e MA. La lettera I tra AR e MA individua l’ordine di integrazione, cioè il numero di volte che devo differenziare la serie per renderla stazionaria. Ad esempio, un modello ARIMA(1,0,2) presenta una componente autoregressiva di ordine 1 e una moving-average di ordine 2. La serie è stazionaria. Diversamente, un modello ARIMA(1,1,1) è una serie non stazionaria che deve essere differenziata 1 volta, e che contiene una componente autoregressiva di ordine 1 e una moving-average di ordine 1. Vediamo esempi di AF e PAF di modelli ARIMA. 30 Lezione 21/5/2012 Il primo grafico si riferisce ad un modello ARIMA(1,0,1) yt = 0.5 ∗ yt−1 + 0.5 ∗ t−1 + t , mentre il secondo grafico ad un modello ARIMA(2,0,1) yt = 1.2 ∗ yt−1 − 0.8 ∗ yt−2 + 0.4 ∗ t−1 + t . E’ chiaro che sia la AF che la PAF contengono elementi sia dei processi AR che MA. Notiamo che nel primo grafico la AF ha almeno 4 barre che escono dall’intervallo di confidenza, mentre nella PAF le barre che escono dall’intervallo di confidenza sono 3. Tuttavia, le barre più significative sono sempre la prima sia della AF che della PAF. Di conseguenza, il modello più indicato sembra essere un ARMA(1,0,1). 31 Lezione 21/5/2012 Figura: Funzione di autocorrelazione e autocorrelazione parziale 32 Lezione 21/5/2012 Nel caso del secondo grafico, nella AF una sola barra/coefficiente (il primo!) di correlazione sembra essere particolarmente significato (vi ricordate? questo è importante per identificare il MA). Nel caso della PAF, sono i primi due coefficienti a risultare particolarmente significativi. Di nuovo, la PAF è utile per identificare il processo AR. Quindi, il grafico che segue, sembra (!) essere stato generato da un processo ARIMA(2,0,1). 33 Lezione 21/5/2012 Figura: Funzione di autocorrelazione e autocorrelazione parziale 34 Lezione 21/5/2012 Cosa accade se abbiamo una serie a frequenza trimestrale o mensile che presenta caratteristiche stagionali? (es. la produzione industriale ad Agosto!) Supponiamo che yt sia trimestrale e presenti stagionalità. Se il modello fosse un ARIMA(1,0,1) dovremmo modificare le opzioni in Gretl. Solo in presenza di frequenza diversa da quella annuale, all’interno della finestra di selezione del modello è presente una sezione Stagionale all’interno della quale selezionare le componenti AR e MA. 35 Lezione 21/5/2012 Nell’esempio che stiamo discutendo si seleziona di nuovo AR(1) e MA(1). Questa selezione implica che nel modello vengano inserite nuove variabili, specificamente yt−4 , yt−5 , t−4 e t−5 . Nell’ipotesi che E (yt ) = 0, yt = αyt−1 + βyt−4 + αβyt−5 + t + θt−1 + γt−4 + θγt−5 36 Lezione 21/5/2012 Cerchiamo a questo punto di riassumere i vari punti della strategia empirica fin qui analizzata che nota anche il nome di Box-Jenkins che l’hanno inizialmente proposta. Questa strategia si compone di 4 fasi: 1 2 3 4 identificazione stima controllo delle stime previsione Di seguito vediamo queste diverse fasi. 37 Lezione 21/5/2012 1. Identificazione. 1 Verificare che la serie sia stazionaria ⇒ test Dickey-Fuller 2 Analizzare i grafici della AF e della PAF. 3 Ipotizzare il tipo di processo da stimare: AR, MA, ARMA, ARIMA. 38 Lezione 21/5/2012 2. Stima e 3. Controllo delle stime. 1 Modello ⇒ Serie storiche ⇒ ARIMA 2 Verificare l’assenza di correlazione seriale nei residui ⇒ Correlogramma dei residui (tutti i coefficienti di correlazione devono essere compresi all’interno dell’intervallo di confidenza). 3 Verificare la significatività dei coefficienti stimati. 4 Tra modelli alternativi utilizzare il modello che minimizza la statistica di Akaike (Schwarz) e verificare nuovamente l’assenza di correlazione seriale nei residui. Lezione 21/5/2012 2. Previsione. 1 Dalla finestra delle stime selezionare Analisi ⇒ Previsione ⇒ Selezionare il numero di periodi per i quali si desidera la previsione 2 Cliccare sul pulsante + per salvare i valori previsti nel database. 40 Grazie!! Grazie della vostra attenzione. Questa presentazione sarà disponibile all’indirizzo: http://www.econ.uniurb.it/calcagnini 41