Analisi e Gestione del Rischio Lezione 9 Non normalità dei rendimenti e simulazione storica Non normalità dei rendimenti • L’assunzione di normalità dei rendimenti non è generalmente supportata dai dati: – Asimmetria – Leptocurtosi • La non-normalità dei rendimenti riguarda sia la specificazione della distribuzione dei fattori di rischio sia la determinazione dei prezzi. Informazione implicita e storica • La letteratura sulla non normalità dei rendimenti riguarda sia l’informazione storica (analisi serie storiche) sia l’informazione implicita (analisi dei prezzi delle opzioni) • Modelli econometrici: hanno studiato possibili distribuzioni alternative alla distribuzione normale • Modelli finanziari: hanno cercato tecniche alternative di determinazione dei prezzi dei titoli derivati (opzioni) coerenti con distribuzioni alternative a quella normale Oltre Black & Scholes • Il modello di Black & Scholes implica la stessa volatilità per ogni contratto derivato • Dal crash del 1987, questa regolarità non è supportata dai dati – La volatilità implicita varia per diversi strike (smile effect) – La volatilità implicita varia per diverse date di esercizio (struttura a termine di volatilità) • Il sottostante non ha distribuzione log-normale. Smile, please! Smiles in the equity markets 4 3,5 Implied Volatility 3 2,5 Mib30 SP500 FTSE Nikkei 2 1,5 1 0,5 0 0,8 0,85 0,9 0,95 1 1,05 Moneyness 1,1 1,15 1,2 1,25 1,3 Non-normalità dei rendimenti • La distribuzione normale è completamente descritta dai primi due momenti, media e varianza. • La varianza di una variabile a distribuzione normale è costante. • Non normalità dei rendimenti significa che la varianza – Non esiste (es. distribuzioni di Cauchy) – E’ una variabile stocastica Momento terzo: asimmetria • La distribuzione normale è simmetrica. • Distribuzione non normale può significare asimmetria nella distribuzione, cioè diversa probabilità di aumento e diminuzione del prezzo • I trader sanno che una distribuzione asimmetrica è legata a volatilità implicite decrescenti all’aumentare della moneyness (trade the skew) Momento quarto: curtosi • La distribuzione normale standard ha curtosi pari a 3. Distribuzioni con eccesso di curtosi presentano il cosiddetto fenomeno di “code grasse” (fat tails) • Leptocurtosi significa che la probabilità di eventi estremi è maggiore di quanto previsto dalla distribuzione normale • Evidenza da serie storiche: ad esempio, un evento come il crollo di borsa del 19/10/87 avrebbe, sotto l’ipotesi di normalità dei rendimenti una probabilità pari a 10-160!! Modelli econometrici • I primi modelli econometrici utilizzati per spiegare la non-normalità dei rendimenti sono stati i modelli Garch. • L’assunzione è che il il rendimento di un titolo segua una distribuzione a media zero e varianza ht: H(0,ht). • La varianza varia nel tempo in funzione di un processo autoregressivo, ad esempio ht = + shock2t-1 + ht -1 Modelli Arch/Garch • Nei modelli Arch/Garch standard si assume che i rendimenti condizionali siano distribuiti normalmente: H(.) è la distribuzione normale • In applicazioni più evolute si assume che anche H non sia distribuita normalmente, ma che sia per esempio una T-student o una funzione GED (generalised error distribution). In alternativa possono anche venire anche utilizzate delle metodologie non parametriche (semi-parametric Garch) Asimmetria di volatilità • Un problema dei modelli Garch è che la risposta del rendimento a shock di segno diverso è la stessa. • Possibili soluzioni consistono nel – distinguere il segno nella equazione dinamica della volatilità Threshold-GARCH (TGARCH) ht = + shock2t-1 + D shock2t-1 + ht -1 D = 1 se lo shock è positivo e zer altrimenti – Utilizzare una forma esponenziale EGARCH log(ht ) = + g (shockt-1 / ht -1 ) + log( ht -1 ) con g(x) = x + ( x - E(x )). Il problema della persistenza • Uno dei problemi dei modelli Garch è il fatto che la stima della volatilità su orizzonti più lontani non è affidabile. Un problema molto rilevante per prodotti di finanza strutturata. • Soluzioni: – Component Garch: ripartizione della varianza in una componente di trend e una di breve periodo – Figarch (Fiegarch): la varianza segue un processo autoregressivo a “integrazione frazionaria”. Dai modelli Garch ai modelli a volatilità stocastica • Un limite dei modelli Garch è che sia la dinamica della variabile che la sua volatilità sono determinati dallo stesso shock. • Perché non considerare due shock distinti, anche se correlati, tra la variabile e la sua volatilità? • Modelli a volatilità stocastica. ht = + shock2t-1 + ht -1 + 2t -1 Break strutturali • Un altro modo di rappresentare la volatilità nel tempo è quello di assumere che la volatilità possa cambiare con un processo “a salto”. • Modelli “switching regime”: la volatilità del processo varia tra un numero finito di possibili “stati” • Modelli “a salto”: la volatilità procede per variazioni “finite”, piuttosto che continue. Dati ad alta frequenza • Per alcuni mercati sono disponibili dati ad alta frequenza (transaction data o tick-by-tick). – Vantaggi: poter analizzare il processo dinamico del prezzo su intervalli di tempo molto brevi – Svantaggi: le statistiche possono essere sporcate da questioni di “microstruttura dei mercati finanziari” • Modelli “realised variance”: utilizzare statistiche intragiornaliere per rappresentare la varianza, invece della variazione (logaritmica) al quadrato su base giornaliera.Tipicamente vengono rilevati i rendimenti su intervalli di 5 minuti. Ne viene calcolata la varianza e successivamente la dinamica giornaliera. Processi stocastici subordinati • Considerate la sequenza delle variazioni logaritmiche del prezzo in un intervallo dato, ad esempio 5 minuti. Il rendimento cumulato R = r1 + r2 +… ri + …+ rN è una variabile che dipende dai processi stocastici a) i rendimenti logaritmici ri. b) il numero delle transazioni N. • R è un processo stocastico subordinato e N è il processo subordinatore. Clark (1973) mostra che R è un processo a “code grasse”. La volatilità sale quando sale il numero delle transazioni, ed è per questo correlata con i volumi. Orologio stocastico • Il fatto che il numero delle transazioni come variabile stocastica induca non-normalità dei rendimenti suggerisce la possibilità di ricavare la normalità dei rendimenti, ponderandoli per tenere conto del diverso numero delle transazioni. • In pratica l’unità di misura del tempo viene cambiata in funzione del numero delle transazioni. Il tempo si dilata e si restringe con il numero di transazioni (stochastic clock) Processi di Lévy • Non solo il tempo viene considerato non continuo, anche i prezzi non sono variabili continue, ma variano di numeri di tick di dimensione finita. • Per questo motivo, un possibile modello di rappresentazione dei prezzi è dato da una variabile “a salti puri” (pure jump). • Processi stocastici misti (diffusivi e a salti) sono noti come processi di Levy. Esempi di utilizzo di processi di Levy: modelli Variance-Gamma, modelli CGMY (Carr-Geman-Madan-Yor). Fat tails • Affrontare la non-normalità dei rendimenti richiede la soluzione di tre problemi – Tecniche di compressione dei dati per l’applicazione di modelli univariati – Determinazione del tipo di informazione da utilizzare – Scelta del modello da utilizzare in sostituzione della distribuzione normale Compressione dei dati • Prima opzione: rivalutare il portafoglio corrente su dati storici e stimare o simulare la distribuzione con tali dati. • Seconda opzione: stimare la distribuzioni dei fattori di rischio più rilevanti e le sensitività del portafoglio a tali fattori • Terza opzione: le tecniche statistiche tradizionali (componenti principali e modelli fattoriali) La distribuzione dei rendimenti • Prima opzione: scegliere un nuovo modello, o una nuova classe di modelli di distribuzione • Seconda opzione: simulare la distribuzione utilizzando dati storici • Terza opzione: determinare scenari estremi per la distribuzione Simulazione storica classica • Rivalutazione del portafoglio su dati storici – ogni insieme di dati storici rappresenta un possibile scenario di mercato • Calcolo dei profitti e perdite del portafoglio sotto ogni scenario • Ordinamento degli scenari per dimensione della perdita – istogramma che rappresenta la distribuzione empirica di profitti e perdite • Calcolo del percentile empirico. – Es. su 100 dati il peggiore rappresenta il VaR all’1%. 11.35% 9.82% 8.29% 6.77% 5.24% 3.71% 2.19% 0.66% -0.87% -2.39% -3.92% -5.45% -6.97% -8.50% -10.03% L’istogramma 250 FIAT 200 150 100 50 0 Simulazione storica classica • Problemi – I dati possono non essere identicamente e indipendentemente distribuiti (i.i.d.) – In particolare, la distribuzione dei rendimenti futuri può variare al variare delle condizioni di mercato – Periodi di alta e bassa volatilità possono essere raggruppati (volatility clustering) • Effetti – Sotto o sopravvalutazione del VaR. FIAT Dec-01 Sep-01 Jun-01 Mar-01 Dec-00 Sep-00 Jun-00 Mar-00 Dec-99 Sep-99 Jun-99 Mar-99 Autocorrelazione della volatilità 0.13 0.08 0.03 -0.02 -0.07 -0.12 Simulazione storica filtrata Barone-Adesi e Giannopoulos • Barone-Adesi e Giannopoulos hanno proposto una modifica dell’algoritmo di simulazione storica basato sul filtraggio preventivo dei dati. • Simulazione storica filtrata – – – – Rivalutazione del portafoglio su dati storici Stima di un modello Garch su tale serie Utilizzo delle stime per filtrare i dati Utilizzo di tecniche bootstrap per simulare l’evoluzione dei rendimenti e della volatilità Simulazione storica filtrata: l’algoritmo • Step 1. Rivalutazione del portafoglio sulla base di dati storici, e calcolo di profitti e perdite in ogni scenario • Step 2. Specificazione e stima di un modello Garch, ad es. t ~ N 0, t Rt t 2 t 2 1 t 1 1 2 t 1 Filtraggio dei dati • Step 3. Calcolare e salvare la serie storica dei residui t, per t = 0, 1, …,T • Step 4. Calcolare e salvare la serie storica delle volatilità t, per t = 1, …,T + 1 • Step 5. Calcolo della serie storica dei residui filtrati zt = t / t per t = 1, …,T L’algoritmo bootstrap… • Step 6. Estrarre n residui filtrati dalla serie storica zt = z(1), z(2), …,z(n) – n è il numero di giorni che rappresenta il periodo di smobilizzo • Step 7. Porre il rendimento simulato al tempo T + 1 uguale a RT+1 = z(1) T+1 = T+1 • Step 8. Calcolo della volatilità T+2. T2 2 1 t21 1 t21 …prima iterazione • Step 9. Ripetere gli step 7 e 8 calcolando RT+i = z(i) T+i = T+i T2i 1 1 t2i 1 1 t2i 1 per i = 2, …,n – 1 • Step 10. Calcolare e salvare RT+n = z(n) T+n = T+n RT+1 + RT+2 + … + RT+i … + RT+n …ripetere NITER volte • Step 11. Ripetere gli step dal 6 al 10 un numero NITER (es. 1000) di iterazioni. • Step 12. Ordinare gli scenari per dimensione della perdita (istogramma) • Step 13. Calcolare il percentile empirico dell’istogramma – Es. nel caso di 1000 iterazioni scegliere il valore decimo peggiore per un percentile dell’1%, il 50 peggiore per il 5%... Applicazioni • Con questa metodologia sono determinati margini alla London Clearing House • Recentemente, in un lavoro Barone-Adesi, Engle e Mancini, la metodologia è stata applicata alla valutazione di opzioni. • In questo caso si utilizza l’algoritmo sopra descritto utilizzando per n i giorni mancanti all’esercizio.