Analisi e Gestione del Rischio
Lezione 9
Non normalità dei rendimenti e
simulazione storica
Non normalità dei rendimenti
• L’assunzione di normalità dei rendimenti non è
generalmente supportata dai dati:
– Asimmetria
– Leptocurtosi
• La non-normalità dei rendimenti riguarda sia la
specificazione della distribuzione dei fattori di
rischio sia la determinazione dei prezzi.
Informazione implicita e storica
• La letteratura sulla non normalità dei rendimenti
riguarda sia l’informazione storica (analisi serie
storiche) sia l’informazione implicita (analisi dei
prezzi delle opzioni)
• Modelli econometrici: hanno studiato possibili
distribuzioni alternative alla distribuzione normale
• Modelli finanziari: hanno cercato tecniche
alternative di determinazione dei prezzi dei titoli
derivati (opzioni) coerenti con distribuzioni
alternative a quella normale
Oltre Black & Scholes
• Il modello di Black & Scholes implica la stessa
volatilità per ogni contratto derivato
• Dal crash del 1987, questa regolarità non è
supportata dai dati
– La volatilità implicita varia per diversi strike
(smile effect)
– La volatilità implicita varia per diverse date di
esercizio (struttura a termine di volatilità)
• Il sottostante non ha distribuzione log-normale.
Smile, please!
Smiles in the equity markets
4
3,5
Implied Volatility
3
2,5
Mib30
SP500
FTSE
Nikkei
2
1,5
1
0,5
0
0,8
0,85
0,9
0,95
1
1,05
Moneyness
1,1
1,15
1,2
1,25
1,3
Non-normalità dei rendimenti
• La distribuzione normale è completamente
descritta dai primi due momenti, media e varianza.
• La varianza di una variabile a distribuzione
normale è costante.
• Non normalità dei rendimenti significa che la
varianza
– Non esiste (es. distribuzioni di Cauchy)
– E’ una variabile stocastica
Momento terzo: asimmetria
• La distribuzione normale è simmetrica.
• Distribuzione non normale può significare
asimmetria nella distribuzione, cioè diversa
probabilità di aumento e diminuzione del prezzo
• I trader sanno che una distribuzione asimmetrica è
legata a volatilità implicite decrescenti
all’aumentare della moneyness (trade the skew)
Momento quarto: curtosi
• La distribuzione normale standard ha curtosi pari a
3. Distribuzioni con eccesso di curtosi presentano
il cosiddetto fenomeno di “code grasse” (fat tails)
• Leptocurtosi significa che la probabilità di eventi
estremi è maggiore di quanto previsto dalla
distribuzione normale
• Evidenza da serie storiche: ad esempio, un evento
come il crollo di borsa del 19/10/87 avrebbe, sotto
l’ipotesi di normalità dei rendimenti una
probabilità pari a 10-160!!
Modelli econometrici
• I primi modelli econometrici utilizzati per spiegare
la non-normalità dei rendimenti sono stati i
modelli Garch.
• L’assunzione è che il il rendimento di un titolo
segua una distribuzione a media zero e varianza ht:
H(0,ht).
• La varianza varia nel tempo in funzione di un
processo autoregressivo, ad esempio
ht =  +  shock2t-1 +  ht -1
Modelli Arch/Garch
• Nei modelli Arch/Garch standard si assume che i
rendimenti condizionali siano distribuiti
normalmente: H(.) è la distribuzione normale
• In applicazioni più evolute si assume che anche H
non sia distribuita normalmente, ma che sia per
esempio una T-student o una funzione GED
(generalised error distribution). In alternativa
possono anche venire anche utilizzate delle
metodologie non parametriche (semi-parametric
Garch)
Asimmetria di volatilità
• Un problema dei modelli Garch è che la risposta del
rendimento a shock di segno diverso è la stessa.
• Possibili soluzioni consistono nel
– distinguere il segno nella equazione dinamica della
volatilità Threshold-GARCH (TGARCH)
ht =  +  shock2t-1 +  D shock2t-1 +  ht -1
D = 1 se lo shock è positivo e zer altrimenti
– Utilizzare una forma esponenziale EGARCH
log(ht ) =  + g (shockt-1 / ht -1 ) +  log( ht -1 )
con g(x) = x + ( x - E(x )).
Il problema della persistenza
• Uno dei problemi dei modelli Garch è il fatto che
la stima della volatilità su orizzonti più lontani non
è affidabile. Un problema molto rilevante per
prodotti di finanza strutturata.
• Soluzioni:
– Component Garch: ripartizione della varianza in una
componente di trend e una di breve periodo
– Figarch (Fiegarch): la varianza segue un processo
autoregressivo a “integrazione frazionaria”.
Dai modelli Garch ai modelli a
volatilità stocastica
• Un limite dei modelli Garch è che sia la
dinamica della variabile che la sua volatilità
sono determinati dallo stesso shock.
• Perché non considerare due shock distinti,
anche se correlati, tra la variabile e la sua
volatilità?
• Modelli a volatilità stocastica.
ht =  +  shock2t-1 +  ht -1 + 2t -1
Break strutturali
• Un altro modo di rappresentare la volatilità nel
tempo è quello di assumere che la volatilità possa
cambiare con un processo “a salto”.
• Modelli “switching regime”: la volatilità del
processo varia tra un numero finito di possibili
“stati”
• Modelli “a salto”: la volatilità procede per
variazioni “finite”, piuttosto che continue.
Dati ad alta frequenza
• Per alcuni mercati sono disponibili dati ad alta frequenza
(transaction data o tick-by-tick).
– Vantaggi: poter analizzare il processo dinamico del
prezzo su intervalli di tempo molto brevi
– Svantaggi: le statistiche possono essere sporcate da
questioni di “microstruttura dei mercati finanziari”
• Modelli “realised variance”: utilizzare statistiche intragiornaliere per rappresentare la varianza, invece della
variazione (logaritmica) al quadrato su base
giornaliera.Tipicamente vengono rilevati i rendimenti su
intervalli di 5 minuti. Ne viene calcolata la varianza e
successivamente la dinamica giornaliera.
Processi stocastici subordinati
• Considerate la sequenza delle variazioni logaritmiche del
prezzo in un intervallo dato, ad esempio 5 minuti. Il
rendimento cumulato
R = r1 + r2 +… ri + …+ rN
è una variabile che dipende dai processi stocastici
a) i rendimenti logaritmici ri.
b) il numero delle transazioni N.
• R è un processo stocastico subordinato e N è il processo
subordinatore. Clark (1973) mostra che R è un processo a
“code grasse”. La volatilità sale quando sale il numero
delle transazioni, ed è per questo correlata con i volumi.
Orologio stocastico
• Il fatto che il numero delle transazioni come
variabile stocastica induca non-normalità dei
rendimenti suggerisce la possibilità di ricavare la
normalità dei rendimenti, ponderandoli per tenere
conto del diverso numero delle transazioni.
• In pratica l’unità di misura del tempo viene
cambiata in funzione del numero delle transazioni.
Il tempo si dilata e si restringe con il numero di
transazioni (stochastic clock)
Processi di Lévy
• Non solo il tempo viene considerato non continuo,
anche i prezzi non sono variabili continue, ma
variano di numeri di tick di dimensione finita.
• Per questo motivo, un possibile modello di
rappresentazione dei prezzi è dato da una variabile
“a salti puri” (pure jump).
• Processi stocastici misti (diffusivi e a salti) sono
noti come processi di Levy. Esempi di utilizzo di
processi di Levy: modelli Variance-Gamma,
modelli CGMY (Carr-Geman-Madan-Yor).
Fat tails
• Affrontare la non-normalità dei rendimenti
richiede la soluzione di tre problemi
– Tecniche di compressione dei dati per
l’applicazione di modelli univariati
– Determinazione del tipo di informazione da
utilizzare
– Scelta del modello da utilizzare in sostituzione
della distribuzione normale
Compressione dei dati
• Prima opzione: rivalutare il portafoglio corrente su
dati storici e stimare o simulare la distribuzione
con tali dati.
• Seconda opzione: stimare la distribuzioni dei
fattori di rischio più rilevanti e le sensitività del
portafoglio a tali fattori
• Terza opzione: le tecniche statistiche tradizionali
(componenti principali e modelli fattoriali)
La distribuzione dei rendimenti
• Prima opzione: scegliere un nuovo modello,
o una nuova classe di modelli di
distribuzione
• Seconda opzione: simulare la distribuzione
utilizzando dati storici
• Terza opzione: determinare scenari estremi
per la distribuzione
Simulazione storica classica
• Rivalutazione del portafoglio su dati storici
– ogni insieme di dati storici rappresenta un possibile
scenario di mercato
• Calcolo dei profitti e perdite del portafoglio sotto
ogni scenario
• Ordinamento degli scenari per dimensione della
perdita
– istogramma che rappresenta la distribuzione empirica di
profitti e perdite
• Calcolo del percentile empirico.
– Es. su 100 dati il peggiore rappresenta il VaR all’1%.
11.35%
9.82%
8.29%
6.77%
5.24%
3.71%
2.19%
0.66%
-0.87%
-2.39%
-3.92%
-5.45%
-6.97%
-8.50%
-10.03%
L’istogramma
250
FIAT
200
150
100
50
0
Simulazione storica classica
• Problemi
– I dati possono non essere identicamente e
indipendentemente distribuiti (i.i.d.)
– In particolare, la distribuzione dei rendimenti futuri può
variare al variare delle condizioni di mercato
– Periodi di alta e bassa volatilità possono essere
raggruppati (volatility clustering)
• Effetti
– Sotto o sopravvalutazione del VaR.
FIAT
Dec-01
Sep-01
Jun-01
Mar-01
Dec-00
Sep-00
Jun-00
Mar-00
Dec-99
Sep-99
Jun-99
Mar-99
Autocorrelazione della volatilità
0.13
0.08
0.03
-0.02
-0.07
-0.12
Simulazione storica filtrata
Barone-Adesi e Giannopoulos
• Barone-Adesi e Giannopoulos hanno proposto una
modifica dell’algoritmo di simulazione storica
basato sul filtraggio preventivo dei dati.
• Simulazione storica filtrata
–
–
–
–
Rivalutazione del portafoglio su dati storici
Stima di un modello Garch su tale serie
Utilizzo delle stime per filtrare i dati
Utilizzo di tecniche bootstrap per simulare l’evoluzione
dei rendimenti e della volatilità
Simulazione storica filtrata:
l’algoritmo
• Step 1. Rivalutazione del portafoglio sulla base di
dati storici, e calcolo di profitti e perdite in ogni
scenario
• Step 2. Specificazione e stima di un modello
Garch, ad es.
 t ~ N 0,  t 
Rt   t
    
2
t
2
1 t 1
 1
2
t 1
Filtraggio dei dati
• Step 3. Calcolare e salvare la serie storica
dei residui t, per t = 0, 1, …,T
• Step 4. Calcolare e salvare la serie storica
delle volatilità t, per t = 1, …,T + 1
• Step 5. Calcolo della serie storica dei
residui filtrati
zt = t / t
per t = 1, …,T
L’algoritmo bootstrap…
• Step 6. Estrarre n residui filtrati dalla serie storica zt = z(1),
z(2), …,z(n)
– n è il numero di giorni che rappresenta il periodo di smobilizzo
• Step 7. Porre il rendimento simulato al tempo T + 1 uguale a
RT+1 = z(1) T+1 = T+1
• Step 8. Calcolo della volatilità T+2.
 T2 2    1 t21  1 t21
…prima iterazione
• Step 9. Ripetere gli step 7 e 8 calcolando
RT+i = z(i) T+i = T+i
 T2i 1    1 t2i 1  1 t2i 1
per i = 2, …,n – 1
• Step 10. Calcolare e salvare
RT+n = z(n) T+n = T+n
RT+1 + RT+2 + … + RT+i … + RT+n
…ripetere NITER volte
• Step 11. Ripetere gli step dal 6 al 10 un numero
NITER (es. 1000) di iterazioni.
• Step 12. Ordinare gli scenari per dimensione della
perdita (istogramma)
• Step 13. Calcolare il percentile empirico
dell’istogramma
– Es. nel caso di 1000 iterazioni scegliere il valore
decimo peggiore per un percentile dell’1%, il 50
peggiore per il 5%...
Applicazioni
• Con questa metodologia sono determinati
margini alla London Clearing House
• Recentemente, in un lavoro Barone-Adesi,
Engle e Mancini, la metodologia è stata
applicata alla valutazione di opzioni.
• In questo caso si utilizza l’algoritmo sopra
descritto utilizzando per n i giorni mancanti
all’esercizio.
Scarica

R T+i