Università degli Studi di Trieste
Facoltà di Economia
Tesi di Laurea Magistrale in
Scienze statistiche ed attuariali
Approccio stocastico
alla modellizzazione del requisito
di capitale in ottica Solvency II
Laureando
Artur Vittori Manukian
Relatore
Prof. Ermanno Pitacco
Università degli Studi di Trieste
Correlatori
Prof. Nicola Torelli
Università degli Studi di Trieste
Dott. Simone Querzoni
Assicurazioni Generali S.p.A.
Anno accademico 2011/2012
2
A mio nonno
Mihail Kutischev Anatolievisch
1937 – 1997
Professore di fisica presso l’Università di Kiev
3
4
Sommario
Introduzione ........................................................................................................................................................... 9
1
La direttiva Solvency II ..........................................................................................................................12
1.1
1.2
La struttura ........................................................................................................................................15
I pilastro - “Minimum financial requirement” .....................................................................16
1.2.1
1.2.2
1.2.3
1.2.4
Il Minimum Capital Requirement ....................................................................................18
Il Solvency Capital Requirement .....................................................................................18
Le origini del VaR ...................................................................................................................20
Il modello Delta-Normal di Garbade (1986) .............................................................. 21
1.2.5
I limiti della standard formula: contesti nell’industria assicurativa in cui la
1.2.6
Uno studio su trenta compagnie di assicurazione ................................................... 29
sua applicazione è inadeguata ............................................................................................................25
1.2.7
Il modello interno ..................................................................................................................31
1.3.1
ORSA ............................................................................................................................................33
1.3
II pilastro – “Governance requirements” ...............................................................................33
1.4
III pilastro – “requisiti di disclosure e reporting” .............................................................. 35
1.5
Impatto sulla cultura aziendale e sulle strategie ................................................................ 35
5
2
Modelli alternativi per il calcolo del requisito patrimoniale di solvibilità ....................... 36
2.1
2.2
Una generalizzazione del calcolo del SCR secondo la direttiva .................................... 37
Portafogli replicanti ........................................................................................................................38
2.2.1
2.2.2
Un esempio pratico ...............................................................................................................39
2.2.4
Ambiente di rischio multidimensionale .......................................................................45
2.2.3
2.3
2.4
Strategia statica con payoff complessi e strumenti ................................................. 42
Simulazioni stocastiche annidate..............................................................................................48
Metodi per la riduzione dello sforzo computazionale...................................................... 51
2.4.1
Riduzione dei model point .................................................................................................52
2.4.3
Distribuzione efficiente degli scenari interni tra i model point ......................... 54
2.4.2
3
Portafogli replicanti per il calcolo del requisito patrimoniale di solvibilità.. 38
Riduzione del numero degli scenari risk-neutral ..................................................... 53
2.5
Tecnica del curve fitting ...............................................................................................................56
3.1
Introduzione al modello LSMC ...................................................................................................62
Least-Squares Monte Carlo ..................................................................................................................61
3.1.1
3.1.2
Il LSMC per valutare un’opzione put..............................................................................63
Considerazioni sull’utilizzo del modello in un contesto assicurativo .............. 65
3.1.3
Il LSMC per le politiche di gestione ................................................................................67
3.2.1
Descrizione delle grandezze di interesse .....................................................................69
3.3.1
Il capitale disponibile in t = 0 ...........................................................................................74
3.2
Il modello matematico per le simulazioni fully nested .................................................... 69
3.3
L’impostazione matematica delle simulazioni stocastiche annidate ......................... 73
3.3.2
Il capitale disponibile in t = 1 ...........................................................................................75
6
3.3.3
3.3.4
Qualità dello stimatore e scelta di K 0 , K 1 ed N ........................................................... 78
3.4.1
L’algoritmo dei minimi quadrati .....................................................................................82
3.4
L’impostazione matematica del modello LSMC ..................................................................82
3.4.2
Scelta della funzione di regressione ...............................................................................84
3.4.3
Convergenza.............................................................................................................................85
3.5.1
Calibrazione della funzione di regressione .................................................................87
3.5
Miglioramento del modello .........................................................................................................87
3.5.2
3.5.3
4
Requisito patrimoniale di solvibilità .............................................................................78
Sequenza a bassa discrepanza di Sobol ........................................................................87
Simulazione di due traiettorie risk-neutral per ogni scenario real-world in
accordo con le tecniche di riduzione della varianza ..................................................................91
Applicazione del modello ......................................................................................................................92
4.1
Descrizione della polizza ..............................................................................................................92
4.1.1
4.1.2
Caratteristiche di una generica polizza unit-linked................................................. 92
Polizze unit-linked con garanzie finanziarie .............................................................. 93
4.2
Descrizione del portafoglio .........................................................................................................96
4.3
Simulazione stocastica per ρ, r e w ....................................................................................... 100
4.2.1
Flussi monetari a livello di portafoglio .........................................................................97
4.3.1
Modello per la percentuale di riscatti ........................................................................ 100
4.3.3
Modello di Heston per il rendimento dei titoli azionari ..................................... 108
4.4.1
Applicazione dell’algoritmo LSMC ............................................................................... 114
4.3.2
4.4
Modello di Black-Karasinki a due fattori per il tasso di sconto risk free ..... 101
Simulazione del portafoglio ..................................................................................................... 113
7
4.4.2
4.4.3
4.5
Backtesting ............................................................................................................................ 117
Passaggio alla probabilità real world ......................................................................... 120
Calcolo del SCR .............................................................................................................................. 123
4.5.1
Requisiti di solvibilità per singola causa di rischio e beneficio di
diversificazione ...................................................................................................................................... 125
4.6
Limiti del modello ........................................................................................................................ 133
4.6.1
Individuazione del problema ......................................................................................... 133
4.6.3
Misture finite di funzioni di regressione ................................................................... 140
4.6.2
5
4.6.4
Aggiunta di un regressore specifico per il portafoglio ........................................ 137
Regressione quantile ......................................................................................................... 149
Conclusioni............................................................................................................................................... 154
Appendice - Generazione di variabili pseudocasuali ........................................................................ 156
Bibliografia ......................................................................................................................................................... 158
Ringraziamenti.................................................................................................................................................. 161
8
Introduzione
La direttiva 2009/138/EC denominata Solvency II ha introdotto un nuovo sistema di
valutazione del requisito minimo di solvibilità con lo scopo di renderlo più coerente al
reale profilo di rischio aziendale. Tale novità sta rivoluzionando l’industria assicurativa
europea: le compagnie in questi ultimi anni stanno concentrando tutti gli sforzi per
riuscire a ottemperare ai requisiti della direttiva una volta che questa sarà recepita dal
relativo stato membro. Ciò nonostante non sarebbe preciso affermare che le compagnie
siano in corsa contro il tempo poiché si è assistito più volte a una posticipazione
dell’effettiva entrata in vigore della normativa.
La direttiva assegna diversi poteri al regolatore, l’ente dello stato membro posto a vigilare
sulle compagnie assicurative operanti sul territorio, al fine di assicurare l’effettivo
recepimento della stessa da parte delle compagnie; uno di questi, relativo ai requisiti del
cosiddetto primo pilastro è il capital add-on: se l’IVASS 1 ritiene che i rischi assunti dalla
compagnia non siano correttamente quantificati dalla cifra espressa dal SCR 2, può imporre
l’allocazione di una cifra superiore, come margine prudenziale di garanzia.
La formula di calcolo del SCR proposta da S. II, la standard formula, è stata costruita con
l’intento di fornire risultati ragionevolmente corretti qualunque sia la compagnia ad
utilizzarla. Se per le compagnie piccole tale approssimazione può essere sufficiente, per
quelle grandi si consta che è il regolatore stesso a chiedere uno sforzo per passare ad un
modello proprio, capace di cogliere con precisione le specificità dei rischi assunti.
Istituto per la Vigilanza sulle Assicurazioni, il regulator del territorio italiano.
Solvency Capital Requirement, il requisito patrimoniale di solvibilità: è la cifra che la compagnia assicurativa
deve accantonare per far fronte ai rischi assunti.
1
2
9
Una delle ipotesi più critiche della standard formula è quella della normalità congiunta dei
rischi; come si vedrà in seguito quest’approssimazione è limitante per quanto concerne le
polizze del settore vita, dove alcuni rischi causati dalle peculiarità delle polizze stesse (a
titolo di esempio garanzie di rendimento minimo, opzioni, riscatti) hanno dinamiche che
non possono essere colte da un approccio semplificato. Un modello che non cattura
appieno il fenomeno oggetto di studio porta a risultati imprecisi. Si precisa che in generale
la normalità porta ad una sottostima del SCR in tal contesto, perciò il termine “limitante” è
interpretabile. È chiaro il motivo dell’interesse che ha suscitato nel mondo accademico tale
problema, se si considera che, nel caso di grandi gruppi assicurativi, tale imprecisione può
risultare particolarmente materiale.
Questa tesi dà il suo contributo trattando una tecnica di calcolo estremamente attuale, il
metodo Least-Squares Monte Carlo (LSMC), di fatto ancora in via di sviluppo. Si precisa
che il nome LSMC esiste già da un decennio ed è relativo ad una tecnica inventata nel
mondo della finanza per prezzare le opzioni put americane; il modello trattato ha lo stesso
nome in quanto condivide la strategia utilizzata.
Si forniranno i concetti necessari per comprendere la tecnica: si tratterà quindi in maniera
descrittiva di simulazioni stocastiche annidate e di altri modelli dei quali il LSMC è
un’evoluzione. Verranno, invece, trattati con un dettaglio superiore alcuni concetti della
matematica, statistica e finanza, utilizzati durante l’applicazione; s’introdurranno perciò i
numeri a bassa discrepanza, come la successione di Sobol, tecniche di riduzione della
varianza negli scenari stocastici, equazioni differenziali stocastiche. Queste ultime sono
utilizzate nella generazione degli scenari stocastici del rendimento delle azioni attraverso
il modello di Heston e per quelli del tasso di sconto attraverso il modello di BlackKarasinski a due fattori. L’esposizione è articolata in quattro capitoli.
Nel primo capitolo è presente un’introduzione alla direttiva Solvency II; viene discusso il
processo che sta portando alla concretizzazione di tale normativa nonché la sua struttura
a pilastri. Con particolare attenzione al business vita, sarà esposta la metodologia di
calcolo del requisito di solvibilità. Si concluderà quindi riportando alcuni risultati che
evidenziano l’incapacità della standard formula di catturare al meglio le dinamiche di tale
settore, portando ad una sottostima del SCR.
Nel secondo capitolo sono introdotti i modelli stocastici per il calcolo del requisito di
capitale: si discuterà della necessità di utilizzare le simulazioni stocastiche annidate, del
10
problema derivante dall’eccessivo sforzo computazionale richiesto da tali modelli, nonché
di alcune possibili soluzioni. Tra queste, viene descritta la metodologia del curve fitting.
Come alternativa alle simulazioni stocastiche sarà trattata la tecnica dei portafogli
replicanti, mostrandone anche i limiti.
Nel terzo capitolo è introdotta la tecnica Least-Squares Monte Carlo. Si procederà
dapprima spiegandone il funzionamento in maniera generale e con ampio ricorso a
rappresentazioni grafiche, fornendo un’impostazione matematica poi.
Nel quarto ed ultimo capitolo, viene esposta l’applicazione realizzata con il metodo LSMC.
Utilizzando valori il più possibile realistici, è stata studiata la dinamica di un piano di
accumulo assicurativo unit-linked con garanzia di rendimento minimo e quindi calcolato il
relativo requisito di capitale.
11
1 La direttiva Solvency II
Solvency II 3
è una direttiva dell’Unione Europea, dalle molteplici finalità, rivolta
all’industria assicurativa: il progetto mira ad istituire un adeguato insieme di regole che
imponga all’assicuratore di garantire un determinato livello di solvibilità, tenendo in
considerazione i vari tipi di rischi assunti. Lo scopo ultimo di questa iniziativa è di tutelare
l’impresa stessa, gli assicurati e tutti i terzi coinvolti, come ad esempio gli azionisti. Senza
ancora entrare nel dettaglio è possibile affermare che la compagnia assicurativa deve
dimostrare di essere solvibile al punto che la possibilità di fallimento sia approssimabile
ad una ogni duecento anni.
Come conseguenza dello sforzo necessario alla valutazione corretta dei requisiti
patrimoniali, sorge la necessità per le compagnie di utilizzare tecniche moderne di risk
management: si richiede, quindi, più in generale di adottare una vera e propria cultura del
rischio.
Un altro obiettivo della direttiva è di creare un unico mercato assicurativo europeo. La
direttiva sulla solvibilità vigente, detta Solvency I e introdotta nel 1970, è stato un primo
tentativo di raggiungere tale l’ambizioso traguardo: il risultato non è arrivato in quanto
questa non è riuscita a catturare adeguatamente i profili di rischio delle diverse
compagnie. A titolo di esempio è richiesto un capitale di solvibilità esplicito solamente per
i rischi assicurativi, quando invece non è richiesto alcun capitale per i rischi di mercato, di
credito oppure quelli operativi. Nel corso degli anni ciascuno Stato Membro, al fine di
venire incontro alle esigenze specifiche delle compagnie presenti sul territorio, ha
3
Direttiva 2009/138/EC del Parlamento Europeo e del Consiglio del 25 novembre 2009
12
emanato proprie norme portando ad una profonda frammentazione di ciò che è stata la
direttiva originaria.
Per quanto concerne S.II, il quadro normativo è stato creato in accordo con il cosiddetto
processo di Lamfalussy, suddiviso quest’ultimo in quattro livelli:
I.
legislazione quadro: su proposta della Commissione, il Parlamento europeo e il
Consiglio approvano congiuntamente l’atto legislativo nell’ambito della procedura
di co-decisione: tale atto definisce un quadro di principi generali che dovranno
II.
essere adottati dagli Stati Membri;
disposizioni di esecuzione: elaborazione di disposizioni di esecuzione entro il
margine di azione definito al livello 1 e relativa adozione sulla base della
procedura di comitatologia modificata con il sostegno dei comitati di esperti
istituiti appositamente per questo fine. Nel caso di Solvency II tale comitato è
l’EIOPA – Autorità Europea per l’Assicurazione e i Fondi Pensione, conosciuto una
III.
volta come CEIOPS;
applicazione delle misure adottate al livello 1 e al livello 2 – l’EIOPA coordina la
trasposizione e applicazione coerente e uniforme dei regolamenti al livello 1 e 2
negli Stati membri, sviluppando standard e linee guida in vista dell’obiettivo di
armonizzazione della pratica di vigilanza sul mercato europeo per i servizi
IV.
finanziari;
controllo dell’applicazione delle misure al livello 1 e 2: in caso di violazione del
diritto comunitario, la Commissione adotta misure atte ad implementare la
legislazione.
13
Figura 1.1.1 Schema Lamfalussy (fonte: sito web EIOPA)
Lo sviluppo del primo pilastro è stato supportato da un certo numero di cosiddetti
Quantitative Impact Studies (QIS) – studi d’impatto quantitativo richiesto dall’UE
all’EIOPA e di conseguenza alle compagnie assicurative, al fine di ottenere le informazioni
necessarie per calibrare al meglio il modello, attraverso esercizi pratici delle idee
proposte.
14
Seppure l’entrata in vigore del quadro normativo, posticipata più volte, è fissata per
l’inizio del 2014, non sono da escludersi ulteriori rinvii.
In questo periodo transitorio le compagnie sono invitate ad applicare gradualmente
quanto richiesto dalla direttiva, al fine di evitare al momento dell’effettiva entrata in
vigore qualunque situazione che possa influire negativamente sui mercati o sulla
disponibilità dei prodotti assicurativi.
1.1 La struttura
Quanto segue, è una descrizione sommaria dei tre pilastri: risulta d’aiuto per comprendere
al meglio il prosieguo della tesi, non si pone, però, come obiettivo quello di analizzare nel
dettaglio tutta la struttura in quanto esulerebbe dalle finalità di quest’opera.
Il quadro normativo, così come quello già realizzato per le banche, Basilea II, può essere
scomposto in tre, cosiddetti, pilastri:
Figura 1.1.1 Schema a tre pilastri - fonte: sito web di Wolters Kluwer Financial Services
15
1.2 I pilastro - “Minimum financial
requirement”
Il primo pilastro definisce i requisiti patrimoniali minimi ai quali le compagnie
assicurative debbono ottemperare; specifica, inoltre, le metodologie di valutazione degli
elementi dello stato patrimoniale.
Figura 1.2.1 Elementi ideali dello stato patrimoniale individuati dalla direttiva S. II - fonte EIOPA
Di seguito le principali novità introdotte:
I.
II.
le attività a copertura delle riserve tecniche devono essere valutate a valori di
mercato, dove in mancanza di questi si può procedere con tecniche mark-to-
model 4. Questo nuovo approccio porta un significativo cambiamento nei principi di
contabilità tenuti dalla maggior parte delle compagnie assicurative.
le riserve tecniche dovranno essere valutate a valori di mercato; non esistendo
però un mercato dei passivi, si richiede che il fair value delle riserve rappresenti il
valore che la compagnia dovrebbe pagare a terzi per trasferirvi le obbligazioni. Le
Quando non è possibile valutare un’attività osservandone il suo valore sul mercato (approccio mark-tomarket) si procede per via analitica o simulativa: concettualmente si ha un modello che accetta valori in input
e restituisce il valore ricercato.
4
16
riserve sono suddivise in due parti, la best estimate ed il margine di rischio (risk
margin):
I.
II.
la prima rappresenta il valore attuale dei flussi futuri, scontati secondo un
tasso privo di rischio, e calcolati in linea con ipotesi best estimate. Questa
parte ideale non deve quindi contenere alcun margine prudenziale.
Il risk margin viene aggiunto alla b.e. per portare a fair value il valore della
riserva. Rappresenta quindi il compenso teorico per il rischio che nel
futuro la riserva b.e. non sia adeguata e per il costo del mantenimento del
capitale di solvibilità relativo. Il risk margin (RM) è determinato secondo il
metodo del “cost of capital”, basato sul costo del mantenimento di capitale
a copertura dei rischi non immunizzabili, secondo la formula:
𝑅𝑀 =

𝑟𝑢𝑛−𝑜𝑓𝑓
�
𝑡=1
𝑆𝐶𝑅𝑡 ∙ 𝐶𝑜𝐶 ∙ 𝑣(0, 𝑡 + 1)
(1.2.1)
Il primo fattore, il SCR t , rappresenta il capitale di solvibilità
relativamente al periodo di run-off del portafoglio, da detenere alla

fine del t-simo anno;
Il SCR t viene moltiplicato per il tasso del costo del capitale 5 (CoC),
rappresentante il costo per ottenere il capitale in eccesso al tasso
risk-free 𝑣(0, 𝑡 + 1), o in alternativa il costo frizionale per bloccare i
capitali in investimenti privi di rischio piuttosto che investirli in
rendimenti più vantaggiosi. Il prodotto tra il tasso del costo del
capitale ed il requisito di capitale per ogni punto di proiezione
futuro è quindi scontato utilizzando il tasso risk free ottenendo il
risk margin complessivo.
La proiezione dei capitali è potenzialmente complessa, sono quindi
consentiti diversi approcci semplificativi. È possibile, ad esempio,
considerare un driver, come la riserva o somma sotto rischio, che abbia
approssimativamente una relazione lineare con il risk margin o una delle
sue componenti. Nella pratica vengono utilizzate metodologie più
complesse che coinvolgono più driver e tengono conto delle correlazioni
tra di essi.
5
Secondo la direttiva tale tasso ammonta attualmente al 6%
17
III.
Il capitale proprio, dato dalla differenza tra il valore degli attivi e quello dei passivi,
viene suddiviso in capitale in eccesso (excess capital) e capitale di solvibilità;
quest’ultimo è composto da due parti ideali, SCR ed MCR.
1.2.1 Il Minimum Capital Requirement
Rappresenta il livello di capitale sotto il quale la compagnia è giudicata essere in grave
pericolo di fallimento. Il MCR è calibrato ad un livello di confidenza del 85% con una
misura di tipo VaR (Value-at-Risk) ad un anno, con limiti inferiori e superiori rispetto al
SCR del 25% e 45% rispettivamente. Viene inoltre fissato un valore minimo assoluto
differenziato per tipologia d’impresa (danni, vita, captive o riassicuratore professionale),
compreso tra € 2,2 milioni per le compagnie danni e € 5,4 milioni per le multiramo danni e
vita.
1.2.2 Il Solvency Capital Requirement
Detto anche target capital, è la prima soglia di attenzione per quanto concerne il livello di
solvibilità della compagnia.
A prescindere dalla metodologia adottata, la direttiva richiede che il SCR rappresenti
l’accantonamento di capitale necessario per far fronte agli impegni che possono emergere
nell’arco temporale di un anno, con una probabilità minima del 99.5%; deve, perciò,
garantire che l’insolvenza della compagnia si possa verificare al più una volta ogni
duecento anni.
Il requisito così formulato trova la sua traduzione matematica nella misura di rischio VaR
al 99.5% della variazione del capitale proprio su un intervallo annuale. Tale variazione
deve essere causata dai rischi assunti dall’assicuratore, identificati in accordo con lo
standard model da: rischi derivanti dalla sottoscrizione di contratti assicurativi del ramo
danni, vita, salute, rischio di mercato, rischi di default delle controparti e rischio operativo;
questi sono suddivisi a loro volta in sotto rischi.
La mappatura dei rischi proposta dalla direttiva è solitamente rappresentata attraverso lo
schema gerarchico modulare:
18
Figura 1.2.2 Schema dei moduli di rischio della standard formula – fonte: Commissione Europea - QIS5
Tecnical Specifications
Il SCR per ogni rischio individuale 6 è determinato come differenza tra il capitale netto 7 del
bilancio ante-stress e quello in cui lo stress è presente. La calibrazione e applicazione di
ogni stress è specificata all’interno della standard formula. Gli stress sono determinati da
formule analitiche che descriverebbero l’impatto di un rischio sul bilancio, a titolo di
esempio, -25% di stress al valore delle proprietà della compagnia, aumento immediato e
permanente del 15% nel tasso di mortalità. I rischi individuali sono quindi combinati
assieme all’interno del relativo modulo utilizzando una specifica matrice di correlazioni. I
caricamenti di capitale per ogni modulo vengono quindi aggregati assieme attraverso
un’altra matrice di correlazioni che fornisce il Basic SCR (BSCR):
𝐵𝑆𝐶𝑅 = �� 𝐶𝑜𝑟𝑟𝑖𝑗 × 𝑆𝐶𝑅𝑖 × 𝑆𝐶𝑅𝑗 + 𝑆𝐶𝑅𝑖𝑛𝑡𝑎𝑛𝑔𝑖𝑏𝑙𝑒𝑠
𝑖𝑗
(1.2.2)
dove:
6
Il contributo al SCR di ciascun rischio è detto anche caricamento di capitale per il rischio x oppure capital
charge.
7
Detto anche net asset value - NAV.
19

SCR i ,
SCR j =
{SCR mkt ;
SCR def ;
SCR life ;
SCR nl ;
SCR health }
corrispondono
rispettivamente ai moduli per il rischio di mercato, di default della controparte, di
sottoscrizione contratti vita, di sottoscrizione contratti danni, di sottoscrizione

contratti sulla salute;

dai beni immateriali.
SCR intangibles è il requisito patrimoniale per il modulo relativo al rischio derivante
Corr ij = indice di correlazione tra l’i-simo ed il j-simo modulo; tale valore è
presente nella matrice di correlazioni Corr:
Mercato
Default
Vita
Salute
Danni
Mercato Default
1
0.25
0.25
0.25
0.25
1
0.25
0.25
0.5
Vita
1
0.25
0
Salute Danni
1
0
1
Al BSCR si sommano due aggiustamenti: il primo – SCR op – per tenere conto del rischio
operativo e il secondo – Adj – per la capacità di assorbimento delle perdite delle riserve
tecniche 8 e delle tasse differite 9. Da notare che il caricamento di capitale per il rischio
operativo è aggiunto al BSCR senza tenere in considerazione eventuali correlazioni ed
effetti di diversificazione con gli altri rischi.
SCR = BSCR + Adj + SCR op
(1.2.3)
I due requisiti patrimoniali di solvibilità sono necessari anche per decretare il livello
d’intervento da parte dell’istituto di vigilanza: diverse azioni vengono intraprese al non
soddisfacimento del requisito posto dal SCR, quando invece la mancanza di capitali per
raggiungere il livello fissato dal MCR comporta azioni che portano anche alla revoca
dell’esercizio di assicurazione.
1.2.3 Le origini del VaR
Il VaR trova le sue origini attorno alla seconda metà degli anni ’80. L’evento scatenante la
letteratura a riguardo è stato il crollo del mercato del 1987 (conosciuto anche come Black
Monday). I modelli statistici dell’epoca non contemplavano il verificarsi di un evento
simile, diventando così molto discutibili in relazione alla loro affidabilità. Gli analisti,
riconsiderando le serie storiche, hanno deciso che esistevano delle crisi ricorrenti che non
Ad esempio riducendo i benefits discrezionali sotto condizioni di stress.
In condizioni sfavorevoli le tasse differite potrebbero diminuire in quanto relative a profitti che non si sono
realizzati
8
9
20
venivano colte dai modelli statistici dell’epoca. Tali modelli sono riferiti soprattutto a
quelli sottostanti il mercato azionario, investment management e tariffazione dei derivati.
Queste crisi hanno colpito allo stesso tempo più mercati, includendo anche quelli che
usualmente non sono correlati; inoltre, non erano causate da dinamiche economiche
prevedibili (sebbene la spiegazioni post-crisi risultassero copiose). Più tardi, tali eventi
vennero chiamati Black Swans da Nassim Taleb ed il concetto esteso ben oltre il settore
finanziario. Il VaR fu sviluppato come strumento per studiare ed ambire a prevedere tali
eventi estremi. Si sperava che i cigni neri sarebbero stati preceduti da un aumento della
stima del VaR: la dimostrazione di tale dinamica resta controversa. Si procede ora
definendo il VaR nel suo contesto finanziario ed adattandolo poi agli scopi della direttiva.
Fissata una probabilità α, il Value-at-Risk a livello α è definito come l’importo VaR α tale
che:
�(Δt, Δ𝑥�) > −𝑉𝑎𝑅𝛼 � = 1 − 𝛼
𝑃𝑟𝑜𝑏�ΔP
(1.2.4)
�(Δt, Δ𝑥�) è la variazione nel valore di mercato di un portafoglio finanziario,
dove ΔP
espressa come funzione dell’orizzonte di previsione Δt e del vettore dei cambiamenti nelle
variabili di stato (aleatorie) Δ𝑥�. L’interpretazione da dare è quindi che, dato un intervallo
temporale, il valore del portafoglio finanziario non diminuirà più di VaR α . L’orizzonte
temporale Δt nel contesto della direttiva diventa uguale ad un anno.
� = ΔP
�(Δt, Δ𝑥�) è un operazione che risulta complessa oggi, si
Stimare la distribuzione di ΔP
pensi quindi a quanto lo era negli anni ’80, considerando la potenza computazionale a
disposizione. Grazie a questo fatto furono sviluppati diversi modelli di approssimazione
del VaR. Uno di questi, il modello “Delta-Normal” di Garbade (1986), è stato accolto dalla
direttiva costituendo così le basi dello standard model. Quest’ultimo ha ereditato anche i
limiti del modello D-N, i quali, come si vedrà in seguito, si trovano soprattutto nelle
assunzioni.
1.2.4 Il modello Delta-Normal di Garbade (1986)
In questo modello, la funzione che rappresenta le variazioni del portafoglio è
approssimata dal delta 10 dello stesso mentre le variazioni delle variabili di stato sono
Il delta di un titolo azionario è la derivata prima rispetto alla variabile di stato. Nel contesto di un portafoglio
finanziario, dove ci possono essere più variabili di stato, il delta è riferito al vettore delle derivate prime del
valore del portafoglio rispetto al vettore delle variabili di stato. Sempre nel contesto del portafoglio finanziario,
10
21
� viene
modellate attraverso una distribuzione normale multivariata. Sotto tali ipotesi, ΔP
approssimato da una distribuzione normale univariata ed il VaR esplicitato ed
approssimato grazie ad alcune proprietà della normale. Quest’assunzione è la più pesante
in assoluto quando il modello viene applicato per calcolare il requisito di capitale nelle
assicurazioni vita: si vedrà che le dinamiche di un portafoglio di polizze sulla vita, a causa
della presenza di opzioni, non sono lineari e quindi non rappresentabili da un modello
sottostante alla legge normale. Inoltre, in tal contesto, le code della distribuzione della
variazione del valore del portafoglio, sono più pesanti di quelle della normale, causando
così una sottostima del VaR e quindi del requisito di solvibilità. Viene ora introdotto il
modello di Garbade:
Ipotesi (a) sulle variabili di stato: la sequenza dei rendimenti considerati dal vettore delle
� sull’orizzonte temporale Δt, definita con r, ha distribuzione congiunta
variabili di stato 𝒙
normale di media zero 11 e matrice di varianze-covarianze costante Σ :
dove:
𝒓 ~ 𝑁𝑁 (𝟎, Σ)
(1.2.5)
𝒓 = (𝒓1 , … , 𝒓𝑖 , … , 𝒓𝑁 )′
(1.2.6)
𝒓𝑖 = (𝑟𝑖1 , 𝑟𝑖2 , … , 𝑟𝑖𝑡 , … , 𝑟𝑖𝑇 ), 𝑖 = 1, … , 𝑁
𝑟𝑖𝑡 =
(1.2.7)
𝑥𝑖,𝑡+Δ𝑡 − 𝑥𝑖𝑡
𝑥𝑖𝑡
(1.2.8)
�): essa è una volta derivabile rispetto a ciascun argomento.
Ipotesi (b) sulla funzione 𝑃(𝑡, 𝒙
Le sue derivate prime saranno lo scalare 𝑃𝑡 =
�
�) 𝜕𝑃(𝑡,𝒙
�)
𝜕𝑃(𝑡,𝒙
𝜕𝑥1
,
𝜕𝑥2
,…,
�) ′
𝜕𝑃(𝑡,𝒙
𝜕𝑥𝑛
𝜕𝑃(𝑡,𝑥�)
𝜕𝑡
ed il gradiente n x 1 𝒈 =
� . Derivate superiori al primo ordine sono ipotizzate nulle.
Via polinomio di Taylor, 𝑃(𝑡, 𝑥�) può essere approssimato in un intorno di (t 0 ,x 0 ) come:
�) = 𝑃(𝑡0 , 𝒙
�𝟎 ) + 𝑃𝑡 (𝑡 − 𝑡0 ) + 𝒈′ [𝒙
� − 𝒙𝟎 ] + 𝑅2
𝑃(𝑡, 𝒙
′
�𝟎 ) + 𝑃𝑡 (Δ𝑡) + 𝒈 𝚫𝒙
� + 𝑅2
= 𝑃(𝑡0 , 𝒙
(1.2.9)
� = (𝒙
� − 𝒙𝟎 ) è il vettore
dove 𝑃(𝑡0 , 𝑥�0 ) è il valore di mercato del portafoglio finanziario, 𝚫𝒙
delle variazioni delle variabili di stato (aleatorie), Δ𝑡 = 𝑡 − 𝑡0 è l’orizzonte di previsione,
ed 𝑅2 è l’errore di approssimazione nel non tener conto delle derivate di ordine superiore
il gamma di un portafoglio è la matrice di derivate seconde rispetto al vettore delle variabili di stato, detta
anche Hessiano.
11 Ipotesi che accoglie l’assenza di opportunità di arbitraggio.
22
a due; per l’ipotesi (b) 𝑅2 = 0. Le variazioni nel valore del portafoglio possono essere
quindi approssimate via:
�) = 𝑃(𝑡, 𝑥�) − 𝑃(𝑡0 , 𝒙
�𝟎 ) = 𝑃𝑡 (Δ𝑡) + 𝒈′ 𝚫𝒙
�
Δ𝑃�1 = Δ𝑃(Δ𝑡, 𝚫𝒙
(1.2.10)
Proposizione 0 sulle combinazioni e trasformazioni lineari di variabili aleatorie aventi
distribuzione normale.
Se 𝑊~ 𝑁𝑛 (𝝁, Σ) e 𝑌 = 𝐶𝑊 + 𝒃, dove C è una qualunque matrice reale m x n e b è un
qualunque vettore reale m x 1, allora
(1.2.11)
Y ~ 𝑁𝑚 (𝐶𝜇 + 𝒃, 𝐶Σ𝐶′)
Proposizione 1 Δ𝑃�1 ~𝑁(𝑃𝑡 Δ𝑡, 𝒈′ ∑𝒈)
� si ha per (a):
Dimostrazione dato Δ𝑃�1 = 𝑃𝑡 (Δ𝑡) + 𝒈′ 𝚫𝒙
�] = 𝑃𝑡 (Δ𝑡)
E[𝑃𝑡 (Δ𝑡) + 𝒈′ 𝚫𝒙
�] = 𝒈′ Σ𝒈
𝑉𝑎𝑟[𝑃𝑡 (Δ𝑡) + 𝒈′ 𝚫𝒙
(1.2.12)
La varianza non include termini in Δt in quanto il tempo non è stocastico. Δ𝑃�1 ha allora
distribuzione normale per la proposizione 0.
Sostituendo alla definizione del VaR l’approssimazione del primo ordine ed i risultati
ottenuti dalla proposizione 1 si ha:
�(Δt, Δ𝑥�) > −𝑉𝑎𝑅𝛼 � = 1 − 𝛼
𝑃𝑟𝑜𝑏�ΔP
𝑃𝑟𝑜𝑏 �
Δ𝑃�1 − 𝑃𝑡 (Δ𝑡)
�𝒈′𝛴𝒈
𝑃𝑟𝑜𝑏 �𝑍� >
>
−𝑉𝑎𝑅𝛼 − 𝑃𝑡 (Δ𝑡)
�𝒈′𝛴𝒈
−𝑉𝑎𝑅𝛼 − 𝑃𝑡 (Δ𝑡)
�𝒈′𝛴𝒈
Dove 𝑍� è una v.a. normale standard. Allora:
𝑍(𝛼) =
�= 1−𝛼
(1.2.13)
�= 1−𝛼
−𝑉𝑎𝑅𝛼 − 𝑃𝑡 (Δ𝑡)
�𝒈′ 𝑃𝑡 (Δ𝑡)𝒈
(1.2.14)
𝑉𝑎𝑅(𝛼) = −𝑃𝑡 (Δ𝑡) − 𝑍(𝛼) �𝒈′𝛴𝒈
Dove Z (α) è il 100(α)-simo percentile di una distribuzione normale standard.
23
È facile vedere che la standard formula ha origine proprio da questo modello. Siano i
�. Allora 𝑃(𝑡, 𝒙
�) può rappresentare il valore del
fattori di rischio le variabili di stato 𝒙
capitale netto in funzione dei rischi mappati. Per definizione di SCR, si ricerca il VaR al
99.5% su un orizzonte temporale di un anno, allora la variabile t assume valore costante e
�)12 rispetto a t, 𝑃𝑡 (Δ𝑡), è quindi uguale a 0 ed il gradiente n
pari a 1. La derivata prima 𝑃(𝑡, 𝒙
P
x 1 𝒈=�
𝜕𝑃(𝑡,𝑥�) 𝜕𝑃(𝑡,𝑥�)
𝜕𝑥1
,
𝜕𝑥2
,…,
𝜕𝑃(𝑡,𝑥�) ′
𝜕𝑥𝑛
� rappresenta le variazioni del capitale netto su un
intervallo annuale dovute ai diversi fattori di rischio. Tenendo a mente che il SCR totale
rappresenta un valore negativo per la compagnia, si ottiene:
(1.2.15)
𝑆𝐶𝑅 = 𝑍(99.5) �𝒈′𝛴𝒈
La matrice Σ può essere ottenuta come prodotto tra R ed S che sono, rispettivamente, la
matrice delle correlazioni e la matrice diagonale delle deviazioni standard:
1
𝑅= � ⋮
𝜌𝑛1
⋯
⋱
⋯
𝜌1𝑛
𝜎1
⋮ � 𝑒 𝑆=�⋮
1
0
⋯
⋱
⋯
0
⋮�
𝜎2
Allora Σ = SRS. Si osservi che S = S’ in quanto diagonale. Si ottiene quindi:
𝑆𝐶𝑅𝑇𝑂𝑇 = 𝑍(99.5) �𝒈′𝑆𝑅𝑆𝒈
𝑆𝐶𝑅𝑇𝑂𝑇 = �𝒈′𝑆𝑍(99.5) 𝑅𝑍(99.5) 𝑆𝒈 = �𝒗′𝑅𝒗
(1.2.16)
(1.2.17)
Dove 𝒗 = 𝒈′𝑆𝑍(99.5) rappresenta proprio i caricamenti di capitale per ciascun rischio ad
un intervallo di confidenza del 99.5%. Infatti in ipotesi di normalità per
�)
𝜕𝑃(𝒙
𝜕𝑥𝑖
,la variazione
del capitale netto dovuta al rischio i-simo, il suo valore al 99.5-simo percentile può essere
approssimato da 𝑍(99.5) ∙ 𝜎𝑖 . Utilizzando la codifica della direttiva, dove 𝒗 = 𝑺𝑪𝑹, inteso
come vettore dei caricamenti di capitale per ciascun rischio e R = Corr, passando dalla
notazione matriciale a quella attraverso sommatorie:
𝑆𝐶𝑅𝑇𝑂𝑇 = �� 𝐶𝑜𝑟𝑟𝑖𝑗 × 𝑆𝐶𝑅𝑖 × 𝑆𝐶𝑅𝑗
𝑖𝑗
(1.2.18)
si ritorna proprio alla standard formula.
Ricapitolando, le ipotesi forti sottostanti al modello sono:
12
�)
Da ora in poi identificata con 𝑃(𝒙
24
1. il valore del capitale netto in funzione dei rischi mappati è una funzione lineare, in
quanto s’ipotizzano nulle le derivate di ordine maggiore a uno;
2. i rischi hanno distribuzione congiunta normale;
3. accogliendo l’approssimazione della variazione del capitale netto dovuta al rischio
i-simo al 99.5-simo percentile attraverso 𝑍(99.5) ∙ 𝜎𝑖 , si accoglie l’ipotesi di
normalità marginale dei rischi.
La standard formula fornisce un valore plausibile del SCR solamente se:
a) l’apporto, in termini di caricamento di capitale, delle dinamiche non lineari dei
fattori di rischio sulla variazione del capitale netto è minimo 13;
b) l’errore accolto nell’approssimare alla normale la distribuzione della variazione
del capitale netto in funzione dei rischi, anche in termini marginali, è minima 14.
1.2.5 I limiti della standard formula: contesti
nell’industria assicurativa in cui la sua
applicazione è inadeguata
Si è dimostrato nel capitolo precedente che il modello statistico sottostante alla standard
formula ha alla base ipotesi che potrebbero risultare forti. È opportuno verificare se
queste limitazioni siano effettive nel contesto assicurativo: seguono considerazioni a
riguardo.
Relativamente alle attività di una compagnia assicurativa è lecito affermare che, tra i rischi
cui queste sono soggette, quello di mercato ha un peso rilevante. In (Kousaris, Calculating
the Solvency Capital Requirement, 2011) si riporta un’analisi del comportamento
congiunto di due titoli azionari. L’analisi consiste nel simulare i rendimenti congiunti
secondo:
a) ipotesi di normalità marginale e dipendenza di tipo lineare (di Pearson), in linea
con la standard formula;
b) assenza d’ipotesi distributive e dipendenza di tipo non-lineare.
Bisognerebbe comunque essere capaci di misurare il fenomeno per decretare se il suo apporto è
effettivamente minimo.
14 Stesse osservazioni del punto precedente.
13
25
Entrambi gli esperimenti sono stati calibrati in maniera tale da avere lo stesso coefficiente
di correlazione e la stessa deviazione standard. Si riportano le determinazioni simulate
delle distribuzioni congiunte degli eccessi di log-rendimento 15.
Figura 1.2.3 Determinazioni simulate delle distribuzioni congiunte degli eccessi di log-rendimento. Fonte:
(Kousaris, Calculating the Solvency Capital Requirement, 2011)
La nuvola di punti a destra, che riporta l’esperimento secondo le ipotesi (b), descrive una
distribuzione con una coda molto più pesante rispetto al grafico di sinistra (ipotesi (a)). È
evidente che quando si calcola il VaR relativo al rischio di mercato attraverso la standard
formula e quindi accogliendo le ipotesi (a), si rischia di produrre una stima distante dalla
realtà. Si potrebbe asserire che una possibile soluzione consisterebbe nel migliorare il
modello normale multivariato sfruttando i risultati ottenuti dal modello più complesso: si
aggiusta ad esempio la deviazione standard e la correlazione. È evidente, però, che questa
metodologia possa risultare poco affidabile in contesti di mercato variabili, che
richiederebbero (di volta in volta) un aggiustamento variabile anch’esso.
Relativamente alle passività di una compagnia assicurativa, quindi delle riserve tecniche,
si costata che queste hanno un forte comportamento non lineare in alcune situazioni. Le
opzioni presenti in alcune polizze sulla vita, come ad esempio il rendimento minimo
garantito, seguono dinamiche associabili a quella di un’opzione put. Per semplicità di
esposizione si analizzerà il comportamento di tale opzione, rispecchiando comunque in
modo fedele la potenziale analisi di una polizza e quindi della riserva associata.
Per eccesso di log-rendimento si intende il log-rendimento in eccesso rispetto ad un titolo di riferimento,
solitamente risk-free.
15
26
Figura 1.2.4 Valore di un’opzione put al variare del valore del titolo sottostante e del tasso risk-free –
fonte (Kousaris, Calculating the Solvency Capital Requirement, 2011)
Si osserva quindi che il valore dell’opzione put presente tra le passività della compagnia
non segue un andamento lineare al variare del valore del sottostante e dei tassi
d’interesse. Le passività presentano quindi una non-linearità congiunta. Il grafico
sottostante mostra il comportamento dell’opzione put al variare di entrambe le variabili:
Figura 1.2.5 Valore di un’opzione put al variare congiunto del valore del titolo e del tasso risk-free – fonte
(Kousaris, Calculating the Solvency Capital Requirement, 2011)
Se si volesse rientrare nelle ipotesi della standard formula, si dovrebbe approssimare tale
funzione attraverso una lineare. In tal caso, si preferirebbe approssimare al meglio i valori
al 99.5-simo percentile di ciascuno dei due fattori di rischio, piuttosto che i valori medi. Si
ottiene un piano per il quale la vera funzione è tangente.
27
Figura 1.2.6 Approssimazione della 1.2.4 attraverso una funzione lineare – fonte (Kousaris, Calculating the
Solvency Capital Requirement, 2011)
Per costruzione, tale approssimazione risulta corretta solo in alcuni punti e, in generale,
tende a sottostimare i valori quando le passività vengono generate da dinamiche non
lineari.
Figura 1.2.7 Errore commesso nell'approssimare il valore dell'opzione put , al variare dei due fattori di
rischio, attraverso una funzione lineare, espresso in termini percentuali – fonte (Kousaris, Calculating the
Solvency Capital Requirement, 2011)
Nella figura sopra, si può vedere come l’errore dell’approssimazione è potenzialmente
maggiore del valore inziale dell’opzione put stessa. Il metodo risulta corretto per un’area
che si trova nel centro ma – a parte fortunate coincidenze – tale area non corrisponde a
quella in cui richiediamo alla funzione di essere corretta.
28
1.2.6 Uno studio su trenta compagnie di
assicurazione
Si conclude questa serie di considerazioni citando i risultati di uno studio ottenuti da
(Cardi G. & Rusnak, 2007). Grazie alla collaborazione di diverse compagnie vita e danni è
stato calcolato il requisito di solvibilità attraverso un modello delta-normal e uno delta-
gamma. Il modello delta-gamma è del tutto simile al delta-normal di Garbade, ad
esclusione dell’ipotesi (a). Qui, infatti, sono considerate nulle le derivate di ordine
superiore a due.
La ricerca ha portato a concludere che l’approccio delta-normal sottostima in maniera
significativa il capitale di solvibilità per le compagnia operanti nel ramo vita, fornisce però
delle stime adeguate per altri tipi di business.
Figura 1.2.8 Simulazione della variazione del valore di un portafoglio contenente polizze vita secondo il
modello delta-normal (in giallo) e delta-gamma (in blu) – fonte (Cardi G. & Rusnak, 2007)
Il grafico in alto mostra la distribuzione empirica della variazione del valore in un
portafoglio assicurativo ottenuta con simulazioni MC: la distribuzione gialla proviene da
un modello in cui la variazione è funzione lineare dei rischi (modello delta-normal),
29
mentre la distribuzione blu è il risultato del modello delta-gamma. Si può notare la
presenza di una coda sinistra molto più pesante per la distribuzione blu (rappresentata
nel dettaglio dal secondo grafico).
Figura 1.2.9 – Dettaglio della coda sinistra della distribuzione empirica della variazione del portafoglio per
quattro compagnie vita (prima riga) e quattro compagnie danni (seconda riga) - fonte (Cardi G. & Rusnak,
2007)
Dal grafico sopra riportato si evince che un modello che non cattura gli effetti di non
linearità può comunque andare bene per business di tipo danni o malattia, diventa invece
molto impreciso, soprattutto sulle code, per quanto concerne il business vita.
I risultati riportati in (Cardi G. & Rusnak, 2007) sono da considerarsi preoccupanti
considerando che il 30% 16 delle compagnie potrebbe potenzialmente utilizzare lo
standard model per il calcolo del requisito patrimoniale. La supervisione da parte degli
istituti di vigilanza sarà sempre più stringente con l’entrata in vigore effettiva di Solvency
II e certamente questi daranno un importante rilievo su come la compagnia ha gestito il
problema delle code e della non linearità.
In conclusione, sebbene lo standard model è la soluzione proposta da Solvency II, questo
contiene diversi problemi e potrebbe portare a risultati distanti dalla realtà, soprattutto
quando le passività sottostanno a fenomeni non lineari come nel caso delle assicurazioni
vita.
16Fonte
(KPMG, 2010). Visto che si riferisce a studi di mercato del 2010, tale percentuale potrebbe cambiare
prima dell’entrata in vigore della direttiva.
30
1.2.7 Il modello interno
La soluzione alternativa alla standard formula che può essere adottata da una compagnia
di assicurazioni è il modello interno di tipo:
1. totale, se si discosta completamente dalla metodologia di calcolo proposta dalla
direttiva;
2. parziale, se sono sostituite singole parti o moduli della standard formula.
Il modello interno è una scelta appropria se il profilo di rischio differisce sostanzialmente
da quanto individuato dallo standard model e/o si utilizza tale modello per processi
decisionali e di gestione del rischio (ad es. tariffazione, strategie d’investimento). La
decisione di non utilizzare lo standard model può non solo essere presa dall’assicuratore,
ma anche dall’istituto di vigilanza che, se ritiene opportuno, può invitare la compagnia a
realizzare un modello interno.
Il modello interno deve essere approvato dall’istituto di vigilanza posto a controllo della
compagnia, a tal fine deve superare una serie di test:
•
standard di qualità statistica: il modello deve soddisfare ad un certo numero di
standard di qualità minimi relativi ai dati ed alle ipotesi statistiche, incluso la
•
•
previsione della distribuzione probabilistica, l’uso dell’expert judgement,
metodologie di aggregazione;
standard di calibrazione: riguardano standard che comprovano il fatto che il SCR
ottenuto dal modello sia proprio il VaR al 99.5%;
assegnazione di profitti e perdite: si richiede di spiegare come la categorizzazione
dei rischi del modello sarà utilizzata per spiegare le cause dei profitti e delle
•
perdite nell’anno di bilancio precedente;
standard di validazione: il modello interno deve essere completamente validato
dalla compagnia assicurativa e deve essere soggetto ad un regolare ciclo di
controllo, compreso la valutazione dei risultati comparata con l’esperienza
•
•
emergente dal passare del tempo;
standard di documentazione: il modello interno deve possedere una
documentazione dettagliata;
use test: la compagnia deve dimostrare che il modello interno è largamente
utilizzato in qualsiasi processo rilevante della compagnia e che rivesta un ruolo
31
fondamentale nella governance aziendale, risk management, processi di decisione
e processi di allocazione del capitale;
Lo use test è l’aspetto considerato più impegnativo al fine di ottenere l’approvazione. La
compagnia deve essere capace di dare evidenza di aver accolto la cultura del rischio e di
utilizzare ampiamente il modello nei processi aziendali.
Anche la qualità dei dati e le ipotesi statistiche possono essere un problema, in alcuni casi i
dati storici sono troppo pochi per asserire che i risultati ottenuti da questi siano robusti.
Nella pratica è possibile che per la calibrazione del modello si utilizzino anche indici
ottenuti da benchmark presenti sul mercato: in tal caso è importante che tali indici siano
modellati sulla realtà aziendale, nel senso delle peculiarità presenti nel proprio
portafoglio, come ad esempio un eventuale scostamento della volatilità dell’indice con
quella presente nel portafoglio aziendale.
Vale la pena fare presente che nei test descritti non si fa alcun riferimento ad una struttura
da rispettare: non è quindi richiesto che il modello interno segua la logica dello standard
model.
La direttiva conferisce il potere all’istituto di vigilanza di decidere se approvare o no il
modello interno, una volta presentata la domanda, entro un periodo massimo di sei mesi.
Considerata la complessità del lavoro e dalla possibile contingenza di personale
dell’istituto, tale periodo di tempo può risultare effettivamente molto stretto. Diversi
istituti hanno quindi preferito adottare un approccio più informale chiamato pre-
application, nel quale s’invitano le compagnie a rendere partecipe l’istituto stesso alla fase
di sviluppo del modello. È utile ricordare che l’approvazione finale comunque non potrà
essere data prima dell’effettivo recepimento ed entrata in vigore della normativa sulla
solvibilità.
32
1.3 II pilastro – “Governance requirements”
Il secondo pilastro stabilisce i requisiti riguardanti ruoli e responsabilità all’interno della
compagnia, con il consiglio di amministrazione che ha comunque la responsabilità finale
sulla Solvency II.
Tutte le compagnie di assicurazione devono possedere un reparto di risk management,
attuariale, internal audit e di compliance. La struttura aziendale deve essere chiaramente
definita nel senso che deve permettere di poter capire i ruoli e le responsabilità all’interno
della compagnia: in tal senso, dei livelli minimi sono definiti nel secondo pilastro.
1.3.1 ORSA
Oltre al calcolo del MCR e del SCR, il secondo pilastro richiede alle compagnie assicurative
di condurre una valutazione denominata ORSA “Own Risk and Solvency Assessment”.
L’ORSA è stata definita dall’EIOPA come: “L’insieme di processi e procedure assunte per
identificare, valutare, monitorare, gestire e fare il resoconto per quanto concerne i rischi di
medio e lungo termine cui l’assicurazione è esposta o lo sarà nel futuro e per determinare i
capitali propri necessari ad assicurare di rispettare sempre i requisiti patrimoniali
richiesti dalla legge”.
Come conseguenza di quanto osservato, le compagnie devono identificare tutti i rischi ai
quali saranno soggette e tutti i processi e controlli di gestione del rischio. Questo insieme
di rischi può considerarsi nuovo rispetto a quelli contemplati nel primo pilastro in quanto
ora si considereranno anche quelli di ‘tipo qualitativo’ come ad esempio il rischio di
reputazione.
La compagnia deve anche valutare la sua capacità di rispondere ai requisiti patrimoniali di
solvibilità durante l’orizzonte temporale considerato nella pianificazione aziendale
(solitamente tre o cinque anni), essendo allo stesso tempo capace di gestire nuovi
contratti assicurativi. Queste richieste non vengono ottemperate soddisfacendo ad una
qualche misura di rischio, bensì valutando qualitativamente o attraverso opportune analisi
il risk appetite aziendale e possibili specifiche esigenze quali ad esempio quelle legate ad
obiettivi di credit rating.
33
L’ORSA è uno degli elementi considerati dal supervisore al momento di decidere se la
compagnia deve allocare ulteriore capitale oltre a quello richiesto ai fini di solvibilità.
Le compagnie di assicurazione, inoltre, devono dimostrare all’istituto di vigilanza che
l’ORSA è utilizzato dal senior management e che le decisioni strategiche tengono conto
degli impatti sull’ORSA stesso.
34
1.4 III pilastro – “requisiti di disclosure e
reporting”
I requisiti di disclosure sono stati posti con l’obiettivo di migliorare la trasparenza
aziendale nei confronti degli stakeholder. I risultati derivanti dai requisiti del primo e
secondo pilastro, così come i processi di risk management, ad esempio, devono essere
comunicati in via privata all’istituto di vigilanza attraverso il RSR (Regular Supervisory
Report), il quale, deve includere sia informazioni qualitative sia i QRT (Quantitative
Reporting Templates). La presentazione di questa documentazione ha cadenza annuale. Le
informazioni comunicate, inoltre, devono essere basate su solidi princìpi economici al fine
di garantire confrontabilità e coerenza nel tempo. Escludendo alcuni elementi che possono
essere di natura confidenziale, estratti del QRT e alcune informazioni qualitative devono
essere comunicati pubblicamente con il SFCR (Solvency and Financial Condition Report),
quest’ultimo prodotto annualmente.
1.5 Impatto sulla cultura aziendale e sulle
strategie
L’impatto di Solvency II deve permeare ogni livello aziendale includendo il senior
management e il consiglio di amministrazione: ciò deve valere non solo per quelle
compagnie che hanno adottato il modello interno. Il quadro normativo non è focalizzato
esclusivamente su questioni di reporting, ma anche sulla gestione del rischio,
sull’allocazione del capitale, sulle attività di mitigazione del rischio e sulle performance del
management. La nuova direttiva potrebbe inoltre avere un impatto sul product mix
ottimale così come sul product design. Altri impatti sono da considerarsi sulla
composizione degli investimenti, alcuni tipi di attivo potrebbero ora risultare più attraenti.
La presente o mancata disponibilità dei benefici derivanti dalla diversificazione del rischio
può avere effetti sulle strutture societarie inducendo fusioni e acquisizioni. Le
informazioni del management probabilmente cambieranno per allinearsi con le nuove
metriche e con i nuovi processi decisionali. Infine, le comunicazioni con l’esterno
cambieranno: verrà fornita una mole d’informazioni maggiore con un potenzialmente
impatto sui mercati.
35
2 Modelli alternativi per il
calcolo del requisito
patrimoniale di solvibilità
Come si è appurato nel capitolo precedente ci sono casi in cui il passaggio ad un modello
interno è quasi d’obbligo. In tal contesto l’industria assicurativa, assieme a società di
consulenza e al mondo accademico hanno prodotto diverse soluzioni per il calcolo del SCR.
Nel § 2.1 si propone l’impostazione fornita da (Bauer, Bergmann, & Reuss, 2010) per il
calcolo del SCR in via analitica. Si procede quindi al § 2~, dove sarà descritta brevemente
la tecnica dei portafogli replicanti, come valida alternativa analitica per il calcolo del
requisito di capitale. Concluso lo spazio dedicato agli approcci analitici, dal § 2.3 saranno
forniti i concetti fondamentali sottostanti al metodo delle simulazioni stocastiche per il
calcolo del SCR. Si è preferito mantenere un profilo discorsivo nell’esposizione di questo
capitolo, nell’intento di fornire un quadro espositivo per il modello stocastico oggetto di
studio della tesi, il Least-Squares Monte Carlo, trattato nel dettaglio nel capitolo
successivo. Si descriverà quindi il modello delle simulazioni stocastiche annidate e dei
problemi di carattere computazionale di cui questo soffre. Si accennerà alle possibili
tecniche di riduzione dello sforzo computazionale, descrivendo quindi quelle più raffinate
come il curve-fitting, di cui il LSMC è un evoluzione.
36
2.1 Una generalizzazione del calcolo del
SCR secondo la direttiva
In (Bauer, Bergmann, & Reuss, 2010) si propone un’impostazione dalle ipotesi più deboli,
per il calcolo del SCR. Prima del passaggio a tecniche più complesse, sarebbe opportuno
considerare questa proposta.
Sia OF t il capitale disponibile in t, 𝒾 un tasso d’interesse risk-free, ℒ ∶= 𝑂𝐹0 −
𝑂𝐹1
1+𝒾
, la
perdita aggregata aleatoria (one-year loss function). Il 99.5-simo percentile di ℒ è il VaR
richiesto dalla direttiva. Si supponga ora che la ℒ possa essere rappresentata come una
funzione ℊ continua, strettamente monotona e non decrescente sui sottostanti d fattori di
rischio (Y 1 , … , Y d ): ℒ = ℊ(Y 1 , … , Y d ).
Si assuma di conoscere la distribuzione congiunta F di (Y 1 , … , Y d ), la quale può essere
anche rappresentata, secondo il teorema di Sklar 17, attraverso le marginali 𝐹𝑌𝑖 (∙), 1 ≤ i ≤ d
, e la corrispondente funziona copula C: [0,1]d → [0,1]. Quindi:
𝑆𝐶𝑅 = 𝑖𝑛𝑓�𝑥|𝑃�𝑔(𝑌1,…, 𝑌𝑑 ) ≤ 𝑥� ≥ 𝛼�
(2.1.1)
𝑚𝑖𝑛�ℊ(𝑦1,…, 𝑦𝑑 ) �𝐹(𝑦1,…, 𝑦𝑑 ) ≥ 𝛼� ≥ 𝑆𝐶𝑅
(2.1.2)
Di conseguenza si ottiene la relazione:
Infatti se (Y 1 , … , Y d ) ≤ (y 1 , …, y d ) allora ℊ (Y 1 , … , Y d ) ≤ ℊ(y 1 , …, y d ) in quanto ℊ non
decrescente per ipotesi. Allora da
𝐹�𝑦1,…, 𝑦𝑑 � = 𝑃� 𝑌1 ≤ 𝑦1,…, 𝑌𝑑 ≤ 𝑦𝑑 � ≤ 𝑃 �𝑔 �𝑌1,…, 𝑌𝑑 � ≤ 𝑔�𝑦1,…, 𝑦𝑑 �� segue che
miny1 ,…,yd :F�y1,…, yd �≥α P �g �Y1,..., Yd � ≤ g�y1,…, yd �� ≥ α . Considerato che P{g(Y1 , … , Yd ) ≤ ∙ }
è crescente,
min
�g�y1,…, yd �� ≥ inf�x�𝒫�g�Y1,…, Yd � ≤ x� ≥ α� = SCR.
y1 ,…,yd :F(y1 ,…,yd )≥α
Da notare che nel caso in cui le componenti sono tutte strettamente crescenti, la
distribuzione è continua per la monotonicità di ℊ, e quindi risulta:
𝑚𝑖𝑛�𝑔(𝑦1,…, 𝑦𝑑 ) �𝐹(𝑦1,…, 𝑦𝑑 ) = 𝛼� ≥ 𝑆𝐶𝑅
(2.1.3)
Alternativamente, date le marginali, il risk manager può definire una struttura di dipendenza scegliendo la
funzione copula appropriata.
17
37
Se l’insieme {(y 1 ,…,y d )|F(y 1 ,…,y d ) = α} è facilmente identificabile – ad esempio se i fattori
di rischio sono normalmente distribuiti – la disuguaglianza (2.1.3) può portare ad
un’approssimazione pragmatica e conservativa del SCR; è da tenere in considerazione che
l’approssimazione potrebbe non essere così buona.
2.2 Portafogli replicanti
Per completezza di esposizione, si propone una valida alternativa all’approccio delle
simulazioni stocastiche per la valutazione del SCR. Saranno forniti sinteticamente i
concetti sottostanti a tale tecnica, senza avere la pretesa di fornire un punto di riferimento
metodologico. Si mostrerà che per quanto riguarda il business vita, questa tecnica risulta
limitata.
2.2.1 Portafogli replicanti per il calcolo del
requisito patrimoniale di solvibilità
L’ipotesi fondamentale di questo modello risiede nell’assenza di opportunità di arbitraggio
nel mercato. In forza di questa ipotesi, attività che producono lo stesso cash flow devono
avere lo stesso prezzo, la cosiddetta legge del prezzo unico. Se si trovasse un portafoglio di
titoli che replichi i flussi prodotti dalle passività della compagnia in maniera
sufficientemente precisa, in ogni stato del mondo, allora si potrebbe utilizzare il suo
prezzo per stimare il valore delle passività. In questo contesto, il calcolo del requisito
patrimoniale di solvibilità diventerebbe una semplice operazione di valutazione di un
portafoglio di titoli, sotto diversi scenari che descrivono realisticamente lo stato
dell’economia: si eviterebbe il problema delle simulazioni fully nested.
Per fissare le idee è utile rifarsi all’albero binomiale. Tale strumento è spesso utilizzato
nelle operazioni di pricing dei derivati. È simile alla valutazione basata su metodi Monte
Carlo ma al posto di proiettare un numero casuale di traiettorie, queste sono fissate.
38
Figura 2.2.1 Comparazione tra le traiettorie generate da una simulazione MC e l'albero binomiale,
entrambi descriventi il prezzo di un titolo al variare del tempo 18
2.2.2 Un esempio pratico
Si supponga di vendere un’opzione put a 4 anni su un titolo sottostante S con strike 1,1. Il
payoff può essere rappresentato come:
Figura 2.2.2 Payoff di un'opzione put
All’epoca 4 si può tracciare un grafico del valore del sottostante contro il valore
dell’opzione.
Tutte le rappresentazioni grafiche di questo capitolo, relative ai portafogli replicanti, sono tratte dal
(Koursaris, 2011)
18
39
Figura 2.2.3 - Payoff dell'opzione put contro il prezzo del titolo
La connessione col problema di valutazione del SCR sta proprio in questo grafico:
l’opzione put è il valore della passività quando gli scenari real world sono identificati dal
valore del sottostante.
Ogni nodo all’epoca 3 può produrre due stati all’epoca 4. Si può seguire una semplice
formula per calcolare l’ammontare dei titoli e denaro necessari ad ogni stato dell’epoca 3
per replicare esattamente i possibili payoff all’epoca 4. Il problema, per un segmento
dell’albero è mostrato sotto:
Figura 2.2.4 - Processo di replicazione dinamica
Si segue quindi un procedimento backward per ottenere il risultato all’epoca 0. La quantità
di titoli e denaro posseduti all’epoca 0 è quindi il valore del portafoglio replicante. Sotto
opportune ipotesi è possibile replicare in questa maniera molti tipi di cash flow. Tale
40
metodo è chiamato strategia dinamica perché le quantità detenute nel portafoglio variano
basandosi sullo stato del mondo.
Contestualizzando il modello al problema della valutazione delle riserve tecniche, non è
possibile cambiare le quantità detenute in funzione dello stato del mondo, è più plausibile
che queste siano detenute sino alla scadenza delle singole polizze. In questo caso si
considera la strategia statica, che non è altro che quella di mantenere i titoli nel portafoglio
fino a quando questi non maturano un payoff positivo oppure vengono venduti a date
predeterminate.
Utilizzando lo stesso esempio di prima, si assuma che si deve detenere il portafoglio per
tutti e quattro gli anni senza apportare variazioni. È ancora possibile trovare il portafoglio
replicante ma non sarà più possibile replicare esattamente i cash flow. Se s’identifica il
migliore portafoglio come quello che minimizza le differenze al quadrato dei cash flow
questo è individuando detenendo 0.83 unità di denaro e -0.65 di titoli. I payoffs nei cinque
possibile nodi sono mostrati nel grafico sottostante:
Figura 2.2.5 - Replicazione statica con il titolo sottostante
Ci sono alcune osservazioni interessanti da fare sul grafico. Anche se l’indice di
correlazione R2 è pari al 90% il portafoglio replicante non fornisce una buona
approssimazione nei casi estremi – quindi può sottostimare il rischio. Inoltre, il costo per
acquistare la strategia statica è 0.18 contro 0.14 di quella dinamica (differenza del 25%).
41
Si può provare a cercare di ottenere la migliore approssimazione solo in alcuni scenari, ad
esempio in quelli dove il payoff è positivo, questo però potrebbe pesare sulla qualità
dell’approssimazione in generale.
Con questo esempio si riescono a dimostrare diversi punti importanti:
-
utilizzare un insieme ristretto di titoli può non essere sufficiente a replicare alcune
passività staticamente;
il modo in cui si decide di fare l’approssimazione è importante
differenze nei cash flow possono portare a importanti differenze nel valore della
passività e del portafoglio replicante.
Si procederà ora allentando le ipotesi restrittive sui titoli e il tipo dei cash flow che si vuole
replicare.
2.2.3 Strategia statica con payoff complessi e
strumenti
Si supponga di voler replicare in maniera statica un payoff particolarmente complesso, ad
esempio come quello rappresentato dal grafico sotto:
Figura 2.2.6 - Profilo di un flusso di passività particolarmente complesso
42
È possibile farlo utilizzando un insieme di opzioni put / call con strike differenti.
Utilizzando un opzione call con strike 1.2 e put con strike 1.1 nelle corrette proporzioni si
ottiene quanto segue:
Figura 2.2.7 - Approssimazione con due opzioni
All’aumentare del numero di opzioni si riesce a catturare in maniera più precisa il flusso
originale. Il profilo del portafoglio replicante finale è mostrato di seguito:
Figura 2.2.8 - Approssimazione attraverso sei opzioni
Utilizzando il giusto numero di opzioni è possibile replicare qualunque cash flow: quanto
detto è intuitivamente ragionevole – si afferma infatti che si può replicare una qualunque
43
funzione con una lineare discontinua. È certamente possibile utilizzare opzioni più
complesse delle put e call ma queste hanno l’indubbio vantaggio di essere facilmente
valutabili. Se si costruisce il portafoglio replicante con questi titoli ed opzioni è possibile
valutarlo utilizzando i dati di mercato; se invece utilizzassimo opzioni più complesse si
potrebbe avere difficoltà a trovare un riscontro immediato.
Da quest’analisi emergono alcune importanti considerazioni:
-
Per quanto riguarda le passività dipendenti dagli stati dell’economia, con un
singolo rischio sottostante, è possibile replicarle esattamente utilizzando
-
appropriate funzioni e titoli;
una soluzione più elegante utilizza funzioni che hanno un andamento simile ai
-
flussi della passività da replicare;
-
migliore;
-
replicare;
-
altre opzioni o tipi di flussi;
all’aumentare dei nodi da approssimare si ottiene una portafoglio replicante
non è necessario trovare analogie tra le funzioni utilizzate e le passività da
un’approssimazione perfetta non è unica, essa può essere replicata con diverse
fintantoché si replicano i flussi per ogni nodo dell’albero si ottiene lo stesso prezzo
per la passività e per il portafoglio replicante (se si prezza utilizzando lo stesso
albero);
L’ultimo punto è particolarmente rilevante. Quando si effettua la valutazione del requisito
patrimoniale non si utilizza lo stesso albero.
Quando si utilizza la tecnica dei portafogli replicanti per il calcolo del capitale, siamo
interessati nei valori prodotti dal mercato sotto ‘stress’; unendo i nodi ‘stressati’ a quelli
normali si ottiene:
44
Figura 2.2.9 - Albero base e sotto 'stress'
Per prezzare correttamente l’albero sotto ‘stress’ (blu) è necessario replicare i suoi cash
flow in maniera accurata; estrapolare l’approssimazione dall’albero base (rosso) non
porterà a risultati corretti eccetto casi fortunati.
Verranno ora considerate alcune peculiarità appartenenti alle passività realmente presenti
in una compagnia assicurativa rendendo il compito nel complesso più difficile: dimensioni
di rischio maggiori di uno e dipendenza dalla traiettoria.
2.2.4 Ambiente di rischio multidimensionale
In un portafoglio assicurativo sono presenti più fattori di rischio, il grafico sottostante
mostra l’evoluzione dell’albero in presenza di due rischi.
Figura 2.2.10 - Ambiente di rischio bidimensionale
45
Un albero come questo sarebbe potuto essere utilizzato se avessimo voluto replicare una
passività basata su due rischi sottostanti:
Figura 2.2.11 - Payoff di un'opzione basket
Se si estende l’opzione put a quella basket, che genera flussi basandosi sul valore medio di
due titoli – si ottiene un profilo di flussi che assomiglia a quello mostrato nel diagramma.
Figura 2.2.12 - Portafoglio replicante per un'opzione basket
Se si crea un portafoglio replicante combinando assieme due opzioni put sui titoli
sottostanti, si ottiene un profilo di flussi diverso. In alcune parti i due profili combaciano in
altre sono molto diversi. Si potrebbe provare ad aggiustare il peso dei titoli del portafoglio
replicante o aggiungere più opzioni o altri titoli ma non si sarà mai in grado di replicare un
pay-off di un’opzione basket. Quando si ha una passività che ha un’interazione tra i fattori
di rischio non è possibile replicarla in maniera statica con un portafoglio di titoli a cui
46
sottostanno ciascuno un rischio. Al fine di replicare staticamente un pay-off basato sui
valori di due titoli, si necessita che il portafoglio replicante includa derivati che dipendano
da entrambi i titoli considerati.
Con le funzioni lineari su put e call e piani su opzioni basket è possibile replicare
qualunque superficie bidimensionale:
-
se si volesse replicare in maniera statica un insieme di passività complesse a cui
sottostanno diversi fattori di rischio, si dovrebbe utilizzare strumenti replicanti
che dipendano da tutti i fattori di rischio presi individualmente e anche su tutte le
possibili combinazioni tra di loro. Per raggiungere tale obiettivo si dovrebbe
-
utilizzare un vasto insieme di strike.
Non è possibile replicare una passività che dipende da più attività o fattori di
rischio assieme alle interazioni tra di loro utilizzando titoli replicanti che
dipendono da singoli rischi
Tali considerazioni hanno particolare rilievo per tre ragioni:
1. decretano il tipo di titoli che si dovrebbe disporre nel portafoglio replicante;
2. portano ad affermare che è impossibile creare un portafoglio replicante accurato
utilizzando solamente i titoli i cui prezzi sono osservabili sul mercato;
3. anche i semplici derivati che dipendono da più fattori di rischio sono difficili da
prezzare analiticamente, infatti, a tale scopo vengono utilizzate valutazioni Monte
Carlo.
Se si hanno molti fattori di rischio bisogna quindi accettare un certo grado di errore nei
portafogli replicanti oppure aumentare la complessità dei titoli che lo compongono, a
rischio di una loro più difficile valutazione a mercato.
47
2.3 Simulazioni stocastiche annidate
L'esigenza normativa di definire una misura di assorbimento di capitale coerente con un
VaR al 99.5% su un orizzonte temporale di un anno, nel caso di passaggio ad un modello
interno, comporta per la compagnia la necessità di valorizzare il proprio bilancio ad un
anno dalla data di valutazione. I valori del bilancio, come si è già visto, devono essere
funzione di una moltitudine di rischi, e a causa di ciò e del fatto che in generale, le relazioni
tra rischi possono essere molto complesse, risulta naturale adottare un approccio
simulativo al fine di ottenere la distribuzione empirica congiunta dei rischi prima, il
requisito patrimoniale di solvibilità, poi.
L’approccio simulativo consiste nel generare un numero elevato di scenari che descrivano
in maniera realistica 19 come sarà lo stato del mondo tra un anno: ogni possibile scenario
descrive quindi una realizzazione della distribuzione empirica congiunta dei fattori di
rischio. Per ognuno di questi scenari, quindi, si valutano le grandezze necessarie al fine di
poter calcolare il capitale disponibile relativo.
Si procede quindi ottenendo una
distribuzione empirica del capitale netto, il 99.5-simo percentile corrisponderà allora allo
scenario peggiore al 99.5%.
Nelle assicurazioni vita i valori di bilancio ad un anno dipendono anche da ipotesi fatte su
flussi successivi allo stesso: si devono, perciò, non solo formulare ipotesi sulla situazione
economica / attuariale nell’anno a venire ma anche su quelli successivi. 20 Il problema si
complica ulteriormente se si osserva, com’è ragionevole, che le valutazioni per gli anni
successivi al primo dipendono dalle ipotesi fatte sulla situazione economica / attuariale
dello stesso: si tratta quindi, in un certo senso, di valutazioni condizionate.
Il modello stocastico che più si adatta a trattare questo tipo di problema è individuato
nella tecnica della simulazione stocastica annidata 21. Come suggerisce il nome, tale
modello può essere schematizzato attraverso una rappresentazione annidata delle
simulazioni stocastiche: l’annidamento, presente in t 1 (con t 0 l’epoca corrente), divide il
modello in due parti:
Detti real-world scenario.
Considerando che un valore plausibile di run-off di un portafoglio vita è di 30 anni, si dovranno fare ipotesi
economiche e attuariali per tutto questo periodo.
21 In inglese: stochastic-on-stochastic.
19
20
48


la prima concerne le possibili realizzazioni delle variabili di interesse nell’arco del
primo anno secondo una distribuzione di probabilità realistica (detta anche fisica);
condizionatamente alla situazione economica descritta da ciascuna realizzazione
della prima fase, secondo una metrica risk-neutral ed in accordo con un modello di
simulazione stocastica 22, vengono simulate le variabili aleatorie di interesse 23
relative agli anni successivi al primo. Si passa ad una misura risk neutral per
sottostare ad un approccio di valutazione market consistent, ottemperando così ai
requisiti della direttiva.
Figura 2.3.1- Una possibile rappresentazione grafica delle simulazioni stocastiche annidate
È chiaro che l’approssimazione della vera distribuzione delle grandezze aleatorie migliora
al divergere del numero di simulazioni. Si è visto 24 che per ottenere risultati attendibili
sono necessarie almeno 1.000 proiezioni real-world e, per ognuna di queste, 1.000 scenari
risk-neutral; si devono effettuare quindi almeno un milione di simulazioni differenti per il
calcolo del SCR (1.000 scenari risk-neutral per ognuno dei 1.000 scenari real-world). Con
un tale numero di scenari, ipotizzando circa 5 secondi di elaborazione per ogni scenario,
sarebbero necessarie circa trenta elaborazioni in parallelo per terminare la simulazione in
48 ore. Le compagnie assicurative utilizzano tipicamente da 1.000 a 10.000 scenari 25
interni per ogni scenario del mondo reale, il quale a sua volta viene simulato
indicativamente lo stesso numero di volte. È utile precisare che secondo la compagnia di
22 Ad esempio il modello di Lee-Carter per il trend di mortalità, di Black-Karasinski per quello del tasso riskfree o quello di Heston per i titoli azionari.
23 Per variabili di interesse si intendono tutte quelle necessarie per il calcolo del SCR, ad esempio il trend di
mortalità, del tasso risk free, del valore delle azioni, del numero di riscatti.
24 Fonte dei numeri citati in questo paragrafo: (KPMG, 2010).
25 Fonte barrie+hibbert in (Morrison, 2009)
49
consulenza barrie+hibbert in (Morrison, 2009), la dimensione dell’errore statistico
potrebbe risultare sorprendentemente elevata anche utilizzando diecimila scenari (per un
totale di 100.000.000 scenari complessivi).
Si consideri, inoltre, che per simulare un portafoglio di polizze si dovrebbe tener conto
delle caratteristiche di ciascuna di esse. Detto altrimenti, per ogni polizza devono essere
calcolati i relativi cash-flow in funzione delle grandezze di interesse simulate. In
conclusione deve essere eseguito il seguente numero di calcoli:
# 𝑝𝑜𝑙𝑖𝑧𝑧𝑒 ∙ # 𝑠𝑖𝑚 𝑟. 𝑤.∙ # 𝑠𝑖𝑚 𝑟. 𝑛.
(2.3.1)
Nella pratica si procede accorpando le polizze in entità – dette model point –
rappresentanti secondo il dettaglio desiderato, un insieme di polizze con caratteristiche
simili. Il numero medio di model point utilizzato da una compagnia è compreso tra 10.000
e 100.000 26. Considerando questi numeri risulta quindi che un approccio stochastic-on-
stochastic per la valutazione del 1-year VaR può richiedere il calcolo di 100.000 model
point su 100 milioni di scenari. Uno sforzo computazionale del genere non è sopportabile
nemmeno dagli attuali sistemi di calcolo distribuito.
I problemi sin qui esposti rendono di fatto inutilizzabile questa tecnica nel contesto
assicurativo, di conseguenza al fine di ottenere maggior accuratezza possibile, la ricerca ha
prodotto modelli più efficienti che si basano su una semplificazione più, o meno, sofisticata
di quanto detto.
26
Fonte barrie+hibbert in (Morrison, 2009)
50
2.4 Metodi per la riduzione dello sforzo
computazionale
Figura 2.4.1 Sforzo computazionale per singola valutazione in funzione del numero degli scenari interni
(risk-neutral) e dei model points – fonte (Morrison, 2009)
Lo sforzo computazionale per una singola valutazione può essere rappresentato da una
griglia risultante del prodotto tra i model point e gli scenari risk-neutral, come indicato dai
quadratini rossi presenti nel grafico sopra. Se si avesse a disposizione il dato sul tempo
necessario per calcolare un’unità computazionale (vale a dire, un quadratino rosso), si
potrebbe stimare il tempo necessario per calcolare il VaR.
Intuitivamente, lo sforzo computazionale varia al variare del numero dei quadratini rossi
della griglia e dal numero totale degli scenari real world (quelli rappresentati lo stato del
mondo ad un anno). Ci sono diverse tecniche per ridurre lo sforzo computazionale; avendo
a mente il grafico sopra:
1. riduzione del numero delle unità computazionali all’interno della griglia di
valutazione - si raggiunge tale obiettivo attraverso:
i.
ii.
iii.
riduzione dei model point;
riduzione del numero degli scenari risk-neutral;
distribuzione efficiente degli scenari interni tra i model point;
51
2. riduzione del numero degli scenari real world: si valuta un numero limitato di
scenari esterni posti in maniera da coprire mediamente tutti i possibili stati del
mondo; si cerca quindi una funzione polinomiale passante per i punti. Tale metodo
è chiamato curve fitting.
3. Tecnica Least-Squares Monte Carlo: si riduce drasticamente il numero degli
scenari risk-neutral portando il loro numero a poche unità per ogni realizzazione
real world; le valutazioni diventano quindi molto imprecise. Si utilizza una
funzione di regressione sulla “nuvola di punti di valori imprecisi” per ottenere la
stima del vero valore. Si discuterà nel dettaglio di questo metodo nel prossimo
capitolo.
2.4.1 Riduzione dei model point
Figura 2.4.2- Diminuzione dello sforzo computazionale per singola valutazione attraverso la riduzione dei
model points – fonte (Morrison, 2009)
I model point vengono costruiti con l’intento di descrivere nella maniera migliore possibile
le passività della compagnia assicurativa, perseguendo questo obiettivo si ottiene una
rappresentazione estremamente granulare delle passività. Ci si chiede quindi se questo
approccio, che può condurre a cento mila model point, sia veramente indispensabile. Nella
pratica è più che plausibile che due model point siano talmente simili – nel senso dei cash
flow generati – che non solo si raddoppia inutilmente lo sforzo computazionale, ma non si
ottiene nemmeno alcun vantaggio effettivo. Considerando l’apporto marginale che un
model point porta nella valutazione delle passività, bisogna chiedersi sino a che punto
l’aggiunta di uno nuovo è ritenuto giustificabile. La risposta a tale quesito porta
52
all’individuazione di un sottoinsieme di model point che produce un risultato ‘simile’ al
modello completo. Questo procedimento porta ad una riduzione in larghezza della griglia
di valutazione.
2.4.2 Riduzione del numero degli scenari riskneutral
Figura 2.4.3 Diminuzione dello sforzo computazionale per singola valutazione attraverso la riduzione
degli scenari risk-neutral – fonte (Morrison, 2009)
Piuttosto di (o in aggiunta a) ridurre il numero totale dei model point, si può ridurre il
numero degli scenari interni. Tale metodologia deriva dal semplice quesito se simulare
dieci mila scenari interni sia veramente necessario per ottenere una valutazione accurata.
La risposta, in realtà, è già stata data in precedenza, si asseriva, infatti, che l’errore
statistico presente nel valore ottenuto dalla simulazione di dieci mila scenari può essere
sorprendentemente elevato. Risultati del mondo accademico hanno però dimostrato che
esistono tecniche per ridurre il numero degli scenari interni senza aumentare l’errore
statistico. Una di queste è la tecnica di riduzione della varianza attraverso simulazione di
scenari “antitetici”.
In sintesi, si generano scenari che sono ortogonali tra loro. Nell’ipotesi di generare
solamente due scenari risk-neutral, dato lo scenario real world i-simo all’epoca t, la coppia
di valori generati è ortogonale:
(𝑖,1)
𝑋𝑡
(𝑖,2)
⊥ 𝑋𝑡
∀ 𝑡 = 1, … , 𝑛 , 𝑖 = 1, … , 𝑁
(2.4.1)
53
Allora stimato il valore della grandezza d’interesse come speranza matematica della
coppia delle v.a. simulate (in questo caso si tratterà di una semplice media aritmetica dei
due
valori
∀𝑡 = 1, … , 𝑛, 𝑖 = 1, … , 𝑁:
(𝑖)
𝑉𝑎𝑟 �𝑋𝑡 �
=
osservati),
(𝑖,1)
𝑉𝑎𝑟 �𝑋𝑡
la
sua
(𝑖,2)
� + 𝑉𝑎𝑟 �𝑋𝑡
4
varianza
(𝑖,1)
� + 2𝐶𝑜𝑣 �𝑋𝑡
(𝑖,2)
, 𝑋𝑡
risulterà
�
(2.4.2)
(𝑖,2)
Il procedimento di riduzione della varianza, consisterà quindi nel costruire la v.c. 𝑋𝑡
(𝑖,1)
maniera tale che 2𝐶𝑜𝑣(𝑋𝑡
(𝑖,2)
𝑉𝑎𝑟 �𝑋𝑡
��.
(𝑖,1)
Si può dimostrare che se 𝑋𝑡
(𝑖,1)
aleatoria 𝑋𝑡
(𝑖,2)
, 𝑋𝑡
)
(𝑖,1)
sia il più possibile vicina a – �𝑉𝑎𝑟 �𝑋𝑡
in
�+
= 𝑓(𝑈(0,1)), cioè se la determinazione della grandezza
è funzione 𝑓(∙) di una variabile pseudocasuale𝑈uniformemente distribuita
(𝑖,2)
nell’intervallo [0,1], allora costruendo 𝑋𝑡
= 𝑓(1 − 𝑈(0,1)), si producono due variabili
(𝑖)
aleatorie antitetiche che porteranno alla più piccola varianza possibile di 𝑋𝑡 .
2.4.3 Distribuzione efficiente degli scenari interni
tra i model point
Figura 2.4.4 - Rappresentazione grafica della distribuzione efficiente degli scenari interni tra i model point
– fonte (Morrison, 2009)
54
Piuttosto che ridurre la dimensione della griglia, si può procedere limitando il calcolo ad
alcuni punti chiave. Considerati due model point simili – sempre nel senso dei flussi
generati – potrebbe essere inefficiente calcolarli sullo stesso scenario: come detto in
precedenza si raddoppierebbe lo sforzo computazionale senza ottenere un significativo
miglioramento nelle valutazioni; sarebbe più efficiente calcolare diversi model point su
scenari diversi.
Nella pratica, l’applicabilità di questa tecnica dipenderà dalla tipologia delle passività
oggetto di valutazione. Per alcuni tipi di passività assicurative, i flussi di alcuni model point
possono dipendere dai flussi di altri, come ad esempio nelle polizze with-profit con una
politica del bonus dipendente dal livello complessivo dei titoli nel fondo. Tale tecnica è
compatibile con passività non soggette a questi problemi.
55
2.5 Tecnica del curve fitting
Figura 2.5.1– Simulazione stocastica annidata - il grafico mostra il processo applicato al problema del
calcolo del valore di una opzione put – fonte (Kousaris, Improving capital approximation using the curvefitting approach, 2011)
Per fissare le idee si ripresenta la simulazione annidata contestualizzandola al problema
della valutazione di un’opzione put. Come detto in precedenza i flussi derivanti da
quest’opzione equivalgono a opzioni implicite/garanzie presenti nelle polizze vita, risulta
quindi una valida rappresentante di una passività della compagnia assicurativa. Si adotta,
inoltre, un’ulteriore semplificazione: l’unico rischio che influisce sul valore dell’opzione è il
valore del sottostante. Il grafico sopra descrive quindi il problema di questa simulazione
annidata: lo scenario real-world rappresenta una possibile realizzazione del valore del
sottostante, per ognuno di questi scenari ne vengono simulati diversi altri che individuano
il possibile valore dell’opzione put e se ne considera il valore medio (rappresentato dai
quadratini blu).
56
Figura 2.5.2 Applicazione della tecnica del curve fitting per la valutazione dell’opzione put in funzione del
valore del sottostante – fonte (Kousaris, Improving capital approximation using the curve-fitting
approach, 2011)
Se due scenari real-world producono un valore del sottostante simile allora lo è anche il
valore associato della put: l’approccio delle simulazioni annidate non tiene conto di
questo, eseguendo i calcoli due volte. Questa ridondanza di calcolo rende il metodo
inefficiente.
Una semplificazione che velocizza i calcoli consiste nel simulare gli scenari real-world in
pochi punti strategici e quindi individuare quelli mancanti attraverso interpolazione (vedi
figura sopra). I punti scelti devono occupare in maniera efficiente il campo di variazione
del rischio, che in questo caso coincide con il valore del sottostante. Si adatta, quindi, una
formula multidimensionale ai punti ottenuti. Tale formula può essere lineare, polinomiale
o anche più complessa.
57
Figura 2.5.3 - Tecnica del curve fitting - rappresentazione grafica – fonte (Kousaris, Improving capital
approximation using the curve-fitting approach, 2011)
Nei portafogli assicurativi sono presenti diversi tipi di rischi, quindi la curva ottenuta da
tale processo sarà di tipo multidimensionale. Si può pensare, ad esempio, che una passività
L sia rappresentata da una polinomiale standard di ordine N per i fattori di rischio R 1 , …,
R k ; nel caso di due fattori di rischio e di una polinomiale di ordine tre la funzione è data da:
2
𝐿(𝑅1 , 𝑅2 ) = �
𝑎1 + ��
𝑎2 𝑅�1��
+�𝑎
𝑅13 + ��
𝑎4 𝑅�2��
+����
𝑎5 𝑅22�+
𝑅23 + �
𝑎7�𝑅
�1�𝑅�2
���
��𝑎�3��
��𝑎�6��
2 𝑅1�+
𝑐𝑜𝑠𝑡.
𝑡𝑒𝑟𝑚𝑖𝑛𝑖 𝑝𝑒𝑟 𝑖𝑙 𝑟𝑖𝑠𝑐ℎ𝑖𝑜 1
+ ��
𝑎8 𝑅�12�𝑅
𝑅�1��
𝑅22
����
2 + 𝑎�
9�
𝐼𝐼𝐼 𝑔𝑟𝑎𝑑𝑜
𝑡𝑒𝑟𝑚𝑖𝑛𝑖 𝑝𝑒𝑟 𝑖𝑙 𝑟𝑖𝑠𝑐ℎ𝑖𝑜 2
𝐼𝐼 𝑔𝑟𝑎𝑑𝑜
(2.5.1)
Si hanno in totale nove coefficienti per la funzione di passività così definita. Per risolvere
tale funzione serve simulare un numero di punti pari almeno al numero di incognite. È
facile intuire che all’aumentare del numero dei fattori di rischio e dell’ordine polinomiale
si aumenta l’accuratezza della funzione; aumentano altresì i coefficienti da stimare e
quindi le simulazioni. Al divergere dei punti simulati si ritorna alla simulazione full-
nested.
58
Figura 2.5.4 Approssimazione via curve fitting per un opzione put – fonte (Kousaris, Improving capital
approximation using the curve-fitting approach, 2011)
Ritornando all’esempio dell’opzione put, si vuole valutare l’errore di approssimazione
considerando due fattori di rischio: il valore del sottostante ed il tasso risk-free. Il grafico
sopra mostra la funzione reale, ottenuta con l’approccio simulativo full-nested, mentre di
sotto sono rappresentati gli errori di approssimazione.
Figura 2.5.5 Errore di approssimazione calibrando la polinomiale su dieci punti – fonte (Kousaris,
Improving capital approximation using the curve-fitting approach, 2011)
59
2.5.6 Errore di approssimazione calibrando la polinomiale su dieci punti – fonte (Kousaris, Improving
capital approximation using the curve-fitting approach, 2011)
I grafici mostrano che per ottenere una buona approssimazione, anche in questo semplice
esempio, si necessita di un numero elevato di punti. In un contesto reale, dove i valori dei
rischi da simulare sono molteplici è possibile che il beneficio della tecnica si vanifichi. La
tecnica soffre inoltre di errore di campionamento: se venti punti scelti non rappresentano
bene la vera curva, quella ottenuta sarà distorta. Il problema in questione va ben oltre
quanto concerne le qualità desiderabili della polinomiale. Essendo questi punti scelti in
maniera soggettiva da chi calibra il modello si potrebbe giungere facilmente ad una stima
diversa del capitale; il risultato quindi finale potrebbe essere criticato dal regolatore. Si
dovrebbe quindi dimostrare attraverso analisi di sensitività, che le scelte effettuate hanno
comunque prodotto un risultato robusto. Il modello, inoltre, da requisito di Solvency II,
deve restare il più possibile costante nel tempo; considerando che la composizione delle
passività, delle garanzie, delle polizze e del nuovo business può variare, risulta molto
difficile creare delle regole di scelta di questi punti che si mantengano costanti nel tempo.
Nella funzione approssimante è insito lo stesso problema: non è detto che al variare di
questa il requisito di capitale non subisca variazioni significative. Considerando i problemi
esposti, risulta molto difficile dare una misura all’errore potenziale nel calcolo del capitale.
In conclusione, nonostante la tecnica del curve fitting è un notevole miglioramento
rispetto alle simulazioni full-nested, a causa dei problemi sopra citati non può essere
considerata come una soluzione definitiva.
60
3 Least-Squares Monte Carlo
In questo capitolo sarà proposto il modello di approssimazione delle simulazioni fullnested denominato LSMC. Il capitolo è composto da quattro parti:
i.
ii.
iii.
iv.
introduzione per concetti al modello;
il modello matematico delle simulazioni full-nested;
il modello LSMC;
migliorie al modello.
Nella prima parte si introduce il modello con il supporto di rappresentazioni grafiche. Vi
saranno presenti diversi confronti con i modelli introdotti in precedenza. A seguire il
modello matematico delle simulazioni full-nested ed infine il metodo LSMC. Si conclude il
capitolo con alcune proposte di miglioramento della tecnica: utilizzo della successione di
Sobol per la calibrazione della funzione di regressione e generazione degli scenari riskneutral attraverso il metodo di riduzione della varianza.
61
3.1 Introduzione al modello LSMC
Figura 3.1.1 - Rappresentazione grafica del modello delle simulazioni stocastiche annidate
Si consideri nuovamente il modello delle simulazioni stocastiche annidate rappresentato
nella figura sopra. Avendo come obiettivo quello di ridurre lo sforzo computazionale, si
procede riducendo drasticamente il numero degli scenari risk-neutral a poche unità per
ogni scenario real world. La conseguenza diretta è che la valutazione dei flussi diventa
molto approssimativa. Non avrebbe più senso considerare la distribuzione empirica di
queste determinazioni, in quanto molto imprecise: in un contesto full-nested, il valore
della grandezza di interesse (ad esempio il PVFP), al variare di un singolo rischio,
disegnava una curva ben definita; ora, la simulazione produce una nuvola di punti. Si è
costatato che applicando una funzione di regressione alla nuvola così ottenuta, si ritorna
alla curva ottenibile dal modello full-nested. Il problema si trasferisce quindi sulla scelta
della funzione di regressione. È chiaro che nella realtà si avrà a che fare con modelli multidimensionali: la bontà della tecnica resta però invariata.
62
Figura 3.1.2 - Approssimazione del modello full-nested attraverso la tecnica LSMC
3.1.1 Il LSMC per valutare un’opzione put
Nel (Kousaris, Research & insights - The advantages of Least Squares Monte Carlo, 2011)
si riportano i risultati di un’applicazione semplificata del modello: valutazione di
un’opzione put al variare del valore del sottostante. L’esempio non è casuale, infatti il
metodo LSMC è stato “inventato” da (Longstaff & Schwartz, 2001) proprio come soluzione
al problema della tariffazione delle opzioni put americane.
Figura 3.1.3 – Modello LSMC per la valutazione di un'opzione put al variare del valore del sottostante.
Il grafico mostra il valore di 2.000 simulazioni dell’opzione put al variare del valore del
valore del sottostante. Si può osservare che la nuvola di punti è molto dispersa, le
valutazioni quindi sono molto imprecise. Il valore iniziale del titolo è 1, si può quindi
63
osservare che molti punti sono concentrati attorno a 1.1 (aumento del 10%) e pochi sotto
lo 0.7 (diminuzione del 30%). La linea verde rappresenta una regressione polinomiale
attraverso i punti. I veri valori dell’opzione put, indicati con quadratini blu, sono calcolati
analiticamente, osservando quindi che la curva di regressione passa per tali punti si può
affermare che questa approssimi molto bene i veri valori. Facendo ulteriori simulazioni, è
stato osservato che, in alcuni casi, l’esiguo numero di scenari sulle code ha prodotto curve
di regressione che catturano male eventi estremi. I grafici sotto riportano gli esperimenti:
in quello di sinistra si osserva una sottostima del valore, viceversa per quello di destra. Si
conclude che questo problema potrebbe provocare una sovra o sotto stima del requisito
patrimoniale di solvibilità.
Figura 3.1.4 – Casi in cui la curva interpolante cattura male il valore della put per valori estremi del
sottostante.
Per superare questo problema si avrebbe la necessità di avere un numero maggiore di
scenari sulle code: tale obiettivo è stato raggiunto utilizzando simulazioni del valore del
sottostante che non sottostanno ad una metrica real world bensì ad una più semplice
distribuzione uniforme, sullo stesso dominio. Una volta calibrata la funzione di
regressione su questi scenari, questa viene poi utilizzata in un contesto real world,
seguendo cioè la cosiddetta misura di probabilità fisica. La sequenza del processo è:
I.
Calibrazione della funzione di regressione:
1. simulazione del valore del sottostante accogliendo una probabilità
uniforme su tutti i valori possibili e conseguente simulazione del relativo
prezzo della put secondo una probabilità risk-neutral (le due simulazioni
individuano un punto verde dei grafico sotto);
2. regressione sui valori della put, con il valore del sottostante come variabile
II.
esplicativa (linea verde del grafico sotto).
Costruzione della distribuzione di probabilità empirica del valore della put:
64
3. simulazione del valore del sottostante accogliendo una probabilità real
world;
4. calcolo del valore della put per ogni punto simulato al passo (3), attraverso
la funzione interpolante ottenuta al passo (2);
5. la distribuzione di frequenza dei valori ottenuti al passo (4) è la stima della
distribuzione di probabilità del valore della put.
Questo processo di calibrazione si traduce in una descrizione più precisa del
comportamento delle code della distribuzione del prezzo della put.
Figura 3.1.5 – Simulando il valore del sottostante secondo una distribuzione uniforme, i relativi valori
simulati coprono un’area molto maggiore di prima, riducendo così l’errore di campionamento.
3.1.2 Considerazioni sull’utilizzo del modello in un
contesto assicurativo
L’utilizzo del metodo in un contesto finanziario è stato già ampiamente sperimentato e
documentato nel corso dell’ultimo decennio. Si è già dimostrato che risulta una valida
soluzione alle simulazioni fully-nested. L’impiego nel settore assicurativo, nello specifico,
per il calcolo del requisito patrimoniale di solvibilità, risulta del tutto nuovo; è quindi
lecito affermare che potrebbero sorgere delle criticità. I modelli attuariali sono più
65
complessi della semplice opzione put considerata, in particolare quando i valori delle
passività dipendono non solo dagli ultimi eventi economici ma anche da quelli passati, in
altre parole dalle traiettorie seguite nel tempo. In questi casi potrebbe essere veramente
ostico trovare una funzione che si adatti bene e che consideri pure la storia delle variabili
economiche.
A vantaggio del LSMC è il fatto che porta con sé tutti gli strumenti della statistica associati
alla funzione di regressione. È quindi possibile ottenere facilmente l’errore di valutazione,
ad esempio, considerando lo standard error. L’approvazione del modello da parte del
regolatore sarebbe senz’altro più facile, in presenza di queste informazioni. È possibile
calcolare lo standard error anche nel modello del curve fitting in un ambiente univariato,
l’operazione diventa più difficile se non impossibile in quello multivariato.
Un altro potenziale vantaggio del modello è di poter considerare i rischi non di mercato
congiuntamente agli altri. L’impatto dell’aggiunta di un qualunque rischio sul modello si
tradurrà semplicemente nell’aggiunta di ulteriori variabili esplicative.
Una compagnia assicurativa potrebbe avere la necessità di ricalcolare il requisito di
solvibilità a distanze ravvicinate. In seguito ad una variazione forte ed inaspettata del
valore del portafoglio d’investimento, si potrebbe voler ricalcolare il SCR. Con il modello
LSMC basterebbe ri-simulare gli scenari real world, aggiornati con le ultime informazioni
del mercato, quindi sfruttare la funzione di regressione ottenuta al calcolo del SCR
precedente. In ottemperanza alla direttiva, si manterrebbero costanti nel tempo i criteri di
valutazioni e confrontabili i risultati. Si osservi che quest’ultima funzionalità è resa
possibile grazie al fatto che la funzione di regressione è stata calibrata su un intervallo
ragionevolmente ampio del dominio (solitamente μ ±5σ) dei fattori rischio ed è
indipendente dalla misura market-consistent associata, che invece varia nel tempo.
Nell’approccio del curve fitting questo non sarebbe possibile, in quanto si dovrebbe
aggiungere un numero sproporzionato di fitting points.
Rifacendosi ai requisiti imposti dall’ORSA, in ottemperanza ai quali bisogna calcolare il
valore del SCR anche per gli anni successivi, l’applicazione del modello LSMC risulta
immediata. Si giungerebbe a calcolare una funzione di regressione per ogni anno di
valutazione. Il grafico sotto mostra la rappresentazione del LSMC, ora “multi-annuale”,
restando nel semplice contesto dell’opzione put.
66
Figura 3.1.6 Utilizzo del modello LSMC in un'ottica multi-annuale – fonte (Kousaris, Research & insights The advantages of Least Squares Monte Carlo, 2011)
Il fitting multi-annuale fornito dai modelli LSMC può essere utilizzato in diversi settori
assicurativi, non solo in quello del calcolo del capitale di solvibilità. Si potrebbero
utilizzare le informazioni così ottenute per strategie di hedging, o di pricing, definizione di
scelte di management, piuttosto che l’ottimizzazione dell’asset allocation.
3.1.3 Il LSMC per le politiche di gestione
Finora si è analizzato il problema della valutazione del PVFP considerandolo dipendente
dai rischi cui la compagnia deve far fronte; gli utili futuri non dipendono solamente da
questo tipo di fattori ma, tra gli altri, anche dalle politiche di gestione. Si fornirà di seguito
un esempio su come possa risultare utile il metodo LSMC anche per affrontare tale
problema.
Si considerino, a titolo di esempio, le politiche d’investimento in titoli, in misura della
quantità rispetto al totale delle attività. A tale scopo si considera l’indice Equity Backing
Ratio – ovvero la percentuale delle attività investite in titoli azionari e sul totale degli
investimenti correnti.
67
Si procede espandendo la lista dei rischi utilizzati dal modello LSMC includendo anche
quelli che influenzano l’EBR e si inserisce come parametro addizionale la percentuale EBR.
In questa maniera, al variare del parametro EBR si possono ottenere diverse distribuzioni
del PVFP che variano tra di loro, tenendo fissati i restanti parametri, solo a causa di
politiche di gestione diverse.
Figura 3.1.7 Distribuzione del PVFP in t = 1 al variare dell'EBR (da “Solvency II Proxy Modeling via Least
Squares Monte Carlo – Milliman”)
Equity Backing Ratio
1%
3%
5%
7%
9%
99,5% VaR
-143
-222
-294
-391
-482
Esempio tratto da: “Solvency II Proxy Modelling via Least Squares Monte Carlo” – Milliman
SCR
258
337
409
506
597
I risultati dell’esempio appena citato possono essere interpretati con la seguente logica:
all’aumentare dell’EBR si pone maggiore stress sugli azionisti e sugli assicurati in quanto
approssimativamente il 90% dei profitti è assegnato a questi ultimi per le ipotesi
sottostanti l’esempio, a fronte di un rendimento medio di portafoglio crescente.
68
3.2 Il modello matematico per le
simulazioni fully nested
3.2.1 Descrizione delle grandezze di interesse
La valutazione quantitativa della posizione di solvibilità di un assicuratore operante nel
ramo vita può essere separata in due componenti, l’Own Fund (OF) ed il Solvency Capital
Requirement (SCR).
Il capitale disponibile – chiamato dalla direttiva Solvency II own funds – corrisponde
all’ammontare delle risorse finanziarie disponibili in t = 0 che può servire come buffer
contro i rischi e assorbire perdite finanziarie. Tale valore è ottenuto dalla differenza tra le
attività e le passività valutate entrambe a valori di mercato.
La valutazione delle attività a valori di mercato è un’operazione piuttosto facile se si
considera un tipico portafoglio d’investimenti di una compagnia assicurativa: i valori sono
o direttamente osservabili (mark-to-market) oppure possono essere derivati da modelli
standardizzati che ammettono in input valori osservabili sul mercato (mark-to-model).
Lo stesso ragionamento non può essere fatto per le passività. Infatti, a causa della
struttura relativamente complessa dei contratti assicurativi - si considerino ad esempio
contratti contenenti opzioni e garanzie - nonché all’assenza di un ‘mercato delle passività’,
si è portati ad una valutazione non in forma chiusa ma ottenuta attraverso un approccio
mark-to-model basato su simulazioni stocastiche. Nello specifico, se una compagnia
utilizza un modello interno, la valutazione delle passività a valori di mercato è solitamente
calcolata attraverso simulazioni Monte Carlo; in alcuni paesi sono disponibili dei modelli
standardizzati che forniscono una stima market-consistent delle passività attraverso
formule in forma chiusa, fornendo comunque risultati molto approssimativi, accettabili
per contratti relativamente semplici.
Al fine di ridurre l’arbitrarietà nella scelta del modello sottostante alle valutazioni, e quindi
per assicurare la comparabilità dei risultati con altre compagnie, nell’ultimo decennio,
l’industria delle assicurazioni vita ha sviluppato dei principi per la valutazione del valore
delle attività e passività secondo l’approccio market-consistent e secondo una visione
dell’impresa dalla prospettiva degli azionisti: si è giunti così alla formulazione del Market-
69
Consistent Embedded Value (MCEV) 27 corrispondente al valore attuale degli utili
provenienti dagli investimenti a supporto del business assicurativo, al netto del valore da
accantonare per far fronte ai rischi aggregati presenti nel portafoglio. Di conseguenza, il
valore market-consistent delle passività può essere ottenuto indirettamente come
differenza tra le attività a valori di mercato e il MCEV. Inoltre i OF presenti nella direttiva
Solvency II sono molto simili al MCEV, quindi da ora in poi – risultando tali differenze
superflue ai fini di questa tesi - le due quantità verranno considerate equivalenti. 28 Si ha
quindi all’epoca t = 0:
𝑂𝐹0 ∶= 𝑀𝐶𝐸𝑉0
(3.2.1)
Al fine di valutare il SCR, la quantità d’interesse è il capitale disponibile (AC) in t = 1.
Nell’ipotesi di avere un profitto nel primo anno (identificato con X 1 ) e che questo non sia
stato ancora distribuito agli azionisti, l’AC 1 è dato da:
𝐴𝐶1 ∶= 𝑀𝐶𝐸𝑉1 + 𝑋1
(3.2.2)
Secondo la direttiva Solvency II, una compagnia assicurativa è ritenuta essere in una
posizione di solvibilità se il suo capitale disponibile (OF) in t = 1 valutato all’epoca 0 è non
negativo con una probabilità di almeno 99.5%:
𝑃(𝑂𝐹1 ≥ 0 | 𝑂𝐹0 = 𝑥) ≥ 99.5%
(3.2.3)
Il SCR è quindi la più piccola quantità x che soddisfa tale condizione. Questa è una
definizione implicita del requisito di solvibilità: si garantisce che se i OF in t = 0 sono
maggiori o uguali al SCR, allora la probabilità che i OF in t = 1 sia positiva è di almeno del
99.5%.
Nella pratica ci si affida ad una definizione approssimativamente equivalente ma più
semplice dell’SCR, la quale evita di definire tale quantità implicitamente 29. A tal proposito
viene definita la funzione one-year loss function, calcolata in t = 0 come
ℒ ∶= 𝑂𝐹0 −
𝑂𝐹1
1+𝒾
(3.2.4)
Per ulteriori informazioni si rimanda al sito del CFO Forum: www.cfoforum.eu
Nello specifico, le differenze tra cost-of-capital dell’MCEV - somma dei costi frizionali per il ottenere il
requisito patrimoniale e il costo dei rischi residui non mitigabili - ed il risk margin sotto Solvency II vengono
ignorate, inoltre verranno ignorate alcune componenti del capitale (come ad esempio i prestiti subordinati)
29 Tale formula è utilizzata nello Swiss Solvency Test
27
28
70
Dove 𝒾 è un tasso di interesse privo di rischio annuo privo di rischio in t = 0. Il SCR è
quindi definito come l’α-quantile di ℒ, con α pari a 99.5%:
𝑆𝐶𝑅 ∶= 𝑎𝑟𝑔𝑚𝑖𝑛𝑥 �𝑃 �𝑂𝐹0 −
= 𝑎𝑟𝑔𝑚𝑖𝑛𝑥 �𝑃 �𝑀𝐶𝐸𝑉0 −
𝑂𝐹1
> 𝑥� ≤ 1−∝�
1+𝒾
𝑀𝐶𝐸𝑉1 + 𝑋1
> 𝑥� ≤ 1−∝�
1+𝒾
(3.2.5)
(3.2.6)
Il passaggio dalla (4) alla (5) è immediato considerando la (1) e la (2).
Il capitale in eccesso (Excess Capital) in t = 0, d’altro canto, è definito come OF 0 – SCR e
soddisfa alla
𝑂𝐹1
𝑃�
≥ 𝑂𝐹0 − 𝑆𝐶𝑅� ≥ ∝
1+𝒾
(3.2.7)
Allora la probabilità in t = 0 che i OF in t = 1 siano maggiori o uguali all’Excess Capital è
almeno α (ad esempio 99.5%).
Basandosi su questa definizione, il tasso di solvibilità (solvency ratio) è individuato in
SCR/OF 0 .
Viene ora ripresa la standard formula. Sotto l’ipotesi che la funzione di perdita ℒ sia
combinazione lineare di variabili aleatorie ℒ i , 1 ≤ i ≤ d ∈ ℕ descriventi le perdite riportate
nei d moduli di rischio, ℒ = ∑𝑑𝑖=1 ℒ𝑖 e che le ℒ i sono congiuntamente normalmente
distribuite, otteniamo per l’SCR la cosiddetta square root formula:
𝑑
𝑑
𝑖=1
𝑖=1
𝑆𝐶𝑅 = � 𝜇𝑖 + ��(𝑆𝐶𝑅𝑖 − 𝜇𝑖 )2 + 2
�
1≤𝑖<𝑗≤𝑑
𝜌𝑖𝑗 (𝑆𝐶𝑅𝑖 − 𝜇𝑖 ) �𝑆𝐶𝑅𝑗 − 𝜇𝑗 �
(3.2.8)
Dove μ i = E[ℒ i ], SCR i è il caricamento per il rischio i-simo (ad esempio il 99.5% quantile
della funzione di perdita ℒ i ) e 𝜌 ij è la correlazione lineare tra le variabili di rischio ℒ i e ℒ j ,
1 ≤ i ≠ j < d. I singoli caricamenti per il rischio vengono, come già analizzato in
precedenza, calcolati utilizzando modelli scenario-based e factor-based 30.
30
A. Sandstraom. Solvency II: Calibration for skewness. Scandinavian Actuarial Journal, 2007
71
Si può subito osservare che possono nascere problemi se i rischi non seguono una
distribuzione normale. Da un lato, asimmetria o eccesso di curtosi nelle distribuzioni
marginali può portare a risultati lontani da quelli reali, dall’altro, situazioni di dipendenza
non colte da un modello lineare possono portare alla sottostima dei risultati 31.
Al fine di ottenere risultati il più accurati possibile riguardanti la posizione di solvibilità
della compagnia, in generale è necessario affidarsi a metodi numerici al fine di poter
valutare, seguendo un approccio multivariato, i rischi cui la compagnia deve far fronte. In
linea con l’equazione (3.2.8), il MCEV può essere usato come base per la determinazione
dei requisiti monetari per far fronte ai rischi.
Il MCEV è definito come somma di Adjusted Net Asset Value (ANAV) e di Present Value of
Future Profits (PVFP) meno il Cost-of-Capital (CoC):
𝑀𝐶𝐸𝑉 ∶= ANAV + PVFP − CoC
(3.2.9)
L’ANAV è ricavato dal Net Asset Value 32, ed include gli aggiustamenti per beni immateriali,
plus/minusvalenze latenti. È composto da due parti: il free surplus - ovvero il valore delle
attività libere a disposizione dell’azienda una volta soddisfatti gli obblighi relativi
all’accantonamento delle riserve matematiche e del margine di solvibilità e ad eventuali
altri accantonamenti di legge - ed il required capital. Nella maggior parte dei casi, l’ANAV
può essere ottenuto dai numeri presenti a bilancio e dai valori di mercato delle attività,
quindi il calcolo non richiede alcuna simulazione.
Il PVFP corrisponde al valore attuale atteso degli utili futuri a valori di mercato derivanti
dall’in-force business - valore attuale dei profitti futuri attesi dallo sviluppo del portafoglio
run-off alla data di valutazione. La determinazione del PVFP è abbastanza impegnativa
visto che dipende dallo sviluppo del mercato finanziario, e quindi dall’evoluzione della
curva dei tassi, credit spread, ritorno sul capitale investito, etc. Il PVFP viene quindi
determinato attraverso modelli stocastici, per i quali, in generale, vengono applicate
valutazioni neutrali al rischio.
Il CoC – Cost of Capital - è la somma dei costi frizionali del capitale richiesto e il costo dei
rischi residui non mitigabili. Il calcolo del CoC può essere eseguito attraverso approcci
deterministici o stocastici.
Per ulteriori approfondimenti vedere: D. Pfeifer and D. Strassburger. Solvency II: stability problems with the
SCR aggregation formula. Scandinavian Actuarial Journal, 2008/1:61
32 Per una compagnia di assicurazioni, il NAV è definito come valore delle attività meno il valore delle passività
così come definite nel bilancio, e quindi può essere approssimativamente identificato nel capitale azionario.
31
72
È da sottolineare che al fine di poter valutare la posizione di solvibilità di una compagnia
assicurativa è necessario valutare l’MCEV non solo all’epoca t = 0 ma anche disporre di
una distribuzione probabilistica in t = 1. A tal proposito sono introdotte misure di rischio
come il VaR (Value-at-Risk) o il TVaR (Tail-Value-at-Risk) che considerando la
distribuzione dell’MCEV in t = 1 offrono una valutazione del capitale di rischio richiesto.
3.3 L’impostazione matematica delle
simulazioni stocastiche annidate
Si accolgano le seguenti ipotesi sul mercato:
i.
ii.
le transazioni sul mercato siano prive di frizionalità;
i titoli possono essere scambiati in ogni istante tra 0 e T, dove T 33 è la scadenza più
lontana tra le polizze presenti nel portafoglio dell’assicuratore.
Sia allora
�Ω, ℱ, 𝒫, 𝔽 = (ℱt )t∈[0,T] �
uno spazio di probabilità filtrato nel quale esistano tutte le quantità rilevanti:



(3.3.1)
Ω denota lo spazio di tutti i possibili stati del mercato finanziario;
𝒫 è una misura di probabilità basata su valutazioni realistiche.
ℱ t rappresenta l’informazione del mercato disponibile fino all’epoca t.
L’incertezza negli utili futuri è dovuta all’incertezza presente in diversi fattori che ne
influenzano lo sviluppo, come i rendimenti sui titoli, tassi d’interesse o credit spread.
Sotto tale modello si consideri un processo markoviano d-dimensionale, sufficientemente
regolare
𝐘 = (𝐘t )t ∈[0,T] = (Yt,1 , . . . , Yt,d )t∈[0,T]
(3.3.2)
il quale verrà chiamato processo di stato, esso servirà a modellare l’incertezza del mercato
finanziario, vale a dire, tutte le attività del mercato possono essere espresse in termini di
33 Visto che i contratti assicurativi vita sono investimenti a lungo termine, T assumerà un valore compreso tra i
30 e 40 anni.
73
Y. Dato il tasso istantaneo di interesse privo di rischio 𝑟𝑡 = 𝑟(𝐘𝑡 ) si supponga l’esistenza di
un processo risk-free detto bank account:
𝑡
(𝐵𝑡 )𝑡∈[0,𝑇] 𝑐𝑜𝑛 𝐵𝑡 = 𝑒𝑥𝑝 �� 𝑟𝑢 𝑑𝑢�,
0
(3.3.3)
Sia quindi 𝒬 una probabilità neutrale al rischio equivalente 34 alla 𝒫 dove i pagamenti
futuri possono però essere quantificati come flussi futuri scontati rispetto al numerario
(B t ) t∈[0,T] .
Infine, si assume che esiste un modello di proiezione dei flussi della compagnia
assicurativa, esistono cioè T funzionali f 1 ,…,f T tali che con il generico f t è possibile ottenere
il risultato economico del periodo t-simo considerando lo sviluppo del mercato finanziario
sino all’epoca relativa. Tale modello deve tenere in considerazione anche i requisiti legali e
regolatori così come le politiche di gestione. Detto ciò, si modellano i risultati economici
futuri relativi al business in-force come successione di variabili aleatorie:
𝑿 = (𝑋1 , … , 𝑋𝑇 ) 𝑐𝑜𝑛 𝑋𝑡 = 𝑓𝑡 (𝒀𝑠 , 𝑠 ∈ [0, 𝑡])
(3.3.4)
Per mantenere semplice l’esposizione, questa tesi si limiterà a prendere in considerazione
il rischio di mercato, quindi i rischi non immunizzabili così come il rischio di aumento del
costo del capitale non saranno considerati. I fattori di rischio non di mercato come la
mortalità possono essere incorporati nel processo di stato, così come i caricamenti del
costo del capitale e altri costi frizionali potrebbero essere presi in considerazione
modellando in maniera opportuna 𝒬 e f i , 1 ≤ i ≤ T.
3.3.1 Il capitale disponibile in t = 0
Per quantificare i OF in t = 0, si procede determinando il PVFP in t = 0, PVFP 0 , come il
valore atteso della somma degli utili futuri X t , t = 1, …, T , scontati sotto la misura neutrale
al rischio 𝒬:
𝑇
𝑡
𝑃𝑉𝐹𝑃0 ≔ 𝐸 �� 𝑋𝑡 ∙ 𝑒 − ∫0 𝑟𝑢 𝑑𝑢 �
𝑄
𝑡=1
(3.3.5)
Dato lo spazio misurabile (Ω,ℱ,𝒫,𝔽), 𝒬 è assolutamente continua rispetto a 𝒫 , se ogni insieme E ∈ 𝔽 che ha
misura nulla rispetto a 𝒫 ha misura nulla anche rispetto a 𝒬. Due misure assolutamente continue l’una rispetto
all’altra si dicono equivalenti.
34
74
Viene immediato quindi definire la relativa deviazione standard, che tornerà utile negli
sviluppi futuri:
𝜎(𝑃𝑉𝐹𝑃0 ) ≔
�𝑉𝑎𝑟 𝑄
𝑇
𝑡
�� 𝑋𝑡 ∙ 𝑒 − ∫0 𝑟𝑢 𝑑𝑢 �
𝑡=1
(3.3.6)
Il PVFP 0 non è calcolabile analiticamente in quanto le interazioni tra le variabili del
mercato finanziario Y t e gli utili futuri X t , sono molto complesse: si prosegue attraverso il
metodo MC, simulando il valore del processo di stato ad ogni epoca di valutazione. Si
ottengono quindi K 0 traiettorie simulate indipendenti. Il valore ottenuto dalla k-sima
traiettoria simulata, sotto la misura neutrale al rischio 𝒬 è indicata con:
(𝒀𝑡 (𝑘) )𝑡∈[0,𝑇] ,
𝑘 = 1, … , 𝐾0
Basandosi sugli scenari ottenuti, si stimano i flussi
𝑋𝑡 (𝑘) (𝑡 = 1, … , 𝑇; 𝑘 = 1, … , 𝐾0 )
(3.3.7)
(3.3.8)
Si scontano i cash-flow così ottenuti con un fattore di sconto appropriato; si ottiene infine
il valore atteso degli utili futuri in 0, come media dei PVFP ottenuti dalle K 0 simulazioni:
𝐾0
𝑇
𝑡 (𝑘)
1
� 0 (𝐾0 ) ≔
𝑃𝑉𝐹𝑃
� � 𝑋𝑡 (𝑘) ∙ 𝑒 − ∫0 𝑟𝑢 𝑑𝑢
𝐾0
(3.3.9)
𝑘=1 𝑡=1
Dove r u (k) è il tasso istantaneo di interesse in t secondo la k-sima traiettoria.
Considerando l’equazione (12) ed il fatto che l’ANAV può essere ricavato dal bilancio, uno
stimatore
per
OF 0
(considerando
precedentemente) è dato da:
sempre
le
� 0 ∶= ANAV0 + 𝑃𝑉𝐹𝑃
�0
𝑂𝐹
ipotesi
3.3.2 Il capitale disponibile in t = 1
matematiche
descritte
(3.3.10)
Per il calcolo del SCR, oltre al capitale disponibile in t = 0 è necessario valutare la
distribuzione del capitale disponibile in t = 1. Supponendo che l’utile del primo anno, X 1 ,
75
non sia stato ancora spartito tra gli azionisti, bisogna determinare la 𝒫-distribuzione della
variabile aleatoria ℱ 1 -misurabile
𝑇
𝑡
𝑂𝐹1 ∶= ANAV1 + 𝐸 �� 𝑋𝑡 ∙ 𝑒 − ∫1 𝑟𝑢 𝑑𝑢 � 𝑌𝑠 , 𝑠 ∈ [0,1]� + 𝑋1
�����������������������
𝑡=2
𝑄
(3.3.11)
=:𝑃𝑉𝐹𝑃1
La complessità risiede soprattutto nella struttura di PVFP 1 ; è da tenere però in
considerazione che nelle applicazioni pratiche tale valore non dipende dall’”intera” storia
del mercato finanziario sino all’epoca 1. I modelli di proiezione delle attività e passività a
livello aggregato sono basati sull’estrapolazione di un numero finito di fattori
rappresentanti sia il mercato sia le passività; se, invece, la situazione finanziaria della
compagnia viene proiettata su base contrattuale, ogni contratto sarà a sua volta
rappresentato da un numero finito di elementi all’interno del sistema contabile
dell’assicuratore. In altre parole è possibile asserire che tutta l’informazione necessaria
per la proiezione dei flussi è contenuta in un insieme finito di variabili di stato markoviane
(Y 1 ,D 1 ), dove D 1 = (D 1 (1), …, D 1 (m)), ottenendo
𝑇
𝑡
𝑃𝑉𝐹𝑃1 ∶= 𝐸 �� 𝑋𝑡 ∙ 𝑒 − ∫1 𝑟𝑢 𝑑𝑢 � (𝑌1 , 𝑫1 )�.
𝑄
𝑡=2
(3.3.12)
È possibile ora stimare la distribuzione di OF 1 attraverso la corrispondente distribuzione
empirica: date N ∈ ℕ traiettorie simulate (Y s (i)) s∈[0,1 ] , riguardanti lo sviluppo del mercato
finanziario sotto una misura di probabilità coerente col mondo reale 𝒫 con le
corrispondenti
variabili
di
(𝑖)
(𝑖)
stato �𝑌1 , 𝑫1 � , 𝑖 ∈ {1, … , 𝑁} il
PVFP
in
t
=
1
condizionatamente allo stato del mercato dato dall’i-simo scenario può essere descritto da
𝑃𝑉𝐹𝑃1 (𝑖)
⎡ 𝑇
⎤
𝑡
⎢
⎥
∶= 𝐸 𝑄 ⎢� 𝑋𝑡 ∙ 𝑒 − ∫1 𝑟𝑢 𝑑𝑢 � (𝑌1 , 𝑫1 ) = �𝑌1 (𝑖) , 𝑫1 (𝑖) �⎥.
𝑡=2
⎢���������������������������
⎥
⎣
⎦
=:𝑃𝑉1 (𝑖)
(3.3.13)
Possiamo quindi definire la relativa deviazione standard:
�
⃓
⎡ 𝑇
⎤
⃓
⃓
𝑡
⃓
⎢
⎥
(𝑖)
(𝑖)
(𝑖)
−
𝑟
𝑑𝑢
∫
⃓
𝜎�𝑃𝑉𝐹𝑃1 � ∶= ⃓𝑉𝑎𝑟 𝑄 ⎢� 𝑋𝑡 ∙ 𝑒 1 𝑢 � (𝑌1 , 𝐷1 ) = �𝑌1 , 𝐷1 �⎥
⃓
⃓
𝑡=2
⎢���������������������������
⎥
⃓
(𝑖)
⎣
⎦
=:𝑃𝑉
⎷
1
(3.3.14)
76
Si osserva che 𝜎�𝑃𝑉𝐹𝑃1 (𝑖) � può variare significativamente tra i diversi scenari, quindi al
variare delle variabili di stato (Y 1 (i),D 1 (i)), i flussi scontati solitamente non sono
identicamente distribuiti. Inoltre, possono essere calcolate le realizzazioni delle restanti
componenti di OF 1 , in altre parole X 1 e ANAV 1 per ognuna delle N traiettorie relative al
primo anno. Otterremo quindi come risultato, N realizzazioni di OF 1 date da
𝑂𝐹1 (𝑖) = 𝐴𝑁𝐴𝑉1 (𝑖) + 𝑃𝑉𝐹𝑃1 (𝑖) + 𝑋1 (𝑖)
(3.3.15)
È da notare che queste variabili aleatorie ℱ 1 -misurabili OF 1 (i), 1 ≤ i ≤ N, sono indipendenti
e identicamente distribuite in quanto realizzazioni ottenute attraverso il metodo delle
simulazioni di Monte Carlo.
Figura 3.3.1 - Illustrazione dell'approccio delle simulazioni stocastiche annidate – fonte (Bauer,
Bergmann, & Reuss, 2010)
Come illustrato nella Figura 3.3.1, dall’i-sima traiettoria – dalla quale si ottiene lo stato
(Y 1 (i),D 1 (i)) – vengono simulati K 1 (i) ∈ ℕ scenari sotto una misura di probabilità neutrale al
rischio, identificati con (Y s (i,k)) s∈(1,T ] . Determinando, quindi, i risultati economici futuri
(𝑋𝑡 (𝑖,𝑘) ; 𝑡 = 2, … , 𝑇; 𝑘 = 1, … , 𝐾1 (𝑖) ; 𝑖 = 1, … , 𝑁)
(3.3.16)
e facendo la media di tutte le K 1 (i) traiettorie simulate per ciascuna relativa al primo anno,
si ottiene una stima di PVFP 1 (i) basata sulle simulazioni MC:
77
(𝑖)
� 1 �𝐾1 (𝑖) � ≔
𝑃𝑉𝐹𝑃
1
𝐾1
(𝑖)
𝐾1 (𝑖) 𝑇
𝑡 (𝑖,𝑘)
� � 𝑋𝑡 (𝑖,𝑘) ∙ 𝑒 − ∫1 𝑟𝑢 𝑑𝑢
𝑘=1 ���������������
𝑡=2
=:𝑃𝑉1 (𝑖,𝑘)
𝑖 ∈ {1, … , 𝑁}
(3.3.17)
Il numero di simulazioni nell’i-simo scenario descritto da (Y 1 (i),D 1 (i)) potrebbe dipendere
da i stesso, in quanto al variare delle deviazioni standard σ(PVFP 1 (i)), è plausibile ritenere
necessario utilizzare un numero differente di simulazioni. Si ottiene quindi la seguente
deviazione standard per PV 1 (i):
𝜎
�1 (𝑖) (𝐾1 (𝑖) ) ∶= �
1
𝐾1 (𝑖) − 1
𝐾1 (𝑖)
(𝑖)
� �𝑃𝑉1 (𝑖,𝑘) − 𝑉�1 (𝐾1 (𝑖) )�
𝑡=1
2
Ora, è possibile stimare N realizzazioni di OF 1 da
� 1 (𝑖) �𝐾1 (𝑖) � ≔ 𝐴𝑁𝐴𝑉1 (𝑖) + 𝑃𝑉𝐹𝑃
� 1 (𝑖) �𝐾1 (𝑖) � + 𝑋1 (𝑖) , 𝑖 = 1, … , 𝑁.
𝑂𝐹
3.3.3 Requisito patrimoniale di solvibilità
(3.3.18)
(3.3.19)
Dall’equazione (3.2.8) si evince che il SCR è l’α-quantile della variabile aleatoria
ℒ = 𝑂𝐹0 −
𝑂𝐹1
1+𝒾
. Si è costatato che OF è approssimato attraverso lo stimatore non distorto
� 0 e 𝒾 è noto in t = 0, l’aleatorietà rimane quindi in OF 1 , il passo successivo sarà quello di
𝑂𝐹
individuare l’α-quantile di –OF 1 . Tale problema verrà di nuovo risolto attraverso
l’approccio delle simulazioni annidate descritte nella sezione precedente, ottenendo N ∈ ℕ
realizzazioni della variabile aleatoria Z = -OF 1 , indicate con 𝑧̃1 , … , 𝑧̃𝑁 . La corrispondente
statistica d’ordine è denotata con 𝑍�(1) , … , 𝑍�(𝑁) con le relative realizzazioni 𝑧̃(1) , … , 𝑧̃(𝑁) . Un
metodo semplice per stimare l’α-quantile z α è di basarsi sul corrispondente empirico
𝑧̃α = 𝑧̃(𝑚) con m = [N ∙ α + 0.5]. Una stima del SCR è quindi
� = 𝑂𝐹
�0 +
𝑆𝐶𝑅
𝑧̃(𝑚)
1+𝒾
(3.3.20)
3.3.4 Qualità dello stimatore e scelta di K 0 , K 1 ed N
All’interno del processo di stima sono presenti tre fonti di errore:
78
1. il capitale disponibile in t = 0 viene stimato con il supporto di – ‘sole’ - K 0
traiettorie simulate;
2. vengono utilizzati – ‘solamente’ - N scenari per la stima della distribuzione;
3. il capitale disponibile in t = 1 è stimato con il supporto di – solo – K 1 traiettorie
simulate per ogni scenario 35.
Di conseguenza l’equazione (3.3.20) non necessariamente rappresenta una stima per il
quantile della distribuzione della “vera” perdita (ℱ 1 -misurabile):
ℒ = ℒ(𝑌1 , 𝐷1 ) = 𝑂𝐹0 −
𝑂𝐹1
𝐴𝑁𝐴𝑉1 + 𝑉1 + 𝑋1
= 𝑂𝐹0 −
1+𝒾
1+𝒾
(3.3.21)
Si consideri allora la distribuzione della funzione di perdita:
�0 −
ℒ̃ (𝑌1 , 𝐷1 ) = 𝑂𝐹
𝐴𝑁𝐴𝑉1 + �
𝑡 (𝑘)
1 𝐾1 𝑇
∑𝑘=1 ∑𝑡=2 𝑒 − ∫1 𝑟𝑢 𝑑𝑢 𝑋𝑡 (𝑘) � (𝑌1 , 𝐷1 )� + 𝑋1
𝐾1
1+𝒾
(3.3.22)
In particolare, 𝐿�(𝑌1 , 𝐷1 ) non è ℱ 1 -misurabile a causa dell’errore di campionamento
derivante dalla stima di OF 0 e dalla simulazione interna. Sotto opportune condizioni, però,
per la legge dei grandi numeri
𝑞.𝑐.
ℒ̃ (𝑌1 , 𝐷1 ) �� ℒ(𝑌1 , 𝐷1 ) 𝐾0 , 𝐾1 → ∞
(3.3.23)
Ciononostante, la stima del SCR è basata su un campione distorto. Al fine di analizzare
� , si scompone lo scarto quadratico medio
l’influenza di questa distorsione sulla stima 𝑆𝐶𝑅
(MSE) in varianza e distorsione in linea con (Gordy & Juneja, 2008):
� − 𝑆𝐶𝑅)2 ] = 𝑉𝑎𝑟�𝑆𝐶𝑅
� � + �𝐸�𝑆𝐶𝑅
𝑀𝑆𝐸 = 𝐸�(𝑆𝐶𝑅
� −��
𝑆𝐶𝑅
���
�����
�� �
𝑏𝑖𝑎𝑠
2
(3.3.24)
�0 è stimatore non distorto di OF 0 ed è indipendente da 𝑧̃(𝑚) ,
considerando che 𝐴𝐶
l’equazione può essere riscritta in
�0 � + 𝑉𝑎𝑟 �
𝑀𝑆𝐸 = 𝑉𝑎𝑟�𝑂𝐹
35
𝑧̃(𝑚)
𝑧̃(𝑚)
𝑧𝛼 2
� + 𝐸 ��
�−
�
1+𝒾
1+𝒾
1+𝒾
(3.3.25)
Per semplicità, da ora in poi si denota K1(i) = K1 per ogni i ∈ {1, …, N}
79
�0 � =
Si osservi che 𝑉𝑎𝑟�𝐴𝐶
𝜎0 2
𝐾0
, mentre per l’analisi degli altri due addendi si introduce
𝑍𝐾1 (𝑌1 , 𝐷1 ), valore che rappresenta la differenza tra la perdita stimata ed il suo “vero”
�0 sia corretto:
valore, nell’ipotesi che 𝐴𝐶
𝑡 (𝑘)
1 𝐾1 𝑇
∑𝑘=1 ∑𝑡=2 𝑒 − ∫1 𝑟𝑢 𝑑𝑢 𝑋𝑡(𝑘) � �𝑌1, 𝐷1 � � + 𝑋1
𝐾1
𝑍𝐾1 (𝑌1 , 𝐷1 ) =
1+𝒾
𝐴𝑁𝐴𝑉1 + 𝑃𝑉𝐹𝑃1 + 𝑋1
−
1+𝒾
𝐴𝑁𝐴𝑉1 + �
(3.3.26)
𝐾1 ≔ 𝑍𝐾1 ∙ �𝐾 , indicata
Viene ora introdotta la distribuzione empirica congiunta di ℒ e 𝑍�
1
con 𝑔𝐾1 (∙,∙). In linea con la proposition 2 di (Gordy & Juneja, 2008), e sotto opportune
condizioni di regolarità si ottiene:
𝐸�
=
𝑉𝑎𝑟 �
𝑧̃(𝑚)
𝑧𝛼
�−
1+𝒾
1+𝒾
𝜃𝛼
+ 𝑜𝐾1 (1⁄ 𝐾1 ) + 𝑂𝑁 (1⁄𝑁) + 𝑜𝐾1 (1)𝑂𝑁 (1⁄𝑁)
𝐾1 ∙ 𝑓(𝑆𝐶𝑅)
𝑧̃(𝑚)
𝛼(1 − 𝛼)
�=
+ 𝑂𝑁 (1⁄𝑁 2 ) + 𝑜𝐾1 (1)𝑂𝑁 (1⁄𝑁)
(𝑁 + 2)𝑓 2 (𝑆𝐶𝑅)
1+𝑖
(3.3.27)
(3.3.28)
Dove f(∙) è la funzione di densità della distribuzione ℒ, e θ α è:
𝜃𝛼 = −
1 𝜕
�𝑓(𝑢)𝐸�𝑉𝑎𝑟�𝑍�𝐾1 | 𝑌1, 𝐷1 � |ℒ = 𝑢� ��
2 𝜕𝑢
𝑢=𝑆𝐶𝑅
(3.3.29)
1 +∞ 2 𝜕
=− �
𝑧
𝑔 (𝑢, 𝑧)𝑑𝑧�
2 −∞
𝜕𝑢 𝐾1
𝑢=𝑆𝐶𝑅
Il segno di θ α – e, quindi, la direzione della distorsione – verrà determinata dal segno di
𝜗
𝜗𝑢
𝑔𝐾1 (𝑢, 𝑧). Considerando che l’SCR è posizionato sulla coda destra della distribuzione e
che
𝑔𝐾1 (𝑢,𝑧)
+∞
∫−∞ 𝑔𝐾1 (𝑢,𝑧)𝑑𝑙
è la funzione di densità condizionata,
𝜗
𝜗𝑢
𝑔𝐾1 (𝑢, 𝑧)�
𝑢=𝑆𝐶𝑅
sarà in generale
negativa e quindi ci aspetteremo una sovrastima dell’SCR, allora la probabilità che la
compagnia sia in condizione di solvibilità dopo un anno sarà in media più alta di α=99.5%.
Al fine di poter ottimizzare la stima, sarebbe conveniente scegliere K 0 , K 1 , N in maniera
tale che l’MSE sia il più piccolo possibile. Senza considerare i termini di ordine infinitesimo
si giunge ad un problema di ottimizzazione di K 0 , K 1 , N:
80
𝜎02
𝜃𝛼2
𝛼(1 − 𝛼)
+ 2 2
+
→ 𝑚𝑖𝑛
(𝑁
𝐾0 𝐾1 ∙ 𝑓 (𝑆𝐶𝑅)
+ 2)𝑓 2 (𝑆𝐶𝑅)
(3.3.30)
soggetta al vincolo K 0 + N∙K 1 = Γ, ovvero il numero massimo di scenari che si è in grado di
simulare. Via moltiplicatori di Lagrange si ottiene, per ogni scelta di Γ,
𝑁≈
𝐾0 ≈
𝛼(1 − 𝛼) ∙ 𝐾 12
,
2𝜃𝛼2
𝜎0 ∙ 𝐾1 ∙ 𝑓(𝑆𝐶𝑅) 𝑁 ∙ 𝐾 1
�
𝜃𝛼
2
(3.3.31)
(3.3.32)
Allora per ogni scelta di K 1 , si determina θ α e di conseguenza si scelgono i valori ottimali di
N e K 0 . Nelle applicazioni pratiche, f, σ 0 e θ α sono ignoti, ma possono essere stimati
attraverso un numero limitato di simulazioni pilota. Da notare, inoltre, che nonostante ci
siano molti paralleli tra la stima del VaR di un portafoglio di derivati, settore dal quale è
stata presa questa impostazione matematica via (Gordy & Juneja, 2008), ed il VaR di un
portafoglio assicurativo, c’è almeno un’importante differenza: in un portafoglio di derivati,
i singoli strumenti possono essere valutati indipendentemente e quindi gli errori di
tariffazione si compensano all’aumentare della dimensione del portafoglio. Questo non è in
generale il caso di un portafoglio assicurativo; a causa di politiche di gestione adottate a
livello di compagnia – come ad esempio stategic asset allocation e partecipazione agli utili
- i flussi di diversi contratti assicurativi possono essere comunque dipendenti. Non ci si
può quindi basare sulla dimensione del portafoglio per trarre conclusioni sugli errori di
stima delle grandezze di interesse oppure per fare scelte appropriate dei valori K 0, K 1 ed N.
81
3.4 L’impostazione matematica del
modello LSMC
Per valutare il SCR dobbiamo determinare la distribuzione di:
𝑂𝐹1 = 𝐴𝑁𝐴𝑉1 + 𝑃𝑉𝐹𝑃1 + 𝑋1
𝒬
𝑇
𝑡
= 𝐴𝑁𝐴𝑉1 + 𝐸 �� 𝑒𝑥𝑝 �− � 𝑟𝑢 𝑑𝑢� 𝑋𝑡 � (𝑌1 , 𝐷1 )� + 𝑋1
𝑡=2
1
(3.4.1)
In questa equazione la speranza matematica condizionata è quella che crea più problemi
quando si cerca di trovare la tecnica Monte Carlo più adatta. Ci si trova di fronte ad un
problema analogo a quello della tariffazione delle opzioni Bermuda 36 dove “le speranze
matematiche condizionate nelle iterazioni della programmazione dinamica causano la
difficoltà principale allo sviluppo di tecniche Monte Carlo (Kling, Richter, & J., 2007)”. Una
via percorribile è stata affrontata da (Longstaff & Schwartz, 2001), dove è stata utilizzata
la funzione di regressione con il metodo dei minimi quadrati al fine di approssimare la
speranza matematica condizionata. Come descritto da (Kling, Richter, & J., 2007),
l’algoritmo consiste di due approssimazioni:
I.
la speranza matematica condizionata è sostituita da una combinazione lineare
II.
si approssima la combinazione lineare ottenuta dal passo precedente attraverso
finita di funzioni base;
simulazioni MC e la regressione lineare.
Verrà inoltre dimostrato che sotto opportune condizioni sulle funzioni base l’algoritmo
converge, rappresenta quindi un’alternativa valida e più efficiente per la tariffazione
rispetto alle simulazioni annidate. Di seguito verrà mostrato come vengono sfruttate le
analogie per ‘trasportare’ questa tecnica al problema della valutazione dell’SCR.
3.4.1 L’algoritmo dei minimi quadrati
36 Opzioni con la caratteristica che sono un misto di opzioni europee e opzioni americane. Di solito hanno una
durata piuttosto lunga e l’esercizio, con prezzo d’esercizio spesso variabile, è previsto con continuità solo in
certi sotto periodi durante la vita dell’opzione. La valutazione delle opzioni Bermuda presenta tutte le difficoltà
tipiche delle opzioni americane.
82
Per la prima approssimazione si sostituisce la speranza matematica condizionata PVFP 1
da un numero finito di funzioni base (𝑒𝑘 (𝑌1 , 𝐷1 ))𝑘∈{1,…,𝑀} ,
𝑃𝑉𝐹𝑃1 ≈
� 1(𝑀) (𝑌1 , 𝐷1 )
𝑃𝑉𝐹𝑃
𝑀
(3.4.2)
= � 𝛼𝑘 ∙ 𝑒𝑘 (𝑌1 , 𝐷1 )
𝑘=1
Ipotizzando che la sequenza (𝑒𝑘 (𝑌1 , 𝐷1 ))𝑘≥1 sia linearmente indipendente e completa in
uno spazio di Hilbert L2(Ω, σ(Y 1 ,D 1 ), 𝒫). Successivamente si approssimano le 𝒫-
realizzazioni di PVFP 1 usando simulazioni di Monte Carlo. Si generano N traiettorie
indipendenti (Y t (1),D t (1)),(Y t (2),D t (2)),…(Y t (N),D t (N)) per t ∈ (0,T], sotto un misura di
probabilità real world per il primo anno e risk neutral per i periodi restanti. Si effettua
quindi una sola simulazione per ogni scenario real world. Il parametro K 1 è quindi pari a 1.
Di conseguenza, si calcolano i flussi scontati cumulati:
(𝑖)
𝑃𝑉𝐹𝑃1
𝑇
(𝑖)
𝑡 (𝑖)
= � 𝑋𝑡 ∙ 𝑒 − ∫1 𝑟𝑢
𝑡=2
𝑑𝑢
(3.4.3)
,1 ≤ 𝑖 ≤ 𝑁
Qui r t (i) e X t (i) denotano il tasso di interesse ed il flusso all’epoca t sotto la traiettoria
(Y t (i),D t (i)) t∈(0,T] , rispettivamente per i = 1, …, N.
Di seguito, tali realizzazioni sono utilizzate per determinare i coefficienti α = (α 1 ,…, α M )
� 1 (𝑀) ottenuta dalla regressione ai minimi quadrati:
per l’approssimazione 𝑃𝑉𝐹𝑃
𝛼� (𝑁) = 𝑎𝑟𝑔𝑚𝑖𝑛𝛼∈ℝ 𝑀 �
𝑁
(𝑖)
� �𝑃𝑉𝐹𝑃1
𝑖=1
𝑀
− � 𝛼𝑘 ∙ 𝑒𝑘 �
𝑘=1
2
(𝑖 )
(𝑖)
𝑌1 , 𝐷1 ��
�
(3.4.4)
Sostituendo α con 𝛼� (𝑁) , si ottiene la seconda approssimazione
𝑀
� 1(𝑀) (𝑌1 , 𝐷1 ) ≈ 𝑃𝑉𝐹𝑃
� 1(𝑀,𝑁) (𝑌1 , 𝐷1 ) = � 𝛼� (𝑁) ∙ 𝑒𝑘 (𝑌1 , 𝐷1 )
𝑃𝑉𝐹𝑃1 ≈ 𝑃𝑉𝐹𝑃
𝑘
𝑘=1
(3.4.5)
Attraverso tale approssimazione è possibile calcolare le realizzazioni di OF 1 ricorrendo
alle traiettorie generate in precedenza (Y t (i),D t (i)), i = 1,…,N, o più precisamente alle subtraiettorie per il primo anno, calcolando
�1(𝑖) = 𝐴𝑁𝐴𝑉1(𝑖) + 𝑃𝑉𝐹𝑃
� 1(𝑀,𝑁) (𝑌1(𝑖) , 𝐷1(𝑖) ) + 𝑋1(𝑖)
𝑂𝐹
(3.4.6)
83
Dove ANAV 1 (i) e X 1 (i) denotano l’ANAV 1 e l’X 1 per le traiettorie i ∈ {1, …, N}. Basandosi su
queste realizzazioni, si può ora determinare la corrispondente distribuzione empirica e di
conseguenza, il SCR.
� .
Il SCR risultante dall’approccio Least-Squares Monte Carlo (LSM) verrà indicato con 𝑆𝐶𝑅
3.4.2 Scelta della funzione di regressione
In letteratura sono disponibili diverse semplici metodologie per affrontare il problema di
selezione delle variabili in modelli di regressione, come ad esempio, il Mallows’ complexity
parameter (C p ), il criterio d’informazione di Akaike (AIC), criterio d’informazione di
Schwartz (SIC) : tali criteri si basano su ipotesi piuttosto restrittive di omoschedasticità ed
errori normalmente distribuiti (Fahrmeir, Kneib, & S., 2007).
Nel problema oggetto di tesi, tali restrizioni vengono violate; ad esempio per molti asset
model la varianza condizionata dei residui nella regressione per PVFP 1 dipenderà sulla
traiettoria delle attività nel primo anno. Al fine di ottenere un criterio generalizzato si può
osservare che:
𝑁
(𝑖)
𝐸1 �� �𝑃𝑉1
𝑖=1
( 1)
= 𝑡𝑟 �𝐶𝑜𝑣1 � �𝑃𝑉1
(𝑀,𝑁)
− 𝑉�1
(𝑁)
, … , 𝑃𝑉1
(𝑖)
(𝑖)
2
�𝑌1 , 𝐷1 �� �
�
′
′
(𝑀,𝑁)
(1)
(1)
(𝑀,𝑁)
(𝑁)
(𝑁)
�𝑌1 , 𝐷1 � , … , 𝑉�1
�𝑌1 , 𝐷1 �� ��
− �𝑉�1
𝑁
(𝑖)
(𝑀,𝑁)
+ � �𝐸1 �𝑃𝑉1 � − 𝐸1 �𝑉�1
𝑖=1
(𝑖)
(𝑖)
�𝑌1 , 𝐷1 ���
2
= 𝑡𝑟 �(𝐼 − 𝜀(𝜀 ′ 𝜀)−1 𝜀 ′ )𝐶𝑜𝑣1 ��𝑋 (1) , … , 𝑋 (𝑁) �′��
𝑁
(𝑖)
= � � 𝑉1
=
𝑖=1
𝑁
(𝑖)
(𝑀,𝑁)
(𝑖)
�𝑌 1 , 𝐷1 ���
− 𝐸1 �𝑉�1
2
𝑁
(𝑖)
(𝑖) 2
(𝑖)
(𝑀,𝑁)
(𝑖)
�
�𝑌 1 , 𝐷1 �� + � 𝜎1
� 𝐸1 �𝑉1 − 𝑉1
�����������������������������
𝑖=1
𝑖=1
=𝑆𝑀𝑆𝐸
(𝑖)
dove
(3.4.7)
(𝑁)
− 2𝑡𝑟 �𝜀 (𝜀′𝜀)1 𝜀′𝑑𝑖𝑎𝑔 �𝜎1 , … , 𝜎1 ��
84

E 1 e Cov 1 denotano la speranza matematica condizionata e la covarianza in t = 1,

rispettivamente;

delle variabili esplicative;
′
𝑒𝑖 = �𝑒𝑖 (𝑌1 (1) , 𝐷1 (1) ), … , 𝑒𝑖 (𝑌1 (𝑁) , 𝐷1 (𝑁) )� , 1 ≤ 𝑖 ≤ 𝑀 e ε = (e 1 ,…,e M ) è la matrice
I è la matrice identità e diag(σ 1 (1), …, σ 1 (N)) è la matrice diagonale contenente le
deviazioni standard per ogni simulazione
Un parametro di complessità generalizzato può essere ora definito attraverso una
versione empirica della somma degli errori al quadrato (SMSE),
𝑁
� = ��
𝑆𝑀𝑆𝐸
𝑖=1
(𝑖)
𝑃𝑉1
−
2
(𝑀,𝑁)
(𝑖)
(𝑖)
�𝑌1 , 𝐷1 � �
𝑉�1
(1)
+ 2𝑡𝑟 �𝜀(𝜀′𝜀 ) −1 𝜀′𝑑𝑖𝑎𝑔 �𝜎�1 , … , 𝜎�1𝑁 ��
𝑁
(𝑖)
− � �𝜎1
(𝑖)=1
(3.4.8)
sotto l’ipotesi che i PVFP 1 (i) sono indipendenti in quanto realizzazioni ottenute attraverso
il metodo MC. Il problema principale con questo criterio è che esso richiede la conoscenza
della stima della varianza condizionale, dove alla fine si avrebbe la necessità di compiere
simulazioni annidate. Una possibile soluzione è data da (Beak, Kraman, & Ahn, 2005),
viene proposta una versione generalizzata del Mallow’s C p per dati in presenza di
eteroschedasticità: i dati vengono divisi in tanti sottogruppi tali che ci sia
omoschedasticità in ogni sottogruppo. Quini vengono stimate le varianze per ogni
sottogruppo e la versione generalizzata di Mallow’s C p (GC p ) è ottenuta dai derivanti
stimatori ai minimi quadrati pesati. Viene quindi dimostrato attraverso uno studio che il
GC p seleziona il modello corretto più spesso del C p per dati con eteroschedasticità
significativa. Si conclude che C p fornisce risultati migliori per dati approssimativamente
omoschedastici; la scelta del criterio sarà quindi dettata dal grado di eteroschedasticità.
3.4.3 Convergenza
Dalle ipotesi della sequenza delle funzioni base, si ottiene automaticamente la
convergenza in media quadratica di:
∞
� 1(𝑀) → � 𝛼𝑘 ∙ 𝑒𝑘 (𝑌1 , 𝐷1 ) = 𝑃𝑉𝐹𝑃1 (𝑀 → ∞)
𝑃𝑉𝐹𝑃
𝑘=1
(3.4.9)
e quindi la convergenza in distribuzione. È sufficiente, quindi, mostrare che:
85
� 1(𝑀,𝑁) →𝑑 𝑃𝑉𝐹𝑃
� 1(𝑀) (𝑁 → ∞)
𝑃𝑉𝐹𝑃
L’unico problema che impone cautela nell’applicazione dei risultati ottenuti dalla
(3.4.10)
letteratura econometrica è il cambio di misura all’epoca t = 1 e le implicazioni strutturali
per lo spazio di probabilità. Un possibile accorgimento potrebbe essere quello di costruire
una misura di probabilità alternativa, ad esempio 𝒫� , su una copia identica dello spazio di
� , ℱ� , 𝔽
�) che soddisfi alla
probabilità filtrato, ad esempio (Ω
�
𝐸 𝒬 [𝑌(𝜔)|ℱ1 ] = 𝐸 𝒫 [𝑌(𝜔
�) |ℱ�1 ]
(3.4.11)
𝒫(𝑍(𝜔) ≤ 𝓏) = 𝒫� (𝑍(𝜔
�) ≤ 𝓏) ∀𝓏 ∈ ℝ
(3.4.12)
per tutte le variabili aleatorie Y, e
per tutte le variabili aleatorie ℱ t -misurabili Z, 0 ≤ t ≤ 1. Considerando, quindi, che le
realizzazioni delle funzioni base sono i.i.d. tra le varie traiettorie, si può procedere in
maniera analoga a quella di (Longstaff & Schwartz, 2001) (Sezione 2.2) e considerare il
Teorema 3.5 di (Zaglauer & Bauer, 2008) il quale dichiara che sotto deboli condizioni di
regolarità risulta:
e quindi in distribuzione.
(𝑀,𝑁)
(𝑀)
� , ℱ� , 𝔽
�)
𝑉�1
→ 𝑉�1 , 𝑁 → ∞, 𝑖𝑛 𝐿2 (Ω
(3.4.13)
Ad esempio se si utilizza un modello di Black-Scholes per simulare il valore del tasso di
interesse, la misura 𝒫� può essere facilmente costruita manipolando appropriatamente i
termini drift. Nel modello Black-Scholes classico, il titolo S si sviluppa secondo le equazioni
differenziali
𝑑𝑆𝑡 = 𝑆𝑡 (𝜇𝑑𝑡 + 𝜎 𝑑𝑊𝑡 ), 𝑆0 > 0
𝑑𝑆𝑡 = 𝑆𝑡 (𝑟 𝑑𝑡 + 𝜎 𝑑𝑍𝑡 ), 𝑆0 > 0
(3.4.14)
dove μ ∈ ℝ è il drift del titolo, r ∈ ℝ il tasso di interesse, σ > 0 la volatilità, e W e Z sono
� il moto browniano su
moti browniani sotto 𝒫 e 𝒬, rispettivamente. Ora, se definiamo 𝑊
� , ℱ� , 𝒫� ), ed S si evolve in funzione di
(Ω
� 𝑡 �, 𝑆0 > 0,
𝑑𝑆𝑡 = 𝑆𝑡 �𝜇�𝑡 𝑑𝑡 + 𝜎 𝑑𝑊
(3.4.15)
86
dove 𝜇�𝑡 = 𝜇 ∙ 1{0≤𝑡≤1} + 𝑟 ∙ 1{1<𝑡<∞} , allora 𝒫� soddisfa alle proprietà richieste e, quindi, la
convergenza è mostrata in questo caso particolare.
3.5 Miglioramento del modello
3.5.1 Calibrazione della funzione di regressione
Si è già accennato nel § 3.1.1 che, a causa dell’errore di campionamento, uno dei maggiori
problemi del modello risiede nella non corretta calibrazione della funzione di regressione.
Quest’ultima è calibrata utilizzando un insieme di determinazioni simulate della grandezza
d’interesse, vale a dire il PVFP 1 37, in funzione di una o più realizzazioni delle grandezze
economiche all’epoca t = 1, (𝑌1 , 𝑫1 ), a loro volta simulate secondo una misura di
probabilità 𝒫, real world. Senza perdita di generalità, è lecito aspettarsi che questa misura
non sia uniforme sul dominio e assegni probabilità basse ai valori estremi della grandezza
economica simulata. Una funzione di regressione calibrata accogliendo 𝒫, non coglierebbe
bene comportamenti estremi: a valori estremi delle grandezze di interesse, il PVFP 1
previsto potrebbe essere sovra o sotto stimato. Avendo come obiettivo quello di calibrare
la funzione di regressione nella maniera più precisa possibile, su tutto il dominio dei
fattori di rischio, si sostituisce 𝒫 con una misura di probabilità uniforme 𝒰. La probabilità
di osservare una determinazione del PVFP 1 su scenari estremi sarà ora la stessa di quelli
centrali.
3.5.2 Sequenza a bassa discrepanza di Sobol
La soluzione proposta non è ancora quella più efficiente. Affidandocisi a N simulazioni
delle grandezze economiche in t = 1, sarebbe desiderabile che queste si distribuiscano,
non solo uniformemente sul dominio, ma che occupino in maniera efficiente lo “spazio a
disposizione”. Per ottenere questo risultato ci si rifà a metodi di Quasi-Monte Carlo, nello
specifico alla sequenza a bassa discrepanza di Sobol. Questa sequenza di numeri
pseudocasuali, sottostante alla legge uniforme, ha il vantaggio di occupare lo spazio a
disposizione in maniera più ordinata ed efficiente, se confrontata con realizzazioni
37 Si osserva che il PVFP1, per ogni simulazione, come da equazione (3.4.3), è funzione delle determinazioni dei
fattori di rischio relativi a tutto il periodo di run-off del portafoglio, cioè fino all’epoca t = T. La funzione di
regressione spiega il valor medio del PVFP1 solamente attraverso il valore assunto dalle grandezze
economiche in t = 1.
87
provenienti da una distribuzione uniforme. Si sottolinea che questa sequenza non supera
molti test di randomizzazione, avendo, però, come obiettivo quello di calibrare una
funzione di regressione, tale caratteristica non è ritenuta fondamentale. Il concetto di
campione casuale in questo contesto non è di primaria importanza, in quanto si vuole
calibrare la funzione ipotizzando di osservare l’intera popolazione, in maniera tale da
fornire una funzione che descriva mediamente bene, qualunque campione casuale estratto
dalla popolazione.
In breve, il metodo Quasi-Monte Carlo assume che sequenze numeriche del tutto
deterministiche siano in un certo senso osservazioni provenienti da una variabile aleatoria
con distribuzione uniforme. Questa idea può essere resa più chiara definendo la
discrepanza di una sequenza numerica.
Si ipotizzi di voler costruire una sequenza di N vettori m-dimensionali all’interno
dell’ipercubo Im = [0,1]m. Se questi vettori sono ben distribuiti, è ragionevole aspettarsi
che il numero di punti inclusi in un sottoinsieme A di Im sia proporzionale al volume
vol(A). Dato un vettore 𝑿 = (𝑥1 , … , 𝑥𝑚 ) si consideri l’iperettangolo
𝐺𝑿 = [0, 𝑥1 ) × [0, 𝑥2 ) × … × [0, 𝑥𝑚 )
(3.5.1)
per il quale si definisce il volume come il prodotto 𝑥1 𝑥2 𝑥3 … 𝑥𝑚 . Definita con S N (A) la
funzione che conta il numero di punti nella sequenza contenuti nel sottoinsieme A ⊂ I m ,
allora è possibile definire la discrepanza come:
𝐷(𝑿1 , 𝑿2 , … , 𝑿𝑁 ) = sup |𝑆𝑁 (𝐺𝑋 ) − 𝑁𝑥1 ∙ 𝑥2 ∙ … ∙ 𝑥𝑚 |
𝑿∈𝐼 𝑚
(3.5.2)
Le sequenze a bassa discrepanza sono sequenze nell’intervallo (0,1) e ciò è esattamente
tutto quello che occorre per la generazione di variabili casuali con distribuzione che si
desidera. Una nota sequenza a bassa discrepanza è la sequenza di Sobol. Per ottenere l’n-
simo numero di una sequenza di Sobol si considera dapprima la rappresentazione binaria
di un numero intero n, ovvero n = (…b 3 b 2 b 1 ) 2 . Il risultato si ottiene quindi eseguendo
l’operatore bitwise exclusive or - XOR (simbolo ⊕) 38 :
𝑥 𝑛 = 𝑏1 𝑣1 ⊕ 𝑏2 𝑣2 ⊕ … ⊕ bn 𝑣𝑛
(3.5.3)
L’operatore bitwise exclusive or, o XOR, applicato ad una coppia di numeri binari, restituisce 1 se e solo se
solamente uno dei due valori è uguale ad 1, e 0 in tutti gli altri casi.
38
88
Dove 𝑣𝑖 rappresentano i numeri direttori. Il problema si trasferisce quindi sulla ricerca
degli opportuni numeri direttori per generare una sequenza quasi-casuale. Tali numeri
possono essere pensati come una frazione binaria, 𝑣𝑖 = (0. 𝑣1 𝑣2 𝑣3 … )2 oppure come
𝑣𝑖 =
𝑚𝑖
2𝑖
dove 𝑚𝑖 < 2𝑖 è un intero dispari.
Per la generazione di numeri direttori si sfruttano i polinomi primi appartenenti
all’insieme 𝑍2 , ovvero a polinomi aventi coefficienti binari, della forma:
𝑃(𝑥) = 𝑥 𝛼 + 𝑎1 𝑥 𝛼−1 + ⋯ + 𝑎𝛼−1 𝑥 + 1 con 𝑎𝑗 ∈ {0,1}.
(3.5.4)
Dato un polinomio primo di grado α, la procedura per la generazione di numeri direttori si
basa sulla seguente formula ricorsiva:
𝑣𝑖 = 𝑎1 𝑣𝑖−1 ⊕ 𝑎2 𝑣𝑖−2 ⊕ 𝑎3 𝑣𝑖−3 ⊕ … ⊕ 𝑎𝛼−1 𝑣𝑖−𝛼+1 ⊕ 𝑣𝑖−𝛼 ⊕ �
Per ulteriori approfondimenti, consultare (Glasserman, 2004).
𝑣𝑖−𝛼
2𝛼
� con 𝑖 > 𝛼
(3.5.5)
89
Di seguito un confronto grafico tra realizzazioni provenienti da una distribuzione real
world (nell’ipotesi che questa sia normale) 𝒫, uniforme 𝒰 e di Sobol 𝒮, per un numero di
simulazioni pari a 100, 1.000 e 10.000. Le realizzazioni sono tutte calibrate su un dominio
[-1,1] 39.
N = 100
N = 1.000
N = 10.000
Il dominio non è casuale: nel prossimo capitolo, questo intervallo rappresenterà lo shock casuale applicato
alla grandezza economica simulata. Ciascun fattore di rischio, quindi, viene simulato in funzione di uno shock
che varia tra il -100% ed il +100%.
39
90
È possibile apprezzare come, a parità del numero di simulazioni, le determinazioni della
sequenza di Sobol occupino in maniera più efficiente lo spazio a disposizione rispetto a
quelle della generazione di un numero casuale proveniente dalla distribuzione uniforme.
3.5.3 Simulazione di due traiettorie risk-neutral per
ogni scenario real-world in accordo con le
tecniche di riduzione della varianza
Nel § 3.4.1 come proposto da (Bauer, Bergmann, & Reuss, 2010), il modello LSMC opera
utilizzando un singolo scenario risk neutral. Si cita quanto detto in precedenza:
Si generano N traiettorie indipendenti (Y t (1),D t (1)),(Y t (2),D t (2)),…(Y t (N),D t (N)) per t ∈ (0,T], sotto un misura
di probabilità real-world per il primo anno e risk neutral per i periodi restanti. Si effettua quindi una sola
simulazione per ogni scenario real world. Il parametro K 1 è quindi pari a 1.
Per il modello originale, descritto da (Longstaff & Schwartz, 2001), è stato proposto un
miglioramento da (Rasmussen, 2002) consistente nel generare un numero di scenari risk
neutral maggiore di 1, per ogni scenario real world. Si è dimostrato che generando due o
tre scenari in accordo con metodi di riduzione della varianza, si migliora drasticamente la
qualità della regressione. Il beneficio apportato dal modello LSMC, per quanto concerne lo
sforzo computazionale, non viene peraltro compromesso. Di seguito un esempio del
numero di simulazioni impiegato per ogni modello, in linea con i numeri utilizzati da
Assicurazioni Generali S.p.A.
MODELLO
Fully nested
LSMC
SIMS REAL WORLD (N)
SIMS RISK NEUTRAL (K 1 )
1.000
25.000.000
25.000
2
50.000
LSMC con più scenari
risk neutral
25.000
25.000
1
TOTALE
25.000
Tabella 3.5.1
La tecnica di riduzione della varianza proposta in questa tesi, ed utilizzata in fase di
applicazione del modello, consiste nella simulazione di variabili antitetiche, in linea con
quanto già esposto nel § 2.4.2.
91
4 Applicazione del modello
Il modello LSMC verrà applicato ad un portafoglio di piani di accumulo di capitale unit-
linked con garanzia di minimo. Si ipotizza che la compagnia assicurativa detiene
solamente questo portafoglio. L’applicazione trae spunto da un portafoglio reale del
gruppo Assicurazioni Generali S.p.A.
4.1 Descrizione della polizza
È stato scelto un piano assicurativo di accumulo di capitale unit-linked con rendimento
minimo garantito del 2,50%. La scelta è ricaduta su questo particolare prodotto in quanto
il rendimento di tale fondo ha una forte dipendenza dall’andamento del mercato e dai
riscatti, che, assieme al minimo garantito producono dinamiche non lineari sul PVFP. Se
l’esercizio risulterà in linea con le attese, la distribuzione della one-year loss function
ottenuta via LSMC avrà una coda più pesante di quella della distribuzione normale e
quindi, il requisito di capitale sarà maggiore e più coerente con le peculiarità tecniche del
portafoglio oggetto di studio.
4.1.1 Caratteristiche di una generica polizza unitlinked
La caratteristica principale delle polizze unit-linked è che il rischio finanziario è retrocesso
interamente o quasi al contraente. La copertura assicurativa sottostante è solitamente una
mista; il premio è investito in un fondo di riferimento, selezionato dal contraente tra un
insieme di fondi offerti dall’assicuratore. Infatti, i portafogli d’investimento disponibili
hanno profili di rischio variegati, al fine di garantire un’offerta in grado di coprire esigenze
92
diverse. Il contraente può avere facoltà di cambiare il profilo dell’investimento dietro
pagamento di una quota (switching fee) oppure gratuitamente, in determinate epoche, se
nel contratto è prevista tale opzione (switching option).
L’asset management ha un ruolo fondamentale in questo tipo di business.
Il fondo accumulato con l’incasso dei premi è detto policy fund o policy account. I benefici
vengono definiti in termini di valore del fondo disponibile all’epoca di pagamento. Nello
specifico:
-
-
-
il survival benefit / maturity benefit 40 è il valore corrente del fondo collegato con
la polizza, all’epoca della scadenza;
il death benefit 41 è il valore corrente del fondo collegato alla polizza nell’istante di
morte dell’assicurato: tale valore è incrementato da un valore non negativo
rappresentante la somma sotto rischio;
il surrender value 42 è il valore corrente del fondo collegato con la polizza all’epoca
del riscatto, al netto della penale per il riscatto.
I benefici dipendono quindi dal valore corrente del fondo collegato alla polizza, buona
parte del rischio è quindi a carico dell’assicurato, in quanto tale valore gli è sconosciuto
sino all’epoca del pagamento. Il nome unit-linked deriva dal fatto che il fondo di
riferimento è diviso in un numero nozionale di unità. I benefici quindi possono essere visti
come il valore corrente del numero di unità associate alla polizza.
4.1.2 Polizze unit-linked con garanzie finanziarie
Le garanzie finanziarie in una polizza unit-linked trasferiscono parte del rischio
finanziario dall’assicurato all’assicuratore. Tali garanzie si traducono in una qualunque
forma di prestazione minima garantita: se, a causa di trend finanziari avversi, il fondo,
all’epoca del pagamento, ha valore inferiore al minimo garantito, scatta la garanzia e viene
pagato il minimo. Per semplicità si consideri ora una situazione in cui tutte le prestazioni
siano soggette allo stesso tipo di garanzia.
Sia B t la generica prestazione erogata in t; se t = 1,2,…,m-1 allora è un beneficio caso
morte o per riscatto, mentre se t = m allora si tratta della prestazione a scadenza (sia essa
corrisposta in caso morte o sopravvivenza).
Beneficio a scadenza
Beneficio caso morte
42 Valore di riscatto
40
41
93
Nel caso in cui l’ammontare garantito sia costante, il beneficio in t+1 risulta:
𝐵𝑡+1 = max{𝐹𝑡+1 , 𝐺}
(4.1.1)
Dove G è l’ammontare garantito e F t il valore del fondo in t. La quantità:
𝐾𝑡+1 = 𝐵𝑡+1 − 𝐹𝑡+1 = max{𝐺 − 𝐹𝑡+1 , 0}
(4.1.2)
rappresenta la somma sotto rischio, e corrisponde al pay-off di un’opzione put. Definizioni
alternative dell’ammontare garantito portano all’identificazione di altri tipi di opzioni
finanziarie.
Nel caso oggetto di studio, la garanzia caso morte in t o a scadenza è uguale all’ammontare
iniziale del fondo più i premi al netto delle spese di acquisizione versati sino a quell’epoca,
capitalizzati secondo la legge esponenziale ad un tasso garantito e tolte le spese di
gestione del fondo. La garanzia non opera nel caso di riscatto.
Il pagamento del premio è posticipato, inizia quindi in t = 2; la peculiarità è dovuta al fatto
che l’assicurato per entrare nel fondo deve versare 250.000 € prima dell’inizio del periodo
di copertura (ovvero in t = 0). La durata della polizza è di 20 anni. Risulta:
t
𝑡
𝑖
Gt = p0 ∙ �1 + rg � + � p ∙ (1 − s a ) ∙ (1 − 𝑠 𝑔 ) ∙ �1 + 𝑟𝑔 �
dove:
simbolo
𝐫𝐠
𝐬𝐚
sm
𝒔𝒈
𝐏
𝐩𝟎
𝑖=1
descrizione
tasso minimo garantito
spese di acquisizione (caricamento sul premio)
spese di amministrazione
spese di gestione del fondo
premio annuo
versamento iniziale
Tabella 4.1.1
(4.1.3)
valore
2,5%
15%
0,02%
0,2%
25.000 €
250.000 €
Il fondo collegato alla polizza è invece composto per il 20% da titoli azionari e per l’80%
da obbligazioni. Il valore del fondo è quindi collegato al rendimento di tale asset mix.
Di seguito un possibile schema di flussi legati ad una polizza. I valori monetari sono
espressi in migliaia di euro.
94
NM
t
108
p
0 1 2
25
3
25
4
25
5
25
6
25
7
25
8
25
9
25
10 25
11 25
12 25
13 25
14 25
15 25
16 25
17 25
18 25
19 25
20 25
21 25
ρt
Gt
G t+1-
Ft
F t+1-
BtM
BtR
1,5%
1,6%
1,9%
2,3%
2,7%
3,0%
3,3%
3,5%
3,6%
3,7%
3,7%
3,7%
3,6%
3,5%
3,4%
3,3%
3,2%
3,2%
3,1%
3,0%
2,9%
250
277
305
333
362
391
422
452
484
516
550
583
618
653
690
727
765
804
843
884
925
250
256
283
312
340
370
400
431
463
495
528
562
597
632
668
706
743
782
822
863
904
947
250
275
300
327
356
387
420
455
492
531
572
614
658
703
749
796
844
893
942
993
1.044
250
254
279
306
335
366
399
434
471
510
551
593
637
682
728
775
823
872
921
971
1.022
1.074
253
280
308
337
366
396
427
463
501
541
582
626
670
716
762
810
858
907
957
1.007
1.059
252
277
303
331
361
393
427
463
501
541
582
626
670
716
762
810
858
907
957
1.007
1.059
Tabella 4.1.2
dove:
t
p
Gt
G t+1ρt
Ft
F t+1Bm
BtM
BtR
epoca, la copertura inizia in t = 1 e finisce in t = 20
Premio
valore della garanzia in t
valore della garanzia alla fine dell’anno t
rendimento del fondo in t 43
valore del fondo
valore del fondo alla fine dell’anno t
valore della prestazione a scadenza
valore della prestazione caso morte in t 44
valore della prestazione caso riscatto in t 45
Il valore dei rendimenti in tabella rappresenta uno scenario reale, fornito su gentile concessione di A.G.
S.p.A.
44 Il valore mostrato è calcolato nell’ipotesi che tale prestazione sia erogata a metà dell’anno t. Si ipotizza
implicitamente, quindi, che la mortalità sia costante durante l’anno.
45 Stessa ipotesi del punto precedente.
43
95
4.2 Descrizione del portafoglio
Di seguito le ipotesi assunte:
-
-
si ipotizza che l’età di ingresso sia di 40 anni;
al fine di valutare la probabilità di morire entro l’anno per un soggetto in vita
all’età 40+t , cioè la probabilità condizionata q x+t , è stata utilizzata la tavola di
mortalità SIM 92;
ogni anno, il 5% degli assicurati riscatta la polizza;
il portafoglio è composto da 1.000 polizze
la durata del periodo di copertura è m = 20.
Tali ipotesi hanno il seguente riflesso sul portafoglio:
Tabella 4.2.1
simbolo
p x+t
wt
NtD
NtR
Nt
NM
t
q x+t
wt
NtD
NtR
Nt
0
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
0,00%
0,19%
0,21%
0,23%
0,25%
0,27%
0,30%
0,35%
0,38%
0,42%
0,46%
0,50%
0,55%
0,62%
0,69%
0,78%
0,87%
0,97%
1,08%
1,21%
1,34%
5%
5%
5%
5%
5%
5%
5%
5%
5%
5%
5%
5%
5%
5%
5%
5%
5%
5%
5%
5%
5%
5%
0
2
2
2
2
2
2
3
3
3
3
3
3
3
3
4
4
4
4
4
5
0
50
47
45
42
40
38
36
34
32
31
29
27
26
24
23
22
20
19
18
17
1000
948
899
852
807
765
725
686
649
614
581
549
519
490
462
435
410
386
363
340
319
-
-
-
descrizione
probabilità di morte in [t,t+1) per un soggetto di età x+t
percentuale di polizze riscattate in t
numero di decessi in t
numero di riscatti in t
numero di polizze presenti nel portafoglio in t
numero di polizze alla scadenza
NM
319
formula
𝑁𝑡−1 ∙ 𝑞𝑥+𝑡
(𝑁𝑡−1 − 𝐷𝑡 ) ∙ 𝑤𝑡
𝑁𝑡−1 − 𝑁𝑡𝐷 − 𝑁𝑡𝑅
𝑁𝑚
96
È chiaro che l’elemento più incerto a questo livello è proprio il rendimento del portafoglio.
4.2.1 Flussi monetari a livello di portafoglio
I valori monetari sono espressi in migliaia di euro.
t
0
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
99%
97%
95%
93%
91%
88%
85%
82%
79%
77%
74%
71%
69%
66%
64%
62%
60%
58%
57%
55%
53%
Tabella 4.2.2
dove:
simbolo
rt
Lt
fee t
Pt
It
Vt
rt
Entrata Lorda t
Lt
3.371
3.195
3.028
2.869
2.717
2.572
2.434
2.303
2.178
2.059
1.945
1.836
1.732
1.633
1.538
1.447
1.360
1.276
-
fee t
482
503
523
542
560
579
596
612
627
641
652
662
669
674
676
676
674
669
662
654
Pt
-
descrizione
tasso di sconto r.f. da
ta0
caricamento sui
premi
spese di gestione in t
montepremi in t
provento da
investimenti in t
riserva all’inizio
dell’anno t
23.705
22.473
21.302
20.186
19.125
18.114
17.149
16.229
15.352
14.518
13.723
12.966
12.241
11.549
10.886
10.252
9.645
9.064
8.507
-
Vt
250.000
240.568
251.020
260.782
270.277
279.648
288.756
297.424
305.536
313.004
319.730
325.579
330.380
333.987
336.371
337.517
337.470
336.267
333.940
330.530
326.101
It
3.611
4.011
4.873
6.154
7.522
8.734
9.740
10.566
11.231
11.723
12.015
12.095
12.001
11.796
11.532
11.232
10.905
10.560
10.204
9.846
-
Entrata
Lorda t
254.094
268.787
278.889
288.779
298.546
308.086
317.207
325.751
333.624
340.720
346.915
352.060
356.017
358.698
360.129
360.312
359.301
357.141
353.870
349.536
326.101
formula
𝑁𝑡 ∙ 𝑝 ∙ 𝑠 𝑎
𝑁𝑡 ∙
𝐹𝑡+1− ∙ 𝑠 𝑔
1 − 𝑠𝑔
𝑁𝑡 ∙ 𝑝
(𝑉𝑡 + 𝑃𝑡 − 𝐿𝑡 ) ∙ 𝜌𝑡 − (𝑂𝑡𝑑 + 𝑂𝑡𝑠 ) ∙ ��1 + 𝜌𝑡 − 1�
𝑉𝑡 −
𝑓𝑒𝑒𝑡 + 𝑃𝑡 +𝑉𝑡 + 𝐼𝑡
97
adm t
Om
Otd
Ots
V t+1-
Uscita Lorda t
Flusso
Netto t
253.663
264.730
275.059
285.110
295.026
304.706
313.955
322.629
330.626
337.842
344.152
349.407
353.471
356.257
357.790
358.071
357.158
355.093
351.915
347.673
431
4.057
3.830
3.669
3.519
3.380
3.252
3.122
2.997
2.878
2.763
2.653
2.546
2.441
2.340
2.240
2.143
2.048
1.955
1.863
49
51
53
55
57
59
61
63
64
66
67
68
69
69
69
69
69
68
67
66
-
477
550
624
711
797
918
1.068
1.222
1.375
1.521
1.680
1.882
2.147
2.417
2.737
3.060
3.405
3.781
4.184
4.595
12.569
13.110
13.600
14.067
14.524
14.972
15.402
15.808
16.184
16.525
16.826
17.076
17.269
17.400
17.467
17.472
17.418
17.304
17.134
16.911
250.000
240.568
251.020
260.782
270.277
279.648
288.756
297.424
305.536
313.004
319.730
325.579
330.380
333.987
336.371
337.517
337.470
336.267
333.940
330.530
326.101
-
326.101
-
-
-
326.101
PVFP
42.349
Tabella 4.2.3
dove:
simbolo
adm t
Om
Otd
Ots
V t+1Uscita
Lorda t
Flusso
netto t
PVFP
46
descrizione
spese di amministrazione in t
prestazioni per uscite a scadenza
prestazioni per uscite caso morte in t
prestazioni per riscatto in t
riserva alla fine dell’anno t 46
valore attuale dei flussi del
portafoglio
formula
𝑉𝑡+1− ∙ 𝑠 𝑚
𝑁 𝑀 ∙ 𝐵𝑚
𝑁𝑡𝐷 ∙ 𝐵𝑡𝑚
𝑁𝑡𝑅 ∙ 𝐵𝑡𝑅
𝑁𝑡 ∙ 𝐹𝑡+1−
𝑚
𝑑
𝑂𝑡 + 𝑂𝑡 + 𝑂𝑚 + 𝑎𝑑𝑚𝑡 + 𝑉𝑡+1−
𝐸𝑛𝑡𝑟𝑎𝑡𝑎 𝐿𝑜𝑟𝑑𝑎𝑡 − 𝑈𝑠𝑐𝑖𝑡𝑎 𝐿𝑜𝑟𝑑𝑎𝑡
𝑚
� 𝐹𝑙𝑢𝑠𝑠𝑜 𝑛𝑒𝑡𝑡𝑜𝑡 ∙ 𝑟𝑡
𝑡=1
un istante prima dell’inizio dell’anno t+1
98
Considerato questo schema, gli elementi che generano maggiore aleatorietà nella
valutazione del PVFP, sono il rendimento ρ, il tasso risk-free r e la percentuale di riscatti w.
Questi tre fattori saranno in seguito simulati per ottenere la distribuzione probabilistica
del PVFP via LSMC. È certamente ragionevole considerare anche la probabilità di morte
come elemento non certo; in questo prodotto di accumulo assicurativo la sua influenza è
decisamente marginale e quindi, per non complicare ulteriormente l’esercizio, si è scelto
di non considerarla aleatoria. Analizzare la mortalità con metodologie stocastiche implica,
inoltre, affrontare la relativa branca attuariale che tratta di tale argomento, esulando dagli
obiettivi di questa tesi.
99
4.3 Simulazione stocastica per ρ, r e w
Si procede simulando traiettorie su un intervallo ventennale, del rendimento dei titoli nel
portafoglio, ρ, e del tasso di sconto r. La percentuale di polizze riscattate, w, consiste di una
sola simulazione per scenario, è quindi mantenuta costante su tutto l’intervallo di run-off
del portafoglio.
Lo shock per ρ ed r viene applicato su determinati fattori dei modelli che generano le
traiettorie; i dettagli verranno spiegati in seguito quando si tratterà dei modelli sottostanti
agli scenari. Per quanto concerne la percentuale di riscatti, w, non essendoci un modello
sottostante, lo shock stesso rappresenta la variazione in termini percentuali, dalla
percentuale media di riscatto. Si accoglie l’ipotesi che gli shock possono assumere
determinazioni nell’intervallo[-1,1] (±100%. di shock)
Seguendo l’approccio LSMC, si simulano stocasticamente per ogni fattore di aleatorietà le
relative realizzazioni, secondo la sequenza dei numeri a bassa discrepanza di Sobol.
Queste simulazioni saranno utilizzate per calibrare la funzione di regressione. A tal
proposito è stata utilizzata l’applicazione di analisi statistiche R. L’intervallo di
simulazione per ciascun fattore è [-1,1], rappresentante uno shock del fattore del ±100%.
Sono state effettuate 25.000 simulazioni per ogni fattore.
Una volta ottenute le simulazioni secondo la sequenza di Sobol nell’intervallo (-1,+1), si
procede nella realizzazione dei relativi scenari stocastici. Si ricorda che gli scenari devono
essere real-world per il primo anno di valutazione e risk-neutral per quelli successivi. Il
numero di anni da simulare per l’analisi del portafoglio unit-linked è pari a 20. Per ogni
scenario real-world vengono simulati due scenari risk-neutral, ottenuti con la tecnica di
riduzione della varianza. Questo processo viene eseguito per ρ e r.
4.3.1 Modello per la percentuale di riscatti
Per quanto concerne la percentuale di riscatti, w, la sua realizzazione secondo la sequenza
di Sobol rappresenta di per sé lo scenario: si ipotizza, infatti, che lo shock avvenga solo al
primo anno, restando poi costante per quelli successivi. Tale shock, inoltre, influisce sul
calcolo della percentuale di riscatti in t, w t , attraverso la seguente espressione:
100
𝑤𝑡𝑠ℎ𝑜𝑐𝑘𝑒𝑑 = 𝑤𝑡 �1 +
𝑠ℎ𝑜𝑐𝑘
2
�
(4.3.1)
4.3.2 Modello di Black-Karasinki a due fattori per il
tasso di sconto risk free
L’andamento aleatorio del tasso di sconto risk free, o dell’equivalente tasso d’interesse
risk free a pronti, è stato descritto attraverso il modello Black-Karasinki a due fattori. Tale
modello può essere visto come la versione log-normale del modello di Vasicek. Entrambi i
modelli non descrivono l’andamento del tasso di sconto bensì la relativa intensità
istantanea di interesse (o spot rate) δ t . La sua variazione in un intervallo di ampiezza
infinitesima [t, t + dt] è descritta da:
𝑑ln(𝛿𝑡 ) = 𝑎1 (ln(𝑚) − ln(𝛿𝑡 )𝑑𝑡 + 𝜎1 𝑑𝑊𝑡1 con 𝑖 > 𝛼
(4.3.2)
𝑑𝑙𝑛(𝑚) = 𝑎2 (𝜇 − ln(𝑚))𝑑𝑡 + 𝜎2 𝑑𝑊𝑡2
(4.3.3)
mentre il mean-reversion level segue il processo stocastico:
Dove:
-
dln(δ t ) è la variazione del logaritmo dello spot rate nell’intervallo [t, t + dt);
ln(m) è il logaritmo del valore tendenziale dello spot rate (m > 0)
a 1 e a 2 sono le aliquote di richiamo del logaritmo dello spot rate dal livello corrente
ln(δ t ) a quello tendenziale ln(m) (a > 0)
σ 1 e σ 2 sono le volatilità (> 0)
W t 1e W t 2 sono moti Browniani indipendenti.
dW t 1 e dW t 2 sono le variazioni aleatorie dei moti nell’intervallo [t, t + dt)
Si osservi che il primo addendo del membro di destra della prima equazione rappresenta
la variazione deterministica dello spot rate, legata all’ipotesi che esista un livello, lm(m) ,
assunto dallo spot rate in assenza di “disturbi”. Il ruolo di tale aliquota è di regolare la
velocità con cui lo spot rate si avvicina a tale livello nel caso se ne sia discostato. Il secondo
addendo è invece una quantità stocastica che, in relazione al coefficiente di volatilità σ 1
(che comprime o espande le variazioni del moto W t 1 trasferendole sullo spot rate)
imprime allo spot rate deviazioni casuali (di segno positivo o negativo) rispetto al valore
corrente. Analoghe osservazioni per la seconda equazione. Il tasso annuo d’interesse, e
quindi il fattore di sconto, si ricava per integrazione dei valori assunti dallo spot rate in un
dato anno, tramite la nota relazione:
101
𝑡
𝑟𝑡 = 𝑒 − ∫0 𝛿𝑡+𝑢 𝑑𝑢
Sotto tali ipotesi la distribuzione del tasso di sconto è log-normale.
(4.3.4)
La realizzazione degli scenari per il tasso di sconto è stata effettuata attraverso
un’applicazione interna del gruppo A.G. S.p.A. che calcola gli scenari attraverso tecniche
numeriche, nello specifico attraverso un albero binomiale bidimensionale. Tale
applicazione ha prodotto gli scenari attraverso il modello appena descritto, considerando
gli shock (ovvero le determinazioni ottenute dalla sequenza di Sobol) prodotti al valore
tendeziale dello spot rate. Inoltre, per le simulazioni per t ≥ 2, l’applicazione aggiusta la
determinazione prodotta fintantoché non supera il test di martingalità, condizione
necessaria per essere coerente con la neutralità al rischio.
In totale, considerando 25.000 scenari real-world, 2 scenari risk-neutral ciascuno, ed un
orizzonte temporale di 20 anni, sono stati prodotti 1.000.000 di valori.
Nella pagina seguente vengono riportate dieci realizzazioni del tasso di sconto.
102
Figura 4.3.1
Di seguito un grafico riportante 500 simulazioni del tasso di sconto.
100%
90%
80%
Tasso di sconto
70%
60%
50%
40%
30%
20%
10%
0%
1
2
3
4
5
6
7
8
9
10 11 12 13 14 15 16 17 18 19 20
t
Figura 4.3.2
103
La tabella di seguito riporta alcune realizzazioni rispetto allo shock applicato. Il grafico
sotto mostra le traiettorie basate sui dati in tabella: è così possibile comprendere come
influisce lo shock sull’andamento del fattore di sconto. Le traiettorie con lo stesso colore
hanno lo stesso shock applicato.
shock
-99%
-100%
-99%
-100%
1
99%
99%
99%
99%
2
99%
99%
99%
98%
3
98%
99%
99%
98%
4
98%
98%
99%
97%
5
98%
98%
98%
97%
6
97%
98%
98%
96%
7
97%
98%
98%
96%
8
96%
98%
97%
95%
9
95%
97%
97%
95%
10
93%
97%
97%
95%
11
92%
96%
97%
95%
12
92%
96%
97%
95%
13
91%
95%
97%
95%
14
91%
94%
96%
95%
15
90%
92%
96%
95%
16
89%
90%
95%
95%
17
88%
88%
95%
95%
18
87%
84%
95%
95%
19
86%
82%
94%
95%
20
84%
80%
94%
95%
-50%
-51%
-50%
-51%
99%
99%
99%
99%
98%
98%
98%
98%
97%
97%
97%
97%
96%
97%
97%
96%
95%
96%
97%
96%
93%
92%
97%
95%
92%
91%
96%
95%
91%
90%
96%
95%
90%
87%
95%
95%
89%
85%
94%
95%
89%
84%
93%
94%
88%
84%
92%
93%
88%
83%
92%
93%
88%
83%
91%
93%
88%
82%
91%
92%
88%
82%
90%
92%
88%
81%
90%
92%
88%
81%
89%
91%
88%
79%
88%
91%
85%
79%
87%
91%
0%
0%
0%
0%
98%
98%
98%
98%
96%
97%
94%
95%
95%
96%
90%
93%
95%
95%
86%
91%
94%
94%
81%
90%
94%
93%
78%
89%
93%
92%
74%
89%
92%
90%
72%
88%
91%
87%
71%
88%
87%
84%
70%
88%
81%
82%
68%
88%
74%
78%
67%
87%
70%
76%
65%
86%
67%
75%
63%
85%
65%
70%
62%
82%
63%
63%
62%
79%
61%
53%
61%
77%
60%
44%
61%
75%
58%
36%
61%
72%
55%
28%
61%
69%
50%
51%
50%
50%
96%
96%
96%
96%
93%
95%
94%
95%
88%
93%
91%
94%
84%
89%
87%
93%
75%
86%
81%
90%
68%
84%
71%
88%
62%
82%
65%
82%
57%
81%
59%
76%
53%
80%
54%
70%
49%
78%
44%
65%
45%
76%
37%
61%
41%
74%
34%
57%
36%
72%
28%
49%
31%
69%
25%
45%
25%
63%
19%
42%
20%
58%
14%
39%
13%
53%
9%
37%
8%
48%
6%
34%
5%
44%
4%
32%
-1%
34%
3%
28%
99%
100%
100%
100%
94%
94%
94%
94%
85%
88%
90%
89%
76%
78%
86%
85%
68%
70%
78%
79%
60%
60%
68%
71%
53%
52%
61%
56%
46%
49%
53%
43%
39%
45%
48%
27%
36%
42%
42%
21%
32%
38%
33%
13%
30%
36%
24%
8%
29%
32%
19%
6%
28%
28%
14%
3%
27%
25%
11%
3%
25%
22%
8%
2%
24%
18%
6%
1%
23%
14%
4%
1%
22%
12%
3%
1%
21%
8%
3%
1%
20%
5%
2%
1%
1
2
3
4
5
6
7
8
9 10 11 12 13 14 15 16 17 18 19 20
Tasso di sconto
Tabella 4.3.1
100%
90%
80%
70%
60%
50%
40%
30%
20%
10%
0%
t
Figura 4.3.3
104
Di seguito, invece, è possibile apprezzare come varia il fattore di sconto al primo anno al
variare dello shock.
100%
99%
tasso di sconto in t = 1
98%
97%
96%
95%
94%
-100,00%
93%
0,00%
-50,00%
50,00%
100,00%
shock
Figura 4.3.4
Il grafico soprastante mostra l’andamento del fattore di sconto al primo anno al variare
dello shock. È possibile apprezzare l’andamento non lineare.
Si dà ora evidenza di come è intervenuta la tecnica di riduzione della varianza nel
processo. In ogni grafico successivo è presente una coppia di traiettorie realizzate
considerando tale tecnica; al variare del grafico varia lo shock applicato.
tasso di sconto
tasso di sconto - shock -99%
100%
90%
80%
70%
60%
50%
40%
30%
20%
10%
0%
1
2
3
4
5
6
7
8
9 10 11 12 13 14 15 16 17 18 19 20
Series1 98%96%95%95%94%94%93%92%91%87%81%74%70%67%65%63%61%60%58%55%
Series2 98%96%91%85%72%61%58%55%53%52%52%51%51%50%49%47%46%45%44%32%
Figura 4.3.5
105
tasso di sconto
tasso di sconto - shock -50%
100%
90%
80%
70%
60%
50%
40%
30%
20%
10%
0%
1
2
3
4
5
6
7
8
9 10 11 12 13 14 15 16 17 18 19 20
Series1 98%97%95%93%91%89%88%88%87%86%86%85%84%83%82%82%81%81%80%78%
Series2 98%95%93%91%90%87%82%77%69%64%60%56%52%50%47%41%36%32%30%29%
Figura 4.3.6
tasso di sconto - shock 0%
tasso di sconto
100%
80%
60%
40%
20%
0%
1
2
3
4
5
6
7
8
9 10 11 12 13 14 15 16 17 18 19 20
Series1 94%84%76%70%51%45%31%19%11% 7% 5% 3% 2% 1% 1% 1% 0% 0% 0% 0%
Series2 94%92%90%86%85%82%81%80%79%79%78%78%77%77%77%76%76%75%75%74%
Figura 4.3.7
106
tasso di sconto
tasso di sconto - shock 50%
100%
90%
80%
70%
60%
50%
40%
30%
20%
10%
0%
1
2
3
4
5
6
7
8
9 10 11 12 13 14 15 16 17 18 19 20
Series1 99%98%97%96%95%94%93%92%91%91%90%90%89%88%86%84%82%80%79%78%
Series2 99%99%98%98%97%96%95%94%93%92%91%90%89%89%88%88%88%88%87%87%
Figura 4.3.8
tasso di sconto - shock 99%
120%
tasso di sconto
100%
80%
60%
40%
20%
0%
1
2
3
4
5
6
7
8
9 10 11 12 13 14 15 16 17 18 19 20
Series1 99%97%95%91%88%78%71%64%61%57%55%52%50%49%48%47%46%45%43%40%
Series2 99%98%97%97%96%96%96%96%96%95%95%95%94%94%92%92%91%91%90%90%
Figura 4.3.9
107
4.3.3 Modello di Heston per il rendimento dei titoli
azionari
Il rendimento dei titoli in portafoglio è simulato utilizzando il modello di (Heston, 1993).
Tale modello ha rappresentato un passo in avanti rispetto ai precedenti modelli stocastici.
Ha infatti introdotto il concetto di volatilità stocastica espressa in forma chiusa da
equazioni differenziali. Tale modello inoltre, permette di descrivere la forma della
distribuzione probabilistica del rendimento e come quest’ultima varia nel tempo,
includendo la possibilità di considerare code pesanti e asimmetria. Approcci precedenti,
come il modello Black & Scholes introdotto venti anni prima, erano basati sull’assunzione,
molto forte, che la distribuzione probabilistica dei rendimenti fosse normale con media e
varianza nota.
Il modello di Heston ipotizza che S(t), il prezzo del titolo in t, è determinato dal processo
stocastico (Willmot, 2006):
dove:
-
𝑑𝑆(𝑡) = 𝜇𝑆(𝑡)𝑑𝑡 + �𝑣(𝑡)𝑆(𝑡)𝑑𝑊1 (𝑡)
(4.3.5)
μ è il rendimento medio del titolo;
W 1 (t) è un processo di Wiener, e quindi è un processo random walk;
𝑣(𝑡), la varianza istantanea, è un processo markoviano definito dall’equazione
differenziale stocastica:
𝑑𝑣(𝑡) = 𝛼 [𝜎 2 − 𝑣(𝑡)]𝑑𝑡 + 𝑘�𝑣(𝑡)𝑑𝑊2 (𝑡)
dove 𝑊2 (𝑡) è un processo di Wiener e α, σ2, k i parametri:
-
(4.3.6)
α rappresenta la velocità di ritorno di v(t) a σ2;
σ2 la media del processo, o “varianza del prezzo a lungo termine”: al
divergere di t 𝑣(𝑡) tende a σ2;
k è la volatilità della volatilità (volatility of the volatiliy – vol of vol); come
suggerisce il nome, rappresenta la varianza di 𝑣(𝑡).
W 1 (t) e W 2 (t) sono correlati. Il loro grado di correlazione è espresso dal parametro ρ
attraverso:
𝑑𝑣(𝑡) = 𝛼 [𝜎 2 − 𝑣(𝑡)]𝑑𝑡 + 𝑘�𝑣(𝑡)𝑑𝑊2 (𝑡)
(4.3.7)
108
𝑑𝑊2 (𝑡) = 𝜌𝑑𝑊1 (𝑡) + �1 − 𝜌2 𝑑𝑊(𝑡)
(4.3.8)
Condizione necessaria (di Feller) affinché 𝑣(𝑡) risulti positivo (Albrecher, Schoutens, &
Tistaert, 2006).
2𝛼𝜎 2 ≥ 𝑘 2
(4.3.9)
Per ulteriori approfondimenti, fare riferimento a (Heston, 1993), (Willmot, 2006),
(Albrecher, Schoutens, & Tistaert, 2006) .
I parametri summenzionati sono stati calibrati sui valori osservati sull’indice di titoli
dell’eurozona ”Euro Stoxx 50”.
Si dà evidenza di come è intervenuta la tecnica di riduzione della varianza nel processo. In
ogni grafico successivo è presente una coppia di traiettorie realizzate considerando tale
tecnica; al variare del grafico varia lo shock applicato.
shock - 99%
150%
rendimento in t
100%
50%
0%
-50%
-100%
1
2
3
4
5
6
7
8
9 10 11 12 13 14 15 16 17 18 19 20
Series1 -89 -49 32%15% -23 -9% -36 8% 19%38% -11 28% -26 -27 -22 -16 5% 13%-5% 8%
Series2 -90 99% -22 -8%33%13%62%-3% -11 -22 24% -15 45%50%41%30% 8% 0% 19%16%
Figura 4.3.10
109
rendimento in t
shock -50%
100%
80%
60%
40%
20%
0%
-20%
-40%
-60%
1
2
3
4
5
6
7
8
9 10 11 12 13 14 15 16 17 18 19 20
Series1 -39 54% -24 12% -10 -33 -5% 4% -28 14%-3%13% -27 29%84%-1%50%76%54%60%
Series2 6% -38 25% -15 6% 42% 0% -9%32% -15 -1% -14 36% -18 -41 15% 2% -23 -4% -17
Figura 4.3.11
rendimento in t
shock 0%
150%
100%
50%
0%
-50%
1
2
3
4
5
6
7
8
9 10 11 12 13 14 15 16 17 18 19 20
Series1 19% -17 -21 -10 29%-7%39%62%28% -35 -23 9% -1%12% -18 -22 0% -26 17%-6%
Series2 96%15%24%12% -15 17% -29 -39 -23 51%30%-6% 0% -12 20%26%-2%33% -16 6%
Figura 4.3.12
110
shock 50%
rendimento in t
200%
150%
100%
50%
0%
-50%
1
2
3
4
5
6
7
8
9 10 11 12 13 14 15 16 17 18 19 20
Series1 149 -18 -20 -14 44% -17 26% -36 46% 8% 4% 31% -11 -24 45%44%-2%11% -25 -34
Series2 10720%25%16% -27 25% -18 62% -30 -4% 0% -20 20%45% -21 -17 42%39%104 132
Figura 4.3.13
shock 99%
rendimento in t
250%
200%
150%
100%
50%
0%
-50%
-100%
1
2
3
4
5
6
7
8
9 10 11 12 13 14 15 16 17 18 19 20
Series1 19810% -16 8% 21%40%12939%52%137 12515%-6%40% 9% 37%71%55%55%48%
Series2 200 -6%20%-3% -5% -18 -38 10% 1% -35 -32 -3% 9% -16 3% 12% -19 -1% -1% 4%
Figura 4.3.14
Si osservi come a differenza delle simulazioni del tasso di sconto, i valori al primo anno,
data una coppia di traiettorie antitetiche, possono risultare diversi tra loro. Il modello di
Black-Karasinski quindi, data una coppia di variabili aleatorie antitetiche, fornisce lo
stesso risultato per t = 1; tale affermazione non risulta essere vera per il modello di
Heston. La rappresentazione grafica 4.3.15, del valore del rendimento in t = 1 al variare
dello shock applicato, non descrive più una funzione come nel caso del tasso d’interesse,
bensì una nuvola di punti che rappresenta idealmente un intervallo di confidenza per il
quale passa la vera funzione.
111
Figura 4.3.15
112
4.4 Simulazione del portafoglio
Considerate le dinamiche degli scenari e del portafoglio, si procede alla simulazione dei
PVFP.
Si definisce 𝑓 la funzione che descrive la dinamica del portafoglio visto in precedenza 47: ad
ogni possibile configurazione del portafoglio la funzione vi associa il relativo PVFP. Gli
unici elementi che variano in ogni scenario sono:
-
il tasso di sconto {r t , t = 1, …, 20};
la percentuale di riscatti {w t , t = 1, …, 20};
il tasso del rendimento del portafoglio {ρ t , t = 1, …, 20}.
tutti gli altri fattori restano fissi ed identici a quanto descritto in precedenza.
Il numero di scenari simulati è pari a 25.000, utilizzando la tecnica di riduzione della
varianza via variabili antitetiche (due simulazioni risk neutral per ciascuna real-world) –
nello specifico, una coppia di variabili antitetiche per ogni scenario. Il numero di scenari
risulta quindi essere pari a N = 50.000.
L’i-simo valore simulato del PVFP è:
(𝑖)
(𝑖) ′
(𝑖)
(𝑖) ′
𝑃𝑉𝐹𝑃(𝑖) = 𝑓�𝒓(𝑖) , 𝝆(𝑖) , 𝑤 (𝑖) � 𝑖 = 1, … , 𝑁; 𝒓(𝑖) = �r1 , … , r20 � ; 𝝆(𝑖) = �ρ1 , … , ρ20 � ; 𝑖
= 1, … , N
I valori del PVFP sono stati calcolati attraverso un foglio di calcolo programmato 48.
Vengono riportati alcuni dati relativi ai 25.000 PVFP simulati, ottenuti attraverso il
software di analisi statistiche R:
Min.
-50420000
1st Qu.
15540000
Median
27650000
Mean
24760000
3rd Qu.
35230000
Max.
56570000
La distribuzione è generata in accordo con stress dei fattori di rischio con misura di
probabilità 𝒮 di Sobol. Discostandosi dalla realtà, sarebbe fuorviante fornire commenti su
tale distribuzone empirica, utilizzata solamente per calibrare la funzione di regressione. È
È sicuramente possibile scrivere tale funzione in forma chiusa analizzando le dinamiche descritte in
precedenza, tale operazione risulta però di scarso interesse ai fini espostivi.
48 Il foglio di calcolo utilizzato è MS Excel 2010 e la programmazione è avvenuta via Visual Basic for
Applications (VBA). L’algoritmo realizzato non fa altro che associare N (50.000) volte al portafoglio i dati degli
scenari e salvare ogni volta il relativo PVFP.
47
113
ragionevole aspettarsi che la vera distribuzione del PVFP abbia una media simile, valore
minimo superiore e valore di massimo inferiore.
Si vuole osservare se la serie dei PVFP ordinata in senso crescente denota andamenti
particolari:
Figura 4.4.1
Osservando il grafico soprastante è possibile certamente affermare che il PVFP non viene
generato da dinamiche lineari.
4.4.1 Applicazione dell’algoritmo LSMC
Si procede ora all’analisi di regressione in accordo con il modello teorico definito nel
§3.4.1. Si sceglie di utilizzare la tecnica stepwise abbinata al criterio AIC per la selezione
del modello.
Il modello inziale è lineare e include nella funzione di regressione i fattori di stress
(distribuiti uniformemente secondo Sobol) espressi fino al terzo grado considerando tutte
le possibili interazioni. Si utilizza quindi una base polinomiale di terzo grado, dove le
variabili esplicative sono i fattori di stress applicati ai relativi fattori di rischio,
denominati:
-
-
IR_s per il tasso di sconto,
IR_m per il mean reversion level del tasso di sconto;
Equity per il rendimento dei titoli in portafoglio,
Lapse per la percentuale di riscatti.
114
Si procede con la ricerca di 𝛼� (𝑁) come definito dall’equazione (3.4.4):
25.000
𝛼� (25.000) = 𝑎𝑟𝑔𝑚𝑖𝑛𝛼∈ℝ 616 � �
𝑖=1
(𝑖)
�𝑃𝑉𝐹𝑃1
616
− � 𝛼𝑘 ∙ 𝑒𝑘 �
𝑘=1
2
(𝑖 )
(𝑖)
𝑌1 , 𝐷1 ��
�
La funzione di regressione risulta avere 616 addendi. Si applica la procedura stepwise al
modello, riducendo il numero di addendi solamente a quelli significativi (in totale 18 più
l’intercetta):
Call:
lm(formula = PVFP ~ IR_s + IR_m + Equity + Lapse + I(IR_s^2) +
I(Equity^2) + I(Lapse^2) + IR_s:IR_m + IR_s:Equity +
IR_s:Lapse +
IR_s:I(IR_s^2)
+
IR_s:I(IR_m^2)
+
IR_s:I(Lapse^2)
+
IR_m:Lapse +
IR_m:I(IR_s^2)
+
Equity:Lapse
+
Equity:I(IR_m^2)
+
Lapse:I(IR_s^2),
data = dati_Sobol)
Coefficients:
(Intercept)
IR_s
IR_s^3
IR_m
Equity
Lapse
I(IR_s^2)
I(Equity^2)
I(Lapse^2)
IR_s:IR_m
IR_s:Equity
IR_s:Lapse
IR_s:I(IR_m^2)
IR_s:I(Lapse^2)
IR_m:Lapse
IR_m:I(IR_s^2)
Equity:Lapse
Equity:I(IR_m^2)
Lapse:I(IR_s^2)
Estimate Std. Error t value Pr(>|t|)
27836097
162402 171.403 < 2e-16 ***
10146034
381788 26.575 < 2e-16 ***
-1513164
492805 -3.071 0.002139 **
1093471
193535
5.650 1.62e-08 ***
5499637
193542 28.416 < 2e-16 ***
-1718729
193540 -8.880 < 2e-16 ***
-7731941
249889 -30.941 < 2e-16 ***
-546620
249889 -2.187 0.028719 *
-952995
249887 -3.814 0.000137 ***
-736223
223506 -3.294 0.000989 ***
-4575312
223536 -20.468 < 2e-16 ***
-6979235
223545 -31.221 < 2e-16 ***
863191
432816
1.994 0.046123 *
1789394
432964
4.133 3.59e-05 ***
-774348
223564 -3.464 0.000534 ***
-1077934
432801 -2.491 0.012759 *
-2034875
223518 -9.104 < 2e-16 ***
714097
432907
1.650 0.099049 .
3699924
432953
8.546 < 2e-16 ***
In linea con l’equazione (3.4.2):
115
� 1(19) (𝐼𝑅𝑠 , 𝐼𝑅𝑚 , 𝐸𝑞𝑢𝑖𝑡𝑦, 𝐿𝑎𝑝𝑠𝑒) =
𝑃𝑉𝐹𝑃
= 27.836.097 +
+ 10.146.034 ∙ IR s − 7.731.941 ∙ IR2s − 1.513.164 ∙ IR3s +
+ 1.093.471 ∙ IR m +
+ 5.499.637 ∙ Equity − 546.620 ∙ Equity 2 +
−1.718.729 ∙ Lapse − 952.995 ∙ Lapse2 +
−736.223 ∙ IR s ∙ IR m − 4.575.312 ∙ IR s ∙ Equity − 6.979.235 ∙ IR s ∙ Lapse
(4.4.1)
− 774.348 ∙ IR m ∙ Lapse − 2.034.875 ∙ Equity ∙ Lapse
+ 863.191 ∙ IR s ∙ IR2m + 1.789.394 ∙ IR s ∙ Lapse2 − 1.077.934 ∙ IR 𝑚 ∙ IR2s
+ 714.097 ∙ Equity ∙ IR2m + 3.699.924 ∙ Lapse ∙ IR2s
Il modello selezionato ha 18 termini più l’intercetta. È difficile fornire indicazioni sulla
numerosità massima dei regressori da utilizzare in questo contesto; considerando che la
struttura di tale funzione potrebbe dover essere spiegata a soggetti terzi (come ad
esempio un istituto di vigilanza) e, nell’eventualità, avere la capacità di spiegare il
significato delle interazioni tra i termini, è certamente buona norma tenere il numero di
regressori più basso possibile.
Un ulteriore osservazione: è lecito considerare i termini incrociati come una
manifestazione di presenza di correlazione tra gli stress, e quindi dei fattori di rischio. Se si
considera che le serie dei fattori di rischio sono indipendenti tra loro, tale correlazione
potrebbe avere origine dalla struttura del portafoglio che ha generato i relativi PVFP.
Considerando, ora, le matrici di correlazione tra i rischi utilizzate nello standard model nel
caso in cui vengano utilizzati i parametri specifici d’azienda, o comunque presenti anche
nei modelli interni, sarebbe quantomeno opportuno verificare che tali termini incrociati
non diano informazioni diverse da quelle iscritte nelle matrici. Nell’ipotesi che questi
termini siano l’espressione di correlazione tra i rischi generata dalla struttura del
portafoglio, allora questa dovrebbe contribuire a quella presente nella matrice di
correlazioni, che invece è espressione di correlazione tra rischi dovuti sia a processi
interni che fenomeni esterni. L’utilizzo dei termini di interazione per la calibrazione della
matrice delle correlazioni meriterebbe sicuramente uno studio più appronfodito.
116
4.4.2 Backtesting
Si vuole testare la bontà della funzione di regressione. Si procede attraverso la tecnica del
backtesting. Sono stati calcolati i valori esatti del PVFP per diverse combinazioni di stress
sui fattori di rischio e confrontati con quelli previsti dalla funzione di regressione. I valori
sono considerati esatti (detti anche punti di validazione) in quanto ottenuti come media di
1000 simulazioni per ciascuna combinazione di stress; tale numero di simulazioni si è
dimostrato ragionevolmente elevato per fornire una buona stima del vero valore. Si
riportano di seguito i risultati.
IR_r
IR_m
Equity
Lapse
PVFP
Validazione
Delta
0%
-90%
-50%
-25%
25%
50%
90%
0%
0%
0%
0%
0%
0%
0%
0%
0%
0%
0%
0%
0%
0%
0%
0%
0%
0%
0%
0%
0%
0%
0%
-90%
-50%
-25%
25%
50%
90%
0%
0%
0%
0%
0%
0%
0%
0%
0%
0%
0%
0%
0%
0%
0%
0%
0%
0%
0%
0%
0%
0%
0%
-90%
-50%
-25%
50%
0%
0%
0%
0%
0%
0%
0%
0%
0%
0%
0%
0%
0%
0%
0%
0%
0%
0%
0%
0%
0%
0%
0%
-90%
-50%
-25%
25%
50%
90%
26,37
9,73
18,57
23,11
28,42
29,45
29,37
24,52
25,34
25,84
26,70
26,87
27,06
23,97
25,70
27,03
29,99
27,18
26,60
26,71
25,90
25,24
23,88
26,17
10,27
18,04
22,35
28,49
29,79
29,18
24,57
24,60
25,41
26,46
26,35
26,74
22,29
24,63
25,37
30,29
27,33
26,45
26,36
25,89
25,54
23,80
0,21
-0,54
0,53
0,75
-0,07
-0,34
0,19
-0,05
0,74
0,43
0,23
0,52
0,32
1,68
1,07
1,66
-0,30
-0,15
0,15
0,35
0,01
-0,30
0,08
Tabella 4.4.1
La prima riga rappresentata è relativa allo scenario centrale, ovvero quello in cui non è
applicato alcuno stress. A seguire, gli stress vengono applicati marginalmente per ogni
fattore di rischio. Si fa qui un utilizzo improprio del concetto di marginalità: lo scenario è
sempre funzione di tutti i rischi considerati, ma applicando lo shock solo ad uno di questi,
117
questo può essere interpretato come marginale rispetto al rischio shokkato. La differenza
tra la colonna PVFP, che rappresenta i valori ottenuti attraverso la funzione di regressione
e la colonna Validazione è molto bassa. Si noti che i valori monetari sono espressi in
milioni di euro. Di seguito una rappresentazione grafica della tabella.
IR_r
PVFP (mln €)
30
28
26
24
22
20
18
16
14
12
10
-100%
-50%
0%
50%
100%
Shock
Figura 4.4.2
La funzione di regressione, in blu, passa per quasi tutti i punti di validazione di IR_r, che
rappresenta la percentuale di shock applicata al tasso di interesse.
IR_m
PVFP (mln €)
30
28
26
24
22
20
18
16
14
12
10
-100%
-50%
0%
50%
100%
Shock
Figura 4.4.3
118
Nel caso dello shock al IR_m, applicato anch’esso al tasso di interesse, la funzione di
regressione si comporta in maniera peggiore. Cattura solamente un punto, sovrastimando
mediamente il vero valore. L’impatto di questo shock sul PVFP è molto basso, facendone
variare il valore in un intervallo compreso tra 24,5 e 27 milioni di euro. L’errore può
quindi essere considerato accettabile, non influendo in maniera significativa sul risultato
finale.
Equity
PVFP (mln €)
35
30
25
20
15
10
5
0
-100%
-80%
-60%
-40%
-20%
0%
20%
40%
60%
Shock
Figura 4.4.4
Anche in questo caso la funzione di regressione si comporta discretamente. Si osservi che
l’impatto sul PVFP dello shock Equity, relativo all’andamento delle azioni, è relativamente
basso. Questo è dovuto principalmente al asset mix: il portafoglio è composto per il 30%
da titoli
azionari e 70% da obbligazioni. Asset mix diversi avrebbero portato ad
un’influenza maggiore di questo fattore di rischio.
Lapse
28
PVFP (mln €)
27
26
25
24
23
-100%
-50%
0%
50%
100%
Shock
Figura 4.4.5
119
Il Lapse, rappresentante lo shock applicato alla percentuale di riscatti è descritto
sufficientemente bene dalla funzione di regressione. Si osserva che la curva di regressione
non segue un andamento monotono: si può ipotizzare che per alcune congiunture degli
scenari economici, la compagnia assicurativa possa trarre vantaggio da un aumento di
riscatti, rendendo il comportamento di tale rischio per nulla lineare.
Si conclude che la funzione di regressione simula ragionevolmente bene il vero
comportamento del portafoglio al variare della combinazione degli stress ad esso
applicati.
Per quanto concerne gli stress, si passa ora dalla probabilità di misura uniforme a bassa
discrepanza 𝒮 a quella real-world 𝒫.
4.4.3 Passaggio alla probabilità real world
I risultati sinora ottenuti sono serviti per calibrare la funzione di regressione. I
corrispondenti valori monetari non possono essere presi in considerazione in quanto
generati da scenari sottostanti a stress provenienti da una distribuzione uniforme a bassa
discrepanza. Si procede quindi simulando gli stress secondo la misura di probabilità 𝒫.
Si ipotizzano le seguenti correlazioni tra gli stress applicati ai fattori di rischio:
Ir r
Ir m
Equity
Lapse
Ir r
1,00
0,00
-0,25
0,30
Ir m
0,00
1,00
-0,15
0,30
Equity
-0,25
-0,15
1,00
0,20
Lapse
0,30
0,30
0,20
1,00
Tabella 4.4.2 Matrice di correlazioni tra gli stress applicati ai rischi
Ciascuno stress si distribuisce in accordo ad una normale con media 0 e varianza 0,25 al
fine di depositare il più della massa probabilistica nell’intervallo [-1,1]; lo stress Equity,
per necessità di modello ha invece media -0,5. Si effettuano 50.000 simulazioni del vettore
di stress. Questa matrice di correlazioni diverge da quanto stabilito da Solvency II; non
pregiudicando, tale modifica, gli scopi dell’applicazione, si è preferito utilizzare parametri
più aderenti alle attuali condizioni di mercato. In sintesi, la correlazione tra Equity, lo
stress applicato al rendimento delle azioni, e i due stress IR, è negativa. Ad un rialzo del
tasso di interesse, si riduce la disponibilità di denaro in circolazione in quanto diventa più
costoso; di conseguenza si ha meno disponibilità monetaria per acquistare titoli azionari.
120
Il divario bid-ask aumenta, e di conseguenza è lecito supporre che il rendimento dei titoli
azionari diminuisca. La forza di questa correlazione è comunque bassa: a differenza del
segno, i valori scelti possono risultare soggettivi. Relativamente al Lapse, lo stress
applicato alla percentuale di riscatti, si è scelta una correlazione del 30% nei confronti del
tasso d’interesse e del 20% con i titoli azionari. Si accoglie l’ipotesi che l’assicurato,
osservando un aumento del tasso d’interesse risk-free oltre il minimo garantito dalla
polizza, sia portato a riscattarla per investire in prodotti alternativi. Similmente per
l’Equity, dove però la forza di correlazione è minore, in linea con ipotesi di avversione al
rischio dell’assicurato.
Figura 4.4.6 - Ogni nuvola di punti rappresenta la simulazione congiunta di due stress sui fattori di rischio
121
Visto che la funzione di regressione dipende dagli stress applicati ai fattori di rischio, non è
più necessario ri-simulare gli scenari secondo la nuova misura di probabilità, tutte le
informazioni necessarie sono già disponibili.
Si procede costruendo la distribuzione empirica di probabilità, market consistent, del
PVFP. A tal fine si calcola il valore previsto dalla funzione di regressione per ogni n-pla
simulata degli stress dei fattori di rischio. Si costruisce quindi la distribuzione empirica di
probabilità dei PVFP così ottenuti.
Figura 4.4.7 - Distribuzione empirica del PVFP in t = 1
Quantili e statistiche principali della distribuzione del PVFP:
Min.
1st Qu.
Median
Mean
3rd Qu.
Max.
7.394.000 23.930.000 25.590.000 25.200.000 26.880.000 31.080.000
Si osserva che il supporto della distribuzione è più ristretto rispetto alla distribuzione del
PVFP ottenuta via stress uniformi a bassa discrepanza, la media assume invece un valore
simile. Questo è dovuto al fatto che la misura 𝒮 genera scenari estremi, poco probabili
sotto una misura di probabilità market consistent. La distribuzione è inoltre asimmetrica
con la coda sinistra visibilmente più pesante. Il confronto tra le differenze del primo
quartile col minimo, ed il massimo col terzo quartile, confermano il riscontro grafico della
coda.
122
4.5 Calcolo del SCR
In linea con il metodo di calcolo del SCR descritto nel § 3.2.1, si individuano ora le
grandezze di interesse.
� 1 � = 25.2 mln. Si ipotizza che il capitale
Si accolga la semplificazione 𝐴𝐶𝑜 ≈ 𝐸�𝑃𝑉𝐹𝑃
𝐴𝐶1
�1.
≈ 𝑃𝑉𝐹𝑃
detenuto dalla compagnia in 0, sia il PVFP medio del portafoglio, mentre (1+𝑖)
Per costruzione degli scenari, i valori sono già implicitamente scontati. Allora si hanno
tutte le quantità per calcolare la one-year loss function ℒ ∶= 𝐴𝐶0 −
𝐴𝐶1
1+𝒾
. Di seguito la
distribuzione di probabilità empirica di ℒ e i principali valori che descrivono la
distribuzione.
Figura 4.5.1 One year loss function, la linea tratteggiata rappresenta il 99.5-simo percentile
Quantili e statistiche principali della one-year loss function:
Min.
1st Qu.
-5.882.000 -1.684.000
Median
-392.200
Mean
0
3rd Qu.
Max.
1.269.000 17.810.000
123
Applicando allora la 𝑆𝐶𝑅 ∶= 𝑎𝑟𝑔𝑚𝑖𝑛𝑥 �𝑃 �𝐴𝐶0 −
𝐴𝐶1
1+𝒾
> 𝑥� ≤ 1−∝�, dove α, in linea con i
requisiti della direttiva, è pari a 0.995. Si ottiene che il requisito patrimoniale di solvibilità
relativo al portafoglio oggetto di studio: 8.406.793 € . Il dato è rappresentato dalla linea
verticale tratteggiata nel grafico sopra.
Il risultato raggiunto è di rilievo: si è ottenuta la ℒ relativa al portafoglio oggetto di studio.
In quanto ripetuti diverse volte ed in tempi diversi è difficile fornire una stima esatta del
tempo necessario per l’intero procedimento, si afferma però, che questo comunque risulta
compatibile con l’ordinaria operatività in una compagnia di assicurazioni. Si fornisce di
seguito una tabella che riassume il tempo necessario per eseguire ogni passo, precisando
che si ha come obiettivo quello di fornire un ordine di grandezza approssimativo. Il tempo
realmente impiegato potrebbe variare sensibilmente.
step
descrizione
1
simulazione degli stress uniformi a bassa discrepanza: (200 mila
determinazioni simulate)
2
generazione di uno scenario stocastico su un orizzonte temporale di
20 anni secondo la misura di probabilità 𝒮
3
tempo totale per la generazione degli scenari per il tasso d’interesse
e del rendimento dei titoli (50 mila scenari ciascuno)
4
simulazione del portafoglio (50 mila simulazioni)
5
ricerca della funzione di regressione via procedimento stepwise
6
generazione degli stress secondo la misura 𝒫 (200 mila
determinazioni simulate)
7
calcolo della distribuzione empirica della loss function
tempo
~ 5”
< 1”
~7h
~ 1h
~ 0.5h
~ 5”
~ 10”
Il tempo totale è quindi di circa 9 ore. Si consideri che gli step 1-3 sono eseguiti al più una
volta al mese, e i risultati possono essere sfruttati da più portafogli. Gli step 4-7 possono
essere ripetuti anche giornalmente. I dati sono riferiti a quanto osservato utilizzando un
moderno laptop: un operatore assicurativo può quindi effettuare analisi sul portafoglio
senza l’ausilio di sistemi di calcolo distribuito (grid computing). Il gap prestazionale con
un modello di simulazioni stocastiche fully nested è quindi considerevole.
124
4.5.1 Requisiti di solvibilità per singola causa di
rischio e beneficio di diversificazione
Si vuole ora calcolare il requisito di capitale per singolo rischio. Aggregando i requisiti
‘marginali’ attraverso una matrice di varianze-covarianze similmente a quanto fatto dalla
direttiva, sarà possibile confrontare i risultati ottenuti attraverso le due procedure. Si
vuole quindi verificare se il modello LSMC cattura meglio del modello delta-normal,
sottostante alla direttiva, il comportamento della ℒ relativa ad un portafoglio tipico di un
assicuratore vita.
Si procede calcolando le one-year loss function prodotte da un solo rischio, e non tutti
assieme. Ad esempio, la ℒ relativa al equity risk, deve essere generata solamente da stress
applicati ai titoli azionari, in questo contesto lo stress Equity, mantenendo nullo lo stress
sugli altri.
Si calcolano i PVFP, attraverso la funzione di regressione ottenuta in precedenza per ogni
n-pla di stress, fissando a zero tutte le componenti eccetto quello che si vuole valutare,
ottenendo così le ℒ ‘marginali’. Si osservi che tale termine è utilizzato impropriamente: la
loss function ‘totale’ non è una distribuzione empirica congiunta, bensì è combinazione
lineare delle ℒ ‘marginali’, preservando il suo carattere univariato. Inoltre, non si potrebbe
comunque parlare di distribuzioni marginali, ma di distribuzioni condizionate al valore
nullo di tutti gli stress eccetto uno. Le distribuzioni empiriche di probabilità così ottenute,
rappresentano quindi la ℒ nell’ipotesi di essere in uno scenario centrale per tutte le cause
di rischio, eccetto una.
4.5.1.1 Requisito di capitale per l’equity risk
In linea con la funzione di regressione(4.4.1), per l’equity risk si ottiene:
� 1(19) (𝐸𝑞𝑢𝑖𝑡𝑦) = 27.836.097 + 5.499.637 ∙ Equity − 546.620 ∙ Equity 2
𝑃𝑉𝐹𝑃
125
Figura 4.5.2
Min. 1st Qu.
-2.567.000 -431.100
Median
-8.192
Mean
0
3rd Qu.
423.200
Max.
2.750.000
La ℒ relativa all’equity, rappresentata sopra, ha distribuzione approssimativamente
normale. La linea tratteggiata rappresenta il 99.5-simo quantile ed è pari a 1.679.957 €.
4.5.1.2 Requisito di capitale per l’interest rate risk
In linea con la funzione di regressione(4.4.1), per il interest rate risk si ha:
� 1(19) (𝐼𝑅𝑠 ) = 27.836.097 + 10.146.034 ∙ IR s − 7.731.941 ∙ IR2s − 1.513.164 ∙ IR3s
𝑃𝑉𝐹𝑃
126
Figura 4.5.3
Min.
1st Qu.
-3.301.000 -1.532.000
Median
-313.300
Mean
0
3rd Qu.
Max.
11.92.000 11.760.000
La distribuzione risulta asimmetrica con la coda destra più pesante. Il 99.5-simo percentile
è pari a 6.757.026 €. In questo caso, un’approssimazione normale avrebbe portato ad una
sottostima del percentile.
Per lo stress applicato al mean reversion level del interest rate risk:
� 1(19) (𝐼𝑅𝑚 ) = 27.836.097 + 1.093.471 ∙ IR m
𝑃𝑉𝐹𝑃
(4.5.1)
127
Figura 4.5.4
Min.
1st Qu.
-946.700 -1.465.000
Median
393
Mean
0
3rd Qu.
146.900
Max.
909.200
La distribuzione ha un comportamento piuttosto normale; il 99.5-simo percentile è pari a
561.670 €.
4.5.1.3 Requisito di capitale per il lapse risk
La funzione di regressione relativa al rischio di riscatto è:
� 1(19) (𝐿𝑎𝑝𝑠𝑒) = 27.836.097 − 1.718.729 ∙ Lapse − 952.995 ∙ Lapse2
𝑃𝑉𝐹𝑃
128
Figura 4.5.5
Min.
1st Qu.
-826.000 -298.700
Median
-50.140
Mean
0
3rd Qu.
Max.
240.900 2.508.000
Anche in questo caso la distribuzione, oltre che asimmetrica, ha una coda destra molto
pesante. Basti osservare la differenza tra il valore massimo ed il terzo quartile. Il 99.5-simo
percentile è pari a 1.325.656 €.
129
4.5.1.4 Aggregazione attraverso la matrice di varianze-covarianze
Si vuole ora giungere ad un confronto tra il SCR ottenuto attraverso il modello LSMC e
quello della direttiva. Si ipotizza per la standard formula che il caricamento di capitale per
singolo rischio sia lo stesso del modello LSMC, così come la matrice di correlazioni in linea
con la Tabella 4.4.2. Si procede al calcolo del requisito patrimoniale di solvibilità in linea
con l’equazione (3.2.8).
IRs
IRm
Equity
Lapse
TOTALE non diversificato
TOTALE LSMC
TOTALE STANDARD FORMULA
DIFFERENZA IN %
€ 6.757.026
€ 561.670
€ 1.679.957
€ 1.325.656
€ 10.324.309
€ 8.406.793
€ 7.162.801
15%
Si conclude che l’apporto di non linearità e di distribuzione della ℒ con coda più pesante di
quella della normale, per il portafoglio oggetto di studio, è del 15%. Utilizzare la standard
formula su questo portafoglio porterebbe ad una sottostima del requisito di capitale. Come
si è visto nei capitoli precedenti lo standard model accoglie l’ipotesi di normalità congiunta
dei rischi. Sapendo che il 99.5-simo percentile è pari a € 7.162.801, attraverso le note
formule di approssimazione della normale è possibile stimare l’intera distribuzione della
relativa loss function. Se la distribuzione di ℒ ~ N(0,σ2), allora ℒ (99.5) ⋍ z (99.5) ∙ σ ; allora σ ⋍
7.162.801 / 2,575829 = 2.780.775. Le distribuzioni delle loss function, ottenute via LSMC e
via standard formula, possono allora essere confrontate graficamente:
130
Figura 4.5.6
Figura 4.5.7
L’ultimo grafico è un dettaglio della coda destra relativo al grafico precedentemente. La
curva nera descrive la distribuzione empirica della ℒ ottenuta via LSMC mentre quella
131
tratteggiata blu la distribuzione normale in linea con i parametri ottenuti. Le due linee
tratteggiate verticali rappresentano il SCR relativo alle distribuzioni; la prima, in blu, è
relativa alla normale mentre la seconda, in nero, al modello LSMC. Si può apprezzare come
la distribuzione relativa al modello LSMC abbia una coda molto più pesante di quella
descritta dalla normale.
132
4.6 Limiti del modello
L’applicazione del capitolo precedente è il risultato di uno dei diversi esperimenti
effettuati, facendo variare le configurazioni di portafoglio e gli scenari economici; in uno di
questi, non si è riuscito ad applicare il metodo con successo.
Si è riscontrato che calibrando gli scenari del rendimento dei titoli azionari, relativamente
ad un portafoglio d’investimenti particolarmente volatile, i residui della regressione
evidenziavano un cattivo adattamento del modello.
Gli elementi principali che descrivono il portafoglio sono del tutto simili a quello già
descritto, così come la garanzia di rendimento minimo è fissata al 2.5%.
4.6.1 Individuazione del problema
Analizzando il portafoglio appena descritto, ci si è soffermati sulla calibrazione della
funzione di regressione e nello specifico, sull’analisi dei residui. Come funzione base si è
scelto il polinomio di terzo grado, utilizzando le quattro variabili di stato (IR_r, IR_m,
Equity, Lapse) assieme ai loro termini al quadrato e al cubo. Si riporta il grafico dei valori
previsti contro i residui studentizzati e i principali valori che descrivono la distribuzione
della ℒ. La linea rossa tratteggiata rappresenta il 90-simo percentile: ai fini della gestione
del rischio, è di fondamentale importanza avere precisione soprattutto da questo
percentile in poi. Si osserva che i residui hanno un trend decrescente, e, in generale, la
bontà del modello dopo il 90-simo percentile è molto bassa; ci sono troppi valori
sistematicamente presenti al di fuori del range [+2,-2].
133
Figura 4.6.1
Min.
-5.489000
1st Qu.
-0.488000
Median
Mean
0.186400 -0.000017
3rd Qu.
0.587500
Max.
3.527000
Si riporta l’istogramma dei residui ed il test di normalità Shapiro-Test, che conferma il
problema.
Figura 4.6.2
Shapiro-Wilk normality test
134
data: sample(residuals(lm11), 5000)
W = 0.9534, p-value < 2.2e-16
È evidente che, eccetto la parte centrale, avvicinandocisi a valori estremi del PVFP il
modello sovra o sotto stima pesantemente il vero valore. Il risultato è parso anomalo in
quanto non si era evidenziato un comportamento simile con gli altri portafogli e scenari.
Il confronto tra il quantile della normale ed il rispettivo quantile della distribuzione
empirica dei residui, ha confermato il problema:
Figura 4.6.3 - Grafico (PVFP, residuo)
Per comprendere l’origine di tale risultato, si è considerato utile analizzare la
distribuzione empirica del PVFP e confrontarla con quella stimata dalla funzione di
regressione (tratteggiata):
Figura 4.6.4
135
Si riportano i risultati dei principali indici statistici per le due distribuzioni (la prima riga
concerne il PVFP simulato, mentre la seconda quello previsto dalla funzione di
regressione)
Min.
PVFP
-50.420.000
PVFP FIT -11.540.000
1st Qu.
15.540.000
20.790.000
Median
Mean
3rd Qu.
27.650.000 24.760.000 35.230.000
26.630.000 24.760.000 29.930.000
Max.
56.570.000
43.910.000
Si nota subito che la distribuzione non assomiglia a nessuna tra quelle note: assomiglia al
risultato della somma di due distribuzioni distinte. Non disponendo di alcun parametro di
classificazione, non è certamente possibile approssimare tale distribuzione attraverso una
regressione lineare, che al più, come si costata dai dati riportati, approssima bene la
media. Le conclusioni tratte dall’analisi dei residui osservati in precedenza trovano
riscontro in quest’ultimo grafico: osservando le code delle due distribuzioni si nota subito
che quella ottenuta attraverso la funzione di regressione le ha molto più corte, producendo
l’effetto mostrato nei grafici dei residui esposti in precedenza.
Dopo diversi tentativi, si è provato a ri-simulare il portafoglio escludendo la garanzia. Si
riporta di seguito il grafico della distribuzione del PVFP (in nero, linea continua) e del
PVFP previsto dalla funzione di regressione (in blu, tratteggiato). Senza ulteriori
commenti, è chiaro quindi che la garanzia provoca la bimodalità osservata in precedenza.
Figura 4.6.5
136
La spiegazione più ragionevole a questo fenomeno è dovuta proprio alla particolare
combinazione tra l’opzione Cliquet presente nel portafoglio e gli scenari simulati dei titoli
azionari: nelle simulazioni in cui la garanzia “scatta” più frequentemente, la distribuzione
presenta un valore modale diverso da quelle in cui scatta di meno. Gli scenari dei titoli
azionari in questo esperimento, essendo più volatili, garantiscono mediamente un
rendimento superiore e quindi un PVFP più elevato (e con maggiore varianza). Allo stesso
tempo, il valore medio del PVFP negli scenari in cui scatta più frequentemente la garanzia
è nettamente diverso. Si può ragionevolmente ritenere, che nell’applicazione del capitolo
precedente, sussisteva lo stesso fenomeno, dove fortuitamente le medie delle due “sottodistribuzioni” non erano molto diverse, riducendo gli effetti di tale problema 49.
Si conclude affermando che il modello LSMC per il calcolo del requisito patrimoniale di
solvibilità, così come spiegato in letteratura, non è robusto.
Disponendo come regressori gli stress applicati ai fattori di rischio, è risultato di notevole
impegno provare a trovare una soluzione al problema. A seguire tre proposte.
4.6.2 Aggiunta di un regressore specifico per il
portafoglio
Come si è detto in precedenza, la bimodalità potrebbe essere causata dall’opzione Cliquet
in combinazione con particolari scenari dei titoli azionari; allora, inserire come variabile
esplicativa una grandezza collegata con l’opzione potrebbe risolvere il problema. In altre
parole, si dovrebbe ridefinire il modello LSMC assumendo tra le ipotesi la necessità di
disporre di variabili di stato che descrivano possibili dinamiche generate dal portafoglio e
non solamente degli stress applicati ai fattori di rischio.
Un ulteriore problema sorge proprio nella definizione di tale variabile: la garanzia può
scattare per ciascun anno del portafoglio. Si propone quindi di utilizzare la frequenza
relativa di scatti. In altre parole, si aggiunge al modello con p regressori, uno ulteriore 𝑥𝑝+1
definito come:
𝑥𝑝+1 =
∑𝑚
𝑖=1 𝕀𝑔𝑎𝑟𝑎𝑛𝑧𝑖𝑎 𝑑𝑖 𝑚𝑖𝑛𝑖𝑚𝑜 >𝜌𝑖
𝑚
(4.6.1)
Si riconosce che la spiegazione non è sufficiente e merita un dettaglio di approfondimento superiore. Si è
preferito, però, focalizzarsi su come rendere più robusto il LSMC.
49
137
Dove al numeratore si somma il numero di volte in cui la garanzia è maggiore del
rendimento, ed m è la durata del periodo di copertura.
Si riporta l’istogramma rappresentante la frequenza relativa degli scatti della garanzia e le
principali statistiche
Figura 4.6.6
Min.
1st Qu.
0.0000 0.1429
Median
0.3333
Mean 3rd Qu.
0.3512 0.5238
Max.
1.0000
Si osserva che nella maggior parte degli scenari, la garanzia non scatta. Condizionatamente
all’evento “la garanzia è scattata almeno una volta”, si riportano le principali statistiche
della distribuzione:
Min. 1st Qu. Median
Mean 3rd Qu.
Max.
0.02381 0.23810 0.38100 0.40490 0.54760 1.00000
La garanzia, condizionatamente al fatto che scatti almeno una volta, scatta poi con una
media del 40% durante il periodo di run-off, in altre parole mediamente otto anni sui venti
del periodo di copertura del portafoglio.
138
La variabile può essere vista sia come qualitativa che quantitativa. Per parsimonia del
modello, si sceglie di considerarla qualitativa, suddivisa in tre livelli:
1. “la garanzia non è mai scattata”;
2. “la garanzia è scattata con una frequenza compresa tra (0,0.5]”;
3. “la garanzia è scattata con una frequenza compresa tra (0.5,1]”.
Relativamente al modello di regressione descritto nel § 4.6.1, si procede inserendo la
nuova variabile. Si riporta il grafico dei residui studentizzati:
Figura 4.6.7
Il miglioramento è evidente, rispetto al modello descritto in § 4.6.1, ma sempre per valori
negativi, quelli che interessano di meno. Per comprendere meglio quale sia stato l’impatto
dell’inserimento della nuova variabile, si ripropone la tabella dei quantili mostrata in
precedenza con l’aggiunta dei valori relativi al nuovo modello.
139
quantile
50%
70%
80%
90%
95%
99%
99.5%
99.75%
dati sobol
4.921
6.797
14.579
24.912
33.913
51.848
58.817
64.894
mod. lin.
2.231
2.244
6.499
13.151
18.909
29.598
33.485
35.839
Δ %
55%
67%
55%
47%
44%
43%
43%
45%
6.620
10.142
15.307
20.560
31.163
35.283
3%
30%
39%
39%
40%
40%
mod. gar. - 510
Δ %
90%
RSS
corr
-
-
5,57E+18
28%
38.077
4,E+18
47%
41%
27%
Tabella 4.6.1
Scostamenti in %
80%
60%
40%
20%
0%
50%
70%
80%
90%
mod. lin.
95%
99%
99.5%
99.75%
mod. gar.
Figura 4.6.8
Il grafico sopra riporta i dati delle righe “Δ %”. Si può osservare che il modello che
contiene la variabile “frequenza di scatto della garanzia”, riesce a spiegare meglio il
fenomeno. La precisione aumenta ma non si raggiungono ancora i livelli sperati. Si osservi
però che l’indice di correlazione è passato da 28% a 47% e la somma del quadrato dei
residui è diminuita del 27%. Il miglioramento c’è quindi stato, ma non elevato quanto
sperato. E’ ragionevole affermare che modellando meglio la variabile esplicative
“frequenza di scatti” si possa migliorare ancora il modello: si potrebbe, ad esempio,
provare a pesare ogni scatto della garanzia con gli anni di differimento della stessa
dall’anno 0 di inizio della polizza.
4.6.3 Misture finite di funzioni di regressione
Il ragionamento fondamentale che ha condotto a questa seconda proposta è basato sul
problema di trovare una soluzione per gestire la bimodalità senza l’ausilio di variabili di
classificazione. La risposta è stata trovata nello strumento della statistica individuato
dalle misture finite di funzioni di regressione. In breve, tale strumento serve per studiare
140
situazioni in cui la popolazione campionaria è divisa in sottogruppi ma non è possibile
osservare a priori a quale gruppo appartiene un individuo. Nella letteratura, tale problema
è conosciuto come unsupervised clustering, e una delle possibili soluzioni è proposta
utilizzando proprio le misture finite di funzioni di regressione, che si basa a sua volta sul
concetto conosciuto come model based clustering. L’ipotesi alla base del modello è che i
sottogruppi si distribuiscono in accordo ad una specifica legge di probabilità – spesso la
normale multivariata.
In accordo con la simbologia usata da (Benaglia, Chauveau, Hunter, & Young, 2009) 50 che a
sua volta fa riferimento all’opera di (McLachalan & Peel, 2000) 51 Si supponga, allora, che il
campione di vettori aleatori X 1 , …, X n segua una legge definita da una mistura di m > 1
leggi arbitrarie. La distribuzione di probabilità del generico X i è :
𝑚
𝑔𝜽 (𝒙𝑖 ) = � 𝜆𝑗 𝜙𝑗 (𝒙𝑖 ), 𝒙𝑖 ∈ ℝ𝑟
𝑗=1
(4.6.2)
Dove θ = (λ,ϕ) = (λ 1 , …, λ m , ϕ 1 , …, ϕ m ) denota le distribuzioni (ϕ i ) e i misturanti (λ i ). Si
ipotizza che il generico ϕ j appartenga a qualche famiglia di distribuzioni ℱ assolutamente
continue rispetto a qualche misura, ad esempio quella di Lebesgue. La rappresentazione
𝑔𝜽 (𝒙𝑖 ) non è identificabile 52 senza applicare restrizioni su ℱ. Si dirà, inoltre, che la mistura
è parametrica se ℱ è una famiglia parametrica, ℱ = {ϕ(∙|ξ), ξ ∈ ℝd}, parametrizzata dal
parametro ξ. Una famiglia parametrica comunemente usata è quella gaussiana ℱ =
{ϕ(∙|μ,σ2) = densità di 𝒩(μ, σ2), (μ, σ2) ∈ ℝ × ℝ++}, in questo caso il parametro θ diventa
(λ, (μ 1 , σ 1 2), …, (μ n , σ n 2)). Si ipotizzi ora che X i sia un vettore di covariate con associata una
variabile risposta Y i . Attraverso la mistura di regressioni è possibile descrivere la
distribuzione di Y i | X i .
Si considerino n osservazioni indipendenti, 𝑦1 , … , 𝑦𝑛 , ognuna con il corrispondente vettore
′
di predittori 𝒙𝟏 , … , 𝒙𝒏 , con 𝒙𝑖 = �𝑥𝑖,1 , … , 𝑥𝑖,𝑝 � per i = 1, …, n. È possibile fissare 𝑥𝑖,1 = 1
per inserire il termine d’intercetta nel modello. Sia 𝒚 = (𝒚𝟏 , … , 𝒚𝒏 )′ e X la matrice di
disegno sperimentale n × p.
Si supponga che ogni osservazione (𝑦𝑖 , 𝒙𝒊 ) sia descritta da una delle m leggi, detto
altrimenti che appartenga ad uno degli m sottogruppi in cui è divisa la popolazione.
Per i comandi in R, fare riferimento a questa pubblicazione.
Si suggerisce di consultare questo libro per un dettaglio approfondito sulle misture finite di funzioni di
regressione.
52 Col termine “identificabile” si intende che 𝑔 ha un’unica rappresentazione.
𝜽
50
51
141
Condizionalmente all’appartenenza al j-simo sottogruppo, e quindi alla j-sima legge di
probabilità, la relazione tra 𝑦𝑖 ed 𝒙𝑖 è data dal modello lineare:
𝑦𝑖 = 𝒙′𝑖 𝜷𝑗 + 𝜖𝑖
(4.6.3)
Dove 𝜖𝑖 ~ 𝒩(0, 𝜎𝑗2 ) e 𝜷𝑗 e 𝜎𝑗2 sono rispettivamente il vettore p-dimensionale dei
coefficienti di regressione e la varianza dell’errore per la j-sima componente.
In accordo con la struttura a mistura, la densità condizionata 𝑦𝑖 |𝒙𝒊 è:
𝑚
𝑔𝜃 (𝑦𝑖 |𝒙𝒊 ) = � 𝜆𝑗 𝜙�𝑦𝑖 |𝒙′𝑖 𝜷𝑗 , 𝜎𝑗2 �
𝑗=1
(4.6.4)
Dove 𝜙�∙ |𝒙′𝑖 𝜷𝑗 , 𝜎𝑗2 � è una densità normale con media 𝒙′𝑖 𝜷𝑗 e varianza 𝜎𝑗2 . La mistura
appena presentata differisce dal più conosciuto modello di misture di normali multivariate
(𝑌𝑖 , 𝑿′𝑖 )′~ ∑𝑚
𝑗=1 𝜆𝑗 𝒩𝑝+1 �𝝁𝑗 , Σ𝑗 � , in quanto non si pone alcuna ipotesi riguardante la
distribuzione marginale 𝑿𝑖 , mentre nel secondo caso questa ha distribuzione mistura di
normali multivariate.
4.6.3.1 Stima dei parametri attraverso l’algoritmo EM per misture
finite
L’impostazione più utilizzata per stimare i parametri della mistura consiste nel vedere la
mistura stessa come un caso particolare di stima di massima verosimiglianza quando le
osservazioni sono incomplete. Tale impostazione comporta il dover considerare due spazi
campionari, lo spazio delle osservazioni incomplete e quello in cui queste sono complete;
l’ultimo spazio deve essere caratterizzato in maniera tale che la stima dei parametri è
possibile considerando i dati da esso ottenibili.
Si consideri il vettore delle n osservazioni incompleto i.i.d. 𝒙 = (𝒙𝟏 , … , 𝒙𝒏 ) determinazioni
di una legge 𝑔𝜽 (𝒙𝑖 ) in linea con l’equazione (4.6.2). Sia 𝐠 𝜽 il prodotto delle n leggi 𝑔𝜽 ,
allora 𝒙 ~𝐠 𝜽 . Nell’impostazione con i dati incompleti, 𝐠 𝜽 è chiamato incomplete-data
density, e la log-verosimiglianza associata è ℓ𝒙 (𝜽) = ∑𝑛𝑖=1 log 𝑔𝜽 (𝑥𝑖 ). Il problema della
� 𝑥 = 𝑎𝑟𝑔𝑚𝑎𝑥𝜃∈Φ ℓ𝑥 (𝜽), o almeno
stima di massima verosimiglianza consiste nel trovare 𝜽
� 𝑥 , anche per un modello parametrico di misture finite è un
un massimo locale. Calcolare 𝜽
problema molto complesso, considerando che 𝒙 è un vettore di dati incompleti la
complessità aumenta ulteriormente.
142
Sia 𝒄 = (𝒄𝟏 , … , 𝒄𝒏 ) il vettore di determinazioni proveniente dallo spazio campionario
completo, con legge di densità 𝒉𝜽 (𝒄) = ∏𝑛𝑖=1 ℎ𝜽 (𝒄𝑖 ). Si noti che c’è una relazione molti-a-
uno tra c e x, rappresentante la perdita d’informazione. Nel modello con dati completi
associato al (4.6.2), sia 𝑪𝑖 = (𝑿𝑖 , 𝒁𝑖 ) un vettore aleatorio, dove 𝒁𝑖 = (𝑍𝑖𝑗 , 𝑗 = 1, … , 𝑚) e
𝑍𝑖𝑗 ∈ {0,1} è una variabile bernulliana indicatrice del fatto che la determinazione i
proviene dalla legge j. Considerando che ciascuna determinazione proviene solamente da
una legge j, la somma delle bernoulliane è 1, e
𝑃�𝑍𝑖𝑗 = 1� = 𝜆𝑗 ,
�𝑿𝒊 �𝑍𝑖𝑗 = 1�~𝜙𝑗 , 𝑗 = 1, … , 𝑚
La densità relativa al campione con dati completi è quindi
𝑚
ℎ𝜽 (𝒄𝑖 ) = ℎ𝜽 (𝒙𝑖 , 𝒛𝑖 ) = � 𝕀𝒛𝑖𝑗 𝜆𝑗 𝜙𝑗 (𝒙𝑖 ), 𝒙𝑖 ∈ ℝ𝑟
𝑗=1
(4.6.5)
(4.6.6)
La stima di massima verosimiglianza in questo caso non è risolvibile analiticamente, si
usano quindi degli algoritmi iterativi. In questa tesi è stato utilizzato l’algoritmo EM (ed
implementato nell’applicazione R attraverso la libreria mixtools). Tale algoritmo, al posto
di massimizzare la verosimiglianza ℓ𝑥 (𝜽) , massimizza iterativamente l’operatore
𝑄�𝜽�𝜽(𝑡) � = 𝐸��𝑙𝑜𝑔𝒉𝜽 (𝑪)�𝑥, 𝜽(𝑡) ��
(4.6.7)
Dove 𝜽(𝑡) è il valore calcolato all’iterazione t-sima, e la speranza matematica è fatta
rispetto alla distribuzione 𝒌𝜽 (𝒄|𝒙) di c dato x. L’iterazione 𝜽(𝑡) → 𝜽(𝑡+1) è data da
1. E-step: calcolo di 𝑄�𝜽�𝜽(𝑡) �
2. M-step: calcolo di 𝜽(𝑡+1) = 𝑎𝑟𝑔𝑚𝑎𝑥𝜃∈Φ 𝑄�𝜽�𝜽(𝑡) �
Per modelli mistura, il E-step non dipendete dalla struttura di ℱ , in quanto la parte di dati
mancanti è relativa solamente a z:
𝑛
𝒌𝜽 (𝒄|𝒙) = �
𝑘𝜽 (𝒛𝑖 |𝒙𝑖 )
𝑖=1
(4.6.8)
I vettori z sono discreti e la loro distribuzione è data via teorema di Bayes. Il M-step di per
sé può essere separato in due parti, dove nella prima si massimizza λ e non si ha
dipendenza da ℱ, e nella seconda si massimizza 𝜙, che può essere trattato (semi-)
parametricamente o non a seconda di ℱ .
143
Il E-step si concretizza attraverso l’utilizzo delle probabilità a posteriori, condizionalmente
alle osservazioni e a 𝜽(𝑡) , dell’inclusione della legge j-sima:
(𝑡)
𝑝𝑖𝑗
(𝑡) (𝑡)
𝜆𝑗 𝜙𝑗 (𝒙𝑖 )
= 𝑃𝜽(𝑡) �𝑍𝑖𝑗 = 1�𝒙𝑖 � =
(𝑡) (𝑡)
∑𝑚
𝑗 ′ =1 𝜆𝑗 ′ 𝜙𝑗 ′ (𝒙𝑖 )
Per i = 1, …, n e j = 1, …, m.
(4.6.9)
Solitamente l’espressione (4.6.9) è riscritta in maniera equivalente ma più compatibile per
essere implementata come algoritmo.
(𝑡)
𝑝𝑖𝑗
= �1 + �
(𝑡) (𝑡)
𝜆𝑗 ′ 𝜙𝑗 ′ (𝒙𝑖 )
(𝑡) (𝑡)
𝜆 𝜙𝑗 (𝒙𝑖 )
𝑗 ′ ≠𝑗 𝑗
Passando al problema di regressione, diventa:
(𝒕)
𝒑𝒊𝒋 = �1 + �
(𝑡+1)
𝜆𝑗
(𝑡)
Definito con 𝑾𝑗
dato da
e
(𝑡)
𝜆𝑗 ′ 𝜙𝑗 ′ �𝒙′𝑖 𝜷𝑗′ �
(𝑡)
(𝑡)
𝜆 𝜙𝑗 �𝒙′𝑖 𝜷𝑗 , 𝜎𝑗2 �
𝑗 ′ ≠𝑗 𝑗
Il M-step per λ si concretizza in
Per j = 1, …, m.
(𝑡)
�
−1
(𝑡)
(4.6.10)
�
−1
𝑚
1
(𝑡)
= � 𝑝𝑖𝑗
𝑛 ′
(4.6.11)
(4.6.12)
𝑗 =1
(𝑡)
= 𝑑𝑖𝑎𝑔(𝑝1𝑗 , … , 𝑝𝑛𝑗 ), l’aggiornamento del M-step in relazione a β e σ è
(𝑡+1)
𝜷𝑗
2(𝑡+1)
𝜎𝑗
(𝑡)
= �𝑿′ 𝑾𝑗 𝑿�
=
1
2(𝑡)
�𝑾𝑗 (𝒚
−1
−
(𝒕)
(4.6.13)
𝑿′𝑾𝒋 𝒚
(𝑡+1)
𝑿 ′ 𝜷𝑗
)�
(𝑡)
𝑡𝑟 �𝑾𝑗 �
2
(4.6.14)
144
Dove ‖𝑨‖2 = 𝑨′𝑨 e tr(A) è la traccia di A. Si osservi che (4.6.13) è una stima WLS di 𝜷𝑗 e la
(4.6.14) ricorda la stima della varianza utilizzata nel WLS.
4.6.3.2 Applicazione del modello
La proposta di questa tesi è di implementare la metodologia appena descritta nel quadro
generale, individuando questo nuovo particolare modello come mixed-LSMC.
Come
accennato in precedenza, l’implementazione è avvenuta attraverso il pacchetto statistico R
congiuntamente alla libreria mixtools.
Considerando il modello di regressione descritto dal § 4.6.1, così come lo stesso
portafoglio e le stesso insieme di simulazioni, si procede utilizzando la stessa
impostazione per il vettore delle variabili esplicative 𝒙 e fissando due misturanti λ 1 e λ 2 . Si
ipotizza quindi che le simulazioni effettuate appartengano a due sottogruppi e quindi
seguano due leggi normali diverse. Prima di procedere con la regressione, attraverso il
pacchetto mixtools è possibile vedere quali sono le due distribuzioni individuate
attraverso la procedura EM:
Figura 4.6.9
Si riporta la stima dei parametri:
comp 1
lambda 2.33780e-01
mu
6.21124e+06
sigma 1.38287e+07
comp 2
7.66220e-01
3.04192e+07
6.53453e+06
145
loglik at estimate:
-445932.3
Si può affermare che la congettura posta nel § 4.6.1 può trovare un fondamento attraverso
questa analisi. Si può infatti interpretare la legge normale ϕ 1 individuata dalla colonna
“comp 1” come quella appartenente alle simulazioni provenienti dal sotto-spazio
campionario in cui la garanzia è scatta più spesso e quindi il PVFP è risultato inferiore. La
probabilità che una simulazione appartenga a tale sotto-campione è pari al parametro
lambda. Nel sotto-spazio campionario in cui la garanzia è scattata di meno, portando ad
un PVFP medio maggiore, le determinazioni che vi appartengono seguono una legge
normale descritta dalla colonna “comp 2”, con relativa probabilità di appartenenza.
Si procede allora con la regressione mistura, ottenendo i seguenti risultati:
summary of regmixEM object:
comp 1
comp 2
lambda 2.33780e-01 7.66220e-01
sigma
1.38287e+07 6.53453e+06
beta1
1.70464e+07 3.50871e+07
…
…
beta2
3.60796e+06 1.48522e+06
beta40 5.21038e+06 -5.52959e+06
loglik at estimate: -44521.3
Si riporta l’analisi del grafico dei residui, da comparare con il grafico in Figura 4.6.3
Figura 4.6.10 Grafico (PVFP stimato, residuo) utilizzando un modello mistura di regressioni, con due
misturanti. La linea rossa rappresenta il 99.5-simo percentile.
146
Si osservi che ci sono meno punti in quanto è stato preso un sotto-campione casuale di
2.500 valori tra 25.000 possibili. Si è proceduto con tale scelta in quanto, in sede di
applicazione di esercizio, effettuare l’esperimento con tutti i dati è risultato
particolarmente oneroso in termini di tempo. La numerosità del sotto-campione è stata
scelta cercando quella minima che avesse gli stessi (o molto simili) valori dei quantili
principali della distribuzione empirica dei dati di partenza.
Si osserva che i valori negativi della ℒ sono quelli a cui il modello si adatta meglio: in realtà
è il lato della distribuzione empirica a cui si è meno interessati. Si conclude affermando
che se si disponesse di maggior sensibilità nel configurare la regressione mistura, si
potrebbe “imporre” di fittare meglio i valori positivi , ottenendo presumibilmente un
grafico speculare a quello appena mostrato. Purtroppo la libreria messa a disposizione in
R non permette di eseguire questo tipo di configurazione.
L’esercizio è stato eseguito ancora una volta con tre misturanti. Si riportano di seguito i
risultati dei quantili principali della ℒ. Si è scelto di confrontare solo i quantili superiori al
50-simo, in quanto è ai quantili elevati che si cerca la precisione. I valori sono espressi in
migliaia di euro. La prima riga “dati sobol”, rappresenta i valori osservati della
distribuzione empirica dei PVFP, generati secondo la legge di Sobol, ed utilizzati come
variabile risposta nei vari modelli di regressione. Le righe Δ %, rappresentano lo
scostamento, in percentuale, tra il valore presente in “dati sobol” e quello stimato dal
modello.
quantile
50%
70%
80%
90%
95%
99%
99.5%
99.75%
RSS
ρ
dati sobol
4.921
6.797
14.579
24.912
33.913
51.848
58.817
64.894
mod. lin.
2.231
2.244
6.499
13.151
18.909
29.598
33.485
35.839 5,57E+18 28% 24.925
Δ%
55%
67%
55%
47%
44%
43%
43%
mix 2 regr
1.118
5.879
8.690
13.967
19.806
31.663
36.921
Δ%
123%
14%
40%
44%
42%
39%
37%
mix 3 regr
1.345
6.010
9.118
14.215
20.281
32.193
37.951
Δ%
127%
12%
37%
43%
40%
38%
35%
-
DF
-
-
45%
40.745 3,69E+17 73% 24.914
37%
93,38%
42.389 3,56E+17 74% 24.871
35%
93,62%
Tabella 4.6.2
147
Scostamenti in %
120%
100%
80%
60%
40%
20%
0%
50%
70%
80%
90%
mod lin
mix 2 reg
95%
99%
99.5%
99.75%
mix 3 reg
Figura 4.6.11
Il grafico sopra riporta i valori presenti nelle righe Δ %. Si osserva che il modello lineare si
comporta bene solo per il 50-simo percentile, offrendo uno scostamento pari alla metà
degli altri modelli. Il comportamento è ragionevole se si pensa che il modello lineare è
fondato sul concetto di spiegare meglio possibile i valori medi. Al crescere dei percentili i
modelli mistura risultano essere mediamente più precisi di quello lineare. Si osserva che il
passaggio da due a tre misturanti non porta considerevoli vantaggi.
Si osservi inoltre l’indice di correlazione riportato nella tabella sopra: aumenta
drasticamente passando dal 28% del modello lineare al 73% dei modelli mistura. Il fatto
si spiega osservando il grafico dei residui riportato in precedenza: per valori negativi, e
quindi per quantili inferiori al 50-simo l’adattamento del modello mistura è ottimale.
Si conclude osservando che il processo di stima dei parametri è risultato particolarmente
oneroso in termini di tempo, osservando un impegno computazionale esponenziale
all’aumentare del numero delle componenti della misturante λ .
Il procedimento mixed-LSMC potrebbe essere la soluzione alla valutazione del SCR per
portafogli specifici del ramo vita, il beneficio portato dal suo utilizzo deve essere valutato
di volta in volta, rapportandolo al costo in termini di tempo.
148
4.6.4 Regressione quantile
Si propone una terza ed ultima possibile soluzione, basata sul concetto di regressione
quantile. In breve, mentre il metodo dei minimi quadrati ha come obiettivo quello di
approssimare la speranza matematica condizionata della variabile risposta, la regressione
quantile è focalizzata sull’approssimazione di un determinato quantile (condizionato alle
determinazioni osservate delle variabili esplicative).
Ci si ponga nell’ottica che risulta di primario interesse solamente la coda della
distribuzione, ad esempio dal 90-simo percentile della ℒ, o, specularmente, sotto il 10-mo
percentile della distribuzione del PVFP. E’ proprio il caso del risk management
assicurativo: in tal contesto, la necessità di conoscere l’intera distribuzione è marginale,
quando invece avere dati molto precisi dal 90-simo percentile della ℒ è di fondamentale
importanza.
L’impianto matematico della regressione quantile è molto diverso da quella ai minimi
quadrati. Quest’ultimo, ad esempio, può essere ridotto ad un problema di algebra lineare,
quando invece la regressione quantile conduce a problemi di programmazione lineare, che
possono essere risolti attraverso l’approccio simplex.
Si riporta, brevemente, l’impianto matematico sottostante alla regressione quantile in
linea con la pubblicazione di (Koenker & Hallock, 2001). Sia Y un numero aleatorio, con
funzione di ripartizione 𝐹𝑌 (𝑦) = 𝑃(𝑌 ≤ 𝑦) . Allora il τ-simo quantile di Y è dato da:
𝑄𝑌 (𝜏) = 𝐹 −1 (𝜏) = inf{𝑦: 𝐹𝑌 (𝑦) ≥ 𝜏} 𝜏 ∈ [0,1]
Sia data la funzione danno 𝜌𝜏 (𝑦) = 𝑦(𝜏 − 𝐼(𝑦<0) )
(4.6.15)
149
Figura 4.6.12 Rappresentazione grafica della funzione danno
Allora un quantile specifico può essere trovato minimizzando la perdita attesa di Y – u
rispetto a u:
min𝑢 𝐸(𝜌𝜏 (𝑌 − 𝑢))
𝑢)𝑑𝐹𝑌 (𝑦)
=
𝑢
∞
min𝑢 (𝜏 − 1) ∫−∞(𝑦 − 𝑢)𝑑𝐹𝑌 (𝑦) + 𝜏 ∫𝑢 (𝑦 −
(4.6.16)
Fissando a 0 la perdita attesa, e identificando la soluzione con 𝑞𝜏 di
0 = (1 − 𝜏) �
l’equazione si riduce a:
e quindi
𝑞𝜏
−∞
∞
𝑑𝐹𝑌 (𝑦) − 𝜏 � 𝑑𝐹𝑌 (𝑦)
𝑞𝜏
(4.6.17)
0 = 𝐹𝑌 (𝑞𝜏 ) − 𝜏
(4.6.18)
𝐹𝑌 (𝑞𝜏 ) = 𝜏
(4.6.19)
Allora 𝑞𝜏 è il quantile τ –simo della v.a. Y.
Si supponga, ora, che la funzione del τ-simo quantile di Y condizionato all’osservazione
delle variabili esplicative, raccolte nella matrice X sia 𝑄𝑌|𝑋 (𝜏) = 𝑋𝛽𝜏 . Se Y ammette densità,
𝛽𝜏 può essere ottenuto risolvendo:
150
𝛽𝜏 = 𝑎𝑟𝑔 min𝑘 𝐸(𝜌𝜏 (𝑌 − 𝑋𝛽))
(4.6.20)
𝛽∈𝑅
Allora, dato un campione di n osservazioni, lo stimatore di 𝛽 è:
𝑛
𝛽̂𝜏 = 𝑎𝑟𝑔 min𝑘 �(𝜌𝜏 (𝑌 − 𝑋𝛽))
𝛽∈𝑅
(4.6.21)
𝑖=𝑛
Il problema di minimizzazione, come accennato in precedenza viene risolto attraverso la
programmazione lineare. L’applicazione del metodo è stata realizzata attraverso il
pacchetto quantreg di R.
Data la ℒ , si sceglie di procedere con una regressione quantile con τ = 0.9: si vuole infatti
avere maggiore precisione attorno al 90-quantile, piuttosto che al valor medio.
Restando nell’ottica del problema descritto in § 4.6.1, ed utilizzando la stessa funzione di
regressione, si procede con l’analisi. In questo caso sarebbe fuorviante riportare il grafico
dei residui, in quanto qui si cerca la precisione al 90-quantile, accettando un cattivo
adattamento ai quantili più bassi. Si riporta la tabella dei valori dei quantili calcolati con il
modello, e confrontati con quelli del modello lineare.
quantile
50%
70%
80%
90%
95%
99%
99.5%
99.75%
dati sobol
4.921
mod. lin.
2.231
6.797
14.579
24.912
33.913
51.848
58.817
64.894
2.244
6.499
13.151
18.909
29.598
33.485
35.839
Δ %
55%
67%
55%
47%
44%
43%
43%
45%
mod. quant. 19.060
26.163
30.775
37.492
43.398
56.593
61.829
66.761
50%
28%
9%
5%
3%
Δ %
487%
285%
111%
Tabella 4.6.3
Scostamenti in %
487%
387%
287%
187%
87%
-13%
50%
70%
80%
90%
mod. lin
95%
99%
99.5%
99.75%
mod. quant
Figura 4.6.13
151
Si osserva che il modello “quantile” si adatta perfettamente ai dati presenti sulla coda,
sbagliando totalmente i calcoli per i quantili inferiori al 90-simo. Si osserva meglio il
fenomeno confrontando la distribuzione di densità empirica delle variabili risposta con
quella dei valori previsti dal modello di regressione quantile.
Figura 4.6.14
La distribuzione empirica dei valori previsti dalla regressione quantile (in blu) è
totalmente disallineata da quella rossa (che rappresenta la distribuzione empirica della
variabile risposta), il comportamento sulla coda risulta invece molto preciso: il dettaglio
sotto conferma il fatto; la linea tratteggiata rappresenta il 99-simo percentile della
distribuzione empirica delle variabili risposta.
Figura 4.6.15
152
Adottare questo modello, comporterebbe la rinuncia di avere a disposizione l’intera
distribuzione empirica della ℒ. Se da un lato, si compromette totalmente il modello LSMC,
dall’altro essa risulta un’ottima soluzione nei casi particolari, come quello alla base di
questo modello. Ai fini del risk management è importante conoscere il comportamento
della coda della distribuzione della perdita ℒ, ed importa relativamente poco il
comportamento sotto il 90-simo percentile. Se si considera, poi, che una polizza vita con
opzione Cliquet è abbastanza comune nella realtà, il modello qui proposto potrebbe essere
una valida soluzione ai fini pratici.
153
5 Conclusioni
Nel primo capitolo si è messa in discussione la standard formula, quando questa viene
applicata ad un business vita. Nello specifico, si è osservato che dinamiche non lineari e
non normali dei rischi non sono compatibili con il modello Delta-Normal di Garbade,
modello su cui la standard formula è basata. Senza passare ad altre formule analitiche, si è
deciso di cercare una soluzione accogliendo un approccio stocastico: la maggior parte delle
compagnie assicurative, se decide di passare ad un modello interno, lo fa adottando tale
approccio. Nel secondo capitolo si è quindi proceduto con un’analisi di tale approccio in
ottica Solvency II, scoprendo che la tematica è estremamente recente ed una “soluzione
universale” non è stata ancora trovata. In questo contesto, la letteratura più recente ha
proposto il modello LSMC come il modello migliore. Nel terzo capitolo, quindi, si è
analizzando il modello in maniera approfondita capendone le dinamiche sottostanti.
Nell’ultimo capitolo si è applicato il modello ad un portafoglio reale, trovando una
conferma della sottostima del requisito di capitale, se calcolato secondo la standard
formula, e individuando nel metodo LSMC una valida alternativa, facilmente
implementabile in un modello interno di una compagnia di assicurazioni vita. Si è poi
andati oltre quanto la letteratura offre, scoprendo che polizze vita con opzione implicita di
tipo Cliquet sono difficilmente modellabili da un modello LSMC, offrendo quindi alcune
possibili soluzioni al problema. Si conclude affermando che il modello LSMC, nonostante
risulti il migliore tra quelli attualmente a disposizione, necessita di alcune migliorie per
diventare più robusto, ed in questa tesi sono stati offerti alcuni spunti a riguardo.
Si vuole fornire un’ultima precisazione, ritenuta implicita in tutta la tesi e che, ora, per
completezza si preferisce chiarire: la sottostima del requisito di capitale non è un
vantaggio per la compagnia. Nel QIS 5 è stata proposta una soluzione per la gestione delle
154
dinamiche non lineari, consistente nel SES (single equivalent scenario) 53 , che,
indicativamente, forniva un aggiustamento al SCR ottenuto dalla standard formula per
tenere in considerazione tali dinamiche. Il sistema è stato ritenuto troppo complesso e
quindi rimosso nei successivi aggiornamenti del QIS. Gli istituti di vigilanza sono,
ovviamente, al corrente e sicuramente valuteranno gli sforzi profusi dalle compagnie nei
confronti di questo problema. In altre parole, è molto probabile che se una compagnia vita
adotta la standard formula senza fornire alcuna proposta per la gestione della non
linearità dei rischi, subirà l’allocazione di un capital add-on. Non si interpreti, quindi,
erroneamente, il modello LSMC come un modello che “sovrastima” il SCR, bensì come un
modello che lo stima in maniera più aderente alla realtà.
53
Si veda il QIS 5 per ulteriori dettagli.
155
Appendice - Generazione di
variabili pseudocasuali
La normale procedura di generazione di variabili pseudocasuali parte dal campionamento
della variabile con distribuzione uniforme nell’intervallo [0,1], indicata con U(0,1). E’
possibile ottenere una qualsiasi distribuzione (o quasi) a partire dalle osservazioni della
uniforme summenzionata. La maggior parte dei linguaggi di programmazione fornisce la
possibilità di campionare da una U(0,1). Tali numeri sono solitamente prodotti attraverso
l’algoritmo ricorsivo denominato generatore lineare di congruenza (Linear Congruential
Generator LCG). Il generico valore della successione di numeri pseudocasuali X n è dato da:
dove:
𝑋𝑛 = (𝛼𝑋𝑛−1 + 𝑐)𝑚𝑜𝑑(𝑚)
-
m, 0 < m, il modulo
α , 0 ≤ α < m, il moltiplicatore
c, 0 ≤ c < m, l’incremento
X 0 , 0 ≤ X 0 ≤ m il valore iniziale, detto seme (seed)
La qualità dei numeri generati è strettamente legata alla scelta dei parametri iniziali m, α,
c, X 0 . I generatori LCG sono periodici e possono generare al più m numeri interi.
La necessità di generare numeri pseudocasuali provenienti da una distribuzione diversa
da quella uniforme è soddisfatta, solitamente, utilizzando il cosiddetto metodo di
inversione. In breve: se si vuole campionare da una distribuzione di probabilità avente
funzione di ripartizione F(x) = P[X ≤ x] e questa è invertibile, allora si può applicare il
metodo di inversione. Quindi:
156
𝑃[𝑋 ≤ 𝑥 ] = 𝑃[𝐹 −1 (𝑈) ≤ 𝑥 ] = 𝑃[𝑈 ≤ 𝐹(𝑥)] = 𝐹(𝑥)
Con U, la variabile aleatoria uniformemente distribuita, le cui determinazioni sono
generate via tecnica LCG.
Esistono diverse altre tecniche, come il metodo del rigetto, utilizzato quando la funzione di
ripartizione è di difficile inversione, oppure altri algoritmi ben conosciuti, come quello di
Box-Muller per la generazione di variabili normali.
E’ doveroso fare un’importante precisazione: alla base della generazione degli scenari di
Monte Carlo, non viene utilizzata la tecnica appena descritta, in quanto, i numeri casuali
generati via LCG soffrono di un certo grado di correlazione, nonché di diversi altri
problemi. L’algoritmo realmente utilizzato è il WELL (Well equidistributed long-period
linear) del 2006, basato a sua volta su quello di Mersenne twister, sviluppato nel 1997 da
Makoto Matsumoto e Takuji Nishimura; questo risulta essere molto più robusto del LCG.
L’esposizione di tale algoritmo, comporterebbe l’introduzione di concetti che non
rientrano tra quelli richiesti per la lettura della tesi; si è preferito, quindi, fornire l’idea
sottostante alla generazione dei numeri pseudocasuali, lasciando i dovuti riferimenti
bibliografici nel caso si volesse approfondire l’argomento.
Si fa riferimento quindi all’opera di L'Ecuyer, Pierre; Panneton, François; Matsumoto,
Makoto (2006), Improved Long-Period Generators Based on Linear Recurrences, per
quanto riguarda l’algoritmo WELL.
Per l’algoritmo di Mersenne Twister si faccia riferimento a Matsumoto, M.; Nishimura, T.
(1998): Mersenne twister: a 623-dimensionally equidistributed uniform pseudo-random
number generator, ACM Transactions on Modeling and Computer Simulation 8 (1): 3–30.
157
Bibliografia
Albrecher, H., Schoutens, W., & Tistaert, J. (2006, Gennaio). The Little Heston Trap.
Willmott Magazine, p. 83-92.
Bauer, D., Bergmann, D., & Reuss, A. (2010, January). Solvency II and Nested Simulations -
a Least-Squares Monte Carlo Approach. Tratto da http://www.ressources-
actuarielles.net/EXT/ISFA/1226.nsf/0/3690458b48d11a78c12579ae00695536/$
FILE/93_final%20paper_Bauer,%20et%20al.pdf
Bauer, D., Kiesel, R., Kling, A., & Russ, J. (2006). Risk-neutral valuation of participating life
insurance contracts. Insurance: Mathematics and Economics, 39:171-183.
Beak, S., Kraman, F., & Ahn, H. (2005). Variable selection for heteroschedastic data through
variance estimation. Communications in Statistics - Simulation and Computation,
34:567-583.
Benaglia, T., Chauveau, D., Hunter, D., & Young, D. (2009, Ottobre). mixtool: An R Package
for Analyzing Finite Mixture Models. Tratto da Journal of Statistical Software:
www.jstatsoft.org
Cardi G., G., & Rusnak, R. (2007, Dicembre 15). When the SST Standard Model
Underestimates Market Risk.
CFO Forum. (2009, October). Market Consistent Embedded Value Principles. Retrieved
from CFO Forum: http://www.cfoforum.nl/embedded_value.html
Commissione Europea & EIOPA. (2010). QIS5 Technical Specifications.
158
Commissione Europea. (2009). Official Journal of the European Union. Directive
2009/138/EC of the European Parliament and of the Council.
Fahrmeir, L., Kneib, T., & S., L. (2007). Regression. Springer Verlang.
Glasserman, P. (2004). Monte Carlo Methods in Finance Engineering. Ney York: Sprninger.
Gordy, M. B., & Juneja, S. (2008). Nested Simulation in Portfolio Risk Measurement.
Heston, S. (1993). A Closed-Form Solution for Options with Stochastic Volatility with
Applications to Bond and Currency Option. The Review of Financial Studies, p. 327-
343.
Institute and Faculty of Actuaries. (2012, Juny 28). Solvency II - Life Insurance. Tratto da
The
Actuarial
Profession:
http://www.actuaries.org.uk/research-and-
resources/documents/solvency-ii-life-insurance
Kling, A., Richter, A., & J., R. (2007). The interaction of guarantees, surplus distribution, and
asset allocation in with profit life insurance policies. Insurance: Mathematics and
Economics, p. 40:164-178.
Koenker, R., & Hallock, K. F. (2001). Quantile regression introduction. Journal of Economic
Perspectives.
Kolman, J., Onak, M., Jorion, P., Taleb, N., Derman, E., Putnam, B., et al. (1998). Roundtable:
The Limits of Models. Derivatives Strategy.
Koursaris, A. (2011). A primer in replicating portfolios. Tratto da barrie+hibbert:
www.barhibb.com
Kousaris, A. (2011, June). Calculating the Solvency Capital Requirement. Retrieved from
barrie+hibbert:
http://www.barrhibb.com/research_and_insights/article/calculating_the_solvenc
y_capital_requirement
Kousaris, A. (2011, July). Calculating the Solvency Capital Requirement. Retrieved from
barrie+hibbert: http://www.barrhibb.com/
Kousaris, A. (2011, Luglio). Improving capital approximation using the curve-fitting
approach. Tratto da http://www.barrhibb.com/
159
Kousaris, A. (2011, Luglio). Research & insights - The advantages of Least Squares Monte
Carlo.
Retrieved
www.barrhibb.com
from
barrie+hibbert:
A
Moody's
Analytics
Company:
KPMG. (2010). Verso Solvency II.
Longstaff, F., & Schwartz, E. (2001). Valuing American options by simulation: A simple
least-squares approach. The review of Financial Studies, pp. 14:113-147.
McLachalan, G. J., & Peel, D. (2000). Finite Mixture Models. John Wiley & Sons.
Morrison, S. (2009). Nested Simulation for Economic Capital. Retrieved from
barrie+hibbert: www.barrhibb.com
Pitacco, E., & Olivieri, A. (2005). La valutazione nelle assicurazioni vita, Profili Attuariali.
Egea.
Pitacco, E., & Olivieri, A. (2011). Introduction to Insurance Mathematics, Technical and
Financial Features of Risk Transfers. Springer.
Rasmussen, N. S. (2002). Improving the Least-Squares Monte-Carlo Approach. Aarhus.
Taleb, N. N. (2007). The Black Swan: The Impact of the Highly Improbable. New York:
Random House.
Value at Risk. (s.d.). Tratto da Wikipedia: http://en.wikipedia.org/wiki/Value_at_risk
Willmot, P. (2006). Paul Wilmott on quantitative finance (2nd ed.).
Zaglauer, K., & Bauer, D. (2008). Risk-neutral valuation of participating life insurance
contracts in a stochastic interest rate environment. Insurance: Mathematics and
Economics, 43:29-40.
160
Ringraziamenti
Ringrazio il dott. Stefano Ferri, grazie al quale, non solo è nata questa tesi, ma si è
concretizzato un intero scenario, inaspettato, della mia vita. Ringrazio perciò le
Assicurazioni Generali S.p.A., in particolare Simone Querzoni che mi ha permesso di
sviluppare una tesi ad alto contenuto sperimentale e ha fornito, pazientemente, supporto
ad ogni mio dubbio e richiesta. Ringrazio in generale il dipartimento di Risk Management
Framework e il dipartimento Group Capital and Value Management, in particolare Alberto
Santoro, Giovanni Sala e Dario Galdieri.
Ringrazio il prof. Ermanno Pitacco che ha creduto in questo progetto, permettendo di
ritrovare in quest’opera l’espressione di una persona che è maturata con il ciclo di studi
attuariali. In particolare, ha offerto la giusta supervisione per rendere questo lavoro unico
e degno di riportare il suo nome e, al contempo, permettendo di riconoscere nel testo il
mio carattere e le mie idee.
Un sentito ringraziamento va al prof. Nicola Torelli che ha accettato di fornire supporto al
complesso, e delicato, apparato statistico sottostante a questa tesi.
Ringrazio, infine, Sara che standomi vicino mi ha dato la forza necessaria per affrontare
nella migliore delle maniere quest’ultimo capitolo della mia carriera universitaria.
161
Scarica

Approccio stocastico alla modellizzazione del requisito